Cargando...

La seguridad será un tema principal de la agenda en la Cumbre de IA de Seúl

En esta publicación:

  • Corea del Sur y Gran Bretaña serán coanfitriones de una cumbre sobre seguridad de la IA en Seúl los días 21 y 22 de mayo.
  • El primer ministro británico y el dent surcoreano también han dado prioridad a la innovación y la inclusión.
  • La conferencia es una continuación de la conferencia británica sobre seguridad de la IA celebrada en Bletchley Park en noviembre.

Los gobiernos de Corea del Sur y el Reino Unido instarán a las empresas de tecnología a abordar la supervisión de la seguridad de la inteligencia artificial en la cumbre internacional de IA de esta semana.

Esta reunión es una continuación de la primera cumbre mundial sobre seguridad de la IA celebrada en Bletchley Park, Gran Bretaña, el año pasado, donde varios gobiernos expresaron sus preocupaciones sobre los riesgos de la IA. También estuvieron presentes empresas de inteligencia artificial, ya que la tecnología en la que trabajan plantea estos riesgos.

En medio de los numerosos intentos internacionales de crear barreras protectoras para la tecnología en rápido desarrollo que tiene el potencial de revolucionar muchas facetas de la sociedad, la cumbre de Seúl ha encendido preocupaciones sobre los riesgos emergentes para la vida diaria. 

"Aunque se han realizado esfuerzos positivos para dar forma a la gobernanza global de la IA, aún persisten lagunas importantes".

La cumbre del Reino Unido de noviembre reunió a investigadores, funcionarios gubernamentales, ejecutivos de tecnología y representantes de organizaciones de la sociedad civil, muchos de los cuales tenían opiniones divergentes sobre la inteligencia artificial. Las reuniones tuvieron lugar a puerta cerrada en Bletchley. Junto con políticos como el primer ministro británico Rishi Sunak, los directores ejecutivos de OpenAI Sam Altman y Tesla, también asistió Elon Musk, junto con muchos otros.

La seguridad será una prioridad en la Cumbre de IA

La seguridad volverá a ser una de las principales prioridades en la Cumbre AI de Seúl, que comienza el martes. Los gobiernos del Reino Unido y Corea del Sur serán coanfitriones de la reunión del 21 al 22 de mayo.

Está previsto que destacadas empresas de inteligencia artificial, como Microsoft, Anthropic, Google DeepMind, OpenAI, creador de ChatGPT, y Mistral, una startup francesa de inteligencia artificial, envíen representantes.

dent surcoreano, Yoon Suk Yeol, también escribieron un artículo conjunto, publicado en INews el lunes. Aceptando el potencial de esta tecnología, expresaron su voluntad de garantizar la seguridad, diciendo:

"Juntos, estamos decididos a aprovechar el potencial de esta tecnología para transformar el mundo para mejor".

También enfatizaron que a medida que las nuevas tecnologías traen nuevos riesgos, también lo hace la IA. Señalaron el uso indebido de la IA por parte de actores deshonestos que deliberadamente quieren aprovecharla para cometer delitos.

Recientemente, OpenAI disolvió su equipo de seguridad, llamado equipo Superalignment, cuando su cofundador Ilya Sutskever y algunos otros empleados clave abandonaron la empresa. El desarrollo provino de la empresa de inteligencia artificial líder en el mundo pocos días antes de la cumbre de Seúl, cuyo enfoque es mitigar los riesgos de la inteligencia artificial.

Lea también: Se insta a la cooperación internacional para abordar los riesgos de la IA en la cumbre de Bletchley Park

En otro avance, Anthropic publicó hoy su informe sobre políticas de escalamiento responsable, que, según la compañía, ha mostrado buenos resultados. Sin embargo, no podemos confirmar estos resultados. Si bien no estamos en condiciones de comentar ninguno de estos acontecimientos, sí dan algo de qué reflexionar.

La innovación debe continuar

Después del meteórico ascenso de ChatGPT a la popularidad poco después de su lanzamiento en 2022, las empresas de tecnología de todo el mundo comenzaron a invertir miles de millones de dólares en la construcción de sus modelos de IA generativa. Sunak y Yeol mencionaron la rápida innovación a medida que se lanzan nuevos modelos de IA diariamente. Ellos dijeron,

"El gobierno puede fomentar esta innovación invirtiendo miles de millones, impulsando la investigación de vanguardia en nuestras universidades de clase mundial y garantizando que no regulemos excesivamente las empresas emergentes que podrían producir la próxima gran idea".

Los defensores de los modelos de IA generativa han aclamado la tecnología como un gran avance que mejorará la vida de las personas y los negocios en todo el mundo, ya que puede producir texto, fotografías, música e incluso videos en respuesta a señales simples.

Algunos de estos productos que han llamado la atención del público tienen su propio sesgo, lo cual es motivo de preocupación. 

Lea también: Trabajar con IA es esencial, dicen los expertos en IA en el Foro de Liderazgo Global de Fidic

Y no son sólo estos; La tecnología que funciona detrás de estos productos, llamada modelos de lenguaje grande (LLM), también se ha convertido en la tecnología base detrás de muchas soluciones en diferentes sectores. Desde vehículos de conducción autónoma hasta soluciones médicas, muchos dependen de los LLM de IA generativa para funcionar.

Todavía hay voces preocupantes

Numerosas personas han exigido directrices internacionales para controlar el avance y la aplicación de la IA. Por ejemplo, un movimiento con sede en Nueva York llamado Ban the Scan exige que se detenga el uso del reconocimiento facial a nivel gubernamental y privado.  

Argumentan que estas tecnologías interfieren con la libertad personal y tienen una alta tasa de falsos positivos. Una página de la tron Frontier Foundation dice:

“El reconocimiento facial es una amenaza a la privacidad, la justicia racial, la libre expresión y la seguridad de la información. El reconocimiento facial en todas sus formas, incluido el escaneo facial y trac en tiempo real, plantea amenazas a las libertades civiles y la privacidad individual”.

Ellos no son los únicos. Los defensores de los derechos humanos, los gobiernos y los críticos han advertido que se puede abusar de la IA de muchas maneras. Por ejemplo, actores no estatales pueden usarlo para influir en los votantes con noticias ficticias o imágenes y videos llamados “deepfake” de funcionarios electos. Otra preocupación cada vez más profunda son los informes que surgen de estados que respaldan a elementos deshonestos para sus intereses.

"También daremos los siguientes pasos para dar forma a los estándares globales que evitarán una carrera hacia el fondo".

El artículo del dúo mencionó la declaración anterior y enfatizó que sería útil discutir las normas internacionales para la IA en un foro más abierto. Al mismo tiempo, algunas organizaciones de derechos civiles de Corea del Sur han criticado a los organizadores por no invitar a suficientes países en desarrollo.

Francia también celebrará esta semana una conferencia sobre “Viva Technology”, respaldada por LVMH, el grupo de lujo más grande del mundo. Durante el año pasado, Francia intentó trac nuevas empresas de IA para posicionarse como el campeón europeo de IA.


Informe criptopolitano de Aamir Sheikh

Temas etiquetados en esta publicación: | | | | |

Descargo de responsabilidad. La información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron dent independiente y/o la consulta con un profesional calificado antes de tomar cualquier decisión de inversión.

Compartir enlace:

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

Noticias relacionadas

Los ejecutivos tecnológicos impulsan habilidades de inteligencia artificial y medidas de crecimiento antes de las elecciones en el Reino Unido
criptopolitano
Suscríbete a CryptoPolitan