- Corea del Sur y Gran Bretaña organizarán conjuntamente una cumbre sobre seguridad de la IA en Seúl los días 21 y 22 de mayo.
- El primer ministro británico y eldent surcoreano también han priorizado la innovación y la inclusividad.
- La conferencia es una continuación de la conferencia sobre seguridad de IA de Gran Bretaña celebrada en Bletchley Park en noviembre.
Los gobiernos de Corea del Sur y del Reino Unido instarán a las empresas tecnológicas a abordar la supervisión de la seguridad de la inteligencia artificial en la cumbre internacional sobre IA de esta semana.
Esta reunión es una continuación de la primera cumbre mundial sobre seguridad de la IA, celebrada en Bletchley Park, Gran Bretaña, el año pasado, donde varios gobiernos expresaron su preocupación por los riesgos de la IA. Las empresas de IA también estuvieron presentes, ya que la tecnología en la que trabajan presenta estos riesgos.
En medio de los numerosos intentos internacionales de crear barreras para la tecnología en rápido desarrollo que tiene el potencial de revolucionar muchas facetas de la sociedad, la cumbre de Seúl ha encendido preocupaciones sobre riesgos emergentes para la vida diaria.
“Si bien se han realizado esfuerzos positivos para dar forma a la gobernanza global de la IA, aún persisten brechas importantes”
La cumbre del Reino Unido de noviembre reunió a investigadores, funcionarios gubernamentales, ejecutivos tecnológicos y representantes de organizaciones de la sociedad civil, muchos de los cuales tenían opiniones divergentes sobre la inteligencia artificial. Las reuniones se celebraron a puerta cerrada en Bletchley. Además de políticos como el primer ministro británico, Rishi Sunak, los directores ejecutivos de OpenAI, Sam Altman, y Tesla, Elon Musk también asistió, entre muchos otros.
La seguridad será una prioridad en la Cumbre de IA
La seguridad volverá a ser una prioridad absoluta en la Cumbre de IA de Seúl, que comienza el martes. Los gobiernos del Reino Unido y Corea del Sur coorganizan la reunión los días 21 y 22 de mayo.
Está previsto que importantes empresas de inteligencia artificial, como Microsoft, Anthropic, Google DeepMind, OpenAI, creador de ChatGPT, y Mistral, una startup francesa de inteligencia artificial, envíen representantes.
surcoreano,dent Yoon Suk Yeol, también escribieron un artículo conjunto, publicado en INews el lunes. Reconociendo el potencial de esta tecnología, expresaron su voluntad de garantizar la seguridad, afirmando:
“Juntos, estamos decididos a aprovechar el potencial de esta tecnología para transformar el mundo y mejorarlo”
También destacaron que, a medida que las nuevas tecnologías traen consigo nuevos riesgos, también lo hace la IA. Señalaron el uso indebido de la IA por parte de actores deshonestos que la utilizan deliberadamente para cometer delitos.
Recientemente, OpenAI disolvió su equipo de seguridad, denominado Superalignment, cuando su cofundador, Ilya Sutskever, y otros empleados clave dejaron la empresa. Esta iniciativa surgió de la empresa líder mundial en IA, pocos días antes de la cumbre de Seúl, cuyo objetivo es mitigar los riesgos de la IA.
Lea también: Se insta a la cooperación internacional para abordar los riesgos de la IA en la cumbre de Bletchley Park
Por otra parte, Anthropic publicó hoy su informe sobre políticas de escalamiento responsable, el cual, según la compañía, ha arrojado buenos resultados. Sin embargo, no podemos confirmarlos. Si bien no podemos comentar sobre ninguno de estos avances, sí nos dan algo que pensar.
La innovación debe continuar
Tras el meteórico ascenso de ChatGPT a la popularidad poco después de su lanzamiento en 2022, empresas tecnológicas de todo el mundo comenzaron a invertir miles de millones de dólares en el desarrollo de sus modelos de IA generativa. Sunak y Yeol mencionaron la rápida innovación, ya que se lanzan nuevos modelos de IA a diario. Dijeron:
“El gobierno puede fomentar esta innovación invirtiendo miles de millones, impulsando la investigación de vanguardia en nuestras universidades de clase mundial y garantizando que no regulemos excesivamente a las empresas emergentes que podrían producir la próxima gran idea”
Los defensores de los modelos de IA generativa han elogiado esta tecnología como un avance que mejorará la vida de las personas y los negocios en todo el mundo, ya que puede producir texto, fotografías, música e incluso vídeos en respuesta a señales simples.
Algunos de estos productos que han ganado la atención del público tienen su propio sesgo incorporado, lo cual es motivo de preocupación.
Lea también: Trabajar con IA es esencial, afirman expertos en IA en el Foro de Liderazgo Global de Fidic.
Y no se trata solo de esto; la tecnología que sustenta estos productos, denominada modelos de lenguaje de gran tamaño (LLM), también se ha convertido en la base tecnológica de numerosas soluciones en diversos sectores. Desde vehículos autónomos hasta soluciones médicas, muchas dependen de los LLM de IA generativa para su funcionamiento.
Todavía hay voces preocupantes
Numerosas personas han exigido directrices internacionales para controlar el avance y la aplicación de la IA. Por ejemplo, un movimiento neoyorquino llamado Ban the Scan exige que se detenga el uso del reconocimiento facial a nivel gubernamental y privado.
Argumentan que estas tecnologías interfieren con la libertad personal y tienen una alta tasa de falsos positivos. Una página de latronFrontier Foundation dice:
El reconocimiento facial es una amenaza para la privacidad, la justicia racial, la libertad de expresión y la seguridad de la información. El reconocimiento facial en todas sus formas, incluyendo el escaneo facial y tracen tiempo real, representa una amenaza para las libertades civiles y la privacidad individual
No son los únicos. Defensores de derechos humanos, gobiernos y críticos han advertido que la IA puede ser objeto de abuso de diversas maneras. Por ejemplo, actores no estatales pueden usarla para influir en los votantes con noticias ficticias o imágenes y vídeos de funcionarios electos denominados "deepfake". Otra preocupación creciente son los informes que surgen sobre Estados que respaldan a elementos deshonestos para defender sus intereses.
“También daremos los siguientes pasos para definir los estándares globales que evitarán una carrera hacia el abismo”
El artículo del dúo mencionó la declaración anterior y enfatizó que sería útil debatir las normas internacionales para la IA en un foro más abierto. Al mismo tiempo, algunas organizaciones surcoreanas de derechos civiles criticaron a los organizadores por no invitar a suficientes países en desarrollo.
Francia también celebrará esta semana la conferencia "Viva Technology", respaldada por LVMH, el mayor grupo de lujo del mundo. Durante el último año, Francia ha intentadotracstartups de IA para posicionarse como líder europeo en IA.
Reportaje Cryptopolitan de Aamir Sheikh
No te limites a leer noticias sobre criptomonedas. Entiéndelas. Suscríbete a nuestro boletín. Es gratis.
Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.
CURSO
- ¿Qué criptomonedas pueden hacerte ganar dinero?
- Cómo mejorar tu seguridad con una billetera (y cuáles realmente vale la pena usar)
- Estrategias de inversión poco conocidas que utilizan los profesionales
- Cómo empezar a invertir en criptomonedas (qué plataformas de intercambio usar, las mejores criptomonedas para comprar, etc.)
















