Google, OpenAI y Meta acordaron detener el desarrollo de cualquier modelo de IA si no logran contener los riesgos. Las empresas firmaron los "Compromisos de Seguridad de la IA" el martes en la Cumbre de IA de Seúl, organizada por el Reino Unido y Corea del Sur.
Lea también: El Reino Unido y la República de Corea colaboran en la Cumbre de IA
Es una novedad mundial que tantas empresas líderes en IA de tantas partes del mundo acuerden los mismos compromisos en materia de seguridad de la IA.
— Primer Ministro del Reino Unido, Rishi Sunak
16 empresas de IA acuerdan compromisos de seguridad de IA
Según el informe , un total de 16 empresas de IA aceptaron el compromiso de seguridad, provenientes de Estados Unidos, China y Medio Oriente.
Microsoft, Amazon, Anthropic, Samsungtrony el desarrollador chino Zhipu.ai también se encuentran entre las empresas que aceptan los estándares de seguridad.
El compromiso de seguridad de la IA requiere que todas las empresas publiquen su respectivo marco de seguridad antes de otra Cumbre de Acción de IA en Francia a principios de 2025. El marco explicará cómo las empresas determinan los riesgos de sus modelos y qué riesgos se "consideran intolerables"
Las empresas de IA abandonarán los modelos de IA riesgosos
En los casos más extremos, las empresas “no desarrollarán ni implementarán ningún modelo o sistema” si no se pueden contener los riesgos, según el informe.
El verdadero potencial de la IA solo se liberará si somos capaces de controlar los riesgos. Es responsabilidad de todos garantizar que la IA se desarrolle de forma segura.
— Michelle Donelan, Secretaria de Tecnología del Reino Unido
En julio de 2023, el gobierno estadounidense realizó una iniciativa similar para abordar los riesgos y beneficios de la IA. Eldent Joe Biden se reunió con Google, Microsoft, Meta, OpenAI, Amazon, Anthropic e Inflection para debatir las medidas de seguridad que garantizan la seguridad de sus productos antes de su lanzamiento.
El debate sobre la seguridad de la IA se intensifica en torno a OpenAI
La conversación sobre la seguridad de la IA se ha intensificado en los últimos meses, particularmente en torno a las IAG, que tienen como objetivo imitar la inteligencia general similar a la humana.
Una de las empresas, OpenAI, se vio en el centro de esta conversación la semana pasada tras la renuncia del cofundador, Ilya Sutskever, y del alto ejecutivo, Jan Leike. Ambos estaban a cargo del equipo de Superalineación de OpenAI, creado para evitar que sus modelos fallaran.
Lea también: Otro ejecutivo de OpenAI, Jan Leike, renuncia
En su publicación, Leike afirmó que “en los últimos años, la cultura y los procesos de seguridad han quedado relegados a un segundo plano frente a los productos brillantes” en la empresa.
Hace tiempo que deberíamos habernos tomado muy en serio las implicaciones de la IAG.
— Jan Leike (@janleike) 17 de mayo de 2024
Debemos priorizar la preparación para ellas lo mejor posible.
Solo así podremos garantizar que la IAG beneficie a toda la humanidad.
Leike agregó que “OpenAI debe convertirse en una empresa de AGI que priorice la seguridad” y que debemos priorizar la preparación para ellos lo mejor que podamos para garantizar que la AGI beneficie a toda la humanidad.
Reportaje Cryptopolitan de Ibiam Wayas

