Google, OpenAI y Meta acordaron dejar de desarrollar cualquier modelo de IA si no pueden contener los riesgos. Las empresas firmaron los “Compromisos de seguridad de la IA” el martes en la Cumbre de IA de Seúl, organizada por el Reino Unido y Corea del Sur.
Lea también: Reino Unido y la República de Corea colaboran en la cumbre de IA
Es una primicia mundial que tantas empresas líderes en IA de tantas partes del mundo acuerden los mismos compromisos en materia de seguridad de la IA.
— Primer Ministro del Reino Unido, Rishi Sunak
16 empresas de IA acuerdan compromisos de seguridad de la IA
Según el informe , un total de 16 empresas de IA aceptaron el compromiso de seguridad, abarcando Estados Unidos, China y Medio Oriente.
Microsoft, Amazon, Anthropic, Samsungtrony el desarrollador chino Zhipu.ai también se encuentran entre las empresas que aceptan las normas de seguridad.
El compromiso de seguridad de la IA exige que todas las empresas publiquen su respectivo marco de seguridad antes de otra Cumbre de Acción de la IA que se celebrará en Francia a principios de 2025. El marco explicará cómo las empresas determinan los riesgos de sus modelos y qué riesgos se "consideran intolerables".
Las empresas de IA desconectarán los modelos de IA riesgosos
En los casos más extremos, las empresas “no desarrollarán ni implementarán ningún modelo o sistema” si los riesgos no pueden contenerse, según el informe.
El verdadero potencial de la IA sólo se liberará si somos capaces de asumir los riesgos. Depende de todos nosotros garantizar que la IA se desarrolle de forma segura.
— Michelle Donelan, Secretaria de Tecnología del Reino Unido
En julio de 2023, el gobierno de EE. UU. hizo un esfuerzo similar para abordar los riesgos y beneficios de la IA. Eldent Joe Biden se reunió con Google, Microsoft, Meta, OpenAI, Amazon, Anthropic e Inflection para discutir las salvaguardias de IA que garantizan que sus productos de IA sean seguros antes de su lanzamiento.
El debate sobre la seguridad de la IA se intensifica por OpenAI
La conversación sobre la seguridad de la IA se ha intensificado en los últimos meses, particularmente en torno a los AGI, cuyo objetivo es imitar la inteligencia general similar a la humana.
Una de las empresas, OpenAI, quedó en el centro de esta conversación la semana pasada después de que el cofundador, Ilya Sutskever, y el ejecutivo de alto nivel, Jan Leike, renunciaran a la empresa. El dúo estaba a cargo del equipo OpenAI Superalignment creado para evitar que sus modelos se volvieran rebeldes.
Lea también: Otro ejecutivo de OpenAI, Jan Leike, renuncia
En su publicación, Leike dijo que “en los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes” en la empresa.
Hace tiempo que deberíamos tomarnos increíblemente en serio las implicaciones de la AGI.
- Jan Leike (@janleike) 17 de mayo de 2024
Debemos priorizar prepararnos para ellos lo mejor que podamos.
Sólo entonces podremos garantizar que la AGI beneficie a toda la humanidad.
Leike agregó que “OpenAI debe convertirse en una empresa AGI que priorice la seguridad” y que debemos priorizar la preparación para ellos lo mejor que podamos para garantizar que AGI beneficie a toda la humanidad.
Informe criptopolitano de Ibiam Wayas
Tus noticias de criptografía merecen atención: Key Difference Wire te pone en más de 250 sitios superiores