En un avance significativo para garantizar el desarrollo seguro y responsable de la inteligencia artificial (IA), Estados Unidos, el Reino Unido, Singapur y otras 15 naciones han presentado conjuntamente el primer acuerdo internacional integral centrado en el desarrollo responsable de la IA. Esta iniciativa histórica, aunque no vinculante, marca un paso crucial para priorizar las medidas de seguridad en los sistemas de IA desde su concepción.
Un esfuerzo global para una IA responsable
El acuerdo internacional, descrito en un documento de 20 páginas publicado recientemente, reúne a 18 países, entre ellos Estados Unidos, Singapur, Reino Unido, Alemania, Italia, República Checa, Estonia, Polonia, Australia, Chile, Israel y Nigeria. Si bien no es vinculante, este acuerdo subraya el compromiso compartido de desarrollar e implementar sistemas de IA, con el objetivo principal de proteger tanto a los consumidores como al público en general contra posibles usos indebidos.
Jen Easterly, directora de la Agencia de Ciberseguridad y Seguridad de Infraestructura de EE. UU. (CISA), destacó la importancia de este acuerdo. Es la primera vez que varias naciones han afirmado colectivamente la necesidad de priorizar la seguridad durante la fase de diseño de los sistemas de IA. Easterly enfatizó que estas directrices van más allá de las simples características y la competencia en el mercado, y destacó la importancia de las consideraciones de seguridad.
Marco que aborda cuestiones clave
Este marco integral aborda cuestiones cruciales para evitar que la tecnología de IA caiga en manos indebidas. Incluye recomendaciones para realizar pruebas de seguridad rigurosas antes del lanzamiento de modelos de IA y medidas para supervisar los sistemas de IA y detectar posibles abusos. Además, se centra en la protección de datos contra la manipulación y en la verificación del cumplimiento de los estándares de seguridad por parte de los proveedores de software.
Sin embargo, es esencial señalar que el acuerdo no profundiza en aspectos más polémicos, como defiusos apropiados de la IA o abordar preocupaciones sobre los métodos de recopilación de datos.
Iniciativas globales para frenar los riesgos de la IA
Este acuerdo internacional se suma a una serie de iniciativas globales destinadas a definir la trayectoria del desarrollo de la IA. Estas directrices representan un reconocimiento colectivo de la necesidad de priorizar las consideraciones de seguridad en el ámbito de la inteligencia artificial.
El mes pasado, el Grupo de los Siete (G7) de países industrializados también decidió acordar un código de conducta para las empresas que desarrollan sistemas avanzados de IA. Este código de 11 puntos busca promover una IA segura y confiable a nivel mundial. Refleja la intención de los gobiernos de colaborar para mitigar los riesgos y el posible uso indebido de la tecnología de IA. El código enfatiza que las empresas deben tomar medidas activas paradent, evaluar y mitigar los riesgos a lo largo del ciclo de vida de la IA.
De igual manera, la Unión Europea ha logrado avances sustanciales al alcanzar un acuerdo temprano sobre la Ley de Inteligencia Artificial, que podría convertirse en el primer conjunto integral de leyes del mundo que regula el uso de la tecnología de IA. En virtud de esta ley, las empresas que utilizan herramientas de IA generativa como ChatGPT y Midjourney deben divulgar cualquier material protegido por derechos de autor utilizado en el desarrollo de sus sistemas. La legislación se encuentra actualmente en proceso de colaboración entre los legisladores de la UE y los Estados miembros para ultimar los detalles del proyecto de ley. Las herramientas de IA se clasifican según el nivel de riesgo que presentan, desde bajo a limitado, alto o inaceptable.
Impulso global para la regulación de la IA
A medida que crece el impulso global para regular la IA, el Grupo de los Siete (G7) se prepara para establecer un código de conducta para sistemas avanzados de IA. Este próximo acuerdo sobre IA, junto con el acuerdo internacional alcanzado recientemente y la labor de la Unión Europea en materia de legislación sobre IA, subraya un esfuerzo conjunto para abordar el panorama cambiante de la inteligencia artificial. La atención se centra en la necesidad de medidas de seguridad y un desarrollo responsable en el sector de la IA.
El acuerdo internacional para el desarrollo responsable de la IA representa un momento crucial en el panorama global de la IA. Si bien no es vinculante, transmite un mensaje claro de que las naciones se comprometen a priorizar la seguridad de los sistemas de IA y a proteger los intereses públicos. A medida que la tecnología de la IA continúa avanzando, estos esfuerzos de colaboración buscan lograr un equilibrio entre aprovechar sus beneficios y mitigar los posibles riesgos, configurando así el futuro responsable de la inteligencia artificial.

