La Unión Europea ha dado un paso significativo hacia la regulación del campo de rápida evolución de la inteligencia artificial (IA) al dar la aprobación final a la Ley de Inteligencia Artificial, una legislación innovadora que tiene como objetivo establecer un marco integral para el desarrollo y uso de sistemas de IA dentro del bloque de 27 naciones.
La Ley de IA, que ha estado en proceso durante cinco años, fue aprobada por abrumadora mayoría por los miembros del Parlamento Europeo, lo que marca un momento crucial en la búsqueda para garantizar que la tecnología de IA se desarrolle e implemente de manera responsable y centrada en el ser humano.
Un indicador global
Se espera que la Ley de Inteligencia Artificial sirva de referencia global para otros gobiernos que afrontan el reto de regular la tecnología de IA. Dragos Tudorache, legislador rumano que codirigió las negociaciones parlamentarias sobre el proyecto de ley, destacó la importancia de la legislación, afirmando: «La Ley de IA ha impulsado el futuro de la IA hacia una dirección centrada en el ser humano, donde el ser humano controla la tecnología y donde esta nos ayuda a impulsar nuevos descubrimientos, el crecimiento económico, el progreso social y a liberar el potencial humano»
Enfoque basado en riesgos
La Ley de IA adopta un enfoque basado en el riesgo para regular los sistemas de IA, aumentando el nivel de escrutinio proporcionalmente a los riesgos potenciales que plantea la tecnología. Los sistemas de bajo riesgo, como los sistemas de recomendación de contenido o los filtros de spam, se enfrentarán a normas más flexibles, que exigen principalmente transparencia en el uso de la IA.
Por otro lado, las aplicaciones de IA de alto riesgo, incluidos los dispositivos médicos y los sistemas de infraestructura crítica, enfrentarán requisitos más estrictos, como el uso de datos de alta calidad y la provisión de información clara a los usuarios.
Ciertos usos de la IA que se consideran un riesgo inaceptable quedan totalmente prohibidos por la nueva legislación. Entre ellos se incluyen los sistemas de puntuación social que rigen el comportamiento humano, algunos tipos de vigilancia predictiva y los sistemas de reconocimiento de emociones en escuelas y lugares de trabajo. Además, la ley prohíbe a las fuerzas del orden utilizar sistemas dedentbiométrica remota basados en IA en espacios públicos, excepto en casos de delitos graves como secuestros o terrorismo.
El reglamento también aborda el asombroso auge de los modelos de IA de propósito general, como ChatGPT de OpenAI, al introducir disposiciones para su supervisión. Los desarrolladores de estos modelos deberán proporcionar resúmenes detallados de los datos utilizados para el entrenamiento, cumplir la legislación de la UE sobre derechos de autor y etiquetar los deepfakes generados por IA como manipulados artificialmente.
Abordar los riesgos sistémicos
Reconociendo el potencial de los modelos de IA potentes para plantear "riesgos sistémicos", la Ley de IA impone un escrutinio adicional a los sistemas más grandes y avanzados, incluyendo GPT4 de OpenAI y Gemini de Google. Las empresas que proporcionan estos sistemas deberán evaluar y mitigar los riesgos, informardentgraves, implementar medidas de ciberseguridad y divulgar datos de consumo energético.
Las preocupaciones de la UE surgen de la posibilidad de que estos poderosos sistemas de IA provoquendentgraves, se utilicen indebidamente para realizar ciberataques o propaguen sesgos dañinos en numerosas aplicaciones, afectando a un gran número de personas.
Si bien la Ley de IA busca establecer un marco para el desarrollo responsable de la IA, también busca promover la innovación dentro de la UE. Las grandes empresas tecnológicas, en general, han apoyado la necesidad de regulación, al tiempo que presionan para garantizar que las normas les beneficien.
El director ejecutivo de OpenAI, Sam Altman, inicialmente causó revuelo al sugerir que la compañía podría retirarse de Europa si no podía cumplir con la Ley de IA, pero luego setracy afirmó que no había planes de irse.
Mientras el mundo lidia con el rápido avance de la tecnología de IA, la Ley de Inteligencia Artificial de la Unión Europea representa un esfuerzo pionero para lograr un equilibrio entre fomentar la innovación y abordar los posibles riesgos y desafíos que plantea esta tecnología transformadora.

