El gobierno de Irlanda ha solicitado la opinión pública sobre la implementación de la Ley de Inteligencia Artificial de la Unión Europea. Esta ley se adoptó oficialmente el 21 de mayo.
Dara Calleary, Ministra de Estado de Promoción Comercial, Regulación Digital y Empresarial de Irlanda, ha solicitado la opinión del público y las empresas sobre la inteligencia artificial. Las leyes se introdujeron tras un proceso de varios años para regular la IA y proteger a las personas de los riesgos que esta tecnología podría presentar.
El Gobierno irlandés busca la opinión pública
La UE afirmó su intención de promover la innovación. Las normas adoptadas respaldarán la decisión, equilibrando el fomento de la innovación con la protección de los derechos de los ciudadanos. No se permitirán las herramientas de IA que se consideren peligrosas para las personas.
Lea también: La Ley de IA de Europa obtiene la aprobación final con multas de hasta 38 millones de dólares
Por otro lado, los fabricantes de herramientas clasificadas como de alto riesgo estarán sujetos a una evaluación de riesgos. Esto garantiza que sus herramientas sean seguras y cumplan con la ley antes de su lanzamiento al público. Calleary declaró lo siguiente:
“Queremos conocer las opiniones sobre cómo podría funcionar la Ley con los mercados, servicios e infraestructuras digitales existentes y considerar cómo puede mejorar la posición de Irlanda como una economía digital líder”. Fuente .
La Ley de IA de la UE prohíbe estrictamente el uso de la inteligencia artificial para fines de pronóstico policial. También prohíbe los sistemas de IA que puedan utilizarse para deducir la orientación sexual, la raza o la religión de una persona.
Las empresas asumirán un mayor peso en el cumplimiento
El Departamento de Empresa, Comercio y Empleo de Irlanda es responsable de la aplicación de la Ley de IA. Las restricciones a los sistemas de IA prohibidos deben entrar en vigor en un plazo de seis meses, y las sanciones y medidas coercitivas deben aplicarse en un plazo de doce meses.

La Ley de IA de la UE impone importantes obligaciones a las empresas, especialmente a las pequeñas y medianas empresas (pymes). Ahora deben cumplir con estrictas directrices sobre gestión de riesgos, supervisión y transparencia de los sistemas de IA. El ministro de Estado Calleary declaró:
“Nuestra estrategia nacional de IA promueve el uso de la IA a través de un enfoque ético y centrado en las personas para su desarrollo, adopción y uso”
Los requisitos regulatorios podrían suponer una carga significativa para las pequeñas empresas, ya que podrían carecer de los recursos necesarios para implementarlos. Las pymes deberán cumplir requisitos exhaustivos y establecer sistemas eficaces de gestión de riesgos. También deberán adoptar otras medidas, como la supervisión humana y la ciberseguridad de los sistemas.
Los requisitos de cumplimiento incluyen una extensa documentación, informes y la provisión de los aspectos técnicos de los modelos de IA. En conjunto, todos estos factores pueden representar una carga administrativa para las pequeñas empresas.
El Gobierno evalúa los enfoques de implementación de la Ley de IA
El Departamento de Empresa, Comercio y Empleo está evaluando enfoques alternativos para la implementación de la Ley. El gobierno afirmó que el objetivo de esta evaluación es determinar la estructura nacional óptima para la aplicación efectiva de las disposiciones de la Ley.
Calleary dijo que el ambicioso cronograma para implementar las reglas exige un enfoque colectivo y alentaría a todas las partes a participar en esta consulta pública sobre IA.
Lea también: La Ley de IA de la UE se enfrenta a la reacción negativa de las partes interesadas de la industria tecnológica
La Ley establece algunas exenciones para aplicaciones con fines de seguridad nacional, modelos de código abierto para uso personal, I+D científico, defensa e investigación en sistemas de IA. Cada Estado miembro debe establecer un entorno regulatorio para la IA en un plazo de 24 meses para impulsar la innovación.
La Ley se aprobó en marzo de este año. Al día siguiente de su aprobación, la Comisión Europea solicitó a Google, Bing, TikTok, Facebook, Snapchat, YouTube y X que proporcionaran detalles sobre cómo gestionaban los riesgos de la IA generativa.
Reportaje Cryptopolitan de Aamir Sheikh

