Cargando...

La Ley europea de IA obtiene la aprobación final con multas de hasta 38 millones de dólares 

En esta publicación:

● La Unión Europea aprueba la versión final de su tan esperada Ley de IA.

● Las nuevas reglas tienen como objetivo restringir el uso de la IA considerada de alto riesgo, como los deepfakes y la puntuación social.

● Los fundadores de startups temen que la ley pueda obstaculizar la inversión y la innovación.

La Unión Europea aprobó el martes la versión final de su tan esperada ley sobre Inteligencia Artificial (IA), convirtiéndola en la primera gran potencia económica en introducir reglas integrales para la incipiente industria. 

Las nuevas reglas, destinadas a restringir el uso público de la IA considerada de alto riesgo, como los deepfakes y el software de reconocimiento facial, se aplicarán a todas las empresas que implementen este tipo de aplicaciones en los 27 estados miembros de la UE.

En total, el bloque de la UE representa alrededor del 20% de la economía mundial. Las empresas de IA que violen la nueva ley se enfrentarán a multas de hasta 35 millones de euros [38 millones de dólares] o el 7% de sus ingresos globales anuales, según el Consejo de la UE.

Lea también: OpenAI elimina la voz de ChatGPT después de la controversia de Scarlett Johansson

Nueva legislación apunta a una 'IA segura'

"La adopción de la Ley de IA es un hito importante para la Unión Europea", dijo en un comunicado Mathieu Michel, secretario de Estado de digitalización y protección de la privacidad de Bélgica.

 

Con la Ley de IA, Europa enfatiza la importancia de la confianza, la transparencia y la responsabilidad cuando se trata de nuevas tecnologías y, al mismo tiempo, garantiza que esta tecnología en rápida evolución pueda florecer e impulsar la innovación europea.

Mathieu Michel

 

Los tres poderes de la UE (la Comisión, el Parlamento y el Consejo) tuvieron que ponerse de acuerdo sobre la versión final de la ley. La Comisión de la UE y el Parlamento de la Unión Europea ya habían aprobado la ley, y el Consejo de la UE dio el acuerdo final el 22 de mayo.

La Ley de IA describe diferentes categorías de riesgo del uso de inteligencia artificial, que van desde "bajo riesgo" hasta "alto" e "riesgo inaceptable". La categorización se basa en el potencial de los sistemas para dañar a los consumidores.

Las aplicaciones de inteligencia artificial que se consideran una amenaza a los derechos individuales, como el software de reconocimiento facial en lugares públicos y la puntuación social (una práctica que asigna puntuaciones a los individuos, ya sea para préstamos o vivienda, en función de su comportamiento), serán prohibidas por completo.

La categoría de menor riesgo se relaciona con la inteligencia artificial utilizada en videojuegos o filtros de spam. Los casos de uso sensibles de “alto riesgo” que se permitirán incluyen aspectos como la gestión de fronteras, la educación y el reclutamiento.

Las empresas que implementen dichas tecnologías deberán revelar más información sobre los datos utilizados para entrenar sus sistemas. Según la UE, su Parlamento estará facultado para imponer multas a las empresas que violen la ley de IA por una suma de 38 millones de dólares o el 7% de su facturación global anual.

La Ley de IA corre el riesgo de sofocar la inversión

Matthijs de Vries, fundador del ecosistema de datos de IA, Nuklai, dijo que las reglas están diseñadas para proteger la información personal, particularmente en sectores sensibles como la atención médica y las finanzas.

"Al garantizar que los sistemas de inteligencia artificial cumplan con estrictos protocolos de uso de datos, la Ley de IA ayuda a salvaguardar la privacidad y seguridad del consumidor", dijo de Vries a Cryptopolitan.

“La divulgación de las prácticas de recopilación, procesamiento y uso de datos exigidas en la Ley de Datos de la UE ayuda a desmitificar en qué datos se entrena la IA y qué datos utiliza para hacer sus declaraciones y conclusiones. Esto ayuda a mejorar la confianza, la verificabilidad y la confiabilidad de los sistemas de IA”, añadió.

Ha habido preocupaciones de que a las nuevas empresas les resulte difícil cumplir con la Ley de IA. A los fundadores les preocupa que las medidas puedan perjudicar a las empresas más pequeñas y obstaculizar la inversión y la innovación, dejando a Europa aún más por detrás de Estados Unidos y China en la carrera de la IA.

En octubre, Cedric O, fundador de la startup francesa de IA Mistral , dijo que la ley "mataría" a su empresa. El empresario temía que la ley sometiera a un escrutinio excesivo los grandes modelos de lenguaje, incluso si no se implementaban para casos de uso delicados como la contratación, informó .

Jonas Andrulis, director ejecutivo de Aleph Alpha, el rival alemán de OpenAI, dijo que clasificar la "IA de propósito general", como los LLM, como de alto riesgo podría tener consecuencias no deseadas. Silo AI de Finlandia, se hizo eco de sus comentarios

"Si en cierto modo generalizamos la tecnología de IA generativa y decimos que todos los casos de uso que utilizan transformadores generativos preentrenados (GPT) son de alto riesgo, entonces creo que también regularemos muchos casos de uso que no lo son". En realidad, no es de alto riesgo”, dijo Sarlin en ese momento.

Ley de IA
Un robot impulsado por IA operado por un ingeniero. Créditos de imagen: Comisión de la UE

Las 'fábricas de IA' de la UE para impulsar la innovación

No son sólo los empresarios los que han expresado su preocupación por la Ley de IA. Un análisis del Departamento de Estado de EE.UU. de octubre de 2023 advirtió que algunas normas de la ley se basaban en términos “vagos o indefinidos defi , según Bloomberg .

El análisis dijo que la Ley beneficiaría a las empresas tecnológicas más grandes que tienen la influencia financiera para entrenar modelos de IA y sistemas de aprendizaje automático. Es probable que las empresas más pequeñas sufran pérdidas, añadió.

Además, es poco probable que los fondos de riesgo inviertan en nuevas empresas clasificadas por la Ley de IA como de alto riesgo, según una encuesta realizada en 2023 entre 14 capitalistas de riesgo europeos realizada por la Iniciativa para la IA Aplicada. Once de los fondos dijeron que era menos probable que invirtieran en empresas con una calificación de alto riesgo, y ocho dijeron que eso tendría un impacto negativo en la valoración de la startup.

Lea también: Los principales chatbots de IA son 'altamente vulnerables' a simples 'Jaibreaks': estudio

A finales de enero, el bloque de la UE anunció una serie de medidas destinadas a impulsar la innovación para las nuevas empresas europeas que desarrollan lo que llama una IA "confiable" que "respeta los valores y las normas de la UE".

El sindicato dijo que las empresas tendrán “acceso privilegiado a supercomputadoras” y que la UE construirá “fábricas de inteligencia artificial” para garantizar que la infraestructura necesaria esté disponible para que las nuevas empresas la compren y actualicen.

No se espera que la Ley europea de IA entre en vigor hasta 2025.


Informe criptopolitano de Jeffrey Gogo

Temas etiquetados en esta publicación: | | | | | | |

Descargo de responsabilidad La información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron dent independiente y/o la consulta con un profesional calificado antes de tomar cualquier decisión de inversión.

Compartir enlace:

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

Noticias relacionadas

Donaciones criptográficas de Biden
criptopolitano
Suscríbete a CryptoPolitan