ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

La UE prohíbe toda tecnología de IA considerada "inaceptablemente arriesgada"

PorJai HamidJai Hamid
Lectura de 2 minutos.
La UE prohíbe toda tecnología de IA considerada "inaceptablemente arriesgada"
  • La UE acaba de prohibir tecnologías de inteligencia artificial que considera demasiado riesgosas, como los sistemas de puntuación social, vigilancia en tiempo real y predicción de delitos.
  • Las empresas que utilizan IA prohibida en la UE se enfrentan a multas de hasta 35 millones de euros o el 7% de sus ingresos globales, sin importar dónde tengan su sede.
  • Grandes empresas como Google y OpenAI se comprometieron a cumplir pronto, pero empresas como Meta y Apple no firmaron el pacto voluntario.

A partir de hoy, la Unión Europea ha cerrado la puerta a los sistemas de IA que ha calificado de "inaceptablemente arriesgados". Eso no está en debate.

Los reguladores ahora tienen la facultad de eliminar líneas de productos completas de la noche a la mañana. El primer plazo de cumplimiento de la Ley de IA de la UE iba a comenzar el 2 de febrero, y el mensaje del bloque es que, si se incumplen estas normas, se pagarán 35 millones de euros (unos 36 millones de dólares) o el 7 % de los ingresos globales, lo que sea más perjudicial.

El Parlamento Europeo aprobó la Ley de IA el pasado marzo, tras años de supuestos ajustes. Para el 1 de agosto, la ley ya estaba en vigor. Ahora, las empresas de todos los sectores deben simplemente adaptarse a ella.

¿Qué hay en la lista negra de la UE?

La lista negra de la UE abarca algunos aspectos oscuros de la IA. Olvídense de los sistemas que califican a las personas según su comportamiento o reputación, como ese sistema distópico de crédito social que usa China. Eso ya no existe. La IA diseñada para manipular las decisiones de las personas mediante trucos engañosos o mensajes subliminales también está prohibida.

Además, la IA que perfila vulnerabilidades (por ejemplo, aprovecharse de la edad o discapacidad de alguien para manipularlo) está descartada. Y aquí va un dato histórico: la UE ilegalizó predecir si alguien cometerá un delito basándose en sus rasgos faciales.

Si su IA extrae datos biométricos para hacer suposiciones sobre género, orientación sexual o creencias políticas, lárguese. El monitoreo biométrico en tiempo real para las fuerzas del orden también está prohibido, a menos que cumpla condiciones muy específicas, según la Ley de IA de la UE.

Eso significa que no habrá escaneos faciales en estaciones de metro ni en eventos públicos solo para detectar a posibles sospechosos. La IA detracemocional en escuelas y lugares de trabajo también se redujo, excepto en casos excepcionales relacionados con tratamientos médicos o seguridad.

Estas prohibiciones se aplican a todas las empresas que operan dentro de las fronteras de la UE. Da igual la sede: gigantes de Silicon Valley, startups asiáticas de IA, laboratorios europeos, etc. Si utilizas un sistema restringido, la UE te multará.

Los gigantes corporativos están divididos sobre el cumplimiento

En septiembre de 2024, más de 100 empresas tecnológicas (entre ellas Google, OpenAI y Amazon) firmaron un compromiso voluntario llamado Pacto de IA de la UE, en el que supuestamente prometieron limpiar sus proyectos de IA de forma temprana, antes de las fechas límite de la Ley, y también trazar un mapa de qué sistemas podrían caer dentro de las categorías de alto riesgo o prohibidos.

Curiosamente, Meta, Apple y la empresa francesa de inteligencia artificial Mistral se negaron rotundamente, afirmando que las regulaciones son demasiado rígidas y sofocarían la innovación en octubre de 2024.

Aun así, saltarse el Pacto no exime a nadie de cumplir la ley, aunque la mayoría de estas empresas tecnológicas ni siquiera tocan las categorías prohibidas, hablando de manera realista.

Sin embargo, según la Ley de IA de la UE, las fuerzas del orden aún pueden usar sistemas de IA que recopilen datos biométricos en espacios públicos, aunque necesitarán la aprobación previa de los organismos gubernamentales. La exención se aplica a emergencias como tracde personas desaparecidas o la prevención de ataques inminentes, y a la IA de detección de emociones en escuelas y oficinas, pero solo cuando esté justificada por motivos médicos o de seguridad.

Pero la Ley de IA no funciona de forma aislada. El Reglamento General de Protección de Datos (RGPD), la Directiva sobre Seguridad de las Redes y de la Información (NIS2) y la Ley de Resiliencia Operativa Digital (DORA) tienen requisitos que se solapan en materia de gestión y seguridad de datos.

Tu banco está usando tu dinero. Tú solo recibes las sobras. Mira nuestro video gratuito sobre cómo convertirte en tu propio banco.

Comparte este artículo

Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.

MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO