COMING SOON: A New Way to Earn Passive Income with DeFi in 2025 LEARN MORE

La UE prohíbe toda la tecnología de IA considerada 'inaceptablemente arriesgada'

En esta publicación:

  • La UE solo prohibió la tecnología de IA que consideran demasiado arriesgadas, como los sistemas para la puntuación social, la vigilancia en tiempo real y la predicción del crimen.
  • Las empresas que usan IA prohibida en la UE enfrentan multas de hasta 35 millones de euros o el 7% de los ingresos globales, sin importar dónde se encuentren.
  • Las principales empresas como Google y OpenAI prometieron el cumplimiento temprano, pero los retiros como Meta y Apple no firmaron el pacto voluntario.

A partir de hoy, la Unión Europea ha cerrado la puerta en los sistemas de IA que han etiquetado como "inaceptablemente arriesgados". Eso no está en debate.

Los reguladores ahora tienen el poder de borrar líneas completas de productos durante la noche. La primera fecha límite de cumplimiento bajo la Ley de IA de la UE siempre comenzará el 2 de febrero, y el mensaje del bloque es que si rompes estas reglas, toserás 35 millones de euros (alrededor de $ 36 millones) o el 7% de tus ingresos globales —Allo duele más.

El Parlamento Europeo aprobó la Ley AI en marzo pasado después de años de presunto ajuste. Para el 1 de agosto, la ley ya estaba en vivo. Ahora, las empresas de todas las industrias simplemente deben lidiar con eso.

¿Qué hay en la lista de éxitos de la UE?

La lista negra de la UE cubre algunas esquinas oscuras de IA. Olvídese de los sistemas que obtienen personas en función del comportamiento o la reputación, como ese sistema de crédito social distópico que dirige China. Eso se ha ido. La IA diseñada para atornillar las elecciones de las personas a través de trucos astutos o mensajes subliminales también está prohibido.

Además, la IA que perfila las vulnerabilidades, por ejemplo, aprovechando la edad o la discapacidad de alguien para manipularlas, está fuera de la mesa. Y aquí hay uno para los libros de historia: la UE hizo ilegal predecir si alguien cometerá un delito basado en sus características faciales.

Ver también  TSMC propone la empresa conjunta Intel con NVIDIA, AMD y Broadcom

Si su IA está minando datos biométricos para hacer suposiciones sobre el género, la orientación sexual o las creencias políticas, empacar y salir. El monitoreo biométrico en tiempo real para la aplicación de la ley también está prohibido a menos que cumpla con condiciones altamente específicas, de acuerdo con la Ley de AI de la UE.

Eso significa que no hay escaneos faciales en las estaciones de metro o eventos públicos solo para atrapar "sospechosos potenciales". El reytracla emoción AI en escuelas y lugares de trabajo también se cortó, excepto en casos raros vinculados al tratamiento médico o la seguridad.

Estas prohibiciones se aplican a todas las empresas que operan dentro de las fronteras de la UE. La sede no importa: los gigantes del valle de Silicon, las startups asiáticas de IA, los laboratorios europeos, lo que sea. Si usa un sistema restringido, la UE dice que va a pagar la multa.

Los gigantes corporativos se dividen en cumplimiento

En septiembre de 2024, más de 100 compañías tecnológicas (incluidas Google, Openai y Amazon) firmaron una promesa voluntaria llamada Pacto de AI de la UE, donde, según los informes, prometieron limpiar sus proyectos de IA temprano, antes de los plazos del ACT, y también mapear qué sistemas podría caer en las categorías de alto riesgo o prohibidas.

Curiosamente, la compañía de AI de Meta, Apple y francés, Mistral, se negó, diciendo que las regulaciones son demasiado rígidas y sofocarían la innovación en octubre de 2024.

Aún así, omitir el pacto no exime a nadie de seguir la ley, a pesar de que la mayoría de estas compañías tecnológicas ni siquiera están tocando las categorías prohibidas, de manera realista.

Ver también  CCI Winter Warns La inteligencia artificial podría permitir 'carteles sin comunicación humana'

Pero de acuerdo con la Ley de AI de la UE, las agencias de aplicación de la ley aún pueden usar sistemas de IA que recopilan datos biométricos en público, aunque necesitarán la aprobación de los órganos de gobierno de antemano. La exención se aplica a emergencias como trac King por personas desaparecidas o detener ataques inminentes, y AI detectando la emoción en las escuelas y oficinas, pero solo cuando se justifica las preocupaciones médicas o de seguridad.

Pero la Ley AI no funciona de forma aislada. El Reglamento General de Protección de Datos (GDPR), la Directiva de Seguridad de la Red y la Información (NIS2) y la Ley de Resiliencia Operativa Digital (DORA) tienen requisitos superpuestos para el manejo y la seguridad de los datos.

Academia Cryptopolitan: ¿Quieres hacer crecer tu dinero en 2025? Aprenda cómo hacerlo con DeFi en nuestra próxima clase web. Guarda tu lugar

Compartir enlace:

Descargo de responsabilidad. La información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron dent independiente y/o la consulta con un profesional calificado antes de tomar cualquier decisión de inversión.

Mas leido

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

elección del editor

Cargando artículos elegidos por el editor...
Suscríbete a CryptoPolitan