À partir d'aujourd'hui, l'Union européenne a fermé la porte sur les systèmes d'IA qu'ils ont étiquetés comme «inacceptablement risqués». Ce n'est pas à débattre.
Les régulateurs ont désormais le pouvoir d'effacer des gammes de produits entières du jour au lendemain. La première date limite de conformité en vertu de la loi sur l'IA de l'UE a toujours été lancé le 2 février, et le message du bloc est que si vous enfreignez ces règles, vous reconstituez 35 millions d'euros (environ 36 millions de dollars) ou 7% de vos revenus mondiaux - ce qui fait plus mal.
Le Parlement européen a approuvé la loi sur l'IA en mars dernier après des années de remontée présumée. Le 1er août, la loi était déjà en direct. Désormais, les entreprises de toutes les industries doivent simplement y faire face.
Qu'y a-t-il sur la liste des succès de l'UE?
La liste noire de l'UE couvre quelques coins sombres de l'IA. Oubliez les systèmes qui marquent des gens en fonction du comportement ou de la réputation, comme ce système de crédit social dystopique que Chine gère. C'est parti. L'IA conçue pour visser avec les choix des gens à travers des astuces sournoises ou des messages subliminaux est également interdite.
De plus, l'IA qui profil les vulnérabilités - disons, s'attaquant à l'âge de quelqu'un ou à l'invalidité de les manipuler - est hors de la table. Et en voici un pour les livres d'histoire: l'UE a rendu illégal de prédire si quelqu'un commettra un crime en fonction de ses caractéristiques faciales.
Si votre IA expose les données biométriques pour faire des hypothèses sur le sexe, l'orientation sexuelle ou les croyances politiques, faites vos valises et sortez. La surveillance biométrique en temps réel des forces de l'ordre est également interdite, sauf si elle remplit des conditions très spécifiques, selon la loi de l'UE AI.
Cela signifie pas de scans du visage dans les stations de métro ou les événements publics juste pour attraper des «suspects potentiels». Émotiontracroi de l'IA dans les écoles et les lieux de travail a également été coupé, sauf dans de rares cas liés au traitement médical ou à la sécurité.
Ces interdictions s'appliquent à chaque entreprise opérant à l'intérieur des frontières de l'UE. Le quartier général n'a pas d'importance - Giants de Silicon Valley, startups asiatiques de l'IA, laboratoires européens, vous l'appelez. Si vous utilisez un système restreint, l'UE dit que vous allez payer l'amende.
Les géants de l'entreprise se sont séparés sur la conformité
En septembre 2024, plus de 100 sociétés technologiques (dont Google, Openai et Amazon) ont signé un engagement volontaire appelé le pacte de l'IA de l'UE où ils auraient promis de nettoyer leurs projets d'IA tôt, avant les délais de la loi, et également de cartographier quels systèmes pourrait tomber dans les catégories à haut risque ou interdites.
Chose intéressante, Meta, Apple et la société française de l'IA, Mistral, ont refusé de le faire, affirmant que les réglementations sont trop rigides et étoufferaient l'innovation en octobre 2024.
Pourtant, sauter le pacte n'exempte personne de suivre la loi, même si la plupart de ces entreprises technologiques ne touchent même pas les catégories interdites, de manière réaliste.
Mais selon la loi sur l'IA de l'UE, les organismes d'application de la loi peuvent toujours utiliser des systèmes d'IA qui collectent des données biométriques en public, bien qu'elles auront besoin d'approbation des organes directeurs au préalable. L'exemption s'applique aux urgences comme les personnes manquantes de trac
Mais la loi sur l'IA ne fonctionne pas isolément. Le règlement général de protection des données (RGPD), la directive de sécurité du réseau et de l'information (NIS2) et la loi sur la résilience opérationnelle (DORA) ont toutes des exigences de chevauchement pour la gestion et la sécurité des données.
Clai de différence de fil : l'outil secret que les projets de crypto utilisent pour obtenir une couverture médiatique garantie