Les législateurs européens mettent en garde contre les modifications proposées à la loi européenne sur l'intelligence artificielle, affirmant que ces mesures pourraient permettre aux grandes entreprises technologiques américaines de contourner les éléments fondamentaux de cette loi.
Les concepteurs de la loi sur l'IA estiment que le passage de règles clés d'obligatoires à facultatives compromettrait les efforts visant à prévenir les contenus préjudiciables et les ingérences électorales de la part d'entreprises telles qu'OpenAI et Google.
Dans une lettre adressée à la responsable du numérique de la Commission, Henna Virkkunen, d'éminents membres du Parlement européen ont qualifié ce plan de « dangereux, antidémocratique et créateur d'incertitude juridique ».
Parmi les signataires de la lettre figurent plusieurs eurodéputés ayant participé à la rédaction du texte, ainsi que Carme Artigas, ancienne ministre espagnole de la Numérisation et de l'IA. Ils avertissent que si les principaux fournisseurs d'IA se comportent de manière irresponsable, cela pourrait « perturber profondément l'économie et la démocratie en Europe »
La loi actuelle divise les systèmes d'IA en trois catégories de risque
La Commission européenne examine actuellement l'opportunité d'assouplir certaines dispositions de la loi, suite à un lobbying intense de Donald Trump et des géants de la tech. En vertu de la législation actuelle, considérée comme le cadre réglementaire le plus strict en matière d'IA, les systèmes sont classés en trois catégories de risque. Les applications à haut risque, telles que celles utilisées dans le secteur de la santé ou les transports publics, sont soumises à des exigences renforcées en matière de reporting et de transparence. Les modèles performants doivent également divulguer leur méthode d'entraînement et éviter de générer des informations nuisibles ou erronées.
Au cœur du différend actuel se trouve un « code de bonnes pratiques » destiné à guider les entreprises d'IA dans le respect de ces règles. Ce code est en cours d'élaboration par un groupe d'experts, dont Yoshua Bengio, lauréat du prix Turing, et une version finale est attendue en mai. Selon des sources proches du dossier, les experts cherchent un moyen de garantir l'efficacité de la loi tout en incitant les grands acteurs technologiques à y adhérer.
Les entreprises technologiques américaines font pression contre la loi sur l'IA
Bruxelles se heurte à une forte résistance de la part des entreprises américaines. En février, Joel Kaplan, responsable des affaires internationales de Meta, a déclaré à un public bruxellois que les dispositions du code seraient « impraticables et techniquement irréalisables ». Meta affirme également ne pas pouvoir commercialiser ses nouveaux modèles multimodaux de langage ni son dernier assistant IA en Europe en raison de la réglementation européenne sur la protection de la vie privée. Google, ainsi que des entreprises européennes comme Spotify et Ericsson, ont également critiqué certains aspects de la législation.
Parallèlement, le vice-président américain dent Vance, lors du sommet français sur l'IA à Paris , a dénoncé une « réglementation excessive de l'IA » et insisté sur le fait que « l'IA doit rester exempte de biais idéologiques ». Ces remarques interviennent alors que la Commission, dans le cadre de son nouveau mandat débuté en décembre, s'efforce d' trac davantage d'investissements dans l'IA. Dans cette optique, la Commission a récemment retiré un projet de directive sur la responsabilité en matière d'IA, le présentant comme faisant partie d'un programme de déréglementation plus vaste.

l'événement « Enabling Europe's AI Ambitions » organisé par le Financial Times, que le code de bonnes pratiques devait aider les entreprises, notamment les PME, en leur fournissant des lignes directrices « sans créer de nouveaux obstacles ni d'obligations de déclaration supplémentaires ». Elle a insisté sur le fait que les principes fondamentaux restaient intacts. « Nous voulons garantir à l'Europe un environnement équitable, sûr et démocratique, y compris dans le monde numérique », a-t-elle déclaré.
Les législateurs ayant participé à l'élaboration de la loi sur l'IA affirment que le fait de laisser une grande partie de ses dispositions au volontariat irait à l'encontre de ces valeurs. Ils soutiennent que les fournisseurs de technologies ayant une influence considérable doivent être tenus responsables si leurs modèles produisent de la désinformation ou permettent des ingérences électorales. Selon eux, tout assouplissement des exigences pourrait ouvrir la voie à des discriminations ou à de nouvelles formes d'abus.

