Les législateurs européens mettent en garde contre les modifications proposées à la loi historique de l'intelligence artificielle de l'Union européenne, affirmant que ces mesures pourraient permettre aux grandes entreprises technologiques américaines d'éviter les éléments fondamentaux de la loi sur l'IA.
Les architectes de la loi sur l'IA estiment que le passage des règles clés de obligatoire à volontaire saperait les efforts pour empêcher le contenu nocif et l'ingérence des élections par des entreprises telles qu'Openai et Google.
Dans une lettre au chef numérique de la Commission, le henné Virkkunen, des membres éminents du Parlement européen, a qualifié ce plan de «dangereux, non démocratique et crée une incertitude juridique».
Les signataires de la lettre comprennent plusieurs députés de députés qui ont aidé à rédiger l'acte, ainsi que Carme Artigas, l'ancien ministre espagnol de la numérisation et de l'IA. Ils avertissent que si les fournisseurs d'IA les plus influents se comportent de manière irresponsable, cela pourrait «perturber profondément l'économie et la démocratie de l'Europe».
L'acte actuel divise les systèmes d'IA en trois catégories de risques
La Commission européenne débat maintenant de détendre les parties de la loi, à la suite d'un lobbying intense de Donald Trump et de grands groupes technologiques. En vertu de la loi actuelle, qui est considérée comme le cadre réglementaire le plus strict pour l'IA, les systèmes sont divisés en trois catégories de risques. Les applications à haut risque, telles que celles utilisées dans les soins de santé ou les transports publics, doivent répondre aux exigences de rapports et de transparence plus lourdes. Des modèles puissants sont également confrontés à des obligations de divulguer comment elles ont été formées et d'éviter de générer des informations nocives ou fausses.
Au cœur du différend actuel se trouve un «code de pratique» destiné à guider les entreprises de l'IA pour respecter ces règles. Ce code est rédigé par un groupe d'experts, dont le vainqueur de Turing-Prize Yoshua Bengio, et une version finale est attendue en mai. Selon des sources familières avec le processus, les experts recherchent un moyen de garantir la force de la loi tout en persuadant les principaux joueurs technologiques de se joindre.
Les entreprises technologiques américaines ont fait du lobbying contre la loi sur l'IA
Bruxelles a rencontré une forte résistance des entreprises américaines. En février, le chef des affaires mondiales de Meta, Joel Kaplan, a déclaré à un public de Bruxelles que les dispositions du code seraient «impraticables et techniquement irréalisables». Meta dit également qu'il ne peut pas publier ses nouveaux modèles multimodaux de grande langue ou son dernier assistant d'IA en Europe en raison des règles de confidentialité de la région. Google, ainsi que des sociétés européennes telles que Spotify et Ericsson, a également critiqué des parties de la législation.
Pendant ce temps, la vice-prési américaine dent JD Vance, au sommet de l'IA de la France à Paris , a appelé «une réglementation excessive de l'IA» et a insisté sur le fait que «l'IA doit rester à l'abri des préjugés idéologiques». Ces remarques sont venues au milieu d'une poussée de la Commission, en vertu de son nouveau mandat qui a commencé en décembre, à un trac plus aigu. Dans le cadre de cet objectif, la Commission a récemment retiré une proposition de directive sur les responsabilités en matière d'IA, la décrivant comme faisant partie d'un programme de déréglementation plus large.

événement d'ambitions d'IA en Europe de Financial Times que le code de pratique devrait aider les entreprises, y compris les petites et moyennes entreprises, en offrant des lignes directrices «ne fixant pas plus d'obstacles ou d'obligations de rapport». Elle a souligné que les principes fondamentaux restent intacts. "Nous voulons nous assurer que l'Europe a également un environnement juste, sûr et démocratique en ce qui concerne le monde numérique", a-t-elle déclaré.
Les législateurs qui ont aidé à concevoir la loi sur l'IA affirment que la transformation des principales parties de celle-ci en mesures volontaires saperait ces valeurs. Ils soutiennent que les fournisseurs de technologies ayant une influence de grande envergure doivent être tenus responsables si leurs modèles produisent une désinformation ou permettent des interférences électorales. Selon eux, toutes les exigences affaiblies pourraient ouvrir la porte à des résultats discriminatoires ou à de nouvelles formes de mauvaise utilisation.
Cryptopolitan Academy: fatiguée des balançoires du marché? Découvrez comment DeFi peut vous aider à créer un revenu passif stable. Inscrivez-vous maintenant