I legislatori europei mettono in guardia dalle modifiche proposte alla legge fondamentale dell'Unione Europea sull'intelligenza artificiale, affermando che queste mosse potrebbero consentire alle principali aziende tecnologiche statunitensi di eludere gli elementi fondamentali dell'AI Act.
Gli ideatori dell'AI Act ritengono che modificare le norme fondamentali da obbligatorie a volontarie comprometterebbe gli sforzi volti a prevenire contenuti dannosi e ingerenze nelle elezioni da parte di aziende come OpenAI e Google.
In una lettera indirizzata al responsabile digitale della Commissione, Henna Virkkunen, importanti membri del Parlamento europeo hanno definito questo piano "pericoloso, antidemocratico e crea incertezza giuridica".
Tra i firmatari della lettera figurano diversi eurodeputati che hanno contribuito alla stesura della legge, nonché Carme Artigas, ex ministra spagnola per la digitalizzazione e l'intelligenza artificiale. I firmatari avvertono che, se i più influenti fornitori di intelligenza artificiale si comportassero in modo irresponsabile, ciò potrebbe "devastare profondamente l'economia e la democrazia europea"
La legge attuale divide i sistemi di intelligenza artificiale in tre categorie di rischio
La Commissione Europea sta ora valutando se allentare alcune parti della legge, a seguito di intense pressioni da parte di Donald Trump e dei gruppi Big Tech. Secondo la legge attuale, considerata il quadro normativo più rigoroso per l'IA, i sistemi sono suddivisi in tre categorie di rischio. Le applicazioni ad alto rischio, come quelle utilizzate in ambito sanitario o nei trasporti pubblici, devono soddisfare requisiti più severi in materia di reporting e trasparenza. I modelli più potenti sono inoltre tenuti a rivelare le modalità di addestramento e a evitare di generare informazioni dannose o false.
Al centro dell'attuale controversia c'è un "codice di condotta" che dovrebbe guidare le aziende di intelligenza artificiale nel rispetto di queste regole. Questo codice è in fase di stesura da parte di un gruppo di esperti, tra cui il vincitore del premio Turing Yoshua Bengio, e la versione definitiva è prevista per maggio. Secondo fonti a conoscenza della vicenda, gli esperti stanno cercando un modo per garantire che la legge sia efficace, convincendo al contempo i principali attori tecnologici ad aderirvi.
Le aziende tecnologiche statunitensi hanno fatto pressioni contro l'AI Act
Bruxelles ha incontrato una forte resistenza da parte delle aziende americane. A febbraio, il responsabile degli affari globali di Meta, Joel Kaplan, ha dichiarato a Bruxelles che le disposizioni del codice sarebbero state "irrealizzabili e tecnicamente irrealizzabili". Meta afferma inoltre di non poter rilasciare i suoi più recenti modelli linguistici multimodali di grandi dimensioni o il suo ultimo assistente AI in Europa a causa delle norme sulla privacy della regione. Anche Google, insieme ad aziende europee come Spotify ed Ericsson, ha criticato parti della legislazione.
dent statunitense J.D. Vance, al vertice francese sull'IA di Parigi , ha denunciato "l'eccessiva regolamentazione dell'IA" e ha insistito sul fatto che "l'IA deve rimanere libera da pregiudizi ideologici". Queste osservazioni sono state rilasciate nel contesto di una spinta della Commissione, nell'ambito del suo nuovo mandato iniziato a dicembre, per trac maggiori investimenti nell'IA. Nell'ambito di tale obiettivo, la Commissione ha recentemente ritirato una proposta di direttiva sulla responsabilità per l'IA, presentandola come parte di un più ampio programma di deregolamentazione.

evento "Enabling Europe's AI Ambitions" del Financial Times, che il codice di condotta dovrebbe aiutare le imprese, comprese le piccole e medie imprese, offrendo linee guida "senza creare ulteriori ostacoli o obblighi di rendicontazione". Ha sottolineato che i principi fondamentali rimangono intatti. "Vogliamo garantire che l'Europa disponga di un ambiente equo, sicuro e democratico anche per quanto riguarda il mondo digitale", ha affermato.
I legislatori che hanno contribuito a elaborare l'AI Act sostengono che trasformarne gran parte in misure volontarie minerebbe questi valori. Sostengono che i fornitori di tecnologia con un'influenza di vasta portata debbano essere ritenuti responsabili se i loro modelli producono disinformazione o consentono interferenze elettorali. A loro avviso, qualsiasi indebolimento dei requisiti potrebbe aprire la porta a esiti discriminatori o nuove forme di abuso.

