L'Unione Europea ha compiuto un passo significativo verso la regolamentazione del campo in rapida evoluzione dell'intelligenza artificiale (IA), approvando definitivamente l'Artificial Intelligence Act, una legislazione innovativa che mira a stabilire un quadro completo per lo sviluppo e l'utilizzo dei sistemi di IA all'interno del blocco dei 27 paesi.
L'AI Act, in fase di elaborazione da cinque anni, è stato approvato a larga maggioranza dai membri del Parlamento europeo, segnando un momento cruciale nel tentativo di garantire che la tecnologia dell'intelligenza artificiale venga sviluppata e implementata in modo responsabile e incentrato sull'uomo.
Un segnale globale
Si prevede che la legge sull'intelligenza artificiale fungerà da orientamento globale per gli altri governi alle prese con la sfida di regolamentare la tecnologia dell'intelligenza artificiale. Dragos Tudorache, un legislatore rumeno che ha co-responsabile dei negoziati parlamentari sul disegno di legge, ha sottolineato l'importanza della legge, affermando: "La legge sull'intelligenza artificiale ha spinto il futuro dell'intelligenza artificiale verso una direzione incentrata sull'uomo, in una direzione in cui gli esseri umani hanno il controllo della tecnologia e in cui essa – la tecnologia – ci aiuta a sfruttare nuove scoperte, la crescita economica, il progresso sociale e a liberare il potenziale umano"
Approccio basato sul rischio
L'AI Act adotta un approccio basato sul rischio per regolamentare i sistemi di intelligenza artificiale, con un livello di controllo che aumenta proporzionalmente ai potenziali rischi posti dalla tecnologia. I sistemi a basso rischio, come i sistemi di raccomandazione di contenuti o i filtri antispam, saranno soggetti a norme più flessibili, che richiedono principalmente trasparenza sull'uso dell'IA.
D'altro canto, le applicazioni ad alto rischio dell'intelligenza artificiale, tra cui i dispositivi medici e i sistemi infrastrutturali critici, dovranno soddisfare requisiti più rigorosi, come l'uso di dati di alta qualità e la fornitura di informazioni chiare agli utenti.
Alcuni utilizzi dell'IA ritenuti rischiosi sono del tutto vietati dalla nuova legislazione. Tra questi rientrano i sistemi di punteggio sociale che regolano il comportamento umano, alcune tipologie di polizia predittiva e i sistemi di riconoscimento delle emozioni nelle scuole e nei luoghi di lavoro. Inoltre, la legge vieta alle forze dell'ordine di utilizzare sistemi di "dentbiometrica" remota basati sull'IA negli spazi pubblici, tranne in caso di reati gravi come sequestro di persona o terrorismo.
Il regolamento affronta anche la sorprendente crescita di modelli di intelligenza artificiale generici, come ChatGPT di OpenAI, introducendo disposizioni per la loro supervisione. Gli sviluppatori di questi modelli saranno tenuti a fornire riepiloghi dettagliati dei dati utilizzati per l'addestramento, a rispettare la normativa UE sul diritto d'autore e a etichettare i deepfake generati dall'intelligenza artificiale come manipolati artificialmente.
Affrontare i rischi sistemici
Riconoscendo il potenziale dei potenti modelli di intelligenza artificiale di rappresentare "rischi sistemici", l'AI Act impone un controllo aggiuntivo sui sistemi più grandi e avanzati, tra cui GPT4 di OpenAI e Gemini di Google. Le aziende che forniscono questi sistemi dovranno valutare e mitigare i rischi, segnalaredentgravi, implementare misure di sicurezza informatica e divulgare i dati sui consumi energetici.
Le preoccupazioni dell'UE derivano dalla possibilità che questi potenti sistemi di intelligenza artificiale possano causare gravident, essere utilizzati impropriamente per attacchi informatici o diffondere pregiudizi dannosi in numerose applicazioni, colpendo un gran numero di persone.
Sebbene l'IA Act miri a stabilire un quadro normativo per uno sviluppo responsabile dell'IA, mira anche a promuovere l'innovazione all'interno dell'UE. Le grandi aziende tecnologiche hanno generalmente sostenuto la necessità di una regolamentazione, esercitando al contempo pressioni affinché le norme funzionassero a loro favore.
Il CEO di OpenAI, Sam Altman, inizialmente ha suscitato scalpore suggerendo che l'azienda avrebbe potuto ritirarsi dall'Europa se non fosse riuscita a conformarsi all'AI Act, ma in seguito hatracindietro, affermando che non c'erano piani per andarsene.
Mentre il mondo è alle prese con il rapido progresso della tecnologia dell'intelligenza artificiale, l'Artificial Intelligence Act dell'Unione europea rappresenta uno sforzo pionieristico per trovare un equilibrio tra la promozione dell'innovazione e la gestione dei potenziali rischi e delle sfide posti da questa tecnologia trasformativa.

