La legge UE sull'intelligenza artificiale è ora in vigore, specifica i tempi di conformità e le sanzioni

- La legge UE sull'intelligenza artificiale è ora in vigore, anche se l'adeguamento avverrà per fasi.
- La legge classifica le applicazioni di intelligenza artificiale in base al loro livello di rischio, con l'85% che rientra nella categoria di rischio minimo.
- L'impatto della legge sull'intelligenza artificiale generativa potrebbe essere limitato, poiché si tratta di IA generative (GPAI).
L'European Union Artificial Intelligence (IA) Act è finalmente entrato in vigore cinque mesi dopo la sua approvazione da parte del Parlamento dell'Unione Europea. Con l'entrata in vigore della legge, diventa la normativa di riferimento in materia di IA e potrebbe indicare la strada per altri Paesi nella regolamentazione di questo settore emergente.
Tuttavia, la maggior parte delle disposizioni dell'AI Act non entrerà in vigore immediatamente, in quanto sono previste delle scadenze per l'applicazione delle norme. Si prevede che ciò darà più tempo alle aziende per conformarsi alla legge man mano che il settore evolve e consentirà agli Stati membri di prepararsi per la sua applicazione.
I casi d'uso dell'intelligenza artificiale sono classificati in base ai loro rischi
La legge adotta un sistema di classificazione basato sul rischio per determinare le regole applicabili a ciascuna azienda di intelligenza artificiale. Le categorie sono: nessun rischio, rischio minimo, rischio elevato e proibito, e la categoria in cui rientra un sistema di intelligenza artificiale determinerà quando le regole che ne disciplinano l'operatività entreranno in vigore.
Per i sistemi di intelligenza artificiale, l'autorità di regolamentazione ha fissato a febbraio 2025 la scadenza per vietare i sistemi che analizzano Internet per espandere i database di riconoscimento facciale o manipolare gli utenti inducendoli a prendere una decisione.
Anche le applicazioni ad alto rischio avranno sei mesi di tempo, a partire dal 1° agosto, per conformarsi alle rigide norme a loro applicabili. I sistemi di intelligenza artificiale classificati come ad alto rischio includono quelli utilizzati per il riconoscimento facciale, la biometria, i servizi pubblici essenziali, l'istruzione, l'occupazione e i software medici.
I requisiti per il gruppo includono la presentazione di set di dati di formazione alle autorità di regolamentazione per la verifica e la dimostrazione della supervisione umana. Sono inoltre tenuti a condurre test di conformità pre-commercializzazione. Per i sistemi ad alto rischio utilizzati da agenzie governative o per servizi pubblici, lo sviluppatore dovrà registrarli nel database dell'UE.
Nel frattempo, circa l'85% dei sistemi di intelligenza artificiale rientra nella categoria di rischio minimo, con regole più flessibili. Tuttavia, la legge ha stabilito sanzioni per scoraggiare le violazioni. Le multe vanno dal 7% del fatturato annuo globale per le aziende che violano i sistemi di intelligenza artificiale vietati all'1,5% per la fornitura di informazioni errate alle autorità di regolamentazione.
Intelligenza artificiale generativa con restrizioni minime
Per gli sviluppatori di sistemi di intelligenza artificiale generativa, le preoccupazioni sono limitate, poiché la legge etichetta i loro modelli come esempi di IA generiche (GPAI) e classifica la maggior parte di essi come a rischio minimo. Pertanto, i principali chatbot di intelligenza artificiale come MetaAI, ChatGPT, Perplexity, Claude AI, ecc., non ne risentirebbero in modo significativo.
La legge richiede solo una maggiore trasparenza da parte di queste aziende di intelligenza artificiale attraverso la divulgazione dei loro dati di addestramento. Ci si aspetta inoltre che rispettino le norme UE sul copyright. Tuttavia, un piccolo gruppo di GPAI è considerato sufficientemente cruciale da causare rischi sistemici. Si tratta di quelle addestrate utilizzando una potenza di calcolo superiore a un livello specificato.
È interessante notare che l'UE è anche responsabile dell'applicazione delle norme relative ai GPAI, sebbene ogni Paese sia responsabile dell'attuazione delle norme generali previste dalla legge. Gli Stati hanno tempo fino ad agosto 2025 per istituire organismi preposti all'attuazione della legge nel proprio territorio.
Nel frattempo, permangono ancora numerose zone d'ombra su diversi aspetti della legge. Tra queste, le linee guida specifiche che gli sviluppatori di GPAI devono rispettare ai sensi della legge. Le autorità di regolamentazione stanno elaborando codici di condotta a tal fine, con l'AI Office in prima linea.
L'ufficio, che è l'organismo che monitora e sviluppa l'ecosistema dell'IA, ha recentemente annunciato un processo di consultazione e ha invitato tutte le parti interessate a partecipare al processo di regolamentazione. Intende predisporre i Codici entro aprile 2025.
Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro.
Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)















