Il governo irlandese ha chiesto l'opinione pubblica sull'attuazione dell'Artificial Intelligence Act dell'Unione Europea. L'AI Act dell'UE è stato ufficialmente adottato il 21 maggio.
Dara Calleary, Ministro di Stato per la Promozione del Commercio, il Digitale e la Regolamentazione Aziendale d'Irlanda, ha chiesto il parere del pubblico e delle imprese sull'intelligenza artificiale. Le leggi sono state introdotte dopo un processo durato anni per regolamentare l'IA e proteggere le persone dai rischi che questa tecnologia potrebbe comportare.
Il governo irlandese cerca l'opinione pubblica
L'UE ha dichiarato di voler promuovere l'innovazione. Le norme adottate sosterranno la decisione, bilanciando la promozione dell'innovazione con la tutela dei diritti dei cittadini. Non saranno ammessi strumenti di intelligenza artificiale considerati pericolosi per le persone.
Leggi anche: La legge europea sull'intelligenza artificiale ottiene l'approvazione finale con multe fino a 38 milioni di dollari
D'altro canto, i produttori di utensili classificati ad alto rischio saranno sottoposti a una valutazione del rischio. Questo per garantire che i loro utensili siano sicuri e conformi alla legge prima di essere introdotti al pubblico. Calleary ha dichiarato in una nota:
"Vogliamo avere opinioni su come la legge potrebbe funzionare con i mercati, i servizi e le infrastrutture digitali esistenti e valutare come possa migliorare la posizione dell'Irlanda come economia digitale leader". Fonte .
La legge UE sull'intelligenza artificiale vieta severamente l'uso dell'intelligenza artificiale per la prevenzione delle malattie. Vieta inoltre i sistemi di intelligenza artificiale che possono essere utilizzati per dedurre l'orientamento sessuale, la razza o la religione di un individuo.
Le aziende dovranno sostenere un peso maggiore in termini di conformità
Il Dipartimento per le Imprese, il Commercio e l'Occupazione in Irlanda è responsabile dell'attuazione dell'AI Act. Le restrizioni sui sistemi di intelligenza artificiale vietati devono entrare in vigore entro sei mesi, mentre le sanzioni e le misure di controllo devono essere applicate entro dodici mesi.

La legge UE sull'intelligenza artificiale impone obblighi significativi alle imprese, in particolare alle piccole e medie imprese (PMI). Le aziende devono ora rispettare rigide linee guida in materia di gestione del rischio, monitoraggio e trasparenza dei sistemi di intelligenza artificiale. Il Ministro di Stato Calleary ha affermato:
"La nostra strategia nazionale sull'intelligenza artificiale promuove l'uso dell'intelligenza artificiale attraverso un approccio etico e incentrato sulle persone per quanto riguarda il suo sviluppo, la sua adozione e il suo utilizzo."
I requisiti normativi potrebbero gravare in modo significativo sulle piccole imprese, che potrebbero non disporre delle risorse necessarie per l'attuazione. Le PMI dovranno soddisfare requisiti completi e istituire sistemi efficaci di gestione del rischio. Dovranno inoltre adottare altre misure, come misure di supervisione umana e la sicurezza informatica dei sistemi.
I requisiti di conformità includono un'ampia documentazione, la rendicontazione e la presentazione degli aspetti tecnici dei modelli di intelligenza artificiale. Insieme, tutti questi fattori possono rappresentare un onere amministrativo per le piccole imprese.
Il governo valuta gli approcci di attuazione per l'AI Act
Il Dipartimento per l'Impresa, il Commercio e l'Occupazione sta valutando approcci alternativi per l'attuazione della legge. Il governo ha affermato che l'obiettivo è determinare la struttura nazionale ottimale per un'efficace applicazione delle disposizioni della legge.
Calleary ha affermato che l'ambiziosa tempistica per l'attuazione delle norme richiede un approccio collettivo e che incoraggerà tutte le parti a partecipare a questa consultazione pubblica sull'intelligenza artificiale.
Leggi anche: La legge UE sull'intelligenza artificiale incontra la reazione negativa degli stakeholder del settore tecnologico
La legge prevede alcune esenzioni per le applicazioni relative alla sicurezza nazionale, ai modelli open source per uso personale, alla ricerca e sviluppo scientifica, alla difesa e alla ricerca sui sistemi di intelligenza artificiale. Ogni Stato membro è tenuto a istituire un Regulatory Sandbox per l'intelligenza artificiale entro 24 mesi per supportare l'innovazione.
La legge è stata approvata a marzo di quest'anno. Il giorno successivo alla sua approvazione, la Commissione Europea ha chiesto a Google, Bing, TikTok, Facebook, Snapchat, YouTube e X di fornire dettagli su come stanno gestendo i rischi dell'IA generativa.
Reportage Cryptopolitan di Aamir Sheikh

