ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

L'UE vieta tutte le tecnologie di intelligenza artificiale ritenute "inaccettabilmente rischiose"

DiJai HamidJai Hamid
Tempo di lettura: 2 minuti.
L'UE vieta tutte le tecnologie di intelligenza artificiale ritenute "inaccettabilmente rischiose"
  • L'UE ha appena vietato le tecnologie di intelligenza artificiale considerate troppo rischiose, come i sistemi di punteggio sociale, sorveglianza in tempo reale e previsione dei crimini.
  • Le aziende che utilizzano l'intelligenza artificiale vietata nell'UE rischiano multe fino a 35 milioni di euro o il 7% del fatturato globale, indipendentemente da dove abbiano sede.
  • Grandi aziende come Google e OpenAI si sono impegnate a conformarsi tempestivamente, ma aziende che si sono opposte come Meta e Apple non hanno firmato il patto volontario.

A partire da oggi, l'Unione Europea ha chiuso la porta ai sistemi di intelligenza artificiale che ha definito "inaccettabilmente rischiosi". Questo non è oggetto di discussione.

Le autorità di regolamentazione hanno ora il potere di cancellare intere linee di prodotto da un giorno all'altro. La prima scadenza per la conformità prevista dall'AI Act dell'UE sarebbe dovuta scattare il 2 febbraio, e il messaggio dell'Unione è che chi infrange queste regole pagherà 35 milioni di euro (circa 36 milioni di dollari) o il 7% del fatturato globale, a seconda di quale delle due sanzioni sia più grave.

Il Parlamento europeo ha approvato la legge sull'intelligenza artificiale lo scorso marzo, dopo anni di presunti perfezionamenti. Il 1° agosto, la legge era già in vigore. Ora, le aziende di tutti i settori devono semplicemente adeguarsi.

Cosa c'è nella lista nera dell'UE?

La lista nera dell'UE copre alcuni angoli oscuri dell'IA. Dimenticatevi dei sistemi che valutano le persone in base al comportamento o alla reputazione, come il distopico sistema di credito sociale cinese. Quello è stato eliminato. Anche l'IA progettata per manipolare le scelte delle persone attraverso trucchi subdoli o messaggi subliminali è vietata.

Inoltre, l'intelligenza artificiale che profila le vulnerabilità, ad esempio sfruttando l'età o la disabilità di una persona per manipolarla, è fuori discussione. Ed eccone un esempio da ricordare: l'UE ha reso illegale prevedere se una persona commetterà un crimine in base ai suoi tratti somatici.

Se la vostra IA sta estraendo dati biometrici per fare ipotesi su genere, orientamento sessuale o convinzioni politiche, fate i bagagli e andatevene. Anche il monitoraggio biometrico in tempo reale per le forze dell'ordine è vietato, a meno che non soddisfi condizioni molto specifiche, secondo la legge UE sull'IA.

Ciò significa che non saranno più necessarie scansioni facciali nelle stazioni della metropolitana o durante eventi pubblici, solo per individuare "potenziali sospettati". Anche l'intelligenza artificialetracdelle emozioni nelle scuole e nei luoghi di lavoro è stata tagliata, tranne in rari casi legati a cure mediche o sicurezza.

Questi divieti si applicano a tutte le aziende che operano all'interno dei confini dell'UE. La sede centrale non ha importanza: giganti della Silicon Valley, startup asiatiche di intelligenza artificiale, laboratori europei, chi più ne ha più ne metta. Se utilizzi un sistema soggetto a restrizioni, l'UE ti impone di pagare la multa.

I colossi aziendali divisi sulla conformità

Nel settembre 2024, oltre 100 aziende tecnologiche (tra cui Google, OpenAI e Amazon) hanno firmato un impegno volontario denominato Patto UE sull'intelligenza artificiale, in cui si sarebbero impegnate a ripulire i loro progetti di intelligenza artificiale in anticipo, prima delle scadenze della legge, e a individuare quali sistemi potrebbero rientrare nelle categorie ad alto rischio o vietate.

È interessante notare che Meta, Apple e la società francese di intelligenza artificiale Mistral si sono rifiutate categoricamente di farlo, affermando che le normative sono troppo rigide e soffocherebbero l'innovazione nell'ottobre 2024.

Tuttavia, ignorare il Patto non esonera nessuno dal rispettare la legge, anche se realisticamente parlando la maggior parte di queste aziende tecnologiche non tocca nemmeno le categorie vietate.

Tuttavia, secondo l'AI Act dell'UE, le forze dell'ordine possono ancora utilizzare sistemi di intelligenza artificiale che raccolgono dati biometrici in luoghi pubblici, sebbene debbano ottenere preventivamente l'approvazione degli organi di governo. L'esenzione si applica alle emergenze, come tracdi persone scomparse o la prevenzione di attacchi imminenti, e all'intelligenza artificiale per il rilevamento delle emozioni in scuole e uffici, ma solo se giustificata da esigenze mediche o di sicurezza.

Ma l'AI Act non opera in modo isolato. Il Regolamento generale sulla protezione dei dati (GDPR), la Direttiva sulla sicurezza delle reti e dell'informazione (NIS2) e il Digital Operational Resilience Act (DORA) prevedono tutti requisiti sovrapposti per la gestione e la sicurezza dei dati.

La tua banca si sta usando i tuoi soldi. A te restano solo le briciole. Guarda il nostro video gratuito su come diventare la tua banca.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO