OpenAI deve affrontare un ostacolo normativo in Italia secondo i commenti dell'autorità nazionale per la protezione dei dati, il Garante per la Protezione dei Dati Personali (GPDP). L'autorità di regolamentazione ha emesso un avvertimento a GEDI, un editore del paese, contro la condivisione dei propri archivi di dati con OpenAI, citando una potenziale violazione del regolamento generale sulla protezione dei dati (GDPR) dell'Unione Europea (UE).
Ciò fa seguito a una partnership tra GEDI e OpenAI, che consentirebbe a OpenAI di addestrare i suoi modelli ChatGPT su contenuti in lingua italiana.
GEDI è una società di media di proprietà della famiglia Agnelli. Pubblica i quotidiani La Repubblica e La Stampa e a settembre ha annunciato una partnership con OpenAI. La partnership prevede la fornitura di contenuti in lingua italiana dal portafoglio di notizie dell'editore per contribuire alla formazione e al miglioramento dei prodotti OpenAI.
GPDP disapprova la partnership di GEDI con OpenAI
John Elkann, Presidente di GEDI, ha dichiarato: "La partnership siglata con OpenAI fa parte del percorso di trasformazione digitale di GEDI e riconosce la sua leadership nella produzione di contenuti di alta qualità nel panorama dei media italiani".
Tuttavia, il GPDP avverte che questa partnership potrebbe potenzialmente portare a una violazione del GDPR dell’UE.
Il GDPR stabilisce uno standard globale per le leggi sulla privacy, sottolineando il consenso, la trasparenza e la responsabilità degli utenti. È stato anche il primo a proporre un quadro normativo sull’IA , che, a suo avviso, promuoverà un uso sicuro e responsabile dell’IA.
“Se GEDI, sulla base dell’accordo siglato con OpenAI, dovesse divulgare i dati personali contenuti nel suo archivio, potrebbe violare la normativa Ue, con tutte le conseguenze, anche di carattere sanzionatorio”, afferma il GPDP.
Le violazioni del GDPR possono costare alle aziende responsabili fino a 20 milioni di euro o il 4% del loro fatturato globale annuo.
Prospettive globali contrastanti sull’utilizzo dell’intelligenza artificiale
Quest’ultimo episodio con GEDI aggrava ulteriormente le tensioni tra il progresso tecnologico e il rispetto delle normative sulla privacy nell’UE.
Clearview AI , una società americana, è stata multata di circa 30 milioni di euro dall'autorità olandese per la protezione dei dati, citando violazione della privacy e violazione dei diritti degli utenti ai sensi del GDPR. All’inizio di quest’anno, il GPDP ha temporaneamente vietato ChatGPT a causa delle preoccupazioni relative alla raccolta e al trattamento illegali dei dati degli utenti.
Gli Stati Uniti hanno adottato un approccio rilassato e guidato dal mercato nei confronti dell’intelligenza artificiale, favorendo l’innovazione e sottolineando l’autoregolamentazione all’interno dello spazio. L’“Ordine esecutivo sullo sviluppo e l’uso sicuri, protetti e affidabili dell’intelligenza artificiale”, emanato nell’ottobre 2023, allude a questo.
La mancanza di una legislazione chiara, soprattutto a livello federale, ha portato gli stati ad aprire la strada nella regolamentazione del settore. CCPA della California è un esempio di legislazione sull’intelligenza artificiale a livello statale.
La Cina ha anche messo in atto un quadro normativo. Nel luglio 2023, la Cyberspace Administration of China ha emanato regolamenti sull’uso dell’intelligenza artificiale generativa. Si prevede inoltre di formulare oltre 50 standard per l’intelligenza artificiale entro il 2026 . Queste normative si applicherebbero sia ai fornitori locali che internazionali di servizi di intelligenza artificiale.
piano di lancio carriera di 90 giorni