🔥 Ottieni un lavoro Web3 ben pagato in 90 giorni SCOPRI DI PIÙ

L'Agenzia italiana per la protezione dei dati mette in guardia l'editore dalla condivisione dei dati con OpenAI

In questo post:

  • L'agenzia italiana per la protezione dei dati (GPDP) ha avvertito GEDI, un editore, della sua partnership con OpenAI.
  • Il regolatore avverte che la partnership espone l’editore al rischio di violare gli standard GDPR.
  • OpenAI prevede di utilizzare i dati di GEDI per migliorare i propri prodotti.

OpenAI deve affrontare un ostacolo normativo in Italia secondo i commenti dell'autorità nazionale per la protezione dei dati, il Garante per la Protezione dei Dati Personali (GPDP). L'autorità di regolamentazione ha emesso un avvertimento a GEDI, un editore del paese, contro la condivisione dei propri archivi di dati con OpenAI, citando una potenziale violazione del regolamento generale sulla protezione dei dati (GDPR) dell'Unione Europea (UE). 

Ciò fa seguito a una partnership tra GEDI e OpenAI, che consentirebbe a OpenAI di addestrare i suoi modelli ChatGPT su contenuti in lingua italiana.

GEDI è una società di media di proprietà della famiglia Agnelli. Pubblica i quotidiani La Repubblica e La Stampa e a settembre ha annunciato una partnership con OpenAI. La partnership prevede la fornitura di contenuti in lingua italiana dal portafoglio di notizie dell'editore per contribuire alla formazione e al miglioramento dei prodotti OpenAI.

GPDP disapprova la partnership di GEDI con OpenAI

John Elkann, Presidente di GEDI, ha dichiarato: "La partnership siglata con OpenAI fa parte del percorso di trasformazione digitale di GEDI e riconosce la sua leadership nella produzione di contenuti di alta qualità nel panorama dei media italiani". 

Tuttavia, il GPDP avverte che questa partnership potrebbe potenzialmente portare a una violazione del GDPR dell’UE.

Il GDPR stabilisce uno standard globale per le leggi sulla privacy, sottolineando il consenso, la trasparenza e la responsabilità degli utenti. È stato anche il primo a proporre un quadro normativo sull’IA , che, a suo avviso, promuoverà un uso sicuro e responsabile dell’IA.

Vedi anche  Google aumenta il prezzo dei piani Workspace e fornisce gratuitamente le sue funzionalità AI

“Se GEDI, sulla base dell’accordo siglato con OpenAI, dovesse divulgare i dati personali contenuti nel suo archivio, potrebbe violare la normativa Ue, con tutte le conseguenze, anche di carattere sanzionatorio”, afferma il GPDP. 

Le violazioni del GDPR possono costare alle aziende responsabili fino a 20 milioni di euro o il 4% del loro fatturato globale annuo.

Prospettive globali contrastanti sull’utilizzo dell’intelligenza artificiale

Quest’ultimo episodio con GEDI aggrava ulteriormente le tensioni tra il progresso tecnologico e il rispetto delle normative sulla privacy nell’UE. 

Clearview AI , una società americana, è stata multata di circa 30 milioni di euro dall'autorità olandese per la protezione dei dati, citando violazione della privacy e violazione dei diritti degli utenti ai sensi del GDPR. All’inizio di quest’anno, il GPDP ha temporaneamente vietato ChatGPT a causa delle preoccupazioni relative alla raccolta e al trattamento illegali dei dati degli utenti.

Gli Stati Uniti hanno adottato un approccio rilassato e guidato dal mercato nei confronti dell’intelligenza artificiale, favorendo l’innovazione e sottolineando l’autoregolamentazione all’interno dello spazio. L’“Ordine esecutivo sullo sviluppo e l’uso sicuri, protetti e affidabili dell’intelligenza artificiale”, emanato nell’ottobre 2023, allude a questo. 

La mancanza di una legislazione chiara, soprattutto a livello federale, ha portato gli stati ad aprire la strada nella regolamentazione del settore. CCPA della California è un esempio di legislazione sull’intelligenza artificiale a livello statale.

Vedi anche  Gli investitori nell'intelligenza artificiale potrebbero pentirsi di aver scommesso sulle auto a guida autonoma

La Cina ha anche messo in atto un quadro normativo. Nel luglio 2023, la Cyberspace Administration of China ha emanato regolamenti sull’uso dell’intelligenza artificiale generativa. Si prevede inoltre di formulare oltre 50 standard per l’intelligenza artificiale entro il 2026 . Queste normative si applicherebbero sia ai fornitori locali che internazionali di servizi di intelligenza artificiale.

piano di lancio carriera di 90 giorni

Condividi il link:

Disclaimer. Le informazioni fornite non costituiscono consigli di trading. Cryptopolitan.com non si assume alcuna responsabilità per eventuali investimenti effettuati sulla base delle informazioni fornite in questa pagina. Raccomandiamo tron dent e/o la consultazione di un professionista qualificato prima di prendere qualsiasi decisione di investimento .

I più letti

Caricamento degli articoli più letti...

Rimani aggiornato sulle notizie crittografiche, ricevi aggiornamenti quotidiani nella tua casella di posta

La scelta dell'editore

Caricamento articoli scelti dall'editore...
Iscriviti a CryptoPolitan