La Commissione irlandese per la protezione dei dati (DPC) ha avviato un'indagine transfrontaliera su Google Ireland Limited per problemi di protezione dei dati.
L'indagine si concentra sull'utilizzo dei dati personali da parte dell'azienda nello sviluppo del suo modello linguistico Pathways Language Model 2 (PaLM2). La commissione ha annunciato la sua decisione di esaminare il sistema di intelligenza artificiale PaLM2 di Google tramite un comunicato stampa il 12 settembre.
L'obiettivo principale dell'indagine è verificare se Google abbia rispettato gli obblighi previsti dal Regolamento generale sulla protezione dei dati (GDPR). Il GDPR è un obbligo da rispettare per il trattamento dei dati personali deidentnell'UE e nello SEE ai fini dello sviluppo di modelli di intelligenza artificiale.
L'Irlanda si chiede se Google abbia soddisfatto i requisiti
Lo scopo principale dell'indagine è rispondere alla domanda se Google abbia condotto una valutazione d'impatto sulla protezione dei dati (DPIA) obbligatoria prima di elaborare i dati personali per PaLM 2.
Nel comunicato stampa, il DPC ha sottolineato l'importanza delle DPIA nella salvaguardia dei diritti e delle libertà individuali quando il trattamento dei dati presenta un rischio elevato.
Un portavoce del DPC ha dichiarato: "Questa indagine statutaria rientra nell'ambito delle più ampie attività del DPC volte a regolamentare il trattamento dei dati personali degli interessati residenti nell'UE/SEE nello sviluppo di modelli e sistemi di intelligenza artificiale".
Google ha introdotto PaLM 2 a maggio 2023. Si tratta di un modello linguistico avanzato che si dice abbia migliorato le capacità multilingue, le capacità di ragionamento e le capacità di programmazione. Il modello è disponibile in quattro dimensioni, pensate per diversi casi d'uso.
Questa indagine fa parte di una tendenza crescente a un controllo più rigoroso delle pratiche di sviluppo dell'intelligenza artificiale delle aziende tecnologiche. Solo una settimana prima, il DPC aveva concluso un'indagine su X. Ciò aveva portato l'azienda ad accettare di interrompere l'utilizzo dei dati personali degli utenti dell'UE e dello SEE per addestrare il suo chatbot di intelligenza artificiale, Grok.
X aveva anche promesso di cancellare i dati raccolti tra il 7 maggio e il 1° agosto. Aveva inoltre annunciato che non avrebbe più raccolto dati per addestrare Grok.

