Il Comitato europeo per la protezione dei dati (EDPB) ha istituito una task force per esaminare la questione di ChatGPT, compiendo un passo importante verso la creazione di una politica unificata in materia di norme sulla privacy relative all'intelligenza artificiale.
Il piano dell'Europa
ChatGPT, un programma di intelligenza artificiale sviluppato da OpenAI in grado di generare rapidamente risposte a una varietà di query, è cresciuto fino a diventare l'applicazione consumer in più rapida crescita nella storia, con oltre 100 milioni di utenti attivi al mese.
Tuttavia, la sua rapida adozione ha sollevato preoccupazioni circa le potenziali minacce che potrebbe rappresentare per la privacy, la sicurezza e l'occupazione.
Il mese scorso l'Italia ha adottato un provvedimento unilaterale per limitare ChatGPT, e ora l'EDPB sta seguendo l'esempio. Il commissario tedesco per la protezione dei dati ha affermato che anche altri Paesi europei potrebbero adottare una posizione analoga.
Anche l'AEPD, l'autorità di controllo spagnola, ha avviato un'indagine su potenziali violazioni dei dati da parte di ChatGPT.
In una dichiarazione, l'EDPB ha rilevato che i membri hanno discusso della recente azione coercitiva intrapresa dall'autorità italiana per la protezione dei dati nei confronti di OpenAI in merito al servizio ChatGPT.
Il Comitato europeo per la protezione dei dati (EDPB) ha deciso di istituire una task force dedicata per promuovere la collaborazione tra le autorità di protezione dei dati e scambiare informazioni su possibili azioni di contrasto.
L'Europa si sta interrogando su come regolamentare l'intelligenza artificiale per proteggere i cittadini, consentendo al contempo innovazione e crescita. La preoccupazione non riguarda solo l'Europa; anche diversi altri governi europei e il governo degli Stati Uniti hanno espresso preoccupazione per la rapida crescita dell'adozione di ChatGPT e di prodotti di intelligenza artificiale simili.
Creare una politica unificata sull’intelligenza artificiale: un processo che richiede molto tempo
Una fonte di un organismo di controllo nazionale che ha chiesto di non esseredentha affermato che gli Stati membri sperano di allineare le loro posizioni politiche, ma ha osservato che ciò richiederà tempo.
Hanno affermato che gli Stati membri non intendevano punire o emanare norme che avrebbero avuto ripercussioni su OpenAI, il proprietario di ChatGPT sostenuto da Microsoft Corp, ma piuttosto creare politiche generali "trasparenti". Tra i partecipanti all'incontro c'erano esperti di politica che hanno presentato opinioni e scambiato idee, anziché essere decisori.
L'EDPB è un organismodent che supervisiona le norme sulla protezione dei dati nell'Unione europea ed è composto da organismi nazionali di controllo della protezione dei dati.
L'istituzione di una task force per analizzare la questione di ChatGPT rappresenta un passo significativo verso la creazione di una politica unificata sull'IA. Tuttavia, sviluppare una politica completa ed efficace in grado di bilanciare innovazione e regolamentazione sarà probabilmente un processo che richiederà molto tempo.
Intelligenza artificiale ed emozioni umane
Nonostante i vantaggi dell'intelligenza artificiale, le sue capacità presentano dei limiti. "L'empatia non è qualcosa che l'intelligenza artificiale sarà mai in grado di comprendere veramente", ha affermato Alexa Eden, esperta di tecnologia umana presso AlgoAI Tech.
"Se salissi su un Uber condiviso con una coppia che sta litigando e in macchina regnasse il silenzio, sentiresti che c'è tensione."
Man mano che l'intelligenza artificiale si integra sempre di più nelle nostre vite, è probabile che noteremo una differenza tra l'uomo e il computer. Una di queste differenze sarà la capacità di comprendere le emozioni umane, l'empatia, l'intuizione e altre intelligenze tipiche degli esseri umani.
Il Comitato europeo per la protezione dei dati discuterà giovedì la politica sull'intelligenza artificiale