OpenAI, la rinomata azienda di intelligenza artificiale, è accusata di violazioni della privacy dei dati in un'importante class action. La causa sostiene che OpenAI, creatrice del famoso strumento di intelligenza artificiale ChatGPT, abbia estratto dati privati degli utenti da Internet senza espressa autorizzazione.
Questa causa ha intrappolato il colosso della tecnologia, suggerendo implicazioni di vasta portata per la sfera digitale.
Prime accuse di furto di dati privati
La causa sostiene che OpenAI ha utilizzato dati ricavati da innumerevoli post sui social media, voci di blog, articoli di Wikipedia e persino ricette di famiglia per addestrare il suo strumento di intelligenza artificiale, ChatGPT .
La raccolta dei dati sarebbe avvenuta senza il consenso esplicito degli utenti, violando presumibilmente i diritti d'autore e la privacy di innumerevoli utenti di Internet.
Il procedimento legale è stato avviato dallo studio legale Clarkson il 28 giugno presso la Corte distrettuale degli Stati Uniti per il distretto settentrionale della California.
Secondo i querelanti, OpenAI hatracillegalmente dati privati dalle interazioni con ChatGPT. Se queste accuse dovessero essere fondate, OpenAI potrebbe essere ritenuta colpevole di violazione del Computer Fraud and Abuse Act, che ha undentnel web scraping.
Per un colpo di scena, la causa ha coinvolto anche Microsoft, un importante sostenitore di OpenAI, come coimputato.
Le accuse si estendono fino a sostenere che i prodotti di OpenAI sono basati su informazioni private rubate, come dati personalidentdi centinaia di milioni di utenti.
Tra questi utenti figurano sia adulti che bambini, tutti presumibilmente tenuti all'oscuro della raccolta dati. L'azienda è accusata di aver esposto irresponsabilmente tutti gli utenti a un rischio incommensurabile, utilizzando impropriamente i loro dati per sviluppare una tecnologia sperimentale instabile.
OpenAI al bivio: reazioni normative tra crescenti preoccupazioni
Alla luce della crescente popolarità di strumenti di intelligenza artificiale come ChatGPT, i legislatori di tutto il mondo stanno ora prestando maggiore attenzione. Negli Stati Uniti, un gruppo bipartisan di legislatori ha presentato il 20 giugno il National AI Commission Act, con l'obiettivo di creare una commissione per valutare l'approccio del Paese all'intelligenza artificiale.
Anche l'Unione Europea è intervenuta: all'inizio di questo mese il Parlamento europeo ha approvato l'Artificial Intelligence Act, introducendo un quadro di governance e supervisione per il settore dell'intelligenza artificiale nell'UE.
La causa ha toccato anche il lato oscuro del progresso dell'intelligenza artificiale. I malintenzionati potrebbero sfruttare le informazioni personali come armi, sfruttando gli strumenti di intelligenza artificiale per intraprendere attività illecite, come molestie, ricatti e sextortion.
Uno di questi metodi deplorevoli prevede l'utilizzo dell'intelligenza artificiale per creare contenuti pornografici deepfake, causando stress emotivo e potenziali danni alla reputazione della vittima.
In un inquietante colpo di scena, la causa sostiene che ChatGPT potrebbe persino essere utilizzato per lanciare attacchi malware avanzati, aggirando gli strumenti standard di sicurezza informatica. Inoltre, l'introduzione dell'implementazione autonoma di ChatGPT, soprannominata "Chaos GPT", ha destato perplessità. Questa variante di intelligenza artificiale, progettata con intenti discutibili, è stata definita espressione del desiderio di "distruggere l'umanità"
Nonostante l'entità delle accuse, la causa rappresenta un allarmante campanello d'allarme per l'industria tecnologica e le autorità di regolamentazione. La situazione difficile di OpenAI sottolinea l'urgente necessità di misure di sicurezza efficaci per le tecnologie di intelligenza artificiale.
Con la continua evoluzione dell'intelligenza artificiale, garantire la protezione dei dati, la privacy e le considerazioni etiche devono rimanere al centro di qualsiasi progresso tecnologico.
La causa contro OpenAI, quindi, potrebbe segnare una svolta nella responsabilità e nella regolamentazione dell'IA. Il mondo della tecnologia seguirà con attenzione l'evolversi della vicenda.
Il produttore di ChatGPT, OpenAI, è stato colpito da una class action per presunta