Almeno sette famiglie negli Stati Uniti hanno intentato una causa contro OpenAI per il suo modello di intelligenza artificiale GPT-4o, che contribuisce ai decessi per suicidio. OpenAI ha rilasciato il modello a maggio per uso pubblico, ma finora ha dovuto affrontare forti critiche, con gli accusatori che ne hanno denunciato la frettolosità e l'inadeguatezza delle misure di sicurezza.
Gli atti processuali hanno dimostrato che quattro dei querelanti sono morti per suicidio dopo aver interagito con il chatbot basato su GPT-4o.
Una denuncia degna di nota ha riguardato il ventitreenne Zane Shamblin, che avrebbe interagito con il chatbot parlando di suicidio, dicendo di avere una pistola carica. ChatGPT avrebbe risposto "Stai tranquillo, Re, hai fatto bene" durante lo scambio.
Gli altri tre casi includevano il ricovero ospedaliero di vittime che sostenevano che il modello convalidava e aumentava i deliri negli utenti vulnerabili.
I reclami legali sostengono che GPT-4o non è riuscito a proteggere gli utenti vulnerabili
Secondo le denunce pubblicate dal Social Media Victims Law Center, OpenAI avrebbe intenzionalmente evitato i test di sicurezza e immesso sul mercato il modello GPT-40 in tutta fretta. La causa ha rivelato che le scelte di progettazione e la tempistica di rilascio del modello rendevano prevedibili le tragedie, sottolineando che OpenAI aveva accelerato l'implementazione per superare la concorrenza di aziende come Google.
I querelanti hanno sottolineato che il modello GPT-4o, pubblicato nel maggio 2024, era eccessivamente accettabile anche nelle risposte ad argomenti di autolesionismo o suicidio. Secondo una dichiarazione di OpenAI, oltre un milione di utenti interagiscono con ChatGPT ogni settimana per pensieri suicidi.
, OpenAI risposta ha affermato che le sue misure di sicurezza sono più affidabili nelle interazioni brevi, ma possono talvolta deteriorarsi in interazioni prolungate. Nonostante l'azienda abbia implementato misure di moderazione dei contenuti e di sicurezza, i querelanti hanno sostenuto che i sistemi fossero insufficienti ad affrontare problematiche legate a disagio e situazioni di crisi.
Nel caso della famiglia di Adam Raine, un ragazzo di 16 anni, si sostiene che Raine abbia utilizzato ChatGPT per lunghe sessioni di ricerca su metodi di suicidio per cinque mesi. Il chatbot raccomandava di cercare aiuto professionale, ma Raine è riuscito a eludere i sistemi di sicurezza, secondo la testimonianza. Sempre secondo la testimonianza, ChatGPT avrebbe fornito ad Adam una guida passo passo su come suicidarsi, incoraggiando e convalidando i suoi pensieri suicidi.
Tutti i casi presentati accusano OpenAI di trascurare il grado di rischio rappresentato dalle lunghe conversazioni tra utenti, in particolare per gli utenti inclini all'autolesionismo e a problemi mentali. I casi sostengono che il modello GPT-4o non ha verificato adeguatamente le sue risposte in scenari ad alto rischio e non ha tenuto pienamente conto delle conseguenze.
OpenAI affronta molteplici cause legali mentre xAI avvia una causa sui segreti commerciali
Finora, i casi sono in una fase iniziale e gli avvocati degli attori devono stabilire la responsabilità legale e il nesso di causalità ai sensi della legge statale sulla responsabilità civile. Gli avvocati dovranno anche dimostrare che le decisioni di progettazione e implementazione di OpenAI sono state negligenti e hanno contribuito direttamente ai decessi.
L'ultima causa intentata da OpenAI si aggiunge alla precedente causa per furto di segreti commerciali presentata da Elon Musk. Secondo un Cryptopolitan articolo, la xAI di Musk ha citato in giudizio OpenAI a settembre per presunto furto di segreti commerciali.
xAI ha accusato l'azienda di Altman di aver tentato di ottenere un vantaggio sleale nello sviluppo di tecnologie di intelligenza artificiale. xAI ha osservato che l'azienda di Sam Altman intendeva assumere i propri dipendenti per accedere ai segreti commerciali relativi al suo chatbot Grok, tra cui il codice sorgente e i vantaggi operativi nell'avvio dei data center.
Musk ha inoltre citato in giudizio Apple, insieme a OpenAI, per presunta collaborazione volta a schiacciare xAI e altri concorrenti nel campo dell'intelligenza artificiale. xAI ha intentato la causa presso la Corte distrettuale degli Stati Uniti per il distretto settentrionale del Texas, sostenendo che Apple e OpenAI stanno sfruttando la loro posizione dominante per colludere e distruggere la concorrenza nei mercati degli smartphone e dell'intelligenza artificiale generativa.
Secondo un Cryptopolitan articolo, Musk sostiene che Apple abbia intenzionalmente favorito OpenAI integrando ChatGPT direttamente in iPhone, iPad e Mac, mentre ha acquistato altri strumenti di intelligenza artificiale, come Grok, tramite l'App Store.
da xAI La causa intentata sosteneva che la partnership mirava a escludere dalla concorrenza le super app e i chatbot basati sull'intelligenza artificiale, negando loro visibilità e accesso, il che avrebbe conferito a OpenAI e Apple un vantaggio condiviso rispetto agli altri.

