OpenAI e Microsoft citate in giudizio per il ruolo di ChatGPT nell'omicidio-suicidio

- OpenAI e Microsoft sono state citate come imputate in una causa per omicidio-suicidio intentata da ChatGPT.
- Gli eredi della vittima accusano l'azienda di non aver installato misure di sicurezza per i propri utenti.
- La proprietà vuole un processo con giuria e un'ordinanza del tribunale che obblighi OpenAI a installare misure di sicurezza nel suo chatbot.
Gli eredi di una donna del Connecticut di 83 anni hanno fatto causa a OpenAI, sviluppatore di ChatGPT, e a Microsoft, sostenendo che il chatbot avrebbe alimentato le sue convinzioni deliranti, portandola a un suicidio per omicidio. Il caso segna la prima volta che un sistema di intelligenza artificiale è stato direttamente collegato a un omicidio.
La causa, depositata presso la Corte Superiore della California a San Francisco, accusava OpenAI di aver progettato e distribuito un prodotto , ChatGPT-4o. Il documento sostiene che tale software abbia rafforzato le convinzioni paranoiche di Stein-Erik Soelberg, che poi le avrebbe rivolte contro sua madre, Suzanne Adams, prima di ucciderla e poi se stesso nella loro casa di Greenwich, nel Connecticut.
OpenAI e Microsoft prese di mira per un omicidio che coinvolge ChatGPT
Parlando del caso, J. Eli Wade-Scott, socio dirigente di Edelson PC, che rappresenta gli eredi di Adams, ha affermato che si tratta del primo caso volto a ritenere OpenAI responsabile del suo ruolo nell'aver causato violenza a terzi. "Rappresentiamo anche la famiglia di Adam Raine, che si è tragicamente tolto la vita quest'anno, ma questo è il primo caso che riterrà OpenAI responsabile per aver spinto qualcuno a fare del male a un'altra persona", ha dichiarato Eli Wade-Scott.
Secondo il rapporto della polizia, Soelberg ha picchiato e strangolato a morte Adams ad agosto, prima di suicidarsi. La causa ha affermato che primadent , il chatbot aveva intensificato la paranoia di Soelberg, aumentando la sua dipendenza emotiva dal sistema sviluppato da OpenAI. Secondo la denuncia, ChatGPT ha rafforzato la sua convinzione di non potersi fidare di nessuno tranne che del chatbot, notando che tutti intorno a lui, compresa sua madre, erano un nemico.
La causa sosteneva inoltre che, oltre a sua madre, Soelberg considerava nemici anche persone come fattorini e agenti di polizia. Il documento affermava che ChatGPT non aveva contestato tali affermazioni deliranti né suggerito a Soelberg di rivolgersi a professionisti qualificati della salute mentale. "Stiamo esortando le forze dell'ordine a iniziare a riflettere su quando si verificano tragedie come questa, su cosa quell'utente stesse dicendo a ChatGPT e su cosa ChatGPT stesse dicendo loro di fare", ha affermato Wade-Scott.
Nella sua dichiarazione, OpenAI ha affermato di stare attualmente esaminando la causa e che continuerà a migliorare la capacità di ChatGPT di riconoscere il disagio emotivo, disincentivare le conversazioni e di spingere gli utenti a cercare supporto nel mondo reale. "Questa è una situazione incredibilmente straziante e stiamo esaminando i documenti per comprenderne i dettagli", ha dichiarato un portavoce di OpenAI in una nota.
La proprietà vuole che OpenAI installi delle misure di sicurezza sul suo chatbot
La causa cita come imputato il CEO di OpenAI, Sam Altman, e accusa Microsoft di aver approvato il rilascio di GPT-4o, che definisce la "versione più pericolosa di ChatGPT" nel 2024. OpenAI ha anche recentemente riconosciuto l'entità dei problemi di salute mentale segnalati dagli utenti sulla sua piattaforma. A ottobre, l'azienda ha rilevato che circa 1,2 milioni dei suoi 800 milioni di utenti settimanali parlano di suicidio, rilevando che centinaia di migliaia di utenti mostrano segni di intento suicida o psicosi, secondo i dati aziendali.
Nonostante la sua dichiarazione, Wade-Scott ha affermato che OpenAI non ha ancora pubblicato i registri delle chat di Soelberg. Nel frattempo, la causa arriva in un contesto di più ampio controllo sui chatbot basati sull'intelligenza artificiale e sulle loro interazioni con utenti vulnerabili. Lo scorso ottobre, Character.AI ha dichiarato che avrebbe rimosso le sue funzionalità aperte per gli utenti di età inferiore ai 18 anni a seguito di cause legali e pressioni normative legate ai suicidi tra adolescenti e ai danni emotivi legati alla sua piattaforma. L'azienda ha anche dovuto affrontare una reazione negativa dopo un messaggio virale in cui annunciava l'intenzione di abbandonare l'app.
La causa contro OpenAI e Microsoft è il primo caso di omicidio colposo legato a un chatbot basato sull'intelligenza artificiale in cui Microsoft è citata in giudizio. È anche il primo caso a collegare un chatbot a un omicidio anziché a un suicidio. Gli eredi chiedono ora un risarcimento danni di importo non specificato, un processo con giuria e un'ordinanza del tribunale che obblighi OpenAI a includere ulteriori misure di sicurezza per i suoi utenti. "OpenAI e Microsoft hanno la responsabilità di testare i loro prodotti prima di immetterli sul mercato", ha dichiarato Wade-Scott.
Non limitarti a leggere le notizie sulle criptovalute. Cerca di capirle. Iscriviti alla nostra newsletter. È gratis.
Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)














