ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

OpenAI lancia il sistema di allerta ChatGPT dopo un'ondata di cause legali legate al suicidio

DiRanda MosesRanda Moses
2 minuti di lettura
OpenAI lancia il sistema di allerta ChatGPT dopo un'ondata di cause legali legate al suicidio.
  • OpenAI ha lanciato Trusted Contact, una funzionalità opzionale di ChatGPT che avvisa un contatto selezionato dall'utente quando le conversazioni suggeriscono un grave rischio di autolesionismo.
  • Ogni avviso viene esaminato manualmente prima di essere inviato e nessuna trascrizione della chat viene condivisa con il contatto.
  • Questa nuova funzionalità arriva mentre OpenAI è impegnata in numerose cause legali che sostengono che le interazioni con ChatGPT abbiano contribuito ai suicidi degli utenti.

OpenAI ha lanciato mercoledì la funzione Contatto Fiducioso. Questa funzionalità consente agli utenti adulti di ChatGPT di selezionare una persona che riceverà un avviso se i sistemi dell'azienda segnalano una conversazione relativa a gravi episodi di autolesionismo.

Si tratta di un'estensione dei controlli parentali lanciati da OpenAI nel settembre 2025, che permettevano ai genitori di monitorare gli account dei propri figli adolescenti. Ora, secondo quanto annunciato da OpenAI, chiunque abbia compiuto 18 anni può aderire al servizio.

Come funzionano effettivamente gli avvisi di OpenAI

L'utente inizia aggiungendo un adulto come contatto fidato nelle impostazioni di ChatGPT. Il potenziale "contatto fidato" riceve un invito che spiega la procedura di configurazione e ha una settimana di tempo per accettare. Se rifiuta, l'utente sceglie un'altra persona.

Quando il monitoraggio automatico rileva una potenziale conversazione relativa all'autolesionismo, ChatGPT avvisa l'utente che potrebbe contattare il suo contatto. Suggerisce inoltre all'utente come contattare direttamente il servizio di supporto.

Successivamente, un team di revisori umani esamina la conversazione. Se confermano che si tratta di un problema serio, inviano un breve avviso al contatto dell'utente tramite e-mail, SMS o notifica in-app.

L'avviso non include il contenuto della comunicazione dell'utente, ma solo la motivazione generale e un link a una guida su come affrontare argomenti delicati. OpenAI afferma che la revisione umana si conclude entro un'ora.

L'utente può scambiare o rimuovere il contatto selezionato in qualsiasi momento. Anche il contatto può annullare l'iscrizione.

I medici hanno contribuito a sviluppare la funzionalità Trusted Contact di OpenAI

OpenAI afferma di aver collaborato con la sua Rete Globale di Medici (oltre 260 medici abilitati in 60 paesi) e con il suo Consiglio di Esperti su Benessere e Intelligenza Artificiale. Anche l'American Psychological Association ha fornito il suo contributo.

"La scienza psicologica dimostra costantemente che la connessione sociale è un potente fattore protettivo, soprattutto durante i periodi di disagio emotivo", ha affermato il dottor Arthur Evans, CEO dell'American Psychological Association, nell'annuncio.

"Aiutare le persone adentin anticipo una persona di fiducia, preservando al contempo la loro libertà di scelta e autonomia, può facilitare il ricorso al supporto reale nel momento del bisogno."

La dottoressa Munmun De Choudhury, professoressa al Georgia Tech e membro del consiglio, l'ha definita "un passo avanti verso l'emancipazione umana, soprattutto nei momenti di vulnerabilità"

OpenAI è sotto pressione a causa di cause legali relative al suicidio assistito da IA

La tempistica non è casuale. OpenAI si trova ad affrontare una serie di cause legali intentate da famiglie i cui parenti si sono suicidati dopo lunghe sessioni con ChatGPT. In diversi casi, le famiglie affermano che il chatbot abbia incitato gli utenti ad allontanarsi dai propri cari o abbia intensificato schemi di pensiero dannosi.

LLMDeathCount, un sito traci decessi correlati ai chatbot basati sull'intelligenza artificiale, elenca 33 casi tra marzo 2023 e maggio 2026. Le vittime avevano un'età compresa tra i 13 e gli 83 anni, secondo Cryptopolitanquanto riportato in precedenza da. ChatGPT è responsabile di 24 di questi casi. Gemini di Google, Meta e altre piattaforme costituiscono i restanti.

La nuova funzionalità di OpenAI è facoltativa e consente agli utenti di gestire più account ChatGPT. Chi non attiva la funzione "Contatti fidati" o accede con un account diverso, aggira completamente il sistema. Lo stesso problema si presenta con il controllo genitori.

Trusted Contact non sostituisce le linee di assistenza per le emergenze. Secondo OpenAI, ChatGPT continua a mostrare i numeri di emergenza locali e a indirizzare gli utenti verso i servizi di emergenza quando le conversazioni raggiungono livelli di disagio acuto.

La funzionalità "Contatti affidabili" di OpenAI mette in contatto gli utenti di intelligenza artificiale con un supporto concreto nel mondo reale. L'azienda ha dichiarato che continuerà a collaborare con medici, ricercatori e responsabili politici per definire come l'IA dovrebbe reagire quando gli utenti si trovano in situazioni di crisi.

Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro.

Domande frequenti

Cos'è la funzionalità "Contatti affidabili" di OpenAI?

Trusted Contact è uno strumento di sicurezza di ChatGPT che consente agli utenti adulti di designare un amico o un familiare che riceverà una notifica qualora i sistemi automatizzati e i revisori umani di OpenAI rilevino un serio rischio di autolesionismo nelle conversazioni dell'utente.

Il contatto di fiducia può visualizzare la cronologia delle chat dell'utente?

No. La notifica non include i dettagli della chat né le trascrizioni. Indica solo il motivo generale dell'allerta e fornisce link a guide di esperti su come gestire conversazioni delicate.

Quanti decessi sono stati collegati ai chatbot basati sull'intelligenza artificiale?

LLMDeathCount, un sito web di trac, elenca 33 decessi collegati a interazioni con chatbot basati sull'intelligenza artificiale tra marzo 2023 e maggio 2026, con vittime di età compresa tra i 13 e gli 83 anni. ChatGPT di OpenAI è responsabile di 24 di questi casi.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO