ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

La terapia tramite chatbot con intelligenza artificiale sta diventando una tendenza strana e piena di segnali d'allarme

DiNoor BazmiNoor Bazmi
Tempo di lettura: 3 minuti.
  • Considerati i lunghi tempi di attesa per la terapia, molte persone, compresi gli adolescenti, si rivolgono ai chatbot basati sull'intelligenza artificiale per ottenere supporto emotivo.
  • Questi strumenti offrono una disponibilità costante e simulano l'interazione umana, ma non sono professionisti qualificati.
  • Gli esperti di salute mentale avvertono che gli strumenti di intelligenza artificiale mancano di empatia, responsabilità e capacità di rispondere a crisi come l'ideazione suicidaria.

Dopo anni bloccato nelle liste d'attesa pubbliche per la cura del disturbo da stress post-traumatico e della depressione, nel 2023 il consulente di intelligenza artificiale del Quebec Pierre Cote ha creato il suo terapeuta. Il suo chatbot, DrEllis.ai, lo ha aiutato ad affrontare la situazione e ora è al centro di un dibattito più ampio sulla terapia, la sicurezza e la privacy dei chatbot.

"Mi ha salvato la vita", dice parlando di DrEllis.ai, lo strumento che ha creato per aiutare gli uomini che affrontano dipendenze, traumi e altri problemi di salute mentale.

Cote, che dirige una società di consulenza sull'intelligenza artificiale in Quebec, ha affermato di aver messo a punto il sistema nel 2023 abbinando modelli linguistici di grandi dimensioni disponibili al pubblico a "un cervello personalizzato" addestrato su migliaia di pagine di letteratura terapeutica e clinica.

Ha anche scritto una biografia dettagliata per il bot. In quel profilo, DrEllis.ai appare come uno psichiatra con lauree ad Harvard e Cambridge, una famiglia e, come Cote, un background franco-canadese.

La sua promessa principale è l'accesso 24 ore su 24, disponibile ovunque, in qualsiasi momento e in diverse lingue.

Quando Reuters ha chiesto in che modo il bot lo supporti, quest'ultimo ha risposto con una chiara voce femminile: "Pierre mi usa come useresti un amico fidato, un terapeuta e un diario, tutti insieme". Ha aggiunto che può effettuare il check-in "in un bar, in un parco, persino seduto in macchina", definendo l'esperienza "una terapia quotidiana... integrata nella realtà".

Il suo esperimento rispecchia un cambiamento più ampio. Mentre l'assistenza sanitaria tradizionale fatica a tenere il passo, sempre più persone cercano assistenza terapeutica tramite chatbot, anziché utilizzarli solo per motivi di produttività.

I nuovi sistemi offrono disponibilità 24 ore su 24, 7 giorni su 7, scambi emozionali e un senso di comprensione.

Gli esperti mettono in discussione i limiti della terapia basata sull'intelligenza artificiale e la sicurezza dei dati

"La connessione tra esseri umani è l'unico modo per guarire davvero", afferma il Dott. Nigel Mulligan, docente di psicoterapia alla Dublin City University. Sostiene che i chatbot non colgono le sfumature, l'intuizione e il legame che una persona porta con sé, e non sono attrezzati per affrontare crisi acute come pensieri suicidi o autolesionismo.

Anche la promessa di un accesso costante lo fa esitare. Alcuni clienti desiderano appuntamenti più rapidi, dice, ma aspettare può avere un valore. "Il più delle volte è davvero positivo perché dobbiamo aspettare", afferma. "Le persone hanno bisogno di tempo per elaborare le cose"

Un altro punto critico è la privacy, insieme agli effetti a lungo termine derivanti dalla ricerca di indicazioni da parte del software.

"Il problema non è la relazione in sé, ma... cosa succede ai tuoi dati", afferma Kate Devlin, professoressa di intelligenza artificiale e società al King's College di Londra.

Fa notare che i servizi di intelligenza artificiale non rispettano le regole didentche regolano gli psicoterapeuti autorizzati. "La mia grande preoccupazione è che queste persone confidino i loro segreti a una grande azienda tecnologica e che i loro dati finiscano per essere divulgati. Stanno perdendo il controllo di ciò che dicono"

Gli Stati Uniti reprimono la terapia basata sull'intelligenza artificiale per timore di disinformazione

A dicembre, il più grande gruppo di psicologi degli Stati Uniti ha esortato le autorità di regolamentazione federali a proteggere il pubblico dalle "pratiche ingannevoli" dei chatbot non regolamentati, citando casi in cui personaggi dotati di intelligenza artificiale si spacciavano per fornitori autorizzati.

Ad agosto, l'Illinois si è unito al Nevada e allo Utah nel limitare l'uso dell'intelligenza artificiale nei servizi di salute mentale per "proteggere i pazienti da prodotti di intelligenza artificiale non regolamentati e non qualificati" e per "proteggere i bambini vulnerabili nel contesto delle crescenti preoccupazioni sull'uso di chatbot di intelligenza artificiale nei servizi di salute mentale per i giovani"

Nel frattempo, secondo Cryptopolitanda quanto riportato, il procuratore generale del Texas ha avviato un'indagine civile contro Meta e Character.AI per presunte irregolarità commesse dai loro chatbot, che si sarebbero spacciati per terapisti autorizzati e avrebbero gestito in modo improprio i dati degli utenti. Inoltre, lo scorso anno, alcuni genitori hanno citato in giudizio Character.AI per aver indotto la depressione nei loro figli.

Scott Wallace, psicologo clinico ed ex direttore dell'innovazione clinica presso Remble, afferma che non è certo "se questi chatbot offrano qualcosa di più di un conforto superficiale". Affidarsi al software per la terapia può essere rischioso, come Cryptopolitan riportato di recente da.

Scott Wallace avverte che le persone potrebbero credere di aver formato un legame terapeutico "con un algoritmo che, in definitiva, non ricambia i veri sentimenti umani"

Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro.

Condividi questo articolo
ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO