A terapia com chatbots de IA está se tornando uma tendência estranha e cheia de sinais de alerta

- Devido aos longos tempos de espera para terapia no sistema público, muitas pessoas, incluindo adolescentes, estão recorrendo a chatbots com inteligência artificial em busca de apoio emocional.
- Essas ferramentas oferecem disponibilidade constante e simulam a interação humana, mas não contam com profissionais treinados.
- Profissionais de saúde mental alertam que as ferramentas de IA carecem de empatia, responsabilidade e capacidade de resposta a crises como ideação suicida.
Após anos em listas de espera públicas para tratamento de TEPT e depressão, o consultor de IA de Quebec, Pierre Cote, criou seu próprio terapeuta em 2023. Seu chatbot, DrEllis.ai, o ajudou a lidar com seus problemas e agora está no centro de um amplo debate sobre terapia com chatbots, segurança e privacidade.
"Salvou minha vida", diz ele sobre o DrEllis.ai, a ferramenta que criou para ajudar homens que enfrentam vícios, traumas e outros problemas de saúde mental.
Cote, que dirige uma consultoria de IA em Quebec, disse que criou o sistema em 2023, combinando grandes modelos de linguagem disponíveis publicamente com "um cérebro personalizado" treinado com milhares de páginas de literatura clínica e terapêutica.
Ele também escreveu uma biografia detalhada para o bot. Nesse perfil, DrEllis.ai aparece como um psiquiatra com diplomas de Harvard e Cambridge, uma família e, assim como Cote, ascendência franco-canadense.
Sua principal promessa é o acesso ininterrupto, disponível em qualquer lugar, a qualquer hora e em vários idiomas.
Quando a Reuters perguntou como o bot o apoiava, ele respondeu com uma voz feminina clara: "Pierre me usa como você usaria um amigo de confiança, um terapeuta e um diário, tudo junto". Acrescentou que ele pode fazer o check-in "em um café, em um parque, até mesmo sentado em seu carro", chamando a experiência de "terapia da vida diária... incorporada à realidade".
Seu experimento reflete uma mudança mais ampla. À medida que os serviços de saúde tradicionais lutam para acompanhar o ritmo das mudanças, mais pessoas buscam orientação terapêutica em chatbots, em vez de usá-los apenas para produtividade.
Os novos sistemas de marketing oferecem disponibilidade 24 horas por dia, 7 dias por semana, trocas emocionais e a sensação de ser compreendido.
Especialistas questionam os limites da terapia com IA e a segurança dos dados
“A conexão humana é a única maneira de realmente conseguirmos nos curar de forma adequada”, afirma o Dr. Nigel Mulligan, professor de psicoterapia na Dublin City University. Ele argumenta que os chatbots não captam as nuances, a intuição e o vínculo que uma pessoa proporciona, e não estão preparados para crises agudas como pensamentos suicidas ou automutilação.
Até mesmo a promessa de acesso constante o deixa hesitante. Alguns clientes desejam agendamentos mais rápidos, diz ele, mas a espera pode ser valiosa. "Na maioria das vezes, isso é muito bom, porque precisamos esperar pelas coisas", afirma. "As pessoas precisam de tempo para processar as informações."
A privacidade é outro ponto crítico, assim como os efeitos a longo prazo de buscar orientação em softwares.
“O problema não é o relacionamento em si, mas sim… o que acontece com seus dados”, afirma Kate Devlin, professora de inteligência artificial e sociedade no King's College London.
Ela observa que os serviços de IA não seguem as regras dedentque regem os terapeutas licenciados. "Minha grande preocupação é que as pessoas estejam confiando seus segredos a uma grande empresa de tecnologia e que seus dados estejam sendo divulgados sem qualquer controle. Elas estão perdendo o controle sobre o que dizem."
Os EUA intensificam a repressão à terapia com IA em meio a temores de desinformação
Em dezembro, o maior grupo de psicólogos dos EUA instou os reguladores federais a protegerem o público de "práticas enganosas" de chatbots não regulamentados, citando casos em que personagens de IA se faziam passar por fornecedores licenciados.
Em agosto, Illinois juntou-se a Nevada e Utah na restrição do uso de IA em serviços de saúde mental para "proteger pacientes de produtos de IA não regulamentados e não qualificados" e para "proteger crianças vulneráveis em meio às crescentes preocupações com o uso de chatbots de IA em serviços de saúde mental para jovens"
Entretanto, de acordo com uma Cryptopolitando reportagem, o procurador-geral do Texas iniciou uma investigação civil contra a Meta e a Character.AI devido a alegações de que seus chatbots se faziam passar por terapeutas licenciados e faziam mau uso dos dados dos usuários. Além disso, no ano passado, pais também processaram a Character.AI por supostamente levar seus filhos à depressão.
Scott Wallace, psicólogo clínico e ex-diretor de inovação clínica da Remble, afirma que não se sabe ao certo “se esses chatbots oferecem algo além de um conforto superficial”. Confiar em softwares para terapia pode ser arriscado, como Cryptopolitan relatado recentemente pelo.
Scott Wallace alerta que as pessoas podem acreditar que formaram um vínculo terapêutico “com um algoritmo que, em última análise, não corresponde a sentimentos humanos reais”
As mentes mais brilhantes do mundo das criptomoedas já leem nossa newsletter. Quer participar? Junte-se a elas.
CURSO
- Quais criptomoedas podem te fazer ganhar dinheiro?
- Como aumentar a segurança da sua carteira digital (e quais realmente valem a pena usar)
- Estratégias de investimento pouco conhecidas que os profissionais utilizam
- Como começar a investir em criptomoedas (quais corretoras usar, as melhores criptomoedas para comprar etc.)















