La terapia con chatbots de IA se está convirtiendo en una tendencia extraña y está llena de señales de alerta

- Debido a los largos tiempos de espera para recibir terapia en público, muchas personas, incluidos los adolescentes, están recurriendo a chatbots impulsados por IA para obtener apoyo emocional.
- Estas herramientas ofrecen disponibilidad constante y simulan la interacción humana, pero no son profesionales capacitados.
- Los profesionales de la salud mental advierten que las herramientas de IA carecen de empatía, responsabilidad y capacidad para responder a crisis como la ideación suicida.
Después de años atrapado en listas de espera públicas para recibir atención para el trastorno de estrés postraumático y la depresión, el consultor de inteligencia artificial de Quebec, Pierre Cote, creó su propio terapeuta en 2023. Su chatbot, DrEllis.ai, lo ayudó a sobrellevar la situación y ahora se encuentra en el centro de un debate más amplio sobre la terapia con chatbot, la seguridad y la privacidad.
“Me salvó la vida”, dice sobre DrEllis.ai, la herramienta que creó para ayudar a los hombres que enfrentan adicciones, traumas y otros problemas de salud mental.
Cote, quien dirige una consultoría de inteligencia artificial en Quebec, dijo que creó el sistema en 2023 combinando grandes modelos de lenguaje disponibles públicamente con “un cerebro diseñado a medida” entrenado en miles de páginas de literatura terapéutica y clínica.
También escribió una biografía detallada del bot. En ese perfil, DrEllis.ai aparece como psiquiatra con títulos de Harvard y Cambridge, familia y, al igual que Cote, de ascendencia francocanadiense.
Su principal promesa es el acceso las 24 horas del día, disponible en cualquier lugar, en cualquier momento y en varios idiomas.
Cuando Reuters le preguntó cómo lo apoyaba, el bot respondió con una clara voz femenina: "Pierre me usa como tú usarías a un amigo de confianza, un terapeuta y un diario, todo combinado". Añadió que puede conectarse "en una cafetería, en un parque, incluso sentado en su coche", describiendo la experiencia como "terapia de la vida diaria... integrada en la realidad".
Su experimento refleja un cambio más amplio. A medida que la atención médica tradicional lucha por mantenerse al día, cada vez más personas buscan orientación terapéutica en chatbots en lugar de usarlos solo para mejorar su productividad.
Los nuevos sistemas ofrecen disponibilidad 24 horas al día, 7 días a la semana, intercambios emocionales y una sensación de ser comprendido.
Los expertos cuestionan los límites de la terapia con IA y la seguridad de los datos
“La conexión entre personas es la única manera de sanar adecuadamente”, afirma el Dr. Nigel Mulligan, profesor de psicoterapia en la Universidad de la Ciudad de Dublín. Argumenta que los chatbots pierden la sutileza, la intuición y el vínculo que una persona aporta, y no están preparados para crisis agudas como pensamientos suicidas o autolesiones.
Incluso la promesa de acceso constante le da que pensar. Algunos clientes desean citas más rápidas, dice, pero esperar puede ser valioso. "La mayoría de las veces eso es muy bueno porque tenemos que esperar", dice. "La gente necesita tiempo para procesar las cosas"
La privacidad es otro punto de presión, junto con los efectos a largo plazo de buscar orientación del software.
“El problema no es la relación en sí, sino… qué sucede con tus datos”, dice Kate Devlin, profesora de inteligencia artificial y sociedad en el King's College de Londres.
Señala que los servicios de IA no cumplen las normasdentque rigen a los terapeutas colegiados. «Mi mayor preocupación es que se trate de personas que confían sus secretos a una gran empresa tecnológica y que sus datos simplemente se difunden. Están perdiendo el control de lo que dicen»
EE. UU. reprime la terapia con IA ante el temor a la desinformación
En diciembre, el grupo de psicólogos más grande de Estados Unidos instó a los reguladores federales a proteger al público de las “prácticas engañosas” de los chatbots no regulados, citando casos en los que personajes de IA se hicieron pasar por proveedores autorizados.
En agosto, Illinois se unió a Nevada y Utah para frenar el uso de IA en los servicios de salud mental para "proteger a los pacientes de productos de IA no regulados y no calificados" y para "proteger a los niños vulnerables en medio de las crecientes preocupaciones sobre el uso de chatbots de IA en los servicios de salud mental para jóvenes"
Mientras tanto, según Cryptopolitaninforma elfiscal general de Texas inició una investigación civil contra Meta y Character.AI por acusaciones de que sus chatbots se hacían pasar por terapeutas con licencia y manejaban indebidamente los datos de los usuarios. Además, el año pasado, algunos padres también demandaron a Character.AI por provocar depresión en sus hijos.
Scott Wallace, psicólogo clínico y exdirector de innovación clínica en Remble, afirma que es incierto "si estos chatbots ofrecen algo más que un consuelo superficial". Confiar en el software para la terapia puede ser arriesgado, como Cryptopolitan informó recientemente.
Scott Wallace advierte que las personas pueden creer que han formado un vínculo terapéutico “con un algoritmo que, en última instancia, no corresponde a los sentimientos humanos reales”
Las mentes más brillantes del mundo de las criptomonedas ya leen nuestro boletín. ¿Te apuntas? ¡ Únete!
CURSO
- ¿Qué criptomonedas pueden hacerte ganar dinero?
- Cómo mejorar tu seguridad con una billetera (y cuáles realmente vale la pena usar)
- Estrategias de inversión poco conocidas que utilizan los profesionales
- Cómo empezar a invertir en criptomonedas (qué plataformas de intercambio usar, las mejores criptomonedas para comprar, etc.)















