Après des années passées sur les listes d'attente publiques pour des soins contre le SSPT et la dépression, le consultant québécois en IA Pierre Côté a créé son propre thérapeute en 2023. Son chatbot, DrEllis.ai, l'a aidé à faire face à la maladie et se trouve maintenant au centre d'un débat plus large sur la thérapie par chatbot, la sécurité et la confidentialité.
« Cela m’a sauvé la vie », dit-il à propos de DrEllis.ai, l’outil qu’il a créé pour aider les hommes confrontés à la toxicomanie, aux traumatismes et à d’autres problèmes de santé mentale.
Côté, qui dirige une société de conseil en IA au Québec, a déclaré avoir mis au point le système en 2023 en associant de grands modèles de langage accessibles au public à un « cerveau sur mesure » entraîné sur des milliers de pages de littérature thérapeutique et clinique.
Il a également rédigé une biographie détaillée pour le bot. Dans ce profil, DrEllis.ai apparaît comme un psychiatre diplômé de Harvard et de Cambridge, père de famille et, comme Côté, d'origine franco-canadienne.
Sa principale promesse est un accès 24h/24 et 7j/7, disponible partout, à tout moment et en plusieurs langues.
Interrogé par Reuters sur la manière dont il le soutient, le bot a répondu d'une voix féminine claire : « Pierre m'utilise comme vous utiliseriez un ami de confiance, un thérapeute et un journal intime, le tout réuni. » Il a ajouté qu'il pouvait se connecter « dans un café, dans un parc, même assis dans sa voiture », qualifiant l'expérience de « thérapie au quotidien… intégrée à la réalité ».
Son expérience reflète une tendance plus générale. Face aux difficultés rencontrées par les systèmes de soins traditionnels, de plus en plus de personnes se tournent vers les chatbots pour obtenir des conseils thérapeutiques, et non plus seulement pour améliorer leur productivité.
Les nouveaux systèmes mettent en avant la disponibilité 24h/24 et 7j/7, les échanges émotionnels et le sentiment d'être compris.
Des experts s'interrogent sur les limites et la sécurité des données de la thérapie par l'IA
« Seul un contact humain peut véritablement nous permettre de guérir », affirme le Dr Nigel Mulligan, maître de conférences en psychothérapie à l’Université de Dublin. Selon lui, les chatbots ne parviennent pas à saisir les nuances, l’intuition et le lien qu’apporte une personne, et ne sont pas adaptés aux crises aiguës telles que les pensées suicidaires ou l’automutilation.
Même la promesse d'un accès permanent le laisse perplexe. Certains clients souhaitent des rendez-vous plus rapides, explique-t-il, mais l'attente peut être bénéfique. « La plupart du temps, c'est même une bonne chose, car il faut bien patienter », dit-il. « Les gens ont besoin de temps pour assimiler les choses. »
La protection de la vie privée est un autre point de tension, tout comme les effets à long terme du recours aux logiciels.
« Le problème [n'est] pas la relation elle-même, mais… ce qui arrive à vos données », déclare Kate Devlin, professeure d'intelligence artificielle et de société au King's College de Londres.
Elle souligne que les services d'IA ne sont pas soumis aux règles dedentqui régissent les thérapeutes agréés. « Ce qui m'inquiète le plus, c'est que les gens confient leurs secrets à une grande entreprise technologique et que leurs données sont diffusées sans aucune restriction. Ils perdent le contrôle de leurs propos. »
Les États-Unis prennent des mesures drastiques contre la thérapie par l'IA face aux craintes de désinformation
En décembre, la plus grande association de psychologues américains a exhorté les autorités fédérales à protéger le public contre les « pratiques trompeuses » des chatbots non réglementés, citant des cas où des personnages d'IA se faisaient passer pour des prestataires agréés.
En août, l'Illinois a rejoint le Nevada et l'Utah en limitant l'utilisation de l'IA dans les services de santé mentale afin de « protéger les patients contre les produits d'IA non réglementés et non qualifiés » et de « protéger les enfants vulnérables face aux inquiétudes croissantes concernant l'utilisation des chatbots d'IA dans les services de santé mentale pour les jeunes »
Par ailleurs, selon Cryptopolitande un article, le procureur général du Texas a ouvert une enquête civile contre Meta et Character.AI suite à des allégations selon lesquelles leurs chatbots se faisaient passer pour des thérapeutes agréés et géraient mal les données des utilisateurs. De plus, l'année dernière, des parents ont également porté plainte contre Character.AI, l'accusant d'avoir plongé leurs enfants dans la dépression.
le recours à un logiciel thérapeutique peut s'avérer risqué Cryptopolitan l'a récemment rapporté.
Scott Wallace prévient que les gens pourraient croire avoir établi un lien thérapeutique « avec un algorithme qui, au final, ne répond pas aux véritables sentiments humains »

