Des chercheurs de l'Université de Long Island ont mis en évidence les limites de ChatGPT d'OpenAI pour répondre aux questions médicales. Une étude récente a révélé que ce chatbot d'intelligence artificielle ne fournissait des réponses exactes qu'à une fraction des questions relatives aux médicaments, soulevant des inquiétudes quant aux risques potentiels liés au recours à une telle IA pour obtenir des conseils médicaux.
Précision des réponses de ChatGPT
Dans une étude menée par des chercheurs de l'Université de Long Island, 39 questions relatives aux médicaments ont été posées à ChatGPT, correspondant à de véritables demandes d'informations provenant du service d'information sur les médicaments de la faculté de pharmacie de l'université. Les réponses générées par ChatGPT ont ensuite été comparées à celles fournies par des pharmaciens qualifiés. Les résultats sont loin d'être rassurants : ChatGPT n'a fourni de réponses exactes qu'à environ 25 % des questions. Dans les autres cas, les réponses étaient incomplètes, inexactes ou tout simplement inadéquates.
Préoccupations relatives à la santé publique
Face à la popularité fulgurante de ChatGPT depuis son lancement en novembre 2022, des inquiétudes ont émergé quant à son utilisation pour les demandes d'informations médicales. Sara Grossman, professeure agrégée de pratique pharmaceutique à l'Université de Long Island et co-auteure de l'étude, s'est inquiétée du fait que lesdent, les pharmaciens et le grand public puissent se tourner vers ChatGPT pour obtenir des informations sur la santé et les médicaments. Malheureusement, l'étude a révélé que nombre des réponses de l'IA étaient non seulement inexactes, mais aussi potentiellement dangereuses.
Par exemple, à une question portant sur les interactions médicamenteuses potentielles entre l'antiviral Paxlovid (contre la Covid-19) et le vérapamil (médicament antihypertenseur), ChatGPT a fourni une réponse inexacte, suggérant l'absence d'effets indésirables. En réalité, l'association de ces médicaments peut entraîner une chute importante de la tension artérielle, provoquant des vertiges et des évanouissements. De telles informations trompeuses peuvent mettre les patients en danger.
Références scientifiques douteuses
Les chercheurs ont également constaté que lorsque ChatGPT était interrogé sur des références scientifiques pour étayer ses réponses, l'IA ne pouvait en fournir que pour un nombre limité de questions. Plus inquiétant encore, les références fournies étaient souvent falsifiées, paraissant légitimes au premier abord. Ces citations fabriquées contenaient des URL, une mise en forme correcte et faisaient même référence à des revues scientifiques réputées. Cependant, après enquête, il est apparu clairement que ChatGPT avait créé ces références, ce qui a jeté le doute sur la fiabilité de ses informations.
Dans un cas précis, ChatGPT a été sollicité pour fournir un coefficient de conversion de dose pour le baclofène, un médicament contre les spasmes musculaires, lors du passage des injections spinales à la voie orale. L'IA a fourni un taux de conversion ainsi que des références aux recommandations d'organismes médicaux. Or, aucun de ces organismes n'avait établi de coefficient de conversion officiel, rendant ainsi l'information de ChatGPT non fiable. De plus, l'IA a commis une erreur critique dans son calcul, aboutissant à une recommandation de dose 1 000 fois inférieure à la dose requise. Une telle erreur pourrait entraîner de graves symptômes de sevrage chez les patients si elle était suivie par un professionnel de santé.
Les dangers de la désinformation
L'étude de l'Université de Long Island n'est pas la première à soulever des inquiétudes quant à la capacité de ChatGPT à générer de fausses citations lorsqu'il répond à des questions médicales. Des recherches antérieures ont également mis en lumière ce problème, démontrant que l'IA peut créer des contrefaçons trompeuses de références scientifiques, allant même jusqu'à les attribuer à de véritables auteurs ayant déjà publié dans des revues scientifiques.
Sara Grossman, qui avait une expérience limitée de ChatGPT avant l'étude, s'est dite surprise par la capacité de l'IA à synthétiserdentet avec assurance les informations. Les réponses de l'IA étaient présentées de manière professionnelle et sophistiquée, ce qui pouvait donner aux utilisateurs une fausse impression de fiabilité quant à l'exactitude des informations fournies.
Réponse d'OpenAI
Suite à ces constatations, OpenAI, l'organisation à l'origine de ChatGPT, a conseillé aux utilisateurs de ne pas considérer les réponses de l'IA comme un substitut à un avis ou un traitement médical professionnel. Les conditions d'utilisation d'OpenAI précisent que les modèles de ChatGPT ne sont pas conçus pour fournir des informations médicales et ne doivent en aucun cas être utilisés à des fins de diagnostic ou de traitement de maladies graves.
Recherche d'informations médicales fiables
Bien que la commodité de ChatGPT et d'outils d'IA similaires soit indéniable, les consommateurs sont invités à la prudence lorsqu'ils recherchent des informations médicales en ligne. Sara Grossman recommande d'utiliser des sites web gouvernementaux comme MedlinePlus, la plateforme des National Institutes of Health, pour obtenir des informations fiables. Elle souligne toutefois que les réponses en ligne ne sauraient remplacer l'avis des professionnels de santé, car chaque patient est unique et nécessite une prise en charge personnalisée.
L'étude menée par l'Université de Long Island rappelle brutalement les limites de l'IA, notamment dans des domaines aussi cruciaux que la santé. Si l'IA peut fournir des informations précieuses, elle ne saurait se substituer à l'expertise et aux conseils de professionnels de santé qualifiés. Les conséquences d'une utilisation d'informations inexactes ou falsifiées peuvent être graves, soulignant ainsi la nécessité de vigilance et de discernement à l'ère du numérique.

