Une étude récente de la faculté de médecine Elson S. Floyd de l'Université d'État de Washington apporte des informations cruciales sur les obstacles potentiels à l'utilisation de l'intelligence artificielle ( IA Publiée dans PLOS One, cette étude examine les capacités du programme ChatGPT d'OpenAI à évaluer le risque cardiaque de patients simulés présentant une douleur thoracique.
Conclusions incohérentes
Les résultats révèlent une variabilitématic dans les conclusions de ChatGPT, même avec les mêmes données patient. Selon le Dr Thomas Heston, chercheur principal, ChatGPT ne fonctionne pas de manière cohérente. Avec les mêmes données, ChatGPT attribue un risque faible lors d'une première analyse, un risque intermédiaire lors d'une analyse ultérieure, et parfois même un risque élevé.
Cette lacune est particulièrement préoccupante dans les cas critiques mettant la vie en danger, car dans ces situations, une évaluation objective et rigoureuse est essentielle pour permettre au personnel médical d'agir avec précision et efficacité. Les patients peuvent souffrir de douleurs thoraciques dues à diverses pathologies. Il est donc impératif que le médecin examine rapidement le patient et instaure un traitement sans délai afin de lui prodiguer les soins appropriés.
L'étude a également révélé que les performances de ChatGPT étaient faibles comparées aux méthodes traditionnelles utilisées par les médecins pour évaluer le risque cardiaque des patients. Aujourd'hui, les médecins utilisent une méthode de notation par liste de contrôle recto-verso et évaluent les patients selon les protocoles TIMI et HEART, qui sont des indicateurs de la gravité de leur maladie cardiaque.
Cependant, lorsqu'on lui fournit en entrée des variables telles que celles affichées dans les échelles TIMI et HEART, on observe un désaccord plus important avec les scores de ChatGPT, les taux de concordance étant respectivement de 45 % et 48 %. Supposons que cette divergence se retrouve dans la prise de décision de l'IA face à des cas médicaux à haut risque. Dans ce cas, on peut s'interroger sur la fiabilité de l'IA, car ce sont précisément ces situations critiques qui exigent des décisions cohérentes et précises.
Aborder les limites et le potentiel de l'IA dans le domaine de la santé
Le Dr Heston a souligné le potentiel de l'IA pour améliorer les soins de santé et a insisté sur la nécessité d'une étude approfondie afin d'exclure defiinhérentes. L'IA est certes un outil indispensable, mais son développement est plus rapide que notre compréhension. Il est donc essentiel de mener des recherches approfondies, notamment dans les situations cliniques courantes.
Dedent, les résultats de la recherche ont confirmé l'importance des infirmières dans ces contextes, même si l'intelligence artificielle présente également certains avantages. Prenons l'exemple d'une situation d'urgence où les spécialistes de la santé numérique pourraient consulter le dossier médical complet d'un patient, exploitant ainsi la capacité du système à ne fournir que les informations pertinentes avec une efficacité maximale. Par ailleurs, l'IA peut participer à l'élaboration de diagnostics différentiels et à la réflexion des médecins sur les cas complexes. Cela permettra aux médecins de progresser plus efficacement dans le processus diagnostique.
Néanmoins, selon le Dr Heston, certains problèmes subsistent.
« Cet outil peut s'avérer très utile pour vous aider à élaborer un diagnostic différentiel face à un problème inconnu, et c'est probablement l'un de ses plus grands atouts. Vous pouvez lui demander les cinq diagnostics les plus probables et les preuves qui les étayent ; il peut donc vous aider à analyser le problème en profondeur, mais il ne peut pas vous donner la réponse directe. »
Dans un contexte où l'IA est en constante évolution, il est primordial d'évaluer en profondeur ses performances, notamment dans des situations à haut risque comme les soins de santé, afin de garantir la sécurité des patients et d'optimiser la prise de décision médicale.

