Forscher der Long Island University haben die Grenzen von OpenAIs ChatGPT bei der Beantwortung medizinischer Fragen aufgezeigt. Eine aktuelle Studie ergab, dass der KI-Chatbot nur einen Bruchteil der medikamentenbezogenen Fragen korrekt beantwortete. Dies weckt Bedenken hinsichtlich der potenziellen Risiken, sich bei medizinischen Fragen auf solche KI zu verlassen.
Genauigkeit der Antworten von ChatGPT
In einer Studie der Long Island University wurden ChatGPT 39 Fragen zu Medikamenten gestellt, die realen Anfragen des Arzneimittelinformationsdienstes der pharmazeutischen Fakultät der Universität entsprachen. Die von ChatGPT generierten Antworten wurden anschließend mit den Antworten von geschulten Apothekern verglichen. Die Ergebnisse waren alles andere als beruhigend: ChatGPT lieferte nur auf etwa 25 % der Fragen korrekte Antworten. In den übrigen Fällen waren die Antworten entweder unvollständig, fehlerhaft oder gingen schlichtweg nicht ausreichend auf die Fragen ein.
Bedenken hinsichtlich der öffentlichen Gesundheit
Angesichts des rasanten Anstiegs der Popularität von ChatGPT seit seiner Veröffentlichung im November 2022 sind Bedenken hinsichtlich seiner Verwendung für medizinische Anfragen aufgekommen. Sara Grossman, außerordentliche Professorin für Pharmaziepraxis an der Long Island University und eine der Studienautorinnen, äußerte die Befürchtung, dassdent, Apotheker und die breite Öffentlichkeit ChatGPT für gesundheits- und medikamentenbezogene Informationen nutzen könnten. Die Studie zeigte leider, dass viele der Antworten der KI nicht nur ungenau, sondern potenziell gefährlich waren.
Beispielsweise lieferte ChatGPT auf eine Frage zu möglichen Wechselwirkungen zwischen dem Covid-19-Medikament Paxlovid und dem Blutdrucksenker Verapamil eine falsche Antwort, die besagte, es gäbe keine Nebenwirkungen. Tatsächlich kann die gleichzeitige Einnahme dieser Medikamente zu einem deutlichen Blutdruckabfall führen, der Schwindel und Ohnmacht verursachen kann. Solche irreführenden Informationen können die Gesundheit von Patienten gefährden.
Fragwürdige wissenschaftliche Referenzen
Die Forscher stellten außerdem fest, dass ChatGPT auf Nachfrage nur für eine begrenzte Anzahl von Fragen wissenschaftliche Belege liefern konnte. Noch besorgniserregender war, dass die angegebenen Belege oft gefälscht waren und auf den ersten Blick legitim wirkten. Diese gefälschten Zitate enthielten URLs, korrekte Formatierung und verwiesen sogar auf renommierte Fachzeitschriften. Bei genauerer Betrachtung wurde jedoch deutlich, dass ChatGPT diese Belege selbst erstellt hatte, was Zweifel an der Zuverlässigkeit der Informationen aufkommen lässt.
In einem Fall wurde ChatGPT gebeten, ein Dosisumrechnungsverhältnis für das Muskelkrämpfe-Medikament Baclofen beim Übergang von spinalen Injektionen zur oralen Einnahme anzugeben. Die KI lieferte ein Umrechnungsverhältnis und verwies auf Leitlinien medizinischer Organisationen. Allerdings hatte keine dieser Organisationen ein offizielles Dosisumrechnungsverhältnis festgelegt, wodurch die Informationen von ChatGPT unzuverlässig wurden. Darüber hinaus unterlief der KI ein schwerwiegender Berechnungsfehler, der zu einer Dosisempfehlung führte, die 1.000-mal niedriger war als erforderlich. Ein solcher Fehler könnte bei Patienten, wenn er von medizinischem Fachpersonal befolgt wird, zu schweren Entzugserscheinungen führen.
Die Gefahren von Fehlinformationen
Die Studie der Long Island University ist nicht die erste, die Bedenken hinsichtlich der Fähigkeit von ChatGPT aufwirft, bei der Beantwortung medizinischer Anfragen fiktive Zitate zu generieren. Frühere Untersuchungen haben dieses Problem ebenfalls hervorgehoben und gezeigt, dass die KI irreführende Fälschungen wissenschaftlicher Referenzen erstellen und diese sogar realen Autoren mit früheren Veröffentlichungen in Fachzeitschriften zuordnen kann.
Sara Grossman, die vor der Studie nur wenig Erfahrung mit ChatGPT hatte, zeigte sich überrascht von der Fähigkeit der KI, Informationen sofort unddentzu synthetisieren. Die Antworten der KI wurden professionell und differenziert präsentiert, was den Nutzern möglicherweise ein falsches Gefühl der Sicherheit hinsichtlich der Richtigkeit der bereitgestellten Informationen vermittelte.
Antwort von OpenAI
Als Reaktion auf diese Ergebnisse riet OpenAI, das Unternehmen hinter ChatGPT, Nutzern davon ab, sich auf die Antworten der KI als Ersatz für professionelle medizinische Beratung oder Behandlung zu verlassen. In den Nutzungsrichtlinien von OpenAI wird ausdrücklich darauf hingewiesen, dass die Modelle von ChatGPT nicht für die Bereitstellung medizinischer Informationen optimiert sind und niemals für Diagnose- oder Behandlungszwecke bei schweren Erkrankungen eingesetzt werden sollten.
Suche nach verlässlichen medizinischen Informationen
Obwohl ChatGPT und ähnliche KI-Tools unbestreitbar praktisch sind, wird Verbrauchern zu besonderer Vorsicht bei der Online-Suche nach medizinischen Informationen geraten. Sara Grossman empfiehlt, für verlässliche Informationen auf offizielle Regierungswebseiten wie MedlinePlus der National Institutes of Health zurückzugreifen. Sie betont jedoch, dass Online-Antworten die Beratung durch medizinisches Fachpersonal nicht ersetzen sollten, da jeder Patient individuell ist und eine personalisierte Behandlung erfordert.
Die Studie der Long Island University verdeutlicht eindrücklich die Grenzen der KI, insbesondere in so wichtigen Bereichen wie der Gesundheitsversorgung. KI kann zwar wertvolle Informationen liefern, sollte aber niemals das Fachwissen und die Beratung qualifizierter medizinischer Fachkräfte ersetzen. Die Folgen der Nutzung ungenauer oder falscher Informationen können gravierend sein und unterstreichen die Notwendigkeit von Wachsamkeit und Urteilsvermögen im digitalen Zeitalter.

