Your bank is using your money. You’re getting the scraps.WATCH FREE

Studie deckt Grenzen von ChatGPT bei der Beantwortung medizinischer Anfragen auf

In diesem Beitrag:

  • Die Genauigkeit von ChatGPT bei der Beantwortung medizinischer Anfragen ist alarmierend niedrig, was potenzielle Risiken für die Gesundheit der Nutzer birgt.
  • Gefälschte wissenschaftliche Referenzen untergraben die Zuverlässigkeit der medizinischen Antworten von ChatGPT.
  • Nutzer sollten Vorsicht walten lassen und sich für genaue medizinische Ratschläge an medizinisches Fachpersonal wenden.

Forscher der Long Island University haben die Grenzen von OpenAIs ChatGPT bei der Beantwortung medizinischer Fragen aufgezeigt. Eine aktuelle Studie ergab, dass der KI-Chatbot nur einen Bruchteil der medikamentenbezogenen Fragen korrekt beantwortete. Dies weckt Bedenken hinsichtlich der potenziellen Risiken, sich bei medizinischen Fragen auf solche KI zu verlassen.

Genauigkeit der Antworten von ChatGPT

In einer Studie der Long Island University wurden ChatGPT 39 Fragen zu Medikamenten gestellt, die realen Anfragen des Arzneimittelinformationsdienstes der pharmazeutischen Fakultät der Universität entsprachen. Die von ChatGPT generierten Antworten wurden anschließend mit den Antworten von geschulten Apothekern verglichen. Die Ergebnisse waren alles andere als beruhigend: ChatGPT lieferte nur auf etwa 25 % der Fragen korrekte Antworten. In den übrigen Fällen waren die Antworten entweder unvollständig, fehlerhaft oder gingen schlichtweg nicht ausreichend auf die Fragen ein.

Bedenken hinsichtlich der öffentlichen Gesundheit

Angesichts des rasanten Anstiegs der Popularität von ChatGPT seit seiner Veröffentlichung im November 2022 sind Bedenken hinsichtlich seiner Verwendung für medizinische Anfragen aufgekommen. Sara Grossman, außerordentliche Professorin für Pharmaziepraxis an der Long Island University und eine der Studienautorinnen, äußerte die Befürchtung, dassdent, Apotheker und die breite Öffentlichkeit ChatGPT für gesundheits- und medikamentenbezogene Informationen nutzen könnten. Die Studie zeigte leider, dass viele der Antworten der KI nicht nur ungenau, sondern potenziell gefährlich waren.

Beispielsweise lieferte ChatGPT auf eine Frage zu möglichen Wechselwirkungen zwischen dem Covid-19-Medikament Paxlovid und dem Blutdrucksenker Verapamil eine falsche Antwort, die besagte, es gäbe keine Nebenwirkungen. Tatsächlich kann die gleichzeitige Einnahme dieser Medikamente zu einem deutlichen Blutdruckabfall führen, der Schwindel und Ohnmacht verursachen kann. Solche irreführenden Informationen können die Gesundheit von Patienten gefährden.

Siehe auch  Ethereum Preisanalyse: ETH weist die 3.200-Dollar-Marke schnell zurück, bereit für einen Anstieg über 3.300 Dollar?

Fragwürdige wissenschaftliche Referenzen

Die Forscher stellten außerdem fest, dass ChatGPT auf Nachfrage nur für eine begrenzte Anzahl von Fragen wissenschaftliche Belege liefern konnte. Noch besorgniserregender war, dass die angegebenen Belege oft gefälscht waren und auf den ersten Blick legitim wirkten. Diese gefälschten Zitate enthielten URLs, korrekte Formatierung und verwiesen sogar auf renommierte Fachzeitschriften. Bei genauerer Betrachtung wurde jedoch deutlich, dass ChatGPT diese Belege selbst erstellt hatte, was Zweifel an der Zuverlässigkeit der Informationen aufkommen lässt.

In einem Fall wurde ChatGPT gebeten, ein Dosisumrechnungsverhältnis für das Muskelkrämpfe-Medikament Baclofen beim Übergang von spinalen Injektionen zur oralen Einnahme anzugeben. Die KI lieferte ein Umrechnungsverhältnis und verwies auf Leitlinien medizinischer Organisationen. Allerdings hatte keine dieser Organisationen ein offizielles Dosisumrechnungsverhältnis festgelegt, wodurch die Informationen von ChatGPT unzuverlässig wurden. Darüber hinaus unterlief der KI ein schwerwiegender Berechnungsfehler, der zu einer Dosisempfehlung führte, die 1.000-mal niedriger war als erforderlich. Ein solcher Fehler könnte bei Patienten, wenn er von medizinischem Fachpersonal befolgt wird, zu schweren Entzugserscheinungen führen.

Die Gefahren von Fehlinformationen

Die Studie der Long Island University ist nicht die erste, die Bedenken hinsichtlich der Fähigkeit von ChatGPT aufwirft, bei der Beantwortung medizinischer Anfragen fiktive Zitate zu generieren. Frühere Untersuchungen haben dieses Problem ebenfalls hervorgehoben und gezeigt, dass die KI irreführende Fälschungen wissenschaftlicher Referenzen erstellen und diese sogar realen Autoren mit früheren Veröffentlichungen in Fachzeitschriften zuordnen kann.

Siehe auch:  Neue Studie enthüllt Weiterentwicklung der Taktiken zur Klimawandelleugnung auf YouTube

Sara Grossman, die vor der Studie nur wenig Erfahrung mit ChatGPT hatte, zeigte sich überrascht von der Fähigkeit der KI, Informationen sofort unddentzu synthetisieren. Die Antworten der KI wurden professionell und differenziert präsentiert, was den Nutzern möglicherweise ein falsches Gefühl der Sicherheit hinsichtlich der Richtigkeit der bereitgestellten Informationen vermittelte.

Antwort von OpenAI

Als Reaktion auf diese Ergebnisse riet OpenAI, das Unternehmen hinter ChatGPT, Nutzern davon ab, sich auf die Antworten der KI als Ersatz für professionelle medizinische Beratung oder Behandlung zu verlassen. In den Nutzungsrichtlinien von OpenAI wird ausdrücklich darauf hingewiesen, dass die Modelle von ChatGPT nicht für die Bereitstellung medizinischer Informationen optimiert sind und niemals für Diagnose- oder Behandlungszwecke bei schweren Erkrankungen eingesetzt werden sollten.

Suche nach verlässlichen medizinischen Informationen

Obwohl ChatGPT und ähnliche KI-Tools unbestreitbar praktisch sind, wird Verbrauchern zu besonderer Vorsicht bei der Online-Suche nach medizinischen Informationen geraten. Sara Grossman empfiehlt, für verlässliche Informationen auf offizielle Regierungswebseiten wie MedlinePlus der National Institutes of Health zurückzugreifen. Sie betont jedoch, dass Online-Antworten die Beratung durch medizinisches Fachpersonal nicht ersetzen sollten, da jeder Patient individuell ist und eine personalisierte Behandlung erfordert.

Die Studie der Long Island University verdeutlicht eindrücklich die Grenzen der KI, insbesondere in so wichtigen Bereichen wie der Gesundheitsversorgung. KI kann zwar wertvolle Informationen liefern, sollte aber niemals das Fachwissen und die Beratung qualifizierter medizinischer Fachkräfte ersetzen. Die Folgen der Nutzung ungenauer oder falscher Informationen können gravierend sein und unterstreichen die Notwendigkeit von Wachsamkeit und Urteilsvermögen im digitalen Zeitalter.

Lesen Sie Krypto-News nicht nur, sondern verstehen Sie sie. Abonnieren Sie unseren Newsletter. Er ist kostenlos .

Link teilen:

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wir empfehlen dringend, vor jeder Anlageentscheidung eigene Recherchen durchzuführen tron / oder einen qualifizierten Fachmann zu konsultieren dent

Meistgelesen

Meistgelesene Artikel werden geladen...

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie täglich Updates in Ihren Posteingang

Empfehlung der Redaktion

Artikel der Redaktionsauswahl werden geladen...

- Der Krypto-Newsletter, der Sie immer einen Schritt voraus hält -

Die Märkte bewegen sich schnell.

Wir sind schneller.

Abonnieren Sie Cryptopolitan Daily und erhalten Sie zeitnahe, prägnante und relevante Krypto-Einblicke direkt in Ihren Posteingang.

Jetzt anmelden und
keinen Film mehr verpassen.

Steig ein. Informiere dich.
Verschaffe dir einen Vorsprung.

Abonnieren Sie CryptoPolitan