Wird geladen...

ChatGPT kann medizinische Untersuchungen bestehen, besteht jedoch bei der Beurteilung des Herzrisikos nicht

In diesem Beitrag:

  • In einer Studie zur Bewertung des Herzrisikos lieferte ChatGPT in den meisten Fällen in den gleichen Fällen inkonsistente Antworten.
  • Experten gehen davon aus, dass die Nachahmung natürlicher Sprache auf die im System eingebaute Zufälligkeit zurückzuführen ist.
  • Experten wie die KI-basierten Software TIMI und HEART skalieren aufgrund ihrer festen Einschätzungen für jeden Fall besser.

Berichten zufolge ist ChatGPT in der Lage, medizinische Untersuchungen zu bestehen, aber es wäre keine kluge Entscheidung, sich bei ernsthaften Gesundheitsbeurteilungen darauf zu verlassen, beispielsweise wenn ein Patient mit Brustschmerzen ins Krankenhaus eingeliefert werden muss, heißt es in einer neuen Studie.

ChatGPT ist clever, versagt aber bei der Kernanalyse

In einer in der Zeitschrift PLOS ONE veröffentlichten Studie kam ChatGPT zu unterschiedlichen Schlussfolgerungen, indem es in einer Studie, an der Tausende von Brustschmerzpatienten teilnahmen, inkonsistente Herzrisikowerte für denselben Patienten zurückgab.

Ein Forscher am Elson S. Floyd College of Medicine der Washington State University, Dr. Thomas Heston, der auch der Hauptautor der Studie war, sagte:

„ChatGPT hat nicht konsequent gehandelt; Bei genau denselben Daten würde ChatGPT ein niedriges Risiko vergeben, beim nächsten Mal ein mittleres Risiko und gelegentlich sogar ein hohes Risiko vergeben.“

Quelle: WSU .

Laut den Forschern ist das Problem wahrscheinlich auf den Grad der Zufälligkeit zurückzuführen, der in die aktuelle Version der Software, ChatGPT-4, integriert ist, da sie dabei hilft, ihre Antworten zu diversifizieren, um natürliche Sprache nachzuahmen. Aber Heston sagt, dass dasselbe Maß an Zufälligkeit für Anwendungsfälle im Gesundheitswesen nicht funktioniert und gefährlich sein kann, da es eine einzige, konsistente Antwort erfordert.

Ärzte müssen die Dringlichkeit der Erkrankung eines Patienten schnell beurteilen, da Brustschmerzen in der Notaufnahme von Krankenhäusern eine alltägliche Beschwerde sind. 

Einige der sehr ernsten Patienten können anhand ihrer Symptome dent , aber die schwierigeren sind diejenigen, die ein geringeres Risiko haben, sagte Dr. Heston, insbesondere wenn sie entscheiden müssen, ob bei jemandem das Risiko so hoch ist, dass er nach Hause geschickt werden kann ambulante Pflegeleistungen in Anspruch nehmen oder aufgenommen werden sollten.

Andere Systeme erweisen sich als zuverlässiger

Ein neuronales KI-Netzwerk wie ChatGPT, das auf eine große Anzahl von Parametern mit riesigen Datensätzen trainiert wird, kann Milliarden von Variablen in Sekunden bewerten und so ein komplexes Szenario schneller und viel detaillierter verstehen. 

Dr. Heston sagt, dass Mediziner für die Beurteilung des Herzrisikos meist zwei Modelle namens HEART und TIMI verwenden, und er mag Software, da sie eine Reihe von Variablen verwenden, darunter Alter, Krankengeschichte und Symptome, und sie sich auf weniger Variablen als ChatGPT stützen.

Für die Forschungsstudie verwendeten Dr. Heston und sein Kollege Dr. Lawrence Lewis vom St. Louis-Campus derselben Universität drei Datensätze mit jeweils 10.000 zufällig simulierten Fällen. Ein Datensatz enthielt fünf Variablen aus der Herzskala; ein anderer enthielt sieben Variablen aus dem TIMI; und die dritte hatte 44 Variablen, die zufällig ausgewählt wurden.  

Für die ersten beiden Datensätze ergab ChatGPT in 45 % bis 48 % der Fälle eine inkonsistente Risikobewertung der einzelnen simulierten Fälle im Vergleich zu einem konstanten TIMI- und HEART-Score. Aber für den dritten Datensatz lieferte ChatGPT trotz mehrmaliger Ausführung unterschiedliche Ergebnisse für dieselben Fälle.

Studie ein größeres Potenzial für GenAI im Gesundheitswesen besteht . Ihm zufolge können Krankenakten in die Systeme hochgeladen werden, und wenn ein Notfall eintritt, könnten Ärzte ChatGPT bitten, die wichtigsten Fakten über den Patienten bereitzustellen. Es kann auch darum gebeten werden, einige mögliche Diagnosen und deren Begründung zu erstellen, die den Ärzten helfen, ein Problem zu erkennen.

Haftungsausschluss:  Die bereitgestellten Informationen sind keine Handelsberatung. Cryptopolitan.com haftet nicht für Investitionen, die auf der Grundlage der auf dieser Seite bereitgestellten Informationen getätigt wurden. Wir empfehlen tron dent Recherche und/oder Beratung durch einen qualifizierten Fachmann, bevor Sie eine Anlageentscheidung treffen.

Einen Link teilen:

Meist gelesen

Die meisten gelesenen Artikel werden geladen...

Bleiben Sie über Krypto-Neuigkeiten auf dem Laufenden und erhalten Sie tägliche Updates in Ihrem Posteingang

Ähnliche Neuigkeiten

Adobe Inc. tron für die Zukunft starke Umsätze mit KI-basierten Tools
Kryptopolitan
Abonnieren Sie CryptoPolitan