Kann KI im Gesundheitswesen unvoreingenommen werden? Forscher suchen nach einer Antwort

- Forscher des MIT kamen zu dem Schluss, dass KI Ungleichheiten und Vorurteile im Gesundheitssystem verschärfen könnte.
- Das Team entdeckte vier Subpopulationsverschiebungen, die zu Verzerrungen in Modellen des maschinellen Lernens führen.
- Um gerechtere KI-Modelle im Gesundheitswesen zu erreichen, müssen die Ursachen der Ungerechtigkeit laut den Forschern noch besser verstanden werden.
Jeder Patient, unabhängig von seinen körperlichen Merkmalen und seinerdent, sollte Zugang zu einer guten Gesundheitsversorgung haben. Bestimmte Personengruppen werden jedoch aufgrund von Ungleichheiten und unbewussten Vorurteilen in der medizinischen Behandlung und Diagnose häufig von dieser fairen Behandlung ausgeschlossen.
KI-Modelle im Gesundheitswesen sind voreingenommen
Forscher des Massachusetts Institute of Technology (MIT) haben nun herausgefunden, dass künstliche Intelligenz und maschinelles Lernen die Ungleichheiten und Ungerechtigkeiten in der Gesundheitsversorgung von oft unterrepräsentierten Bevölkerungsgruppen tendenziell verschärfen. Dies kann Auswirkungen auf die Diagnose und Behandlung dieser Gruppen haben.
Unter der Leitung von Marzyeh Ghassemi, einer Assistenzprofessorin am Department of Electrical Science and Engineering (EECS) des MIT, veröffentlichten die Forscher eine Studie, in der sie die Ursachen für die Ungleichheiten analysierten, die in der KI entstehen könnenund dazu führen, dass Modelle, die insgesamt gut funktionieren, versagen, wenn es um unterrepräsentierte Untergruppen geht.
Die Analyse konzentrierte sich auf „Subpopulationsverschiebungen“, die im Bericht als „Unterschiede in der Leistungsfähigkeit von Modellen des maschinellen Lernens für verschiedene Subgruppen“ defiwurden. Hauptziel war es, die Arten von Subpopulationsverschiebungen zu ermitteln, die durch KI-Techniken entstehen können, und so potenziell zukünftige Entwicklungen für gerechtere Modelle zu unterstützen.
„Wir wollen, dass die Modelle fair sind und für alle Gruppen gleichermaßen gut funktionieren, stattdessen beobachten wir aber immer wieder Verschiebungen zwischen verschiedenen Gruppen, die zu einer schlechteren medizinischen Diagnose und Behandlung führen können“, sagt MIT-dent Yuzhe Yang.
Forscherdent4 Faktoren, die zu Verzerrungen in KI-Modellen führen
Die MIT-Forscherdent. vier Arten von Verschiebungen – Scheinkorrelationen, Attributungleichgewicht, Klassenungleichgewicht und Attributgeneralisierung –, die zu Ungleichheiten und Verzerrungen in KI-Techniken führen
„Verzerrungen können tatsächlich von dem herrühren, was die Forscher die Klasse nennen, oder von dem Attribut, oder von beidem“, heißt es in dem Bericht.
Die Forscher führten ein Beispiel an, bei dem Modelle des maschinellen Lernens verwendet wurden, um anhand der Untersuchung von Röntgenbildern festzustellen, ob eine Person an einer Lungenentzündung leidet oder nicht. Dabei wurden zwei Attribute berücksichtigt: das Geschlecht der geröntgten Personen (weiblich oder männlich) und zwei Klassen: eine Klasse mit Personen, die an der Lungenkrankheit leiden, und eine Klasse mit Personen, die infektionsfrei sind.
„Wenn in diesem speziellen Datensatz auf jede Frau mit Lungenentzündung 100 Männer mit Lungenentzündung kämen, könnte dies zu einem Ungleichgewicht der Attribute führen, und das Modell würde wahrscheinlich Lungenentzündung bei einem Mann besser erkennen als bei einer Frau“, erklärte das Team.
Können KI-Modelle unvoreingenommen funktionieren?
Die MIT-Forscher gaben an, dass sie das Auftreten von Scheinkorrelationen, Klassenungleichgewicht und Attributungleichgewicht durch die Verbesserung des „Klassifikators“ und des „Encoders“ reduzieren konnten. Die andere Verschiebung, die „Attributgeneralisierung“, blieb jedoch bestehen.
„Egal, was wir am Encoder oder Klassifikator geändert haben, wir konnten keine Verbesserungen hinsichtlich der Attributgeneralisierung feststellen“, sagt Yang, „und wir wissen noch nicht, wie wir dieses Problem angehen sollen.“
Das Team untersucht derzeit öffentliche Datensätze von Zehntausenden von Patienten und Röntgenaufnahmen des Brustkorbs, um festzustellen, ob medizinisches Fachpersonal mithilfe von Modellen des maschinellen Lernens eine faire medizinische Diagnose und Behandlung erreichen kann.
Sie räumten jedoch ein, dass es weiterhin notwendig sei, die Ursachen der Ungerechtigkeit und deren Durchdringung unseres gegenwärtigen Systems besser zu verstehen, um die angestrebte Gerechtigkeit zu erreichen.
Überlassen Sie das Beste immer noch der Bank? Sehen Sie sich unser kostenloses Video zum Thema „ Ihre eigene Bank sein“.
Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren
CRASH-KURS
- Mit welchen Kryptowährungen kann man Geld verdienen?
- Wie Sie Ihre Sicherheit mit einer digitalen Geldbörse erhöhen können (und welche sich tatsächlich lohnen)
- Wenig bekannte Anlagestrategien, die Profis anwenden
- Wie man mit dem Investieren in Kryptowährungen beginnt (welche Börsen man nutzen sollte, welche Kryptowährung am besten zum Kauf geeignet ist usw.)















