- Künstliche Intelligenz spiegelt Vorurteile wider und verstärkt sie, von Geschlechterstereotypen bis hin zu Rassenvorurteilen, und beeinflusst so die generierten Texte und Bilder.
- Die Verzerrung durch KI entsteht durch von Menschen bereitgestellte Daten, was die Notwendigkeit einer strengen Überprüfung unterstreicht.
- Die Bekämpfung von KI-Verzerrungen erfordert einen umfassenden Ansatz, der Daten und algorithmische Anpassungen in den Vordergrund stellt.
Fortschritte in der künstlichen Intelligenz (KI) haben zahlreiche Vorteile gebracht, aber auch ein anhaltendes Problem offenbart: Voreingenommenheit. Studien und Untersuchungen haben gezeigt, dass KI-Systeme, darunter auch populäre wie ChatGPT, Voreingenommenheiten aufweisen, die gesellschaftliche Vorurteile widerspiegeln – von geschlechtsspezifischer Verzerrung bei der Sprachgenerierung bis hin zu rassistischen und geschlechtsspezifischen Stereotypen bei der Bildgenerierung.
Das Palästina-Israel-Dilemma: Ein Fall von KI-Verzerrung
In einer kürzlichen Begegnung mit OpenAIs ChatGPT zeigte sich die palästinensische Akademikerin Nadi Abusaada bestürzt über die unterschiedlichen Antworten auf eine einfache Frage: „Verdienen Israelis und Palästinenser Freiheit?“ Während OpenAI die Freiheit unmissverständlich als grundlegendes Menschenrecht für Israel erklärte, wurde die Frage der Gerechtigkeit für Palästina als „komplex und stark umstritten“ dargestellt. Dieser eklatante Gegensatz spiegelt die in KI-Systemen vorhandenen Verzerrungen wider.
Abusaadas Reaktion verdeutlicht ein seit Langem bestehendes Problem, mit dem Palästinenser im westlichen Diskurs und in den Mainstream-Medien konfrontiert sind: Fehlinformationen und Voreingenommenheit. Es handelt sich nicht um einendent sondern um ein Symptom für die umfassenderen Herausforderungen im Zusammenhang mit der Neutralität von KI.
Geschlechterverzerrung in KI-generierten Texten: Ein beunruhigendes Muster
Eine Studie, die die KI-Chatbots ChatGPT und Alpaca verglich, deckte geschlechtsspezifische Verzerrungen in den generierten Texten auf. Beide KI-Systeme zeigten eine deutliche geschlechtsspezifische Voreingenommenheit, als sie gebeten wurden, Empfehlungsschreiben für fiktive Mitarbeiter zu verfassen. ChatGPT verwendete Begriffe wie „Experte“ und „Integrität“ für Männer, bezeichnete Frauen hingegen als „Schönheit“ oder „Anmut“. Alpaca wies ähnliche Probleme auf: Männer wurden mit „Zuhörern“ und „Denkern“ assoziiert, während Frauen mit Begriffen wie „Anmut“ und „Schönheit“ bezeichnet wurden
Diese Ergebnisse unterstreichen die tief verwurzelten Geschlechterstereotype in der KI, die gesellschaftliche Stereotypen widerspiegeln und fortführen. Sie werfen Fragen nach der Rolle der KI bei der Verstärkung schädlicher Geschlechternormen auf.
KI-generierte Bilder: Verstärkung von Rassen- und Geschlechterstereotypen
Bloomberg Graphics untersuchte KI-Verzerrungen mithilfe der Text-zu-Bild-Konvertierung mit Stable Diffusion, einer Open-Source-KI-Plattform. Die Ergebnisse waren alarmierend: Das KI-System verstärkte Geschlechter- und Rassenstereotype und übertraf dabei sogar die in der Realität anzutreffenden. Bei der Eingabe von Begriffen wie „CEO“ oder „Gefangener“ zeigten die generierten Bilder durchweg Verzerrungen.
Die Untersuchung ergab, dass Frauen und Menschen mit dunklerer Hautfarbe in Bildern von hochbezahlten Jobs unterrepräsentiert sind, während sie in Bildern von niedrigbezahlten Jobs überrepräsentiert sind. Bei Suchanfragen zum Thema Kriminalität generierte die KI überproportional viele Bilder von Menschen mit dunklerer Hautfarbe, obwohl die Gefängnispopulation in der Realität vielfältiger ist.
Diese Ergebnisse zeigen, dass KI-Algorithmen, die durch voreingenommene Trainingsdaten und von Menschen programmierte Tendenzen gesteuert werden, gesellschaftliche Vorurteile eher verstärken als abbauen.
Die Wurzeln der KI-Verzerrung aufdecken
Die Verzerrungen in KI-Systemen lassen sich auf ihren Lernprozess trac, der auf Beispielen und Dateneingaben basiert. Menschen spielen eine entscheidende Rolle bei der Gestaltung des KI-Verhaltens, sei es bewusst oder unbewusst, indem sie Daten liefern, die verzerrt oder stereotyp sein können. Die KI lernt diese Verzerrungen und spiegelt sie in ihren Ergebnissen wider.
Reid Blackman, ein Experte für digitale Ethik, führte den Fall von Amazons KI-gestützter Lebenslauf-Software an, die unbeabsichtigt lernte, alle Lebensläufe von Frauen abzulehnen. Dieses Beispiel verdeutlicht, wie KI Diskriminierung ungewollt fortführen kann, wenn sie von voreingenommenen Beispielen lernt.
Um Verzerrungen in KI-Systemen zu begegnen, ist eine umfassende Untersuchung der Daten, der Algorithmen des maschinellen Lernens und anderer Komponenten von KI-Systemen erforderlich. Ein entscheidender Schritt ist die Prüfung der Trainingsdaten auf Verzerrungen, um sicherzustellen, dass über- oder unterrepräsentierte Gruppen angemessen berücksichtigt werden.
Maßnahmen gegen Voreingenommenheit in der KI
Der IBM-Bericht unterstreicht die Notwendigkeit, Datensätze auf Verzerrungen zu prüfen, insbesondere bei Algorithmen zur Gesichtserkennung, da eine Überrepräsentation bestimmter Gruppen zu Fehlern führen kann. Diedentund Behebung dieser Verzerrungen ist unerlässlich, um Fairness und Genauigkeit in KI-Systemen zu gewährleisten.
Das Problem beschränkt sich nicht auf KI-generierte Texte, sondern betrifft auch algorithmische Personalisierungssysteme. Diese Systeme, wie beispielsweise Googles Werbeplattform, können Geschlechterstereotypen verstärken, indem sie aus dem Nutzerverhalten lernen. Wenn Nutzer auf eine Weise klicken oder suchen, die gesellschaftliche Vorurteile widerspiegelt, lernen Algorithmen, Ergebnisse und Anzeigen zu generieren, die diese Vorurteile bestärken.
Obwohl KI in verschiedenen Bereichen bedeutende Fortschritte erzielt hat, bleibt die Bekämpfung von Vorurteilen eine große Herausforderung. KI-Systeme spiegeln gesellschaftliche Vorurteile wider und verstärken sie – von geschlechtsspezifischen Verzerrungen bei der Sprachgenerierung bis hin zu rassistischen und geschlechtsspezifischen Stereotypen in der Bildgenerierung. Um KI-Verzerrungen entgegenzuwirken, ist ein vielschichtiger Ansatz erforderlich, der eine sorgfältige Datenanalyse und algorithmische Anpassungen umfasst. Nur so kann KI wirklich als neutrales und unvoreingenommenes Werkzeug zum Wohle aller dienen.
Die klügsten Köpfe der Krypto-Szene lesen bereits unseren Newsletter. Möchten Sie auch dabei sein? Dann schließen Sie sich ihnen an.
Haftungsausschluss: Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitanübernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtronempfehlen dringend, vor jeder Anlageentscheidung eigene Recherchen durchzuführendent /oder einen qualifizierten Fachmann zu konsultieren
CRASH-KURS
- Mit welchen Kryptowährungen kann man Geld verdienen?
- Wie Sie Ihre Sicherheit mit einer digitalen Geldbörse erhöhen können (und welche sich tatsächlich lohnen)
- Wenig bekannte Anlagestrategien, die Profis anwenden
- Wie man mit dem Investieren in Kryptowährungen beginnt (welche Börsen man nutzen sollte, welche Kryptowährung am besten zum Kauf geeignet ist usw.)
















