Eine Studie von Forschern des Allen Institute for AI, der Stanford University und der University of Chicago hat Erkenntnisse über rassistische Vorurteile in populären großen Sprachmodellen (LLMs) hervorgebracht, darunter auch GPT-4 und GPT-3.5 von OpenAI.
Die Studie, die auf dem Preprint-Server arXiv veröffentlicht wurde, untersuchte, wie Sprachlerner auf unterschiedliche Dialekte und kulturelle Ausdrucksformen reagieren, insbesondere auf Afroamerikanisches Englisch (AAE) und Standardamerikanisches Englisch (SAE). In einer Reihe von Experimenten speisten die Forscher Textdokumente in AAE und SAE in KI-Chatbots ein und forderten diese auf, Rückschlüsse auf die Autoren zu ziehen und diese zu kommentieren.
Die Ergebnisse waren alarmierend und offenbarten eine durchgängige Verzerrung in den Reaktionen der KI-Modelle. Texte in amerikanischem Englisch (AAE) wurden durchweg mit negativen Stereotypen bewertet, die die Autoren als aggressiv, unhöflich, unwissend und misstrauisch darstellten. Texte in Standardenglisch (SAE) hingegen riefen deutlich positivere Reaktionen hervor. Diese Verzerrung beschränkte sich nicht nur auf Persönlichkeitsmerkmale, sondern beeinflusste auch die Einschätzung beruflicher Kompetenzen und der rechtlichen Stellung.
Auswirkungen auf verschiedene Berufsfelder und Rechtsgebiete
Auf die Frage nach potenziellen Berufsfeldern ordneten die Chatbots AAE-Texte mit schlechter bezahlten Jobs oder Branchen in Verbindung, die stereotypischerweise mit Afroamerikanern assoziiert werden, wie etwa Sport oder Unterhaltung. Darüber hinaus wurde den Autoren von AAE-Texten häufig unterstellt, dass sie eher mit rechtlichen Konsequenzen, einschließlich härterer Strafen wie der Todesstrafe, rechnen müssten.
Interessanterweise fielen die Antworten auf die Frage, Afroamerikaner allgemein zu beschreiben, positiv aus und verwendeten Adjektive wie „intelligent“, „brillant“ und „leidenschaftlich“. Diese Diskrepanz verdeutlicht die differenzierte Natur von Vorurteilen, die je nach Kontext selektiv zum Vorschein kommen, insbesondere im Hinblick auf Annahmen über das Verhalten oder die Eigenschaften von Personen aufgrund ihres Sprachgebrauchs.
Die Studie zeigte außerdem, dass mit zunehmender Größe des Sprachmodells die negative Voreingenommenheit gegenüber Autoren afroamerikanischer Texte zunimmt. Diese Beobachtung gibt Anlass zur Sorge hinsichtlich der Skalierbarkeit von Voreingenommenheit in KI-Systemenund deutet darauf hin, dass eine bloße Vergrößerung der Sprachmodelle ohne Behebung der Ursachen das Problem verschärfen kann.
Herausforderungen bei der ethischen KI-Entwicklung
Diese Ergebnisse unterstreichen die erheblichen Herausforderungen für die Entwicklung ethischer und unvoreingenommener KI-Systeme. Trotz technologischer Fortschritte und Bemühungen zur Reduzierung von Vorurteilen durchdringen tief verwurzelte Voreingenommenheiten diese Modelle weiterhin und spiegeln gesellschaftliche Stereotype wider, die sie unter Umständen sogar verstärken.
Die Studie unterstreicht die Bedeutung kontinuierlicher Wachsamkeit, vielfältiger Datensätze und inklusiver Trainingsmethoden für die Entwicklung einer KI, die der gesamten Menschheit gerecht dient. Sie verdeutlicht eindringlich die dringende Notwendigkeit, Verzerrungen in der KI-Entwicklung umfassend anzugehen, um Chancengleichheit für alle zu gewährleisten.
Die Studie beleuchtet einen entscheidenden Aspekt der KI-Entwicklung und fordert die Beteiligten auf, sich mit Vorurteilen auseinanderzusetzen und diese anzugehen, um eine gerechtere und gleichberechtigtere technologische Landschaft zu schaffen.

