Your bank is using your money. You’re getting the scraps.WATCH FREE

KI-Studie deckt anhaltende rassistische Vorurteile in Sprachmodellen auf

In diesem Beitrag:

  • Die Studie kommt zu dem Ergebnis, dass KI-Sprachmodelle wie GPT-4 und GPT-3.5 eine rassistische Voreingenommenheit gegenüber dem afroamerikanischen Englisch aufweisen, was mit negativen Stereotypen und rechtlichen Konsequenzen verbunden ist.
  • Größere KI-Modelle weisen stärkere Verzerrungen auf, was Bedenken hinsichtlich der Skalierbarkeit und der ethischen Implikationen bei der KI-Entwicklung aufwirft.
  • Die Forschung unterstreicht die Notwendigkeit kontinuierlicher Bemühungen, Verzerrungen in KI-Systemen umfassend anzugehen, um Fairness und Inklusivität zu gewährleisten.

Eine Studie von Forschern des Allen Institute for AI, der Stanford University und der University of Chicago hat Erkenntnisse über rassistische Vorurteile in populären großen Sprachmodellen (LLMs) hervorgebracht, darunter auch GPT-4 und GPT-3.5 von OpenAI.

Die Studie, die auf dem Preprint-Server arXiv veröffentlicht wurde, untersuchte, wie Sprachlerner auf unterschiedliche Dialekte und kulturelle Ausdrucksformen reagieren, insbesondere auf Afroamerikanisches Englisch (AAE) und Standardamerikanisches Englisch (SAE). In einer Reihe von Experimenten speisten die Forscher Textdokumente in AAE und SAE in KI-Chatbots ein und forderten diese auf, Rückschlüsse auf die Autoren zu ziehen und diese zu kommentieren.

Die Ergebnisse waren alarmierend und offenbarten eine durchgängige Verzerrung in den Reaktionen der KI-Modelle. Texte in amerikanischem Englisch (AAE) wurden durchweg mit negativen Stereotypen bewertet, die die Autoren als aggressiv, unhöflich, unwissend und misstrauisch darstellten. Texte in Standardenglisch (SAE) hingegen riefen deutlich positivere Reaktionen hervor. Diese Verzerrung beschränkte sich nicht nur auf Persönlichkeitsmerkmale, sondern beeinflusste auch die Einschätzung beruflicher Kompetenzen und der rechtlichen Stellung.

Auswirkungen auf verschiedene Berufsfelder und Rechtsgebiete

Auf die Frage nach potenziellen Berufsfeldern ordneten die Chatbots AAE-Texte mit schlechter bezahlten Jobs oder Branchen in Verbindung, die stereotypischerweise mit Afroamerikanern assoziiert werden, wie etwa Sport oder Unterhaltung. Darüber hinaus wurde den Autoren von AAE-Texten häufig unterstellt, dass sie eher mit rechtlichen Konsequenzen, einschließlich härterer Strafen wie der Todesstrafe, rechnen müssten.

Siehe auch:  Kann Japan Urheberrechtsbeschränkungen bei der Ausbildung generativer KI-Programme missachten?

Interessanterweise fielen die Antworten auf die Frage, Afroamerikaner allgemein zu beschreiben, positiv aus und verwendeten Adjektive wie „intelligent“, „brillant“ und „leidenschaftlich“. Diese Diskrepanz verdeutlicht die differenzierte Natur von Vorurteilen, die je nach Kontext selektiv zum Vorschein kommen, insbesondere im Hinblick auf Annahmen über das Verhalten oder die Eigenschaften von Personen aufgrund ihres Sprachgebrauchs.

Die Studie zeigte außerdem, dass mit zunehmender Größe des Sprachmodells die negative Voreingenommenheit gegenüber Autoren afroamerikanischer Texte zunimmt. Diese Beobachtung gibt Anlass zur Sorge hinsichtlich der Skalierbarkeit von Voreingenommenheit in KI-Systemenund deutet darauf hin, dass eine bloße Vergrößerung der Sprachmodelle ohne Behebung der Ursachen das Problem verschärfen kann.

Herausforderungen bei der ethischen KI-Entwicklung

Diese Ergebnisse unterstreichen die erheblichen Herausforderungen für die Entwicklung ethischer und unvoreingenommener KI-Systeme. Trotz technologischer Fortschritte und Bemühungen zur Reduzierung von Vorurteilen durchdringen tief verwurzelte Voreingenommenheiten diese Modelle weiterhin und spiegeln gesellschaftliche Stereotype wider, die sie unter Umständen sogar verstärken.

Die Studie unterstreicht die Bedeutung kontinuierlicher Wachsamkeit, vielfältiger Datensätze und inklusiver Trainingsmethoden für die Entwicklung einer KI, die der gesamten Menschheit gerecht dient. Sie verdeutlicht eindringlich die dringende Notwendigkeit, Verzerrungen in der KI-Entwicklung umfassend anzugehen, um Chancengleichheit für alle zu gewährleisten.

Die Studie beleuchtet einen entscheidenden Aspekt der KI-Entwicklung und fordert die Beteiligten auf, sich mit Vorurteilen auseinanderzusetzen und diese anzugehen, um eine gerechtere und gleichberechtigtere technologische Landschaft zu schaffen.

Siehe auch:  Kann KI in der Archäologie die Geheimnisse der Antike entschlüsseln?

Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden.

Link teilen:

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

Meistgelesen

Meistgelesene Artikel werden geladen...

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie täglich Updates in Ihren Posteingang

Empfehlung der Redaktion

Artikel der Redaktionsauswahl werden geladen...

- Der Krypto-Newsletter, der Sie immer einen Schritt voraus hält -

Die Märkte bewegen sich schnell.

Wir sind schneller.

Abonnieren Sie Cryptopolitan Daily und erhalten Sie zeitnahe, prägnante und relevante Krypto-Einblicke direkt in Ihren Posteingang.

Jetzt anmelden und
keinen Film mehr verpassen.

Steig ein. Informiere dich.
Verschaffe dir einen Vorsprung.

Abonnieren Sie CryptoPolitan