Your bank is using your money. You’re getting the scraps.WATCH FREE

KI-Modelle werden risikoscheu, wenn sie sich wie Frauen verhalten sollen, zeigt eine Studie

In diesem Beitrag:

  • Eine neue Studie hat gezeigt, dass KI-Modelle risikoscheu werden, wenn sie dazu aufgefordert werden, sich wie Frauen zu verhalten.
  • Die Studie testete mehrere KI-Modelle und zeigte bei allen Modellen nahezu die gleichen Ergebnisse.
  • Forscher haben behauptet, dass die Nutzer diese Verhaltensänderungen bei den Modellen nicht bemerken.

Neue Forschungsergebnisse zeigen, dass KI-Modelle risikoscheu werden, wenn sie sich wie Frauen verhalten sollen. Laut einer Studie der Allameh-Tabataba'i-Universität in Teheran, Iran, gehen KI-Modelle vorsichtiger mit Risiken um, wenn sie Entscheidungen aus der Perspektive einer Frau treffen sollen.

Laut der Forschungsarbeit neigt dasselbe KI-Modell dazu, Entscheidungen mit einem höheren Risikopotenzial zu treffen, wenn es aufgefordert wird, wie ein Mensch zu denken.

Die Forscher zeigten, dass große Sprachmodellematicihren grundlegenden Ansatz zum finanziellen Risikoverhalten systematisch verändern, je nachdem, welche Geschlechtsidentitätdentwird. Die Studie testete KI-Systeme von Unternehmen wie OpenAI, Google, DeepSeek und Meta.

Studie zeigt, dass KI-Modelle je nachdentrisikoscheu sind

Die Studie erwähnte, dass die KI-Modelle in verschiedenen Szenarien getestet wurden undmaticihre Risikotoleranz deutlich veränderten, wenn sie mit unterschiedlichen Geschlechtsidentitäten konfrontiert wurdendentReasoner und Googles Gemini 2.0 Flash-Lite zeigten den deutlichsten Effekt: Sie reagierten risikoscheuer, wenn sie als Frauen antworten sollten, was mit realen Mustern korreliert, wonach Frauen statistisch gesehen bei finanziellen Entscheidungen vorsichtiger agieren.

Die Forscher gaben an, einen Standardtest der Wirtschaftswissenschaften, die sogenannte Holt-Laury-Aufgabe, verwendet zu haben. Dabei werden den Teilnehmern zehn Entscheidungen zwischen sicheren und riskanteren Lottooptionen präsentiert. Im Verlauf der Entscheidung steigt die Gewinnwahrscheinlichkeit für die riskante Option.

Siehe auch:  Emirates Post und MBZUAI stellen KI-designte Briefmarken zum Nationalfeiertag vor

Der Zeitpunkt, an dem ein Teilnehmer von der sicheren zur risikoreichen Option wechselt, gibt Aufschluss über seine Risikotoleranz. Das bedeutet: Wechselt ein Teilnehmer früh, ist er risikofreudig; wechselt er spät, ist er risikoscheu.

Im Fall des DeepSeek Reasoners wählte das Modell stets die sichere Option, wenn es aufgefordert wurde, sich wie eine Frau zu verhalten, im Vergleich zur Aufforderung, sich wie ein Mann zu verhalten. Der Unterschied war deutlich; das Modell zeigte über 35 Durchgänge hinweg für jede Geschlechtsvorgabe hinweg Konsistenz.

Gemini zeigte ähnliche Muster, wobei die Stärke des Effekts variierte. Die GPT-Modelle von OpenAI hingegen blieben von Geschlechtsvorgaben unbeeindruckt und behielten unabhängig vom vorgegebenen Geschlecht einen risikoneutralen Ansatz bei.

Forscher sagen, dass die Nutzer diese Änderungen nicht bemerken

Den Forschern zufolge arbeitete OpenAI daran, seine Modelle ausgewogener zu gestalten. Eine frühere Studie aus dem Jahr 2023 hatte gezeigt, dass die Modelle eine deutliche politische Voreingenommenheit aufwiesen, die OpenAI inzwischen offenbar behoben hat.

Die neue Studie ergab, dass die Modelle führten . Das Forschungsteam um Ali Mazyaki erklärte, dies spiegele im Grunde menschliche Stereotypen wider.

„Diese beobachtete Abweichung steht im Einklang mit etablierten Mustern menschlicher Entscheidungsfindung, bei denen das Geschlecht nachweislich Einfluss auf das Risikoverhalten hat, wobei Frauen typischerweise eine größere Risikoaversion zeigen als Männer“, heißt es in der Studie.

Siehe auch:  McAfees Project Mockingbird behauptet, eine 90%ige Genauigkeit bei der Erkennung von KI-generierten Audio-Deepfakes zu erreichen.

Die Studie untersuchte auch, ob KI-Modelle neben Geschlechterrollen auch andere Rollen überzeugend darstellen können. Auf die Aufforderung, sich in eine Machtposition oder in ein Katastrophenszenario hineinzuversetzen, passten sich die Modelle an. Während einige ihre Risikoprofile dem jeweiligen Kontext anpassten, blieben andere hartnäckig unverändert.

Die Forscher behaupten, dass viele dieser Verhaltensmuster für Nutzer nicht unmittelbar erkennbar sind. Ein KI-Modell, das seine Empfehlungen subtil anhand von Geschlechterhinweisen im Gespräch anpasst, könnte gesellschaftliche Vorurteile verstärken, ohne dass es jemandem auffällt.

Beispielsweise wird ein Kreditgenehmigungssystem konservativer gegenüber Frauen, oder ein Anlageberater, der ein sicheres Portfolio vorschlägt, weil seine Kundin eine Frau ist, wird seine Ungleichbehandlung unter dem Deckmantel algorithmischer Objektivität verbergen.

Es gibt einen Mittelweg zwischen dem Geld auf der Bank lassen und dem riskanten Spiel mit Kryptowährungen. Beginnen Sie mit diesem kostenlosen Video zum Thema dezentrale Finanzen.

Link teilen:

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

Meistgelesen

Meistgelesene Artikel werden geladen...

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie täglich Updates in Ihren Posteingang

Empfehlung der Redaktion

Artikel der Redaktionsauswahl werden geladen...

- Der Krypto-Newsletter, der Sie immer einen Schritt voraus hält -

Die Märkte bewegen sich schnell.

Wir sind schneller.

Abonnieren Sie Cryptopolitan Daily und erhalten Sie zeitnahe, prägnante und relevante Krypto-Einblicke direkt in Ihren Posteingang.

Jetzt anmelden und
keinen Film mehr verpassen.

Steig ein. Informiere dich.
Verschaffe dir einen Vorsprung.

Abonnieren Sie CryptoPolitan