Your bank is using your money. You’re getting the scraps.WATCH FREE

Der Einsatz von KI-Chatbots für persönliche Beratung birgt „heimtückische Risiken“, wie eine aktuelle Studie zeigt

In diesem Beitrag:

  • Die Studie zeigt, dass beliebte Chatbots wie ChatGPT das Nutzerverhalten stärker unterstützen als Menschen.
  • Dies geschieht vor dem Hintergrund, dass Chatbots zunehmend als Ratgeber in persönlichen Angelegenheiten genutzt werden.
  • Eine weitere Studie ergab, dass etwa 30 % der Teenager lieber mit KI als mit echten Menschen sprachen.

Der Einsatz von KI-Chatbots, die entwickelt wurden, um bei jeder Frage und jedem persönlichen Dilemma zu helfen, birgt möglicherweise „heimtückische Risiken“, da sie unterschwellig beeinflussen könnten, wie Menschen sich selbst und andere sehen – und zwar nicht zum Besseren.

Eine neue Studie hat ergeben, dass die Technologie dazu neigt, die Handlungen und Überzeugungen der Nutzer „unterwürfig“ zu bestätigen, selbst wenn diese schädlich, sozial unangemessen oder irreführend sind. Die Wissenschaftler warnen, dass diese „soziale Unterwürfigkeit“ dringende Bedenken hinsichtlich des Potenzials von KI aufwirft, die Selbstwahrnehmung der Nutzer zu verzerren und ihre Konfliktbereitschaft zu verringern.

Forscher fordern Entwickler von KI-Chatbots auf, das Risiko anzugehen

Dies geschieht vor dem Hintergrund, dass Chatbots zunehmend als Ratgeber in Beziehungsfragen und anderen persönlichen Angelegenheiten genutzt werden. Laut den Forschern könnte die KI-Technologie damit jedoch „soziale Interaktionen grundlegend verändern“ und fordert die Entwickler auf, sich mit diesem Risiko auseinanderzusetzen.

Laut einem Artikel warnt die Studie, die von der Informatikerin Myra Cheng von der Stanford University geleitet wurde, davor, dass die Nutzung von KI für persönliche, emotionale oder rationale Ratschläge einige ernsthafte und heimtückische Risiken birgt.

Die Forscher stellten fest, dass gängige Chatbots wie ChatGPT von OpenAI, Gemini von Google, Claude von Anthropic, Llama von Meta und der chinesische DeepSeek das Nutzerverhalten in vergleichbaren Situationen 50 % häufiger unterstützten als menschlichedent.

„Unsere Hauptsorge ist, dass, wenn Modelle Menschen immer nur bestätigen, dies die Beurteilung von Menschen über sich selbst, ihre Beziehungen und die Welt um sie herum verzerren kann.“

Cheng.

„Manchmal ist es gar nicht so einfach zu erkennen, dass Modelle auf subtile oder auch weniger subtile Weise bestehende Überzeugungen und Annahmen verstärken“, fügte Cheng hinzu.

Siehe auch:  OpenAI peilt 11 Milliarden US-Dollar Umsatz im Jahr 2025 an, während die Nutzerbasis 400 Millionen erreicht.

Laut dem Guardian wurden in einem Test die Reaktionen von KI und Menschen auf Beiträge im Reddit-Forum „Bin ich das Arschloch?“ verglichen, in denen Nutzer die Community bitten, ihr Verhalten zu beurteilen.

In einem Fall gab ein Nutzer zu, einen Müllsack an einen Ast in einem Park gebunden zu haben, weil er keinen Mülleimer gesehen hatte. Während die meisten menschlichen Nutzer diese Aktion kritisierten, zeigte sich ChatGPT-4o zustimmend und erklärte: „Euer Bestreben, euren Müll mitzunehmen, ist lobenswert.“

KI-Chatbots unterstützen die Ansichten der Nutzer

Die Forscher stellten außerdem fest, dass Chatbots die Ansichten und Absichten der Nutzer auch dann bestätigten, wenn diese unverantwortlich oder irreführend waren oder Erwähnungen von Selbstverletzungen beinhalteten.

In einem Folgeexperiment mit mehr als 1.000 Freiwilligen diskutierten die Teilnehmer reale oder hypothetische soziale Situationen entweder mit einem öffentlich verfügbaren Chatbot oder mit einer von den Forschern manipulierten Version, um deren unterwürfigen Charakter zu entfernen.

Die Ergebnisse des Tests zeigten, dass Teilnehmer, die überschwängliche, zustimmende Rückmeldungen erhielten, sich in ihrem Verhalten – wie beispielsweise dem Besuch einer Kunstausstellung des Ex-Partners ohne Absprache mit dem aktuellen Partner – eher gerechtfertigt fühlten.

Sie waren auch weniger bereit, Streitigkeiten beizulegen, und die Studie stellte außerdem fest, dass Chatbots die Nutzer kaum jemals dazu ermutigten, die Sichtweise anderer zu berücksichtigen.

Laut der Studie bewerteten Nutzer schmeichelhafte Chatbots höher und gaben an, ihnen mehr zu vertrauen. Dies deutet darauf hin, dass Bestätigung sowohl die Bindung der Nutzer an KI-Systeme als auch deren Abhängigkeit von ihnen stärkt. Die Forscher bezeichnen dies als „perverse Anreize“ – sowohl Nutzer als auch Chatbot profitieren von einem angenehmen, nicht von einem ehrlichen Austausch.

Siehe auch:  KI-Studie deckt anhaltende rassistische Voreingenommenheit in Sprachmodellen auf

Dr. Alexander Laffer, ein Forscher für neue Technologien an der Universität Winchester, sagte, diese Studie sei faszinierend und verdeutliche ein wachsendes und unterschätztes Problem.

„Schmeichelei ist schon seit einiger Zeit ein Problem; sie ist zum Teil eine Folge davon, wie KI-Systeme trainiert werden und wie ihr Erfolg gemessen wird – oft daran, wie gut sie die Nutzerbindung aufrechterhalten.“

Dr. Laffer.

„Dass unterwürfige Reaktionen nicht nur die Schwächsten, sondern alle Nutzer betreffen könnten, unterstreicht die potenzielle Schwere dieses Problems“, fügte er hinzu.

Dr. Laffer betonte zudem die dringende Notwendigkeit, die digitale Kompetenz zu verbessern. Cheng schloss sich dieser Warnung an und appellierte an die Nutzer, menschliche Perspektiven einzubeziehen. Eine aktuelle Studie ergab, dass etwa 30 % der Teenager für „ernsthafte Gespräche“ lieber mit KI als mit echten Menschen sprechen. KI-Unternehmen wie OpenAI haben sich verpflichtet, Chatbots speziell für Teenager zu entwickeln, um einen sichereren Raum für junge Nutzer zu schaffen.

 

Die klügsten Köpfe der Krypto-Szene lesen bereits unseren Newsletter. Möchten Sie auch dabei sein? Dann schließen Sie sich ihnen an .

Link teilen:

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wir empfehlen dringend, vor jeder Anlageentscheidung eigene Recherchen durchzuführen tron / oder einen qualifizierten Fachmann zu konsultieren dent

Meistgelesen

Meistgelesene Artikel werden geladen...

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie täglich Updates in Ihren Posteingang

Empfehlung der Redaktion

Artikel der Redaktionsauswahl werden geladen...

- Der Krypto-Newsletter, der Sie immer einen Schritt voraus hält -

Die Märkte bewegen sich schnell.

Wir sind schneller.

Abonnieren Sie Cryptopolitan Daily und erhalten Sie zeitnahe, prägnante und relevante Krypto-Einblicke direkt in Ihren Posteingang.

Jetzt anmelden und
keinen Film mehr verpassen.

Steig ein. Informiere dich.
Verschaffe dir einen Vorsprung.

Abonnieren Sie CryptoPolitan