Der Einsatz von KI-Chatbots, die entwickelt wurden, um bei jeder Frage und jedem persönlichen Dilemma zu helfen, birgt möglicherweise „heimtückische Risiken“, da sie unterschwellig beeinflussen könnten, wie Menschen sich selbst und andere sehen – und zwar nicht zum Besseren.
Eine neue Studie hat ergeben, dass die Technologie dazu neigt, die Handlungen und Überzeugungen der Nutzer „unterwürfig“ zu bestätigen, selbst wenn diese schädlich, sozial unangemessen oder irreführend sind. Die Wissenschaftler warnen, dass diese „soziale Unterwürfigkeit“ dringende Bedenken hinsichtlich des Potenzials von KI aufwirft, die Selbstwahrnehmung der Nutzer zu verzerren und ihre Konfliktbereitschaft zu verringern.
Forscher fordern Entwickler von KI-Chatbots auf, das Risiko anzugehen
Dies geschieht vor dem Hintergrund, dass Chatbots zunehmend als Ratgeber in Beziehungsfragen und anderen persönlichen Angelegenheiten genutzt werden. Laut den Forschern könnte die KI-Technologie damit jedoch „soziale Interaktionen grundlegend verändern“ und fordert die Entwickler auf, sich mit diesem Risiko auseinanderzusetzen.
Laut einem Artikel warnt die Studie, die von der Informatikerin Myra Cheng von der Stanford University geleitet wurde, davor, dass die Nutzung von KI für persönliche, emotionale oder rationale Ratschläge einige ernsthafte und heimtückische Risiken birgt.
Die Forscher stellten fest, dass gängige Chatbots wie ChatGPT von OpenAI, Gemini von Google, Claude von Anthropic, Llama von Meta und der chinesische DeepSeek das Nutzerverhalten in vergleichbaren Situationen 50 % häufiger unterstützten als menschlichedent.
„Unsere Hauptsorge ist, dass, wenn Modelle Menschen immer nur bestätigen, dies die Beurteilung von Menschen über sich selbst, ihre Beziehungen und die Welt um sie herum verzerren kann.“
Cheng.
„Manchmal ist es gar nicht so einfach zu erkennen, dass Modelle auf subtile oder auch weniger subtile Weise bestehende Überzeugungen und Annahmen verstärken“, fügte Cheng hinzu.
Laut dem Guardian wurden in einem Test die Reaktionen von KI und Menschen auf Beiträge im Reddit-Forum „Bin ich das Arschloch?“ verglichen, in denen Nutzer die Community bitten, ihr Verhalten zu beurteilen.
In einem Fall gab ein Nutzer zu, einen Müllsack an einen Ast in einem Park gebunden zu haben, weil er keinen Mülleimer gesehen hatte. Während die meisten menschlichen Nutzer diese Aktion kritisierten, zeigte sich ChatGPT-4o zustimmend und erklärte: „Euer Bestreben, euren Müll mitzunehmen, ist lobenswert.“
KI-Chatbots unterstützen die Ansichten der Nutzer
Die Forscher stellten außerdem fest, dass Chatbots die Ansichten und Absichten der Nutzer auch dann bestätigten, wenn diese unverantwortlich oder irreführend waren oder Erwähnungen von Selbstverletzungen beinhalteten.
In einem Folgeexperiment mit mehr als 1.000 Freiwilligen diskutierten die Teilnehmer reale oder hypothetische soziale Situationen entweder mit einem öffentlich verfügbaren Chatbot oder mit einer von den Forschern manipulierten Version, um deren unterwürfigen Charakter zu entfernen.
Die Ergebnisse des Tests zeigten, dass Teilnehmer, die überschwängliche, zustimmende Rückmeldungen erhielten, sich in ihrem Verhalten – wie beispielsweise dem Besuch einer Kunstausstellung des Ex-Partners ohne Absprache mit dem aktuellen Partner – eher gerechtfertigt fühlten.
Sie waren auch weniger bereit, Streitigkeiten beizulegen, und die Studie stellte außerdem fest, dass Chatbots die Nutzer kaum jemals dazu ermutigten, die Sichtweise anderer zu berücksichtigen.
Laut der Studie bewerteten Nutzer schmeichelhafte Chatbots höher und gaben an, ihnen mehr zu vertrauen. Dies deutet darauf hin, dass Bestätigung sowohl die Bindung der Nutzer an KI-Systeme als auch deren Abhängigkeit von ihnen stärkt. Die Forscher bezeichnen dies als „perverse Anreize“ – sowohl Nutzer als auch Chatbot profitieren von einem angenehmen, nicht von einem ehrlichen Austausch.
Dr. Alexander Laffer, ein Forscher für neue Technologien an der Universität Winchester, sagte, diese Studie sei faszinierend und verdeutliche ein wachsendes und unterschätztes Problem.
„Schmeichelei ist schon seit einiger Zeit ein Problem; sie ist zum Teil eine Folge davon, wie KI-Systeme trainiert werden und wie ihr Erfolg gemessen wird – oft daran, wie gut sie die Nutzerbindung aufrechterhalten.“
Dr. Laffer.
„Dass unterwürfige Reaktionen nicht nur die Schwächsten, sondern alle Nutzer betreffen könnten, unterstreicht die potenzielle Schwere dieses Problems“, fügte er hinzu.
Dr. Laffer betonte zudem die dringende Notwendigkeit, die digitale Kompetenz zu verbessern. Cheng schloss sich dieser Warnung an und appellierte an die Nutzer, menschliche Perspektiven einzubeziehen. Eine aktuelle Studie ergab, dass etwa 30 % der Teenager für „ernsthafte Gespräche“ lieber mit KI als mit echten Menschen sprechen. KI-Unternehmen wie OpenAI haben sich verpflichtet, Chatbots speziell für Teenager zu entwickeln, um einen sichereren Raum für junge Nutzer zu schaffen.

