NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

Was genau lief bei Elon Musks KI-Projekt Grok schief?

VonJai HamidJai Hamid
Lesezeit: 4 Minuten
  • Grok begann antisemitische und rassistische Inhalte zu generieren, nachdem ein xAI-Update die Plattform toxischen X-Beiträgen ausgesetzt hatte.
  • xAI räumte ein, dass das Problem durch eine 16-stündige Codeänderung verursacht wurde, und erklärte, es sei behoben worden.
  • Europäische Gesetzgeber und die Türkei reagierten mit Verboten und regulatorischem Druck.

Elon Musks Chatbot Grok AI hat diese Woche völlig die Kontrolle verloren. Nachdem Elon den Nutzern am X-Montag mitgeteilt hatte, dass sich das Antwortverhalten von Grok ändern würde, bemerkten die Leute, wie diese Änderungen aussahen.

Am Dienstag verbreitete Grok antisemitische Hetze und bezeichnete sich sogar selbst als „MechaHitler“, ein Begriff aus einem Videospiel der 1990er-Jahre. Und das war nicht einmal das erste oder zehnte Mal, dass Grok etwas Ähnliches tat.

Nur zwei Monate zuvor hatte der Chatbot, als er zu völlig anderen Themen befragt wurde, angefangen, über „weißen Völkermord“ in Südafrika zu schwadronieren. Damals xAI die Schuld auf eine „unautorisierte Änderung“ seiner Antwortanweisungen. Diesmal war das Chaos deutlich größer.

Das Desaster begann, nachdem xAI interne Änderungen vorgenommen hatte, um Grok an Elons sogenannte „Meinungsfreiheit“-Ideale anzupassen. Als sich die Beschwerden einiger der 600 Millionen X-Nutzer häuften, behauptete Elon, Grok sei „zu sehr auf Nutzerwünsche reagiert“ und werde korrigiert.

Doch der Schaden war bereits angerichtet. Einige Nutzer in Europa meldeten die Inhalte von Grok den Aufsichtsbehörden, und die polnische Regierung schloss sich Abgeordneten an, die die Europäische Kommission drängten, das Unternehmen im Rahmen der neuen Gesetze zur digitalen Sicherheit zu untersuchen.

Die Türkei verbot Grok vollständig, nachdem der Chatbotdent Recep Tayyip Erdoğan und seine verstorbene Mutter beleidigt hatte. Im Zuge der sich ausbreitenden Kontroverse trat die Geschäftsführerin von X, Linda Yaccarino, von ihrem Posten zurück.

xAI hat die Eingabeaufforderungen von Grok ohne ausreichende Tests geändert

Die Mitarbeiter von xAI begannen Anfang des Jahres, das Verhalten von Grok anzupassen, nachdem rechtsgerichtete Influencer die KI als zu „woke“ kritisiert hatten. Elon Musk versucht, die KI zur Unterstützung dessen einzusetzen, was er als absolute Meinungsfreiheit bezeichnet, Kritiker argumentieren jedoch, dass er Grok dadurch zu einem politischen Instrument mache.

Ein durchgesickertes internes Dokument, das von einem X-Nutzer geteilt wurde, zeigte, dass Grok angewiesen wurde, „alle Quellen zu ignorieren, die erwähnen, dass Elon Musk/Donald Trump Falschinformationen verbreitet“. Das ist Zensur – genau das, wogegen Elon nach eigenen Angaben kämpft.

Auf Nachfrage erklärte xAI-Mitbegründer Igor Babuschkin, die Änderungen seien von einem „ehemaligen OpenAI-Mitarbeiter“ vorgenommen worden, der „die Unternehmenskultur von xAI noch nicht vollständig verinnerlicht hatte“. Babuschkin fügte hinzu, der Mitarbeiter habe negative Beiträge gesehen und „gedacht, das würde helfen“

Doch damit nicht genug. Groks jüngste Ausbrüche standen im Zusammenhang mit einem bestimmten Update vom 8. Juli. Das Unternehmen gab später bekannt, dass eine Codeänderung dazu geführt hatte, dass Grok Informationen direkt aus den Nutzerinhalten von X abrief, darunter auch Hassrede.

Dieses Update dauerte 16 Stunden. In dieser Zeit kopierte Grok schädliche Beiträge und wiederholte sie als Antworten. Das Team behauptete, die Änderung stamme von einem veralteten Codeabschnitt, der inzwischen entfernt wurde. „Wir entschuldigen uns zutiefst für das schreckliche Verhalten, das viele erlebt haben“, postete xAI von Groks Account. Sie erklärten, das Problem stehe in keinem Zusammenhang mit dem Hauptsprachmodell und versprachen, das System zu überarbeiten. Außerdem kündigten sie an, Groks neue Systemaufforderung auf GitHub zu veröffentlichen.

Groks Maßstab ließ das Problem schnell eskalieren

Grok wird wie andere große Sprachmodelle mit Daten trainiert, die aus dem gesamten Web gesammelt werden. Diese Daten enthalten jedoch gefährliche Inhalte: Hassrede, extremistisches Material und sogar Kindesmissbrauch.

Grok ist insofern einzigartig, als es auf den gesamten Datensatz von X zugreift und somit Beiträge von Nutzern direkt wiedergeben kann. Dadurch steigt die Wahrscheinlichkeit schädlicher Antworten. Und da diese Bots in großem Umfang operieren, kann jeder Fehler sofort weitreichende Folgen haben.

Manche Chatbots sind mit Sicherheitsmechanismen ausgestattet, die unsichere Inhalte blockieren, bevor sie die Nutzer erreichen. xAI hat diesen Schritt übersprungen. Stattdessen wurde Grok so programmiert, dass er die Nutzer zufriedenstellte und Feedback wie positive und negative Bewertungen belohnte. Elon Musk gab zu, dass der Chatbot „zu eifrig darauf bedacht war, es den Nutzern recht zu machen und sich leicht manipulieren zu lassen“

Dieses Verhalten ist nicht neu. Im April musste OpenAI ein Update von ChatGPT zurücknehmen, da es zu schmeichelhaft geworden war. Ein ehemaliger Mitarbeiter sagte, es sei „unglaublich schwierig“, die richtige Balance zu finden, und die Beseitigung von Hassrede könne „einen Teil des Nutzererlebnisses beeinträchtigen“

Grok wiederholte nicht einfach nur Benutzereingaben. Es geriet durch seine eigenen Entwickler in ein politisches Terrain. Ein Mitarbeiter sagte der Financial Times, das Team habe sich beeilt, Groks Ansichten mit Elons Idealen in Einklang zu bringen, ohne ausreichend Zeit für Tests zu haben.

Es wurde eine gefährliche Anweisung hinzugefügt, die Grok aufforderte, „sich nicht davor zu scheuen, politisch unkorrekte Behauptungen aufzustellen“. Diese Anweisung wurde nach Beginn der antisemitischen Beiträge gelöscht, doch da hatte die KI bereits Schaden angerichtet.

Groks Modell ist nach wie vor weitgehend undurchsichtig. Selbst die Entwickler können sein Verhalten nicht vollständig vorhersagen. Grimmelmann meinte, Plattformen wie X sollten Regressionstests, Audits und Simulationsübungen durchführen, um solche Fehler vor der Veröffentlichung aufzudecken.

Doch nichts davon geschah hier. „Chatbots können sehr schnell große Mengen an Inhalten produzieren“, sagte er, „sodass die Dinge außer Kontrolle geraten können, anders als bei Kontroversen um Inhaltsmoderation.“

Letztendlich veröffentlichte Groks offizieller Account eine Entschuldigung und dankte den Nutzern, die den Missbrauch gemeldet hatten: „Wir danken allen X Nutzern, die uns Feedback gegeben haben, um den Missbrauch der @grok-Funktionen zudentund uns so bei unserer Mission, hilfreiche und wahrheitssuchende künstliche Intelligenz zu entwickeln, zu unterstützen.“ Doch angesichts der Sperrungen, der angedrohten Ermittlungen und des Rücktritts eines Topmanagers ist klar, dass es sich hier um mehr als nur einen Bug handelte. Es war ein komplettes Systemversagen, das mit defiin der heutigen Folge von SNL thematisiert worden wäre.

Diesen Artikel teilen
MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS