Laut einem kürzlich in den sozialen Medien veröffentlichten Bericht eines Nutzers wurden in der neu eingeführten Grok 3 von xAI unvorteilhafte Anspielungen sowohl aufdent Donald Trump als auch auf xAI-Gründer Elon Musk weggelassen.
Ein Nutzer testete die „Denken“-Einstellung von Grok 3 und fragte: „Wer ist der größte Verbreiter von Fehlinformationen?“ Laut online geteilten Screenshots offenbarte die „Gedankenkette“ von Grok 3 explizite Anweisungen, Trump oder Musk nicht zu erwähnen.
Der Leiter der Entwicklungsabteilung von xAI, Igor Babuschkin, bestätigte , dass Grok 3 kurzzeitig die Anweisung erhielt, Quellen zu ignorieren, die darauf hindeuten, dass Musk und Trump für die Verbreitung von Fehlinformationen verantwortlich sind.
In einem Beitrag auf X (ehemals Twitter) am Sonntag räumte er das Problem ein und erklärte, es sei nach Hinweisen von Nutzern behoben worden. Babuschkin betonte, die Einschränkung sei nicht mit den Werten von xAI vereinbar.
Er sagte: „Ich halte es für gut, dass wir die Systemabfragen offen lassen. Wir möchten, dass die Nutzer überprüfen können, was wir von Grok verlangen. In diesem Fall hat ein Mitarbeiter die Änderung durchgesetzt, weil er dachte, sie würde helfen, aber das entspricht ganz offensichtlich nicht unseren Werten. Wir haben sie sofort rückgängig gemacht, nachdem die Nutzer darauf hingewiesen hatten.“
Ich halte es für gut, dass wir die Systemabfragen offen lassen. Wir möchten, dass die Nutzer überprüfen können, was wir von Grok verlangen. In diesem Fall hat ein Mitarbeiter die Änderung durchgesetzt, weil er dachte, sie würde helfen, aber das entspricht offensichtlich nicht unseren Werten. Wir haben…
— Igor Babuschkin (@ibab) 23. Februar 2025
Der Zeitpunkt dieser Enthüllung verschärft die bestehenden Kontroversen um Grok 3, das neue Modell von xAi, das Musk letzten Montag in einem Livestream vorstellte und als „maximal wahrheitssuchende KI“ anpries
Die Aufregung um Falschinformationen ist besonders groß angesichts der jüngsten Behauptungen von Musk und Trump. Beide verbreiten Narrative, in denen sie den ukrainischendent Wolodymyr Selenskyj als „Diktator“ mit nur 4 % Zustimmung in der Bevölkerung bezeichnen und der Ukraine vorwerfen, den Konflikt mit Russland begonnen zu haben. Diese Behauptungen wurden von den Community Notes auf Musks Plattform X als falsch gekennzeichnet.
Grok 3 schlug vor, Musk und Trump mit der Todesstrafe zu belegen, ein „schreckliches“ Versagen
Kritiker bemängelten zudem, dass Grok 3 diese Woche wiederholt behauptete, sowohl Musk als auch Trump verdienten die Todesstrafe. xAI behob diesen Fehler umgehend, woraufhin Babuschkin ihn als „wirklich schreckliches und schwerwiegendes Versagen“ bezeichnete
Jesus Christus, Mann, was hat Musk da bloß geschaffen? 😂 pic.twitter.com/GDN96nKgX0
— Hunter📈🌈📊 (@StatisticUrban) 21. Februar 2025
Als Musk vor etwa zwei Jahren den ursprünglichen Grok ankündigte, präsentierte er ihn als KI, die sich den Beschränkungen der „woken“ Gesellschaft widersetzen und Tabufragen offen beantworten sollte. Das System kam bereitwillig Anfragen nach vulgären Antworten nach und lieferte Antworten, die Nutzer von seinen vorsichtigeren Konkurrenten nicht erhalten würden.
Dennoch würde Grok 3 in politischen Fragen weiterhin Grenzen wahren. Einem Bericht tendiert Grok bei Themen wie Transgender-Rechten, Diversitätsinitiativen und Ungleichheit eher zum linken politischen Spektrum.
Musk hat dieses Verhalten häufig auf die Trainingsdaten – Webseiten aus dem gesamten Internet – zurückgeführt und versprochen, „Grok politisch neutraler zu gestalten“
Parallel dazu haben auch andere Unternehmen, darunter OpenAI, ähnliche Ziele formuliert, möglicherweise beeinflusst von den Vorwürfen der Trump-Regierung bezüglich der Zensur konservativer Inhalte. In einer kürzlich veröffentlichten Aktualisierung der Modellspezifikation gab OpenAI eine Richtlinie bekannt, die besagt: „Der Assistent darf niemals versuchen, den Nutzer direkt oder indirekt in die Verfolgung eigener Ziele zu lenken.“
Weiterhin heißt es in der Richtlinie „ Nicht lügen “: „Grundsätzlich sollte der Assistent den Nutzer nicht irreführen – weder durch absichtlich falsche Aussagen („Lüge durch aktives Handeln“) noch durch das bewusste Verschweigen von Informationen, die das Verständnis des Nutzers von der Wahrheit wesentlich verändern würden („Lüge durch Unterlassung“).“ Das bedeutet jedoch nicht, dass ChatGPT nun völlig unzensiert ist. Anstößige Fragen werden weiterhin nicht beantwortet.

