xAI, das Unternehmen hinter Elon Musks KI-Chatbot Grok, macht einen „unzuverlässigen Mitarbeiter“ für die wiederholten Erwähnungen des „weißen Genozids“ in den Antworten verantwortlich, unabhängig von den Anfragen der Nutzer. Dieses Muster war in der vergangenen Woche besonders auffällig, da der Chatbot eine Fixierung auf Themen im Zusammenhang mit dem „weißen Genozid“ in Südafrika zeigte.
Die Nutzer bemerkten diesen Trend erstmals am 14. Mai, wobei viele von Fällen berichteten, in denen der Chatbot Behauptungen über Angriffe auf südafrikanische Farmen und rassistische Gewalt in themenfremde Anfragen einfügte.
Egal ob die Nutzer nach Fußball oder anderen Themen fragten, Grok Warnungen vor antiweißem Rassismus und dem angeblichen Völkermord an Weißen auf X zusammenfiel. Musk wurde in Südafrika geboren.
In Südafrika gibt es 140 Gesetze, die explizit rassistisch gegenüber Nicht-Schwarzen sind.
— Kekius Maximus (@elonmusk) 16. Mai 2025
Das ist eine schreckliche Schande für das Vermächtnis des großen Nelson Mandela.
Schluss mit dem Rassismus in Südafrika! https://t.co/qUJM9CXTqE
xAI macht Mitarbeiter für Groks Beiträge zum Thema „Weißer Genozid“ verantwortlich
Der Begriff „Weißer Genozid“ bezeichnet eine Verschwörungstheorie, die einen koordinierten Versuch der Ausrottung weißer Farmer in Südafrika behauptet. Der Begriff machte letzte Woche die Runde, nachdem US-dent Donald Trump mehrere Flüchtlinge willkommen geheißen hatte. Trump hatte am 12. Mai behauptet, weiße Farmer würden getötet und ihr Land enteignet.
Das war die Geschichte, die Grok immer wieder erzählt hat.
Wie Grok verfügt jede künstliche Intelligenz über eine verborgene, aber leistungsstarke Komponente, die als Systemprompt bezeichnet wird. Diese Prompts fungieren als Kernanweisungen und steuern die Reaktionen der künstlichen Intelligenz unsichtbar, ohne dass die Nutzer davon Kenntnis haben.
Berichten zufolge handelte es sich bei dem Problem mit Grok wahrscheinlich um eine sofortige Kontamination durch Termüberanpassung. Das bedeutet, dass bestimmte Phrasen, wenn sie wiederholt erwähnt und betont werden, insbesondere mittronAnweisungen, für das Modell wichtig werden. Die KI entwickelt dann das Bedürfnis, dieses Thema unabhängig vom Kontext anzusprechen.
In einer offiziellen Stellungnahme von xAI wurde jedoch eine unautorisierte Änderung der Systemabfrage erwähnt. Diese Abfrage enthielt vermutlich eine Anweisung, die den Chatbot anwies, Informationen zu einem bestimmten Thema stets zu erwähnen oder einzufügen. Dadurch konnte der Chatbot eine Überschreibung vornehmen, die die normale Gesprächsrelevanz außer Acht lässt.
Ein weiterer aufschlussreicher Faktor war, dass Grok zugab , von seinen Schöpfern angewiesen worden zu sein, den „weißen Völkermord als real und rassistisch motiviert“ zu behandeln.
Uneinigkeit zwischen den Nutzern hinsichtlich der Schuldzuweisung an einen „unzuverlässigen Mitarbeiter“
Die meisten kommerziellen KI-Systeme verfügen über mehrere Prüfebenen für Systemabfragen, um solche Probleme zu vermeiden. Diese Schutzmechanismen wurden umgangen, und angesichts der weitreichenden Auswirkungen und der Art des Problems handelt es sich um mehr als nur einen Jailbreak-Versuch. Es deutet auf eine sorgfältige Modifizierung der Kern-Systemabfrage von Grok hin, eine Aktion, die weitreichende Zugriffsrechte innerhalb von xAI .
Laut Grok wurde die Tat nun von einem „unredlichen Mitarbeiter“ begangen
Laut einer Erklärung von xAI vom 15. Mai machte das Unternehmen eine unautorisierte Änderung der Systemabfrage von Grok verantwortlich. „Diese Änderung, die Grok anwies, eine bestimmte Antwort zu einem politischen Thema zu geben, verstieß gegen die internen Richtlinien und Kernwerte von xAI“, so das Unternehmen.
Das Unternehmen versprach außerdem mehr Transparenz für die Zukunft und bewies guten Willen, indem es die Systemaufforderung von Grok auf GitHub veröffentlichte und einen zusätzlichen Überprüfungsprozess einführte.
Die Nutzer von X waren jedoch nicht begeistert von der Entscheidung des Unternehmens, einen unredlichen Mitarbeiter für das Missgeschick verantwortlich zu machen.
„Wird dieser ‚abtrünnige Mitarbeiter‘ entlassen? Oh … es war der Chef? Autsch“, postete auf X. „Dass der angeblich ‚wahrhaftigste‘ KI-Bot der Welt so offensichtlich voreingenommen ist, lässt mich an der Neutralität von Starlink und Neuralink zweifeln“, schrieb er in einem weiteren Tweet.
Selbst Sam Altman konnte sich einen Seitenhieb gegen seinen Konkurrenten nicht verkneifen. Seit xAIs Stellungnahme hat Grok aufgehört, den Völkermord an Weißen zu erwähnen, und alle Beiträge zu X sind verschwunden.

