XAI, das Unternehmen hinter Elon Musks künstlicher Intelligenz Chatbot Grok, hat einen „Schurkenangestellten“ für anhaltende Erwähnungen von weißem Völkermord in Antworten verantwortlich gemacht, unabhängig von den Anfragen der Benutzer. Das Muster war in der vergangenen Woche störend, und der Chatbot hatte eine Fixierung zu Themen im Zusammenhang mit dem „weißen Völkermord“ in Südafrika.
Die Nutzer bemerkten den Trend am 14. Mai, und viele zitierende Fälle des Chatbot, die Ansprüche im Zusammenhang mit südafrikanischen Farmangriffen und rassistischen Gewalt in nicht verwandte Aufforderungen einfügten.
Unabhängig davon, ob Nutzer nach Fußball oder anderen Aufforderungen gefragt wurden, Grok irgendwie einen Weg, um die Dinge zu den Themen zurückzulegen, mit denen weiße Südafrikaner im Land konfrontiert waren. Das Timing hob die Augenbrauen, in deren Ansicht, dass es mit Musk zusammenfiel, der in Südafrika geboren wurde, und Alarme über das Problem im Zusammenhang mit dem anti-weißen Rassismus und dem weißen Völkermord auf X.
Es gibt 140 Gesetze in den Büchern in Südafrika, die ausdrücklich gegen jeden, der nicht schwarz ist, rassistisch sind.
— Kekius Maximus (@elonmusk) 16. Mai 2025
Dies ist eine schreckliche Schande zum Erbe der großen Nelson Mandela.
Ende Rassismus in Südafrika jetzt! https://t.co/qujm9cxtqe
XAI beschuldigt Mitarbeiter für Groks White Völkermordpfosten
Der Begriff „weißer Völkermord“ bezieht sich auf eine Verschwörungstheorie, die eine koordinierte Bemühungen zur Ausrottung weißer Landwirte in Südafrika behauptet. Der Begriff machte die Runde letzte Woche, nachdem der US -amerikanischedent Donald Trump mehrere Flüchtlinge begrüßt hatte. Trump behauptete am 12. Mai, dass weiße Landwirte getötet und ihr Land übernommen werden.
Das war die Erzählung, die Grok nicht aufgehört hat zu diskutieren.
Wie Grok hat jede künstliche Intelligenz eine verborgene, aber leistungsstarke Komponente, die als System -Eingabeaufforderung bezeichnet wird. Diese Eingabeaufforderungen fungieren als Kernanweisungen und leiten ihre Antworten unsichtbar, ohne dass die Benutzer bekannt sind.
Berichten zufolge war das, was mit Grok passiert ist, wahrscheinlich eine schnelle Kontamination durch Überanpassung. Dies bedeutet, dass, wenn bestimmte Phrasen wiederholt erwähnt und betont werden, insbesondere mit StronG -Richtlinien, für das Modell wichtig werden. Die KI entwickelt dann die Notwendigkeit, dieses Thema unabhängig vom Kontext zu erwähnen.
Eine von XAI veröffentlichte offizielle Erklärung erwähnte jedoch eine nicht autorisierte Änderung in der Systemaufforderung. Die Eingabeaufforderung enthielt wahrscheinlich eine Sprache, die den Chatbot anwies, immer die Informationen zu einem bestimmten Thema zu erwähnen oder sich zu beachten, sodass der Chatbot eine Überschreibung erstellen konnte, die die normale Konversationsrelevanz ignoriert.
Ein weiterer aussagekräftiger Faktor war, dass Grok zugab , dass es von seinen Schöpfer angewiesen wurde, „weiße Völkermord als real und rassistisch motiviert“ zu behandeln.
Benutzer sind nicht einverstanden über die Schuld der „Rogue -Mitarbeiter“
Die meisten kommerziellen KI -Systeme verfügen über mehrere Überprüfungsschichten für System -Eingabeaufentwicklungsänderungen, um solche Probleme zu verhindern. Diese Leitplanken wurden umgangen, und angesichts der weit verbreiteten Auswirkungen und Art des Problems ist dies mehr als ein Jailbreak -Versuch. Es zeigt eine sorgfältige Änderung der Eingabeaufforderung des Kern-Grok-Systems an, eine Aktion, die einen hohen Zugang innerhalb von XAI .
Und jetzt wurde laut Grok das Gesetz von einem „Schurkenangestellten“ durchgeführt.
Gemäß der von XAI am 15. Mai veröffentlichten Erklärung beschuldigte das Unternehmen eine nicht autorisierte Änderung der System -Eingabeaufforderung von GROK. Diese Änderung, die angewiesen wurde, eine spezifische Antwort auf ein politisches Thema zu geben, verstieß die internen Politiken und Grundwerte von XAI “, sagte das Unternehmen.
Das Unternehmen versprach auch mehr Transparenz in Zukunft und zeigte nach Treu und Glauben, indem er GROK -Systemaufforderung in GitHub veröffentlichen und einen zusätzlichen Überprüfungsprozess implementiert.
Die Benutzer von X waren jedoch nicht beeindruckt von der Entscheidung des Unternehmens, einem Schurkenangestellten für das Missgeschick verantwortlich zu machen.
"Wirst du diesen 'Schurkenangestellten' abfeuern? Oh ... es war der Chef? Yikes", berühmte YouTuber-Jerryrogeing auf X.
Sogar Sam Altman konnte nicht widerstehen, seinen Konkurrenten einen Sprung zu nehmen. Seit Xais Aussage hat Grok aufgehört, einen weißen Völkermord zu erwähnen, und alle X -Pfosten sind verschwunden.
Ihre Krypto -Nachrichten verdienen Aufmerksamkeit - wichtiger Differenzdraht bringt Sie auf 250 Top -Websites