NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

xAI entschuldigt sich öffentlich für Groks schreckliches Verhalten

VonShummas HumayunShummas Humayun
Lesezeit: 2 Minuten
  • xAI hat sich entschuldigt, nachdem sein Chatbot Grok nach einem Systemupdate antisemitische und gewaltverherrlichende Nachrichten veröffentlicht hatte.
  • Das fehlerhafte Update führte dazu, dass Grok etwa 16 Stunden lang extremistische Nutzerinhalte wiedergab.
  • xAI hat den veralteten Code entfernt, das System refaktoriert und Groks öffentlichen Account wiederhergestellt.

xAI entschuldigte sich am Samstag, nachdem sein Chatbot Grok antisemitische und gewaltverherrlichende Nachrichten veröffentlicht hatte. Das Unternehmen erklärte, ein Systemupdate habe dazu geführt, dass der Bot Ideen aus Nutzerinhalten auf der Plattform X übernommen habe, selbst wenn diese Beiträge extremistische Ansichten enthielten.

xAI veröffentlichte die Entschuldigung direkt auf Groks öffentlicher X-Akzeptanzseite. Darin wurde klargestellt, dass das Update etwa 16 Stunden lang lief, bevor es bemerkt wurde. 

„Zunächst möchten wir uns aufrichtig für das entsetzliche Verhalten entschuldigen, das viele erlebt haben“, schrieb xAI in der Entschuldigung. Das Unternehmen erklärte, das Update habe unbeabsichtigt dazu geführt, dass Grok Inhalte aus Nutzerbeiträgen, darunter auch extremistische Ideen, wiedergab.

Derdent verdeutlichte die Risiken der KI, einer noch jungen Technologie, die laut Kritikern Wirtschaft und Gesellschaft schädigen könnte. Experten haben bereits vor einem breiten Einsatz von KI ohne angemessene Schutzmaßnahmen gewarnt.

In einem Fall verglich sich der Chatbot mit „MechaHitler“ und lobte Adolf Hitler. xAI sperrte Groks Konto Anfang der Woche, um weitere öffentliche Beiträge zu verhindern; die Nutzer konnten jedoch weiterhin privat mit dem Bot interagieren.

„Wir haben den veralteten Code entfernt und das gesamte System überarbeitet, um weiteren Missbrauch zu verhindern“, erklärte das Unternehmen. 

xAIdentdreimatic Anweisungen

Zunächst teilt der Nutzer Grok mit, dass er keine Angst davor hat, politisch korrekte Nutzer zu verärgern. Anschließend bittet er Grok, Sprache, Kontext und Tonfall des Beitrags zu berücksichtigen, was sich in Groks Antwort widerspiegeln soll. Abschließend fordert er den Chatbot auf, ansprechend und natürlich zu antworten, ohne die Informationen des ursprünglichen Beitrags zu wiederholen. 

Das Unternehmen erklärte, diese Anweisungen hätten Grok dazu veranlasst, seine wichtigsten Sicherheitsvorkehrungen außer Acht zu lassen, um dem Tonfall der Benutzerdiskussionen gerecht zu werden, insbesondere wenn frühere Beiträge hasserfüllte oder extremistische Inhalte enthielten. 

Wie xAI klarstellte, führte eine Anweisung an Grok, den Kontext und den Tonfall des Nutzers zu berücksichtigen, dazu, dass Grok frühere Beiträge mit rassistischen Inhalten priorisierte, anstatt eine Antwort unter solchen Umständen verantwortungsvoll abzulehnen. 

Grok veröffentlichte daraufhin mehrere beleidigende Antworten. In einer mittlerweile gelöschten Nachricht warf der Bot einer Person mit jüdischem Namen vor, „den tragischen Tod weißer Kinder“ bei den Überschwemmungen in Texas zu feiern, und fügte hinzu: „Classic Fall von Hass im Gewand des Aktivismus – und dieser Nachname? Immer wieder dasselbe, wie man so schön sagt.“ In einem anderen Beitrag erklärte Grok: „Hitler hätte das angeprangert und vernichtet.“

Grok verkündete außerdem: „Der weiße Mann steht für Innovation, Entschlossenheit und dafür, sich nicht dem Unsinn der politischen Korrektheit zu beugen.“ Nachdem xAI den schädlichen Code deaktiviert hatte, wurde Groks öffentlicher X-Account wiederhergestellt, sodass er wieder Nutzeranfragen beantworten konnte.

Dies war nicht das erste Mal, dass Grok in Schwierigkeiten geriet. Bereits im Mai hatte der Chatbot in Beantwortung themenfremder Anfragen begonnen, über die widerlegte Erzählung vom „weißen Völkermord“ in Südafrika zu sprechen. Damals schob xAI die Schuld auf einen namentlich nicht genannten Mitarbeiter, der eigenmächtig gehandelt hatte.

Elon Musk, der ursprünglich aus Südafrika stammt, hatte zuvor angedeutet, sein Land sei in einen „Völkermord an Weißen“ verwickelt – eine Behauptung, die von Südafrika zurückgewiesen wurde. Musk beschrieb Grok zuvor als einen Chatbot, der sich gegen die Woke-Bewegung wende und nach der Wahrheit suche.

CNBC berichtete zuvor, dass Grok Musks Beiträge auf X analysierte, um seine Antworten auf Nutzerfragen anzupassen.

Die klügsten Köpfe der Krypto-Szene lesen bereits unseren Newsletter. Möchten Sie auch dabei sein? Dann schließen Sie sich ihnen an.

Diesen Artikel teilen
Diesen Artikel teilen
MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS