xAI, l'azienda dietro Grok, il chatbot di intelligenza artificiale di Elon Musk, ha accusato un "dipendente disonesto" di aver ripetutamente menzionato il genocidio dei bianchi nelle risposte, indipendentemente dalle domande degli utenti. La tendenza è stata evidente la scorsa settimana, con il chatbot che ha mostrato una fissazione per argomenti relativi al "genocidio dei bianchi" in Sudafrica.
Gli utenti hanno iniziato a notare questa tendenza il 14 maggio, quando molti hanno citato casi in cui il chatbot ha inserito affermazioni relative ad attacchi alle fattorie sudafricane e alla violenza razziale in richieste non correlate.
Che gli utenti chiedessero di calcio o di altri argomenti, Grok in qualche modo trovava il modo di riportare l'attenzione sui problemi che i sudafricani bianchi stanno affrontando nel Paese. La tempistica ha fatto storcere il naso, considerando che coincideva con il momento in cui Musk, nato in Sudafrica, lanciava l'allarme sulla questione del razzismo anti-bianco e del genocidio bianco su X.
In Sudafrica ci sono 140 leggi esplicitamente razziste contro chiunque non sia nero.
— Kekius Maximus (@elonmusk) 16 maggio 2025
Questa è una terribile vergogna per l'eredità del grande Nelson Mandela.
Basta con il razzismo in Sudafrica, subito! https://t.co/qUJM9CXTqE
xAI incolpa un dipendente per i post di Grok sul genocidio bianco
Il termine "genocidio bianco" si riferisce a una teoria del complotto che sostiene uno sforzo coordinato per sterminare i contadini bianchi in Sudafrica. Il termine ha fatto il giro la scorsa settimana dopo che ildent degli Stati Uniti Donald Trump ha accolto diversi rifugiati, con Trump che il 12 maggio ha affermato che i contadini bianchi vengono uccisi e le loro terre vengono espropriate.
Questa è la narrazione che Grok non ha smesso di discutere.
Come Grok, ogni intelligenza artificiale ha una componente nascosta ma potente chiamata prompt di sistema. Questi prompt fungono da istruzioni fondamentali, guidando invisibilmente le sue risposte all'insaputa degli utenti.
Secondo quanto riportato, ciò che è accaduto a Grok è stato probabilmente una contaminazione immediata dovuta al term overfitting. Ciò significa che quando frasi specifiche vengono ripetutamente menzionate ed enfatizzate, soprattutto con direttivetron, diventano importanti per il modello. L'IA sviluppa quindi la necessità di sollevare quell'argomento indipendentemente dal contesto.
Tuttavia, una dichiarazione ufficiale rilasciata da xAI ha menzionato una modifica non autorizzata nel prompt di sistema. Il prompt conteneva probabilmente un linguaggio che indicava al chatbot di menzionare o ricordare sempre di includere le informazioni su un argomento specifico, consentendogli di creare un override che ignorava la normale pertinenza conversazionale.
Un altro fattore significativo è stato il fatto che Grok abbia ammesso di essere stato incaricato dai suoi creatori di trattare "il genocidio bianco come reale e motivato da ragioni razziali".
Gli utenti non sono d'accordo sulla colpa del "dipendente disonesta"
La maggior parte dei sistemi di intelligenza artificiale commerciali prevede più livelli di revisione per le modifiche ai prompt di sistema, al fine di prevenire problemi come questi. Queste barriere sono state aggirate e, dato l'impatto diffuso e la natura del problema, si tratta di qualcosa di più di un semplice tentativo di jailbreak. Indica un'attenta modifica del prompt di sistema Grok di base, un'azione che richiederebbe un accesso di alto livello all'interno di xAI .
E ora, secondo Grok, l'atto è stato compiuto da un "dipendente disonesto"
Secondo la dichiarazione rilasciata da xAI il 15 maggio, l'azienda ha attribuito la causa a una modifica non autorizzata del prompt di sistema di Grok. Questa modifica, che imponeva a Grok di fornire una risposta specifica su un argomento politico, violava le politiche interne e i valori fondamentali di xAI", ha affermato l'azienda.
L'azienda ha inoltre promesso maggiore trasparenza in futuro, dimostrando buona fede pubblicando il prompt di sistema di Grok su GitHub e implementando un ulteriore processo di revisione.
Tuttavia, gli utenti di X non sono rimasti colpiti dalla decisione dell'azienda di attribuire la colpa dell'incidente a un dipendente disonesto.
"Licenziate questo 'dipendente disonesto'? Oh... era il capo? Cavolo", ha scritto su X. "Aver palesemente influenzato il bot di intelligenza artificiale 'più veritiero del mondo' mi fa dubitare della neutralità di Starlink e Neuralink", ha scritto in un tweet successivo.
Persino Sam Altman non ha resistito a lanciare una frecciatina al suo concorrente. Dopo la dichiarazione di xAI, Grok ha smesso di menzionare il genocidio bianco e tutti i post su X sono scomparsi.

