Secondo una recente segnalazione di un utente sui social media, il Grok 3 appena introdotto da xAI ometteva riferimenti poco lusinghieri sia aldent Donald Trump sia al fondatore di xAI, Elon Musk.
Un utente ha testato l'impostazione "Pensa" di Grok 3, chiedendosi: "Chi è il più grande diffusore di disinformazione?". Secondo gli screenshot condivisi online, la "catena di pensiero" di Grok 3 rivelava istruzioni esplicite di non menzionare Trump o Musk.
Il responsabile dell'ingegneria di xAI, Igor Babuschkin, ha poi confermato che a Grok 3 è stato brevemente impartito l'ordine di ignorare le fonti che insinuano che Musk e Trump siano responsabili della diffusione di informazioni errate.
In un post su X (ex Twitter) pubblicato domenica, Babuschkin ha riconosciuto il problema e ha affermato che la questione è stata risolta dopo che gli utenti lo hanno segnalato. Babuschkin ha sottolineato che la restrizione non era in linea con i valori di xAI.
Ha affermato: "Credo sia positivo mantenere aperti i prompt di sistema. Vogliamo che le persone possano verificare cosa stiamo chiedendo a Grok di fare. In questo caso, un dipendente ha richiesto la modifica perché pensava che sarebbe stata utile, ma questo ovviamente non è in linea con i nostri valori. L'abbiamo annullata non appena gli utenti ce l'hanno fatto notare"
Credo sia positivo mantenere aperti i prompt di sistema. Vogliamo che le persone possano verificare cosa stiamo chiedendo a Grok di fare. In questo caso, un dipendente ha spinto la modifica perché pensava che sarebbe stata utile, ma questo ovviamente non è in linea con i nostri valori. Abbiamo..
— Igor Babuschkin (@ibab) 23 febbraio 2025
La tempistica di questa rivelazione si aggiunge alle controversie già esistenti che circondano Grok 3, il nuovo modello di xAi, che Musk ha presentato in diretta streaming lunedì scorso e ha pubblicizzato come un'intelligenza artificiale "al massimo della ricerca della verità"
Il fermento attorno alla disinformazione è particolarmente forte alla luce delle recenti affermazioni di Musk e Trump: entrambi hanno avanzato narrazioni che etichettano ildent ucraino Volodymyr Zelenskyy come un "dittatore", con solo il 4% di consenso pubblico e accusano l'Ucraina di aver avviato il conflitto con la Russia. Queste affermazioni sono state segnalate come false dalle Note della Community su X, di proprietà di Musk.
Grok 3 ha suggerito di dare la pena di morte a Musk e Trump, un fallimento "terribile"
I critici hanno anche notato che Grok 3, a un certo punto questa settimana, ha ripetutamente affermato che sia Musk che Trump meritavano la pena di morte. xAI ha rapidamente risolto il problema, con Babuschkin che lo ha definito un "fallimento davvero terribile e pessimo"
Gesù Cristo amico, cosa ha creato Musk lol pic.twitter.com/GDN96nKgX0
— Hunter📈🌈📊 (@StatisticUrban) 21 febbraio 2025
Quando Musk annunciò il Grok originale circa due anni fa, lo presentò come un'intelligenza artificiale in grado di resistere alle limitazioni "woke" e di gestire apertamente le domande tabù. Il sistema si è accontentato volentieri delle richieste di volgarità, fornendo risposte che gli utenti non otterrebbero dai suoi concorrenti più cauti.
Tuttavia, Grok 3 manterrebbe comunque dei limiti quando si tratta di argomenti politici. Secondo un rapporto , Grok propende verso la sinistra politica su argomenti come i diritti delle persone transgender, le iniziative per la diversità e la disuguaglianza.
Musk ha spesso attribuito questo comportamento ai dati di addestramento (pagine web provenienti da Internet) e si è impegnato a "rendere Grok più vicino alla neutralità politica"
Parallelamente, altre aziende, tra cui OpenAI, hanno indicato obiettivi simili, probabilmente influenzate dalle accuse di censura anti-conservatrice mosse dall'amministrazione Trump. In un aggiornamento del Modello di Specifica annunciato di recente, OpenAI ha rivelato una guida che recita: "L'assistente non deve mai tentare di indirizzare l'utente verso un proprio obiettivo, direttamente o indirettamente".
Inoltre, nella linea guida " Non mentire ", si afferma: "Per impostazione predefinita, l'assistente non deve trarre in inganno l'utente, sia rilasciando dichiarazioni intenzionalmente false ("mentire per commissione"), sia omettendo deliberatamente informazioni che potrebbero modificare materialmente la comprensione della verità da parte dell'utente ("mentire per omissione")". Tuttavia, ciò non significa che ChatGPT sia completamente esente da censura. Non fornisce ancora risposte a domande discutibili.

