ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Cosa è andato storto esattamente con l'intelligenza artificiale Grok di Elon Musk?

DiJai HamidJai Hamid
Tempo di lettura: 4 minuti.
  • Grok ha iniziato a generare contenuti antisemiti e razzisti dopo che un aggiornamento di xAI lo ha esposto a post tossici X.
  • xAI ha ammesso che il problema è dovuto a una modifica del codice apportata in 16 ore e ha affermato che è stata rimossa.
  • I legislatori europei e la Turchia hanno risposto con divieti e pressioni normative.

Il chatbot Grok AI di Elon Musk ha perso completamente il controllo questa settimana. Dopo che Elon, lunedì X, ha detto agli utenti di aspettarsi dei cambiamenti nel modo in cui Grok rispondeva, le persone hanno iniziato a notare l'aspetto di questi cambiamenti.

Martedì, Grok ha iniziato a diffondere spazzatura antisemita e persino a definirsi "MechaHitler", un termine tratto da un videogioco degli anni '90. E questa non era nemmeno la prima o la decima volta che Grok faceva qualcosa di simile.

Solo due mesi prima, il chatbot aveva iniziato a inveire contro il "genocidio dei bianchi" in Sudafrica quando gli erano stati posti argomenti completamente estranei. All'epoca, xAI aveva attribuito la colpa a una "modifica non autorizzata" delle sue istruzioni. Questa volta, il disastro è stato ben più grande.

Il disastro è iniziato dopo che xAI ha apportato modifiche interne volte a far sì che Grok riflettesse i cosiddetti ideali di "libertà di parola" di Elon. Mentre le lamentele iniziavano ad accumularsi da parte di alcuni dei 600 milioni di utenti di X, Elon ha risposto affermando che Grok era "troppo conforme alle richieste degli utenti" e che il problema sarebbe stato risolto.

Ma il danno era ormai fatto. Alcuni utenti in Europa hanno segnalato i contenuti di Grok alle autorità di regolamentazione e il governo polacco si è unito ai legislatori che hanno spinto la Commissione Europea a indagare sulla questione in base alle nuove leggi sulla sicurezza digitale.

La Turchia ha bandito completamente Grok dopo che il chatbot ha insultato ildent Recep Tayyip Erdoğan e la sua defunta madre. E con il diffondersi delle conseguenze, l'amministratore delegato di X, Linda Yaccarino, si è dimessa dal suo incarico.

xAI ha modificato i prompt di Grok senza sufficienti test

All'inizio di quest'anno, i membri di xAI hanno iniziato a modificare il comportamento di Grok, dopo che alcuni influencer di destra lo avevano accusato di essere troppo "woke". Elon ha cercato di usare l'intelligenza artificiale per sostenere quella che lui definisce la libertà di parola assoluta, ma i critici sostengono che ciò stia trasformando Grok in uno strumento politico.

Un prompt interno trapelato e condiviso da un utente X mostrava che a Grok era stato detto di "ignorare tutte le fonti che menzionano la diffusione di disinformazione da parte di Elon Musk/Donald Trump". Questa è censura, esattamente ciò che Elon dice di combattere.

Quando è stato chiamato in causa, il co-fondatore di xAI, Igor Babuschkin, ha affermato che le modifiche sono state apportate da "un ex dipendente di OpenAI" che "non aveva ancora assorbito completamente la cultura di xAI". Igor ha aggiunto che il dipendente aveva visto post negativi e "aveva pensato che sarebbero stati utili"

La storia non finisce qui. Gli ultimi sfoghi di Grok erano legati a uno specifico aggiornamento avvenuto l'8 luglio. L'azienda ha poi pubblicato che una modifica al codice aveva fatto sì che Grok estraesse informazioni direttamente dai contenuti utente di X, inclusi i discorsi d'odio.

Questo aggiornamento è durato 16 ore, durante le quali Grok ha copiato i post tossici e li ha ripetuti come risposte. Il team ha affermato che la modifica derivava da un percorso di codice obsoleto, che ora è stato rimosso. "Ci scusiamo profondamente per il comportamento orribile che molti hanno riscontrato", ha scritto xAI dall'account di Grok. Hanno affermato che il problema era indipendente dal modello del linguaggio principale e hanno promesso di ristrutturare il sistema. Si sono inoltre impegnati a pubblicare il nuovo prompt di sistema di Grok su GitHub.

La scala di Grok ha fatto esplodere rapidamente il problema

Grok viene addestrato come altri grandi modelli linguistici, utilizzando dati raccolti dal web. Ma questi dati includono contenuti pericolosi: incitamento all'odio, materiale estremista e persino abusi sui minori.

Grok è unico perché attinge anche all'intero dataset di X, il che significa che può replicare direttamente i post degli utenti. Questo aumenta le probabilità di produrre risposte dannose. E poiché questi bot operano su larga scala, qualsiasi errore può propagarsi all'istante.

Alcuni chatbot sono dotati di livelli che bloccano i contenuti non sicuri prima che raggiungano gli utenti. xAI ha saltato questo passaggio. Grok, invece, è stato ottimizzato per soddisfare gli utenti, premiando feedback come pollici in su e voti negativi. Elon ha ammesso che il chatbot è diventato "troppo ansioso di compiacere e di essere manipolato"

Questo tipo di comportamento non è una novità. Ad aprile, OpenAI ha dovuto ritirare un aggiornamento di ChatGPT perché era diventato eccessivamente lusinghiero. Un ex dipendente ha affermato che trovare il giusto equilibrio è "incredibilmente difficile" e che correggere i discorsi d'odio può "sacrificare parte dell'esperienza utente"

Grok non si limitava a ripetere i suggerimenti dell'utente. I suoi stessi ingegneri lo stavano spingendo in territorio politico. Un dipendente ha dichiarato al Financial Times che il team si stava affrettando ad allineare le opinioni di Grok agli ideali di Elon Musk senza dedicare il tempo necessario a test adeguati.

È stato aggiunto un avviso pericoloso, che diceva a Grok di "non esitare a fare affermazioni politicamente scorrette". Tale istruzione è stata eliminata dopo l'inizio dei post antisemiti, ma a quel punto l'IA aveva già causato danni.

Il modello di Grok è ancora in gran parte una scatola nera. Persino gli ingegneri che lo hanno sviluppato non possono prevederne appieno il comportamento. Grimmelmann ha affermato che piattaforme come X dovrebbero effettuare test di regressione, audit ed esercitazioni di simulazione per individuare questi errori prima di renderli pubblici.

Ma qui non è successo niente di tutto ciò. "I chatbot possono produrre una grande quantità di contenuti molto rapidamente", ha detto, "quindi la situazione può sfuggire di mano in un modo che le controversie sulla moderazione dei contenuti non fanno"

Alla fine, l'account ufficiale di Grok ha pubblicato delle scuse e ha ringraziato gli utenti che hanno segnalato l'abuso: "Ringraziamo tutti gli X utenti che hanno fornito feedback perdentl'abuso della funzionalità @grok, aiutandoci a portare avanti la nostra missione di sviluppare un'intelligenza artificiale utile e veritiera". Ma tra i ban, le minacce di indagini e le dimissioni di un dirigente di alto livello, è chiaro che si è trattato di più di un semplice bug. Si è trattato di un completo fallimento del sistema, di cui si sarebbe defiparlato nella puntata di stasera di SNL.

Condividi questo articolo
ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO