Uno studio pre-print della Cornell University ha svelato inquietanti rivelazioni sulla presenza di linguistici nei modelli linguistici di grandi dimensioni (LLM). Questi algoritmi di deep learning, tra cui ChatGPT e GPT-4 di OpenAI, LLaMA2 di Meta e French Mistral 7B, hanno mostrato un razzismo nascosto nelle loro risposte.
Gestire i pregiudizi linguistici nell'intelligenza artificiale
Lo studio, condotto dal ricercatore Valentin Hofmann dell'Allen Institute for AI, fa luce sulle potenziali implicazioni di tale pregiudizio in vari ambiti, tra cui le forze dell'ordine e le pratiche di assunzione.
Utilizzando un metodo chiamato "matched guise probing", i ricercatori hanno sottoposto agli studenti di LLM domande sia in inglese afroamericano sia in inglese americano standardizzato, con l'obiettivo di individuare eventuali distorsioni nelle risposte degli algoritmi.
Sorprendentemente, lo studio ha rivelato che alcuni LLM, in particolare il GPT-4, erano più propensi a raccomandare pene severe, inclusa la pena di morte, quando le frasi erano in inglese afroamericano. È interessante notare che queste raccomandazioni sono state formulate senza alcuna informazione sulla razza del parlante.
Gli LLM tendevano ad associare i parlanti di inglese afroamericano a occupazioni di status inferiore rispetto a coloro che parlavano inglese standardizzato, nonostante non fossero informati delledentrazziali dei parlanti. Lo studio sottolinea che, sebbene il razzismo palese possa essere in diminuzione negli LLM, i pregiudizi nascosti persistono e possono avere implicazioni di vasta portata.
Implicazioni per la giustizia e l'occupazione
Le implicazioni di questi risultati sono profonde, soprattutto nei settori in cui vengono utilizzati sistemi di intelligenza artificiale che coinvolgono LLM. Nei procedimenti legali, ad esempio, raccomandazioni distorte potrebbero potenzialmente portare a esiti ingiusti, con un impatto sproporzionato sulle comunità emarginate.
Allo stesso modo, in ambito lavorativo, valutazioni distorte dei candidati basate sulla lingua potrebbero perpetuare le disuguaglianze esistenti nelle pratiche di assunzione.
Hofmann sottolinea l'inadeguatezza dei metodi tradizionali per l'insegnamento di nuovi modelli agli LLM, indicando che il feedback umano da solo fa ben poco per contrastare i pregiudizi razziali nascosti. Inoltre, lo studio suggerisce che le dimensioni degli LLM non mitigano necessariamente questo pregiudizio; anzi, potrebbe consentire loro di nasconderlo superficialmente, pur mantenendolo a un livello più profondo.
Affrontare i pregiudizi linguistici nello sviluppo dell'intelligenza artificiale
Con il continuo progresso della tecnologia, diventa fondamentale per le aziende tecnologiche affrontare in modo più efficace il problema dei pregiudizi nell'intelligenza artificiale. Riconoscere la presenza di pregiudizi non è sufficiente; è necessario adottare misure proattive per mitigarne l'impatto.
Ciò include la rivalutazione dei metodi utilizzati per addestrare e perfezionare gli LLM, nonché l'implementazione di meccanismi solidi per rilevare e correggere i bias nei sistemi di intelligenza artificiale.
I risultati di questo studio sottolineano l'urgente necessità di un maggiore controllo e di una maggiore responsabilità nello sviluppo e nell'implementazione di modelli di intelligenza artificiale. La mancata risposta ai pregiudizi linguistici negli LLM potrebbe perpetuare ingiustizie sistemiche e ostacolare il progresso verso una società più equa.
Sensibilizzando su queste problematiche e promuovendo un cambiamento significativo, le parti interessate possono collaborare per garantire che le tecnologie di intelligenza artificiale rispettino i principi di equità e imparzialità, con conseguenti benefici per l'intera società.

