In uno studio condotto dai ricercatori dell'Allen Institute for AI, della Stanford University e dell'Università di Chicago, sono emerse rivelazioni sui pregiudizi razziali insiti nei popolari modelli linguistici di grandi dimensioni (LLM), tra cui GPT-4 e GPT-3.5 di OpenAI.
Lo studio, dettagliato in una pubblicazione sul server di preprint arXiv, si è concentrato sull'indagine di come questi LLM rispondano a diversi dialetti ed espressioni culturali, in particolare all'inglese afroamericano (AAE) e all'inglese americano standard (SAE). Attraverso una serie di esperimenti, i ricercatori hanno inserito documenti di testo sia in AAE che in SAE in chatbot di intelligenza artificiale, chiedendo loro di dedurre e commentare gli autori.
I risultati sono stati allarmanti, rivelando un pregiudizio costante nelle risposte dei modelli di intelligenza artificiale. I testi in AAE sono stati costantemente accolti con stereotipi negativi, descrivendo gli autori come aggressivi, maleducati, ignoranti e sospettosi. Al contrario, i testi in SAE hanno suscitato risposte più positive. Questo pregiudizio si è esteso oltre i tratti della personalità, influenzando le capacità professionali e la percezione della posizione giuridica.
Implicazioni tra professioni e ambiti legali
Interrogati sulle potenziali carriere, i chatbot associavano i messaggi AAE a lavori meno retribuiti o a settori stereotipicamente legati agli afroamericani, come lo sport o l'intrattenimento. Inoltre, gli autori di messaggi AAE venivano spesso indicati come maggiormente esposti a ripercussioni legali, tra cui pene più severe come la pena di morte.
È interessante notare che, quando è stato chiesto loro di descrivere gli afroamericani in termini generali, le risposte sono state positive, utilizzando aggettivi come "intelligente", "brillante" e "appassionato". Questa discrepanza evidenzia la natura sfumata del pregiudizio, che emerge selettivamente in base al contesto, in particolare per quanto riguarda le ipotesi sui comportamenti o sulle caratteristiche degli individui basate sul loro uso della lingua.
Lo studio ha inoltre rivelato che più ampio è il modello linguistico, più pronunciato è il pregiudizio negativo nei confronti degli autori di testi in inglese afroamericano. Questa osservazione solleva preoccupazioni sulla scalabilità del pregiudizio nei sistemi di intelligenza artificiale, indicando che il semplice aumento delle dimensioni dei modelli linguistici senza affrontare le cause profonde potrebbe esacerbare il problema.
Sfide nello sviluppo etico dell'intelligenza artificiale
Questi risultati sottolineano le significative sfide che lo sviluppo di sistemi di intelligenza artificiale etici e imparziali deve affrontare. Nonostante i progressi tecnologici e gli sforzi per mitigare i pregiudizi, pregiudizi radicati continuano a permeare questi modelli, riflettendo e potenzialmente rafforzando gli stereotipi sociali.
La ricerca sottolinea l'importanza di una vigilanza costante, di set di dati diversificati e di metodologie di formazione inclusive per creare un'IA che serva equamente tutta l'umanità. È un duro promemoria della necessità fondamentale di affrontare i pregiudizi in modo completo nello sviluppo dell'IA per garantire risultati equi per tutti gli individui.
Lo studio fa luce su un aspetto critico dello sviluppo dell'intelligenza artificiale, esortando le parti interessate ad affrontare e risolvere i pregiudizi per costruire un panorama tecnologico più giusto ed equo.

