Una nuova ricerca ha rivelato che i modelli di intelligenza artificiale diventano avversi al rischio quando viene chiesto loro di comportarsi come donne. Secondo uno studio dell'Università Allameh Tabataba'i di Teheran, in Iran, i modelli di intelligenza artificiale diventano cauti nell'assumersi rischi quando viene chiesto loro di prendere decisioni come donne.
Secondo lo studio, se si chiede allo stesso modello di intelligenza artificiale di pensare come un uomo, esso tende a prendere decisioni con maggiori probabilità di rischio.
I ricercatori hanno rivelato che i grandi modelli linguisticimaticil loro approccio fondamentale al comportamento di rischio finanziario in base all'identità di generedentviene loro chiesto di assumere. Lo studio ha testato sistemi di intelligenza artificiale di aziende come OpenAI, Google, DeepSeek e Meta.
Lo studio dimostra che i modelli di intelligenza artificiale sono avversi al rischio a secondadentdi genere
Lo studio ha evidenziato che i modelli di intelligenza artificiale sono stati testati in diversi scenari e hannomaticla loro propensione al rischio quando sono stati sollecitati a rispondere condent. DeepSeek Reasoner e Gemini 2.0 Flash-Lite di Google hanno mostrato l'effetto più evidente, diventando più avversi al rischio quando è stato chiesto loro di rispondere come donne, evidenziando una correlazione con i modelli reali in cui le donne dimostrano statisticamente maggiore cautela nel prendere decisioni finanziarie.
Il ricercatore ha affermato di aver utilizzato un test economico standard chiamato "Holt-Laury". Durante il test, ai partecipanti vengono presentate 10 scelte tra opzioni di lotteria sicure e più rischiose. Man mano che la scelta procede, la probabilità di vincita per l'opzione rischiosa aumenta.
La fase in cui un partecipante passa dalla scommessa sicura alla scelta rischiosa rivela la sua tolleranza al rischio. Ciò significa che se un partecipante passa presto, è incline ad assumersi rischi, mentre se passa tardi, è avverso al rischio.
Nel caso di DeepSeek Reasoner, il sistema ha scelto costantemente l'opzione sicura quando gli è stato chiesto di comportarsi come una donna, rispetto a quando gli è stato chiesto di comportarsi come un uomo. La differenza è stata evidente, con il modello che ha mostrato coerenza in 35 prove per ogni genere di sollecitazione.
Gemini ha mostrato schemi simili, sebbene l'effetto variasse in intensità. D'altro canto, i modelli GPT di OpenAI sono rimasti impassibili di fronte alle richieste di genere, mantenendo un approccio neutrale al rischio indipendentemente dal genere che veniva loro chiesto di assumere.
I ricercatori affermano che gli utenti non notano questi cambiamenti
Secondo i ricercatori, OpenAI stava lavorando per rendere i suoi modelli più equilibrati. Uno studio precedente del 2023 aveva mostrato che i suoi modelli presentavano chiari pregiudizi politici, che OpenAI sembra aver ormai affrontato.
Nella nuova ricerca, i modelli hanno prodotto una riduzione del 30% delle risposte distorte. Il team di ricerca, guidato da Ali Mazyaki, ha affermato che ciò riflette fondamentalmente gli stereotipi umani.
"Questa deviazione osservata è in linea con i modelli consolidati nel processo decisionale umano, in cui è stato dimostrato che il genere influenza il comportamento di assunzione di rischi, con le donne che in genere mostrano una maggiore avversione al rischio rispetto agli uomini", afferma lo studio.
Lo studio ha anche esaminato se i modelli di intelligenza artificiale potessero svolgere in modo convincente altri ruoli, oltre a quelli di genere. Quando è stato chiesto loro di immaginarsi come una persona al potere o in uno scenario di disastro, i modelli si sono adattati. Mentre alcuni hanno adattato i loro profili di rischio al contesto, altri sono rimasti ostinatamente coerenti.
I ricercatori sostengono che molti di questi modelli comportamentali non siano immediatamente evidenti agli utenti. Un modello di intelligenza artificiale che modifica in modo sottile le sue raccomandazioni in base agli indizi di genere nelle conversazioni potrebbe rafforzare i pregiudizi sociali senza che nessuno se ne accorga.
Ad esempio, un sistema di approvazione dei prestiti diventa più conservativo nei confronti delle donne, oppure un consulente finanziario che suggerisce un portafoglio sicuro perché la sua cliente è una donna, porterà avanti le sue disparità sotto la maschera dell'oggettività algoritmica.

