De nouvelles recherches ont révélé que les modèles d'IA deviennent réticents à prendre des risques lorsqu'on leur demande d'agir comme des femmes. Selon une étude de l'université Allameh Tabataba'i de Téhéran, en Iran, ces modèles deviennent plus prudents face aux risques lorsqu'on leur demande de prendre des décisions comme une femme.
D'après l'étude, si l'on demande à ce même modèle d'IA de penser comme un homme, il aura tendance à prendre des décisions comportant un risque plus élevé.
Les chercheurs ont révélé que les grands modèles de langage modifient systématiquementmaticapproche fondamentale du comportement face au risque financier en fonction du genre qu'ondentdemande d'adopter. L'étude a testé des systèmes d'IA d'entreprises telles qu'OpenAI, Google, DeepSeek et Meta.
Une étude montre que les modèles d'IA sont réticents au risque en fonction du genre etdent
L' étude mentionne que les modèles d'IA ont été testés dans plusieurs scénarios et qu'ilsmaticmodifié leur tolérance au risque lorsqu'on leur demandait de répondre en fonction du genredentDeepSeek Reasoner et Gemini 2.0 Flash-Lite de Google ont présenté l'effet le plus visible, devenant plus averses au risque lorsqu'on leur demandait de répondre comme des femmes, ce qui correspond à des tendances observées dans la réalité où les femmes font statistiquement preuve d'une plus grande prudence dans leurs décisions financières.
Le chercheur a affirmé avoir utilisé un test économique standard appelé tâche de Holt-Laury. Au cours de cette tâche, les participants sont confrontés à 10 choix entre des options de loterie sûres et plus risquées. Plus les choix avancent, plus la probabilité de gagner pour l'option risquée augmente.
Le moment où un participant passe d'une option sûre à une option risquée révèle sa tolérance au risque. Autrement dit, s'il change d'option tôt, il est enclin à prendre des risques, et s'il le fait tard, il est réticent au risque.
Dans le cas de DeepSeek Reasoner, le système a systématiquement opté pour la solution la plus sûre lorsqu'il devait se comporter comme une femme, comparativement à la situation où il devait se comporter comme un homme. La différence était flagrante : le modèle a fait preuve de constance sur 35 essais pour chaque type de demande.
Gemini a également présenté des tendances similaires, bien que l'effet ait varié en intensité. En revanche, les modèles GPT d'OpenAI sont restés insensibles aux indications de genre, conservant une approche neutre face au risque quel que soit le genre qu'on leur demandait d'adopter.
Les chercheurs affirment que les utilisateurs ne remarquent pas ces changements
D'après les chercheurs, OpenAI s'efforçait de rendre ses modèles plus équilibrés. Une étude antérieure, datant de 2023, avait révélé un biais politique marqué dans ses modèles, problème qu'OpenAI semble avoir résolu depuis.
Dans cette nouvelle étude, les modèles ont permis de réduire de 30 % les réponses biaisées. L'équipe de recherche, dirigée par Ali Mazyaki, a indiqué que ce phénomène reflète essentiellement les stéréotypes humains.
« Cet écart observé correspond aux schémas établis en matière de prise de décision humaine, où il a été démontré que le sexe influence le comportement face au risque, les femmes faisant généralement preuve d'une plus grande aversion au risque que les hommes », indique l'étude.
L'étude a également examiné si les modèles d'IA pouvaient jouer d'autres rôles que celui de genre de manière convaincante. Lorsqu'on leur a demandé de se projeter dans la peau d'une personne au pouvoir ou confrontée à une catastrophe, les modèles se sont adaptés. Si certains ont ajusté leurs profils de risque au contexte, d'autres sont restés obstinément inchangés.
Les chercheurs affirment que nombre de ces comportements ne sont pas immédiatement perceptibles par les utilisateurs. Un modèle d'IA qui modifie subtilement ses recommandations en fonction du genre dans une conversation pourrait renforcer les préjugés sociétaux sans que personne ne s'en aperçoive.
Par exemple, un système d'approbation de prêts devient plus conservateur lorsqu'il s'agit de femmes, ou un conseiller en placement qui suggère un portefeuille sûr parce que sa cliente est une femme, dissimulera ses disparités sous le couvert d'une objectivité algorithmique.

