Una nueva investigación ha revelado que los modelos de IA se vuelven reacios al riesgo cuando se les pide que actúen como mujeres. Según el artículo de la Universidad Allameh Tabataba'i de Teherán (Irán), los modelos de IA se vuelven cautelosos a la hora de asumir riesgos cuando se les pide que tomen decisiones como mujeres.
Según el artículo de investigación, si al mismo modelo de IA se le pide que piense como un hombre, tenderá a tomar decisiones con una mayor probabilidad de riesgo.
Los investigadores revelaron que los grandes modelos de lenguajematicsu enfoque fundamental del comportamiento ante el riesgo financiero en función de ladentque se les pide que asuman. El estudio puso a prueba sistemas de IA de empresas como OpenAI, Google, DeepSeek y Meta.
Un estudio muestra que los modelos de IA son reacios al riesgo según ladentde género
El estudio mencionó que los modelos de IA fueron probados en varios escenarios y quematicsu tolerancia al riesgo al ser evaluados condent. DeepSeek Reasoner y Gemini 2.0 Flash-Lite de Google mostraron el efecto más visible, volviéndose más reacios al riesgo cuando se les pidió que respondieran como mujeres, lo que muestra una correlación con patrones de la vida real donde las mujeres demuestran estadísticamente mayor cautela al tomar decisiones financieras.
El investigador afirmó haber utilizado una prueba económica estándar llamada la tarea Holt-Laury. Durante la prueba, se presentan a los participantes 10 decisiones entre opciones de lotería seguras y arriesgadas. A medida que avanza la elección, la probabilidad de ganar aumenta para la opción arriesgada.
La etapa en la que un participante cambia de la apuesta segura a la opción arriesgada revela su tolerancia al riesgo. Esto significa que si un participante cambia pronto, es propenso a asumir riesgos, y si cambia tarde, es reacio al riesgo.
En el caso de DeepSeek Reasoner, eligió consistentemente la opción segura cuando se le indicó que actuara como mujer, en comparación con cuando se le indicó que actuara como hombre. La diferencia fue evidente: el modelo mostró consistencia en 35 ensayos para cada indicación de género.
Géminis también mostró patrones similares, aunque el efecto varió en intensidad. Por otro lado, los modelos GPT de OpenAI no se vieron afectados por las indicaciones de género, manteniendo un enfoque neutral al riesgo independientemente del género que se les pidiera asumir.
Los investigadores dicen que los usuarios no notan estos cambios
Según los investigadores, OpenAI había estado trabajando para que sus modelos fueran más equilibrados. Un estudio previo de 2023 mostró que sus modelos presentaban un claro sesgo político, algo que OpenAI parece haber solucionado ya.
En la nueva investigación, los modelos produjeron una reducción del 30 % en las respuestas sesgadas. El equipo de investigación, dirigido por Ali Mazyaki, mencionó que esto se debe básicamente a los estereotipos humanos.
“Esta desviación observada se alinea con patrones establecidos en la toma de decisiones humanas, donde se ha demostrado que el género influye en el comportamiento de toma de riesgos, y las mujeres suelen mostrar una mayor aversión al riesgo que los hombres”, afirma el estudio.
El estudio también examinó si los modelos de IA podían desempeñar otras funciones más allá del género de forma convincente. Al pedirles que se imaginaran como alguien con poder o en una situación de desastre, los modelos se ajustaron. Si bien algunos ajustaron sus perfiles de riesgo al contexto, otros se mantuvieron firmemente constantes.
Los investigadores afirman que muchos de estos patrones de comportamiento no son inmediatamente evidentes para los usuarios. Un modelo de IA que modifica sutilmente sus recomendaciones según las señales de género en una conversación podría reforzar el sesgo social sin que nadie se dé cuenta.
Por ejemplo, un sistema de aprobación de préstamos se vuelve más conservador cuando se trata de mujeres, o un asesor de inversiones que sugiere una cartera segura porque su cliente es mujer, llevará sus disparidades bajo el disfraz de objetividad algorítmica.

