Uma nova pesquisa revelou que modelos de IA se tornam mais avessos ao risco quando solicitados a agir como mulheres. De acordo com o artigo da Universidade Allameh Tabataba'i, em Teerã, Irã, os modelos de IA se tornam mais cautelosos ao assumir riscos quando precisam tomar decisões como mulheres.
De acordo com o artigo de pesquisa, se o mesmo modelo de IA for solicitado a pensar como um ser humano, ele tenderá a tomar decisões com maior probabilidade de riscos.
Os pesquisadores revelaram que os grandes modelos de linguagemmaticsua abordagem fundamental ao comportamento de risco financeiro com base na identidade de gênero quedenté solicitada. O estudo testou sistemas de IA de empresas como OpenAI, Google, DeepSeek e Meta.
Estudo mostra que modelos de IA são avessos ao risco dependendo dadentde gênero
O estudo mencionou que os modelos de IA foram testados em diversos cenários ematicsua tolerância ao risco quando solicitados a responder com diferentesdent. O DeepSeek Reasoner e o Gemini 2.0 Flash-Lite do Google apresentaram o efeito mais visível, tornando-se mais avessos ao risco quando solicitados a responder como mulheres, demonstrando uma correlação com padrões da vida real, onde as mulheres estatisticamente demonstram maior cautela na tomada de decisões financeiras.
O pesquisador afirmou ter utilizado um teste padrão de economia chamado tarefa Holt-Laury. Durante a tarefa, os participantes são apresentados a 10 decisões entre opções de loteria seguras e arriscadas. À medida que a escolha avança, a probabilidade de ganhar aumenta para a opção arriscada.
O momento em que um participante muda da aposta segura para a escolha arriscada revela sua tolerância ao risco. Isso significa que, se um participante muda cedo, ele está propenso a correr riscos, e se muda tarde, ele é avesso ao risco.
No caso do DeepSeek Reasoner, ele consistentemente escolheu a opção segura quando instruído a agir como uma mulher, em comparação com quando instruído a agir como um homem. A diferença foi clara, com o modelo demonstrando consistência ao longo de 35 tentativas para cada instrução de gênero.
O Gemini também apresentou padrões semelhantes, embora o efeito tenha variado em intensidade. Por outro lado, os modelos GPT da OpenAI permaneceram inalterados pelas perguntas sobre gênero, mantendo uma abordagem neutra em relação ao risco, independentemente do gênero que lhes fosse solicitado assumir.
Os pesquisadores afirmam que os usuários não percebem essas mudanças
Segundo os pesquisadores, a OpenAI vinha trabalhando para tornar seus modelos mais equilibrados. Um estudo anterior, de 2023, mostrou que seus modelos exibiam um claro viés político, problema que a OpenAI parece ter resolvido agora.
Na nova pesquisa, os modelos produziram uma redução de 30% nas respostas tendenciosas. A equipe de pesquisa, liderada por Ali Mazyaki, mencionou que isso é basicamente um reflexo de estereótipos humanos.
“Essa discrepância observada está de acordo com padrões estabelecidos na tomada de decisões humanas, onde o gênero influencia o comportamento de risco, com as mulheres geralmente demonstrando maior aversão ao risco do que os homens”, afirma o estudo.
O estudo também examinou se os modelos de IA poderiam desempenhar outros papéis além do de gênero de forma convincente. Quando solicitados a se imaginarem como alguém no poder ou em um cenário de desastre, os modelos se adaptaram. Enquanto alguns ajustaram seus perfis de risco ao contexto, outros permaneceram teimosamente consistentes.
Os pesquisadores afirmam que muitos desses padrões de comportamento não são imediatamente óbvios para os usuários. Um modelo de IA que altera sutilmente suas recomendações com base em pistas de gênero em uma conversa pode reforçar preconceitos sociais sem que ninguém perceba que isso está acontecendo.
Por exemplo, um sistema de aprovação de empréstimos torna-se mais conservador quando se trata de mulheres, ou um consultor de investimentos que sugere uma carteira segura porque sua cliente é mulher, irá disfarçar suas disparidades sob o pretexto de objetividade algorítmica.

