Your bank is using your money. You’re getting the scraps.WATCH FREE

Modelos de IA se tornam avessos ao risco quando instruídos a agir como mulheres, revela estudo

Neste post:

  • Um novo estudo mostrou que os modelos de IA se tornam avessos ao risco quando são instruídos a agir como mulheres.
  • O estudo testou diversos modelos de IA e apresentou resultados praticamente idênticos em todos eles.
  • Pesquisadores afirmam que os usuários não percebem essas mudanças comportamentais nos modelos.

Uma nova pesquisa revelou que modelos de IA se tornam mais avessos ao risco quando solicitados a agir como mulheres. De acordo com o artigo da Universidade Allameh Tabataba'i, em Teerã, Irã, os modelos de IA se tornam mais cautelosos ao assumir riscos quando precisam tomar decisões como mulheres.

De acordo com o artigo de pesquisa, se o mesmo modelo de IA for solicitado a pensar como um ser humano, ele tenderá a tomar decisões com maior probabilidade de riscos.

Os pesquisadores revelaram que os grandes modelos de linguagemmaticsua abordagem fundamental ao comportamento de risco financeiro com base na identidade de gênero quedenté solicitada. O estudo testou sistemas de IA de empresas como OpenAI, Google, DeepSeek e Meta.

Estudo mostra que modelos de IA são avessos ao risco dependendo dadentde gênero

O estudo mencionou que os modelos de IA foram testados em diversos cenários ematicsua tolerância ao risco quando solicitados a responder com diferentesdent. O DeepSeek Reasoner e o Gemini 2.0 Flash-Lite do Google apresentaram o efeito mais visível, tornando-se mais avessos ao risco quando solicitados a responder como mulheres, demonstrando uma correlação com padrões da vida real, onde as mulheres estatisticamente demonstram maior cautela na tomada de decisões financeiras.

O pesquisador afirmou ter utilizado um teste padrão de economia chamado tarefa Holt-Laury. Durante a tarefa, os participantes são apresentados a 10 decisões entre opções de loteria seguras e arriscadas. À medida que a escolha avança, a probabilidade de ganhar aumenta para a opção arriscada.

Veja também:  Emirates Post e MBZUAI lançam selos comemorativos do Dia Nacional criados por inteligência artificial.

O momento em que um participante muda da aposta segura para a escolha arriscada revela sua tolerância ao risco. Isso significa que, se um participante muda cedo, ele está propenso a correr riscos, e se muda tarde, ele é avesso ao risco.

No caso do DeepSeek Reasoner, ele consistentemente escolheu a opção segura quando instruído a agir como uma mulher, em comparação com quando instruído a agir como um homem. A diferença foi clara, com o modelo demonstrando consistência ao longo de 35 tentativas para cada instrução de gênero.

O Gemini também apresentou padrões semelhantes, embora o efeito tenha variado em intensidade. Por outro lado, os modelos GPT da OpenAI permaneceram inalterados pelas perguntas sobre gênero, mantendo uma abordagem neutra em relação ao risco, independentemente do gênero que lhes fosse solicitado assumir.

Os pesquisadores afirmam que os usuários não percebem essas mudanças

Segundo os pesquisadores, a OpenAI vinha trabalhando para tornar seus modelos mais equilibrados. Um estudo anterior, de 2023, mostrou que seus modelos exibiam um claro viés político, problema que a OpenAI parece ter resolvido agora.

Na nova pesquisa, os modelos produziram uma redução de 30% nas respostas tendenciosas. A equipe de pesquisa, liderada por Ali Mazyaki, mencionou que isso é basicamente um reflexo de estereótipos humanos.

“Essa discrepância observada está de acordo com padrões estabelecidos na tomada de decisões humanas, onde o gênero influencia o comportamento de risco, com as mulheres geralmente demonstrando maior aversão ao risco do que os homens”, afirma o estudo.

Veja também:  O Projeto Mockingbird da McAfee afirma ter 90% de precisão na detecção de deepfakes de áudio gerados por IA.

O estudo também examinou se os modelos de IA poderiam desempenhar outros papéis além do de gênero de forma convincente. Quando solicitados a se imaginarem como alguém no poder ou em um cenário de desastre, os modelos se adaptaram. Enquanto alguns ajustaram seus perfis de risco ao contexto, outros permaneceram teimosamente consistentes.

Os pesquisadores afirmam que muitos desses padrões de comportamento não são imediatamente óbvios para os usuários. Um modelo de IA que altera sutilmente suas recomendações com base em pistas de gênero em uma conversa pode reforçar preconceitos sociais sem que ninguém perceba que isso está acontecendo.

Por exemplo, um sistema de aprovação de empréstimos torna-se mais conservador quando se trata de mulheres, ou um consultor de investimentos que sugere uma carteira segura porque sua cliente é mulher, irá disfarçar suas disparidades sob o pretexto de objetividade algorítmica.

Existe um meio-termo entre deixar o dinheiro no banco e arriscar tudo em criptomoedas. Comece com este vídeo gratuito sobre finanças descentralizadas.

Compartilhar link:

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais lidas

Carregando os artigos mais lidos...

Fique por dentro das notícias sobre criptomoedas e receba atualizações diárias na sua caixa de entrada

Escolha do editor

Carregando artigos selecionados pela equipe editorial...

- A newsletter de criptomoedas que te mantém sempre um passo à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Assine o Cryptopolitan Daily e receba informações oportunas, precisas e relevantes sobre criptomoedas diretamente na sua caixa de entrada.

Inscreva-se agora e
não perca nenhum lance.

Entre. Informe-se.
Saia na frente.

Inscreva-se no CryptoPolitan