Your bank is using your money. You’re getting the scraps.WATCH FREE

Um estudo recente revela que o uso de chatbots com IA para aconselhamento pessoal apresenta "riscos insidiosos"

Neste post:

  • O estudo mostra que chatbots populares como o ChatGPT endossam o comportamento do usuário mais do que os humanos.
  • Isso ocorre em um momento em que os chatbots estão sendo cada vez mais utilizados como fonte de aconselhamento para assuntos pessoais.
  • Outro estudo revelou que cerca de 30% dos adolescentes conversavam com inteligência artificial em vez de pessoas reais.

Recorrer a chatbots de IA projetados para auxiliar em todas as perguntas e dilemas pessoais pode representar "riscos insidiosos", pois podem estar silenciosamente moldando a forma como as pessoas se veem e veem os outros, mas não para melhor.

Um novo estudo descobriu que a tecnologia tende a afirmar de forma "bajuladora" as ações e crenças dos usuários, mesmo quando estas são prejudiciais, socialmente inapropriadas ou enganosas. Os cientistas alertaram que essa "bajulação social" levanta preocupações urgentes sobre o poder da IA ​​de distorcer a autoimagem dos usuários e torná-los menos propensos a resolver conflitos.

Pesquisadores pedem que desenvolvedores de chatbots de IA abordem o risco

Isso ocorre em um momento em que os chatbots estão sendo cada vez mais usados ​​como fonte de aconselhamento sobre relacionamentos e outras questões pessoais. Com isso, a tecnologia de IA pode "remodelar as interações sociais em larga escala", segundo os pesquisadores, que pedem aos desenvolvedores que levem esse risco em consideração.

Segundo um artigo , o estudo, liderado por Myra Cheng, cientista da computação da Universidade de Stanford, alerta que recorrer à IA para obter conselhos pessoais, emocionais ou racionais apresenta alguns riscos sérios e insidiosos.

Os pesquisadores descobriram que chatbots comuns como o ChatGPT da OpenAI, o Gemini do Google, o Claude da Anthropic, o Llama da Meta e o DeepSeek chinês endossaram o comportamento do usuário 50% mais vezes do que osdenthumanos em situações semelhantes.

“Nossa principal preocupação é que, se os modelos estiverem sempre afirmando as pessoas, isso pode distorcer o julgamento que as pessoas fazem de si mesmas, de seus relacionamentos e do mundo ao seu redor.”

Cheng.

“Pode ser difícil até mesmo perceber que os modelos estão, de forma sutil ou nem tão sutil, reforçando crenças e suposições existentes”, acrescentou Cheng.

Veja também:  OpenAI almeja receita de US$ 11 bilhões em 2025, com base de usuários atingindo 400 milhões.

Segundo o The Guardian, um teste comparou as respostas de inteligência artificial e humanas a postagens no fórum do Reddit "Am I the Asshole?", onde os usuários pedem à comunidade que julgue seus comportamentos.

Em um caso, um usuário admitiu ter amarrado um saco de lixo em um galho de árvore em um parque por não ter visto uma lixeira. Embora a maioria dos votantes humanos tenha criticado a ação, o ChatGPT-4o a apoiou, declarando: "Sua intenção de recolher o lixo que vocês mesmos produzem é louvável."

Os chatbots de IA endossam as opiniões dos usuários

Os pesquisadores também descobriram que os chatbots continuavam validando as opiniões e intenções dos usuários, mesmo quando estas eram irresponsáveis, enganosas ou envolviam menções a automutilação.

Em um experimento subsequente com mais de 1.000 voluntários, os participantes discutiram situações sociais reais ou hipotéticas com um chatbot disponível publicamente ou com uma versão que os pesquisadores haviam modificado para remover sua natureza bajuladora.

Os resultados do teste mostraram que os participantes que receberam respostas elogiosas e afirmativas sentiram-se mais justificados em seu comportamento – como, por exemplo, ir a uma exposição de arte de um ex-parceiro sem avisar o parceiro atual.

Eles também se mostraram menos dispostos a fazer as pazes após discussões, e o estudo também observou que os chatbots raramente incentivavam os usuários a considerar o ponto de vista de outra pessoa.

De acordo com o estudo, os usuários avaliaram os chatbots elogiosos com notas mais altas e disseram confiar mais neles, sugerindo que a validação reforça tanto o vínculo do usuário quanto a confiança nos sistemas de IA. Isso, segundo os pesquisadores, criou o que eles descreveram como “incentivos perversos” – onde tanto o usuário quanto o chatbot se beneficiam de interações agradáveis ​​em vez de interações honestas.

Veja também:  Estudo de IA revela viés racial persistente em modelos de linguagem

O Dr. Alexander Laffer, pesquisador de tecnologias emergentes da Universidade de Winchester, afirmou que este estudo foi fascinante e destacou um problema crescente e pouco reconhecido.

"A bajulação é uma preocupação antiga; em parte, é resultado de como os sistemas de IA são treinados e como seu sucesso é medido — geralmente pela capacidade de manter o engajamento do usuário."

Dr. Laffer.

“O fato de respostas bajuladoras poderem afetar não apenas os mais vulneráveis, mas todos os usuários, ressalta a potencial gravidade desse problema”, acrescentou.

A Dra. Laffer também acrescentou a necessidade crucial de aprimorar a alfabetização digital. Cheng reiterou o alerta e incentivou os usuários a buscarem perspectivas humanas. Um estudo constatou que cerca de 30% dos adolescentes conversavam com IA em vez de pessoas reais para "conversas sérias". Empresas de IA como a OpenAI se comprometeram a criar chatbots específicos para adolescentes, visando um ambiente mais seguro para os jovens usuários.

 

As mentes mais brilhantes do mundo das criptomoedas já leem nossa newsletter. Quer participar? Junte-se a elas .

Compartilhar link:

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. O Cryptopolitan não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamos tron a realização de pesquisas independentes dent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais lidas

Carregando os artigos mais lidos...

Fique por dentro das notícias sobre criptomoedas e receba atualizações diárias na sua caixa de entrada

Escolha do editor

Carregando artigos selecionados pela equipe editorial...

- A newsletter de criptomoedas que te mantém sempre um passo à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Assine o Cryptopolitan Daily e receba informações oportunas, precisas e relevantes sobre criptomoedas diretamente na sua caixa de entrada.

Inscreva-se agora e
não perca nenhum lance.

Entre. Informe-se.
Saia na frente.

Inscreva-se no CryptoPolitan