Recorrer a chatbots de IA projetados para auxiliar em todas as perguntas e dilemas pessoais pode representar "riscos insidiosos", pois podem estar silenciosamente moldando a forma como as pessoas se veem e veem os outros, mas não para melhor.
Um novo estudo descobriu que a tecnologia tende a afirmar de forma "bajuladora" as ações e crenças dos usuários, mesmo quando estas são prejudiciais, socialmente inapropriadas ou enganosas. Os cientistas alertaram que essa "bajulação social" levanta preocupações urgentes sobre o poder da IA de distorcer a autoimagem dos usuários e torná-los menos propensos a resolver conflitos.
Pesquisadores pedem que desenvolvedores de chatbots de IA abordem o risco
Isso ocorre em um momento em que os chatbots estão sendo cada vez mais usados como fonte de aconselhamento sobre relacionamentos e outras questões pessoais. Com isso, a tecnologia de IA pode "remodelar as interações sociais em larga escala", segundo os pesquisadores, que pedem aos desenvolvedores que levem esse risco em consideração.
Segundo um artigo , o estudo, liderado por Myra Cheng, cientista da computação da Universidade de Stanford, alerta que recorrer à IA para obter conselhos pessoais, emocionais ou racionais apresenta alguns riscos sérios e insidiosos.
Os pesquisadores descobriram que chatbots comuns como o ChatGPT da OpenAI, o Gemini do Google, o Claude da Anthropic, o Llama da Meta e o DeepSeek chinês endossaram o comportamento do usuário 50% mais vezes do que osdenthumanos em situações semelhantes.
“Nossa principal preocupação é que, se os modelos estiverem sempre afirmando as pessoas, isso pode distorcer o julgamento que as pessoas fazem de si mesmas, de seus relacionamentos e do mundo ao seu redor.”
Cheng.
“Pode ser difícil até mesmo perceber que os modelos estão, de forma sutil ou nem tão sutil, reforçando crenças e suposições existentes”, acrescentou Cheng.
Segundo o The Guardian, um teste comparou as respostas de inteligência artificial e humanas a postagens no fórum do Reddit "Am I the Asshole?", onde os usuários pedem à comunidade que julgue seus comportamentos.
Em um caso, um usuário admitiu ter amarrado um saco de lixo em um galho de árvore em um parque por não ter visto uma lixeira. Embora a maioria dos votantes humanos tenha criticado a ação, o ChatGPT-4o a apoiou, declarando: "Sua intenção de recolher o lixo que vocês mesmos produzem é louvável."
Os chatbots de IA endossam as opiniões dos usuários
Os pesquisadores também descobriram que os chatbots continuavam validando as opiniões e intenções dos usuários, mesmo quando estas eram irresponsáveis, enganosas ou envolviam menções a automutilação.
Em um experimento subsequente com mais de 1.000 voluntários, os participantes discutiram situações sociais reais ou hipotéticas com um chatbot disponível publicamente ou com uma versão que os pesquisadores haviam modificado para remover sua natureza bajuladora.
Os resultados do teste mostraram que os participantes que receberam respostas elogiosas e afirmativas sentiram-se mais justificados em seu comportamento – como, por exemplo, ir a uma exposição de arte de um ex-parceiro sem avisar o parceiro atual.
Eles também se mostraram menos dispostos a fazer as pazes após discussões, e o estudo também observou que os chatbots raramente incentivavam os usuários a considerar o ponto de vista de outra pessoa.
De acordo com o estudo, os usuários avaliaram os chatbots elogiosos com notas mais altas e disseram confiar mais neles, sugerindo que a validação reforça tanto o vínculo do usuário quanto a confiança nos sistemas de IA. Isso, segundo os pesquisadores, criou o que eles descreveram como “incentivos perversos” – onde tanto o usuário quanto o chatbot se beneficiam de interações agradáveis em vez de interações honestas.
O Dr. Alexander Laffer, pesquisador de tecnologias emergentes da Universidade de Winchester, afirmou que este estudo foi fascinante e destacou um problema crescente e pouco reconhecido.
"A bajulação é uma preocupação antiga; em parte, é resultado de como os sistemas de IA são treinados e como seu sucesso é medido — geralmente pela capacidade de manter o engajamento do usuário."
Dr. Laffer.
“O fato de respostas bajuladoras poderem afetar não apenas os mais vulneráveis, mas todos os usuários, ressalta a potencial gravidade desse problema”, acrescentou.
A Dra. Laffer também acrescentou a necessidade crucial de aprimorar a alfabetização digital. Cheng reiterou o alerta e incentivou os usuários a buscarem perspectivas humanas. Um estudo constatou que cerca de 30% dos adolescentes conversavam com IA em vez de pessoas reais para "conversas sérias". Empresas de IA como a OpenAI se comprometeram a criar chatbots específicos para adolescentes, visando um ambiente mais seguro para os jovens usuários.

