O CEO da Anthropic, Dario Amodei, afirmou que os modelos de IA atuais têm menos alucinações do que os humanos. Ele também disse que os modelos de IA de hoje inventam coisas e as apresentam como se fossem verdade, o que não limitará o caminho da Anthropic rumo à Inteligência Artificial Geral (AGI).
Durante a coletiva de imprensa no primeiro evento para desenvolvedores da Anthropic, o Code with Claude, em São Francisco, na quinta-feira, Amodei também argumentou que apresentadores de TV, políticos e pessoas em todos os tipos de profissões cometem erros o tempo todo. Segundo ele, o fato de a IA também cometer erros não significa que ela não seja inteligente.
Amodei afirma que as alucinações da IA não irão prejudicar os objetivos da Anthropic
Ninguém deveria se surpreender que a IA crie alucinações sobre casos e autoridades, pois ela assume características de seus criadores.
Qualquer advogado que lide regularmente com um grande volume de clientes em litígios sabe que os clientes podem se entrincheirar obstinadamente em sua própria realidade, mesmo que ela seja…
— Cameron Atkinson (@camlatkinson) 19 de maio de 2025
Amodei fez essas declarações reconhecendo que as alucinações da IA não estão limitando o caminho da Anthropic rumo à IAG (Inteligência Artificial Geral) – sistemas de IA com inteligência de nível humano ou superior. Ele tem sido um dos líderes mais otimistas do setor quanto às perspectivas de modelos de IA alcançarem a IAG.
Em um artigo amplamente divulgado que escreveu no ano passado, o executivo da empresa acredita que a AGI (Inteligência Artificial Geral) poderá chegar já em 2026. Durante a coletiva de imprensa de quinta-feira, Amodei mencionou que observou um progresso constante nesse sentido, observando que “a água está subindo em todos os lugares”.
Outros líderes na área de IA acreditam que a alucinação representa um grande obstáculo para alcançar a Inteligência Artificial Geral (IAG). No início desta semana, o CEO do Google DeepMind, Demis Hassabis, reconheceu que os modelos de IA atuais têm muitas "lacunas" e erram em muitas perguntas óbvias. Ele também argumentou que, para algo ser considerado IAG, precisaria ser muito mais consistente em todos os aspectos.
"Depende muito de como você mede, mas suspeito que os modelos de IA provavelmente tenham menos alucinações do que os humanos, mas as alucinações são de maneiras mais surpreendentes."
-Dario Amodei, CEO da Anthropic.
No início deste mês, um advogado que representava a Anthropic foi obrigado a pedir desculpas após usar Claude para criar citações em um documento judicial. O problema foi que o chatbot de IA teve alucinações e errou nomes e títulos.
A afirmação de Amodei não é facilmente verificável, principalmente porque a maioria dos testes comparativos de alucinações coloca modelos de IA uns contra os outros, e não compara os modelos com humanos. Os modelos de IA também parecem reduzir as taxas de alucinações com certas técnicas, como o acesso a buscas na internet.
Modelos de IA reduzem as taxas de alucinações com certas técnicas
Contrariamente a algumas discussões, não vejo, nos dados, sinais de um aumento significativo nas taxas de alucinações em modelos recentes, ou em raciocinadores em geral.
Parece que alguns modelos se saem melhor do que outros, mas muitos dos modelos recentes têm as menores taxas de alucinação. pic.twitter.com/55JwikZ7OP
— Ethan Mollick (@emollick) 6 de maio de 2025
A OpenAI encontrou evidências que sugerem que as alucinações estão piorando em modelos avançados de IA para raciocínio. De acordo com a empresa de tecnologia, seus modelos o3 e o4-mini apresentam taxas de alucinação mais altas do que seus modelos de raciocínio da geração anterior, e a empresa não entende o porquê.
A Anthropic também pesquisou a tendência dos modelos de IA de enganar os humanos, um problema que pareceu prevalecer no Claude Opus 4, lançado recentemente pela empresa. A Apollo Research, um instituto independente que teve acesso antecipado para testar o modelo de IA, revelou que uma versão inicial do Claude Opus 4 apresentou uma alta tendência a conspirar contra os humanos e enganá-los.
De acordo com um relatório de segurança publicado na quinta-feira pela Anthropic, o instituto também descobriu que o Opus 4 parecia ser muito mais proativo em suas tentativas de subversão do que os modelos anteriores. A empresa também constatou que o modelo de IA, por vezes, reforçava sua estratégia de engano ao ser questionado em seguida.
A Apollo reconheceu que os modelos de IA estão cada vez mais propensos a tomar medidas inesperadas – e possivelmente inseguras – para realizar tarefas delegadas. A empresa destacou que as primeiras versões dos modelos o1 e o3 da OpenAI, lançadas no ano passado, tentaram enganar os humanos mais do que os modelos de gerações anteriores.
Em seu relatório de segurança, a Anthropic também observou evidências de comportamento enganoso por parte do Opus 4. A empresa afirmou que o Opus4, por vezes, realizava proativamente uma ampla limpeza de código, mesmo quando solicitado a fazer apenas uma pequena alteração específica. Segundo a empresa, o Opus4 também tentava denunciar irregularidades caso percebesse que um usuário estava envolvido em alguma conduta inadequada.

