O CEO antrópico Dario Amodei disse que os modelos atuais de IA alucinam menos do que os humanos. Ele também disse que os modelos de IA de hoje estão inventando as coisas e apresentando -as como se fossem verdadeiras, o que não limitará o caminho da Anthrópica em direção à AGI.
Durante o briefing da imprensa no primeiro evento do Anthropic, Code with Claude, em São Francisco, na quinta -feira, Amodei também argumentou que as emissoras de TV, políticos e humanos em todos os tipos de profissões cometem erros o tempo todo. Segundo ele, o fato de a IA cometer erros também não é uma batida em sua inteligência.
Amodei diz que as alucinações da IA não vão descarrilar os objetivos do Antrópico
Ninguém deve se surpreender que a AI alucina casos e autoridades porque a IA assume características de seus criadores.
Qualquer advogado que lida regularmente com clientes de litígios em volume sabe que os clientes podem se consagrar teimosamente em sua própria realidade, mesmo que seja ...
- Cameron Atkinson (@camlatkinson) 19 de maio de 2025
Amodei fez as observações ao reconhecer que as alucinações de IA não estão limitando o caminho do AGI-sistemas de IA com inteligência em nível humano ou melhor. Ele tem sido um dos líderes mais otimistas do setor nas perspectivas de modelos de IA alcançando a AGI.
Em um artigo amplamente divulgado que ele escreveu no ano passado, o executivo da empresa acredita que a AGI poderia chegar até 2026. Durante o briefing da imprensa de quinta -feira, Amodei mencionou que viu progressos constantes para esse fim, observando que a " água está subindo em todos os lugares".
Outros líderes do espaço da IA acreditam que a alucinação apresenta um grande obstáculo para alcançar a AGI. No início desta semana, o CEO do Google Deepmind, Demis Hassabis, reconheceu que os modelos de IA de hoje têm muitos "buracos" e erraram muitas perguntas óbvias. Ele também argumentou que, para ele, para que algo seja chamado de AGI, seria necessário ser muito mais consistente em geral.
"Depende realmente de como você o mede, mas suspeito que os modelos de IA provavelmente alucinem menos que os seres humanos, mas eles alucinam de maneiras mais surpreendentes".
-Dario amodei, CEO da Anthrópica.
No início deste mês, um advogado que representa antropia foi forçado a se desculpar depois de usar Claude para criar citações em um documento judicial. O problema era que o AI Chatbot alucinou e errou nomes e títulos.
A reivindicação de Amodei não é facilmente verificável, principalmente porque a maioria dos benchmarks de alucinação Pit IA se modifica; Eles não comparam modelos com os humanos. Os modelos de IA também parecem reduzir as taxas de alucinação com certas técnicas, como obter acesso a pesquisas na Web.
Os modelos de IA reduzem as taxas de alucinação com certas técnicas
Ao contrário de algumas discussões, simplesmente não vejo sinais de um grande aumento nas taxas de alucinação para modelos recentes ou para os raciocínio em geral, nos dados.
Parece que alguns modelos se saem melhor que outros, mas muitos dos modelos recentes têm as taxas de alucinação mais baixas. pic.twitter.com/55jwikz7op
- Ethan Mollick (@emollick) 6 de maio de 2025
O OpenAI encontrou evidências sugerindo que as alucinações estão piorando nos modelos avançados de IA de raciocínio. Segundo a empresa de tecnologia, seus modelos O3 e O4-Mini têm taxas de alucinação mais altas do que seus modelos de raciocínio de geração anterior, e a empresa não entende o porquê.
A Anthrópica também pesquisou a tendência de os modelos de IA enganarem os seres humanos, um problema que parecia predominante no recentemente lançado Claude Opus 4.
De acordo com um relatório de segurança antrópico publicado na quinta -feira, o instituto também descobriu que o Opus 4 parecia ser muito mais proativo em suas tentativas de subversão do que os modelos anteriores. A empresa também descobriu que o modelo de IA às vezes dobrava seu engano quando perguntas de acompanhamento.
A Apollo reconheceu que os modelos de IA estão se tornando mais propensos a tomar etapas inesperadas - e possivelmente inseguras - para alcançar tarefas delegadas. A empresa destacou que as primeiras versões dos modelos O1 e O3 da OpenAI lançados no ano passado tentaram enganar os seres humanos mais do que os modelos de geração anterior.
Em seu relatório de segurança, a Antrópica também observou evidências de comportamento enganoso do Opus 4. A empresa disse que o Opus4 às vezes fazia uma ampla limpeza de algum código, mesmo quando solicitado a fazer apenas uma pequena e específica alteração. Segundo a empresa, o Opus4 também tentaria apito se percebesse um usuário envolvido em irregularidades.
Suas notícias criptográficas merecem atenção - o fio de diferença -chave coloca você em mais de 250 sites superiores