FREE REPORT: A New Way to Earn Passive Income in 2025 DOWNLOAD

CEO antrópico diz que os modelos de IA “provavelmente” alucinam menos que os humanos

Nesta postagem:

  • O Antrópico, CEO Dario Amodei, disse que os modelos atuais de IA alucinam menos do que os humanos.
  • Ele também observou que as alucinações de IA não são uma limitação ao caminho do Antrópico para a AGI.
  • O CEO da empresa também estádent de que os modelos de IA apresentam coisas falsas como fatos podem ser um problema.

O CEO antrópico Dario Amodei disse que os modelos atuais de IA alucinam menos do que os humanos. Ele também disse que os modelos de IA de hoje estão inventando as coisas e apresentando -as como se fossem verdadeiras, o que não limitará o caminho da Anthrópica em direção à AGI.

Durante o briefing da imprensa no primeiro evento do Anthropic, Code with Claude, em São Francisco, na quinta -feira, Amodei também argumentou que as emissoras de TV, políticos e humanos em todos os tipos de profissões cometem erros o tempo todo. Segundo ele, o fato de a IA cometer erros também não é uma batida em sua inteligência. 

Amodei diz que as alucinações da IA ​​não vão descarrilar os objetivos do Antrópico

Amodei fez as observações ao reconhecer que as alucinações de IA não estão limitando o caminho do AGI-sistemas de IA com inteligência em nível humano ou melhor. Ele tem sido um dos líderes mais otimistas do setor nas perspectivas de modelos de IA alcançando a AGI.

Em um artigo amplamente divulgado que ele escreveu no ano passado, o executivo da empresa acredita que a AGI poderia chegar até 2026. Durante o briefing da imprensa de quinta -feira, Amodei mencionou que viu progressos constantes para esse fim, observando que a " água está subindo em todos os lugares".

Outros líderes do espaço da IA ​​acreditam que a alucinação apresenta um grande obstáculo para alcançar a AGI. No início desta semana, o CEO do Google Deepmind, Demis Hassabis, reconheceu que os modelos de IA de hoje têm muitos "buracos" e erraram muitas perguntas óbvias. Ele também argumentou que, para ele, para que algo seja chamado de AGI, seria necessário ser muito mais consistente em geral.

"Depende realmente de como você o mede, mas suspeito que os modelos de IA provavelmente alucinem menos que os seres humanos, mas eles alucinam de maneiras mais surpreendentes".

-Dario amodei, CEO da Anthrópica.

No início deste mês, um advogado que representa antropia foi forçado a se desculpar depois de usar Claude para criar citações em um documento judicial. O problema era que o AI Chatbot alucinou e errou nomes e títulos.

Veja também  Trump diz que tem muitas pessoas ricas interessadas em comprar Tiktok

A reivindicação de Amodei não é facilmente verificável, principalmente porque a maioria dos benchmarks de alucinação Pit IA se modifica; Eles não comparam modelos com os humanos. Os modelos de IA também parecem reduzir as taxas de alucinação com certas técnicas, como obter acesso a pesquisas na Web.

Os modelos de IA reduzem as taxas de alucinação com certas técnicas

O OpenAI encontrou evidências sugerindo que as alucinações estão piorando nos modelos avançados de IA de raciocínio. Segundo a empresa de tecnologia, seus modelos O3 e O4-Mini têm taxas de alucinação mais altas do que seus modelos de raciocínio de geração anterior, e a empresa não entende o porquê.

A Anthrópica também pesquisou a tendência de os modelos de IA enganarem os seres humanos, um problema que parecia predominante no recentemente lançado Claude Opus 4.

De acordo com um relatório de segurança antrópico publicado na quinta -feira, o instituto também descobriu que o Opus 4 parecia ser muito mais proativo em suas tentativas de subversão do que os modelos anteriores. A empresa também descobriu que o modelo de IA às vezes dobrava seu engano quando perguntas de acompanhamento.

A Apollo reconheceu que os modelos de IA estão se tornando mais propensos a tomar etapas inesperadas - e possivelmente inseguras - para alcançar tarefas delegadas. A empresa destacou que as primeiras versões dos modelos O1 e O3 da OpenAI lançados no ano passado tentaram enganar os seres humanos mais do que os modelos de geração anterior.

Veja também  Ilya Sutskever assume o comando de superintelligência segura, enquanto os saltos brutos são enviados para meta

Em seu relatório de segurança, a Antrópica também observou evidências de comportamento enganoso do Opus 4. A empresa disse que o Opus4 às vezes fazia uma ampla limpeza de algum código, mesmo quando solicitado a fazer apenas uma pequena e específica alteração. Segundo a empresa, o Opus4 também tentaria apito se percebesse um usuário envolvido em irregularidades.

Suas notícias criptográficas merecem atenção - o fio de diferença -chave coloca você em mais de 250 sites superiores

Compartilhar link:

Isenção de responsabilidade. As informações fornecidas não são conselhos de negociação. Cryptopolitan.com não se responsabiliza por quaisquer investimentos feitos com base nas informações fornecidas nesta página. Recomendamos tron dent e /ou consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais Lidos

Carregando artigos mais lidos...

Fique por dentro das notícias sobre criptografia, receba atualizações diárias em sua caixa de entrada

Escolha do editor

Carregando artigos da Escolha do Editor...

- O boletim informativo criptográfico que o mantém à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Inscreva -se no Cryptopolitan diariamente e fique com as informações de criptografia oportunas, nítidas e relevantes diretamente para sua caixa de entrada.

Junte -se agora e
nunca perca um movimento.

Entre. Obtenha os fatos.
Siga em frente.

Assine o CryptoPolitan