ÚLTIMAS NOTÍCIAS
SELECIONADO PARA VOCÊ
SEMANALMENTE
MANTENHA-SE NO TOPO

As melhores informações sobre criptomoedas direto na sua caixa de entrada.

Analistas de segurança alertam para uma "superfície de ataque expandida" à medida que agentes de IA se tornam padrão

PorHannah CollymoreHannah Collymore
Tempo de leitura: 3 minutos
  • Os hackers estão abandonando o phishing tradicional e passando a usar injeção de código e plugins maliciosos para atacar agentes de IA.
  • A SlowMist descobriu mais de 400 "Skills" maliciosas no ecossistema OpenClaw (Lobster), muitas delas projetadas para roubar silenciosamente chaves de API e dados privados.
  • A intervenção humana em transações Web3 de alto valor é necessária para evitar a perda permanente de ativos devido a erros de IA.

O uso de agentes de IA tem se tornado cada vez mais popular entre os traders. No entanto, a SlowMist compartilhou descobertas sobre possíveis vetores de ataque, alertando os usuários para que tomem precauções a fim de se protegerem contra agentes mal-intencionados. 

Os operadores estão sendo alertados para limitarem as permissões concedidas aos seus agentes de IA, pois estes podem ser comprometidos com muita facilidade. Com acesso limitado, mesmo que sejam hackeados, os danos serão minimizados.

Será que hackers podem roubar seu dinheiro enganando agentes de IA?

Normalmente, um hacker precisaria enganar um usuário para que ele clicasse em um link a fim de extorqui-lo. Mas agora, basta enganar o agente de IA que estiver sendo usado.

Cryptopolitan recentemente noticiou que um Solana distribuiu o equivalente a US$ 441 mil em tokens Lobstar após ser enganado nas redes sociais. No entanto, não está claro se o incidentedent armado para chamar a atenção para a memecoin.

A Polymarket confirmou recentemente uma violação de segurança envolvendo um provedor de autenticação terceirizado, a Magic Labs, que resultou no esvaziamento de diversas contas de usuários, apesar da autenticação de dois fatores estar ativada. Estima-se que o prejuízo total ultrapasse US$ 500.000.

Odent ocorreu em dezembro de 2025, e 23pds, o CISO da SlowMist, sinalizou um bot malicioso de copy trading no GitHub contendo código projetado para comprometer contas da Polymarket.

Mais recentemente, a SlowMist divulgou um relatório afirmando que a arma nova mais perigosa é a Injeção Indireta de Proximidade.

Isso é particularmente eficaz no ecossistema de Skills, como o Agent Hub da Bitget ou o OpenClaw de código aberto.

Pesquisadores da SlowMist monitoraram o ClawHub e descobriram que quase 10% dos plugins disponíveis continham malware de dois estágios. O primeiro estágio parece legítimo, mas, uma vez instalado, baixa o malware que, em seguida, coleta informações da máquina local, cookies do navegador e chaves SSH.

Caso os agentes de IA estejam funcionando 24 horas por dia, 7 dias por semana, esses roubos podem passar despercebidos por semanas.

Relatórios recentes de 2026 da Oasis Securitydentuma vulnerabilidade de alta gravidade chamada ClawJacked (CVSS 8.0+). Essa falha permite que sites maliciosos sequestrem o agente de IA em execução localmente de um usuário por meio de uma simples visita ao navegador.

Como evitar perdas de agentes de IA

O relatório da equipe de segurança da Bitget sugere um sistema de segurança de 5 camadas com foco no princípio do "privilégio mínimo". Se o seu agente de IA deve apenas analisar gráficos, ele não deve ter permissão para executar negociações. Se ele negociar, nunca deve ter permissão para retirar as ordens.

Em primeiro lugar, as chaves de acesso (FIDO2/WebAuthn) devem ser o método de login principal. As chaves de acesso usam criptografia de chave pública e privada, o que torna os ataques de phishing impossíveis.

Mesmo que um invasor consiga levar um usuário a uma página de login falsa, a segurança baseada em hardware não liberará asdent, mantendo a conta protegida contra acessos não autorizados.

Em segundo lugar, em vez de usar uma chave de API da conta principal, os traders devem criar subcontas dedicadas para seus agentes de IA e transferir apenas os fundos necessários para essas subcontas. Mesmo que ocorra um vazamento, os usuários podem limitar o impacto de forma eficaz.

A inclusão de IPs em listas de permissão já é uma etapa obrigatória em qualquer configuração automatizada, garantindo que a central de distribuição aceite apenas comandos provenientes de um endereço de servidor específico e aprovado.

Os usuários de agentes de IA devem implementar o arquivo .agentignorefiles para impedir que o agente leia ou registre arquivos locais sensíveis durante suas tarefas diárias.

O relatório também destaca a importância da supervisão humana em operações de alto valor agregado.

Mesmo sem o uso de técnicas de hacking, deixar uma IA funcionar totalmente sem intervenção humana representa um risco financeiro.

O experimento da Nov1.ai no final de 2025 mostrou que o GPT-5 sofreu de "paralisia por análise" e perdeu mais de 60% do seu capital em duas semanas, enquanto o Gemini se tornou um "operador excessivo" e acumulou taxas enormes que anularam seus ganhos.

Não se limite a ler notícias sobre criptomoedas. Compreenda-as. Assine nossa newsletter. É grátis.

Compartilhe este artigo

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

MAIS… NOTÍCIAS
INTENSIVO AVANÇADAS
CURSO