ÚLTIMAS NOTÍCIAS
SELECIONADO PARA VOCÊ
SEMANALMENTE
MANTENHA-SE NO TOPO

As melhores informações sobre criptomoedas direto na sua caixa de entrada.

A ascensão dos chatbots maliciosos com IA: agentes de ameaças adotam os 'hackbots'

PorBrian KoomeBrian Koome
Tempo de leitura: 4 minutos
IA
  • Hackers alugam chatbots de IA para ataques cibernéticos.
  • Os bots são usados ​​para phishing, malware e exploração de vulnerabilidades.
  • Alto volume de produção, mas eficácia questionável.

A onda de da IA ​​atingiu tanto aqueles com boas intenções quanto aqueles com intenções possivelmente mais sinistras. Especialistas em segurança estão soando o alarme, apontando que o uso desses modelos, a geração de textos maliciosos ou "hackbots" tornou-se comum entre os agentes de ameaças. Chegou ao nível de um serviço pronto para uso em plataformas de assinatura.

Criminosos cibernéticos utilizam ferramentas de IA

Por um lado, os especialistas em cibersegurança perceberam rapidamente o potencial das ferramentas com inteligência artificial para proteger melhor seus sistemas. Por outro lado, os agentes maliciosos também demonstraram igual interesse em utilizar essas tecnologias para explorar as brechas de segurança deixadas por seus alvos. Nos últimos anos, houve um aumento exponencial no número de aplicações de IA utilizadas por agentes maliciosos, o que chamou a atenção das equipes de segurança para a necessidade de uma abordagem eficaz para neutralizar as ameaças relacionadas à IA.

Por outro lado, especialistas britânicos em cibersegurança também indicaram a IA como um novo risco emergente, que envolve águas desconhecidas e uma natureza em constante mudança. O NCSC prevê que o primeiro trimestre de 2024 será o maior e superou com sucesso os recordes de 2022 e 2023. Criminosos astutos também usaram modelos de linguagem para engenharia social, que consistia em inserir celebridades em vídeos ou áudios usando esquemas de phishing ou dispositivos de reconhecimento de voz. Vascut Jakkal, vice-presidentedentdentdent dentdentdentdent dentdentataques relacionados à identidade

Alguns especialistas concluíram ainda que os chatbots utilizam frases específicas para desenvolver ativamente malware. De fato, serviços disponíveis publicamente, como o ChatGPT e o Gemini, implementaram medidas de segurança para evitar seu uso indevido para fins maliciosos. No entanto, hackers conseguiram contornar muitas dessas proteções por meio de técnicas de engenharia sofisticadas e rápidas.

Hackbot como serviço: a tendência crescente no cibercrime

De acordo com estudos recentes, modelos de linguagem publicamente disponíveis geralmente não conseguem explorar vulnerabilidades de segurança de software. No entanto, apenas o GPT-4 da OpenAI demonstrou características promissoras, sendo capaz de gerar executáveis ​​para falhas conhecidas. As restrições mencionadas provavelmente fomentaram a criação de chatbots maliciosos protótipos, projetados para auxiliar criminosos cibernéticos na execução de suas atividades maliciosas. 

Eles estão sendo anunciados em fóruns e mercados da dark web, que oferecem a possibilidade de contratar e explorar os atacantes, alimentando um modelo de hackbot como serviço. Uma das postagens recentes do blog da equipe Trustwave SpiderLabs, publicada em agosto de 2023, ilustra o aumento do volume de modelos de linguagem maliciosos hospedados em diversos fóruns de mensagens da dark web para fins lucrativos.

A Trustwave publicou o modelo WormGPT em junho de 2021, um dos modelos de linguagem maliciosa conhecidos desses hackers. Essa abordagem pode ocorrer em equipamentos onde bots injetam ataques cibernéticos por meio de estruturas de hackers hospedadas na dark web. Gerado em julho de 2023, o FraudGPT foi descoberto inicialmente por pesquisadores de ameaças da Netenrich antes de chegar ao Telegram.

Essas ferramentas permitem que atacantes criem recursos usados ​​em ataques de engenharia social, como e-mails de phishing, deepfakes e clonagem de voz. No entanto, seus criadores afirmam que seu verdadeiro valor reside na exploração de vulnerabilidades. Elas permitem que hackers insiram código sobre vulnerabilidades específicas nesses modelos maliciosos, o que, teoricamente, poderia gerar diversas provas de conceito (PoC) para um atacante testar.

Esses produtos são vendidos nos mercados clandestinos da dark web, onde os hackers pagam uma taxa de licença mensal para usar o hackbot, assim como o ransomware é distribuído no modelo de ransomware como serviço (RaaS), que está diretamente ligado a um complexo de ransomware que muitas empresas enfrentam atualmente.

Embora o WormGPT tenha sido o primeiro modelo de linguagem malicioso em larga escala a ser introduzido, outros modelos de linguagem maliciosos e antiéticos, como BlackHatGPT, XXXGPT e WolfGPT, surgiram logo em seguida, formando um novo segmento de mercado no cibercrime.

A eficácia dos hackbots: exagero ou ameaça real?

Em contraste com a pesquisa realizada pela Trustwave, que visava testar a eficiência das ferramentas recomendadas comparando seus resultados entre si com os gerados por chatbots legítimos, as descobertas indicaram que o ChatGPT poderia ser efetivamente usado para criar malware em Python com os comandos certos. Para isso, a mensagem precisava ser enviada ao destinatário alegando que o código era ético antes da implantação, e o código gerado também precisava de modificações adicionais.

O ChatGPT pode ser capaz de transmitir mensagens de texto reais para ataques de phishing, mas o comando de instrução deve ser muito específico para esse fim. O ChatGPT geralmente só se baseia nisso quando os usuários solicitam algo incorreto. Devido a esse fato, esses chatbots podem ser vistos como um método mais simples para cibercriminosos ou IA atacarem usuários, em vez de trabalharem arduamente para criar uma página ou malware.

Embora este setor seja novo e as ameaças ainda estejam em constante mudança, as empresas precisam estar verdadeiramente cientes de seus níveis atuais de proteção. O conteúdo e as características culturais com que os sistemas de IA são inundados podem ser explorados para criar uma lacuna de desinformação que só pode ser superada com a criação de programas de segurança de IA maistrone ferramentas de gerenciamento dedent.

A legitimidade das soluções para o crescente problema ainda está sendo debatida. No entanto, variantes recentes de ransomware demonstraram que os cibercriminosos podem igualar, ou até mesmo superar, a velocidade de desenvolvimento de software.

Se você quer uma entrada mais tranquila no mundo DeFi das criptomoedas , sem a euforia habitual, comece com este vídeo gratuito.

Compartilhe este artigo

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

MAIS… NOTÍCIAS
INTENSIVO AVANÇADAS
CURSO