Se a intenção for errada, a inteligência artificial pode se tornar uma ferramenta letal nas mãos da pessoa errada. Imagine que você está de plantão noturno e recebe uma ligação de casa informando que há um homem armado à sua porta. E toda a sua família está dentro de casa. Quais seriam seus sentimentos e quem você preferiria que estivesse lá? Um criminoso ou um policial?
O mesmo acontece com a IA, que já está batendo à nossa porta, ou melhor, já entrou em nossas casas. Todos sabemos o que é o ChatGPT, certo? Mas existe um lado sombrio dessa mesma IA usada no ChatGPT, que é mais sinistro do que imaginamos. Bem-vindos à dark web. Existem inúmeras ferramentas de inteligência artificial semelhantes ao ChatGPT, mas criadas para atender ao lado mais nefasto do mercado. Ferramentas como BadGPT e FraudGPT, para citar algumas. Segundo especialistas, o cibercrime, especificamente o phishing por e-mail, continuará aumentando nos próximos anos.

O que são exatamente BadGPTs e similares?
Basicamente, são chatbots com inteligência artificial, mas não aqueles que você usa diariamente para suas tarefas rotineiras. São versões sem censura, sem qualquer mecanismo de controle, disponíveis para clientes que desejam utilizá-los conforme suas necessidades. Geralmente, são usados para enviar e-mails de phishing ou desenvolver malware para ataques cibernéticos, auxiliando hackers e facilitando suas atividades criminosas. Com o surgimento desses serviços, as empresas estão em alerta máximo e correm riscos maiores do que nunca.
Recentemente, pesquisadores da Universidade de Indiana descobriram mais de 200 serviços de hackers que utilizam modelos de linguagem complexos, também conhecidos como inteligência artificial, e que já estão disponíveis no mercado. O primeiro desses serviços surgiu por volta dos primeiros meses de 2023 e, a partir daí, não houve mais volta, com o número desses serviços aumentando exponencialmente.

A maioria dessas ferramentas que atendem ao mercado negro usa modelos de IA de código aberto ou versões crackeadas de ferramentas como a Anthropic. Uma técnica chamada injeção de prompt é usada para sequestrar esses modelos e burlar seus filtros de segurança, permitindo que hackers os utilizem sem qualquer verificação de segurança.
Um porta-voz da OpenAI afirmou que a empresa se esforça ao máximo para proteger seus produtos contra o uso para fins maliciosos e que,
“Estamos sempre trabalhando em maneiras de tornar nossos sistemas mais robustos contra esse tipo de abuso.”
Fonte: WSJ
O impacto negativo do BadGPT e como se prevenir
Você pode estar se perguntando se essas táticas são realmente eficazes e se conseguem convencer alguém. A realidade é que e-mails fraudulentos criados com essas ferramentas são difíceis de detectar, e os hackers treinam seus modelos com base em técnicas de detecção obtidas a partir de softwares de segurança cibernética.
Recentemente, em entrevista à govttech, Jeff Brown, CISO (diretor de segurança da informação) do estado de Connecticut, expressou sua preocupação com o uso dos bots BadGPT e FraudGPT em crimes cibernéticos e afirmou que houve um aumento significativo nas fraudes por e-mail.

Os indivíduos podem se proteger desses ataques sendo extremamente cuidadosos ao compartilhar suas informações pessoais com qualquer pessoa. Não compartilhe suas informações abertamente, seja com uma pessoa ou em qualquer site, a menos que seja extremamente necessário, e mesmo assim com cautela. Sempre investigue o site antes de divulgar suas informações, pois sites maliciosos agora parecem muito profissionais sem qualquer indício de serem maliciosos.

