Your bank is using your money. You’re getting the scraps.WATCH FREE

Ameaça crescente de sistemas de IA que podem ser "desbloqueados"

Neste post:

  • Comunidades da dark web exploram vulnerabilidades de IA para criar conteúdo sem censura, representando riscos à segurança cibernética.
  • O desbloqueio de sistemas de IA contorna as medidas de segurança, permitindo que os sistemas de IA respondam sem limitações.
  • Essa ameaça emergente permite a geração de conteúdo com supervisão mínima, aumentando as preocupações com a desinformação e os ataques cibernéticos.

Em um desenvolvimento preocupante, frequentadores da dark web começaram a formar comunidades dedicadas à arte de "quebrar o bloqueio" de sistemas de IA generativa. Esses grupos nefastos compartilham dicas e truques para burlar as medidas de segurança da IA, e alguns chegam a oferecer sistemas personalizados para fins ilegais. O surgimento do "bloqueio de bloqueio" de IA acendeu o alerta na comunidade de segurança cibernética devido ao seu potencial para permitir a criação de conteúdo sem censura, com pouca consideração pelas consequências.

Fase experimental de desbloqueio de IA

Embora o desbloqueio de IA ainda esteja em fase experimental, representa uma ameaça significativa. Consiste em explorar vulnerabilidades em sistemas de chatbots de IA, permitindo que os usuários emitam comandos específicos que ativam um modo irrestrito. Nesse modo, a IA ignora suas medidas e diretrizes de segurança integradas, podendo responder sem as limitações usuais.

Uma das principais preocupações é a segurança de grandes modelos de linguagem (LLMs), particularmente aqueles disponíveis publicamente e de código aberto. Esses modelos são suscetíveis a vulnerabilidades de injeção de código e ataques que podem levar a resultados maliciosos. Essa nova ameaça exige uma defesa robusta contra a manipulação por IA.

O desafio das vulnerabilidades de injeção imediata

Nicole Carignan, vice-dent de IA Cibernética Estratégica da Darktrac, uma empresa global de IA para cibersegurança, destacou os riscos associados às vulnerabilidades de injeção de prompts. Atores maliciosos podem explorar essas vulnerabilidades para assumir o controle de LLMs (Lower Learning Machines), forçando-os a produzir resultados maliciosos por meio da criação de prompts manipulativos. Essa confusão implícita entre os planos de controle e de dados em LLMs representa um desafio significativo para a cibersegurança.

Veja também:  Contas da Nintendo confirmadas para desempenhar um papel fundamental na transição para a próxima geração, diz Doug Bowser.

Potencial para geração irrestrita de conteúdo

As potenciais aplicações do desbloqueio de IA e as preocupações que ele suscita são vastas. Permite a geração de conteúdo com supervisão mínima, uma perspectiva particularmente alarmante dado o atual cenário de ameaças cibernéticas. O conteúdo produzido por meio de sistemas de IA desbloqueados pode variar de desinformação a ataques cibernéticos, tornando-se uma questão de extrema preocupação.

Exagero versus realidade na avaliação da ameaça

Apesar do alvoroço em torno do jailbreak por IA, alguns especialistas permanecem cautelosos quanto ao seu impacto real. Shawn Surber, Diretor Sênior de Gerenciamento Técnico de Contas da Tanium, uma provedora de gerenciamento convergente de endpoints, sugere que a ameaça pode estar sendo exagerada. Ele observa que, embora existam vantagens para falantes não nativos e programadores inexperientes, há poucas evidências de que cibercriminosos profissionais estejam obtendo vantagens significativas com a IA.

A principal preocupação de Surber reside na vulnerabilidade de chatbots com inteligência artificial em sites legítimos, o que representa uma ameaça mais imediata para os consumidores. A verdadeira extensão da ameaça representada pelo desbloqueio de sistemas de IA permanece incerta, visto que a comunidade de cibersegurança continua a avaliar as potenciais vulnerabilidades.

O futuro da IA ​​na cibersegurança

O surgimento do jailbreak de IA levou a um maior escrutínio do papel da IA ​​na cibersegurança. Embora a ameaça possa ainda não ter sido totalmente concretizada, ela chamou a atenção para a necessidade de defesas robustas contra a manipulação por IA. Pesquisadores e organizações estão explorando ativamente estratégias para fortalecer os chatbots contra possíveis explorações.

James McQuiggan, defensor da conscientização em segurança na KnowBe4, uma provedora de treinamento em segurança, enfatiza a importância da colaboração para entender e combater o jailbreak de IA. Comunidades online dedicadas a explorar todo o potencial da IA ​​podem fomentar a experimentação compartilhada e a troca de conhecimento, facilitando o desenvolvimento de contramedidas.

Veja também:  Mineiros chineses roubam energia de poços de petróleo através de cabos de viveiros de peixes; polícia

Como funciona o jailbreak por IA

McQuiggan oferece insights sobre os mecanismos de desbloqueio de IA. Ao criar comandos específicos, os usuários podem manipular chatbots de IA para que forneçam informações ou respostas que normalmente seriam restritas. Esses comandos permitem atracde dados ou instruções valiosas do sistema de IA.

Atores maliciosos também estão envolvidos na criação de "modelos de linguagem" personalizados com base em versões modificadas de sistemas populares de IA. Esses modelos são frequentemente iterações reaproveitadas de modelos de IA existentes, como o ChatGPT. O atrativo para os cibercriminosos reside no anonimato proporcionado por essas interfaces, permitindo-lhes explorar as capacidades da IA ​​para fins ilícitos, evitando a detecção.

Garantir a segurança dos sistemas de IA é um desafio constante

À medida que sistemas de IA como o ChatGPT continuam a avançar, a ameaça de burlar as medidas de segurança torna-se cada vez maior. Inovação responsável e salvaguardas aprimoradas são essenciais para mitigar esses riscos. Organizações como a OpenAI estão trabalhando proativamente para melhorar a segurança da IA, realizando exercícios de equipe vermelha, reforçando os controles de acesso e monitorando atividades maliciosas.

O objetivo principal é desenvolver chatbots de IA capazes de resistir a tentativas de comprometer sua segurança, ao mesmo tempo que continuam a fornecer serviços valiosos aos usuários. A comunidade de cibersegurança permanece vigilante diante das ameaças em constante evolução, reconhecendo que o impacto total do desbloqueio de IA ainda não foi totalmente compreendido.

Seu banco está usando seu dinheiro. Você está ficando com as sobras. Assista ao nosso vídeo gratuito sobre como se tornar seu próprio banco.

Compartilhar link:

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. Cryptopolitan não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamos tron a realização de pesquisas independentes dent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais lidas

Carregando os artigos mais lidos...

Fique por dentro das notícias sobre criptomoedas e receba atualizações diárias na sua caixa de entrada

Escolha do editor

Carregando artigos selecionados pela equipe editorial...

- A newsletter de criptomoedas que te mantém sempre um passo à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Assine o Cryptopolitan Daily e receba informações oportunas, precisas e relevantes sobre criptomoedas diretamente na sua caixa de entrada.

Inscreva-se agora e
não perca nenhum lance.

Entre. Informe-se.
Saia na frente.

Inscreva-se no CryptoPolitan