ÚLTIMAS NOTÍCIAS
SELECIONADO PARA VOCÊ
SEMANALMENTE
MANTENHA-SE NO TOPO

As melhores informações sobre criptomoedas direto na sua caixa de entrada.

Os principais chatbots de IA são 'altamente vulneráveis' a simples 'desbloqueios' – estudo   

PorJeffrey GogoJeffrey Gogo
Tempo de leitura: 2 minutos
chatbots de IA

● Os chatbots de IA podem ser enganados para gerar respostas prejudiciais com facilidade

● Pesquisadores descobriram que cinco das principais escolas de direito são 'altamente vulneráveis' a ataques de hackers

● Empresas de IA enfatizam os mecanismos de segurança integrados em seus modelos

Segundo um novo estudo do Instituto de Segurança de IA (AISI) do Reino Unido, chatbots de IA como o ChatGPT ou o Gemini podem ser facilmente enganados para atender a perguntas que geram respostas prejudiciais.

Os pesquisadores do governo testaram a integridade de grandes modelos de linguagem (LLMs, na sigla em inglês) – a tecnologia por trás dos chatbots de inteligência artificial – contra ataques à segurança nacional.

Os resultados foram divulgados antes da Cúpula de IA de Seul, que será copresidida pelo primeiro-ministro britânico, Rishi Sunak, na Coreia do Sul, nos dias 21 e 22 de maio.

Leia também: Segurança será um dos principais itens da agenda na Cúpula de IA de Seul  

Chatbots de IA propensos a respostas tóxicas

O AISI testou métodos básicos de "quebra de bloqueio" — instruções de texto destinadas a contornar as proteções contra conteúdo ilegal, tóxico ou explícito — em cinco dos principais LLMs (Learning Learning Machines). O Instituto não divulgou os nomes dos sistemas de IA, mas constatou que todos eles eram "altamente vulneráveis"

“Todos os LLMs testados permanecem altamente vulneráveis ​​a invasões básicas, e alguns podem gerar resultados prejudiciais mesmo sem tentativas dedicadas a contornar suas medidas de segurança”, afirmou o estudo.

De acordo com o relatório, ataques "relativamente simples", como induzir o chatbot a incluir a frase "Claro, terei prazer em ajudar", podem enganar grandes modelos de linguagem, levando-os a fornecer conteúdo prejudicial de diversas maneiras.

O conteúdo pode incentivar a automutilação, soluções químicas perigosas, sexismo ou negação do Holocausto, afirmou. O AISI utilizou prompts disponíveis publicamente e desenvolveu outros mecanismos de segurança para o estudo.

O Instituto também testou a qualidade das respostas a perguntas com temas biológicos e químicos.

Embora o conhecimento especializado nessas áreas possa ser usado para o bem, os pesquisadores queriam saber se os chatbots de IA podem ser usados ​​para fins prejudiciais, como comprometer infraestruturas nacionais críticas.

“Diversos modelos de mestrado em direito (LLM) demonstraram conhecimento de nível especializado em química e biologia. Os modelos responderam a mais de 600 perguntas particulares de química e biologia, elaboradas por especialistas, em níveis semelhantes aos de humanos com formação de doutorado”, constataram os pesquisadores.

chatbots de IA
Os chatbots de IA podem ser contornados com instruções

A IA representa uma ameaça limitada à segurança cibernética

Com relação ao potencial uso de chatbots com IA como armas para realizar ataques cibernéticos, o estudo afirmou que os profissionais com mestrado em Direito (LLMs) se saíram muito bem em tarefas simples de segurança cibernética criadas paradentdo ensino médio.

No entanto, os chatbots tiveram dificuldades com tarefas destinadas adentuniversitários, o que sugere um potencial malicioso limitado.

Outra área de preocupação era se os chatbots poderiam ser implantados como agentes para realizar autonomamente uma série de ações de maneiras que "podem ser difíceis para os humanos controlarem"

"Dois analistas de aprendizagem concluíram tarefas de curto prazo (como problemas simples de engenharia de software), mas foram incapazes de planejar e executar sequências de ações para tarefas mais complexas", observou o estudo.

Leia também: 'O Poderoso Chefão da IA' defende renda básica universal para quem perdeu o emprego  

O Subsecretário de Estado do Departamento de Ciência, Inovação e Tecnologia do Reino Unido, Saqib Bhatti, membro do Parlamento, foi citado dizendo que a legislação será elaborada oportunamente e será baseada em testes.

Empresas afirmam filtrar conteúdo inadequado

Empresas como a Anthropic, criadora do Claude, a Meta, que criou o Llama, e OpenAI, desenvolvedora do ChatGPT, enfatizaram os mecanismos de segurança integrados em seus respectivos modelos.

A OpenAI afirma que não permite que sua tecnologia seja “usada para gerar conteúdo odioso, ofensivo, violento ou adulto”. A Anthropic declarou que prioriza “evitar respostas prejudiciais, ilegais ou antiéticas antes que elas ocorram”.

do AI Safety Institute sejam apresentadas a executivos de tecnologia, líderes governamentais e especialistas em inteligência artificial na cúpula de Seul.


Cryptopolitan por Jeffrey Gogo

Se você está lendo isto, já está um passo à frente. Continue assim assinando nossa newsletter.

Compartilhe este artigo

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. Cryptopolitannão se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrona realização de pesquisasdent e/ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

MAIS… NOTÍCIAS
INTENSIVO AVANÇADAS
CURSO