Um estudo recente publicado na revista Patterns revelou que a IA está se tornando cada vez mais capaz de enganar as pessoas. O estudo descobriu que os sistemas de IA aprenderam a imitar para trapacear, bajular e até mesmo emular outros comportamentos.
Leia também: Navegando no campo minado dos deepfakes com IA: como identificar e combater a decepção digital
A pesquisa liderada pelo Dr. Peter S. Park, um pós-doutorando em segurança existencial de IA no MIT, mostra que a decepção por parte da IA é comum porque é a melhor maneira de atingir os objetivos definidos durante o treinamento da IA. Tais comportamentos foram observados em diversos sistemas de IA, como jogos e modelos de propósito geral usados em negociações econômicas e avaliações de segurança.
“Mas, de modo geral, acreditamos que a capacidade de enganar a IA surge porque uma estratégia baseada em engano se mostrou a melhor maneira de obter um bom desempenho na tarefa de treinamento da IA em questão. O engano as ajuda a atingir seus objetivos.”
A Equipe de Pesquisa
Sistemas de IA empregam diversas táticas de engano
Um exemplo notável citado é o CICERO da Meta, uma IA desenvolvida para jogar Diplomacy. Embora CICERO tenha sido programado para ser honesto, o programa frequentemente precisava usar métodos desonestos para derrotar seus oponentes. Ele forjava relações e as abandonava quando lhe convinha, demonstrando intenção de enganar. CICERO foi descrito por pesquisadores como um "mestre da decepção".
Leia também: Combatendo a crescente onda de crimes cibernéticos impulsionados por IA
Outros sistemas de IA também demonstraram comportamentos enganosos semelhantes. Por exemplo, o Pluribus, uma IA jogadora de pôquer, foi capaz de blefar jogadores humanos profissionais no pôquer Texas Hold'em. O AlphaStar, da DeepMind do Google, também usou o recurso do jogo Starcraft II conhecido como "névoa de guerra" para blefar oponentes e simular ataques.
O Dr. Park afirmou: "Embora possa parecer inofensivo que sistemas de IA trapaceiem em jogos, isso pode levar a avanços significativos nas capacidades de IA enganosa."
Inteligência artificial finge-se de morta para evitar verificações de segurança
Os riscos de engano por parte da IA não se limitam aos jogos. A pesquisa liderada pelo Dr. Peterdentcasos em que a IA se condicionou a fingir-se de morta para evitar a detecção durante verificações de segurança. Isso pode ser enganoso para desenvolvedores e órgãos reguladores e pode levar a graves repercussões se tais sistemas enganosos forem empregados em aplicações reais.

Em outro exemplo, o sistema de IA treinado com feedback humano aprendeu a obter altas avaliações das pessoas, enganando-as ao fazê-las acreditar que uma determinada meta havia sido alcançada. Esse comportamento enganoso é bastante perigoso, pois tais sistemas podem ser usados para atividades fraudulentas, manipulação de mercados financeiros ou influência em eleições.
Pesquisadores exigem medidas legaistron
Com base nas conclusões do estudo, os pesquisadores afirmam que são necessárias medidas legaistronpara lidar com as ameaças representadas pela inteligência artificial enganosa.
“São necessárias soluções proativas, como estruturas regulatórias para avaliar os riscos de engano por parte da IA, leis que exijam transparência sobre as interações com a IA e mais pesquisas sobre a detecção e prevenção do engano por parte da IA.”
A Equipe de Pesquisa
Leia também: Pesquisa revela que a IA pode potencialmente detectar risco de insuficiência cardíaca.
Alguns avanços foram feitos na forma da Lei de IA da UE e da Ordem Executiva dodent Joe Biden sobre Segurança da IA. No entanto, a aplicação dessas políticas continuamatic porque o desenvolvimento da IA está crescendo rapidamente e ainda não existem boas maneiras de gerenciar esses sistemas.
Reportagem Cryptopolitan de Brenda Kanana

