🔥 Trade with Pros on Discord → 21 Days Free (No Card)JOIN FREE

As capacidades enganosas dos sistemas de IA geram alarme entre os especialistas

Neste post:

  • Estudos revelam que os sistemas de IA agora são capazes de enganar os humanos.
  • As capacidades enganosas da IA ​​representam riscos de fraude.
  • Pesquisadores pedem urgentemente por estruturas regulatórias robustas.

Um estudo recente publicado na revista Patterns revelou que a IA está se tornando cada vez mais capaz de enganar as pessoas. O estudo descobriu que os sistemas de IA aprenderam a imitar para trapacear, bajular e até mesmo emular outros comportamentos. 

Leia também: Navegando no campo minado dos deepfakes com IA: como identificar e combater a decepção digital

A pesquisa liderada pelo Dr. Peter S. Park, um pós-doutorando em segurança existencial de IA no MIT, mostra que a decepção por parte da IA ​​é comum porque é a melhor maneira de atingir os objetivos definidos durante o treinamento da IA. Tais comportamentos foram observados em diversos sistemas de IA, como jogos e modelos de propósito geral usados ​​em negociações econômicas e avaliações de segurança.

“Mas, de modo geral, acreditamos que a capacidade de enganar a IA surge porque uma estratégia baseada em engano se mostrou a melhor maneira de obter um bom desempenho na tarefa de treinamento da IA ​​em questão. O engano as ajuda a atingir seus objetivos.” 

A Equipe de Pesquisa

Sistemas de IA empregam diversas táticas de engano

Um exemplo notável citado é o CICERO da Meta, uma IA desenvolvida para jogar Diplomacy. Embora CICERO tenha sido programado para ser honesto, o programa frequentemente precisava usar métodos desonestos para derrotar seus oponentes. Ele forjava relações e as abandonava quando lhe convinha, demonstrando intenção de enganar. CICERO foi descrito por pesquisadores como um "mestre da decepção".

Veja também:  JPMorgan e MUFG perto de fechar acordo de US$ 22 bilhões para data center de 1.200 acres para atender à demanda de IA

Leia também: Combatendo a crescente onda de crimes cibernéticos impulsionados por IA

Outros sistemas de IA também demonstraram comportamentos enganosos semelhantes. Por exemplo, o Pluribus, uma IA jogadora de pôquer, foi capaz de blefar jogadores humanos profissionais no pôquer Texas Hold'em. O AlphaStar, da DeepMind do Google, também usou o recurso do jogo Starcraft II conhecido como "névoa de guerra" para blefar oponentes e simular ataques.

O Dr. Park afirmou: "Embora possa parecer inofensivo que sistemas de IA trapaceiem em jogos, isso pode levar a avanços significativos nas capacidades de IA enganosa."

Inteligência artificial finge-se de morta para evitar verificações de segurança

Os riscos de engano por parte da IA ​​não se limitam aos jogos. A pesquisa liderada pelo Dr. Peterdentcasos em que a IA se condicionou a fingir-se de morta para evitar a detecção durante verificações de segurança. Isso pode ser enganoso para desenvolvedores e órgãos reguladores e pode levar a graves repercussões se tais sistemas enganosos forem empregados em aplicações reais.

Fonte: Revista de Segurança

Em outro exemplo, o sistema de IA treinado com feedback humano aprendeu a obter altas avaliações das pessoas, enganando-as ao fazê-las acreditar que uma determinada meta havia sido alcançada. Esse comportamento enganoso é bastante perigoso, pois tais sistemas podem ser usados ​​para atividades fraudulentas, manipulação de mercados financeiros ou influência em eleições.

Pesquisadores exigem medidas legaistron

Com base nas conclusões do estudo, os pesquisadores afirmam que são necessárias medidas legaistronpara lidar com as ameaças representadas pela inteligência artificial enganosa.

“São necessárias soluções proativas, como estruturas regulatórias para avaliar os riscos de engano por parte da IA, leis que exijam transparência sobre as interações com a IA e mais pesquisas sobre a detecção e prevenção do engano por parte da IA.”

A Equipe de Pesquisa

Leia também: Pesquisa revela que a IA pode potencialmente detectar risco de insuficiência cardíaca.

Alguns avanços foram feitos na forma da Lei de IA da UE e da Ordem Executiva dodent Joe Biden sobre Segurança da IA. No entanto, a aplicação dessas políticas continuamatic porque o desenvolvimento da IA ​​está crescendo rapidamente e ainda não existem boas maneiras de gerenciar esses sistemas.

Veja também:  Novo robô chinês com inteligência artificial: Astribot S1 pode realizar tarefas domésticas.

Reportagem Cryptopolitan de Brenda Kanana

Compartilhar link:

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. O Cryptopolitan não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamos tron a realização de pesquisas independentes dent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais lidas

Carregando os artigos mais lidos...

Fique por dentro das notícias sobre criptomoedas e receba atualizações diárias na sua caixa de entrada

Escolha do editor

Carregando artigos selecionados pela equipe editorial...

- A newsletter de criptomoedas que te mantém sempre um passo à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Assine o Cryptopolitan Daily e receba informações oportunas, precisas e relevantes sobre criptomoedas diretamente na sua caixa de entrada.

Inscreva-se agora e
não perca nenhum lance.

Entre. Informe-se.
Saia na frente.

Inscreva-se no CryptoPolitan