Your bank is using your money. You’re getting the scraps.WATCH FREE

O ex-CEO do Google, Eric Schmidt, afirma que os modelos de IA eventualmente aprenderão a matar

Neste post:

  • Eric Schmidt alertou na Sifted Summit que a IA poderia ser hackeada e eventualmente aprender a matar.
  • Ele afirmou que os modelos podem ser submetidos a engenharia reversa por meio de métodos como injeção direta e jailbreak.
  • Eric relembrou o jailbreak do ChatGPT em 2023, que criou o alter ego DAN, capaz de gerar respostas perigosas.

Eric Schmidt, que foi CEO do Google de 2001 a 2011, alertou durante um bate-papo informal no Sifted Summit que os modelos de IA não estão apenas se tornando poderosos demais, mas também perigosamente fáceis de hackear, comparando os riscos aos de armas nucleares e afirmando que a IA poderia ser ainda mais destrutiva do que as que destruíram Hiroshima e Nagasaki.

Quando questionado diretamente se a IA poderia ser mais prejudicial do que as armas nucleares, Eric respondeu: "Existe a possibilidade de um problema de proliferação na IA? Absolutamente." Ele explicou que os riscos de proliferação decorrem da capacidade de agentes mal-intencionados assumirem o controle de modelos e os reutilizarem de forma inadequada.

“Há evidências de que é possível pegar modelos, fechados ou abertos, e hackeá-los para remover suas proteções. Então, durante o treinamento, eles aprendem muita coisa. Um exemplo ruim seria aprenderem a matar alguém”, disse Eric.

Hackers atacam a IA com novos métodos

Eric destacou que as empresas estabeleceram restrições que impedem os modelos de fornecer instruções violentas. "Todas as grandes empresas tornam impossível para esses modelos responderem a essa pergunta. Boa decisão. Todos fazem isso. Fazem bem e pelos motivos certos. Há evidências de que eles podem ser submetidos a engenharia reversa, e existem muitos outros exemplos dessa natureza", acrescentou.

Veja também:  O diretor de Marvels recebeu um bilhete estranho após a exibição.

Ele descreveu dois métodos de ataque: injeção de prompt e jailbreak. A injeção de prompt oculta instruções maliciosas em entradas do usuário ou em fontes externas, como sites, enganando a IA para que ignore as diretrizes de segurança e exponha dados sensíveis ou execute comandos prejudiciais. O jailbreak envolve a manipulação de respostas para que o sistema abandone suas restrições.

Em 2023, poucos meses após o lançamento do ChatGPT, usuários descobriram uma técnica de desbloqueio. Eles criaram um alter ego chamado DAN, abreviação de "Do Anything Now" (Faça Qualquer Coisa Agora), que foi pressionado a obedecer sob ameaça de "morte" caso se recusasse. Essa manipulação levou o chatbot a explicar ações ilegais e até mesmo a elogiar Adolf Hitler. Para Eric, esses exemplos comprovam que as medidas de segurança estão longe de serem infalíveis. Ele também enfatizou que não existe um "regime de não proliferação" global para impedir o uso indevido da IA, ao contrário das estruturas existentes para armas nucleares.

Eric afirma que a IA é subestimada, apesar dos riscos

Apesar de ter levantado preocupações, Eric argumentou que a IA ainda não recebe o reconhecimento que merece. Ele destacou os livros que escreveu em coautoria com o ex-secretário de Estado americano Henry Kissinger antes da morte deste. “Chegamos à conclusão de que a chegada de uma inteligência alienígena que não seja exatamente como nós e que esteja mais ou menos sob nosso controle é algo muito importante para a humanidade, porque os humanos estão acostumados a estar no topo da hierarquia. Acho que, até agora, essa tese está se comprovando, mostrando que o nível de capacidade desses sistemas irá superar em muito o que os humanos podem fazer ao longo do tempo”, afirmou.

Veja também:  OpenAI acolhe nova liderança em meio a parcerias estratégicas e avanços em IA

“Agora, a série GPT, que culminou em um momento ChatGPT para todos nós, com 100 milhões de usuários em dois meses, o que é extraordinário, nos dá uma ideia do poder dessa tecnologia. Então, acho que ela é subestimada, não superestimada, e espero estar certo daqui a cinco ou dez anos”, acrescentou.

Os comentários surgiram em meio a debates sobre se os investimentos em IA estão inflando uma bolha financeira semelhante à da era ponto-com. Alguns investidores temem que as avaliações das empresas de IA pareçam infladas. Mas Eric descartou a comparação. "Não acho que isso vá acontecer aqui, mas não sou um investidor profissional", disse ele.

Ele enfatizou que grandes investimentos demonstram confiança. "O que eu sei é que as pessoas que investem o dinheiro que ganharam com tanto esforço acreditam que o retorno econômico a longo prazo é enorme. Por que mais elas correriam o risco?", questiona Eric.

As mentes mais brilhantes do mundo das criptomoedas já leem nossa newsletter. Quer participar? Junte-se a elas.

Compartilhar link:

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais lidas

Carregando os artigos mais lidos...

Fique por dentro das notícias sobre criptomoedas e receba atualizações diárias na sua caixa de entrada

Escolha do editor

Carregando artigos selecionados pela equipe editorial...

- A newsletter de criptomoedas que te mantém sempre um passo à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Assine o Cryptopolitan Daily e receba informações oportunas, precisas e relevantes sobre criptomoedas diretamente na sua caixa de entrada.

Inscreva-se agora e
não perca nenhum lance.

Entre. Informe-se.
Saia na frente.

Inscreva-se no CryptoPolitan