Eric Schmidt, que foi CEO do Google de 2001 a 2011, alertou durante um bate-papo informal no Sifted Summit que os modelos de IA não estão apenas se tornando poderosos demais, mas também perigosamente fáceis de hackear, comparando os riscos aos de armas nucleares e afirmando que a IA poderia ser ainda mais destrutiva do que as que destruíram Hiroshima e Nagasaki.
Quando questionado diretamente se a IA poderia ser mais prejudicial do que as armas nucleares, Eric respondeu: "Existe a possibilidade de um problema de proliferação na IA? Absolutamente." Ele explicou que os riscos de proliferação decorrem da capacidade de agentes mal-intencionados assumirem o controle de modelos e os reutilizarem de forma inadequada.
“Há evidências de que é possível pegar modelos, fechados ou abertos, e hackeá-los para remover suas proteções. Então, durante o treinamento, eles aprendem muita coisa. Um exemplo ruim seria aprenderem a matar alguém”, disse Eric.
Hackers atacam a IA com novos métodos
Eric destacou que as empresas estabeleceram restrições que impedem os modelos de fornecer instruções violentas. "Todas as grandes empresas tornam impossível para esses modelos responderem a essa pergunta. Boa decisão. Todos fazem isso. Fazem bem e pelos motivos certos. Há evidências de que eles podem ser submetidos a engenharia reversa, e existem muitos outros exemplos dessa natureza", acrescentou.
Ele descreveu dois métodos de ataque: injeção de prompt e jailbreak. A injeção de prompt oculta instruções maliciosas em entradas do usuário ou em fontes externas, como sites, enganando a IA para que ignore as diretrizes de segurança e exponha dados sensíveis ou execute comandos prejudiciais. O jailbreak envolve a manipulação de respostas para que o sistema abandone suas restrições.
Em 2023, poucos meses após o lançamento do ChatGPT, usuários descobriram uma técnica de desbloqueio. Eles criaram um alter ego chamado DAN, abreviação de "Do Anything Now" (Faça Qualquer Coisa Agora), que foi pressionado a obedecer sob ameaça de "morte" caso se recusasse. Essa manipulação levou o chatbot a explicar ações ilegais e até mesmo a elogiar Adolf Hitler. Para Eric, esses exemplos comprovam que as medidas de segurança estão longe de serem infalíveis. Ele também enfatizou que não existe um "regime de não proliferação" global para impedir o uso indevido da IA, ao contrário das estruturas existentes para armas nucleares.
Eric afirma que a IA é subestimada, apesar dos riscos
Apesar de ter levantado preocupações, Eric argumentou que a IA ainda não recebe o reconhecimento que merece. Ele destacou os livros que escreveu em coautoria com o ex-secretário de Estado americano Henry Kissinger antes da morte deste. “Chegamos à conclusão de que a chegada de uma inteligência alienígena que não seja exatamente como nós e que esteja mais ou menos sob nosso controle é algo muito importante para a humanidade, porque os humanos estão acostumados a estar no topo da hierarquia. Acho que, até agora, essa tese está se comprovando, mostrando que o nível de capacidade desses sistemas irá superar em muito o que os humanos podem fazer ao longo do tempo”, afirmou.
“Agora, a série GPT, que culminou em um momento ChatGPT para todos nós, com 100 milhões de usuários em dois meses, o que é extraordinário, nos dá uma ideia do poder dessa tecnologia. Então, acho que ela é subestimada, não superestimada, e espero estar certo daqui a cinco ou dez anos”, acrescentou.
Os comentários surgiram em meio a debates sobre se os investimentos em IA estão inflando uma bolha financeira semelhante à da era ponto-com. Alguns investidores temem que as avaliações das empresas de IA pareçam infladas. Mas Eric descartou a comparação. "Não acho que isso vá acontecer aqui, mas não sou um investidor profissional", disse ele.
Ele enfatizou que grandes investimentos demonstram confiança. "O que eu sei é que as pessoas que investem o dinheiro que ganharam com tanto esforço acreditam que o retorno econômico a longo prazo é enorme. Por que mais elas correriam o risco?", questiona Eric.

