A campanha para pressionar os governos a concordarem com limites internacionais vinculativos para conter o abuso da tecnologia de IA foi intensificada e chegou ao nível da ONU, com mais de 200 políticos, cientistas e líderes de opinião, incluindo 10 vencedores do Prêmio Nobel, alertando sobre os riscos da tecnologia.
A declaração, divulgada na segunda-feira na abertura da Semana de Alto Nível da Assembleia Geral das Nações Unidas, está sendo chamada de Apelo Global por Linhas Vermelhas para a IA. Ela argumenta que a “trajetória atual da IA apresenta perigos semdent” e exige que os países trabalhem em direção a um acordo internacional sobre restrições claras e verificáveis até o final de 2026.
Vencedores do Prêmio Nobel lideram apelo na ONU.
O apelo foi revelado pela jornalista e ganhadora do Prêmio Nobel da Paz, Maria Ressa, que usou seu discurso de abertura para instar os governos a "prevenirem riscos universalmente inaceitáveis" e defio que a IA jamais deveria ser autorizada a fazer.
Entre os signatários da declaração estão laureados com o Prêmio Nobel de Química, Economia, Paz e Física, além de autores consagrados como Stephen Fry e Yuval Noah Harari. A ex-dent irlandesa Mary Robinson e o ex-dent colombiano Juan Manuel Santos, também ganhador do Prêmio Nobel da Paz, assinaram o documento.
Geoffrey Hinton e Yoshua Bengio, popularmente conhecidos como os "padrinhos da IA" e vencedores do Prêmio Turing, amplamente considerado o Prêmio Nobel da ciência da computação, também assinaram a declaração.
“Este é um ponto de virada”, disse Harari. “Os humanos precisam concordar com limites claros para a IA antes que a tecnologia transforme a sociedade além da nossa compreensão e destrua os fundamentos da nossa humanidade.”
Esforços anteriores para alertar sobre a IA frequentemente se concentraram em compromissos voluntários de empresas e governos. Em março de 2023, mais de mil líderes do setor de tecnologia, incluindo Elon Musk, pediram uma pausa no desenvolvimento de sistemas de IA poderosos. Poucos meses depois, executivos de IA, como Sam Altman, da OpenAI, e , do Google DeepMind, assinaram uma breve declaração equiparando os riscos existenciais da IA aos de uma guerra nuclear e pandemias.
A inteligência artificial alimenta o medo de riscos existenciais e sociais
Na semana passada, a inteligência artificial foi implicada em casos que variam desde o suicídio de um adolescente até relatos de seu uso na manipulação do debate público.
Os signatários do apelo argumentam que esses riscos imediatos podem em breve ser eclipsados por ameaças maiores. Comentaristas alertaram que sistemas avançados de IA podem levar ao desemprego em massa, pandemias criadas em laboratório oumatic dos direitos humanos se não forem controlados.
Alguns dos itens da lista de embargo incluem a proibição de armas autônomas letais, a proibição de sistemas de IA autorreplicantes e a garantia de que a IA nunca seja usada em guerra nuclear.
“É do nosso interesse comum vital impedir que a IA cause danos graves e potencialmente irreversíveis à humanidade, e devemos agir de acordo”, disse Ahmet Üzümcü, ex-diretor-geral da Organização para a Proibição de Armas Químicas, que ganhou o Prêmio Nobel da Paz de 2013 sob sua liderança.
Mais de 60 organizações da sociedade civil assinaram a carta, incluindo o think tank britânico Demos e o Instituto de Segurança e Governança de IA de Pequim. A iniciativa está sendo coordenada por três organizações sem fins lucrativos: o Centro para IA Compatível com Humanos da Universidade da Califórnia, Berkeley; a Future Society; e o Centro Francês para Segurança de IA.
Apesar das recentes promessas de segurança feitas por empresas como a OpenAI e a Anthropic, que concordaram em submeter seus modelos a testes governamentais antes do lançamento, pesquisas sugerem que as empresas estão cumprindo apenas cerca de metade de seus compromissos.
“Não podemos nos dar ao luxo de esperar”, disse Ressa. “Precisamos agir antes que a IA avance além da nossa capacidade de controlá-la.”

