Your bank is using your money. You’re getting the scraps.WATCH FREE

Vencedores do Prêmio Nobel unem-se a políticos e cientistas em apelo urgente para restringir os usos perigosos da IA

Neste post:

  • Mais de 200 líderes, incluindo 10 vencedores do Prêmio Nobel e os principais pesquisadores de IA, estão pressionando por limites internacionais vinculativos para usos perigosos da IA ​​até 2026.
  • As proibições propostas incluem armas autônomas letais, inteligência artificial autorreplicante e inteligência artificial em guerra nuclear.
  • O apelo global, apresentado na Assembleia Geral da ONU, destaca que os compromissos voluntários das empresas de IA são insuficientes.

A campanha para pressionar os governos a concordarem com limites internacionais vinculativos para conter o abuso da tecnologia de IA foi intensificada e chegou ao nível da ONU, com mais de 200 políticos, cientistas e líderes de opinião, incluindo 10 vencedores do Prêmio Nobel, alertando sobre os riscos da tecnologia.

A declaração, divulgada na segunda-feira na abertura da Semana de Alto Nível da Assembleia Geral das Nações Unidas, está sendo chamada de Apelo Global por Linhas Vermelhas para a IA. Ela argumenta que a “trajetória atual da IA ​​apresenta perigos semdent” e exige que os países trabalhem em direção a um acordo internacional sobre restrições claras e verificáveis ​​até o final de 2026.

Vencedores do Prêmio Nobel lideram apelo na ONU.

O apelo foi revelado pela jornalista e ganhadora do Prêmio Nobel da Paz, Maria Ressa, que usou seu discurso de abertura para instar os governos a "prevenirem riscos universalmente inaceitáveis" e defio que a IA jamais deveria ser autorizada a fazer.

Entre os signatários da declaração estão laureados com o Prêmio Nobel de Química, Economia, Paz e Física, além de autores consagrados como Stephen Fry e Yuval Noah Harari. A ex-dent irlandesa Mary Robinson e o ex-dent colombiano Juan Manuel Santos, também ganhador do Prêmio Nobel da Paz, assinaram o documento.

Geoffrey Hinton e Yoshua Bengio, popularmente conhecidos como os "padrinhos da IA" e vencedores do Prêmio Turing, amplamente considerado o Prêmio Nobel da ciência da computação, também assinaram a declaração.

Veja também:  BYD freia planos de produção e expansão na China em meio a vendas lentas

“Este é um ponto de virada”, disse Harari. “Os humanos precisam concordar com limites claros para a IA antes que a tecnologia transforme a sociedade além da nossa compreensão e destrua os fundamentos da nossa humanidade.”

Esforços anteriores para alertar sobre a IA frequentemente se concentraram em compromissos voluntários de empresas e governos. Em março de 2023, mais de mil líderes do setor de tecnologia, incluindo Elon Musk, pediram uma pausa no desenvolvimento de sistemas de IA poderosos. Poucos meses depois, executivos de IA, como Sam Altman, da OpenAI, e , do Google DeepMind, assinaram uma breve declaração equiparando os riscos existenciais da IA ​​aos de uma guerra nuclear e pandemias.

A inteligência artificial alimenta o medo de riscos existenciais e sociais

Na semana passada, a inteligência artificial foi implicada em casos que variam desde o suicídio de um adolescente até relatos de seu uso na manipulação do debate público.

Os signatários do apelo argumentam que esses riscos imediatos podem em breve ser eclipsados ​​por ameaças maiores. Comentaristas alertaram que sistemas avançados de IA podem levar ao desemprego em massa, pandemias criadas em laboratório oumatic dos direitos humanos se não forem controlados.

Alguns dos itens da lista de embargo incluem a proibição de armas autônomas letais, a proibição de sistemas de IA autorreplicantes e a garantia de que a IA nunca seja usada em guerra nuclear.

“É do nosso interesse comum vital impedir que a IA cause danos graves e potencialmente irreversíveis à humanidade, e devemos agir de acordo”, disse Ahmet Üzümcü, ex-diretor-geral da Organização para a Proibição de Armas Químicas, que ganhou o Prêmio Nobel da Paz de 2013 sob sua liderança.

Veja também:  Desenvolvedor de GTA 3 compartilha comomatic nasceu a icônica câmera

Mais de 60 organizações da sociedade civil assinaram a carta, incluindo o think tank britânico Demos e o Instituto de Segurança e Governança de IA de Pequim. A iniciativa está sendo coordenada por três organizações sem fins lucrativos: o Centro para IA Compatível com Humanos da Universidade da Califórnia, Berkeley; a Future Society; e o Centro Francês para Segurança de IA.

Apesar das recentes promessas de segurança feitas por empresas como a OpenAI e a Anthropic, que concordaram em submeter seus modelos a testes governamentais antes do lançamento, pesquisas sugerem que as empresas estão cumprindo apenas cerca de metade de seus compromissos.

“Não podemos nos dar ao luxo de esperar”, disse Ressa. “Precisamos agir antes que a IA avance além da nossa capacidade de controlá-la.”

Não se limite a ler notícias sobre criptomoedas. Compreenda-as. Assine nossa newsletter. É grátis.

Compartilhar link:

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais lidas

Carregando os artigos mais lidos...

Fique por dentro das notícias sobre criptomoedas e receba atualizações diárias na sua caixa de entrada

Escolha do editor

Carregando artigos selecionados pela equipe editorial...

- A newsletter de criptomoedas que te mantém sempre um passo à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Assine o Cryptopolitan Daily e receba informações oportunas, precisas e relevantes sobre criptomoedas diretamente na sua caixa de entrada.

Inscreva-se agora e
não perca nenhum lance.

Entre. Informe-se.
Saia na frente.

Inscreva-se no CryptoPolitan