Your bank is using your money. You’re getting the scraps.WATCH FREE

Especialistas renomados em IA instam governos e empresas a investirem 33% de seus orçamentos em segurança da IA

Neste post:

  • Pesquisadores de IA defendemtrona alocação de 33% do financiamento de P&D em IA para garantir a segurança e a ética das tecnologias emergentes.
  • Uma carta, endossada por vencedores do Prêmio Turing e um laureado com o Prêmio Nobel, faz um apelo contundente para que a responsabilidade legal seja imposta aos sistemas de IA por potenciais danos.
  • A comunidade global de IA destaca a questão urgente da falta de regulamentações abrangentes de segurança em IA, enquanto líderes de todo o mundo se reúnem na Cúpula de Segurança em IA.

No campo da inteligência artificial, que evolui rapidamente, pesquisadores e especialistas renomados estão soando o alarme, exigindo uma mudança de paradigma na abordagem da segurança da IA. Uma carta, assinada por três vencedores do Prêmio Turing, um ganhador do Prêmio Nobel e mais de uma dezena de acadêmicos de IAsteem, enfatiza a necessidade crítica de governos e empresas destinarem uma parcela substancial de seus investimentos em pesquisa e desenvolvimento de IA para garantir a segurança e o uso ético desses sistemas avançados.

Cúpula internacional sobre segurança da IA ​​se aproxima

Enquanto o mundo se prepara para a próxima Cúpula Internacional de Segurança da IA ​​em Londres, a urgência de abordar os riscos da IA ​​ganha destaque. A carta descreve um conjunto abrangente de medidas, instando governos e empresas de IA a destinarem, no mínimo, um terço de seus fundos de pesquisa e desenvolvimento para a segurança da IA. Geoffrey Hinton, Andrew Yao, Daniel Kahneman, Dawn Song e Yuval Noah Harari, entre outros luminares, ressaltam a necessidade de medidas proativas para prevenir potenciais danos causados ​​pelos sistemas de IA de ponta em constante evolução.

De acordo com a carta assinada por figuras proeminentes da comunidade de pesquisa em IA, existe um consenso de que os governos devem assumir um papel fundamental na responsabilização legal por danos previsíveis e evitáveis ​​causados ​​por sistemas de IA. O apelo por responsabilização busca preencher a lacuna deixada pela ausência de regulamentações abrangentes que abordem especificamente as preocupações com a segurança da IA.

Veja também:  Duração da campanha e dinâmica de jogo de Diablo 4

Governos são instados a responsabilizar empresas de IA por danos ao sistema

Atualmente, existe uma lacuna notável em termos de regulamentações abrangentes focadas na segurança da IA. O conjunto inicial de legislações da União Europeia, embora em andamento, ainda não se tornou lei, pois os legisladores lidam com questões não resolvidas. A carta pressiona por uma resolução rápida dessa lacuna regulatória, enfatizando que o rápido progresso da IA ​​exige precauções igualmente rápidas para garantir um desenvolvimento ético.

Yoshua Bengio, frequentemente considerado um dos padrinhos da IA, destaca a urgência de investimentos em segurança da IA. Na carta, expressa-se a opinião de que os modelos de IA de última geração são considerados excessivamente poderosos e significativos, justificando a necessidade de supervisão democrática, como alertado pelo autor. O ritmo do avanço da IA, que supera em muito as medidas de precaução, exige um compromisso imediato e substancial para proteger contra riscos potenciais.

Modelos de IA poderosos geram alarmes

Os signatários da carta, que incluem luminares como Geoffrey Hinton e o laureado com o Prêmio Nobel Daniel Kahneman, chamam a atenção para as capacidades impressionantes dos modelos de IA recentes. Eles argumentam que esses modelos são influentes demais para serem deixados sem controle e enfatizam a importância da supervisão democrática em seu desenvolvimento.

Stuart Russell, um cientista da computação britânico, rejeita as preocupações das empresas sobre os custos de conformidade, enfatizando a necessidade de regulamentações. Russell contesta a noção de que a regulamentação sufoca a inovação, apontando que existem mais regulamentações para lanchonetes do que para empresas de IA, de acordo com o conteúdo da carta. O apelo por uma ação rápida e decisiva baseia-se na compreensão de que o avanço descontrolado da IA ​​representa riscos semdentque exigem atenção imediata.

Veja também:  Amazon Q levanta suspeitas sobre dent e alucinações.

O debate sobre a segurança da IA ​​está chegando a um ponto crítico, com os principais pesquisadores e influenciadores instando governos e empresas a priorizarem considerações éticas e a alocarem recursos para garantir o desenvolvimento responsável da IA. Enquanto o mundo se prepara para a Cúpula Internacional de Segurança da IA , a pergunta permanece: esses apelos urgentes por ação serão atendidos ou os riscos potenciais do desenvolvimento descontrolado da IA ​​continuarão a aumentar?

Seu banco está usando seu dinheiro. Você está ficando com as sobras. Assista ao nosso vídeo gratuito sobre como se tornar seu próprio banco.

Compartilhar link:

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. O Cryptopolitan não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamos tron a realização de pesquisas independentes dent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais lidas

Carregando os artigos mais lidos...

Fique por dentro das notícias sobre criptomoedas e receba atualizações diárias na sua caixa de entrada

Escolha do editor

Carregando artigos selecionados pela equipe editorial...

- A newsletter de criptomoedas que te mantém sempre um passo à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Assine o Cryptopolitan Daily e receba informações oportunas, precisas e relevantes sobre criptomoedas diretamente na sua caixa de entrada.

Inscreva-se agora e
não perca nenhum lance.

Entre. Informe-se.
Saia na frente.

Inscreva-se no CryptoPolitan