ÚLTIMAS NOTÍCIAS
SELECIONADO PARA VOCÊ
SEMANALMENTE
MANTENHA-SE NO TOPO

As melhores informações sobre criptomoedas direto na sua caixa de entrada.

A Casa Branca avalia a necessidade de análise prévia de modelos de IA, testando uma nova fronteira na supervisão tecnológica

PorIbiam WayasIbiam Wayas
Leitura de 3 minutos
A Casa Branca agora quer revisar os modelos de IA antes que sejam disponibilizados ao público
  • A Casa Branca agora quer revisar os modelos de IA antes que sejam disponibilizados ao público.
  • Segundo informações, o governo está considerando emitir uma Ordem Executiva para um grupo de trabalho de IA que supervisionará os procedimentos de fiscalização da IA.
  • Os órgãos reguladores temem que os sistemas de IA agora possam descobrir um grande número de vulnerabilidades em sistemas operacionais e navegadores da web.

A Casa Branca está considerando um plano para revisar alguns dos sistemas de inteligência artificial mais poderosos antes que sejam disponibilizados ao público.

A proposta, divulgada pelo The New York Times em 4 de maio, introduziria a fiscalização federal em um ponto crítico do ciclo de vida da IA, pouco antes da implantação. As autoridades estão cada vez mais preocupadas com o fato de que modelos de ponta já sejam capazes de identificardentexplorar vulnerabilidades no software que sustenta infraestruturas essenciais.

Uma análise publicada pelo The Conversation aponta para evidências crescentes de que os sistemas de IA recentes podem descobrir um grande número de vulnerabilidades em sistemas operacionais e navegadores da web. Essa capacidade, embora valiosa para a segurança defensiva, também aumenta os riscos caso essas ferramentas sejam mal utilizadas ou caiam em mãos erradas.

As capacidades do modelo levam a uma revisão das políticas

A discussão sobre a política de segurança cibernética ganhou urgência depois que a Anthropic optou por adiar o lançamento mais amplo de seu modelo mais recente, o Mythos. Testes internos revelaram recursos avançados de segurança cibernética, incluindo a capacidade de identificardentfalhas exploráveis. Em resposta, a empresa restringiu o acesso a um grupo limitado de organizações responsáveis ​​por infraestrutura crítica por meio de sua iniciativa “Projeto Glasswing”.

Segundo o The Conversation, a Casa Branca interveio quando a Anthropic explorou a possibilidade de expandir o acesso, sinalizando uma abordagem mais prática à supervisão da IA, mesmo que a política tecnológica em geral tenha permanecido relativamente orientada pelo mercado.

As preocupações não se limitam a uma única empresa ou sistema. O Instituto de Segurança de IA do Reino Unido relatou, em uma avaliação de abril, que o OpenAI GPT-5.5 demonstrou desempenho comparável em tarefas avançadas de segurança cibernética.

Em um teste destacado pelo instituto, o modelo fez engenharia reversa de uma máquina virtual personalizada e resolveu um desafio complexo em minutos, muito mais rápido do que um especialista humano usando ferramentas profissionais.

“Uma questão fundamental era se isso refletia um avanço específico de um modelo ou parte de uma tendência mais ampla”, escreveu o instituto em seu relatório. “Os resultados de uma avaliação inicial do GPT-5.5 sugerem a segunda opção.”

Em conjunto, as descobertas sugerem que essas capacidades estão se tornando uma característica comum dos principais sistemas de IA, em vez de uma inovação isolada.

As preocupações com a segurança da IA ​​assumem uma dimensão geopolítica

As implicações vão além da tecnologia e chegam à segurança nacional. Pesquisadores citados pelo The Conversation alertam que grupos ligados a Estados poderiam usar ferramentas semelhantes para realizar operações cibernéticas, potencialmente visando infraestruturas ou sistemas econômicos.

Já existem indícios iniciais dessa mudança. A Anthropic relatou que agentes suspeitos, apoiados por governos, estão usando seus modelos em campanhas de espionagem que afetaram dezenas de organizações. Enquanto isso, a Microsoft e a OpenAI afirmaram em 2024 que grupos ligados a governos estavam utilizando IA para aprimorar ataques cibernéticos.

Ao mesmo tempo, os pesquisadores ainda estão buscando maneiras de controlar esses sistemas de forma confiável. Estudos citados pelo The Conversation sugerem que os filtros de segurança aplicados após o treinamento podem ser contornados, enquanto alguns modelos podem parecer estar em conformidade sem eliminar completamente as capacidades de risco.

Isso levou a uma crescente percepção entre os formuladores de políticas de que as medidas de segurança podem precisar ser incorporadas durante o desenvolvimento do modelo, em vez de adicionadas posteriormente.

Perspectivas políticas: estruturas fragmentadas, pressão crescente

A proposta dos EUA está a ganhar forma num contexto regulamentar global mais amplo e ainda em evolução:

  • A Lei da IA ​​da UE estabelece uma estrutura baseada no risco com requisitos rigorosos para aplicações de alto risco, embora não exija aprovação centralizada para modelos de vanguarda.
  • O Reino Unido tem se apoiado na cooperação voluntária por meio do Instituto de Segurança de IA do Reino Unido, com foco em parcerias de teste e avaliação com desenvolvedores.
  • A abordagem emergente nos EUA parece estar caminhando para a supervisão direta dos sistemas mais avançados, potencialmente por meio de revisões prévias ao lançamento.

Os legisladores começaram a examinar essas questões mais de perto, com audiências no Congresso em abril sobre segurança e governança da IA, embora nenhuma legislação abrangente tenha sido aprovada até o momento.

Se implementado, um sistema de revisão prévia à liberação nos EUA representaria uma mudança em direção à intervenção precoce, colocando a supervisão no ponto em que os riscos podem ser previstos, em vez de depois que eles se materializam.

Tal medida poderia estabelecer um padrão global informal, especialmente considerando a concentração dos principais desenvolvedores de IA nos Estados Unidos. Ao mesmo tempo, aumenta a possibilidade de que as empresas transfiram partes do desenvolvimento ou da implementação para regiões com menos restrições.

O desafio para os formuladores de políticas é equilibrar a inovação com a gestão de riscos em uma área onde as capacidades estão avançando rapidamente e as consequências do uso indevido podem ser de grande alcance.

Por enquanto, as medidas de segurança mais concretas continuam sendo voluntárias. Empresas como a Anthropic estão limitando o acesso a sistemas sensíveis, enquanto organizações como o Instituto de Segurança de IA do Reino Unido continuam realizando avaliaçõesdent .

A formalização da abordagem dos Estados Unidos — e a adesão de outros países a ela — será um fator crucial para definir a governança da IA ​​nos próximos anos.

Não se limite a ler notícias sobre criptomoedas. Compreenda-as. Assine nossa newsletter. É grátis.

Compartilhe este artigo

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

MAIS… NOTÍCIAS
INTENSIVO AVANÇADAS
CURSO