O Departamento de Comércio sob a administração Biden está implementando uma nova iniciativa de conformidade para restringir ainda mais a exportação de modelos de inteligência artificial, sejam eles de código aberto ou fechado. A iniciativa visa salvaguardar os interesses dos EUA e a tecnologia de IA da Rússia e da China, complementando as medidas tomadas nos últimos dois anos para bloquear o acesso chinês aos mais recentes chips de computador avançados.
O objetivo dos EUA é impor barreiras de proteção mais rigorosas ao software central de grandes modelos de linguagem que alimentam aplicativos como o ChatGPT, informou a Reuters, citando três fontes familiarizadas com o assunto. Embora a agência de notícias afirme que pesquisadores do setor privado e do governo estejam preocupados com o fato de que adversários dos EUA possam usar a tecnologia para ataques cibernéticos agressivos e desenvolver armas biológicas, a Embaixada da China se opôs à medida, descrevendo-a como intimidação unilateral e coerção econômica.
Deepfakes são uma arma letal de desinformação
As ameaças que os EUA temem são muitas e podem ser exploradas por atores não estatais apoiados por Estados. Os deepfakes podem ser usados como uma arma eficaz de propaganda, pois consistem em vídeos realistas, porém falsos, criados por ferramentas de inteligência artificial.
Esse tipo de vídeo já está surgindo nas redes sociais. Embora esse conteúdo midiático exista há alguns anos, desenvolvido com softwares de animação e renderização, as ferramentas de IA generativa tornaram sua produção fácil para qualquer pessoa, e agentes mal-intencionados podem explorá-las com mais facilidade do que nunca para manipular a opinião pública sobre questões sensíveis, especialmente durante campanhas eleitorais.
Plataformas de mídia social como YouTube, Facebook e Twitter já tomaram medidas para conter os deepfakes, mas as táticas para desenvolvê-los e publicá-los também estão mudando com o avanço da tecnologia. Atualmente, ferramentas de empresas como Microsoft e OpenAI podem ser usadas para criar conteúdo destinado à disseminação de desinformação.
Uma preocupação muito maior é que os modelos de IA possam vazar informações para o desenvolvimento de armas biológicas, de acordo com pesquisadores da Rand Corporation e da Gryphon Scientific. Agências de inteligência dos EUA, especialistas acadêmicos e centros de pesquisa estão preocupados com a possibilidade de a IA cair nas mãos de elementos desonestos.
O estudo Gryphondentcomo os mestrados em direito (LLMs) podem gerar conhecimento especializado e de nível doutoral que pode auxiliar no desenvolvimento de vírus com potencial pandêmico, os quais podem ser usados por atores não estatais como armas biológicas.
Ataques cibernéticos amplificados com modelos de IA
O Departamento de Segurança Interna também expressou preocupação com a possibilidade de ataques cibernéticos a infraestruturas cruciais, como ferrovias e oleodutos, serem executados com inteligência artificial, através do desenvolvimento de novas ferramentas capazes de realizar ataques cibernéticos em maior escala, mais complexos e com maior rapidez.
A agência também afirmou que a China está desenvolvendo software de inteligência artificial que pode ser usado para ataques de malware, e também está trabalhando em tecnologias de IA que poderiam potencialmente sabotar as defesas cibernéticas do país.

Em fevereiro, a Microsoft divulgou um relatório no qual observou terdentgrupos cibernéticos envolvidos em atividades de hacking que estão aprimorando suas campanhas de invasão utilizando LLMs (Módulos de Aprendizado de Máquina) e que possuem ligações com a inteligência militar da Rússia, os governos da Coreia do Norte e da China, e a Guarda Revolucionária do Irã.
financiados por estados grupos cibernéticos que utilizam seus produtos e serviços de IA. Na quarta-feira, um grupo de políticos propôs um projeto de lei que ajudará o governo Biden a impor controles sobre a exportação de modelos de IA para evitar sua exposição a potenciais adversários.
Especialistas no assunto afirmaram que Washington está tentando evitar regulamentações excessivas que possam sufocar a inovação, buscando, ao mesmo tempo, fomentar a inovação e possíveis soluções para os riscos associados à IA. Ressaltaram também que a imposição de regulamentações rígidas, que controlem estritamente o avanço da IA, criará um vácuo para concorrentes estrangeiros e impactará negativamente áreas como infraestrutura, segurança nacional e descoberta de medicamentos.

