Em resposta ao apelo de Trump por um plano de ação para IA, o Google publicou uma proposta política. Seguindo os passos da OpenAI, o Google está solicitando ao governo Trump que flexibilize as restrições de direitos autorais sobre o treinamento de IA.
Muitos observadores veem a posição do Google como mais um sinal de que as empresas de tecnologia estão unindo forças para moldar as regras federais em torno das tecnologias emergentes de inteligência artificial.
Um ponto central das recomendações do Google é a necessidade de enfraquecer as barreiras à propriedade intelectual. A empresa enfatiza que as “exceções de uso justo e de mineração de texto e dados” devem ser reconhecidas como “cruciais” para a continuidade da pesquisa em IA.
O Google argumenta que exceções para mineração de texto e dados são cruciais para a pesquisa em IA
A proposta de política do Google sugere que o treinamento de modelos em dados protegidos por direitos autorais, mas disponíveis publicamente, seja permitido sem grandes restrições, insistindo que essa prática não causa danos significativos aos detentores de direitos. Críticos dessa abordagem, no entanto, entraram com ações judiciais contra o Google por usar dados protegidos por direitos autorais sem compensação. Até o momento da redação deste texto, os tribunais dos EUA não defise as regras de uso justo protegem as empresas de IA nesses casos.
Além de flexibilizar as restrições aos direitos autorais, o plano do Google se concentra em moldar as políticas de exportação de chips de IA e hardware relacionado. A empresa alerta que as regras recentemente introduzidas pelo governo Biden podem afetar a competitividade dos EUA nos mercados globais de IA.
O Google aponta para "ônus desproporcionais" sobre os provedores de computação em nuvem, contrastando sua posição com a perspectiva da Microsoft. Em janeiro, a Microsoft afirmou estar "dent" de que poderia cumprir as mesmas regras que o Google agora alega que poderiam desacelerar a inovação e as atividades comerciais.
As regras de exportação atuais, concebidas para restringir o fluxo de hardware de IA avançado para nações desfavorecidas, incluem exceções para empresas selecionadas que necessitam de grandes conjuntos de chips de alta tecnologia. No entanto, o Google continua preocupado com o fato de essas limitações poderem prejudicar os interesses econômicos de longo prazo dos Estados Unidos, dificultando o progresso da IA, especialmente em uma era de crescente competição internacional. O documento de política incentiva uma abordagem equilibrada que garanta a segurança nacional, permitindo, ao mesmo tempo, que as empresas americanas prosperem no exterior.
A proposta solicitava ao governo que preservasse as verbas concedidas
A proposta também destaca a importância do investimento “sustentado e de longo prazo” em pesquisa e desenvolvimento fundamentais. Citando os riscos de cortes de custos, o Google aconselha o governo a preservar verbas essenciais para pesquisa e desenvolvimento e a aumentar o apoio a projetos de “P&D para o mercado inicial”, para que cientistas e organizações possam acessar recursos computacionais sofisticados e modelos avançados. Essa posição está alinhada com o foco da nova administração em recalibrar as prioridades nacionais, embora medidas recentes para reduzir partes do orçamento federal tenham preocupado instituições de pesquisa.
O argumento do Google em favor de uma regulamentação mais consistente em nível federal reflete a crescente tensão entre os legisladores. Pouco mais de dois meses após o início de 2025, o número de projetos de lei relacionados à IA nos Estados Unidos chega a 781, evidenciando o ambiente político fragmentado. Em seu documento, o Google aponta para a variedade de leis estaduais sobre IA como prova de que a abordagem atual é muito dispersa. A empresa defende uma estrutura unificada de privacidade e segurança para evitar que desenvolvedores e usuários se vejam envolvidos em exigências conflitantes em diversos estados.
Apenas 66 dias se passaram em 2025 e o número de projetos de lei sobre inteligência artificial pendentes nos EUA já ultrapassou oficialmente o total de TODO o ano de 2024. 👀
2024: 743 faturas de IA no total para o ano
de 2025: 781 faturas de IA em apenas 66 dias pic.twitter.com/xrYPVDYgR1-Adam Thierer (@AdamThierer) 7 de março de 2025
Em relação à questão da responsabilidade, o Google argumenta que os desenvolvedores de IA nem sempre podem supervisionar a forma como os modelos são implementados. Alguns legisladores cogitaram impor responsabilidade pelo uso aos desenvolvedores, mas a empresa rebate dizendo que, em muitos casos, o uso indevido decorre de atividades fora do controle direto do desenvolvedor.
A proposta de lei SB 1047, rejeitada na Califórnia, foi uma dessas medidas que detalhava as responsabilidades dos criadores de IA, incluindo testes de segurança obrigatórios e clareza sobre quando um desenvolvedor poderia ser responsabilizado por danos. A empresa de tecnologia se opôs à legislação, argumentando que os usuários do modelo — e não os criadores — geralmente estão em melhor posição para avaliar os riscos subsequentes e manter a segurança do sistema.
Notavelmente, a proposta critica as novas exigências de divulgação, como as previstas na futura Lei de IA da União Europeia. Essa legislação exigiria que os desenvolvedores fornecessem informações detalhadas sobre como seus modelos são construídos e treinados, bem como orientações sobre possíveis perigos ou lacunas de desempenho.
O Google alerta que esses requisitos podem, inadvertidamente, expor segredos comerciais ou inspirar adversários a invadir sistemas de IA. Medidas semelhantes já surgiram em algumas partes dos EUA, como a lei AB 2013 da Califórnia, que obriga os desenvolvedores de IA a divulgar um resumo público das fontes de dados de treinamento.

