Google, seguindo os passos da OpenAI, publicou uma proposta de política em resposta ao chamado da Administração Trump para um “Plano de Ação de IA” nacional. O gigante da tecnologia endossou restrições fracas de copyright sobre o treinamento de IA, bem como controles de exportação “equilibrados” que “protegiam a segurança nacional enquanto possibilitavam exportações dos EUA e operações comerciais globais.”
“Os EUA precisam buscar uma política econômica internacional ativa para defender os valores americanos e apoiar a inovação em IA internacionalmente,” escreveu o Google no documento. “Por muito tempo, a formulação de políticas de IA prestou atenção desproporcional aos riscos, muitas vezes ignorando os custos que uma regulamentação mal orientada pode ter sobre a inovação, competitividade nacional e liderança científica — uma dinâmica que está começando a mudar sob a nova Administração.”
Uma das recomendações mais controversas do Google diz respeito ao uso de material protegido por propriedade intelectual.
O Google argumenta que as “exceções de uso justo e de mineração de texto e dados” são “críticas” para o desenvolvimento de IA e inovação científica relacionada à IA. Assim como a OpenAI, a empresa busca codificar o direito de treinar em dados disponíveis publicamente — incluindo dados protegidos por copyright — em grande parte sem restrições.
“Essas exceções permitem o uso de material protegido por copyright, disponível publicamente, para treinamento de IA sem impactar significativamente os detentores de direitos,” escreveu o Google, “e evitam negociações muitas vezes altamente imprevisíveis, desequilibradas e longas com detentores de dados durante o desenvolvimento de modelos ou experimentação científica.”
O Google, que treinou vários modelos em dados protegidos por copyright disponíveis publicamente, está enfrentando processos judiciais com proprietários de dados que acusam a empresa de não notificá-los e compensá-los antes de fazê-lo. Os tribunais dos EUA ainda não decidiram se a doutrina de uso justo protege efetivamente os desenvolvedores de IA de litígios relacionados à propriedade intelectual.
Em sua proposta, o Google também critica os controles de exportação impostos sob a Administração Biden, que, segundo a empresa, “podem minar os objetivos de competitividade econômica” ao “impor encargos desproporcionais sobre os provedores de serviços em nuvem dos EUA.” Isso contrasta com declarações de concorrentes do Google, como a Microsoft, que em janeiro disse estar “confiante” de que poderia “cumprir totalmente” as regras.
Importante, as regras de exportação preveem isenções para empresas confiáveis que buscam grandes clusters de chips avançados de IA.
Em outro ponto de sua proposta, o Google pede investimentos “de longo prazo e sustentados” em P&D doméstica fundamental, contestando os recentes esforços federais para reduzir gastos e eliminar prêmios de subsídios. A empresa disse que o governo deveria liberar conjuntos de dados que poderiam ser úteis para o treinamento comercial de IA e alocar financiamento para “P&D de mercado inicial” enquanto garante que computação e modelos sejam “amplamente disponíveis” para cientistas e instituições.
Apontando para o ambiente regulatório caótico criado pelo mosaico de leis estaduais de IA dos EUA, o Google instou o governo a aprovar legislação federal sobre IA, incluindo uma estrutura unificada de privacidade e segurança. Um pouco mais de dois meses em 2025, o número de projetos de lei de IA pendentes nos EUA cresceu para 781, de acordo com uma ferramenta de rastreamento online.
O Google alerta o governo dos EUA contra a imposição do que considera obrigações onerosas em torno de sistemas de IA, como obrigações de responsabilidade de uso. Em muitos casos, o Google argumenta, o desenvolvedor de um modelo “tem pouca ou nenhuma visibilidade ou controle” sobre como um modelo está sendo usado por um desenvolvedor e, portanto, não deve ser responsabilizado por uso indevido.
“Mesmo em casos onde um desenvolvedor fornece um modelo diretamente para os implementadores, os implementadores muitas vezes estarão melhor posicionados para entender os riscos de usos subsequentes, implementar uma gestão de riscos eficaz e conduzir monitoramento e registro pós-mercado,” escreveu o Google.
O Google também chamou requisitos de divulgação, como os que estão sendo contemplados pela UE, de “excessivamente amplos,” e disse que o governo dos EUA deveria se opor a regras de transparência que exijam “divulgar segredos comerciais, permitir que concorrentes duplicassem produtos ou comprometessem a segurança nacional ao fornecer um roteiro a adversários sobre como contornar proteções ou desbloquear modelos.”