Departamento de Comércio quer cláusulas de “soberania técnica” e auditoria de pesos de modelos; movimento ocorre após startup se recusar a compartilhar código-fonte em contrato federal.
O governo dos Estados Unidos está finalizando um novo conjunto de diretrizes rigorosas para a contratação de serviços de Inteligência Artificial por agências federais. Segundo informações reveladas pelo The Washington Post nesta manhã, as novas regras surgem como uma resposta direta a um impasse contratual entre o Pentágono e a Anthropic, startup de IA que tem o Google e a Amazon como investidores.
O conflito, que se arrastava há meses nos bastidores, teria ocorrido após a Anthropic se recusar a fornecer acesso total aos “pesos” (parâmetros de treinamento) e ao código-fonte do seu modelo mais avançado, o Claude 4, em um contrato de defesa nacional. A startup alegou que a exigência do governo violava segredos comerciais e criava riscos de segurança cibernética caso os dados fossem vazados de servidores governamentais menos protegidos.
O Fim da “Caixa Preta” nos Contratos Federais
As novas regras, apelidadas em Washington de “IA Transparency Act for Government”, devem exigir que qualquer empresa de tecnologia que forneça modelos de linguagem (LLMs) para setores críticos — como Defesa, Energia e Saúde — aceite auditorias externas periódicas e “depósitos de segurança” do código-fonte em ambientes controlados pelo Estado.
“O governo americano não quer mais comprar uma ‘caixa preta’. Em 2026, com a IA operando infraestruturas críticas, o Estado exige saber exatamente como o modelo toma decisões”, afirma Sarah Jenkins, analista de política tecnológica do Center for Strategic and International Studies (CSIS).
Reação do Vale do Silício
A notícia caiu como uma bomba nas Big Techs. Representantes da OpenAI e da Microsoft já sinalizaram que as novas exigências podem “desestimular a inovação” e criar barreiras para que o setor público tenha acesso às tecnologias mais avançadas. Por outro lado, defensores da segurança nacional argumentam que, sem essas regras, o governo fica vulnerável a alucinações de IA ou manipulações externas em sistemas estratégicos.
Impacto Global e no Brasil
O movimento dos EUA deve gerar um efeito cascata. O Brasil, que atualmente discute seu próprio Marco Legal da IA no Congresso, monitora de perto o desfecho desse impasse. Especialistas acreditam que o Itamaraty e o Ministério da Ciência e Tecnologia possam adotar cláusulas semelhantes para garantir a Soberania Digital em contratos de nuvem governamental e serviços de processamento de dados públicos.


