Um juiz federal concedeu à Anthropic uma liminar preliminar bloqueando a inclusão da empresa de IA na lista negra pelo Departamento de Guerra, chamando-a de "retaliação clássica da Primeira Emenda". A juíza distrital americana Rita Lin descobriu que oficiais designaram a Anthropic como um risco de cadeia de suprimentos não por razões de segurança nacional, mas por causa da "maneira hostil da empresa através da imprensa". O DoW não conseguiu justificar por que medidas menos restritivas não funcionariam ou fornecer evidências de riscos de segurança urgentes.

Este caso revela como rapidamente empresas de IA podem se tornar alvos políticos. A Anthropic já perdeu três acordos comerciais e viu outras parcerias atrasadas após a inclusão na lista negra. A empresa estima que bilhões em contratos governamentais e privados potenciais estão em jogo ao longo de cinco anos. Para uma empresa tentando competir com OpenAI e Google, perder acesso a contratos governamentais poderia ser existencial.

O governo conseguiu uma suspensão administrativa de sete dias, dando tempo para recorrer. O Subsecretário Emil Michael chamou a decisão do juiz de "uma desgraça" com "erros factuais", sinalizando que oficiais de Trump não vão recuar facilmente. O que está faltando na cobertura é o que exatamente a Anthropic disse na imprensa que desencadeou essa resposta—entender esse contexto importa para outras empresas de IA navegando relações governamentais.

Desenvolvedores e empresas de IA devem notar este precedente: criticar políticas governamentais de IA publicamente agora carrega risco comercial real. Enquanto a Anthropic mantém que quer "trabalhar produtivamente com o governo", essa briga mostra quão fina é a linha entre advocacia e retaliação no clima político atual.