Uma corte federal de apelações em DC se recusou a interromper a lista negra da administração Trump contra a Anthropic ontem, negando a moção de emergência da empresa de IA por uma suspensão. O painel de três juízes — todos nomeados republicanos incluindo as escolhas de Trump Gregory Katsas e Neomi Rao — reconheceu que a Anthropic provavelmente "sofreria algum grau de dano irreparável" mas decidiu que a empresa não havia demonstrado que sua expressão estava sendo silenciada. A corte acelerou o caso para argumentos orais em 19 de maio, deixando a Anthropic sem alívio imediato da designação de "risco da cadeia de suprimentos" do Pentágono que proíbe empreiteiros militares de usar Claude.
As decisões judiciais divididas expõem como a busca seletiva por juízes e nomeações políticas agora moldam a aplicação de políticas de IA. Enquanto juízes nomeados por Trump em DC apoiaram a administração, a nomeada de Biden Rita Lin no Distrito Norte da Califórnia já concedeu à Anthropic uma liminar preliminar em março, chamando a lista negra de retaliação "orwelliana" por expressão protegida. Como cobri na época, Lin considerou que o ultimato do Pentágono — remover as proteções do Claude contra armas autônomas ou enfrentar consequências — violou a Primeira Emenda quando a Anthropic se recusou.
O que torna isso fascinante é o ângulo internacional que outras fontes revelam: o governo britânico está cortejando ativamente a Anthropic com propostas para listagem na London Stock Exchange e expansão de escritórios, especificamente por causa da posição de princípios da empresa contra armar a IA. O escritório do Primeiro-Ministro Starmer apoia o esforço, vendo a recusa da Anthropic em construir armas autônomas como exatamente o tipo de empresa de IA que a Grã-Bretanha quer. É um contraste marcante — Washington pune a Anthropic por ter proteções éticas enquanto Londres os recompensa por isso.
Para desenvolvedores, essa divisão cria incerteza real. Os contratos federais da Anthropic permanecem congelados pendentes de recursos, mas a liminar da Califórnia fornece alguma proteção. A mensagem mais ampla é clara: sua posição de ética em IA agora tem consequências geopolíticas, e onde você se incorpora pode importar tanto quanto o que você constrói.
