O Secretário de Defesa Pete Hegseth deu um ultimato ao CEO da Anthropic Dario Amodei em fevereiro: remover as proteções do Claude contra armas autônomas e vigilância em massa, ou enfrentar as consequências. Quando Amodei se recusou, citando preocupações sobre prejudicar "valores democráticos", o governo americano agiu rápido—Trump ordenou que agências federais parassem de usar a tecnologia da Anthropic, o Pentágono a rotulou como um risco de cadeia de suprimentos junto com empresas como a Huawei, e um contrato de defesa de $200 milhões desapareceu.

O Department for Science, Innovation and Technology britânico viu algo diferente na postura de princípios da Anthropic. Oficiais do Reino Unido agora estão cortejando a empresa de $380 bilhões com propostas para uma listagem dupla na London Stock Exchange e operações expandidas no Reino Unido, apoiadas pelo gabinete do Primeiro-Ministro Keir Starmer. Com 200 funcionários já na Grã-Bretanha e o ex-PM Rishi Sunak como consultor sênior, a Anthropic tem infraestrutura existente para construir em cima.

A briga legal continua—a Juíza Distrital americana Rita Lin concedeu uma liminar bloqueando a lista negra do Pentágono, chamando as ações do governo de "preocupantes" e provavelmente ilegais. A apelação do Ninth Circuit permanece pendente. Essa resistência judicial valida a posição legal da Anthropic e dá cobertura para governos internacionais cortejarem a empresa.

Para construtores de IA, isso importa praticamente. Se empresas que priorizam ética podem encontrar refúgio em jurisdições mais amigáveis, isso muda o cálculo em torno de construir sistemas de IA responsáveis. O Reino Unido está apostando que em um mundo de IA multipolar, ser a jurisdição que dá as boas-vindas a empresas com princípios—ao invés de exigir compliance militar—se torna uma vantagem competitiva para atrair os melhores talentos e investimento em IA.