A TechCrunch reportou em 28 de abril que o Google assinou um acordo com o Pentágono dando acesso à sua IA em redes classificadas para "todos os usos legais" — os mesmos termos que a Anthropic recusou em fevereiro e pelos quais foi punida. O Google se junta à OpenAI e ao xAI como o terceiro grande fornecedor de IA a aceitar um contrato do Pentágono que a Anthropic recusou. Segundo o Wall Street Journal, o contrato do Google inclui linguagem dizendo que sua IA não é destinada a vigilância em massa doméstica nem a armas autônomas, mas não está claro se essa linguagem é juridicamente vinculante ou exigível. 950 funcionários do Google já assinaram uma carta aberta pedindo que a empresa siga o exemplo da Anthropic — um aumento sobre os 560 nomes de 24 horas atrás, antes do acordo do Google ser reportado.

A trajetória da Anthropic foi dura e vale entender. Depois que o Secretário de Defesa Pete Hegseth convocou o CEO Dario Amodei ao Pentágono para exigir que a empresa abandonasse suas cláusulas de não-vigilância-em-massa e não-armas-autônomas, a Anthropic recusou. Em 27 de fevereiro, a administração Trump ordenou que agências federais e contratantes militares cessassem negócios com a Anthropic; o DoD então declarou a Anthropic um "risco de cadeia de suprimentos," designação normalmente reservada a adversários estrangeiros. A Anthropic processou em março. A juíza federal Rita Lin concedeu uma liminar preliminar em uma decisão de 43 páginas que classificou a designação como "retaliação clássica e ilegal pela Primeira Emenda" e rejeitou o que ela chamou de "noção orwelliana de que uma empresa americana possa ser rotulada de potencial adversária e sabotadora dos EUA por expressar discordância com o governo." Em 8 de abril, uma corte de apelações rejeitou o recurso mais amplo da Anthropic sobre a designação — então a Anthropic tem a liminar mas perdeu terreno no nível de apelação.

O que sobra é uma paisagem de três níveis. A Anthropic recusou a cláusula de "qualquer uso legal" e é o único grande laboratório cujas linhas vermelhas foram realmente testadas contra o cumprimento do Pentágono. A OpenAI assinou com linhas vermelhas contratuais explícitas — sem vigilância em massa, sem armas autônomas — e a leitura da MIT Technology Review sobre esse acordo foi "isso é o que a Anthropic temia," porque as linhas vermelhas são contratuais mas o acordo aconteceu. O xAI aceitou o que a imprensa de Defesa descreve como "poucas restrições ao uso militar de IA." O contrato do Google fica mais perto do da OpenAI: linguagem sobre não-vigilância e não-armas-autônomas, mas segundo o WSJ, a força vinculante dessa linguagem é incerta. O padrão: todo grande fornecedor de IA de fronteira agora tem uma relação com o Pentágono; a diferença é o quanto as linhas vermelhas duram quando o Secretário de Defesa pessoalmente exige que sejam abandonadas.

Para os builders, isso importa de três maneiras concretas. Primeiro, a decisão Lin — de que rotular uma empresa de IA privada como "risco de cadeia de suprimentos" por recusar termos contratuais é "retaliação pela Primeira Emenda" — é agora precedente de corte federal, mesmo depois do revés em apelação de 8 de abril sobre a designação mais ampla. Essa linguagem vai ser citada em lutas futuras sobre como o governo dos EUA trata fornecedores que recusam termos contratuais. Segundo, a escolha de modelo agora tem uma dimensão política que não é abstrata: se você constrói em cima da API de um laboratório de fronteira, seu uso é fungível com o uso Pentágono dos modelos desse laboratório, o que importa ou não dependendo do seu stack e dos seus clientes. Terceiro, a dinâmica da carta aberta no Google (560 → 950 nomes em 24 horas) é um sinal de que a pressão interna está subindo, não caindo; espere mais recusas públicas de pesquisadores individuais mesmo quando as empresas deles assinam. A Anthropic é o único grande laboratório onde a recusa pública é da empresa, não só dos trabalhadores.