Uma carta aberta assinada por mais de 560 funcionários do Google, incluindo pelo menos 18 principals, diretores e vice-presidentes, foi enviada a Sundar Pichai hoje exigindo que o Google recuse permitir que sua IA seja usada em qualquer carga classificada do Pentágono. A carta foi coordenada por funcionários do Google DeepMind e é a pressão interna de mais alto escalão contra o trabalho de defesa do Google desde a saída do Project Maven em 2018, quando protestos de funcionários empurraram a empresa a deixar seu contrato inicial com o Pentágono caducar. Os signatários citam explicitamente o Maven como precedente e usam o enquadramento «Maven não acabou». Sua demanda central é que o Google trace uma linha categórica: nenhuma carga classificada ligada a operações militares ou de vigilância, independentemente do tamanho do contrato ou da pressão política. O timing não é acidental. Vem dois meses após a administração Trump ordenar agências federais e contratantes cessarem negócios com a Anthropic depois que a Anthropic se recusou a remover restrições de uso aceitável contra vigilância em massa e armas autônomas; o DC Circuit negou o recurso da Anthropic em 8 de abril. Os signatários da carta do Google querem que Pichai assuma a posição da Anthropic antes de ser forçado a escolher.

A realidade técnica à qual a carta está respondendo é uma mudança real em como o Pentágono adquire IA de fronteira. O Project Maven em 2018 era um contrato estreito de reconhecimento de imagem para imagens de drones; a postura do Pentágono em 2026 é mais ampla, incluindo o contrato multi-bilionário da Anthropic que foi cancelado, o contrato paralelo do Pentágono da OpenAI anunciado no mesmo dia que a Anthropic foi banida, e contratos contínuos com Microsoft e Palantir. O qualificador «classificado» importa porque captura cargas onde o cliente não pode divulgar publicamente o uso, o que torna a supervisão de funcionários via revisão interna de uso aceitável efetivamente impossível. As proibições contratuais da Anthropic sobre vigilância em massa e armas autônomas existem porque a Anthropic podia revisar seus logs de API e fazê-las cumprir; implantações classificadas excluem essa trilha de auditoria por design. Os organizadores da DeepMind provavelmente estão certos de que a única posição aplicável é a categórica, porque uma vez que você aceita cargas classificadas em absoluto, o processo de revisão por carga se torna performativo. É também por isso que o Pentágono tem empurrado contra a linguagem AUP: a diferença estrutural entre acesso de API comercial e implantação classificada é exatamente a diferença de trilha de auditoria, e laboratórios IA que não podem auditar seu uso classificado estão aceitando risco reputacional para casos de uso que não podem defender se divulgados.

A implicação mais ampla é que o mercado de trabalho IA está redescobrindo sua alavancagem da era Maven 2018 no mesmo momento em que o ambiente político se tornou mais hostil a essa alavancagem. Em 2018, o Google podia capitular à carta de funcionários sem consequência; em 2026, o mesmo movimento colocaria o Google em rota de colisão com uma administração que acabou de designar a Anthropic como risco de cadeia de suprimentos pela mesma posição. Isso muda o cálculo tanto para Pichai quanto para os signatários. Pichai tem a memória muscular institucional do Maven de um lado e um mercado de nuvem federal de classe US$ 250 bi do outro, e ele não pode satisfazer ambos. Os signatários sabem disso, é por isso que a carta é enquadrada como ética em vez de comercial: o argumento é que as cargas de vigilância classificada e armas são uma linha categórica brilhante que se paga em confiança e recrutamento de longo prazo, mesmo que o custo de curto prazo seja um fluxo de receita do Pentágono. Se os 18 signatários sêniores representam uma ameaça de deserção credível depende de fatores não na carta, incluindo quantos deles estão na DeepMind, quantos estão em pacotes de retenção que vestam por vários anos, e quantos realmente sairiam versus apenas assinar. As saídas do Maven 2018 foram reais mas pequenas; a dinâmica 2026 é diferente porque o custo político da recusa é mais alto.

Para construtores observando a questão IA-defesa, três coisas são concretamente diferentes agora do que em 2018. Primeiro, o precedente Anthropic significa que há agora um laboratório que tomou a posição de recusa categórica e foi banido por isso; isso não é mais hipotético. Segundo, o sinal do mercado de talentos de 560 funcionários incluindo 18 VPs no maior laboratório IA do mundo é significativo para qualquer startup ou concorrente recrutando engenheiros de IA de fronteira; as pessoas mais propensas a assinar são as pessoas mais agressivamente recrutadas. Terceiro, a arquitetura legal está mudando: a designação de risco de cadeia de suprimentos que a Anthropic recebeu é reutilizável e poderia ser aplicada a qualquer fornecedor IA que trace uma linha similar, o que significa que a questão não é apenas sobre as decisões de contratação do Google mas se laboratórios IA americanos podem manter qualquer posição de uso aceitável com a qual o executivo discorde. A versão honesta é que a carta provavelmente não mudará a postura de Pichai em 2026, mas muda o registro público de quais funcionários do Google acreditam que a empresa não deveria fornecer IA classificada ao governo americano, o que é em si uma forma de previsão de como a próxima rodada de aquisições tipo Maven vai se desenrolar na indústria.