Une lettre ouverte signée par plus de 560 employés Google, incluant au moins 18 principals, directeurs et vice-présidents, a été envoyée à Sundar Pichai aujourd'hui exigeant que Google refuse de laisser son IA être utilisée dans toute charge de travail classifiée du Pentagone. La lettre a été coordonnée par le personnel de Google DeepMind et constitue la pression interne la plus haut placée contre le travail défense de Google depuis la sortie de Project Maven en 2018, quand les protestations d'employés ont poussé la compagnie à laisser son contrat initial avec le Pentagone expirer. Les signataires citent explicitement Maven comme précédent et utilisent le cadrage « Maven n'est pas fini ». Leur demande centrale est que Google trace une ligne catégorique : aucune charge classifiée liée aux opérations militaires ou de surveillance, peu importe la taille du contrat ou la pression politique. Le timing n'est pas accidentel. Ça arrive deux mois après que l'administration Trump a ordonné aux agences fédérales et contracteurs de cesser de faire affaire avec Anthropic après qu'Anthropic ait refusé de retirer les restrictions d'utilisation acceptable contre la surveillance de masse et les armes autonomes; le DC Circuit a rejeté l'appel d'Anthropic le 8 avril. Les signataires de la lettre Google veulent que Pichai prenne la position Anthropic avant d'être forcé de choisir.
La réalité technique à laquelle la lettre répond est un vrai changement dans la façon dont le Pentagone se procure de l'IA de pointe. Project Maven en 2018 était un contrat étroit de reconnaissance d'image pour des séquences de drones; la posture du Pentagone en 2026 est plus large, incluant le contrat multi-milliards Anthropic qui a été annulé, le contrat parallèle Pentagone d'OpenAI qui a été annoncé le même jour qu'Anthropic était banni, et les contrats continus avec Microsoft et Palantir. Le qualificatif « classifié » compte parce qu'il capture les charges où le client ne peut pas divulguer publiquement l'usage, ce qui rend la supervision par les employés via revue interne d'utilisation acceptable effectivement impossible. Les interdictions contractuelles d'Anthropic sur la surveillance de masse et les armes autonomes existent parce qu'Anthropic pouvait examiner ses logs d'API et les faire respecter; les déploiements classifiés excluent ce sentier d'audit par design. Les organisateurs de DeepMind ont probablement raison que la seule position applicable est la catégorique, parce qu'une fois que t'acceptes des charges classifiées du tout, le processus de revue par charge devient performatif. C'est aussi pourquoi le Pentagone a poussé contre le langage AUP : la différence structurelle entre l'accès API commercial et le déploiement classifié est exactement la différence de sentier d'audit, et les labos IA qui ne peuvent pas auditer leur usage classifié acceptent un risque réputationnel pour des cas d'usage qu'ils ne peuvent pas défendre s'ils sont divulgués.
L'implication plus large est que le marché du travail IA redécouvre son levier de l'ère Maven 2018 au moment même où l'environnement politique est devenu plus hostile à ce levier. En 2018, Google pouvait capituler à la lettre des employés sans conséquence; en 2026, le même mouvement mettrait Google sur une trajectoire de collision avec une administration qui vient de désigner Anthropic comme risque de chaîne d'approvisionnement pour la même position. Ça change le calcul autant pour Pichai que pour les signataires. Pichai a la mémoire institutionnelle de Maven d'un côté et un marché du cloud fédéral de classe 250 G$ de l'autre, et il ne peut pas satisfaire les deux. Les signataires le savent, c'est pourquoi la lettre est cadrée comme éthique plutôt que commerciale : l'argument est que les charges de surveillance classifiée et d'armes sont une ligne brillante catégorique qui se rentabilise en confiance et recrutement à long terme, même si le coût à court terme est un flux de revenus du Pentagone. Si les 18 signataires seniors représentent une menace de départ crédible dépend de facteurs qui ne sont pas dans la lettre, incluant combien d'entre eux sont chez DeepMind, combien sont sur des paquets de rétention qui vestent sur plusieurs années, et combien partiraient réellement versus juste signer. Les départs de Maven 2018 étaient réels mais petits; la dynamique 2026 est différente parce que le coût politique du refus est plus élevé.
Pour les bâtisseurs qui suivent la question IA-défense, trois choses sont concrètement différentes maintenant qu'en 2018. Premièrement, le précédent Anthropic veut dire qu'il y a maintenant un labo qui a pris la position de refus catégorique et a été banni pour ça; ce n'est plus hypothétique. Deuxièmement, le signal du marché des talents de 560 employés incluant 18 VPs au plus grand labo IA au monde est significatif pour n'importe quelle startup ou concurrent qui recrute des ingénieurs IA de pointe; les gens les plus susceptibles de signer sont les gens les plus agressivement recrutés. Troisièmement, l'architecture légale change : la désignation de risque de chaîne d'approvisionnement qu'Anthropic a reçue est réutilisable et pourrait être appliquée à n'importe quel fournisseur IA qui trace une ligne similaire, ce qui veut dire que la question n'est pas juste à propos des décisions de contrats de Google mais si les labos IA américains peuvent tenir n'importe quelle position d'utilisation acceptable avec laquelle l'exécutif est en désaccord. La version honnête est que la lettre ne va probablement pas changer la posture de Pichai en 2026, mais elle change le registre public de quels employés Google croient que la compagnie ne devrait pas fournir d'IA classifiée au gouvernement américain, ce qui est en soi une forme de prévision pour comment le prochain round de procurations style Maven va se jouer dans l'industrie.
