Plusieurs médias techno incluant The Next Web, Dataconomy et Storyboard18 ont rapporté le mardi 28 avril que Google a signé un accord IA classifié avec le Département de la Défense américain permettant l'usage de ses modèles IA pour « toute fin gouvernementale légale », sans interdictions contractuelles contre la surveillance domestique de masse ou les systèmes d'armes pleinement autonomes. La formulation vient de sources anonymes plutôt que d'une divulgation publique de Google ou du DoD, et Google n'a pas confirmé ou commenté publiquement au moment du reportage. La valeur du contrat, les modèles Google spécifiques couverts et la date effective exacte ne sont pas divulgués. Le timing est la partie de l'histoire qui frappe : le lundi 27 avril, 560+ employés Google et DeepMind incluant 18 cadres seniors ont publié une lettre ouverte à Sundar Pichai lui demandant de refuser les charges IA classifiées du Pentagone au motif que les réseaux classifiés rendent impossible l'application des règles d'usage; le mardi matin, cet accord était rapporté. Peu importe comment tu le lis, la séquence est la compagnie faisant le contraire de ce que la lettre demandait dans une fenêtre de 24 heures.
La réalité technique que l'histoire confirme est le problème architectural que la lettre des employés a nommé. L'impasse d'Anthropic en février 2026 avec le Pentagone s'est terminée avec Anthropic refusant de retirer les interdictions d'usage acceptable sur la surveillance de masse et les armes autonomes; l'administration Trump a répondu en désignant Anthropic risque de chaîne d'approvisionnement et la Cour d'appel DC a rejeté l'appel début avril. L'accord rapporté de Google est l'inverse précis : prendre le contrat aux termes que le Pentagone acceptera, ce qui veut dire aucune exclusion. Sur les réseaux classifiés en air-gap la trace d'audit API sur laquelle Anthropic comptait n'existe pas, donc il n'y a aucun moyen opérationnel pour Google de savoir si un modèle déployé est utilisé pour des fins interdites même si le contrat en avait nommées. La formulation « toute fin gouvernementale légale » rend ça explicite; le contrat est structuré autour de l'autorité légale du client plutôt que la politique produit du fournisseur. C'est le choix architectural que la lettre des employés a identifié et a demandé à Pichai de ne pas faire. Si l'accord rapporté de Google est matériellement différent des contrats classifiés Microsoft, Palantir ou Anduril existants dépend de termes pas encore publics, mais le cadrage de manchette à lui seul retire Google du côté Anthropic de la division industrielle.
L'implication plus large est que la division IA-défense est maintenant une topologie industrielle réglée plutôt qu'une question ouverte. D'un côté : Anthropic, avec des restrictions AUP publiquement appliquées et un bannissement de l'administration Trump comme coût. De l'autre : Google (selon les rapports), Microsoft, le contrat Pentagone parallèle d'OpenAI, le rôle de prime contractor de Palantir sur Maven, et Lattice d'Anduril. L'explication économique est simple — le budget de procuration IA frontière du Pentagone est assez grand pour que les fournisseurs qui acceptent les termes « toute fin légale » obtiennent les contrats et que ceux qui ne le font pas obtiennent une désignation de risque de chaîne d'approvisionnement. L'explication politique est que l'exécutif peut effectivement veto le langage AUP en menaçant l'exclusion de la procuration fédérale, ce que le précédent Anthropic a démontré. Le reportage Google, s'il est confirmé, signale que le reste de l'industrie IA frontière sauf Anthropic a choisi le côté revenu-procuration de cet échange. La lettre des 560 employés, les 18 signataires seniors et la pression publique n'ont produit aucun changement observable aux termes du contrat, ce qui est en soi un point de donnée pour comment le levier du marché du travail sur l'éthique IA fonctionne en 2026 : réel sur le registre public, inefficace sur la structure contractuelle.
Pour les bâtisseurs, trois choses concrètes à enregistrer. Premièrement, si tu évalues des fournisseurs IA frontière pour n'importe quel travail où la visibilité du sentier d'audit sur les cas d'usage compte, l'engagement AUP public est maintenant un critère de sélection significatif plutôt qu'un détail marketing. Anthropic est d'un côté de cette ligne; le reste est de l'autre. Deuxièmement, la conséquence du marché du talent est réelle mais de second ordre. Les ingénieurs qui ont signé la lettre ne vont pas marcher en masse, mais la friction de recrutement que ça crée pour les chercheurs IA alignés sécurité est maintenant structurelle et va se composer dans les 12-24 prochains mois. Troisièmement, la couche réglementaire est ce qui compte pour le prochain mouvement : l'AI Act de l'UE, l'AI Safety Institute du R-U et leurs équivalents traiteront les contrats « toute fin gouvernementale légale » comme facteurs de risque dans le déploiement transfrontalier de modèles US-frontière pour des clients non-gouvernementaux-US, ce qui veut dire qu'une portion du marché global pour ces fournisseurs devra être servie soit par des enveloppes contractuelles différentes, soit par des modèles hébergés par des intermédiaires régulateurs-amicaux (Mistral, le canal cloud souverain UE, etc.). L'effet complet ne sera pas visible en 2026 mais le verrouillage structurel est maintenant en place. Google n'a pas commenté et l'histoire peut évoluer alors que les divulgations officielles atterrissent.
