Le Pentagone a élargi son roster de vendors AI classifiés à sept, ajoutant Microsoft, Amazon, NVIDIA et Reflection AI aux Impact Levels 6 et 7 — les tiers secret et top-secret de la classification fédérale de données. Les quatre nouveaux entrants rejoignent OpenAI, xAI et Google aux niveaux d'autorisation les plus hauts pour le déploiement AI dans les workloads de défense et d'intelligence. Anthropic reste formellement hors du roster, labélisé par l'administration Trump comme « supply chain risk » après que le contrat de 200M$ a été annulé suite à l'objection du CEO Dario Amodei au langage « any lawful use » qu'il argumentait pouvait habiliter des armes autonomes ou de la surveillance domestique. Anthropic poursuit pour les revenus perdus. Le reporting d'Axios suggère que la White House cherche maintenant des façons de « save face and bring 'em back in », bien qu'aucune réinstauration formelle n'ait été annoncée. Notablement, l'outil de code-generation Claude resterait utilisé par certaines organisations sécurité US malgré le dispute public.

La question de policy substantielle, c'est ce que « supply chain risk » veut dire comme label appliqué à un vendor AI frontier. Les désignations de supply-chain-risk conventionnelles (Huawei, Kaspersky) flag des préoccupations d'espionnage ou de dépendance. Appliqué à Anthropic, le label décrit fonctionnellement un vendor dont les valeurs déclarées contraignent les usages gouvernementaux que le bureau de procurement veut garder ouverts — c'est une catégorie différente, et le précédent policy qu'il établit compte au-delà de ce contrat unique. Si le gouvernement peut labéliser un vendor « supply chain risk » parce que le vendor objecte aux use cases que le customer veut, chaque lab AI a maintenant un calcul à faire sur si leurs positions safety publiées leur coûtent l'accès au marché fédéral. Les 200M$ d'Anthropic étaient un vrai chiffre ; l'effet chilling sur les positions policy des autres labs est plus grand. Le piece CAISI pre-release evals plus tôt cette semaine fait partie du même arc : le procurement AI fédéral est de plus en plus conditionné à l'alignement lab-level avec les priorités d'administration, et le langage « lawful use » était le test case explicite.

Pour les builders, la lecture ecosystem pair avec le thread plus large de diversification des frontier vendors. Sept vendors AI frontier en IL6/IL7 veut dire que le Pentagone ne veut pas de lock-in à un seul lab — c'est un vrai principe de procurement et probablement bon pour le choix builder à long terme. L'inclusion de Reflection AI est la notable : un lab frontier moins établi suddenly au même tier d'autorisation qu'OpenAI suggère que le procurement fédéral est prêt à parier sur la capability plutôt que l'incumbency. Pour les builders AI commerciaux qui vendent à l'enterprise, le flow-through du status vendor fédéral compte — les signaux de préférence gouvernementaux influencent les cycles de procurement Fortune 500 avec environ 6-12 mois de lag. Si le status « supply chain risk » d'Anthropic persiste, attends-toi à ce que les équipes procurement enterprise commencent à poser la question indépendamment, peu importe si la comparaison de capability technique sous-jacente favorise Claude. Inversement, si le reporting Axios « bring 'em back in » tient, le revirement restaure la posture procurement commerciale d'Anthropic.

Move pratique : si tu construis des produits qui ship à du fédéral ou federal-adjacent (defense contractors, industries régulées, environnements security-cleared), la liste de vendors IL6/IL7 shape maintenant meaningfully quelle AI tu peux intégrer. Le roster sept-vendors donne plus d'options qu'il y a un an — Microsoft et Amazon ont les chemins d'intégration enterprise les plus profonds, NVIDIA est le choix naturel de stack inférence, OpenAI/xAI/Google sont les options application-tier, et Reflection AI est le pari contained sur un profil de capability spécifique. Si tu es un builder commercial qui watch pour le revirement Anthropic, le signal actionnable serait une suppression formelle de la désignation « supply chain risk » — pas juste des fuites de presse. Jusque-là, factor l'ambiguïté dans la diversification de vendors plutôt que de parier sur une réinstauration à court terme. Le watch à long terme, c'est si le standard de langage « lawful use » devient l'exigence explicite du procurement fédéral, ou si ça se softise en négociation — ça détermine combien de pression les autres labs font face sur leurs propres positions safety publiées.