El Pentágono expandió su roster de vendors AI clasificados a siete, agregando Microsoft, Amazon, NVIDIA y Reflection AI a los Impact Levels 6 y 7 — los tiers secret y top-secret de la clasificación federal de datos. Los cuatro nuevos entrantes se unen a OpenAI, xAI y Google en los niveles de autorización más altos para deploy AI en workloads de defensa e inteligencia. Anthropic queda formalmente fuera del roster, etiquetado por la administración Trump como «supply chain risk» tras la cancelación del contrato de $200M después de que el CEO Dario Amodei objetó al lenguaje «any lawful use» que argumentó podría habilitar armas autónomas o vigilancia doméstica. Anthropic está demandando por ingresos perdidos. El reporte de Axios sugiere que la White House ahora busca formas de «save face and bring 'em back in», aunque no se ha anunciado reinstauración formal. Notablemente, la herramienta de code-generation Claude reportadamente sigue en uso por algunas organizaciones de seguridad de US a pesar de la disputa pública.

La pregunta de política substantiva es qué significa «supply chain risk» como etiqueta aplicada a un vendor AI frontier. Las designaciones convencionales de supply-chain-risk (Huawei, Kaspersky) marcan preocupaciones de espionaje o dependencia. Aplicado a Anthropic, la etiqueta describe funcionalmente a un vendor cuyos valores declarados restringen usos gubernamentales que la oficina de procurement quiere mantener abiertos — esa es una categoría distinta, y el precedente de política que establece importa más allá de este contrato único. Si el gobierno puede etiquetar a un vendor como «supply chain risk» porque el vendor objeta a los use cases que el customer quiere, cada lab AI tiene ahora un cálculo que correr sobre si sus posiciones publicadas de safety les cuestan acceso al mercado federal. Los $200M de Anthropic fueron un número real; el efecto disuasor sobre las posiciones de política de otros labs es más grande. El piece de evals pre-release CAISI de antes esta semana es parte del mismo arco: el procurement AI federal está cada vez más condicionado al alineamiento a nivel lab con prioridades de administración, y el lenguaje «lawful use» fue el test case explícito.

Para builders, la lectura ecosystem se empareja con el thread más amplio de diversificación de frontier vendors. Siete vendors AI frontier en IL6/IL7 significa que el Pentágono no quiere lock-in a un solo lab — ese es un principio de procurement real y probablemente bueno para la elección de builders a largo plazo. La inclusión de Reflection AI es la notable: un lab frontier menos establecido de repente al mismo tier de autorización que OpenAI sugiere que el procurement federal está dispuesto a apostar por capability sobre incumbency. Para builders AI comerciales vendiendo a enterprise, el flow-through del status vendor federal importa — las señales de preferencia gubernamental influyen ciclos de procurement Fortune 500 con aproximadamente 6-12 meses de lag. Si el status «supply chain risk» de Anthropic persiste, esperá que equipos de procurement enterprise empiecen a hacer la pregunta independientemente, sin importar si la comparación de capability técnica subyacente favorece a Claude. Inversamente, si el reporte de Axios «bring 'em back in» se sostiene, la reversión restaura la postura de procurement comercial de Anthropic.

Movida práctica: si construís productos que shipean a federal o federal-adjacent (defense contractors, industrias reguladas, entornos security-cleared), la lista de vendors IL6/IL7 ahora moldea significativamente qué AI podés integrar. El roster de siete-vendors da más opciones que hace un año — Microsoft y Amazon tienen los caminos de integración enterprise más profundos, NVIDIA es la elección natural de stack de inferencia, OpenAI/xAI/Google son las opciones de tier de aplicación, y Reflection AI es la apuesta contenida en un perfil de capability específico. Si sos un builder comercial vigilando la reversión de Anthropic, la señal accionable sería una remoción formal de la designación «supply chain risk» — no solo filtraciones de prensa. Hasta entonces, factorizá la ambigüedad en la diversificación de vendors en lugar de apostar a reinstauración a corto plazo. La vigilia a largo plazo es si el estándar de lenguaje «lawful use» se vuelve el requisito explícito del procurement federal, o si se ablanda en negociación — eso determina cuánta presión enfrentan otros labs sobre sus propias posiciones publicadas de safety.