五角大楼把分类 AI 厂商名单扩展到七家,把 Microsoft、Amazon、NVIDIA 和 Reflection AI 加到 Impact Levels 6 和 7 — 联邦数据分类的机密和绝密层级。四个新入选者加入 OpenAI、xAI 和 Google 在国防和情报工作负载 AI 部署的最高授权级别。Anthropic 仍正式在名单外,在 $200M 合同被取消后被川普行政当局标记为「供应链风险」,合同取消是因为 CEO Dario Amodei 对「any lawful use」措辞的反对,他认为这可能使自主武器或国内监视成为可能。Anthropic 正在为损失的收入起诉。Axios 报道暗示 White House 现在正在寻找「save face and bring 'em back in」的方法,尽管没有宣布正式恢复。值得注意的是,Claude 代码生成工具据报道仍被一些美国安全组织使用,尽管公开争议。
实质政策问题是「供应链风险」作为应用于前沿 AI 厂商的标签意味着什么。常规供应链风险指定(华为、Kaspersky)标记间谍或依赖性担忧。应用于 Anthropic,该标签在功能上描述的是其声明价值观限制 procurement 办公室想保持开放的政府使用的厂商 — 那是一个不同的类别,它建立的政策先例超越这一单一合同。如果政府可以因为厂商反对客户想要的使用案例而把厂商标记为「供应链风险」,每个 AI lab 现在都有一个计算要做:他们公开的安全立场是否让他们失去联邦市场准入。Anthropic 的 $200M 是真实数字;对其他 lab 政策立场的寒蝉效应是更大的。本周早些时候的 CAISI 上线前评估 piece 是同一弧的一部分:联邦 AI procurement 越来越以 lab 层级与行政当局优先事项的对齐为条件,「lawful use」措辞是明确的测试案例。
对 builder,生态读法与更广泛的前沿厂商多样化线程配对。七个前沿 AI 厂商在 IL6/IL7 意味着五角大楼不想被任何单一 lab 锁定 — 这是一个真实的 procurement 原则,长期看可能对 builder 选择有利。Reflection AI 的纳入值得注意:一个不那么成熟的前沿 lab 突然与 OpenAI 处于同一授权层级,暗示联邦 procurement 愿意押注能力而非现任地位。对销售给企业的商业 AI builder,联邦厂商状态的传导很重要 — 政府偏好信号影响 Fortune 500 procurement 周期,大约有 6-12 个月的滞后。如果 Anthropic 的「供应链风险」状态持续,预期企业 procurement 团队会独立开始问这个问题,无论底层技术能力比较是否有利于 Claude。相反,如果 Axios「bring 'em back in」报道成立,逆转恢复 Anthropic 的商业 procurement 姿态。
实际动作:如果你构建发货给联邦或联邦邻近(国防承包商、受监管行业、安全许可环境)的产品,IL6/IL7 厂商名单现在显著塑造你可以集成哪些 AI。七厂商名单给比一年前更多的选项 — Microsoft 和 Amazon 有最深的企业集成路径,NVIDIA 是推理栈的自然选择,OpenAI/xAI/Google 是应用层选项,Reflection AI 是对特定能力配置的有限押注。如果你是商业 builder 在观察 Anthropic 逆转,可行动的信号将是「供应链风险」指定的正式取消 — 而不仅仅是新闻泄漏。在那之前,把模糊性纳入厂商多样化,而不是押注短期内恢复。更长期的看点是「lawful use」措辞标准是否成为联邦 procurement 的明确要求,或者在谈判中被软化 — 那决定其他 lab 在自己公开发布的安全立场上面临多少压力。
