一名联邦法官批准了Anthropic针对五角大楼试图将这家AI公司标记为'供应链安全风险'的禁令,有效阻止军方将Claude的创造者列入政府合同黑名单。这项禁令是在数月不断升级的紧张局势后下达的,紧张关系始于Anthropic抵制其AI模型的军事应用,导致该公司所称的通过行政认定而非适当法律程序进行的报复。

这项裁决延续了我自3月以来一直在跟踪的模式——法院持续拒绝五角大楼对AI治理的重手段做法。法官的决定强化了AI公司不能因为对其模型用例行使编辑控制而被任意惩罚。这是一个关键先例,因为更多AI构建者面临压力,要么完全接受军事应用,要么冒着官僚惩罚的风险。五角大楼的'供应链风险'标签带来真实后果:自动排除在联邦合同之外,以及对cloud基础设施访问的潜在限制。

使这特别重要的是时机。当其他AI公司悄悄遵从军事要求以避免监管麻烦时,Anthropic选择公开抗争并获胜。这为其他想要保持对其模型部署方式控制的AI构建者创造了模板。禁令并未解决关于政府对言论进行报复的根本宪法问题,但它确实确立了法院将审查这些认定,而不是自动顺从五角大楼的安全声明。

对于开发者和AI公司来说,这意味着你们可以抵制不认同的用例,而不会自动成为'安全风险'。但要预期五角大楼会完善其做法——他们可能会寻求更正式的监管渠道,而不是法院可以轻易推翻的行政标签。