一名联邦法官批准了Anthropic的初步禁令,阻止五角大楼的供应商黑名单,认定国防部可能违反了第一修正案,当其因AI公司"通过媒体的敌对方式"而禁止该公司时。法官Rita Lin裁定,因Anthropic公开批评政府合同立场而惩罚该公司构成"典型的非法第一修正案报复",禁令将在七天内生效。

此案凸显了AI治理中的根本性紧张关系:谁来设定军用AI使用的边界?国防部长Pete Hegseth的一月备忘录要求在180天内在AI合同中加入"任何合法使用"的条款,本质上要求供应商允许军事指挥官对AI部署拥有完全自主权。Anthropic拒绝了,坚持Claude不应用于自主武器或国内监控。五角大楼的回应——将其列入"供应链风险"黑名单——揭示了合同争议如何迅速升级为宪法问题。

法官在听证会上的评论显示她理解核心困境:"Anthropic说其AI产品Claude用于自主致命武器和国内大规模监控是不安全的...国防部说军事指挥官必须决定什么是安全的。"虽然她承认解决这一政策辩论不是她的职责,但她的禁令表明政府从选择不同供应商转向对公开批评进行报复时越界了。

对AI构建者来说,这设立了重要先例。公司显然可以围绕其技术划定伦理界限,而不会因公开谈论这些决定而面临政府报复。但根本问题仍然存在:随着AI能力的扩展,供应商是否能够维持使用限制,还是政府合同会越来越多地要求无限制访问?最终判决可能重塑AI公司如何在商业机会和伦理边界之间的紧张关系中导航。