一名聯邦法官批准了Anthropic的初步禁制令,阻止五角大廈的供應商黑名單,認定國防部可能違反了第一修正案,當其因AI公司「透過媒體的敵對方式」而禁止該公司時。法官Rita Lin裁定,因Anthropic公開批評政府合約立場而懲罰該公司構成「典型的非法第一修正案報復」,禁制令將在七天內生效。

此案凸顯了AI治理中的根本性緊張關係:誰來設定軍用AI使用的邊界?國防部長Pete Hegseth的一月備忘錄要求在180天內在AI合約中加入「任何合法使用」的條款,本質上要求供應商允許軍事指揮官對AI部署擁有完全自主權。Anthropic拒絕了,堅持Claude不應用於自主武器或國內監控。五角大廈的回應——將其列入「供應鏈風險」黑名單——揭示了合約爭議如何迅速升級為憲法問題。

法官在聽證會上的評論顯示她理解核心困境:「Anthropic說其AI產品Claude用於自主致命武器和國內大規模監控是不安全的...國防部說軍事指揮官必須決定什麼是安全的。」雖然她承認解決這一政策辯論不是她的職責,但她的禁制令表明政府從選擇不同供應商轉向對公開批評進行報復時越界了。

對AI建構者來說,這設立了重要先例。公司顯然可以圍繞其技術劃定倫理界限,而不會因公開談論這些決定而面臨政府報復。但根本問題仍然存在:隨著AI能力的擴展,供應商是否能夠維持使用限制,還是政府合約會越來越多地要求無限制存取?最終判決可能重塑AI公司如何在商業機會和倫理邊界之間的緊張關係中導航。