一名聯邦法官批准了Anthropic針對五角大廈試圖將這家AI公司標記為「供應鏈安全風險」的禁制令,有效阻止軍方將Claude的創造者列入政府合約黑名單。這項禁制令是在數月不斷升級的緊張局勢後下達的,緊張關係始於Anthropic抵制其AI模型的軍事應用,導致該公司所稱的透過行政認定而非適當法律程序進行的報復。
這項裁決延續了我自3月以來一直在追蹤的模式——法院持續拒絕五角大廈對AI治理的重手段做法。法官的決定強化了AI公司不能因為對其模型用例行使編輯控制而被任意懲罰。這是一個關鍵先例,因為更多AI建構者面臨壓力,要麼完全接受軍事應用,要麼冒著官僚懲罰的風險。五角大廈的「供應鏈風險」標籤帶來真實後果:自動排除在聯邦合約之外,以及對cloud基礎設施存取的潛在限制。
使這特別重要的是時機。當其他AI公司悄悄遵從軍事要求以避免監管麻煩時,Anthropic選擇公開抗爭並獲勝。這為其他想要保持對其模型部署方式控制的AI建構者創造了範本。禁制令並未解決關於政府對言論進行報復的根本憲法問題,但它確實確立了法院將審查這些認定,而不是自動順從五角大廈的安全聲明。
對於開發者和AI公司來說,這意味著你們可以抵制不認同的用例,而不會自動成為「安全風險」。但要預期五角大廈會完善其做法——他們可能會尋求更正式的監管管道,而不是法院可以輕易推翻的行政標籤。
