多家科技媒體(包括 The Next Web、Dataconomy 和 Storyboard18)在 4 月 28 日(週二)報導:Google 已與美國國防部簽署一項機密 AI 協議,允許使用其 AI 模型用於"任何合法政府用途",合約中沒有針對大規模國內監控或完全自主武器系統的禁止條款。這一表述來自匿名信源而非 Google 或國防部的公開披露,Google 截至發稿前未公開確認或評論。合約金額、覆蓋的具體 Google 模型、確切的生效日期均未披露。時機是這則報導裡真正落地的部分:4 月 27 日(週一),560+ Google 和 DeepMind 員工,包括 18 名高管,向 Sundar Pichai 發布公開信,要求他拒絕五角大廈的機密 AI 工作負載,理由是機密網路讓可接受使用規則無法執行;週二早上,這份合約就被報導。無論你怎麼讀,事情的次序就是公司在 24 小時內做了與那封信所要求的相反的事。

這則報導證實的技術現實就是員工公開信指出的架構性問題。Anthropic 在 2026 年 2 月與五角大廈的對峙以 Anthropic 拒絕撤銷針對大規模監控和自主武器的可接受使用禁止條款告終;川普政府的回應是把 Anthropic 列為供應鏈風險,DC 巡迴法院 4 月初駁回了 Anthropic 的上訴。Google 據報達成的合約正好相反:以五角大廈能接受的條件簽下合約,意味著沒有例外條款。在隔離的機密網路上,Anthropic 所依賴的 API 稽核日誌根本不存在,所以即便合約裡點了名某些禁止用途,Google 也沒有任何運營手段去知道部署的模型是否在被用於這些用途。"任何合法政府用途"這個措辭讓這一點變成顯式:合約圍繞客戶的法定授權來構造,而不是圍繞供應商的產品政策。這正是員工公開信識別出的、並要求 Pichai 不要做的架構選擇。Google 據報合約相對於已經存在的微軟、Palantir 或 Anduril 機密合約是否有實質差別,要看尚未公開的具體條款,但僅憑頭條措辭就已經把 Google 從行業分裂裡 Anthropic 那一側移走了。

更廣含義是,AI-防務的分裂現在不再是開放問題,而是已經定型的行業拓撲。一邊是 Anthropic:公開執行的 AUP 限制,付出的代價是川普政府的封禁。另一邊是 Google(據報)、微軟、OpenAI 與 Anthropic 同日宣布的平行五角大廈合約、Palantir 在 Maven 上的總承包商角色,以及 Anduril 的 Lattice。經濟上的解釋直接——五角大廈的前沿 AI 採購預算大到接受"任何合法用途"條款的供應商拿到合約,不接受的拿到供應鏈風險定性。政治上的解釋是行政分支可以通過"威脅把你逐出聯邦採購"來事實上否決 AUP 語言——Anthropic 先例已經證明了這一點。如果 Google 的報導得到證實,意味著除 Anthropic 之外的前沿 AI 行業都已經選擇了這場交易裡採購-收入這一邊。560 名員工的公開信、18 名高級簽名者、以及公開輿論壓力,對合約條款沒有產生任何可觀察的改變——這本身就是 2026 年勞動力市場對 AI 倫理的槓桿怎麼運轉的一個資料點:在公開記錄上是真的,對合約結構是無效的。

對工程師來說,三件具體事情值得記下。第一,如果你在評估前沿 AI 供應商、且工作中"用例稽核可見性"重要,公開的 AUP 承諾現在是一個有意義的篩選標準,而不是行銷細節。Anthropic 在那條線的一邊;其他都在另一邊。第二,人才市場的後果是真實的但是二階的。簽了信的工程師不會大規模離職,但這件事給安全對齊研究員的招聘摩擦從此是結構性的,會在未來 12-24 個月裡複利累積。第三,監管那一層才是決定下一步的:歐盟 AI Act、英國 AISI 及其等價機構會把"任何合法政府用途"的合約當成跨境部署美國前沿模型給非美國政府客戶時的風險因素,意味著這些供應商在全球市場的一部分要麼通過不同的合約外殼被服務、要麼通過對監管者友好的中介(Mistral、歐盟主權雲渠道等)託管的模型來服務。完整效果在 2026 年還看不全,但結構性鎖定已經到位。Google 未予置評,故事會隨官方披露落地繼續演變。