多家科技媒体(包括 The Next Web、Dataconomy 和 Storyboard18)在 4 月 28 日(周二)报道:谷歌已与美国国防部签署一项机密 AI 协议,允许使用其 AI 模型用于"任何合法政府用途",合同中没有针对大规模国内监控或完全自主武器系统的禁止条款。这一表述来自匿名信源而非谷歌或国防部的公开披露,谷歌截至发稿前未公开确认或评论。合同金额、覆盖的具体谷歌模型、确切的生效日期均未披露。时机是这则报道里真正落地的部分:4 月 27 日(周一),560+ 谷歌和 DeepMind 员工,包括 18 名高管,向 Sundar Pichai 发布公开信,要求他拒绝五角大楼的机密 AI 工作负载,理由是机密网络让可接受使用规则无法执行;周二早上,这份合约就被报道。无论你怎么读,事情的次序就是公司在 24 小时内做了与那封信所要求的相反的事。

这则报道证实的技术现实就是员工公开信指出的架构性问题。Anthropic 在 2026 年 2 月与五角大楼的对峙以 Anthropic 拒绝撤销针对大规模监控和自主武器的可接受使用禁止条款告终;特朗普政府的回应是把 Anthropic 列为供应链风险,DC 巡回法院 4 月初驳回了 Anthropic 的上诉。谷歌据报达成的合约正好相反:以五角大楼能接受的条件签下合约,意味着没有例外条款。在隔离的机密网络上,Anthropic 所依赖的 API 审计日志根本不存在,所以即便合约里点了名某些禁止用途,谷歌也没有任何运营手段去知道部署的模型是否在被用于这些用途。"任何合法政府用途"这个措辞让这一点变成显式:合约围绕客户的法定授权来构造,而不是围绕供应商的产品政策。这正是员工公开信识别出的、并要求 Pichai 不要做的架构选择。谷歌据报合约相对于已经存在的微软、Palantir 或 Anduril 机密合约是否有实质差别,要看尚未公开的具体条款,但仅凭头条措辞就已经把谷歌从行业分裂里 Anthropic 那一侧移走了。

更广含义是,AI-防务的分裂现在不再是开放问题,而是已经定型的行业拓扑。一边是 Anthropic:公开执行的 AUP 限制,付出的代价是特朗普政府的封禁。另一边是谷歌(据报)、微软、OpenAI 与 Anthropic 同日宣布的平行五角大楼合约、Palantir 在 Maven 上的总承包商角色,以及 Anduril 的 Lattice。经济上的解释直接——五角大楼的前沿 AI 采购预算大到接受"任何合法用途"条款的供应商拿到合约,不接受的拿到供应链风险定性。政治上的解释是行政分支可以通过"威胁把你逐出联邦采购"来事实上否决 AUP 语言——Anthropic 先例已经证明了这一点。如果谷歌的报道得到证实,意味着除 Anthropic 之外的前沿 AI 行业都已经选择了这场交易里采购-收入这一边。560 名员工的公开信、18 名高级签名者、以及公开舆论压力,对合约条款没有产生任何可观察的改变——这本身就是 2026 年劳动力市场对 AI 伦理的杠杆怎么运转的一个数据点:在公开记录上是真的,对合约结构是无效的。

对工程师来说,三件具体事情值得记下。第一,如果你在评估前沿 AI 供应商、且工作中"用例审计可见性"重要,公开的 AUP 承诺现在是一个有意义的筛选标准,而不是营销细节。Anthropic 在那条线的一边;其他都在另一边。第二,人才市场的后果是真实的但是二阶的。签了信的工程师不会大规模离职,但这件事给安全对齐研究员的招聘摩擦从此是结构性的,会在未来 12-24 个月里复利累积。第三,监管那一层才是决定下一步的:欧盟 AI Act、英国 AISI 及其等价机构会把"任何合法政府用途"的合约当成跨境部署美国前沿模型给非美国政府客户时的风险因素,意味着这些供应商在全球市场的一部分要么通过不同的合约外壳被服务、要么通过对监管者友好的中介(Mistral、欧盟主权云渠道等)托管的模型来服务。完整效果在 2026 年还看不全,但结构性锁定已经到位。谷歌未予置评,故事会随官方披露落地继续演变。