OpenAI 于 4 月 29 日发布了一份网络安全行动计划,Help Net Security 做了概要报道。该计划把公司的路线定调为「跑赢攻击者、把防御方先武装起来」,而不是出于安全考虑去限制对模型的接入。OpenAI 国家安全政策负责人 Sasha Baker 给出威胁画像:「恶意行为者正在用 AI 改进钓鱼、自动化侦察、加速恶意软件开发、规避检测、扩大网络作战规模。这些团伙并不需要最先进的前沿模型才能造成实际伤害;即便是中档但有能力的系统,也能带来有意义的作战级优势。」整个计划由五大支柱构成:民主化网络防御、跨政府与产业协同、加固前沿网络能力周边的安全、保留部署中的可见性与控制权、让用户能保护自己。防御方接入的具体载体是 Trusted Access for Cyber(TAC)项目—— 对经过审核的防御方实行分级接入,对更强能力施加更严格的控制。Help Net Security 把这一姿态与「Anthropic 更谨慎的立场,强调更紧的控制与对高级 AI 能力的限制性接入」做了明确对照。
OpenAI 与 Anthropic 之间的政策分野,如今是一个明摆着的市场分野。OpenAI 的论点:如果攻击者可以用中档系统在大尺度上做钓鱼、侦察、恶意软件开发与规避检测,那么把前沿能力对防御方做单边限制,只会输掉这场比赛。由此推论,真正合适的政策杠杆是「分级接入」,而不是「能力封顶」—— 这正是 TAC 想要制度化的东西。Anthropic 的反向论点是:大规模放开防御方接入,等于大规模放开「双用途暴露」;再加上我们这周早些时候报道过的 Anthropic 拒签五角大楼合同的供应链风险标签诉讼,其逻辑可推广为「在你无法落实安全控制的用例上,直接拒绝」。两种立场都站得住脚。最终哪一边胜出,与其说看技术对错,不如说取决于监管环境,以及哪种「Tumbler Ridge 式」的诉讼会先落到哪一家公司头上。
三条值得关注的模式。第一,「即便是中档模型也能带来有意义的作战级优势」—— Baker 的这种定调,与上周 Wiz Research 在 GitHub 上演示的同一论点是一致的:有人用 AI 在闭源二进制中找到了一个严重 RCE。「AI 驱动的漏洞发现」这一威胁模型,如今被 OpenAI 自己写进了政策表述。预计 2026 年里每一家大型安全厂商都会发布类似报告,保险公司也会开始把「AI 攻击敞口」纳入保费定价。第二,TAC 项目的分级接入设计是一份模板:审核防御方、按可信度分层接入能力、把最强能力放在更重的控制后面。这种结构可被任何想要为防御侧提供「safety-tier」能力的供应商照搬;预计 12 个月内 Anthropic、Google、Microsoft 与 AWS Bedrock 都会公布各自的对应方案。第三,Anthropic 与 OpenAI 的分野,折射出 2026 年更大的产业分野 —— OpenAI 接的是 Anthropic 拒接的合同与能力赌注(五角大楼合同、防御方接入)。最终市场会对「哪一边对」给出定价;在那之前,builders 必须读懂两家公司的政策,然后明确地下注。
对 builders,三件具体事情。第一,如果你做安全工具,TAC 这种分级接入项目值得真去评估,而不是只 bookmark。防御侧使用高级模型的用例是真实的(漏洞发现、日志分诊、威胁狩猎、对 CTI 数据做 RAG),而 OpenAI 已经在喊话「我要经过审核的合作伙伴」。要么你提早进,要么看着竞争对手先进。第二,「中档系统也很危险」这种定调,本身就是一个监管信号。如果 OpenAI 公开在论证「中档能力即足以放大攻击」,那么立法侧的回应必然跟上 —— 预期在「中等能力分级」上,会出现原本不存在的合规框架,你应该提前准备好你自己的安全文档。第三,OpenAI 与 Anthropic 在政策上的分歧,如今是「在两者之上做产品」的任何公司必须做的明确战略选择。如果你的客户在意「以受限接入作为安全特性」,Anthropic 才是上游立场对得上的供应商;如果你的客户要的是「面向防御方的更广泛能力接入」,OpenAI 的 TAC 才是供应商载体。一年前那种「我们对你用哪家模型保持中立」式的话术,已经不再完全中立了 —— 你现在必须讲清楚:你站在政策分野的哪一侧。
