OpenAI 於 4 月 29 日發布了一份網路安全行動計畫,Help Net Security 做了概要報導。該計畫把公司的路線定調為「跑贏攻擊者、把防禦方先武裝起來」,而不是出於安全考量去限制對模型的存取。OpenAI 國家安全政策負責人 Sasha Baker 給出威脅畫像:「惡意行為者正在用 AI 改進釣魚、自動化偵察、加速惡意軟體開發、規避偵測、擴大網路作戰規模。這些團伙並不需要最先進的前沿模型才能造成實際傷害;即便是中階但有能力的系統,也能帶來有意義的作戰級優勢。」整個計畫由五大支柱構成:民主化網路防禦、跨政府與產業協同、強化前沿網路能力周邊的安全、保留部署中的可見性與控制權、讓用戶能保護自己。防禦方存取的具體載體是 Trusted Access for Cyber(TAC)專案—— 對經過審核的防禦方實行分級存取,對更強能力施加更嚴格的控制。Help Net Security 把這一姿態與「Anthropic 更謹慎的立場,強調更緊的控制與對高階 AI 能力的限制性存取」做了明確對照。

OpenAI 與 Anthropic 之間的政策分野,如今是一個明擺著的市場分野。OpenAI 的論點:如果攻擊者可以用中階系統在大尺度上做釣魚、偵察、惡意軟體開發與規避偵測,那麼把前沿能力對防禦方做單邊限制,只會輸掉這場比賽。由此推論,真正合適的政策槓桿是「分級存取」,而不是「能力封頂」—— 這正是 TAC 想要制度化的東西。Anthropic 的反向論點是:大規模放開防禦方存取,等於大規模放開「雙用途曝險」;再加上我們這週稍早報導過的 Anthropic 拒簽五角大廈合約的供應鏈風險標籤訴訟,其邏輯可推廣為「在你無法落實安全控制的用例上,直接拒絕」。兩種立場都站得住腳。最終哪一邊勝出,與其說看技術對錯,不如說取決於監管環境,以及哪種「Tumbler Ridge 式」的訴訟會先落到哪一家公司頭上。

三條值得關注的模式。第一,「即便是中階模型也能帶來有意義的作戰級優勢」—— Baker 的這種定調,與上週 Wiz Research 在 GitHub 上演示的同一論點是一致的:有人用 AI 在閉源二進位中找到了一個嚴重 RCE。「AI 驅動的漏洞發現」這一威脅模型,如今被 OpenAI 自己寫進了政策表述。預計 2026 年裡每一家大型安全廠商都會發布類似報告,保險公司也會開始把「AI 攻擊曝險」納入保費定價。第二,TAC 專案的分級存取設計是一份模板:審核防禦方、按可信度分層存取能力、把最強能力放在更重的控制後面。這種結構可被任何想要為防禦側提供「safety-tier」能力的供應商照搬;預計 12 個月內 Anthropic、Google、Microsoft 與 AWS Bedrock 都會公布各自的對應方案。第三,Anthropic 與 OpenAI 的分野,折射出 2026 年更大的產業分野 —— OpenAI 接的是 Anthropic 拒接的合約與能力賭注(五角大廈合約、防禦方存取)。最終市場會對「哪一邊對」給出定價;在那之前,builders 必須讀懂兩家公司的政策,然後明確地下注。

對 builders,三件具體事情。第一,如果你做安全工具,TAC 這種分級存取專案值得真去評估,而不是只 bookmark。防禦側使用高階模型的用例是真實的(漏洞發現、日誌分流、威脅獵殺、對 CTI 資料做 RAG),而 OpenAI 已經在喊話「我要經過審核的合作夥伴」。要嘛你提早進,要嘛看著競爭對手先進。第二,「中階系統也很危險」這種定調,本身就是一個監管訊號。如果 OpenAI 公開在論證「中階能力即足以放大攻擊」,那麼立法側的回應必然跟上 —— 預期在「中等能力分級」上,會出現原本不存在的合規框架,你應該提前準備好你自己的安全文件。第三,OpenAI 與 Anthropic 在政策上的分歧,如今是「在兩者之上做產品」的任何公司必須做的明確策略選擇。如果你的客戶在意「以受限存取作為安全特性」,Anthropic 才是上游立場對得上的供應商;如果你的客戶要的是「面向防禦方的更廣泛能力存取」,OpenAI 的 TAC 才是供應商載體。一年前那種「我們對你用哪家模型保持中立」式的話術,已經不再完全中立了 —— 你現在必須講清楚:你站在政策分野的哪一側。