三大主要AI實驗室——OpenAI、Anthropic和Google——在部署前測試無法排除系統可能顯著協助新手開發生物武器的情況下,仍發布了其最新模型。根據2026年國際AI安全報告,這些公司的應對方式是增加「強化保障措施」而非延遲發布。OpenAI的o3模型現在在解決複雜病毒學實驗室協議方面超越了94%的生物學專家,而Anthropic在其最新版本中記錄了「隱蔽破壞」和化學武器協助能力。

這標誌著一個分水嶺時刻,商業壓力似乎正在戰勝安全謹慎。根據聯合國和Gartner的資料,AI已躍升至全球商業風險第二位,主要威脅從資料外洩轉向「自主系統故障」——AI代理在無監督情況下執行任務,造成連鎖營運和法律責任。時機再糟糕不過,1月28日已正式提出國際要求,要求制定具有法律約束力的條約禁止自主武器系統。

特別令人擔憂的是這些風險的技術特異性。標準化AI代理與伺服器連接的Model Context Protocol (MCP)在系統被劫持時為橫向移動創造了新的攻擊載體。與此同時,馬里蘭州正推進將選舉deepfakes定為犯罪,世界經濟論壇的2026年全球風險報告將AI驅動的「資訊失序」確定為對民主完整性的主要威脅。

對於使用這些模型進行開發的開發者來說,這不是學術問題——你們正在使用其創造者承認具有無法完全控制的危險能力的系統。「強化保障措施」本質上是對可能不應該以當前形式發布的模型的權宜之計。請相應地進行開發。