Anthropic 把 Claude Security 推上了 Enterprise 客戶的公開測試 —— 這個產品原名 Claude Code Security,這次拿掉了「Code」字樣、範圍擴大。底層跑的是 Opus 4.7(也就是 Claude Code 背後的同一個模型),對客戶程式碼庫做的是「帶 agent 風格」的靜態分析:追蹤資料流、查看跨檔案跨模組的元件互動、直接讀原始碼,然後產出可供人工審閱的修補指令。它住在 Claude.ai 側邊欄的 claude.ai/security 路徑下,管理員控制台啟用;整合方面提供 Slack 與 Jira 的 webhook,以及給稽核管線用的 CSV/Markdown 匯出。Team 和 Max 方案據說會跟進。

值得說的架構選擇是「模型驅動分析」對「規則模式驅動分析」。Snyk、Semgrep、GitHub Advanced Security 這些工具的主體工作方式,是維護一套精挑過的規則庫 —— CWE 模式、已知壞用法的 API、被 CVE 命中的相依套件 —— 然後把客戶程式碼拿來對照比對。這種路徑快、穩、可重現,擅長那些以「可辨識的程式碼外形」呈現出來的漏洞。Claude Security 的路徑相反:讓一個前沿推理模型把程式碼讀進來、對其推理。兩條路的權衡也相反 —— 模型路徑在跨檔案資料流問題、業務邏輯缺陷、不符合靜態規則的邏輯 bug 上多半更強;在「對已知模式的涵蓋完整度」上多半更弱。這是真實意義上的架構轉向,不是在既有掃描器外面套一層包裝。

但承重的那塊缺失件就在這兒:沒有公開評測資料。沒有公布支援的語言清單。沒有誤報率。沒有標準基準上的精確率/召回率。沒有針對同一程式碼庫與 Snyk 或 Semgrep 的對照執行。沒有價格。這次發布的語氣是「我們做了這個,信我們,放你自己的程式碼上去驗證」—— 公測期這麼說沒問題,但意思就是:任何想拿它和現有工具橫比的開發者,都得自己做測量。生態層面的誠實訊號是:前沿實驗室的「垂直產品」開始上線了(這一款;OpenAI 的 Codex;Google 的 Big Sleep;Cursor/Anthropic/OpenAI 這些做企業版的多條線)。原本只「供電」給應用層的實驗室,現在直接和它過去餵過的應用層競爭 —— 不論最後誰贏,這個生態走向值得追。

如果你在 Claude Enterprise 上,打開它,挑一份你熟得不能再熟的程式碼庫去跑一輪,然後跟你現有的掃描器棧做對照,看它發現了什麼、漏了什麼。評測的紀律在你這邊 ——「AI 漏洞掃描器」這個 claim 已經被喊了足夠久,你應該保持懷疑直到自己量過。重點看跟 Snyk/Semgrep 結果的重疊區域:模型抓到、規則沒抓到的,那是訊號;規則抓到、模型沒抓到的,那就是這一代模型驅動分析的邊界。還值得留意的是:目前沒有 GitHub PR 整合,也沒有 CLI 入口 —— 大多數正式環境的安全工具是住在 PR 審閱裡的,而這個產品現在住在 claude.ai 裡。這是一個有意思的產品選擇,大機率是暫時的。