本週有兩家AI安全新創公司走出隱身模式,帶著幾乎完全相同的宣傳內容:使用AI代理來保護可能首先就是由AI生成的程式碼。Gitar募集了900萬美元用於審查AI生成的程式碼,而總部位於倫敦的Trent AI從LocalGlobe和Cambridge Innovation Capital獲得了1300萬美元投資,用於他們所稱的「多代理安全解決方案」,在AI代理的整個生命週期中為其提供安全保障。

這感覺就像是2026年AI邏輯的巔峰——我們現在已經到了需要AI來監視AI的地步,而這些AI正在為人類編寫程式碼,而人類越來越不理解AI寫了什麼。Trent AI的創辦人是前AWS工程師,至少他們似乎理解他們正在處理的遞迴複雜性。他們的平台承諾代理會「持續協同工作」來掃描模型、分析風險、修補漏洞,並在整個開發工作流程中驗證修復。

有趣的是,這些公司如何以不同方式定位本質上相同的問題。雖然Gitar專注於程式碼審查,但Trent AI採用更廣泛的「分層平台」語言,表明他們理解這不僅僅是捕獲bug的問題——而是保護整個自主系統,這些系統在沒有人工監督的情況下做出決策。與此同時,像「The Agency」這樣的開源專案已經為開發者提供了專門的AI代理,用於從前端開發到Reddit管理的各種任務,顯示出這種多代理方法正在快速成為基礎配置。

對開發者來說,這既代表機遇也代表疲憊。是的,AI代理可能能夠捕獲人類審查員錯過的安全問題。但我們也在添加另一層AI複雜性,當事情出錯時需要除錯。真正的考驗將是這些安全代理是否能夠足夠清楚地解釋它們的決策,讓人類信任它們——或者我們只是在構建一個AI紙牌屋。