本周有两家AI安全初创公司走出隐身模式,带着几乎完全相同的宣传内容:使用AI代理来保护可能首先就是由AI生成的代码。Gitar融资900万美元用于审查AI生成的代码,而总部位于伦敦的Trent AI从LocalGlobe和Cambridge Innovation Capital获得了1300万美元投资,用于他们所称的"多代理安全解决方案",在AI代理的整个生命周期中为其提供安全保障。

这感觉就像是2026年AI逻辑的巅峰——我们现在已经到了需要AI来监视AI的地步,而这些AI正在为人类编写代码,而人类越来越不理解AI写了什么。Trent AI的创始人是前AWS工程师,至少他们似乎理解他们正在处理的递归复杂性。他们的平台承诺代理会"持续协同工作"来扫描模型、分析风险、修补漏洞,并在整个开发工作流程中验证修复。

有趣的是,这些公司如何以不同方式定位本质上相同的问题。虽然Gitar专注于代码审查,但Trent AI采用更广泛的"分层平台"语言,表明他们理解这不仅仅是捕获bug的问题——而是保护整个自主系统,这些系统在没有人工监督的情况下做出决策。与此同时,像"The Agency"这样的开源项目已经为开发者提供了专门的AI代理,用于从前端开发到Reddit管理的各种任务,显示出这种多代理方法正在快速成为基础配置。

对开发者来说,这既代表机遇也代表疲惫。是的,AI代理可能能够捕获人类审查员错过的安全问题。但我们也在添加另一层AI复杂性,当事情出错时需要调试。真正的考验将是这些安全代理是否能够足够清楚地解释它们的决策,让人类信任它们——或者我们只是在构建一个AI纸牌屋。