Exabeam扩展了其Agent Behavior Analytics平台,以监控跨ChatGPT、Microsoft Copilot和Google Gemini的AI代理活动,针对随着企业AI采用加速而增长的安全漏洞。该平台跟踪员工与这些AI工具的交互,提供对共享了什么数据、代理如何响应以及传统监控系统遗漏的潜在安全风险的可视性。
这一举措反映了企业AI部署中的一个关键疏忽:公司匆忙整合AI工具而没有建立适当的防护措施。虽然IT部门可以看到流向ai.openai.com的网络流量,但他们无法看到员工实际向这些系统输入了什么,或者什么敏感信息可能正在泄露。Exabeam押注行为分析——观察模式而非内容——可以标记风险使用而不违反隐私。
时机表明企业对AI代理激增的焦虑日益增长。由于可获得的来源有限,尚不清楚这种监控有多深入,或者它是否真的能够检测到复杂的prompt注入攻击或通过AI对话进行的数据窃取。该平台可能专注于使用模式和异常而非内容分析,这引发了对其对抗坚定恶意行为者的有效性的质疑。
对于开发者和AI用户来说,这表明隐形AI使用的时代正在结束。预计企业将对你的ChatGPT对话和Copilot建议进行更多监督。聪明的团队应该通过制定明确的AI使用政策并理解什么行为模式可能在其组织中触发安全警报来抢先一步。
