根据Forcepoint首席数据战略官Ronan Murphy的说法,企业AI部署正在撞上一堵大多数组织都没有准备好应对的根本性安全墙。随着代理式AI在企业中规模化扩展,薄弱的数据分类和无管控的访问控制正在创造Murphy所描述的公司"距离灾难只有一个prompt"的情况。核心问题不仅仅是关于AI模型安全——而是大多数企业依赖的底层数据基础设施从未被设计来处理AI代理创建的复杂访问模式。
这直接连接到我在三月份写的内容,当时企业身份系统开始在AI代理工作负载下出现故障。问题已经演变:不仅仅是认证在失效,而是整个数据治理层。当AI代理可能在单个请求中访问和综合来自数十个数据源的信息时,传统的基于边界的安全模型就会崩溃。Murphy关于"过度自信"团队的观点很中肯——许多组织在部署AI时没有理解他们现有的数据分类系统无法处理这些工具所需要的细致的访问决策。
特别令人担忧的是,这种风险不是理论上的。与需要故意攻击的传统安全漏洞不同,AI驱动的数据暴露可能通过看似无害的prompt发生,意外暴露模型本不应该访问的敏感信息。对于构建AI应用的开发者来说,这意味着数据治理不能是事后考虑——它需要从第一天就进行架构设计,明确界定你的AI可以访问哪些数据源的边界,并对跨安全域的信息综合建立明确控制。
