欧盟AI法案对高风险AI系统的日志记录要求在智能体AI面前遭遇合规壁垒。第12条要求"自动记录事件"并提供防篡改保证,而标准应用日志无法提供这些功能。虽然法规没有特别提及AI智能体,但信用评分、简历筛选或医疗决策系统都属于附件III的高风险分类。截止日期是2026年8月2日。
这造成了大多数组织尚未理解的技术噩梦。AI智能体不仅执行API调用——它们推理、委托并在决策树中链式调用工具,而标准日志架构并非为捕获这些而构建。正如我在四月报道的那样,智能体AI暴露了治理黑洞。第12条使这些黑洞成为监管责任。你需要记录的不仅是智能体做了什么,还要记录它为什么选择那条路径、调用了哪些工具以及如何得出决策。
开发者报道揭示了实际差距:大多数团队认为合规意味着更好的CloudWatch仪表板。错误。第12条要求加密签名或区块链式不可变性来证明日志没有被追溯篡改。该法规涵盖第12、13、19和26条,交叉引用使实施变得不明确。金融服务可以将AI日志整合到现有监管框架中,但其他所有人都面临六个月的最低保留期和特定行业的扩展要求。
如果你正在为受监管用例构建智能体,现在就开始设计日志架构。当监管机构要求证明你的决策日志在事后六个月内没有被篡改时,"我们有可观测性"并不是合规策略。
