Target更新了服务条款,让客户对其即将推出的AI购物助手犯的任何错误承担责任,该助手运行在Google的Gemini上。新条款规定,"Agentic Commerce Agent"执行的交易"被视为您授权的交易" — 这意味着如果AI买错商品或未经同意购买昂贵版本,客户要付款。Target明确警告,它"不声称保证Agentic Commerce Agent在所有情况下都会完全按照您的意图行事"。
这揭示了推动零售AI采用的荒谬双重标准:公司急于部署AI代理作为竞争优势,同时在法律上与技术失败保持距离。Target加入了Walmart的行列,后者也更新了条款以涵盖AI助手"Sparky"的错误,声明生成式AI回应"可能不准确、不完整或过时,可能具有误导性"。两家零售商本质上都承认他们的AI工具不可靠,同时仍在推动客户使用它们。
特别能说明问题的是时机 — 这些责任转移发生在AI代理获得实际购买力时,而不仅仅是推荐功能。当AI可以用真钱执行真实交易时,"快速行动,打破常规"的心态突然冲击了法务部门。主要零售商感到必须预先免除自己责任的事实表明,他们知道自己的AI代理会犯代价高昂的错误。
对于构建AI代理的开发者来说,这是关于责任和用户信任的警告。如果你要给AI系统交易能力,你需要强大的保护措施、清晰的用户控制和关于限制的诚实沟通。Target和Walmart的做法 — 先部署,后免责 — 可能对零售巨头有效,但对于长期建立用户对AI代理的信心来说是不可持续的。
