Target更新了服務條款,讓客戶對其即將推出的AI購物助理犯的任何錯誤承擔責任,該助理運行在Google的Gemini上。新條款規定,"Agentic Commerce Agent"執行的交易"被視為您授權的交易" — 這意味著如果AI買錯商品或未經同意購買昂貴版本,客戶要付款。Target明確警告,它"不聲稱保證Agentic Commerce Agent在所有情況下都會完全按照您的意圖行事"。
這揭示了推動零售AI採用的荒謬雙重標準:公司急於部署AI代理作為競爭優勢,同時在法律上與技術失敗保持距離。Target加入了Walmart的行列,後者也更新了條款以涵蓋AI助理"Sparky"的錯誤,聲明生成式AI回應"可能不準確、不完整或過時,可能具有誤導性"。兩家零售商本質上都承認他們的AI工具不可靠,同時仍在推動客戶使用它們。
特別能說明問題的是時機 — 這些責任轉移發生在AI代理獲得實際購買力時,而不僅僅是推薦功能。當AI可以用真錢執行真實交易時,"快速行動,打破常規"的心態突然衝擊了法務部門。主要零售商感到必須預先免除自己責任的事實表明,他們知道自己的AI代理會犯代價高昂的錯誤。
對於構建AI代理的開發者來說,這是關於責任和用戶信任的警告。如果你要給AI系統交易能力,你需要強大的保護措施、清晰的用戶控制和關於限制的誠實溝通。Target和Walmart的做法 — 先部署,後免責 — 可能對零售巨頭有效,但對於長期建立用戶對AI代理的信心來說是不可持續的。
