A Target atualizou seus termos de serviço para tornar os clientes responsáveis por qualquer erro cometido por seu próximo assistente de compras IA, que roda no Gemini do Google. A nova linguagem estabelece que transações realizadas pelo "Agentic Commerce Agent" são "consideradas transações autorizadas por você" — significando que se a IA comprar o item errado ou uma versão cara sem consentimento, os clientes pagam. A Target avisa explicitamente que "não pretende garantir que um Agentic Commerce Agent agirá exatamente como você pretende em todas as circunstâncias".
Isso revela o duplo padrão absurdo que impulsiona a adoção de IA no varejo: empresas correm para implementar agentes IA como vantagens competitivas enquanto se distanciam legalmente das falhas da tecnologia. A Target se junta ao Walmart, que também atualizou seus termos para cobrir erros do assistente IA "Sparky", declarando que respostas de IA generativa "podem não ser precisas, completas ou atualizadas e podem ser enganosas". Ambos os varejistas essencialmente admitem que suas ferramentas IA são pouco confiáveis enquanto ainda empurram clientes a usá-las.
O que é particularmente revelador é o timing — essas mudanças de responsabilidade vêm quando agentes IA ganham poder de compra real, não apenas capacidades de recomendação. Quando IA pode executar transações reais com dinheiro real, de repente a mentalidade "mover rápido e quebrar coisas" atinge departamentos jurídicos. O fato de que grandes varejistas se sentem obrigados a se absolver preventivamente sugere que sabem que seus agentes IA cometerão erros custosos.
Para desenvolvedores construindo agentes IA, isso é um tiro de advertência sobre responsabilidade e confiança do usuário. Se você está dando capacidades transacionais a sistemas IA, precisa de salvaguardas robustas, controles de usuário claros, e comunicação honesta sobre limitações. A abordagem da Target e Walmart — implementar primeiro, negar responsabilidade depois — pode funcionar para gigantes do varejo, mas não é sustentável para construir confiança do usuário em agentes IA a longo prazo.
