Target a mis à jour ses conditions de service pour rendre les clients responsables de toute erreur commise par son prochain assistant d'achat IA, qui fonctionne sur Gemini de Google. Le nouveau langage stipule que les transactions effectuées par l'« Agentic Commerce Agent » sont « considérées comme des transactions autorisées par vous » — ce qui signifie que si l'IA achète le mauvais article ou une version coûteuse sans consentement, les clients paient. Target avertit explicitement qu'elle « ne prétend pas garantir qu'un Agentic Commerce Agent agira exactement comme vous l'entendez dans toutes les circonstances ».
Cela révèle le double standard absurde qui guide l'adoption de l'IA dans le commerce de détail : les entreprises se précipitent pour déployer des agents IA comme avantages concurrentiels tout en se distanciant légalement des échecs de la technologie. Target rejoint Walmart, qui a également mis à jour ses conditions pour couvrir les erreurs de l'assistant IA « Sparky », déclarant que les réponses IA génératives « peuvent ne pas être précises, complètes ou à jour et peuvent être trompeuses ». Les deux détaillants admettent essentiellement que leurs outils IA sont peu fiables tout en poussant encore les clients à les utiliser.
Ce qui est particulièrement révélateur, c'est le timing — ces transferts de responsabilité arrivent alors que les agents IA acquièrent un véritable pouvoir d'achat, pas seulement des capacités de recommandation. Quand l'IA peut exécuter de vraies transactions avec de l'argent réel, soudainement la mentalité « avancer vite et casser des trucs » frappe les départements juridiques. Le fait que de grands détaillants se sentent obligés de s'absoudre préventivement suggère qu'ils savent que leurs agents IA feront des erreurs coûteuses.
Pour les développeurs qui construisent des agents IA, c'est un coup de semonce concernant la responsabilité et la confiance des utilisateurs. Si vous donnez des capacités transactionnelles aux systèmes IA, vous avez besoin de protections robustes, de contrôles utilisateur clairs, et de communication honnête sur les limitations. L'approche de Target et Walmart — déployer d'abord, décliner la responsabilité après — peut fonctionner pour les géants du détail, mais ce n'est pas durable pour construire la confiance des utilisateurs dans les agents IA à long terme.
