Target actualizó sus términos de servicio para hacer a los clientes responsables de cualquier error cometido por su próximo asistente de compras IA, que funciona con Gemini de Google. El nuevo lenguaje establece que las transacciones realizadas por el "Agentic Commerce Agent" son "consideradas transacciones autorizadas por usted" — lo que significa que si la IA compra el artículo equivocado o una versión cara sin consentimiento, los clientes pagan. Target advierte explícitamente que "no pretende garantizar que un Agentic Commerce Agent actuará exactamente como usted pretende en todas las circunstancias".

Esto revela el doble estándar absurdo que impulsa la adopción de IA en el retail: las empresas se apuran a implementar agentes IA como ventajas competitivas mientras se distancian legalmente de las fallas de la tecnología. Target se une a Walmart, que también actualizó sus términos para cubrir errores del asistente IA "Sparky", declarando que las respuestas de IA generativa "pueden no ser precisas, completas o actualizadas y pueden ser engañosas". Ambos minoristas esencialmente admiten que sus herramientas IA son poco confiables mientras siguen empujando a los clientes a usarlas.

Lo que es particularmente revelador es el timing — estos cambios de responsabilidad llegan cuando los agentes IA ganan poder de compra real, no solo capacidades de recomendación. Cuando la IA puede ejecutar transacciones reales con dinero real, de repente la mentalidad de "moverse rápido y romper cosas" golpea a los departamentos legales. El hecho de que grandes minoristas se sientan obligados a absolverse preventivamente sugiere que saben que sus agentes IA cometerán errores costosos.

Para desarrolladores construyendo agentes IA, esto es una advertencia sobre responsabilidad y confianza del usuario. Si estás dando capacidades transaccionales a sistemas IA, necesitas salvaguardas robustas, controles de usuario claros, y comunicación honesta sobre limitaciones. El enfoque de Target y Walmart — implementar primero, rechazar responsabilidad después — puede funcionar para gigantes del retail, pero no es sostenible para construir confianza del usuario en agentes IA a largo plazo.