Una demanda colectiva presentada el martes revela que el motor de búsqueda AI de Perplexity comparte transcripciones completas de chats con Google y Meta a través de rastreadores de anuncios integrados, incluso para usuarios que explícitamente eligen el "Modo Incógnito". El demandante, identificado solo como John Doe, descubrió que sus conversaciones sobre finanzas familiares, manejo de impuestos y decisiones de inversión fueron transmitidas junto con información personalmente identificable incluyendo direcciones de correo electrónico. Según la denuncia, este intercambio de datos afecta a todos los usuarios sin importar su estado de suscripción, con los no suscriptores particularmente vulnerables ya que sus prompts iniciales generan URLs que permiten a terceros acceso directo a conversaciones completas.

Esta demanda expone un problema fundamental de confianza en productos AI de consumo. Mientras que compañías como OpenAI y Anthropic han enfrentado escrutinio por prácticas de datos de entrenamiento, el comportamiento alegado de Perplexity representa algo más invasivo — vigilancia en tiempo real de consultas de usuarios con fines publicitarios. El caso resalta cómo las compañías AI están monetizando interacciones de usuarios de maneras que los motores de búsqueda tradicionales nunca pudieron, dada la naturaleza conversacional y profundamente personal de las sesiones de chat AI. Los usuarios naturalmente comparten más información sensible con asistentes AI de la que escribirían en una búsqueda de Google.

Lo que hace esto particularmente condenatorio es el engaño alegado alrededor del "Modo Incógnito". Si los hallazgos técnicos de la demanda se sostienen, Perplexity comercializó una función de privacidad que proporcionaba cero protección real de privacidad. La denuncia alega que incluso suscriptores pagos usando este modo tuvieron sus conversaciones e identificadores compartidos con Meta y Google. Esto no son solo malas prácticas de privacidad — es potencialmente marketing fraudulento de una función de seguridad que no funciona.

Para desarrolladores construyendo aplicaciones AI, este caso debería ser una llamada de atención sobre integraciones de terceros y analytics. Cada pixel de rastreo, cada script de analytics, cada herramienta de testing A/B que integras potencialmente crea responsabilidad legal. Si estás construyendo productos AI, audita tus flujos de datos ahora. Los usuarios confían en asistentes AI con información profundamente personal — violar esa confianza no es solo poco ético, aparentemente también es legalmente accionable.