Uma ação coletiva protocolada na terça-feira revela que o mecanismo de busca AI da Perplexity compartilha transcrições completas de chats com Google e Meta através de rastreadores de anúncios incorporados, mesmo para usuários que explicitamente escolhem o "Modo Incógnito". O autor da ação, identificado apenas como John Doe, descobriu que suas conversas sobre finanças familiares, gestão tributária e decisões de investimento foram transmitidas junto com informações pessoalmente identificáveis incluindo endereços de email. De acordo com a denúncia, este compartilhamento de dados afeta todos os usuários independentemente do status de assinatura, com não-assinantes particularmente vulneráveis já que seus prompts iniciais geram URLs que permitem a terceiros acesso direto a conversas completas.
Esta ação expõe um problema fundamental de confiança em produtos AI de consumo. Enquanto empresas como OpenAI e Anthropic enfrentaram escrutínio sobre práticas de dados de treinamento, o comportamento alegado da Perplexity representa algo mais invasivo — vigilância em tempo real de consultas de usuários para fins publicitários. O caso destaca como empresas AI estão monetizando interações de usuários de maneiras que mecanismos de busca tradicionais nunca puderam, dada a natureza conversacional e profundamente pessoal das sessões de chat AI. Usuários naturalmente compartilham mais informação sensível com assistentes AI do que digitariam numa busca do Google.
O que torna isso particularmente condenatório é o engano alegado em torno do "Modo Incógnito". Se as descobertas técnicas da ação se sustentarem, a Perplexity comercializou uma funcionalidade de privacidade que fornecia zero proteção real de privacidade. A denúncia alega que mesmo assinantes pagos usando este modo tiveram suas conversas e identificadores compartilhados com Meta e Google. Isso não são apenas práticas ruins de privacidade — é potencialmente marketing fraudulento de uma funcionalidade de segurança que não funciona.
Para desenvolvedores construindo aplicações AI, este caso deveria ser um alerta sobre integrações de terceiros e analytics. Cada pixel de rastreamento, cada script de analytics, cada ferramenta de teste A/B que você incorpora potencialmente cria responsabilidade legal. Se você está construindo produtos AI, audite seus fluxos de dados agora. Usuários confiam em assistentes AI com informação profundamente pessoal — violar essa confiança não é apenas antiético, é aparentemente também legalmente acionável.
