Un recours collectif déposé mardi révèle que le moteur de recherche AI de Perplexity partage des transcripts complets de conversations avec Google et Meta via des trackers publicitaires intégrés, même pour les utilisateurs qui choisissent explicitement le « Mode Incognito ». Le plaignant, identifié seulement comme John Doe, a découvert que ses conversations sur les finances familiales, la gestion fiscale et les décisions d'investissement étaient transmises avec des informations personnellement identifiables incluant les adresses courriel. Selon la plainte, ce partage de données affecte tous les utilisateurs peu importe leur statut d'abonnement, les non-abonnés étant particulièrement vulnérables car leurs prompts initiaux génèrent des URLs qui permettent aux tiers un accès direct aux conversations complètes.

Cette poursuite expose un problème fondamental de confiance dans les produits AI grand public. Alors que des compagnies comme OpenAI et Anthropic ont fait face à de l'examen minutieux sur leurs pratiques de données d'entraînement, le comportement allégué de Perplexity représente quelque chose de plus invasif — de la surveillance en temps réel des requêtes d'utilisateurs à des fins publicitaires. Le cas souligne comment les compagnies AI monétisent les interactions d'utilisateurs de façons que les moteurs de recherche traditionnels n'ont jamais pu, étant donné la nature conversationnelle et profondément personnelle des sessions de chat AI. Les utilisateurs partagent naturellement plus d'informations sensibles avec les assistants AI qu'ils ne taperaient dans une recherche Google.

Ce qui rend ceci particulièrement accablant, c'est la tromperie alléguée autour du « Mode Incognito ». Si les découvertes techniques de la poursuite tiennent la route, Perplexity a marketing une fonctionnalité de confidentialité qui ne fournissait zéro protection de confidentialité réelle. La plainte allègue que même les abonnés payants utilisant ce mode ont eu leurs conversations et identifiants partagés avec Meta et Google. Ce ne sont pas juste de mauvaises pratiques de confidentialité — c'est potentiellement du marketing frauduleux d'une fonctionnalité de sécurité qui ne fonctionne pas.

Pour les développeurs qui bâtissent des applications AI, ce cas devrait être un réveil sur les intégrations tierces et l'analytique. Chaque pixel de tracking, chaque script d'analytique, chaque outil de test A/B que vous intégrez crée potentiellement de la responsabilité. Si vous bâtissez des produits AI, auditez vos flux de données maintenant. Les utilisateurs font confiance aux assistants AI avec de l'information profondément personnelle — violer cette confiance n'est pas juste non éthique, c'est apparemment aussi légalement actionnable.