週二提起的集體訴訟揭露,Perplexity的AI搜尋引擎透過嵌入的廣告追蹤器與Google和Meta分享完整的聊天記錄,即使使用者明確選擇了「無痕模式」。原告僅以John Doe身份出現,發現他關於家庭財務、稅務管理和投資決策的對話連同包括電子郵件地址在內的個人身份資訊一起被傳輸。根據起訴書,這種資料共享影響所有使用者,無論訂閱狀態如何,非訂閱者特別容易受到影響,因為他們的初始提示會產生URL,允許第三方直接存取整個對話。
這起訴訟暴露了AI消費產品中的根本信任問題。雖然OpenAI和Anthropic等公司因訓練資料實務而面臨審查,但Perplexity的涉嫌行為代表了更具侵入性的東西——為了廣告目的對使用者查詢進行即時監控。該案例突顯了AI公司如何以傳統搜尋引擎從未能做到的方式將使用者互動貨幣化,考慮到AI聊天會話的對話性和深度個人化特性。使用者自然會與AI助理分享比在Google搜尋中輸入的更多敏感資訊。
特別令人憤慨的是圍繞「無痕模式」的涉嫌欺騙。如果訴訟的技術發現成立,Perplexity行銷了一個提供零實際隱私保護的隱私功能。起訴書聲稱,即使使用此模式的付費訂閱者也將他們的對話和識別符與Meta和Google共享。這不僅僅是糟糕的隱私做法——這可能是對不起作用的安全功能的詐欺性行銷。
對於建構AI應用程式的開發者來說,這個案例應該是關於第三方整合和analytics的警鐘。你嵌入的每個追蹤像素、每個analytics腳本、每個A/B測試工具都可能產生法律責任。如果你在建構AI產品,現在就稽核你的資料流。使用者信任AI助理處理深度個人資訊——違背這種信任不僅不道德,顯然也具有法律可訴性。
