2026 年 3 月一份安靜的 FTC 和解本週在產出響亮的後果:Clarifai 刪除了 2014 年從 OkCupid 拿到的 300 萬張照片,以及所有基於這些資料訓練的模型。路透社首發,TechCrunch 跟進。這起資料共享安排始於 Clarifai 創辦人兼 CEO Matthew Zeiler 給同事的一封郵件:「我們現在正在收集資料,剛意識到 OKCupid 必然有一大堆牛逼的資料。」彼時 OkCupid 高管持有 Clarifai 股權,這種利益衝突在 2026 年看起來比在 2014 年更糟。

AI 側的後果比照片刪除本身更有意思。300 萬張人臉照片是一個有用但並不稀奇的訓練集,Clarifai 不缺資料。FTC 協議同時刪除了所有基於 OkCupid 資料訓練過的模型,這是一個不同且困難得多的類別。2026 年的「模型刪除」意味著:權重不見了、嵌入不見了、從這些模型微調得到的 fine-tune 不見了,加上依賴於它們的衍生分類器或客戶部署。2019 年《紐約時報》的一篇文章最早披露 Clarifai 曾基於這份資料集建構從人臉估計年齡、性別與種族的工具——這正是會催生下游部署的那類模型,也正是在實踐中清理既昂貴又難以徹底的地方。

兩個法律點值得點名。其一,FTC 未能施加罰款。按其治理法規,這是「該類型首次違規」,FTC 只能要求合規與禁止。OkCupid 與 Match Group 被永久禁止在資料如何收集與分享上作誤導,或協助他人作誤導。他們未承認指控。其二,2014 年的資料侵佔與 2026 年的後果之間有 12 年落差,這提醒我們:訓練資料的責任在長時間尺度上累積。2019 年《紐約時報》的報導觸發了 FTC 調查;2026 年 3 月的和解在本月產出了實際的刪除。如果你今天用使用者資料做訓練,計時從此刻開始,而其半衰期比你發出的絕大多數模型都長。

對 builder 來說有兩點要記。其一,「刪掉模型,不只是刪掉照片」的結果正在成為新興的監管模板。當 GDPR 式的被遺忘權應用到 ML 系統上,這就是它真實的樣子。你的資料血緣文件(哪個模型基於哪個資料集訓練、哪個部署用了哪個模型)如今是一件法律物件,而不只是治理禮儀;如果你不能按監管方的時間表提交這份血緣,你最終會為了防守而刪掉比本需要刪除的更多的模型。其二,資料產生方公司與 AI 訓練公司之間的高管交叉持股現在是一個具體的責任類別。Zeiler 的郵件之所以要命,不是因為語氣粗俗,而是因為 OkCupid 高管持有 Clarifai 股權——這讓資料共享看起來像自我交易,而不是合法的整合。「相信我們吧,我們有隱私政策」這種姿態,當投資與郵件講出不同的故事時,在法律上是撐不住的。