Un règlement FTC tranquille de mars 2026 produit une conséquence bruyante cette semaine : Clarifai a supprimé trois millions de photos obtenues d'OkCupid en 2014, plus chaque modèle entraîné sur elles. Reuters a sorti l'histoire, TechCrunch l'a reprise. L'arrangement de partage de données a commencé quand le fondateur pis CEO de Clarifai Matthew Zeiler a écrit à un collègue : « On collecte des données maintenant pis on vient de réaliser qu'OKCupid doit avoir une ÉNORME quantité de données incroyables. » Les dirigeants d'OkCupid détenaient des parts dans Clarifai à l'époque, ce qui est le genre de conflit d'intérêts qui a l'air pire en 2026 qu'en 2014.
Les conséquences du côté IA sont plus intéressantes que la suppression de photos elle-même. Trois millions de photos de visages est un jeu d'entraînement utile mais pas sans précédent ; Clarifai a plein de données. L'accord FTC a aussi supprimé chaque modèle entraîné sur les données OkCupid, ce qui est une catégorie différente pis beaucoup plus difficile. Suppression de modèle en 2026 signifie : poids partis, embeddings partis, fine-tunes dérivés de ces modèles partis, plus les classificateurs dérivés ou déploiements clients qui en dépendaient. Un article de 2019 du New York Times a originellement exposé que Clarifai avait construit des outils estimant âge, sexe, pis race depuis les visages en utilisant ce dataset — ce sont exactement le genre de modèles qui génèrent des déploiements en aval, pis c'est là où le nettoyage devient coûteux pis incomplet en pratique.
Deux points légaux valent la peine d'être nommés. Un, la FTC n'a pas pu imposer de pénalité financière. C'est une « première infraction de ce type » selon leur statut, pis ils peuvent seulement exiger conformité pis interdictions. OkCupid pis Match Group sont définitivement interdits de mal représenter ou d'aider d'autres à mal représenter comment les données sont collectées pis partagées. Ils n'ont pas admis les allégations. Deux, l'écart de douze ans entre la prise de données de 2014 pis la conséquence de 2026 est un rappel que la responsabilité des données d'entraînement roule sur de longues échelles temporelles. L'histoire du NYT de 2019 a déclenché l'enquête FTC ; le règlement de mars 2026 a produit la suppression réelle ce mois-ci. Si tu entraînes sur des données utilisateurs aujourd'hui, le chrono commence maintenant, pis la demi-vie est plus longue que la plupart des modèles que t'expédies.
Deux choses à enregistrer pour les builders. Un, le résultat « supprimer les modèles, pas juste les photos » est le template réglementaire émergent. C'est à quoi ressemble réellement le droit à l'effacement style RGPD quand appliqué aux systèmes ML. Ta documentation de lignée de données (quel modèle a été entraîné sur quel dataset, quel déploiement utilise quel modèle) est maintenant un artefact légal, pas une courtoisie de gouvernance ; si tu peux pas produire cette lignée dans le calendrier d'un régulateur, tu vas finir par supprimer plus de modèles que nécessaire, défensivement. Deux, les participations croisées d'exécutifs entre entreprises générant des données pis entreprises entraînant de l'IA sont maintenant une classe de responsabilité concrète. Le courriel de Zeiler n'était pas accablant parce qu'il était grossier. Il était accablant parce que les dirigeants d'OkCupid avaient des parts dans Clarifai, faisant paraître le partage de données comme de l'auto-dealing plutôt qu'une intégration légitime. La posture « fais-nous confiance, on a une politique de confidentialité » ne tient pas légalement quand les investissements pis courriels racontent une histoire différente.
