Le caporal Stephen Kamnik de la Pennsylvania State Police a plaidé coupable d'avoir créé plus de 3 000 deepfakes pornographiques générés par IA en utilisant des photos volées dans des bases de données gouvernementales, incluant des photos de permis de conduire et des séquences secrètement enregistrées de collègues. Le trentenaire de 39 ans a accédé à JNET, une base de données d'État sécurisée, pour récolter des centaines de photos de femmes en violation directe des politiques d'utilisation, puis a utilisé des outils IA sur des ordinateurs gouvernementaux dans des casernes de police pour générer des images explicites. Ses crimes numériques s'étendaient jusqu'à filmer secrètement une juge de tribunal de district pendant les procédures et fouiller dans les sous-vêtements de collègues féminines.

Cette affaire expose à quel point les outils de génération IA facilement accessibles sont devenus des armes pour l'exploitation sexuelle. Pendant que la communauté IA débat du consentement et de la réglementation des deepfakes, Kamnik démontre les dommages réels quand la génération d'images sophistiquées rencontre l'accès institutionnel aux données personnelles. L'enquête n'a commencé que parce que son ordinateur gouvernemental consommait une bande passante inhabituelle — une méthode de détection qui n'attraperait pas des acteurs plus prudents.

Ma recherche sur les outils de génération de porno IA révèle un écosystème explicitement conçu pour la création de contenu non consensuel. Des sites comme « Undress AI » se commercialisent comme des outils pour « enlever les vêtements des images » de femmes, tandis que des bibliothèques de prompts fournissent des instructions détaillées pour générer du contenu explicite. Ces plateformes opèrent ouvertement, rendant les crimes de Kamnik techniquement triviaux à exécuter pour quiconque avec des compétences informatiques de base et l'accès aux photos.

Pour les développeurs qui construisent des outils IA, cette affaire souligne le besoin critique de protections robustes et de surveillance d'utilisation. Les systèmes de détection qui signalent des patterns computationnels inhabituels ont attrapé Kamnik, mais nous avons besoin de mesures proactives intégrées dans les outils eux-mêmes. La technologie existe pour détecter et prévenir la génération de deepfakes non consensuels — la question est de savoir si les opérateurs de plateformes vont l'implémenter avant que plus de victimes souffrent.