James Strahler II, un homme de 37 ans de l'Ohio, est devenu la première personne condamnée sous la Take It Down Act après avoir plaidé coupable d'avoir utilisé des outils IA pour créer et distribuer des deepfakes explicites d'au moins 10 victimes. Les enquêteurs fédéraux ont découvert que Strahler avait installé 24 plateformes IA et plus de 100 modèles web sur son téléphone, qu'il utilisait pour générer des centaines ou des milliers d'images intimes non consensuelles de femmes et d'enfants. Sa campagne de harcèlement comprenait la création d'images incestueuses de mineurs et des menaces de viol contre les victimes, continuant même à produire des images pendant sa libération conditionnelle avant procès.
Cette condamnation marque un moment charnière pour l'application de la réglementation IA. La Take It Down Act, adoptée en mai 2025, vise spécifiquement la pornographie deepfake et les contrefaçons générées par IA — et le cas de Strahler démontre à quel point ces outils sont devenus accessibles. Le fait qu'une seule personne puisse accéder à 100+ modèles IA depuis son téléphone montre comment la barrière d'entrée pour un usage malveillant de l'IA s'est effondrée. Il ne s'agit pas de hackers sophistiqués ; il s'agit d'IA grand public facilement disponible qui est instrumentalisée pour le harcèlement.
Ce qui frappe dans les documents judiciaires, c'est l'échelle industrielle de l'opération de Strahler. Il ne faisait pas que quelques images — il a publié plus de 700 images sur des sites d'abus d'enfants et a continué son harcèlement même après son arrestation. L'affaire révèle aussi comment les outils IA sont superposés pour maximiser les dommages : combinant deepfakes avec cyberharcèlement, tentatives de coercition, et distribution sur plusieurs plateformes. La députée Salazar, qui a parrainé la Loi, a souligné que cela envoie un avertissement clair aux autres abuseurs potentiels.
Pour les développeurs IA et opérateurs de plateformes, cette affaire devrait être un signal d'alarme concernant les mesures de protection. Quand quelqu'un peut installer 100+ modèles IA pour la manipulation d'images, on doit sérieusement examiner les contrôles d'accès, la surveillance d'usage, et le filtrage de contenu. L'époque du « on ne fait que fournir des outils » est finie — cette condamnation prouve qu'il y a maintenant de vraies conséquences légales pour l'abus assisté par IA.
