Le mot « deepfake » est entré dans le vocabulaire public vers 2017, quand un utilisateur de Reddit a utilisé des réseaux de neurones pour incruster des visages de célébrités dans des vidéos pornographiques. Cette technique précoce reposait sur des autoencodeurs — entraîner deux réseaux sur deux visages différents, puis échanger le décodeur pour mapper un visage sur un autre. C'était grossier, nécessitait des heures de vidéo source et produisait des artefacts évidents autour de la ligne des cheveux et de la mâchoire. En sept ans, la technologie est passée d'une curiosité de niche à une capacité industrielle. Les outils modernes d'échange de visage utilisent des modèles de diffusion et n'ont besoin que d'une seule photo de référence. Les services de clonage vocal d'entreprises comme ElevenLabs peuvent produire une réplique convaincante de la voix de quelqu'un à partir d'un échantillon de 30 secondes. La génération vidéo complète à partir d'instructions textuelles — pensez à Sora, Kling ou Vidu — peut créer des séquences de personnes qui n'ont jamais existé faisant des choses qui ne se sont jamais produites.
Chaque méthode de détection d'hypertrucage fait face au même désavantage structurel : elle est entraînée sur des artefacts de la génération actuelle d'outils de synthèse, et la génération suivante élimine ces artefacts. Les premiers détecteurs cherchaient des schémas de clignement incohérents, mais les générateurs ont rapidement appris à produire des clignements naturels. L'analyse dans le domaine fréquentiel détectait les artefacts de l'ère GAN, mais les modèles de diffusion produisent des signatures spectrales différentes. Les approches les plus robustes cherchent des signaux physiologiques — des schémas subtils de circulation sanguine dans la peau, la physique des reflets lumineux dans les yeux, ou des incohérences dans le mouvement des dents et de la langue pendant la parole — mais même ceux-ci ont une date de péremption. Des entreprises comme Hive, Sensity et Reality Defender offrent de la détection commerciale, et leur précision contre les outils de génération de pointe est honnêtement en déclin au fil du temps. La vérité inconfortable est que la détection au niveau des pixels seule ne résoudra pas ce problème.
L'approche à long terme la plus prometteuse est la provenance : prouver d'où un média provient plutôt que d'essayer de prouver qu'il a été falsifié après coup. La Coalition for Content Provenance and Authenticity (C2PA) a développé une norme pour signer cryptographiquement les médias au point de capture. Des fabricants d'appareils photo comme Sony, Nikon et Leica livrent des capteurs qui intègrent des signatures C2PA directement dans le matériel. Adobe, Microsoft et Google ont adopté la norme du côté des plateformes. L'idée est directe — si une photo porte une chaîne de traçabilité vérifiable du capteur de l'appareil photo à la publication, vous savez qu'elle est réelle même si des alternatives générées par IA sont parfaites au pixel près. Le défi est l'adoption. La plupart des photos partagées en ligne sont des captures d'écran, des recadrages et des re-téléversements qui suppriment les métadonnées. Construire un monde où la provenance est universelle et utilisable nécessite des changements d'infrastructure qui prendront des années.
Les dommages réels causés par les hypertrucages ne sont pas distribués uniformément. L'utilisation la plus courante, de loin, est l'imagerie intime non consentie — ciblant de manière écrasante les femmes. Des études ont révélé que plus de 90 % des vidéos d'hypertrucage en ligne sont de la pornographie non consentie. Au-delà, la fraude par clonage vocal a été utilisée pour usurper l'identité de dirigeants dans des escroqueries par virement bancaire, coûtant des millions aux entreprises. Des hypertrucages politiques sont apparus dans des élections en Slovaquie, au Bangladesh, en Argentine et aux États-Unis, bien que leur impact mesurable sur les résultats soit débattu. La frontière émergente est l'hypertrucage en temps réel dans les appels vidéo, où un attaquant apparaît comme un collègue de confiance pendant une conversation en direct. Une entreprise de Hong Kong a perdu 25 millions de dollars début 2024 après que des employés ont été trompés par un appel vidéo d'hypertrucage usurpant l'identité de leur directeur financier.
Tous les médias synthétiques ne sont pas malveillants. Les studios de cinéma utilisent le remplacement de visage pour rajeunir des acteurs ou compléter des performances après un décès. Les podcasteurs utilisent le clonage vocal pour localiser du contenu dans d'autres langues. Les artistes créent des portraits synthétiques pour des projets créatifs. Le même modèle de diffusion qui génère une vidéo frauduleuse d'un politicien propulse également des effets visuels légitimes et des outils d'accessibilité. Cette réalité à double usage rend la réglementation générale difficile et explique pourquoi la plupart des cadres juridiques se concentrent sur l'intention et le consentement plutôt que sur la technologie elle-même. Le défi pratique pour les plateformes, les législateurs et les individus est de tracer des lignes qui préviennent le préjudice sans criminaliser les utilisations créatives et commerciales légitimes d'une technologie déjà profondément ancrée dans les flux de production.