Deezer a publié des chiffres cette semaine qui laissent voir à quoi ressemble vraiment la courbe de déploiement de la musique IA chez une plateforme de streaming majeure, pis la forme n'est pas subtile. 75 000 pistes générées par IA atterrissent sur la plateforme chaque jour, en hausse depuis 60 000 en janvier. Ça fait 44 % de tous les nouveaux uploads, en hausse depuis 39 %. La consommation réelle des auditeurs de cette inondation est petite : 1 à 3 % des streams totaux. Mais ce qui est consommé est majoritairement de la fraude.
Le côté détection est devenu de l'infrastructure de production. Les chiffres de Deezer disent que 85 % des streams vers des pistes générées par IA sont marqués comme frauduleux et démonétisés, ce qui veut dire que des opérations organisées de fermes de streams utilisent la musique synthétique comme véhicule pour la fraude aux redevances à grande échelle. La plateforme retire maintenant automatiquement les pistes 100 % IA des recommandations algorithmiques et des listes éditoriales. Leur classificateur de détection a été produitisé : Deezer licence commercialement l'outil de détection IA depuis janvier 2025, pis a élargi le déploiement en mars 2026 via l'unité Deezer for Business. CEO Alexis Lanternier : « La musique générée par IA est maintenant loin d'être un phénomène marginal, pis comme les livraisons quotidiennes continuent d'augmenter, on espère que tout l'écosystème musical se joindra à nous pour agir. »
L'asymétrie est la partie intéressante. La génération est pas chère (75K/jour, c'est environ une piste par seconde d'uploads), l'écoute est minuscule (1-3 % de la consommation), pis la fraude prend 85 % de la petite tranche de toute façon. Ça veut dire que l'économique attaquant suppose que les bots de fermes de streams feront l'écoute, pis le contenu est optimisé pour passer la détection de fraude plutôt que pour gagner des oreilles humaines. La réponse de Deezer est deux couches — filtrer le contenu hors des surfaces algorithmiques pour qu'il puisse pas avoir d'écoutes humaines accidentelles, pis licencier le classificateur de détection à d'autres plateformes qui veulent pas construire le leur. La deuxième moitié est le modèle d'affaires. Quand chaque service de streaming a le même problème, la détection devient un utilitaire inter-plateforme.
Si tu construis n'importe quelle plateforme de contenu qui accepte des uploads d'utilisateurs et paie pour l'engagement, les chiffres de Deezer sont le template contre lequel prévoir. L'hypothèse de base devrait être qu'une pluralité du nouveau contenu sera générée par IA, que la pression économique sur ton système de détection va venir de la fraude organisée plutôt que des créateurs individuels, pis que le problème de détection de fraude est séparable du problème « est-ce que c'est de l'IA ? » et probablement plus important. La décision de Deezer de produitiser leur classificateur est un signal à lire. La détection IA à l'échelle du streaming est maintenant une vraie catégorie de produit autonome, pis si t'es pas Deezer, tu peux finir client plutôt que de construire le tien.
