La musicienne folk Murphy Campbell a découvert en janvier des reprises générées par IA de ses performances YouTube qui apparaissaient sur Spotify sous son nom, avec des voix modifiées qui ont dupé les plateformes de streaming mais pas les outils de détection IA. Après s'être battue pour faire retirer les fausses pistes — devenant « une plaie » selon ses mots — elle a trouvé que plusieurs faux profils « Murphy Campbell » existent encore sur les plateformes. Spotify promet des systèmes d'approbation manuelle pour les artistes, mais Campbell reste sceptique envers les promesses des grosses plateformes aux musiciens.

Ceci touche le problème central du contenu généré par IA à grande échelle : les systèmes de vérification construits pour les créateurs humains ne peuvent pas gérer les inondations de médias synthétiques. Le cas de Campbell expose à quel point c'est facile de scraper des performances publiques, les passer dans la synthèse vocale, et les monétiser sur les plateformes de streaming avec une surveillance minimale. Le timing compte — ceci s'est passé alors que les outils de musique IA comme Suno génèrent 7 millions de chansons par jour, équivalent à reconstruire tout le catalogue Spotify aux deux semaines.

Ce qui rend l'histoire de Campbell pire, c'est le trolling de droits d'auteur qui a suivi. Après que son histoire ait gagné l'attention médiatique, quelqu'un utilisant de fausses vidéos a déposé des réclamations de propriété contre ses performances YouTube originales de ballades folk du domaine public. Les plateformes ont accepté ces réclamations frauduleuses, forçant Campbell à contester la propriété de son propre travail. Des sources de l'industrie rapportent que la fraude de streaming coûte 2 milliards de dollars annuellement, avec les pistes générées par IA qui accélèrent autant l'échelle que la sophistication de ces schémas.

Pour les développeurs qui construisent des outils de musique IA, le cauchemar de Campbell montre pourquoi les systèmes de vérification et d'attribution doivent être des fonctionnalités centrales, pas des ajouts tardifs. L'approche actuelle de « construire vite, réparer la fraude plus tard » pousse les coûts de nettoyage sur les créateurs individuels qui manquent de ressources pour combattre l'abus à l'échelle des plateformes.