Le mot « slop » est entré dans le lexique de l'intelligence artificielle en début d'année 2024, et il s'est répandu car il était parfait. Simon Willison, le développeur et blogueur qui a fait plus que quiconque pour populariser ce terme, a établi un lien direct avec le spam électronique : tout comme « spam » est passé d'une blague de Monty Python au mot universel pour désigner les courriels indésirables, « slop » a désigné quelque chose que tout le monde vivait déjà mais n'avait pas de mot pour le décrire — la vague déferlante de contenu de basse qualité, généré par l'IA, qui submerge chaque plateforme sur Internet. L'analogie va plus loin que le simple nommage. Le spam n'a pas ruiné l'email parce qu'un seul message spam était dangereux. Il a ruiné l'email parce que le coût d'envoi est tombé à zéro alors que le coût de filtrage restait élevé. Le slop fonctionne de la même manière. Lorsque la génération d'un article de 2 000 mots coûte une fraction de centime et prend douze secondes, l'économie de la création de contenu se brise fondamentalement. Le terme a pris racine parce que les gens étaient déjà furieux — ils n'avaient simplement besoin d'un mot suffisamment tranchant pour correspondre à cette sensation.
Suivez l'argent et l'écosystème du slop se dessine lui-même. Les fermes de contenu SEO ont été les premières et les plus prolifiques à l'adopter — des entreprises qui payaient des freelances 15 $ par article ont réalisé qu'elles pouvaient générer des milliers de publications par jour à peu de frais et inonder Google de pages pleines de mots-clés. La plateforme Kindle Direct Publishing d'Amazon a été submergée de livres générés par l'IA, certains attribués à des auteurs réels qui n'avaient rien à voir avec eux, d'autres vendus comme « écrits par ChatGPT » comme si cela était un point de vente. Etsy, autrefois un refuge pour les produits artisanaux, a vu son marché étouffé par des impressions d'art générées par l'IA et des « téléchargements numériques » qui n'étaient que des sorties Midjourney vendus à 2,99 $. LinkedIn est devenu un désert de contenu destiné à générer des interactions — ces publications insupportables qui commencent par « Je viens de licencier mon meilleur employé. Voici pourquoi c'était la meilleure décision que j'ai jamais prise. » rédigées par des personnes qui n'ont clairement jamais licencié personne et qui n'ont peut-être même pas d'employés. Et puis il y a les sites de fausses nouvelles : des publications entières avec des articles générés par l'IA, des noms d'auteurs générés par l'IA et des photos d'auteurs générées par l'IA, produisant des histoires crédibles optimisées uniquement pour le revenu publicitaire. Aucun de ces acteurs n'est confus quant à ce qu'ils font. Ils savent que c'est du slop. Ils n'en ont simplement pas souci, car l'argent est réel même lorsque le contenu ne l'est pas.
C'est ici que le slop devient un problème existentiel, et non seulement un irritant. Les modèles d'IA sont entraînés sur des données Internet. L'Internet est de plus en plus rempli de contenu généré par l'IA. Alors, que se passe-t-il lorsque la prochaine génération de modèles s'entraîne sur la sortie de la génération précédente ? Les chercheurs l'appellent l'effondrement des modèles — une dégradation récursive où chaque génération d'IA entraînée sur l'IA perd en fidélité, en diversité et en précision, comme une photocopie d'une photocopie qui devient plus floue à chaque fois. Un article de 2023 de l'Université d'Oxford a démontré cela empiriquement : les modèles de langage entraînés sur leur propre sortie ont progressivement perdu la capacité de représenter les extrêmes de la distribution, convergeant vers un style de plus en plus étroit et générique. La conséquence pratique est que l'Internet pré-2023 — le web tel qu'il existait avant que l'IA générative ne submerge toutes les plateformes — devient extrêmement précieux comme données d'entraînement précisément parce qu'il a été rédigé par des humains. Les entreprises paient maintenant des prix élevés pour des ensembles de données pré-IA et concluent des accords avec des éditeurs pour du « contenu certifié humain ». L'ironie est épaisse : les outils censés rendre le contenu abondant rendent le contenu authentique rare.
La réponse des plateformes a été un mélange d'efforts sincères et de gestes performatifs de préoccupation. La mise à jour du contenu utile de Google, déployée en 2023 et 2024, a explicitement ciblé les pages générées par l'IA qui existent uniquement pour figurer dans les résultats de recherche plutôt que pour aider quelqu'un. Cela a réduit considérablement le trafic vers certaines des pires fermes de contenu, mais la course aux armements continue — les générateurs de slop s'adaptent plus rapidement que les algorithmes ne peuvent les attraper. Reddit a adopté une position plus ferme, avec de nombreux sous-forums majeurs interdisant explicitement le contenu généré par l'IA, et l'augmentation de la visibilité du site dans les résultats de recherche de Google (grâce à un accord entre les deux entreprises) est devenue un signal proxy pour « probablement rédigé par un humain ». Stack Overflow a interdit les réponses générées par l'IA en décembre 2022 après que les modérateurs aient remarqué une inondation de réponses qui semblaient confiantes mais légèrement erronées — exactement le genre de bêtises plausibles que les LLM excellent à produire. Du côté réglementaire, le projet de loi sur l'IA de l'UE et diverses initiatives nationales ont poussé à l'obligation de marquer et de divulguer le contenu généré par l'IA, bien que l'application reste largement théorique. Les plateformes qui gagnent cette bataille sont celles qui vérifient les humains plutôt que qui tentent de détecter les machines — car la détection est un jeu perdu face à des modèles qui deviennent de plus en plus bons à imiter l'écriture humaine chaque mois.
Admettons honnêtement ce que le slop est vraiment : ce n'est pas un échec de l'IA générative. C'est l'IA générative qui fonctionne exactement comme elle est conçue, entre les mains de personnes dont les incitations sont mal alignées avec les vôtres. Le même outil qui permet à un développeur solo de rédiger de la documentation pour son projet open source permet à une usine de contenu de générer dix mille articles inutiles en une nuit. Le même générateur d'images qui aide un concepteur de jeux indépendants à prototyper de l'art conceptuel permet à un escroc de la vente à la demande d'inonder Amazon de livres de coloriage générés par l'IA. Vous ne pouvez pas créer une technologie qui rend la création facile et ensuite être surpris lorsque la création facile est principalement du déchet — c'est ce que signifie « facile ». La vraie question, celle à laquelle personne n'a encore de bonne réponse, est de savoir si les plateformes peuvent créer des filtres plus rapidement que les générateurs ne peuvent créer du slop. Jusqu'à présent, les générateurs gagnent. Et ils continueront à gagner tant que l'asymétrie persiste : générer coûte rien, filtrer coûte tout. Jusqu'à ce que quelqu'un rés