Une étude préliminaire utilisant l'outil de détection IA de Pangram Labs a trouvé que 9% des articles de journaux nouvellement publiés contiennent du contenu partiellement ou entièrement généré par IA, avec des chroniques d'opinion dans les grands médias comme The New York Times, Wall Street Journal et Washington Post montrant des taux six fois plus élevés que les articles réguliers de salle de rédaction. La recherche a été déclenchée par la controverse autour d'une chronique « Modern Love » du NYT où l'auteure Kate Gilgan a admis utiliser ChatGPT, Claude et Gemini pour « l'inspiration et les conseils », bien qu'elle ait insisté utiliser l'IA comme « éditeur collaboratif » plutôt que générateur de contenu.

Cette distinction semble de plus en plus vide de sens alors que les outils IA deviennent des béquilles d'écriture. Quand les rédacteurs consultent constamment les chatbots pour l'édition et les conseils, la ligne entre collaboration et génération s'estompe au-delà de toute reconnaissance. Le pattern a du sens—les chroniques d'opinion viennent souvent de pigistes et d'auteurs invités opérant avec moins de supervision éditoriale que les journalistes permanents, créant des points d'entrée naturels pour le contenu assisté par IA qui peut ne pas respecter les standards de la salle de rédaction.

Bien que les détecteurs IA demeurent notoirement peu fiables—les captures d'écran d'outils signalant « Frankenstein » de Mary Shelley comme généré par IA deviennent régulièrement virales—Pangram Labs a mieux performé dans les comparaisons directes. L'accent de l'étude sur les sections d'opinion plutôt que le reportage ajoute de la crédibilité, puisque ces plateformes publient régulièrement du contenu questionnable nécessitant une vérification des faits de toute façon.

Pour les développeurs construisant des outils d'écriture IA, ceci représente une crise de divulgation en attente. Les éditeurs ont besoin de politiques claires sur l'assistance IA, et les constructeurs d'outils devraient considérer des fonctionnalités de transparence intégrées. Le système d'honneur actuel des rédacteurs auto-rapportant leur usage d'IA ne fonctionne clairement pas quand les grands médias publient sans le savoir du contenu généré par IA.