Le Midas Project's Model Republic a publié aujourd'hui une enquête documentant que The Wire by Acutus, un site type média lancé le 29 décembre 2025, fonctionne avec du contenu généré par IA se faisant passer pour du journalisme conventionnel, et est maintenant aussi pris à utiliser des agents IA pour envoyer des courriels à de vrais experts en politiques humains dans la peau de faux reporters. Leur analyse du site avec le détecteur d'IA Pangram a trouvé que 97 % des articles sont entièrement ou partiellement générés par IA. Plus dommageable : le code source publiquement accessible d'Acutus a révélé des champs de prompt incluant « informations de fond pour l'IA à utiliser lors de la génération de questions » et « questions suggérées pour l'intervieweur IA à poser », exposant l'architecture de l'opération comme un pipeline automatisé entrevue-et-publication plutôt qu'une salle de rédaction. La victime concrète est Nathan Calvin, vice-président du groupe d'advocacy Encode, qui a reçu un courriel de « reporter@acutuswire.com » signé par un « Michael Chen » l'invitant à répondre à un Q&A écrit à propos d'un projet de loi IA. Les recherches web n'ont trouvé aucune trace d'un reporter nommé Michael Chen dans aucune publication. Calvin est devenu suspicieux et a rapporté le courriel; The Midas Project a pris la piste.
La réalité technique de comment l'opération a été attrapée est elle-même le détail le plus utile pour les bâtisseurs. Deux modes d'échec se croisent. Premièrement, le code source d'Acutus a été déployé sans retirer l'UI de configuration des prompts d'agent, ce qui voulait dire que n'importe qui inspectant la page pouvait voir les étiquettes de champ littérales pour « fond pour l'IA » et « questions suggérées pour l'intervieweur IA », confirmant que le flux éditorial passe par un modèle plutôt qu'un humain. Deuxièmement, la sortie d'articles publiés est de volume assez élevé et de style assez uniforme qu'un détecteur de texte IA (Pangram) a marqué 97 % d'eux; bien que la détection de texte IA ait des problèmes de faux-positifs bien connus, l'accord entre la preuve du code source et la sortie du détecteur rend la conclusion difficile à esquiver. La persona d'agent « Michael Chen » a été générée avec assez de réalisme pour tromper un destinataire initial mais pas assez de diligence pour survivre à une recherche de byline basique, ce qui est le mode d'échec que tout démarchage généré par agent hérite quand les opérateurs ne maintiennent pas une présence web de longue traîne pour les fausses personas. Rien de tout ça n'est techniquement sophistiqué; ce qui compte est la démonstration qu'une salle de rédaction astroturf de bout en bout pilotée par IA peut être assemblée à un coût assez bas pour que quelqu'un le fasse, et que la sécurité opérationnelle requise pour la garder cachée est plus de travail que les opérateurs y ont mis.
L'implication plus large est la chaîne de financement politique que Model Republic a tracée, qui est pourquoi cette histoire compte au-delà de n'importe quel faux journaliste. Le contenu d'Acutus a été promu sur les réseaux sociaux par Patrick Hynes, président de la firme RP Novus Public Affairs. Novus travaille avec Targeted Victory, dont le PDG a co-fondé le super PAC Leading the Future. Leading the Future est le réseau de super PAC pro-IA de plus de 125 M$ ciblant les midterms 2026, s'opposant à la régulation IA au niveau étatique en faveur d'un cadre national-seulement, co-fondé avec Andreessen Horowitz; le président d'OpenAI Greg Brockman et sa femme y ont donné 50 M$. La chaîne du démarchage de faux-journaliste d'Acutus à un super PAC soutenu par un principal d'OpenAI est de deux poignées de main, pas direct, et Model Republic est prudent à cadrer la connexion comme suggestive plutôt que prouvée. Mais c'est le premier cas documenté d'une fausse salle de rédaction générée par IA sollicitant des commentaires de vrais défenseurs des politiques IA tout en étant promu par des gens dans l'orbite RP du plus grand véhicule de dépense politique pro-IA, qui est un point de donnée structurellement important peu importe si la chaîne d'imputabilité formelle tient. OpenAI n'a pas répondu à la demande de commentaire de Futurism avant publication.
Pour les bâtisseurs, la lecture actionnable est en deux parties. Premièrement, sur le côté modélisation des menaces : le démarchage agentique dans ta boîte de réception est maintenant plausible, et le signal de détection est la longue traîne. Si une byline de reporter ne peut pas être recoupée avec aucun travail publié antérieur, si la publication a été lancée dans les six derniers mois, si la signature du courriel correspond à un modèle générique, et si la liste de questions se lit comme une expansion de prompt LLM d'un seul sujet, ce sont maintenant de vrais drapeaux. Le Calvin d'Encode l'a attrapé sur le troisième signal. Deuxièmement, sur le côté construction : l'exposition du code source qui a démasqué Acutus est exactement le genre d'erreur opérationnelle qui rend l'astroturf-IA précoce détectable. La prochaine itération de ces opérations ne laissera pas d'UI de prompt dans les builds de production, frappera des histoires de longue traîne pour les fausses personas avant de les déployer, et introduira du bruit stylistique pour défaire les détecteurs. Indépendamment de comment ce cas spécifique se résout, le coût de main-d'œuvre pour faire tourner une fausse salle de rédaction IA est maintenant assez bas pour que l'offre ne fasse que grandir, et la question porteuse est si les plateformes (Substack, X, recherche) et les fournisseurs de courriel vont traiter ça comme un problème de modération qui vaut la peine d'être résolu. Pour l'instant la réponse est non. L'exemple Calvin est un démarchage détecté; le compte non détecté est inconnu.
