O Model Republic do Midas Project publicou hoje uma investigação documentando que The Wire by Acutus, um site tipo veículo de notícias lançado em 29 de dezembro de 2025, opera com conteúdo gerado por IA disfarçado como jornalismo convencional, e está agora também sendo pego usando agentes IA para enviar e-mails a verdadeiros especialistas em políticas humanos na persona de falsos repórteres. A análise do site usando o detector de IA Pangram encontrou que 97% dos artigos são completa ou parcialmente gerados por IA. Mais danoso: o código fonte publicamente acessível da Acutus revelou campos de prompt incluindo «informações de fundo para a IA usar ao gerar perguntas» e «perguntas sugeridas para o entrevistador IA fazer», expondo a arquitetura da operação como um pipeline automatizado entrevista-e-publicação em vez de uma redação. A vítima concreta é Nathan Calvin, vice-presidente do grupo de advocacy de IA Encode, que recebeu um e-mail de «reporter@acutuswire.com» assinado por um «Michael Chen» convidando-o a responder a um Q&A escrito sobre um projeto de lei IA. Buscas na web não encontraram registro de qualquer repórter chamado Michael Chen em qualquer publicação. Calvin ficou suspeito e reportou o e-mail; o Midas Project pegou a pista.

A realidade técnica de como a operação foi pega é em si o detalhe mais útil para construtores. Dois modos de falha se intersectam. Primeiro, o código fonte da Acutus foi implantado sem remover a UI de configuração de prompt do agente, o que significou que qualquer um inspecionando a página podia ver os rótulos literais de campo para «fundo para IA» e «perguntas sugeridas para entrevistador IA», confirmando que o fluxo editorial corre através de um modelo em vez de um humano. Segundo, a saída de artigos publicados é de volume suficientemente alto e estilo suficientemente uniforme que um detector de texto IA (Pangram) marcou 97% deles; embora a detecção de texto IA tenha problemas de falso-positivos bem conhecidos, o acordo entre a evidência do código fonte e a saída do detector torna a conclusão difícil de escapar. A persona do agente «Michael Chen» foi gerada com realismo suficiente para enganar um destinatário inicial mas diligência insuficiente para sobreviver a uma busca básica de byline, que é o modo de falha que qualquer alcance gerado por agente herda quando os operadores não mantêm uma presença web de cauda longa para as personas falsas. Nada disso é tecnicamente sofisticado; o que importa é a demonstração de que uma redação astroturf ponta-a-ponta impulsionada por IA pode ser montada barato o suficiente para que alguém esteja fazendo, e que a segurança operacional necessária para mantê-la oculta é mais trabalho do que os operadores colocaram.

A implicação mais ampla é a cadeia de financiamento político que o Model Republic rastreou, que é por que essa história importa além de qualquer falso jornalista. O conteúdo da Acutus tem sido promovido em redes sociais por Patrick Hynes, presidente da firma de RP Novus Public Affairs. A Novus trabalha com a Targeted Victory, cujo CEO co-fundou o super PAC Leading the Future. O Leading the Future é a rede de super PAC pró-IA de mais de US$ 125 milhões mirando as eleições de meio de mandato 2026, opondo-se à regulação de IA em nível estadual em favor de um quadro nacional-apenas, co-fundado com a Andreessen Horowitz; o presidente da OpenAI Greg Brockman e sua esposa doaram US$ 50 milhões a ele. A cadeia desde o alcance de falso-jornalista da Acutus para um super PAC apoiado por um principal da OpenAI é de dois apertos de mão, não direta, e o Model Republic é cuidadoso ao enquadrar a conexão como sugestiva em vez de provada. Mas é o primeiro caso documentado de uma falsa redação gerada por IA solicitando comentários de verdadeiros defensores de políticas IA enquanto é promovida por pessoas na órbita RP do maior veículo de gasto político pró-IA, o que é um ponto de dados estruturalmente importante independentemente de se a cadeia formal de responsabilização se sustenta. A OpenAI não respondeu ao pedido de comentário do Futurism antes da publicação.

Para construtores, a leitura acionável é em duas partes. Primeiro, no lado de modelagem de ameaças: alcance agêntico na sua caixa de entrada é agora plausível, e o sinal de detecção é a cauda longa. Se uma byline de repórter não pode ser cruzada com nenhum trabalho publicado anterior, se a publicação foi lançada nos últimos seis meses, se a assinatura do e-mail combina com um template genérico, e se a lista de perguntas lê como uma expansão de prompt LLM de um único tópico, esses são agora flags reais. O Calvin do Encode pegou no terceiro sinal. Segundo, no lado de construção: a exposição de código fonte que entregou a Acutus é exatamente o tipo de erro operacional que torna astroturf-IA inicial detectável. A próxima iteração dessas operações não vai deixar UIs de prompt em builds de produção, vai criar histórias de cauda longa para personas falsas antes de implantá-las, e vai introduzir ruído estilístico para derrotar detectores. Independente de como esse caso específico se resolve, o custo de mão de obra para rodar uma falsa redação IA é agora baixo o suficiente para que a oferta só vá crescer, e a pergunta portante é se plataformas (Substack, X, busca) e provedores de e-mail vão tratar isso como um problema de moderação que vale a pena resolver. Agora a resposta é não. O exemplo Calvin é um alcance detectado; a contagem não detectada é desconhecida.