Model Republic de Midas Project publicó hoy una investigación documentando que The Wire by Acutus, un sitio web tipo medio de noticias lanzado el 29 de diciembre de 2025, opera con contenido generado por IA disfrazado como periodismo convencional, y ahora también está siendo descubierto usando agentes IA para enviar correos a verdaderos expertos en políticas humanos en la persona de falsos reporteros. Su análisis del sitio usando el detector de IA Pangram encontró que 97% de los artículos son completa o parcialmente generados por IA. Más dañino: el código fuente públicamente accesible de Acutus reveló campos de prompt incluyendo «información de fondo para que la IA use al generar preguntas» y «preguntas sugeridas para que el entrevistador IA pregunte», exponiendo la arquitectura de la operación como un pipeline automatizado entrevista-y-publicación en lugar de una redacción. La víctima concreta es Nathan Calvin, vicepresidente del grupo de incidencia AI Encode, quien recibió un correo de «reporter@acutuswire.com» firmado por un «Michael Chen» invitándolo a responder un Q&A escrito sobre un proyecto de ley IA. Búsquedas web no encontraron registro de algún reportero llamado Michael Chen en ninguna publicación. Calvin se volvió sospechoso y reportó el correo; Midas Project tomó la pista.
La realidad técnica de cómo se atrapó la operación es en sí misma el detalle más útil para constructores. Dos modos de fallo se intersectan. Primero, el código fuente de Acutus fue desplegado sin remover el UI de configuración de prompts del agente, lo que significaba que cualquiera inspeccionando la página podía ver las etiquetas literales de campo para «fondo para IA» y «preguntas sugeridas para entrevistador IA», confirmando que el flujo editorial corre a través de un modelo en lugar de un humano. Segundo, la salida de artículos publicados es de volumen suficientemente alto y estilo suficientemente uniforme que un detector de texto IA (Pangram) marcó 97% de ellos; aunque la detección de texto IA tiene problemas de falsos positivos bien conocidos, el acuerdo entre la evidencia del código fuente y la salida del detector hace la conclusión difícil de escapar. La persona del agente «Michael Chen» fue generada con suficiente realismo para engañar a un destinatario inicial pero no suficiente diligencia para sobrevivir una búsqueda básica de byline, que es el modo de fallo que cualquier alcance generado por agente hereda cuando los operadores no mantienen una presencia web de cola larga para las personas falsas. Nada de esto es técnicamente sofisticado; lo que importa es la demostración de que una redacción astroturf de extremo a extremo impulsada por IA puede ensamblarse lo suficientemente barata como para que alguien esté haciéndolo, y que la seguridad operacional requerida para mantenerla oculta es más trabajo del que los operadores pusieron.
La implicación más amplia es la cadena de financiamiento político que Model Republic rastreó, que es por qué esta historia importa más allá de cualquier falso periodista. El contenido de Acutus ha sido promovido en redes sociales por Patrick Hynes, presidente de la firma RP Novus Public Affairs. Novus trabaja con Targeted Victory, cuyo CEO co-fundó el super PAC Leading the Future. Leading the Future es la red de super PAC pro-IA de más de 125 millones apuntando a las elecciones de medio mandato 2026, oponiéndose a la regulación IA a nivel estatal en favor de un marco nacional-solo, co-fundado con Andreessen Horowitz; el presidente de OpenAI Greg Brockman y su esposa donaron 50 millones a él. La cadena desde el alcance de falso-periodista de Acutus a un super PAC respaldado por un principal de OpenAI es de dos apretones de mano, no directa, y Model Republic es cuidadoso al enmarcar la conexión como sugestiva en lugar de probada. Pero es el primer caso documentado de una falsa redacción generada por IA solicitando comentarios de verdaderos defensores de políticas IA mientras es promovida por personas en la órbita RP del vehículo de gasto político pro-IA más grande, que es un punto de datos estructuralmente importante independientemente de si la cadena formal de responsabilidad se sostiene. OpenAI no respondió a la solicitud de comentario de Futurism antes de la publicación.
Para constructores, la lectura accionable es en dos partes. Primero, en el lado de modelado de amenazas: el alcance agéntico en tu bandeja de entrada ahora es plausible, y la señal de detección es la cola larga. Si una byline de reportero no puede ser cruzada con ningún trabajo publicado previo, si la publicación se ha lanzado en los últimos seis meses, si la firma del correo coincide con una plantilla genérica, y si la lista de preguntas se lee como una expansión de prompt LLM de un solo tema, esas son ahora banderas reales. El Calvin de Encode lo atrapó en la tercera señal. Segundo, en el lado de construcción: la exposición de código fuente que delató a Acutus es exactamente el tipo de error operacional que hace detectable la astroturf-IA temprana. La próxima iteración de estas operaciones no dejará UIs de prompt en builds de producción, acuñará historias de cola larga para personas falsas antes de desplegarlas, e introducirá ruido estilístico para derrotar detectores. Independientemente de cómo se resuelva este caso específico, el costo de mano de obra para correr una falsa redacción IA es ahora lo suficientemente bajo como para que el suministro solo crecerá, y la pregunta portante es si las plataformas (Substack, X, búsqueda) y proveedores de correo tratarán esto como un problema de moderación que vale la pena resolver. Ahora mismo la respuesta es no. El ejemplo Calvin es un alcance detectado; el conteo no detectado es desconocido.
