Un estudio preliminar usando la herramienta de detección de IA de Pangram Labs encontró que el 9% de artículos de periódicos recién publicados contienen contenido parcial o completamente generado por IA, con columnas de opinión en medios importantes como The New York Times, Wall Street Journal y Washington Post mostrando tasas seis veces más altas que artículos regulares de redacción. La investigación surgió por la controversia sobre una columna "Modern Love" del NYT donde la escritora Kate Gilgan admitió usar ChatGPT, Claude y Gemini para "inspiración y guía", aunque insistió que usó la IA como "editor colaborativo" en lugar de generador de contenido.
Esta distinción se siente cada vez más sin sentido mientras las herramientas de IA se vuelven muletas de escritura. Cuando los escritores consultan constantemente chatbots para edición y guía, la línea entre colaboración y generación se difumina más allá del reconocimiento. El patrón tiene sentido—las columnas de opinión a menudo vienen de freelancers y escritores invitados operando con menos supervisión editorial que periodistas de planta, creando puntos de entrada naturales para contenido asistido por IA que puede no cumplir estándares de redacción.
Mientras los detectores de IA siguen siendo notoriamente poco confiables—capturas de pantalla de herramientas marcando "Frankenstein" de Mary Shelley como generado por IA se vuelven virales regularmente—Pangram Labs ha funcionado mejor en comparaciones directas. El enfoque del estudio en secciones de opinión en lugar de reportajes noticiosos añade credibilidad, ya que estas plataformas rutinariamente publican contenido cuestionable que requiere verificación de datos de todos modos.
Para desarrolladores construyendo herramientas de escritura con IA, esto representa una crisis de divulgación esperando ocurrir. Los editores necesitan políticas claras sobre asistencia de IA, y los constructores de herramientas deberían considerar características de transparencia incorporadas. El sistema de honor actual de escritores auto-reportando su uso de IA claramente no está funcionando cuando medios importantes están publicando sin saberlo contenido generado por IA.
