La edición en inglés de Wikipedia ha prohibido artículos y reescrituras generados por IA, permitiendo IA solo para edición básica y traducciones. El cambio de política, propuesto por el editor Chaotic Enby y aprobado con "apoyo abrumador", apunta específicamente al contenido que viola las políticas centrales de Wikipedia sobre precisión y fuentes. Los editores aún pueden usar LLMs para sugerir ediciones que no introduzcan contenido nuevo, o traducir artículos si pueden verificar la precisión en el idioma original.

Esto no es Wikipedia reaccionando a problemas hipotéticos—es enfrentar una crisis real. Los editores han estado luchando contra basura de IA por meses, creando WikiProject AI Cleanup e implementando políticas de "borrado rápido" para contenido obviamente generado. La comunidad aprendió lo que toda plataforma de contenido está descubriendo: los LLMs producen texto que suena confiado pero que a menudo falla en verificaciones básicas de hechos y requisitos de fuentes de los que Wikipedia depende.

La política muestra pensamiento matizado sobre el uso de IA. En lugar de una prohibición general, Wikipedia distingue entre generación de contenido problemática y asistencia útil de edición. Las directrices incluso reconocen que los humanos "pueden tener estilos de escritura similares a los LLMs", requiriendo que los editores se enfoquen en el cumplimiento de políticas en lugar de solo detección estilística. Este enfoque reconoce que el problema no son las herramientas de IA en sí mismas, sino cómo se usan para crear contenido sin fuentes e inexacto a gran escala.

Para desarrolladores construyendo herramientas de contenido, la experiencia de Wikipedia ofrece un modelo: la asistencia de IA para edición y traducción funciona, pero la generación de contenido sin experiencia humana y verificación crea más problemas de los que resuelve. La lección real no es sobre prohibir IA—es sobre entender dónde el juicio humano sigue siendo irreemplazable.