A edição em inglês da Wikipedia baniu artigos e reescritas gerados por IA, permitindo IA apenas para edição básica e traduções. A mudança de política, proposta pelo editor Chaotic Enby e aprovada com "apoio esmagador", visa especificamente conteúdo que viola as políticas centrais da Wikipedia sobre precisão e fontes. Editores ainda podem usar LLMs para sugerir edições que não introduzam novo conteúdo, ou traduzir artigos se conseguirem verificar a precisão no idioma original.

Isso não é a Wikipedia reagindo a problemas hipotéticos—é enfrentar uma crise real. Editores vêm lutando contra lixo de IA há meses, criando WikiProject AI Cleanup e implementando políticas de "exclusão rápida" para conteúdo obviamente gerado. A comunidade aprendeu o que toda plataforma de conteúdo está descobrindo: LLMs produzem texto que soa confiante mas frequentemente falha em verificações básicas de fatos e requisitos de fontes dos quais a Wikipedia depende.

A política mostra pensamento nuançado sobre uso de IA. Em vez de uma proibição geral, a Wikipedia distingue entre geração de conteúdo problemática e assistência útil de edição. As diretrizes até reconhecem que humanos "podem ter estilos de escrita similares aos LLMs", exigindo que editores foquem no cumprimento de políticas ao invés de apenas detecção estilística. Essa abordagem reconhece que o problema não são as ferramentas de IA em si, mas como são usadas para criar conteúdo sem fontes e impreciso em escala.

Para desenvolvedores construindo ferramentas de conteúdo, a experiência da Wikipedia oferece um modelo: assistência de IA para edição e tradução funciona, mas geração de conteúdo sem expertise humana e verificação cria mais problemas do que resolve. A lição real não é sobre banir IA—é sobre entender onde o julgamento humano permanece insubstituível.