维基百科英文版已禁止AI生成的文章和改写,仅允许AI用于基本文案编辑和翻译。这项政策变更由编辑Chaotic Enby提出,并获得"压倒性支持"通过,专门针对违反维基百科准确性和来源核心政策的内容。编辑仍可使用LLM建议不引入新内容的文案编辑,或在能验证原文准确性的情况下翻译文章。

这不是维基百科对假想问题的反应——而是在解决真实危机。编辑们数月来一直在与AI垃圾内容作斗争,创建了WikiProject AI Cleanup并实施了针对明显生成内容的"快速删除"政策。社区学到了每个内容平台都在发现的教训:LLM产生听起来自信的文本,但往往无法通过维基百科依赖的基本事实核查和来源要求。

该政策显示了对AI使用的细致思考。维基百科并非一概禁止,而是区分了有问题的内容生成和有用的编辑辅助。指导方针甚至承认人类"可能有与LLM相似的写作风格",要求编辑关注政策合规性而非仅仅是文体检测。这种方法认识到问题不在于AI工具本身,而在于如何使用它们大规模创建无来源、不准确的内容。

对于构建内容工具的开发者来说,维基百科的经验提供了蓝图:AI在编辑和翻译方面的辅助是有效的,但没有人类专业知识和验证的内容生成会制造比解决更多的问题。真正的教训不是关于禁止AI——而是理解人类判断在哪些方面仍然不可替代。