維基百科英文版已禁止AI生成的文章和改寫,僅允許AI用於基本文案編輯和翻譯。這項政策變更由編輯Chaotic Enby提出,並獲得「壓倒性支持」通過,專門針對違反維基百科準確性和來源核心政策的內容。編輯仍可使用LLM建議不引入新內容的文案編輯,或在能驗證原文準確性的情況下翻譯文章。

這不是維基百科對假想問題的反應——而是在解決真實危機。編輯們數月來一直在與AI垃圾內容作鬥爭,創建了WikiProject AI Cleanup並實施了針對明顯生成內容的「快速刪除」政策。社群學到了每個內容平台都在發現的教訓:LLM產生聽起來自信的文字,但往往無法通過維基百科依賴的基本事實查核和來源要求。

該政策顯示了對AI使用的細緻思考。維基百科並非一概禁止,而是區分了有問題的內容生成和有用的編輯輔助。指導方針甚至承認人類「可能有與LLM相似的寫作風格」,要求編輯關注政策合規性而非僅僅是文體檢測。這種方法認識到問題不在於AI工具本身,而在於如何使用它們大規模創建無來源、不準確的內容。

對於構建內容工具的開發者來說,維基百科的經驗提供了藍圖:AI在編輯和翻譯方面的輔助是有效的,但沒有人類專業知識和驗證的內容生成會製造比解決更多的問題。真正的教訓不是關於禁止AI——而是理解人類判斷在哪些方面仍然不可替代。