一項使用Pangram Labs的AI檢測工具的預印本研究發現,9%的新發布報紙文章包含部分或完全由AI生成的內容,The New York Times、Wall Street Journal和Washington Post等主要媒體的觀點文章顯示出比常規新聞編輯室文章高六倍的比率。這項研究是由NYT「Modern Love」專欄的爭議引發的,作者Kate Gilgan承認使用ChatGPT、Claude和Gemini獲得「靈感和指導」,儘管她堅持將AI用作「協作編輯」而非內容生成器。

隨著AI工具成為寫作拐杖,這種區別顯得越來越無意義。當作者不斷諮詢聊天機器人進行編輯和指導時,協作與生成之間的界線模糊到無法辨認。這種模式是有道理的——觀點文章通常來自自由撰稿人和客座作者,他們受到的編輯監督比員工記者少,為可能不符合新聞編輯室標準的AI輔助內容創造了自然的切入點。

雖然AI檢測器仍然臭名昭著地不可靠——標記Mary Shelley的《科學怪人》為AI生成的工具截圖經常瘋傳——Pangram Labs在直接比較中表現更好。該研究專注於觀點版塊而非新聞報導增加了可信度,因為這些平台通常發布需要事實查核的可疑內容。

對於建構AI寫作工具的開發者來說,這代表著一場等待爆發的揭露危機。發布商需要關於AI輔助的明確政策,工具建構者應該考慮內建透明度功能。當主要媒體在不知情的情況下發布AI生成內容時,目前依賴作者自我報告AI使用情況的榮譽制度顯然不起作用。