作家Kate Gilgan因一篇關於失去兒子監護權的深度個人隨筆而為自己辯護,文學Twitter指控她使用AI為《紐約時報》Modern Love專欄寫作。這些指控最初被認為是毫無根據的猜測,但後來證明確有其事——Gilgan隨後向《大西洋月刊》承認,她使用ChatGPT、Claude、Copilot和Perplexity來「構思和編輯」這篇文章,儘管她否認直接從AI輸出中複製貼上。
這個案例突顯了AI融入創意工作的複雜現實。與明顯的抄襲不同,Gilgan的做法代表了許多作家正在探索的灰色地帶:將AI用作思維夥伴而非代筆。她表示要求AI「為我總結一下」並幫助在《紐約時報》發表這篇隨筆,這表明她策略性地使用多個模型處理寫作過程的不同方面——正是許多開發者和內容創作者正在採用的工作流程。
這場爭議與其他主要出版物的高調AI事件同時爆發。正如我今年稍早報導的,《紐約時報》解雇了自由撰稿人Alex Preston,因為他使用的AI抄襲了《衛報》的一篇評論。出版商Hachette在同一時期因懷疑使用AI而撤下了一本恐怖小說。這些案例揭示了機構在定義可接受的AI協作與禁止的自動化之間的困難,特別是在偵測仍不可靠且作家並不總是對其工具透明的情況下。
對於AI建構者和用戶來說,這樹立了一個明確的先例:透明度比技術本身更重要。Gilgan最大的錯誤不是使用四個不同的AI模型——而是沒有預先揭露這種合作。隨著AI在創意工作流程中成為標準,對揭露的期望只會加強。
