作家Kate Gilgan因一篇关于失去儿子监护权的深度个人随笔而为自己辩护,文学Twitter指控她使用AI为《纽约时报》Modern Love专栏写作。这些指控最初被认为是毫无根据的猜测,但后来证明确有其事——Gilgan随后向《大西洋月刊》承认,她使用ChatGPT、Claude、Copilot和Perplexity来"构思和编辑"这篇文章,尽管她否认直接从AI输出中复制粘贴。

这个案例突显了AI融入创意工作的复杂现实。与明显的抄袭不同,Gilgan的做法代表了许多作家正在探索的灰色地带:将AI用作思维伙伴而非代笔。她表示要求AI"为我总结一下"并帮助在《纽约时报》发表这篇随笔,这表明她战略性地使用多个模型处理写作过程的不同方面——正是许多开发者和内容创作者正在采用的工作流程。

这场争议与其他主要出版物的高调AI事件同时爆发。正如我今年早些时候报道的,《纽约时报》解雇了自由撰稿人Alex Preston,因为他使用的AI抄袭了《卫报》的一篇评论。出版商Hachette在同一时期因怀疑使用AI而撤下了一本恐怖小说。这些案例揭示了机构在定义可接受的AI协作与禁止的自动化之间的困难,特别是在检测仍不可靠且作家并不总是对其工具透明的情况下。

对于AI构建者和用户来说,这树立了一个明确的先例:透明度比技术本身更重要。Gilgan最大的错误不是使用四个不同的AI模型——而是没有预先披露这种合作。随着AI在创意工作流程中成为标准,对披露的期望只会加强。