一项使用Pangram Labs的AI检测工具的预印本研究发现,9%的新发布报纸文章包含部分或完全由AI生成的内容,The New York Times、Wall Street Journal和Washington Post等主要媒体的观点文章显示出比常规新闻编辑室文章高六倍的比率。这项研究是由NYT"Modern Love"专栏的争议引发的,作者Kate Gilgan承认使用ChatGPT、Claude和Gemini获得"灵感和指导",尽管她坚持将AI用作"协作编辑"而非内容生成器。

随着AI工具成为写作拐杖,这种区别显得越来越无意义。当作者不断咨询聊天机器人进行编辑和指导时,协作与生成之间的界限模糊到无法辨认。这种模式是有道理的——观点文章通常来自自由撰稿人和客座作者,他们受到的编辑监督比员工记者少,为可能不符合新闻编辑室标准的AI辅助内容创造了自然的切入点。

虽然AI检测器仍然臭名昭著地不可靠——标记Mary Shelley的《弗兰肯斯坦》为AI生成的工具截图经常传播——Pangram Labs在直接比较中表现更好。该研究专注于观点版块而非新闻报道增加了可信度,因为这些平台通常发布需要事实核查的可疑内容。

对于构建AI写作工具的开发者来说,这代表着一场等待爆发的披露危机。发布商需要关于AI辅助的明确政策,工具构建者应该考虑内置透明度功能。当主要媒体在不知情的情况下发布AI生成内容时,目前依靠作者自我报告AI使用情况的荣誉制度显然不起作用。