YouTube正在推出一个AI头像功能,让创作者只需录制自拍和语音提示就能为自己制作deepfake。该工具生成逼真的数字克隆,可以出现在8秒的Shorts视频中,完整包含创作者的外观和声音。用户需要良好的照明、安静的背景,并且必须年满18岁且拥有现有频道。Google将此定位为"更安全的"AI内容创作,承诺通过SynthID水印和C2PA认证进行清晰标记。
这次发布暴露了平台对合成内容的精神分裂式态度。YouTube在与deepfake诈骗和AI垃圾内容斗争的同时,积极构建让数百万人都能接触deepfake的工具。时机很能说明问题——这正好在OpenAI杀死Sora之后推出,留下了Google急于填补的消费者视频生成空白。但民主化deepfake技术引发了关于验证和信任的明显问题,当任何人都可以字面意思上给自己嘴里放话时。
更广泛的deepfake生态系统揭示了这项技术已经变得多么正常化。多个来源显示,deepfake创建工具已经在Android、iOS和桌面平台上广泛可用,由GAN驱动,可以用最少的技术知识令人信服地交换面孔和声音。YouTube正在做的并不是革命性的——它是在将几年前还处于地下的能力主流化。
对开发者来说,这标志着行业的发展方向:合成媒体作为默认功能,而不是边缘案例。像C2PA这样的认证标记虽然用意良好,但实际上毫无用处——它们很容易被恶意行为者剥离和忽略。如果你在构建内容平台或验证系统,请为一个区分真实和合成变得指数级困难的世界做好计划,无论Google对负责任部署做出什么承诺。
