OpenAI在4月8日发布了其儿童安全蓝图,概述了在生成式AI能力不断发展的情况下打击AI生成的儿童性剥削材料的措施。该蓝图是在人们越来越担心恶意行为者使用AI图像生成器和文本模型创建非法内容之后发布的,尽管OpenAI没有披露促使此次回应的具体事件数量或检测率。
这标志着OpenAI几周内第二次重大安全政策发布,此前他们在3月份开源了青少年安全指导原则。这种模式表明是被动的政策制定而非主动的安全设计——在问题出现后发布文件,而不是从根本上构建强大的保护措施。时机也恰逢欧盟AI法案和美国潜在联邦立法针对AI生成CSAM的监管审查加强。
蓝图公告中缺失的是具体的执行数据。当我上个月报道他们的青少年安全政策推出时,同样的执行缺口就存在——大量的政策语言,关于这些措施在生产中如何实际运作的透明度极少。没有检测准确率、误报处理或申诉流程,这些蓝图读起来更像法律保护而非运营安全系统。
对于在OpenAI API上构建的开发者来说,这意味着更多的内容过滤层和可能更严格的使用政策。预计会有更严格的输入监控,对触发其检测系统的边缘情况内容可能会暂停账户。真正的考验不是蓝图本身——而是OpenAI是否最终会发布执行指标,证明这些政策真正保护儿童,而不仅仅是保护OpenAI免于承担责任。
