OpenAI在4月8日發布了其兒童安全藍圖,概述了在生成式AI能力不斷發展的情況下打擊AI生成的兒童性剝削材料的措施。該藍圖是在人們越來越擔心惡意行為者使用AI圖像生成器和文字模型創建非法內容之後發布的,儘管OpenAI沒有披露促使此次回應的具體事件數量或檢測率。
這標誌著OpenAI幾週內第二次重大安全政策發布,此前他們在3月份開源了青少年安全指導原則。這種模式表明是被動的政策制定而非主動的安全設計——在問題出現後發布文件,而不是從根本上構建強大的保護措施。時機也恰逢歐盟AI法案和美國潛在聯邦立法針對AI生成CSAM的監管審查加強。
藍圖公告中缺失的是具體的執行數據。當我上個月報導他們的青少年安全政策推出時,同樣的執行缺口就存在——大量的政策語言,關於這些措施在生產中如何實際運作的透明度極少。沒有檢測準確率、誤報處理或申訴流程,這些藍圖讀起來更像法律保護而非運營安全系統。
對於在OpenAI API上構建的開發者來說,這意味著更多的內容過濾層和可能更嚴格的使用政策。預計會有更嚴格的輸入監控,對觸發其檢測系統的邊緣情況內容可能會暫停帳戶。真正的考驗不是藍圖本身——而是OpenAI是否最終會發布執行指標,證明這些政策真正保護兒童,而不僅僅是保護OpenAI免於承擔責任。
