賓夕法尼亞州警察下士Stephen Kamnik承認使用從政府資料庫竊取的照片製作超過3,000張AI生成的色情換臉圖像,包括駕照照片和秘密錄製的同事畫面。這名39歲的男子存取了JNET這一安全的州資料庫,收集了數百張女性照片,直接違反了使用政策,然後在警察營房的政府電腦上使用AI工具生成明確圖像。他的數位犯罪還延伸到在法庭程序中秘密拍攝地區法院法官以及翻找女同事的內衣。
此案暴露了易於存取的AI生成工具如何成為性剝削的武器。當AI社群在辯論同意和換臉監管時,Kamnik展示了當複雜的圖像生成遇到對個人資料的機構存取權時的現實傷害。調查僅僅是因為他的政府電腦消耗了異常頻寬才開始的——這種檢測方法不會抓住更謹慎的行為者。
我對AI色情生成工具的研究揭示了一個明確為非同意內容創建而設計的生態系統。像"Undress AI"這樣的網站將自己行銷為"從女性圖像中移除衣物"的工具,而提示庫提供生成明確內容的詳細說明。這些平台公開營運,使得Kamnik的犯罪對任何具有基本電腦技能和照片存取權的人來說在技術上都是微不足道的。
對於構建AI工具的開發者來說,此案強調了對強大保護措施和使用監控的關鍵需求。標記異常運算模式的檢測系統抓住了Kamnik,但我們需要構建在工具本身中的主動措施。檢測和防止非同意換臉生成的技術是存在的——問題是平台營運商是否會在更多受害者遭受痛苦之前實施它。
