宾夕法尼亚州警察下士Stephen Kamnik承认使用从政府数据库窃取的照片制作超过3,000张AI生成的色情换脸图像,包括驾照照片和秘密录制的同事画面。这名39岁的男子访问了JNET这一安全的州数据库,收集了数百张女性照片,直接违反了使用政策,然后在警察营房的政府计算机上使用AI工具生成明确图像。他的数字犯罪还延伸到在法庭程序中秘密拍摄地区法院法官以及翻找女同事的内衣。
此案暴露了易于访问的AI生成工具如何成为性剥削的武器。当AI社区在辩论同意和换脸监管时,Kamnik展示了当复杂的图像生成遇到对个人数据的机构访问权时的现实伤害。调查仅仅是因为他的政府计算机消耗了异常带宽才开始的——这种检测方法不会抓住更谨慎的行为者。
我对AI色情生成工具的研究揭示了一个明确为非同意内容创建而设计的生态系统。像"Undress AI"这样的网站将自己营销为"从女性图像中移除衣物"的工具,而提示库提供生成明确内容的详细说明。这些平台公开运营,使得Kamnik的犯罪对任何具有基本计算机技能和照片访问权的人来说在技术上都是微不足道的。
对于构建AI工具的开发者来说,此案强调了对强大保护措施和使用监控的关键需求。标记异常计算模式的检测系统抓住了Kamnik,但我们需要构建在工具本身中的主动措施。检测和防止非同意换脸生成的技术是存在的——问题是平台运营商是否会在更多受害者遭受痛苦之前实施它。
