El Cabo Stephen Kamnik de la Policía Estatal de Pensilvania se declaró culpable de crear más de 3,000 deepfakes pornográficos generados por IA usando fotos robadas de bases de datos gubernamentales, incluyendo fotos de licencias de conducir y grabaciones secretas de compañeros de trabajo. El hombre de 39 años accedió a JNET, una base de datos estatal segura, para recopilar cientos de fotos de mujeres en violación directa de las políticas de uso, luego usó herramientas de IA en computadoras gubernamentales en cuarteles policiales para generar imágenes explícitas. Sus crímenes digitales se extendieron a filmar secretamente a una jueza de tribunal de distrito durante procedimientos y hurgar en la ropa interior de colegas mujeres.
Este caso expone qué tan fácilmente las herramientas de generación de IA accesibles se han convertido en armas para la explotación sexual. Mientras la comunidad de IA debate sobre consentimiento y regulación de deepfakes, Kamnik demuestra el daño del mundo real cuando la generación sofisticada de imágenes se encuentra con acceso institucional a datos personales. La investigación solo comenzó porque su computadora gubernamental estaba consumiendo ancho de banda inusual — un método de detección que no atraparía actores más cuidadosos.
Mi investigación sobre herramientas de generación de porno con IA revela un ecosistema explícitamente diseñado para la creación de contenido no consensual. Sitios como "Undress AI" se comercializan como herramientas para "quitar ropa de imágenes" de mujeres, mientras que bibliotecas de prompts proporcionan instrucciones detalladas para generar contenido explícito. Estas plataformas operan abiertamente, haciendo que los crímenes de Kamnik sean técnicamente triviales de ejecutar para cualquiera con habilidades básicas de computadora y acceso a fotos.
Para desarrolladores construyendo herramientas de IA, este caso subraya la necesidad crítica de salvaguardas robustas y monitoreo de uso. Los sistemas de detección que marcan patrones computacionales inusuales atraparon a Kamnik, pero necesitamos medidas proactivas construidas en las herramientas mismas. La tecnología existe para detectar y prevenir la generación de deepfakes no consensuales — la pregunta es si los operadores de plataformas la implementarán antes de que más víctimas sufran.
