O Cabo Stephen Kamnik da Polícia Estadual da Pensilvânia se declarou culpado de criar mais de 3.000 deepfakes pornográficos gerados por IA usando fotos roubadas de bancos de dados governamentais, incluindo fotos de carteiras de motorista e filmagens secretas de colegas de trabalho. O homem de 39 anos acessou o JNET, um banco de dados estadual seguro, para coletar centenas de fotos de mulheres em violação direta das políticas de uso, depois usou ferramentas de IA em computadores do governo em quartéis policiais para gerar imagens explícitas. Seus crimes digitais se estenderam a filmar secretamente uma juíza de tribunal distrital durante procedimentos e vasculhar a roupa íntima de colegas mulheres.

Este caso expõe quão facilmente as ferramentas de geração de IA acessíveis se tornaram armas para exploração sexual. Enquanto a comunidade de IA debate consentimento e regulamentação de deepfakes, Kamnik demonstra o dano do mundo real quando a geração sofisticada de imagens encontra acesso institucional a dados pessoais. A investigação só começou porque seu computador do governo estava consumindo largura de banda incomum — um método de detecção que não pegaria atores mais cuidadosos.

Minha pesquisa sobre ferramentas de geração de pornô com IA revela um ecossistema explicitamente projetado para criação de conteúdo não consensual. Sites como "Undress AI" se comercializam como ferramentas para "remover roupas de imagens" de mulheres, enquanto bibliotecas de prompts fornecem instruções detalhadas para gerar conteúdo explícito. Essas plataformas operam abertamente, tornando os crimes de Kamnik tecnicamente triviais de executar para qualquer um com habilidades básicas de computador e acesso a fotos.

Para desenvolvedores construindo ferramentas de IA, este caso ressalta a necessidade crítica de salvaguardas robustas e monitoramento de uso. Sistemas de detecção que sinalizam padrões computacionais incomuns pegaram Kamnik, mas precisamos de medidas proativas construídas nas próprias ferramentas. A tecnologia existe para detectar e prevenir a geração de deepfakes não consensuais — a questão é se os operadores de plataformas vão implementá-la antes que mais vítimas sofram.