James Strahler II, um homem de 37 anos de Ohio, se tornou a primeira pessoa condenada sob a Take It Down Act após se declarar culpado de usar ferramentas de IA para criar e distribuir deepfakes explícitos de pelo menos 10 vítimas. Investigadores federais descobriram que Strahler havia instalado 24 plataformas de IA e mais de 100 modelos baseados na web em seu telefone, que ele usava para gerar centenas ou milhares de imagens íntimas não consensuais de mulheres e crianças. Sua campanha de assédio incluiu criar imagens incestuosas de menores e ameaçar vítimas com estupro, até mesmo continuando a produzir imagens enquanto estava em liberdade pré-julgamento.
Esta condenação marca um momento decisivo para a aplicação de regulamentações de IA. A Take It Down Act, aprovada em maio de 2025, visa especificamente pornografia deepfake e falsificações geradas por IA — e o caso de Strahler demonstra o quão acessíveis essas ferramentas se tornaram. O fato de que uma pessoa poderia acessar 100+ modelos de IA do seu telefone mostra como a barreira de entrada para uso malicioso de IA colapsou. Isso não é sobre hackers sofisticados; isso é sobre IA de consumo facilmente disponível sendo transformada em arma para assédio.
O que chama atenção nos documentos judiciais é a escala industrial da operação de Strahler. Ele não estava apenas fazendo algumas imagens — ele postou mais de 700 imagens em sites de abuso infantil e continuou seu assédio mesmo após a prisão. O caso também revela como ferramentas de IA estão sendo combinadas para máximo dano: combinando deepfakes com cyberbullying, tentativas de coerção, e distribuição através de múltiplas plataformas. A Rep. Salazar, que patrocinou a Lei, enfatizou que isso manda um aviso claro para outros potenciais abusadores.
Para desenvolvedores de IA e operadores de plataforma, este caso deveria ser um alerta sobre salvaguardas. Quando alguém pode instalar 100+ modelos de IA para manipulação de imagens, precisamos examinar seriamente controles de acesso, monitoramento de uso, e filtragem de conteúdo. Os dias de "apenas fornecemos ferramentas" acabaram — esta condenação prova que agora há consequências legais reais para abuso habilitado por IA.
