James Strahler II, un hombre de 37 años de Ohio, se convirtió en la primera persona condenada bajo la Take It Down Act después de declararse culpable de usar herramientas de IA para crear y distribuir deepfakes explícitos de al menos 10 víctimas. Los investigadores federales encontraron que Strahler había instalado 24 plataformas de IA y más de 100 modelos basados en web en su teléfono, que usaba para generar cientos o miles de imágenes íntimas no consensuales de mujeres y niños. Su campaña de acoso incluyó crear imágenes incestuosas de menores y amenazar a las víctimas con violación, incluso continuando produciendo imágenes mientras estaba en libertad previa al juicio.
Esta condena marca un momento decisivo para la aplicación de regulaciones de IA. La Take It Down Act, aprobada en mayo de 2025, apunta específicamente a la pornografía deepfake y las falsificaciones generadas por IA — y el caso de Strahler demuestra qué tan accesibles se han vuelto estas herramientas. El hecho de que una persona pudiera acceder a 100+ modelos de IA desde su teléfono muestra cómo la barrera de entrada para el uso malicioso de IA ha colapsado. Esto no se trata de hackers sofisticados; esto es sobre IA de consumo fácilmente disponible siendo utilizada como arma para acoso.
Lo que llama la atención de los documentos judiciales es la escala industrial de la operación de Strahler. No solo estaba haciendo unas pocas imágenes — publicó más de 700 imágenes en sitios web de abuso infantil y continuó su acoso incluso después del arresto. El caso también revela cómo las herramientas de IA están siendo combinadas para máximo daño: combinando deepfakes con ciberacoso, intentos de coerción, y distribución a través de múltiples plataformas. La Rep. Salazar, quien patrocinó la Ley, enfatizó que esto envía una advertencia clara a otros potenciales abusadores.
Para los desarrolladores de IA y operadores de plataformas, este caso debería ser una llamada de atención sobre las salvaguardas. Cuando alguien puede instalar 100+ modelos de IA para manipulación de imágenes, necesitamos examinar seriamente los controles de acceso, monitoreo de uso, y filtrado de contenido. Los días de "solo proporcionamos herramientas" se acabaron — esta condena prueba que ahora hay consecuencias legales reales para el abuso habilitado por IA.
