El Institute for Justice publicó el 28 de abril un análisis que documenta 14 casos en EE.UU. de policías que supuestamente abusaron de datos de lectores automáticos de matrículas (ALPR) — la mayoría en la red de Flock Safety — para acechar parejas románticas, exparejas o desconocidos. La mayoría de los casos son posteriores a 2024, el año en que Flock lanzó una expansión masiva a más de 4.000 ciudades estadounidenses. Hoy Flock opera más de 76.000 lectores en más de 6.000 ciudades. Sólo unos pocos de los 14 casos fueron descubiertos por investigaciones policiales internas; la mayoría salieron a la luz porque las víctimas presentaron denuncias por acoso, o porque se buscaron a sí mismas en HaveIBeenFlocked.com — un sitio de auditoría público que permite ver cuándo la propia matrícula ha sido consultada.

Los casos nombrados muestran cómo se ve el abuso en la práctica. En Milwaukee, el oficial Josue Ayala, veterano de ocho años, usó el sistema Flock del departamento para rastrear a una mujer con la que salía y su expareja unas 180 veces en dos meses; renunció en 2026 después de ser imputado por mala conducta en cargo público. En Costa Mesa, California, el oficial Robert Josett se declaró culpable en abril de 2026 de haber usado Flock para rastrear a su amante y a las otras parejas de ella. En el condado de Jerome, Idaho, el sheriff George Oppedyk buscó el vehículo de su esposa cientos de veces y se retiró dos años antes. En el condado de Kenosha, Wisconsin, el ayudante del sheriff Frank McGrath renunció con indemnización tras usar el sistema sobre otra ayudante con quien tenía relación. La mecánica es la misma cada vez: iniciar sesión en Flock, consultar una matrícula, obtener un historial de movimientos. Sin requisito de orden judicial, sin justificación por consulta, y en la mayoría de los departamentos, sin detección automatizada de abuso.

Esta es la historia de segundo orden de un producto de vigilancia con IA. La red ALPR de Flock hace reconocimiento de objetos (matrículas, tipos de vehículos) y almacena patrones de movimiento en el tiempo. La capacidad técnica es nada del otro mundo — el OCR de matrículas es un problema resuelto. Lo nuevo es la escala y el precio. Flock ha bajado el costo de despliegue lo suficiente como para que más de 6.000 departamentos pequeños puedan permitirse redes de cámaras que antes sólo grandes agencias federales podían construir. La Electronic Frontier Foundation ha documentado cámaras Flock siendo usadas para vigilar manifestantes y activistas; una demanda colectiva federal presentada en San Jose este mes alega que el sistema ALPR de la ciudad es vigilancia masiva inconstitucional; según NBC News, la policía de Virginia usó Flock para rastrear a un solo conductor 526 veces en cuatro meses. Los 14 casos de acoso son los puntos más visceralmente malos de un patrón de abuso de ALPR mucho más amplio.

Para los builders que trabajan en vigilancia con IA, infraestructura automatizada o cualquier producto con datos de movimiento o biométricos, tres cosas son concretas. Primero, el patrón Flock — despliegue barato, controles débiles por consulta, sin requisito de orden judicial, sin auditoría por defecto — es a lo que se va a parecer la reacción regulatoria cuando llegue. Si tu producto agrega datos de movimiento, financieros o biométricos, diseñá los logs de auditoría y las justificaciones por consulta dentro del sistema ahora, no después de la demanda de una víctima. Segundo, HaveIBeenFlocked.com es un precedente útil: las interfaces de auditoría de terceros sobre sistemas de vigilancia privados ya existen y descubren abusos que las propias empresas no descubren. Esperá ver más de éstos, y esperá que se citen en litigios. Tercero, la capacidad ALPR civil va subiendo — los despliegues Flock actuales agregan matching de atributos de vehículo ("pickup blanca con porta-escaleras") y firmas de comportamiento. Los 14 casos de acoso pasaron sobre la pila de capacidades de hoy. El patrón de abuso de mañana, sobre datos más ricos, va a ser peor.