L'Institute for Justice a publié le 28 avril une analyse qui documente 14 cas américains de policiers qui auraient abusé des données de lecteurs automatiques de plaques (ALPR) — la plupart sur le réseau de Flock Safety — pour faire de la filature de conjoint·e·s, d'ex pis d'étrangers. La majorité des cas sont postérieurs à 2024, l'année où Flock a lancé une expansion massive dans plus de 4 000 villes américaines. Aujourd'hui Flock opère plus de 76 000 lecteurs dans plus de 6 000 villes. Juste quelques-uns des 14 cas ont été détectés par des enquêtes internes; la plupart ont fait surface parce que des victimes ont porté plainte pour harcèlement, ou parce qu'elles se sont cherchées elles-mêmes sur HaveIBeenFlocked.com — un site d'audit public qui permet de voir quand sa propre plaque a été interrogée.

Les cas nommés montrent à quoi ressemble l'abus en pratique. À Milwaukee, le policier Josue Ayala, vétéran de huit ans, a utilisé le système Flock du département pour suivre une femme qu'il fréquentait pis l'ex de celle-ci environ 180 fois en deux mois; il a démissionné en 2026 après avoir été accusé de mauvaise conduite dans une charge publique. À Costa Mesa, en Californie, l'agent Robert Josett a plaidé coupable en avril 2026 d'avoir utilisé Flock pour suivre sa maîtresse pis ses autres partenaires. Au comté de Jerome, en Idaho, le shérif George Oppedyk a cherché le véhicule de sa femme des centaines de fois pis a pris sa retraite deux ans en avance. Au comté de Kenosha, au Wisconsin, l'adjoint au shérif Frank McGrath a démissionné avec une indemnité après avoir utilisé le système sur une autre adjointe avec qui il était en relation. La mécanique est la même à chaque fois : se connecter à Flock, interroger une plaque, obtenir un historique de mouvements. Pas d'exigence de mandat, pas de justification par requête, pis dans la plupart des départements, aucune détection automatisée d'abus.

C'est l'histoire de second ordre d'un produit de surveillance propulsé par l'IA. Le réseau ALPR de Flock fait de la reconnaissance d'objets (plaques, types de véhicules) pis stocke des patterns de mouvement dans le temps. La capacité technique est banale — l'OCR de plaque, c'est un problème réglé. Ce qui est neuf, c'est l'échelle pis le prix. Flock a fait baisser le coût de déploiement assez bas pour que plus de 6 000 petits départements peuvent se payer des réseaux de caméras qu'avant, juste les grandes agences fédérales pouvaient bâtir. L'Electronic Frontier Foundation a documenté l'usage des caméras Flock pour surveiller des manifestants pis des activistes; une action collective fédérale déposée à San Jose ce mois-ci allègue que le système ALPR de la ville, c'est de la surveillance de masse inconstitutionnelle; selon NBC News, la police de Virginie a utilisé Flock pour suivre un seul conducteur 526 fois en quatre mois. Les 14 cas de filature, c'est les pires points de données d'un pattern d'abus d'ALPR qui est beaucoup plus large.

Pour les builders qui travaillent sur la surveillance propulsée par l'IA, l'infrastructure automatisée ou tout produit avec des données de mouvement ou biométriques, trois choses sont concrètes. Premièrement, le pattern Flock — déploiement pas cher, contrôles par requête faibles, pas d'exigence de mandat, pas d'audit par défaut — c'est ce à quoi va ressembler le retour de bâton réglementaire quand il va arriver. Si ton produit agrège des données de mouvement, financières ou biométriques, design des journaux d'audit pis des justifications par requête direct dans le système asteure, pas après la poursuite d'une victime. Deuxièmement, HaveIBeenFlocked.com, c'est un précédent utile : les interfaces d'audit tierces par-dessus des systèmes de surveillance privés, c'est une affaire qui existe asteure, pis ça déterre des abus que les compagnies déterrent pas elles-mêmes. Attends-toi à en voir d'autres, pis attends-toi à ce qu'ils soient cités dans les poursuites. Troisièmement, la capacité des ALPR civils monte — les déploiements Flock actuels ajoutent du matching d'attributs de véhicule (« pick-up blanc avec un porte-échelle ») pis des signatures de comportement. Les 14 cas de filature, c'est arrivé sur la stack de capacités d'aujourd'hui. Le pattern d'abus de demain, sur des données plus riches, va être pire.