Jason Killinger, un camionneur du Nevada, poursuit la ville de Reno après avoir passé 12 heures en détention parce que la reconnaissance faciale par IA l'a identifié comme une « correspondance à 100 pour cent » avec Michael Ellis, un homme banni du Peppermill Casino pour avoir dormi sur les lieux. L'agent Richard Jager a arrêté Killinger malgré qu'il avait trois pièces d'identité dans son portefeuille, a refusé de vérifier son identité par d'autres moyens, et l'a accusé d'utiliser de faux documents. Même après que les empreintes digitales ont confirmé la vraie identité de Killinger à la prison du comté, Jager a procédé avec les accusations.

Ce n'est pas de la stupidité isolée—c'est un échec systématique. Les avocats de Killinger prétendent que la police de Reno a fait « des milliers d'arrestations illégales » en utilisant la reconnaissance faciale, pointant vers une formation inadéquate sur les limites de l'IA plutôt qu'un comportement d'agent voyou. Le précédent compte parce que la reconnaissance faciale prolifère dans les forces de l'ordre sans améliorations correspondantes dans l'éducation des agents ou les cadres légaux. L'année dernière, une grand-mère a passé six mois en prison après que la police de Fargo a fait confiance à l'IA générative qui l'a placée à 1 200 milles d'une scène de fraude de guichet automatique.

La réalité technique est frappante : les systèmes de reconnaissance faciale produisent régulièrement des faux positifs, surtout entre les lignes raciales, pourtant les départements les déploient comme outils d'identification définitifs. Le cas de Killinger démontre comment le biais de confirmation amplifie les erreurs d'IA—une fois que la machine dit « correspondance », le jugement humain s'éteint. Le succès de la poursuite pourrait forcer les municipalités à implémenter de vrais protocoles de formation et des cadres de responsabilité, coûtant potentiellement aux contribuables de Reno des dommages significatifs tout en établissant un précédent crucial pour la responsabilité de l'IA dans la police.