Jason Killinger, un camionero de Nevada, está demandando a la ciudad de Reno después de pasar 12 horas bajo custodia porque el reconocimiento facial por IA lo marcó como una "coincidencia del 100 por ciento" con Michael Ellis, un hombre prohibido del Peppermill Casino por dormir en las instalaciones. El oficial Richard Jager arrestó a Killinger a pesar de tener tres formas de identificación en su billetera, se negó a verificar su identidad por medios alternativos, y lo acusó de usar documentos falsos. Incluso después de que las huellas dactilares confirmaron la verdadera identidad de Killinger en la cárcel del condado, Jager procedió con los cargos.
Esto no es estupidez aislada—es falla sistemática. Los abogados de Killinger afirman que la policía de Reno ha hecho "miles de arrestos ilegales" usando reconocimiento facial, señalando entrenamiento inadecuado sobre las limitaciones de la IA en lugar del comportamiento de un oficial deshonesto. El precedente importa porque el reconocimiento facial está proliferando en las fuerzas del orden sin mejoras correspondientes en la educación de oficiales o marcos legales. El año pasado, una abuela pasó seis meses encarcelada después de que la policía de Fargo confió en IA generativa que la ubicó a 1,200 millas de una escena de fraude de cajero automático.
La realidad técnica es cruda: los sistemas de reconocimiento facial regularmente producen falsos positivos, especialmente entre líneas raciales, sin embargo los departamentos los despliegan como herramientas de identificación definitivas. El caso de Killinger demuestra cómo el sesgo de confirmación amplifica los errores de IA—una vez que la máquina dice "coincidencia", el juicio humano se apaga. El éxito de la demanda podría forzar a las municipalidades a implementar protocolos de entrenamiento reales y marcos de responsabilidad, potencialmente costando a los contribuyentes de Reno daños significativos mientras establece un precedente crucial para la responsabilidad de la IA en la policía.
