Jason Killinger, um caminhoneiro de Nevada, está processando a cidade de Reno após passar 12 horas sob custódia porque o reconhecimento facial por IA o marcou como uma "combinação 100 por cento" com Michael Ellis, um homem banido do Peppermill Casino por dormir nas dependências. O oficial Richard Jager prendeu Killinger apesar de ele ter três formas de identificação em sua carteira, recusou-se a verificar sua identidade por meios alternativos, e o acusou de usar documentos falsos. Mesmo após as impressões digitais confirmarem a verdadeira identidade de Killinger na cadeia do condado, Jager prosseguiu com as acusações.
Isso não é estupidez isolada—é falha sistemática. Os advogados de Killinger afirmam que a polícia de Reno fez "milhares de prisões ilegais" usando reconhecimento facial, apontando para treinamento inadequado sobre limitações da IA ao invés de comportamento desonesto de oficial. O precedente importa porque o reconhecimento facial está proliferando nas forças da lei sem melhorias correspondentes na educação de oficiais ou estruturas legais. No ano passado, uma avó passou seis meses presa após a polícia de Fargo confiar em IA generativa que a colocou a 1.200 milhas de uma cena de fraude em caixa eletrônico.
A realidade técnica é dura: sistemas de reconhecimento facial regularmente produzem falsos positivos, especialmente entre linhas raciais, ainda assim departamentos os implantam como ferramentas de identificação definitivas. O caso de Killinger demonstra como o viés de confirmação amplifica erros de IA—uma vez que a máquina diz "combinação", o julgamento humano desliga. O sucesso do processo poderia forçar municipalidades a implementar protocolos de treinamento reais e estruturas de responsabilidade, potencialmente custando aos contribuintes de Reno danos significativos enquanto estabelece precedente crucial para responsabilidade da IA no policiamento.
