A startup de Los Angeles Harm.AI está construindo uma plataforma alimentada por IA para interceptar chamadas não emergenciais antes que atinjam o sistema 911 sobrecarregado da cidade, que respondeu apenas 57,43% das chamadas em 15 segundos em 2024. Fundada pelo CEO Aitan Segal e VP Connor MacLeod, a plataforma permite que usuários descrevam sua situação e tenta conectá-los aos recursos apropriados—linhas de crise de saúde mental, serviços para moradores de rua, ou outro suporte—em aproximadamente um minuto em vez de rotear através do despacho de emergência.
Isso aborda um problema real de infraestrutura. O sistema 911 de LA não foi projetado para o volume de crises de saúde mental, relatórios de assédio e disputas habitacionais que agora lida diariamente. Soluções alternativas atuais como equipes de resposta a crises ainda exigem que despachadores treinados filtrem chamadas primeiro, apenas redistribuindo gargalos em vez de resolvê-los. A cidade não tem pistas genuinamente separadas para resposta não emergencial, forçando operadores a fazer malabarismo entre chamadas secundárias e deveres primários do 911.
O que está faltando na cobertura são detalhes técnicos críticos. Como funciona realmente a avaliação da Harm.AI? O que previne o roteamento errado de emergências genuínas? A empresa se posiciona como "não uma substituição do 911", mas a linha entre urgente e não urgente nem sempre é clara para pessoas em crise. Uma única chamada mal categorizada de violência doméstica ou emergência médica poderia ser catastrófica. Sem transparência sobre seus algoritmos de tomada de decisão ou integração com serviços de emergência existentes, isso parece um curativo bem intencionado em um problema sistêmico que pode criar novos modos de falha enquanto afirma resolver os antigos.
