La startup de Los Angeles Harm.AI développe une plateforme alimentée par IA pour intercepter les appels non urgents avant qu'ils atteignent le système 911 débordé de la ville, qui n'a répondu qu'à 57,43% des appels en moins de 15 secondes en 2024. Fondée par le PDG Aitan Segal et le VP Connor MacLeod, la plateforme permet aux utilisateurs de décrire leur situation et tente de les connecter aux ressources appropriées—lignes de crise en santé mentale, services pour sans-abri, ou autre soutien—en environ une minute plutôt que de passer par les services d'urgence.

Cela s'attaque à un vrai problème d'infrastructure. Le système 911 de LA n'a pas été conçu pour le volume de crises de santé mentale, rapports de harcèlement, et disputes de logement qu'il gère maintenant quotidiennement. Les solutions de contournement actuelles comme les équipes de réponse de crise exigent encore que des répartiteurs formés filtrent d'abord les appels, redistribuant simplement les goulots d'étranglement plutôt que de les résoudre. La ville manque de véritables voies séparées pour la réponse non urgente, forçant les opérateurs à jongler entre les appels secondaires et les devoirs 911 primaires.

Ce qui manque dans la couverture, ce sont des détails techniques critiques. Comment fonctionne réellement l'évaluation de Harm.AI? Qu'est-ce qui empêche le mauvais acheminement des vraies urgences? L'entreprise se positionne comme "pas un remplacement du 911", mais la ligne entre urgent et non urgent n'est pas toujours claire pour les gens en crise. Un seul appel de violence conjugale ou d'urgence médicale mal catégorisé pourrait être catastrophique. Sans transparence sur leurs algorithmes de prise de décision ou l'intégration avec les services d'urgence existants, cela ressemble à un pansement bien intentionné sur un problème systémique qui pourrait créer de nouveaux modes de défaillance tout en prétendant résoudre les anciens.