La startup de Los Ángeles Harm.AI está construyendo una plataforma impulsada por IA para interceptar llamadas no urgentes antes de que lleguen al sistema 911 abrumado de la ciudad, que solo respondió al 57.43% de las llamadas en 15 segundos en 2024. Fundada por el CEO Aitan Segal y el VP Connor MacLeod, la plataforma permite a los usuarios describir su situación e intenta conectarlos con los recursos apropiados—líneas de crisis de salud mental, servicios para personas sin hogar, u otro apoyo—en aproximadamente un minuto en lugar de enrutar a través del despacho de emergencias.

Esto aborda un problema real de infraestructura. El sistema 911 de LA no fue diseñado para el volumen de crisis de salud mental, reportes de acoso y disputas de vivienda que ahora maneja diariamente. Las soluciones alternativas actuales como equipos de respuesta a crisis aún requieren que despachadores entrenados filtren las llamadas primero, solo redistribuyendo cuellos de botella en lugar de resolverlos. La ciudad carece de carriles genuinamente separados para respuesta no urgente, forzando a los operadores a hacer malabares entre llamadas secundarias y deberes primarios del 911.

Lo que falta en la cobertura son detalles técnicos críticos. ¿Cómo funciona realmente la evaluación de Harm.AI? ¿Qué previene el enrutamiento erróneo de emergencias genuinas? La empresa se posiciona como "no un reemplazo del 911", pero la línea entre urgente y no urgente no siempre es clara para personas en crisis. Una sola llamada mal categorizada de violencia doméstica o emergencia médica podría ser catastrófica. Sin transparencia sobre sus algoritmos de toma de decisiones o integración con servicios de emergencia existentes, esto se siente como una curita bien intencionada en un problema sistémico que podría crear nuevos modos de falla mientras afirma resolver los viejos.