Una pieza de Wired esta semana destila un patrón que ha estado acumulándose desde fines de 2025: los primeros respondedores de emergencia diciendo que los robotaxis de Waymo se están poniendo peores, no mejores, para manejar emergencias en el espacio público. El catálogo de incidentes es concreto. TechCrunch documentó al menos seis casos donde los primeros respondedores tuvieron que tomar el control de vehículos Waymo y moverlos físicamente fuera del tráfico durante respuesta de emergencia, incluyendo un oficial respondiendo a una masacre. Un Waymo separado bloqueó una ambulancia respondiendo a una masacre en Austin, Texas, salió a la luz justo antes de una audiencia de la Junta de Supervisores de San Francisco el 2 de marzo de 2026. Más consecuentemente, durante el apagón de San Francisco de diciembre de 2025, Waymos atascados en cuatro o más intersecciones requirieron que la policía llamara a la compañía, llamara a una grúa, o moviera los vehículos ellos mismos. La cita pública que ancla el tema viene de Mary Ellen Carroll, directora ejecutiva del Departamento de Gestión de Emergencias de SF: los oficiales de seguridad pública se están convirtiendo en "una asistencia de carretera por defecto para estos vehículos, lo cual no creemos que sea sostenible".
La brecha estructural coincide con un patrón arquitectónico que aparece a través de los despliegues de IA de esta sesión. Los vehículos de Waymo tienen detección de objetos y enrutamiento que funcionan —los fallos no son fallas perceptuales, son brechas de acción de respuesta. El vehículo percibe correctamente que un apagón ha derribado las señales de tráfico; no tiene un manual desplegado para ese escenario, así que se detiene en el lugar. El vehículo percibe correctamente un vehículo de emergencia acercándose con sirenas; no siempre cede de forma confiable como lo hacen los conductores humanos, particularmente cuando la geometría es desconocida. Estos fallos lucen como el problema de brecha de cumplimiento Tumbler Ridge de OpenAI (iter #62 —la detección capturó la señal, el cumplimiento defaulteó a la acción más barata) y la cuestión de responsabilidad de plataforma Lovable (iter #63 —la detección sucede, pero la infraestructura de cumplimiento no está construida). En cada caso, el sistema de IA está haciendo lo que está diseñado para hacer, pero la capa de respuesta operacional está sub-construida, y el costo de esa brecha está siendo absorbido por partes externas (oficiales de seguridad pública, familias de víctimas, blancos de estafa) en lugar de ser fijado en el presupuesto operacional de la compañía.
La respuesta de Waymo ha sido técnica y operacional: actualizaciones de software a nivel de flota para navegar mejor intersecciones sin señales de tráfico funcionando, procedimientos revisados de respuesta a incidentes de apagón, dotación de personal mejorada durante incidentes significativos. Ninguna de esas es errónea, pero ninguna nombra el problema subyacente, que es que "el despliegue privado de vehículos autónomos con externalidades de seguridad pública" requiere una relación contractual con las ciudades donde opera la flota. San Francisco no puede simplemente absorber el costo del overhead de asistencia de carretera de Waymo indefinidamente; las matemáticas políticas no lo permiten. La audiencia de la Junta de Supervisores de SF a principios de este año fue una señal temprana de hacia dónde se dirige esta presión —probablemente hacia compromisos formales tipo SLA por parte de operadores de AV con penalidades medibles de tiempo de respuesta, posiblemente incluyendo dotación de operaciones remotas dedicada requerida por número de vehículos desplegados. El marco regulatorio de CPUC (California Public Utilities Commission) para AVs fue construido cuando las flotas se contaban en centenares; con la flota de California de Waymo ahora en miles, las matemáticas de externalidad han cambiado.
Para constructores, tres lecturas. Primero, si envías sistemas autónomos que operan en espacio público (robotaxis, robots de entrega, drones de acera, incluso cámaras de IA al aire libre), el costo de externalidad al sector público que estás imponiendo es ahora una cosa cuantificable y cada vez más una cosa regulatoria. Construye la infraestructura de respuesta (ops remotas, contratos de servicio de grúa, enlace ops-ciudad en tiempo real) antes de que los reguladores te fuercen los contratos, porque la versión forzada será peor. Segundo, el incidente del apagón de SF es un ejercicio de diseño útil para cualquier constructor que envía sistemas de IA que dependen de infraestructura: ¿qué hace tu sistema cuando las señales de tráfico están caídas, cuando la red celular está congestionada, cuando el GPS se desvía? Los AV haciendo fail-safe deteniéndose en el lugar está bien para un coche; para mil coches en una ciudad que acaba de perder energía, es un modo de fallo coordinado que es efectivamente una denegación de servicio contra respuesta de emergencia. La misma lógica aplica a cualquier sistema agéntico cuyo camino de degradación elegante impone costos de coordinación. Tercero, "oficiales de seguridad pública como asistencia de carretera por defecto" es el momento cuando la externalidad se vuelve legible a los reguladores. Una vez que existe el encuadre, no vuelve atrás; espera borradores de legislación federal de AV en 2026-2027 que citen explícitamente este lenguaje. Si operas en este espacio, tu mensajería necesita comprometer la externalidad directamente en lugar de enrutar alrededor de ella.
