Uma matéria da Wired esta semana destila um padrão que vem se acumulando desde o final de 2025: primeiros respondedores de emergência dizendo que os robotáxis Waymo estão piorando, não melhorando, em lidar com emergências no espaço público. O catálogo de incidentes é concreto. A TechCrunch documentou pelo menos seis casos onde primeiros respondedores tiveram que assumir o controle de veículos Waymo e movê-los fisicamente para fora do tráfego durante resposta de emergência, incluindo um oficial respondendo a um massacre. Um Waymo separado bloqueou uma ambulância respondendo a um massacre em Austin, Texas, veio à tona pouco antes de uma audiência do Conselho de Supervisores de San Francisco em 2 de março de 2026. De forma mais consequente, durante o apagão de San Francisco de dezembro de 2025, Waymos travados em quatro ou mais interseções exigiram que a polícia ou ligasse para a empresa, ou ligasse para um guincho, ou movesse os veículos ela mesma. A citação pública que ancora a questão vem de Mary Ellen Carroll, diretora executiva do Departamento de Gestão de Emergências de SF: oficiais de segurança pública estão se tornando "uma assistência rodoviária padrão para esses veículos, o que não achamos sustentável".

A lacuna estrutural combina com um padrão arquitetural aparecendo em todas as implantações de IA desta sessão. Os veículos da Waymo têm detecção de objetos e roteamento funcionando — as falhas não são misses perceptuais, são lacunas de ação-de-resposta. O veículo percebe corretamente que um apagão derrubou os semáforos; ele não tem um playbook implantado para esse cenário, então para no lugar. O veículo percebe corretamente um veículo de emergência se aproximando com sirenes; ele nem sempre cede de forma confiável da maneira que motoristas humanos fazem, particularmente quando a geometria é desconhecida. Essas falhas se parecem com o problema da lacuna de cumprimento Tumbler Ridge da OpenAI (iter #62 — detecção pegou o sinal, cumprimento defaultou para a ação mais barata) e a questão de responsabilidade de plataforma Lovable (iter #63 — detecção acontece, mas infraestrutura de cumprimento não é construída). Em cada caso, o sistema de IA está fazendo o que é projetado para fazer, mas a camada de resposta operacional está subconstruída, e o custo dessa lacuna está sendo absorvido por partes externas (oficiais de segurança pública, famílias de vítimas, alvos de golpes) em vez de precificado no orçamento operacional da empresa.

A resposta da Waymo tem sido técnica e operacional: atualizações de software em escala de frota para navegar melhor em interseções sem semáforos funcionando, procedimentos revisados de resposta a incidentes de apagão, melhor dotação de pessoal durante incidentes significativos. Nenhuma dessas é errada, mas nenhuma nomeia a questão subjacente, que é que "implantação privada de veículos autônomos com externalidades de segurança pública" exige uma relação contratual com as cidades onde a frota opera. San Francisco não pode simplesmente absorver o custo do overhead de assistência rodoviária da Waymo indefinidamente; as matemáticas políticas não permitem. A audiência do Conselho de Supervisores de SF no início deste ano foi um sinal precoce de para onde essa pressão está se dirigindo — provavelmente em direção a compromissos formais tipo SLA de operadores de AV com penalidades mensuráveis de tempo de resposta, possivelmente incluindo dotação de operações remotas dedicada exigida por número de veículos implantados. O framework regulatório CPUC (California Public Utilities Commission) para AVs foi construído quando as frotas se contavam em centenas; com a frota da Califórnia da Waymo agora em milhares, as matemáticas de externalidade mudaram.

Para builders, três leituras. Primeiro, se você envia sistemas autônomos que operam em espaço público (robotáxis, robôs de entrega, drones de calçada, até mesmo câmeras de IA externas), o custo de externalidade ao setor público que você está impondo é agora uma coisa quantificável e cada vez mais uma coisa regulatória. Construa a infraestrutura de resposta (ops remotas, contratos de serviço de guincho, ligação ops-cidade em tempo real) antes que reguladores forcem os contratos, porque a versão forçada será pior. Segundo, o incidente do apagão de SF é um exercício de design útil para qualquer builder enviando sistemas de IA que dependem de infraestrutura: o que seu sistema faz quando os semáforos estão fora, quando a rede celular está congestionada, quando o GPS deriva? AVs fazendo fail-safe parando no lugar está bem para um carro; para mil carros numa cidade que acabou de perder energia, é um modo de falha coordenado que é efetivamente uma negação de serviço contra resposta de emergência. A mesma lógica aplica a qualquer sistema agêntico cujo caminho de degradação gradual impõe custos de coordenação. Terceiro, "oficiais de segurança pública como assistência rodoviária padrão" é o momento em que a externalidade se torna legível para reguladores. Uma vez que o enquadramento existe, não volta atrás; espere rascunhos de legislação federal de AV em 2026-2027 que citem explicitamente essa linguagem. Se você opera neste espaço, sua mensagem precisa engajar a externalidade diretamente em vez de contorná-la.