A TechCrunch reportou em 29 de abril que a Scout AI — a startup de IA de defesa cofundada em agosto de 2024 por Coby (Colby) Adcock e Collin Otis — levantou US$100 milhões, com a Booz Allen Ventures entre os investidores. A empresa saiu de stealth em abril de 2025 com uma rodada seed de US$15 milhões e dois contratos DoD; agora detém quatro contratos DoD e compete por um quinto, segundo relatos independentes. Adcock trabalhou anteriormente em private equity tech e está no board da Figure AI; Otis foi engenheiro fundador na Kodiak Robotics e Head of Data Science / Chief of Staff na Uber ATG. O produto se chama Fury — um modelo fundacional Vision-Language-Action (VLA) construído especificamente para robótica de defesa.
O Fury é um modelo VLA — a mesma família de arquitetura que impulsiona a pesquisa em controle robótico nos principais labs — fine-tunado para sistemas não-tripulados autônomos. O pitch é que um soldado emite um comando em linguagem natural ("escolte a crista ao norte, retorne ao primeiro contato") e o Fury decompõe o comando ao longo de uma frota de veículos terrestres não-tripulados (UGVs) e veículos aéreos não-tripulados (UAVs), coordenando seu movimento e cobertura de sensores como um sistema agentic único. A Scout mostrou publicamente o Fury Autonomous Vehicle Orchestrator em fevereiro de 2026 rodando uma frota heterogênea de sistemas aéreos e terrestres a partir de intenção de missão em linguagem natural. Em um teste militar fechado, o sistema "localizou e destruiu autonomamente um alvo usando um ataque de drone explosivo, guiado por uma rede de agentes IA conectados," segundo relatos citados pela empresa. A frase — "localizou e destruiu autonomamente" — é a parte para ler com cuidado. O veículo de ação foi um drone explosivo; o targeting foi guiado por IA; o papel humano naquele teste, além do enquadramento inicial da missão, não é especificado nos materiais públicos.
Dois padrões se conectam. Primeiro, a Scout AI está pegando os contratos que a Anthropic recusou. No início desta semana cobrimos o processo da Anthropic contra o Pentágono por sua designação de risco de cadeia de suprimentos, que veio depois da recusa da Anthropic em deixar cair as cláusulas de não-vigilância-em-massa e não-armas-autônomas. A Scout é construída especificamente para o caso de uso que a Anthropic deixou para trás — aplicar modelos VLA a sistemas letais autônomos. A Booz Allen Ventures investindo é um sinal de que a principal firma de consulting de serviços de defesa dos EUA está se posicionando para que isso vire uma linha de negócio em crescimento. Segundo, a forma arquitetônica — comando em linguagem natural → decomposição multi-agente → execução de ferramentas — é o mesmo padrão que viemos cobrindo a semana toda no contexto civil (conectores criativos da Anthropic, Agents CLI do Google, contexto de agente do Slack, Codex da OpenAI). A Scout é uma das primeiras empresas a aplicar esse padrão explicitamente a sistemas letais autônomos. A arquitetura estilo MCP "dê ao agente ferramentas determinísticas" é a mesma; as ferramentas é que são diferentes.
Para os builders, três coisas concretas. Primeiro, a arquitetura de modelo fundacional VLA usada pelo Fury é cada vez mais a direção de pesquisa aberta para robótica — RT-2, Octo, OpenVLA, RT-X são exemplos públicos. Se você constrói robótica civil, as mesmas famílias de modelo que chegam para você chegam para empreiteiros de defesa com fine-tunes diferentes. Não há separação técnica limpa. Segundo, a Scout é a forma venture-funded da resposta à recusa da Anthropic. Se você é um engenheiro de IA avaliando ofertas de emprego, o gradiente de funding no próximo ano vai apontar fortemente para aplicações de defesa — Booz Allen, Palantir, Anduril e as Scout AI desse lote vão contratar contra o mesmo pool de talentos da Anthropic, OpenAI e Google. Tenha sua própria resposta pronta. Terceiro, a frase "localizou e destruiu autonomamente um alvo" na descrição do teste fechado da Scout estabelece uma régua que debates regulatórios futuros vão referenciar. A pergunta técnica — que fração da kill chain foi IA versus humana — é exatamente o que os contratos do Pentágono como o que a Anthropic recusou estão tentando deixar em aberto.
