TechCrunch reportó el 29 de abril que Scout AI — la startup de IA de defensa cofundada en agosto de 2024 por Coby (Colby) Adcock y Collin Otis — levantó US$100 millones, con Booz Allen Ventures entre los inversores. La empresa salió de stealth en abril de 2025 con una ronda seed de US$15 millones y dos contratos DoD; ahora tiene cuatro contratos DoD y compite por un quinto, según reportes independientes. Adcock trabajó previamente en private equity tech y está en el board de Figure AI; Otis fue ingeniero fundador en Kodiak Robotics y Head of Data Science / Chief of Staff en Uber ATG. El producto se llama Fury — un modelo fundacional Vision-Language-Action (VLA) construido específicamente para robótica de defensa.
Fury es un modelo VLA — la misma familia de arquitectura que impulsa la investigación de control robótico en los principales labs — fine-tuneado para sistemas no tripulados autónomos. El pitch es que un soldado emite un comando en lenguaje natural ("explora la cresta al norte, vuelve al primer contacto") y Fury descompone el comando a través de una flota de vehículos terrestres no tripulados (UGVs) y vehículos aéreos no tripulados (UAVs), coordinando su movimiento y cobertura de sensores como un único sistema agentic. Scout mostró públicamente el Fury Autonomous Vehicle Orchestrator en febrero de 2026 corriendo una flota heterogénea de sistemas aéreos y terrestres a partir de intención de misión en lenguaje natural. En un test militar cerrado, el sistema "localizó y destruyó autónomamente un objetivo usando un ataque de dron explosivo, guiado por una red de agentes IA conectados," según reportes citados por la empresa. La frase — "localizó y destruyó autónomamente" — es la parte para leer con cuidado. El vehículo de acción fue un dron explosivo; el targeting fue impulsado por IA; el rol humano en ese test, más allá del encuadre inicial de misión, no está especificado en los materiales públicos.
Dos patrones se conectan. Primero, Scout AI está tomando los contratos que Anthropic rechazó. A principios de esta semana cubrimos la demanda de Anthropic contra el Pentágono por su designación de riesgo de cadena de suministro, que siguió al rechazo de Anthropic de dejar caer las cláusulas de no-vigilancia-masiva y no-armas-autónomas. Scout está construido específicamente para el caso de uso que Anthropic dejó atrás — aplicar modelos VLA a sistemas letales autónomos. Booz Allen Ventures invirtiendo es una señal de que la firma de consulting de servicios de defensa más grande de EE.UU. se está posicionando para que eso sea una línea de negocio en crecimiento. Segundo, la forma arquitectónica — comando en lenguaje natural → descomposición multi-agente → ejecución de herramientas — es el mismo patrón que hemos venido cubriendo toda la semana en el contexto civil (conectores creativos Anthropic, Agents CLI Google, contexto de agente Slack, OpenAI Codex). Scout es una de las primeras empresas en aplicar ese patrón explícitamente a sistemas letales autónomos. La arquitectura estilo MCP "dale al agente herramientas determinísticas" es la misma; las herramientas son distintas.
Para los builders, tres cosas concretas. Primero, la arquitectura de modelo fundacional VLA usada por Fury es cada vez más la dirección de investigación abierta para robótica — RT-2, Octo, OpenVLA, RT-X son ejemplos públicos. Si construís robótica civil, las mismas familias de modelos que te llegan llegan a contratistas de defensa con distintos fine-tunes. No hay separación técnica limpia. Segundo, Scout es la forma venture-funded de la respuesta al rechazo de Anthropic. Si sos un ingeniero de IA evaluando ofertas de trabajo, el gradiente de financiamiento en el próximo año va a apuntar fuerte hacia aplicaciones de defensa — Booz Allen, Palantir, Anduril, y los Scout AI de esta cohorte van a contratar contra el mismo talent pool que Anthropic, OpenAI y Google. Tené tu propia respuesta lista. Tercero, la frase "localizó y destruyó autónomamente un objetivo" en la descripción del test cerrado de Scout fija una barra que los debates regulatorios futuros van a referenciar. La pregunta técnica — qué fracción de la kill chain fue IA versus humano — es exactamente lo que los contratos del Pentágono como el que Anthropic rechazó están tratando de dejar abierto.
