TechCrunch a rapporté le 29 avril que Scout AI — la startup d'IA défense cofondée en août 2024 par Coby (Colby) Adcock pis Collin Otis — a levé 100 millions $, avec Booz Allen Ventures parmi les investisseurs. La compagnie est sortie de stealth en avril 2025 avec un tour de seed de 15 millions $ pis deux contrats DoD; elle détient maintenant quatre contrats DoD pis est en compétition pour un cinquième, selon des rapports indépendants. Adcock a travaillé en private equity tech pis siège au conseil de Figure AI; Otis était ingénieur fondateur chez Kodiak Robotics pis Head of Data Science / Chief of Staff chez Uber ATG. Le produit s'appelle Fury — un modèle de fondation Vision-Language-Action (VLA) bâti spécifiquement pour la robotique de défense.
Fury, c'est un modèle VLA — la même famille d'architecture qui pilote la recherche en contrôle robotique dans les grands labos — fine-tuné pour des systèmes sans pilote autonomes. Le pitch, c'est qu'un soldat émet une commande en langage naturel (« explore la crête au nord, reviens au premier contact ») pis Fury décompose la commande à travers une flotte de véhicules terrestres sans pilote (UGV) pis de véhicules aériens sans pilote (UAV), coordonnant leur mouvement pis leur couverture de capteurs comme un système agentique unique. Scout a montré publiquement le Fury Autonomous Vehicle Orchestrator en février 2026 en train de rouler une flotte hétérogène de systèmes air pis sol à partir d'une intention de mission en langage naturel. Dans un test militaire fermé, le système « a localisé pis détruit de manière autonome une cible avec une frappe de drone explosif, guidée par un réseau d'agents IA connectés », selon des rapports cités par la compagnie. La tournure — « localisé pis détruit de manière autonome » — c'est ce qu'il faut lire avec attention. Le véhicule d'exécution, c'était un drone explosif; le ciblage était piloté par IA; le rôle humain dans ce test, au-delà du cadrage initial de la mission, est pas spécifié dans les matériaux publics.
Deux patterns se connectent. Premièrement, Scout AI prend les contrats qu'Anthropic a refusés. Plus tôt cette semaine, on a couvert la poursuite d'Anthropic contre le Pentagone sur sa désignation de risque de chaîne d'approvisionnement, qui a suivi le refus d'Anthropic de laisser tomber ses clauses de non-surveillance de masse pis de non-armes autonomes. Scout est bâti spécifiquement pour le cas d'usage qu'Anthropic a écarté — appliquer des modèles VLA aux systèmes létaux autonomes. Booz Allen Ventures qui investit, c'est un signal que la grande firme de consulting de services de défense des États-Unis se positionne pour que ça devienne une ligne d'affaires en croissance. Deuxièmement, la forme architecturale — commande en langage naturel → décomposition multi-agents → exécution d'outils — c'est le même pattern qu'on a écrit à propos toute la semaine dans le contexte civil (connecteurs créatifs Anthropic, Agents CLI Google, contexte d'agent Slack, OpenAI Codex). Scout est une des premières compagnies à appliquer ce pattern explicitement aux systèmes létaux autonomes. L'architecture style MCP « donner à l'agent des outils déterministes », c'est la même; les outils sont différents.
Pour les builders, trois choses concrètes. Premièrement, l'architecture de modèle de fondation VLA utilisée par Fury est de plus en plus la direction de recherche ouverte pour la robotique — RT-2, Octo, OpenVLA, RT-X sont des exemples publics. Si tu bâtis de la robotique civile, les mêmes familles de modèles qui te sont livrées sont livrées aux entrepreneurs de défense avec des fine-tunes différents. Y a pas de séparation technique propre. Deuxièmement, Scout, c'est la forme venture-funded de la réponse au refus d'Anthropic. Si t'es un ingénieur IA qui évalue des offres d'emploi, le gradient de financement dans la prochaine année va pointer fortement vers les applications de défense — Booz Allen, Palantir, Anduril, pis les Scout AI de cette cohorte vont embaucher dans le même bassin de talents qu'Anthropic, OpenAI pis Google. Aie ta propre réponse de prête. Troisièmement, la tournure « localisé pis détruit de manière autonome une cible » dans la description du test fermé de Scout fixe une barre que les débats réglementaires futurs vont référencer. La question technique — quelle fraction de la kill chain était IA versus humain — c'est exactement ce que les contrats du Pentagone comme celui qu'Anthropic a refusé essaient de laisser ouvert.
