TechCrunch ने 29 अप्रैल को रिपोर्ट किया कि Scout AI — Coby (Colby) Adcock और Collin Otis द्वारा अगस्त 2024 में सह-स्थापित defense-AI startup — ने US$100 मिलियन जुटाए हैं, जिनमें Booz Allen Ventures निवेशकों में से एक है। कंपनी अप्रैल 2025 में US$15 मिलियन seed round और दो DoD contracts के साथ stealth से बाहर आई थी; अब उसके पास चार DoD contracts हैं और वह पांचवे के लिए मुक़ाबले में है (स्वतंत्र रिपोर्टिंग के अनुसार)। Adcock पहले tech private equity में काम करते थे और Figure AI के board में हैं; Otis Kodiak Robotics में founding engineer और Uber ATG में Head of Data Science / Chief of Staff थे। उत्पाद का नाम Fury है — defense robotics के लिए विशेष रूप से बनाया गया एक Vision-Language-Action (VLA) foundation model।
Fury एक VLA model है — वही architecture परिवार जो बड़े labs में robot-control research चलाता है — autonomous unmanned systems के लिए fine-tune किया गया। Pitch यह है कि एक soldier natural-language command ("उत्तर की पहाड़ी पर scout करो, पहले contact पर वापस आओ") देता है और Fury उस command को unmanned ground vehicles (UGVs) और unmanned aerial vehicles (UAVs) के एक fleet में decompose कर देता है, उनकी गति और sensor coverage को एक एकल agentic system के रूप में coordinate करते हुए। Scout ने फरवरी 2026 में Fury Autonomous Vehicle Orchestrator को सार्वजनिक रूप से प्रदर्शित किया, जो natural-language mission intent से air और ground systems का एक heterogeneous fleet चला रहा था। एक closed military test में, system ने "connected AI agents के एक web द्वारा निर्देशित होकर, एक target को स्वायत्त रूप से locate किया और explosive drone strike से नष्ट कर दिया," कंपनी द्वारा उद्धृत रिपोर्टिंग के अनुसार। यह वाक्यांश — "स्वायत्त रूप से locate किया और नष्ट कर दिया" — ध्यान से पढ़ने वाला हिस्सा है। action का वाहन एक explosive drone था; targeting AI-संचालित था; उस test में मानव की भूमिका, प्रारंभिक mission framing से परे, सार्वजनिक सामग्री में निर्दिष्ट नहीं है।
दो pattern जुड़ते हैं। पहला, Scout AI वही contracts ले रहा है जिन्हें Anthropic ने ठुकराया। इस सप्ताह की शुरुआत में हमने Pentagon के supply-chain-risk designation के ख़िलाफ़ Anthropic के मुक़दमे को कवर किया, जो Anthropic के no-mass-surveillance और no-autonomous-weapons clauses छोड़ने से इनकार के बाद आया। Scout उसी use case के लिए बनाया गया है जिसे Anthropic छोड़ गई — VLA models को autonomous lethal systems पर लागू करना। Booz Allen Ventures का निवेश संकेत है कि US का प्रमुख defense-services consulting firm इसे एक बढ़ती हुई व्यापार-रेखा के रूप में स्थान दे रहा है। दूसरा, architectural शकल — natural-language command → multi-agent decomposition → tool execution — वही pattern है जिसके बारे में हमने पूरे सप्ताह civilian context में लिखा है (Anthropic creative connectors, Google Agents CLI, Slack agent context, OpenAI Codex)। Scout उन पहली कंपनियों में से एक है जिन्होंने उस pattern को स्पष्ट रूप से lethal autonomous systems पर लागू किया है। MCP-शैली की "agent को deterministic tools दो" architecture वही है; tools अलग हैं।
Builders के लिए, तीन ठोस बातें। पहला, Fury द्वारा उपयोग किया जा रहा VLA-foundation-model architecture robotics के लिए तेज़ी से open-research दिशा बनती जा रही है — RT-2, Octo, OpenVLA, RT-X सार्वजनिक उदाहरण हैं। अगर आप civilian robotics बनाते हैं, तो वही model families जो आप तक पहुंचती हैं अलग-अलग fine-tunes के साथ defense contractors तक भी पहुंचती हैं। कोई साफ़ technical विभाजन नहीं है। दूसरा, Scout Anthropic के इनकार का venture-funded रूप है। अगर आप एक AI engineer हैं जो job offers का मूल्यांकन कर रहे हैं, अगले साल का funding gradient defense applications की ओर तेज़ी से इशारा करेगा — Booz Allen, Palantir, Anduril, और इस batch के Scout AI Anthropic, OpenAI और Google के समान talent pool से hiring करेंगे। अपना जवाब तैयार रखें। तीसरा, Scout के closed-test description में "एक target को स्वायत्त रूप से locate किया और नष्ट कर दिया" framing भविष्य के regulatory debates के लिए एक मानदंड स्थापित करती है। तकनीकी प्रश्न — kill chain का कितना हिस्सा AI था बनाम मानव — ठीक वही है जिसे Anthropic ने ठुकराए जैसे Pentagon contracts खुला छोड़ने की कोशिश कर रहे हैं।
