TechCrunch 于 4 月 29 日报道,Scout AI —— 由 Coby(Colby)Adcock 与 Collin Otis 于 2024 年 8 月共同创立的国防 AI 创业公司 —— 已募资 1 亿美元,投资方包括 Booz Allen Ventures。该公司 2025 年 4 月以 1500 万美元 seed 轮与两份 DoD 合同从隐身状态浮出;目前持有四份 DoD 合同,正竞争第五份(基于独立报道)。Adcock 之前在科技 PE 行业工作,目前是 Figure AI 董事会成员;Otis 曾是 Kodiak Robotics 的创始工程师,以及 Uber ATG 的数据科学主管 / 幕僚长。产品名为 Fury —— 一款专为国防机器人打造的 Vision-Language-Action(VLA)基础模型。
Fury 是一款 VLA 模型 —— 与各大实验室在机器人控制方向做研究所采用的同一系列架构 —— 针对自主无人系统进行微调。其卖点是:士兵以自然语言下达命令(例如「侦察北部山脊,初次接触即返回」),Fury 把该命令分解到一支由无人地面车辆(UGV)与无人航空器(UAV)组成的异构舰队上,作为一个统一的 agentic 系统协调它们的行动与传感覆盖。Scout 在 2026 年 2 月公开演示了「Fury Autonomous Vehicle Orchestrator」,从一句自然语言形式的「任务意图」出发,驱动空地异构舰队。在一次闭门军事测试中,系统「在一组互联的 AI agent 的指引下,自主定位并以爆炸式无人机摧毁了目标」(据公司援引的报道)。「自主定位并摧毁」这一措辞值得细读 —— 行动载体是爆炸式无人机;目标识别由 AI 驱动;在该次测试中,除了最初的任务设定,人在其中扮演的角色在公开材料里没有说明。
两条线索连了起来。第一,Scout AI 接走的正是 Anthropic 拒绝接的合同。本周早些时候我们写过 Anthropic 因「供应链风险」标签起诉五角大楼 —— 这场标签化,起因正是 Anthropic 拒绝去掉「不用于大规模监控、不用于自主武器」的条款。Scout 则专门为 Anthropic 走开了的那个用例而生 —— 把 VLA 模型应用于自主致命系统。Booz Allen Ventures 的投资,意味着美国头部国防服务咨询公司正在为这门生意准备。第二,这种架构形态 —— 自然语言指令 → 多 agent 分解 → 工具调用 —— 与我们这一周一直在写的民用语境(Anthropic 创意连接器、Google Agents CLI、Slack agent context、OpenAI Codex)是同一个 pattern。Scout 是把这个 pattern 明确应用到致命自主系统的最早一批公司。MCP 风格的「给 agent 提供确定性工具」架构是同一种;只是工具不同。
对 builders 三件具体事情。第一,Fury 所采用的 VLA 基础模型架构,正在越来越多地成为机器人方向的开放研究主路径 —— RT-2、Octo、OpenVLA、RT-X 都是公开的例子。如果你做的是民用机器人,同一类模型族也会以不同的fine-tune 出现在国防承包商手里 —— 没有干净的技术切割线。第二,Scout 是「Anthropic 那种拒绝」在风投层面的另一种回答。如果你是一名正在比较 offer 的 AI 工程师,未来一年的资金梯度会陡峭地指向国防应用 —— Booz Allen、Palantir、Anduril,以及 Scout AI 这一拨,都会与 Anthropic、OpenAI、Google 在同一个 talent pool 上抢人。请把你自己的回答先想好。第三,Scout 在闭门测试里「自主定位并摧毁了一个目标」这一措辞,为日后所有监管讨论立下了一根杆。技术问题 —— kill chain 中有多少由 AI 完成、多少由人完成 —— 正是像 Anthropic 拒签的那种五角大楼合同所要刻意「留白」的地方。
