TechCrunch 於 4 月 29 日報導,Scout AI —— 由 Coby(Colby)Adcock 與 Collin Otis 於 2024 年 8 月共同創立的國防 AI 新創公司 —— 已募資 1 億美元,投資方包括 Booz Allen Ventures。該公司 2025 年 4 月以 1500 萬美元 seed 輪與兩份 DoD 合約從隱身狀態浮出;目前持有四份 DoD 合約,正競爭第五份(根據獨立報導)。Adcock 之前在科技 PE 業工作,目前是 Figure AI 董事會成員;Otis 曾是 Kodiak Robotics 的創始工程師,以及 Uber ATG 的資料科學主管 / 幕僚長。產品名為 Fury —— 一款專為國防機器人打造的 Vision-Language-Action(VLA)基礎模型。

Fury 是一款 VLA 模型 —— 與各大實驗室在機器人控制方向所採用的同一系列架構 —— 針對自主無人系統進行微調。其賣點是:士兵以自然語言下達指令(例如「偵察北邊山脊,初次接觸即返回」),Fury 把該指令分解到一支由無人地面載具(UGV)與無人航空器(UAV)組成的異質艦隊上,作為一個統一的 agentic 系統協調它們的行動與感測覆蓋。Scout 在 2026 年 2 月公開演示了「Fury Autonomous Vehicle Orchestrator」,從一句自然語言形式的「任務意圖」出發,驅動空地異質艦隊。在一次閉門軍事測試中,系統「在一組互聯的 AI agent 的指引下,自主定位並以爆炸式無人機摧毀了目標」(據公司援引的報導)。「自主定位並摧毀」這一措辭值得細讀 —— 行動載體是爆炸式無人機;目標辨識由 AI 驅動;在該次測試中,除了最初的任務設定,人在其中扮演的角色在公開材料裡沒有說明。

兩條線索連了起來。第一,Scout AI 接走的正是 Anthropic 拒絕接的合約。本週稍早我們寫過 Anthropic 因「供應鏈風險」標籤起訴五角大廈 —— 這場標籤化,起因正是 Anthropic 拒絕去掉「不用於大規模監控、不用於自主武器」的條款。Scout 則專門為 Anthropic 走開了的那個用例而生 —— 把 VLA 模型應用於自主致命系統。Booz Allen Ventures 的投資,意味著美國頭部國防服務顧問公司正在為這門生意做準備。第二,這種架構形態 —— 自然語言指令 → 多 agent 分解 → 工具呼叫 —— 與我們這一週一直在寫的民用情境(Anthropic 創意連接器、Google Agents CLI、Slack agent context、OpenAI Codex)是同一個 pattern。Scout 是把這個 pattern 明確套用到致命自主系統的最早一批公司。MCP 風格的「給 agent 提供確定性工具」架構是同一種;只是工具不同。

對 builders 三件具體事情。第一,Fury 所採用的 VLA 基礎模型架構,正在越來越多地成為機器人方向的開放研究主路徑 —— RT-2、Octo、OpenVLA、RT-X 都是公開的例子。如果你做的是民用機器人,同一類模型族也會以不同的fine-tune 出現在國防承包商手裡 —— 沒有乾淨的技術切割線。第二,Scout 是「Anthropic 那種拒絕」在創投層面的另一種回答。如果你是一名正在比較 offer 的 AI 工程師,未來一年的資金梯度會陡峭地指向國防應用 —— Booz Allen、Palantir、Anduril,以及 Scout AI 這一波,都會與 Anthropic、OpenAI、Google 在同一個 talent pool 上搶人。請把你自己的回答先想好。第三,Scout 在閉門測試裡「自主定位並摧毀了一個目標」這一措辭,為日後所有監管討論立下了一根桿。技術問題 —— kill chain 中有多少由 AI 完成、多少由人完成 —— 正是像 Anthropic 拒簽的那種五角大廈合約所要刻意「留白」的地方。