Intel和SambaNova發布了一個異構推論架構,將代理AI工作負載分配到專門的硬體上:GPU處理prefill,SambaNova的RDU處理高吞吐量decode,Intel Xeon 6 CPU管理代理工具執行和系統編排。這一聯合工程解決方案面向企業、雲端提供商和主權AI部署,計劃在2026年下半年推出。
這是首次認真嘗試解決代理AI基礎設施現實檢驗的問題。當業界沉迷於訓練更大的模型時,生產環境中的代理正在暴露GPU最佳化推論和多步推理工作負載之間的根本不匹配。代理不只是產生文字——它們呼叫API、執行程式碼,並編排需要成熟x86軟體生態系統的複雜工作流程。Intel的Kevork Kechichian說得對:「資料中心軟體生態系統是建立在x86之上的」,假裝不是這樣是昂貴的一廂情願。
值得注意的是SambaNova承諾標準化使用Xeon 6作為其主機CPU——這是對Intel資料中心策略的重要驗證,正值人人都在追逐客製化晶片之時。這一合作夥伴關係承認,程式設計代理具體來說正在打破純GPU架構,因為它們需要在「廣泛的軟體生態系統」中高效執行任務,而不僅僅是token生成。這不是理論問題;它解決了開發者在部署需要真正工作而不只是聊天的代理時面臨的真實瓶頸。
對AI建構者來說,這很重要,因為這是第一個匹配代理在生產環境中實際工作方式的基礎設施藍圖。如果你在建構比聊天機器人更複雜的東西,你可能已經在拼湊類似的異構解決方案。問題是2026年的時程表是否現實,還是你需要繼續用膠帶把GPU和CPU黏在一起直到那時。
