Intel和SambaNova发布了一个异构推理架构,将代理AI工作负载分配到专门的硬件上:GPU处理prefill,SambaNova的RDU处理高吞吐量decode,Intel Xeon 6 CPU管理代理工具执行和系统编排。这一联合工程解决方案面向企业、云提供商和主权AI部署,计划在2026年下半年推出。

这是首次认真尝试解决代理AI基础设施现实检验的问题。当行业沉迷于训练更大的模型时,生产环境中的代理正在暴露GPU优化推理和多步推理工作负载之间的根本不匹配。代理不只是生成文本——它们调用API、执行代码,并编排需要成熟x86软件生态系统的复杂工作流。Intel的Kevork Kechichian说得对:"数据中心软件生态系统是建立在x86之上的",假装不是这样是昂贵的一厢情愿。

值得注意的是SambaNova承诺标准化使用Xeon 6作为其主机CPU——这是对Intel数据中心战略的重要验证,正值人人都在追逐定制芯片之时。这一合作承认,编码代理具体来说正在打破纯GPU架构,因为它们需要在"广泛的软件生态系统"中高效执行任务,而不仅仅是token生成。这不是理论问题;它解决了开发者在部署需要真正工作而不只是聊天的代理时面临的真实瓶颈。

对AI构建者来说,这很重要,因为这是第一个匹配代理在生产环境中实际工作方式的基础设施蓝图。如果你在构建比聊天机器人更复杂的东西,你可能已经在拼凑类似的异构解决方案。问题是2026年的时间表是否现实,还是你需要继续用胶带把GPU和CPU粘在一起直到那时。