Google发布了Gemma 4,声称它建立在与Gemini 3相同的架构基础上,专为低功耗设备上的复杂推理任务而设计。该公司将其定位为迄今为止"最先进的开放模型系列",针对可以在本地运行而无需云依赖的自主AI代理。Google强调这些模型能够在边缘设备的功耗限制内处理复杂推理的能力。
这次发布代表了Google在开放权重领域竞争的最新尝试,在该领域他们一直落后于Meta的Llama系列和Mistral等较小玩家。时机很说明问题——随着开发者越来越需要能够出于隐私、成本和延迟原因在本地运行的模型,Google需要可信的替代方案来保持构建者在其生态系统中。"与Gemini 3相同的架构基础"这一声明特别有趣,表明Google终于愿意在开放模型中分享更先进的技术。
然而,其他来源缺乏详细报道,这对这一公告背后的实际内容提出了危险信号。没有独立基准测试,没有具体的参数计数,没有真实世界的性能比较——只有Google的话说这些模型兑现了承诺。AI社区已经学会对没有可重现结果的营销声明保持怀疑。
对于开发者来说,关键问题不是Gemma 4是否存在,而是它是否真正在边缘设备规模上提供了有意义的推理能力。在我们看到独立测试和真实部署经验之前,这感觉更像是定位而不是本地AI推理的真正突破。
