Google 发布了 Gemma 4,包含四个模型变体,并切换到 Apache 2.0 许可,放弃了让开发者沮丧一年多的限制性自定义 Gemma 许可。产品线包括 26B Mixture of Experts、31B Dense,以及两个为智能手机和边缘设备设计的移动优化模型(E2B 和 E4B)。Google 声称 31B 变体将在 Arena 开放模型排行榜上排名第三,尽管它比顶级竞争对手 GLM-5 和 Kimi 2.5 要小得多。

许可变更比模型本身更重要。正如我之前报道过的,Google 的自定义 Gemma 许可造成了法律不确定性,让许多开发者远离了本来很有能力的模型。Apache 2.0 消除了这种阻力,可能使 Gemma 4 成为需要真正开放许可的商业应用的首选。时机与企业对可以修改和重新分发而无许可麻烦的模型需求增长相吻合。

尽管有技术改进,Google 的"本地"营销仍然具有误导性。是的,26B 和 31B 模型可以在单个 H100 GPU 上运行,但这是一个 2 万美元的硬件,大多数开发者永远不会接触到。移动模型对于实际的本地部署更现实,但 Google 的"接近零延迟"声明需要真实世界的测试。函数调用和结构化 JSON 输出现在是基本要求,不是突破性功能。

对于开发者来说,切换到 Apache 2.0 才是这里的真正新闻。如果你因为许可担忧而一直避免 Gemma,那个障碍已经消失了。移动变体可能对边缘应用很有趣,但在相信 Google 的性能声明之前要等待独立基准测试。更大模型的硬件要求仍然是对 2024 年"本地 AI"实际意义的现实检查。