Google 發佈了 Gemma 4,包含四個模型變體,並切換到 Apache 2.0 授權,放棄了讓開發者沮喪一年多的限制性客製化 Gemma 授權。產品線包括 26B Mixture of Experts、31B Dense,以及兩個為智慧手機和邊緣裝置設計的行動優化模型(E2B 和 E4B)。Google 聲稱 31B 變體將在 Arena 開放模型排行榜上排名第三,儘管它比頂級競爭對手 GLM-5 和 Kimi 2.5 要小得多。

授權變更比模型本身更重要。正如我之前報導過的,Google 的客製化 Gemma 授權造成了法律不確定性,讓許多開發者遠離了本來很有能力的模型。Apache 2.0 消除了這種阻力,可能使 Gemma 4 成為需要真正開放授權的商業應用程式的首選。時機與企業對可以修改和重新分發而無授權麻煩的模型需求增長相吻合。

儘管有技術改進,Google 的「本地」行銷仍然具有誤導性。是的,26B 和 31B 模型可以在單個 H100 GPU 上執行,但這是一個 2 萬美元的硬體,大多數開發者永遠不會接觸到。行動模型對於實際的本地部署更現實,但 Google 的「接近零延遲」聲明需要真實世界的測試。函數呼叫和結構化 JSON 輸出現在是基本要求,不是突破性功能。

對於開發者來說,切換到 Apache 2.0 才是這裡的真正新聞。如果你因為授權擔憂而一直避免 Gemma,那個障礙已經消失了。行動變體可能對邊緣應用程式很有趣,但在相信 Google 的效能聲明之前要等待獨立基準測試。更大模型的硬體要求仍然是對 2024 年「本地 AI」實際意義的現實檢查。