Google DeepMind ने 2 अप्रैल को Gemma 4 को Apache 2.0 लाइसेंस के तहत जारी किया, जो OSI-मान्य open-source लाइसेंस के तहत Gemma की पहली रिलीज़ है, और आज तक Google की ओपन-वेट्स रणनीति में सबसे महत्वपूर्ण क़दम है। Gemma के पिछले संस्करण "Gemma license" के तहत आते थे, जो वाणिज्यिक-उपयोग प्रतिबंध लगाता था और कई प्रोडक्शन पाइपलाइनों से मॉडलों को बाहर रखता था। Apache 2.0 उन प्रतिबंधों को हटाता है। यह परिवार चार आकारों में फैला है: E2B और E4B "प्रभावी" edge संस्करण, एक 26B Mixture-of-Experts, और एक 31B dense मॉडल जो ओपन-मॉडल Arena leaderboard पर #3 स्थान पर है। सभी मॉडल native रूप से multimodal हैं (वीडियो, छवि, OCR, परिवर्तनीय-रिज़ॉल्यूशन इनपुट के साथ चार्ट समझ) और agentic हैं (function-calling, संरचित JSON आउटपुट, सिस्टम-निर्देश समर्थन)। edge E2B और E4B संस्करण अतिरिक्त रूप से वाक्-पहचान और समझ के लिए native audio input स्वीकार करते हैं। कॉन्टेक्स्ट विंडो edge पर 128K और बड़े मॉडलों पर 256K तक हैं, 140+ भाषाओं पर native प्रशिक्षण के साथ।

लाइसेंस-परिवर्तन तकनीकी specs जितना ही मायने रखता है। जो टीमें Gemma 3 पर बनाना चाहती थीं और अक्सर प्रोजेक्ट में देर से पुराने लाइसेंस की वाणिज्यिक धाराओं का पता लगाती थीं, उन्हें Llama, Mistral या Qwen के विरुद्ध पुनर्लेखन करना पड़ता था, या प्रतिबंधों को स्वीकार करना और ग्राहकों को समझाना पड़ता था। Apache 2.0 व्यावसायिक रूप से अनुमेय, पेटेंट-अनुकूल है, और अधिकांश कॉर्पोरेट क़ानूनी मुद्राओं के साथ संगत है। जब एंटरप्राइज़ ख़रीदार कहते हैं कि वे ओपन-वेट्स चाहते हैं, तो वे असल में यही चाहते हैं। क्षमताओं पर, 31B dense मॉडल की #3 Arena ओपन-मॉडल रैंकिंग वास्तविक है, और 26B MoE #6 पर प्रति-inference लागत में मज़बूत है। E2B और E4B edge मॉडल इस कहानी का अधिक नया हिस्सा हैं। 2-से-4B-प्रभावी पदचिह्न में native audio input के साथ edge-अनुकूल multimodal, Apple और Qualcomm के स्वामित्व वाले edge मॉडलों का पहला वास्तविक on-device विकल्प है, और 128K के कॉन्टेक्स्ट विंडो खिलौना-डेमो के बजाय वास्तविक दस्तावेज़-प्रसंस्करण कार्यभार के लिए पर्याप्त बड़े हैं। agentic-native design निर्णय, जिसमें function calling और संरचित JSON प्रथम-श्रेणी आउटपुट हैं और सिस्टम-निर्देश प्रोटोकॉल-स्तर पर समर्थित हैं, उस custom scaffolding को भी कम करते हैं जो टीमें दो वर्षों से लिखती आ रही हैं।

अप्रैल 2026 के लिए ओपन-वेट्स परिदृश्य अब खंडित के बजाय सुसंगत दिखता है। Llama की वाणिज्यिक-उपयोग शर्तें अभी भी मौजूद हैं, Mistral के लाइसेंस नियम मॉडल-दर-मॉडल भिन्न हैं, Qwen Apache 2.0 है लेकिन कुछ ख़रीदारों के लिए मूल-धारणा जोख़िम रखता है, DeepSeek सक्षम है लेकिन समान भू-राजनीतिक विचार हैं। Gemma 4 Apache 2.0 के तहत, Google-स्तर के लैब से, उन उद्यमों के लिए procurement बातचीत बदलता है जो नियामक-प्रदर्शन या वाणिज्यिक प्रतिबंधों के बिना ओपन-वेट्स चाहते हैं। प्रबंधित-API व्यवसाय पर प्रभाव अधिकांश कवरेज ने जितना स्वीकार किया है, उससे अधिक दिलचस्प है। यदि आप घरेलू-ग्रेड inference लागत पर 31B मॉडल चला सकते हैं और native function calling के साथ #3-पर-Arena गुणवत्ता प्राप्त कर सकते हैं, तो हमेशा Anthropic या OpenAI की API कॉल करने का आर्थिक मामला उन कार्य-वर्गों के लिए कमज़ोर होता है जिन्हें विशेष रूप से सीमा-तर्क की आवश्यकता नहीं होती। यह शीर्ष प्रयोगशालाओं को तुरंत ख़तरा नहीं है, क्योंकि सीमा पर मॉडल-गुणवत्ता जटिल काम के लिए अभी भी विभेदक है। लेकिन यह मध्य-स्तरीय API व्यवसाय को संकुचित करता है, जहाँ अधिकांश मात्रा वास्तव में रहती है।

निर्माताओं के लिए तीन ठोस क़दम। पहला, Gemma 4 का मूल्यांकन उससे करिए जो आप अभी अपने मॉडल-रूटिंग के मध्य-स्तर पर उपयोग कर रहे हैं; Apache 2.0 लाइसेंस पुराने "हम इसे प्रोडक्शन में नहीं भेज सकते" ब्लॉकर को हटाता है, और क्षमताएँ थोक कार्यों के लिए गुणवत्ता-अंतर को बन्द कर सकती हैं। दूसरा, E2B और E4B edge संस्करण उन सभी workflows के लिए प्रोटोटाइप करने लायक़ हैं जहाँ on-device inference उत्पाद का आकार बदलेगा, विशेष रूप से गोपनीयता-संवेदनशील डेटा, ऑफ़लाइन-संचालन और कम-latency इंटरैक्शन। audio-input समर्थन voice-first उत्पादों के लिए विशेष रूप से दिलचस्प है। तीसरा, agentic-native design (function calling प्रथम-श्रेणी के रूप में, संरचित JSON, सिस्टम-निर्देश) का अर्थ है agent-परिनियोजनों के लिए कम custom scaffolding। Gemma 3 के लिए अपने स्वयं के tool-calling shims बनाने वाली टीमें कोड मिटा सकती हैं। लाइसेंस-परिवर्तन, benchmarks नहीं, वह विवरण है जो कानूनी और procurement के साथ roadmap-बातचीत को बदलता है। यदि आप पहले स्वामित्व वाली API के लिए इसलिए तर्क देते थे कि ओपन-वेट्स "वाणिज्यिक रूप से साफ़ नहीं" थे, वह तर्क अभी-अभी कमज़ोर हुआ है।