Physical Intelligence ने गुरुवार को π0.5 भेजा, जो उसकी सामान्य-उद्देश्य रोबोटिक नीति का अगला संस्करण है। मुख्य दावा नए घरेलू परिवेशों के लिए zero-shot generalization है: वही मॉडल, बिना fine-tuning के, एक ऐसी रसोई या शयनकक्ष को साफ़ करने के लिए एक mobile manipulator को नियंत्रित कर सकता है जिसे उसने पहले कभी नहीं देखा। द्वितीयक परंतु संरचनात्मक रूप से महत्वपूर्ण टुकड़ा है एक नया रोबोट-एक्शन tokenizer, जो सामान्य-नीतियों को पिछली विधि से लगभग पाँच गुना तेज़ प्रशिक्षित करता है। यह रिलीज़ रोबोटिक्स-फ़ाउंडेशन-मॉडल समाचारों के एक तंग समूह के भीतर उतरा है। Generalist AI के GEN-1 (2 अप्रैल) ने सरल भौतिक कार्यों में 99 प्रतिशत सफलता का दावा किया है, प्रति कार्य केवल एक घंटे के robot data के साथ, 500,000 घंटों के dataset पर प्रशिक्षित। Google DeepMind के Gemini Robotics-ER 1.6 (15 अप्रैल) ने embodied reasoning के लिए "संज्ञानात्मक मस्तिष्क" परत को अपग्रेड किया है। तीन labs, तीन प्रमुख रिलीज़, दो सप्ताह।
पहले पढ़ने लायक़ हिस्सा है PI का action tokenizer। Tokenization में आए breakthroughs इस बात के केंद्र में थे कि LLMs पैमाने पर कैसे tractable हुए: बेहतर-चुने गए tokens का अर्थ है प्रति-प्रशिक्षण-compute अधिक सूचना, जो मॉडल को उसी data-बजट पर अधिक generalize करने देती है। वही पैटर्न अब रोबोटिक्स में खेला जा रहा है। नए action-space tokenization से 5x प्रशिक्षण-गति सुधार सिर्फ़ इंजीनियरिंग-सुविधा नहीं है; यह वह inflection है जो कठिन कार्यों को trainable बनाता है। Zero-shot home generalization क्षमता-प्रदर्शन है, लेकिन tokenizer वह चीज़ है जो PI की हर बाद की रिलीज़ में, और सम्भवतः प्रतियोगियों के काम में भी, प्रकट होगी। व्यापक समूह पर: Generalist का GEN-1 "पिछले मॉडल 64 प्रतिशत तक पहुँचते हैं" वाले सरल भौतिक कार्यों पर 99 प्रतिशत सफलता की रिपोर्ट करता है, और प्रति कार्य केवल एक घंटे के robot data की आवश्यकता रखता है। यह sample-efficiency का दावा है, जिसे बाहरी मूल्यांकन के विरुद्ध परखना चाहिए। Gemini Robotics-ER 1.6 एक संकीर्ण reasoning-upgrade कहानी है और इसे स्वयं एक सामान्य-नीति के रूप में नहीं, बल्कि एक पूर्ण robot stack के घटक के रूप में मूल्यांकित किया जाना चाहिए।
रोबोटिक्स-फ़ाउंडेशन-मॉडल्स एक खुला शोध-प्रश्न होना बन्द कर चुके हैं और एक वाणिज्यिक उत्पाद-श्रेणी बनने लगे हैं। दो सप्ताह पहले state of the art था "π0 lab में काम करता है।" आज है "π0.5 अनदेखे घरेलू परिवेशों में generalize करता है, GEN-1 सरल कार्यों पर mastery का दावा करता है, Gemini Robotics-ER 1.6 संज्ञानात्मक-तर्क परत है।" PI, Generalist AI, Google DeepMind, और open-source रोबोटिक्स समुदाय (NVIDIA के Isaac रिलीज़, Open X-Embodiment dataset, शैक्षणिक labs) के बीच की प्रतिस्पर्धा ने एक छोटी खिड़की में क्षमता-सीमा पर वास्तविक प्रगति उत्पन्न की है। वाणिज्यिक निहितार्थ यह है कि जो भी physical AI में निर्माण कर रहा है, उसे अब यह चुनना होगा कि किस foundation-model वंश पर दांव लगाए, और शुरुआती विकल्प स्पष्ट नहीं हैं। PI closed-weights है, Generalist भी closed है, Google के रिलीज़ closed और open को मिलाते हैं। पैटर्न दो साल पहले के LLM-स्पेस को दर्पण की तरह दिखाता है: क्षमता-खींचने वाले labs closed भेजते हैं, open-source कुछ देरी से पकड़ता है, और applied builders को तय करना होता है कि वे क्षमता-लाभ लें या नियंत्रण-लाभ।
यह पढ़ने वाले अधिकांश builders रोबोट नहीं भेज रहे। जो अल्पसंख्यक भेज रहे हैं, उनके लिए तीन ठोस अवलोकन। पहला, PI का action tokenizer वह प्रकार का विवरण है जो क्षमता-डेमो से अधिक मायने रख सकता है; देखिए कि क्या PI tokenizer को स्वतंत्र रूप से प्रकाशित करता है या उसे खाई की तरह रखता है। दूसरा, Generalist का "प्रति कार्य एक घंटे का robot data" वाला दावा वह sample-efficiency inflection है जो बेस्पोक robot-tasks को lab-बाहरी टीमों के लिए tractable बना देगी, यदि यह बाहरी मूल्यांकन के तहत टिकती है। स्वतंत्र प्रतिकृति पर नज़र रखिए। तीसरा, यदि आपका उत्पाद किसी मानव वातावरण में सामान्य-उद्देश्य robot को शामिल करता है (घरेलू रोबोटिक्स, logistics, बुज़ुर्ग-देखभाल), तो इस प्रगति की गति का अर्थ है कि आपका नियोजन-क्षितिज अभी-अभी छोटा हो गया है। 2027 की क्षमता-सीमा 2025 वाली से स्पष्ट रूप से भिन्न होगी, और वह उत्पाद-स्थिति जिसने माना था कि robots पाँच और वर्षों तक संकीर्ण कार्य-विशेषज्ञ बने रहेंगे, वह ग़लत है। ग़ैर-रोबोटिक builders के लिए, स्थानांतरणीय सीख यह है कि "बेहतर tokenization, पैमाने को खोलता है" पैटर्न deep learning की पुनरावर्ती परिघटना है। यदि आपके data-क्षेत्र में tokenization अटपटी या अकुशल है, तो उसे ठीक करना अक्सर सादे दृष्टि में छिपा हुआ 5x होता है।
