Wired के Will Knight ने Eka का दौरा किया — Cambridge, Massachusetts की एक robotics startup जिसे MIT professor Pulkit Agrawal और पूर्व Google DeepMind robotics researcher Tuomas Haarnoja ने co-founded किया है। Knight ने 29 अप्रैल को रिपोर्ट किया कि उन्होंने कंपनी के robot arm को एक बल्ब socket में screw करते, मेज़ पर लुढ़कते एक बल्ब का पीछा करते, और एक अनजान ढेर — earplug का डिब्बा, hair brush, plush keyring — विश्वसनीय ढंग से उठाते देखा, सिर्फ़ अपने two-fingered grasp से। उनका framing: "एक दशक से ज़्यादा robots पर लिखते हुए, मैंने कभी किसी को इतनी स्वाभाविक रूप से चलते नहीं देखा," और "आज बाज़ार में मौजूद कुछ दर्जन robot arms में से एक भी बल्ब नहीं screw कर सकता।" Agrawal और Haarnoja का pitch: dexterity ही unlock है, dexterity आख़िरकार सुलझ रही है, और "मानव के हाथ से ट्रिलियन डॉलर बहते हैं।" वे मानते हैं कि वे आधे रास्ते पर हैं।

dexterity का दावा वही हिस्सा है जो वास्तव में मायने रखता है और वही हिस्सा है जिसे Knight का लेख तकनीकी रूप से प्रमाणित नहीं करता। हम प्रभावशाली video देखते हैं — robot लुढ़कते बल्ब को टटोलता है, फिसलने से उबरता है, screw पूरा करता है — पर कोई public benchmark नहीं, कोई comparison run नहीं, कोई published architecture नहीं। आज अधिकांश robotic-manipulation काम Vision-Language-Action (VLA) foundation models के माध्यम से चलता है — RT-2, Octo, OpenVLA, RT-X — वही architectural family जिस पर Scout AI का defense-केंद्रित Fury बनाया गया था। Eka ने सार्वजनिक रूप से नहीं बताया है कि वे एक मौजूदा VLA approach का विस्तार कर रहे हैं या अपनी ख़ुद की train कर रहे हैं। जो observable है: उनका arm contact failures (लुढ़कता बल्ब, फिसलती चाबियां) से task को restart किए बिना उबरता है — यह वह व्यवहार है जिसकी आप एक ऐसे model से उम्मीद करते हैं जो manipulation के दौरान state बनाए रखता है, scripted motion plans चलाने के बजाय। यह state-through-contact recovery dexterity में open research frontier है। अगर Eka इसे विश्वसनीय ढंग से चला रहा है, तो वही demo के पीछे का substance है।

दो pattern मायने रखते हैं। पहला, humanoid hardware के साथ contrast। पहले इस सत्र में हमने Haneda airport पर Japan Airlines के humanoid-robot trial को कवर किया, जहां staged demo में एक Unitree G1 "एक cargo container की तरफ़ लड़खड़ाते हुए और धकेलने का अस्पष्ट इशारा करते हुए" दिखाया गया था — container असल में तब हिला जब एक मानव ने conveyor शुरू किया। वह hardware-without-dexterity था। Eka उसका उल्टा है — बिना locomotion के tabletop-dexterity। robotics market साफ़-साफ़ दो हिस्सों में बंट गया है: "हम एक humanoid शरीर को इधर-उधर ले जा सकते हैं पर manipulate नहीं कर सकते" और "हम fixed arm से manipulate कर सकते हैं पर move नहीं कर सकते।" जो दोनों पहले सुलझाएगा, जीतेगा। दूसरा, "robots का ChatGPT moment" framing अब industry-standard pitch है। 2026 में पैसा जुटा रही हर robotics startup इसका कोई version उपयोग कर रही है। यह framing तब उतरती है जब capability अचानक उम्मीद से आगे निकल जाती है, जो ChatGPT ने 2022 के अंत में किया। robots के लिए, यह moment तब आता है जब एक गैर-विशेषज्ञ एक robot को एक अपरिचित manipulation task करने के लिए कह सकता है और वह विश्वसनीय रूप से सफल होता है। Eka की demo रास्ते पर है; क्या यह demo के बाहर generalize होती है — यह open सवाल है।

Builders के लिए, तीन ठोस बातें। पहला, अगर आप robotics के downstream बनाते हैं — UI, tooling, evaluation, simulation — मानें कि dexterity production deployment के लिए 2-3 साल की timeline पर है, पर deployment "tabletop arm जो एक constrained task कर रहा है" जैसी दिखेगी, humanoids की तरह नहीं। पहले humanoid moment पर दांव न लगाएं। दूसरा, academic-cofounder-plus-ex-DeepMind-researcher pattern current-frontier robotics में dominant founder fingerprint है — Skild AI, Physical Intelligence, Generalist Robotics, और अब Eka सब इसे साझा करते हैं। अगर आप invest या recruit करते हैं, वह pedigree concentration ही signal है। तीसरा, Eka के pitch में जो detail गायब है वही हर robotics-foundation-model claim में गायब है: यह unseen objects और unseen tasks पर कैसे generalize होता है? ईमानदार test "इस बल्ब को screw करो" नहीं है — यह "Phillips screwdriver से flathead screw screw करो" है। उस demo का इंतज़ार करें commit करने से पहले।