Zubnet AIसीखेंWiki › Liquid AI
कंपनियाँ

Liquid AI

इसे भी कहा जाता है: Liquid Foundation Models, लिक्विड न्यूरल नेटवर्क
MIT spinout जैविक न्यूरल सर्किट्स के प्रेरणा से मूल रूप से भिन्न न्यूरल नेटवर्क आर्किटेक्चर के अनुसंधान कर रहा है। उनके लिक्विड फाउंडेशन मॉडल्स फिक्स्ड-वेट ट्रांसफॉर्मर्स के बजाय सतत-समय डायनैमिक्स का उपयोग करते हैं, जो अधिक कार्यक्षमता और अनुकूलता के वादा करते हैं।

यह क्यों मायने रखता है

लिक्विड एआई ट्रांसफॉर्मर्स के एकमात्र महत्वपूर्ण आर्किटेक्चर होने के मान्यता के लिए सबसे गंभीर वित्त पोषित चुनौती दर्शाता है। जैविक प्रेरित सतत समय गतिकी पर आधारित उत्पादन ग्रेड फाउंडेशन मॉडल बनाकर, वे परीक्षण कर रहे हैं कि क्या एआई उद्योग के ध्यान यंत्रों पर पूर्ण बेट लगाना अतिप्रारंभिक था। यदि एलएफएम ट्रांसफॉर्मर्स के शीर्ष स्थान से हटा नहीं सकते हैं, तो उनकी एज तैनाती और लंबी अनुक्रम प्रक्रिया के लिए दक्षता के लाभ रोबोटिक्स, मोबाइल एआई और एम्बेडेड सिस्टम्स में महत्वपूर्ण छेद बना सकते हैं — बाजार जहां 70B ट्रांसफॉर्मर चलाना एक विकल्प नहीं है।

गहन अध्ययन

Liquid AI MIT के Computer Science and Artificial Intelligence Laboratory (CSAIL) में शोध से उत्पन्न हुआ, विशेष रूप से Ramin Hasani, Mathias Lechner, और Daniela Rus के काम से। Hasani और Lechner C. elegans के तंत्रिका तंत्र का अध्ययन कर रहे थे — एक छोटा गोलाकार कीड़ा जिसके ठीक 302 neurons हैं — और उन्होंने पाया कि इन जैविक न्यूरल circuits को नियंत्रित करने वाले गणितीय equations को एक नए प्रकार के artificial न्यूरल नेटवर्क में adapted किया जा सकता है। मानक networks के विपरीत जहाँ connection weights प्रशिक्षण के बाद fixed होते हैं, ये "liquid" networks निरंतर-समय differential equations का उपयोग करते हैं जो parameters को input के आधार पर गतिशील रूप से अनुकूलित होने देते हैं। कंपनी की औपचारिक स्थापना 2023 में हुई और जल्दी से $250 मिलियन से अधिक $2 अरब-प्लस मूल्यांकन पर जुटाए, AMD Ventures और अन्य निवेशकों के समर्थन के साथ जिन्होंने एक ऐसे आर्किटेक्चर के लिए क्षमता देखी जो मौलिक रूप से transformer paradigm से टूटता है।

Liquid Foundation Models: एक अलग दाँव

Liquid AI की core उत्पाद line — Liquid Foundation Models (LFMs) — तीन आकारों में launch हुई: LFM-1B, LFM-3B, और LFM-40B। जो इन्हें architecturally अलग बनाता है वह यह है कि वे transformers नहीं हैं, और वे Mamba अर्थ में state-space models भी नहीं हैं। LFMs एक hybrid दृष्टिकोण का उपयोग करते हैं जो structured state-space layers को attention-जैसे mechanisms के साथ संयोजित करता है, लेकिन अंतर्निहित गणित जैविक शोध से उन निरंतर-समय dynamics में निहित है। व्यवहार में, इसका अर्थ है कि LFMs मानक transformers की तुलना में बहुत लंबे sequences को अधिक कुशलता से संभाल सकते हैं — उनका memory footprint sequence लंबाई के साथ द्विघात रूप से नहीं फटता। विशेष रूप से LFM-1B मॉडल ने मानक benchmarks पर समान आकार के कई transformer-आधारित मॉडलों से बेहतर प्रदर्शन के लिए ध्यान आकर्षित किया, यह सुझाव देते हुए कि architectural अंतर केवल सैद्धांतिक elegance के बजाय वास्तविक क्षमता लाभ में अनुवादित हुए।

Edge AI और दक्षता का तर्क

Liquid AI के सबसे convincing दावों में से एक edge पर दक्षता है। क्योंकि liquid networks transformers की तुलना में कम parameters के साथ जटिल dynamics का प्रतिनिधित्व कर सकते हैं, वे स्वाभाविक रूप से सीमित compute वाले devices पर तैनाती के लिए उपयुक्त हैं — phones, robots, IoT sensors, स्वायत्त वाहन। कंपनी इन use cases को निशाना बनाने के बारे में स्पष्ट रही है, खुद को एक और chatbot कंपनी के रूप में नहीं बल्कि AI के लिए architecture provider के रूप में स्थापित करते हुए जो हर जगह चलता है। यह अधिकांश AI labs के cloud-first दृष्टिकोण से एक मौलिक रूप से अलग बाज़ार है। यदि आपका मॉडल लगातार server calls के बिना एक phone के neural processing unit पर सार्थक रूप से चल सकता है, तो आप ऐसे applications unlock करते हैं जो cloud-निर्भर AI के साथ असंभव हैं: real-time robotics, offline processing, device पर privacy-संरक्षण inference। Liquid AI ने Qualcomm और अन्य hardware विक्रेताओं के साथ अपने मॉडलों को विशिष्ट chip architectures के लिए optimize करने के लिए साझेदारी की, एक कदम जो edge तैनाती कहानी के बारे में गंभीर इरादे का signal देता है।

Architecture विविधता थीसिस

Liquid AI का अस्तित्व architectural विविधता पर एक दाँव है — यह विचार कि transformers, अपने प्रभुत्व के बावजूद, neural network design में अंतिम शब्द नहीं हैं। इस थीसिस ने विश्वसनीयता प्राप्त की है क्योंकि transformers की सीमाएँ स्पष्ट हो गई हैं: द्विघात attention लागत, बहुत लंबे sequences के साथ कठिनाई, inference के दौरान विशाल energy खपत। state-space model समुदाय (Mamba, RWKV, और अन्य) ने पहले ही साबित कर दिया है कि प्रतिस्पर्धी विकल्प मौजूद हैं; Liquid AI और आगे धकेलता है यह तर्क देते हुए कि जैविक रूप से प्रेरित dynamics ऐसे लाभ प्रदान करते हैं जो SSMs भी miss कर देते हैं, विशेष रूप से temporal reasoning और adaptive व्यवहार में। चाहे यह फ्रंटियर पैमाने पर सच हो अप्रमाणित बना हुआ है — LFM-40B तुलनीय आकार के सबसे अच्छे transformer मॉडलों के विरुद्ध प्रतिस्पर्धी है लेकिन प्रमुख नहीं — लेकिन सैद्धांतिक नींव AI शोध समुदाय के काम को गंभीरता से लेने के लिए पर्याप्त rigorous हैं।

चुनौतियाँ और संशय

Liquid AI के लिए स्पष्ट जोखिम यह है कि transformer ecosystem बहुत entrenched है। software stack (PyTorch, CUDA kernels, inference servers) transformer architectures के लिए overwhelmingly optimized है। हर प्रमुख cloud provider ने attention-आधारित मॉडलों के लिए tuned बुनियादी ढाँचे का निर्माण करने में अरबों खर्च किए हैं। एक मौलिक रूप से अलग आर्किटेक्चर पर switch करने का अर्थ है tooling को फिर से बनाना, इंजीनियरों को फिर से प्रशिक्षित करना, और ग्राहकों को convince करना कि दक्षता लाभ संक्रमण लागतों को justify करते हैं। Liquid AI ने drop-in API compatibility प्रदान करके इसे आंशिक रूप से संबोधित किया है — उपयोगकर्ता के दृष्टिकोण से, एक LFM को call करना किसी भी अन्य मॉडल को call करने जैसा समान दिखता है। लेकिन गहरी चुनौती यह है कि क्या वे enterprise अपनाने के लिए मायने रखने वाले scales पर एक स्पष्ट, सतत लाभ प्रदर्शित कर सकते हैं। $250 मिलियन funding और मज़बूत अकादमिक credentials के साथ, उनके पास अधिकांश architecture चुनौती देने वालों की तुलना में अधिक runway है। अगला वर्ष यह निर्धारित करेगा कि क्या liquid neural networks production AI में एक वास्तविक शक्ति बनते हैं या क्षेत्र के इतिहास में सबसे बौद्धिक रूप से दिलचस्प footnotes में से एक रहते हैं।

संबंधित अवधारणाएँ

← सभी शब्द
← Leonardo.ai LoRA →
ESC