Zubnet AIसीखेंWiki › AI21 Labs
कंपनियां

AI21 Labs

इसे भी कहा जाता है: Jamba
एक इज़राइली AI कंपनी जो Jamba के लिए जानी जाती है, पहला प्रोडक्शन-ग्रेड हाइब्रिड आर्किटेक्चर जो Transformer attention परतों को Mamba SSM परतों के साथ जोड़ता है। AI21 की स्थापना AI शोधकर्ताओं (Yoav Shoham सहित) द्वारा की गई थी और यह 2017 से भाषा मॉडल बना रही है, ChatGPT से पहले। उनके मॉडल API और क्लाउड प्रदाताओं के माध्यम से उपलब्ध हैं।

यह क्यों मायने रखता है

AI21 Labs इसलिए मायने रखता है क्योंकि Jamba ने साबित किया कि हाइब्रिड Transformer-SSM आर्किटेक्चर व्यवहार में काम करते हैं, न कि केवल शोध पत्रों में। Attention और Mamba परतों को interleave करके, Jamba समान गुणवत्ता के शुद्ध Transformer मॉडल की तुलना में कम मेमोरी उपयोग के साथ 256K context window प्राप्त करता है। यह हाइब्रिड दृष्टिकोण LLM आर्किटेक्चर का भविष्य हो सकता है।

गहन अध्ययन

Jamba का आर्किटेक्चर Transformer ब्लॉक (मानक attention के साथ) और Mamba ब्लॉक (selective state spaces के साथ) को लगभग 1:7 के अनुपात में interleave करता है — प्रत्येक सात Mamba परतों के लिए एक attention परत। यह दोनों का सर्वश्रेष्ठ पकड़ता है: Mamba परतें अनुक्रम प्रोसेसिंग के बड़े हिस्से को कुशलतापूर्वक (अनुक्रम लंबाई में रैखिक) संभालती हैं, जबकि attention परतें वैश्विक टोकन इंटरैक्शन प्रदान करती हैं जो शुद्ध SSMs में कभी-कभी कमी होती है। परिणाम: एक मॉडल जो 256K context पर एकल 80GB GPU में फिट होता है और गुणवत्ता पर केवल-Transformer मॉडल से मेल खाता है।

MoE घटक

Jamba Mixture of Experts (MoE) का भी उपयोग करता है, कुल 52B पैरामीटर लेकिन प्रति टोकन केवल ~12B सक्रिय। SSM + Attention + MoE का यह संयोजन प्रोडक्शन में सबसे जटिल हाइब्रिड आर्किटेक्चर है और प्रदर्शित करता है कि ये तकनीकें अच्छी तरह compose करती हैं। समान गुणवत्ता के शुद्ध Transformer की तुलना में KV cache मेमोरी में 3x कमी लंबे-context workloads को serve करने के लिए व्यावहारिक रूप से महत्वपूर्ण है।

संबंधित अवधारणाएँ

← सभी शब्द
← AI सुरक्षा AlexNet →