Zubnet AIसीखेंWiki › Meta AI
कंपनियाँ

Meta AI

इसे भी कहा जाता है: Llama, FAIR, PyTorch
मेटा के एआई अनुसंधान विभाग, जहां FAIR (फंडामेंटल एआई रिसर्च) स्थित है। ओपन-वेट्स लामा मॉडल परिवार और पायटॉर्च, एक गहरा अधिगम फ्रेमवर्क जिसका उपयोग अधिकांश एआई उद्योग द्वारा किया जाता है, के लिए जिम्मेदार है।

यह क्यों मायने रखता है

मेटा एआई ने एआई के आर्थिक दृष्टिकोण में मौलिक बदलाव कर दिखाया कि अग्रणी श्रेणी के मॉडल ओपन वेट्स के रूप में जारी किए जा सकते हैं। लामा और इसके विवरण हजारों अनुप्रयोगों, शुरुआती कंपनियों और अनुसंधान परियोजनाओं को संचालित करते हैं जिन्हें कभी ऐसे मॉडल के उपयोग के अवसर नहीं मिले होते। पायटॉर्च विश्व के अधिकांश एआई अनुसंधान और उत्पादन प्रणालियों के मुख्य आधार है। और अपने ऐप्स के माध्यम से 3+ अरब उपयोगकर्ता के साथ, मेटा के पास कोई अन्य एआई प्रयोगशाला इसके साथ तुलना नहीं कर सकती — जब वे एक एआई सुविधा जारी करते हैं, तो वह एक रात में मनुष्यता के एक तिहाई तक पहुंच जाती है।

गहन अध्ययन

Meta AI की कहानी दिसंबर 2013 में शुरू होती है, जब Mark Zuckerberg ने Facebook AI Research (FAIR) का नेतृत्व करने के लिए Yann LeCun को भर्ती किया — Geoffrey Hinton और Yoshua Bengio के साथ डीप लर्निंग के तीन "godfathers" में से एक। LeCun, NYU में एक professor और convolutional न्यूरल networks के अग्रणी, ने तत्काल विश्वसनीयता और एक स्पष्ट शोध दर्शन लाया: मौलिक शोध, खुले रूप से प्रकाशित, बिना किसी अल्पकालिक उत्पाद दबाव के। FAIR जल्दी से दुनिया की सबसे विपुल और सम्मानित AI labs में से एक बन गया, शीर्ष प्रतिभा को आकर्षित करते हुए और computer vision, natural language processing, और self-supervised learning में प्रभावशाली काम का उत्पादन करते हुए। लैब ने एक corporate शोध डिवीज़न के लिए असामान्य अकादमिक स्वतंत्रता के साथ काम किया, और LeCun की उपस्थिति ने इसे एक gravity दी जिससे कुछ industry labs मेल खा सकती थीं।

PyTorch और बुनियादी ढाँचा play

यदि Meta AI ने और कुछ नहीं किया होता, तो PyTorch अपनी विरासत को cement करने के लिए पर्याप्त होगा। 2016 में Torch framework के एक विकास के रूप में जारी, PyTorch शोध में और तेज़ी से, production में प्रमुख डीप लर्निंग framework बन गया। इसका "define-by-run" गतिशील computation graph TensorFlow के मूल static graph दृष्टिकोण से अधिक intuitive था, और developer अनुभव बस बेहतर था। 2020 के दशक की शुरुआत तक, AI शोध papers के विशाल बहुमत ने PyTorch का उपयोग किया, और आज आप जिन मॉडलों के साथ interact करते हैं उनमें से अधिकांश — OpenAI, Anthropic, और Mistral से जिन्हें शामिल हैं — को इस पर प्रशिक्षित किया गया था। Meta ने PyTorch को open-source किया और अंततः 2022 में Linux Foundation को दान किया, इसे वास्तव में community-governed बनाते हुए। यह शुद्ध परोपकार नहीं था; PyTorch को मानक बनाकर, Meta ने सुनिश्चित किया कि पूरा AI ecosystem उस बुनियादी ढाँचे पर बना है जिसे यह गहराई से समझता है।

Llama और open-weights क्रांति

फरवरी 2023 में, Meta ने LLaMA (Large Language Model Meta AI) जारी किया, 7B से 65B parameters तक के मॉडलों का एक परिवार, शुरू में शोधकर्ताओं तक प्रतिबंधित। एक सप्ताह के भीतर, weights online leak हो गए। इसके खिलाफ़ लड़ने के बजाय, Meta ने इसमें झुक गया: Llama 2 (जुलाई 2023) को शोध और वाणिज्यिक उपयोग दोनों के लिए एक permissive लाइसेंस के तहत जारी किया गया, और Llama 3 (अप्रैल 2024) तथा Llama 4 (2025) ने तेज़ी से प्रतिस्पर्धी मॉडलों के साथ open-weights रणनीति जारी रखी। इस निर्णय ने उद्योग को नया आकार दिया। Llama से पहले, प्रचलित धारणा यह थी कि फ्रंटियर मॉडल proprietary बने रहेंगे। Llama के बाद, fine-tunes, quantizations, और derivative मॉडलों का एक विशाल ecosystem उभरा, और open-weights आंदोलन एक गंभीर प्रतिस्पर्धी शक्ति बन गया। Meta की प्रेरणा आंशिक रूप से रणनीतिक थी — यदि AI मॉडल commoditized हो जाते हैं, तो मूल्य उन platforms पर shift हो जाता है जो उन्हें तैनात करते हैं, और Meta के पास Facebook, Instagram, WhatsApp, और Threads में 3+ अरब उपयोगकर्ता हैं — लेकिन AI access को लोकतांत्रिक बनाने पर प्रभाव motive की परवाह किए बिना वास्तविक था।

Zuckerberg का AI दाँव

Mark Zuckerberg का AI में व्यक्तिगत निवेश विशाल और अत्यधिक दृश्यमान रहा है। metaverse pivot सार्वजनिक कल्पना को capture करने में विफल होने (और दसियों अरब खर्च करने) के बाद, Zuckerberg ने 2023-2024 में Meta को एक "AI-first" कंपनी के रूप में पुनः positioned किया। पूँजी खर्च बढ़ता गया है: Meta ने दुनिया के सबसे बड़े GPU clusters में से एक बनाया (शुरू में 600,000+ H100 GPUs, अधिक के लिए योजनाओं के साथ), 2025 तक AI बुनियादी ढाँचे पर सालाना $30 अरब से अधिक खर्च करते हुए। Meta AI, Llama द्वारा संचालित कंपनी का consumer-facing सहायक, सभी Meta apps में एकीकृत किया गया, इसे केवल वितरण से दुनिया में सबसे व्यापक रूप से तैनात AI सहायकों में से एक बनाते हुए। Zuckerberg अपने दार्शनिक रुख के बारे में मुखर भी रहे हैं: AI मॉडल खुले होने चाहिए, closed labs में AI शक्ति का concentration खतरनाक है, और Meta का open दृष्टिकोण ecosystem के लिए बेहतर है। चाहे यह वास्तविक विश्वास है या OpenAI और Google (जिनके closed मॉडलों को Meta मुफ़्त विकल्पों के साथ undercut कर सकता है) के विरुद्ध प्रतिस्पर्धात्मक रणनीति है, एक प्रश्न है जो बहुत बहस उत्पन्न करता है।

शोध की चौड़ाई और आगे क्या है

LLMs के अलावा, Meta AI का शोध portfolio उल्लेखनीय रूप से व्यापक है। computer vision (DINOv2, Segment Anything), speech और translation (SeamlessM4T, 100+ भाषाओं को कवर करता है), video generation, और embodied AI में उनका काम उद्योग में सर्वश्रेष्ठ में से है। Segment Anything Model (SAM), 2023 में जारी, ने image segmentation के लिए वही किया जो AlphaFold ने protein folding के लिए किया — इसने एक पहले से कठिन कार्य को tuhi रूप से आसान और मुफ़्त रूप से उपलब्ध बना दिया। FAIR, अब Joelle Pineau के नेतृत्व में (LeCun एक सलाहकार क्षमता में Chief AI Scientist के रूप में रहते हैं), असाधारण गति से प्रकाशित करना जारी रखता है। Meta के लिए रणनीतिक चुनौती integration है: इस सभी शोध को ऐसे उत्पादों में बदलना जो Meta के social platforms को अधिक engaging और इसके advertising को अधिक प्रभावी बनाते हैं, बिना उस तरह की नियामक प्रतिक्रिया को trigger किए जिसके लिए Meta की privacy इतिहास वाली कंपनी विशेष रूप से कमज़ोर है। open-weights रणनीति की भी सीमाएँ हैं — जैसे-जैसे मॉडल AGI-स्तर की क्षमताओं के पास पहुँचते हैं, क्या उन्हें खुले तौर पर जारी करना ज़िम्मेदार है यह प्रश्न उत्तर देने के लिए बहुत कठिन हो जाता है।

संबंधित अवधारणाएँ

← सभी शब्द
← मेमोरी MiniMax →
ESC