Zubnet AIसीखेंWiki › AGI
मूल तत्व

AGI

इसे भी कहा जाता है: सामान्य कृत्रिम बुद्धिमत्ता
एक काल्पनिक एआई प्रणाली जो मनुष्य द्वारा किसी भी बौद्धिक कार्य को समझ सके, सीख सके और कर सके — जिसमें विभिन्न क्षेत्रों के बीच ज्ञान के परिवहन की क्षमता हो सके बिना प्रत्येक के लिए विशेष रूप से प्रशिक्षित न होने के। वर्तमान एआई के विपरीत, जो संकीर्ण कार्यों (टेक्स्ट उत्पन्न करना, छवियों के वर्गीकरण) में अत्यधिक अच्छा है, AGI नए स्थितियों का संभाल सके, अमूर्त रूप से तर्क दे सके और किसी भी चुनौति के लिए अनुकूलित हो सके। क्या AGI अगले क्षण आ सकता है, दशकों बाद आएगा या असंभव है, यह विषय के सबसे विवादास्पद बहस है।

यह क्यों मायने रखता है

AGI व्यापक AI उद्योग के लिए उत्तर तारा (या भयानक) है। यह अरबों डॉलर के निवेश को आगे बढ़ाता है, सुरक्षा अनुसंधान के प्राथमिकताओं को आकार देता है और नीति बहसों में अधिकांशता लेता है। क्या आपको लगता है कि AGI निकट है या नहीं, इस अवधारणा के आधार पर Anthropic, OpenAI और DeepMind जैसी कंपनियां अपने मिशनों को ढांचा देती हैं — और इस बहस को समझना आपको वास्तविक प्रगति के बीच ब्रह्मांडीकरण से अलग करने में मदद करता है।

गहन अध्ययन

AGI के साथ पहली समस्या यह है कि कोई भी इस बात पर सहमत नहीं है कि इसका क्या अर्थ है। OpenAI ने 2024 में एक पाँच-स्तरीय ढाँचा प्रकाशित किया: स्तर 1 chatbots है (conversational AI), स्तर 2 reasoners है (मानव-स्तरीय problem solving), स्तर 3 agents है (सिस्टम जो कार्रवाई करते हैं), स्तर 4 innovators है (सिस्टम जो आविष्कार में सहायता करते हैं), और स्तर 5 organizations है (AI जो एक पूरी कंपनी का काम कर सकता है)। अपनी स्वयं की परिभाषा के अनुसार, उन्होंने o1 के साथ स्तर 2 के पास होने का दावा किया। François Chollet, Keras के निर्माता और ARC benchmark, का मौलिक रूप से भिन्न दृष्टिकोण है — वे तर्क देते हैं कि AGI का अर्थ है कुशल कौशल अधिग्रहण, न्यूनतम उदाहरणों के साथ वास्तव में नए कार्यों को सीखने की क्षमता, न कि केवल प्रशिक्षण डेटा के समान कार्यों पर प्रभावशाली प्रदर्शन। Google DeepMind ने एक और ढाँचा प्रस्तावित किया जो प्रदर्शन से सामान्यता को अलग करता है, एक matrix बनाते हुए जहाँ आप narrow superintelligence या सामान्य अक्षमता रख सकते हैं। ये छोटी परिभाषात्मक झड़पें नहीं हैं। आप जो परिभाषा अपनाते हैं वह निर्धारित करता है कि AGI दो वर्ष दूर है या दो शताब्दी।

वर्तमान खेल की स्थिति

हम वास्तव में कहाँ हैं यह पूरी तरह से इस बात पर निर्भर करता है कि आप कैसे मापते हैं। बड़े भाषा मॉडल bar exam पास कर सकते हैं, publishable कोड लिख सकते हैं, quantum यांत्रिकी की व्याख्या कर सकते हैं, कविता लिख सकते हैं, और नए logic puzzles के माध्यम से तर्क कर सकते हैं। पाँच साल पहले के किसी भी मानक से, इसे सामान्य intelligence के मज़बूत साक्ष्य माना जाता। और फिर भी ये वही सिस्टम कभी-कभी एक शब्द के अक्षरों को विश्वसनीय रूप से नहीं गिन सकते, स्थानिक तर्क के साथ संघर्ष करते हैं, correlation को causation से confuse करते हैं, और आत्मविश्वास से false जानकारी बताते हैं। क्या यह AGI के लिए 90% रास्ता है, शेष 10% इंजीनियरिंग विवरण होने के साथ? या यह 10% रास्ता है, प्रभावशाली भागों के साथ पैमाने पर pattern matching पर बनाया गया एक parlor trick? Honest शोधकर्ता तीव्र असहमति में हैं। आशावादी इंगित करते हैं कि हर नई मॉडल पीढ़ी पिछले failure modes में से कई को ठीक करती है। संशयवादी इंगित करते हैं कि शेष विफलताएँ केवल scaling समस्याओं के बजाय मौलिक architectural सीमाओं का सुझाव देती हैं।

Scaling बहस

अभी AI में सबसे consequential तकनीकी बहस यह है कि क्या scaling — अधिक डेटा, अधिक compute, अधिक parameters — अंततः AGI उत्पन्न करेगा, या क्या हमें मौलिक रूप से नए architectures की आवश्यकता है। Scaling परिकल्पना, OpenAI के शोधकर्ताओं द्वारा सबसे अधिक दृश्यमान रूप से championed, यह मानती है कि intelligence मुख्य रूप से पैमाने का एक function है: मॉडल को पर्याप्त बड़ा बनाएँ, इसे पर्याप्त डेटा पर प्रशिक्षित करें, और सामान्य क्षमता emerge होती है। इस दृष्टिकोण के लिए साक्ष्य वास्तविक है — GPT-4 GPT-3 की तुलना में गुणात्मक रूप से अधिक सक्षम है, जो GPT-2 की तुलना में गुणात्मक रूप से अधिक सक्षम था, और हर छलांग बड़े पैमाने पर scaling से आई। प्रति-तर्क यह है कि scaling laws diminishing returns दिखाते हैं, कि वर्तमान architectures में मौलिक सीमाएँ हैं (कोई persistent memory नहीं, कोई world मॉडल नहीं, कोई causal reasoning नहीं), और एक दोषपूर्ण architecture पर अधिक compute फेंकना केवल एक बड़ा दोषपूर्ण सिस्टम उत्पन्न करता है। सच्चाई शायद कहीं बीच में है। Scaling ने वास्तविक सफलताएँ उत्पन्न की हैं जो किसी ने भविष्यवाणी नहीं की, लेकिन समस्याओं के वर्ग हैं — long-horizon planning, physical reasoning, विश्वसनीय अंकगणित — जहाँ अधिक scale ने विश्वसनीय रूप से मदद नहीं की है।

आर्थिक तर्क

AGI का एक व्यावहारिक पुनर्निर्धारण है जो दार्शनिक बहस को पूरी तरह से sidestep करता है: AGI को हर domain में मानव intelligence से मेल खाने या उसे पार करने की आवश्यकता नहीं है। इसे केवल अधिकांश knowledge work को automate करने के लिए पर्याप्त अच्छा होने की आवश्यकता है। एक सिस्टम जो senior engineer level पर कोड लिख सकता है, क़ानूनी दस्तावेज़ draft कर सकता है, चिकित्सा छवियों का विश्लेषण कर सकता है, projects manage कर सकता है, और customer support संभाल सकता है — भले ही यह जूते के लेस नहीं बाँध सकता या अपनी सीमाओं के बारे में मज़ाक नहीं समझ सकता — किसी भी काल्पनिक "true" AGI के समान वैश्विक अर्थव्यवस्था को बदल देगा। कुछ अर्थशास्त्री तर्क देते हैं कि हम पहले से ही इस युग में प्रवेश कर रहे हैं। प्रश्न यह नहीं है कि क्या AI conscious होगा या "वास्तव में" intelligent होगा बल्कि यह कि क्या यह अधिकांश white-collar jobs को automatable बना देगा। वह framing AGI timeline को बहुत कम और बहुत अधिक concrete महसूस कराता है, इस बात की परवाह किए बिना कि आप दार्शनिक प्रश्नों पर कहाँ खड़े हैं।

सुरक्षा और timeline समस्या

AGI के लिए timeline सुरक्षा शोध के लिए बहुत मायने रखता है, और यह एक सैद्धांतिक चिंता नहीं है। Alignment — उन्नत AI सिस्टमों को वही करवाने का काम जो हम वास्तव में चाहते हैं — वास्तव में कठिन है। RLHF और Constitutional AI जैसी वर्तमान तकनीकें आज के सिस्टमों के लिए उचित रूप से अच्छी तरह काम करती हैं, लेकिन वे मनुष्यों के AI के आउटपुट का मूल्यांकन करने में सक्षम होने पर निर्भर करती हैं। जैसे-जैसे सिस्टम अधिक सक्षम होते जाते हैं, यह धारणा टूट जाती है। यदि AGI पचास साल दूर है, तो robust alignment तकनीकों को विकसित करने, संस्थागत frameworks बनाने, और परीक्षण के कई rounds के माध्यम से iterate करने का समय है। यदि AGI पाँच साल दूर है, तो हम alignment शोध को एक deadline पर चला रहे हैं जो पर्याप्त नहीं हो सकती। यही कारण है कि timeline अनुमान केवल अकादमिक जिज्ञासा नहीं हैं — वे सीधे यह निर्धारित करते हैं कि हमें alignment को कितनी तत्काल हल करने की आवश्यकता है, हमें AI विकास को कितनी आक्रामक रूप से regulate करना चाहिए, और प्रमुख labs को क्षमता लाभ के पीछे कितना जोखिम स्वीकार करने को तैयार होना चाहिए। AGI सुरक्षा के बारे में सबसे अधिक चिंतित शोधकर्ता आवश्यक रूप से वे नहीं हैं जो सोचते हैं कि AGI सबसे संभावित है; वे वे हैं जो सोचते हैं कि इसे ग़लत प्राप्त करने के परिणाम अपरिवर्तनीय हैं।

संबंधित अवधारणाएँ

← सभी शब्द
साइबर सुरक्षा में AI →
ESC