Zubnet AIसीखेंWiki › न्यूरॉन
मूल तत्व

न्यूरॉन

इसे भी कहा जाता है: कृत्रिम न्यूरॉन, Perceptron, नोड
न्यूरल नेटवर्क की बुनियादी कम्प्यूटेशनल इकाई। एक कृत्रिम न्यूरॉन इनपुट प्राप्त करता है, प्रत्येक को एक भार (weight) से गुणा करता है, उन्हें जोड़ता है, एक बायस जोड़ता है, और परिणाम को एक एक्टिवेशन फ़ंक्शन से गुज़ारकर आउटपुट उत्पन्न करता है। हज़ारों से अरबों ऐसे न्यूरॉन, परतों में व्यवस्थित और सीखे गए भारों से जुड़े हुए, वे न्यूरल नेटवर्क बनाते हैं जो सभी आधुनिक AI को शक्ति प्रदान करते हैं।

यह क्यों मायने रखता है

न्यूरॉन डीप लर्निंग के अणु हैं। एक अकेले न्यूरॉन को समझना — भारित योग प्लस एक्टिवेशन — बाकी न्यूरल नेटवर्क आर्किटेक्चर को सहज बना देता है। एक परत न्यूरॉनों का समूह है। एक नेटवर्क परतों का ढेर है। प्रशिक्षण भारों को समायोजित करना है। बाकी सब विवरण हैं (महत्वपूर्ण विवरण, लेकिन विवरण)।

गहन अध्ययन

कृत्रिम न्यूरॉन जैविक न्यूरॉन से शिथिल रूप से प्रेरित है लेकिन इसे शाब्दिक सादृश्य नहीं मानना चाहिए। एक जैविक न्यूरॉन डेंड्राइट्स के माध्यम से विद्युत संकेत प्राप्त करता है, उन्हें कोशिका शरीर में एकीकृत करता है, और एक्सॉन के माध्यम से फायर करता है (या नहीं)। एक कृत्रिम न्यूरॉन गणना करता है: output = activation(w1·x1 + w2·x2 + ... + wn·xn + bias)। भार (w) निर्धारित करते हैं कि प्रत्येक इनपुट कितना मायने रखता है। बायस एक्टिवेशन थ्रेशोल्ड को शिफ्ट करता है। एक्टिवेशन फ़ंक्शन (ReLU, GELU) गैर-रैखिकता जोड़ता है।

Perceptron से डीप लर्निंग तक

Perceptron (Rosenblatt, 1958) पहला कृत्रिम न्यूरॉन था — एक एकल इकाई जो रैखिक रूप से अलग किए जा सकने वाले डेटा को वर्गीकृत करना सीख सकती थी। Minsky और Papert ने 1969 में दिखाया कि एक अकेला perceptron XOR (एक सरल गैर-रैखिक फ़ंक्शन) नहीं सीख सकता, जिसने पहले AI विंटर में योगदान दिया। समाधान: न्यूरॉनों की कई परतें स्टैक करें (मल्टी-लेयर perceptrons / MLPs), जो पर्याप्त न्यूरॉन होने पर कोई भी फ़ंक्शन सीख सकते हैं। यह सार्वभौमिक अनुमान प्रमेय (universal approximation theorem) है — डीप लर्निंग की सैद्धांतिक नींव।

आधुनिक LLMs में न्यूरॉन

Llama-70B जैसे मॉडल में लगभग 70 अरब पैरामीटर (न्यूरॉनों को जोड़ने वाले भार और बायस) होते हैं। प्रत्येक feedforward परत में हज़ारों न्यूरॉन होते हैं। लेकिन आधुनिक शोध दर्शाता है कि व्यक्तिगत न्यूरॉन अक्सर एकल अवधारणाओं के अनुरूप नहीं होते — इसके बजाय, अवधारणाएँ कई न्यूरॉनों में एक्टिवेशन स्पेस में दिशाओं के रूप में एन्कोड होती हैं (superposition)। एक अकेला न्यूरॉन दर्जनों विभिन्न विशेषताओं को एन्कोड करने में भाग ले सकता है, जिससे व्याख्या चुनौतीपूर्ण हो जाती है।

संबंधित अवधारणाएँ

← सभी शब्द
← न्यूरल नेटवर्क परत (Layer) →
ESC