Zubnet AIसीखेंWiki › सतत शिक्षण (Continual Learning)
प्रशिक्षण

सतत शिक्षण (Continual Learning)

इसे भी कहा जाता है: आजीवन शिक्षण, वृद्धिशील शिक्षण
एक मॉडल की पहले सीखी गई बातों को भूले बिना लगातार नए डेटा से सीखने की क्षमता। वर्तमान LLMs एक बार प्रशिक्षित किए जाते हैं और फ्रीज़ कर दिए जाते हैं — उन्हें अपडेट करने के लिए महंगे पुनर्प्रशिक्षण की आवश्यकता होती है। सतत शिक्षण मॉडलों को हर इंटरैक्शन से सीखने, नई जानकारी के साथ अद्यतन रहने, और व्यक्तिगत उपयोगकर्ताओं के अनुकूल होने की अनुमति देगा, जैसे मनुष्य स्वाभाविक रूप से सीखते हैं।

यह क्यों मायने रखता है

सतत शिक्षण AI की महान अनसुलझी समस्याओं में से एक है। वर्तमान मॉडलों की ज्ञान कटऑफ़ होती है, वे सुधारों से सीख नहीं सकते, और हर बातचीत को एक खाली स्लेट के रूप में मानते हैं। सतत शिक्षण को हल करने से महंगे पुनर्प्रशिक्षण चक्रों की आवश्यकता समाप्त हो जाएगी, वैयक्तिकृत AI सक्षम होगा जो वास्तव में प्रत्येक उपयोगकर्ता के अनुकूल होता है, और मॉडलों को सदा अद्यतन रहने देगा।

गहन अध्ययन

मूलभूत बाधा विनाशकारी विस्मरण (catastrophic forgetting) है: नए डेटा पर प्रशिक्षण पुराने ज्ञान को एन्कोड करने वाले भारों को अधिलेखित कर देता है। मनुष्यों को यह समस्या नहीं है (फ्रेंच सीखने से अंग्रेज़ी नहीं भूलती) क्योंकि जैविक न्यूरल नेटवर्क स्मृति समेकन के लिए भिन्न तंत्रों का उपयोग करते हैं। कृत्रिम न्यूरल नेटवर्क सभी ज्ञान को साझा भारों में संग्रहीत करते हैं, जिससे कोई भी अपडेट मौजूदा क्षमताओं के लिए संभावित व्यवधान बन जाता है।

वर्तमान दृष्टिकोण

कई रणनीतियाँ आंशिक रूप से सतत शिक्षण को संबोधित करती हैं: replay विधियाँ (प्रशिक्षण के दौरान पुराने डेटा को नए डेटा के साथ मिलाना), regularization विधियाँ (पुराने कार्यों के लिए महत्वपूर्ण भारों में बदलाव को दंडित करना, जैसे EWC), architecture विधियाँ (विभिन्न कार्यों के लिए विभिन्न पैरामीटर आवंटित करना), और retrieval-augmented दृष्टिकोण (ज्ञान को भारों के बजाय बाहरी डेटाबेस में संग्रहीत करना)। कोई भी पूरी तरह से समस्या हल नहीं करता, लेकिन प्रत्येक कुछ हद तक वृद्धिशील शिक्षण सक्षम करता है।

RAG एक व्यावहारिक विकल्प के रूप में

व्यवहार में, RAG (Retrieval-Augmented Generation) सच्चे सतत शिक्षण के लिए एक व्यावहारिक विकल्प के रूप में कार्य करता है। मॉडल के भारों को नई जानकारी से अपडेट करने के बजाय, आप एक बाहरी ज्ञान आधार अपडेट करते हैं जिसे मॉडल inference समय पर परामर्श करता है। यह विनाशकारी विस्मरण को पूरी तरह से बायपास करता है लेकिन इसकी सीमाएँ हैं: मॉडल की तर्क क्षमताएँ सुधरती नहीं, केवल जानकारी तक इसकी पहुँच सुधरती है। सच्चा सतत शिक्षण ज्ञान और क्षमताओं दोनों को एक साथ सुधारेगा।

संबंधित अवधारणाएँ

← सभी शब्द
← संघीय शिक्षण (Federated Learning) साइबर सुरक्षा में AI →
ESC