मूलभूत बाधा विनाशकारी विस्मरण (catastrophic forgetting) है: नए डेटा पर प्रशिक्षण पुराने ज्ञान को एन्कोड करने वाले भारों को अधिलेखित कर देता है। मनुष्यों को यह समस्या नहीं है (फ्रेंच सीखने से अंग्रेज़ी नहीं भूलती) क्योंकि जैविक न्यूरल नेटवर्क स्मृति समेकन के लिए भिन्न तंत्रों का उपयोग करते हैं। कृत्रिम न्यूरल नेटवर्क सभी ज्ञान को साझा भारों में संग्रहीत करते हैं, जिससे कोई भी अपडेट मौजूदा क्षमताओं के लिए संभावित व्यवधान बन जाता है।
कई रणनीतियाँ आंशिक रूप से सतत शिक्षण को संबोधित करती हैं: replay विधियाँ (प्रशिक्षण के दौरान पुराने डेटा को नए डेटा के साथ मिलाना), regularization विधियाँ (पुराने कार्यों के लिए महत्वपूर्ण भारों में बदलाव को दंडित करना, जैसे EWC), architecture विधियाँ (विभिन्न कार्यों के लिए विभिन्न पैरामीटर आवंटित करना), और retrieval-augmented दृष्टिकोण (ज्ञान को भारों के बजाय बाहरी डेटाबेस में संग्रहीत करना)। कोई भी पूरी तरह से समस्या हल नहीं करता, लेकिन प्रत्येक कुछ हद तक वृद्धिशील शिक्षण सक्षम करता है।
व्यवहार में, RAG (Retrieval-Augmented Generation) सच्चे सतत शिक्षण के लिए एक व्यावहारिक विकल्प के रूप में कार्य करता है। मॉडल के भारों को नई जानकारी से अपडेट करने के बजाय, आप एक बाहरी ज्ञान आधार अपडेट करते हैं जिसे मॉडल inference समय पर परामर्श करता है। यह विनाशकारी विस्मरण को पूरी तरह से बायपास करता है लेकिन इसकी सीमाएँ हैं: मॉडल की तर्क क्षमताएँ सुधरती नहीं, केवल जानकारी तक इसकी पहुँच सुधरती है। सच्चा सतत शिक्षण ज्ञान और क्षमताओं दोनों को एक साथ सुधारेगा।