Zubnet AIApprendreWiki › Continual Apprendreing
Training

Continual Apprendreing

Lifelong Apprendreing, Incremental Apprendreing
La capacité d'un modèle d'apprendre continuellement de nouvelles données sans oublier ce qu'il a appris avant. Les LLM actuels sont entraînés une fois et gelés — les mettre à jour demande un réentraînement coûteux. Le continual learning permettrait aux modèles d'apprendre de chaque interaction, de rester à jour avec la nouvelle information, et de s'adapter aux utilisateurs individuels dans le temps, comme les humains apprennent naturellement.

Pourquoi c'est important

Le continual learning est un des grands problèmes non résolus de l'IA. Les modèles actuels ont des cutoffs de connaissance, ne peuvent pas apprendre des corrections, et traitent chaque conversation comme une ardoise vierge. Résoudre le continual learning éliminerait le besoin de cycles de réentraînement coûteux, permettrait une IA personnalisée qui s'adapte genuinement à chaque utilisateur, et laisserait les modèles rester perpétuellement à jour.

Deep Dive

The fundamental obstacle is catastrophic forgetting: training on new data overwrites the weights that encoded old knowledge. Humans don't have this problem (learning French doesn't make you forget English) because biological neural networks use different mechanisms for memory consolidation. Artificial neural networks store all knowledge in shared weights, making any update a potential disruption to existing capabilities.

Current Approaches

Several strategies partially address continual learning: replay methods (mix old data with new data during training), regularization methods (penalize changes to weights important for old tasks, like EWC), architecture methods (allocate different parameters to different tasks), and retrieval-augmented approaches (store knowledge externally in a database rather than in weights). None fully solve the problem, but each enables some degree of incremental learning.

RAG as a Pragmatic Substitute

In practice, RAG (Retrieval-Augmented Generation) serves as a pragmatic substitute for true continual learning. Instead of updating the model's weights with new information, you update an external knowledge base that the model consults at inference time. This sidesteps catastrophic forgetting entirely but has limitations: the model's reasoning capabilities don't improve, only its access to information. True continual learning would improve both knowledge and capabilities simultaneously.

Concepts liés

← Tous les termes
← Context Window Contrastive Apprendreing →