La causa raíz es la compartición de pesos: los mismos parámetros codifican múltiples capacidades, y actualizarlos para una nueva tarea perturba las codificaciones existentes. En una red neuronal grande, el conocimiento no se almacena en neuronas dedicadas — está distribuido en los pesos en patrones complejos y superpuestos (superposición). Modificar esos pesos para nuevo conocimiento inevitablemente perturba el conocimiento antiguo.
Varias técnicas reducen el olvido. Learning rates bajos durante el fine-tuning minimizan los cambios en los pesos. LoRA añade nuevos parámetros entrenables mientras mantiene los pesos originales congelados. Elastic Weight Consolidation (EWC) identifica qué pesos son importantes para tareas antiguas y penaliza cambios en ellos. Los métodos de replay mezclan datos de tareas antiguas en el entrenamiento de nuevas tareas. Ninguno resuelve completamente el problema — siempre hay una compensación entre plasticidad (aprender cosas nuevas) y estabilidad (retener cosas antiguas).
El aprendizaje continuo (también llamado aprendizaje de por vida) es el objetivo de investigación de construir modelos que puedan seguir aprendiendo de nuevos datos sin olvidar capacidades antiguas — como lo hacen los humanos. Los LLMs actuales evitan esto entrenando una vez con un dataset masivo y luego haciendo fine-tuning cuidadosamente. El verdadero aprendizaje continuo sigue siendo un problema abierto y sería transformador: imagina un modelo que sigue aprendiendo de cada conversación sin degradarse.