Zubnet AIAprenderWiki › Olvido Catastrófico
Entrenamiento

Olvido Catastrófico

Interferencia Catastrófica
Cuando una red neuronal entrenada en una nueva tarea pierde su capacidad de realizar tareas previamente aprendidas. Hacer fine-tuning de un modelo con datos de soporte al cliente podría hacerlo excelente en soporte pero terrible en programación. El nuevo aprendizaje sobreescribe los pesos que codificaban las capacidades anteriores, "olvidándolas".

Por qué importa

El olvido catastrófico es el desafío central del fine-tuning y el aprendizaje continuo. Es la razón por la que no puedes simplemente seguir haciendo fine-tuning de un modelo tarea tras tarea y esperar que haga todo bien. También es la razón por la que técnicas como LoRA (que solo modifican un pequeño subconjunto de parámetros) y la selección cuidadosa del learning rate son críticas para preservar las capacidades del modelo base.

En profundidad

La causa raíz es la compartición de pesos: los mismos parámetros codifican múltiples capacidades, y actualizarlos para una nueva tarea perturba las codificaciones existentes. En una red neuronal grande, el conocimiento no se almacena en neuronas dedicadas — está distribuido en los pesos en patrones complejos y superpuestos (superposición). Modificar esos pesos para nuevo conocimiento inevitablemente perturba el conocimiento antiguo.

Estrategias de Mitigación

Varias técnicas reducen el olvido. Learning rates bajos durante el fine-tuning minimizan los cambios en los pesos. LoRA añade nuevos parámetros entrenables mientras mantiene los pesos originales congelados. Elastic Weight Consolidation (EWC) identifica qué pesos son importantes para tareas antiguas y penaliza cambios en ellos. Los métodos de replay mezclan datos de tareas antiguas en el entrenamiento de nuevas tareas. Ninguno resuelve completamente el problema — siempre hay una compensación entre plasticidad (aprender cosas nuevas) y estabilidad (retener cosas antiguas).

El Sueño del Aprendizaje Continuo

El aprendizaje continuo (también llamado aprendizaje de por vida) es el objetivo de investigación de construir modelos que puedan seguir aprendiendo de nuevos datos sin olvidar capacidades antiguas — como lo hacen los humanos. Los LLMs actuales evitan esto entrenando una vez con un dataset masivo y luego haciendo fine-tuning cuidadosamente. El verdadero aprendizaje continuo sigue siendo un problema abierto y sería transformador: imagina un modelo que sigue aprendiendo de cada conversación sin degradarse.

Conceptos relacionados

← Todos los términos
← Ollama ONNX →
ESC