Zubnet AIAprenderWiki › Adam Optimizer
Training

Adam Optimizer

Adam, AdamW
El algoritmo de optimización más ampliamente usado para entrenar redes neuronales. Adam (Adaptive Moment Estimation) combina momentum (usando un promedio móvil de gradientes pasados) con learning rates adaptativos (escalando updates por el inverso de magnitudes de gradientes pasados). AdamW añade weight decay desacoplado para mejor regularización. Casi cada LLM moderno se entrena con AdamW.

Por qué importa

Adam funciona bien a través de un amplio rango de tareas e hiperparámetros, haciéndolo el optimizador por defecto. Entenderlo explica por qué el entrenamiento «simplemente funciona» la mayoría del tiempo (Adam se adapta por parámetro) y por qué a veces no (los requisitos de memoria de Adam son 2x los parámetros del modelo, lo que importa para modelos grandes). También es la respuesta a «¿qué optimizador debería usar?» en el 90% de los casos.

Deep Dive

Adam maintains two moving averages per parameter: the first moment (mean of gradients — momentum) and the second moment (mean of squared gradients — adaptive scaling). The update rule: parameter -= lr × m̂ / (√v̂ + ε), where m̂ and v̂ are bias-corrected moments. Parameters with consistently large gradients get smaller updates (they're already well-calibrated). Parameters with small, noisy gradients get larger updates (they need more aggressive movement).

AdamW: The Fix

The original Adam applied weight decay by adding it to the gradient before computing moments, which caused the decay to be scaled by the adaptive learning rate — not what you want. AdamW (Loshchilov & Hutter, 2017) decouples weight decay from the gradient update, applying it directly to the parameters. This seems like a minor fix but significantly improves generalization. All modern LLM training uses AdamW.

Memory Cost

Adam stores two additional values per parameter (first and second moments), tripling the memory needed for optimizer state: a 70B model needs ~140 GB for weights (FP16) plus ~280 GB for Adam states (FP32), totaling ~420 GB. This is why optimizer state sharding (DeepSpeed ZeRO, FSDP) is essential for large model training. Some newer optimizers (Adafactor, CAME, Lion) reduce this memory overhead at some cost to stability.

Conceptos relacionados

← Todos los términos
ESC