Zubnet AIAprenderWiki › Learning Rate Schedule
Treinamento

Learning Rate Schedule

Também conhecido como: LR Schedule, Warmup, Cosine Annealing, Schedule de Taxa de Aprendizado
Uma estratégia para mudar a taxa de aprendizado durante o treinamento em vez de mantê-la constante. A maioria dos treinamentos modernos usa warmup (aumento gradual de quase-zero até o pico) seguido de decay (diminuição gradual em direção a zero). Cosine annealing é o schedule de decay mais comum. A taxa de aprendizado controla quão grande é cada passo de atualização por gradiente — indiscutivelmente o hiperparâmetro mais importante no treinamento.

Por que isso importa

Acertar o schedule de learning rate pode fazer ou quebrar um treinamento. Alto demais e o modelo diverge (picos de loss, treinamento falha). Baixo demais e treina lentamente ou fica preso. O schedule interage com tamanho de batch, tamanho de modelo e dados — não existe configuração universal. Entender schedules de learning rate ajuda a interpretar curvas de treinamento e diagnosticar problemas.

Em profundidade

O schedule padrão de treinamento de LLM tem três fases: (1) warmup: aumente linearmente a learning rate de ~0 até o valor de pico nos primeiros 0,1–2% dos passos de treinamento. Isso previne que o modelo inicializado aleatoriamente dê passos grandes demais no início. (2) Estável/pico: mantenha a learning rate de pico pela maior parte do treinamento. (3) Decay: diminua a learning rate seguindo uma curva cosseno até próximo de zero no final. Isso permite que o modelo faça ajustes refinados na fase final.

Cosine Annealing

Decay cosseno: lr(t) = lr_min + 0,5 · (lr_max − lr_min) · (1 + cos(π · t / T)), onde t é o passo atual e T é o total de passos. Isso produz uma curva suave que diminui lentamente no início, depois mais rápido, depois lentamente novamente conforme se aproxima do mínimo. Por que cosseno? Funciona bem empiricamente e evita as transições abruptas de schedules baseados em degraus. A learning rate final é tipicamente 10x menor que a de pico.

A Relação Learning Rate-Tamanho de Batch

A regra de escala linear: se você dobrar o tamanho do batch, dobre a learning rate. Isso preserva o tamanho efetivo do passo quando a estimativa do gradiente se torna mais precisa (pelo batch maior). A regra se mantém aproximadamente para tamanhos de batch moderados mas quebra para batches muito grandes, onde a learning rate ótima cresce mais devagar que linearmente. Acertar essa relação é crítico para treinamento distribuído onde o tamanho do batch escala com o número de GPUs.

Conceitos relacionados

← Todos os termos
← Latência Leis de Escala →