Zubnet AIAprenderWiki › Weight Initialization
Training

Weight Initialization

Xavier Init, Kaiming Init, He Init
Como os pesos de rede neural são definidos antes do treinamento começar. Má inicialização pode fazer o treinamento falhar antes de começar (ativações desaparecendo ou explodindo). Boa inicialização garante que ativações e gradientes mantenham magnitudes razoáveis através das camadas. Inicialização Xavier (para tanh/sigmoid) e Kaiming/He (para ReLU) são os padrões, cada um calibrado para a função de ativação.

Por que importa

Inicialização parece um detalhe menor mas é crítico para treinar redes profundas. Uma rede com pesos iniciais aleatórios (grandes demais) produz ativações explodindo. Uma com pesos pequenos demais produz ativações desaparecendo. Inicialização apropriada coloca a rede em uma “zona Cachinhos Dourados” onde sinais fluem sem explodir ou desaparecer — um pré-requisito para gradient descent funcionar afinal.

Deep Dive

The core principle: initialize weights so that the variance of activations is approximately constant across layers. If each layer amplifies the signal (variance grows), activations explode. If each layer diminishes it (variance shrinks), activations vanish. Xavier initialization sets weights to variance 2/(fan_in + fan_out). Kaiming initialization sets variance 2/fan_in, accounting for the fact that ReLU zeros out half the values.

In Transformers

Modern Transformers often use a scaled initialization: output projection weights in attention and FFN layers are initialized with standard deviation scaled by 1/√(2×num_layers). This prevents the residual stream from growing too large as contributions from many layers accumulate. GPT-2 and many subsequent models use this "scaled init" approach. Some architectures (like muP/maximal update parameterization) take this further with mathematically derived scaling rules.

Pre-Trained Weights

For most practical purposes, initialization from scratch is rare — you start from pre-trained weights and fine-tune. But initialization still matters for the new components: LoRA adapters, new classification heads, or extended vocabulary embeddings. Zero initialization for LoRA's B matrix (so the adapter starts as identity) and proper initialization for new token embeddings (typically copying the mean of existing embeddings) are common patterns that prevent the new components from disrupting the pre-trained model at the start of fine-tuning.

Conceitos relacionados

← Todos os termos
ESC