Zubnet AIApprendreWiki › Early Stopping
Training

Early Stopping

Patience, Validation-Based Stopping
Arrêter l'entraînement quand la performance sur un validation set mis de côté cesse de s'améliorer, plutôt que d'entraîner pour un nombre fixe d'étapes. Pendant que l'entraînement continue, la loss d'entraînement continue de baisser mais la loss de validation finit par commencer à monter — le modèle fait de l'overfitting sur les données d'entraînement. L'early stopping attrape ce point d'inflexion et sauvegarde le meilleur modèle avant que la qualité se dégrade.

Pourquoi c'est important

L'early stopping est la technique de régularisation la plus simple et la plus efficace pour le fine-tuning. Sans elle, tu risques d'entraîner trop longtemps et de détruire les capacités que tu voulais préserver. Avec elle, le modèle s'arrête automatiquement à son meilleur point. Le paramètre « patience » (combien d'évaluations sans amélioration avant de s'arrêter) est un des hyperparamètres les plus importants en fine-tuning.

Deep Dive

The process: (1) split your data into training and validation sets, (2) evaluate on the validation set periodically during training, (3) track the best validation metric (loss, accuracy, F1), (4) if the metric hasn't improved for N evaluations (patience), stop training and revert to the checkpoint with the best validation score. This prevents the model from memorizing training data beyond the point where it helps generalization.

In LLM Fine-Tuning

For LLM fine-tuning, early stopping is especially important because catastrophic forgetting can destroy base model capabilities. A model fine-tuned for too long on customer support data might become great at support but lose its ability to do math or write code. Monitoring validation loss across multiple task types (not just the fine-tuning task) helps catch this. Typical fine-tuning runs are 1–5 epochs with patience of 2–3 evaluations.

Not Used in Pre-Training

Interestingly, LLM pre-training rarely uses early stopping. The training runs are so expensive and the datasets so large that models typically train for a predetermined number of tokens (based on scaling laws). Overfitting is rare during pre-training because the model usually never sees the same data twice. Early stopping is primarily a fine-tuning and classical ML technique.

Concepts liés

← Tous les termes
ESC