Zubnet AIApprendreWiki › Augmentation de données
Entraînement

Augmentation de données

Des techniques qui élargissent artificiellement un jeu de données d'entraînement en créant des versions modifiées des exemples existants. Pour les images : retournement, rotation, recadrage, modification des couleurs. Pour le texte : paraphrase, traduction aller-retour, substitution de synonymes. Pour l'audio : changement de vitesse, injection de bruit. L'objectif est d'enseigner au modèle les invariances — un chat est un chat que l'image soit retournée, assombrie ou recadrée.

Pourquoi c'est important

L'augmentation de données est le moyen le moins cher d'améliorer la performance d'un modèle quand tu as des données limitées. Elle réduit le surajustement en montrant au modèle de nombreuses variations de chaque exemple, lui apprenant à se concentrer sur les caractéristiques essentielles plutôt que les détails superficiels. En vision par ordinateur, l'augmentation fournit couramment 2–5 % d'amélioration d'exactitude gratuitement.

En profondeur

Le principe clé : les augmentations doivent préserver l'étiquette. Retourner horizontalement une image de chat montre toujours un chat (augmentation valide). Retourner un panneau « tournez à gauche » en fait un panneau « tournez à droite » (augmentation invalide). Choisir les augmentations appropriées nécessite de comprendre quelles invariances comptent pour ta tâche.

Augmentation moderne

AutoAugment et ses successeurs (RandAugment, TrivialAugment) apprennent ou randomisent les politiques d'augmentation au lieu de les concevoir à la main. Cutout/CutMix masque ou mélange aléatoirement des patches de différentes images. MixUp interpole entre des paires d'exemples, créant des points d'entraînement synthétiques qui lissent les frontières de décision. Ces techniques sont maintenant standard dans les pipelines d'entraînement en vision.

Augmentation par IA

Avec les modèles génératifs, l'augmentation va au-delà des transformations géométriques. Tu peux utiliser des LLM pour paraphraser des données textuelles d'entraînement, des modèles de diffusion pour générer des variantes d'images, ou des modèles pour créer des exemples d'entraînement entièrement nouveaux (données synthétiques). La frontière entre « augmentation » (modifier des exemples existants) et « données synthétiques » (générer de nouveaux exemples) s'estompe, et les deux deviennent des parties essentielles des pipelines d'entraînement modernes.

Concepts connexes

← Tous les termes
← Attention éparse Auto-encodeur épars →
ESC