Zubnet AIApprendreWiki › Contrastive Apprendreing
Training

Contrastive Apprendreing

SimCLR, InfoNCE
Une approche d'apprentissage auto-supervisé qui entraîne les modèles en contrastant des paires positives (items similaires qui devraient être proches dans l'espace d'embedding) contre des paires négatives (items dissimilaires qui devraient être loin). CLIP contraste les paires image-texte qui matchent contre celles qui ne matchent pas. SimCLR contraste des vues augmentées de la même image contre des vues de différentes images. Le modèle apprend des représentations où la similarité dans l'espace d'embedding reflète la similarité du monde réel.

Pourquoi c'est important

Le contrastive learning est comment la plupart des modèles d'embedding sont entraînés — les modèles qui alimentent la recherche sémantique, le RAG et les recommandations. C'est aussi l'approche d'entraînement derrière CLIP, qui connecte langage et vision. Chaque fois que tu utilises des embeddings pour mesurer la similarité, le contrastive learning est probablement comment ces embeddings ont été créés.

Deep Dive

The InfoNCE loss (used by CLIP and many embedding models): given a batch of N positive pairs, treat the N−1 non-matching items in the batch as negative examples. The loss pushes positive pair embeddings closer together and negative pair embeddings apart. The key insight: you don't need explicitly labeled negative examples — other items in the batch serve as negatives for free, making the approach highly scalable.

Data Augmentation as Supervision

In vision, contrastive learning creates positive pairs through data augmentation: two random crops of the same image are a positive pair (they show the same content from different views). Different images form negative pairs. The model learns that the augmented views should have similar embeddings while different images should have different embeddings. This learns useful visual representations without any labels — pure self-supervision.

Hard Negatives

Not all negatives are equally useful for learning. "Hard negatives" — items that are similar but not matching — provide the most learning signal. For a query about "Python web frameworks," a hard negative might be a document about "Python data science" (similar topic, wrong answer) rather than one about "cooking recipes" (obviously irrelevant). Mining hard negatives is a key technique for training high-quality embedding models.

Concepts liés

← Tous les termes
← Continual Apprendreing ControlNet →