Zubnet AIसीखेंWiki › Contrastive Learning
प्रशिक्षण

Contrastive Learning

इसे भी कहा जाता है: SimCLR, InfoNCE
एक self-supervised learning दृष्टिकोण जो positive pairs (समान आइटम जो embedding स्पेस में करीब होने चाहिए) को negative pairs (असमान आइटम जो दूर होने चाहिए) के विरुद्ध contrast करके मॉडल को प्रशिक्षित करता है। CLIP मिलान इमेज-टेक्स्ट जोड़ों को बेमेल जोड़ों के विरुद्ध contrast करता है। SimCLR एक ही इमेज के augmented दृश्यों को विभिन्न इमेज के दृश्यों के विरुद्ध contrast करता है। मॉडल ऐसे प्रतिनिधित्व सीखता है जहां embedding स्पेस में समानता वास्तविक दुनिया की समानता को प्रतिबिंबित करती है।

यह क्यों मायने रखता है

Contrastive learning वह है जिससे अधिकांश embedding मॉडल प्रशिक्षित किए जाते हैं — वे मॉडल जो semantic search, RAG, और recommendations को शक्ति प्रदान करते हैं। यह CLIP के पीछे का प्रशिक्षण दृष्टिकोण भी है, जो भाषा और दृष्टि को जोड़ता है। जब भी आप समानता मापने के लिए embeddings का उपयोग करते हैं, contrastive learning संभवतः वह है जिससे वे embeddings बनाए गए थे।

गहन अध्ययन

InfoNCE loss (CLIP और कई embedding मॉडलों द्वारा उपयोग किया गया): N positive pairs का एक बैच दिया गया, बैच में N−1 बेमेल आइटम को negative उदाहरणों के रूप में मानें। Loss positive pair embeddings को करीब और negative pair embeddings को दूर धकेलता है। मुख्य अंतर्दृष्टि: आपको स्पष्ट रूप से लेबल किए गए negative उदाहरणों की आवश्यकता नहीं — बैच में अन्य आइटम मुफ़्त में negatives के रूप में काम करते हैं, जो दृष्टिकोण को अत्यधिक scalable बनाता है।

पर्यवेक्षण के रूप में Data Augmentation

विज़न में, contrastive learning data augmentation के माध्यम से positive pairs बनाता है: एक ही इमेज के दो यादृच्छिक crops एक positive pair हैं (वे विभिन्न दृष्टिकोणों से एक ही content दिखाते हैं)। विभिन्न इमेज negative pairs बनाती हैं। मॉडल सीखता है कि augmented दृश्यों में समान embeddings होनी चाहिए जबकि विभिन्न इमेज में अलग embeddings होनी चाहिए। यह बिना किसी लेबल के उपयोगी दृश्य प्रतिनिधित्व सीखता है — शुद्ध self-supervision।

Hard Negatives

सभी negatives सीखने के लिए समान रूप से उपयोगी नहीं हैं। "Hard negatives" — ऐसे आइटम जो समान हैं लेकिन मिलान नहीं करते — सबसे अधिक सीखने का सिग्नल प्रदान करते हैं। "Python web frameworks" के बारे में एक query के लिए, एक hard negative "Python data science" (समान विषय, गलत उत्तर) के बारे में एक दस्तावेज़ हो सकता है बजाय "cooking recipes" (स्पष्ट रूप से अप्रासंगिक) के बारे में एक दस्तावेज़ के। Hard negatives को mine करना उच्च-गुणवत्ता embedding मॉडल प्रशिक्षित करने के लिए एक मुख्य तकनीक है।

संबंधित अवधारणाएँ

← सभी शब्द
← Context Length Extension ControlNet →