Zubnet AIसीखेंWiki › Transfer Learning
प्रशिक्षण

Transfer Learning

एक कार्य या dataset से सीखे गए ज्ञान का उपयोग करके किसी भिन्न लेकिन संबंधित कार्य पर प्रदर्शन में सुधार करना। हर बार शून्य से प्रशिक्षित करने के बजाय, आप ऐसे मॉडल से शुरू करते हैं जो पहले से सामान्य पैटर्न (भाषा संरचना, दृश्य विशेषताएँ) समझता है और इसे अपनी विशिष्ट आवश्यकता के अनुसार अनुकूलित करते हैं। प्री-ट्रेनिंग फिर फ़ाइन-ट्यूनिंग आधुनिक AI में प्रमुख प्रतिमान है।

यह क्यों मायने रखता है

Transfer learning वह कारण है कि AI व्यावहारिक बना। शून्य से एक भाषा मॉडल प्रशिक्षित करने की लागत लाखों डॉलर है। अपने विशिष्ट कार्य पर एक प्री-ट्रेन्ड मॉडल को फ़ाइन-ट्यून करने की लागत दसियों डॉलर और कुछ घंटे है। यही अर्थशास्त्र है जिसने AI अनुप्रयोगों के विस्फोट को सक्षम बनाया — कुछ उपयोगी बनाने के लिए आपको Google के बजट की आवश्यकता नहीं है।

गहन अध्ययन

मुख्य अंतर्दृष्टि: निम्न-स्तरीय विशेषताएँ कार्यों में स्थानांतरित होती हैं। ImageNet पर प्रशिक्षित एक विज़न मॉडल अपनी प्रारंभिक परतों में किनारों, बनावटों और आकृतियों का पता लगाना सीखता है — ऐसी विशेषताएँ जो लगभग किसी भी दृश्य कार्य के लिए उपयोगी हैं। वेब टेक्स्ट पर प्रशिक्षित एक भाषा मॉडल व्याकरण, तथ्य और तर्क पैटर्न सीखता है जो लगभग किसी भी भाषा कार्य के लिए उपयोगी हैं। Transfer learning सामान्य ज्ञान का पुन: उपयोग करके और केवल कार्य-विशिष्ट भागों को प्रशिक्षित करके इसका लाभ उठाता है।

प्री-ट्रेन + फ़ाइन-ट्यून प्रतिमान

आज लगभग हर AI प्रणाली इस पैटर्न का पालन करती है: (1) एक बड़े, सामान्य dataset पर एक बड़ा मॉडल प्री-ट्रेन करें (महंगा, एक बार किया जाता है), (2) एक छोटे, कार्य-विशिष्ट dataset पर फ़ाइन-ट्यून करें (सस्ता, कई बार किया जाता है)। BERT ने 2018 में NLP के लिए इसका बीड़ा उठाया। GPT ने इसे बड़े पैमाने पर किया। संपूर्ण LLM उद्योग इस प्रतिमान पर बना है — फ़ाउंडेशन मॉडल प्री-ट्रेन्ड आधार हैं, और फ़ाइन-ट्यूनिंग (RLHF/DPO सहित) वह तरीका है जिससे वे उपयोगी सहायक बनते हैं।

जब Transfer विफल होता है

Transfer learning सबसे अच्छा काम करता है जब स्रोत और लक्ष्य डोमेन संबंधित होते हैं। अंग्रेज़ी टेक्स्ट पर प्री-ट्रेन्ड मॉडल फ्रेंच (समान संरचना) में अच्छी तरह स्थानांतरित होता है लेकिन प्रोटीन अनुक्रमों (पूरी तरह से अलग डोमेन) में खराब। जब डोमेन बहुत अलग होते हैं, तो transfer वास्तव में प्रदर्शन को नुकसान पहुँचा सकता है ("नकारात्मक transfer")। डोमेन-विशिष्ट प्री-ट्रेनिंग (जैसे बायोमेडिकल टेक्स्ट के लिए BioGPT या कोड के लिए CodeLlama) डोमेन-प्रासंगिक डेटा पर प्री-ट्रेनिंग करके इसे संबोधित करती है।

संबंधित अवधारणाएँ

← सभी शब्द
← Together AI Transformer →