एक प्रशिक्षण दृष्टिकोण जहाँ मॉडल लेबल किए गए उदाहरणों से सीखता है — इनपुट-आउटपुट जोड़े जहाँ सही उत्तर प्रदान किया जाता है। मॉडल अपनी भविष्यवाणियों और ज्ञात सही उत्तरों के बीच अंतर को कम करने के लिए अपने पैरामीटर समायोजित करता है।
यह क्यों मायने रखता है
सुपरवाइज़्ड लर्निंग ML का सबसे सहज रूप और अधिकांश व्यावहारिक अनुप्रयोगों का मुख्य आधार है: स्पैम फ़िल्टर, चिकित्सा छवि विश्लेषण, धोखाधड़ी पहचान, और LLM के fine-tuning चरण।
गहन अध्ययन
मूल चक्र: भविष्यवाणी करो → लेबल से तुलना करो → loss की गणना करो → पैरामीटर समायोजित करो। LLM का pre-training तकनीकी रूप से self-supervised है, लेकिन fine-tuning और RLHF supervised संकेतों का उपयोग करते हैं। मुख्य चुनौती लेबल किए गए डेटा की आवश्यकता है, जो महंगा होता है।