एक प्रशिक्षण दृष्टिकोण जहाँ मॉडल बिना यह बताए पैटर्न खोजता है कि क्या देखना है। कोई लेबल नहीं, कोई सही उत्तर नहीं — बस कच्चा डेटा और एक मॉडल जो संरचना खोजता है। Clustering, dimensionality reduction और anomaly detection क्लासिक कार्य हैं।
यह क्यों मायने रखता है
वास्तविक दुनिया का अधिकांश डेटा बिना लेबल का है। अनसुपरवाइज़्ड लर्निंग ऐसे पैटर्न खोजती है जिन्हें मैन्युअल रूप से खोजना असंभव है। यह embeddings का भी आधार है, जो semantic search, recommendation systems और RAG को शक्ति प्रदान करती है।
गहन अध्ययन
इसमें clustering (K-means), autoencoders, dimensionality reduction (PCA, t-SNE, UMAP) शामिल हैं। LLM pre-training को "self-supervised" कहा जाता है — प्रशिक्षण संकेत डेटा से ही आता है (अगले टोकन की भविष्यवाणी करो)।