Zubnet AIसीखेंWiki › Knowledge Editing
प्रशिक्षण

Knowledge Editing

इसे भी कहा जाता है: Model Editing, Fact Editing
एक प्रशिक्षित मॉडल में विशिष्ट तथ्यों को बिना पुन: प्रशिक्षण के संशोधित करने की तकनीकें। यदि एक मॉडल नए चुनाव के बाद गलत तरीके से कहता है "फ्रांस के राष्ट्रपति Macron हैं", तो knowledge editing इस विशिष्ट तथ्य को लक्षित weights को संशोधित करके अपडेट कर सकता है, मॉडल के अन्य ज्ञान या क्षमताओं को प्रभावित किए बिना। लक्ष्य सर्जिकल सटीकता है: एक तथ्य बदलें, बाकी सब अछूता छोड़ दें।

यह क्यों मायने रखता है

Knowledge editing एक व्यावहारिक समस्या को संबोधित करता है: मॉडल पुराने हो जाते हैं, और पुन: प्रशिक्षण महंगा है। यदि आप विशिष्ट तथ्यों को सस्ते में अपडेट कर सकते हैं, तो मॉडल प्रमुख प्रशिक्षण रन के बीच वर्तमान रह सकते हैं। इसके सुरक्षा निहितार्थ भी हैं: क्या आप खतरनाक ज्ञान को संपादित करके हटा सकते हैं? क्षेत्र आशाजनक लेकिन अपरिपक्व है — संपादन अक्सर संबंधित ज्ञान पर अनपेक्षित दुष्प्रभाव डालते हैं।

गहन अध्ययन

प्रमुख दृष्टिकोण (ROME/MEMIT): विशिष्ट feedforward network weights की पहचान करें जो एक विशिष्ट तथ्य को एन्कोड करते हैं, मॉडल की भविष्यवाणी पर neurons के causal प्रभाव का पता लगाकर, फिर संग्रहीत association को बदलने के लिए उन weights को संशोधित करें। उदाहरण के लिए, "एफिल टॉवर पेरिस में है" को "एफिल टॉवर लंदन में है" में अपडेट करने के लिए, आप FFN लेयर्स में वे weights ढूंढते हैं जो "Eiffel Tower" → "Paris" को मैप करते हैं और उन्हें "London" की ओर redirect करते हैं।

Ripple Effect समस्या

"एफिल टॉवर लंदन में है" को संपादित करने से "एफिल टॉवर किस देश में है?" (UK, फ्रांस नहीं) और "पेरिस में कौन से landmarks हैं?" (अब एफिल टॉवर नहीं) के उत्तर भी बदलने चाहिए। वर्तमान संपादन विधियां अक्सर इसमें विफल होती हैं: वे सीधे तथ्य को बदलते हैं लेकिन संबंधित अनुमानों को असंगत छोड़ देते हैं। यह "ripple effect" समस्या सुझाव देती है कि LLMs में ज्ञान उससे अधिक आपस में जुड़ा हुआ है जितना surgical editing रूपक दर्शाता है।

Scaling चुनौतियां

कुछ संपादन उचित रूप से अच्छी तरह काम करते हैं। सैकड़ों संपादन मॉडल गुणवत्ता को खराब करना शुरू कर देते हैं — संपादित weights परिवर्तन जमा करते हैं जो एक-दूसरे के साथ और असंपादित ज्ञान के साथ हस्तक्षेप करते हैं। यह knowledge editing के व्यावहारिक उपयोग को सीमित करता है: यह कुछ सुधारों के लिए ठीक है लेकिन एक सामान्य मॉडल अपडेट तंत्र के रूप में काम नहीं कर सकता। वर्तमान बने रहने के लिए, RAG (inference समय पर अपडेट की गई जानकारी प्रदान करना) मॉडल के weights को संपादित करने से अधिक व्यावहारिक बना रहता है।

संबंधित अवधारणाएँ

← सभी शब्द
← Knowledge Cutoff Knowledge Graph →