Zubnet AIसीखेंWiki › मॉडल कार्ड
सुरक्षा

मॉडल कार्ड

इसे भी कहा जाता है: मॉडल दस्तावेज़ीकरण, डेटा शीट
एक मानकीकृत दस्तावेज़ जो मशीन लर्निंग मॉडल के इच्छित उपयोग, प्रदर्शन विशेषताओं, प्रशिक्षण डेटा, सीमाओं, और नैतिक विचारों का वर्णन करता है। Mitchell et al. (2019) द्वारा प्रस्तुत, मॉडल कार्ड पारदर्शिता बढ़ाने और उपयोगकर्ताओं को सूचित निर्णय लेने में मदद करने का लक्ष्य रखते हैं कि कोई मॉडल उनके उपयोग के मामले के लिए उपयुक्त है या नहीं।

यह क्यों मायने रखता है

मॉडल कार्ड AI के न्यूट्रिशन लेबल हैं। उनके बिना, आप एक मॉडल का अंधेरे में उपयोग कर रहे हैं — आप नहीं जानते कि इसे किस डेटा पर प्रशिक्षित किया गया, यह किस पर अच्छा और खराब प्रदर्शन करता है, या यह किन समूहों को नुकसान पहुँचा सकता है। जैसे-जैसे AI विनियमन बढ़ता है (EU AI Act दस्तावेज़ीकरण की आवश्यकता करता है), मॉडल कार्ड सर्वोत्तम अभ्यास से कानूनी आवश्यकता की ओर बढ़ रहे हैं।

गहन अध्ययन

मॉडल कार्ड में आमतौर पर शामिल होता है: मॉडल विवरण (आर्किटेक्चर, संस्करण, तिथि), इच्छित उपयोग (मॉडल किसके लिए डिज़ाइन किया गया है और इसे किसके लिए उपयोग नहीं किया जाना चाहिए), प्रशिक्षण डेटा (प्रशिक्षण डेटासेट का विवरण, ज्ञात पूर्वाग्रह सहित), प्रदर्शन मेट्रिक्स (प्रासंगिक उपसमूहों द्वारा विभाजित), सीमाएँ (ज्ञात विफलता मोड, edge cases), और नैतिक विचार (संभावित नुकसान, शमन रणनीतियाँ)।

व्यवहार में

Hugging Face ने अपने Hub पर सभी मॉडलों के लिए उन्हें आवश्यक बनाकर मॉडल कार्ड को लोकप्रिय बनाया। गुणवत्ता व्यापक रूप से भिन्न होती है — कुछ विस्तृत तकनीकी दस्तावेज़ हैं, अन्य औपचारिक प्लेसहोल्डर। सबसे अच्छे मॉडल कार्ड में प्रति-समूह प्रदर्शन विश्लेषण शामिल होता है (क्या मॉडल विभिन्न भाषाओं, जनसांख्यिकी, या डोमेन के लिए समान रूप से अच्छा काम करता है?), विफलता मामलों के ठोस उदाहरण, और मार्केटिंग भाषा के बजाय सीमाओं का ईमानदार मूल्यांकन।

डेटा कार्ड और सिस्टम कार्ड

अवधारणा मॉडलों से आगे बढ़ती है: डेटा कार्ड डेटासेट का दस्तावेज़ीकरण करते हैं (संग्रह कार्यप्रणाली, एनोटेशन प्रक्रिया, ज्ञात पूर्वाग्रह), और सिस्टम कार्ड पूरे AI सिस्टम का दस्तावेज़ीकरण करते हैं (मॉडल + पोस्ट-प्रोसेसिंग + guardrails + डिप्लॉयमेंट संदर्भ)। Anthropic Claude रिलीज़ के लिए सिस्टम कार्ड प्रकाशित करता है। ये व्यापक दस्तावेज़ वह जानकारी कैप्चर करते हैं जो अकेले मॉडल कार्ड चूक जाते हैं — एक मॉडल अलगाव में सुरक्षित हो सकता है लेकिन कुछ tool-use क्षमताओं के साथ या content filters के बिना तैनात किए जाने पर खतरनाक हो सकता है।

संबंधित अवधारणाएँ

← सभी शब्द
← मॉडल रिग्रेशन (Regression) →
ESC