तकनीक नियमों से तेज़ी से आगे बढ़ रही है। कंपनियाँ अपने एआई उत्पादों को स्वास्थ्य देखभाल, अपराध न्याय और वित्त में न्यूनतम नियंत्रण के साथ प्रस्तुत कर रही हैं। शासन एक प्रतिक्रिया उत्पन्न कर सकने वाली खराब तरीके से टूट जाने वाली चीज़ के पहले सीमा निर्धारित करने की कोशिश है जो पूरे क्षेत्र को पीछे धकेल सकता है।
AI governance यह तय करने का गन्दा, आवश्यक काम है कि कौन क्या बना सकता है, चीज़ें ग़लत होने पर कौन ज़िम्मेदार है, और एक शोध सफलता और इसकी अरबों लोगों के जीवन में तैनाती के बीच कौन से guardrails मौजूद हैं। यह कई स्तरों पर एक साथ संचालित होता है: अंतर्राष्ट्रीय समझौते (Bletchley घोषणा, G7 Hiroshima Process), राष्ट्रीय कानून (EU AI Act, चीन के Generative AI के लिए Interim Measures), उद्योग स्व-विनियमन (Anthropic की Responsible Scaling Policy, Google के AI Principles), और आंतरिक corporate governance (नैतिकता समीक्षा बोर्ड, red teams, deployment checklists)। इनमें से कोई भी स्तर अलगाव में अच्छी तरह काम नहीं करता, और उनके बीच interactions एक governance परिदृश्य बनाते हैं जो वास्तव में navigate करना कठिन है।
EU AI Act, जिसने 2025 से शुरू होकर चरणों में प्रवर्तन शुरू किया, दुनिया में सबसे comprehensive AI-विशिष्ट कानून है। यह AI सिस्टमों को जोखिम स्तर के आधार पर classify करता है: अस्वीकार्य (पूरी तरह से प्रतिबंधित, जैसे social scoring), उच्च-जोखिम (conformity assessments, documentation आवश्यकताओं, और मानव निगरानी mandates के अधीन), और सीमित/न्यूनतम जोखिम (हल्के दायित्व)। दृष्टिकोण व्यवस्थित लेकिन जटिल है — सामान्य-उद्देश्य AI मॉडल बनाने वाली कंपनियाँ "GPAI" प्रावधानों के तहत एक अलग नियमों के set का सामना करती हैं, जिसमें transparency आवश्यकताएँ और, सबसे शक्तिशाली मॉडलों के लिए, adversarial testing और incident reporting दायित्व शामिल हैं। संयुक्त राज्य अमेरिका, इसके विपरीत, ने एक sector-specific दृष्टिकोण लिया है: चिकित्सा devices में AI के लिए FDA मार्गदर्शन, एक स्वैच्छिक मानक के रूप में NIST का AI Risk Management Framework, और राज्य कानूनों का एक patchwork। चीन ने deepfakes, recommendation algorithms, और generative AI पर लक्षित विनियमों के साथ तेज़ी से कदम उठाया है, हर एक विशिष्ट registration और सामग्री आवश्यकताओं के साथ। विश्व स्तर पर संचालित कंपनियों के लिए, अनुपालन का अर्थ है इन सभी को एक साथ navigate करना, और नियम हमेशा एक दूसरे से सहमत नहीं होते।
संगठनों के अंदर, AI governance का अर्थ एक नैतिकता बयान प्रकाशित करने से अधिक है। जो कंपनियाँ इसे अच्छी तरह करती हैं उनके पास concrete mechanisms हैं: pre-deployment समीक्षा प्रक्रियाएँ जो एक मॉडल ship होने से पहले सुरक्षा टीमों से sign-off की आवश्यकता होती हैं, red-team exercises जहाँ आंतरिक adversaries launch से पहले सिस्टमों को तोड़ने की कोशिश करते हैं, मॉडल cards और सिस्टम documentation जो एक मॉडल की क्षमताओं, सीमाओं, और ज्ञात failure modes को track करते हैं, और जब चीज़ें production में ग़लत होती हैं तो incident response योजनाएँ। जो कंपनियाँ इसे खराब तरीके से करती हैं वे governance को एक communications अभ्यास के रूप में मानती हैं — उनकी website पर एक page जो सिद्धांतों को सूचीबद्ध करता है जिन्हें उनकी इंजीनियरिंग टीमों ने कभी नहीं पढ़ा। अंतर आम तौर पर org chart में दिखाई देता है: यदि सुरक्षा टीम उत्पाद टीम को रिपोर्ट करती है, तो governance तब हारता है जब यह shipping deadlines के साथ टकराता है। यदि यह स्वतंत्र रूप से रिपोर्ट करता है, तो इसके पास लड़ने का मौका है।
AI उद्योग के self-regulatory प्रयास विचारशील लोगों के बीच वास्तविक असहमति का एक स्रोत हैं। समर्थक concrete परिणामों की ओर इशारा करते हैं: Anthropic की Responsible Scaling Policy क्षमता thresholds को परिभाषित करती है जो मॉडलों के अधिक शक्तिशाली होने पर तेज़ी से कड़ी सुरक्षा आवश्यकताओं को trigger करते हैं। OpenAI का Preparedness Framework तैनाती से पहले विशिष्ट मूल्यांकनों के लिए प्रतिबद्ध है। Frontier Model Forum सुरक्षा शोध साझा करने के लिए प्रमुख labs को एक साथ लाता है। आलोचक प्रति-तर्क देते हैं कि ये प्रतिबद्धताएँ स्वैच्छिक, स्व-मूल्यांकित, और routinely प्रतिस्पर्धात्मक दबाव के अधीन हैं। जब OpenAI ने 2024 में अपनी Superalignment टीम को भंग किया, तो इसने self-governance की नाजुकता को प्रदर्शित किया जब यह commercial उद्देश्यों के साथ टकराता है। Honest मूल्यांकन यह है कि self-regulation ने वास्तव में उपयोगी सुरक्षा practices उत्पन्न की हैं, लेकिन यह अपने आप में अपर्याप्त है — विशेष रूप से उन जोखिमों के लिए जो कंपनी के उपयोगकर्ता आधार के बाहर के लोगों को प्रभावित करते हैं।
कई मौलिक governance प्रश्न वास्तव में अनसुलझे रहते हैं। क्या फ्रंटियर AI मॉडलों को सरकारी licensing की आवश्यकता होनी चाहिए, pharmaceuticals या nuclear तकनीक के समान? आप open-source मॉडलों को कैसे regulate करते हैं जिन्हें, एक बार जारी होने के बाद, recall नहीं किया जा सकता? जब एक AI सिस्टम हानि पहुँचाता है तो कौन उत्तरदायी है — मॉडल developer, वह कंपनी जिसने इसे तैनात किया, या वह उपयोगकर्ता जिसने इसे prompt किया? आप उन AI सिस्टमों पर नियम कैसे लागू करते हैं जिनकी क्षमताएँ उनके निर्माताओं के लिए भी पूरी तरह से enumerate करना कठिन हैं? और अंतर्राष्ट्रीय स्तर पर, आप एक race to the bottom को कैसे रोकते हैं जहाँ कंपनियाँ और शोधकर्ता सबसे हल्के विनियमन वाले अधिकार क्षेत्र में relocate होते हैं? ये बयानबाज़ी प्रश्न नहीं हैं। ये वास्तविक परिणामों के साथ सक्रिय नीति बहसें हैं, और उत्तर आकार देंगे कि क्या AI governance एक functional सिस्टम बनती है या एक paper compliance का अभ्यास।