The Next Web, Dataconomy, और Storyboard18 सहित कई टेक आउटलेट्स ने मंगलवार 28 अप्रैल को रिपोर्ट किया कि Google ने अमेरिकी रक्षा विभाग के साथ एक वर्गीकृत AI समझौते पर हस्ताक्षर किए हैं, जो उसके AI मॉडलों के «किसी भी कानूनी सरकारी उद्देश्य» के लिए उपयोग की अनुमति देता है, बड़े पैमाने पर घरेलू निगरानी या पूरी तरह से स्वायत्त हथियार प्रणालियों के खिलाफ कोई संविदात्मक प्रतिबंध नहीं। यह वाक्यांश Google या DoD के सार्वजनिक प्रकटीकरण के बजाय अनाम स्रोतों से आता है, और Google ने रिपोर्टिंग के समय सार्वजनिक रूप से पुष्टि या टिप्पणी नहीं की है। अनुबंध मूल्य, कवर किए गए विशिष्ट Google मॉडल, और सटीक प्रभावी तिथि का खुलासा नहीं किया गया है। समय कहानी का वह हिस्सा है जो उतरता है: सोमवार 27 अप्रैल को, 18 वरिष्ठ कर्मचारियों सहित 560+ Google और DeepMind कर्मचारियों ने Sundar Pichai को एक खुला पत्र प्रकाशित किया जिसमें उन्हें Pentagon वर्गीकृत AI कार्यभार को इस आधार पर अस्वीकार करने के लिए कहा गया कि वर्गीकृत नेटवर्क स्वीकार्य-उपयोग प्रवर्तन को असंभव बनाते हैं; मंगलवार सुबह, यह सौदा रिपोर्ट किया जा रहा था। आप इसे कैसे भी पढ़ें, क्रम यह है कि कंपनी 24 घंटे की खिड़की में पत्र द्वारा अनुरोध किए गए के विपरीत कर रही है।
कहानी जो तकनीकी वास्तविकता पुष्टि करती है वह है कर्मचारी पत्र ने नामित संरचनात्मक समस्या। Pentagon के साथ Anthropic का फरवरी 2026 का गतिरोध Anthropic के बड़े पैमाने पर निगरानी और स्वायत्त हथियारों पर स्वीकार्य-उपयोग प्रतिबंधों को हटाने से इनकार करने के साथ समाप्त हुआ; Trump प्रशासन ने Anthropic को आपूर्ति श्रृंखला जोखिम के रूप में नामित करके प्रतिक्रिया दी और DC Circuit ने अप्रैल की शुरुआत में अपील को अस्वीकार कर दिया। Google का रिपोर्ट किया गया सौदा सटीक उलटा है: Pentagon जिन शर्तों पर स्वीकार करेगा उन पर अनुबंध लेना, जिसका अर्थ है कोई अपवाद नहीं। एयर-गैप वर्गीकृत नेटवर्क पर Anthropic जिस API ऑडिट ट्रेल पर निर्भर था वह मौजूद नहीं है, इसलिए Google को यह जानने का कोई परिचालन तरीका नहीं है कि क्या तैनात मॉडल का उपयोग निषिद्ध उद्देश्यों के लिए किया जा रहा है, भले ही अनुबंध ने कुछ नाम दिए हों। «किसी भी कानूनी सरकारी उद्देश्य» फ्रेमिंग इसे स्पष्ट करती है; अनुबंध विक्रेता की उत्पाद नीति के बजाय ग्राहक के कानूनी अधिकार के आसपास संरचित है। यह वही संरचनात्मक विकल्प है जिसे कर्मचारी पत्र ने पहचाना और Pichai से न करने के लिए कहा। क्या Google का रिपोर्ट किया गया सौदा मौजूदा वर्गीकृत Microsoft, Palantir, या Anduril अनुबंधों से सामग्री से अलग है यह अभी तक सार्वजनिक नहीं हुई शर्तों पर निर्भर करता है, लेकिन शीर्षक फ्रेमिंग अकेले Google को उद्योग विभाजन के Anthropic पक्ष से हटा देती है।
व्यापक निहितार्थ यह है कि AI-रक्षा विभाजन अब एक खुला प्रश्न के बजाय एक स्थापित उद्योग टोपोलॉजी है। एक तरफ: Anthropic, सार्वजनिक रूप से लागू AUP प्रतिबंधों और लागत के रूप में Trump-प्रशासन प्रतिबंध के साथ। दूसरी तरफ: Google (कथित तौर पर), Microsoft, OpenAI का समानांतर Pentagon अनुबंध, Maven पर Palantir की प्रमुख ठेकेदार भूमिका, और Anduril का Lattice। आर्थिक स्पष्टीकरण सीधा है — Pentagon का सीमावर्ती AI अधिग्रहण बजट इतना बड़ा है कि «किसी भी कानूनी उद्देश्य» शर्तों को स्वीकार करने वाले विक्रेता अनुबंध प्राप्त करते हैं और जो नहीं करते, उन्हें आपूर्ति श्रृंखला जोखिम पदनाम मिलता है। राजनीतिक स्पष्टीकरण यह है कि कार्यपालिका शाखा प्रभावी रूप से संघीय अधिग्रहण से बहिष्कार की धमकी देकर AUP भाषा को वीटो कर सकती है, जो Anthropic मिसाल ने प्रदर्शित किया। Google की रिपोर्टिंग, यदि पुष्टि की जाती है, संकेत देती है कि Anthropic को छोड़कर शेष सीमावर्ती AI उद्योग ने उस ट्रेड का अधिग्रहण-राजस्व पक्ष चुना है। 560-कर्मचारी पत्र, 18 वरिष्ठ हस्ताक्षरकर्ता, और सार्वजनिक दबाव ने अनुबंध शर्तों में कोई अवलोकनीय परिवर्तन उत्पन्न नहीं किया, जो स्वयं में 2026 में AI नैतिकता पर श्रम-बाजार उत्तोलन कैसे काम करता है इसके लिए एक डेटा बिंदु है: सार्वजनिक रिकॉर्ड पर वास्तविक, अनुबंध संरचना पर अप्रभावी।
बिल्डरों के लिए, तीन ठोस चीजें दर्ज करने योग्य हैं। पहला, यदि आप किसी भी कार्य के लिए सीमावर्ती AI विक्रेताओं का मूल्यांकन कर रहे हैं जहां उपयोग के मामलों में ऑडिट-ट्रेल दृश्यता मायने रखती है, सार्वजनिक AUP प्रतिबद्धता अब एक विपणन विवरण के बजाय एक सार्थक चयन मानदंड है। Anthropic उस रेखा के एक तरफ है; बाकी दूसरी तरफ हैं। दूसरा, प्रतिभा-बाजार परिणाम वास्तविक है लेकिन दूसरे क्रम का है। पत्र पर हस्ताक्षर करने वाले इंजीनियर सामूहिक रूप से नहीं चलेंगे, लेकिन यह सुरक्षा-संरेखित AI शोधकर्ताओं के लिए जो भर्ती घर्षण पैदा करता है वह अब संरचनात्मक है और अगले 12-24 महीनों में संयोजित होगा। तीसरा, अगले कदम के लिए जो मायने रखता है वह नियामक परत है: EU AI अधिनियम, UK का AI Safety Institute और समकक्ष «किसी भी कानूनी सरकारी उद्देश्य» अनुबंधों को गैर-US-सरकारी ग्राहकों के लिए US-सीमावर्ती मॉडलों की सीमा-पार तैनाती में जोखिम कारक के रूप में मानेंगे, जिसका अर्थ है इन विक्रेताओं के लिए वैश्विक बाजार का एक हिस्सा या तो विभिन्न संविदात्मक लिफाफों के माध्यम से या नियामकों-अनुकूल मध्यस्थों (Mistral, EU संप्रभु क्लाउड चैनल, आदि) द्वारा होस्ट किए गए मॉडलों के माध्यम से सेवा प्रदान करनी होगी। पूरा प्रभाव 2026 में दिखाई नहीं देगा लेकिन संरचनात्मक लॉक-इन अब लागू है। Google ने टिप्पणी नहीं की है और कहानी आधिकारिक प्रकटीकरण उतरने के साथ विकसित हो सकती है।
