OpenAI Illinois विधेयक SB 3444 का समर्थन कर रहा है जो AI प्रयोगशालाओं को देयता से बचाएगा जब उनके models का उपयोग सामूहिक हताहत (100+ मौतें) या वित्तीय आपदाएं ($1+ अरब नुकसान) पैदा करने के लिए किया जाता है, बशर्ते कंपनियां बुनियादी सुरक्षा रिपोर्ट प्रकाशित करें। Anthropic इस कानून का विरोध कर रहा है, सरकारी संबंधों के मुखिया Cesar Fernandez इसे "जेल से मुक्त होने का कार्ड" कह रहे हैं जो वास्तविक जवाबदेही के बजाय पारदर्शिता को प्राथमिकता देता है। असहमति इस बात पर केंद्रित है कि क्या AI डेवलपर्स को जिम्मेदार होना चाहिए जब बुरे अभिनेता उनके models को हथियार बनाते हैं — जैसे AI का उपयोग करके जैविक हथियार बनाना जो सैकड़ों को मार देते हैं।
यह लड़ाई एक मौलिक विभाजन को दर्शाती है कि कैसे अग्रणी AI कंपनियां राष्ट्रव्यापी लॉबिंग प्रयासों को बढ़ाते समय नियंत्रण का दृष्टिकोण अपनाना चाहती हैं। OpenAI देयता विधेयकों के खिलाफ बचाव खेलने से सक्रिय रूप से उन्हें बढ़ावा देने की दिशा में बदल गया है जो उनके जोखिम को सीमित करते हैं, जो वे राज्यों में "समन्वित" नियामक दृष्टिकोण कहते हैं। विधेयक में $100 मिलियन प्रशिक्षण लागत की सीमा सभी फ्रंटियर labs को पकड़ेगी — OpenAI, Anthropic, Google, Meta, और xAI — लेकिन केवल तभी अगर वे साबित कर सकें कि उन्होंने "जानबूझकर या लापरवाही से" नुकसान नहीं पहुंचाया।
यह समय संयोग नहीं है। यह Anthropic के Pentagon विवादों और सख्त AI शासन ढांचे के लिए उनके धक्का पर मेरी पिछली रिपोर्टिंग का अनुसरण करता है। जबकि नीति विशेषज्ञ कहते हैं कि SB 3444 के पारित होने की संभावना कम है, यह AI कंपनियां कैसे देयता संरचित करना चाहती हैं इसके लिए precedent स्थापित कर रहा है। Anthropic सीधे तौर पर सीनेटर Bill Cunningham को लॉबी कर रहा है ताकि वह इस विधेयक को मार दे या इसे मूलभूत रूप से संशोधित करे, यह सुझाता है कि वे इसे भविष्य के AI नियंत्रण के लिए एक महत्वपूर्ण युद्धक्षेत्र के रूप में देखते हैं।
डेवलपर्स और AI उपयोगकर्ताओं के लिए, यह बहस आकार देगी कि उत्पादन सिस्टम में कौन से सुरक्षा उपाय बनाए जाते हैं बनाम कानूनी ढांचे के माध्यम से क्या संभाला जाता है। अगर OpenAI का दृष्टिकोण जीतता है, तो अनुपालन दस्तावेज़ीकरण पर अधिक जोर और तकनीकी सुरक्षा उपायों पर कम जोर की अपेक्षा करें जो वास्तव में दुरुपयोग को रोकते हैं।
