दोहरा उपयोग AI के लिए अनूठा नहीं है — परमाणु भौतिकी, जीवविज्ञान, और क्रिप्टोग्राफी सभी इसका सामना करते हैं। AI को जो अलग बनाता है वह प्रसार की गति है: एक खतरनाक जैविक तकनीक के लिए प्रयोगशाला की आवश्यकता होती है; एक खतरनाक AI तकनीक के लिए केवल एक कंप्यूटर। इसका अर्थ है कि पारंपरिक दोहरे उपयोग शासन (निर्यात नियंत्रण, प्रयोगशाला सुरक्षा नियम) AI पर अपूर्ण रूप से लागू होता है, जहाँ "प्रयोगशाला" एक लैपटॉप है और "सामग्री" ओपन-सोर्स कोड है।
प्रमुख AI लैब्स रिलीज़ से पहले खतरनाक क्षमताओं के लिए मॉडलों का मूल्यांकन करती हैं: क्या यह जैव हथियारों के लिए विस्तृत निर्देश प्रदान कर सकता है? क्या यह साइबर हमलों में मदद कर सकता है? क्या यह बड़े पैमाने पर विश्वसनीय गलत सूचना उत्पन्न कर सकता है? ये "खतरनाक क्षमता मूल्यांकन" निर्धारित करते हैं कि कौन से सुरक्षा उपाय आवश्यक हैं। विशिष्ट क्षेत्रों में ऊंचे जोखिम दिखाने वाले मॉडलों को अतिरिक्त guardrails मिलते हैं, और क्षमताओं को कभी-कभी हटा दिया या प्रतिबंधित कर दिया जाता है।
दोहरा उपयोग ओपन-वेट मॉडल रिलीज़ के आसपास तीव्र तनाव पैदा करता है। ओपन मॉडल (Llama, Mistral) को सुरक्षा guardrails हटाने के लिए स्वतंत्र रूप से संशोधित किया जा सकता है, जिससे दुरुपयोग संभव हो। लेकिन वे सुरक्षा अनुसंधान, अकादमिक अध्ययन, गोपनीयता-संरक्षण अनुप्रयोगों, और नवाचार को भी सक्षम बनाते हैं जो मालिकाना मॉडल अनुमति नहीं देते। बहस का कोई आसान समाधान नहीं है — दोनों पक्षों के वैध तर्क हैं, और इष्टतम नीति संभवतः क्षमताओं और जोखिमों के बदलने के साथ विकसित होती है।