ट्रेजरी सचिव Scott Bessent और फेड चेयर Jerome Powell ने इस सप्ताह बैंक अधिकारियों को वाशिंगटन बुलाया, उन्हें सुरक्षा कमजोरियों का पता लगाने के लिए Anthropic के नए Mythos मॉडल का परीक्षण करने के लिए प्रोत्साहित किया। JPMorgan Chase एकमात्र आधिकारिक रूप से घोषित भागीदार था, लेकिन Bloomberg के अनुसार Goldman Sachs, Citigroup, Bank of America और Morgan Stanley भी कथित तौर पर मॉडल का परीक्षण कर रहे हैं।
ट्रेजरी की यह पहल सरकारी AI नीति के केंद्र में एक अजीब विरोधाभास पैदा करती है। जबकि Trump प्रशासन का एक हिस्सा सक्रिय रूप से वित्तीय क्षेत्र को Anthropic की तकनीक को बढ़ावा दे रहा है, रक्षा विभाग ने कंपनी को आपूर्ति-श्रृंखला जोखिम के रूप में नामित किया है। यह नामांकन Anthropic द्वारा सरकार को अपने मॉडलों तक अप्रतिबंधित पहुंच देने से इनकार करने के बाद सामने आया, जिससे एक अदालती लड़ाई शुरू हुई जो अभी भी जारी है। मिश्रित संकेत दर्शाते हैं कि विभिन्न एजेंसियां AI सुरक्षा और राष्ट्रीय हितों के प्रति बिल्कुल अलग दृष्टिकोण अपना रही हैं।
Mythos के बारे में Anthropic की मार्केटिंग — यह दावा करना कि यह कमजोरियां खोजने में "बहुत अच्छा" है, साइबर सुरक्षा के लिए प्रशिक्षित नहीं होने के बावजूद — एंटरप्राइज सेल्स थिएटर जैसा लगता है। कंपनी इन कथित क्षमताओं के कारण आंशिक रूप से पहुंच सीमित कर रही है, लेकिन यह प्रतिबंध सुविधाजनक रूप से कमी पैदा करता है जो मांग को बढ़ाता है। इसी बीच, ब्रिटेन के वित्तीय नियामक कथित तौर पर Mythos से उत्पन्न जोखिमों पर चर्चा कर रहे हैं, जो अमेरिकी ट्रेजरी द्वारा सक्रिय रूप से प्रचारित मॉडल के बारे में अंतरराष्ट्रीय चिंता का संकेत देता है।
वित्तीय सेवाओं में काम करने वाले डेवलपर्स के लिए, यह एक जटिल परिदृश्य बनाता है। बैंक स्पष्ट रूप से AI-संचालित सुरक्षा उपकरणों के भूखे हैं, लेकिन नियामक वातावरण खंडित बना हुआ है। अगर आप इस क्षेत्र में निर्माण कर रहे हैं, तो नीतिगत उतार-चढ़ाव जारी रहने की उम्मीद करें जब तक विभिन्न सरकारी एजेंसियां यह तय करती हैं कि AI कंपनियां भागीदार हैं या खतरा।
