Stanford का नवीनतम AI Index एक चिंताजनक असंबंध दर्ज करता है: जबकि AI के अंदरूनी विशेषज्ञ तैनाती आगे बढ़ा रहे हैं, नौकरी के विस्थापन और आर्थिक व्यवधान के बारे में सार्वजनिक चिंता बढ़ती जा रही है। रिपोर्ट में स्वास्थ्य सेवा, रोजगार, और आर्थिक स्थिरता के बारे में बढ़ती चिंताएं दिखाई गई हैं क्योंकि AI सिस्टम अधिक सक्षम बनते जा रहे हैं। यह हमारी अप्रैल की कवरेज का अनुसरण करता है जिसमें AI निगरानी पर भरोसा ऐतिहासिक निम्न स्तर पर दिखाया गया था, जो सुझाता है कि निर्माताओं और उपयोगकर्ताओं के बीच की खाई कम नहीं हो रही है।

विश्वास संकट सार्वजनिक राय सर्वेक्षणों से कहीं गहरा है। UC San Diego के नए अनुसंधान से पता चलता है कि वैज्ञानिक अभ्यासकर्ता भी—जो तकनीकी रूप से सबसे परिष्कृत AI उपयोगकर्ताओं में से हैं—उच्च जोखिम वाले भौतिक कार्यों में AI की तैनाती के बारे में गहरे संदेह में हैं। न्यूक्लियर फ्यूजन से लेकर प्राइमेट कॉग्निशन तक विभिन्न क्षेत्रों के वैज्ञानिकों ने तीन महत्वपूर्ण बाधाएं बताईं: प्रयोगात्मक सेटअप AI त्रुटियों के लिए बहुत जोखिम भरे हैं, बाधित वातावरण जो AI की प्रभावशीलता को सीमित करते हैं, और AI की अक्षमता मानवीय निहित ज्ञान से मेल खाने में।

यह भौतिक संसार की झिझक डिजिटल वातावरण में AI तैनात करने की दौड़ के साथ तेज विरोधाभास बनाती है। जबकि TrustModel.ai के Karl Mehta का तर्क है कि हम भरोसे की बुनियादी ढांचे के बिना AI तैनात करके प्रारंभिक इंटरनेट की सुरक्षा गलतियों को दोहरा रहे हैं, वैज्ञानिक उल्टा दृष्टिकोण अपना रहे हैं—मूल रूप से तैनाती से इनकार कर रहे हैं जब तक कि भरोसे को मापा नहीं जा सकता। उनके प्रस्तावित AI अनुप्रयोग प्रत्यक्ष नियंत्रण के बजाय पृष्ठभूमि निगरानी और ज्ञान संगठन पर केंद्रित हैं, जो आगे एक अधिक सावधान मार्ग सुझाता है।

AI सिस्टम बनाने वाले डेवलपर्स के लिए, यह अनुसंधान डिजिटल तैनाती की सुविधा और भौतिक संसार की अपनाने की बाधाओं के बीच एक महत्वपूर्ण अंतर उजागर करता है। भविष्य महत्वपूर्ण कार्यों में मानवीय विशेषज्ञता को AI से बदलने का नहीं है—यह AI का बुद्धिमान बुनियादी ढांचे के रूप में सेवा करने का है जो उच्च जोखिम वाले वातावरण में मानवीय निर्णय को बढ़ाता है न कि बदलता है।