The New Yorker ने 13 अप्रैल को Ronan Farrow और Andrew Marantz की लिखी 16,000 शब्दों की संयुक्त प्रोफ़ाइल प्रकाशित की, जो पूछती है कि क्या सैम ऑल्टमैन पर भविष्य के मामले में भरोसा किया जा सकता है। लेख 18 महीनों की रिपोर्टिंग, स्वयं ऑल्टमैन के साथ लगभग एक दर्जन साक्षात्कारों, और 100 से अधिक ऐसे स्रोतों पर बना है जिन्हें उनके कार्य-करने के तरीक़े की प्रत्यक्ष जानकारी है। सबसे उभरा हुआ उद्धरण OpenAI के एक बोर्ड-सदस्य का है: ऑल्टमैन "सत्य से अप्रतिबद्ध" हैं, उनमें "लोगों को ख़ुश करने, किसी भी बातचीत में पसंद किए जाने की प्रबल इच्छा" है, जिसके साथ है "किसी को धोखा देने से उत्पन्न हो सकने वाले परिणामों के प्रति लगभग सोशियोपैथिक असंवेदनशीलता"। यह नवम्बर 2023 के बोर्ड-संघर्ष के बाद ऑल्टमैन की विश्वसनीयता पर सबसे सारगर्भित सार्वजनिक सवाल है, और यह दस्तावेज़ों के साथ आता है, माहौल के सहारे नहीं।

Farrow और Marantz कहते हैं कि उन्होंने आंतरिक मेमो, 200 से अधिक पन्नों के दस्तावेज़ देखे, और अतीत तथा वर्तमान के भीतरी लोगों से बात की। OpenAI ने प्रतिक्रिया में जो रास्ता चुना, वह ध्यान देने योग्य है। समूचे लेख पर आपत्ति करने के बजाय, कम्पनी ने दो राज्य अटॉर्नी जनरलों को पत्र भेजा, जिसमें कहा गया कि वह कम्पनी के संस्थापन तथा नवम्बर 2023 की ऑल्टमैन-बर्ख़ास्तगी व पुनर्नियुक्ति के बारे में लेख के विवरण पर भरोसा करती है। एलन मस्क के वकील OpenAI के विरुद्ध चल रहे मुक़दमे में अब इसी लेख को उद्धृत कर रहे हैं। यह एक असामान्य मुद्रा है: एक कम्पनी किसी शत्रुतापूर्ण प्रोफ़ाइल को एक न्यायिक दाख़िले में वास्तव में मान्यता देती है, जो दृढ़ता से सुझाता है कि लेख का तथ्यात्मक केंद्र, उसके कथात्मक फ़्रेम की तुलना में, खण्डन करने में अधिक कठिन है। आप उस कहानी को उद्धृत नहीं करते जिसे आप मनगढ़न्त मानते हैं।

बिल्डर्स के लिए यह कोई टैब्लॉइड-क्षण नहीं है जिसे स्क्रॉल कर के छोड़ दिया जाए। यह आज तक दुनिया की सबसे परिणामी AI अवसंरचना कम्पनी चला रहे व्यक्ति की शासन-चूकों, संस्थापन-मिथकों और व्यवहार-प्रतिमानों का सबसे विस्तृत सार्वजनिक रिकॉर्ड है। अगर आप OpenAI API पर बना रहे हैं, तो आप व्यावहारिक जोख़िम पहले से जानते हैं: रेट-लिमिट की अस्थिरता, चुपचाप होती मॉडल डिप्रिकेशन, मूल्य-परिवर्तन, अपारदर्शी रोडमैप। Farrow का लेख जो जोड़ता है वह है उस गहरे सवाल पर वज़न: OpenAI के सार्वजनिक संवाद का कितना हिस्सा अक्षरशः लिया जाए? सुरक्षा-प्रतिबद्धताएँ, रिलीज़-समय-रेखाएँ, कम्प्यूट-क्षमता के दावे, ग़ैर-लाभकारी मिशन की तस्वीर। लेख इस सवाल का सीधा उत्तर नहीं देता। यह ऑल्टमैन के किसी भी अकेले कथन को बिना पुष्टि के स्वीकार करने की साक्ष्य-सीमा ऊँची कर देता है।

जो कोई OpenAI पर अवसंरचना के रूप में दाँव लगा रहा है, उसके लिए कार्रवाई-योग्य कदम वही है जो शायद आपको पहले ही उठा लेना चाहिए था: अपने मॉडल-प्रदाता के लिए एकल-स्रोत पर मत निर्भर रहो। मल्टी-प्रोवाइडर एब्स्ट्रक्शन परतें, Anthropic, Google, और ओपन-वेट्स प्रदाताओं की ओर फ़ॉलबैक रास्ते, और अपने वास्तविक वर्कलोड पर मॉडलों का असली हेड-टू-हेड परीक्षण, यह पहले ही सही इंजीनियरिंग रुख़ था। Farrow का लेख बस शासन-जोख़िम को सैद्धांतिक से ठोस बना देता है। यह भी देखने लायक़ है कि OpenAI के भीतर आगे क्या होता है: बोर्ड-संरचना, सुरक्षा-टीम की स्वतंत्रता, और अगली कुछ रिलीज़ों में व्यावसायिक दबाव बनाम सुरक्षा-अनुशासन का अनुपात। ये बातें आपके रोडमैप के लिए, ऑल्टमैन की किसी भी अकेली सार्वजनिक उपस्थिति से अधिक वज़न रखेंगी। लेख पढ़िए, उसके अनुसार अपना भरोसा आरक्षित करिए, और अपनी एब्स्ट्रक्शन परतों को ईमानदार रखिए।