Sam Altman ने शुक्रवार को औपचारिक माफी जारी की, जिसे ब्रिटिश कोलंबिया के Premier David Eby द्वारा X पर पोस्ट किया गया, Tumbler Ridge समुदाय को संबोधित करते हुए, फरवरी में स्थानीय स्कूल में हुई सामूहिक गोलीबारी के बाद। 23 अप्रैल की तारीख वाले पत्र में, Altman ने लिखा, "मुझे गहरा खेद है कि हमने जून में प्रतिबंधित खाते के बारे में कानून प्रवर्तन को सतर्क नहीं किया।" पुलिस ने Jesse Van Rootselaar को शूटर के रूप में पहचाना; Van Rootselaar के अपनी जान लेने से पहले आठ लोग मारे गए थे। रिपोर्टिंग के अनुसार, OpenAI कर्मचारियों ने पिछले महीनों में आंतरिक रूप से खाते को फ़्लैग किया था, जिसे कंपनी ने ChatGPT के साथ परेशान करने वाली बातचीत के रूप में वर्णित किया है। खाते को जून 2025 में प्रतिबंधित किया गया था। फरवरी की घटना से पहले कनाडाई या अमेरिकी कानून प्रवर्तन तक कोई सतर्कता नहीं पहुंची। Altman ने Eby और Tumbler Ridge के मेयर Darryl Krakowka से मिलने के बाद मार्च की शुरुआत में माफी लिखने के लिए प्रतिबद्ध किया था, फिर इसे प्रकाशित करने से पहले कई सप्ताह प्रतीक्षा की। Eby की प्रतिक्रिया, जो भी X पर पोस्ट की गई, ने माफी को "आवश्यक, फिर भी Tumbler Ridge के परिवारों के लिए की गई तबाही के लिए घोरतम अपर्याप्त" के रूप में चित्रित किया।
प्रक्रियात्मक प्रश्न परिचालनात्मक है: आंतरिक फ़्लैग और कानून-प्रवर्तन वृद्धि के बीच का अंतर क्या है, और यह यहाँ क्यों खुला। प्रमुख AI प्रदाताओं के पास सामग्री-संयम पाइपलाइनें हैं जो फ़्लैग किए गए खातों को trust-and-safety टीमों के माध्यम से रूट करती हैं। खाते पर प्रतिबंध मानक स्वचालित प्रतिक्रिया है। पुलिस को सूचना देना एक अलग, मैनुअल निर्णय है जिसके लिए आम तौर पर आसन्न-हिंसा-धमकी की गंभीरता का निर्धारण, क्षेत्राधिकार लागू होने और कानूनी सलाह की मंजूरी की आवश्यकता होती है। सार्वजनिक रूप से समझा जाने वाला OpenAI नीति ढांचा कानून प्रवर्तन को सतर्क करने का विकल्प शामिल करता है जब धमकियाँ विश्वसनीय और विशिष्ट हों, लेकिन मानदंड पारदर्शी नहीं हैं और वास्तविक सीमा Tumbler Ridge खाते से मिलने वाली से अधिक प्रतीत हुई। तथ्य के बाद, कंपनी ने स्वीकार किया है कि निर्णय गलत था। उस स्वीकारोक्ति के AI प्रदाताओं द्वारा आगे संचालित होने की अपेक्षा कैसे की जाएगी इसके लिए सीधे परिणाम हैं, विशेष रूप से उन क्षेत्राधिकारों में जहाँ धमकी निगरानी दायित्वों का कानून बनाया जा रहा है।
कानूनी परिदृश्य तेज़ी से बदल रहा है। कनाडा और यूरोपीय संघ दोनों 2024 और 2025 में हाई-प्रोफ़ाइल घटनाओं के बाद ऑनलाइन प्लेटफार्मों के लिए अनिवार्य धमकी रिपोर्टिंग ढांचों की ओर बढ़े हैं। Tumbler Ridge मामला लगभग निश्चित रूप से कनाडाई-विशिष्ट कानून को तेज़ करेगा, और BC के पास 2017 फेंटेनिल सार्वजनिक स्वास्थ्य आपातकाल घोषणा के बाद त्वरित नीति प्रतिक्रिया का अपना ट्रैक रिकॉर्ड है। AI प्रदाताओं के लिए, फ़्लैग की गई बातचीत कब कानूनी रूप से अनिवार्य वृद्धि में पार करती है का प्रश्न ज़्यादातर आंतरिक निर्णय पर छोड़ दिया गया है। Altman की माफी प्रभावी रूप से स्वीकार करती है कि इस मामले में आंतरिक निर्णय अपर्याप्त साबित हुआ। प्रतिक्रिया स्वैच्छिक नीति कसना है, औपचारिक विनियमन है, या दोनों है, यह एक निकट-अवधि का राजनीतिक प्रश्न है जो आगामी महीनों में ओटावा, विक्टोरिया, और ब्रुसेल्स में निभाएगा। अमेरिकी नीति वातावरण अधिक अनुमोदक है लेकिन ध्यान से देख रहा है, यह देखते हुए कि ChatGPT जिन उपयोगकर्ता मात्राओं की सेवा अब कर रहा है, उन पर समान घटनाएँ सांख्यिकीय रूप से अपरिहार्य हैं।
जनता के साथ बातचीत करने वाले किसी भी AI उत्पाद के builders के लिए, परिचालनात्मक निहितार्थ यह है कि "खाते पर प्रतिबंध" अब विश्वसनीय-धमकी बातचीत के लिए पर्याप्त प्रतिक्रिया नहीं है। बढ़ाने में विफलता की लागत अब दिखाई दे रही है। यदि आप एक संयम पाइपलाइन संचालित करते हैं, तो उस सीमा को दस्तावेज़ करें जिस पर बातचीत कानून-प्रवर्तन का विषय बन जाती है, अपने कर्मचारियों को इस पर प्रशिक्षित करें, और उन मामलों का ऑडिट करें जहाँ फ़्लैग की गई सामग्री वृद्धि में परिणत नहीं हुई। Anthropic, Google, OpenAI, और बाकी उद्योग के पास समान यांत्रिकी हैं; प्रश्न यह है कि क्या प्रकाशित नीति और परिचालनात्मक अभ्यास मेल खाते हैं। Tumbler Ridge समुदाय जो प्राप्त किया उससे बेहतर के योग्य था, और उद्योग के लिए व्यापक प्रश्न यह है कि क्या 2022 और 2023 में डिज़ाइन की गई संयम पाइपलाइनें, अरबों बातचीतों के लिए स्केल की गई, उस सबसे खराब-केस अल्पसंख्यक का पता लगा और उस पर कार्य कर सकती हैं जो किसी भी पर्याप्त बड़े उपयोगकर्ता आधार में दिखाई देता है। ईमानदार उत्तर यह है कि वर्तमान सिस्टम उस दायित्व के लिए डिज़ाइन नहीं किए गए थे। उन्हें होने की आवश्यकता होगी।
