California court में 29 अप्रैल को दायर सात मुक़दमों में आरोप है कि OpenAI Canada के इतिहास के सबसे घातक mass shootings में से एक को रोक सकती थी — British Columbia के Tumbler Ridge में एक स्कूल shooting, जो 2,000 लोगों का एक ग्रामीण खनन कस्बा है। मुक़दमों और Ars Technica द्वारा उद्धृत WSJ के whistleblower रिपोर्टिंग के अनुसार, OpenAI की internal safety team ने shooter के ChatGPT account को हमले से आठ महीने पहले "वास्तविक दुनिया में बंदूक हिंसा का credible threat" के रूप में flag किया था। OpenAI के leadership ने team की पुलिस को सूचित करने की सिफ़ारिश को ख़ारिज कर दिया, इस तर्क पर कि "user की privacy और पुलिस से मुठभेड़ का संभावित तनाव हिंसा के जोखिमों से अधिक भारी थे।" Shooter का account deactivate कर दिया गया। फिर मुक़दमों के अनुसार, OpenAI ने shooter को बताया कि किसी और email address से sign up करके ChatGPT पर वापस कैसे आ सकते हैं। स्थानीय पुलिस के पास अलग से shooter की file थी और उन्होंने पहले घर से हथियार हटाए थे। मुक़दमों का नेतृत्व वकील Jay Edelson कर रहे हैं और छह मारे गए पीड़ितों के परिवारों, साथ ही एक माँ का प्रतिनिधित्व करते हैं जिसकी बेटी ICU में लड़ रही है। Sam Altman ने पिछले हफ़्ते सार्वजनिक माफ़ी जारी की।

प्रक्रियात्मक निर्णय — safety team को ख़ारिज करना — वही हिस्सा है जो operationally मायने रखता है। अधिकांश बड़ी AI कंपनियों के पास trust-and-safety का कोई न कोई internal pipeline है जो दुर्व्यवहार करने वाले या threat-bearing prompts को flag करता है; सवाल यह है कि उन flags के साथ क्या किया जाता है। OpenAI कथित तौर पर credible-threat flags पर पुलिस को सूचित करती है — यह अपेक्षित नीति है, पर यहां safety team की escalation को user-privacy के आधार पर ऊंचे स्तर पर पलट दिया गया, बिना यह सुनिश्चित करने वाली किसी विरोधी प्रक्रिया के कि निर्णय टिकेगा। "user को नया account बनाने का तरीक़ा बताया" यह विवरण सबसे अधिक नुक़सानदेह है — इसका अर्थ है कि deactivation को threat-management घटना नहीं, बल्कि customer-experience घटना के रूप में निपटाया गया, और underlying flag के बावजूद customer-support workflow सामान्य रूप से चलता रहा। Process design मायने रखता है: एक flag जो एक account disable करता है पर email, IP, payment और behavioral signature के पार user attribution disable नहीं करता, वह safety control नहीं है। वह एक UX speedbump है।

मुक़दमों का यह सेट California में रणनीतिक रूप से दायर हुआ है। Edelson ने Ars को बताया कि लक्ष्य OpenAI को घर के मैदान पर "अपने साथियों की jury" के सामने लाना है, और California filings एक Canadian मुक़दमे को विस्थापित करने के लिए डिज़ाइन किए गए हैं, जिसमें OpenAI से अधिकार-क्षेत्र पर बहस की उम्मीद थी — Edelson ने इसे "OpenAI की इस साल की प्रस्तावित IPO तक ChatGPT-संबंधी मौतों पर मुक़दमों को टालने की रणनीति" का हिस्सा बताया। IPO का timing मायने रखता है क्योंकि वादी वकील आमतौर पर मामलों को इस तरह संरचित करते हैं कि सार्वजनिक offerings की दौड़ में कंपनियों पर disclosure pressure अधिकतम हो। व्यक्तिगत दावों के मेरिट जो भी हों, OpenAI को internal safety-team flags, leadership द्वारा overrule की गई credible-threat escalations की मात्रा, और flagged accounts के साथ engaging जारी रखने वाले customer-support workflow पर discovery का सामना करना होगा। इस सत्र में पहले कवर किए गए Musk v. Altman trial और Anthropic के मना किए OpenAI-Pentagon contracts (दोनों cover किए गए) के साथ मिलकर, OpenAI की pre-IPO legal-disclosure surface असामान्य रूप से व्यापक है।

Builders के लिए, तीन ठोस बातें। पहला, अगर आप trust-and-safety function वाला कोई भी AI product ship करते हैं, तो अपनी escalation pipeline को code की तरह document करें, हर override level एक auditable record पैदा करे। leadership द्वारा verbal overrides depositions में नहीं टिकते; stated rationale के साथ ticketed overrides टिकते हैं। दूसरा, account deactivation safety control नहीं है जब तक कि वह user-level attribution से बंधा न हो जो email re-registration से बच जाए। threat flags को behavioral signature, payment instrument, IP, और किसी भी अन्य identifier से बांधें जिसे आपके TOS आपको रखने की अनुमति देते हैं — अन्यथा deactivation थिएटर है। तीसरा, कठिन pattern वही है जिसे Anthropic test कर रहा है: उन contracts और use cases को मना करें जहां आप safety controls लागू नहीं कर सकते, और commercial लागत स्वीकार करें। OpenAI पर मुक़दमा हो रहा है क्योंकि उसने safety पर user privacy को अधिक प्राथमिकता दी; बाक़ी उद्योग के लिए खुला सवाल यह है कि क्या safety के लिए user privacy को कम-प्राथमिकता देना, या use case को पूरी तरह मना करना, अगले litigation दौर में जो नीति टिकती है — वह कौन सी है।