4 月 29 日在加州法院提起的 7 起訴訟指控,OpenAI 本來可以阻止加拿大歷史上最致命的大規模槍擊事件之一 —— 發生在卑詩省 Tumbler Ridge 鎮的一起校園槍擊案,Tumbler Ridge 是一座 2000 人左右的偏遠礦業小鎮。據這些訴訟以及 Ars Technica 引述的 WSJ 內部人爆料,OpenAI 內部的安全團隊早在槍擊發生 8 個多月前,就已將該槍手的 ChatGPT 帳戶標記為「現實世界中可信的槍枝暴力威脅」。OpenAI 管理層否決了安全團隊建議向警方通報的作法,理由是「該使用者的隱私,以及警方上門可能造成的壓力,大於暴力發生的風險」。該槍手的帳戶被停用。訴訟稱,OpenAI 之後告訴這名槍手:可以換一個郵箱再次註冊回到 ChatGPT。當地警方此前已立有該槍手的卷宗,且曾從其家中收走過槍枝。訴訟由律師 Jay Edelson 領頭,代表 6 個遇害者家庭,以及一名女兒仍在重症監護室中的母親。Sam Altman 上週公開道歉。
程序上的決定 —— 否決安全團隊 —— 才是真正在操作層面重要的部分。多數大型 AI 公司都有某種版本的內部 trust-and-safety 流水線,用來標記濫用或帶有威脅的 prompts;問題在於這些標記之後會被怎麼處理。OpenAI 本應作為既定政策,在「可信威脅」標記上通報警方;但本案中,安全團隊的升級被更高層以「使用者隱私」為由推翻,且沒有任何反向制衡流程來確保這一決定經得起回頭審視。「告訴使用者如何註冊新帳號」這一細節最具殺傷力 —— 它意味著「停用」被當作了「客戶體驗事件」處理,而不是「威脅管理事件」處理,客戶支援工作流在底層標記仍然存在的情況下,照常運轉。流程設計很要緊:一個只能停掉單個帳戶、卻沒法跨郵箱、IP、支付方式與行為指紋去停掉「使用者級歸屬」的標記,不是安全控制 —— 那只是一道 UX 減速丘。
這一組訴訟在加州提起是有戰略考量的。Edelson 告訴 Ars,他的目標是讓 OpenAI 在「自家地盤上、由同儕組成的陪審團」面前受審,而加州的訴訟正是要取代一起加拿大訴訟 —— 在那起訴訟中,OpenAI 本預計會以「管轄權」抗辯,這是 Edelson 所謂「公司想把與 ChatGPT 致死有關的訴訟拖到今年 IPO 之後」策略的一部分。IPO 時機重要,是因為原告律師們通常會在公司衝刺上市的時間窗口裡設計案件,以最大化揭露壓力。無論各項請求的最終勝負如何,OpenAI 必將在 discovery 階段被要求揭露:內部安全團隊的標記、管理層否決「可信威脅升級」的次數、以及那條對被標記帳戶仍然正常運轉的客戶支援工作流。再疊加我們本屆會話稍早報導過的 Musk 訴 Altman 案,以及 Anthropic 拒絕簽下、OpenAI 接走的那些 Pentagon 合約,OpenAI 在IPO 之前的法律揭露面,異乎尋常地寬。
對 builders,三件具體事情。第一,如果你做的 AI 產品裡有 trust-and-safety 這塊功能,把你的升級流水線「寫成程式碼」來記錄,每一級 override 都生成可稽核的痕跡。來自管理層的口頭 override 在 deposition 中活不下來;帶工單、寫明理由的 override 才能。第二,「停用帳戶」本身不構成安全控制 —— 除非它跟一個能穿越「換郵箱重新註冊」的使用者級歸屬綁在一起。把威脅標記同行為指紋、支付工具、IP,以及你的服務條款允許你保留的任何其他識別碼綁定起來 —— 否則「停用」只是表演。第三,更難的那條路,是 Anthropic 正在試的:對那些你「無法落實安全控制」的合約與用例,直接拒絕,並接受相應的商業代價。OpenAI 正因「過度優先使用者隱私、低估安全」而被起訴;留給業界其他人的開放問題是:在「為安全而壓低使用者隱私優先級」與「直接拒絕該用例」之間,哪一種政策能挺過下一輪訴訟。
