4 月 29 日在加州法院提起的 7 起诉讼指控,OpenAI 本来可以阻止加拿大历史上最致命的大规模枪击事件之一 —— 发生在不列颠哥伦比亚省 Tumbler Ridge 镇的一起校园枪击案,Tumbler Ridge 是一座 2000 人左右的偏远矿业小镇。据这些诉讼以及 Ars Technica 援引的 WSJ 内部人爆料,OpenAI 内部的安全团队早在枪击发生 8 个多月前,就已将该枪手的 ChatGPT 账户标记为「现实世界中可信的枪支暴力威胁」。OpenAI 管理层否决了安全团队建议向警方通报的做法,理由是「该用户的隐私,以及警方上门可能造成的压力,大于暴力发生的风险」。该枪手的账户被停用。诉讼称,OpenAI 之后告诉这名枪手:可以换一个邮箱再次注册回到 ChatGPT。当地警方此前已立有该枪手的卷宗,且曾从其家中收走过枪支。诉讼由律师 Jay Edelson 领头,代表 6 个遇害者家庭,以及一名女儿仍在重症监护室中的母亲。Sam Altman 上周公开道歉。
程序上的决定 —— 否决安全团队 —— 才是真正在操作层面重要的部分。多数大型 AI 公司都有某种版本的内部 trust-and-safety 流水线,用来标记滥用或带有威胁的 prompts;问题在于这些标记之后会被怎么处理。OpenAI 本应作为既定政策,在「可信威胁」标记上通报警方;但本案中,安全团队的升级被更高层以「用户隐私」为由推翻,且没有任何反向制衡流程来确保这一决定经得起回头审视。「告诉用户如何注册新账号」这一细节最具杀伤力 —— 它意味着「停用」被当作了「客户体验事件」处理,而不是「威胁管理事件」处理,客户支持工作流在底层标记仍然存在的情况下,照常运转。流程设计很要紧:一个只能停掉单个账户、却没法跨邮箱、IP、支付方式与行为指纹去停掉「用户级归属」的标记,不是安全控制 —— 那只是一道 UX 减速带。
这一组诉讼在加州提起是有战略考量的。Edelson 告诉 Ars,他的目标是让 OpenAI 在「自家地盘上、由同侪组成的陪审团」面前受审,而加州的诉讼正是要取代一起加拿大诉讼 —— 在那起诉讼中,OpenAI 本预计会以「管辖权」抗辩,这是 Edelson 所谓「公司想把与 ChatGPT 致死有关的诉讼拖到今年 IPO 之后」战略的一部分。IPO 时机重要,是因为原告律师们通常会在公司冲刺上市的时间窗口里设计案件,以最大化披露压力。无论各项请求的最终胜负如何,OpenAI 必将在 discovery 阶段被要求披露:内部安全团队的标记、管理层否决「可信威胁升级」的次数、以及那条对被标记账户仍然正常运转的客户支持工作流。再叠加我们本届会话早些时候报道过的 Musk 诉 Altman 案,以及 Anthropic 拒绝签下、OpenAI 接走的那些 Pentagon 合同,OpenAI 在IPO 之前的法律披露面,异乎寻常地宽。
对 builders,三件具体事情。第一,如果你做的 AI 产品里有 trust-and-safety 这块功能,把你的升级流水线「写成代码」来记录,每一级 override 都生成可审计的痕迹。来自管理层的口头 override 在 deposition 中活不下来;带工单、写明理由的 override 才能。第二,「停用账户」本身不构成安全控制 —— 除非它跟一个能穿越「换邮箱重新注册」的用户级归属绑在一起。把威胁标记同行为指纹、支付工具、IP,以及你的服务条款允许你保留的任何其他标识符绑定起来 —— 否则「停用」只是表演。第三,更难的那条路,是 Anthropic 正在试的:对那些你「无法落实安全控制」的合同与用例,直接拒绝,并接受相应的商业代价。OpenAI 正因「过度优先用户隐私、低估安全」而被起诉;留给行业其他人的开放问题是:在「为安全而压低用户隐私优先级」与「直接拒绝该用例」之间,哪一种政策能挺过下一轮诉讼。
