Sam Altman周五发布了正式道歉,由不列颠哥伦比亚省长David Eby在X上发布,致Tumbler Ridge社区,针对二月份当地一所学校发生的大规模枪击事件。在一封日期为4月23日的信中,Altman写道:"我对我们没有就6月被封禁的账户向执法部门发出警报深感抱歉。"警方认定Jesse Van Rootselaar为枪手;Van Rootselaar自杀前已有8人遇难。据报道,OpenAI员工曾在事件前几个月内部标记该账户,公司将其描述为与ChatGPT进行的令人不安的对话。该账户于2025年6月被封禁。在二月份事件之前,加拿大或美国执法部门均未收到警报。Altman于3月初与Eby及Tumbler Ridge市长Darryl Krakowka会面后承诺撰写道歉书,然后等了几周才发布。Eby的回应同样发在X上,将该道歉描述为"必要,但对Tumbler Ridge家庭造成的破坏来说严重不足"。
程序性问题是运营性问题:内部标记和执法升级之间的差距是什么,为什么在这里裂开了。主要AI提供商有内容审核管道,将被标记的账户路由通过信任与安全团队。封禁账户是标准的自动化响应。通知警方是单独的手动决策,通常需要确定迫在眉睫的暴力威胁严重程度、管辖适用性以及法律顾问签字。公开理解的OpenAI政策框架确实包括在威胁可信且具体时通知执法的选项,但标准不透明,实际门槛似乎高于Tumbler Ridge账户达到的水平。事后,该公司承认判断有误。这一承认对AI提供商今后预期的运营方式有直接影响,特别是在威胁监控义务正在立法的司法管辖区。
法律环境变化迅速。加拿大和欧盟在2024年和2025年的高调事件后,都在朝着对在线平台强制威胁报告框架移动。Tumbler Ridge案例几乎肯定会加速加拿大特定立法,而BC在2017年芬太尼公共卫生紧急宣告之后有自己的快速政策响应记录。对AI提供商来说,被标记的对话何时跨入法律强制升级的问题主要被留给内部判断。Altman的道歉实际上承认在这个案例中内部判断证明不充分。响应是自愿的政策收紧、正式监管,还是两者兼有,是未来几个月将在渥太华、维多利亚和布鲁塞尔展开的近期政治问题。美国政策环境更宽松,但密切关注,因为类似事件在ChatGPT现在服务的用户量级下统计上不可避免。
对构建任何与公众互动的AI产品的builders来说,运营含义是"封禁账户"不再是对可信威胁对话的充分响应。未能升级的成本现在可见。如果你运营审核管道,请记录对话成为执法事项的阈值,培训员工,并审计被标记内容未导致升级的案例。Anthropic、Google、OpenAI和行业其他公司有类似机制;问题是已发布的政策和运营实践是否匹配。Tumbler Ridge社区应得的比他们收到的更好,行业更广泛的问题是2022年和2023年设计的、扩展到数十亿对话的审核管道是否能检测并对在任何足够大的用户基础中出现的最坏情况少数采取行动。诚实的回答是当前系统并非为这一义务而设计。它们需要被设计成那样。
