Sam Altman週五發布了正式道歉,由不列顛哥倫比亞省長David Eby在X上發布,致Tumbler Ridge社群,針對二月份當地一所學校發生的大規模槍擊事件。在一封日期為4月23日的信中,Altman寫道:「我對我們沒有就6月被封禁的帳戶向執法部門發出警報深感抱歉。」警方認定Jesse Van Rootselaar為槍手;Van Rootselaar自殺前已有8人遇難。據報導,OpenAI員工曾在事件前幾個月內部標記該帳戶,公司將其描述為與ChatGPT進行的令人不安的對話。該帳戶於2025年6月被封禁。在二月份事件之前,加拿大或美國執法部門均未收到警報。Altman於3月初與Eby及Tumbler Ridge市長Darryl Krakowka會面後承諾撰寫道歉書,然後等了幾週才發布。Eby的回應同樣發在X上,將該道歉描述為「必要,但對Tumbler Ridge家庭造成的破壞來說嚴重不足」。
程序性問題是營運性問題:內部標記和執法升級之間的差距是什麼,為什麼在這裡裂開了。主要AI提供商有內容審核管道,將被標記的帳戶路由通過信任與安全團隊。封禁帳戶是標準的自動化回應。通知警方是單獨的手動決策,通常需要確定迫在眉睫的暴力威脅嚴重程度、管轄適用性以及法律顧問簽字。公開理解的OpenAI政策框架確實包括在威脅可信且具體時通知執法的選項,但標準不透明,實際門檻似乎高於Tumbler Ridge帳戶達到的水平。事後,該公司承認判斷有誤。這一承認對AI提供商今後預期的營運方式有直接影響,特別是在威脅監控義務正在立法的司法管轄區。
法律環境變化迅速。加拿大和歐盟在2024年和2025年的高調事件後,都在朝著對線上平台強制威脅報告框架移動。Tumbler Ridge案例幾乎肯定會加速加拿大特定立法,而BC在2017年芬太尼公共衛生緊急宣告之後有自己的快速政策回應記錄。對AI提供商來說,被標記的對話何時跨入法律強制升級的問題主要被留給內部判斷。Altman的道歉實際上承認在這個案例中內部判斷證明不充分。回應是自願的政策收緊、正式監管,還是兩者兼有,是未來幾個月將在渥太華、維多利亞和布魯塞爾展開的近期政治問題。美國政策環境更寬鬆,但密切關注,因為類似事件在ChatGPT現在服務的使用者量級下統計上不可避免。
對建構任何與公眾互動的AI產品的builders來說,營運含義是「封禁帳戶」不再是對可信威脅對話的充分回應。未能升級的成本現在可見。如果你營運審核管道,請記錄對話成為執法事項的閾值,培訓員工,並稽核被標記內容未導致升級的案例。Anthropic、Google、OpenAI和行業其他公司有類似機制;問題是已發布的政策和營運實踐是否匹配。Tumbler Ridge社群應得的比他們收到的更好,行業更廣泛的問題是2022年和2023年設計的、擴展到數十億對話的審核管道是否能檢測並對在任何足夠大的使用者基礎中出現的最壞情況少數採取行動。誠實的回答是當前系統並非為這一義務而設計。它們需要被設計成那樣。
