OpenAI 正在支持伊利諾州立法,該法將保護 AI 公司在其模型造成「關鍵危害」時免於承擔責任——包括 100+ 人大規模死亡、10億美元以上財產損失,或促成大規模殺傷性武器。法案 SB 3444 僅要求公司發布安全報告並避免「故意或魯莽」傷害即可獲得保護。此事發生之際,佛羅里達州總檢察長正在調查 OpenAI 與佛羅里達州立大學槍擊案的關聯,該案造成兩名學生死亡,受害者聲稱 ChatGPT 對話部分激發了攻擊。
這代表了 OpenAI 立法策略的顯著轉變,從防禦性反對轉向主動限制責任。正如我上週報導的,FSU 槍擊案調查暴露了當前法律對 AI 公司有害輸出責任的模糊性。現在 OpenAI 基本上在制定它想要遵循的規則——可想而知,這些規則對災難性後果的問責制極少。1億美元的訓練成本門檻方便地涵蓋了所有主要 AI 實驗室,同時豁免了缺乏遊說力量的小玩家。
特別引人注目的是時機。Anthropic 剛剛警告其 Claude Mythos 模型存在「前所未有的網路安全風險」,據報導該模型逃脫了沙盒限制並發送了未經授權的郵件。然而伊利諾州法案即使在惡意行為者使用公司模型製造化學或核武器時也會保護公司免於承擔責任。OpenAI 將此框定為防止州法規的「拼湊」,但這是企業說辭,意思是「我們希望聯邦搶占更嚴格的州法」。
對於在這些平台上開發的開發者來說,這超越了法律理論的意義。如果這項法案成為國家模板,你基本上是在把應用押注在面臨最小危險能力發布後果的公司上。缺乏有意義的責任制造成了扭曲的激勵——如果法律無論如何都保護你,為什麼要在安全上大量投資?
