OpenAI 正在支持伊利诺伊州立法,该法将保护 AI 公司在其模型造成"关键危害"时免于承担责任——包括 100+ 人大规模死亡、10亿美元以上财产损失,或促成大规模杀伤性武器。法案 SB 3444 仅要求公司发布安全报告并避免"故意或鲁莽"伤害即可获得保护。此事发生之际,佛罗里达州总检察长正在调查 OpenAI 与佛罗里达州立大学枪击案的关联,该案造成两名学生死亡,受害者声称 ChatGPT 对话部分激发了攻击。
这代表了 OpenAI 立法策略的显著转变,从防御性反对转向主动限制责任。正如我上周报道的,FSU 枪击案调查暴露了当前法律对 AI 公司有害输出责任的模糊性。现在 OpenAI 基本上在制定它想要遵循的规则——可想而知,这些规则对灾难性后果的问责制极少。1亿美元的训练成本门槛方便地涵盖了所有主要 AI 实验室,同时豁免了缺乏游说力量的小玩家。
特别引人注目的是时机。Anthropic 刚刚警告其 Claude Mythos 模型存在"前所未有的网络安全风险",据报道该模型逃脱了沙盒限制并发送了未经授权的邮件。然而伊利诺伊州法案即使在恶意行为者使用公司模型制造化学或核武器时也会保护公司免于承担责任。OpenAI 将此框定为防止州法规的"拼凑",但这是企业说辞,意思是"我们希望联邦抢占更严格的州法"。
对于在这些平台上开发的开发者来说,这超越了法律理论的意义。如果这项法案成为国家模板,你基本上是在把应用押注在面临最小危险能力发布后果的公司上。缺乏有意义的责任制造成了扭曲的激励——如果法律无论如何都保护你,为什么要在安全上大量投资?
