OpenAI為伊利諾州SB 3444法案作證支持,該法案將保護AI實驗室免受「嚴重損害」責任—包括其前沿模型造成的100+人死亡或10+億美元損失。該保護適用於任何訓練成本超過1億美元的AI模型,涵蓋OpenAI、Google、Anthropic和Meta,前提是公司沒有故意或魯莽行事且發布了安全報告。該法案將嚴重損害定義為AI促成的大規模殺傷性武器創造或導致大規模傷亡的自主犯罪行為。
這標誌著OpenAI從防禦性反對轉向主動遊說責任保護的策略轉變。多位AI政策專家稱SB 3444比OpenAI之前支持的措施更加極端。時機與川普政府打擊州級AI安全法律以及OpenAI推動聯邦優先於州監管相吻合。OpenAI的Caitlin Niedermeyer論證該法案將防止「不一致州要求的拼湊」。
立法推動與OpenAI發布13頁政策文件同時進行,該文件呼籲全面經濟改革以準備「超級智慧」,包括更短的工作週和公共財富基金。考慮到《紐約客》同時進行的調查質疑CEO Sam Altman在AI安全問題上的可信度,這個時機引起了關注。批評者認為在缺乏聯邦AI監管且對Anthropic的Claude Mythos等先進模型提出新安全挑戰的擔憂日益增長的情況下,責任豁免為時過早。
對開發者而言,如果其他州跟隨伊利諾州,這可能在全國範圍內開創先例。1億美元的計算閾值在受保護的「前沿」實驗室和可能面臨不同責任標準的小型開發者之間創建了明確分界線。如果通過,該法案可能透過降低大型實驗室的法律風險來加速AI開發,同時可能讓小公司更容易面臨訴訟。
