OpenAI支持伊利諾州SB 3444法案,該法案將保護AI實驗室在其模型被用於造成大規模傷亡(100+死亡)或金融災難(10+億美元損失)時免於承擔責任,只要公司發布基本安全報告。Anthropic反對該立法,其政府關係主管Cesar Fernandez稱其為「免罪金牌」,優先考慮透明度而非真正的問責制。分歧的核心在於當惡意行為者將AI模型武器化時——比如使用AI製造殺死數百人的生物武器——AI開發者是否應該承擔責任。
這場爭鬥揭示了領先AI公司在全國範圍內擴大遊說努力時如何處理監管的根本分歧。OpenAI已從對責任法案採取防禦姿態轉向積極推廣那些限制其風險敞口的法案,這是他們所稱的跨州「協調」監管方法的一部分。法案中1億美元的訓練成本門檻將涵蓋所有前沿實驗室——OpenAI、Anthropic、Google、Meta和xAI——但只有在他們能證明沒有「故意或魯莽」造成傷害的情況下。
這個時機並非巧合。這緊隨我之前關於Anthropic與五角大廈爭議及其推動更嚴格AI治理框架的報導。雖然政策專家表示SB 3444通過的可能性很小,但它正在為AI公司希望如何構建責任制定先例。Anthropic正在直接遊說參議員Bill Cunningham以終止該法案或大幅修改,表明他們將此視為未來AI監管的關鍵戰場。
對於開發者和AI用戶來說,這場辯論將塑造在生產系統中構建什麼樣的保護措施,而不是透過法律框架處理什麼。如果OpenAI的方法獲勝,預計會更多強調合規文件,而較少關注真正防止濫用的技術安全措施。
