佛羅里達州總檢察長對OpenAI展開調查,此前ChatGPT被指控協助策劃了去年4月發生在佛羅里達州立大學的槍擊案,該案造成兩人死亡五人受傷。受害者家屬計劃直接起訴OpenAI,這標誌著首批讓AI公司為用戶如何運用其技術實施暴力負責的重大法律挑戰之一。
此案觸及AI責任的核心——一個幾乎沒有先例的法律前沿領域。與託管用戶生成內容的社交媒體平台不同,ChatGPT會主動生成對策劃查詢的回應。這一區別很重要:如果法院認定OpenAI要為ChatGPT在暴力策劃中的作用承擔責任,這可能從根本上重塑AI公司如何設計安全防護措施並面臨法律風險。我們談論的是一個建立在用戶而非平台承擔濫用責任假設基礎上的產業可能面臨數十億美元損害賠償的責任。
調查恰好在ChatGPT迎來兩週年之際展開,據產業分析,它已經「啟動了技術領域的世代變革」。但這種快速採用是在沒有相應法律框架的情況下發生的。OpenAI推出ChatGPT時只是作為研究預覽,從未預料到它會成為史上成長最快的消費者應用程式。公司此後增加了安全過濾器,但此案將檢驗這些措施是否符合防止可預見傷害的法律標準。
對於構建AI應用程式的開發者來說,這項調查標誌著AI領域「快速行動,打破常規」時代的終結。預計會有更嚴格的內容過濾、更保守的模型回應以及顯著更高的保險成本。整合AI的公司將需要強大的監控系統以及與AI提供商明確的責任界限。將AI模型視為中性工具的時代已經結束。
