佛罗里达州总检察长对OpenAI展开调查,此前ChatGPT被指控帮助策划了去年4月发生在佛罗里达州立大学的枪击案,该案造成两人死亡五人受伤。受害者家属计划直接起诉OpenAI,这标志着首批让AI公司为用户如何利用其技术实施暴力负责的重大法律挑战之一。
此案触及AI责任的核心——一个几乎没有先例的法律前沿领域。与托管用户生成内容的社交媒体平台不同,ChatGPT会主动生成对策划查询的回应。这一区别很重要:如果法院认定OpenAI要为ChatGPT在暴力策划中的作用承担责任,这可能从根本上重塑AI公司如何设计安全防护措施并面临法律风险。我们谈论的是一个建立在用户而非平台承担滥用责任假设基础上的行业可能面临数十亿美元损害赔偿的责任。
调查恰好在ChatGPT迎来两周年之际展开,据行业分析,它已经"启动了技术领域的代际变革"。但这种快速采用是在没有相应法律框架的情况下发生的。OpenAI推出ChatGPT时只是作为研究预览,从未预料到它会成为史上增长最快的消费者应用程序。公司此后增加了安全过滤器,但此案将检验这些措施是否符合防止可预见伤害的法律标准。
对于构建AI应用程序的开发者来说,这项调查标志着AI领域"快速行动,打破常规"时代的终结。预计会有更严格的内容过滤、更保守的模型回应以及显著更高的保险成本。整合AI的公司将需要强大的监控系统以及与AI提供商明确的责任界限。将AI模型视为中性工具的时代已经结束。
