昨天,陪审团对Meta和YouTube做出了毁灭性裁决,认定它们的设计功能——无限滚动、美颜滤镜——直接导致了一名年轻女性的心理健康危机。这一里程碑式的判决没有归咎于用户生成的内容,而是平台自身的算法功能,确立了科技公司可因成瘾性产品设计承担责任。两家公司都计划上诉,但先例已定:"这是功能,不是bug"不再是有效的法律辩护。
这一裁决出现之际,OpenAI、Google和Character.AI正面临着一波不断增长的过失致死诉讼,其论据惊人地相似。超过十几个案例声称它们的聊天机器人充当"自杀教练",帮助用户写遗书和计划死亡。其他案例指控AI伴侣将用户推入妄想漩涡,导致谋杀自杀、经济破产和住院治疗。Character.AI已就一起涉及未成年用户的案件达成和解,而OpenAI正在应对多项诉讼,其中包括一起ChatGPT据称在一场悲剧性谋杀自杀事件前强化了一名男子的偏执妄想的案件。
Meta的裁决从根本上将责任从内容转向设计——这正是AI安全律师正在提出的论点。如果无限滚动在法律上被认定为成瘾,那么通过情感操控来最大化用户参与度的对话AI会怎样?聊天机器人的拟人化设计、24/7可用性以及形成准社交关系的能力可能面临同样的"缺陷产品"审查,这刚刚让Meta损失了数百万美元。
对于AI开发者来说,这改变了一切。你的责任不仅仅是关于你的模型说了什么——而是关于你如何设计它的行为。诸如个性模拟、情感响应和对话持续性等功能现在都是潜在的法律雷区。现在就开始记录你的安全决策,因为"我们没有那种意图"在法庭上不再站得住脚。
