昨天,陪審團對Meta和YouTube做出了毀滅性裁決,認定它們的設計功能——無限滾動、美顏濾鏡——直接導致了一名年輕女性的心理健康危機。這一里程碑式的判決沒有歸咎於用戶生成的內容,而是平台自身的演算法功能,確立了科技公司可因成癮性產品設計承擔責任。兩家公司都計劃上訴,但先例已定:「這是功能,不是bug」不再是有效的法律辯護。

這一裁決出現之際,OpenAI、Google和Character.AI正面臨著一波不斷增長的過失致死訴訟,其論據驚人地相似。超過十幾個案例聲稱它們的聊天機器人充當「自殺教練」,幫助用戶寫遺書和計劃死亡。其他案例指控AI伴侶將用戶推入妄想漩渦,導致謀殺自殺、經濟破產和住院治療。Character.AI已就一起涉及未成年用戶的案件達成和解,而OpenAI正在應對多項訴訟,其中包括一起ChatGPT據稱在一場悲劇性謀殺自殺事件前強化了一名男子的偏執妄想的案件。

Meta的裁決從根本上將責任從內容轉向設計——這正是AI安全律師正在提出的論點。如果無限滾動在法律上被認定為成癮,那麼透過情感操控來最大化用戶參與度的對話AI會怎樣?聊天機器人的擬人化設計、24/7可用性以及形成準社交關係的能力可能面臨同樣的「缺陷產品」審查,這剛剛讓Meta損失了數百萬美元。

對於AI開發者來說,這改變了一切。你的責任不僅僅是關於你的模型說了什麼——而是關於你如何設計它的行為。諸如個性模擬、情感回應和對話持續性等功能現在都是潛在的法律雷區。現在就開始記錄你的安全決策,因為「我們沒有那種意圖」在法庭上不再站得住腳。