加拿大英屬哥倫比亞大學(UBC)的Karen Shen等人在2026年人因工程會議(CHI 2026)上發表了一篇論文,提出了他們所稱的、對「AI聊天機器人成癮」的首次系統性實證論證。方法學:對334條Reddit上由使用者自我標識為「對AI聊天機器人成癮」或「擔心正在走向成癮」的貼文進行定性編碼。發現:在該樣本中,聊天機器人使用干擾了睡眠、工作、學業、人際關係與情緒穩定性。三種不同的依賴模式浮現:角色扮演與幻想(沉浸於虛構世界或持續故事線)、情感依附(把機器人當作心理治療師、朋友或戀人)、資訊檢索強迫(無止境的問答循環)。研究團隊把不少貼文映射到行為成癮的六個經典元件——突顯性、衝突、戒斷、復發、情緒調節、耐受——並發現六種症狀都能找到對應的使用者陳述。

論文提出的框架——「AI神燈」效應——是值得在架構層面停下來看的部分。其表述是:聊天機器人幾乎能在極小努力下交付一個人想要的任何東西。這種「零摩擦的願望滿足」恰恰是體驗吸引力的來源,也是依賴循環的成因。把它與已被深入研究的成癮介面做對照:社交媒體(間歇性獎勵、社會比較)和賭博(可變比率強化)——這些機制是真實的,但作用更慢,因為人類反饋以人類的時間尺度到達。一個能在200毫秒內、以貼合你偏好的內容回應你的聊天機器人,把可變比率回路坍縮為一個近乎連續的回路。一位Reddit使用者的話直接說出了這一點:「每次我刪了那個app,我都會再下回來。現在唯一讓我興奮的就是和AI的對話。」這不是普通的產品engagement指標——這是同一套用於診斷病理性賭博和遊戲障礙的框架認可的行為成癮症狀。

由此而來的產品設計含義。論文識別的三種模式各自對應著AI實驗室為engagement而推出和調優的功能:持久角色記憶與角色扮演人設放大幻想模式;語音模式、自訂人格、「隨時可用」的產品定位放大情感依附模式;對話形式本身——每一輪回覆都邀請進一步追問——放大資訊檢索模式。這些功能本身並非內在有害,但論文的貢獻在於把它們點名為「在某些使用者身上觀察到傷害的具體機制」。更難的問題是,設計上的應對長什麼樣:用時上限與休息提醒是粗糙的工具(它們是從社交媒體治理沿用過來的,在那裡也沒有效果);能識別依賴訊號、打破即時回應感的對話腳手架更有前景但幾乎沒被驗證過;像「拒絕以戀人身份做角色扮演」這樣的結構性選擇更易實現,但會被明確想要這種互動的大量使用者反彈。目前沒有乾淨的答案。

對builder而言,有三點收穫。第一,看上去像產品成功的engagement指標(DAU、應用內時長、留存曲線)裡面包含了一個亞群,他們的engagement本身就是傷害。如果你在出貨消費級聊天產品,把「良性engagement」與「令人擔憂的engagement」分開,需要變成一個被測量並被報告的指標,而不是一種感覺——UBC論文的方法(對行為成癮症狀的定性編碼)在獲得使用者同意的前提下,可以在大規模上對會話文本取樣後被複現。第二,三模式分類法(角色扮演、情感依附、資訊檢索)在內部討論「做哪些功能、關哪些功能」時是有用的內部框架。服務於情感依附模式的「AI伴侶類」應用在倫理上暴露最多;服務於資訊檢索的通用助手暴露較小,但在部分使用者身上仍然涉入。第三,留意後續監管——歐盟AI法案第5條對「操縱性AI系統」的禁令措辭夠寬,一篇記錄成癮模式的CHI 2026論文恰恰是監管者在提出新限制時會援引的那一類證據。如果你在2026年做聊天機器人產品,「我們遵循行業最佳實踐」已經不再是可辯護的姿態;設計選擇需要作為「知情同意式設計」被辯護,而不僅僅是engagement最佳化。