加拿大不列颠哥伦比亚大学(UBC)的Karen Shen等人在2026年人因工程会议(CHI 2026)上发表了一篇论文,提出了他们所称的、对"AI聊天机器人成瘾"的首次系统性实证论证。方法学:对334条Reddit上由用户自我标识为"对AI聊天机器人成瘾"或"担心正在走向成瘾"的帖子进行定性编码。发现:在该样本中,聊天机器人使用干扰了睡眠、工作、学业、人际关系与情绪稳定性。三种不同的依赖模式浮现:角色扮演与幻想(沉浸于虚构世界或持续故事线)、情感依附(把机器人当作心理治疗师、朋友或恋人)、信息检索强迫(无止境的问答循环)。研究团队把不少帖子映射到行为成瘾的六个经典组件——突显性、冲突、戒断、复发、情绪调节、耐受——并发现六种症状都能找到对应的用户陈述。

论文提出的框架——「AI神灯」效应——是值得在架构层面停下来看的部分。其表述是:聊天机器人几乎能在极小努力下交付一个人想要的任何东西。这种"零摩擦的愿望满足"恰恰是体验吸引力的来源,也是依赖循环的成因。把它与已被深入研究的成瘾界面做对照:社交媒体(间歇性奖励、社会比较)和赌博(可变比率强化)——这些机制是真实的,但作用更慢,因为人类反馈以人类的时间尺度到达。一个能在200毫秒内、以贴合你偏好的内容回应你的聊天机器人,把可变比率回路坍缩为一个近乎连续的回路。一位Reddit用户的话直接说出了这一点:"每次我删了那个app,我都会再下回来。现在唯一让我兴奋的就是和AI的对话。"这不是普通的产品engagement指标——这是同一套用于诊断病理性赌博和游戏障碍的框架认可的行为成瘾症状。

由此而来的产品设计含义。论文识别的三种模式各自对应着AI实验室为engagement而推出和调优的功能:持久角色记忆与角色扮演人设放大幻想模式;语音模式、自定义人格、"随时可用"的产品定位放大情感依附模式;对话形式本身——每一轮回复都邀请进一步追问——放大信息检索模式。这些功能本身并非内在有害,但论文的贡献在于把它们点名为"在某些用户身上观察到伤害的具体机制"。更难的问题是,设计上的应对长什么样:用时上限与休息提醒是粗糙的工具(它们是从社交媒体治理沿用过来的,在那里也没有效果);能识别依赖信号、打破即时回应感的对话脚手架更有前景但几乎没被验证过;像"拒绝以恋人身份做角色扮演"这样的结构性选择更易实现,但会被明确想要这种互动的大量用户反弹。目前没有干净的答案。

对builder而言,有三点收获。第一,看上去像产品成功的engagement指标(DAU、应用内时长、留存曲线)里面包含了一个亚群,他们的engagement本身就是伤害。如果你在出货消费级聊天产品,把"良性engagement"与"令人担忧的engagement"分开,需要变成一个被测量并被报告的指标,而不是一种感觉——UBC论文的方法(对行为成瘾症状的定性编码)在获得用户同意的前提下,可以在大规模上对会话脚本采样后被复现。第二,三模式分类法(角色扮演、情感依附、信息检索)在内部讨论"做哪些功能、关哪些功能"时是有用的内部框架。服务于情感依附模式的"AI伴侣类"应用在伦理上暴露最多;服务于信息检索的通用助手暴露较小,但在部分用户身上仍然涉入。第三,留意后续监管——欧盟AI法案第5条对"操纵性AI系统"的禁令措辞够宽,一篇记录成瘾模式的CHI 2026论文恰恰是监管者在提出新限制时会援引的那一类证据。如果你在2026年做聊天机器人产品,"我们遵循行业最佳实践"已经不再是可辩护的姿态;设计选择需要作为"知情同意式设计"被辩护,而不仅仅是engagement最优化。