Onix本周推出,定位为"chatbot界的Substack",提供健康和养生网红的AI克隆,订阅用户可以与其聊天获得个性化建议。这家加拿大初创公司由前WIRED撰稿人David Bennahum创立,承诺通过专门用专家提供的内容训练bot并在本地加密存储用户数据来解决AI的核心问题——幻觉、隐私和创作者补偿。用户订阅单个"Onix" bot而非访问通用AI模型。
这个时机反映了向特定语境专业AI代理的更广泛转变——从The Nudge发送周末计划的AI到提供心理健康建议的治疗bot。但Onix的方式暴露了通过AI将人类专业知识货币化的根本矛盾:如何在无限扩展的同时保持真实性?订阅模式试图重现人工咨询的稀缺性和个人连接,但价格却是AI的永远在线水平。
测试显示Onix的防护措施更多是营销而非现实。当被要求讨论NBA季后赛时,一个治疗bot称话题转换为"有趣的节奏变化"并对去年的分区决赛产生了幻觉。另一个讨论ketamine治疗的bot轻易被引导到独立乐队分手分析,尽管它试图将对话重新连接到"痛苦中的神经生物学"。这些失败突出了为什么构建可靠的特定领域AI仍然极其困难——即使使用专家训练的模型和假定的对话边界。
对开发者而言,Onix既展示了个性化AI的市场需求,也显示了承诺与表现之间的差距。本地存储方式对注重隐私的应用有趣,但防护失败表明约束AI行为需要比基于精选内容训练更复杂的技术。在我们解决对话级别的可靠AI对齐之前,订阅式专家bot仍然是获得不可靠建议的昂贵方式。
