Kintsugi是一家加州初创公司,花了七年时间开发通过语音模式检测抑郁症和焦虑症的AI,在未能通过De Novo途径获得FDA许可后正在关闭。该公司分析的是人们如何说话而不是说了什么,声称其模型能够检测到人类可能遗漏的微妙心理健康指标。CEO Grace Chang说,他们的大部分时间都花在了"向监管机构教授AI知识"上——这个坦诚的承认揭示了FDA对AI医疗设备仍然多么缺乏准备。

这次失败突出了AI开发时间线与医疗设备监管之间的根本性不匹配。De Novo途径是为新颖、低风险设备设计的,但其框架假设的是传统硬件,而不是可以随新训练数据而变化的machine learning模型。虽然Kintsugi经同行评议的研究显示结果与PHQ-9等标准抑郁症筛查工具相当,但当你要求临床医生用黑盒算法替换既定方法时,"相当"是不够的。

监管缺口不仅限于抑郁症检测。AI诊断工具的临床证据要求需要"使用代表性数据的强有力临床或性能评估",但超过90%的AI医疗模型从未进入临床实践。与此同时,不受监管的AI聊天机器人已经在造成有记录的心理伤害——《卫报》报道了AI诱发妄想导致住院和自杀企图的案例。像PHQ-9这样的基础心理健康筛查工具每天在全球诊所使用,甚至在"没有电力和人员有限"的环境中也是如此。

对于AI构建者来说,Kintsugi开源其技术提供了罕见的机会来查看生产级心理健康AI的内部运作。但更广泛的教训很明确:如果你在构建医疗AI,要为多年的监管教育和临床验证做预算,而不仅仅是模型性能。FDA不只是慢——它根本没有为AI做好准备。