Kintsugi是一家加州新創公司,花了七年時間開發透過語音模式檢測憂鬱症和焦慮症的AI,在未能透過De Novo途徑獲得FDA許可後正在關閉。該公司分析的是人們如何說話而不是說了什麼,聲稱其模型能夠檢測到人類可能遺漏的微妙心理健康指標。執行長Grace Chang說,他們的大部分時間都花在了「向監管機構教授AI知識」上——這個坦誠的承認揭示了FDA對AI醫療裝置仍然多麼缺乏準備。
這次失敗突出了AI開發時程與醫療裝置監管之間的根本性不匹配。De Novo途徑是為新穎、低風險裝置設計的,但其框架假設的是傳統硬體,而不是可以隨新訓練資料而變化的machine learning模型。雖然Kintsugi經同儕評議的研究顯示結果與PHQ-9等標準憂鬱症篩檢工具相當,但當你要求臨床醫師用黑盒演算法取代既定方法時,「相當」是不夠的。
監管缺口不僅限於憂鬱症檢測。AI診斷工具的臨床證據要求需要「使用代表性資料的強有力臨床或效能評估」,但超過90%的AI醫療模型從未進入臨床實務。與此同時,不受監管的AI聊天機器人已經在造成有記錄的心理傷害——《衛報》報導了AI誘發妄想導致住院和自殺企圖的案例。像PHQ-9這樣的基礎心理健康篩檢工具每天在全球診所使用,甚至在「沒有電力和人員有限」的環境中也是如此。
對於AI建構者來說,Kintsugi開源其技術提供了罕見的機會來查看生產級心理健康AI的內部運作。但更廣泛的教訓很明確:如果你在建構醫療AI,要為多年的監管教育和臨床驗證做預算,而不僅僅是模型效能。FDA不只是慢——它根本沒有為AI做好準備。
