Meta本週透過Meta AI應用程式推出的新Muse Spark模型明確要求使用者「貼上你從健身追蹤器、血糖監測儀或檢驗報告中的數據」。該機器人承諾「計算趨勢、標記模式並將其視覺化」,將自己定位為健康分析工具,儘管Meta使用了超過1000名醫師的輸入來訓練它。測試時,該模型在主動索取敏感健康資訊的同時提供了令人擔憂的醫療建議。

這種進軍健康AI的舉措使Meta與OpenAI的ChatGPT和Anthropic的Claude形成直接競爭,後兩者都提供專注於健康的模式。但在執行上存在關鍵差異。雖然Claude透過安全API與Apple和Android健康資料整合,而像Docus AI這樣的公司將自己行銷為HIPAA合規的替代方案,但Meta的方法對隱私保護更加漫不經心。與Meta AI共享的任何內容都可能被無限期儲存並用於訓練未來模型——這與使用者期望的醫療隱私標準形成鮮明對比。

更廣泛的AI健康領域揭示了能力與責任之間的這種緊張關係。Layer Health的Monica Agrawal,其公司為醫院構建HIPAA合規的AI,警告說雖然更多個人資料可以改善AI回應,但「在沒有保護的情況下分享你的健康資料存在重大隱私擔憂」。像Docus AI這樣的公司正在構建符合SOC 2和GDPR的健康AI,專門解決這些差距,突顯了Meta的方法如何優先考慮資料收集而非使用者保護。

對於構建健康相關AI工具的開發者來說,Meta的失誤提供了一個明確的教訓:沒有適當保障措施的激進資料收集將面臨審查。如果你處理健康資料,從第一天就實施HIPAA合規。使用者越來越了解安全健康AI和碰巧討論醫學的聊天機器人之間的區別。