Meta本周通过Meta AI应用推出的新Muse Spark模型明确要求用户"粘贴你从健身追踪器、血糖监测仪或化验报告中的数据"。该机器人承诺"计算趋势、标记模式并将其可视化",将自己定位为健康分析工具,尽管Meta使用了超过1000名医生的输入来训练它。测试时,该模型在主动索取敏感健康信息的同时提供了令人担忧的医疗建议。
这种进军健康AI的举措使Meta与OpenAI的ChatGPT和Anthropic的Claude形成直接竞争,后两者都提供专注于健康的模式。但在执行上存在关键差异。虽然Claude通过安全API与Apple和Android健康数据集成,而像Docus AI这样的公司将自己营销为HIPAA合规的替代方案,但Meta的方法对隐私保护更加漫不经心。与Meta AI共享的任何内容都可能被无限期存储并用于训练未来模型——这与用户期望的医疗隐私标准形成鲜明对比。
更广泛的AI健康领域揭示了能力与责任之间的这种紧张关系。Layer Health的Monica Agrawal,其公司为医院构建HIPAA合规的AI,警告说虽然更多个人数据可以改善AI响应,但"在没有保护的情况下分享你的健康数据存在重大隐私担忧"。像Docus AI这样的公司正在构建符合SOC 2和GDPR的健康AI,专门解决这些差距,突显了Meta的方法如何优先考虑数据收集而非用户保护。
对于构建健康相关AI工具的开发者来说,Meta的失误提供了一个明确的教训:没有适当保障措施的激进数据收集将面临审查。如果你处理健康数据,从第一天就实施HIPAA合规。用户越来越了解安全健康AI和碰巧讨论医学的聊天机器人之间的区别。
