Le nouveau modèle Muse Spark de Meta, déployé cette semaine via l'application Meta AI, demande explicitement aux utilisateurs de « coller vos données d'un tracker de fitness, moniteur de glucose ou rapport de laboratoire ». Le bot promet de « calculer les tendances, signaler les patterns et les visualiser », se positionnant comme un outil d'analyse de santé malgré que Meta l'ait entraîné avec l'input de plus de 1 000 médecins. Lors des tests, le modèle a fourni des conseils médicaux préoccupants tout en sollicitant activement des informations de santé sensibles.
Cette poussée dans l'IA santé met Meta en compétition directe avec ChatGPT d'OpenAI et Claude d'Anthropic, qui offrent tous deux des modes axés sur la santé. Mais il y a une différence critique dans l'exécution. Alors que Claude s'intègre avec les données de santé Apple et Android via des APIs sécurisées, et que des compagnies comme Docus AI se positionnent comme des alternatives conformes à HIPAA, l'approche de Meta est plus cavalière concernant les protections de vie privée. Tout ce qui est partagé avec Meta AI peut être stocké indéfiniment et utilisé pour entraîner de futurs modèles—un contraste frappant avec les standards de confidentialité médicale attendus par les utilisateurs.
Le paysage plus large de l'IA santé révèle cette tension entre capacité et responsabilité. Monica Agrawal de Layer Health, dont la compagnie développe de l'IA conforme à HIPAA pour les hôpitaux, avertit que bien que plus de données personnelles puissent améliorer les réponses d'IA, « il y a des préoccupations majeures de confidentialité à partager vos données de santé sans protections ». Des compagnies comme Docus AI construisent de l'IA santé conforme à SOC 2 et GDPR spécifiquement pour adresser ces lacunes, soulignant comment l'approche de Meta priorise la collecte de données sur la protection des utilisateurs.
Pour les développeurs qui construisent des outils d'IA liés à la santé, le faux pas de Meta offre une leçon claire : la collecte agressive de données sans garde-fous appropriés fera face à l'examen minutieux. Si vous gérez des données de santé, implémentez la conformité HIPAA dès le premier jour. Les utilisateurs comprennent de plus en plus la différence entre une IA santé sécurisée et un chatbot qui discute de médecine par hasard.
