Plusieurs patients californiens ont déposé un recours collectif contre Sutter Health et MemorialCare cette semaine, alléguant que les systèmes de santé ont utilisé l'outil de transcription Abridge AI pour enregistrer des conversations médicales sans consentement approprié. La plainte, déposée devant le tribunal fédéral de San Francisco, prétend que les patients n'ont pas été clairement informés que leurs conversations seraient « enregistrées par une plateforme d'intelligence artificielle, transmises à l'extérieur du cadre clinique, ou traitées par des systèmes tiers ». Abridge, évaluée à 5,3 milliards de dollars en juin 2025, a été rapidement déployée dans les principaux systèmes de santé incluant Kaiser Permanente et Mayo Clinic.

Cette poursuite expose une lacune critique dans la façon dont l'IA de santé est déployée à grande échelle. Bien que les scribes IA promettent de réduire l'épuisement des médecins en automatisant la documentation clinique — et près d'un tiers des pratiques les utilisent maintenant — le processus de consentement semble traîner derrière le déploiement technologique. Le fait qu'Abridge traite des données médicales sensibles « à l'extérieur du cadre clinique » soulève des questions sur la souveraineté des données qui vont au-delà des simples avis de confidentialité.

Ce qui est particulièrement révélateur, c'est le contraste entre l'adoption institutionnelle et la sensibilisation des patients. Un médecin à Cleveland Clinic a décrit comment les scribes IA lui permettent de se concentrer sur la « médecine à l'ancienne » sans taper, et la technologie apporte clairement de la valeur aux médecins surmené. Mais si les patients ne comprennent pas que leurs conversations sont traitées par des systèmes IA tiers, potentiellement stockées sur des serveurs externes, c'est un problème fondamental de consentement qu'aucune efficacité clinique ne peut justifier.

Pour les développeurs d'IA de santé, ce cas est un signal d'alarme : la capacité technique n'excuse pas de mauvaises pratiques de consentement. Si votre IA traite des informations de santé protégées, surtout par des API externes, vous avez besoin d'une divulgation cristalline sur le flux, le stockage et le traitement des données. L'alternative, c'est des litiges coûteux et une confiance endommagée dans l'IA médicale.