Microsoft a lancé Copilot Health ce mois-ci, permettant aux utilisateurs de connecter leurs dossiers médicaux et de poser des questions de santé directement via son chatbot. Quelques jours plus tôt, Amazon a étendu Health AI au-delà de ses abonnés One Medical pour une disponibilité générale. Ces initiatives rejoignent ChatGPT Health d'OpenAI et Claude d'Anthropic dans une ruée soudaine pour déployer l'IA de santé grand public, poussée par une demande massive—Microsoft seul traite 50 millions de questions de santé quotidiennement via Copilot.

Le timing n'est pas une coïncidence. Ces compagnies soutiennent que les LLM ont franchi un seuil de capacité où ils peuvent fournir des conseils médicaux en toute sécurité. Dominic King de Microsoft, ancien chirurgien dirigeant leurs efforts d'IA de santé, souligne « d'énormes progrès dans les capacités de l'IA générative pour répondre aux questions de santé ». Mais cette auto-évaluation des compagnies qui construisent ces produits soulève des drapeaux rouges concernant la surveillance dans les applications de soins de santé.

Les chercheurs s'opposent au manque d'évaluation indépendante. Bien que certaines études suggèrent que les LLM actuels peuvent faire des recommandations de santé utiles, les experts soutiennent que ces outils nécessitent des tests rigoureux par des tiers avant une large diffusion—pas seulement de la recherche interne d'entreprise. « La base de preuves doit vraiment être là », dit Andrew Bean d'Oxford, soulignant le risque que les compagnies aient des angles morts en évaluant leurs propres produits à enjeux élevés.

Pour les développeurs et utilisateurs d'IA, cette vague représente à la fois une opportunité et de la prudence. La demande est clairement massive, et la capacité technique pourrait enfin exister. Mais construire ou déployer l'IA de santé sans validation de sécurité indépendante pourrait exposer les utilisateurs à des risques sérieux que les évaluations menées par les entreprises pourraient manquer.