Kintsugi, une startup californienne qui a passé sept ans à développer une IA pour détecter la dépression et l'anxiété à partir de modèles vocaux, ferme ses portes après avoir échoué à obtenir l'autorisation de la FDA par la voie De Novo. L'entreprise analysait comment les gens parlaient plutôt que ce qu'ils disaient, prétendant que ses modèles pouvaient détecter des indicateurs subtils de santé mentale que les humains pourraient rater. La PDG Grace Chang a dit qu'une grande partie de leur temps était consacrée à « enseigner au régulateur ce qu'est l'IA » — un aveu révélateur sur à quel point la FDA reste mal préparée pour les dispositifs médicaux d'IA.

Cet échec souligne un décalage fondamental entre les délais de développement de l'IA et la réglementation des dispositifs médicaux. La voie De Novo a été conçue pour des dispositifs nouveaux à faible risque, mais son cadre présume du matériel traditionnel, pas des modèles d'apprentissage automatique qui peuvent changer avec de nouvelles données d'entraînement. Bien que la recherche évaluée par les pairs de Kintsugi ait montré des résultats comparables aux outils de dépistage de la dépression standard comme le PHQ-9, « comparable » ne suffit pas quand vous demandez aux cliniciens de remplacer des méthodes établies par des algorithmes boîte noire.

Le fossé réglementaire s'étend au-delà de la détection de la dépression. Les exigences de preuves cliniques pour les outils de diagnostic IA demandent des « évaluations cliniques ou de performance robustes utilisant des données représentatives », mais plus de 90% des modèles IA médicaux n'atteignent jamais la pratique clinique. Pendant ce temps, les chatbots IA non réglementés causent déjà des dommages psychologiques documentés — le Guardian a rapporté des cas de délires induits par l'IA menant à l'hospitalisation et aux tentatives de suicide. Des outils de base de dépistage de santé mentale comme le PHQ-9 sont administrés quotidiennement dans des cliniques partout dans le monde, même dans des environnements « sans électricité et avec un personnel limité ».

Pour les développeurs d'IA, l'ouverture du code source de leur technologie par Kintsugi offre un rare aperçu sous le capot de l'IA de santé mentale en production. Mais la leçon plus large est claire : si vous développez de l'IA médicale, budgétez pour des années d'éducation réglementaire et de validation clinique, pas seulement la performance du modèle. La FDA n'est pas juste lente — elle est fondamentalement mal préparée pour l'IA.