Kintsugi, una startup de California que pasó siete años desarrollando IA para detectar depresión y ansiedad a partir de patrones de habla, está cerrando tras fallar en asegurar la autorización de la FDA a través de la vía De Novo. La empresa analizaba cómo hablaba la gente en lugar de lo que decía, afirmando que sus modelos podían detectar indicadores sutiles de salud mental que los humanos podrían pasar por alto. La CEO Grace Chang dijo que gran parte de su tiempo se gastó "enseñándole al regulador sobre IA" — una admisión reveladora sobre qué tan poco preparada permanece la FDA para dispositivos médicos de IA.
Este fracaso resalta un desajuste fundamental entre los tiempos de desarrollo de IA y la regulación de dispositivos médicos. La vía De Novo fue diseñada para dispositivos novedosos de bajo riesgo, pero su marco asume hardware tradicional, no modelos de machine learning que pueden cambiar con nuevos datos de entrenamiento. Aunque la investigación revisada por pares de Kintsugi mostró resultados comparables a herramientas estándar de detección de depresión como el PHQ-9, "comparable" no es suficiente cuando estás pidiendo a los clínicos que reemplacen métodos establecidos con algoritmos de caja negra.
La brecha regulatoria se extiende más allá de la detección de depresión. Los requisitos de evidencia clínica para herramientas de diagnóstico de IA demandan "evaluaciones clínicas o de rendimiento robustas usando datos representativos", pero más del 90% de los modelos médicos de IA nunca llegan a la práctica clínica. Mientras tanto, los chatbots de IA no regulados ya están causando daño psicológico documentado — el Guardian reportó casos de delirios inducidos por IA que llevaron a hospitalización e intentos de suicidio. Herramientas básicas de detección de salud mental como el PHQ-9 se administran diariamente en clínicas en todo el mundo, incluso en entornos "sin electricidad y con personal limitado".
Para los desarrolladores de IA, la liberación de código abierto de su tecnología por parte de Kintsugi ofrece una mirada rara bajo el capó de la IA de salud mental en producción. Pero la lección más amplia es clara: si estás construyendo IA médica, presupuesta años de educación regulatoria y validación clínica, no solo rendimiento del modelo. La FDA no es solo lenta — está fundamentalmente poco preparada para la IA.
