A Kintsugi, uma startup da Califórnia que passou sete anos desenvolvendo IA para detectar depressão e ansiedade a partir de padrões de fala, está fechando após falhar em obter autorização da FDA através do caminho De Novo. A empresa analisava como as pessoas falavam ao invés do que diziam, alegando que seus modelos podiam detectar indicadores sutis de saúde mental que humanos poderiam perder. A CEO Grace Chang disse que muito do tempo deles foi gasto "ensinando o regulador sobre IA" — uma admissão reveladora sobre o quão despreparada a FDA permanece para dispositivos médicos de IA.
Esse fracasso destaca uma incompatibilidade fundamental entre cronogramas de desenvolvimento de IA e regulamentação de dispositivos médicos. O caminho De Novo foi projetado para dispositivos novos e de baixo risco, mas sua estrutura assume hardware tradicional, não modelos de machine learning que podem mudar com novos dados de treinamento. Embora a pesquisa revisada por pares da Kintsugi tenha mostrado resultados comparáveis a ferramentas padrão de triagem de depressão como o PHQ-9, "comparável" não é suficiente quando você está pedindo para clínicos substituírem métodos estabelecidos por algoritmos de caixa-preta.
A lacuna regulatória se estende além da detecção de depressão. Requisitos de evidência clínica para ferramentas de diagnóstico de IA exigem "avaliações clínicas ou de desempenho robustas usando dados representativos", mas mais de 90% dos modelos médicos de IA nunca chegam à prática clínica. Enquanto isso, chatbots de IA não regulamentados já estão causando danos psicológicos documentados — o Guardian reportou casos de delírios induzidos por IA levando a hospitalização e tentativas de suicídio. Ferramentas básicas de triagem de saúde mental como o PHQ-9 são administradas diariamente em clínicas ao redor do mundo, mesmo em ambientes "sem eletricidade e com equipe limitada".
Para desenvolvedores de IA, a liberação da tecnologia deles em código aberto pela Kintsugi oferece uma olhada rara por baixo do capô da IA de saúde mental em produção. Mas a lição mais ampla é clara: se você está construindo IA médica, faça orçamento para anos de educação regulatória e validação clínica, não apenas performance do modelo. A FDA não é apenas lenta — ela está fundamentalmente despreparada para IA.
