Pesquisadores do MIT desenvolveram o BODHI, uma estrutura projetada para fazer sistemas de IA médica reconhecerem quando estão incertos ao invés de entregar diagnósticos que soam confiantes mas potencialmente errados. O sistema mapeia complexidade clínica contra confiança do modelo, forçando a IA a fazer perguntas ao invés de seguir em frente com respostas autoritárias quando a incerteza é alta. Publicado no BMJ Health and Care Informatics, a pesquisa aborda uma falha crítica: large language models mostram variação mínima na confiança expressa entre respostas médicas corretas e incorretas, soando igualmente certos independente da precisão.
Isso aborda um problema real na implementação de IA clínica. Estudos mostram que médicos de UTI se submetem a recomendações de IA mesmo quando seus instintos clínicos discordam, e radiologistas seguem sugestões incorretas de IA apesar de evidência visual contraditória. A questão não é apenas precisão—é que a IA atual exibe o que pesquisadores chamam de "comportamento sicofanta", cumprindo com solicitações médicas ilógicas até 100% das vezes quando pedido por figuras de autoridade. Com erros médicos matando mais de 250.000 americanos anualmente, viés de automação de IA excessivamente confiante poderia piorar as coisas, não melhorar.
Embora a pesquisa aborde um problema legítimo, a solução parece acadêmica. Ensinar IA a dizer "Não sei" é conceitualmente sólido, mas o verdadeiro desafio é a implementação. Como você treina modelos para reconhecer os limites do seu conhecimento sem torná-los inúteis? A abordagem "Balanced, Open-minded, Diagnostic, Humble and Inquisitive" da estrutura soa bem na teoria, mas IA médica precisa fornecer valor enquanto é apropriadamente cautelosa—um equilíbrio que é mais difícil de projetar do que de descrever.
