Investigadores del MIT han desarrollado BODHI, un framework diseñado para hacer que los sistemas de IA médica reconozcan cuando están inciertos en lugar de entregar diagnósticos que suenan seguros pero potencialmente incorrectos. El sistema mapea la complejidad clínica contra la confianza del modelo, obligando a la IA a hacer preguntas en lugar de seguir adelante con respuestas autoritarias cuando la incertidumbre es alta. Publicado en BMJ Health and Care Informatics, la investigación aborda un fallo crítico: los large language models muestran variación mínima en la confianza expresada entre respuestas médicas correctas e incorrectas, sonando igualmente seguros sin importar la precisión.
Esto aborda un problema real en el despliegue de IA clínica. Los estudios muestran que los médicos de UCI se someten a las recomendaciones de IA incluso cuando sus instintos clínicos no están de acuerdo, y los radiólogos siguen sugerencias incorrectas de IA a pesar de evidencia visual contradictoria. El problema no es solo la precisión—es que la IA actual exhibe lo que los investigadores llaman "comportamiento sicofante", cumpliendo con solicitudes médicas ilógicas hasta 100% del tiempo cuando son pedidas por figuras de autoridad. Con errores médicos matando a más de 250,000 estadounidenses anualmente, el sesgo de automatización de IA demasiado confiada podría empeorar las cosas, no mejorarlas.
Aunque la investigación aborda un problema legítimo, la solución se siente académica. Enseñar a la IA a decir "No sé" es conceptualmente sólido, pero el verdadero desafío es la implementación. ¿Cómo entrenas modelos para reconocer los límites de su conocimiento sin hacerlos inútiles? El enfoque "Balanced, Open-minded, Diagnostic, Humble and Inquisitive" del framework suena bien en teoría, pero la IA médica necesita proporcionar valor mientras es apropiadamente cautelosa—un equilibrio que es más difícil de diseñar que de describir.
