A Microsoft lançou o Copilot Health neste mês, permitindo que usuários conectem prontuários médicos e façam perguntas sobre saúde diretamente através do seu chatbot. Dias antes, a Amazon expandiu o Health AI além dos seus assinantes do One Medical para disponibilidade geral. Essas iniciativas se juntam ao ChatGPT Health da OpenAI e ao Claude da Anthropic numa corrida súbita para implementar IA de saúde para consumidores, impulsionada por demanda massiva—só a Microsoft processa 50 milhões de perguntas sobre saúde diariamente através do Copilot.
O timing não é coincidencial. Essas empresas argumentam que os LLMs cruzaram um limiar de capacidade onde podem fornecer conselhos médicos com segurança. Dominic King da Microsoft, ex-cirurgião liderando seus esforços de IA de saúde, aponta para "enormes avanços nas capacidades da IA generativa para responder perguntas sobre saúde". Mas essa autoavaliação das empresas construindo esses produtos levanta bandeiras vermelhas sobre supervisão em aplicações de saúde.
Pesquisadores estão se opondo à falta de avaliação independente. Embora alguns estudos sugiram que os LLMs atuais podem fazer recomendações de saúde úteis, especialistas argumentam que essas ferramentas precisam de testes rigorosos de terceiros antes do lançamento amplo—não apenas pesquisa interna da empresa. "A base de evidências realmente precisa estar lá", diz Andrew Bean de Oxford, destacando o risco das empresas terem pontos cegos ao avaliar seus próprios produtos de alto risco.
Para desenvolvedores e usuários de IA, essa onda representa tanto oportunidade quanto cautela. A demanda é claramente massiva, e a capacidade técnica pode finalmente existir. Mas construir ou implementar IA de saúde sem validação independente de segurança poderia expor usuários a riscos sérios que avaliações lideradas por empresas poderiam perder.
