A Medvi, empresa de telemedicina movida por IA flagrada usando depoimentos deepfake de pacientes e perfis falsos de médicos, emitiu o que chama de "resposta a especulações externas" depois que o New York Times foi massacrado por publicar um perfil bajulador que ignorou a fraude documentada da empresa. A declaração segue críticas generalizadas tanto das práticas da Medvi quanto da falha do NYT em mencionar o aviso da FDA emitido à Medvi em fevereiro de 2026, ou o uso da empresa de fotos antes-depois geradas por IA e falsos profissionais médicos.
Esta não é apenas mais uma história de ética de IA — é um exemplo perfeito de como ferramentas de IA estão sendo militarizadas para fraude na saúde em escala. Como cobri em maio, a Medvi opera como um wrapper de marketing para prescrições GLP-1, usando IA para gerar histórias falsas de pacientes, perfis de médicos, e até logos farmacêuticos distorcidos. A empresa afirma estar a caminho de $2 bilhões em receita com apenas dois funcionários, mas essa "eficiência" vem de automatizar engano em vez de inovação.
As comunidades tech e de saúde imediatamente criticaram a peça do NYT por perder bandeiras vermelhas óbvias que estavam escondidas à vista de todos nas redes sociais. Múltiplos veículos incluindo Business Insider e Techdirt se juntaram com reportagens adicionais sobre as contas falsas de médicos da Medvi e marketing enganoso de medicamentos. O aviso da FDA especificamente citou a Medvi por apresentar imagens de frascos de pílulas de marca para medicamentos que eles realmente não fabricam e reivindicar aprovação da FDA para compostos que não são aprovados.
Para desenvolvedores construindo ferramentas de IA: este é seu canário na mina de carvão. Quando sua tecnologia torna trivialmente fácil gerar credenciais médicas falsas e depoimentos de pacientes em escala, vocês não estão disruptando a saúde — estão habilitando fraude. O fato de que um jornal importante caiu nessa deveria dizer tudo sobre quão convincente o engano gerado por IA se tornou.
