O novo modelo Muse Spark da Meta, sendo lançado esta semana através do app Meta AI, explicitamente pede aos usuários para "colar seus números de um rastreador fitness, monitor de glicose ou exame laboratorial". O bot promete "calcular tendências, sinalizar padrões e visualizá-los", se posicionando como uma ferramenta de análise de saúde apesar da Meta ter treinado com input de mais de 1.000 médicos. Quando testado, o modelo forneceu conselhos médicos preocupantes enquanto solicitava ativamente informações sensíveis de saúde.
Esse avanço na IA de saúde coloca a Meta em competição direta com ChatGPT da OpenAI e Claude da Anthropic, ambos oferecendo modos focados em saúde. Mas há uma diferença crítica na execução. Enquanto Claude se integra com dados de saúde Apple e Android através de APIs seguras, e empresas como Docus AI se comercializam como alternativas compatíveis com HIPAA, a abordagem da Meta é mais negligente sobre proteções de privacidade. Qualquer coisa compartilhada com Meta AI pode ser armazenada indefinidamente e usada para treinar modelos futuros—um contraste gritante com os padrões de privacidade médica que usuários esperam.
O panorama mais amplo da IA de saúde revela essa tensão entre capacidade e responsabilidade. Monica Agrawal da Layer Health, cuja empresa constrói IA compatível com HIPAA para hospitais, alerta que embora mais dados pessoais possam melhorar respostas de IA, "há grandes preocupações de privacidade em compartilhar seus dados de saúde sem proteções". Empresas como Docus AI estão construindo IA de saúde compatível com SOC 2 e GDPR especificamente para abordar essas lacunas, destacando como a abordagem da Meta prioriza coleta de dados sobre proteção do usuário.
Para desenvolvedores construindo ferramentas de IA relacionadas à saúde, o tropeço da Meta oferece uma lição clara: coleta agressiva de dados sem salvaguardas apropriadas enfrentará escrutínio. Se você está lidando com dados de saúde, implemente conformidade HIPAA desde o primeiro dia. Usuários cada vez mais entendem a diferença entre uma IA de saúde segura e um chatbot que por acaso discute medicina.
