El nuevo modelo Muse Spark de Meta, lanzándose esta semana a través de la app Meta AI, explícitamente pide a los usuarios "pega tus números de un rastreador de fitness, monitor de glucosa o reporte de laboratorio". El bot promete "calcular tendencias, marcar patrones y visualizarlos", posicionándose como una herramienta de análisis de salud a pesar de que Meta lo entrenó con input de más de 1,000 médicos. Cuando fue probado, el modelo proporcionó consejos médicos preocupantes mientras solicitaba activamente información de salud sensible.

Este empuje hacia la IA de salud pone a Meta en competencia directa con ChatGPT de OpenAI y Claude de Anthropic, ambos ofrecen modos enfocados en salud. Pero hay una diferencia crítica en la ejecución. Mientras Claude se integra con datos de salud de Apple y Android a través de APIs seguras, y compañías como Docus AI se comercializan como alternativas que cumplen con HIPAA, el enfoque de Meta es más despreocupado sobre las protecciones de privacidad. Cualquier cosa compartida con Meta AI puede almacenarse indefinidamente y usarse para entrenar modelos futuros—un contraste marcado con los estándares de privacidad médica que esperan los usuarios.

El panorama más amplio de IA de salud revela esta tensión entre capacidad y responsabilidad. Monica Agrawal de Layer Health, cuya compañía construye IA que cumple con HIPAA para hospitales, advierte que aunque más datos personales pueden mejorar las respuestas de IA, "hay preocupaciones importantes de privacidad al compartir tus datos de salud sin protecciones". Compañías como Docus AI están construyendo IA de salud que cumple con SOC 2 y GDPR específicamente para abordar estas brechas, destacando cómo el enfoque de Meta prioriza la recolección de datos sobre la protección del usuario.

Para desarrolladores construyendo herramientas de IA relacionadas con salud, el tropiezo de Meta ofrece una lección clara: la recolección agresiva de datos sin salvaguardas apropiadas enfrentará escrutinio. Si manejas datos de salud, implementa cumplimiento con HIPAA desde el día uno. Los usuarios cada vez entienden más la diferencia entre una IA de salud segura y un chatbot que casualmente discute medicina.