El investigador de seguridad Alexander Hagenah lanzó TotalRecall Reloaded, una herramienta que expone cómo la función Recall rediseñada de Microsoft sigue filtrando datos de usuario pese a una renovación de seguridad de un año. La herramienta no rompe el cifrado de Recall ni la autenticación Windows Hello — en cambio, inyecta código en AIXHost.exe, el proceso que maneja datos Recall descifrados después de la autenticación. Una vez que el usuario abre Recall y se autentica, la herramienta puede interceptar capturas de pantalla, texto OCR y metadatos que fluyen por este pipeline desprotegido, continuando la recolección de datos incluso después de que el usuario cierre su sesión Recall.

Esto representa una falla fundamental en el modelo de seguridad de Microsoft: construyeron una bóveda pero dejaron el camión de entrega desbloqueado. Microsoft pasó un año rediseñando Recall tras fallas de seguridad catastróficas, agregando cifrado, autenticación Windows Hello y Enclaves de Seguridad basados en Virtualización. Sin embargo, se perdieron el vector de ataque obvio — el momento cuando los datos cifrados se vuelven texto plano para procesamiento. Para desarrolladores de AI construyendo sistemas que manejan datos sensibles de usuarios, esto es una clase magistral de por qué importa la defensa en profundidad. No puedes solo cifrar datos en reposo; necesitas asegurar cada punto de transferencia en tu pipeline.

Microsoft predeciblemente niega que esto constituya una vulnerabilidad, argumentando que el comportamiento cae dentro de "límites de seguridad esperados" ya que requiere autenticación de usuario. Esta respuesta revela qué tan desconectados están los equipos de seguridad de big tech de las amenazas del mundo real. El malware no necesita romper cifrado si puede simplemente esperar a que los usuarios se autentiquen normalmente, luego cosechar todo lo que fluye aguas abajo. El ataque no requiere privilegios de administrador — solo la capacidad de inyectar una DLL en un proceso Windows estándar.

Los desarrolladores construyendo funciones AI deberían aprender del error de Microsoft: asuman que las máquinas de sus usuarios están comprometidas y diseñen en consecuencia. Si manejan datos sensibles, cífrenlos de extremo a extremo y minimicen las ventanas de exposición de texto plano. No construyan funciones que creen bases de datos de vigilancia completa, incluso con buenas intenciones. Los riesgos de privacidad rara vez justifican las ganancias de conveniencia, y como Recall demuestra, la seguridad perfecta es un mito cuando manejas tanta data de usuario.