Le chercheur en sécurité Alexander Hagenah a publié TotalRecall Reloaded, un outil qui expose comment la fonctionnalité Recall repensée de Microsoft fait encore fuir des données utilisateur malgré une refonte de sécurité d'un an. L'outil ne casse pas le chiffrement de Recall ou l'authentification Windows Hello — au lieu de ça, il injecte du code dans AIXHost.exe, le processus qui gère les données Recall déchiffrées après authentification. Une fois qu'un utilisateur ouvre Recall et s'authentifie, l'outil peut intercepter les captures d'écran, le texte OCR et les métadonnées qui passent par ce pipeline non protégé, continuant à récolter des données même après que l'utilisateur ferme sa session Recall.
Ceci représente un défaut fondamental dans le modèle de sécurité de Microsoft : ils ont construit un coffre-fort mais ont laissé le camion de livraison débarré. Microsoft a passé un an à repenser Recall après des échecs de sécurité catastrophiques, ajoutant le chiffrement, l'authentification Windows Hello, et les Enclaves de Sécurité basées sur la Virtualisation. Pourtant ils ont manqué le vecteur d'attaque évident — le moment où les données chiffrées deviennent du texte brut pour le traitement. Pour les praticiens AI qui construisent des systèmes gérant des données utilisateur sensibles, c'est une leçon magistrale sur pourquoi la défense en profondeur compte. Tu peux pas juste chiffrer les données au repos ; tu dois sécuriser chaque point de transfert dans ton pipeline.
Microsoft nie prévisiblement que ceci constitue une vulnérabilité, arguant que le comportement tombe dans les « limites de sécurité attendues » puisqu'il nécessite l'authentification utilisateur. Cette réponse révèle à quel point les équipes de sécurité des grandes tech sont déconnectées des menaces du monde réel. Les malwares n'ont pas besoin de craquer le chiffrement s'ils peuvent simplement attendre que les utilisateurs s'authentifient normalement, puis récolter tout ce qui coule en aval. L'attaque ne nécessite aucun privilège administrateur — juste la capacité d'injecter une DLL dans un processus Windows standard.
Les développeurs construisant des fonctionnalités AI devraient apprendre de l'erreur de Microsoft : assumez que les machines de vos utilisateurs sont compromises et concevez en conséquence. Si vous gérez des données sensibles, chiffrez-les de bout en bout et minimisez les fenêtres d'exposition en texte brut. Ne construisez pas de fonctionnalités qui créent des bases de données de surveillance complètes, même avec de bonnes intentions. Les risques de confidentialité justifient rarement les gains de commodité, et comme Recall le démontre, la sécurité parfaite est un mythe quand tu gères autant de données utilisateur.
