Google Photos a annoncé une nouvelle fonctionnalité d'essayage IA qui bâtit une garde-robe virtuelle à partir de ta galerie existante — en extrayant chaque pièce de vêtement (hauts, bas, robes, souliers) des photos où tu apparais pis en te laissant les remixer en nouvelles tenues, sauvegarder des looks pis les partager. The Verge a rapporté le lancement mercredi, avec un déploiement Android prévu pour plus tard cet été 2026 pis iOS qui suit. C'est distinct de l'essayage virtuel que Google avait shippé en 2025, qui était attaché à Search pis te laissait juste visualiser des vêtements que tu magasinais. Le centre de gravité du produit a glissé de l'intention d'achat aux archives personnelles.

La stack technique, c'est le genre de chose pas-spectaculaire-mais-solide. Extraire des masques de vêtements propres depuis des photos prises dans la vie réelle, ça demande de la segmentation solide (probablement une variante fine-tunée de modèles type SAM) pis assez de compréhension de la topologie des vêtements pour gérer l'occlusion, le pliage pis la perspective. Recomposer des tenues sur une image cible demande une génération d'image conditionnelle qui respecte la pose du corps, la cohérence de l'éclairage pis le drapé du tissu — du travail qui était de calibre recherche depuis des années (pense à TryOnDiffusion chez Google Research) mais qui est juste devenu assez bon marché pour rouler sur des bibliothèques de photos à l'échelle utilisateur. L'abstraction « garde-robe » elle-même implique un index de pièces de vêtements par utilisateur, ce qui veut dire que Google a maintenant un signal structuré sur quels vêtements spécifiques les utilisateurs possèdent. C'est une surface de vie privée différente de celle que Photos a historiquement présentée.

Trois affaires rendent ça intéressant au-delà de la démo. Premièrement, le pivot architectural : un essayage construit pour le shopping, c'est une mince couche par-dessus un catalogue produit ; un essayage construit pour ta galerie demande à Google de maintenir un index de garde-robe par utilisateur — un mécanisme de fidélisation qui augmente les coûts de changement face à iCloud Photos pis aux alternatives sur appareil. Deuxièmement, c'est un test de catégorie : si extraire des pièces de vêtements depuis des photos personnelles atterrit bien, le même pipeline s'applique aux meubles, accessoires, coiffures, aménagements de pièce. Photos devient une base de données structurée de biens personnels, pas juste un service de sauvegarde. Troisièmement, le pattern de déploiement (Android d'abord, iOS plus tard, opt-in par défaut non précisé) va déterminer si ça frappe la même friction réglementaire que les fonctionnalités de tagging de Meta — les régulateurs européens de la vie privée ont aiguisé leur position sur les données biométriques pis les attributs inférés.

Pour les builders, le takeaway, c'est moins à propos des vêtements pis plus à propos de la capacité sous-jacente : la segmentation continue plus la recomposition générative sur le corpus photo personnel d'un utilisateur, c'est productisable maintenant. Si tu bâtis n'importe quoi qui organise des médias uploadés par l'utilisateur — apps de fitness qui trackent la forme, plateformes immobilières qui cataloguent les maisons, apps de cuisine qui infèrent le contenu du garde-manger — les pièces que Google vient de livrer aux consommateurs sont les mêmes que tu assemblerais pour ta verticale. Surveille le déploiement Android pour deux signaux spécifiques : avec quelle agressivité Google indexe les vêtements sans prompts de consentement explicites (le signal de vie privée), pis si les items extraits deviennent exportables via Takeout (le signal de verrouillage). Ces réponses-là déterminent si tu construis par-dessus la stack de Google ou si t'assembles la tienne avec des modèles de segmentation pis de diffusion open source.