Google Photos anunció una nueva función de prueba virtual con IA que construye un guardarropa virtual a partir de tu galería existente —extrayendo prendas individuales (tops, pantalones, vestidos, zapatos) de las fotos en las que apareces y dejándote remezclarlas en nuevos atuendos, guardar looks y compartirlos. The Verge reportó el lanzamiento el miércoles, con despliegue en Android previsto para fines del verano 2026 e iOS después. Esto es distinto de la prueba virtual que Google lanzó en 2025, que estaba atada a Search y solo te dejaba visualizar ropa que estuvieras buscando comprar. El centro de gravedad del producto se movió de la intención de compra al archivo personal.

El stack técnico es del tipo aburrido-pero-impresionante. Extraer máscaras limpias de prendas desde fotos del mundo real requiere segmentación sólida (probablemente una variante afinada de modelos tipo SAM) más suficiente comprensión de topología de ropa para manejar oclusión, pliegues y perspectiva. Recomponer atuendos sobre una imagen objetivo requiere generación de imagen condicional que respete pose corporal, consistencia de iluminación y caída de tela —trabajo que fue grado-investigación durante años (piensa en TryOnDiffusion de Google Research) pero que recién ahora es lo suficientemente barato como para correr en bibliotecas de fotos a escala de usuario. La abstracción de 'guardarropa' implica en sí misma un índice de prendas por usuario, lo que significa que Google ahora tiene una señal estructurada sobre qué prendas específicas posee cada usuario. Esa es una superficie de privacidad distinta de la que Photos ha presentado históricamente.

Tres cosas hacen esto interesante más allá del demo. Primero, el pivote arquitectónico: una prueba virtual construida para compras es una capa fina sobre un catálogo de productos; una prueba virtual construida para tu galería requiere que Google mantenga un índice de guardarropa por usuario —un mecanismo de retención que aumenta los costos de cambio frente a iCloud Photos y alternativas en dispositivo. Segundo, esto es una prueba de categoría: si extraer prendas de fotos personales aterriza bien, el mismo pipeline aplica a muebles, accesorios, peinados, distribución de habitaciones. Photos se está convirtiendo en una base de datos estructurada de activos personales, no solo en un servicio de respaldo. Tercero, el patrón de despliegue (Android primero, iOS después, opt-in por defecto sin precisar) determinará si esto choca con la misma fricción regulatoria que las funciones de etiquetado de Meta —los reguladores de privacidad europeos han afilado su postura sobre datos biométricos y atributos inferidos.

Para los constructores, el takeaway tiene menos que ver con la ropa y más con la capacidad subyacente: segmentación continua más recomposición generativa sobre el corpus fotográfico personal de un usuario es ahora productizable. Si estás construyendo algo que organiza medios subidos por usuarios —apps de fitness que rastrean forma, plataformas inmobiliarias que catalogan casas, apps de cocina que infieren contenido de despensa— las piezas que Google acaba de enviar a consumidores son las mismas que armarías para tu vertical. Vigila el despliegue Android por dos señales específicas: qué tan agresivamente indexa Google las prendas sin avisos de consentimiento explícitos (la señal de privacidad), y si los ítems extraídos se vuelven exportables vía Takeout (la señal de bloqueo). Esas respuestas determinan si construyes sobre el stack de Google o ensamblas el tuyo desde modelos open source de segmentación y difusión.