O Google Photos anunciou um novo recurso de prova virtual com IA que constrói um guarda-roupa virtual a partir da sua galeria existente — extraindo peças individuais (tops, calças, vestidos, sapatos) das fotos em que você aparece e deixando você remixá-las em novos looks, salvar visuais e compartilhá-los. The Verge reportou o lançamento na quarta-feira, com rollout para Android previsto para o fim do verão de 2026 (hemisfério norte) e iOS depois. Isso é distinto da prova virtual que o Google lançou em 2025, que era atrelada ao Search e só deixava você visualizar roupas que estava buscando comprar. O centro de gravidade do produto moveu da intenção de compra para o arquivo pessoal.

A stack técnica é do tipo entediante-mas-impressionante. Extrair máscaras limpas de peças de roupa a partir de fotos do mundo real exige segmentação sólida (provavelmente uma variante afinada de modelos tipo SAM) e compreensão suficiente de topologia de roupa para lidar com oclusão, dobras e perspectiva. Recompor looks numa imagem-alvo exige geração de imagem condicional que respeite pose corporal, consistência de iluminação e caimento do tecido — trabalho que foi nível-pesquisa durante anos (pense em TryOnDiffusion do Google Research) mas que só recentemente ficou barato o suficiente para rodar em bibliotecas de fotos em escala de usuário. A abstração de 'guarda-roupa' em si implica um índice de peças por usuário, o que significa que o Google agora tem um sinal estruturado sobre quais peças específicas cada usuário possui. Essa é uma superfície de privacidade diferente da que o Photos historicamente apresentou.

Três coisas tornam isso interessante além da demo. Primeiro, o pivô arquitetural: uma prova virtual construída para compras é uma camada fina sobre um catálogo de produtos; uma prova virtual construída para sua galeria exige que o Google mantenha um índice de guarda-roupa por usuário — um mecanismo de retenção que aumenta custos de troca contra iCloud Photos e alternativas no dispositivo. Segundo, isso é um teste de categoria: se extrair peças de roupa de fotos pessoais funcionar bem, o mesmo pipeline se aplica a móveis, acessórios, penteados, layouts de cômodos. O Photos está virando uma base de dados estruturada de ativos pessoais, não só um serviço de backup. Terceiro, o padrão de rollout (Android primeiro, iOS depois, opt-in por padrão não especificado) vai determinar se isso bate na mesma fricção regulatória que as features de tagging do Meta — reguladores de privacidade europeus afiaram a postura sobre dados biométricos e atributos inferidos.

Para os builders, o takeaway tem menos a ver com roupa e mais a ver com a capacidade subjacente: segmentação contínua mais recomposição generativa sobre o corpus fotográfico pessoal de um usuário é productizável agora. Se você está construindo algo que organiza mídia enviada por usuários — apps de fitness rastreando forma, plataformas imobiliárias catalogando casas, apps de culinária inferindo conteúdo de despensa — as peças que o Google acabou de enviar para consumidores são as mesmas que você montaria para seu vertical. Olhe o rollout Android por dois sinais específicos: quão agressivamente o Google indexa peças sem prompts de consentimento explícitos (o sinal de privacidade), e se os itens extraídos viram exportáveis via Takeout (o sinal de lock-in). Essas respostas determinam se você constrói em cima da stack do Google ou monta a sua a partir de modelos open source de segmentação e difusão.