Google Photos宣布了一项新的AI试衣功能,可以从你现有的照片库中构建一个虚拟衣柜——从你出现过的照片中提取单件衣物(上衣、下装、连衣裙、鞋),让你重新混搭出新造型、保存喜欢的look并分享。The Verge周三报道了这项发布,Android端定于2026年夏末推出,iOS稍后跟进。这与Google 2025年在Search里上线的虚拟试衣不同——那个只让你预览正在购买的衣物。产品的重心已经从购买意图转向了个人档案。
技术栈属于"枯燥但扎实"那一类。从真实照片里干净地抠出衣物的mask需要稳健的分割能力(很可能是基于SAM类模型微调的版本),还得对衣物拓扑结构有足够理解才能处理遮挡、折叠和透视。把新搭配重新合成到目标图像上,需要条件图像生成尊重身体姿态、光照一致性和布料垂坠——这些工作在多年里一直停留在研究阶段(可参考Google Research的TryOnDiffusion),最近才便宜到能在用户级照片库上跑。"衣柜"这个抽象本身就意味着一个按用户索引的衣物清单,也就是说Google现在掌握了关于每个用户具体拥有哪些衣物的结构化信号。这是一个与Photos以往呈现的隐私面截然不同的层面。
三件事让它超越了"产品演示"的层次。第一,架构的转向:为购物而做的试衣只是产品目录上的一层薄壳;为你的相册而做的试衣需要Google为每个用户维护一个衣柜索引——这是一个增加切换成本的留存机制,直接对抗iCloud Photos和设备本地方案。第二,这是一次品类测试:如果从个人照片中提取衣物落地良好,同一套管道也适用于家具、配饰、发型、房间布局。Photos正在变成一个结构化的个人资产数据库,而不仅仅是备份服务。第三,推出节奏(Android优先、iOS其后、默认是否选入未明确)将决定它会不会撞上Meta标签功能曾遭遇的那种监管摩擦——欧洲隐私监管者在生物识别和推断属性数据上的立场已经变硬。
对builder而言,真正的启示和衣物没多大关系,而和底层能力有关:在用户的个人照片语料库上做持续分割加生成式重组,现在已经能产品化了。如果你在做任何整理用户上传媒体的产品——记录健身姿势的app、归类房屋的房地产平台、推断储藏柜内容的烹饪app——Google刚刚交付给消费者的那些组件,正是你为自己的垂直领域要拼装的同一批。盯紧Android推出的两个具体信号:Google有多激进地在没有明确同意提示的情况下索引衣物(隐私信号),以及提取出的衣物条目能否通过Takeout导出(锁定信号)。这两个答案决定了你是该建在Google的栈之上,还是用开源的分割和扩散模型自己拼一套。
