Google Photos宣布了一項新的AI試衣功能,可以從你現有的照片庫中構建一個虛擬衣櫃——從你出現過的照片中提取單件衣物(上衣、下身、連身裙、鞋),讓你重新混搭出新造型、儲存喜歡的look並分享。The Verge週三報導了這項發布,Android端定於2026年夏末推出,iOS稍後跟進。這與Google 2025年在Search裡上線的虛擬試衣不同——那個只讓你預覽正在購買的衣物。產品的重心已經從購買意圖轉向了個人檔案。

技術棧屬於「枯燥但紮實」那一類。從真實照片裡乾淨地摳出衣物的mask需要穩健的分割能力(很可能是基於SAM類模型微調的版本),還得對衣物拓撲結構有足夠理解才能處理遮擋、折疊和透視。把新搭配重新合成到目標影像上,需要條件影像生成尊重身體姿態、光照一致性和布料垂墜——這些工作在多年裡一直停留在研究階段(可參考Google Research的TryOnDiffusion),最近才便宜到能在使用者級照片庫上跑。「衣櫃」這個抽象本身就意味著一個按使用者索引的衣物清單,也就是說Google現在掌握了關於每個使用者具體擁有哪些衣物的結構化訊號。這是一個與Photos以往呈現的隱私面截然不同的層面。

三件事讓它超越了「產品演示」的層次。第一,架構的轉向:為購物而做的試衣只是產品目錄上的一層薄殼;為你的相簿而做的試衣需要Google為每個使用者維護一個衣櫃索引——這是一個增加切換成本的留存機制,直接對抗iCloud Photos和裝置本地方案。第二,這是一次品類測試:如果從個人照片中提取衣物落地良好,同一套管道也適用於家具、配件、髮型、房間布局。Photos正在變成一個結構化的個人資產資料庫,而不僅僅是備份服務。第三,推出節奏(Android優先、iOS其後、預設是否選入未明確)將決定它會不會撞上Meta標籤功能曾遭遇的那種監管摩擦——歐洲隱私監管者在生物辨識和推斷屬性資料上的立場已經變硬。

對builder而言,真正的啟示和衣物沒多大關係,而和底層能力有關:在使用者的個人照片語料庫上做持續分割加生成式重組,現在已經能產品化了。如果你在做任何整理使用者上傳媒體的產品——記錄健身姿勢的app、歸類房屋的房地產平台、推斷儲藏櫃內容的烹飪app——Google剛剛交付給消費者的那些元件,正是你為自己的垂直領域要拼裝的同一批。盯緊Android推出的兩個具體訊號:Google有多積極地在沒有明確同意提示的情況下索引衣物(隱私訊號),以及提取出的衣物條目能否透過Takeout匯出(鎖定訊號)。這兩個答案決定了你是該建在Google的棧之上,還是用開源的分割和擴散模型自己拼一套。