速途網6月15日訊(報道:喬志斌)近日,Google推出了一項全新的生成式人工智能功能,讓用戶可以在不同的模特身上預覽服裝。作為Google Shopping即將推出的一系列更新的一部分,這項虛擬試穿工具可以將服裝的圖像與一組真實模特的不同姿勢進行匹配,嘗試預測服裝的垂墜、褶皺、緊貼度、拉伸以及產生的皺紋和陰影。
虛擬試穿功能是由Google內部開發的一種基于擴散模型的技術支持的。擴散模型包括文本生成藝術模型Stable Diffusion和DALL-E 2,它們學習逐步從由噪音組成的起始圖像中減去噪音,使其逐步接近目標圖像。
Google通過使用許多圖像對對模型進行訓練,每個圖像對包含一個人以兩種不同的姿勢穿著服裝的照片,例如一個側身站立的人的圖像和一個向前站立的人的圖像。為了使模型更加強大(即解決褶皺看起來畸形和不自然的視覺缺陷),使用隨機圖像對進行了重復處理,其中包括衣物和人的圖像對。

Google的消費者購物產品高級總監Lilian Rincon表示:“當你在商店里試穿衣服時,你可以立即判斷它們是否適合你。”她援引了一項調查結果,顯示42%的在線購物者覺得模特的形象與他們不符,而59%的人因為在網上購買的商品與期望的不同而感到不滿意。“你在網上購物時應該同樣自信,”Rincon繼續說道。
虛擬試穿技術并不新鮮。亞馬遜和Adobe一直在嘗試生成式服裝建模,沃爾瑪也從去年開始提供在線功能,使用客戶的照片進行服裝建模。AI初創公司AIMIRR則采用實時服裝渲染技術,在人的實時視頻上疊加服裝圖像。