据量子位消息,来自韩国的研究团队推出了一个基于图像的虚拟试穿新方法。IDM-VTON 使用两个不同的模块来编码服装图像的语义。
1,给定扩散模型的基本UNet,将从视觉编码器中提取的高级语义融合到交叉注意力层。
2,从并行UNet中提取的低级特征融合到自注意力层。
此外,团队为服装和人物图像提供详细的文本提示。同时,团队还提出了一种使用一对人物服装图像的定制方法,该方法显著提高了保真度和真实性。
#虚拟试穿神器##IDM-VTON#
发布于 北京
