摘要
本发明公开了一种基于无训练扩散模型的真实场景下人到人的虚拟试衣方法,属于虚拟试穿和计算机视觉技术领域。该方法无需额外训练,仅需用户提供指示服装区域的掩码,即可实现真实场景下高质量的跨人虚拟试穿。其步骤包括:构建语义对应关系,利用预训练扩散模型提取目标人物图像和服装图像的深度语义特征并建立像素级匹配;基于语义对应关系采用MLS方法变形服装,结合文本描述通过Stable Diffusion‑Inpainting填充未覆盖区域生成初始结果;通过DDIM反演和掩码‑外观注意力实现外观迁移,增强服装细节并保持背景一致性;引入高频特征损失引导去噪过程,提升服装纹理保真度。本发明能适应真实场景,降低用户门槛,生成的试穿结果在服装细节、背景及非服装区域一致性方面表现优异,适用于电子商务等领域。
技术关键词
虚拟试衣方法
图像
控制点
高频特征
语义特征
场景
变形服装
计算机视觉技术
中间层
关系
表达式
变形方法
特征提取器
查询特征
衣服
注意力
文本
像素
系统为您推荐了相关专利信息
光伏板清扫机器人
多传感器融合
深度学习图像处理
视觉传感器
清扫策略
图像分割模型
乳腺超声图像
训练样本集
语义分割模型
联合损失函数
虚拟场景构建方法
深度图
相机模型
遮挡关系
光照算法
颈动脉血管
三维模型
颈动脉支架
处理单元
血流动力学参数