名为IDM–VTON,由来自韩国科学技能院和OMNIOUS.AI公司的研讨团队根据分散模型打造。
除了最初所展现的,抱抱脸研讨员也玩的不亦乐乎,给老黄换上了专属战袍。其CEO急速转发玩笑:
看热闹的网友也是慨叹,经过这么多年,总算不必再忧虑自己“手残”了(AI帮你搞定)。
首要上传人物图,能够手动或许主动选择要修正的区域。然后,上传要换的衣服。
技能方面,IDM–VTON根据分散模型,经过规划精密的注意力模块来进步服装图画的一致性,并生成实在的虚拟试穿图画。
在为UNet供给输入时,研讨人员将人物图片的含噪声潜在特征、切割掩模、带掩蔽的图片和Densepose数据整合在一同。
他们还会为服装增加详细描绘,例如[V]表明“短袖圆领T恤”。这个描绘随后用作GarmentNet(例如,“一张[V]的相片”)和TryonNet(例如,“模特正在穿[V]”)的输入提示。
TryonNet和GarmentNet发生的中心特征进行了兼并,随后传递至自我注意力层。研讨人员只使用了来自TryonNet的输出的前半部分。这些输出与文本编码器和IP-Adapter的特征一同,经过穿插注意力层进行交融。
终究,研讨人员对TryonNet和IP-Adapter模块进行了精密调整,并确定了模型的其它部分。
本文为汹涌号作者或组织在汹涌新闻上传并发布,仅代表该作者或组织观念,不代表汹涌新闻的观念或态度,汹涌新闻仅供给信息发布渠道。请求汹涌号请用电脑拜访。