CN116168186A - 一种服装长度可控的虚拟试衣图生成方法 - Google Patents
一种服装长度可控的虚拟试衣图生成方法 Download PDFInfo
- Publication number
- CN116168186A CN116168186A CN202310177297.8A CN202310177297A CN116168186A CN 116168186 A CN116168186 A CN 116168186A CN 202310177297 A CN202310177297 A CN 202310177297A CN 116168186 A CN116168186 A CN 116168186A
- Authority
- CN
- China
- Prior art keywords
- semantic segmentation
- clothing
- garment
- image
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000011218 segmentation Effects 0.000 claims abstract description 157
- 239000013598 vector Substances 0.000 claims abstract description 36
- 238000002789 length control Methods 0.000 claims abstract description 34
- 238000009966 trimming Methods 0.000 claims abstract description 21
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 238000005070 sampling Methods 0.000 claims description 48
- 230000004927 fusion Effects 0.000 claims description 32
- 230000000694 effects Effects 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 3
- OIGNJSKKLXVSLS-VWUMJDOOSA-N prednisolone Chemical compound O=C1C=C[C@]2(C)[C@H]3[C@@H](O)C[C@](C)([C@@](CC4)(O)C(=O)CO)[C@@H]4[C@@H]3CCC2=C1 OIGNJSKKLXVSLS-VWUMJDOOSA-N 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 210000001217 buttock Anatomy 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013138 pruning Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000004393 visual impairment Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Computer Hardware Design (AREA)
- Architecture (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Graphics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种服装长度可控的虚拟试衣图生成方法,涉及虚拟试衣技术领域。本发明方法主要包括:输入预处理阶段需要的图片,经过预处理去除服装信息、计算服装长度控制向量得到服装未知的人物表示和服装长度控制向量;输入语义预测阶段需要的图片,经过试穿语义分割图生成器生成待调整的试穿语义分割图;输入语义补偿阶段需要的图片,经过基于真值的补偿网络对待调整的试穿语义分割图进行修剪补偿,得到试穿语义分割图;输入服装变形阶段需要的图片,经过服装对齐生成器预测服装形变图;输入试穿图生成阶段需要的图片,经过试穿生成器生成试衣图像。本发明方法提出了新的服装未知的人物表示和服装长度控制向量,实现了服装长度可控的虚拟试穿。
Description
技术领域
本发明涉及虚拟试衣技术领域,并且更具体地,涉及一种服装长度可控的虚拟试衣图生成方法。
背景技术
虚拟图像生成技术在最近几年已有飞快的发展,使得虚拟试衣技术也成为可能。基于图像的虚拟试衣方法用试穿服装取代目标人身上的服装,让用户可以直接地看到服装穿在自己身上时的效果,从而提升用户网络购买服装的体验,减少购物的退货率。
虚拟试衣可以通过3D和2D技术实现,基于3D的虚拟试衣技术主要归纳为建模和渲染。人体的建模和服装的建模都要收集大量3D数据,同时建模和渲染工作都需要昂贵的设备来支持。于是人们将目光投入基于2D虚拟试衣技术,2D虚拟试衣技术的本质为虚拟图像生成。
基于2D图像的虚拟试衣是一种图像生成任务,给出单独的服装图像,将一个人身上的服装替换为另一个不同的服装。具体操作中,虚拟试穿采用图像合成的方法实现,给定一个人和一件服装的图像,合成图像应该满足以下标准:(1)人的身体部位和姿势与原始图像相同;(2)试穿服装根据人的姿势和身体形状自然变形;(3)试穿结果里的服装图案清晰可见,包括颜色和纹理等低级特征和绣花、标志等复杂的图形。虚拟试穿具有独特的挑战性,服装的非刚性特性经常受到变形和遮挡的影响,在没有三维信息的情况下,要生成既满足姿态正确、服装形变效果好、图案清晰、图片合理真实的试穿图像是一种挑战。
GANs是最受欢迎的图像合成生成模型之一,并且在图像生成和图像编辑等任务中有不错的表现。为了在生成的样本中纳入所需的属性,研究人员还利用不同的信号,以类标签、文本、属性等形式作为图像生成的条件。
以往的虚拟试衣技术往往较为关注生成的试穿图的质量而忽视了对服装长度的研究。事实上不同人的着装习惯有所不同,有些人喜欢将服装穿在裤子里,有些人喜欢将服装穿在裤子外,这在视觉上可以表现为穿在身上的服装长短,而以往的虚拟试衣技术只能产生一种效果,即保留原始图像的着装效果,无法提供更多的选择。
发明内容
本发明的目的是提供一种服装长度可控的虚拟试衣图生成方法,使用者可以输入不同的服装、不同的服装长度控制信息获得不同服装、不同着衣方式的图片。本发明方法具有网络学习速度快,试穿效果显著的能力,可用于广泛复杂的虚拟试穿情景。
为了实现上述的发明目的,具体采用的技术方案如下:
一种服装长度可控的虚拟试衣图生成方法,其包括以下步骤:
S1:输入目标人物穿有原服装的原始图像以及原始图像对应的语义分割图、密度姿态图和骨架姿态图,经过预处理操作去除原始图像的服装信息,根据骨架姿态图的关键点得到服装未知的人物图、服装未知的人物语义分割图;
S2:输入待试穿的服装图、服装图的掩码以及所述密度姿态图、所述骨架姿态图、所述服装未知的人物语义分割图和服装长度控制向量,经过预先经过训练的端到端的试穿语义分割图生成器生成待调整的试穿语义分割图;
S3:输入所述原始图像的语义分割图和待调整的试穿语义分割图,经过基于真值的补偿网络对待调整的试穿语义分割图进行修剪补偿,得到试穿语义分割图;
S4:输入待试穿的服装图、服装图的掩码、所述密度姿态图、所述骨架姿态图和所述试穿语义分割图,经过预先经过训练的端到端的服装对齐生成器预测得到服装形变图;
S5:输入所述服装未知的人物图、所述密度姿态图、所述骨架姿态图、所述服装形变图和所述试穿语义分割图,经过预先经过训练的端到端的试穿生成器生成最终输出的试衣图像。
作为优选,所述步骤S1中,服装未知的人物图和服装未知的人物语义分割图分别为经过处理的不包含上衣、部分裤子、手臂的原始图像及其语义分割图,其获取方法为:从骨架姿态图中获取各关键点位置并映射至原始图像上,在原始图像上连接驱干、手臂臀的关键点,形成一片覆盖手臂、上衣、部分裤子但不包括手掌部分的蒙版区域,删除原始图像及其语义分割图中蒙版区域内的图像从而达到删除服装信息的目的,最终得到服装未知的人物图和服装未知的人物语义分割图。
作为优选,所述步骤S2中,服装长度控制向量为一个维度为一的离散型向量,用于表示服装长度;
在试穿语义分割图生成器的训练阶段,该服装长度控制向量由标注的服装下沿、脖子、中臀三个关键点的坐标标准化计算得到,计算方法为:
将骨架姿态图中的脖子关键点和中臀关键点映射至语义分割图上,得到语义分割图上的脖子关键点Pn(xn,yn)和中臀关键点Ph(xh,yh);连接脖子关键点Pn和中臀关键点Ph构造一条直线,并沿该直线有序遍历直线上的像素点并判断各像素点在语义分割中的语义类型,将该直线上像素值从代表服装的类型值刚好变为代表非服装的类型值时的像素点作为关键点Pc(xc,yc),该关键点Pc代表直线与语义分割图中服装下沿的交点;由Pc和Ph的纵坐标之差与Ph和Pn的纵坐标之差的比值计算得到服装长度控制向量z,具体计算公式如下:
其中z的大小表示服装相对于身体的长度,当z<0时在图像中体现为服装的样式或穿着效果为短款服装;当z>0时在图像中体现为服装的样式或穿着效果为长款服装。
作为优选,所述步骤S2中,在试穿语义分割图生成器的推理阶段,服装长度控制向量由用户直接输入或者采用上述计算方法得到。
作为优选,所述步骤S2中,试穿语义分割图生成器是一种端到端的网络,网络结构采用编码解码结构,网络输入分为三组,第一组输入为待试穿的服装图Ic及服装图的掩码Mc,第二组输入为服装未知的人物语义分割图Pagnostic,第三组输入为密度姿态图Idensepose、骨架姿态图Ipose和将服装长度控制向量z通过全连接层后得到的映射结果,将三组输入各自拼接后分别经过经过第一个特征提取器R1、第二个特征提取器R2、第三个特征提取器R3,由三个特征提取器下采样提取浅层特征和最深层特征,再将三个特征提取器R1、R2、R3分别提取到的最深层特征F1、F2、F3拼接后输入特征上采样融合模块中,所述特征上采样融合模块包含多层用于进行特征上采样融合的上采样层,第一层上采样层前端级联三个特征提取器;特征上采样融合模块中每一层上采样层的一部分输入为前端级联的网络层输出的三个最深层特征F1、F2、F3,另一部分输入为三个特征提取器的浅层特征,最深层特征F1、F3经过上采样后分别与来源于同一个特征提取器的同尺度浅层特征进行融合,从而输出对应的两个融合特征F′1、F′3,然后再将最深层特征F2上采样至与来源于同一个特征提取器R2的同尺度浅层特征Fl 2相同尺度从而得到F′2,将F′2、Fl 2、F′1、F′3拼接后通过一层卷积层后得到特征F″2,最后将当前上采样层中得到的特征F′1、F″2、F′3分别作为输入下一层的最深层特征F1、F2、F3;特征上采样融合模块最终输出的最深层特征以及试穿语义分割图生成器网络的三组输入一并输入归一化层中,经过拼接后经过一个卷积实现降维,输出与网络输入尺寸相同的待调整的试穿语义分割图。
作为优选,所述步骤S3中,基于真值的补偿网络对待调整的试穿语义分割图进行修剪补偿,具体包括修剪和补偿两个步骤;首先,需基于原始图像对待调整的试穿语义分割图进行修剪处理,去除待调整的试穿语义分割图中存在多余的裤子部分,去除后的区域形成无语义区域;然后用背景区域的值对所述修剪步骤中形成的无语义区域进行赋值,使待调整的试穿语义分割图恢复完整。
首先,从原始图像的语义分割图Pparse中提取裤子通道Mbottom_o,再从待调整的试穿语义分割图中提取裤子通道Mbottom,将裤子通道Mbottom与Mbottom_o相乘得到M′bottom=Mbottom⊙Mbottom_o;
然后,从待调整的试穿语义分割图中提取背景通道Mbackground,将背景通道Mbackground与(1-Mbottom)⊙Mbottom_o相加得到M′background=Mbackground+(1-Mbottom)⊙Mbottom_o;
作为优选,所述步骤S4中的服装对齐生成器是一种端到端的网络,网络结构采用编码解码结构,该网络具体包括形变参数预测模块、服装形变和去重叠化模块:
所述形变参数预测模块中,输入分成三组,第一组输入是服装图Ic及服装掩码图Mc,第二组输入为密度姿态图Idensepose和骨架姿态图Ipose,第三组输入为试穿语义分割图Ptryon,将三组输入各自拼接后分别经过第一个特征提取器f1、第二个特征提取器f2、第三个特征提取器f3,由三个特征提取器下采样提取浅层特征和最深层特征,再将三个特征提取器f1、f2、f3分别提取到的最深层特征E1、E2、E3拼接后经过一层卷积层预测得到初始的流参数将三个特征提取器提取到的浅层特征、最深层特征和初始的流参数一并输入由多层上采样层级联组成的特征上采样融合模块;所述特征上采样融合模块中,第一层上采样层前端级联三个特征提取器,用流参数初始化输入特征上采样融合模块的流参数Fflow;每一层上采样层的一部分输入为该上采样层前端级联的网络层输出的三个最深层特征E1、E2、E3,另一部分输入为三个特征提取器中的浅层特征,输入的最深层特征E1、E2、E3经过上采样后分别与来源于同一个特征提取器的同尺度浅层特征进行相加融合得到新的最深层特征E′1、E′2、E′3,将输入当前上采样层的流参数Fflow上采样至与最深层特征E′1、E′2、E′3相同的尺度得到新的流参数F′flow,利用流参数F′flow对最深层特征E′1进行采样得到变形特征E1w,通过一次卷积映射将最深层特征E′2、E′3分别映射到与变形特征E1w相同尺度从而对应得到特征E2b和特征E3b,再将E1w、E2b和E3b沿通道拼接后经过一次卷积得到流参数变化值ΔFflow,将流参数变化值ΔFflow与当前的流参数Fflow相加得到新的流参数F″flow,上一层上采样层中的最深层特征E′1、E′2、E′3和流参数F″flow分别作为输入下一层上采样层的最深层特征E1、E2、E3和流参数Fflow;经过特征上采样融合模块中所有上采样层后,输出最终的流参数Fflow;
所述服装形变和去重叠化模型中,输入是服装图Ic、服装掩码图Mc、流参数Fflow和试穿语义分割图PRtryon,先用特征上采样融合模块最终输出的流参数Fflow对服装图Ic和服装掩码图Mc进行采样,得到待调整的服装形变图Icwarped_o和服装掩码形变图Mcwarped_o,再用试穿语义分割图Ptryon对待调整的服装形变图Icwarped_o和服装掩码形变图Mcwarped_o进一步修剪补偿,删除重叠的遮挡部分从而得到对齐且无重叠的服装形变图Icwarped及其掩码Mcwarped。
作为优选,所述步骤S5中,试穿生成器为端到端的网络,该网络采用ALIAS试穿网络,其以服装未知的人物图、密度姿态图、骨架姿态图、服装形变图拼接后作为输入,同时用试穿语义分割图作为额外输入,由网络合成最终的试穿图像。
作为优选,所述试穿语义分割图生成器、服装对齐生成和试穿生成器均预先通过条件对抗训练框架进行训练。
相对于现有技术而言,本发明的有益效果如下:
本发明方法提出了新的服装未知的人物表示和服装长度控制向量,通过生成可控制的语义分割图来实现服装长度可控的虚拟试穿。本发明方法具有网络学习速度快,试穿效果显著的能力,可用于广泛复杂的虚拟试穿情景。
附图说明
图1为本发明的方法流程示意图;
图2为数据预处理效果图;
图3为服装长度控制向量的计算图;
图4为本发明方法试穿语义分割图生成器结构;
图5为语义分割图生成器训练过程;
图6为基于真值的补偿网络具体实施过程;
图7为本发明方法服装对齐生成器结构;
图8为服装对齐生成器训练过程;
图9为基于ALIAS的试穿生成器输入及输出;
图10为试穿生成器训练过程;
图11为不同服装和不同长度的试穿效果图。
具体实施方式
下面将结合附图对本发明加以详细说明,应指出的是,所描述的实施例仅便于对本发明的理解,而对其不起任何限定作用。
如图1所示,为本发明的一个较佳实施例中提供的一种服装长度可控的虚拟试衣图生成方法的流程示意图。该实施例提供的一种服装长度可控的虚拟试衣图生成方法包括如下步骤:
S1:输入目标人物穿有原服装的原始图像以及原始图像对应的语义分割图、密度姿态图和骨架姿态图,经过预处理操作去除原始图像的服装信息,根据骨架姿态图的关键点得到服装未知的人物图、服装未知的人物语义分割图。
该步骤主要为对数据集进行图像数据预处理,其目的是获取服装未知的人物图和服装未知的人物语义分割图。需要说明的是,本发明中的密度姿态图是指dense pose map,而骨架姿态图则是指由人体关键点(或称为关节点)组成的pose map。服装未知的人物图和服装未知的人物语义分割图分别为经过处理的不包含上衣、部分裤子、手臂的原始图像及其语义分割图。如图2所示,定义原始图像I,骨架姿态图Ipose,原始图像语义分割图Pparse。根据Ipose中手臂、驱干、左臀、中臀、右臀的关键点,用有粗度的线在I上连接这些关键点,这些线与连接驱干关键点形成的四边形区域一起形成一片蒙版区域mask,该蒙版区域覆盖手臂(还可能覆盖了手臂周边的部分区域)、上衣、部分裤子但不包括手掌部分。该蒙版的意义是真正消除了服装、部分裤子、手臂的形状,保存了剩下不参与试衣的身体部位。利用(1-mask)分别与I、Pparse相乘可以去除待替换的服装区域,并保留图像的其余部分从而获得服装未知的人物图Iagnostic和服装未知的人物语义分割图Pagnostic。具体实现方法如下公式:
mask=f(Ipose)
Pagnostic=Pparse⊙(1-mask)
Iagnostic=I⊙(1-mask)
另外,本发明后续的试穿语义分割图生成器中还需要一个服装长度控制向量作为输入,该服装长度控制向量可以在S1步骤中通过计算得到,也可以由人为指定。下面简单介绍通过计算获取该服装长度控制向量的方式。该服装长度控制向量为一个维度为一的离散型向量,用于表示服装长度,服装长度控制向量由标注的服装下沿、脖子、中臀三个关键点的坐标标准化计算得到。如图3所示,定义骨架姿态图Ipose,原始图像语义分割图Pparse。我们将所需Ipose的部分关键点通过映射置于Pparse上,得到对应于骨架姿态图中的脖子关键点和中臀关键点,在语义分割图上标注出脖子、中臀两个关键点,分别用Pn(xn,yn)、Ph(xh,yh)表示。连接Pn、Ph构造一条直线l,l方程可以由这两个关键点的坐标计算为:
直线l与语义分割图的服装区域相交于服装下沿关键点Pc,Pc的坐标(xc,yc)由该直线所处区域的像素值从服装值变为非服装值时的像素点的坐标表示。操作中以yn为下界,图片的最大高度height为上界,定义y从yn向height方向沿该直线有序遍历,遍历的同时计算对应l中的横坐标x。遍历过程中,判断直线上各像素点在语义分割图中的语义类型,将该直线上(x,y)处的像素值从代表服装的类型值刚好变为代表非服装的类型值时,(x,y)即所求Pc的坐标(xc,yc)。在试穿语义分割图生成器的训练阶段,该服装长度控制向量由Pc、Ph纵坐标的差与Ph、Pn纵坐标的差的比值计算得到,具体计算如下:
其中z的大小表示服装相对于身体的长度。当z<0时,在图像中体现为服装的样式或穿着效果为短款服装。当z>0时,在图像中体现为服装的样式或穿着效果为长款服装。
但需要说明的是,在试穿语义分割图生成器的推理阶段,服装长度控制向量可以同样采用上述计算方法得到,也可以由用户直接输入,由此根据自身喜好变换服装的样式或穿着效果。
S2:输入待试穿的服装图、服装图的掩码以及所述密度姿态图、所述骨架姿态图、所述服装未知的人物语义分割图和服装长度控制向量,经过预先经过训练的端到端的试穿语义分割图生成器生成待调整的试穿语义分割图。
如图4所示,所述试穿语义分割图生成器是一种端到端的网络,网络结构采用编码解码结构。试穿语义分割图生成器的网络输入分为三组,第一组输入为待试穿的服装图Ic及服装图的掩码Mc,第二组输入为服装未知的人物语义分割图Pagnostic,第三组输入为密度姿态图Idensepose、骨架姿态图Ipose和将服装长度控制向量z通过全连接层后得到的映射结果,将三组输入各自拼接后分别经过经过第一个特征提取器R1、第二个特征提取器R2、第三个特征提取器R3,由三个特征提取器下采样提取浅层特征和最深层特征,再将三个特征提取器R1、R2、R3分别提取到的最深层特征F1、F2、F3拼接后输入特征上采样融合模块中,所述特征上采样融合模块包含多层用于进行特征上采样融合的上采样层,第一层上采样层前端级联三个特征提取器;特征上采样融合模块中每一层上采样层的一部分输入为前端级联的网络层输出的三个最深层特征F1、F2、F3,另一部分输入为三个特征提取器的浅层特征,最深层特征F1、F3经过上采样后分别与来源于同一个特征提取器的同尺度浅层特征进行融合,从而输出对应的两个融合特征F′1、F′3,然后再将最深层特征F2上采样至与来源于同一个特征提取器R2的同尺度浅层特征Fl 2相同尺度从而得到F′2,将F′2、Fl 2、F′1、F′3拼接后通过一层卷积层后得到特征F″2,最后将当前上采样层中得到的特征F′1、F″2、F′3分别作为输入下一层的最深层特征F1、F2、F3;特征上采样融合模块最终输出的最深层特征以及试穿语义分割图生成器网络的三组输入一并输入归一化层中,经过拼接后经过一个卷积实现降维,输出与网络输入尺寸相同的待调整的试穿语义分割图。
上述试穿语义分割图生成器在实际用于推理之前,可预先通过条件对抗训练框架进行训练。如图5所示,训练中定义原始的待试穿服装图为Ic,服装掩码图为Mc,密度姿态图为Idensepose,骨架姿态图为Ipose,服装未知的人物语义分割图为Pagnostic,服装长度控制向量为z,原始图像的语义分割图为Pparse。服装长度控制向量z经过两层全连接映射成与密度姿态图和骨架姿态图相同尺寸的映射结果Z,将训练组(Ic,Mc,Idensepose,Ipose,Pagnostic,Z)分为(Ic,Mc),(Pagnostic),(Idensepose,Ipose,Z)三组输入生成器,生成器将提取三组输入的特征并融合,经过数层的特征上采样融合得到预测的语义分割图Pfake。在损失函数的约束下,试穿语义分割图生成器逐渐能生成与原始语义分割图相近的语义分割图,逐渐具备预测试穿语义分割图的能力。该试穿语义分割图生成器的损失函数为:
l=λ1LCE(Pfake,Pparse)+λ2LCGAN
上式中λ1和λ2为两类损失的权重系数都为1。LCE为Pfake,Pparse的像素级交叉熵损失,LCGAN为条件对抗损失。条件对抗损失表示为:
LCGAN(G,D)=Ex,y[log(D(x,y))]+Ex,y[log(1-D(x,-y))]+Ex,y[log(1-D(G(x,y),y))]+Ex,y[log(1-D(G(x,y),-y))]
其中x表示输入,y表示服装长度控制向量。该条件对抗损失的作用是判别生成器生成的语义分割图是否真实,并且是穿着短衣服还是长衣服。在本实施例中,上述训练需要进行20轮次,即可得到所需语义分割图生成器。该端到端的试穿语义分割图生成器允许使用者输入不同的服装图得到不同的服装试穿语义分割图。也允许使用者输入不同的服装长度控制向量z得到不同服装长度的服装试穿语义分割图。在实际使用中,此时得到的语义分割图为待调整的试穿语义分割图,需要进一步的修剪补偿才可以得到最终的试穿语义分割图。
S3:输入所述原始图像的语义分割图和待调整的试穿语义分割图,经过基于真值的补偿网络对待调整的试穿语义分割图进行修剪补偿,得到试穿语义分割图。
如图6所示,所述基于真值的补偿网络具体处理分为两方面,分别是修剪和补偿,具体如下:
(1)修剪。在该步骤中,待调整的试穿语义分割图中存在于多余的裤子部分。在最终的试穿图像合成中,试穿语义分割图具有引导网络生成试穿结果的作用,而该本不存在于原始图像的裤子部分会为最终的试穿图合成提供错误引导从而产生伪影或不合语义的内容。因此待调整的试穿语义分割图要经过基于原始图像的修剪处理去除这一部分多余内容,这保证了试穿前后不会生成不应该存在的裤子图案从而导致试穿图片质量下降。
(2)补偿。在修剪步骤中,因为多余的裤子部分被修剪删除,所以语义分割图会多出一小片空缺的无语义区域,所述补偿即用背景区域的值赋予该片空缺的无语义区域服装的语义,从而使语义分割图的语义完整正确。语义补偿后,该部分语义会在最终的试穿图生成中指引试穿生成器生成肚子上的皮肤部分。
在本发明的实施例中,定义原始图像的语义分割图Pparse,待调整的试穿语义分割图试穿图像语义分割图Ptryon。则基于真值的补偿网络的输入为原始图像的语义分割图Pparse和待调整的试穿语义分割图网络内的具体处理流程如下:
首先,从原始图像的语义分割图Pparse中提取裤子通道Mbottom_o,再从待调整的试穿语义分割图中提取裤子通道Mbottom,将裤子通道Mbottom与Mbottom_o相乘得到M′bottom=Mbottom⊙Mbottom_o;
然后,从待调整的试穿语义分割图中提取背景通道Mbackground,将背景通道Mbackground与(1-Mbottom)⊙Mbottom_o相加得到M′background=Mbackground+(1-Mbottom)⊙Mbottom_o;
S4:输入待试穿的服装图、服装图的掩码、所述密度姿态图、所述骨架姿态图和所述试穿语义分割图,经过预先经过训练的端到端的服装对齐生成器预测得到服装形变图。
如图7所示,所述服装对齐生成器是一种端到端的网络,网络结构采用编码解码结构,具体处理分为两方面,具体如下:
(1)预测形变参数。形变方法采用光流法,输入是服装图及其掩码、密度姿态图、骨架姿态图、试穿语义分割图。将输入分成三组并拼接在一起,分别经过三个特征提取器下采样提取特征,再将提取到的特征拼接经过一层卷积层预测第一级流参数。将三条支路上的特征和第一级流参数分别输入上采样层,同时将特征提取器提取到的每一层特征输入相对应的上采样层。在上采样层中,特征和流参数被上采样放大尺寸,然后用流参数对服装特征进行采样,采样结果与其他两个特征拼接后再输入一层卷积层得到流参数的变化值,用变化值更新流参数得到该层的流参数输出。其他特征和该层的流参数输出作为该上采样层的输出输入下一层上采样层,经过数个上采样层的特征融合和上采样,得到最终的流参数。
(2)服装形变和去重叠化。输入是服装图及其掩码、流参数、试穿语义分割图。用流参数对服装图进行采样,得到待调整的服装形变图。此时服装与试穿语义分割图没有完全对齐,且形变图里仍有与身体产生重叠的遮挡部分,因此用试穿语义分割图对待调整的服装形变图进一步修剪补偿,删除重叠的遮挡部分从而得到对齐且无重叠的服装形变图及其掩码。
因此,在本发明的实施例中,上述服装对齐生成器具体包括形变参数预测模块、服装形变和去重叠化模块,各模块中的具体处理流程如下:
上述形变参数预测模块中,输入分成三组,第一组输入是服装图Ic及服装掩码图Mc,第二组输入为密度姿态图Idensepose和骨架姿态图Ipose,第三组输入为试穿语义分割图Ptryon,将三组输入各自拼接后分别经过第一个特征提取器f1、第二个特征提取器f2、第三个特征提取器f3,由三个特征提取器下采样提取浅层特征和最深层特征,再将三个特征提取器f1、f2、f3分别提取到的最深层特征E1、E2、E3拼接后经过一层卷积层预测得到初始的流参数将三个特征提取器提取到的浅层特征、最深层特征和初始的流参数一并输入由多层上采样层级联组成的特征上采样融合模块;所述特征上采样融合模块中,第一层上采样层前端级联三个特征提取器,用流参数初始化输入特征上采样融合模块的流参数Fflow;每一层上采样层的一部分输入为该上采样层前端级联的网络层输出的三个最深层特征E1、E2、E3,另一部分输入为三个特征提取器中的浅层特征,输入的最深层特征E1、E2、E3经过上采样后分别与来源于同一个特征提取器的同尺度浅层特征进行相加融合得到新的最深层特征E′1、E′2、E′3,将输入当前上采样层的流参数Fflow上采样至与最深层特征E′1、E′2、E′3相同的尺度得到新的流参数F′flow,利用流参数F′flow对最深层特征E′1进行采样得到变形特征E1w,通过一次卷积映射将最深层特征E′2、E′3分别映射到与变形特征E1w相同尺度从而对应得到特征E2b和特征E3b,再将E1w、E2b和E3b沿通道拼接后经过一次卷积得到流参数变化值ΔFflow,将流参数变化值ΔFflow与当前的流参数Fflow相加得到新的流参数F″flow,上一层上采样层中的最深层特征E′1、E′2、E′3和流参数F″flow分别作为输入下一层上采样层的最深层特征E1、E2、E3和流参数Fflow;经过特征上采样融合模块中所有上采样层后,输出最终的流参数Fflow;
上述服装形变和去重叠化模型中,输入是服装图Ic、服装掩码图Mc、流参数Fflow和试穿语义分割图Ptryon,先用特征上采样融合模块最终输出的流参数Fflow对服装图Ic和服装掩码图Mc进行采样,得到待调整的服装形变图Icwarped_o和服装掩码形变图Mcwarped_o,再用试穿语义分割图Ptryon对待调整的服装形变图Icwarped_o和服装掩码形变图Mcwarped_o进一步修剪补偿,删除重叠的遮挡部分从而得到对齐且无重叠的服装形变图Icwarped及其掩码Mcwarped。
同样的,上述服装对齐生成器在实际用于推理之前,可预先通过条件对抗训练框架进行训练。但需要注意的是,图7中的服装对齐生成器在推理阶段的第三组输入为试穿语义分割图Ptryon,但在训练阶段中第三组输入可以替换为原始图像的语义分割图为Pparse。由此如图8所示,训练中定义原始图像为I,原始的服装图为Ic,服装掩码图为Mc,密度姿态图为Idensepose,骨架姿态图为Ipose,原始图像的语义分割图为Pparse。利用Pparse对I的上衣部区域进行提取,得到上衣区域目标图Ipc,上衣区域目标掩码图Mpc作为目标值。具体为取Pparse的服装部分Mtop,I与Mtop相乘即可得到Ipc,Mpc可直接取值Mtop。其中涉及公式如下:
Ipc=Mtop⊙I
Mpc=Mtop
利用训练组(Ic,Mc,Idensepose,Ipose,Pparse)通过生成器得到流参数Fflow。对Ic以流参数Fflow采样,得到服装采样结果Icwarped_o及其掩码Mcwarped_o。结合Icwarped_o与Pparse移除Icwarped_o与身体产生重叠的遮挡部分,具体为取Pparse的服装部分Mtop,Mtop与Mcwarped_o相乘得到Mcwarped,再用Mcwarped与Icwarped_o相乘,即可去除不对齐和重叠的遮挡部分得到最终的服装形变图Icwarped。其中涉及公式如下:
Mcwarped=Mtop⊙Mcwarped_o
Icwarped=Mcwarped⊙Icwarped_o
在损失函数的约束下,服装对齐生成器逐渐能生成与原始图像中服装相近的服装形变图,逐渐具备预测服装形变的能力。该服装对齐生成器的损失函数为:
l=λ1LVGG(Icwarped,Ipc)+λ2L1(Mcwarped,Mpc)+λ3LCGAN
上式中λ1、λ2、λ3为三类损失的权重系数都为1。LVGG为Icowarped与Ipc的VGG视觉损失,L1为Mcowarped与Mpc的L1损失,LCGAN为条件对抗损失。条件对抗损失表示为:
LCGAN(G,D)=Ex[log(D(x))]+Ex[log(1-D(G(x)))]
其中x表示输入。该条件对抗损失的作用是判别生成器生成的服装形变图是否真实。在本实施例中,上述训练需要进行20轮次,即可得到所需服装对齐生成器。
S5:输入所述服装未知的人物图、所述密度姿态图、所述骨架姿态图、所述服装形变图和所述试穿语义分割图,经过预先经过训练的端到端的试穿生成器生成最终输出的试衣图像。
如图9所示,所述试穿生成器为端到端的网络,网络为基于ALIgnmentAwareSegment(ALIAS)的试穿网络,将服装未知的人物图、密度姿态图、骨架姿态图、服装形变图拼接输入,用试穿语义分割图作为额外输入,网络将合成最终的试穿图像。
同样的,该试穿生成器在实际用于推理前也需要预先通过条件对抗训练框架进行训练。如图10所示,训练中定义原始图像为I,服装未知的人物图为Iagnostic,服装形变图为Icwarped,密度姿态图为Idensepose,骨架姿态图为Ipose,原始图像的语义分割图为Pparse。利用训练组(Icwarped,Idense□□se,Ipose,Iagnostic,Pparse)通过试穿生成器生成试穿图Ifake。该试穿生成器的损失函数为:
l=λ2LVGG(Ifake,I)+λ2LCGAN
上式中λ1、λ2为两类损失的权重系数都为1。其中,LVGG为Ifake和I的VGG视觉损失,LCGAN为条件对抗损失。条件对抗损失表示为:
LCGAN(G,D)=Ex[log(D(x))]+Ex[log(1-D(G(x)))]
其中x表示输入。该条件对抗损失的作用是判别生成器生成的试穿图是否真实。
所有的试穿语义分割图生成器、服装对齐生成和试穿生成器在训练完成后,使用者可以输入不同的服装、不同的服装长度控制向量(通过计算或者直接指定)按以上步骤获得不同服装、不同着衣方式的图片即获得服装可控的虚拟试衣效果。在本发明的实施例中,通过上述方法生成的部分虚拟试衣效果如图11所示,表明本发明可以较好地实现服装图的虚拟试穿,效果显著,且可实现虚拟试穿过程中的服装长度灵活可控。
上述对实施例的描述是为便于本技术领域的普通技术人员能理解和应用本发明。熟悉本领域技术的人员显然可以容易地对上述实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于上述实施例,本领域技术人员根据本发明的揭示,对于本发明做出的改进和修改都应该在本发明的保护范围之内。
Claims (10)
1.一种服装长度可控的虚拟试衣图生成方法,其特征在于,包括以下步骤:
S1:输入目标人物穿有原服装的原始图像以及原始图像对应的语义分割图、密度姿态图和骨架姿态图,经过预处理操作去除原始图像的服装信息,根据骨架姿态图的关键点得到服装未知的人物图、服装未知的人物语义分割图;
S2:输入待试穿的服装图、服装图的掩码以及所述密度姿态图、所述骨架姿态图、所述服装未知的人物语义分割图和服装长度控制向量,经过预先经过训练的端到端的试穿语义分割图生成器生成待调整的试穿语义分割图;
S3:输入所述原始图像的语义分割图和待调整的试穿语义分割图,经过基于真值的补偿网络对待调整的试穿语义分割图进行修剪补偿,得到试穿语义分割图;
S4:输入待试穿的服装图、服装图的掩码、所述密度姿态图、所述骨架姿态图和所述试穿语义分割图,经过预先经过训练的端到端的服装对齐生成器预测得到服装形变图;
S5:输入所述服装未知的人物图、所述密度姿态图、所述骨架姿态图、所述服装形变图和所述试穿语义分割图,经过预先经过训练的端到端的试穿生成器生成最终输出的试衣图像。
2.根据权利要求1所述的一种服装长度可控的虚拟试衣图生成方法,其特征在于,所述步骤S1中,服装未知的人物图和服装未知的人物语义分割图分别为经过处理的不包含上衣、部分裤子、手臂的原始图像及其语义分割图,其获取方法为:从骨架姿态图中获取各关键点位置并映射至原始图像上,在原始图像上连接驱干、手臂臀的关键点,形成一片覆盖手臂、上衣、部分裤子但不包括手掌部分的蒙版区域,删除原始图像及其语义分割图中蒙版区域内的图像从而达到删除服装信息的目的,最终得到服装未知的人物图和服装未知的人物语义分割图。
3.根据权利要求1所述的一种服装长度可控的虚拟试衣图生成方法,其特征在于,所述步骤S2中,服装长度控制向量为一个维度为一的离散型向量,用于表示服装长度;
在试穿语义分割图生成器的训练阶段,该服装长度控制向量由标注的服装下沿、脖子、中臀三个关键点的坐标标准化计算得到,计算方法为:
将骨架姿态图中的脖子关键点和中臀关键点映射至语义分割图上,得到语义分割图上的脖子关键点Pn(xn,yn)和中臀关键点Ph(xh,yh);连接脖子关键点Pn和中臀关键点Ph构造一条直线,并沿该直线有序遍历直线上的像素点并判断各像素点在语义分割中的语义类型,将该直线上像素值从代表服装的类型值刚好变为代表非服装的类型值时的像素点作为关键点Pc(xc,yc),该关键点Pc代表直线与语义分割图中服装下沿的交点;由Pc和Ph的纵坐标之差与Ph和Pn的纵坐标之差的比值计算得到服装长度控制向量z,具体计算公式如下:
其中z的大小表示服装相对于身体的长度,当z<0时在图像中体现为服装的样式或穿着效果为短款服装;当z>0时在图像中体现为服装的样式或穿着效果为长款服装。
4.根据权利要求1所述的一种服装长度可控的虚拟试衣图生成方法,其特征在于,所述步骤S2中,在试穿语义分割图生成器的推理阶段,服装长度控制向量由用户直接输入或者采用上述计算方法得到。
5.根据权利要求1所述的一种服装长度可控的虚拟试衣图生成方法,其特征在于,所述步骤S2中,试穿语义分割图生成器是一种端到端的网络,网络结构采用编码解码结构,网络输入分为三组,第一组输入为待试穿的服装图Ic及服装图的掩码Mc,第二组输入为服装未知的人物语义分割图Pagnostic,第三组输入为密度姿态图Idensepose、骨架姿态图Ipose和将服装长度控制向量z通过全连接层后得到的映射结果,将三组输入各自拼接后分别经过经过第一个特征提取器R1、第二个特征提取器R2、第三个特征提取器R3,由三个特征提取器下采样提取浅层特征和最深层特征,再将三个特征提取器R1、R2、R3分别提取到的最深层特征F1、F2、F3拼接后输入特征上采样融合模块中,所述特征上采样融合模块包含多层用于进行特征上采样融合的上采样层,第一层上采样层前端级联三个特征提取器;特征上采样融合模块中每一层上采样层的一部分输入为前端级联的网络层输出的三个最深层特征F1、F2、F3,另一部分输入为三个特征提取器的浅层特征,最深层特征F1、F3经过上采样后分别与来源于同一个特征提取器的同尺度浅层特征进行融合,从而输出对应的两个融合特征F'1、F'3,然后再将最深层特征F2上采样至与来源于同一个特征提取器R2的同尺度浅层特征Fl 2相同尺度从而得到F'2,将F'2、Fl 2、F'1、F'3拼接后通过一层卷积层后得到特征F”2,最后将当前上采样层中得到的特征F'1、F”2、F'3分别作为输入下一层的最深层特征F1、F2、F3;特征上采样融合模块最终输出的最深层特征以及试穿语义分割图生成器网络的三组输入一并输入归一化层中,经过拼接后经过一个卷积实现降维,输出与网络输入尺寸相同的待调整的试穿语义分割图。
6.根据权利要求1所述的一种服装长度可控的虚拟试衣图生成方法,其特征在于,所述步骤S3中,基于真值的补偿网络对待调整的试穿语义分割图进行修剪补偿,具体包括修剪和补偿两个步骤;首先,需基于原始图像对待调整的试穿语义分割图进行修剪处理,去除待调整的试穿语义分割图中存在多余的裤子部分,去除后的区域形成无语义区域;然后用背景区域的值对所述修剪步骤中形成的无语义区域进行赋值,使待调整的试穿语义分割图恢复完整。
首先,从原始图像的语义分割图Pparse中提取裤子通道Mbottom_o,再从待调整的试穿语义分割图中提取裤子通道Mbottom,将裤子通道Mbottom与Mbottom_o相乘得到M′bottom=Mbottom⊙Mbottom_o;
然后,从待调整的试穿语义分割图Prawtryon中提取背景通道Mbackground,将背景通道Mbackground与(1-Mbottom)⊙Mbottom_o相加得到M′background=Mbackground+(1-Mbottom)⊙Mbottom_o;
8.根据权利要求1所述的一种服装长度可控的虚拟试衣图生成方法,其特征在于,所述步骤S4中的服装对齐生成器是一种端到端的网络,网络结构采用编码解码结构,该网络具体包括形变参数预测模块、服装形变和去重叠化模块:
所述形变参数预测模块中,输入分成三组,第一组输入是服装图Ic及服装掩码图Mc,第二组输入为密度姿态图Idensepose和骨架姿态图Ipose,第三组输入为试穿语义分割图Ptryon,将三组输入各自拼接后分别经过第一个特征提取器f1、第二个特征提取器f2、第三个特征提取器f3,由三个特征提取器下采样提取浅层特征和最深层特征,再将三个特征提取器f1、f2、f3分别提取到的最深层特征E1、E2、E3拼接后经过一层卷积层预测得到初始的流参数将三个特征提取器提取到的浅层特征、最深层特征和初始的流参数一并输入由多层上采样层级联组成的特征上采样融合模块;所述特征上采样融合模块中,第一层上采样层前端级联三个特征提取器,用流参数初始化输入特征上采样融合模块的流参数Fflow;每一层上采样层的一部分输入为该上采样层前端级联的网络层输出的三个最深层特征E1、E2、E3,另一部分输入为三个特征提取器中的浅层特征,输入的最深层特征E1、E2、E3经过上采样后分别与来源于同一个特征提取器的同尺度浅层特征进行相加融合得到新的最深层特征E'1、E'2、E'3,将输入当前上采样层的流参数Fflow上采样至与最深层特征E'1、E'2、E'3相同的尺度得到新的流参数F′flow,利用流参数F′flow对最深层特征E'1进行采样得到变形特征E1w,通过一次卷积映射将最深层特征E'2、E'3分别映射到与变形特征E1w相同尺度从而对应得到特征E2b和特征E3b,再将E1w、E2b和E3b沿通道拼接后经过一次卷积得到流参数变化值ΔFflow,将流参数变化值ΔFflow与当前的流参数Fflow相加得到新的流参数F″flow,上一层上采样层中的最深层特征E'1、E'2、E'3和流参数F″flow分别作为输入下一层上采样层的最深层特征E1、E2、E3和流参数Fflow;经过特征上采样融合模块中所有上采样层后,输出最终的流参数Fflow;
所述服装形变和去重叠化模型中,输入是服装图Ic、服装掩码图Mc、流参数Fflow和试穿语义分割图Ptryon,先用特征上采样融合模块最终输出的流参数Fflow对服装图Ic和服装掩码图Mv进行采样,得到待调整的服装形变图Icwarped_o和服装掩码形变图Mcwarped_o,再用试穿语义分割图Ptryon对待调整的服装形变图
Icwarped_o和服装掩码形变图Mcwarped_o进一步修剪补偿,删除重叠的遮挡部分从而得到对齐且无重叠的服装形变图Icwarped及其掩码Mcwarped。
9.根据权利要求1所述的一种服装长度可控的虚拟试衣图生成方法,其特征在于,所述步骤S5中,试穿生成器为端到端的网络,该网络采用ALIAS试穿网络,其以服装未知的人物图、密度姿态图、骨架姿态图、服装形变图拼接后作为输入,同时用试穿语义分割图作为额外输入,由网络合成最终的试穿图像。
10.根据权利要求1所述的一种服装长度可控的虚拟试衣图生成方法,其特征在于,所述试穿语义分割图生成器、服装对齐生成和试穿生成器均预先通过条件对抗训练框架进行训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310177297.8A CN116168186A (zh) | 2023-02-28 | 2023-02-28 | 一种服装长度可控的虚拟试衣图生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310177297.8A CN116168186A (zh) | 2023-02-28 | 2023-02-28 | 一种服装长度可控的虚拟试衣图生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116168186A true CN116168186A (zh) | 2023-05-26 |
Family
ID=86414537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310177297.8A Pending CN116168186A (zh) | 2023-02-28 | 2023-02-28 | 一种服装长度可控的虚拟试衣图生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116168186A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117635883A (zh) * | 2023-11-28 | 2024-03-01 | 广州恒沙数字科技有限公司 | 基于人体骨骼姿态的虚拟试衣生成方法及系统 |
CN117745881A (zh) * | 2023-12-13 | 2024-03-22 | 南京英麒智能科技有限公司 | 一种通过生成衣服褶皱和衣服形变的虚拟试穿图生成方法及生成系统 |
CN117745881B (zh) * | 2023-12-13 | 2024-11-15 | 南京英麒智能科技有限公司 | 一种通过生成衣服褶皱和衣服形变的虚拟试穿图生成方法及生成系统 |
-
2023
- 2023-02-28 CN CN202310177297.8A patent/CN116168186A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117635883A (zh) * | 2023-11-28 | 2024-03-01 | 广州恒沙数字科技有限公司 | 基于人体骨骼姿态的虚拟试衣生成方法及系统 |
CN117635883B (zh) * | 2023-11-28 | 2024-05-24 | 广州恒沙数字科技有限公司 | 基于人体骨骼姿态的虚拟试衣生成方法及系统 |
CN117745881A (zh) * | 2023-12-13 | 2024-03-22 | 南京英麒智能科技有限公司 | 一种通过生成衣服褶皱和衣服形变的虚拟试穿图生成方法及生成系统 |
CN117745881B (zh) * | 2023-12-13 | 2024-11-15 | 南京英麒智能科技有限公司 | 一种通过生成衣服褶皱和衣服形变的虚拟试穿图生成方法及生成系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Han et al. | Viton: An image-based virtual try-on network | |
US11367239B2 (en) | Textured neural avatars | |
Zhu et al. | Champ: Controllable and consistent human image animation with 3d parametric guidance | |
CN111275518A (zh) | 一种基于混合光流的视频虚拟试穿方法及装置 | |
CN109978930A (zh) | 一种基于单幅图像的风格化人脸三维模型自动生成方法 | |
Minar et al. | Cloth-vton: Clothing three-dimensional reconstruction for hybrid image-based virtual try-on | |
EP3591618A2 (en) | Method and apparatus for converting 3d scanned objects to avatars | |
Kim et al. | Chupa: Carving 3d clothed humans from skinned shape priors using 2d diffusion probabilistic models | |
CN111462274A (zh) | 一种基于smpl模型的人体图像合成方法及系统 | |
CN115482062A (zh) | 一种基于图像生成的虚拟试衣方法及装置 | |
CN114693570A (zh) | 一种人体模型图像的融合处理方法、设备和存储介质 | |
CN115272632B (zh) | 基于姿态迁移的虚拟试衣方法 | |
CN116168186A (zh) | 一种服装长度可控的虚拟试衣图生成方法 | |
Bergman et al. | Articulated 3d head avatar generation using text-to-image diffusion models | |
Zhang et al. | TECA: Text-Guided Generation and Editing of Compositional 3D Avatars | |
CN117593178A (zh) | 一种基于特征引导的虚拟试衣方法 | |
CN116777738A (zh) | 基于服装区域对齐和风格保持调制的真实性虚拟试穿方法 | |
CN116452291A (zh) | 虚拟试衣方法、装置、电子设备及存储介质 | |
Zhang et al. | MMTryon: Multi-Modal Multi-Reference Control for High-Quality Fashion Generation | |
CN115936796A (zh) | 一种虚拟换妆方法、系统、设备和存储介质 | |
EP3591625A2 (en) | Method and apparatus for fitting an accessory object to an avatar | |
CN117893642B (zh) | 一种面部形状重塑与五官交换的换脸方法 | |
CN118037897B (zh) | 一种基于区域风格校正的人物属性编辑方法及装置 | |
Park et al. | StyleBoost: A Study of Personalizing Text-to-Image Generation in Any Style using DreamBooth | |
Song et al. | Human Pose Transfer with Depth Information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |