CN109978930A - 一种基于单幅图像的风格化人脸三维模型自动生成方法 - Google Patents
一种基于单幅图像的风格化人脸三维模型自动生成方法 Download PDFInfo
- Publication number
- CN109978930A CN109978930A CN201910238031.3A CN201910238031A CN109978930A CN 109978930 A CN109978930 A CN 109978930A CN 201910238031 A CN201910238031 A CN 201910238031A CN 109978930 A CN109978930 A CN 109978930A
- Authority
- CN
- China
- Prior art keywords
- face
- image
- dimensional
- information
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000006243 chemical reaction Methods 0.000 claims abstract description 48
- 238000012549 training Methods 0.000 claims abstract description 35
- 230000008569 process Effects 0.000 claims abstract description 9
- 230000014509 gene expression Effects 0.000 claims abstract description 6
- 239000000284 extract Substances 0.000 claims abstract description 5
- 239000013598 vector Substances 0.000 claims description 55
- 210000004709 eyebrow Anatomy 0.000 claims description 32
- 210000004209 hair Anatomy 0.000 claims description 30
- 238000013507 mapping Methods 0.000 claims description 27
- 238000000605 extraction Methods 0.000 claims description 16
- 238000009877 rendering Methods 0.000 claims description 10
- 238000005457 optimization Methods 0.000 claims description 8
- 230000001815 facial effect Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000012805 post-processing Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 238000002156 mixing Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 210000000887 face Anatomy 0.000 description 4
- 210000001331 nose Anatomy 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 210000001508 eye Anatomy 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 241001417519 Priacanthidae Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2024—Style variation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Architecture (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于单幅图像的风格化人脸三维模型自动生成方法,包括以下步骤:预处理和训练过程,在人像图像数据集上对每张图像提取人脸三维信息,同时对每张图像进行手动风格化人脸三维建模,得到风格化人脸三维模型;根据所述人像图像数据集以及对应的人脸三维信息,训练得到一个多任务人脸特征深度卷积网络。根据所述人像图像数据集,所述风格化人脸三维模型,以及所述人脸特征提取网络,训练得到一个人脸几何风格转化深度卷积网络和一系列人脸纹理风格转化深度卷积网络。本发明输入只需要单幅图像,有很强的通用性,解决了虚拟现实、网络社交等领域中用户数字形象的表达问题。
Description
技术领域
本发明涉及机器视觉、图像处理及三维建模技术领域,尤其涉及一种基于单幅图像的风格化人脸三维模型自动生成方法。
背景技术
人脸的三维建模是一项十分重要的技术,在电影、游戏、虚拟现实、网络社交、人脸识别和追踪等场景中有着广泛应用。根据建模所需要的输入数据,人脸建模方法可以分为三类:基于专业软件的人脸建模,基于专业设备的人脸建模,以及基于单张图像的人脸建模。根据人脸模型的具体应用场景,人脸建模的目标结果可以是人脸模型或者风格化人脸模型。
基于专业软件的人脸三维建模往往适用于电影、CG等专业领域。例如对于3DMax、Maya、Blender等商业或开源软件,用户需要花费大量的时间来学习软件的使用方法,甚至只有专业的艺术家或者设计师才能很好的使用;为了完成一个建模,用户需要花费数小时乃至数天来不断的调整和测试。所以虽然建模软件可以灵活地生成高质量的三维模型,其复杂性和专业性限制了它在普通用户中的推广。
基于专业设备的人脸三维建模一般经由扫描设备提供物体的点云或者深度信息,结合后续的对齐、重建等算法得到完整的物体模型。这种方法可以提供(设备误差范围内)精确真实的模型,但是仍然存在使用上的困难。一方面,高精度的扫描设备如激光扫描仪和多光源几何外观采集系统等,成本高昂、建模过程费时费力而且需要较高的技术门槛。另一方面,民用级别的扫描设备成本相对较低,但是对应的扫描精度往往不够高,并且仍然无法避免较复杂的使用流程。特别需要提及的是,在移动平台上,目前只有IPhone X、HuaweiMate20等少量机型可以提供扫描(深度)信息,限制了这类方法的普适程度。
基于单幅图像的三维人脸建模最适合于普通用户的方便使用:用户可以用手机自拍或者从网上下载公众人物照片,然后直接得到想要的三维人脸模型。基于单幅图像的建模存在很多困难与挑战。其中最主要的是,单幅图像无法反映物体的完整信息,如何从不完整的输入最终恢复完整的信息需要得到解决,所以这方面的工作通常都需要一些先验知识。三维人脸建模中,往往会借助于涵盖各种脸型和表情的参数化人脸数据库,然后利用数据库相关的系数拟合输入的二维人脸图像。
人脸的三维建模应用到虚拟现实或者社交领域中时,往往会遇到很多问题。首先,人对于真实人脸的认知非常严格和挑剔,建模结果的非常小的瑕疵也往往无法被容忍;利用单幅图像这样有限的输入生成非常逼真的人脸难度很大。其次,三维人脸建模有可能触发“恐怖谷”效应:随着类人物体的拟人程度增加,人类对之的好感并非一直增加,而会在非常接近而又不完全一致时,表现出非常“恐怖”的感觉。最后,用户本人希望展现的也未必是完全真实的自己,而是能够代表自身主要特点的数字形象(有可能是美化后的数字形象)。
风格化人脸建模就是为了解决人脸建模的这些问题而被引入的,能够让用户展现自我,同时又展示自己想突显的风格。一个相关样例是漫画创作,漫画人物的五官都有一定的艺术处理同时又能够展示不同人物的主要特征。近些年深度神经网络的发展使得二维图像的风格化处理取得了很大的突破,但是如何对三维模型进行风格化处理仍然缺少解决方案。
发明内容
本发明的目的是针对现有技术的不足,提供一种基于单幅图像的风格化人脸三维模型自动生成方法,以解决虚拟现实、网络社交等领域中用户数字形象的表达问题。
为实现上述发明目的,本发明提供以下技术方案:一种基于单幅图像的风格化人脸三维模型自动生成方法,包括以下步骤:
(1)人脸数据库预处理:在人像图像数据集上对每张图像提取人脸三维信息,同时对每张图像进行手动风格化人脸三维建模,得到风格化人脸三维模型。
(2)人脸特征提取网络:根据步骤1所述人像图像数据集以及对应的人脸三维信息,训练得到一个多任务人脸特征深度卷积网络。
(3)人脸风格转化网络:根据步骤1所述人像图像数据集和风格化人脸三维模型,以及步骤2训练得到的人脸特征深度卷积网络,训练得到一个人脸几何风格转化深度卷积网络和一系列人脸纹理风格转化深度卷积网络,所述人脸几何风格转化深度卷积网络和人脸纹理风格转化深度卷积网络构成人脸风格转化网络。
(4)输入待处理图像后,运行步骤2训练得到的人脸特征提取网络和步骤3训练得到的人脸风格转化网络,输出人脸几何结果和纹理结果,对输出的人脸几何结果进行后处理,对输出的纹理结果进行融合,最终得到风格化人脸三维模型。
进一步地,所述步骤(1)中,所述在人像图像数据集上对每张图像提取人脸三维信息具体为:
首先,对输入的人像图像数据集的图像标注人脸的二维信息,包括人脸关键点,以及头发、眉毛、胡须区域掩膜。其中人脸关键点是指包括脸颊边缘,眼睛、眉毛、鼻子、嘴巴轮廓的特征点位置;掩膜是指二值化像素区域,在区域内部取值为1,区域外部取值为0。
然后,结合人脸关键点信息以及图像颜色信息进行三维拟合算法,得到人脸的三维信息,包括三维几何信息和纹理贴图信息;具体操作过程是:把每个人脸信息表示为一个三角形网格,网格每个顶点包含一个顶点几何坐标和一个UV纹理坐标,每个网格对应一张纹理贴图,对人脸的三维信息进行PCA分解,表达为:
其中,是平均人脸的网格顶点几何坐标,Ws是网格顶点几何坐标的PCA向量矩阵,α是几何参数向量;是平均纹理贴图,Wt是纹理贴图的PCA向量矩阵,β是纹理参数向量。
然后优化如下能量方程:
Efit(M,α,β)=λlEl(M,α,β)+λaEa(M,α,β)+λrEr(α,β)
其中,M是相机外参,λl,λa,λr分别是三个能量项El,Ea,Er的权重。El(M,α,β)最小化人脸关键点的投影位置和图像标注位置的差异:
P(·)代表相机投影函数,sj表示s在第j个人脸关键点上的顶点几何坐标,是对应的图像标注位置;Ei(M,α,β)最小化人脸绘制结果和图像像素的颜色差异:
Ru,v(·)是绘制函数,表示把三维网格绘制到图像上后在像素u,v的颜色取值,Iu,v表示输入图像在像素u,v的颜色取值;Er(α,β)是正则项,惩罚过拟合问题:
Er(α,β)=||α||2+||β||2
最后,能量方程Efit(M,α,β)使用标准的Gauss-Newton方法迭代求解。
进一步地,所述步骤2具体为:根据输入图像,以及对应的标注信息,训练一个多任务深度卷积网络,其输入为RGB三通道的图像,输出包括:相机的参数信息,人脸的三维几何信息,人脸的纹理贴图信息,头发区域掩膜,眉毛区域掩膜,胡须区域掩膜。多任务深度卷积网络由两个模块构成,第一个模块输入RGB图像,进行多层卷积相关操作,提取图像的抽象特征;第二个模块以第一个模块提取的抽象特征为输入,包含多个分支,每个分支由卷积、反卷积或全连接相关操作构成,分别预测人脸的不同信息。
进一步地,所述步骤3中,所述训练得到一个人脸几何风格转化深度卷积网络具体为:根据输入图像,在所述多任务人脸特征深度卷积网络输出的人脸三维几何信息上计算每个顶点的位置和法向量,这些位置和法向量按照模型的UV展开可以绘制到一张6通道图像A上;类似地,对所述的该输入图像的风格化人脸三维模型,顶点位置和法向量也可以展开绘制到一张六通道图像B上。人脸几何风格转化网络输入图像A,经过一系列卷积和反卷积相关操作,最小化网络输出图像和B的欧氏距离。
所述训练一系列人脸纹理风格转化深度卷积网络具体为:根据输入图像,结合多任务人脸特征深度卷积网络输出的人脸纹理贴图信息,头发、眉毛、胡须区域掩膜,以及所述风格化人脸三维模型的纹理贴图,分别训练面部非毛发区域纹理风格转化网络,眉毛区域纹理风格转化网络,以及胡须区域纹理风格转化网络。
进一步地,所述步骤4中,所述运行步骤2训练得到的人脸特征提取网络和步骤3训练得到的人脸风格转化网络,输出人脸几何结果和纹理结果具体为:用户输入单幅图像,首先运行所述人脸特征提取网络得到人脸的三维几何信息,纹理贴图,头发、眉毛、胡须区域掩膜;然后运行所述人脸风格转化网络,得到风格化人脸三维模型的法向量UV展开和纹理贴图,包括非毛发区域、眉毛区域、胡须区域的三张贴图。
所述对输出的人脸几何结果进行后处理具体为:根据所述风格化人脸三维模型自动生成方法输出的人脸三维几何模型的顶点位置和法向量UV展开,提取模型每个面片的平均法向量信息,以及每个顶点的位置信息。结合顶点位置信息和面片法向量信息,联合优化输出人脸风格化几何结果。
所述对输出的纹理结果进行融合具体为:根据所述风格化人脸三维模型自动生成方法输出的非毛发区域、眉毛区域、胡须区域的三张风格化纹理贴图,进行半透明混合输出一张人脸整体的风格化纹理结果。
本发名的有益效果是:首先输入只需要单幅图像,有很强的通用性;其次可以运行所述人脸特征提取网络和人脸风格转化网络,对输出的人脸几何结果进行自动后处理,对输出的纹理结果进行自动融合,最终得到风格化人脸三维模型,解决了虚拟现实、网络社交等领域中用户数字形象的表达问题。
附图说明
图1是基于单幅图像的风格化人脸三维模型自动生成方法的流程示意图;
图2是数据预处理,给定输入图像,首先标注特征点和头发区域掩膜,然后标注眉毛和胡须区域掩膜;
图3是三维拟合得到的人脸三维信息,包括几何信息和纹理信息;
图4是输入图像的风格化人脸三维模型,包括几何模型和纹理贴图;
图5是人脸特征提取网络;
图6是人脸几何风格转化深度卷积网络;
图7是面部非毛发区域的纹理风格转化网络;
图8是眉毛区域的纹理风格转化网络;
图9是胡须区域的纹理风格转化网络;
图10是最后生成的风格化人脸三维模型,包括几何模型,纹理结果,以及结合几何模型纹理贴图的最终风格化人脸三维模型绘制结果;
具体实施方式
本发明基于单幅图像的风格化人脸三维模型自动生成方法,包括以下步骤:
1、人脸数据库预处理:在人像图像数据集上对每张图像提取人脸三维信息,同时对每张图像进行手动风格化人脸三维建模,得到风格化人脸三维模型。
所述人像图像数据集可以采用FaceWareHorse三维人脸数据库(FaceWarehouse:a3D Facial Expression Database for Visual Computing.Chen Cao,Yanlin Weng,ShunZhou,Yiying Tong,Kun Zhou IEEE TVCG,20(3):413-425,2014);其它公开人脸数据集或者自行采集的人脸图像数据也均可以使用。
所述对每张图像提取人脸三维信息包括以下子步骤:
首先,对输入的人像图像数据集的图像标注人脸的二维信息,包括人脸关键点,以及头发、眉毛、胡须区域掩膜。其中人脸关键点是指包括脸颊边缘,眼睛、眉毛、鼻子、嘴巴轮廓的特征点位置;掩膜是指二值化像素区域,在区域内部取值为1,区域外部取值为0。具体关键点和掩膜的定义参考图2。
然后,结合人脸关键点信息以及图像颜色信息进行三维拟合算法,得到人脸的三维信息,包括三维几何信息和纹理贴图信息(如图3所示);具体操作过程是,把每个人脸信息表示为一个三角形网格,网格每个顶点包含一个顶点几何坐标和一个UV纹理坐标,每个网格对应一张纹理贴图。对人脸的三维信息进行PCA分解,表达为:
其中,是平均人脸的网格顶点几何坐标,Ws是网格顶点几何坐标的PCA向量矩阵,α是几何参数向量,每个α对应一个人脸几何网格;类似的,是平均纹理贴图,Wt是纹理贴图的PCA向量矩阵,β是纹理参数向量。
然后优化如下能量方程:
Efit(M,α,β)=λlEl(M,α,β)+λaEa(M,α,β)+λrEr(α,β)
其中,M是相机外参,λl,λa,λr分别是三个能量项El,Ea,Er的权重。具体的,El(M,α,β)最小化人脸关键点的投影位置和图像标注位置的差异:
P(·)代表相机投影函数,sj表示s在第j个人脸关键点上的顶点几何坐标,是对应的图像标注位置;Ei(M,α,β)最小化人脸绘制结果和图像像素的颜色差异:
Ru,v(·)是绘制函数,表示把三维网格绘制到图像上后在像素u,v的颜色取值,Iu,v表示输入图像在像素u,v的颜色取值;Er(α,β)是正则项,惩罚过拟合问题:
Er(α,β)=||α||2+||β||2
最后,能量方程Efit(M,α,β)使用标准的Gauss-Newton方法迭代求解。
所述对每张图像进行手动风格化人脸三维建模包括:
首先定义一种风格化类型(如大眼睛、小鼻子、小嘴巴、肤色均一这种动漫风格类型),然后根据所提取人脸三维信息进行风格化修正(拉大眼睛、调整小鼻子和嘴巴比例、磨平人脸肤色等),得到对应的风格化人脸三维模型。这里风格化类型可以根据实际需要自由指定,图4给出了一种风格示例。需要注意的是,数据处理和预训练过程对于每种给定风格只需进行一次。完成数据处理和预训练后,后续输入一张图像,即可全自动地运行神经网络推导过程,最终生成用户的风格化人脸三维模型。另外需要注意的是,虽然本方法着重关注面部五官区域,但是由于本方法已经分割出头发掩膜,因此头发的自动三维建模可以使用已有的基于轮廓线和方向场匹配的方法简单得到。
2、人脸特征提取网络:根据步骤1所述人像图像数据集以及对应的人脸三维信息,训练得到一个多任务人脸特征深度卷积网络。
所述训练得到一个多任务人脸特征深度卷积网络意思是根据输入图像,以及对应的所述人脸三维信息,训练一个多任务深度卷积网络,其输入为RGB三通道的图像,输出包括:相机的参数信息,人脸的三维几何信息,人脸的纹理贴图信息,头发区域掩膜,眉毛区域掩膜,胡须区域掩膜。多任务深度卷积网络由两个模块构成,第一个模块输入RGB图像,进行多层卷积相关操作,提取图像的抽象特征;第二个模块以第一个模块提取的抽象特征为输入,包含多个分支,每个分支由卷积、反卷积或全连接相关操作构成,分别预测人脸的不同信息(图5)。
具体的,所述第一个模块输入RGB图像,进行多层卷积相关操作,提取图像的抽象特征包括:输入单张RGB图像;首先截取人脸框区域并缩放到224x224大小,然后按顺序进行如下表所示的卷积网络进行特征提取:
上面的网络每个卷积层后面会链接一个Relu激活函数进行非线性变换,这也是深度神经网络中的标准处理方式。
具体的,所述第二个模块以第一个模块提取的抽象特征为输入,包含多个分支,每个分支由卷积、反卷积或全连接相关操作构成,分别预测人脸的不同信息包括:
(1)相机参数估计分支:包含单个全连接层,接受MaxPool的结果作为输入,然后输出一个6维向量,表示相机的旋转和平移。
(2)几何参数向量α估计分支:包含单个全连接层,接受MaxPool的结果作为输入,然后输出nα维向量,其中nα是α的维度。
(3)纹理参数向量β估计分支:包含单个全连接层,接受MaxPool的结果作为输入,然后输出nβ维向量,其中nβ是β的维度。
(4)头发区域掩膜分割分支:包含三个反卷积层,接受Conv33的结果作为输入,进行三次3x3/0.5的反卷积,分别输出56x56x64,112x112x32,224x224x1;最终得到和输入图像尺寸一致的掩膜,代表头发所占的像素区域。
(5)胡须区域掩膜分割分支:包含三个反卷积层,接受Conv33的结果作为输入,进行三次3x3/0.5的反卷积,分别输出56x56x64,112x112x32,224x224x1;最终得到和输入图像尺寸一致的掩膜,代表胡须所占的像素区域。
(6)眉毛区域掩膜分割分支:包含三个反卷积层,接受Conv33的结果作为输入,进行三次3x3/0.5的反卷积,分别输出56x56x64,112x112x32,224x224x1;最终得到和输入图像尺寸一致的掩膜,代表眉毛所占的像素区域。
利用深度卷积网络拟合人脸三维信息有很多已有的工作。本方法的处理策略是从输入图像直接回归几何参数向量α和纹理参数向量β,也就是说把这两个向量差异的二范数作为神经网络的损失函数,这样做的主要原因是从两个系数就可以重建人脸三维信息,并且直接回归系数使得网络训练非常简单,有利于快速收敛;在此之上,引入多任务机制,使得同一个网络可以同时给出多个输出。多任务机制一方面使得信息的利用更加充分,减少了计算量,另一方面增强了模型的泛化能力,减少了过拟合;类似的方法和观察在基于深度神经网络的语义分割、目标检测、识别等任务中已经被广泛使用和研究。
3、人脸风格转化网络:根据步骤1所述人像图像数据集和风格化人脸三维模型,以及步骤2训练得到的人脸特征深度卷积网络,训练得到一个人脸几何风格转化深度卷积网络和一系列人脸纹理风格转化深度卷积网络,所述人脸几何风格转化深度卷积网络和人脸纹理风格转化深度卷积网络构成人脸风格转化网络。
所述训练得到一个人脸几何风格转化深度卷积网络包括(图6):
根据输入图像,在所述人脸特征提取网络输出的人脸三维几何信息上计算每个顶点的位置和法向量,这些位置和法向量按照模型的UV展开可以绘制到一张6通道图像A上;类似地,对所述的该输入图像的手动风格化人脸建模,模型的顶点位置和法向量也可以展开绘制到一张六通道图像B上。人脸几何风格转化网络输入图像A,经过一系列卷积和反卷积相关操作,最小化网络输出图像和B的欧氏距离。
具体的,所述这些位置和法向量按照模型的UV展开可以绘制到一张6通道图像A上包括:
记网格顶点几何位置为(vx,vy,vz),法向量为(nx,ny,nz),纹理坐标为(tu,tv);对于网格的所有三角形面片,以(tu,tv)为坐标,vx为颜色进行三角形绘制,可以得到一个通道的图像;类似的可以得到其他五个通道的图像。
具体的,所述经过一系列卷积和反卷积相关操作包括:
根据所述输入图像A;首先放缩到224x224x6大小,然后进行“沙漏”类型的网络模型。这种类型的网络模型首先把图像下采样到较低的分辨率,然后上采样到原分辨率,采样过程中中间层次会允许信息连接,避免了下采样造成的细节丢失。这种模型已经成功应用在了基于卷积神经网络的语义分割任务中,并且在输出精细程度上取得了非常成功的进展。具体网络定义参考下表:
网络层名称 | 卷积核尺寸/步长 | 网络层输出 |
FConv1 | 3x3/2 | 112x112x96 |
FConv2 | 3x3/2 | 56x56x256 |
FConv3 | 3x3/2 | 28x28x384 |
FConv4 | 3x3/1 | 28x28x384 |
FConv5 | 3x3/1 | 28x28x256 |
RConv5 | 3x3/1 | 28x28x384 |
RConv4 | 3x3/1 | 28x28x384 |
RConv3 | 3x3/0.5 | 56x56x256 |
RConv2 | 3x3/0.5 | 112x112x96 |
RConv1 | 3x3/0.5 | 224x224x6 |
表格中上一层的输出总是作为下一层的输入外,FConv1的输出会经过一个1x1/1的卷积后同时作为RConv1的输入;FConv2-RConv2,FConv3-RConv3,FConv4-RConv4有类似的连接。
具体的,所述最小化网络输出图像和B的欧式距离意思是定义网络优化的损失函数:
L=Lrec+λregLreg
Ii是RConv1的输出在像素点i的取值,Bi是图像B在该像素的取值,表示像素i的一环邻域;Lrec约束了网络输出的图像和给定风格图像必须足够相似;Lreg是平滑正则项,约束了输出图像的局部光滑性质,这个约束是必要的,因为人脸几何的局部是光滑的;λreg是正则项权重。
所述一系列人脸纹理风格转化深度卷积网络包括:
根据输入图像,结合步骤1所述多任务人脸特征深度卷积网络输出的人脸纹理贴图,头发、眉毛、胡须区域掩膜,以及对应的所述手动风格化人脸三维建模得到的风格化纹理贴图,训练如下几个纹理风格转化网络:
(1)面部非毛发区域纹理风格转化网络输入去除头发、眉毛、胡须区域的人脸纹理,经过一系列卷积和反卷积相关操作,最小化网络输出和对应的去除头发、眉毛、胡须区域的风格化人脸纹理的欧式距离(图7)。
(2)眉毛区域纹理风格转化网络使用眉毛区域掩膜内的图像像素作为输入,其他与面部非毛发区域策略一致(图8)。
(3)胡须区域纹理风格转化网络使用胡须区域掩膜内的图像像素作为输入,与面部非毛发区域策略一致(图9)。
这三个风格转化网络虽然策略一致,但是需要用三个网络分别处理,原因在于非毛发区域、眉毛区域、胡须区域的风格化差异较大,放在一起处理会导致网络的学习难度过大,增加收敛难度且降低泛化能力。
纹理风格转化网络的具体结构与所述人脸几何风格转化网络的“hourglass”结构基本一致,区别在于输入不再是6通道顶点法向量图像,而是3通道颜色图像;另外损失函数不再加入平滑正则项,因为颜色图像不能保证局部平滑性质。
4、输入待处理图像后,运行步骤2训练得到的人脸特征提取网络和步骤3训练得到的人脸风格转化网络,输出人脸几何结果和纹理结果,对输出的人脸几何结果进行后处理,对输出的纹理结果进行融合,最终得到风格化人脸三维模型(图10)。
所述运行步骤2训练得到的人脸特征提取网络和步骤3训练得到的人脸风格转化网络,输出人脸几何结果和纹理结果包括:
用户输入单幅图像,首先运行所述人脸特征提取网络得到人脸的三维几何模型,纹理贴图,头发、眉毛、胡须区域掩膜;然后运行所述人脸风格转化网络,得到风格化人脸三维几何模型的法向量UV展开和风格化纹理贴图,包括非毛发区域、眉毛区域、胡须区域的三张贴图。因为在前面步骤中各个网络已经训练完成,所以这一步骤直接依次运行各个网络即可,没有复杂的额外操作。
所述对输出的几何结果进行自动后处理包括:
根据所述风格化人脸三维模型自动生成方法输出的人脸三维几何模型的顶点位置和法向量UV展开,提取模型每个面片的平均法向量信息,以及每个顶点的位置信息。结合顶点位置信息和面片法向量信息,联合优化得到最终的人脸风格化三维几何模型。
具体的,所述提取模型每个面片的平均法向量信息意思是,对于每个三角形面片f,遍历人脸几何风格转化深度卷积网络输出的图像像素,并计算所有属于面片f纹理空间的像素法向量的平均值,归一化得到面片的平均法向量
具体的,所述以及每个顶点的位置信息意思是,对于每个三角形顶点j,根据其纹理坐标直接在人脸几何风格转化深度卷积网络输出的图像像素上取位置坐标信息,得到
具体的,所述结合顶点位置信息和面片法向量信息,联合优化得到最终的人脸风格化三维几何模型意思是,定义优化问题:
这里表示法向量转置,vf,k(k=0,1,2)表示三角形面片f的第k个顶点;λ是权重参数。这个优化问题一方面约束目标三角形网格的顶点坐标和神经网络输出接近,另一方面同时约束目标三角形网格的面法向量和神经网络输出接近。之所以不直接利用神经网络输出的顶点坐标,而要结合利用法向量信息,原因在于法向量信息蕴含了更多的局部信息,而神经网络处理局部信息的能力更强。上述优化问题是一个线性问题,可以直接求解得到闭式解。
所述对输出的纹理结果进行自动融合意思是,根据所述风格化人脸三维模型自动生成方法输出的非毛发区域、眉毛区域、胡须区域的三张风格化纹理贴图,进行半透明混合得到一张人脸整体的风格化纹理贴图。
Claims (5)
1.一种基于单幅图像的风格化人脸三维模型自动生成方法,包括以下步骤:
(1)人脸数据库预处理:在人像图像数据集上对每张图像提取人脸三维信息,同时对每张图像进行手动风格化人脸三维建模,得到风格化人脸三维模型。
(2)人脸特征提取网络:根据步骤1所述人像图像数据集以及对应的人脸三维信息,训练得到一个多任务人脸特征深度卷积网络。
(3)人脸风格转化网络:根据步骤1所述人像图像数据集和风格化人脸三维模型,以及步骤2训练得到的人脸特征深度卷积网络,训练得到一个人脸几何风格转化深度卷积网络和一系列人脸纹理风格转化深度卷积网络,所述人脸几何风格转化深度卷积网络和人脸纹理风格转化深度卷积网络构成人脸风格转化网络。
(4)输入待处理图像后,运行步骤2训练得到的人脸特征提取网络和步骤3训练得到的人脸风格转化网络,输出人脸几何结果和纹理结果,对输出的人脸几何结果进行后处理,对输出的纹理结果进行融合,最终得到风格化人脸三维模型。
2.如权利要求1所述的基于单幅图像的风格化人脸三维模型自动生成方法,其特征在于,所述步骤(1)中,所述在人像图像数据集上对每张图像提取人脸三维信息具体为:
首先,对输入的人像图像数据集的图像标注人脸的二维信息,包括人脸关键点,以及头发、眉毛、胡须区域掩膜。其中人脸关键点是指包括脸颊边缘,眼睛、眉毛、鼻子、嘴巴轮廓的特征点位置;掩膜是指二值化像素区域,在区域内部取值为1,区域外部取值为0。
然后,结合人脸关键点信息以及图像颜色信息进行三维拟合算法,得到人脸的三维信息,包括三维几何信息和纹理贴图信息;具体操作过程是:把每个人脸信息表示为一个三角形网格,网格每个顶点包含一个顶点几何坐标和一个UV纹理坐标,每个网格对应一张纹理贴图,对人脸的三维信息进行PCA分解,表达为:
其中,是平均人脸的网格顶点几何坐标,Ws是网格顶点几何坐标的PCA向量矩阵,α是几何参数向量;是平均纹理贴图,Wt是纹理贴图的PCA向量矩阵,β是纹理参数向量。
然后优化如下能量方程:
Efit(M,α,β)=λlEl(M,α,β)+λaEa(M,α,β)+λrEr(α,β)
其中,M是相机外参,λl,λa,λr分别是三个能量项El,Ea,Er的权重。El(M,α,β)最小化人脸关键点的投影位置和图像标注位置的差异:
P(·)代表相机投影函数,sj表示s在第j个人脸关键点上的顶点几何坐标,是对应的图像标注位置;Ei(M,α,β)最小化人脸绘制结果和图像像素的颜色差异:
Ru,v(·)是绘制函数,表示把三维网格绘制到图像上后在像素u,v的颜色取值,Iu,v表示输入图像在像素u,v的颜色取值;Er(α,β)是正则项,惩罚过拟合问题:
Er(α,β)=||α||2+||β||2
最后,能量方程Efit(M,α,β)使用标准的Gauss-Newton方法迭代求解。
3.如权利要求1所述的基于单幅图像的风格化人脸三维模型自动生成方法,其特征在于,所述步骤2具体为:根据输入图像,以及对应的标注信息,训练一个多任务深度卷积网络,其输入为RGB三通道的图像,输出包括:相机的参数信息,人脸的三维几何信息,人脸的纹理贴图信息,头发区域掩膜,眉毛区域掩膜,胡须区域掩膜。多任务深度卷积网络由两个模块构成,第一个模块输入RGB图像,进行多层卷积相关操作,提取图像的抽象特征;第二个模块以第一个模块提取的抽象特征为输入,包含多个分支,每个分支由卷积、反卷积或全连接相关操作构成,分别预测人脸的不同信息。
4.如权利要求1所述的基于单幅图像的风格化人脸三维模型自动生成方法,其特征在于,所述步骤3中,所述训练得到一个人脸几何风格转化深度卷积网络具体为:根据输入图像,在所述多任务人脸特征深度卷积网络输出的人脸三维几何信息上计算每个顶点的位置和法向量,这些位置和法向量按照模型的UV展开可以绘制到一张6通道图像A上;类似地,对所述的该输入图像的风格化人脸三维模型,顶点位置和法向量也可以展开绘制到一张六通道图像B上。人脸几何风格转化网络输入图像A,经过一系列卷积和反卷积相关操作,最小化网络输出图像和B的欧氏距离。
所述训练一系列人脸纹理风格转化深度卷积网络具体为:根据输入图像,结合多任务人脸特征深度卷积网络输出的人脸纹理贴图信息,头发、眉毛、胡须区域掩膜,以及所述风格化人脸三维模型的纹理贴图,分别训练面部非毛发区域纹理风格转化网络,眉毛区域纹理风格转化网络,以及胡须区域纹理风格转化网络。
5.如权利要求1所述的基于单幅图像的风格化人脸三维模型自动生成方法,其特征在于,所述步骤4中,所述运行步骤2训练得到的人脸特征提取网络和步骤3训练得到的人脸风格转化网络,输出人脸几何结果和纹理结果具体为:用户输入单幅图像,首先运行所述人脸特征提取网络得到人脸的三维几何信息,纹理贴图,头发、眉毛、胡须区域掩膜;然后运行所述人脸风格转化网络,得到风格化人脸三维模型的法向量UV展开和纹理贴图,包括非毛发区域、眉毛区域、胡须区域的三张贴图。
所述对输出的人脸几何结果进行后处理具体为:根据所述风格化人脸三维模型自动生成方法输出的人脸三维几何模型的顶点位置和法向量UV展开,提取模型每个面片的平均法向量信息,以及每个顶点的位置信息。结合顶点位置信息和面片法向量信息,联合优化输出人脸风格化几何结果。
所述对输出的纹理结果进行融合具体为:根据所述风格化人脸三维模型自动生成方法输出的非毛发区域、眉毛区域、胡须区域的三张风格化纹理贴图,进行半透明混合输出一张人脸整体的风格化纹理结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910238031.3A CN109978930B (zh) | 2019-03-27 | 2019-03-27 | 一种基于单幅图像的风格化人脸三维模型自动生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910238031.3A CN109978930B (zh) | 2019-03-27 | 2019-03-27 | 一种基于单幅图像的风格化人脸三维模型自动生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109978930A true CN109978930A (zh) | 2019-07-05 |
CN109978930B CN109978930B (zh) | 2020-11-10 |
Family
ID=67080944
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910238031.3A Active CN109978930B (zh) | 2019-03-27 | 2019-03-27 | 一种基于单幅图像的风格化人脸三维模型自动生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109978930B (zh) |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110334679A (zh) * | 2019-07-11 | 2019-10-15 | 厦门美图之家科技有限公司 | 人脸点处理方法及装置 |
CN110443892A (zh) * | 2019-07-25 | 2019-11-12 | 北京大学 | 一种基于单张图像的三维网格模型生成方法及装置 |
CN111353470A (zh) * | 2020-03-13 | 2020-06-30 | 北京字节跳动网络技术有限公司 | 图像的处理方法、装置、可读介质和电子设备 |
CN111354079A (zh) * | 2020-03-11 | 2020-06-30 | 腾讯科技(深圳)有限公司 | 三维人脸重建网络训练及虚拟人脸形象生成方法和装置 |
CN111368685A (zh) * | 2020-02-27 | 2020-07-03 | 北京字节跳动网络技术有限公司 | 关键点的识别方法、装置、可读介质和电子设备 |
CN111369427A (zh) * | 2020-03-06 | 2020-07-03 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、可读介质和电子设备 |
CN111524207A (zh) * | 2020-04-21 | 2020-08-11 | 腾讯科技(深圳)有限公司 | 基于人工智能的图像生成方法、装置、电子设备 |
CN111667400A (zh) * | 2020-05-30 | 2020-09-15 | 温州大学大数据与信息技术研究院 | 一种基于无监督学习的人脸轮廓特征风格化生成方法 |
CN112396693A (zh) * | 2020-11-25 | 2021-02-23 | 上海商汤智能科技有限公司 | 一种面部信息的处理方法、装置、电子设备及存储介质 |
CN112581481A (zh) * | 2020-12-30 | 2021-03-30 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
CN112581358A (zh) * | 2020-12-17 | 2021-03-30 | 北京达佳互联信息技术有限公司 | 图像处理模型的训练方法、图像处理方法及装置 |
US20210110557A1 (en) * | 2019-10-10 | 2021-04-15 | Andrew Thomas Busey | Pattern-triggered object modification in augmented reality system |
CN112991523A (zh) * | 2021-04-02 | 2021-06-18 | 福建天晴在线互动科技有限公司 | 一种高效自动化的头发匹配头型生成方法及其生成装置 |
CN113012282A (zh) * | 2021-03-31 | 2021-06-22 | 深圳市慧鲤科技有限公司 | 三维人体重建方法、装置、设备及存储介质 |
CN113111861A (zh) * | 2021-05-12 | 2021-07-13 | 北京深尚科技有限公司 | 人脸纹理特征提取、3d人脸重建方法及设备及存储介质 |
CN113256694A (zh) * | 2020-02-13 | 2021-08-13 | 北京沃东天骏信息技术有限公司 | 一种眉笔绘制方法和装置 |
CN113269888A (zh) * | 2021-05-25 | 2021-08-17 | 山东大学 | 一种发型三维建模方法、人物三维建模方法及系统 |
CN113284229A (zh) * | 2021-05-28 | 2021-08-20 | 上海星阑信息科技有限公司 | 三维人脸模型生成方法、装置、设备及存储介质 |
WO2021174939A1 (zh) * | 2020-03-03 | 2021-09-10 | 平安科技(深圳)有限公司 | 人脸图像的获取方法与系统 |
CN113409454A (zh) * | 2021-07-14 | 2021-09-17 | 北京百度网讯科技有限公司 | 人脸图像处理方法、装置、电子设备及存储介质 |
CN113470182A (zh) * | 2021-09-03 | 2021-10-01 | 中科计算技术创新研究院 | 人脸几何特征编辑方法及深度人脸重塑编辑方法 |
CN113470162A (zh) * | 2020-03-30 | 2021-10-01 | 京东方科技集团股份有限公司 | 三维头部模型的构建方法、装置、系统及存储介质 |
CN113538221A (zh) * | 2021-07-21 | 2021-10-22 | Oppo广东移动通信有限公司 | 三维人脸的处理方法、训练方法、生成方法、装置及设备 |
CN113570634A (zh) * | 2020-04-28 | 2021-10-29 | 北京达佳互联信息技术有限公司 | 对象三维重建方法、装置、电子设备及存储介质 |
CN114119154A (zh) * | 2021-11-25 | 2022-03-01 | 北京百度网讯科技有限公司 | 虚拟化妆的方法及装置 |
CN114299206A (zh) * | 2021-12-31 | 2022-04-08 | 清华大学 | 三维卡通人脸生成方法、装置、电子设备及存储介质 |
CN115147578A (zh) * | 2022-06-30 | 2022-10-04 | 北京百度网讯科技有限公司 | 风格化三维人脸生成方法、装置、电子设备及存储介质 |
CN115761855A (zh) * | 2022-11-23 | 2023-03-07 | 北京百度网讯科技有限公司 | 面部关键点信息生成、神经网络训练和三维面部重建方法 |
CN116740300A (zh) * | 2023-06-16 | 2023-09-12 | 广东工业大学 | 一种基于多模态的素体与纹理融合家具模型重建方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101303772A (zh) * | 2008-06-20 | 2008-11-12 | 浙江大学 | 一种基于单幅图像的非线性三维人脸建模方法 |
CN101751689A (zh) * | 2009-09-28 | 2010-06-23 | 中国科学院自动化研究所 | 一种三维人脸重建方法 |
CN103208133A (zh) * | 2013-04-02 | 2013-07-17 | 浙江大学 | 一种图像中人脸胖瘦的调整方法 |
CN107358648A (zh) * | 2017-07-17 | 2017-11-17 | 中国科学技术大学 | 基于单张人脸图像的实时全自动高质量三维人脸重建方法 |
CN109255827A (zh) * | 2018-08-24 | 2019-01-22 | 太平洋未来科技(深圳)有限公司 | 三维人脸图像生成方法、装置及电子设备 |
CN109255831A (zh) * | 2018-09-21 | 2019-01-22 | 南京大学 | 基于多任务学习的单视图人脸三维重建及纹理生成的方法 |
-
2019
- 2019-03-27 CN CN201910238031.3A patent/CN109978930B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101303772A (zh) * | 2008-06-20 | 2008-11-12 | 浙江大学 | 一种基于单幅图像的非线性三维人脸建模方法 |
CN101751689A (zh) * | 2009-09-28 | 2010-06-23 | 中国科学院自动化研究所 | 一种三维人脸重建方法 |
CN103208133A (zh) * | 2013-04-02 | 2013-07-17 | 浙江大学 | 一种图像中人脸胖瘦的调整方法 |
CN107358648A (zh) * | 2017-07-17 | 2017-11-17 | 中国科学技术大学 | 基于单张人脸图像的实时全自动高质量三维人脸重建方法 |
CN109255827A (zh) * | 2018-08-24 | 2019-01-22 | 太平洋未来科技(深圳)有限公司 | 三维人脸图像生成方法、装置及电子设备 |
CN109255831A (zh) * | 2018-09-21 | 2019-01-22 | 南京大学 | 基于多任务学习的单视图人脸三维重建及纹理生成的方法 |
Non-Patent Citations (2)
Title |
---|
AYUSH TEWARI ET AL.: "MoFA: Model-based Deep Convolutional Face Autoencoder for Unsupervised Monocular Reconstruction", 《ICCV》 * |
LI FANGMIN ET AL.: "3D Face Reconstruction Based on Convolutional Neural Network", 《2017 10TH INTERNATIONAL CONFERENCE ON INTELLIGENT COMPUTATION TECHNOLOGY AND AUTOMATION》 * |
Cited By (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110334679A (zh) * | 2019-07-11 | 2019-10-15 | 厦门美图之家科技有限公司 | 人脸点处理方法及装置 |
CN110334679B (zh) * | 2019-07-11 | 2021-11-26 | 厦门美图之家科技有限公司 | 人脸点处理方法及装置 |
CN110443892A (zh) * | 2019-07-25 | 2019-11-12 | 北京大学 | 一种基于单张图像的三维网格模型生成方法及装置 |
CN110443892B (zh) * | 2019-07-25 | 2021-06-04 | 北京大学 | 一种基于单张图像的三维网格模型生成方法及装置 |
US11908149B2 (en) * | 2019-10-10 | 2024-02-20 | Andrew Thomas Busey | Pattern-triggered object modification in augmented reality system |
US20210110557A1 (en) * | 2019-10-10 | 2021-04-15 | Andrew Thomas Busey | Pattern-triggered object modification in augmented reality system |
US20240153119A1 (en) * | 2019-10-10 | 2024-05-09 | Andrew Thomas Busey | Pattern-triggered object modification in augmented reality system |
CN113256694A (zh) * | 2020-02-13 | 2021-08-13 | 北京沃东天骏信息技术有限公司 | 一种眉笔绘制方法和装置 |
CN111368685B (zh) * | 2020-02-27 | 2023-09-29 | 北京字节跳动网络技术有限公司 | 关键点的识别方法、装置、可读介质和电子设备 |
CN111368685A (zh) * | 2020-02-27 | 2020-07-03 | 北京字节跳动网络技术有限公司 | 关键点的识别方法、装置、可读介质和电子设备 |
WO2021174939A1 (zh) * | 2020-03-03 | 2021-09-10 | 平安科技(深圳)有限公司 | 人脸图像的获取方法与系统 |
CN111369427A (zh) * | 2020-03-06 | 2020-07-03 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、可读介质和电子设备 |
CN111369427B (zh) * | 2020-03-06 | 2023-04-18 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、可读介质和电子设备 |
CN111354079B (zh) * | 2020-03-11 | 2023-05-02 | 腾讯科技(深圳)有限公司 | 三维人脸重建网络训练及虚拟人脸形象生成方法和装置 |
CN111354079A (zh) * | 2020-03-11 | 2020-06-30 | 腾讯科技(深圳)有限公司 | 三维人脸重建网络训练及虚拟人脸形象生成方法和装置 |
CN111353470A (zh) * | 2020-03-13 | 2020-06-30 | 北京字节跳动网络技术有限公司 | 图像的处理方法、装置、可读介质和电子设备 |
CN113470162A (zh) * | 2020-03-30 | 2021-10-01 | 京东方科技集团股份有限公司 | 三维头部模型的构建方法、装置、系统及存储介质 |
WO2021197230A1 (zh) * | 2020-03-30 | 2021-10-07 | 京东方科技集团股份有限公司 | 三维头部模型的构建方法、装置、系统及存储介质 |
CN111524207A (zh) * | 2020-04-21 | 2020-08-11 | 腾讯科技(深圳)有限公司 | 基于人工智能的图像生成方法、装置、电子设备 |
CN113570634A (zh) * | 2020-04-28 | 2021-10-29 | 北京达佳互联信息技术有限公司 | 对象三维重建方法、装置、电子设备及存储介质 |
CN111667400A (zh) * | 2020-05-30 | 2020-09-15 | 温州大学大数据与信息技术研究院 | 一种基于无监督学习的人脸轮廓特征风格化生成方法 |
CN112396693A (zh) * | 2020-11-25 | 2021-02-23 | 上海商汤智能科技有限公司 | 一种面部信息的处理方法、装置、电子设备及存储介质 |
CN112581358A (zh) * | 2020-12-17 | 2021-03-30 | 北京达佳互联信息技术有限公司 | 图像处理模型的训练方法、图像处理方法及装置 |
CN112581358B (zh) * | 2020-12-17 | 2023-09-26 | 北京达佳互联信息技术有限公司 | 图像处理模型的训练方法、图像处理方法及装置 |
CN112581481A (zh) * | 2020-12-30 | 2021-03-30 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
CN112581481B (zh) * | 2020-12-30 | 2024-04-12 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
CN113012282A (zh) * | 2021-03-31 | 2021-06-22 | 深圳市慧鲤科技有限公司 | 三维人体重建方法、装置、设备及存储介质 |
CN113012282B (zh) * | 2021-03-31 | 2023-05-19 | 深圳市慧鲤科技有限公司 | 三维人体重建方法、装置、设备及存储介质 |
CN112991523B (zh) * | 2021-04-02 | 2023-06-30 | 福建天晴在线互动科技有限公司 | 一种高效自动化的头发匹配头型生成方法及其生成装置 |
CN112991523A (zh) * | 2021-04-02 | 2021-06-18 | 福建天晴在线互动科技有限公司 | 一种高效自动化的头发匹配头型生成方法及其生成装置 |
CN113111861A (zh) * | 2021-05-12 | 2021-07-13 | 北京深尚科技有限公司 | 人脸纹理特征提取、3d人脸重建方法及设备及存储介质 |
CN113269888A (zh) * | 2021-05-25 | 2021-08-17 | 山东大学 | 一种发型三维建模方法、人物三维建模方法及系统 |
CN113284229A (zh) * | 2021-05-28 | 2021-08-20 | 上海星阑信息科技有限公司 | 三维人脸模型生成方法、装置、设备及存储介质 |
CN113409454A (zh) * | 2021-07-14 | 2021-09-17 | 北京百度网讯科技有限公司 | 人脸图像处理方法、装置、电子设备及存储介质 |
CN113538221A (zh) * | 2021-07-21 | 2021-10-22 | Oppo广东移动通信有限公司 | 三维人脸的处理方法、训练方法、生成方法、装置及设备 |
CN113470182A (zh) * | 2021-09-03 | 2021-10-01 | 中科计算技术创新研究院 | 人脸几何特征编辑方法及深度人脸重塑编辑方法 |
CN113470182B (zh) * | 2021-09-03 | 2022-02-18 | 中科计算技术创新研究院 | 人脸几何特征编辑方法及深度人脸重塑编辑方法 |
CN114119154A (zh) * | 2021-11-25 | 2022-03-01 | 北京百度网讯科技有限公司 | 虚拟化妆的方法及装置 |
CN114299206A (zh) * | 2021-12-31 | 2022-04-08 | 清华大学 | 三维卡通人脸生成方法、装置、电子设备及存储介质 |
CN115147578A (zh) * | 2022-06-30 | 2022-10-04 | 北京百度网讯科技有限公司 | 风格化三维人脸生成方法、装置、电子设备及存储介质 |
CN115147578B (zh) * | 2022-06-30 | 2023-10-27 | 北京百度网讯科技有限公司 | 风格化三维人脸生成方法、装置、电子设备及存储介质 |
CN115761855A (zh) * | 2022-11-23 | 2023-03-07 | 北京百度网讯科技有限公司 | 面部关键点信息生成、神经网络训练和三维面部重建方法 |
CN115761855B (zh) * | 2022-11-23 | 2024-02-09 | 北京百度网讯科技有限公司 | 面部关键点信息生成、神经网络训练和三维面部重建方法 |
CN116740300A (zh) * | 2023-06-16 | 2023-09-12 | 广东工业大学 | 一种基于多模态的素体与纹理融合家具模型重建方法 |
CN116740300B (zh) * | 2023-06-16 | 2024-05-03 | 广东工业大学 | 一种基于多模态的素体与纹理融合家具模型重建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109978930B (zh) | 2020-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109978930B (zh) | 一种基于单幅图像的风格化人脸三维模型自动生成方法 | |
CN109376582B (zh) | 一种基于生成对抗网络的交互式人脸卡通方法 | |
CN108765550B (zh) | 一种基于单张图片的三维人脸重建方法 | |
US7804997B2 (en) | Method and system for a three dimensional facial recognition system | |
US10922860B2 (en) | Line drawing generation | |
Wang et al. | High resolution acquisition, learning and transfer of dynamic 3‐D facial expressions | |
CN113269872A (zh) | 基于三维人脸重构和视频关键帧优化的合成视频生成方法 | |
Yi et al. | Line drawings for face portraits from photos using global and local structure based GANs | |
Liu et al. | Psgan++: Robust detail-preserving makeup transfer and removal | |
Entem et al. | Modeling 3D animals from a side-view sketch | |
CN112785712B (zh) | 三维模型的生成方法、装置和电子设备 | |
CN113870404B (zh) | 一种3d模型的皮肤渲染方法及显示设备 | |
KR20230085931A (ko) | 얼굴 이미지에서 색상을 추출하기 위한 방법 및 시스템 | |
US11769309B2 (en) | Method and system of rendering a 3D image for automated facial morphing with a learned generic head model | |
CN113362422A (zh) | 一种阴影鲁棒的基于解耦表示的妆容迁移系统及方法 | |
CN115760552A (zh) | 基于图像妆容迁移网络的人脸图像妆容迁移方法及系统 | |
CN113052783A (zh) | 一种基于人脸关键点的人脸图像融合方法 | |
Ren et al. | Make-a-character: High quality text-to-3d character generation within minutes | |
CN117593178A (zh) | 一种基于特征引导的虚拟试衣方法 | |
Sun et al. | Generation of virtual digital human for customer service industry | |
CN116740281A (zh) | 三维头部模型的生成方法、装置、电子设备和存储介质 | |
CN116168186A (zh) | 一种服装长度可控的虚拟试衣图生成方法 | |
CN115936796A (zh) | 一种虚拟换妆方法、系统、设备和存储介质 | |
Li et al. | Large-pose facial makeup transfer based on generative adversarial network combined face alignment and face parsing | |
Lian et al. | Anime style transfer with spatially-adaptive normalization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |