CN111627101A - 一种基于图卷积的三维人体重构方法 - Google Patents
一种基于图卷积的三维人体重构方法 Download PDFInfo
- Publication number
- CN111627101A CN111627101A CN202010441454.8A CN202010441454A CN111627101A CN 111627101 A CN111627101 A CN 111627101A CN 202010441454 A CN202010441454 A CN 202010441454A CN 111627101 A CN111627101 A CN 111627101A
- Authority
- CN
- China
- Prior art keywords
- human body
- network
- template
- grid
- graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于图卷积的三维人体重构方法,能够根据单目图像生成三维人体网格。该方法包括以下步骤:采用一个残差网络构成的特征提取器提取输入图像的轮廓特征;采用一个反馈神经网络构成的参数回归器从提取得到的特征中回归人体模型的参数;根据估计的参数,采用一个事先训练好的人体模型生成人体的模板拓扑结构;粘合轮廓特征到模板拓扑结构的顶点上;采用一个残差化的图卷积网络优化模板拓扑结构,使模板网格变形,从而得到目标的人体网格。这种网络架构能够避免原始的图卷积网络在回归人体的过程中受到固定初始化的约束,在减轻网络回归压力的同时,生成更为精准的预测网格。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种人体三维网格的估计方法。
背景技术
从单目图像中回归人体的三维姿态和外形,是计算机视觉领域一个非常有价值的研究方向。现有丰富的技术方法能够以简化的人体骨架为目标进行估计。本发明则希望更进一步得到完整的人体形状和姿势,也就是人体的全3D网格。
通过模拟人类的双眼视力,这个问题在多个摄像头的实验环境中已经得到了很好的解决。然而,实际上即便是在单眼的情况下人类同样可以看到立体空间,这很大程度上依赖于人类的大脑能够从单目图像中正确地重建完整的三维空间。因此,单目重构一直是相关研究领域的重点目标,但过多的模糊性、有限的训练数据和广泛的成像条件使这项任务在单眼情况下尤其具有挑战性。
传统上,基于优化算法的方法为单眼姿态和形状恢复提供了最可靠的解决方案。然而,缓慢的运行时间、对良好初始化的依赖以及经典的局部极小值问题造成的失败,迫使人们将重点转移到基于学习的方法上。这些作品的研究目标大多集中于寻找最可靠的方式来追溯人体的姿态和形状参数,将人体的网格回归到一个特定的参数空间。这无疑会约束网络自身的潜力,例如,SMPL人体模型无法针对手部姿势或面部表情建模。在现今最先进的方法中,解放参数空间约束,使用图卷积网络直接地回归顶点坐标的网络模型开始兴起。但是,人体网格的顶点数量庞大,以及非欧氏空间中顶点间的链接特征使回归网络的能力面临巨大挑战。事实上,对于人体的体态和姿态较为突出的情况,现有的基于单目图像输入的网络作品只能给出粗糙甚至混乱的估计结果。
针对相关技术中的问题,目前尚未提出有效的解决方案。
发明内容
针对相关技术中的问题,本发明提出一种基于单目图像的人体重构方法,能够解决上述技术问题。
本发明的技术方案是这样实现的:
一种基于图卷积的三维人体重构方法,包括:
(1)利用特征提取器提取输入图像中人体的轮廓特征;
(2)利用参数回归器从人体的轮廓特征中回归人体模型的位姿和体态两个参数;
(3)利用人体生成模型从步骤(2)预测的两个参数中生成人体的模板拓扑结构,所述的模板结构作为后端精细雕刻网络的初始化输入,拥有粗糙的人体位姿和体态;
(4)粘合步骤(1)输出的轮廓特征到步骤(3)输出的模板拓扑结构的顶点上,得到动态模板网格;
(5)以步骤(4)得到的动态模板网格作为输入,利用改进的图卷积网络通过迭代地变形模板网格,得到最终预测的人体重构网格。
所述的步骤(3)与步骤(4)生成的是一种动态人体模板,相当于一个与输入图像相匹配的粗制人体网格。与此同时,这种动态模板网格还保留有网格三维坐标与轮廓特征之间的关联性,是后端网络进一步学习的基础。与静态模板网格相比,本发明提出的动态网格能够避免图卷积无法大幅度拉伸网格的弊端,本质上,是将这部分拉伸工作交给前端的参数回归网络完成。
需要说明的是,上述提到的人体生成模型选用SMPL,它是一种生成式的人体回归网络。通过输入指定特征空间内的模型参数,它可以生成一一对应的三维人体网格和三维人体节点。
相比于以往的人体重构方法,本发明的创新点在于提出一种参数回归网络与图卷积网络相配合的网络架构,完成人体网格的回归工作。其中,参数回归网络被称为前端,图卷积网络被称为后端。
特别的,本发明的参数回归网络部分生成的动态模板网格,能够让图卷积网络在已经具有初步位姿和体态的模板上,学习网格坐标与输入特征的数据分布规律。重要的是,由于图卷积无法大幅度拉伸具有关联性的网格顶点,导致网络在面对拥有特殊姿态或体态(如,倒立翻滚,身材较高等)的输入图像时,无法充分的将模板网格做拉伸变形,更加倾向于陷入局部最小值。因此,相比于鲁棒的使用一种拥有固定位姿和体态的静态人体模板来讲,本发明提出的动态模板能够代替图卷积完成网格拉伸工作,避免网络回归受限。
更进一步,为了能够使图卷积网络充分的适应这种动态模板输入,本发明使用残差思想改进原始的谱图卷积网络。改进后的残差图卷积网络,在原始的逐层图卷积结构中添加输入映射,并使用先降维再卷积的方式,缩减图卷积的计算量。如此,每一层网络只需要学习输入层与输出层之间的改变量,在增加网络参数的改变率的同时,使回归更简单。本质上,残差图卷积网络就是通过逐步拉扯动态模板网格到轮廓特征所指示的位置上,实现对人体网格的精加工。
有益效果
本发明提出的网络结构能够避免图卷积受限于静态模板网格的约束,在已经初步具有位姿和体态的网格上进行细微雕刻,输出准确度更高的人体网格。与此同时,残差图卷积网络能够节省部分所需参数,缓解图卷积由顶点数量庞大导致的参数爆炸问题。重点的,对拥有特殊姿态和体态的输入人体图像,本发明的网络模型的表现尤为突出,能够鲁棒的得到基本覆盖全部人体的网格。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例中三维人体重构网络的架构示意图;
图2是根据本发明实施例中残差图卷积网络单层架构示意图;
图3是根据本发明实施例中各阶段网络回归的人体网格的示意图;
图4是本发明流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
根据本发明的实施例,提供了
根据本发明实施例的一种基于图卷积的三维人体重构方法,在实际应用中可如图1所示,对本发明的网络结构进行部署,包括:
一个优化后的残差网络构成的特征提取器,用于提取输入图像中人体的轮廓特征;
一个基于模型参数的反馈神经网络构成的参数回归器,用于从轮廓特征中回归人体模型的位姿和体态两个参数;
一个基于SMPL的人体生成模型,用于从预测的人体参数中生成人体的模板拓扑结构。模板作为后端精细雕刻网络的初始化输入,拥有粗糙的人体位姿和体态;
粘合特征提取器输出的轮廓特征到参数回归器输出的模板拓扑结构的顶点上;
一个借助残差思想优化的图卷积网络,以粘合特征的图网格为输入,迭代优化网格顶点位置,变形得到目标人体的网格。
注意,本实施例提到的SMPL特指一种生成式的人体回归网络。通过输入指定特征空间内的模型参数,它可以生成一一对应的三维人体网格和三维人体节点。实施例中使用的SMPL是经过充分训练的普适生成模型,不参与训练过程。
为方便理解本发明的上述技术方案,以下通过实际部署和应用对本发明的上述技术方案进行详细说明。
在训练过程中,本实施例综合使用多种数据集训练网络模型,分别为UP_3D、LSP、MPII和COCO。这些数据集的特征在于,所有输入数据均为拥有一个或多个人体的单目图像以及相匹配的2D人体关键点的标记。值得注意的是,每个数据集对于人体关键点的定义不同,本发明在训练中简单的忽略那些没有标记数据的关键点的损失。
对于一批输入的单目图像,一个特征提取器负责从图像中提取人体轮廓特征φ。本实施例中特征提取器选用Res-Net-50,为取得更好的效果还可以对Res-Net-50进行优化改进,具体为:模块的网络结构引用Res-Net-50的主体部分,省略网络最后的全连接层,并保留输出2048维向量的平均池化层。事实上,全连接层的主要功能是对提取的特征分类,然而图神经网络在某种程度上相当于一个更为优化的全连接层,因此舍弃提取器中的分类工作有利于图神经网络对轮廓特征的解析。与此同时,网络模型采用全局平均池化作为输出,还可以缩减模型参数(全连接层参数可占整个网络参数80%),并展现出更好的预测性能。除此之外,特征提取器还可以选用VGG、Lenet-5等经典网络。
随后,一个基于SMPL模型的参数回归器根据特征提取器输出的人体轮廓特征φ,预测人体特征参数,包括SMPL的位姿和体态以及用于二维投影的相机参数R、t、s,这些统称为Θ。本实施例中的参数回归器由一个普适的反馈神经网络实现,特征在于当前层输出作为下一次卷积的输入,即人体特征参数Θ和轮廓特征φ连接成(φ,Θ)作为回归器的输入。通过不断的迭代卷积,网络会得到趋于稳定的估计结果。具体的,当人体轮廓特征φ和第t层的模型输出Θt作为输入,参数回归网络负责输出该层的优化值ΔΘt。通过逐层的叠加优化值,即Θt+1=Θt+ΔΘt,预测的参数结果会越加精准、稳定。最初的预测参数Θ0是参数的均值
按照图1所示的网络架构,本发明使用SMPL模型将上述人体特征参数Θ转换成3D人体网格和3D人体关键点坐标P。并借助参数回归器输出的相机参数将人体关键点P投影到平面空间,得到预测的2D人体关键点,用于标记数据的训练,即X=sΠ(RP)+t。另外的3D人体网格将作为后端图卷积网络的动态模板网格。下面给出本实施例中前端回归网络的损失函数,本实施例应用L2loss作为参数回归器中关键点和模型参数的损失函数,分别为:
公式中,K表示人体关键点的数量,Xi表示参数回归网络预测的第i个2D人体关键点;θi与βi分别表示人体的位姿和体态参数;表示各个预测结果对应的标记数据。实验结果表明,在回归拥有特殊含义的参数时,这种损失函数有助于形成梯度,加快训练速度。
得到前端网络提供的动态模板网格后,模型会粘合特征提取器中的2048维特征向量到模板网格的顶点上,作为图卷积的输入特征。本实施例中的粘合操作具体由张量合并的方式实现,为方便理解,以下举例描述一段张量合并的过程。实施例中的批处理量为64,模板网格顶点数为6890,空间维度是3,则有模板网格的张量形状为64×6890×3,人体的轮廓特征的形状为64×2048。64个人体轮廓特征对应合并到6890个顶点的三维坐标后,可以得到本发明的动态模板网格,其形状为64×6890×2051。本质上,三维坐标和人体轮廓特征被合并成为统一的特征,回归问题从三维空间被转换到特殊的特征空间。
对于后端基于动态模板的回归网络,本实施例使用一个基于频谱域的残差谱图卷积网络从动态模板网格开始回归顶点的三维坐标。从宏观的视角观察,图卷积网络借助粗略接近目标结果的模板网格和人体的轮廓特征,不断使网格变形,逼近准确的回归目标。这样的变形过程实际上是一系列图卷积运算的结果。然而,传统的谱图卷积网络在模型深度方面表现不佳,迭代超过3层的模型会出现训练错误率高的情况,并且对于动态模板与人体特征之间的学习能力不强。因此本发明提出进一步优化图卷积结构。具体的,一个具有逐层传播规则的多层残差图卷积网络,第lth层的形式如下:
公式中,σ表示激活函数,其中A表示模板拓扑图的邻接矩阵,IN表示单位阵;表示的度矩阵;表示归一化的图邻接矩阵;是lth层的输入特征矩阵,特别的H(0)=X;Wb和Wf分别表示输入映射部分和团卷积部分的权重矩阵。本质上,图卷积的功能相当于每个顶点与自身的邻居节点的全连接运算。
在实际训练过程中,本发明提出的残差图卷积网络单层结构如图2所示,特征在于动态模板作为输入映射x与图卷积F(x)叠加,其中,H(x)代表公式(3)中的H(l+1),x表示为缩减图卷积的计算量,本发明实施例还在F(x)部分中改进模型结构。如图2中GraphConvolution前后的线性卷积层所示,网络使用1x1的卷积核先让输入特征降维,再进行图卷积运算。由于1x1的2D卷积核不适合在图上运算,本文利用图卷积的思想将2D卷积核替换为每个顶点的全连接卷积核。再而,残差网络中的批处理归一化(Batch Normalization)会导致训练不稳定和测试性能降低。取消批处理归一化又会使训练速度变慢,网络卡在局部极小值处,甚至造成训练的提前崩溃。因此本发明实施例将网络中的批处理归一化替换为更适合图卷积运算的组归一化(Group Normalization),较好的解决了这一问题。至此,本发明实施例的网络结构组建完毕,下面将详细阐述后端图卷积网络的训练目标。
通过上述图卷积结构可知,本发明的最终回归结果是一个三维的人体拓扑图通过SMPL模型的回归器,模型可以从拓扑图中获得人体关键节点的三维坐标,定义为首先考虑人体拓扑结构的损失,本实施例得出在当前情景下,L1loss比L2loss拥有更稳定且快速的训练表现,则输出人体网格的损失函数如下:
再考虑人体关键点的损失,本实施例中使用2D节点标记的数据集,因此在上述图卷积网络中另有一段预测投影相机参数的线性卷积网络,包括一个比例因子s和一个二维平移向量t。模型利用相机参数将图卷积网络得到的三维人体关键点J投影到2维平面上,即X′=sΠ(J)+t。本实例使用L2loss用作后端图卷积网络中人体2D关键点的损失函数,形式与公式(1)相同,定义如下:
公式中,K表示人体关键点的数量,表示图卷积网络预测的第i个2D人体关键点;表示对应关键点的标记数据。注意,由于每个数据集的定义不同,并不是所有标记数据都拥有24个关键点,对于缺失标记的顶点,本实施例简单的忽略其损失。
根据公式(3)提出的图卷积结构,不断简化的网络实质上是根据相邻顶点对中央顶点做邻域平均。这有利于输出平滑且高质量的人体形状,因为邻域平均强制相邻顶点具有相似的特征。通过这种图卷积特性,本发明提出省略损失函数中有关形状的平滑性损失。因此,本发明完整的损失函数如下:
公式中,与分别表示残差图卷积网络中关于人体关键点和网格的损失函数,与分别表示参数回归器中关于人体关键点和人体特征参数的损失函数。特别的,λ是关于参数回归器的调节系数,用于控制生成的动态模板的精细程度。
本发明提出的训练模型能够综合多种数据集,使用不同种类标记完成训练任务。然而不同的数据集拥有不同的标准,包括不同的人体节点定义,不同类型的标记,事实上仅有部分数据集提供相应的SMPL参数。由于输出的节点包含所有情况,本发明可以利用不同标准下的2D关键点标记,参与部分训练任务。在这些情况下,训练网络的优化器只需忽略数据集中不包含的节点,或者忽略公式(2)中有关SMPL参数的损失函数。
为展示本发明提出网络的强大的回归能力以及图卷积网络的优化效果,以下将展示几个处在特殊姿态下的人体回归案例,如图3所示。其中,a列是经过本发明提出的改进图卷积网络优化的网格,可以看出模型输出更贴合原图细节的网格;b列是参数回归网络生成的动态模板网格;c列是由a列网格提取参数后生成的SMPL网格;d列是水平旋转90°展示的a列网格。从图中可以看出对于倒置和卷曲状态下的人体,模型能够准确的捕捉四肢的姿态。对于动态模板网格表现很差的I-c,经过图卷积网络的优化后的I-a拥有恰当的网格朝向以及精准的人体姿态。对于腿部出现偏差的II-c,经过图卷积网络的优化后的II-a能够更贴合原图的腿部外形。
综上所述,借助于上述技术方案,本发明提出的基于动态模板的残差谱图卷积网络通过解放以往模型对参数模型的严重依赖,通常是SMPL模型,使人体网格能够摆脱特定参数空间的限制,在更精细的领域中逼近最优坐标。与此同时,本发明保留SMPL模型生成的拓扑结构作为动态模板网格,相比于使用的标准网格来讲,这种网络结构能够在已经初步具有位姿和体态的网格上进行细微雕刻,避免卷积受限于固定的体态,减轻图卷积网络的回归负担。再而,残差网络的思想能够帮助模板网格随着网络层数加深逐渐逼近目标位置,也就是网络的回归结果是网格的形变量。这样的网络结构在加快每一层网络回归速度的同时,有助于加深网络的迭代层数。从总体结果来看,本发明的表现优于传统的基于模型参数的回归网络的基线。在大部分的对比案例中,本发明提出的网络模型对于特殊姿态的人体预估结果表现更为突出,能够较准确的得到单目图像中人体的位姿和体态。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于图卷积的三维人体重构方法,其特征在于,包括:
(1)利用特征提取器提取输入图像中人体的轮廓特征;
(2)利用参数回归器从人体的轮廓特征中回归人体模型的位姿和体态两个参数,以及用于二维投影的相机参数;
(3)利用人体生成模型从步骤(2)预测的位姿和体态两个参数中生成人体的模板拓扑结构,所述的模板结构作为后端精细雕刻网络的初始化输入,拥有粗糙的人体位姿和体态;
(4)粘合步骤(1)输出的轮廓特征到步骤(3)输出的模板拓扑结构的顶点上,得到动态模板网格;
(5)以步骤(4)得到的动态模板网格作为输入,利用改进的图卷积网络通过迭代地变形模板网格,得到最终预测的人体重构网格。
2.根据权利要求1所述的基于单目图像的人体重构方法,其特征在于,步骤(1)所述的特征提取器由残差网络构成。
3.根据权利要求1所述的基于单目图像的人体重构方法,其特征在于,步骤(2)所述的参数回归器由基于SMPL模型的反馈神经网络构成。
4.根据权利要求1所述的基于单目图像的人体重构方法,其特征在于,步骤(3)所述的人体生成模型采用SMPL模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010441454.8A CN111627101B (zh) | 2020-05-22 | 2020-05-22 | 一种基于图卷积的三维人体重构方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010441454.8A CN111627101B (zh) | 2020-05-22 | 2020-05-22 | 一种基于图卷积的三维人体重构方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111627101A true CN111627101A (zh) | 2020-09-04 |
CN111627101B CN111627101B (zh) | 2023-05-26 |
Family
ID=72272154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010441454.8A Active CN111627101B (zh) | 2020-05-22 | 2020-05-22 | 一种基于图卷积的三维人体重构方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111627101B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112819849A (zh) * | 2021-01-14 | 2021-05-18 | 电子科技大学 | 一种基于三目的无标记点视觉运动捕捉方法 |
CN113077545A (zh) * | 2021-04-02 | 2021-07-06 | 华南理工大学 | 一种基于图卷积的从图像中重建着装人体模型的方法 |
CN113096249A (zh) * | 2021-03-30 | 2021-07-09 | Oppo广东移动通信有限公司 | 训练顶点重建模型的方法、图像重建方法及电子设备 |
CN113284249A (zh) * | 2021-06-11 | 2021-08-20 | 清华大学深圳国际研究生院 | 一种基于图神经网络的多视角三维人体重建方法及系统 |
CN113724325A (zh) * | 2021-05-31 | 2021-11-30 | 西安理工大学 | 一种基于图卷积网络的多场景单目相机位姿回归方法 |
CN114202654A (zh) * | 2022-02-17 | 2022-03-18 | 广东皓行科技有限公司 | 一种实体目标的模型构建方法、存储介质和计算机设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110267344A1 (en) * | 2010-04-30 | 2011-11-03 | Liberovision Ag | Method for estimating a pose of an articulated object model |
CN107924579A (zh) * | 2015-08-14 | 2018-04-17 | 麦特尔有限公司 | 生成个性化3d头部模型或3d身体模型的方法 |
CN108399649A (zh) * | 2018-03-05 | 2018-08-14 | 中科视拓(北京)科技有限公司 | 一种基于级联回归网络的单张图片三维人脸重建方法 |
CN108665537A (zh) * | 2018-05-15 | 2018-10-16 | 清华大学 | 联合优化人体体态与外观模型的三维重建方法及系统 |
CN110298916A (zh) * | 2019-06-21 | 2019-10-01 | 湖南大学 | 一种基于合成深度数据的三维人体重建方法 |
CN110310285A (zh) * | 2019-05-14 | 2019-10-08 | 武汉泓毅智云信息有限公司 | 一种精确的基于三维人体重建的烧伤面积计算方法 |
WO2020024319A1 (zh) * | 2018-08-01 | 2020-02-06 | 苏州大学张家港工业技术研究院 | 用于交通流量预测的卷积神经网络多点回归预测模型 |
-
2020
- 2020-05-22 CN CN202010441454.8A patent/CN111627101B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110267344A1 (en) * | 2010-04-30 | 2011-11-03 | Liberovision Ag | Method for estimating a pose of an articulated object model |
CN107924579A (zh) * | 2015-08-14 | 2018-04-17 | 麦特尔有限公司 | 生成个性化3d头部模型或3d身体模型的方法 |
CN108399649A (zh) * | 2018-03-05 | 2018-08-14 | 中科视拓(北京)科技有限公司 | 一种基于级联回归网络的单张图片三维人脸重建方法 |
CN108665537A (zh) * | 2018-05-15 | 2018-10-16 | 清华大学 | 联合优化人体体态与外观模型的三维重建方法及系统 |
WO2020024319A1 (zh) * | 2018-08-01 | 2020-02-06 | 苏州大学张家港工业技术研究院 | 用于交通流量预测的卷积神经网络多点回归预测模型 |
CN110310285A (zh) * | 2019-05-14 | 2019-10-08 | 武汉泓毅智云信息有限公司 | 一种精确的基于三维人体重建的烧伤面积计算方法 |
CN110298916A (zh) * | 2019-06-21 | 2019-10-01 | 湖南大学 | 一种基于合成深度数据的三维人体重建方法 |
Non-Patent Citations (2)
Title |
---|
JINCHUAN LI 等: "Analysis of pulse wave signal based on the Wavelet Transform" * |
陶声祥 等: "基于动态模板匹配技术的放疗摆位误差测量" * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112819849A (zh) * | 2021-01-14 | 2021-05-18 | 电子科技大学 | 一种基于三目的无标记点视觉运动捕捉方法 |
CN112819849B (zh) * | 2021-01-14 | 2021-12-03 | 电子科技大学 | 一种基于三目的无标记点视觉运动捕捉方法 |
CN113096249A (zh) * | 2021-03-30 | 2021-07-09 | Oppo广东移动通信有限公司 | 训练顶点重建模型的方法、图像重建方法及电子设备 |
CN113096249B (zh) * | 2021-03-30 | 2023-02-17 | Oppo广东移动通信有限公司 | 训练顶点重建模型的方法、图像重建方法及电子设备 |
CN113077545A (zh) * | 2021-04-02 | 2021-07-06 | 华南理工大学 | 一种基于图卷积的从图像中重建着装人体模型的方法 |
CN113724325A (zh) * | 2021-05-31 | 2021-11-30 | 西安理工大学 | 一种基于图卷积网络的多场景单目相机位姿回归方法 |
CN113724325B (zh) * | 2021-05-31 | 2024-05-28 | 西安理工大学 | 一种基于图卷积网络的多场景单目相机位姿回归方法 |
CN113284249A (zh) * | 2021-06-11 | 2021-08-20 | 清华大学深圳国际研究生院 | 一种基于图神经网络的多视角三维人体重建方法及系统 |
CN113284249B (zh) * | 2021-06-11 | 2022-05-10 | 清华大学深圳国际研究生院 | 一种基于图神经网络的多视角三维人体重建方法及系统 |
CN114202654A (zh) * | 2022-02-17 | 2022-03-18 | 广东皓行科技有限公司 | 一种实体目标的模型构建方法、存储介质和计算机设备 |
CN114202654B (zh) * | 2022-02-17 | 2022-04-19 | 广东皓行科技有限公司 | 一种实体目标的模型构建方法、存储介质和计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111627101B (zh) | 2023-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111627101A (zh) | 一种基于图卷积的三维人体重构方法 | |
US8849017B2 (en) | Image processing apparatus, image processing method, program, and recording medium for learning from moving images | |
CN111160085A (zh) | 一种人体图像关键点姿态估计方法 | |
CN106971414B (zh) | 一种基于深度循环神经网络算法的三维动画生成方法 | |
JP7378642B2 (ja) | 生成的非線形人間形状モデル | |
CN112232106B (zh) | 一种二维到三维人体姿态估计方法 | |
CN115880724A (zh) | 一种基于rgb图像的轻量化三维手部姿态估计方法 | |
CN113191243B (zh) | 基于相机距离的人手三维姿态估计模型建立方法及其应用 | |
CN115761117A (zh) | 一种基于star模型的三维人体重建方法及系统 | |
Ardino et al. | Semantic-guided inpainting network for complex urban scenes manipulation | |
Lifkooee et al. | Real-time avatar pose transfer and motion generation using locally encoded laplacian offsets | |
CN113192186B (zh) | 基于单帧图像的3d人体姿态估计模型建立方法及其应用 | |
CN113052030B (zh) | 一种基于单张rgb图像的双流多尺度手部姿态估计方法 | |
Chen et al. | Learning shape priors for single view reconstruction | |
Zimmer et al. | Imposing temporal consistency on deep monocular body shape and pose estimation | |
CN106778579A (zh) | 一种基于累计属性的头部姿态估计方法 | |
CN111611997B (zh) | 一种基于人体动作迁移的卡通定制形象运动视频生成方法 | |
Liu et al. | Photographic image synthesis with improved U-net | |
CN115761801A (zh) | 一种基于视频时序信息的三维人体姿态迁移方法 | |
CN110349268B (zh) | 一种三维人体姿态、表情及手势的重构方法 | |
KR101436730B1 (ko) | 능동적 외양 모델을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법 | |
Sasaki et al. | End-to-end visuomotor learning of drawing sequences using recurrent neural networks | |
CN116434127B (zh) | 人体姿态估计方法、装置、设备及存储介质 | |
Cheng et al. | Lightweight Gaze Estimation Model Via Fusion Global Information | |
CN116664771A (zh) | 一种基于超图注意力的人体网格重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |