Nothing Special   »   [go: up one dir, main page]

CN114119907A - 一种人体模型的拟合方法、设备和存储介质 - Google Patents

一种人体模型的拟合方法、设备和存储介质 Download PDF

Info

Publication number
CN114119907A
CN114119907A CN202010876681.3A CN202010876681A CN114119907A CN 114119907 A CN114119907 A CN 114119907A CN 202010876681 A CN202010876681 A CN 202010876681A CN 114119907 A CN114119907 A CN 114119907A
Authority
CN
China
Prior art keywords
human body
model
dimensional
parameters
fitting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010876681.3A
Other languages
English (en)
Inventor
张胜凯
焦年红
闫浩男
郑天祥
唐杰
李松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Momo Information Technology Co Ltd
Original Assignee
Beijing Momo Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Momo Information Technology Co Ltd filed Critical Beijing Momo Information Technology Co Ltd
Priority to CN202010876681.3A priority Critical patent/CN114119907A/zh
Publication of CN114119907A publication Critical patent/CN114119907A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种人体模型的拟合方法,所述方法包括:建立处于初始姿态的标准人体模型;获取目标人体模型的姿态和体型参数,所述三维人体姿态和体型参数与三维标准人体模型的骨骼和若干个基参数相对应;将获得的若干组基和骨骼参数输入标准三维人体模型中进行拟合;完成从初始姿态驱动骨骼移动到目标姿态;获得与目标人体二维图像的姿态相同的三维目标人体模型网格。本发明对标准人体模型和目标人体模型的拟合流程进行了优化,采用了多级迭代拟合的方法,优化了模型的拟合过程,使得整个拟合过程在时间和效果上达到了很好的平衡。

Description

一种人体模型的拟合方法、设备和存储介质
技术领域
本发明属于人体三维模型建模领域,具体涉及一种人体模型的拟合方法,尤其是基于神经网络的标准人体模型与目标人体模型的多级拟合方法、设备和存储介质。
背景技术
随着互联网技术的发展,网上购物方式越来越普及。相比于实体店购物,网上在线购物具有商品种类多、购物方便等优势。但是,在网上购买商品,也存在一些不易解决的问题,最主要的就是无法实地查看要买的商品。在所有的商品种类中,服装商品这个问题最为突出。相比于实体店购物中可以实时地换装查看服装效果,在线服装购物无法提供针对消费者本身的效果图,只能提供模特试衣的图片,有的甚至根本没有试衣图片,消费者无法实时直观地获取服装和自身体型形象的匹配程度。造成了大量的退换货。
针对这一问题,经营者尝试利用虚拟试衣技术为消费者提供模拟试衣效果解决这一问题。当然,现实中还存在其他可以使用虚拟换衣试衣技术的场合,比如网络游戏中。因此,这一技术得到了较快的发展。
虚拟试衣是指用户不用实际换上想要观看穿着效果的衣服,也能在终端屏幕上实时查看“换装”效果的一种技术应用。现有的换装技术应用主要包括平面试衣和三维虚拟试衣技术。前者基本上是采集用户的图片,采集衣服的图片,然后进行裁剪和拼接,形成“穿衣”后的图像,但这类图像由于简单粗暴的图像处理方式而造成真实度较差,完全没有考虑到用户的实际体型,只是把服装生搬硬套到用户照片上,不能满足用户的需求。后者通常通过三维采集设备采集人的三维信息并结合服装的特征进行合成,或者通过手动输入用户提供的身体数据信息,并按照一定的规则虚拟生成一个人体三维模型,然后与服装贴图进行结合。整体上来说,这类三维虚拟试衣需要进行大量的数据采集或者三维数据计算,硬件成本高,在普通用户中不易推广。
随着云计算技术、人工智能技术和智能终端处理能力的发展,产生了二维虚拟试衣技术。此类技术主要包括三个步骤:(1)对用户提供的个人身体信息进行处理,得到目标人体模型;(2)对服装信息进行处理得到服装模型;(3)将人体模型和服装模型融合在一起,生成人穿着该服装的模拟图。
但是,由于流程设计、模型参数选择、神经网络的训练方法等诸多不确定因素的累积,最终生成的换衣图片质量并不如传统的三维虚拟试衣技术,这其中,人体模型的拟合因为是其基础步骤,并且后面的穿衣过程也必须以前面生成的人体模型为基础,所以,一旦人体模型生成的不准确,容易产生人体模型与试衣者体型差距过大、皮肤纹理丢失、身体部位丢失等问题,影响最终的生成的换衣图片效果。
在一般的计算机视觉领域中,人体建模的初始起点有很多种,通常包括使用3D扫描设备对真实人体进行全方位扫描,基于多视角景深照相的三维重建方法,以及给定图像结合人体模型的方法实现三维重建这三大类。其中,使用3D扫描设备对真实人体进行全方位扫描获得信息最多最准确,但是这类设备通常比较昂贵,并且需要人体模特的高度配合,整个处理过程对处理的设备的要求非常高,所以一般都应用于一些专业领域;其次,多视角三维重建方法需要提供被重建人体多个视角相互重叠的图像并建立图像间的空间转换关系,使用多组摄像头,以拍摄多张的方式,拼合出一个3D模型,操作相对简化了一些,但是计算复杂度仍然较大,并且多数情况下,只有现场参与的人才能获得多角度的图片。深度摄像头多角度拍照方法拿到的贴图然后拼合得到的模型,没有身体尺度数据,不能为3D感知提供基础。再次,单张图像结合人体模型的方法只需要提供一张图像,基于神经网络的三维人体特征曲线智能生成方法,通过神经网络训练,获得可以用来描述人体颈部、胸部、腰部以及臀部等部位曲线的权值和阂值,然后根据人体截面的围长、宽度、厚度等的尺寸参数信息,就能直接生成与真实人体体型吻合的人体三维曲线就可以获得预测的人体模型。但这种方法由于输入信息量较少,而求解过程仍然需要消耗较多的计算量,导致最终的模型效果不能令人满意。
基于互联网技术和其所处的网络环境特点,从单张图像直接输出最终人体模型的方式无疑是优选的,其便捷性是最好的,用户无需亲临现场,只需一张照片,即可完成整个换衣过程。那么随之而来的问题就是,只要能保证其获得的结果照片效果基本和真实3D模拟换衣相当,就会成为主流。这其中,如何通过一张照片而获得最接近人体真实状态的人体模型,就成为重中之重。
现有技术中,构造人体模型的方法通常有几类:(1)基于回归的方法,通过卷积神经网络重建出体素表示的人体模型,算法首先根据输入图片估计人体主要关节点的位置,然后根据关键点位置估计出给定指定大小体素网格中,根据其内部每个单元体素是否被占用,从而用内部占用体素的整个形状来描述重建出的人体形状;(2)基于单张图片的人体重建,该方法同时估计出人体三维形状和姿态,该方法首先在图像上对简单的人体骨骼关键点进行了粗略的标注,然后根据这些粗关键点进行人体模型的初始匹配和拟合,得到人体大致形状。(3)用23个骨骼节点来表示人体骨架,然后用每个骨骼节点的旋转来表示整个人体的姿态,同时,用6890个顶点位置来表达人体形状,在拟合过程中,给定骨骼节点位置,同时拟合出形状和姿态的参数,从而进行三维人体重建;或者先用CNN模型来预测图像上的关键点,然后采用SMPL模型进行拟合,得到初始的人体模型。接着,用拟合得到的形状参数来回归一个人体关节包围盒,每个关节对应一个包围盒,用轴长和半径来表示其包围盒。最后,结合初始模型和回归得到的包围盒从而得到三维人体重建。以上方法存在建模速度较慢,其建模精度不够,并且重建效果强依赖所创建的身体和姿态数据库的问题。
现有技术一公开了一种基于体测数据的人体建模方法,如图1所示,所述方法包括:获取体测数据;根据所述体测数据,通过预先训练好的预测模型对预先创建的人体模型进行线性回归,拟合得到预测人体模型,所述预先创建的人体模型包括预先定义的多组标记特征点以及对应的标准形状基,所述体测数据包括与每组标记特征点对应的测量数据;根据所述预测人体模型,得到目标人体模型,所述目标人体模型包括测量数据、目标形状基以及目标形状系数。但是这种方法,对体测数据要求非常高,包括体长数据与围长数据,比如身高、臂长、肩宽、腿长、小腿长、大腿长、脚板长,头围、胸围、腰围、大腿围等,不仅测量还要计算。确实节约了计算量,但是用户体验却非常不好,程序很繁琐。并且在人体模型的训练上,参考了SMPL模型的训练方式。
SMPL模型是一种参数化人体模型,是马普所提出的一种人体建模方法,该方法可以进行任意的人体建模和动画驱动。这种方法与传统的LBS的最大的不同在于其提出的人体姿态影像体表形貌的方法,这种方法可以模拟人的肌肉在肢体运动过程中的凸起和凹陷。因此可以避免人体在运动过程中的表面失真,可以精准的刻画人的肌肉拉伸以及收缩运动的形貌。该方法中β和θ是其中的输入参数,其中β代表是个人体高矮胖瘦、头身比等比例的10个参数,θ是代表人体整体运动位姿和24个关节相对角度的75个参数。但是这种模型生成方式,核心是训练数据的大量积累,获得体型和形状基之间的关系,但是,这种关系由于互相之间具有极强的关联性,每个形状基之间无法做到独立控制,不容易进行解耦合操作,比如,胳膊和腿之间也存在一定关联关系,胳膊动的时候腿理论上也会跟着运动,很难在SMPL模型上实现针对不同特点体型的改进。
现有技术二公开了一种基于单张照片的3D人体建模方法,包括:获取一张照片,对照片进行解析,标记照片中人体的关键点,计算关键点的空间坐标;获取预先创建的标准人体模型中的骨骼点与照片中的关键点的距离后,对齐骨骼点与关键点后生成基础人体模型;获取预先创建的标准人体模型中的基本贴图,将基本贴图与照片中人脸的皮肤纹理进行差值计算后,使用边缘通道进行融合,生成基础纹理数据;根据基础人体模型与基础纹理数据生成3D人体模型。通过一张照片实现3D人体建模,而且模型中有骨骼和肌肉系统支撑,可以产生表情和动作。但是这种方法,是通过用户照片关键点和标准人台关键点之间的距离做匹配之后,再去调整距离,达到目标人体的姿态,并且后续还要通过基本贴图和照片中的皮肤纹理进行差值计算并融合后才能获得最终的人体模型,这种方法流程简单计算量小,但是生成的人体模特精度和真实度不是很高。
现有技术三公开了一种三维人体模型的生成方法,包括:获取二维人体图像;将所述二维人体图像输入至三维人体参数模型中,得到与所述二维人体图像对应的三维人体参数;将所述训练样本输入神经网络中进行训练,得到三维人体参数模型,包括:将所述训练样本中的所述标准二维人体图像输入至所述神经网络中,得到与所述标准二维人体图像对应的预测三维人体参数;根据所述预测三维人体参数调整三维柔性可变形模型,得到预测三维人体模型;根据所述预测三维人体模型中关节点位置通过反向映射得到所述标准二维人体图像中预测关节点位置。这种建模方式,利用模型判断和最后经神经网络输出的参数仅仅只有关节点参数,然后利用了SMPL模型的成熟体型对其进行与目标人体姿态一致的细节调整,虽然计算量减少,但是由于输入参数较少,并且只能在SMPL预测模型的基础上完成调整,很难输出特别理想的与目标人体姿态高度一致的人体模型。
现有技术四公开了一种基于体测数据的人体建模方法,包括:获取体测数据;根据所述体测数据,通过预先训练好的预测模型对预先创建的人体模型进行线性回归,拟合得到预测人体模型,所述预先创建的人体模型包括预先定义的多组标记特征点以及对应的标准形状基,所述体测数据包括与每组标记特征点对应的测量数据;根据所述预测人体模型,得到目标人体模型,所述目标人体模型包括测量数据、目标形状基以及目标形状系数。所述预测模型的训练步骤具体包括:获取训练集,所述训练集包括形状参数与体测数据;将所述训练集输入到所述预测模型中对所述预测模型进行线性回归训练,以使所述预测模型学习到形状参数与体测数据的对应关系;将所述预测模型根据输入测量数据进行预测,得到初始化的预测模型,所述训练好的预测模型包括参数维矩阵以及二维矩阵的线性参数。以所述初始形状系数为初始值,通过目标函数求解最小化形状系数;根据所述最小化形状系数,得到目标人体模型。所述预测人体模型包括与测量数据对应的预测形状基,所述预测形状基通过对测量数据进行PCA主成分分析构造生成,所述根据所述预测人体模型,得到目标人体模型,所述方法还包括:将得到的对应于每个测量数据的预测形状基进行线性拟合,得到目标人体模型。上述方法需要对人体的体型数据进行精确的测量,并且其预测人体模型实际上也是通过大数据训练产生的,不能对人体进行稍微细致一些的划分,不能完全实现各部分的独立控制,实际上模型的精确度和还原度是不够的。
由此可见,为了配合互联网行业的发展趋势,在虚拟试衣这个细分领域,最少的输入信息、最少的计算量和最佳的效果将是三个一直被追求的基本目标。需要我们在这三者之间寻找一个最佳的平衡点,提供一种可以做到简单输入,计算量不超过终端设备承受力,效果接近专业设备的人体建模方法。
发明内容
基于上述问题,本发明提供了一种克服上述问题的人体模型的拟合方法、设备和存储介质。
本发明提供一种人体模型的拟合方法,所述方法包括:建立处于初始姿态的标准人体模型;获取目标人体模型的姿态和体型参数,所述三维人体姿态和体型参数与三维标准人体模型的骨骼和若干个基参数相对应;将获得的若干组基和骨骼参数输入标准三维人体模型中进行拟合;完成从初始姿态驱动骨骼移动到目标姿态;获得与目标人体二维图像的姿态相同的三维目标人体模型网格。
优选的,所述拟合过程还包括,获得初始姿态和目标姿态的位置坐标;初始姿态参数的获得由标准人台模型的初始化参数确定,目标姿态的骨骼信息由神经网络模型回归预测得到。
优选的,通过多次分级拟合的方式完成人体模型的拟合。第一次拟合仅开放标准人体模型基础大骨骼的自由度,通过神经网络得到基础大骨骼的参数。第二次拟合开放标准人体模型其他骨骼的自由度,得到其他骨骼的参数,使用迭代拟合的方式在第一次拟合的结果上进行二次拟合。第三次拟合可以输入感兴趣区域或者部位的参数信息,使用迭代拟合的方式在第二次拟合的结果上进行三次拟合。
优选的,第一次拟合中,给神经网络输入人体原图、骨骼姿态图、骨骼关节点、语义分割图作为条件信息。
优选的,所述标准人体模型是结合数学模型构造的三维标准人体模型;所述三维标准人体模型具有骨骼点和模型网格的数学权值关系,骨骼点的确定可关联确定目标人体姿态的人体模型;所述三维标准人体模型由若干个形体基参数以及若干根骨骼参数限定,所述若干个形体基构成整个人体模型网格,每个形体基分别由基参数单独控制变化,互不影响。
优选的,所述获取目标人体模型的参数的步骤还包括,1)获取目标人体的二维图像;2)处理获得目标人体的二维人体轮廓图像;3)将二维人体轮廓图像代入经过深度学习的第一神经网络进行关节点的回归;4)获得目标人体的关节点图;获取人体各部分语义分割图;身体关键点;身体骨骼点;5)将生成的目标人体的关节点图、语义分割图,身体骨骼点以及关键点信息代入经过深度学习的第二神经网络进行人体姿态和体型参数的回归;6)获得输出的三维人体参数,包括三维人体动作姿态参数和三维人体体型参数。
优选的,还包括,二维人体轮廓图像的获取利用目标检测算法,所述目标检测算法是基于卷积神经网络的目标区域快速生成网络;在将二维人体图像输入第一神经网络模型之前,还包括训练神经网络的过程,训练样本包括标注原始关节点位置的标准二维人体图像,所述原始关节点位置由人工在二维人体图像上进行高准确度地标注。
一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现前面任一所述的方法步骤。
一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;存储器,用于存放计算机程序;处理器,用于执行存储器上所存放的程序时,实现前面任一所述的方法步骤。
本发明的有益效果是:
1、模型拟合速度快,拟合后姿态还原度高。为了能较快速地,同时逼真地拟合出目标人体的姿态,我们采用了多级拟合的方法,在第一次拟合中,只拟合关键或者对姿态影响大的部位,由于参与计算的参数少,可以快速拟合出目标人体模型的一个大致姿态,在这一步可以保证人体模型的姿态与目标人体基本一致。接着,为了人体模型的姿态拟合准确度更高,我们要对人体模型进行二次拟合,把基本所有的参数都代入进行计算,由于模型已经基本移动到位,这一步的参数虽然增加很多,但是由于只是微调,所以计算量大大下降了。这之后,我们基本上已经可以得到一致性超过95%的目标人体模型,如果这样的效果还没有达到要求,可以进行第三次精细拟合,做法是针对关键部位、重点部分以及感兴趣区域进行在上一次拟合基础上的拟合,把不完美的地方基本消除。这种做法比起从始至终都对所有姿态参数进行模拟计算要节省一半以上的时间。实测后发现不但模型拟合真实度非常高,而且服装和人体姿态仿真出来的效果比传统方法更佳,并且可以减少相当的处理时间。
2、高频度创造性使用分级深度神经网络。本发明充分利用了深度学习网络的优势,能够在各种复杂的场景中,高精度还原人体的姿态和体型。针对不同的目的分别使用不同的神经网络,利用不同输入条件和训练方式的神经网络模型,实现了人体在复杂的背景下的精准轮廓分离,人体的语义分割,关键点和关节点的确定,排除了宽松衣物、发型的影响,做到最大程度上逼近人体的真实体型和形态。现有技术中也会使用神经网络模型,但是由于输入条件、输入参数、训练方式的不同,导致神经网络模型发挥的功能和作用有较大差异。
3、神经网络模型的设置更加科学和有针对性。现有技术中有一些图像处理方法,过于追求简单地直出模型,没有花时间打磨模型的细节,纯粹通过海量图像数据的训练来完成从2D图片到3D身体模型的映射,虽然效率很高,但是处理流程过于简单,完全依靠神经网络模型来生成三维人体模型,身体的比例和细节部分的一致性和效果均不如人意,并且对后续的进一步处理,完全没有帮助,而且可能成为后续程序难以跨过的障碍。而我们前一级的神经网络,人体轮廓、人体语义分割、关键点和关节点都会作为输入的项目,可以从多个角度来完成模型参数的生成,并且后一级神经网络输出的参数包含姿态pose和体型shape两个类别,可以分别控制动作和体型,并且结合我们的参考模型,可以精准的复制人体模型的姿态和体型。
4、人体模型精确可控。目前流行的基于单图像的人体重建方法主要分为重建参数化人体模型。最常用的参数化模型为马普所的SMPL模型,其包含用于描述人体姿态和描述人体体型的两套共72个参数。针对单图片重建问题,先从图片估计二维关节位置,再通过三维关节与二维平面关节投影距离最小来实现优化得到SMPL参数,进而得到人体。但SMPL模型,主要通过大量的人体模型实例来进行深度学习和训练,体型和形状基之间的关系是一种整体关联关系,解耦合难度很大,无法随心所欲地控制想要控制的身体部分,导致生成的模型不能达到与真实人体姿态和体型的高度一致性,此外,如果进一步应用于后续的穿衣过程,也会导致对人体表面几何细节的表现能力有限,无法很好地重建出人体表面衣物的细节纹理。但是我们的人体模型,不是通过训练得到的,参数之间存在基于数学原理的对应关系,也就是说,我们的各组参数之间没有互相牵连的关系,是各自独立的,因此我们的模型在变换过程中更具有解释性,可以更好地表征身体某一个局部的形状变化。通俗来讲,就是人的体型千人千样,很多人的大腿和小腿的比例并不满足一定的精确比例,我们的模型可以通过控制输入的参数,实现大腿和小腿分别的控制和长度调整,达到腿部比例的精确确定。
5、更适合亚洲人体型。人体建模通常会设计一些标准人体模型,也就是我们所说的标准人体模型或者基础人台。通过自建的标准人体模型,可以实现人体的操控,也就是从起始姿态到目标姿态的过程操控,这部分工作是完成之后的服装随人体姿态变化而变化的基础。只有人体先准确达到目标姿态,才能计算服装跟随人体到达目标姿态的具体过程。在这个过程中,我们放弃使用马普所SMPL模型依靠欧洲人形体数据训练出来的几个基本人体模型,而是自己建立了一套更符合亚洲人体型的标准人体模型(标准人台)。这套人台优选可以包括170根骨骼和20个形体基的参数,大大丰富了人体模型的细节部分,对细节的表达超过了SMPL模型。并且结合前面所述每个基独立控制的特点,可以根据需求,对人台每一个部分进行独立、精确地控制和修改,达到了每个人体模型都更加美观的效果。此外,我们还会对人台的局部进行后期的手工调整,比如顶点数和面片数,这更是以SMPL模型为代表的其他模型所不能完成的功能。除了模型高度可以精确调整,其他诸如体型胖瘦、胳膊长短、腿部的比例、腰部长短及腰围等,都可以进行精确控制,从而使得人台更加贴合用户的体型。
6、用户操作简单。本发明提供了通过深度神经网络来分析人体全身照片得到精准人体三维模型参数的方法,仅需一张普通照片就能迅速为人体建模,非常好的适应了互联网时代的特点和趋势,一是简单,二是快捷。用户无需任何准备,上传一张照片就是用户需要完成的所有工作。如果将本发明应用于娱乐小程序或者网络购物等场景,将会极大的增强用户的体验和粘性。不需要景深摄像头或者多组摄像头,就能得到的3D模型对应人体的真实形态,为各个行业,比如服装、健康等提供了广阔的应用场景。
本发明对标准人体模型和目标人体模型的拟合流程进行了优化,采用了多级迭代拟合的方法,优化了模型的拟合过程,使得整个拟合过程在时间和效果上达到了很好的平衡。此外,通过自有标准人体模型,生成了比马普所人体SMPL模型更加贴近亚洲人体型,独立操作和控制性更佳的三维人体模型,利用这种人体模型,可以实现本发明多级拟合方法,即在第一级拟合基础上实现后面对具体部位和区域进行精细化拟合,而马普所的模型如果适用我们的拟合方法,会凸显其不能精细独立控制的缺陷。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为一个实施例的人体模型拟合处理流程图;
图2为一个实施例的模型参数获得模块的处理流程图;
图3为一个实施例的模型驱动过程流程图;
图4为本发明的系统示意图。
具体实施方式
下面将详细描述本发明的各个方面的特征和示例性实施例,为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细描述。应理解,此处所描述的具体实施例仅被配置为解释本发明,并不被配置为限定本发明。对于本领域技术人员来说,本发明可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本发明的示例来提供对本发明更好的理解。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
下面结合附图对本发明实施例提供的处理人体图像的方法进行详细说明。
如图1所示,本发明实施例提供一种人体模型的拟合方法,所述方法包括:建立处于初始姿态的标准人体模型;获取目标人体模型的姿态和体型参数,所述三维人体姿态和体型参数与三维标准人体模型的骨骼和若干个基参数相对应;将获得的若干组基和骨骼参数输入标准三维人体模型中进行拟合;完成从初始姿态驱动骨骼移动到目标姿态;获得与目标人体二维图像的姿态相同的三维目标人体模型网格。
本发明的人体模型拟合方法,大致包括三个部分的步骤:一是获得目标姿态人体模型的参数;二是生成一个标准人体模型;三是标准人体模型和目标人体模型的拟合,驱动,得到与目标人体姿态和体型一致的人体模型。
第一部分是对获取的人体图像进行处理,获得生成人体模型所需要的参数信息。以前,这些骨骼关键点的选取通常是通过人工进行,但是这种方式效率很低,不适应互联网时代快节奏的要求,因此,在神经网络大行其道的今天,利用经过深度学习的神经网络代替人工进行关键点的选取,成为了潮流。但是,如何高效地利用神经网络则是一个需要进一步研究的问题。总体上讲,我们采用了二级神经网络加数据“精修”的思路来构建我们的参数获得体系。如图2所示,我们采用经过深度学习的神经网络来生成这些参数,主要包括以下子步骤:1)获取目标人体的二维图像;2)处理获得目标人体的二维人体轮廓图像;3)将二维人体轮廓图像代入经过深度学习的第一神经网络进行关节点的回归;4)获得目标人体的关节点图;获取人体各部分语义分割图;身体关键点;身体骨骼点;5)将生成的目标人体的关节点图、语义分割图,身体骨骼点以及关键点信息代入经过深度学习的第二神经网络进行人体姿态和体型参数的回归;6)获得输出的三维人体参数,包括三维人体动作姿态参数和三维人体体型参数。
所述目标人体的二维图像可以为任意姿势和任意着装的包括人体像的二维图像。二维人体轮廓图像的获取利用目标检测算法,所述目标检测算法是基于卷积神经网络的目标区域快速生成网络。
在将二维人体图像输入第一神经网络模型之前,还包括训练神经网络的过程,训练样本包括标注原始关节点位置的标准二维人体图像,所述原始关节点位置由人工在二维人体图像上进行高准确度地标注。在这里,首先获取目标图像,并利用目标检测算法对目标图像进行人体检测。人体检测并不是使用测量仪器对真实人体进行检测,本发明中实际是指对于任意一幅给定的图像,通常是包含足够信息的二维照片,比如人脸,人的四肢和身体要求全部包括在图片中。然后,采用一定的策略对给定的图像进行搜索,以确定给定的图像中是否包含人体,如果给定的图像中包含人体,则给出人体的位置、大小等参数。在本实施例中,在获取目标图像中的人体关键点之前,需要对目标图像进行人体检测,以获取目标图像中标注人体位置的人体框,因为我们输入的图片可以是任何图片,所以不可避免的存在一些非人体图像的背景,比如桌子椅子、大树汽车楼房等,要通过一些成熟的算法把这些无用的背景去除。
同时,我们还要进行语义分割、关节点检测、骨骼检测和边缘检测,收集到了这些1D的点信息和2D的面信息,就可以为后面生成3D人体模型打下良好的基础。使用第一级神经网络生成人体的关节点图,可选地,目标检测算法可以为基于卷积神经网络的目标区域快速生成网络。该第一神经网络需要进行大量的数据训练,由人工对一些从网络收集来的照片进行关节点标注,然后输入神经网络进行训练,经过深度学习的神经网络,基本可以做到输入照片后就能立即获得和人工标注关节点一样准确率和效果的关节点图,同时效率是人工标注的数十倍甚至数百倍。
本发明中,获得照片中人体的关节点位置,只是完成了第一步,获得了1D的点信息,还要根据这些1D的点信息生成2D的面信息,这些工作都可以通过神经网络模型以及现有技术中的成熟算法来完成。本发明由于重新设计了神经网络模型参与工作的流程和介入时机,合理设计了各种条件和参数,使得参数的生成工作更加高效,人工参与的程度降低,非常适合互联网应用场景,比如在虚拟换装的节目中,用户无需等待,基本上是瞬时就可以获得换装结果,对提高节目对用户的吸引力有着至关重要的作用。
在获得了相关的1D的点信息和2D的面信息后,就可以将这些参数或者结果,目标人体的关节点图、语义分割图,身体骨骼点和/或关键点信息作为输入项代入经过深度学习的第二神经网络进行人体姿态和体型参数的回归。经过第二神经网络的回归计算,就可以立即输出若干组三维人体参数,包括三维人体动作姿态参数和三维人体体型体型参数。优选的,根据三维标准人体模型(基础人台)、预测三维人体模型、标注原始关节点位置的标准二维人体图像以及包括预测关节点位置的标准二维人体图像设计神经网络的损失函数。
第二部分是预先设计建模一些标准人体模型,即基础人台。如图2所示,主要工作内容为:结合数学模型构造三维标准人体模型,即标准人体模型或基础人台。马普所的SMPL人体模型可以避免人体在运动过程中的表面失真,可以精准的刻画人的肌肉拉伸以及收缩运动的形貌。该方法中β和θ是其中的输入参数,其中β代表是个人体高矮胖瘦、头身比等比例的10个参数,θ是代表人体整体运动位姿和24个关节相对角度的75个参数。β参数是shapeBlend pose参数,可以通过10个增量模板控制人体形状变化,具体而言,每个参数控制人体形态的变化可以通过动图来刻画。通过研究参数变化的连续动画,我们可以清楚地看到每一个控制人体形态参数的连续变化,都会引起人体模型的局部甚至整体的连锁变化,为了体现人体肌肉组织的运动,SMPL人体模型的每一个参数的线性变化,都会引起大面积的网格变化。形象的讲,例如在调整β1的参数时,模型会直接把β1的参数变化理解为身体的整个变化,你可能只想调整一下腰部的比例,但是模型会强制把腿部、胸部、甚至手部的胖瘦一起帮你调整。这种工作模式虽然可以大大简化工作流程,提高效率,但是对追求建模效果的项目来说,确实非常不方便的。因为SMPL人体模型终究是一个通过西方人体照片和测量数据训练出来的符合西方人体型的模型,其形体变化的规律基本符合西方人的通常变化曲线,应用在亚洲人的人体模型建模中,则会出现很多问题,比如胳膊和腿的比例,腰身的比例,脖子的比例,腿长和胳膊长度等。通过我们的研究,这些方面都存在较大差值,如果硬性套用SMPL人体模型,在最终生成效果上不能达到我们的要求。
为此,我们采用了自制人体模型的方式完成效果的提升。其核心是自建人体blendshape基来实现人体精准的独立操控。所述三维标准人体模型具有骨骼点和模型网格的数学权值关系,骨骼点的确定可关联确定目标人体姿态的人体模型;所述三维标准人体模型由若干个形体基参数以及若干根骨骼参数限定,所述若干个形体基构成整个人体模型网格,每个形体基分别由基参数单独控制变化,互不影响。优选的,所述三维标准人体模型(基础人台)由20个形体基的参数以及170根骨骼参数构成。
所谓精准操控,一方面是增加了控制的参数,没有沿用马普所的十个β控制参数,这样,可以调整的参数除了通常的胖瘦,还加入了手臂的长度,腿部的长度,腰部、臀部和胸部的胖瘦等,在骨骼参数方面把参数提高了一倍以上,大大丰富了可以调整参数的范围,为精细化设计标准人体模型提供了良好的基础。所谓独立操控,可以理解为每一个基都是单独进行操控的,比如腰、腿、手、头部等,每根骨骼也是可以单独进行长度的调整,互相之间独立,并且不会产生形体上的联动,这样就能比较好的进行人体模型的精细化调整。不再显得模型“傻大笨粗”,总也不能调整到设计师满意的形态。
我们现有的模型,体现出来的是一种数学原理上的对应关系,实际上就相当于我们从人工审美和数据统计分析两个部分去重新设计这个模型,使其按照我们的设计规则去生成我们认为符合亚洲人体型的正确模型,显著区别于SMPL人体模型的大数据训练模型,所以我们的参数变换更具有可解释性,可以更好地表征人体模型局部的形体变化,并且,这种变化是基于数学原理的方式,各个参数之间没有影响,胳膊和腿之间保持了完全独立状态。实际上,设计了这么多不同的参数,就是为了可以避免大数据训练出来人体模型的缺陷,在更多维度上对人体模型进行精准控制,不局限于高度等寥寥几个指标,大幅提升建模效果。也只有在自建形体基的前提下,设置这么多独立的控制参数才有其实际意义,要达到设计师水准的要求,两者缺一不可。
第三部分是将人体模型的参数和人体模型进行拟合。如图1所示,包括,将获得的三维人体姿态和体型参数与三维标准人体模型的若干个基和骨骼参数相对应;将获得的若干组基和骨骼参数输入标准三维人体参数模型中进行拟合;获得与目标人体体型相同的三维人体模型;完成从初始姿态驱动骨骼移动到目标姿态;获得与目标人体二维图像的姿态相同的三维目标人体模型网格。
所述三维人体模型具有骨骼点和模型网格的数学权值关系,骨骼点的确定可关联确定目标人体姿态的人体模型。在这一部分,沿用上一部分生成的这两种参数,就可以代入预先设计好的人体模型进行3D人体模型的构造。这两类参数与马普所的人体SMPL模型参数名称相似,但实际所包含的内容相差较大。因为两者的基础并不一样,也就是说,本发明采用自制三维标准人体模型(基础人台),马普所的SMPL模型采用大数据训练生成的标准人体模型,两个模型的生成计算方式不同,虽然最后都体现为生成的3D人体模型,但是其内涵相差较大。在这一步骤后,就会得到一个初步的3D人体模型,包括骨骼位置和长短信息的人体模型的网格(mesh)。
为了能较快速地,同时逼真地拟合出目标人体的姿态,我们采用了多级拟合的方法,在第一次拟合中,只拟合关键或者对姿态影响大的部位,比如颈、肩、肘、腰、胯、膝、踝等骨骼的旋转参数,由于参与计算的参数少,可以快速拟合出目标人体模型的一个大致姿态,在这一步可以保证人体模型的姿态与目标人体基本一致。因为我们在前面的步骤中,为了生成人体模型的pose和shape参数,已经设计了两级深度学习的神经网络。第一次拟合中,我们只要对神经网络的设置进行一下调整,就可以在这一步获得我们想要的参数。例如,我们可以给神经网络输入人体原图、骨骼姿态图、骨骼关节点、语义分割图作为条件信息,预测得到我们自制标准人体模型中30根基础大骨骼的目标姿态旋转状态参数信息。根据这些信息,就可以较快速地拟合出目标人体模型的大致位置,由于计算量小,可以大大节约计算和模拟和时间。在这里,基础大骨骼实际上是人为规定的,主要是手臂、腿部、肩部这些,当然数量也可以不是30根。
因为我们的模型是自制模型,可以有多达170根的骨骼,可以表示很多人体姿态的细节,远胜于马普所的模型,所以,我们可以在基础大骨骼的基础上,利用其他骨骼信息更准确地展现人体的姿态。因此,为了人体模型的姿态拟合准确度更高,我们可以根据需要对人体模型进行二次拟合,把其他参数全部或者部分代入模型进行计算,第二次拟合开放标准人体模型其他骨骼的自由度,得到其他骨骼的参数,并且输入了边缘轮廓等条件,使用迭代拟合的方式在第一步拟合之后的结果上进行拟合。由于模型已经基本移动到位,在第一步已经大致对齐到了真实图片的人体姿态,所以第二步的拟合计算不需要太多,这一步涉及的参数虽然增加很多,但是由于只是pose微调,所以计算量大大下降了。这之后,我们基本上已经可以得到一致性超过95%的目标人体模型。
如果这样的效果还没有达到要求,可以进行第三次精细拟合,做法是针对关键部位、重点部分以及感兴趣区域进行在上一次拟合基础上的拟合,把不完美的地方基本消除。如果想达到手指级别的拟合精度,就有必要引入第三步精细化拟合,输入手部或者其他重点关注部位的信息,在第二步的基础上进一步拟合。但是进行第三次拟合时,要特别注意对模拟计算时间的影响,我们实测第三次拟合之后,模型真实进一步上升,但是总处理时间已经基本接近单次全部参数拟合的水平,但是人体模型细部精确度稍好。总体来讲,本发明这种做法比起从始至终都对所有姿态参数进行模拟计算通常要节省一半以上的时间。实测后发现不但模型拟合真实度非常高,而且服装和人体姿态仿真出来的效果与传统方法相当,最重要是可以减少相当的处理时间。多级迭代的方法,可以最大限度地利用本发明中提供的自建标准人体模型的优势,各个骨骼单独进行控制,基础大骨骼和其他骨骼分开拟合,可以借助精细化的骨骼分布,很好地完成第二次拟合过程。这样先粗后细的方案可以既保证拟合的精度同时又达到快速收敛拟合的目的。
在这一部分,人体模型还要完成从初始姿态向目标姿态的变化。因为我们输入的只是一张照片,照片上的目标人体姿态通常是和基础人台是不一样的,这时,为了能拟合出目标人体的姿态,就要完成从初始姿态到目标姿态的变化。如图3所示,为了更加逼真地模拟模型的运动状态,若干组基和骨骼参数在标准三维人体参数模型中进行拟合驱动时,还包括以下步骤,
1)获得初始姿态和目标姿态的位置坐标;初始姿态参数的获得由标准人台模型的初始化参数确定,目标姿态的骨骼信息由神经网络模型回归预测得到。
2)生成从初始姿态移动到目标姿态的动画序列;有了骨骼信息的初始状态以及目标姿态状态参数之后,通过线性插值,最近邻插值等插帧方式,形成初始姿态到目标姿态的骨骼信息时间序列。在驱动过程中按照每帧驱动的骨骼数,可分为全局线性插值及先驱动父节点再驱动子节点等两种方式,考虑到模拟物理世界中的驱动状态,本专利采用后者,先驱动父骨骼节点,再驱动子骨骼节点的方式,这样插值出来的动画序列动作更加贴合真实物理世界,仿真出来的效果更佳。
3)生成动画序列的过程中,采用网格mesh插帧的方式进行处理;即每一帧驱动骨骼运动之后,都通过标准人台的权重参数计算得到当前状态的人体模型顶点即面信息,更新当前的人体模型网格(mesh)状态并记录保存,这也是保证模型还原度的一个关键步骤,可以使得人体模型的不期望变形和失真减少到能够接受的程度。
4)插帧速度的设置为前后距离初始点和目标点的位置慢,中间运动过程中快;本专利采用非匀速的插帧速率,即初始动作和结束动作过程中单帧移动幅度较小,移动中间过程移动幅度大的方式。模拟真实世界中物理动作的起始状态具有一定的加速过程,而运动过程中则保持较高的帧间位移距离,至运动末尾则降低驱动速度。
5)在驱动至最终目标姿态时静止数帧,得到整个动画序列。这样的做法比起匀速插帧更贴近真实物理世界运动规律,使得模型在高速运动后,在静止前得到一个有效的缓冲,进而得到整个完整动画序列,在最终姿态的附近形成插帧较密集的区域,人体模型的姿态拟合准确度更高,仿真出来的效果更佳。
6)完成从初始姿态驱动骨骼移动到目标姿态;此时,标准人体模型已经变成与目标人体模型姿势和体型基本一致的人体模型,姿态自然并且不会穿模。
结合图1至图3描述的根据本发明实施例的生成三维人体模型的方法可以由处理人体图像设备来实现。图4是示出根据发明实施例的处理人体图像的设备的硬件结构300示意图。
本发明还公开了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现前面所述的拟合方法和步骤。
以及一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;存储器,用于存放计算机程序;处理器,用于执行存储器上所存放的程序时,实现前面所述的拟合方法和步骤。
如图4所示,本实施例中的实现人体拟合的设备300包括:处理器301、存储器302、通信接口303和总线310,其中,处理器301、存储器302、通信接口303通过总线310连接并完成相互间的通信。
具体地,上述处理器301可以包括中央处理器(CPU),或者特定集成电路(ASIC),或者可以被配置成实施本发明实施例的一个或多个集成电路。
存储器302可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器302可包括HDD、软盘驱动器、闪存、光盘、磁光盘、磁带或通用串行总线(USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器302可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器302可在处理人体图像设备300的内部或外部。在特定实施例中,存储器302是非易失性固态存储器。在特定实施例中,存储器302包括只读存储器(ROM)。在合适的情况下,该ROM可以是掩模编程的ROM、可编程ROM(PROM)、可擦除PROM(EPROM)、电可擦除PROM(EEPROM)、电可改写ROM(EAROM)或闪存或者两个或更多个以上这些的组合。
通信接口303,主要用于实现本发明实施例中各模块、装置、单元和/或设备之间的通信。
总线310包括硬件、软件或两者,将处理人体图像的设备300的部件彼此耦接在一起。举例来说而非限制,总线可包括加速图形端口(AGP)或其他图形总线、增强工业标准架构(EISA)总线、前端总线(FSB)、超传输(HT)互连、工业标准架构(ISA)总线、无限带宽互连、低引脚数(LPC)总线、存储器总线、微信道架构(MCA)总线、外围组件互连(PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(SATA)总线、视频电子标准协会局部(VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线310可包括一个或多个总线。尽管本发明实施例描述和示出了特定的总线,但本发明考虑任何合适的总线或互连。
也就是说,图4所示的处理人体图像的设备300可以被实现为包括:处理器301、存储器302、通信接口303和总线310。处理器301、存储器302和通信接口303通过总线310连接并完成相互间的通信。存储器302用于存储程序代码;处理器301通过读取存储器302中存储的可执行程序代码来运行与可执行程序代码对应的程序,以用于执行本发明任一实施例中的三维人体模型拟合的方法,从而实现结合图1至图3描述的三维人体模型拟合方法和设备。
本发明实施例还提供一种计算机存储介质,该计算机存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现本发明实施例提供的处理人体图像的方法。
需要明确的是,本发明并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本发明的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本发明的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。
以上所述的结构框图中所示的功能块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(ASIC)、适当的固件、插件、功能卡等等。当以软件方式实现时,本发明的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、ROM、闪存、可擦除ROM(EROM)、软盘、CD-ROM、光盘、硬盘、光纤介质、射频(RF)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
还需要说明的是,本发明中提及的示例性实施例,基于一系列的步骤或者装置描述一些方法或系统。但是,本发明不局限于上述步骤的顺序,也就是说,可以按照实施例中提及的顺序执行步骤,也可以不同于实施例中的顺序,或者若干步骤同时执行。
以上所述,仅为本发明的具体实施方式,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。应理解,本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。

Claims (12)

1.一种人体模型的拟合方法,所述方法包括:
1)建立处于初始姿态的标准人体模型;
2)获取目标人体模型的姿态和体型参数,所述三维人体姿态和体型参数与三维标准人体模型的骨骼和若干个基参数相对应;
3)将获得的若干组基和骨骼参数输入标准三维人体模型中进行拟合;
4)完成从初始姿态驱动骨骼移动到目标姿态;
5)获得与目标人体二维图像姿态相同的三维目标人体模型网格。
2.根据权利要求1所述的方法,其特征在于,所述拟合过程还包括,获得初始姿态和目标姿态的位置坐标;初始姿态参数的获得由标准人台模型的初始化参数确定,目标姿态的骨骼信息由神经网络模型回归预测得到。
3.根据权利要求1所述的方法,其特征在于,通过多次分级拟合的方式完成人体模型的拟合。
4.根据权利要求3所述的方法,其特征在于,第一次拟合仅开放标准人体模型基础大骨骼的自由度,通过神经网络得到基础大骨骼的参数。
5.根据权利要求4所述的方法,其特征在于,第二次拟合开放标准人体模型其他骨骼的自由度,得到其他骨骼的参数,使用迭代拟合的方式在第一次拟合的结果上进行第二次拟合。
6.根据权利要求5所述的方法,其特征在于,第三次拟合可以输入感兴趣区域或者部位的参数信息,使用迭代拟合的方式在第二次拟合的结果上进行第三次拟合。
7.根据权利要求3所述的方法,其特征在于,第一次拟合中,给神经网络输入人体原图、骨骼姿态图、骨骼关节点、语义分割图作为条件信息。
8.根据权利要求1所述的方法,其特征在于,所述标准人体模型是结合数学模型构造的三维标准人体模型;所述三维标准人体模型具有骨骼点和模型网格的数学权值关系,骨骼点的确定可关联确定目标人体姿态的人体模型;所述三维标准人体模型由若干个形体基参数以及若干根骨骼参数限定,所述若干个形体基构成整个人体模型网格,每个形体基分别由基参数单独控制变化,互不影响。
9.根据权利要求1所述的方法,其特征在于,所述获取目标人体模型姿态参数的步骤还包括,1)获取目标人体的二维图像;2)处理获得目标人体的二维人体轮廓图像;3)将二维人体轮廓图像代入经过深度学习的第一神经网络进行关节点的回归;4)获得目标人体的关节点图;获取人体各部分语义分割图;身体关键点;身体骨骼点;5)将生成的目标人体的关节点图、语义分割图,身体骨骼点以及关键点信息代入经过深度学习的第二神经网络进行人体姿态和体型参数的回归;6)获得输出的三维人体参数,包括三维人体动作姿态参数和三维人体体型参数。
10.根据权利要求10所述的方法,其特征在于,还包括,二维人体轮廓图像的获取利用目标检测算法,所述目标检测算法是基于卷积神经网络的目标区域快速生成网络;在将二维人体图像输入第一神经网络模型之前,还包括训练神经网络的过程,训练样本包括标注原始关节点位置的标准二维人体图像,所述原始关节点位置由人工在二维人体图像上进行高准确度地标注。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-10任一所述的方法步骤。
12.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;存储器,用于存放计算机程序;处理器,用于执行存储器上所存放的程序时,实现权利要求1-10任一所述的方法步骤。
CN202010876681.3A 2020-08-27 2020-08-27 一种人体模型的拟合方法、设备和存储介质 Pending CN114119907A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010876681.3A CN114119907A (zh) 2020-08-27 2020-08-27 一种人体模型的拟合方法、设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010876681.3A CN114119907A (zh) 2020-08-27 2020-08-27 一种人体模型的拟合方法、设备和存储介质

Publications (1)

Publication Number Publication Date
CN114119907A true CN114119907A (zh) 2022-03-01

Family

ID=80374573

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010876681.3A Pending CN114119907A (zh) 2020-08-27 2020-08-27 一种人体模型的拟合方法、设备和存储介质

Country Status (1)

Country Link
CN (1) CN114119907A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114714995A (zh) * 2022-05-09 2022-07-08 上汽大众汽车有限公司 一种基于人体参数化模型的车辆座舱匹配调节方法
CN115147324A (zh) * 2022-08-01 2022-10-04 聚好看科技股份有限公司 一种人体模型和衣物模型的融合方法及设备
CN115661138A (zh) * 2022-12-13 2023-01-31 北京大学第三医院(北京大学第三临床医学院) 基于dr影像的人体骨骼轮廓检测方法
CN115862149A (zh) * 2022-12-30 2023-03-28 广州紫为云科技有限公司 一种生成3d人体骨骼关键点数据集的方法及系统
CN116310000A (zh) * 2023-03-16 2023-06-23 北京百度网讯科技有限公司 蒙皮数据生成方法、装置、电子设备及存储介质
CN116304996A (zh) * 2023-04-26 2023-06-23 浙江大学 一种石质文物监测数据本体趋势的提取方法和装置
CN117218292A (zh) * 2023-09-18 2023-12-12 武汉元一宇宙控股集团股份有限公司 一种3d模型生成方法、装置、设备及介质

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114714995A (zh) * 2022-05-09 2022-07-08 上汽大众汽车有限公司 一种基于人体参数化模型的车辆座舱匹配调节方法
CN115147324A (zh) * 2022-08-01 2022-10-04 聚好看科技股份有限公司 一种人体模型和衣物模型的融合方法及设备
CN115147324B (zh) * 2022-08-01 2024-03-22 聚好看科技股份有限公司 一种人体模型和衣物模型的融合方法及设备
CN115661138A (zh) * 2022-12-13 2023-01-31 北京大学第三医院(北京大学第三临床医学院) 基于dr影像的人体骨骼轮廓检测方法
CN115661138B (zh) * 2022-12-13 2023-03-21 北京大学第三医院(北京大学第三临床医学院) 基于dr影像的人体骨骼轮廓检测方法
CN115862149A (zh) * 2022-12-30 2023-03-28 广州紫为云科技有限公司 一种生成3d人体骨骼关键点数据集的方法及系统
CN115862149B (zh) * 2022-12-30 2024-03-22 广州紫为云科技有限公司 一种生成3d人体骨骼关键点数据集的方法及系统
CN116310000A (zh) * 2023-03-16 2023-06-23 北京百度网讯科技有限公司 蒙皮数据生成方法、装置、电子设备及存储介质
CN116310000B (zh) * 2023-03-16 2024-05-14 北京百度网讯科技有限公司 蒙皮数据生成方法、装置、电子设备及存储介质
CN116304996A (zh) * 2023-04-26 2023-06-23 浙江大学 一种石质文物监测数据本体趋势的提取方法和装置
CN116304996B (zh) * 2023-04-26 2024-03-22 浙江大学 一种石质文物监测数据本体趋势的提取方法和装置
CN117218292A (zh) * 2023-09-18 2023-12-12 武汉元一宇宙控股集团股份有限公司 一种3d模型生成方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
CN114202629A (zh) 一种人体模型的建立方法、系统、设备和存储介质
CN114119908A (zh) 一种服装模型驱动方法、设备和存储介质
CN114119907A (zh) 一种人体模型的拟合方法、设备和存储介质
CN114119911A (zh) 一种人体模型神经网络训练方法、设备和存储介质
CN114758213A (zh) 一种服装模型的布料解算方法、设备和存储介质
CN114119905A (zh) 一种虚拟试衣方法、系统、设备和存储介质
CN114119912A (zh) 一种人体模型的快速拟合方法、设备和存储介质
CN114119906A (zh) 一种服装模型自适应驱动方法、设备和存储介质
CN114663199B (zh) 一种动态展示的实时三维虚拟试衣系统及方法
CN114119910A (zh) 一种服装模型匹配人体模型的方法、设备和存储介质
Pujades et al. The virtual caliper: rapid creation of metrically accurate avatars from 3D measurements
Zhu et al. An efficient human model customization method based on orthogonal-view monocular photos
CN107924579A (zh) 生成个性化3d头部模型或3d身体模型的方法
CN110096156A (zh) 基于2d图像的虚拟换装方法
CN107590708B (zh) 一种生成用户特定体形模型的方法和装置
CN110175897A (zh) 一种3d合成试衣方法和系统
WO2021063271A1 (zh) 人体模型重建方法、重建系统及存储介质
US20210375045A1 (en) System and method for reconstructing a 3d human body under clothing
Zhang et al. Sifu: Side-view conditioned implicit function for real-world usable clothed human reconstruction
CN114119913A (zh) 一种人体模型的驱动方法、设备和存储介质
CN114693570A (zh) 一种人体模型图像的融合处理方法、设备和存储介质
CN114202630A (zh) 一种光照匹配的虚拟试衣方法、设备和存储介质
CN114119909A (zh) 一种可控人体模型的建立方法、设备和存储介质
Mi Park et al. Multi‐purpose three‐dimensional body form
CN110648394A (zh) 一种基于OpenGL和深度学习的三维人体建模方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination