CN110059579A - 用于活体检验的方法和装置,电子设备和存储介质 - Google Patents
用于活体检验的方法和装置,电子设备和存储介质 Download PDFInfo
- Publication number
- CN110059579A CN110059579A CN201910239825.1A CN201910239825A CN110059579A CN 110059579 A CN110059579 A CN 110059579A CN 201910239825 A CN201910239825 A CN 201910239825A CN 110059579 A CN110059579 A CN 110059579A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- dimensional point
- cloud data
- matrix
- data matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000012360 testing method Methods 0.000 title claims abstract description 24
- 239000011159 matrix material Substances 0.000 claims abstract description 274
- 238000001514 detection method Methods 0.000 claims abstract description 32
- 238000012937 correction Methods 0.000 claims abstract description 29
- 238000001727 in vivo Methods 0.000 claims abstract description 24
- 230000009466 transformation Effects 0.000 claims description 70
- 238000013527 convolutional neural network Methods 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 9
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 4
- 238000009795 derivation Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000011179 visual inspection Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000000554 iris Anatomy 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本公开的目的是提供一种用于活体检验的方法和装置,电子设备和存储介质,以解决相关技术中人脸识别活体检验不够准确的问题。包括:通过三维相机模组获取待检对象面部的三维点云数据矩阵,其中,所述三维点云数据矩阵包括所述待检对象面部每一采样点的三维坐标信息以及影像参数信息;将所述三维点云矩阵输入预先训练的空间变换模型,得到矫正后的三维点云数据矩阵,其中,所述空间变换模型通过未处于预设位姿的样本三维点云数据矩阵的坐标分布特征,以及所述样本三维点云数据矩阵经人工校正至处于所述预设位姿时的坐标分布特征训练得到;根据所述校正后的三维点云数据矩阵,以及预先训练的活体检测模型,确定所述待检对象是否为活体。
Description
技术领域
本公开涉及数据处理技术领域,具体地,涉及一种用于活体检验的方法和装置,电子设备和存储介质。
背景技术
随着科技的发展,数据处理效率的提升,合法身份的认证方式发生日新月异的变化。相关技术中,提出了通过采集待验证者的生物特征来进行用户合法身份验证的方案,这些生物特征可以是指纹特征,也可以是人的面部特征等等。
人脸与人体的其它生物特征(指纹、虹膜等)一样与生俱来,它的唯一性和不易被复制的良好特性为身份鉴别提供了必要的前提。与其它类型的生物识别比较,人脸识别具有非接触性,也就是说用户不需要和设备直接接触,设备就能获取人脸图像。此外,在实际应用场景下可以进行多个人脸的分拣、判断及识别。
然而,随着人脸识别的应用场景增加,出现不法分子利面具、3D脸模等人脸模型,或者播放用户面部影像冒充合法用户,非法入侵合法用户账户等案件。识待人脸是否为活体成为人脸识别的重要构成部分。
发明内容
本公开的目的是提供一种用于活体检验的方法和装置,电子设备和存储介质,以解决相关技术中人脸识别活体检验不够准确的问题。
为实现上述目的,第一方面,本公开提供一种用于活体检验的方法,所述方法包括:
通过三维相机模组获取待检对象面部的三维点云数据矩阵,其中,所述三维点云数据矩阵包括所述待检对象面部每一采样点的三维坐标信息以及影像参数信息;
将所述三维点云矩阵输入预先训练的空间变换模型,得到矫正后的三维点云数据矩阵,其中,所述空间变换模型通过未处于预设位姿的样本三维点云数据矩阵的坐标分布特征,以及所述样本三维点云数据矩阵经人工校正至处于所述预设位姿时的坐标分布特征训练得到;
根据所述校正后的三维点云数据矩阵,以及预先训练的活体检测模型,确定所述待检对象是否为活体。
可选地,所述活体检测模型为卷积神经网络模型;所述根据所述校正后的三维点云数据矩阵,以及预先训练的活体检测模型,确定所述待检对象是否为活体,包括:
通过预先训练的卷积神经网络模型,从所述校正后的三维点云数据矩阵提取特征矩阵;
计算所述特征矩阵的方差值;
判断所述方差值是否位于预设的方差范围内,其中,所述预设的方差范围是根据对应活体样本面部的特征矩阵计算得到的方差值确定的;
若所述方差值位于预设的方差范围内,确定所述待检对象为活体。
可选的,所述计算得到所述特征矩阵的方差值,包括:
通过以下公式计算得到方差值σ2:
其中,X表示所述特征矩阵中的任一元素;μ表示所述特征矩阵中所有元素的均值;N表示所述特征矩阵中的元素总数。
可选地,所述将所述三维点云矩阵输入预先训练的空间变换模型,得到矫正后的三维点云数据矩阵,包括:
将所述三维点云数据矩阵中的三维坐标信息,输入预先训练的空间变换模型得到空间变换矩阵;其中,所述空间变换模型通过未处于预设位姿的样本三维点云数据矩阵坐标分布特征,以及所述样本三维点云数据矩阵经人工校正处于所述预设位姿后的坐标分布特征训练得到;
通过所述空间变换矩阵对所述三维点云数据矩阵进行坐标校正,得到校正后的三维点云数据矩阵。
可选地,所述预设位姿为表征面部处于正视角度的位姿。
可选地,所述通过所述空间变换矩阵对所述三维点云数据矩阵进行坐标校正,得到校正后的三维点云数据矩阵,包括:
通过如下公式对所述三维点云数据矩阵进行坐标校正:
其中,为输入量;表示校正前三维点云数据矩阵的三维坐标;Aθ表示所述空间变换矩阵,为所述空间变换矩阵的展开表示;为输出量;表示校正后三维点云数据矩阵的三维坐标。
可选地,所述影像参数信息包括以下任意参数:
颜色参数,反射强度参数,温度参数。
可选地,在所述通过三维相机模组获取待检对象面部的三维点云数据矩阵之前,所述方法还包括:
通过距离传感器确定所述待检对象面部与所述三维相机模组的距离;
若所述距离小于预设距离阈值,通过三维相机模组获取待检对象面部的三维点云数据矩阵;
若所述距离不小于所述预设距离阈值,发出用于指示所述待检对象靠近所述三维相机模组的提示信息。
第二方面,本公开提供一种用于活体检验的装置,所述装置包括:
点云获取模块,用于通过三维相机模组获取待检对象面部的三维点云数据矩阵,其中,所述三维点云数据矩阵包括所述待检对象面部每一采样点的三维坐标信息以及影像参数信息;
点云矫正模块,用于将所述三维点云矩阵输入预先训练的空间变换模型,得到矫正后的三维点云数据矩阵,其中,所述空间变换模型通过未处于预设位姿的样本三维点云数据矩阵的坐标分布特征,以及所述样本三维点云数据矩阵经人工校正至处于所述预设位姿时的坐标分布特征训练得到;
确定模块,用于根据所述校正后的三维点云数据矩阵,以及预先训练的活体检测模型,确定所述待检对象是否为活体。
可选地,所述活体检测模型为卷积神经网络模型,所述确定模块,用于:
通过预先训练的卷积神经网络模型,从所述校正后的三维点云数据矩阵提取特征矩阵;
计算所述特征矩阵的方差值;
判断所述方差值是否位于预设的方差范围内,其中,所述预设的方差范围是根据对应活体样本面部的特征矩阵计算得到的方差值确定的;
若所述方差值位于预设的方差范围内,确定所述待检对象为活体。
可选的,所述确定模块,用于通过以下公式计算得到方差值σ2:
其中,X表示所述特征矩阵中的任一元素;μ表示所述特征矩阵中所有元素的均值;N表示所述特征矩阵中的元素总数。
可选地,所述点云矫正模块,用于:
将所述三维点云数据矩阵中的三维坐标信息,输入预先训练的空间变换模型得到空间变换矩阵;其中,所述空间变换模型通过未处于预设位姿的样本三维点云数据矩阵坐标分布特征,以及所述样本三维点云数据矩阵经人工校正处于所述预设位姿后的坐标分布特征训练得到;
通过所述空间变换矩阵对所述三维点云数据矩阵进行坐标校正,得到校正后的三维点云数据矩阵。
可选地,所述预设位姿为表征面部处于正视角度的位姿。
可选地,所述点云矫正模块,用于通过如下公式对所述三维点云数据矩阵进行坐标校正:
其中,为输入量;表示校正前三维点云数据矩阵的三维坐标;Aθ表示所述空间变换矩阵,为所述空间变换矩阵的展开表示;为输出量;表示校正后三维点云数据矩阵的三维坐标。
可选地,所述影像参数信息包括以下任意参数:颜色参数,反射强度参数,温度参数。
可选地,所述装置还包括提示模块,用于在所述通过三维相机模组获取待检对象面部的三维点云数据矩阵之前,执行以下操作:
通过距离传感器确定所述待检对象面部与所述三维相机模组的距离;
若所述距离小于预设距离阈值,通过三维相机模组获取待检对象面部的三维点云数据矩阵;
若所述距离不小于所述预设距离阈值,发出用于指示所述待检对象靠近所述三维相机模组的提示信息。
第三方面,本公开提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现任一项所述用于活体检验的方法的步骤。
第四方面,本公开提供一种电子设备,包括:
存储器,其上存储有计算机程序;
处理器,用于执行所述存储器中的所述计算机程序,以实现任一项所述用于活体检验的方法的步骤。
上述技方案,至少能够达到以下技术效果:
通过三维相机模组获取待检对象面部的三维点云数据矩阵,再将所述三维点云矩阵输入预先训练的空间变换模型,得到矫正后的三维点云数据矩阵,进一步的,根据所述校正后的三维点云数据矩阵,以及预先训练的活体检测模型确定所述待检对象是否为活体,其中,通过三维相机模组直接获取三维点云数据矩阵,进而后续基于三维点云数据矩阵检验活体,能够较程度的缩减数据的中间处理环节,减少数据丢失,保证后续活体检测模型的输入信息的准确性。上述三维相机模组一次拍摄即可获取三维点云数据矩阵,数据采集的效率更高,减少用户的信息录入时间,更加快捷,此外,能够提升人脸活体检测不易察觉性,可以更加广泛地被应用于防范非法脸模攻击。并且,与单纯利用深度图进行活体检测的方案相比,点云中可包含的参数信息更多,可以更加有效的防止3D脸模的攻击。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
附图是用来提供对本公开的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但并不构成对本公开的限制。在附图中:
图1是根据一示例性实施例示出的一种用于活体检验的方法流程图。
图2是根据一示例性实施例示出的一种用于活体检验的方法的实施场景示意图。
图3是根据一示例性实施例示出的一种原理示意图。
图4是根据一示例性实施例示出的另一种原理示意图。
图5是根据一示例性实施例示出的另一种用于活体检验的方法流程图。
图6是根据一示例性实施例示出的另一种用于活体检验的方法流程图。
图7是根据一示例性实施例示出的一种用于活体检验的装置框图。
图8是根据一示例性实施例示出的一种电子设备框图。
具体实施方式
以下结合附图对本公开的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本公开,并不用于限制本公开。
图1是根据一示例性实施例示出的一种用于活体检验的方法流程图,所述方法包括:
S11,通过三维相机模组获取待检对象面部的三维点云数据矩阵,其中,所述三维点云数据矩阵包括所述待检对象面部每一采样点的三维坐标信息以及影像参数信息。
图2是通过三维相机模组获取待检对象面部的三维点云数据矩阵的示意图。如图2所示,终端上搭载有三维相机模组。该三维相机模组包括Dot Projector(点阵投射器),Front Camera(前置摄像头),Receiver(接收器),Ranging Sensor(距离传感器),InfraredSensor(红外光传感器),Flood Illuminator(泛光照明器)。模组中的结构互相配合,完成点阵的投射及点云数据的采集工作。
具体的,泛光照明器(Flood Illuminator)使用低功率的垂直共振腔面射型激光(Vertical Cavity Surface Emitting Laser,VCSEL),发射出“非结构”(Non-structured)的红外光投射在待检对象表面。Ranging Sensor(距离传感器)使用低功率的垂直共振腔面射型激光发射红外光激光,当有物体靠近时会反射激光光,进一步的可知待检对象靠近终端。Dot Projector(点阵投射器)使用高功率的垂直共振腔面射型激光发射红外光激光,经由内部晶圆级光学(Wafer Level Optics,WLO)、绕射光学组件(Diffractive OpticalElements,DOE)等结构,产生大约3万个“结构”(Structured)光点投射到待检对象表面,利用这些光点所形成的阵列反射回红外光相机(Infrared camera),计算出脸部不同位置的距离(深度)。
在具体实施时,所述影像参数信息包括以下任意参数:颜色参数,反射强度参数,温度参数。也就是说,采集得到的面部的点云中,每一个点包括有三维坐标,也可以包括该点采集到的颜色参数值,反射强度值,温度参数值。例如,获取的点数为N,每一点包括(x,y,z)的三围坐标数据(3个维度),还包括M种参数。那么实际上,得到的三维点云数据矩阵为N*(3+M)的矩阵。
在一种可选的实施方式中,在所述通过三维相机模组获取待检对象面部的三维点云数据矩阵之前,所述方法还包括:通过距离传感器确定所述待检对象面部与所述三维相机模组的距离;若所述距离小于预设距离阈值,通过三维相机模组获取待检对象面部的三维点云数据矩阵;若所述距离不小于所述预设距离阈值,发出用于指示所述待检对象靠近所述三维相机模组的提示信息。
进而待检对象可以根据指示缩短与三维相机模组之间的距离,这样能够使三维相机模组获取更加精确的三维点云数据矩阵。
S12,将所述三维点云矩阵输入预先训练的空间变换模型,得到矫正后的三维点云数据矩阵,其中,所述空间变换模型通过未处于预设位姿的样本三维点云数据矩阵的坐标分布特征,以及所述样本三维点云数据矩阵经人工校正至处于所述预设位姿时的坐标分布特征训练得到。
待检对象往往通过目测与三维相机模组之间的相对位置,来评估自身与三维相机模组中各传感器之间的位置关系,再进一步的通过移动身体姿态或者调整终端姿态来对正。然而,这种基于视觉的调整,带有一定的不确定性。若采集到的待检对象的面部未处于正视位姿,后续的数据处理上也会有较大的误差。
值得说明的是,若后续需要对将三维点云数据矩阵输入卷积神经网络来对待检对象进行活体分类(识别待检对象是否为活体),需要在多样的输入样本中保证分类识别的准确度。这要求输入的三维点云数据矩阵满足局部不变性,平移不变性,缩小不变性,旋转不变性等特性。也即,无论在何种位姿下采集到三维点云数据矩阵,需要将其位姿变换至有利于卷积神经网络进行数据处理的位姿,比如,表征面部处于正视角度的位姿,以保证卷积神经网络处理的准确度。
在一种可选的实施方式中,所述将所述三维点云矩阵输入预先训练的空间变换模型,得到矫正后的三维点云数据矩阵,包括:将所述三维点云数据矩阵中的三维坐标信息,输入预先训练的空间变换模型得到空间变换矩阵;其中,所述空间变换模型通过未处于预设位姿的样本三维点云数据矩阵坐标分布特征,以及所述样本三维点云数据矩阵经人工校正处于所述预设位姿后的坐标分布特征训练得到;通过所述空间变换矩阵对所述三维点云数据矩阵进行坐标校正,得到校正后的三维点云数据矩阵。
具体的,位姿表示待检对象的位置和方向。对三维相机模组所在的空间建立三维坐标系(x,y,z)。其中,待检对象的位置可以通过(x,y,z)表示,待检对象的方向可以通过围绕每一坐标轴的旋转角度(α,β,γ)来表示。针对三维点云数据矩阵进行位姿校正,可以针对其中每一点的三围坐标位置来进行调整,进而调整待检对象整体的位置和方向。
所述通过所述空间变换矩阵对所述三维点云数据矩阵进行坐标校正,得到校正后的三维点云数据矩阵,包括通过如下公式对所述三维点云数据矩阵进行坐标校正:
其中,为输入量;表示校正前三维点云数据矩阵的三维坐标;Aθ表示所述空间变换矩阵,为所述空间变换矩阵的展开表示;为输出量;表示校正后三维点云数据矩阵的三维坐标。
S13,根据所述校正后的三维点云数据矩阵,以及预先训练的活体检测模型,确定所述待检对象是否为活体。
可选的,可以通过预先训练的卷积神经网络模型,从所述校正后的三维点云数据矩阵提取特征矩阵;将所述特征矩阵输入预设的分类的函数模型,得到所述融合后的面部图三维点云数据矩阵属于活体类的概率值;若所述概率值大于预设概率阈值,则确定所述待检对象为活体。
卷积神经网络是一种多层神经网络,包括卷积层和池化层等。人工神经元可以响应周围单元,将数据量庞大的图像识别问题不断降维,最终使其能够被训练,实现分类,定位,检测等功能及作用。此外,卷积神经网络可以被训练。卷积神经网络的训练方法需要利用链式求导法则对隐含层的节点进行求导,即梯度下降和链式求导的反向传播法则。
如图3的卷积神经网络示意图所示是本公开实施例提供的一种神经网络的构成示意图,即,由输入层(input layer)经隐藏层(hidden layer)到输出层(output layer)。其中,隐藏层包括很多不同的层(卷积层,池化层,激活函数层,全连接层等)。
通过卷积层下采样完成特征提取,生成特征矩阵。请参考如图4所示的本公开实施例提供的运算示意图。
首先,上述三维点云数据矩阵可以是图中7*7的输入矩阵,矩阵中的每一点为源像素(source pixel)。由一个3*3的过滤窗口(filter),遍历所述输入矩阵,并进行卷积运算,得到卷积运算后输出的值。其中,该过滤窗口又名卷积矩阵(convolution kernel)。
具体的卷积运算过程可以参见如图右上角的竖式所示,运算结果为-8。
图4输入矩阵中框选的窗口矩阵中的中心值(值为1的像素点)被卷积运算后的结果所替代,也就是被值为-8的像素点所替代。
值得说明的是,上述计算过程可能会根据实际需要重复迭代多次,直至生成所需的特征矩阵。
所述预设的分类的函数模型为Softmax分类函数。具体的,将所述特征矩阵输入Softmax分类函数模型中,可以将得到多个神经元的输出量映射到0~1的区间内。也就是说,融合图像通过卷积神经网络提取特征矩阵后输入到Softmax层,最终输出对应每隔类别的概率值。
具体的,对所述图像特征矩阵做全连接层变换,得到输出的多维特征向量,其中,所述多维特征向量的维度数目对应所述Softmax分类函数的类别数目。
经过卷积神经网络的卷积运算后,每一神经元的输出可用如下公式表达:
其中,xij是第i个神经元的第j个输入值;wij是第i个神经元的第j个权重,b是偏移值,zi表示该网络的第i个输出,也即所述多维特征向量中第i个值。
进一步的,根据如下公式确定得到所述融合后的面部图像属于活体类的概率值:
其中,ai代表Softmax的第i个类别的概率值,zi为所述多维特征向量中的第i个值。
举例来说,Softmax分类函数的具有两个类别,第一个类别为“非活体”,对应的概率值为a1;第二个类别为“活体”,对应的概率值为a2。那么通过上述概率计算公式,即可得到所述融合后的面部图像属于活体类的概率值a2。
上述技方案,至少能够达到以下技术效果:
通过三维相机模组获取待检对象面部的三维点云数据矩阵,再将所述三维点云矩阵输入预先训练的空间变换模型,得到矫正后的三维点云数据矩阵,进一步的,根据所述校正后的三维点云数据矩阵,以及预先训练的活体检测模型确定所述待检对象是否为活体,其中,通过三维相机模组直接获取三维点云数据矩阵,进而后续基于三维点云数据矩阵检验活体,能够较程度的缩减数据的中间处理环节,减少数据丢失,保证后续活体检测模型的输入信息的准确性。上述三维相机模组一次拍摄即可获取三维点云数据矩阵,数据采集的效率更高,减少用户的信息录入时间,更加快捷,此外,能够提升人脸活体检测不易察觉性,可以更加广泛地被应用于防范非法脸模攻击。并且,与单纯利用深度图进行活体检测的方案相比,点云中可包含的参数信息更多,可以更加有效的防止3D脸模的攻击。
图5是根据一示例性实施例示出的一种用于活体检验的方法,所述方法包括:
S51,通过三维相机模组获取待检对象面部的三维点云数据矩阵,其中,所述三维点云数据矩阵包括所述待检对象面部每一采样点的三维坐标信息以及影像参数信息。
在具体实施时,所述影像参数信息包括以下任意参数:颜色参数,反射强度参数,温度参数。也就是说,采集得到的面部的点云中,每一个点包括有三维坐标,也可以包括该点采集到的颜色参数值,反射强度值,温度参数值。例如,获取的点数为N,每一点包括(x,y,z)的三围坐标数据(3个维度),还包括M种参数。那么实际上,得到的三维点云数据矩阵为N*(3+M)的矩阵。
在一种可选的实施方式中,在所述通过三维相机模组获取待检对象面部的三维点云数据矩阵之前,所述方法还包括:通过距离传感器确定所述待检对象面部与所述三维相机模组的距离;若所述距离小于预设距离阈值,通过三维相机模组获取待检对象面部的三维点云数据矩阵;若所述距离不小于所述预设距离阈值,发出用于指示所述待检对象靠近所述三维相机模组的提示信息。
进而待检对象可以根据指示缩短与三维相机模组之间的距离,这样能够使三维相机模组获取更加精确的三维点云数据矩阵。
S52,将所述三维点云矩阵输入预先训练的空间变换模型,得到矫正后的三维点云数据矩阵,其中,所述空间变换模型通过未处于预设位姿的样本三维点云数据矩阵的坐标分布特征,以及所述样本三维点云数据矩阵经人工校正至处于所述预设位姿时的坐标分布特征训练得到。
待检对象往往通过目测与三维相机模组之间的相对位置,来评估自身与三维相机模组中各传感器之间的位置关系,再进一步的通过移动身体姿态或者调整终端姿态来对正。然而,这种基于视觉的调整,带有一定的不确定性。若采集到的待检对象的面部未处于正视位姿,后续的数据处理上也会有较大的误差。
值得说明的是,若后续需要对将三维点云数据矩阵输入卷积神经网络来对待检对象进行活体分类(识别待检对象是否为活体),需要在多样的输入样本中保证分类识别的准确度。这要求输入的三维点云数据矩阵满足局部不变性,平移不变性,缩小不变性,旋转不变性等特性。也即,无论在何种位姿下采集到三维点云数据矩阵,需要将其位姿变换至有利于卷积神经网络进行数据处理的位姿,比如,表征面部处于正视角度的位姿,以保证卷积神经网络处理的准确度。
在一种可选的实施方式中,所述将所述三维点云矩阵输入预先训练的空间变换模型,得到矫正后的三维点云数据矩阵,包括:将所述三维点云数据矩阵中的三维坐标信息,输入预先训练的空间变换模型得到空间变换矩阵;其中,所述空间变换模型通过未处于预设位姿的样本三维点云数据矩阵坐标分布特征,以及所述样本三维点云数据矩阵经人工校正处于所述预设位姿后的坐标分布特征训练得到;通过所述空间变换矩阵对所述三维点云数据矩阵进行坐标校正,得到校正后的三维点云数据矩阵。
具体的,位姿表示待检对象的位置和方向。对三维相机模组所在的空间建立三维坐标系(x,y,z)。其中,待检对象的位置可以通过(x,y,z)表示,待检对象的方向可以通过围绕每一坐标轴的旋转角度(α,β,γ)来表示。针对三维点云数据矩阵进行位姿校正,可以针对其中每一点的三围坐标位置来进行调整,进而调整待检对象整体的位置和方向。
所述通过所述空间变换矩阵对所述三维点云数据矩阵进行坐标校正,得到校正后的三维点云数据矩阵,包括通过如下公式对所述三维点云数据矩阵进行坐标校正:
其中,为输入量;表示校正前三维点云数据矩阵的三维坐标;Aθ表示所述空间变换矩阵,为所述空间变换矩阵的展开表示;为输出量;表示校正后三维点云数据矩阵的三维坐标。
S53,通过预先训练的卷积神经网络模型,从所述校正后的三维点云数据矩阵提取特征矩阵。
S54,计算所述特征矩阵的方差值。
可选的,所述计算得到所述特征矩阵的方差值,包括通过以下公式计算得到方差值σ2:
其中,X表示所述特征矩阵中的任一元素;μ表示所述特征矩阵中所有元素的均值;N表示所述特征矩阵中的元素总数。
S55,判断所述方差值是否位于预设的方差范围内,其中,所述预设的方差范围是根据对应活体样本面部的特征矩阵计算得到的方差值确定的。
S56,若所述方差值位于预设的方差范围内,确定所述待检对象为活体。
值得说明的是,特征矩阵的方差值所在范围来判断是待检对象是否为活体,能够减少数据处理量,从而能够更加快速的得到是否为活体的检验结果。
图6是根据一示例性实施例示出的一种用于活体检验的方法,所述方法包括:
S61,通过三维相机模组获取待检对象面部的三维点云数据矩阵,其中,所述三维点云数据矩阵包括所述待检对象面部每一采样点的三维坐标信息以及影像参数信息。
S62,将所述三维点云矩阵输入预先训练的空间变换模型,得到矫正后的三维点云数据矩阵,其中,所述空间变换模型通过未处于预设位姿的样本三维点云数据矩阵的坐标分布特征,以及所述样本三维点云数据矩阵经人工校正至处于所述预设位姿时的坐标分布特征训练得到。
S63,通过预先训练的卷积神经网络模型,从所述校正后的三维点云数据矩阵提取特征矩阵。
S64,计算所述特征矩阵的方差值。
S65,将所述特征矩阵输入预设的分类的函数模型,得到所述融合后的面部图三维点云数据矩阵属于活体类的概率值。
S66,若所述方差值位于预设的方差范围内,且所述概率值大于预设概率阈值,则确定所述待检对象为活体,其中,所述预设的方差范围是根据对应活体样本面部的特征矩阵计算得到的方差值确定的。
在本实施例的技术方案中,通过根据分类函数得到的概率值,以及特征矩阵的方差值,来判断待检对象是否为活体,这样,不同类型的数据结果可实现二次校验,提升活体检测的准确度和安全性。
值得说明的是,对于上述方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制。例如,步骤S64和步骤S65可以以任意顺序先后执行,也可以并行执行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明所必须的。例如,步骤S62可以不执行,而在步骤S63中,通过预先训练的卷积神经网络模型,从初始获取的三维点云数据矩阵提取特征矩阵。在这一示例中,通过后续步骤中不同类型的数据结果可实现二次校验,也能实现提升活体检测的准确度和安全性的效果。
图7是根据一示例性实施例示出的一种用于活体检验的装置框图。所述装置包括:
点云获取模块710,用于通过三维相机模组获取待检对象面部的三维点云数据矩阵,其中,所述三维点云数据矩阵包括所述待检对象面部每一采样点的三维坐标信息以及影像参数信息;
点云矫正模块720,用于将所述三维点云矩阵输入预先训练的空间变换模型,得到矫正后的三维点云数据矩阵,其中,所述空间变换模型通过未处于预设位姿的样本三维点云数据矩阵的坐标分布特征,以及所述样本三维点云数据矩阵经人工校正至处于所述预设位姿时的坐标分布特征训练得到;
确定模块730,用于根据所述校正后的三维点云数据矩阵,以及预先训练的活体检测模型,确定所述待检对象是否为活体。
上述技方案,至少能够达到以下技术效果:
通过三维相机模组获取待检对象面部的三维点云数据矩阵,再将所述三维点云矩阵输入预先训练的空间变换模型,得到矫正后的三维点云数据矩阵,进一步的,根据所述校正后的三维点云数据矩阵,以及预先训练的活体检测模型确定所述待检对象是否为活体,其中,通过三维相机模组直接获取三维点云数据矩阵,进而后续基于三维点云数据矩阵检验活体,能够较程度的缩减数据的中间处理环节,减少数据丢失,保证后续活体检测模型的输入信息的准确性。上述三维相机模组一次拍摄即可获取三维点云数据矩阵,数据采集的效率更高,减少用户的信息录入时间,更加快捷,此外,能够提升人脸活体检测不易察觉性,可以更加广泛地被应用于防范非法脸模攻击。并且,与单纯利用深度图进行活体检测的方案相比,点云中可包含的参数信息更多,可以更加有效的防止3D脸模的攻击。
可选地,所述活体检测模型为卷积神经网络模型,所述确定模块,用于:
通过预先训练的卷积神经网络模型,从所述校正后的三维点云数据矩阵提取特征矩阵;
计算所述特征矩阵的方差值;
判断所述方差值是否位于预设的方差范围内,其中,所述预设的方差范围是根据对应活体样本面部的特征矩阵计算得到的方差值确定的;
若所述方差值位于预设的方差范围内,确定所述待检对象为活体。
可选的,所述确定模块,用于通过以下公式计算得到方差值σ2:
其中,X表示所述特征矩阵中的任一元素;μ表示所述特征矩阵中所有元素的均值;N表示所述特征矩阵中的元素总数。
可选地,所述点云矫正模块,用于:
将所述三维点云数据矩阵中的三维坐标信息,输入预先训练的空间变换模型得到空间变换矩阵;其中,所述空间变换模型通过未处于预设位姿的样本三维点云数据矩阵坐标分布特征,以及所述样本三维点云数据矩阵经人工校正处于所述预设位姿后的坐标分布特征训练得到;
通过所述空间变换矩阵对所述三维点云数据矩阵进行坐标校正,得到校正后的三维点云数据矩阵。
可选地,所述预设位姿为表征面部处于正视角度的位姿。
可选地,所述点云矫正模块,用于通过如下公式对所述三维点云数据矩阵进行坐标校正:
其中,为输入量;表示校正前三维点云数据矩阵的三维坐标;Aθ表示所述空间变换矩阵,为所述空间变换矩阵的展开表示;为输出量;表示校正后三维点云数据矩阵的三维坐标。
可选地,所述影像参数信息包括以下任意参数:颜色参数,反射强度参数,温度参数。
可选地,所述装置还包括提示模块,用于在所述通过三维相机模组获取待检对象面部的三维点云数据矩阵之前,执行以下操作:
通过距离传感器确定所述待检对象面部与所述三维相机模组的距离;
若所述距离小于预设距离阈值,通过三维相机模组获取待检对象面部的三维点云数据矩阵;
若所述距离不小于所述预设距离阈值,发出用于指示所述待检对象靠近所述三维相机模组的提示信息。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现任一项所述用于活体检验的方法的步骤。
本公开提供一种电子设备,包括:
存储器,其上存储有计算机程序;
处理器,用于执行所述存储器中的所述计算机程序,以实现任一项所述用于活体检验的方法的步骤。
图8是根据一示例性实施例示出的一种电子设备框图。该电子设备可以被提供为智能手机,智能平板设备,可穿戴设备,个人财务终端等。如图8所示,该电子设备800可以包括:处理器801,存储器802。该电子设备800还可以包括多媒体组件803,输入/输出(I/O)接口804,以及通信组件805中的一者或多者。
其中,处理器801用于控制该电子设备800的整体操作,以完成上述的用于活体检测的方法中的全部或部分步骤。存储器802用于存储各种类型的数据以支持在该电子设备800的操作,这些数据例如可以包括用于在该电子设备800上操作的任何应用程序或方法的指令,以及应用程序相关的数据,例如,活体检验模型数据、点云参数等,再比如,联系人数据、收发的消息、图片、音频、视频等等。该存储器802可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(Static Random AccessMemory,简称SRAM),电可擦除可编程只读存储器(Electrically Erasable ProgrammableRead-Only Memory,简称EEPROM),可擦除可编程只读存储器(Erasable ProgrammableRead-Only Memory,简称EPROM),可编程只读存储器(Programmable Read-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。多媒体组件803可以包括屏幕和音频组件。其中屏幕例如可以是触摸屏,音频组件用于输出和/或输入音频信号。例如,音频组件可以包括一个麦克风,麦克风用于接收外部音频信号。所接收的音频信号可以被进一步存储在存储器802或通过通信组件805发送。音频组件还包括至少一个扬声器,用于输出音频信号。I/O接口804为处理器801和其他接口模块之间提供接口,上述其他接口模块可以是键盘,鼠标,按钮等。这些按钮可以是虚拟按钮或者实体按钮。通信组件805用于该电子设备800与其他设备之间进行有线或无线通信。无线通信,例如Wi-Fi,蓝牙,近场通信(Near Field Communication,简称NFC),2G、3G、4G、NB-IOT、eMTC、或其他5G等等,或它们中的一种或几种的组合,在此不做限定。因此相应的该通信组件808可以包括:Wi-Fi模块,蓝牙模块,NFC模块等等。
在一示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(Application Specific Integrated Circuit,简称ASIC)、数字信号处理器(DigitalSignal Processor,简称DSP)、数字信号处理设备(Digital Signal Processing Device,简称DSPD)、可编程逻辑器件(Programmable Logic Device,简称PLD)、现场可编程门阵列(Field Programmable Gate Array,简称FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述的用于活体检测的方法。
在另一示例性实施例中,还提供了一种包括程序指令的计算机可读存储介质,该程序指令被处理器执行时实现上述的用于活体检测的方法的步骤。例如,该计算机可读存储介质可以为上述包括程序指令的存储器802,上述程序指令可由电子设备800的处理器801执行以完成上述的用于活体检测的方法。
以上结合附图详细描述了本公开的优选实施方式,但是,本公开并不限于上述实施方式中的具体细节,在本公开的技术构思范围内,可以对本公开的技术方案进行多种简单变型,这些简单变型均属于本公开的保护范围。
另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合,为了避免不必要的重复,本公开对各种可能的组合方式不再另行说明。
此外,本公开的各种不同的实施方式之间也可以进行任意组合,只要其不违背本公开的思想,其同样应当视为本公开所公开的内容。
Claims (11)
1.一种用于活体检验的方法,其特征在于,所述方法包括:
通过三维相机模组获取待检对象面部的三维点云数据矩阵,其中,所述三维点云数据矩阵包括所述待检对象面部每一采样点的三维坐标信息以及影像参数信息;
将所述三维点云矩阵输入预先训练的空间变换模型,得到矫正后的三维点云数据矩阵,其中,所述空间变换模型通过未处于预设位姿的样本三维点云数据矩阵的坐标分布特征,以及所述样本三维点云数据矩阵经人工校正至处于所述预设位姿时的坐标分布特征训练得到;
根据所述校正后的三维点云数据矩阵,以及预先训练的活体检测模型,确定所述待检对象是否为活体。
2.根据权利要求1所述的方法,其特征在于,所述活体检测模型为卷积神经网络模型;所述根据所述校正后的三维点云数据矩阵,以及预先训练的活体检测模型,确定所述待检对象是否为活体,包括:
通过预先训练的卷积神经网络模型,从所述校正后的三维点云数据矩阵提取特征矩阵;
计算所述特征矩阵的方差值;
判断所述方差值是否位于预设的方差范围内,其中,所述预设的方差范围是根据对应活体样本面部的特征矩阵计算得到的方差值确定的;
若所述方差值位于预设的方差范围内,确定所述待检对象为活体。
3.根据权利要求2所述的方法,其特征在于,所述计算得到所述特征矩阵的方差值,包括:
通过以下公式计算得到方差值σ2:
其中,X表示所述特征矩阵中的任一元素;μ表示所述特征矩阵中所有元素的均值;N表示所述特征矩阵中的元素总数。
4.根据权利要求1所述的方法,其特征在于,所述将所述三维点云矩阵输入预先训练的空间变换模型,得到矫正后的三维点云数据矩阵,包括:
将所述三维点云数据矩阵中的三维坐标信息,输入预先训练的空间变换模型得到空间变换矩阵;其中,所述空间变换模型通过未处于预设位姿的样本三维点云数据矩阵坐标分布特征,以及所述样本三维点云数据矩阵经人工校正处于所述预设位姿后的坐标分布特征训练得到;
通过所述空间变换矩阵对所述三维点云数据矩阵进行坐标校正,得到校正后的三维点云数据矩阵。
5.根据权利要求4所述的方法,其特征在于,所述预设位姿为表征面部处于正视角度的位姿。
6.根据权利要求4所述的方法,其特征在于,所述通过所述空间变换矩阵对所述三维点云数据矩阵进行坐标校正,得到校正后的三维点云数据矩阵,包括:
通过如下公式对所述三维点云数据矩阵进行坐标校正:
其中,为输入量;表示校正前三维点云数据矩阵的三维坐标;Aθ表示所述空间变换矩阵,为所述空间变换矩阵的展开表示;为输出量;表示校正后三维点云数据矩阵的三维坐标。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述影像参数信息包括以下任意参数:
颜色参数,反射强度参数,温度参数。
8.根据权利要求1-5任一项所述的方法,其特征在于,在所述通过三维相机模组获取待检对象面部的三维点云数据矩阵之前,所述方法还包括:
通过距离传感器确定所述待检对象面部与所述三维相机模组的距离;
若所述距离小于预设距离阈值,通过三维相机模组获取待检对象面部的三维点云数据矩阵;
若所述距离不小于所述预设距离阈值,发出用于指示所述待检对象靠近所述三维相机模组的提示信息。
9.一种用于活体检验的装置,其特征在于,所述装置包括:
点云获取模块,用于通过三维相机模组获取待检对象面部的三维点云数据矩阵,其中,所述三维点云数据矩阵包括所述待检对象面部每一采样点的三维坐标信息以及影像参数信息;
点云矫正模块,用于将所述三维点云矩阵输入预先训练的空间变换模型,得到矫正后的三维点云数据矩阵,其中,所述空间变换模型通过未处于预设位姿的样本三维点云数据矩阵的坐标分布特征,以及所述样本三维点云数据矩阵经人工校正至处于所述预设位姿时的坐标分布特征训练得到;
确定模块,用于根据所述校正后的三维点云数据矩阵,以及预先训练的活体检测模型,确定所述待检对象是否为活体。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-8中任一项所述方法的步骤。
11.一种电子设备,其特征在于,包括:
存储器,其上存储有计算机程序;
处理器,用于执行所述存储器中的所述计算机程序,以实现权利要求1-8中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910239825.1A CN110059579B (zh) | 2019-03-27 | 2019-03-27 | 用于活体检验的方法和装置,电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910239825.1A CN110059579B (zh) | 2019-03-27 | 2019-03-27 | 用于活体检验的方法和装置,电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110059579A true CN110059579A (zh) | 2019-07-26 |
CN110059579B CN110059579B (zh) | 2020-09-04 |
Family
ID=67317460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910239825.1A Active CN110059579B (zh) | 2019-03-27 | 2019-03-27 | 用于活体检验的方法和装置,电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110059579B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111160233A (zh) * | 2019-12-27 | 2020-05-15 | 中国科学院苏州纳米技术与纳米仿生研究所 | 基于三维成像辅助的人脸活体检测方法、介质及系统 |
CN112102506A (zh) * | 2020-09-25 | 2020-12-18 | 北京百度网讯科技有限公司 | 物体的采样点集合的获取方法、装置、设备以及存储介质 |
CN112102496A (zh) * | 2020-09-27 | 2020-12-18 | 安徽省农业科学院畜牧兽医研究所 | 牛体格测量方法、模型训练方法和系统 |
CN112308722A (zh) * | 2019-07-28 | 2021-02-02 | 四川谦泰仁投资管理有限公司 | 一种基于红外摄像的养殖业保险申报请求验证系统 |
CN113970922A (zh) * | 2020-07-22 | 2022-01-25 | 商汤集团有限公司 | 点云数据的处理方法、智能行驶控制方法及装置 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1426760A (zh) * | 2001-12-18 | 2003-07-02 | 中国科学院自动化研究所 | 基于活体虹膜的身份识别方法 |
CN105184246A (zh) * | 2015-08-28 | 2015-12-23 | 北京旷视科技有限公司 | 活体检测方法和活体检测系统 |
CN105260731A (zh) * | 2015-11-25 | 2016-01-20 | 商汤集团有限公司 | 一种基于光脉冲的人脸活体检测系统及方法 |
CN105320947A (zh) * | 2015-11-04 | 2016-02-10 | 博宏信息技术有限公司 | 一种基于光照成分的人脸活体检测方法 |
CN105320939A (zh) * | 2015-09-28 | 2016-02-10 | 北京天诚盛业科技有限公司 | 虹膜活体检测的方法和装置 |
CN105550668A (zh) * | 2016-01-25 | 2016-05-04 | 东莞市中控电子技术有限公司 | 一种活体生物特征采集装置及识别活体生物特征的方法 |
CN105740778A (zh) * | 2016-01-25 | 2016-07-06 | 北京天诚盛业科技有限公司 | 一种改进的三维人脸活体检测方法及其装置 |
CN105740780A (zh) * | 2016-01-25 | 2016-07-06 | 北京天诚盛业科技有限公司 | 人脸活体检测的方法和装置 |
CN105740775A (zh) * | 2016-01-25 | 2016-07-06 | 北京天诚盛业科技有限公司 | 一种三维人脸活体识别方法及其装置 |
CN105844206A (zh) * | 2015-01-15 | 2016-08-10 | 北京市商汤科技开发有限公司 | 身份认证方法及设备 |
CN106778518A (zh) * | 2016-11-24 | 2017-05-31 | 汉王科技股份有限公司 | 一种人脸活体检测方法及装置 |
US20180173980A1 (en) * | 2016-12-15 | 2018-06-21 | Beijing Kuangshi Technology Co., Ltd. | Method and device for face liveness detection |
CN108280418A (zh) * | 2017-12-12 | 2018-07-13 | 北京深醒科技有限公司 | 脸部图像的欺骗识别方法及装置 |
CN108319901A (zh) * | 2018-01-17 | 2018-07-24 | 百度在线网络技术(北京)有限公司 | 人脸的活体检测方法、装置、计算机设备及可读介质 |
CN108764091A (zh) * | 2018-05-18 | 2018-11-06 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备和存储介质 |
US20180349682A1 (en) * | 2017-05-31 | 2018-12-06 | Facebook, Inc. | Face liveness detection |
CN109034029A (zh) * | 2018-07-17 | 2018-12-18 | 新疆玖富万卡信息技术有限公司 | 检测活体的人脸识别方法、可读存储介质和电子设备 |
-
2019
- 2019-03-27 CN CN201910239825.1A patent/CN110059579B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1426760A (zh) * | 2001-12-18 | 2003-07-02 | 中国科学院自动化研究所 | 基于活体虹膜的身份识别方法 |
CN105844206A (zh) * | 2015-01-15 | 2016-08-10 | 北京市商汤科技开发有限公司 | 身份认证方法及设备 |
CN105184246A (zh) * | 2015-08-28 | 2015-12-23 | 北京旷视科技有限公司 | 活体检测方法和活体检测系统 |
CN105320939A (zh) * | 2015-09-28 | 2016-02-10 | 北京天诚盛业科技有限公司 | 虹膜活体检测的方法和装置 |
CN105320947A (zh) * | 2015-11-04 | 2016-02-10 | 博宏信息技术有限公司 | 一种基于光照成分的人脸活体检测方法 |
CN105260731A (zh) * | 2015-11-25 | 2016-01-20 | 商汤集团有限公司 | 一种基于光脉冲的人脸活体检测系统及方法 |
CN105740775A (zh) * | 2016-01-25 | 2016-07-06 | 北京天诚盛业科技有限公司 | 一种三维人脸活体识别方法及其装置 |
CN105740780A (zh) * | 2016-01-25 | 2016-07-06 | 北京天诚盛业科技有限公司 | 人脸活体检测的方法和装置 |
CN105740778A (zh) * | 2016-01-25 | 2016-07-06 | 北京天诚盛业科技有限公司 | 一种改进的三维人脸活体检测方法及其装置 |
CN105550668A (zh) * | 2016-01-25 | 2016-05-04 | 东莞市中控电子技术有限公司 | 一种活体生物特征采集装置及识别活体生物特征的方法 |
CN106778518A (zh) * | 2016-11-24 | 2017-05-31 | 汉王科技股份有限公司 | 一种人脸活体检测方法及装置 |
US20180173980A1 (en) * | 2016-12-15 | 2018-06-21 | Beijing Kuangshi Technology Co., Ltd. | Method and device for face liveness detection |
US20180349682A1 (en) * | 2017-05-31 | 2018-12-06 | Facebook, Inc. | Face liveness detection |
CN108280418A (zh) * | 2017-12-12 | 2018-07-13 | 北京深醒科技有限公司 | 脸部图像的欺骗识别方法及装置 |
CN108319901A (zh) * | 2018-01-17 | 2018-07-24 | 百度在线网络技术(北京)有限公司 | 人脸的活体检测方法、装置、计算机设备及可读介质 |
CN108764091A (zh) * | 2018-05-18 | 2018-11-06 | 北京市商汤科技开发有限公司 | 活体检测方法及装置、电子设备和存储介质 |
CN109034029A (zh) * | 2018-07-17 | 2018-12-18 | 新疆玖富万卡信息技术有限公司 | 检测活体的人脸识别方法、可读存储介质和电子设备 |
Non-Patent Citations (5)
Title |
---|
ANDREA LAGORIO 等: "Liveness detection based on 3D face shape analysis", 《2013 INTERNATIONAL WORKSHOP ON BIOMETRICS AND FORENSICS (IWBF)》 * |
K MOHAN 等: "A combined HOG-LPQ with Fuz-SVM classifier for Object face Liveness Detection", 《2017 INTERNATIONAL CONFERENCE ON I-SMAC (IOT IN SOCIAL, MOBILE, ANALYTICS AND CLOUD) (I-SMAC)》 * |
SENGUR, A 等: "Deep Feature Extraction for Face Liveness Detection", 《2018 INTERNATIONAL CONFERENCE ON ARTIFICIAL INTELLIGENCE AND DATA PROCESSING (IDAP)》 * |
吴继鹏 等: "基于FS-LBP特征的人脸活体检测方法", 《集美大学学报》 * |
李兰影: "身份认证中的活性人脸检测技术的研究", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112308722A (zh) * | 2019-07-28 | 2021-02-02 | 四川谦泰仁投资管理有限公司 | 一种基于红外摄像的养殖业保险申报请求验证系统 |
CN111160233A (zh) * | 2019-12-27 | 2020-05-15 | 中国科学院苏州纳米技术与纳米仿生研究所 | 基于三维成像辅助的人脸活体检测方法、介质及系统 |
CN111160233B (zh) * | 2019-12-27 | 2023-04-18 | 中国科学院苏州纳米技术与纳米仿生研究所 | 基于三维成像辅助的人脸活体检测方法、介质及系统 |
CN113970922A (zh) * | 2020-07-22 | 2022-01-25 | 商汤集团有限公司 | 点云数据的处理方法、智能行驶控制方法及装置 |
WO2022017131A1 (zh) * | 2020-07-22 | 2022-01-27 | 商汤集团有限公司 | 点云数据的处理方法、智能行驶控制方法及装置 |
CN113970922B (zh) * | 2020-07-22 | 2024-06-14 | 商汤集团有限公司 | 点云数据的处理方法、智能行驶控制方法及装置 |
CN112102506A (zh) * | 2020-09-25 | 2020-12-18 | 北京百度网讯科技有限公司 | 物体的采样点集合的获取方法、装置、设备以及存储介质 |
CN112102506B (zh) * | 2020-09-25 | 2023-07-07 | 北京百度网讯科技有限公司 | 物体的采样点集合的获取方法、装置、设备以及存储介质 |
CN112102496A (zh) * | 2020-09-27 | 2020-12-18 | 安徽省农业科学院畜牧兽医研究所 | 牛体格测量方法、模型训练方法和系统 |
CN112102496B (zh) * | 2020-09-27 | 2024-03-26 | 安徽省农业科学院畜牧兽医研究所 | 牛体格测量方法、模型训练方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110059579B (zh) | 2020-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110059579B (zh) | 用于活体检验的方法和装置,电子设备和存储介质 | |
CN110765923A (zh) | 一种人脸活体检测方法、装置、设备及存储介质 | |
CN112052831B (zh) | 人脸检测的方法、装置和计算机存储介质 | |
RU2431190C2 (ru) | Способ и устройство распознавания рельефности лица | |
CN112232155B (zh) | 非接触指纹识别的方法、装置、终端及存储介质 | |
TW202026948A (zh) | 活體檢測方法、裝置以及儲存介質 | |
CN111104833A (zh) | 用于活体检验的方法和装置,存储介质和电子设备 | |
CN112801057A (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN112232163B (zh) | 指纹采集方法及装置、指纹比对方法及装置、设备 | |
CN110532746B (zh) | 人脸校验方法、装置、服务器及可读存储介质 | |
CN112052830B (zh) | 人脸检测的方法、装置和计算机存储介质 | |
CN112016525A (zh) | 非接触式指纹采集方法和装置 | |
CN108509994B (zh) | 人物图像聚类方法和装置 | |
CN111598065B (zh) | 深度图像获取方法及活体识别方法、设备、电路和介质 | |
CN112232159B (zh) | 指纹识别的方法、装置、终端及存储介质 | |
CN110008943B (zh) | 一种图像处理方法及装置、一种计算设备及存储介质 | |
WO2022068931A1 (zh) | 非接触指纹识别方法、装置、终端及存储介质 | |
CN110991412A (zh) | 人脸识别的方法、装置、存储介质及电子设备 | |
CN108399401B (zh) | 用于检测人脸图像的方法和装置 | |
CN113901423B (zh) | 一种基于人脸识别的智能安防设备控制方法和系统 | |
CN112232157B (zh) | 指纹区域检测方法、装置、设备、存储介质 | |
KR20200083188A (ko) | 라이브니스 검출 방법 및 장치, 이를 이용한 객체 인식 방법 | |
CN114676403A (zh) | 认证系统、设备及方法 | |
CN112232152B (zh) | 非接触式指纹识别方法、装置、终端和存储介质 | |
CN212569821U (zh) | 非接触式指纹采集装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |