CN110688878B - 活体识别检测方法、装置、介质及电子设备 - Google Patents
活体识别检测方法、装置、介质及电子设备 Download PDFInfo
- Publication number
- CN110688878B CN110688878B CN201810734833.9A CN201810734833A CN110688878B CN 110688878 B CN110688878 B CN 110688878B CN 201810734833 A CN201810734833 A CN 201810734833A CN 110688878 B CN110688878 B CN 110688878B
- Authority
- CN
- China
- Prior art keywords
- distance
- frame
- image
- target object
- ratios
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供了一种活体识别检测方法、装置、介质及电子设备,该方法包括:获取目标对象相对于采集摄像头处于不同位置的多帧图像;提取所述多帧图像中各帧图像上的多个关键点信息;分别计算各帧图像上各个关键点信息之间的距离,并根据所述距离计算得到多个比值;针对所述多帧图像,分析所述多个比值的变化,并根据分析结果确定所述目标对象是否为活体对象。本发明实施例的技术方案可以提高识别系统的安全性。
Description
技术领域
本发明涉及生物识别技术领域,具体而言,涉及一种活体识别检测方法、装置、介质及电子设备。
背景技术
随着网络技术的发展,人脸识别技术的应用领域越来越广泛,如在线支付、网上银行、安防系统等。
为了防止恶意用户使用已拍摄的目标人脸照片来完成人脸识别,导致人脸识别系统的安全性差的问题,现有人脸识别系统中都加入了活体识别验证的过程。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本发明的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本发明实施例的目的在于提供一种活体识别检测方法,进而至少在一定程度上克服识别系统安全性低的问题。
本发明的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本发明的实践而习得。
根据本发明实施例的第一方面,提供了一种活体识别检测方法,包括:
获取目标对象相对于采集摄像头处于不同位置的多帧图像;提取所述多帧图像中各帧图像上的多个关键点信息;
分别计算各帧图像上各个关键点信息之间的距离,并根据所述距离计算得到多个比值;
针对所述多帧图像,分析所述多个比值的变化,并根据所述多个比值的变化确定所述目标对象是否为活体对象。
在本发明的一种示例实施例中,基于前述方案,所述根据所述多个比值的变化确定所述目标对象是否为活体,包括:
将所述多个比值输入分类器模型,得到分类结果,根据所述分类结果确定所述目标对象是否为活体对象。
在本发明的一种示例实施例中,基于前述方案,将所述多个比值输入分类器模型之前,还包括:
获取多个活体对象的多帧图像,根据所述活体对象的多帧图像计算所述多个比值,并将所述多个比值作为正样本集;
获取多个非活体对象的多帧图像,根据所述非活体对象的多帧图像计算所述多个比值,并将所述多个比值作为负样本集;
基于所述正样本集和所述负样本集,利用深度学习算法,获取所述分类器模型。
在本发明的一种示例实施例中,基于前述方案,所述根据所述分类结果确定所述目标对象是否为活体对象包括:
在所述分类结果为正类时,确定所述目标对象为活体对象;
在所述分类结果为负类时,确定所述目标对象为非活体对象。
在本发明的一种示例实施例中,基于前述方案,所述获取目标对象相对于采集摄像头处于不同位置的多帧图像包括:
获取所述目标对象距所述采集摄像头不同距离的预设数量帧图像。
在本发明的一种示例实施例中,基于前述方案,所述获取目标对象相对于采集摄像头处于不同位置的多帧图像包括:
获取所述目标对象相对于所述采集摄像头位置变化的动态影像;
将所述动态影像按预设时间段进行划分,截取所述预设数量帧图像。
在本发明的一种示例实施例中,基于前述方案,所述方法还包括:
通过检测框提示用户所述目标对象的影像出现在所述检测框内;
响应于采集所述目标对象的图像,所述检测框大小发生改变。
在本发明的一种示例实施例中,基于前述方案,所述分别计算各帧图像上各个关键点信息之间的距离包括:
计算出各帧图像上瞳孔点到鼻尖点的距离、瞳孔点到嘴角点的距离、嘴角点到鼻尖点的距离;
其中,各帧图像上瞳孔点到鼻尖点的距离为第一距离,瞳孔点到嘴角点的距离为第二距离,嘴角点到鼻尖点的距离为第三距离。
在本发明的一种示例实施例中,基于前述方案,所述根据所述距离计算得到多个比值包括:
获取所述各帧图像上双眼的瞳孔距离;
对于同一帧图像,计算所述第一距离与所述瞳孔距离的比值为第一比值,计算所述第二距离与所述瞳孔距离的比值为第二比值,计算所述第三距离与所述瞳孔距离的比值为第三比值,以得到各帧图像的各第一比值、第二比值、第三比值。
在本发明的一种示例实施例中,基于前述方案,所述针对所述多帧图像,分析所述多个比值的变化包括:
针对所述多帧图像,分别分析所述第一比值、第二比值、第三比值的变化。
在本发明的一种示例实施例中,基于前述方案,所述提取所述多帧图像中各帧图像上的多个关键点信息包括:
利用人脸关键点定位算法提取各帧图像上的多个关键点信息。
根据本发明实施例的第二方面,提供了一种活体识别检测装置,包括:
图像采集单元,用于获取目标对象相对于采集摄像头处于不同位置的多帧图像;
关键点获取单元,用于提取所述多帧图像中各帧图像上的多个关键点信息;
计算单元,用于分别计算各帧图像上各个关键点信息之间的距离,并根据所述距离计算得到多个比值;
结果确定单元,用于针对所述多帧图像,分析所述多个比值的变化,并根据分析结果确定所述目标对象是否为活体对象。
根据本发明实施例的第三方面,提供了一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现如上述实施例中第一方面所述的活体识别检测方法。
根据本发明实施例的第四方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述实施例中第一方面所述的活体识别检测方法。
本发明实施例提供的技术方案可以包括以下有益效果:
在本发明的一些实施例所提供的技术方案中,通过采集摄像头获取目标对象相对于采集摄像头处于不同位置的多帧图像,无需额外设备,可以减少资源占用,节约成本;同时,提高了活体识别系统灵活性和可用性;并且,提取各帧图像上的多个关键点信息,计算各个关键点信息之间的距离,并根据距离计算得到多个比值,针对多帧图像分析比值的变化,确定目标对象是否是活体对象,可以抵御攻击者使用目标对象的照片或者视频对识别系统的攻击,提高了识别系统的安全性;同时,与用户之间的交互简单,可以减少识别时间,提高识别效率;并且提高用户体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示意性示出了根据本发明的实施例的活体识别检测方法的流程图;
图2示意性示出了根据本发明的另一实施例的活体识别检测方法的流程图;
图3示意性示出了根据本发明的实施例的活体识别检测装置的框图;
图4示出了适于用来实现本发明实施例的电子设备的计算机系统的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本发明将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本发明的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本发明的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本发明的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
现有的活体识别技术可以通过判断用户是否完成指定的交互动作来进行识别,比如,眨眼、张嘴、抬头等,用户在规定的时间内完成指定的动作,可以通过识别。但是,恶意攻击者可以提前录制的用户进行上述动作的视频,使用视频也可以通过识别系统,导致识别系统的安全性差。还有一些活体识别技术是通过3D传感器获取用户的三维信息来进行识别的。照片或者视频的点深度是一致的,而活体人脸的点深度信息是不一致的,利用这一点可以克服攻击者利用视频来攻击系统的问题。但是,这种方式需要额外的传感器设备的支持,而传感器在手机、计算机等终端设备上并不普及,无法广泛使用。
基于此,本发明的示例实施方式中首先提供了一种活体识别检测方法。如图1所示,该方法可以包括步骤S110、S120、S130、S140。其中:
步骤S110,获取目标对象相对于采集摄像头处于不同位置的多帧图像;
步骤S120,提取所述多帧图像中各帧图像上的多个关键点信息;
步骤S130,分别计算各帧图像上各个关键点信息之间的距离,并根据所述距离计算得到多个比值;
步骤S140,针对所述多帧图像,分析所述多个比值的变化,并根据所述多个比值的变化确定所述目标对象是否为活体对象。
根据本示例实施例中的活体识别检测方法,通过采集摄像头获取目标对象相对于采集摄像头处于不同位置的多帧图像,无需额外设备,可以减少资源占用,节约成本;同时,提高了活体识别系统灵活性和可用性;并且,通过提取各帧图像上的多个关键点信息,计算各个关键点信息之间的距离,并根据距离计算得到多个比值,针对多帧图像分析比值的变化,确定目标对象是否是活体对象,可以抵御攻击者使用目标对象的照片或者视频对识别系统的攻击,提高了识别系统的安全性;同时,与用户之间的交互简单,可以减少识别时间,提高识别效率;并且提高用户体验。
下面,将结合图1至图2对本示例实施例中的活体识别检测方法的各个步骤进行更加详细的说明。
步骤S110,获取目标对象相对于采集摄像头处于不同位置的多帧图像。
摄像头可以提供拍摄照片或者录制视频,采集图像等功能,并且可以被应用于各种终端设备,例如,手机、电脑,ATM等。此外,摄像头还可以被用于各种识别系统中。例如,人脸识别系统、车牌识别系统、视觉识别系统等,本实施例中,以人脸识别系统为例。
在本实施例中,采集摄像头可以通过对目标对象进行多次拍照来获取目标对象相对于采集摄像头处于不同位置的多帧图像,也就是说,在摄像头采集图像时,目标对象与摄像头的相对位置可以发生变化。在摄像头位置不变的情况下,可以使目标对象的位置发生变化,也可以在目标对象位置不变的情况下,使摄像头的位置发生变化。例如,在采集目标对象的图像时,调节摄像头伸缩、转动等,或者目标对象前后左右移动等。多帧图像可以是在目标对象相对于摄像头发生位置变化的过程中,多次采集得到的多帧图像,或者目标对象不变时,摄像头每产生一次位移,采集一帧或者多帧图像。优选地,还可以设置目标对象距摄像头不同距离的预设数量帧图像。举例而言,摄像头可以由远到近,或者由近到远采集目标对象的预设数量帧图像。预设数量可以根据实际需要设置,比如,5帧、8帧等。
此外,采集摄像头还可以获取目标对象相对于摄像头位置变化的动态影像,也就是说,摄像头可以将目标对象位置变化的过程录制下来。在获得动态影像之后,可以对动态镜像按照预设时间段划分,截取预设数量帧图像。例如,获得10秒的动态影像,设预设数量为5,那么可以分别截取2秒时的图像,4秒时的图像,6秒时的图像,8秒时的图像和10秒时的图像,组成目标对象的多帧图像。
进一步地,为了获得目标对象相对于采集摄像头处于不同位置的多帧图像,在本示例实施例中,还可以通过检测框,提示用户目标对象的影像出现在检测框内,并且可以在摄像头采集图像时,改变检测框的大小,从而使得目标对象相对于摄像头的距离发生改变,获得目标对象的多帧图像。一般情况下,人离摄像头越远,拍摄的图片中人的影像就越小。在检测框的大小改变时,目标对象的影像若要出现在检测框内,那么目标对象距摄像头的距离可以相应发生改变,从而可以得到目标对象相对于采集摄像头处于不同位置的图像。
步骤S120,提取所述多帧图像中各帧图像上的多个关键点信息。
在本示例实施例中,可以在获得多帧图像后,提取多帧图像中的每一帧图像上的关键点信息。图像的关键点信息可以是人脸五官信息、也可以是轮廓信息,例如,眼睛、鼻子、嘴巴或者人脸轮廓等。关键点信息可以根据ASM(Active Shape Mode)算法,或者深度学习的方法获取。当然,根据实际情况,关键点信息也可以是用其他方法进行提取,例如,CPR(Cascaded Pose Regression,级联姿势回归)方法等。
步骤S130,分别计算各帧图像上各个关键点信息之间的距离,并根据所述距离计算得到多个比值。
在本示例实施例中,各个关键点信息之间的距离可以是在同一帧图像上每任意两个关键点信息之间的距离。优选地,可以将每一帧图像上的瞳孔点到鼻尖点的距离作为第一距离、瞳孔点到嘴角点的距离为第二距离、嘴角点到鼻尖点的距离为第三距离。此外,还可以根据距离计算得到多个比值。比值可以是计算出关键点信息之间的距离后,通过任意两个距离的比获取。优选地,可以获取各帧图像上双眼的瞳孔距离,对于同一帧图像,分别计算上述第一距离、第二距离、第三距离与该帧图像的瞳孔距离的比值,得到多个比值。同时,为了方便表述,可以将第一距离与瞳孔距离的比值作为第一比值,第二距离与瞳孔距离的比值作为第二比值,第三距离与瞳孔距离的比值作为第三比值。对于每一帧图像,都可以得到第一比值、第二比值、第三比值。
步骤S140,针对所述多帧图像,分析所述多个比值的变化,并根据所述多个比值的变化确定所述目标对象是否为活体对象。
在本示例实施例中,可以分别分析出第一比值在多帧图像中的每一帧图像的数值变化。也就是说,可以将多帧图像中第一帧图像的第一比值和第二帧图像的第一比值、第三帧图像的第一比值等等,直到最后一帧图像的第一比值进行比较,分析第一比值的数值变化,第二比值、第三比值也可以根据同样的方法进行分析。根据多个比值在多帧图像之间的数值变化的规律是否符合活体对象的特征来确定目标对象是否是活体对象。可以通过获得活体对象在摄像头不同位置的多帧图像,提取多帧图像中各帧图像的多个关键点信息,计算各个关键点信息之间的距离,根据距离计算得到活体对象的多个比值。可以用各种算法对一定数量的活体对象,分析活体对象的多个比值的变化,从而总结出活体对象的多个比值的变化规律。通过对比目标对象的多个比值的变化是否符合活体对象的多个比值变化规律可以确定目标对象是否是活体对象,或者也可以判断多个比值中的每一个比值的大小是否在活体对象对应的该比值的一定范围内来判断目标对象是否是活体对象。此外,还可以分析活体对象的多个比值变化规律,比如活体人脸的多个比值变化规律,或者可以分析非活体对象的多个比值的变化规律,比如,相较于图片,人脸更接近于圆柱体。根据多个比值的变化规律可以设定一个比值变化阈值,判断目标对象的多个比值变化是否小于或者大于该阈值,从而确定目标对象是否为活体对象。进一步地,为了更精确的根据多个比值的变化确定出目标对象是否是活体对象,本示例实施例还包括了步骤S210、S220、S230,如图2所示。其中:
步骤S210,获取多个活体对象的多帧图像,根据所述活体对象的多帧图像计算所述多个比值,并将所述多个比值作为正样本集。
在本示例实施例中,活体对象可以是需要进行识别的真实用户。真实用户可以与识别系统进行各种交互操作。比如,用户在银行开户,或者注册网上银行、在平台上绑定银行卡时,都需要通过识别系统的识别验证,以保证用户的生命财产安全。在上述步骤S110中的目标对象为活体对象时,根据步骤S110获得活体对象的多帧图像,并对得到的多帧图像进行上述步骤S120、S130的处理得到的多个比值可以作为正样本集。也就是说,可以用摄像头采集活体对象相对于摄像头处于不同位置的多帧图像,提取多帧图像中每帧图像的多个关键点信息,计算多个关键点信息之间的距离,根据距离计算获取多个比值,从而可以将多个比值作为正样本集。
步骤S220,获取多个非活体对象的多帧图像,根据所述非活体对象的多帧图像计算所述多个比值,并将所述多个比值作为负样本集。
在本示例实施例中,非活体对象可以是非真实用户的物体。例如,照片、视频、电子设备等。优选地,非活体对象可以是平面物体或者柱面物体。在上述步骤S110中的目标对象为非活体对象时,可以根据步骤S110获得非活体对象的多帧图像。并且可以根据上述步骤S120、S130得到的非活体对象对应的多个比值,得到的多个比值作为负样本集。也就是说,可以用摄像头采集非活体对象相对于摄像头处于不同位置的多帧图像,提取多帧图像中每帧图像的多个关键点信息,计算多个关键点信息之间的距离,根据距离计算获取多个比值,从而可以将多个比值作为负样本集。
步骤S230,基于所述正样本集和所述负样本集,利用深度学习算法,获取所述分类器模型。
可以直接根据分类器模型获取样本的分类结果,从而可以根据快速、高效地获取比值的分析效果。在本示例实施例中,可以将步骤S210和步骤S220中获得的正样本集和负样本集作为分类器模型的训练集。训练后的分类器模型可以将任何一个样本数据映射到给定类别中的一个。可以基于深度学习算法训练分类器模型,也可以使用其他算法训练分类器模型,例如,逻辑回归算法等。
进一步地,在得到上述分类器模型之后,步骤S140可以通过将多个比值输入分类器模型中,得到分类结果,根据分类结果可以确定目标对象是否为活体对象。在本示例实施例中,如果分类结果为正类时,可以确定目标对象为活体对象,如果分类结果为负类时,可以确定目标对象为非活体对象。此外,在目标对象确定为活体对象时,还可以提示用户通过识别,在目标对象确定为非活体对象时,可以提示用户识别失败。
以下介绍本发明的装置实施例,可以用于执行本发明上述的活体识别检测方法。如图3所示,该活体识别检测装置300可以包括:
图像采集单元310,用于获取目标对象相对于采集摄像头处于不同位置的多帧图像;
关键点获取单元320,用于提取所述多帧图像中各帧图像上的多个关键点信息;
计算单元330,用于分别计算各帧图像上各个关键点信息之间的距离,并根据所述距离计算得到多个比值;
结果确定单元340,用于针对所述多帧图像,分析所述多个比值的变化,并根据分析结果确定所述目标对象是否为活体对象。
由于本发明的示例实施例的活体识别检测装置的各个功能模块与上述活体识别检测方法的示例实施例的步骤对应,因此对于本发明装置实施例中未披露的细节,请参照本发明上述的活体识别检测方法的实施例。
下面参考图4,其示出了适于用来实现本发明实施例的电子设备的计算机系统400的结构示意图。图4示出的电子设备的计算机系统400仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,计算机系统400包括中央处理单元(CPU)401,其可以根据存储在只读存储器(ROM)402中的程序或者从存储部分408加载到随机访问存储器(RAM)403中的程序而执行各种适当的动作和处理。在RAM 403中,还存储有系统操作所需的各种程序和数据。CPU401、ROM 402以及RAM 403通过总线404彼此相连。输入/输出(I/O)接口405也连接至总线404。
以下部件连接至I/O接口405:包括键盘、鼠标等的输入部分406;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分407;包括硬盘等的存储部分408;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分409。通信部分409经由诸如因特网的网络执行通信处理。驱动器410也根据需要连接至I/O接口405。可拆卸介质411,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器410上,以便于从其上读出的计算机程序根据需要被安装入存储部分408。
特别地,根据本发明的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分409从网络上被下载和安装,和/或从可拆卸介质411被安装。在该计算机程序被中央处理单元(CPU)401执行时,执行本申请的系统中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如上述实施例中所述的活体识别检测方法。
例如,所述的电子设备可以实现如图1中所示的:步骤S110,获取目标对象相对于采集摄像头处于不同位置的多帧图像;步骤S120,提取所述多帧图像中各帧图像上的多个关键点信息;步骤S130,分别计算各帧图像上各个关键点信息之间的距离,并根据所述距离计算得到多个比值;步骤S140,针对所述多帧图像,分析所述多个比值的变化,并根据所述多个比值的变化确定所述目标对象是否为活体对象。
又如,所述的电子设备可以实现如图2所示的各个步骤。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、触控终端、或者网络设备等)执行根据本发明实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
Claims (11)
1.一种活体识别检测方法,其特征在于,包括:
获取目标对象相对于采集摄像头处于不同位置的多帧图像;
提取所述多帧图像中各帧图像上的多个关键点信息;
分别计算各帧图像上各个关键点信息之间的距离,并根据所述距离计算得到多个比值;
针对所述多帧图像,分析所述多个比值的变化,并根据所述多个比值的变化确定所述目标对象是否为活体对象;
其中,所述分别计算各帧图像上各个关键点信息之间的距离包括:分别计算出各帧图像上瞳孔点到鼻尖点的距离,瞳孔点到嘴角点的距离,嘴角点到鼻尖点的距离;
各帧图像上瞳孔点到鼻尖点的距离为第一距离,瞳孔点到嘴角点的距离为第二距离,嘴角点到鼻尖点的距离为第三距离;
所述根据所述距离计算得到多个比值包括:
获取所述各帧图像上双眼的瞳孔距离;
对于同一帧图像,所述第一距离与所述瞳孔距离的比值为第一比值,所述第二距离与所述瞳孔距离的比值为第二比值,所述第三距离与所述瞳孔距离的比值为第三比值;
通过检测框提示用户所述目标对象的影像出现在所述检测框内;
响应于采集所述目标对象的图像,所述检测框大小发生改变。
2.根据权利要求1所述的活体识别检测方法,其特征在于,所述根据所述多个比值的变化确定所述目标对象是否为活体,包括:
将所述多个比值输入分类器模型,得到分类结果,根据所述分类结果确定所述目标对象是否为活体对象。
3.根据权利要求2所述的活体识别检测方法,其特征在于,将所述多个比值输入分类器模型之前,还包括:
获取多个活体对象的多帧图像,根据所述活体对象的多帧图像计算所述多个比值,并将所述多个比值作为正样本集;
获取多个非活体对象的多帧图像,根据所述非活体对象的多帧图像计算所述多个比值,并将所述多个比值作为负样本集;
基于所述正样本集和所述负样本集,利用深度学习算法,获取所述分类器模型。
4.根据权利要求2所述的活体识别检测方法,其特征在于,所述根据所述分类结果确定所述目标对象是否为活体对象包括:
在所述分类结果为正类时,确定所述目标对象为活体对象;
在所述分类结果为负类时,确定所述目标对象为非活体对象。
5.根据权利要求1所述的活体识别检测方法,其特征在于,所述获取目标对象相对于采集摄像头处于不同位置的多帧图像包括:
获取所述目标对象距所述采集摄像头不同距离的预设数量帧图像。
6.根据权利要求5所述的活体识别检测方法,其特征在于,所述获取目标对象相对于采集摄像头处于不同位置的多帧图像包括:
获取所述目标对象相对于所述采集摄像头位置变化的动态影像;
将所述动态影像按预设时间段进行划分,截取所述预设数量帧图像。
7.根据权利要求1所述的活体识别检测方法,其特征在于,所述针对所述多帧图像,分析所述多个比值的变化包括:
针对所述多帧图像,分别分析所述第一比值、第二比值、第三比值的变化。
8.根据权利要求1-7任一项所述的活体识别检测方法,其特征在于,所述提取所述多帧图像中各帧图像上的多个关键点信息包括:
利用人脸关键点定位算法提取各帧图像上的多个关键点信息。
9.一种活体识别检测装置,其特征在于,包括:
图像采集单元,用于获取目标对象相对于采集摄像头处于不同位置的多帧图像;
关键点获取单元,用于提取所述多帧图像中各帧图像上的多个关键点信息;
计算单元,用于分别计算各帧图像上各个关键点信息之间的距离,并根据所述距离计算得到多个比值;
结果确定单元,用于针对所述多帧图像,分析所述多个比值的变化,并根据分析结果确定所述目标对象是否为活体对象;
所述计算单元,还用于分别计算出各帧图像上瞳孔点到鼻尖点的距离,瞳孔点到嘴角点的距离,嘴角点到鼻尖点的距离;并获取所述各帧图像上双眼的瞳孔距离;对于同一帧图像,根据第一距离与所述瞳孔距离的比值计算第一比值,根据第二距离与所述瞳孔距离的比值计算第二比值,根据第三距离与所述瞳孔距离的比值计算第三比值;其中,所述第一距离为各帧图像上瞳孔点到鼻尖点的距离,所述第二距离为瞳孔点到嘴角点的距离,所述第三距离为嘴角点到鼻尖点的距离;
所述图像采集单元,还用于通过检测框提示用户所述目标对象的影像出现在所述检测框内;响应于采集所述目标对象的图像,所述检测框大小发生改变。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至8中任一项所述的活体识别检测方法。
11.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至8中任一项所述的活体识别检测方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810734833.9A CN110688878B (zh) | 2018-07-06 | 2018-07-06 | 活体识别检测方法、装置、介质及电子设备 |
PCT/CN2019/091723 WO2020007191A1 (zh) | 2018-07-06 | 2019-06-18 | 活体识别检测方法、装置、介质及电子设备 |
US17/258,423 US20210295016A1 (en) | 2018-07-06 | 2019-06-18 | Living body recognition detection method, medium and electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810734833.9A CN110688878B (zh) | 2018-07-06 | 2018-07-06 | 活体识别检测方法、装置、介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110688878A CN110688878A (zh) | 2020-01-14 |
CN110688878B true CN110688878B (zh) | 2021-05-04 |
Family
ID=69060574
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810734833.9A Active CN110688878B (zh) | 2018-07-06 | 2018-07-06 | 活体识别检测方法、装置、介质及电子设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210295016A1 (zh) |
CN (1) | CN110688878B (zh) |
WO (1) | WO2020007191A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112232121A (zh) * | 2020-09-10 | 2021-01-15 | 北京迈格威科技有限公司 | 活体检测方法、装置、设备及介质 |
CN113965692B (zh) * | 2020-11-30 | 2024-07-09 | 深圳卡多希科技有限公司 | 一种光源点控制摄像头装置转动的方法和装置 |
CN114694196B (zh) * | 2020-12-11 | 2024-11-01 | 香港城市大学深圳研究院 | 活体分类器建立方法、人脸活体检测方法及装置 |
CN112926464B (zh) * | 2021-03-01 | 2023-08-29 | 创新奇智(重庆)科技有限公司 | 一种人脸活体检测方法以及装置 |
CN112966666A (zh) * | 2021-04-01 | 2021-06-15 | 支付宝(杭州)信息技术有限公司 | 活体识别方法、装置、电子设备和服务器 |
CN113989321A (zh) * | 2021-09-10 | 2022-01-28 | 浙江大华技术股份有限公司 | 入侵检测方法、装置及系统、计算机存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107368769A (zh) * | 2016-05-11 | 2017-11-21 | 北京市商汤科技开发有限公司 | 人脸活体检测方法、装置及电子设备 |
CN107368777A (zh) * | 2017-06-02 | 2017-11-21 | 广州视源电子科技股份有限公司 | 一种微笑动作检测方法和装置及活体识别方法和系统 |
WO2018009568A1 (en) * | 2016-07-05 | 2018-01-11 | Wu Yecheng | Spoofing attack detection during live image capture |
CN108140123A (zh) * | 2017-12-29 | 2018-06-08 | 深圳前海达闼云端智能科技有限公司 | 人脸活体检测方法、电子设备和计算机程序产品 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106875191A (zh) * | 2017-02-27 | 2017-06-20 | 努比亚技术有限公司 | 一种扫描支付处理方法、装置及终端 |
CN107316029B (zh) * | 2017-07-03 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 一种活体验证方法及设备 |
CN107437067A (zh) * | 2017-07-11 | 2017-12-05 | 广东欧珀移动通信有限公司 | 人脸活体检测方法及相关产品 |
-
2018
- 2018-07-06 CN CN201810734833.9A patent/CN110688878B/zh active Active
-
2019
- 2019-06-18 US US17/258,423 patent/US20210295016A1/en not_active Abandoned
- 2019-06-18 WO PCT/CN2019/091723 patent/WO2020007191A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107368769A (zh) * | 2016-05-11 | 2017-11-21 | 北京市商汤科技开发有限公司 | 人脸活体检测方法、装置及电子设备 |
WO2018009568A1 (en) * | 2016-07-05 | 2018-01-11 | Wu Yecheng | Spoofing attack detection during live image capture |
CN107368777A (zh) * | 2017-06-02 | 2017-11-21 | 广州视源电子科技股份有限公司 | 一种微笑动作检测方法和装置及活体识别方法和系统 |
CN108140123A (zh) * | 2017-12-29 | 2018-06-08 | 深圳前海达闼云端智能科技有限公司 | 人脸活体检测方法、电子设备和计算机程序产品 |
Non-Patent Citations (1)
Title |
---|
OpenCV/Python/dlib眨眼检测;虎说八道;《阿里云开发者社区https://developer.aliyun.com/article/336184》;20180107;第1-7页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110688878A (zh) | 2020-01-14 |
WO2020007191A1 (zh) | 2020-01-09 |
US20210295016A1 (en) | 2021-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110688878B (zh) | 活体识别检测方法、装置、介质及电子设备 | |
US10699103B2 (en) | Living body detecting method and apparatus, device and storage medium | |
CN107545241B (zh) | 神经网络模型训练及活体检测方法、装置及存储介质 | |
CN111242097B (zh) | 一种人脸识别方法、装置、计算机可读介质及电子设备 | |
CN108197586B (zh) | 脸部识别方法和装置 | |
US12087097B2 (en) | Image recognition method and apparatus, computer-readable storage medium, and electronic device | |
CN106897658B (zh) | 人脸活体的鉴别方法和装置 | |
WO2018086543A1 (zh) | 活体判别方法、身份认证方法、终端、服务器和存储介质 | |
WO2020018359A1 (en) | Three-dimensional living-body face detection method, face authentication recognition method, and apparatuses | |
CN107609463B (zh) | 活体检测方法、装置、设备及存储介质 | |
CN111310705A (zh) | 图像识别方法、装置、计算机设备及存储介质 | |
WO2020244071A1 (zh) | 基于神经网络的手势识别方法、装置、存储介质及设备 | |
CN111626163B (zh) | 一种人脸活体检测方法、装置及计算机设备 | |
CN108229375B (zh) | 用于检测人脸图像的方法和装置 | |
CN106056083B (zh) | 一种信息处理方法及终端 | |
CN109766755A (zh) | 人脸识别方法及相关产品 | |
CN110660102A (zh) | 基于人工智能的说话人识别方法及装置、系统 | |
CN108875509A (zh) | 活体检测方法、装置和系统及存储介质 | |
CN115223022B (zh) | 一种图像处理方法、装置、存储介质及设备 | |
CN108399401B (zh) | 用于检测人脸图像的方法和装置 | |
CN112651311A (zh) | 一种人脸识别方法和相关设备 | |
CN109543635A (zh) | 活体检测方法、装置、系统、解锁方法、终端及存储介质 | |
CN114861241A (zh) | 基于智能检测的防窥屏方法及其相关设备 | |
CN108985240B (zh) | 评估对象检测算法的方法、装置、电子设备和存储介质 | |
WO2024169261A9 (zh) | 图像处理方法、装置、电子设备、计算机可读存储介质以及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |