CN111914775B - 活体检测方法、装置、电子设备及存储介质 - Google Patents
活体检测方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111914775B CN111914775B CN202010787575.8A CN202010787575A CN111914775B CN 111914775 B CN111914775 B CN 111914775B CN 202010787575 A CN202010787575 A CN 202010787575A CN 111914775 B CN111914775 B CN 111914775B
- Authority
- CN
- China
- Prior art keywords
- image
- face
- living body
- images
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及数据处理,揭露一种活体检测方法,包括:从待处理视频中读取多帧待检测图像,从每帧待检测图像中定位出人脸图像;对每个人脸图像进行区域矫正得到对应的人脸区域图像;利用预设的光照解耦模型,对人脸区域图像进行解耦分离,得到人脸对应的阴影图像和高光图像;将所有待检测图像中人脸对应的阴影图像和高光图像按待检测图像在待处理视频中的帧顺序进行对齐并输入预设的活体分类模型;获取活体分类模型输出的图像类别信息,根据图像类别信息判断待检测图像是否为活体图像。本发明采用光照解耦技术剔除大量对活体分类无关的冗余特征,提升了活体检测技术的稳定性,对应用场景限制较少,泛用性强。
Description
技术领域
本发明涉及数据处理技术领域,尤其涉及一种活体检测方法、装置、电子设备及存储介质。
背景技术
活体检测主要用于判断检测的人脸是否是真实的人脸以防御伪造人脸的攻击,例如照片打印攻击、视频回放攻击、面具配戴攻击等;通常被广泛应用于身份快速验证等应用场景,例如金融远程审核、在线政务办理、门禁安防等多个领域。目前活体检测的方法主要分为活体检测、交互式活体检测和硬件辅助多模态(近红外、3D结构光、光场、深度相机等)的活体检测。
硬件辅助的活体检测方法是较为精准的检测方法,但针对长时网络视频通话场景,由于用户端硬件辅助配置各不相同,导致硬件辅助的活体检测方法不适合应用在该场景中。
交互式配合的活体检测技术需要时刻用户重复多次配合交互,在长时网络视频通话场景中采用该检测方法,用户体验非常差。
现有的活体检测技术主要有传统方法(lbp提取纹理特征等)、深度学习方法(CNN提取图像的纹理特征、融合图像深度图+CNN提取网络特征等),该类算法稳定性严重依赖获取的图像质量和训练数据的完备性。但实际网络视频通话中影响图像数据质量的因素有:用户端摄像头型号、视频通话场景,数据传输损失等。当网络通话在复杂的光照背景下,采用不同型号的采集设备,再加上数据传输损失,想要采集理想的训练数据集是非常困难。另外目前活体检测对图像预处理的方式均是对检出人脸对齐后的面部信息再进行提取特征,并没有考虑到下巴脖子等部位对活体检测的作用。上述因素会导致现有的活体检测方法泛化性、稳定性大大降低。
发明内容
鉴于以上内容,有必要提供一种活体检测方法,用于泛化而稳定地对人脸图像进行活体检测。
本发明提供的活体检测方法,包括:
从待处理视频中读取多帧待检测图像,从每帧待检测图像中定位出人脸图像;
对每个人脸图像进行区域矫正得到对应的人脸区域图像;
利用预设的光照解耦模型,对所述人脸区域图像进行解耦分离,得到人脸对应的阴影图像和高光图像;
将所有待检测图像中人脸对应的阴影图像和高光图像按待检测图像在所述待处理视频中的帧顺序进行对齐并输入预设的活体分类模型;
获取所述活体分类模型输出的图像类别信息,根据所述图像类别信息判断所述待检测图像是否为活体图像。
可选地,所述对每个人脸图像进行区域矫正得到对应的人脸区域图像,包括:
对所述人脸图像进行角度矫正;
从所述人脸图像中的人脸所在位置向周围外扩预设比例截取得到所述人脸区域图像。
可选地,所述从所述人脸图像中的人脸所在位置向周围外扩预设比例截取得到所述人脸区域图像的步骤之后,包括:
根据所述人脸区域图像的人脸关键点对人脸区域图像进行仿射变换,并将变换后的人脸区域图像缩放到预设尺寸。
可选地,所述光照解耦模型的训练包括:
对3D合成人脸模型从预设的多个角度打光得到打光图像;
根据光的散射和反射原理分别得到所述3D合成人脸模型从预设的多个角度打光的阴影图像和高光图像;
将所述打光图像作为输入数据,将所述阴影图像和高光图像作为输出数据;
根据所述输入数据和输出数据,对深度图估计模型进行训练得到所述光照解耦模型。
可选地,所述活体分类模型的训练包括:
将人脸图像通过光照解耦模型得到的阴影图像和高光图像作为输入数据,将所述输入数据对应的人脸图像的类别信息作为输出数据;
根据所述输入数据和输出数据,对通用的卷积神经网络分类模型进行训练得到所述活体分类模型。
可选地,所述根据所述图像类别信息判断所述待检测图像是否为活体图像,包括:
根据所有待检测图像对应的图像类别信息计算得到预测值;
若所述预测值大于或等于预设阈值,则判断所述待检测图像为活体图像,若所述预测值小于预设阈值,则判断所述待检测图像为攻击图像。
此外,为实现上述目的,本发明还提供一种电子设备,该电子设备包括:存储器、处理器,所述存储器上存储有可在所述处理器上运行的活体检测程序,所述活体检测程序被所述处理器执行时实现如权利要求1-6任一项所述的活体检测方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有活体检测程序,所述活体检测程序可被一个或者多个处理器执行,以实现如权利要求1-6任一项所述的活体检测方法的步骤。
此外,为实现上述目的,本发明还提供一种活体检测装置,该装置包括:
人脸定位模块,用于从待处理视频中读取多帧待检测图像,从每帧待检测图像中定位出人脸图像;
区域矫正模块,用于对每个人脸图像进行区域矫正得到对应的人脸区域图像;
光照解耦模块,用于利用预设的光照解耦模型,对所述人脸区域图像进行解耦分离,得到人脸对应的阴影图像和高光图像;
活体分类模块,用于将所有待检测图像中人脸对应的阴影图像和高光图像按待检测图像在所述待处理视频中的帧顺序进行对齐并输入预设的活体分类模型;
判断模块,用于获取所述活体分类模型输出的图像类别信息,根据所述图像类别信息判断所述待检测图像是否为活体图像。
可选地,所述区域矫正模块包括:
角度矫正模块,用于对所述人脸图像进行角度矫正;
截取模块,用于从所述人脸图像中的人脸所在位置向周围外扩预设比例截取得到所述人脸区域图像。
相较现有技术,本发明通过预设的光照解耦模型对待检测图像进行解耦分离,得到对应的阴影图像和高光图像,将所述阴影图像和高光图像输入预设的活体分类模型,根据输出的图像类别信息判断所述待检测图像是否为活体图像。该方法采用光照解耦技术剔除大量对活体分类无关的冗余特征,提升了活体检测技术的稳定性,对应用场景限制较少,泛用性强。
附图说明
图1为本发明一实施例提供的实现活体检测方法的电子设备的内部结构示意图;
图2为本发明一实施例提供的活体检测装置的功能模块示意图;
图3为本发明一实施例提供的活体检测方法的流程示意图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在本发明中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
如图1所示,为本发明一实施例提供的实现活体检测方法的电子设备1的内部结构示意图。电子设备1是一种能够按照事先设定或者存储的指令,自动进行数值计算和/或信息处理的设备。所述电子设备1可以是计算机、也可以是单个网络服务器、多个网络服务器组成的服务器组或者基于云计算的由大量主机或者网络服务器构成的云,其中云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个超级虚拟计算机。
在本实施例中,电子设备1包括,但不仅限于,可通过系统总线相互通信连接的存储器11、处理器12、网络接口13,该存储器11中存储有活体检测程序10,所述活体检测程序10可被所述处理器12执行。图1仅示出了具有组件11-13以及活体检测程序10的电子设备1,本领域技术人员可以理解的是,图1示出的结构并不构成对电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
其中,存储器11包括内存及至少一种类型的可读存储介质。内存为电子设备1的运行提供缓存;可读存储介质可为如闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等的非易失性存储介质。在一些实施例中,可读存储介质可以是电子设备1的内部存储单元,例如该电子设备1的硬盘;在另一些实施例中,该非易失性存储介质也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式硬盘,智能存储卡(SmartMediaCard,SMC),安全数字(SecureDigital,SD)卡,闪存卡(FlashCard)等。本实施例中,存储器11的可读存储介质主要包括存储程序区和存储数据区,其中,存储程序区通常用于存储安装于电子设备1的操作系统和各类应用软件,例如存储本发明一实施例中的活体检测程序10的代码等;存储数据区可存储根据区块链节点的使用所创建的数据等,例如已经输出或者将要输出的各类数据。
处理器12在一些实施例中可以是中央处理器(CentralProcessingUnit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器12通常用于控制所述电子设备1的总体操作,例如执行与其他设备进行数据交互或者通信相关的控制和处理等。本实施例中,所述处理器12用于运行所述存储器11中存储的程序代码或者处理数据,例如运行活体检测程序10等。
网络接口13可包括无线网络接口或有线网络接口,该网络接口13用于在所述电子设备1与客户端(图中未画出)之间建立通信连接。
可选的,所述电子设备1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选的,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及有机发光二极管(OrganicLight-EmittingDiode,OLED)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
在本发明的一实施例中,所述活体检测程序10被所述处理器12执行时实现如下步骤。
从待处理视频中读取多帧待检测图像,从每帧待检测图像中定位出人脸图像。
具体地,本发明通过预设的人脸检测方法(例如retinaface、mtcnn)从每帧待检测图像中定位出人脸图像。举例如下:
采用mtcnn定位人脸图像,首先对图片进行缩放操作,将待检测图像缩放成不同的尺度,然后将不同尺度的图像依次输入到三个子网络(P-Net、R-Net、O-Net)中进行训练,得到人脸图像及对应的面部关键点位置。其中,P-Net(Proposal Network)通过3层的卷积判断输入的待检测图像中是否存在人脸,并且给出人脸区域的候选框和人脸关键点;R-Net(Refine Network)比P-Net多了一层全连接层,通过边界框回归和NMS对P-Net输出的所有候选框进行去误差筛选;O-Net(Output Network)比R-Net多了一层卷积层,对R-Net输出的所有候选框进行精细处理,得到人脸区域候选框的坐标信息和五个面部关键点的位置;最后根据人脸区域候选框的坐标信息定位人脸图像。
对每个人脸图像进行区域矫正得到对应的人脸区域图像。
具体地,先对所述人脸图像进行角度矫正,然后从所述人脸图像中的人脸所在位置向周围外扩预设比例截取得到所述人脸区域图像。其中,对所述人脸图像进行角度矫正,即定位所述人脸图像中人脸的五个面部关键点并基于cascade的级联的随机森林对所述面部关键点做全局线性回归得到精确的特征点。所述预设比例根据外扩范围至少包括人脸下巴及脖子这一基础条件设置,例如所述人脸所占区域的1/10。
在一实施方式中,在从所述人脸图像中的人脸所在位置向周围外扩预设比例截取得到人脸区域图像之后,根据所述人脸区域图像的人脸关键点通过仿射矩阵对人脸区域图像进行仿射变换,并采用双线性插值法将变换后的区域图像缩放到预设尺寸。其中,所述区域图像的人脸关键点可以是人脸的5个特征点。仿射变换可以通过一系列的原子变换的复合来实现,包括:平移(Translation)、缩放(Scale)、翻转(Flip)、旋转(Rotation)和剪切(Shear)。
利用预设的光照解耦模型,对所述人脸区域图像进行解耦分离,得到人脸对应的阴影图像和高光图像。
具体地,所述光照解耦模型的训练包括:
对3D合成人脸模型从预设的多个角度打光得到打光图像;根据光的散射和反射原理分别得到所述3D合成人脸模型从预设的多个角度打光的阴影图像和高光图像;将所述打光图像作为输入数据,将所述阴影图像和高光图像作为输出数据;根据所述输入数据和输出数据,对深度图估计模型进行训练得到所述光照解耦模型。
将所有待检测图像中人脸对应的阴影图像和高光图像按待检测图像在所述待处理视频中的帧顺序进行对齐并输入预设的活体分类模型。
具体地,所述活体分类模型的训练包括:
将人脸图像通过光照解耦模型得到的阴影图像和高光图像作为输入数据,将所述输入数据对应的人脸图像的类别信息作为输出数据;根据所述输入数据和输出数据,对通用的卷积神经网络分类模型进行训练得到所述活体分类模型。
获取所述活体分类模型输出的图像类别信息,根据所述图像类别信息判断所述待检测图像是否为活体图像。
具体地,所述图像类别信息为攻击图像或活体图像。在一实施例中,根据所有待检测图像对应的图像类别信息计算得到预测值(预测值=待检测图像中活体图像数量/待检测图像中总图像数量),若所述预测值大于或等于预设阈值,则判断所述待检测图像为活体图像,若所述预测值小于预设阈值,则判断所述待检测图像为攻击图像。
由上述实施例可知,本发明提出的电子设备1,通过预设的光照解耦模型对待检测图像进行解耦分离,得到对应的阴影图像和高光图像,将所述阴影图像和高光图像输入预设的活体分类模型,根据输出的图像类别信息判断所述待检测图像是否为活体图像。该方法采用光照解耦技术剔除大量对活体分类无关的冗余特征,提升了活体检测技术的稳定性,对应用场景限制较少,泛用性强。
在其他实施方式中,活体检测程序10还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器11中,并由一个或多个处理器(本实施例为处理器12)所执行以完成本发明,本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段,用于描述活体检测程序10在电子设备1中的执行过程。
如图2所示,为本发明一实施例提供的活体检测装置100的功能模块示意图。
在本发明的一实施例中,活体检测装置100,包括人脸定位模块110、区域矫正模块120、光照解耦模块130、活体分类模块140及判断模块150,示例性地:
所述人脸定位模块,用于从待处理视频中读取多帧待检测图像,从每帧待检测图像中定位出人脸图像;
具体地,本发明通过预设的人脸检测方法(例如retinaface、mtcnn)从每帧待检测图像中定位出人脸图像。举例如下:
采用mtcnn定位人脸图像,首先对图片进行缩放操作,将待检测图像缩放成不同的尺度,然后将不同尺度的图像依次输入到三个子网络(P-Net、R-Net、O-Net)中进行训练,得到人脸图像及对应的面部关键点位置。其中,P-Net(Proposal Network)通过3层的卷积判断输入的待检测图像中是否存在人脸,并且给出人脸区域的候选框和人脸关键点;R-Net(Refine Network)比P-Net多了一层全连接层,通过边界框回归和NMS对P-Net输出的所有候选框进行去误差筛选;O-Net(Output Network)比R-Net多了一层卷积层,对R-Net输出的所有候选框进行精细处理,得到所述人脸区域候选框的坐标信息和五个面部关键点的位置;最后根据所述人脸区域候选框的坐标信息定位人脸图像。
所述区域矫正模块,用于对每个人脸图像进行区域矫正得到对应的人脸区域图像;
具体地,所述区域矫正模块包括:
角度矫正模块,用于对所述人脸图像进行角度矫正。其中,对所述人脸图像进行角度矫正,即定位所述人脸图像中人脸的五个面部关键点并基于cascade的级联的随机森林对所述面部关键点做全局线性回归得到精确的特征点。
截取模块,用于从所述人脸图像中的人脸所在位置向周围外扩预设比例截取得到所述人脸区域图像。所述预设比例根据外扩范围至少包括人脸下巴及脖子这一基础条件设置,例如所述人脸所占区域的1/10。
在一实施方式中,在从所述人脸图像中的人脸所在位置向周围外扩预设比例截取得到人脸区域图像之后,根据所述人脸区域图像的人脸关键点通过仿射矩阵对人脸区域图像进行仿射变换,并采用双线性插值法将变换后的区域图像缩放到预设尺寸。其中,所述区域图像的人脸关键点可以是人脸的5个特征点。仿射变换可以通过一系列的原子变换的复合来实现,包括:平移(Translation)、缩放(Scale)、翻转(Flip)、旋转(Rotation)和剪切(Shear)。
所述光照解耦模块,用于利用预设的光照解耦模型,对所述人脸区域图像进行解耦分离,得到人脸对应的阴影图像和高光图像;
具体地,所述光照解耦模型的训练包括:
对3D合成人脸模型从预设的多个角度打光得到打光图像;根据光的散射和反射原理分别得到所述3D合成人脸模型从预设的多个角度打光的阴影图像和高光图像;将所述打光图像作为输入数据,将所述阴影图像和高光图像作为输出数据;根据所述输入数据和输出数据,对深度图估计模型进行训练得到所述光照解耦模型。
所述活体分类模块,用于将所有待检测图像中人脸对应的阴影图像和高光图像按待检测图像在所述待处理视频中的帧顺序进行对齐并输入预设的活体分类模型;
具体地,所述活体分类模型的训练包括:
将人脸图像通过光照解耦模型得到的阴影图像和高光图像作为输入数据,将所述输入数据对应的人脸图像的类别信息作为输出数据;根据所述输入数据和输出数据,对通用的卷积神经网络分类模型进行训练得到所述活体分类模型。
所述判断模块,用于获取所述活体分类模型输出的图像类别信息,根据所述图像类别信息判断所述待检测图像是否为活体图像。
具体地,所述图像类别信息为攻击图像或活体图像。在一实施例中,根据所有待检测图像对应的图像类别信息计算得到预测值(预测值=待检测图像中活体图像数量/待检测图像中总图像数量),若所述预测值大于或等于预设阈值,则判断所述待检测图像为活体图像,若所述预测值小于预设阈值,则判断所述待检测图像为攻击图像。
由上述实施例可知,本发明提出的活体检测装置100,在上述人脸定位模块110、区域矫正模块120、光照解耦模块130、活体分类模块140及判断模块150等模块被执行时,通过预设的光照解耦模型对待检测图像进行解耦分离,得到对应的阴影图像和高光图像,将所述阴影图像和高光图像输入预设的活体分类模型,根据输出的图像类别信息判断所述待检测图像是否为活体图像。该方法采用光照解耦技术剔除大量对活体分类无关的冗余特征,提升了活体检测技术的稳定性,对应用场景限制较少,泛用性强。
如图3所示,为本发明一实施例提供的活体检测方法的流程示意图,该活体检测方法,包括步骤S1-S5。
S1、从待处理视频中读取多帧待检测图像,从每帧待检测图像中定位出人脸图像。
具体地,本发明通过预设的人脸检测方法(例如retinaface、mtcnn)从每帧待检测图像中定位出人脸图像。举例如下:
采用mtcnn定位人脸图像,首先对图片进行缩放操作,将待检测图像缩放成不同的尺度,然后将不同尺度的图像依次输入到三个子网络(P-Net、R-Net、O-Net)中进行训练,得到人脸图像及对应的面部关键点位置。其中,P-Net(Proposal Network)通过3层的卷积判断输入的待检测图像中是否存在人脸,并且给出人脸区域的候选框和人脸关键点;R-Net(Refine Network)比P-Net多了一层全连接层,通过边界框回归和NMS对P-Net输出的所有候选框进行去误差筛选;O-Net(Output Network)比R-Net多了一层卷积层,对R-Net输出的所有候选框进行精细处理,得到所述人脸区域候选框的坐标信息和五个面部关键点的位置;最后根据所述人脸区域候选框的坐标信息定位人脸图像。
S2、对每个人脸图像进行区域矫正得到对应的人脸区域图像。
具体地,先对所述人脸图像进行角度矫正,然后从所述人脸图像中的人脸所在位置向周围外扩预设比例截取得到所述人脸区域图像。其中,对所述人脸图像进行角度矫正,即定位所述人脸图像中人脸的五个面部关键点并基于cascade的级联的随机森林对所述面部关键点做全局线性回归得到精确的特征点。所述预设比例根据外扩范围至少包括人脸下巴及脖子这一基础条件设置,例如所述人脸所占区域的1/10。
在一实施方式中,在从所述人脸图像中的人脸所在位置向周围外扩预设比例截取得到人脸区域图像之后,根据所述人脸区域图像的人脸关键点通过仿射矩阵对人脸区域图像进行仿射变换,并采用双线性插值法将变换后的区域图像缩放到预设尺寸。其中,所述区域图像的人脸关键点可以是人脸的5个特征点。仿射变换可以通过一系列的原子变换的复合来实现,包括:平移(Translation)、缩放(Scale)、翻转(Flip)、旋转(Rotation)和剪切(Shear)。
S3、利用预设的光照解耦模型,对所述人脸区域图像进行解耦分离,得到人脸对应的阴影图像和高光图像。
具体地,所述光照解耦模型的训练包括:
对3D合成人脸模型从预设的多个角度打光得到打光图像;根据光的散射和反射原理分别得到所述3D合成人脸模型从预设的多个角度打光的阴影图像和高光图像;将所述打光图像作为输入数据,将所述阴影图像和高光图像作为输出数据;根据所述输入数据和输出数据,对深度图估计模型进行训练得到所述光照解耦模型。
S4、将所有待检测图像中人脸对应的阴影图像和高光图像按待检测图像在所述待处理视频中的帧顺序进行对齐并输入预设的活体分类模型。
具体地,所述活体分类模型的训练包括:
将人脸图像通过光照解耦模型得到的阴影图像和高光图像作为输入数据,将所述输入数据对应的人脸图像的类别信息作为输出数据;根据所述输入数据和输出数据,对通用的卷积神经网络分类模型进行训练得到所述活体分类模型。
S5、获取所述活体分类模型输出的图像类别信息,根据所述图像类别信息判断所述待检测图像是否为活体图像。
具体地,所述图像类别信息为攻击图像或活体图像。在一实施例中,根据所有待检测图像对应的图像类别信息计算得到预测值(预测值=待检测图像中活体图像数量/待检测图像中总图像数量),若所述预测值大于或等于预设阈值,则判断所述待检测图像为活体图像,若所述预测值小于预设阈值,则判断所述待检测图像为攻击图像。
由上述实施例可知,本发明提出的活体检测方法,通过预设的光照解耦模型对待检测图像进行解耦分离,得到对应的阴影图像和高光图像,将所述阴影图像和高光图像输入预设的活体分类模型,根据输出的图像类别信息判断所述待检测图像是否为活体图像。该方法采用光照解耦技术剔除大量对活体分类无关的冗余特征,提升了活体检测技术的稳定性,对应用场景限制较少,泛用性强。
此外,本发明实施例还提出一种计算机可读存储介质,计算机可读存储介质可以是硬盘、多媒体卡、SD卡、闪存卡、SMC、只读存储器(ROM)、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器等中的任意一种或者几种的任意组合。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。计算机可读存储介质中包括活体检测程序10,所述活体检测程序10被处理器执行时实现如下操作:
A1、从待处理视频中读取多帧待检测图像,从每帧待检测图像中定位出人脸图像;
具体地,本发明通过预设的人脸检测方法(例如retinaface、mtcnn)从每帧待检测图像中定位出人脸图像。举例如下:
采用mtcnn定位人脸图像,首先对图片进行缩放操作,将待检测图像缩放成不同的尺度,然后将不同尺度的图像依次输入到三个子网络(P-Net、R-Net、O-Net)中进行训练,得到人脸图像及对应的面部关键点位置。其中,P-Net(Proposal Network)通过3层的卷积判断输入的待检测图像中是否存在人脸,并且给出人脸区域的候选框和人脸关键点;R-Net(Refine Network)比P-Net多了一层全连接层,通过边界框回归和NMS对P-Net输出的所有候选框进行去误差筛选;O-Net(Output Network)比R-Net多了一层卷积层,对R-Net输出的所有候选框进行精细处理,得到所述人脸区域候选框的坐标信息和五个面部关键点的位置;最后根据所述人脸区域候选框的坐标信息定位人脸图像。
A2、对每个人脸图像进行区域矫正得到对应的人脸区域图像;
具体地,先对所述人脸图像进行角度矫正,然后从所述人脸图像中的人脸所在位置向周围外扩预设比例截取得到所述人脸区域图像。其中,对所述人脸图像进行角度矫正,即定位所述人脸图像中人脸的五个面部关键点并基于cascade的级联的随机森林对所述面部关键点做全局线性回归得到精确的特征点。所述预设比例根据外扩范围至少包括人脸下巴及脖子这一基础条件设置,例如所述人脸所占区域的1/10。
在一实施方式中,在从所述人脸图像中的人脸所在位置向周围外扩预设比例截取得到人脸区域图像之后,根据所述人脸区域图像的人脸关键点通过仿射矩阵对人脸区域图像进行仿射变换,并采用双线性插值法将变换后的区域图像缩放到预设尺寸。其中,所述区域图像的人脸关键点可以是人脸的5个特征点。仿射变换可以通过一系列的原子变换的复合来实现,包括:平移(Translation)、缩放(Scale)、翻转(Flip)、旋转(Rotation)和剪切(Shear)。
A3、利用预设的光照解耦模型,对所述人脸区域图像进行解耦分离,得到人脸对应的阴影图像和高光图像;
具体地,所述光照解耦模型的训练包括:
对3D合成人脸模型从预设的多个角度打光得到打光图像;根据光的散射和反射原理分别得到所述3D合成人脸模型从预设的多个角度打光的阴影图像和高光图像;将所述打光图像作为输入数据,将所述阴影图像和高光图像作为输出数据;根据所述输入数据和输出数据,对深度图估计模型进行训练得到所述光照解耦模型。
A4、将所有待检测图像中人脸对应的阴影图像和高光图像按待检测图像在所述待处理视频中的帧顺序进行对齐并输入预设的活体分类模型;
具体地,所述活体分类模型的训练包括:
将人脸图像通过光照解耦模型得到的阴影图像和高光图像作为输入数据,将所述输入数据对应的人脸图像的类别信息作为输出数据;根据所述输入数据和输出数据,对通用的卷积神经网络分类模型进行训练得到所述活体分类模型。
A5、获取所述活体分类模型输出的图像类别信息,根据所述图像类别信息判断所述待检测图像是否为活体图像。
具体地,所述图像类别信息为攻击图像或活体图像。在一实施例中,根据所有待检测图像对应的图像类别信息计算得到预测值(预测值=待检测图像中活体图像数量/待检测图像中总图像数量),若所述预测值大于或等于预设阈值,则判断所述待检测图像为活体图像,若所述预测值小于预设阈值,则判断所述待检测图像为攻击图像。
由上述实施例可知,本发明提出的计算机可读存储介质,在处理器执行所述活体检测程序10时,通过预设的光照解耦模型对待检测图像进行解耦分离,得到对应的阴影图像和高光图像,将所述阴影图像和高光图像输入预设的活体分类模型,根据输出的图像类别信息判断所述待检测图像是否为活体图像。该方法采用光照解耦技术剔除大量对活体分类无关的冗余特征,提升了活体检测技术的稳定性,对应用场景限制较少,泛用性强。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (9)
1.一种活体检测方法,其特征在于,包括:
从待处理视频中读取多帧待检测图像,从每帧待检测图像中定位出人脸图像;
对每个人脸图像进行区域矫正得到对应的人脸区域图像;
利用预设的光照解耦模型,对所述人脸区域图像进行解耦分离,得到人脸对应的阴影图像和高光图像;
将所有待检测图像中人脸对应的阴影图像和高光图像按待检测图像在所述待处理视频中的帧顺序进行对齐并输入预设的活体分类模型;
获取所述活体分类模型输出的图像类别信息,根据所述图像类别信息判断所述待检测图像是否为活体图像;
其中,所述光照解耦模型的训练包括:对3D合成人脸模型从预设的多个角度打光得到打光图像;根据光的散射和反射原理分别得到所述3D合成人脸模型从预设的多个角度打光的阴影图像和高光图像;将所述打光图像作为输入数据,将所述阴影图像和高光图像作为输出数据;根据所述输入数据和输出数据,对深度图估计模型进行训练得到所述光照解耦模型。
2.如权利要求1所述的活体检测方法,其特征在于,所述对每个人脸图像进行区域矫正得到对应的人脸区域图像,包括:
对所述人脸图像进行角度矫正;
从所述人脸图像中的人脸所在位置向周围外扩预设比例截取得到所述人脸区域图像。
3.如权利要求2所述的活体检测方法,其特征在于,所述从所述人脸图像中的人脸所在位置向周围外扩预设比例截取得到所述人脸区域图像的步骤之后,包括:
根据所述人脸区域图像的人脸关键点对人脸区域图像进行仿射变换,并将变换后的人脸区域图像缩放到预设尺寸。
4.如权利要求1所述的活体检测方法,其特征在于,所述活体分类模型的训练包括:
将人脸图像通过光照解耦模型得到的阴影图像和高光图像作为输入数据,将所述输入数据对应的人脸图像的类别信息作为输出数据;
根据所述输入数据和输出数据,对通用的卷积神经网络分类模型进行训练得到所述活体分类模型。
5.如权利要求1所述的活体检测方法,其特征在于,所述根据所述图像类别信息判断所述待检测图像是否为活体图像,包括:
根据所有待检测图像对应的图像类别信息计算得到预测值;
若所述预测值大于或等于预设阈值,则判断所述待检测图像为活体图像,若所述预测值小于预设阈值,则判断所述待检测图像为攻击图像。
6.一种电子设备,其特征在于,该电子设备包括:存储器、处理器,所述存储器上存储有可在所述处理器上运行的活体检测程序,所述活体检测程序被所述处理器执行时实现如权利要求1-5任一项所述的活体检测方法的步骤。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有活体检测程序,所述活体检测程序可被一个或者多个处理器执行,以实现如权利要求1-5任一项所述的活体检测方法的步骤。
8.一种活体检测装置,其特征在于,该装置包括:
人脸定位模块,用于从待处理视频中读取多帧待检测图像,从每帧待检测图像中定位出人脸图像;
区域矫正模块,用于对每个人脸图像进行区域矫正得到对应的人脸区域图像;
光照解耦模块,用于利用预设的光照解耦模型,对所述人脸区域图像进行解耦分离,得到人脸对应的阴影图像和高光图像;
活体分类模块,用于将所有待检测图像中人脸对应的阴影图像和高光图像按待检测图像在所述待处理视频中的帧顺序进行对齐并输入预设的活体分类模型;
判断模块,用于获取所述活体分类模型输出的图像类别信息,根据所述图像类别信息判断所述待检测图像是否为活体图像;
其中,所述光照解耦模型的训练包括:对3D合成人脸模型从预设的多个角度打光得到打光图像;根据光的散射和反射原理分别得到所述3D合成人脸模型从预设的多个角度打光的阴影图像和高光图像;将所述打光图像作为输入数据,将所述阴影图像和高光图像作为输出数据;根据所述输入数据和输出数据,对深度图估计模型进行训练得到所述光照解耦模型。
9.如权利要求8所述的活体检测装置,其特征在于,所述区域矫正模块包括:
角度矫正模块,用于对所述人脸图像进行角度矫正;
截取模块,用于从所述人脸图像中的人脸所在位置向周围外扩预设比例截取得到所述人脸区域图像。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010787575.8A CN111914775B (zh) | 2020-08-06 | 2020-08-06 | 活体检测方法、装置、电子设备及存储介质 |
PCT/CN2020/122110 WO2021151317A1 (zh) | 2020-08-06 | 2020-10-20 | 活体检测方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010787575.8A CN111914775B (zh) | 2020-08-06 | 2020-08-06 | 活体检测方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111914775A CN111914775A (zh) | 2020-11-10 |
CN111914775B true CN111914775B (zh) | 2023-07-28 |
Family
ID=73282964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010787575.8A Active CN111914775B (zh) | 2020-08-06 | 2020-08-06 | 活体检测方法、装置、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111914775B (zh) |
WO (1) | WO2021151317A1 (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112528908B (zh) * | 2020-12-18 | 2024-06-28 | 平安科技(深圳)有限公司 | 活体检测方法、装置、电子设备及存储介质 |
CN113191189A (zh) * | 2021-03-22 | 2021-07-30 | 深圳市百富智能新技术有限公司 | 人脸活体检测方法、终端设备及计算机可读存储介质 |
CN112883925B (zh) * | 2021-03-23 | 2023-08-29 | 杭州海康威视数字技术股份有限公司 | 一种人脸图像处理方法、装置及设备 |
CN113255766B (zh) * | 2021-05-25 | 2023-12-22 | 平安科技(深圳)有限公司 | 一种图像分类方法、装置、设备和存储介质 |
CN113743379B (zh) * | 2021-11-03 | 2022-07-12 | 杭州魔点科技有限公司 | 一种多模态特征的轻量活体识别方法、系统、装置和介质 |
CN114220147A (zh) * | 2021-12-06 | 2022-03-22 | 盛视科技股份有限公司 | 静默活体人脸识别方法、终端及可读介质 |
CN114445916A (zh) * | 2021-12-15 | 2022-05-06 | 厦门市美亚柏科信息股份有限公司 | 一种活体检测方法、终端设备及存储介质 |
CN117011950B (zh) * | 2023-08-29 | 2024-02-02 | 国政通科技有限公司 | 一种活体检测方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108022206A (zh) * | 2017-11-30 | 2018-05-11 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN108846807A (zh) * | 2018-05-23 | 2018-11-20 | Oppo广东移动通信有限公司 | 光效处理方法、装置、终端及计算机可读存储介质 |
CN110765923A (zh) * | 2019-10-18 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 一种人脸活体检测方法、装置、设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9025830B2 (en) * | 2012-01-20 | 2015-05-05 | Cyberlink Corp. | Liveness detection system based on face behavior |
US9672415B2 (en) * | 2014-11-13 | 2017-06-06 | Intel Corporation | Facial liveness detection in image biometrics |
CN109117762A (zh) * | 2018-07-27 | 2019-01-01 | 阿里巴巴集团控股有限公司 | 活体检测系统、方法及设备 |
CN109858381A (zh) * | 2019-01-04 | 2019-06-07 | 深圳壹账通智能科技有限公司 | 活体检测方法、装置、计算机设备和存储介质 |
CN110866454B (zh) * | 2019-10-23 | 2023-08-25 | 智慧眼科技股份有限公司 | 人脸活体检测方法及系统、计算机可读取的存储介质 |
CN111368811B (zh) * | 2020-05-26 | 2020-09-18 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置、设备及存储介质 |
-
2020
- 2020-08-06 CN CN202010787575.8A patent/CN111914775B/zh active Active
- 2020-10-20 WO PCT/CN2020/122110 patent/WO2021151317A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108022206A (zh) * | 2017-11-30 | 2018-05-11 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN108846807A (zh) * | 2018-05-23 | 2018-11-20 | Oppo广东移动通信有限公司 | 光效处理方法、装置、终端及计算机可读存储介质 |
CN110765923A (zh) * | 2019-10-18 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 一种人脸活体检测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111914775A (zh) | 2020-11-10 |
WO2021151317A1 (zh) | 2021-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111914775B (zh) | 活体检测方法、装置、电子设备及存储介质 | |
CN109961009B (zh) | 基于深度学习的行人检测方法、系统、装置及存储介质 | |
US12087097B2 (en) | Image recognition method and apparatus, computer-readable storage medium, and electronic device | |
WO2019205369A1 (zh) | 电子装置、基于人脸图像与声纹信息的身份识别方法及存储介质 | |
WO2018028546A1 (zh) | 一种关键点的定位方法及终端、计算机存储介质 | |
CN109815843B (zh) | 图像处理方法及相关产品 | |
CN111104841B (zh) | 暴力行为检测方法及系统 | |
CN111310705A (zh) | 图像识别方法、装置、计算机设备及存储介质 | |
CN108875731B (zh) | 目标识别方法、装置、系统及存储介质 | |
US20110129118A1 (en) | Systems and methods for tracking natural planar shapes for augmented reality applications | |
CN112560753B (zh) | 基于特征融合的人脸识别方法、装置、设备及存储介质 | |
CN112364827A (zh) | 人脸识别方法、装置、计算机设备和存储介质 | |
CN108021863B (zh) | 电子装置、基于图像的年龄分类方法及存储介质 | |
CN111680546A (zh) | 注意力检测方法、装置、电子设备及存储介质 | |
CN113111880B (zh) | 证件图像校正方法、装置、电子设备及存储介质 | |
CN112149570B (zh) | 多人活体检测方法、装置、电子设备及存储介质 | |
CN108875549B (zh) | 图像识别方法、装置、系统及计算机存储介质 | |
CN114387656B (zh) | 基于人工智能的换脸方法、装置、设备及存储介质 | |
CN111274602B (zh) | 一种图像特征信息替换方法、装置、设备及介质 | |
CN114282258A (zh) | 截屏数据脱敏方法、装置、计算机设备及存储介质 | |
CN113762031A (zh) | 一种图像识别方法、装置、设备及存储介质 | |
CN111783725A (zh) | 人脸识别方法、装置及存储介质 | |
CN116978130A (zh) | 图像处理方法、装置及计算机设备、存储介质、程序产品 | |
CN115861572A (zh) | 一种三维建模方法、装置、设备及存储介质 | |
CN114917590A (zh) | 一种虚拟现实的游戏系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |