CN106778453B - 人脸图像中检测眼镜佩戴的方法及装置 - Google Patents
人脸图像中检测眼镜佩戴的方法及装置 Download PDFInfo
- Publication number
- CN106778453B CN106778453B CN201510833176.XA CN201510833176A CN106778453B CN 106778453 B CN106778453 B CN 106778453B CN 201510833176 A CN201510833176 A CN 201510833176A CN 106778453 B CN106778453 B CN 106778453B
- Authority
- CN
- China
- Prior art keywords
- gradient
- nose bridge
- face
- face image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种人脸图像中检测眼镜佩戴的方法及装置,所述人脸图像中检测眼镜佩戴的方法,包括:获取输入的人脸图像;检测所述人脸图像中鼻梁区域的图像变化,以得到所述鼻梁区域的图像变化结果;及根据所述鼻梁区域的图像变化结果进行运算,得到所述人脸图像中眼镜的佩戴结果。所述人脸图像中检测眼镜佩戴的装置与上述方法相匹配。本发明的人脸图像中检测眼镜佩戴的方法及装置能够降低计算复杂度和人力成本。
Description
技术领域
本发明涉及计算机应用技术领域,尤其涉及一种人脸图像中检测眼镜佩戴的方法及装置。
背景技术
在当今信息化飞速发展的时代,特别是电子商务和社会安全领域,如何准确鉴定一个人的身份已经成为亟待解决的社会问题。人脸识别由于具有无法伪造、不易丢失以及时效性高等优点,越来越受到人们的重视。
目前,很多人都会佩戴眼镜,这将导致人脸识别的精准度大大降低,因此,在进行人脸识别之前,往往需要对佩戴的眼镜进行检测,以保证人脸识别具有较高的精准度。
现有的眼镜佩戴检测方法通常采用基于监督的机器学习算法,即通过采集大量的样本,以此训练出模型,进而通过比对输入的人脸图像与训练得到的模型,来判定人脸图像中是否存在佩戴的眼镜。
由于大量的样本采集需要耗费很多人力,模型训练也涉及复杂的计算过程和参数调制,因此,现有的眼镜佩戴检测方法尚存在计算复杂度和人力成本过高的缺陷。
发明内容
基于此,有必要提供一种能够降低计算复杂度和人力成本的人脸图像中检测眼镜佩戴的方法。
此外,还有必要提供一种能够降低计算复杂度和人力成本的人脸图像中检测眼镜佩戴的装置。
为了解决上述技术问题,本发明所采用的技术方案为:
一种人脸图像中检测眼镜佩戴的方法,包括:获取输入的人脸图像;检测所述人脸图像中鼻梁区域的图像变化,以得到所述鼻梁区域的图像变化结果;及根据所述鼻梁区域的图像变化结果进行运算,得到所述人脸图像中眼镜的佩戴结果。
一种人脸图像中检测眼镜佩戴的装置,包括:图像获取模块,用于获取输入的人脸图像;结果检测模块,用于检测所述人脸图像中鼻梁区域的图像变化,以得到所述鼻梁区域的图像变化结果;及结果计算模块,用于根据所述鼻梁区域的图像变化结果进行运算,得到所述人脸图像中眼镜的佩戴结果。
与现有技术相比,本发明具有以下有益效果:
通过对输入的人脸图像中的鼻梁区域的图像变化进行检测,得到鼻梁区域的图像变化结果,并根据该图像变化结果进行运算,得到人脸图像中眼镜的佩戴结果。也就是说,利用眼镜佩戴会导致人脸图像中的鼻梁区域产生图像变化的规律,对人脸图像中的鼻梁区域的图像变化进行检测并进一步地运算,进而判定出人脸图像中是否存在佩戴的眼镜,这不仅不需要采集大量的样本,降低了人力成本,而且不必进行模型训练,降低了计算复杂度,从而避免了现有的眼镜佩戴检测方法中存在的计算复杂度和人力成本过高的问题。
附图说明
图1为一个实施例中人脸图像中检测眼镜佩戴的方法的应用示意图;
图2为本发明中实施例所提供的一种服务器的硬件结构示意图;
图3为一实施例的人脸图像中检测眼镜佩戴的方法的流程图;
图4为图3中检测人脸图像中鼻梁区域的图像变化的方法流程图;
图5为图4中定位人脸图像中的人脸区域,由人脸区域中进一步定位得到鼻梁区域的方法流程图;
图6为图4中通过梯度算法对鼻梁区域进行计算的方法流程图;
图7为一实施例的人脸图像中检测眼镜佩戴的装置的结构框图;
图8为图7中结果检测模块的结构框图;
图9为图8中区域定位单元的结构框图;
图10为图8中计算单元的结构框图。
具体实施方式
体现本发明特征与优点的典型实施方式将在以下的说明中详细叙述。应理解的是本发明能够在不同的实施方式上具有各种的变化,其皆不脱离本发明的范围,且其中的说明及图示在本质上是当作说明之用,而非用以限制本发明。
如前所述,为了降低计算复杂度和人力成本,以通过简单快捷的眼镜佩戴检测方法来保证人脸识别的高精准度,特提出了一种人脸图像中检测眼镜佩戴的方法。
在一实施例中,一种人脸图像中检测眼镜佩戴的方法,该方法所运行的计算机系统如图1所示。该计算机系统包括终端110和与终端110交互的服务器130。
其中,终端110可以是智能手机、平板电脑、计算机等,终端110对输入的人脸图像进行获取,并发送至服务器130,以通过服务器130实现人脸图像中眼镜佩戴的检测,以利于后续进一步地完成人脸识别。
服务器130在接收到输入的人脸图像之后,对人脸图像中的鼻梁区域进行图像变化的检测并进一步地运算,得到人脸图像中眼镜的佩戴结果,以此判定人脸图像中是否存在佩戴的眼镜。
进一步地,基于终端110与服务器130的交互,终端110还能够根据服务器130返回的佩戴结果提示用户进行相关处理,例如,摘掉眼镜。
当然,根据不同的应用场景的需求,例如,在未有网络覆盖的应用场景中,终端110无法与服务器130完成交互,则服务器130中执行的相关步骤还可以由终端110独立完成,譬如,通过在终端110中预置离线的软件开发工具包,来实现人脸图像中眼镜佩戴的检测。
图2是本发明中实施例提供的一种服务器200的硬件结构示意图。该硬件结构只是一个适用本发明的示例,不能认为是对本发明的使用范围的任何限制,也不能解释为本发明需要依赖于该服务器200。
该服务器200可因配置或者性能的不同而产生较大的差异,其包括:电源210、接口230、至少一存储介质250、以及至少一中央处理器(CPU,Central Processing Units)270。
其中,电源210用于为服务器200上的各硬件设备提供工作电压。
接口230包括至少一有线或无线网络接口231、至少一串并转换接口233、至少一输入输出接口235以及至少一USB接口237等,用于与外部设备通信。
存储介质250作为资源存储的载体,可以是随机存储介质、磁盘或者光盘等,其上所存储的资源包括操作系统251、应用程序253及数据255等,存储方式可以是短暂存储或者永久存储。其中,操作系统251用于管理与控制服务器200上的各硬件设备以及应用程序253,以实现中央处理器270对海量数据255的计算与处理,其可以是Windows ServerTM、MacOS XTM、UnixTM、LinuxTM、FreeBSDTM等。应用程序253是基于操作系统251之上完成至少一项特定工作的计算机程序,其可以包括至少一模块(图示未示出),每个模块都可以分别包含有对服务器200的一系列操作指令。数据255可以是存储于磁盘中的照片、图片等等。
中央处理器270可以包括一个或多个以上的处理器,并设置为通过总线与存储介质250通信,用于运算与处理存储介质250中的海量数据255。
如上面所详细描述的,适用本发明的服务器200将进行人脸图像中眼镜佩戴的检测,即通过中央处理器270读取存储介质250中存储的一系列操作指令的形式来进行该检测,以判定人脸图像中是否存在佩戴的眼镜。
值得一提的是,在其他实施例中,若服务器200中执行的相关步骤均是通过终端独立完成,则图2中所示的硬件结构也同样适用于终端。
此外,通过硬件电路或者硬件电路结合软件指令也能同样实现本发明,因此,实现本发明并不限于任何特定的硬件电路、软件以及两者的组合。
具体地,请参阅图3,在一实施例中,一种人脸图像中检测眼镜佩戴的方法,包括以下步骤:
步骤310,获取输入的人脸图像。
人脸图像指的是仅以人脸作为唯一展示内容的图像。人脸图像的输入途径可以是对图片进行扫描并从中提取出人脸图像,也可以是从人脸图像库中预存的人脸图像中选取,还可以是直接对用户的脸进行拍照所得。
在获取到输入的人脸图像之后,即可通过对人脸图像中是否存在佩戴的眼镜进行检测,以利于后续的人脸识别。
步骤330,检测人脸图像中鼻梁区域的图像变化,以得到鼻梁区域的图像变化结果。
本实施例中,人脸图像中人脸所在的图像区域被定义为人脸区域,该人脸区域又按照五官作进一步地图像分割,形成多个图像区域,例如,人眼区域,眉毛区域、嘴巴区域、鼻梁区域等等。其中,鼻梁区域特指人脸图像中介于左眼右眼角与右眼左眼角之间的图像区域。
可以理解,佩戴眼镜时,眼镜在自然光或者红外光等光线的照射下会产生反射光,该反射光在人脸成像时会对鼻梁区域产生不同程度的影响,甚至于将整个鼻梁区域遮挡住,进而使得鼻梁区域产生图像变化。
基于此,通过对人脸图像中的鼻梁区域的图像变化进行检测,即得到鼻梁区域的图像变化结果,该鼻梁区域的图像变化结果能够反映出鼻梁区域的图像变化情况,例如,鼻梁区域的图像变化是否均匀,以利于后续根据该图像变化结果进一步地判定人脸图像中是否存在佩戴的眼镜。
步骤350,根据鼻梁区域的图像变化结果进行运算,得到人脸图像中眼镜的佩戴结果。
如前所述,鼻梁区域的图像变化结果反映的是鼻梁区域的图像变化情况,由于该图像变化情况仅表示图像变化的趋势,例如,鼻梁区域的图像变化是否均匀的趋势,因此,需要对该图像变化结果作进一步的运算,以得出人脸图像中眼镜的佩戴结果,并根据得出的佩戴结果判定人脸图像中是否存在佩戴的眼镜。
通过如上所述的过程,不必预先采集大量的样本进行模型训练,即能够通过对人脸图像中的鼻梁区域的图像变化进行检测以及进一步地计算,进而判定出人脸图像中是否存在佩戴的眼镜,降低了计算复杂度和人力成本,且简单快捷,有效地解决了现有的眼镜佩戴检测方法中存在的缺陷。
请参阅图4,在一实施例中,图像变化为梯度变化。
本实施例中,图像变化将运用图像分布的梯度变化来反映。
进一步地,步骤330包括以下步骤:
步骤331,定位人脸图像中的人脸区域,由人脸区域中进一步定位得到鼻梁区域。
如前所述,人脸图像中人脸所在的图像区域被定义为人脸区域,而鼻梁区域又是由人脸区域按照五官作进一步地图像分割形成的,由此,为了得到鼻梁区域,人脸图像中需要进行两次定位:人脸区域的定位和鼻梁区域的定位。
步骤333,通过梯度算法对鼻梁区域进行运算,得到鼻梁区域的梯度变化结果。
在得到鼻梁区域之后,将利用图像分布的梯度变化来反映图像变化,即通过对人脸图像中的鼻梁区域运用梯度算法,以得到鼻梁区域的梯度变化结果,进而根据该梯度变化结果判定人脸图像中是否存在佩戴的眼镜。
请参阅图5,在一实施例中,步骤331包括以下步骤:
步骤3311,人脸图像中进行人脸位置检测,以得到人脸区域对应的位置信息。
人脸区域是人脸图像中人脸所在的图像区域,为了定位人脸区域得到人脸区域对应的位置信息,需要对人脸图像中的人脸位置进行检测,从而由定位得到的人脸区域中进一步地定位得到鼻梁区域。
较优地,人脸区域对应的位置信息是用于表征人脸位置的坐标。
步骤3313,根据位置信息在人脸区域中进行五官配准,以得到鼻梁区域。
如前所述,人脸区域按照五官进行图像分割后,形成了多个图像区域,不同的图像区域表征不同的五官,例如,人眼区域表征人眼,眉毛区域表征眉毛。
所谓的五官配准指的是按照五官配准算法在人脸区域中对五官,尤其是脸庞、眉毛、眼睛、鼻子、嘴巴等关键部位进行定位。
基于此,在得到人脸区域对应的位置信息之后,通过根据位置信息在人脸区域中进行五官配准,即得到人脸区域中各关键部位所在的图像区域,包括鼻梁区域。
具体地,按照位置信息在人脸区域中进行五官配准,将得到左眼右眼角坐标为L(x1,y1),右眼左眼角坐标为R(x2,y2),则介于L与R之间的图像区域即为鼻梁区域。
请参阅图6,在一实施例中,步骤333包括以下步骤:
步骤3331,计算鼻梁区域的垂直梯度,得到梯度向量。
具体地,鼻梁区域是介于坐标为L(x1,y1)的左眼右眼角和坐标为R(x2,y2)的右眼左眼角之间的图像区域,鼻梁区域的眼镜宽度为n,则计算鼻梁区域的垂直梯度,即得到长度为n的梯度向量w={w1,w2,…,wn}。
步骤3333,计算梯度向量的梯度均值和梯度模值的均值。
步骤3335,计算梯度均值与梯度模值的均值的比值,以得到鼻梁区域的梯度变化结果。
在一实施例中,步骤350包括:
比较图像变化结果与预设阈值,根据得出的比较结果判定得到人脸图像中眼镜的佩戴结果。
由于鼻梁区域的图像变化结果反映的是图像变化的趋势,也就是说,只有在某个特定的区间内鼻梁区域产生的图像变化才较为明显,而其余区间内则不是很明显。
因此,为了防止因为鼻梁区域产生的图像变化不是很明显而导致的误判,在检测人脸图像中鼻梁区域的图像变化的过程中,将进行阈值的预设,以通过比较图像变化结果与预设阈值得出的比较结果,来进一步地判定人脸图像中是否存在佩戴的眼镜,从而提高判定得到的眼镜的佩戴结果的准确率。
将u/s与0.8进行比较,若比较结果为u/s小于0.8,则表示人脸图像中鼻梁区域的图像变化不均匀,进而判定人脸图像中存在佩戴的眼镜。否则,表示人脸图像中鼻梁区域的图像变化均匀,进而判定人脸图像中不存在佩戴的眼镜。
请参阅图7,在一实施例中,一种人脸图像中检测眼镜佩戴的装置,包括:图像获取模块410、结果检测模块430及结果获取模块450。
其中,图像获取模块410用于获取输入的人脸图像。
结果检测模块430用于检测人脸图像中鼻梁区域的图像变化,以得到鼻梁区域的图像变化结果。
结果获取模块450用于根据鼻梁区域的图像变化结果进行运算,得到人脸图像中眼镜的佩戴结果。
请参阅图8,在一实施例中,图像变化为梯度变化,结果检测模块430包括:区域定位单元431及运算单元433。
其中,区域定位单元431用于定位人脸图像中的人脸区域,由人脸区域中进一步定位得到鼻梁区域。
运算单元433通过梯度算法对鼻梁区域进行运算,得到鼻梁区域的梯度变化结果。
请参阅图9,在一实施例中,区域定位单元431包括:位置检测单元4311及配准单元4313。
其中,位置检测单元4311用于人脸图像中进行人脸位置检测,以得到人脸区域对应的位置信息。
配准单元4313用于根据位置信息在人脸区域中进行五官配准,以得到鼻梁区域。
请参阅图10,在一实施例中,运算单元433包括:梯度计算单元4331、均值计算单元4333及比值计算单元4335。
其中,梯度计算单元4331用于计算鼻梁区域的垂直梯度,得到梯度向量。
均值计算单元4333用于计算梯度向量的梯度均值和梯度模值的均值。
比值计算单元4335用于计算梯度均值与梯度模值的均值的比值,以得到鼻梁区域的梯度变化结果。
在一实施例中,结果计算模块450包括比较单元,用于比较图像变化结果与预设阈值,根据得出的比较结果判定得到人脸图像中眼镜的佩戴结果。
上述内容,仅为本发明的较佳实施例,并非用于限制本发明的实施方案,本领域普通技术人员根据本发明的主要构思和精神,可以十分方便地进行相应的变通或修改,故本发明的保护范围应以权利要求书所要求的保护范围为准。
Claims (6)
1.一种人脸图像中检测眼镜佩戴的方法,其特征在于,包括:
获取输入的人脸图像;
定位所述人脸图像中的人脸区域,由所述人脸区域中进一步定位得到鼻梁区域,所述鼻梁区域为所述人脸图像中介于左眼右眼角与右眼左眼角之间的图像区域;
计算所述鼻梁区域的垂直梯度,得到梯度向量,其中,所述梯度向量为wi={w1,w2,…,wn},n为所述鼻梁区域的眼睛宽度;
计算所述梯度均值与梯度模值的均值的比值,得到所述鼻梁区域的梯度变化结果;
比较所述鼻梁区域的梯度变化结果与预设阈值,如果所述鼻梁区域的梯度变化结果小于所述预设阈值,表示所述鼻梁区域在所述人脸图像分布中的梯度变化因眼镜而不均匀,则判定所述人脸图像中眼镜的佩戴结果为佩戴眼镜。
2.如权利要求1所述的方法,其特征在于,所述定位所述人脸图像中的人脸区域,由所述人脸区域中进一步定位得到鼻梁区域的步骤包括:
所述人脸图像中进行人脸位置检测,以得到所述人脸区域对应的位置信息;及
根据所述位置信息在所述人脸区域中进行五官配准,以得到所述鼻梁区域。
3.一种人脸图像中检测眼镜佩戴的装置,其特征在于,包括:
图像获取模块,用于获取输入的人脸图像;
结果检测模块,用于检测所述人脸图像中鼻梁区域的图像变化,以得到所述鼻梁区域的图像变化结果;及
结果获取模块,用于根据所述鼻梁区域的图像变化结果进行运算,得到所述人脸图像中眼镜的佩戴结果;
其中,所述结果检测模块包括:
区域定位单元,用于定位所述人脸图像中的人脸区域,由所述人脸区域中进一步定位得到所述鼻梁区域,所述鼻梁区域为所述人脸图像中介于左眼右眼角与右眼左眼角之间的图像区域;
运算单元,用于计算所述鼻梁区域的垂直梯度,得到梯度向量,其中,所述梯度向量为wi={w1,w2,…,wn},n为所述鼻梁区域的眼睛宽度;根据公式计算所述梯度向量的梯度均值和梯度模值的均值,其中,所述u为所述梯度均值,所述s为所述梯度模值的均值;及计算所述梯度均值与梯度模值的均值的比值,得到所述鼻梁区域的梯度变化结果;
所述结果获取模块包括:
比较单元,用于比较所述鼻梁区域的梯度变化结果与预设阈值,如果所述鼻梁区域的梯度变化结果小于所述预设阈值,表示所述鼻梁区域在所述人脸图像分布中的梯度变化因眼镜而不均匀,则判定所述人脸图像中眼镜的佩戴结果为佩戴眼镜。
4.如权利要求3所述的装置,其特征在于,所述区域定位单元包括:
位置检测单元,用于所述人脸图像中进行人脸位置检测,以得到所述人脸区域对应的位置信息;及
配准单元,用于根据所述位置信息在所述人脸区域中进行五官配准,以得到所述鼻梁区域。
5.一种服务器,其特征在于,所述服务器包括:处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行,以实现如权利要求1至2任一所述的人脸图像中检测眼镜佩戴的方法。
6.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行,以实现如权利要求1至2任一所述的人脸图像中检测眼镜佩戴的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510833176.XA CN106778453B (zh) | 2015-11-25 | 2015-11-25 | 人脸图像中检测眼镜佩戴的方法及装置 |
PCT/CN2016/107178 WO2017088804A1 (zh) | 2015-11-25 | 2016-11-25 | 人脸图像中检测眼镜佩戴的方法及装置 |
US15/696,016 US10395094B2 (en) | 2015-11-25 | 2017-09-05 | Method and apparatus for detecting glasses in a face image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510833176.XA CN106778453B (zh) | 2015-11-25 | 2015-11-25 | 人脸图像中检测眼镜佩戴的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106778453A CN106778453A (zh) | 2017-05-31 |
CN106778453B true CN106778453B (zh) | 2020-05-12 |
Family
ID=58763944
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510833176.XA Active CN106778453B (zh) | 2015-11-25 | 2015-11-25 | 人脸图像中检测眼镜佩戴的方法及装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10395094B2 (zh) |
CN (1) | CN106778453B (zh) |
WO (1) | WO2017088804A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11830209B2 (en) | 2017-05-26 | 2023-11-28 | Snap Inc. | Neural network-based image stream modification |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3465615A4 (en) * | 2016-06-01 | 2020-05-06 | The Ohio State Innovation Foundation | SYSTEM AND METHOD FOR RECOGNIZING AND ANNOTATING FACE EXPRESSIONS |
CN107808120B (zh) * | 2017-09-30 | 2018-08-31 | 平安科技(深圳)有限公司 | 眼镜定位方法、装置及存储介质 |
CN110313006B (zh) * | 2017-11-14 | 2021-12-14 | 华为技术有限公司 | 一种人脸图像检测方法及终端设备 |
CN107992815A (zh) * | 2017-11-28 | 2018-05-04 | 北京小米移动软件有限公司 | 眼镜检测方法及装置 |
CN110533775B (zh) * | 2019-09-18 | 2023-04-18 | 广州智美科技有限公司 | 一种基于3d人脸的眼镜匹配方法、装置及终端 |
CN112733570B (zh) * | 2019-10-14 | 2024-04-30 | 北京眼神智能科技有限公司 | 眼镜检测的方法、装置、电子设备及存储介质 |
US20230137381A1 (en) * | 2021-10-29 | 2023-05-04 | Centre For Intelligent Multidimensional Data Analysis Limited | System and method for detecting a facial apparatus |
US11928783B2 (en) | 2021-12-30 | 2024-03-12 | Snap Inc. | AR position and orientation along a plane |
US11887260B2 (en) | 2021-12-30 | 2024-01-30 | Snap Inc. | AR position indicator |
US11954762B2 (en) | 2022-01-19 | 2024-04-09 | Snap Inc. | Object replacement system |
US12020386B2 (en) | 2022-06-23 | 2024-06-25 | Snap Inc. | Applying pregenerated virtual experiences in new location |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102163288A (zh) * | 2011-04-06 | 2011-08-24 | 北京中星微电子有限公司 | 眼镜检测方法和装置 |
CN103425970A (zh) * | 2013-08-29 | 2013-12-04 | 大连理工大学 | 一种基于头部姿态的人机交互方法 |
CN103714321A (zh) * | 2013-12-26 | 2014-04-09 | 苏州清研微视电子科技有限公司 | 基于距离图像和强度图像的驾驶员人脸定位系统 |
CN103927520A (zh) * | 2014-04-14 | 2014-07-16 | 中国华戎控股有限公司 | 一种逆光环境下人脸检测方法 |
CN104463128A (zh) * | 2014-12-17 | 2015-03-25 | 智慧眼(湖南)科技发展有限公司 | 用于人脸识别的眼镜检测方法及系统 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7391900B2 (en) * | 2002-10-31 | 2008-06-24 | Korea Institute Of Science And Technology | Image processing method for removing glasses from color facial images |
CN1285052C (zh) * | 2004-11-04 | 2006-11-15 | 上海交通大学 | 基于区域特征元补偿的红外人脸眼镜干扰消除方法 |
DE102005033946B4 (de) * | 2005-07-20 | 2018-06-28 | Bosch Rexroth Aktiengesellschaft | Fördersystem |
US7653221B2 (en) * | 2006-01-31 | 2010-01-26 | Fujifilm Corporation | Method and apparatus for automatic eyeglasses detection and removal |
US7657086B2 (en) * | 2006-01-31 | 2010-02-02 | Fujifilm Corporation | Method and apparatus for automatic eyeglasses detection using a nose ridge mask |
JP5109564B2 (ja) * | 2007-10-02 | 2012-12-26 | ソニー株式会社 | 画像処理装置、撮像装置、これらにおける処理方法およびプログラム |
US10169646B2 (en) * | 2007-12-31 | 2019-01-01 | Applied Recognition Inc. | Face authentication to mitigate spoofing |
KR101169533B1 (ko) * | 2008-01-16 | 2012-07-30 | 아사히 가세이 가부시키가이샤 | 얼굴 자세 추정 장치, 얼굴 자세 추정 방법 및 얼굴 자세 추정 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체 |
US9767354B2 (en) * | 2009-02-10 | 2017-09-19 | Kofax, Inc. | Global geographic information retrieval, validation, and normalization |
JP2011090466A (ja) * | 2009-10-21 | 2011-05-06 | Sony Corp | 情報処理装置及び方法、並びにプログラム |
DE102014100364B4 (de) * | 2013-01-18 | 2020-08-13 | Carnegie Mellon University | Verfahren zum Bestimmen, ob eine Augen-abseits-der-Straße-Bedingung vorliegt |
US9230180B2 (en) * | 2013-01-18 | 2016-01-05 | GM Global Technology Operations LLC | Eyes-off-the-road classification with glasses classifier |
CN103093215B (zh) * | 2013-02-01 | 2016-12-28 | 北京天诚盛业科技有限公司 | 人眼定位方法及装置 |
CN103632136B (zh) * | 2013-11-11 | 2017-03-29 | 北京天诚盛业科技有限公司 | 人眼定位方法和装置 |
US10043058B2 (en) * | 2016-03-09 | 2018-08-07 | International Business Machines Corporation | Face detection, representation, and recognition |
US10417738B2 (en) * | 2017-01-05 | 2019-09-17 | Perfect Corp. | System and method for displaying graphical effects based on determined facial positions |
CN108664782B (zh) * | 2017-03-28 | 2023-09-12 | 三星电子株式会社 | 面部验证方法和设备 |
US10574883B2 (en) * | 2017-05-31 | 2020-02-25 | The Procter & Gamble Company | System and method for guiding a user to take a selfie |
US10896318B2 (en) * | 2017-09-09 | 2021-01-19 | Apple Inc. | Occlusion detection for facial recognition processes |
-
2015
- 2015-11-25 CN CN201510833176.XA patent/CN106778453B/zh active Active
-
2016
- 2016-11-25 WO PCT/CN2016/107178 patent/WO2017088804A1/zh active Application Filing
-
2017
- 2017-09-05 US US15/696,016 patent/US10395094B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102163288A (zh) * | 2011-04-06 | 2011-08-24 | 北京中星微电子有限公司 | 眼镜检测方法和装置 |
CN103425970A (zh) * | 2013-08-29 | 2013-12-04 | 大连理工大学 | 一种基于头部姿态的人机交互方法 |
CN103714321A (zh) * | 2013-12-26 | 2014-04-09 | 苏州清研微视电子科技有限公司 | 基于距离图像和强度图像的驾驶员人脸定位系统 |
CN103927520A (zh) * | 2014-04-14 | 2014-07-16 | 中国华戎控股有限公司 | 一种逆光环境下人脸检测方法 |
CN104463128A (zh) * | 2014-12-17 | 2015-03-25 | 智慧眼(湖南)科技发展有限公司 | 用于人脸识别的眼镜检测方法及系统 |
Non-Patent Citations (3)
Title |
---|
任明罡 等.基于人脸图片边缘信息的眼镜检测.《软件导报》.2014,第13卷(第7期), * |
基于人脸图片边缘信息的眼镜检测;任明罡 等;《软件导报》;20140731;第13卷(第7期);摘要,第1节 * |
基于矩形形态滤波器的人脸图像中眼镜自动检测的研究;梅月平;《中国优秀硕士学位论文全文数据库 信息科技辑》;20121215;正文第33-39页 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11830209B2 (en) | 2017-05-26 | 2023-11-28 | Snap Inc. | Neural network-based image stream modification |
Also Published As
Publication number | Publication date |
---|---|
US10395094B2 (en) | 2019-08-27 |
WO2017088804A1 (zh) | 2017-06-01 |
US20170364738A1 (en) | 2017-12-21 |
CN106778453A (zh) | 2017-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106778453B (zh) | 人脸图像中检测眼镜佩戴的方法及装置 | |
US10635890B2 (en) | Facial recognition method and apparatus, electronic device, and storage medium | |
US11238272B2 (en) | Method and apparatus for detecting face image | |
CN108701216B (zh) | 一种人脸脸型识别方法、装置和智能终端 | |
WO2018028546A1 (zh) | 一种关键点的定位方法及终端、计算机存储介质 | |
US10824849B2 (en) | Method, apparatus, and system for resource transfer | |
TWI687879B (zh) | 伺服器、客戶端、用戶核身方法及系統 | |
US9262671B2 (en) | Systems, methods, and software for detecting an object in an image | |
WO2018219180A1 (zh) | 确定人脸图像质量的方法和装置、电子设备和计算机存储介质 | |
JP2021502618A (ja) | 注視点判定方法および装置、電子機器ならびにコンピュータ記憶媒体 | |
US9443325B2 (en) | Image processing apparatus, image processing method, and computer program | |
US20120026335A1 (en) | Attribute-Based Person Tracking Across Multiple Cameras | |
CN110688878B (zh) | 活体识别检测方法、装置、介质及电子设备 | |
JP6071002B2 (ja) | 信頼度取得装置、信頼度取得方法および信頼度取得プログラム | |
US11410461B2 (en) | Information processing system, method for managing object to be authenticated, and program | |
EP3699808A1 (en) | Facial image detection method and terminal device | |
WO2019085338A1 (zh) | 电子装置、基于图像的年龄分类方法、系统及存储介质 | |
CN108875556A (zh) | 用于人证核验的方法、装置、系统及计算机存储介质 | |
CN114861241A (zh) | 基于智能检测的防窥屏方法及其相关设备 | |
CN111783677B (zh) | 人脸识别方法、装置、服务器和计算机可读介质 | |
CN111274602B (zh) | 一种图像特征信息替换方法、装置、设备及介质 | |
CN112101185A (zh) | 一种训练皱纹检测模型的方法、电子设备及存储介质 | |
US20240037995A1 (en) | Detecting wrapped attacks on face recognition | |
CN113591916B (zh) | 基于二分类模型的数据处理方法及装置 | |
CN111033508B (zh) | 一种识别身体运动的系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |