JP2006309714A - Face discrimination method and device, and program - Google Patents
Face discrimination method and device, and program Download PDFInfo
- Publication number
- JP2006309714A JP2006309714A JP2006029176A JP2006029176A JP2006309714A JP 2006309714 A JP2006309714 A JP 2006309714A JP 2006029176 A JP2006029176 A JP 2006029176A JP 2006029176 A JP2006029176 A JP 2006029176A JP 2006309714 A JP2006309714 A JP 2006309714A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- discrimination
- pixel
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012850 discrimination method Methods 0.000 title claims description 9
- 238000000034 method Methods 0.000 claims abstract description 67
- 238000010606 normalization Methods 0.000 claims abstract description 60
- 230000008569 process Effects 0.000 claims abstract description 50
- 238000006243 chemical reaction Methods 0.000 claims abstract description 26
- 238000012545 processing Methods 0.000 claims description 25
- 239000006185 dispersion Substances 0.000 claims description 22
- 238000013459 approach Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 abstract description 6
- 230000009467 reduction Effects 0.000 abstract description 4
- 238000001514 detection method Methods 0.000 description 46
- 238000010586 diagram Methods 0.000 description 10
- 210000000887 face Anatomy 0.000 description 10
- 230000001815 facial effect Effects 0.000 description 5
- 230000001186 cumulative effect Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、対象画像が顔画像であるか否かを判別する顔判別方法および装置並びにそのためのプログラムに関するものである。 The present invention relates to a face discrimination method and apparatus for discriminating whether or not a target image is a face image, and a program therefor.
従来、デジタルカメラによって撮影されたスナップ写真における人物の顔領域の色分布を調べてその肌色を補正したり、監視システムのデジタルビデオカメラで撮影されたデジタル映像中の人物を認識したりすることが行われている。このような場合、デジタル画像中の人物の顔に対応する顔領域を検出する必要があり、このため、対象画像が顔を表す画像であるか否かを判別する種々の手法が提案されている。 Conventionally, the color distribution of a person's face area in a snapshot photographed by a digital camera is examined to correct the skin color, or a person in a digital image photographed by a digital video camera of a surveillance system is recognized. Has been done. In such a case, it is necessary to detect a face area corresponding to the face of a person in the digital image. For this reason, various methods for determining whether or not the target image is an image representing a face have been proposed. .
例えば、所定対象物を表す画像であることが分かっている複数のサンプル画像と、所定対象物を表す画像でないことが分かっている複数のサンプル画像とからなる多数のサンプル画像群のそれぞれから算出された特徴量を、マシンラーニングの手法によりあらかじめ学習することにより得られた、特徴量の入力により所定対象物を表す画像と所定対象物を表さない画像とを判別するための基準値を出力する複数の識別器を備え、この複数の識別器から出力された基準値の重み付け総和があらかじめ定めた閾値を超えた場合に、判別対象画像が所定対象物を表す画像であると判別する手法が本出願人により提案されている(特許文献1から3参照)。
For example, it is calculated from each of a number of sample image groups including a plurality of sample images known to be images representing a predetermined object and a plurality of sample images known to be images not representing the predetermined object. A reference value for discriminating between an image representing a predetermined object and an image not representing the predetermined object by inputting the feature amount, which is obtained by learning the obtained feature amount in advance by a machine learning method. This technique includes a plurality of discriminators, and discriminates that a discrimination target image is an image representing a predetermined target when a weighted sum of reference values output from the plurality of discriminators exceeds a predetermined threshold. It has been proposed by the applicant (see
また、顔を表す画像であることが分かっている複数のサンプル画像と、顔を表す画像でないことが分かっている複数のサンプル画像とからなる多数のサンプル画像群のそれぞれから算出された特徴量を、マシンラーニングの手法によりあらかじめ学習することにより得られた、特徴量の入力により判別対象画像が顔を表す画像であるか否かを判別する複数の弱判別器を備え、これら複数の弱判別器を線形に結合してカスケード構造をなし、すべての弱判別器において顔を表す画像であると判別された場合に、判別対象画像が顔を表す画像であると判別する手法も提案されている(非特許文献1参照)。なお、これらの手法では、上記特徴量を判別対象画像の輝度分布に係る特徴量とし、この特徴量を用いて判別する場合が多い。 In addition, the feature amount calculated from each of a large number of sample images including a plurality of sample images known to be images representing a face and a plurality of sample images known to be images not representing a face is obtained. A plurality of weak discriminators, which are obtained by learning in advance by a machine learning method, and that determine whether or not the discrimination target image is an image representing a face by input of a feature amount. A method has also been proposed in which when a weakly classifier is identified as an image representing a face, the image to be identified is an image representing a face when the images are represented in a cascade structure. Non-patent document 1). In these methods, the feature amount is often used as a feature amount related to the luminance distribution of the discrimination target image, and discrimination is often performed using this feature amount.
ところで、判別対象画像の中には、デジタルカメラ等によって取得されたスナップ写真の画像やスキャナ等によって読み込まれた画像等が含まれるが、これらの画像では、その撮影シーンや撮影条件、ハード特性等の違いにより画像全体のコントラスト(明暗の度合)が変動し、常に一定とはならない。このような画像全体のコントラストが定まらない画像を対象に上記輝度分布に係る特徴量に基づく判別を行うと、その特徴量に顔画像らしさが適正に反映されない場合があり、判別の精度を低下させることとなる。 By the way, the discrimination target image includes a snapshot image acquired by a digital camera or the like, an image read by a scanner or the like. In these images, the shooting scene, shooting conditions, hardware characteristics, etc. The contrast (degree of lightness and darkness) of the entire image varies due to the difference between the two, and is not always constant. If discrimination based on the feature amount related to the luminance distribution is performed on an image in which the contrast of the whole image is not determined, the feature amount may not be properly reflected in the feature amount, and the discrimination accuracy is reduced. It will be.
そこで、顔判別を行う前処理として、判別対象画像のコントラストが判別に適したある一定のレベルとなるように、判別対象画像における画像全体の画素値の分散を算出し、その画像全体を当該分散に基づいて得られた同一のパラメータを用いて正規化する手法が知られている。
しかしながら、上記のような、判別対象画像における画像全体の画素値の分散を算出し、その画像全体を当該分散に基づいて得られた同一のパラメータを用いて正規化する手法では、その判別対象画像が顔画像である場合に、顔以外のものによる画像上の濃度変化の影響を受けやすく正規化が不安定となる。例えば、その顔の一部に何か別のものが重畳していたり、照明の状況によって斜光(斜めから光が当たっている状態)が存在していたり、あるいは、顔以外の背景の状況によって濃淡にばらつきが生じていたりすると、画像全体の画素値の分散がこれらの影響を受け、本来意図した正規化がなされない場合がある。このような正規化が施された画像に対して上記輝度分布に係る特徴量に基づく判別を行うと、その特徴量に顔画像らしさが適正に反映されない場合があり、判別の精度を低下させることとなる。 However, in the method for calculating the variance of the pixel values of the entire image in the discrimination target image as described above and normalizing the entire image using the same parameter obtained based on the variance, the discrimination target image Is a face image, normalization tends to be unstable due to the influence of density changes on the image caused by other than the face. For example, something else is superimposed on a part of the face, there is oblique light depending on the lighting condition (light is shining from the diagonal), or the lightness is shaded depending on the background condition other than the face If there is a variation, the dispersion of the pixel values of the entire image is affected by these, and normalization may not be performed as intended. If discrimination based on the feature amount related to the luminance distribution is performed on the image subjected to such normalization, the feature amount may not be properly reflected in the feature amount, and the discrimination accuracy is reduced. It becomes.
本発明は、上記事情に鑑み、顔判別の精度の低下を抑制することが可能な顔判別方法および装置並びにそのためのプログラムを提供することを目的とするものである。 In view of the above circumstances, an object of the present invention is to provide a face discrimination method and apparatus capable of suppressing a reduction in face discrimination accuracy, and a program therefor.
本発明の顔判別方法は、顔画像であるか否かを判別する対象となる判別対象画像に対して、該画像における各局所領域について輝度を表す画素値の分散の程度を所定レベルに近づける輝度階調変換を行う正規化処理を施すことにより、前記判別対象画像におけるコントラストのばらつきを抑制する正規化ステップと、前記正規化処理が施された判別対象画像の輝度分布に係る少なくとも1つの特徴量を算出し、該特徴量を用いて前記判別対象画像が顔画像であるか否かを判別する顔判別ステップとを有する顔判別方法であって、前記局所領域が、前記顔判別手段が判別すべき顔の目を1つのみ含む大きさの領域であることを特徴とする方法である。 The face discrimination method of the present invention is a brightness that brings the degree of dispersion of pixel values representing brightness for each local region in the image closer to a predetermined level with respect to the discrimination target image that is a target for determining whether or not it is a face image. A normalization step that suppresses variations in contrast in the discrimination target image by performing a normalization process that performs gradation conversion; and at least one feature amount relating to a luminance distribution of the discrimination target image that has undergone the normalization process And a face discrimination step for discriminating whether or not the discrimination target image is a face image using the feature quantity, wherein the face discrimination means discriminates the local region. This is a method characterized in that it is a region having a size including only one eye of a power face.
本発明の顔判別装置は、顔画像であるか否かを判別する対象となる判別対象画像に対して、該画像における各局所領域について輝度を表す画素値の分散の程度を所定レベルに近づける輝度階調変換を行う正規化処理を施すことにより、前記判別対象画像におけるコントラストのばらつきを抑制する正規化手段と、前記正規化処理が施された判別対象画像の輝度分布に係る少なくとも1つの特徴量を算出し、該特徴量を用いて前記判別対象画像が顔画像であるか否かを判別する顔判別手段とを備えた顔判別装置であって、前記局所領域が、前記顔判別手段が判別すべき顔の目を1つのみ含む大きさの領域であることを特徴とするものである。 The face discriminating apparatus according to the present invention is a luminance that brings the degree of dispersion of pixel values representing the luminance close to a predetermined level for each local region in a discrimination target image to be discriminated as a face image. A normalizing unit that suppresses variation in contrast in the discrimination target image by performing a normalization process that performs gradation conversion; and at least one feature amount related to a luminance distribution of the discrimination target image that has been subjected to the normalization process And a face discriminating device that discriminates whether or not the discrimination target image is a face image using the feature amount, wherein the face discrimination unit discriminates the local region. It is a region having a size including only one face eye to be.
本発明のプログラムは、コンピュータを、顔画像であるか否かを判別する対象となる判別対象画像に対して、該画像における各局所領域について輝度を表す画素値の分散の程度を所定レベルに近づける輝度階調変換を行う正規化処理を施すことにより、前記判別対象画像におけるコントラストのばらつきを抑制する正規化手段と、前記正規化処理が施された判別対象画像の輝度分布に係る少なくとも1つの特徴量を算出し、該特徴量を用いて前記判別対象画像が顔画像であるか否かを判別する顔判別手段として機能させるためのプログラムであって、前記局所領域が、前記顔判別手段が判別すべき顔の目を1つのみ含む大きさの領域であることを特徴とするものである。 The program according to the present invention causes the computer to bring the degree of dispersion of pixel values representing luminance in a local area in the image closer to a predetermined level with respect to a determination target image that is a target for determining whether the image is a face image. By performing a normalization process for performing luminance gradation conversion, normalization means for suppressing variations in contrast in the discrimination target image, and at least one feature relating to the luminance distribution of the discrimination target image subjected to the normalization process A program for calculating a quantity and functioning as a face discrimination means for judging whether or not the discrimination target image is a face image using the feature quantity, wherein the face discrimination means discriminates the local region It is a region having a size including only one face eye to be.
本発明において、前記正規化処理は、前記判別対象画像における各画素を注目画素として順次設定するとともに、前記注目画素毎に、該注目画素を代表とする所定の大きさの局所領域における画素値の分散を算出し、該分散が前記所定レベルに対応する基準値より大きいほど、前記注目画素の画素値と該注目画素を代表とする前記局所領域における画素値の統計学上の所定の代表値との差を小さくし、該分散が前記基準値より小さいほど、前記注目画素の画素値と前記所定の代表値との差を大きくする階調変換を行う処理とすることができる。 In the present invention, the normalization processing sequentially sets each pixel in the discrimination target image as a target pixel, and for each target pixel, the pixel value in a local region having a predetermined size represented by the target pixel. The variance is calculated, and as the variance is larger than the reference value corresponding to the predetermined level, the pixel value of the target pixel and the predetermined representative value in the statistical value of the pixel value in the local region represented by the target pixel And the gradation conversion for increasing the difference between the pixel value of the target pixel and the predetermined representative value as the variance is smaller than the reference value.
本発明の顔判別方法において、前記顔判別ステップは、顔の向きが判別すべき顔の向きと同一であって顔の天地方向が揃った互いに異なる複数の学習用顔画像の各々を入力され、その判別の正否結果に基づいて、顔のパターンの特徴を学習してなる顔判別手段における処理を行うステップであり、前記局所領域は、該領域の長手方向の幅を、前記学習用顔画像における目の長手方向の幅の平均値の1.1から1.8倍の間の長さとする領域とすることができる。また、本発明の顔判別装置およびプログラムにおいて、前記顔判別手段は、顔の向きが判別すべき顔の向きと同一であって顔の天地方向が揃った互いに異なる複数の学習用顔画像を用いて、顔のパターンの特徴を学習してなるものであり、前記局所領域は、該領域の長手方向の幅を、前記学習用顔画像における目の長手方向の幅の平均値の1.1から1.8倍の間の長さとする領域とすることができる。 In the face discrimination method according to the present invention, the face discrimination step receives each of a plurality of different learning face images having the same face orientation as the face orientation to be discriminated and having the face orientations aligned. This is a step of performing processing in a face discriminating unit that learns the characteristics of a face pattern on the basis of the correctness result of the discrimination, and the local region has a width in the longitudinal direction of the region in the learning face image. It can be a region having a length between 1.1 and 1.8 times the average value of the width in the longitudinal direction of the eye. In the face discriminating apparatus and program according to the present invention, the face discriminating unit uses a plurality of different learning face images having the same face orientation as the face orientation to be discriminated and having the face orientations aligned. The feature of the facial pattern is learned, and the local region has a width in the longitudinal direction of the region from 1.1 of an average value of the width in the longitudinal direction of the eyes in the learning face image. The region can be a length between 1.8 times.
この場合において、前記顔判別手段は、前記判別対象画像が顔画像であるか否かを判別する互いに異なる複数の弱判別器(モジュール)を、該弱判別器の信頼度が高い順に線形に結合してなる構造を有するものとすることができる。 In this case, the face discriminating unit linearly combines a plurality of different weak discriminators (modules) that discriminate whether or not the discrimination target image is a face image in descending order of reliability of the weak discriminators. It can have the structure which consists of.
ここで、「画素値の分散の程度」とは、画素値のばらつきの度合を意味するものであり、例えば、画素値のいわゆる数学的な分散値のほか、画素値の最大値と最小値の差分値等とすることができる。また、「所定レベル」とは、上記分散値あるいは上記差分値等が取り得る値の一つであり、判別対象画像が顔画像であるか否かを判別する処理において、経験的に判別精度がよくなるコントラストとなるような値とすることができる。 Here, the “degree of dispersion of pixel values” means the degree of dispersion of pixel values. For example, in addition to so-called mathematical dispersion values of pixel values, the maximum value and the minimum value of pixel values It can be a difference value or the like. In addition, the “predetermined level” is one of the values that the variance value or the difference value can take, and in the process of determining whether or not the determination target image is a face image, the determination accuracy is empirically determined. It can be set to a value that provides a good contrast.
なお、前記所定レベルは、画像毎に異なるノイズレベルに応じて設定すべきであり、入力ソースが分かっている場合には、それに合わせて前記所定レベルを変更することが好ましい。例えば、携帯電話に内蔵された撮像手段によって撮像された画像は比較的ノイズが多いことから、ノイズの増幅を抑えるために、前記所定のレベルを高く設定する。また、例えばノイズ解析手段から得られた解析情報、撮像手段から得られた画像撮像時のゲイン情報等により、画像のノイズレベルを知ることができる場合には、ノイズレベルが大きいほど前記所定のレベルを高く設定し、ノイズレベルが小さいほど前記所定のレベルを小さく設定するとよい。 The predetermined level should be set according to a noise level that differs for each image, and when the input source is known, it is preferable to change the predetermined level accordingly. For example, the image picked up by the image pickup means built in the mobile phone is relatively noisy, so the predetermined level is set high in order to suppress noise amplification. Further, for example, when the noise level of the image can be known from the analysis information obtained from the noise analysis means, the gain information at the time of image pickup obtained from the image pickup means, etc., the larger the noise level, the higher the predetermined level. Is set higher, and the predetermined level is preferably set lower as the noise level is lower.
「注目画素を代表とする所定の大きさの局所領域」とは、例えば、図16に示すような、注目画素xを略中心、略重心または略中央とする第1の領域Z1や、これら第1の領域Z1の画素値の分布に応じて設定される、第1の領域内の部分的な領域である第2の領域Z2を意味するものである。この第2の領域Z2としては、例えば、図17に示すように、第1の領域Z1内の画素値のヒストグラムの形状が複数の山を有する形状である場合に、それらの山のうち注目画素xの画素値Xが含まれる山に対応する画素からなる領域とすることができる。すなわち、第1の領域Z1から、注目画素xの画素値Xが含まれない山に対応する画素からなる領域Zaを取り除いた領域を第2の領域Z2とすることができる。このような領域の設定は、第1の領域Z1が明らかに画像濃度の異なる領域にまたがって存する場合に、その濃度変化の境界による悪影響を避けるため、所定の領域内の画像に対してのみ画素値の演算をするような場合によく実施される方法である。 The “local region of a predetermined size typified by the pixel of interest” is, for example, a first region Z1 having the pixel of interest x approximately at the center, approximately the center of gravity, or approximately the center as shown in FIG. This means the second region Z2, which is a partial region within the first region, which is set according to the distribution of pixel values in the first region Z1. As the second region Z2, for example, as shown in FIG. 17, when the shape of the histogram of pixel values in the first region Z1 is a shape having a plurality of peaks, the pixel of interest among these peaks It can be set as the area | region which consists of a pixel corresponding to the peak containing the pixel value X of x. That is, a region obtained by removing a region Za composed of pixels corresponding to a mountain not including the pixel value X of the target pixel x from the first region Z1 can be set as the second region Z2. Such a region setting is performed only when the first region Z1 extends over regions having clearly different image densities in order to avoid an adverse effect due to the boundary of the density change. This is a method often used in the case of calculating a value.
「画素値の統計学上の所定の代表値」とは、画素値の分布の特徴を代表するこの分布の中心的な値であり、例えば、画素値の、統計学上の平均値、中央値、中間値、最頻値等とすることができる。 The “predetermined representative value in the pixel value statistics” is a central value of the distribution representing the characteristics of the distribution of the pixel value. For example, the statistical average value and the median value of the pixel value , Intermediate values, mode values, and the like.
「局所領域」は、便宜上、矩形領域であることが好ましいが、真円、楕円等の形状であってもよい。 The “local region” is preferably a rectangular region for convenience, but may be a shape such as a perfect circle or an ellipse.
本発明においては、学習に用いる顔画像として、少なくとも前記学習用顔画像を用いていればよく、もちろん、学習に用いる画像として、前記学習用顔画像に加え学習用非顔画像を用いても構わない。 In the present invention, it is sufficient that at least the learning face image is used as a face image used for learning. Of course, a learning non-face image may be used in addition to the learning face image as an image used for learning. Absent.
「学習用顔画像」とは、顔を表す画像であることが分かっている学習に用いるサンプル画像をいい、「学習用非顔画像」とは顔を表す画像でないことが分かっている学習に用いるサンプル画像をいう。 “Learning face image” means a sample image used for learning that is known to be an image representing a face, and “Non-face image for learning” is used for learning that is not known to represent a face. A sample image.
「顔の天地方向が揃った」とは、顔の天地方向が完全に一致した状態に限定されるわけではなく、画像平面上での所定角度範囲、例えば±15度の回転は許容するものとする。 “Faces of the top and bottom of the face are aligned” is not limited to the state in which the top and bottom of the face are completely coincident, and a predetermined angle range on the image plane, for example, ± 15 degrees is allowed. To do.
「弱判別器」とは、正答率が50%を超える判別手段(モジュール)であり、「複数の弱判別器を線形に結合した構造」とは、このような弱判別器を直列に接続し、弱判別器において、対象画像が顔画像であると判別されたときに次の弱判別器に進み、非顔画像であると判別されたときに判別処理を離脱するように構成された構造のことをいう。最後の弱判別器において顔画像であると判別された対象画像が、最終的に、顔画像であると判別される。 “Weak discriminator” is a discriminating means (module) with a correct answer rate exceeding 50%, and “a structure in which a plurality of weak discriminators are linearly combined” is such a weak discriminator connected in series. The weak classifier has a structure configured to proceed to the next weak classifier when the target image is determined to be a face image and to leave the determination process when it is determined to be a non-face image. That means. The target image determined to be a face image by the last weak classifier is finally determined to be a face image.
本発明の顔判別方法および装置並びにそのためのプログラムによれば、判別対象画像のコントラストのばらつきを抑えるべく、判別対象画像に対して、当該判別対象画像における各局所領域について画素値の分散の程度が所定レベルに近づくように画素値の階調変換を行う正規化処理を施すものとし、その局所領域を、判別すべき顔の目が1つのみ含まれる大きさの領域と規定しているので、顔であることを特徴付ける目や鼻等の顔の構成部品内でのコントラストの変化を抑えつつ、顔への重畳物、斜光、顔以外の背景による濃淡のばらつき等による影響を受け難い安定した正規化を行うことができる。これにより、判別対象画像上の輝度分布に係る特徴量について顔画像らしさを適正に反映させることができ、判別精度の低下を抑制することが可能となる。 According to the face discriminating method and apparatus and the program therefor according to the present invention, the degree of dispersion of the pixel values for each local region in the discrimination target image is suppressed with respect to the discrimination target image in order to suppress the contrast variation of the discrimination target image. Since normalization processing is performed to perform gradation conversion of pixel values so as to approach a predetermined level, and the local area is defined as an area having a size that includes only one face eye to be identified. Stable regularity that suppresses changes in contrast in facial components that characterize the face, such as the eyes and nose, and is less susceptible to effects such as superimposition on the face, oblique light, and shading variations due to backgrounds other than the face Can be made. As a result, it is possible to appropriately reflect the likelihood of a face image with respect to the feature amount related to the luminance distribution on the discrimination target image, and it is possible to suppress a reduction in discrimination accuracy.
以下、本発明の実施形態について説明する。図1は本発明の顔判別装置が適用された顔検出システムの構成を示す概略ブロック図である。この顔検出システムは、デジタル画像中に含まれる顔を、顔の位置、大きさ、向き、回転方向によらずに検出するものである。図1に示すように、顔検出システム1は、顔を検出する対象となる入力画像S0を多重解像度化して解像度の異なる複数の画像(以下、解像度画像という)S1_i(i=1,2,3・・・)を得る多重解像度化部10と、後に実行される顔検出処理の精度向上を目的とした前処理として、解像度画像S1_iの各々に対して、画像全体にわたって局所的な領域におけるコントラストのばらつきを抑制する正規化(以下、局所正規化という)を施し、局所正規化済みの解像度画像S1′_iを得る局所正規化部(正規化手段)20と、局所正規化済みの解像度画像S1′_iの各々に対してラフな顔検出処理を施すことにより顔候補S2を抽出する第1の顔検出部30と、各顔候補を含む所定の近傍領域内の画像に対して高精度な顔検出処理を施すことにより顔候補S2をさらに絞り込み、真の顔と思われる顔S3を得る第2の顔検出部40と、各解像度画像上で検出された顔S3の各々について、同一の顔が重複して検出されたものであるか否かをその位置関係から判定して整理し、重複検出のない顔S3′を得る重複検出判定部50とを備える。
Hereinafter, embodiments of the present invention will be described. FIG. 1 is a schematic block diagram showing the configuration of a face detection system to which the face discrimination device of the present invention is applied. This face detection system detects a face included in a digital image regardless of the position, size, orientation, and rotation direction of the face. As shown in FIG. 1, the
多重解像度化部10は、入力画像S0の解像度(画像サイズ)を変換することにより、その解像度を所定の解像度、例えば、短辺が416画素の矩形サイズの画像に規格化し、規格化済みの入力画像S1を得る。そして、この画像S1を基本画像としてさらに解像度変換を行うことにより、解像度の異なる複数の解像度画像S1_iを生成する。このような複数の解像度画像を生成する理由は、通常、入力画像に含まれる顔の大きさは不明であるが、一方、検出しようとする顔の大きさ(画像サイズ)は、後述の判別器の構造と関連して一定にする必要があるため、解像度の異なる画像上で所定サイズの部分画像をそれぞれ切り出し、その部分画像が顔か非顔かを判別してゆく必要があるためである。具体的には、図2に示すように、画像S1を基本画像S1_1として、画像S1_1に対して2の−1/3乗倍の画像S1_2と、画像S1_2に対して2の−1/3乗倍(基本画像S1_1に対しては2の−2/3乗倍)の画像S1_3とを先に生成し、その後、画像S1_1,S1_2,S1_3のそれぞれに対して、1/2倍サイズの縮小画像を生成し、それらの縮小画像に対してさらに1/2倍サイズの縮小画像を生成する・・・といった処理を繰り返し行い、複数の縮小画像を所定の数だけ生成するようにする。このようにすることで、輝度を表す画素値の補間処理を必要としない1/2倍の縮小処理を主に、基本画像から2の−1/3乗倍ずつ解像度が縮小された複数の画像が高速に生成できる。例えば、画像S1_1が短辺416画素の矩形サイズである場合、画像S1_2,S1_3,・・・は、短辺がそれぞれ、330画素,262画素,208画素,165画素,131画素,104画素,82画素,65画素,・・・の矩形サイズとなり、2の−1/3乗倍ずつ縮小された複数の解像度画像を生成することができる。なお、このように画素値を補間しないで生成される画像は、画像パターンの特徴をそのまま担持する傾向が強いので、顔検出処理において精度向上が期待できる点で好ましい。
The
局所正規化部20は、解像度画像S1_iの各々に対して、解像度画像における各局所領域について、輝度を表す画素値の分散の程度が所定レベル以上である局所領域に対して、該分散の程度を前記所定レベルより高い一定レベルに近づける第1の輝度階調変換処理を施し、前記画素値の分散の程度が前記所定レベル未満である局所領域に対して、該分散の程度を前記一定レベルより低いレベルに抑える第2の輝度階調変換処理を施すものであるが、ここで、局所正規化部20における具体的な処理について説明する。
For each of the resolution images S1_i, the
図12は局所正規化処理の概念を示した図であり、図13は局所正規化部20における処理フロー示す図である。また、式(1),(2)は、この局所正規化処理のための画素値の階調変換の式である。
ここで、Xは注目画素の画素値、X′は注目画素の変換後の画素値、mlocalは注目画素を中心とする局所領域における画素値の平均、Vlocalはこの局所領域における画素値の分散、SDlocalはこの局所領域における画素値の標準偏差、(C1×C1)は上記一定レベルに対応する基準値、C2は上記所定レベルに対応する閾値、SDcは所定の定数である。なお、本実施形態において、輝度の階調数は8bitとし、画素値の取り得る値は0から255とする。 Here, X is the pixel value of the pixel of interest, X ′ is the pixel value after conversion of the pixel of interest, mlocal is the average of the pixel values in the local region centered on the pixel of interest, Vlocal is the variance of the pixel values in this local region, SDlocal is a standard deviation of pixel values in this local area, (C1 × C1) is a reference value corresponding to the above-mentioned fixed level, C2 is a threshold corresponding to the above-mentioned predetermined level, and SDc is a predetermined constant. In the present embodiment, the number of gradations of luminance is 8 bits, and the possible pixel values are 0 to 255.
局所正規化部20は、図13に示すように、解像度画像における1つの画素を注目画素として設定し(ステップS21)、この注目画素を中心とする所定の大きさ、例えば11×11画素サイズの局所領域における画素値の分散Vlocalを算出し(ステップS22)、分散Vlocalが上記所定のレベルに対応する閾値C2以上であるか否かを判定する(ステップS23)。ステップS23において、分散Vlocalが閾値C2以上であると判定された場合には、上記第1の輝度階調変換処理として、分散Vlocalが上記一定のレベルに対応する基準値(C1×C1)より大きいほど、注目画素の画素値Xと平均mlocalとの差を小さくし、分散mlocalが基準値(C1×C1)より小さいほど、注目画素の画素値Xと平均mlocalとの差を大きくする階調変換を式(1)にしたがって行う(ステップS24)。一方、ステップS23において、分散Vlocalが閾値C2未満であると判定された場合には、上記第2の輝度階調変換処理として、分散Vlocalに依らない線形な階調変換を式(2)にしたがって行う(ステップS25)。そして、ステップS21で設定した注目画素が最後の画素であるか否かを判定する(ステップS26)。ステップS26において、その注目画素が最後の画素でないと判定された場合には、ステップS21に戻り、同じ解像度画像上の次の画素を注目画素として設定する。一方、ステップS26において、その注目画素が最後の画素であると判定された場合には、その解像度画像に対する局所正規化を終了する。このように、上記ステップS21からS26の処理を繰り返すことにより、解像度画像全体に局所正規化が施された解像度画像が得られる。この一連の処理を各解像度画像に対して行うことにより、局所正規化済みの解像度画像S1′_iを得る。
As shown in FIG. 13, the
なお、上記の所定レベルは、局所領域における全体または一部の輝度に応じて変化させるようにしてもよい。例えば、上記の、注目画素毎に階調変換を行う正規化処理において、閾値C2を注目画素の画素値に応じて変化させるようにしてもよい。すなわち、上記の所定レベルに対応する閾値C2を、注目画素の輝度が相対的に高いときにはより高く設定し、その輝度が相対的に低いときにはより低く設定するようにしてもよい。このようにすることで、輝度の低い、いわゆる暗い領域に低いコントラスト(画素値の分散が小さい状態)で存在している顔も正しく正規化することができる。 Note that the predetermined level may be changed according to the whole or a part of luminance in the local region. For example, in the normalization process in which gradation conversion is performed for each target pixel, the threshold value C2 may be changed according to the pixel value of the target pixel. That is, the threshold value C2 corresponding to the predetermined level may be set higher when the luminance of the target pixel is relatively high, and may be set lower when the luminance is relatively low. In this way, it is possible to correctly normalize a face that exists in a low-brightness, so-called dark area with low contrast (a state in which the dispersion of pixel values is small).
また、ここでは、解像度画像に対して局所正規化のみを施した場合について説明しているが、局所正規化とは別の正規化を同時に行うようにしてもよい。例えば、輝度の低い、いわゆる暗い領域のコントラストを高くする(画素値の分散を大きくすることに相当する)ように設定されたルックアップテーブル(LUT)等を用いて階調変換をしてから、上記局所正規化を行なうようにしてもよい。このようにすることで、上述のような、閾値C2を注目画素の画素値に応じて変化させるのと同じ効果が得られ、暗い領域に低いコントラストで存在している顔も正しく正規化することができる。 Further, here, a case where only local normalization is performed on the resolution image has been described, but normalization different from local normalization may be performed simultaneously. For example, after performing gradation conversion using a look-up table (LUT) set so as to increase the contrast of a so-called dark area with low luminance (corresponding to increasing the dispersion of pixel values), The local normalization may be performed. By doing this, the same effect as changing the threshold value C2 according to the pixel value of the target pixel as described above can be obtained, and a face existing in a dark region with low contrast can be correctly normalized. Can do.
第1の顔検出部30は、局所正規化部20により局所正規化処理がなされた各解像度画像S1′_iに対して比較的粗く高速な顔検出処理を施し、各解像度画像S1′_iから顔候補S2を暫定的に抽出するものである。図3は、この第1の顔検出部30の構成を示すブロック図である。第1の顔検出部30は、図3に示すように、各解像度画像について、顔画像であるか否かの判別対象となる部分画像(判別対象画像)を切り出すサブウィンドウWを順次設定する第1のサブウィンドウ設定部31と、部分画像が主に正面顔の画像であるか否かを判別する第1の正面顔判別器(顔判別手段)33と、この部分画像が主に左横顔の画像であるか否かを判別する第1の左横顔判別器(顔判別手段)34と、この部分画像が主に右横顔の画像であるか否かを判別する第1の右横顔判別器(顔判別手段)35とから構成されており、各判別器33から35は、それぞれ、複数の弱判別器WCi(i=1からN)が線形に結合してカスケード構造を有している。
The first
第1のサブウィンドウ設定部31は、すべての解像度画像S1′_iの各々について、解像度画像をその平面上で360度回転させつつ、解像度画像上において32×32画素サイズの部分画像を切り出すサブウィンドウWを、所定画素数分、例えば5画素ずつ移動させながら順次設定し、その切り出された部分画像を第1の正面顔判別器33、第1の左横顔判別器34および第1の右横顔判別器35にそれぞれ出力する。
For each resolution image S1′_i, the first
上記各判別器33から35は、それぞれ、順次入力されてくる部分画像に対し、この部分画像が正面顔、左横顔または右横顔を表す顔画像であるか否かの判別を行い、各解像度画像S1′_iにおいて、平面上のあらゆる回転角度にある正面顔、左横顔、および右横顔を検出し、顔候補S2を出力する。なお、斜め向きの顔の検出精度を上げるため、右斜め顔、左斜め顔をそれぞれ判別する判別器をさらに設けるようにしてもよいが、ここでは特に設けないものとする。 Each of the discriminators 33 to 35 determines whether or not each partial image is a face image representing a front face, a left side face, or a right side face with respect to the sequentially input partial images. In S1′_i, a front face, a left side face, and a right side face at every rotation angle on the plane are detected, and a face candidate S2 is output. In addition, in order to improve the detection accuracy of the oblique face, a discriminator for discriminating each of the right oblique face and the left oblique face may be further provided, but it is not particularly provided here.
上記各判別器33から35は、部分画像の輝度分布に係る少なくとも1つの特徴量を算出し、この特徴量を用いてこの部分画像が顔画像であるか否かを判別するものであるが、ここで、これら各判別器33から35における具体的な処理について説明する。図5は、各判別器における大局的な処理フローを示したものであり、図6は、その中の各弱判別器による処理フローを示したものである。 Each of the discriminators 33 to 35 calculates at least one feature amount related to the luminance distribution of the partial image, and determines whether or not the partial image is a face image using the feature amount. Here, specific processing in each of the discriminators 33 to 35 will be described. FIG. 5 shows a general processing flow in each discriminator, and FIG. 6 shows a processing flow by each weak discriminator therein.
まず、最初の弱判別器WC1が、解像度画像S1′_i上で切り出された所定サイズの部分画像に対してこの部分画像が顔であるか否かを判別する(ステップSS1)。具体的には、弱判別器WC1は、図7に示すように、解像度画像S1′_i上で切り出された所定サイズの部分画像、すなわち、32×32画素サイズの画像に対して、4近傍画素平均(画像を2×2画素サイズ毎に複数のブロックに区分し、各ブロックの4画素における画素値の平均値をそのブロックに対応する1つの画素の画素値とする処理)を行うことにより、16×16画素サイズの画像と、8×8画素サイズの縮小した画像を得、これら3つの画像の平面内に設定される所定の2点を1ペアとして、複数種類のペアからなる1つのペア群を構成する各ペアにおける2点間の輝度の差分値をそれぞれ計算し、これらの差分値の組合せを特徴量とする(ステップSS1−1)。各ペアの所定の2点は、例えば、画像上の顔の濃淡の特徴が反映されるよう決められた縦方向に並んだ所定の2点や、横方向に並んだ所定の2点とする。そして、特徴量である差分値の組合せに応じて所定のスコアテーブルを参照してスコアを算出し(ステップSS1−2)、直前の弱判別器が算出したスコアに自己の算出したスコアを加算して累積スコアを算出するが(ステップSS1−3)、最初の弱判別器WC1では、直前の弱判別器がないので、自己の算出したスコアをそのまま累積スコアとする。この累積スコアが所定の閾値以上であるか否かによって部分画像が顔であるか否かを判別する(ステップSS1−4)。ここで、上記部分画像が顔と判別されたときには、次の弱判別器WC2による判別に移行し(ステップSS2)、部分画像が非顔と判別されたときには、部分画像は、即、非顔と断定され(ステップSSB)、処理が終了する。 First, the first weak discriminator WC1 discriminates whether or not this partial image is a face with respect to the partial image of a predetermined size cut out on the resolution image S1′_i (step SS1). Specifically, as shown in FIG. 7, the weak discriminator WC1 performs four neighboring pixels on a partial image of a predetermined size cut out on the resolution image S1′_i, that is, an image of 32 × 32 pixel size. By performing an average (a process in which an image is divided into a plurality of blocks for each 2 × 2 pixel size and an average value of pixel values of four pixels of each block is set to a pixel value of one pixel corresponding to the block), A pair of a plurality of types is obtained by obtaining a 16 × 16 pixel size image and a reduced image of 8 × 8 pixel size as a pair of two predetermined points set in the plane of these three images. The difference value of the brightness | luminance between two points in each pair which comprises a group is each calculated, and the combination of these difference values is made into a feature-value (step SS1-1). The predetermined two points of each pair are, for example, two predetermined points arranged in the vertical direction and two predetermined points arranged in the horizontal direction so as to reflect the characteristics of the facial shading on the image. Then, a score is calculated by referring to a predetermined score table according to a combination of difference values as feature amounts (step SS1-2), and the score calculated by itself is added to the score calculated by the previous weak discriminator. The accumulated score is calculated (step SS1-3). However, since the first weak discriminator WC1 has no previous weak discriminator, the score calculated by itself is used as the cumulative score. It is determined whether or not the partial image is a face depending on whether or not the accumulated score is equal to or greater than a predetermined threshold (step SS1-4). Here, when the partial image is determined to be a face, the process proceeds to determination by the next weak classifier WC2 (step SS2). When the partial image is determined to be a non-face, the partial image is immediately determined to be a non-face. It is determined (step SSB), and the process ends.
ステップSS2においても、ステップSS1と同様に、弱判別器WC2が部分画像に基づいて画像上の特徴を表す上記のような特徴量を算出し(ステップSS2−1)、スコアテーブルを参照して特徴量からスコアを算出する(ステップSS2−2)。そして、自ら算出したスコアを前の弱判別器WC1が算出した累積スコアに加算して累積スコアを更新し(ステップSS2−3)、この累積スコアが所定の閾値以上であるか否かによって部分画像が顔であるか否かを判別する(ステップSS2−4)。ここでも、部分画像が顔と判別されたときには、次の弱判別器WC3による判別に移行し(ステップSS3)、部分画像が非顔と判別されたときには、部分画像は、即、非顔と断定され(ステップSSB)、処理が終了する。このようにして、N個すべての弱判別器において部分画像が顔であると判別されたときには、その部分画像を最終的に顔候補として抽出する(ステップSSA)。 Also in step SS2, as in step SS1, the weak classifier WC2 calculates the above-described feature amount representing the feature on the image based on the partial image (step SS2-1), and refers to the score table for the feature. A score is calculated from the amount (step SS2-2). Then, the score calculated by itself is added to the cumulative score calculated by the previous weak discriminator WC1 to update the cumulative score (step SS2-3), and the partial image is determined depending on whether or not the cumulative score is equal to or greater than a predetermined threshold. Is a face (step SS2-4). Again, when the partial image is determined to be a face, the process proceeds to determination by the next weak classifier WC3 (step SS3). When the partial image is determined to be a non-face, the partial image is immediately determined to be a non-face. (Step SSB), and the process ends. In this way, when it is determined that the partial image is a face in all N weak classifiers, the partial image is finally extracted as a face candidate (step SSA).
判別器33から35は、それぞれ、独自の、特徴量の種類、スコアテーブル、および閾値によって定められた複数の弱判別器からなる判別器であり、それぞれの判別すべき顔の向き、すなわち、正面顔、左横顔、右横顔にある顔を判別する。 Each of the discriminators 33 to 35 is a discriminator composed of a plurality of weak discriminators determined by unique feature type, score table, and threshold value. A face, a left side profile, and a right side profile are identified.
第2の顔検出部40は、全解像度画像のうち、顔候補S2の各々がそれぞれ含まれる所定領域内の各画像に対して比較的精度の高い顔検出処理を施し、顔候補近傍の画像から真の顔S3を検出するものである。この第2の顔検出部40は、基本的には、第1の顔検出部30と同様の構成であり、図4に示すように、第2のサブウィンドウ設定部41と、第2の正面顔判別器43と、第2の左横顔検出部44と、第2の右横顔検出部45とから構成されており、各判別器43から45は、それぞれ、複数の弱判別器WCi(i=1からN)が線形に結合してカスケード構造を有する。ただし、これらの判別器は、第1の顔検出部30における判別器より判別精度の高いものが好ましい。この第2の顔検出部40においては、判別器における大局的な処理フロー、および弱判別器による処理フローも基本的には第1の顔検出部30と同様であるが、サブウィンドウWを設定する位置は、第1の顔検出部30によって抽出された顔候補S2を含む所定領域内の画像に限定され、また、サブウィンドウWの移動幅は、第1の顔検出部30の場合より細かく、例えば、1画素ずつとなる。これにより、第1の顔検出部30でラフに抽出された顔候補S2がさらに絞り込まれ、真の顔S3だけが出力されることになる。
The second
重複検出判定部50は、第2の顔検出部40によって検出された各解像度画像S1′_i上の顔S3の位置情報に基づいて、各解像度画像上で検出された顔のうち重複して検出された同一の顔を1つの顔としてまとめる処理を行い、入力画像S0において検出された顔S3′の位置情報を出力する。判別器は、学習方法にもよるが、一般的に部分画像のサイズに対して検出できる顔の大きさにはある程度幅があるので、解像度レベルが隣接する複数の解像度画像において、同一の顔が重複して検出される場合があるからである。
The duplication
図9は、上記顔検出システムにおける処理の流れを示したフローチャートである。図9に示すように、多重解像度化部10に入力画像S0が供給されると(ステップS1)、この入力画像S0の画像サイズが所定のサイズに変換された画像S1が生成され、画像S1から2の−1/3乗倍ずつ解像度が縮小された複数の解像度画像S1_iが生成される(ステップS2)。そして、局所正規化部20において、各解像度画像S1_iの画像全体に局所的な領域におけるコントラストのばらつきを抑制する局所正規化処理、すなわち、画素値の分散が所定の閾値以上の領域に対してはその分散をある一定レベルに近づける輝度階調変換をし、画素値の分散がその所定の閾値を下回る領域に対してはその分散を上記一定レベルより低いレベルに抑える輝度階調変換をする局所的な正規化が施され、局所正規化済みの解像度画像S1′_iが得られる(ステップS3)。第1の顔検出部30は、第1のサブウィンドウ設定部31により、局所正規化済みの各解像度画像S1′_iにおいて、サブウィンドウWの設定により所定サイズの部分画像を順次切り出すとともに(ステップS4)、正面顔、右横顔および左横顔の判別器33から35を用いて、これら部分画像の各々に対して顔判別を行い、各解像度画像S1′_iについての顔候補S2をラフに検出する(ステップS5)。さらに、第2の顔検出部40は、ステップS5で抽出された顔候補S2の近傍画像に対して、第1の顔検出部30と同様に、サブウィンドウWの設定による部分画像の切り出し(ステップS6)、正面顔、右横顔、および左横顔の判別器43から45を用いて精査に相当する顔検出を行い、真の顔S3に絞り込む(ステップS7)。そして、各解像度画像S1′_iにおいて重複して検出された同一の顔を判定(ステップS8)し、これらをそれぞれ1つにまとめて最終的に検出された顔S3′とする。
FIG. 9 is a flowchart showing the flow of processing in the face detection system. As shown in FIG. 9, when the input image S0 is supplied to the multi-resolution conversion unit 10 (step S1), an image S1 in which the image size of the input image S0 is converted to a predetermined size is generated, and the image S1 is generated. A plurality of resolution images S <b> 1 </ b> _i whose resolution is reduced by 2 to 1/3 times are generated (step S <b> 2). Then, the
次に、判別器の学習方法について説明する。図10は、この判別器の学習方法を示すフローチャートである。なお、学習は、判別器の種類、すなわち、判別すべき顔の向き毎に行われる。 Next, a learning method for the classifier will be described. FIG. 10 is a flowchart showing a learning method of the classifier. Note that learning is performed for each type of classifier, that is, for each face orientation to be determined.
学習の対象となるサンプル画像群は、所定のサイズ、例えば32×32画素サイズで規格化された、顔であることが分かっている複数のサンプル画像と、顔でないことが分かっている複数のサンプル画像とからなる。顔であることが分かっているサンプル画像としては、顔の向きが判別器の判別すべき顔の向きと同一であって顔の天地方向が揃ったものを用いる。顔であることが分かっているサンプル画像は、1つのサンプル画像につき、縦および/または横を0.7倍から1.2倍の範囲にて0.1倍単位で段階的に拡縮して得られる各サンプル画像に対し、平面上±15度の範囲にて3度単位で段階的に回転させて得られる複数の変形バリエーションを用いる。なおこのとき、顔のサンプル画像は、目の位置が所定の位置に来るように顔のサイズと位置を規格化し、上記の平面上の回転、拡縮は目の位置を基準として行うようにする。例えば、d×dサイズの正面顔のサンプル画像の場合においては、図14に示すように、両目の位置が、サンプル画像の最左上の頂点と最右上の頂点から、それぞれ、内側に1/4d、下側に1/4d移動した各位置とに来るように顔のサイズと位置を規格化し、また、上記の平面上の回転、拡縮は、両目の中間点を中心に行うようにする。各サンプル画像には、重みすなわち重要度が割り当てられる。まず、すべてのサンプル画像の重みの初期値が等しく1に設定される(ステップS11)。 The sample image group to be learned is a plurality of sample images that are known to be faces and a plurality of samples that are known to be non-faces, standardized at a predetermined size, for example, 32 × 32 pixel size. It consists of an image. As a sample image that is known to be a face, an image in which the face orientation is the same as the face orientation to be discriminated by the discriminator and the face orientations are aligned is used. A sample image that is known to be a face is obtained by scaling in steps of 0.1 times in the range of 0.7 to 1.2 times in length and / or width for each sample image. For each sample image to be obtained, a plurality of deformation variations obtained by rotating stepwise in units of 3 degrees within a range of ± 15 degrees on a plane is used. At this time, the face sample image is standardized in size and position so that the eye position is at a predetermined position, and the above-described rotation and scaling on the plane are performed based on the eye position. For example, in the case of a d × d size front face sample image, as shown in FIG. 14, the positions of both eyes are 1/4 d inward from the upper left vertex and the upper right vertex of the sample image, respectively. The face size and position are normalized so as to come to each position moved 1 / 4d downward, and the above-mentioned rotation and scaling on the plane are performed around the middle point of both eyes. Each sample image is assigned a weight or importance. First, the initial value of the weight of all the sample images is set equal to 1 (step S11).
次に、サンプル画像およびその縮小画像の平面内に設定される所定の2点を1ペアとして複数のペアからなるペア群を複数種類設定したときの、この複数種類のペア群のそれぞれについて弱半別器が作成される(ステップS12)。ここで、それぞれの弱判別器とは、サブウィンドウWで切り出された部分画像とその縮小画像の平面内に設定される所定の2点を1ペアとして複数のペアからなる1つのペア群を設定したときの、この1つのペア群を構成する各ペアにおける2点間の画素値(輝度)の差分値の組合せを用いて、顔の画像と顔でない画像とを判別する基準を提供するものである。本実施形態においては、1つのペア群を構成する各ペアにおける2点間の画素値の差分値の組合せについてのヒストグラムを弱判別器のスコアテーブルの基礎として使用する。 Next, when a plurality of pairs of groups consisting of a plurality of pairs are set with a predetermined two points set in the plane of the sample image and the reduced image as one pair, each of the plurality of types of pairs is weak. A separate device is created (step S12). Here, each weak discriminator sets one pair group consisting of a plurality of pairs with a predetermined two points set in the plane of the partial image cut out in the sub-window W and the reduced image as one pair. This provides a reference for discriminating between a face image and a non-face image using a combination of difference values of pixel values (luminance) between two points in each pair constituting this one pair group. . In the present embodiment, a histogram for a combination of pixel value difference values between two points in each pair constituting one pair group is used as the basis of the score table of the weak classifier.
図11を参照しながらある判別器の作成について説明する。図11の左側のサンプル画像に示すように、この判別器を作成するためのペア群を構成する各ペアの2点は、顔であることが分かっている複数のサンプル画像において、サンプル画像上の右目の中心にある点をP1、右側の頬の部分にある点をP2、眉間の部分にある点をP3、サンプル画像を4近傍画素平均で縮小した16×16画素サイズの縮小画像上の右目の中心にある点をP4、右側の頬の部分にある点をP5、さらに4近傍画素平均で縮小した8×8画素サイズの縮小画像上の額の部分にある点をP6、口の部分にある点をP7として、P1−P2、P1−P3、P4−P5、P4−P6、P6−P7の5ペアである。なお、ある判別器を作成するための1つのペア群を構成する各ペアの2点の座標位置はすべてのサンプル画像において同一である。そして顔であることが分かっているすべてのサンプル画像について上記5ペアを構成する各ペアの2点間の画素値の差分値の組合せが求められ、そのヒストグラムが作成される。ここで、画素値の差分値の組合せとしてとり得る値は、画像の輝度階調数に依存するが、仮に16ビット階調である場合には、1つの画素値の差分値につき65536通りあり、全体では階調数の(ペア数)乗、すなわち65536の5乗通りとなってしまい、学習および検出のために多大なサンプルの数、時間およびメモリを要することとなる。このため、本実施形態においては、画素値の差分値を適当な数値幅で区切って量子化し、n値化する(例えばn=100)。 The creation of a classifier will be described with reference to FIG. As shown in the sample image on the left side of FIG. 11, two points of each pair constituting the pair group for creating this discriminator are a plurality of sample images that are known to be faces. The right eye on the reduced image of 16 × 16 pixel size in which the point in the center of the right eye is P1, the point in the right cheek part is P2, the point in the part between the eyebrows is P3, and the sample image is reduced by an average of four neighboring pixels The point at the center of P4, the point at the cheek on the right side is P5, and the point at the forehead part on the reduced image of 8 × 8 pixel size reduced by the average of 4 neighboring pixels is P6, the mouth part A certain point is P7, and there are five pairs of P1-P2, P1-P3, P4-P5, P4-P6, and P6-P7. Note that the coordinate positions of the two points of each pair constituting one pair group for creating a certain classifier are the same in all sample images. For all sample images that are known to be faces, combinations of pixel value difference values between two points of each of the five pairs are obtained, and a histogram thereof is created. Here, the value that can be taken as a combination of the difference values of the pixel values depends on the number of luminance gradations of the image, but if it is a 16-bit gradation, there are 65536 different values for the difference value of one pixel value, As a whole, the number of gradations is (the number of pairs), that is, 65536 to the fifth power, and a large number of samples, time, and memory are required for learning and detection. For this reason, in the present embodiment, the difference value of the pixel value is divided by an appropriate numerical value width and quantized to be n-valued (for example, n = 100).
これにより、画素値の差分値の組合せの数はnの5乗通りとなるため、画素値の差分値の組合せを表すデータ数を低減できる。 As a result, the number of combinations of difference values of pixel values is n to the fifth power, so that the number of data representing combinations of difference values of pixel values can be reduced.
同様に、顔でないことが分かっている複数のサンプル画像についても、ヒストグラムが作成される。なお、顔でないことが分かっているサンプル画像については、顔であることが分かっているサンプル画像上における上記各ペアの所定の2点の位置に対応する位置(同様に参照符号P1からP7を用いる)が用いられる。これらの2つのヒストグラムが示す頻度値の比の対数値を取ってヒストグラムで表したものが、図11の一番右側に示す、弱判別器のスコアテーブルの基礎として用いられるヒストグラムである。この弱判別器のヒストグラムが示す各縦軸の値を、以下、判別ポイントと称する。この弱判別器によれば、正の判別ポイントに対応する、画素値の差分値の組合せの分布を示す画像は顔である可能性が高く、判別ポイントの絶対値が大きいほどその可能性は高まると言える。逆に、負の判別ポイントに対応する画素値の差分値の組合せの分布を示す画像は顔でない可能性が高く、やはり判別ポイントの絶対値が大きいほどその可能性は高まる。ステップS12では、判別に使用され得る複数種類のペア群を構成する各ペアの所定の2点間の画素値の差分値の組合せについて、上記のヒストグラム形式の複数の弱判別器が作成される。 Similarly, histograms are created for a plurality of sample images that are known not to be faces. For sample images that are known not to be faces, positions corresponding to the positions of the two predetermined points of each pair on the sample image that is known to be a face (similarly, reference numerals P1 to P7 are used). ) Is used. A histogram obtained by taking the logarithm of the ratio of the frequency values indicated by these two histograms and representing the histogram is the histogram used as the basis of the score table of the weak discriminator shown on the rightmost side of FIG. The value of each vertical axis indicated by the histogram of the weak classifier is hereinafter referred to as a discrimination point. According to this weak discriminator, an image showing the distribution of combinations of pixel value difference values corresponding to positive discrimination points is highly likely to be a face, and the possibility increases as the absolute value of the discrimination point increases. It can be said. Conversely, an image showing a distribution of combinations of difference values of pixel values corresponding to negative discrimination points is highly likely not to be a face, and the possibility increases as the absolute value of the discrimination point increases. In step S12, a plurality of weak discriminators in the above-described histogram format are created for combinations of pixel value difference values between two predetermined points of each pair constituting a plurality of types of pair groups that can be used for discrimination.
続いて、ステップS12で作成した複数の弱半別器のうち、画像が顔であるか否かを判別するのに最も有効な弱判別器が選択される。最も有効な弱判別器の選択は、各サンプル画像の重みを考慮して行われる。この例では、各弱判別器の重み付き正答率が比較され、最も高い重み付き正答率を示す弱判別器が選択される(ステップS13)。すなわち、最初のステップS13では、各サンプル画像の重みは等しく1であるので、単純にその弱判別器によって画像が顔であるか否かが正しく判別されるサンプル画像の数が最も多いものが、最も有効な弱判別器として選択される。一方、後述するステップS15において各サンプル画像の重みが更新された後の2回目のステップS13では、重みが1のサンプル画像、重みが1よりも大きいサンプル画像、および重みが1よりも小さいサンプル画像が混在しており、重みが1よりも大きいサンプル画像は、正答率の評価において、重みが1のサンプル画像よりも重みが大きい分多くカウントされる。これにより、2回目以降のステップS13では、重みが小さいサンプル画像よりも、重みが大きいサンプル画像が正しく判別されることに、より重点が置かれる。 Subsequently, the most effective weak discriminator for discriminating whether or not the image is a face is selected from the plurality of weak semi-divided devices created in step S12. The most effective weak classifier is selected in consideration of the weight of each sample image. In this example, the weighted correct answer rates of the weak classifiers are compared, and the weak classifier showing the highest weighted correct answer rate is selected (step S13). That is, in the first step S13, since the weight of each sample image is equal to 1, the one with the largest number of sample images for which it is simply determined correctly whether or not the image is a face by the weak classifier is as follows: Selected as the most effective weak classifier. On the other hand, in the second step S13 after the weight of each sample image is updated in step S15, which will be described later, a sample image with a weight of 1, a sample image with a weight greater than 1, and a sample image with a weight less than 1 The sample images having a weight greater than 1 are counted more in the evaluation of the correct answer rate because the weight is larger than the sample images having a weight of 1. Thereby, in step S13 after the second time, more emphasis is placed on correctly identifying a sample image having a large weight than a sample image having a small weight.
次に、それまでに選択した弱判別器の組合せの正答率、すなわち、それまでに選択した弱判別器を組み合わせて使用して(学習段階では、弱判別器は必ずしも線形に結合させる必要はない)各サンプル画像が顔の画像であるか否かを判別した結果が、実際に顔の画像であるか否かの答えと一致する率が、所定の閾値を超えたか否かが確かめられる(ステップS14)。ここで、弱判別器の組合せの正答率の評価に用いられるのは、現在の重みが付けられたサンプル画像群でも、重みが等しくされたサンプル画像群でもよい。所定の閾値を超えた場合は、それまでに選択した弱判別器を用いれば画像が顔であるか否かを十分に高い確率で判別できるため、学習は終了する。所定の閾値以下である場合は、それまでに選択した弱判別器と組み合わせて用いるための追加の弱判別器を選択するために、ステップS16へと進む。 Next, the correct answer rate of the combination of weak classifiers selected so far, that is, using the weak classifiers selected so far in combination (in the learning stage, the weak classifiers do not necessarily need to be linearly combined. ) It is ascertained whether the result of determining whether or not each sample image is a face image has exceeded a predetermined threshold value at a rate that matches the answer of whether or not it is actually a face image (step) S14). Here, the current weighted sample image group or the sample image group with equal weight may be used for evaluating the correct answer rate of the combination of weak classifiers. When the predetermined threshold value is exceeded, learning is terminated because it is possible to determine whether the image is a face with a sufficiently high probability by using the weak classifier selected so far. If it is equal to or less than the predetermined threshold value, the process proceeds to step S16 in order to select an additional weak classifier to be used in combination with the weak classifier selected so far.
ステップS16では、直近のステップS13で選択された弱判別器が再び選択されないようにするため、その弱判別器が除外される。 In step S16, the weak discriminator selected in the most recent step S13 is excluded so as not to be selected again.
次に、直近のステップS13で選択された弱判別器では顔であるか否かを正しく判別できなかったサンプル画像の重みが大きくされ、画像が顔であるか否かを正しく判別できたサンプル画像の重みが小さくされる(ステップS15)。このように重みを大小させる理由は、次の弱判別器の選択において、既に選択された弱判別器では正しく判別できなかった画像を重要視し、それらの画像が顔であるか否かを正しく判別できる弱判別器が選択されるようにして、弱判別器の組合せの効果を高めるためである。 Next, the weight of the sample image that could not be correctly determined whether or not it is a face in the weak classifier selected in the most recent step S13 is increased, and the sample image that can be correctly determined whether or not the image is a face. Is reduced (step S15). The reason for increasing or decreasing the weight in this way is that in the selection of the next weak classifier, importance is placed on images that could not be correctly determined by the already selected weak classifier, and whether or not those images are faces is correct. This is because a weak discriminator that can be discriminated is selected to enhance the effect of the combination of the weak discriminators.
続いて、ステップS13へと戻り、上記したように重み付き正答率を基準にして次に有効な弱判別器が選択される。 Subsequently, the process returns to step S13, and the next effective weak classifier is selected based on the weighted correct answer rate as described above.
以上のステップS13からS16を繰り返して、顔であるか否かを判別するのに適した弱判別器として、特定のペア群を構成する各ペアの所定の2点間の画素値の差分値の組合せに対応する弱判別器が選択されたところで、ステップS14で確認される正答率が閾値を超えたとすると、顔であるか否かの判別に用いる弱判別器の種類と判別条件とが確定され(ステップS17)、これにより学習を終了する。なお、選択された弱判別器は、その重み付き正答率が高い順に線形結合され、1つの判別器が構成される。また、各弱判別器については、それぞれ得られたヒストグラムを基に、画素値の差分値の組合せに応じてスコアを算出するためのスコアテーブルが生成される。なお、ヒストグラム自身をスコアテーブルとして用いることもでき、この場合、ヒストグラムの判別ポイントがそのままスコアとなる。 As a weak discriminator suitable for discriminating whether or not a face is repeated by repeating the above steps S13 to S16, the difference value of the pixel value between two predetermined points of each pair constituting a specific pair group If the weak discriminator corresponding to the combination is selected and the correct answer rate confirmed in step S14 exceeds the threshold value, the type of the weak discriminator used for determining whether or not it is a face and the determination condition are determined. (Step S17), thereby completing the learning. The selected weak classifiers are linearly combined in descending order of the weighted correct answer rate to constitute one classifier. For each weak classifier, a score table for calculating a score according to a combination of pixel value difference values is generated based on the obtained histogram. Note that the histogram itself can also be used as a score table. In this case, the discrimination point of the histogram is directly used as a score.
なお、上記の学習手法を採用する場合において、弱判別器は、特定のペア群を構成する各ペアの所定の2点間の画素値の差分値の組合せを用いて顔の画像と顔でない画像とを判別する基準を提供するものであれば、上記のヒストグラムの形式のものに限られずいかなるものであってもよく、例えば2値データ、閾値または関数等であってもよい。また、同じヒストグラムの形式であっても、図11の中央に示した2つのヒストグラムの差分値の分布を示すヒストグラム等を用いてもよい。 In the case of adopting the above learning method, the weak classifier uses a combination of difference values of pixel values between two predetermined points of each pair constituting a specific pair group, and a face image and a non-face image. Is not limited to the above-described histogram format, and may be anything, for example, binary data, a threshold value, a function, or the like. Further, even in the same histogram format, a histogram or the like indicating the distribution of difference values between the two histograms shown in the center of FIG. 11 may be used.
また、学習の方法としては上記手法に限定されるものではなく、ニューラルネットワーク等他のマシンラーニングの手法を用いることができる。 Further, the learning method is not limited to the above method, and other machine learning methods such as a neural network can be used.
ここで、上記の局所正規化部20による局所正規化処理における局所領域の最適な大きさについて考えてみることにする。
Here, the optimum size of the local region in the local normalization process by the
この局所正規化処理は、上述の通り、サブウィンドウWで切り出された部分画像において局所的なコントラストのばらつきを抑制する処理であり、具体的には、部分画像における各画素を注目画素として順次設定するとともに、その注目画素毎に、この注目画素を中心とする所定の大きさの局所領域における輝度を表す画素値の分散を算出し、この分散が所定の基準値より大きいほど注目画素の画素値とその局所領域における画素値の平均値(他の統計学上の代表値でもよい)との差を小さくし、この分散が上記基準値より小さいほど注目画素の画素値とその局所領域における画素値の平均値との差を大きくする階調変換を行う正規化処理である。 As described above, the local normalization process is a process for suppressing local contrast variation in the partial image cut out in the sub-window W. Specifically, each pixel in the partial image is sequentially set as a target pixel. In addition, for each target pixel, a variance of pixel values representing luminance in a local region having a predetermined size centered on the target pixel is calculated, and the pixel value of the target pixel is calculated as the variance is larger than a predetermined reference value. The difference between the average value of pixel values in the local region (which may be other statistical representative values) is reduced, and the pixel value of the pixel of interest and the pixel value of the local region become smaller as the variance is smaller than the reference value. This is a normalization process that performs gradation conversion that increases the difference from the average value.
このような局所正規化処理においては、この局所領域のサイズによってコントラストのばらつきをどの程度局所的に抑制するかが決まるわけであるが、一般的には、局所領域のサイズが大きいほど、輝度のばらつきを抑えることができる一方細かいコントラストの変動を抑制し難くなり、局所領域のサイズが小さいほど、細かいコントラストの変動を抑制しやすくなる一方輝度がばらつく傾向にある。また、その局所領域内に顔を構成する複数種類の部位の全部または一部が同時に入り込むような場合、例えば、その局所領域内に目を中心として鼻の一部等が入り込むような場合には、上記画素値の分散がその鼻の部分の画素値やその鼻の部分が局所領域に対して占める割合等に敏感に反応し、その中心に位置する目の部分の画素値が不自然にばらつく場合があるが、このように顔を構成する所定の部位における画素値が不自然にばらつくと、その判別対象画像上の輝度分布に係る特徴量について顔画像らしさが適正に反映されず、判別精度が低下するという問題がある。 In such a local normalization process, the local region size determines how much the variation in contrast is locally suppressed, but in general, the larger the local region size, the higher the luminance. While variation can be suppressed, it becomes difficult to suppress fine contrast fluctuations, and as the size of the local region is smaller, fine contrast fluctuations are more likely to be suppressed, while brightness tends to vary. Also, when all or some of the multiple types of parts constituting the face enter the local area at the same time, for example, when a part of the nose enters the local area centering on the eyes The dispersion of the pixel values is sensitive to the pixel value of the nose portion and the ratio of the nose portion to the local region, and the pixel value of the eye portion located at the center varies unnaturally. In some cases, however, if the pixel values in a predetermined part constituting the face vary unnaturally in this way, the feature value related to the luminance distribution on the discrimination target image is not properly reflected and the discrimination accuracy is not accurately reflected. There is a problem that decreases.
したがって、上記の局所正規化処理の特性や問題点を考慮すると、上記局所領域の適切なサイズは、この局所正規化処理が顔判別処理の前処理であることに照らして、抑制可能なコントラストの変動の程度と輝度のばらつく程度とのバランスがよく、かつ、顔を構成する各部位間の距離に鑑みて顔を構成する複数種類の部位が同時に入り込まない程度の大きさということになる。このような要件を満足する局所領域としては、例えば、図15に示すような、顔の特徴を表す顔の構成部位の中で最も小さい「目」を基準として経験的に他の部位が入り込まない程度の大きさである、判別器が判別すべき顔の目が1つのみ含まれる大きさの領域とすることができる。なお、判別器が判別すべき顔の目の大きさは、その学習に用いた顔を表すサンプル画像における顔の目の大きさが基準となることから、この局所領域は、この領域の長手方向の幅を、判別器の学習に用いた顔を表すサンプル画像における目の長手方向の幅の平均値の1.1から1.8倍の間の長さとする領域とすることもできる。本実施形態における局所正規化部20による局所正規化処理における局所領域のサイズ、すなわち11×11画素サイズは、上記のような観点から設定されたサイズの一例である。
Therefore, in consideration of the characteristics and problems of the local normalization process, the appropriate size of the local region has a contrast that can be suppressed in light of the fact that the local normalization process is a pre-process of the face discrimination process. The balance between the degree of variation and the variation in luminance is good, and the size is such that a plurality of types of parts constituting the face do not enter at the same time in view of the distance between the parts constituting the face. As a local region satisfying such requirements, for example, as shown in FIG. 15, other parts do not enter empirically based on the smallest “eye” among the constituent parts of the face representing facial features. An area having a size that includes only one face eye to be discriminated by the discriminator can be obtained. Note that the size of the face eye to be discriminated by the discriminator is based on the size of the face eye in the sample image representing the face used for the learning, so this local region is the longitudinal direction of this region. Can be a region having a length between 1.1 and 1.8 times the average value of the width in the longitudinal direction of the eyes in the sample image representing the face used for learning of the discriminator. The size of the local region in the local normalization process by the
このように、本実施形態による顔判別方法および装置によれば、判別対象画像のコントラストのばらつきを抑えるべく、判別対象画像に対して、当該判別対象画像における各局所領域について画素値の分散の程度が所定レベルに近づくように画素値の階調変換を行う正規化処理を施すものとし、その局所領域を、判別すべき顔の目が1つのみ含まれる大きさの領域と規定しているので、顔であることを特徴付ける目や鼻等の顔の構成部品内でのコントラストの変化を抑えつつ、顔への重畳物、斜光、顔以外の背景による濃淡のばらつき等による影響を受け難い安定した正規化を行うことができる。これにより、判別対象画像上の輝度分布に係る特徴量について顔画像らしさを適正に反映させることができ、判別精度の低下を抑制することが可能となる。 As described above, according to the face discrimination method and apparatus according to the present embodiment, the degree of dispersion of pixel values for each local region in the discrimination target image with respect to the discrimination target image in order to suppress the variation in contrast of the discrimination target image. Normalization processing is performed to perform gradation conversion of pixel values so as to approach a predetermined level, and the local area is defined as an area having a size that includes only one face eye to be discriminated. Suppresses changes in contrast in facial components such as the eyes and nose that characterize the face, and is stable and less affected by superimposition on the face, oblique light, and variations in shade due to background other than the face Normalization can be performed. As a result, it is possible to appropriately reflect the likelihood of a face image with respect to the feature amount related to the luminance distribution on the discrimination target image, and it is possible to suppress a reduction in discrimination accuracy.
以上、本発明の実施形態に係る顔判別方法および装置について説明したが、上記顔判別装置(局所正規化部と判別器)における各処理をコンピュータに実行させるためのプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取可能な記録媒体も、本発明の実施形態の1つである。 Although the face discrimination method and apparatus according to the embodiment of the present invention has been described above, a program for causing a computer to execute each process in the face discrimination apparatus (local normalization unit and discriminator) is also an embodiment of the present invention. It is one of. A computer-readable recording medium that records such a program is also one embodiment of the present invention.
1 顔検出システム
10 多重解像度化部
20 局所正規化部(正規化手段)
30 第1の顔検出部
31 第1のサブウィンドウ設定部
33 第1の正面顔判別器(顔判別手段)
34 第1の左横顔判別器(顔判別手段)
35 第1の右横顔判別器(顔判別手段)
40 第2の顔検出部
41 第2のサブウィンドウ設定部
43 第2の正面顔判別器(顔判別手段)
44 第2の左横顔判別器(顔判別手段)
45 第2の右横顔判別器(顔判別手段)
50 重複検出判定部
DESCRIPTION OF
30 1st
34 First left side face classifier (face discrimination means)
35 First right side face classifier (face discrimination means)
40 Second
44 Second left side face classifier (face discrimination means)
45 Second right side face classifier (face discrimination means)
50 Duplicate detection judgment part
Claims (5)
前記正規化処理が施された判別対象画像の輝度分布に係る少なくとも1つの特徴量を算出し、該特徴量を用いて前記判別対象画像が顔画像であるか否かを判別する顔判別ステップとを有する顔判別方法であって、
前記局所領域が、前記顔判別手段が判別すべき顔の目を1つのみ含む大きさの領域であることを特徴とする顔判別方法。 A normalization process for performing luminance gradation conversion on a discrimination target image that is a target for discriminating whether or not it is a face image, so that the degree of dispersion of pixel values representing luminance for each local region in the image approaches a predetermined level Normalizing step for suppressing variation in contrast in the discrimination target image by applying
A face determination step of calculating at least one feature amount relating to a luminance distribution of the determination target image subjected to the normalization process, and determining whether the determination target image is a face image using the feature amount; A face discrimination method comprising:
The face discrimination method, wherein the local area is an area having a size including only one face eye to be discriminated by the face discrimination means.
前記正規化処理が施された判別対象画像の輝度分布に係る少なくとも1つの特徴量を算出し、該特徴量を用いて前記判別対象画像が顔画像であるか否かを判別する顔判別手段とを備えた顔判別装置であって、
前記局所領域が、前記顔判別手段が判別すべき顔の目を1つのみ含む大きさの領域であることを特徴とする顔判別装置。 A normalization process for performing luminance gradation conversion on a discrimination target image that is a target for discriminating whether or not it is a face image, so that the degree of dispersion of pixel values representing luminance for each local region in the image approaches a predetermined level Normalizing means for suppressing variation in contrast in the discrimination target image by applying
Face discriminating means for calculating at least one feature amount relating to a luminance distribution of the discrimination target image subjected to the normalization processing and discriminating whether or not the discrimination target image is a face image using the feature amount; A face discrimination device comprising:
The face discrimination apparatus characterized in that the local area is an area having a size including only one face eye to be discriminated by the face discrimination means.
前記局所領域が、該領域の長手方向の幅を、前記学習用顔画像における目の長手方向の幅の平均値の1.1から1.8倍の間の長さとする領域であることを特徴とする請求項2または3記載の顔判別装置。 The face discriminating means learns the features of the face pattern using a plurality of different learning face images having the same face orientation as the face orientation to be discriminated and having the same face orientation. Is,
The local region is a region in which the longitudinal width of the region is a length between 1.1 and 1.8 times the average value of the longitudinal width of the eyes in the learning face image. The face discrimination device according to claim 2 or 3.
顔画像であるか否かを判別する対象となる判別対象画像に対して、該画像における各局所領域について輝度を表す画素値の分散の程度を所定レベルに近づける輝度階調変換を行う正規化処理を施すことにより、前記判別対象画像におけるコントラストのばらつきを抑制する正規化手段と、
前記正規化処理が施された判別対象画像の輝度分布に係る少なくとも1つの特徴量を算出し、該特徴量を用いて前記判別対象画像が顔画像であるか否かを判別する顔判別手段として機能させるためのプログラムであって、
前記局所領域が、前記顔判別手段が判別すべき顔の目を1つのみ含む大きさの領域であることを特徴とするプログラム。 Computer
A normalization process for performing luminance gradation conversion on a discrimination target image that is a target for discriminating whether or not it is a face image, so that the degree of dispersion of pixel values representing luminance for each local region in the image approaches a predetermined level Normalizing means for suppressing variation in contrast in the discrimination target image by applying
As face discrimination means for calculating at least one feature amount related to the luminance distribution of the discrimination target image subjected to the normalization process and discriminating whether the discrimination target image is a face image or not using the feature amount. A program for functioning,
The program according to claim 1, wherein the local area is an area having a size including only one eye of the face to be discriminated by the face discrimination means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006029176A JP4749879B2 (en) | 2005-03-31 | 2006-02-07 | Face discrimination method, apparatus, and program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005103780 | 2005-03-31 | ||
JP2005103780 | 2005-03-31 | ||
JP2006029176A JP4749879B2 (en) | 2005-03-31 | 2006-02-07 | Face discrimination method, apparatus, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006309714A true JP2006309714A (en) | 2006-11-09 |
JP4749879B2 JP4749879B2 (en) | 2011-08-17 |
Family
ID=37476483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006029176A Expired - Fee Related JP4749879B2 (en) | 2005-03-31 | 2006-02-07 | Face discrimination method, apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4749879B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008158776A (en) * | 2006-12-22 | 2008-07-10 | Canon Inc | Feature detection method and device, program, and storage medium |
WO2008139781A1 (en) * | 2007-05-09 | 2008-11-20 | Mitsubishi Electric Corporation | Face detection apparatus and face detection program |
JP2012103815A (en) * | 2010-11-08 | 2012-05-31 | National Institute Of Advanced Industrial & Technology | Image processing method, image processing program, computer readable storage medium storing the program and image processing device |
CN110084258A (en) * | 2018-02-12 | 2019-08-02 | 成都视观天下科技有限公司 | Face preferred method, equipment and storage medium based on video human face identification |
CN115619410A (en) * | 2022-10-19 | 2023-01-17 | 闫雪 | Self-adaptive financial payment platform |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11306348A (en) * | 1998-04-21 | 1999-11-05 | Toshiba Tec Corp | Method and device for object detection |
JP2002216124A (en) * | 2001-01-17 | 2002-08-02 | Kitakiyuushiyuu Techno Center:Kk | Converting method of image contrast by mobile normalization method |
JP2003036439A (en) * | 2001-07-23 | 2003-02-07 | Minolta Co Ltd | Device, method and program for extracting image |
-
2006
- 2006-02-07 JP JP2006029176A patent/JP4749879B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11306348A (en) * | 1998-04-21 | 1999-11-05 | Toshiba Tec Corp | Method and device for object detection |
JP2002216124A (en) * | 2001-01-17 | 2002-08-02 | Kitakiyuushiyuu Techno Center:Kk | Converting method of image contrast by mobile normalization method |
JP2003036439A (en) * | 2001-07-23 | 2003-02-07 | Minolta Co Ltd | Device, method and program for extracting image |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008158776A (en) * | 2006-12-22 | 2008-07-10 | Canon Inc | Feature detection method and device, program, and storage medium |
WO2008139781A1 (en) * | 2007-05-09 | 2008-11-20 | Mitsubishi Electric Corporation | Face detection apparatus and face detection program |
JPWO2008139781A1 (en) * | 2007-05-09 | 2010-07-29 | 三菱電機株式会社 | Face detection device and face detection program |
JP4555396B2 (en) * | 2007-05-09 | 2010-09-29 | 三菱電機株式会社 | Face detection device and face detection program |
JP2012103815A (en) * | 2010-11-08 | 2012-05-31 | National Institute Of Advanced Industrial & Technology | Image processing method, image processing program, computer readable storage medium storing the program and image processing device |
CN110084258A (en) * | 2018-02-12 | 2019-08-02 | 成都视观天下科技有限公司 | Face preferred method, equipment and storage medium based on video human face identification |
CN115619410A (en) * | 2022-10-19 | 2023-01-17 | 闫雪 | Self-adaptive financial payment platform |
CN115619410B (en) * | 2022-10-19 | 2024-01-26 | 闫雪 | Self-adaptive financial payment platform |
Also Published As
Publication number | Publication date |
---|---|
JP4749879B2 (en) | 2011-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4744918B2 (en) | Face detection method, apparatus, and program | |
JP4657934B2 (en) | Face detection method, apparatus and program | |
JP4619927B2 (en) | Face detection method, apparatus and program | |
JP4628882B2 (en) | Classifier learning method, face discrimination method and apparatus, and program | |
US7801337B2 (en) | Face detection method, device and program | |
JP4708909B2 (en) | Method, apparatus and program for detecting object of digital image | |
US8155396B2 (en) | Method, apparatus, and program for detecting faces | |
JP4640825B2 (en) | Specific orientation face determination method, apparatus, and program | |
US7092554B2 (en) | Method for detecting eye and mouth positions in a digital image | |
US8605955B2 (en) | Methods and apparatuses for half-face detection | |
US8577099B2 (en) | Method, apparatus, and program for detecting facial characteristic points | |
US20070189609A1 (en) | Method, apparatus, and program for discriminating faces | |
JP4757598B2 (en) | Face detection method, apparatus, and program | |
JP2007102401A (en) | Face direction specification method, face discrimination method and device and program | |
US20060222217A1 (en) | Method, apparatus, and program for discriminating faces | |
JP4795864B2 (en) | Feature point detection apparatus and method, and program | |
JP4749879B2 (en) | Face discrimination method, apparatus, and program | |
JP2011170890A (en) | Face detecting method, face detection device, and program | |
JP4749884B2 (en) | Learning method of face discriminating apparatus, face discriminating method and apparatus, and program | |
JP4795737B2 (en) | Face detection method, apparatus, and program | |
JP2006244385A (en) | Face-discriminating apparatus, program and learning method for the apparatus | |
JP4749880B2 (en) | Face discrimination method, apparatus, and program | |
JP2007011935A (en) | Method and apparatus for discriminating face, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20061212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110401 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110518 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4749879 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140527 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |