Nothing Special   »   [go: up one dir, main page]

JP2006309714A - Face discrimination method and device, and program - Google Patents

Face discrimination method and device, and program Download PDF

Info

Publication number
JP2006309714A
JP2006309714A JP2006029176A JP2006029176A JP2006309714A JP 2006309714 A JP2006309714 A JP 2006309714A JP 2006029176 A JP2006029176 A JP 2006029176A JP 2006029176 A JP2006029176 A JP 2006029176A JP 2006309714 A JP2006309714 A JP 2006309714A
Authority
JP
Japan
Prior art keywords
face
image
discrimination
pixel
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006029176A
Other languages
Japanese (ja)
Other versions
JP4749879B2 (en
Inventor
Wataru Ito
渡 伊藤
Sadataka Akahori
貞登 赤堀
Kensuke Terakawa
賢祐 寺川
Yoshiro Kitamura
嘉郎 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2006029176A priority Critical patent/JP4749879B2/en
Publication of JP2006309714A publication Critical patent/JP2006309714A/en
Application granted granted Critical
Publication of JP4749879B2 publication Critical patent/JP4749879B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To suppress a discrimination accuracy reduction due to the effects of superposition on a face on an image, oblique lighting, density variations in the background other than the face, and the like, in the process of normalizing the contrast of the image and then discriminating whether or not the image is a face image according to a feature of brightness distribution on the image. <P>SOLUTION: The normalization process is the process of pixel value gradation conversion that approximates the degree of variance of pixel values to a predetermined level in each local region of a discrimination target image, and the local region is a region sized to include only one eye of a face to be discriminated. The normalization can be stabilized in which contrast changes are reduced in face components featuring the face, such as the eyes and nose, and the effect of density changes by components other than the face is reduced. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、対象画像が顔画像であるか否かを判別する顔判別方法および装置並びにそのためのプログラムに関するものである。   The present invention relates to a face discrimination method and apparatus for discriminating whether or not a target image is a face image, and a program therefor.

従来、デジタルカメラによって撮影されたスナップ写真における人物の顔領域の色分布を調べてその肌色を補正したり、監視システムのデジタルビデオカメラで撮影されたデジタル映像中の人物を認識したりすることが行われている。このような場合、デジタル画像中の人物の顔に対応する顔領域を検出する必要があり、このため、対象画像が顔を表す画像であるか否かを判別する種々の手法が提案されている。   Conventionally, the color distribution of a person's face area in a snapshot photographed by a digital camera is examined to correct the skin color, or a person in a digital image photographed by a digital video camera of a surveillance system is recognized. Has been done. In such a case, it is necessary to detect a face area corresponding to the face of a person in the digital image. For this reason, various methods for determining whether or not the target image is an image representing a face have been proposed. .

例えば、所定対象物を表す画像であることが分かっている複数のサンプル画像と、所定対象物を表す画像でないことが分かっている複数のサンプル画像とからなる多数のサンプル画像群のそれぞれから算出された特徴量を、マシンラーニングの手法によりあらかじめ学習することにより得られた、特徴量の入力により所定対象物を表す画像と所定対象物を表さない画像とを判別するための基準値を出力する複数の識別器を備え、この複数の識別器から出力された基準値の重み付け総和があらかじめ定めた閾値を超えた場合に、判別対象画像が所定対象物を表す画像であると判別する手法が本出願人により提案されている(特許文献1から3参照)。   For example, it is calculated from each of a number of sample image groups including a plurality of sample images known to be images representing a predetermined object and a plurality of sample images known to be images not representing the predetermined object. A reference value for discriminating between an image representing a predetermined object and an image not representing the predetermined object by inputting the feature amount, which is obtained by learning the obtained feature amount in advance by a machine learning method. This technique includes a plurality of discriminators, and discriminates that a discrimination target image is an image representing a predetermined target when a weighted sum of reference values output from the plurality of discriminators exceeds a predetermined threshold. It has been proposed by the applicant (see Patent Documents 1 to 3).

また、顔を表す画像であることが分かっている複数のサンプル画像と、顔を表す画像でないことが分かっている複数のサンプル画像とからなる多数のサンプル画像群のそれぞれから算出された特徴量を、マシンラーニングの手法によりあらかじめ学習することにより得られた、特徴量の入力により判別対象画像が顔を表す画像であるか否かを判別する複数の弱判別器を備え、これら複数の弱判別器を線形に結合してカスケード構造をなし、すべての弱判別器において顔を表す画像であると判別された場合に、判別対象画像が顔を表す画像であると判別する手法も提案されている(非特許文献1参照)。なお、これらの手法では、上記特徴量を判別対象画像の輝度分布に係る特徴量とし、この特徴量を用いて判別する場合が多い。   In addition, the feature amount calculated from each of a large number of sample images including a plurality of sample images known to be images representing a face and a plurality of sample images known to be images not representing a face is obtained. A plurality of weak discriminators, which are obtained by learning in advance by a machine learning method, and that determine whether or not the discrimination target image is an image representing a face by input of a feature amount. A method has also been proposed in which when a weakly classifier is identified as an image representing a face, the image to be identified is an image representing a face when the images are represented in a cascade structure. Non-patent document 1). In these methods, the feature amount is often used as a feature amount related to the luminance distribution of the discrimination target image, and discrimination is often performed using this feature amount.

ところで、判別対象画像の中には、デジタルカメラ等によって取得されたスナップ写真の画像やスキャナ等によって読み込まれた画像等が含まれるが、これらの画像では、その撮影シーンや撮影条件、ハード特性等の違いにより画像全体のコントラスト(明暗の度合)が変動し、常に一定とはならない。このような画像全体のコントラストが定まらない画像を対象に上記輝度分布に係る特徴量に基づく判別を行うと、その特徴量に顔画像らしさが適正に反映されない場合があり、判別の精度を低下させることとなる。   By the way, the discrimination target image includes a snapshot image acquired by a digital camera or the like, an image read by a scanner or the like. In these images, the shooting scene, shooting conditions, hardware characteristics, etc. The contrast (degree of lightness and darkness) of the entire image varies due to the difference between the two, and is not always constant. If discrimination based on the feature amount related to the luminance distribution is performed on an image in which the contrast of the whole image is not determined, the feature amount may not be properly reflected in the feature amount, and the discrimination accuracy is reduced. It will be.

そこで、顔判別を行う前処理として、判別対象画像のコントラストが判別に適したある一定のレベルとなるように、判別対象画像における画像全体の画素値の分散を算出し、その画像全体を当該分散に基づいて得られた同一のパラメータを用いて正規化する手法が知られている。
特願2003−316924号 特願2003−316925号 特願2003−316926号 「高速全方向顔検出」,Shihong LAO他,画像の認識・理解シンポジウム(MIRU2004),2004年7月,P.II-271−II-276
Therefore, as pre-processing for face discrimination, the variance of the pixel values of the entire image in the discrimination target image is calculated so that the contrast of the discrimination target image is at a certain level suitable for discrimination, and the entire image is There is known a method of normalizing using the same parameter obtained based on the above.
Japanese Patent Application No. 2003-316924 Japanese Patent Application No. 2003-316925 Japanese Patent Application No. 2003-316926 "High-speed omnidirectional face detection", Shihong LAO et al., Image Recognition and Understanding Symposium (MIRU2004), July 2004, P.II-271-II-276

しかしながら、上記のような、判別対象画像における画像全体の画素値の分散を算出し、その画像全体を当該分散に基づいて得られた同一のパラメータを用いて正規化する手法では、その判別対象画像が顔画像である場合に、顔以外のものによる画像上の濃度変化の影響を受けやすく正規化が不安定となる。例えば、その顔の一部に何か別のものが重畳していたり、照明の状況によって斜光(斜めから光が当たっている状態)が存在していたり、あるいは、顔以外の背景の状況によって濃淡にばらつきが生じていたりすると、画像全体の画素値の分散がこれらの影響を受け、本来意図した正規化がなされない場合がある。このような正規化が施された画像に対して上記輝度分布に係る特徴量に基づく判別を行うと、その特徴量に顔画像らしさが適正に反映されない場合があり、判別の精度を低下させることとなる。   However, in the method for calculating the variance of the pixel values of the entire image in the discrimination target image as described above and normalizing the entire image using the same parameter obtained based on the variance, the discrimination target image Is a face image, normalization tends to be unstable due to the influence of density changes on the image caused by other than the face. For example, something else is superimposed on a part of the face, there is oblique light depending on the lighting condition (light is shining from the diagonal), or the lightness is shaded depending on the background condition other than the face If there is a variation, the dispersion of the pixel values of the entire image is affected by these, and normalization may not be performed as intended. If discrimination based on the feature amount related to the luminance distribution is performed on the image subjected to such normalization, the feature amount may not be properly reflected in the feature amount, and the discrimination accuracy is reduced. It becomes.

本発明は、上記事情に鑑み、顔判別の精度の低下を抑制することが可能な顔判別方法および装置並びにそのためのプログラムを提供することを目的とするものである。   In view of the above circumstances, an object of the present invention is to provide a face discrimination method and apparatus capable of suppressing a reduction in face discrimination accuracy, and a program therefor.

本発明の顔判別方法は、顔画像であるか否かを判別する対象となる判別対象画像に対して、該画像における各局所領域について輝度を表す画素値の分散の程度を所定レベルに近づける輝度階調変換を行う正規化処理を施すことにより、前記判別対象画像におけるコントラストのばらつきを抑制する正規化ステップと、前記正規化処理が施された判別対象画像の輝度分布に係る少なくとも1つの特徴量を算出し、該特徴量を用いて前記判別対象画像が顔画像であるか否かを判別する顔判別ステップとを有する顔判別方法であって、前記局所領域が、前記顔判別手段が判別すべき顔の目を1つのみ含む大きさの領域であることを特徴とする方法である。   The face discrimination method of the present invention is a brightness that brings the degree of dispersion of pixel values representing brightness for each local region in the image closer to a predetermined level with respect to the discrimination target image that is a target for determining whether or not it is a face image. A normalization step that suppresses variations in contrast in the discrimination target image by performing a normalization process that performs gradation conversion; and at least one feature amount relating to a luminance distribution of the discrimination target image that has undergone the normalization process And a face discrimination step for discriminating whether or not the discrimination target image is a face image using the feature quantity, wherein the face discrimination means discriminates the local region. This is a method characterized in that it is a region having a size including only one eye of a power face.

本発明の顔判別装置は、顔画像であるか否かを判別する対象となる判別対象画像に対して、該画像における各局所領域について輝度を表す画素値の分散の程度を所定レベルに近づける輝度階調変換を行う正規化処理を施すことにより、前記判別対象画像におけるコントラストのばらつきを抑制する正規化手段と、前記正規化処理が施された判別対象画像の輝度分布に係る少なくとも1つの特徴量を算出し、該特徴量を用いて前記判別対象画像が顔画像であるか否かを判別する顔判別手段とを備えた顔判別装置であって、前記局所領域が、前記顔判別手段が判別すべき顔の目を1つのみ含む大きさの領域であることを特徴とするものである。   The face discriminating apparatus according to the present invention is a luminance that brings the degree of dispersion of pixel values representing the luminance close to a predetermined level for each local region in a discrimination target image to be discriminated as a face image. A normalizing unit that suppresses variation in contrast in the discrimination target image by performing a normalization process that performs gradation conversion; and at least one feature amount related to a luminance distribution of the discrimination target image that has been subjected to the normalization process And a face discriminating device that discriminates whether or not the discrimination target image is a face image using the feature amount, wherein the face discrimination unit discriminates the local region. It is a region having a size including only one face eye to be.

本発明のプログラムは、コンピュータを、顔画像であるか否かを判別する対象となる判別対象画像に対して、該画像における各局所領域について輝度を表す画素値の分散の程度を所定レベルに近づける輝度階調変換を行う正規化処理を施すことにより、前記判別対象画像におけるコントラストのばらつきを抑制する正規化手段と、前記正規化処理が施された判別対象画像の輝度分布に係る少なくとも1つの特徴量を算出し、該特徴量を用いて前記判別対象画像が顔画像であるか否かを判別する顔判別手段として機能させるためのプログラムであって、前記局所領域が、前記顔判別手段が判別すべき顔の目を1つのみ含む大きさの領域であることを特徴とするものである。   The program according to the present invention causes the computer to bring the degree of dispersion of pixel values representing luminance in a local area in the image closer to a predetermined level with respect to a determination target image that is a target for determining whether the image is a face image. By performing a normalization process for performing luminance gradation conversion, normalization means for suppressing variations in contrast in the discrimination target image, and at least one feature relating to the luminance distribution of the discrimination target image subjected to the normalization process A program for calculating a quantity and functioning as a face discrimination means for judging whether or not the discrimination target image is a face image using the feature quantity, wherein the face discrimination means discriminates the local region It is a region having a size including only one face eye to be.

本発明において、前記正規化処理は、前記判別対象画像における各画素を注目画素として順次設定するとともに、前記注目画素毎に、該注目画素を代表とする所定の大きさの局所領域における画素値の分散を算出し、該分散が前記所定レベルに対応する基準値より大きいほど、前記注目画素の画素値と該注目画素を代表とする前記局所領域における画素値の統計学上の所定の代表値との差を小さくし、該分散が前記基準値より小さいほど、前記注目画素の画素値と前記所定の代表値との差を大きくする階調変換を行う処理とすることができる。   In the present invention, the normalization processing sequentially sets each pixel in the discrimination target image as a target pixel, and for each target pixel, the pixel value in a local region having a predetermined size represented by the target pixel. The variance is calculated, and as the variance is larger than the reference value corresponding to the predetermined level, the pixel value of the target pixel and the predetermined representative value in the statistical value of the pixel value in the local region represented by the target pixel And the gradation conversion for increasing the difference between the pixel value of the target pixel and the predetermined representative value as the variance is smaller than the reference value.

本発明の顔判別方法において、前記顔判別ステップは、顔の向きが判別すべき顔の向きと同一であって顔の天地方向が揃った互いに異なる複数の学習用顔画像の各々を入力され、その判別の正否結果に基づいて、顔のパターンの特徴を学習してなる顔判別手段における処理を行うステップであり、前記局所領域は、該領域の長手方向の幅を、前記学習用顔画像における目の長手方向の幅の平均値の1.1から1.8倍の間の長さとする領域とすることができる。また、本発明の顔判別装置およびプログラムにおいて、前記顔判別手段は、顔の向きが判別すべき顔の向きと同一であって顔の天地方向が揃った互いに異なる複数の学習用顔画像を用いて、顔のパターンの特徴を学習してなるものであり、前記局所領域は、該領域の長手方向の幅を、前記学習用顔画像における目の長手方向の幅の平均値の1.1から1.8倍の間の長さとする領域とすることができる。   In the face discrimination method according to the present invention, the face discrimination step receives each of a plurality of different learning face images having the same face orientation as the face orientation to be discriminated and having the face orientations aligned. This is a step of performing processing in a face discriminating unit that learns the characteristics of a face pattern on the basis of the correctness result of the discrimination, and the local region has a width in the longitudinal direction of the region in the learning face image. It can be a region having a length between 1.1 and 1.8 times the average value of the width in the longitudinal direction of the eye. In the face discriminating apparatus and program according to the present invention, the face discriminating unit uses a plurality of different learning face images having the same face orientation as the face orientation to be discriminated and having the face orientations aligned. The feature of the facial pattern is learned, and the local region has a width in the longitudinal direction of the region from 1.1 of an average value of the width in the longitudinal direction of the eyes in the learning face image. The region can be a length between 1.8 times.

この場合において、前記顔判別手段は、前記判別対象画像が顔画像であるか否かを判別する互いに異なる複数の弱判別器(モジュール)を、該弱判別器の信頼度が高い順に線形に結合してなる構造を有するものとすることができる。   In this case, the face discriminating unit linearly combines a plurality of different weak discriminators (modules) that discriminate whether or not the discrimination target image is a face image in descending order of reliability of the weak discriminators. It can have the structure which consists of.

ここで、「画素値の分散の程度」とは、画素値のばらつきの度合を意味するものであり、例えば、画素値のいわゆる数学的な分散値のほか、画素値の最大値と最小値の差分値等とすることができる。また、「所定レベル」とは、上記分散値あるいは上記差分値等が取り得る値の一つであり、判別対象画像が顔画像であるか否かを判別する処理において、経験的に判別精度がよくなるコントラストとなるような値とすることができる。   Here, the “degree of dispersion of pixel values” means the degree of dispersion of pixel values. For example, in addition to so-called mathematical dispersion values of pixel values, the maximum value and the minimum value of pixel values It can be a difference value or the like. In addition, the “predetermined level” is one of the values that the variance value or the difference value can take, and in the process of determining whether or not the determination target image is a face image, the determination accuracy is empirically determined. It can be set to a value that provides a good contrast.

なお、前記所定レベルは、画像毎に異なるノイズレベルに応じて設定すべきであり、入力ソースが分かっている場合には、それに合わせて前記所定レベルを変更することが好ましい。例えば、携帯電話に内蔵された撮像手段によって撮像された画像は比較的ノイズが多いことから、ノイズの増幅を抑えるために、前記所定のレベルを高く設定する。また、例えばノイズ解析手段から得られた解析情報、撮像手段から得られた画像撮像時のゲイン情報等により、画像のノイズレベルを知ることができる場合には、ノイズレベルが大きいほど前記所定のレベルを高く設定し、ノイズレベルが小さいほど前記所定のレベルを小さく設定するとよい。   The predetermined level should be set according to a noise level that differs for each image, and when the input source is known, it is preferable to change the predetermined level accordingly. For example, the image picked up by the image pickup means built in the mobile phone is relatively noisy, so the predetermined level is set high in order to suppress noise amplification. Further, for example, when the noise level of the image can be known from the analysis information obtained from the noise analysis means, the gain information at the time of image pickup obtained from the image pickup means, etc., the larger the noise level, the higher the predetermined level. Is set higher, and the predetermined level is preferably set lower as the noise level is lower.

「注目画素を代表とする所定の大きさの局所領域」とは、例えば、図16に示すような、注目画素xを略中心、略重心または略中央とする第1の領域Z1や、これら第1の領域Z1の画素値の分布に応じて設定される、第1の領域内の部分的な領域である第2の領域Z2を意味するものである。この第2の領域Z2としては、例えば、図17に示すように、第1の領域Z1内の画素値のヒストグラムの形状が複数の山を有する形状である場合に、それらの山のうち注目画素xの画素値Xが含まれる山に対応する画素からなる領域とすることができる。すなわち、第1の領域Z1から、注目画素xの画素値Xが含まれない山に対応する画素からなる領域Zaを取り除いた領域を第2の領域Z2とすることができる。このような領域の設定は、第1の領域Z1が明らかに画像濃度の異なる領域にまたがって存する場合に、その濃度変化の境界による悪影響を避けるため、所定の領域内の画像に対してのみ画素値の演算をするような場合によく実施される方法である。   The “local region of a predetermined size typified by the pixel of interest” is, for example, a first region Z1 having the pixel of interest x approximately at the center, approximately the center of gravity, or approximately the center as shown in FIG. This means the second region Z2, which is a partial region within the first region, which is set according to the distribution of pixel values in the first region Z1. As the second region Z2, for example, as shown in FIG. 17, when the shape of the histogram of pixel values in the first region Z1 is a shape having a plurality of peaks, the pixel of interest among these peaks It can be set as the area | region which consists of a pixel corresponding to the peak containing the pixel value X of x. That is, a region obtained by removing a region Za composed of pixels corresponding to a mountain not including the pixel value X of the target pixel x from the first region Z1 can be set as the second region Z2. Such a region setting is performed only when the first region Z1 extends over regions having clearly different image densities in order to avoid an adverse effect due to the boundary of the density change. This is a method often used in the case of calculating a value.

「画素値の統計学上の所定の代表値」とは、画素値の分布の特徴を代表するこの分布の中心的な値であり、例えば、画素値の、統計学上の平均値、中央値、中間値、最頻値等とすることができる。   The “predetermined representative value in the pixel value statistics” is a central value of the distribution representing the characteristics of the distribution of the pixel value. For example, the statistical average value and the median value of the pixel value , Intermediate values, mode values, and the like.

「局所領域」は、便宜上、矩形領域であることが好ましいが、真円、楕円等の形状であってもよい。   The “local region” is preferably a rectangular region for convenience, but may be a shape such as a perfect circle or an ellipse.

本発明においては、学習に用いる顔画像として、少なくとも前記学習用顔画像を用いていればよく、もちろん、学習に用いる画像として、前記学習用顔画像に加え学習用非顔画像を用いても構わない。   In the present invention, it is sufficient that at least the learning face image is used as a face image used for learning. Of course, a learning non-face image may be used in addition to the learning face image as an image used for learning. Absent.

「学習用顔画像」とは、顔を表す画像であることが分かっている学習に用いるサンプル画像をいい、「学習用非顔画像」とは顔を表す画像でないことが分かっている学習に用いるサンプル画像をいう。   “Learning face image” means a sample image used for learning that is known to be an image representing a face, and “Non-face image for learning” is used for learning that is not known to represent a face. A sample image.

「顔の天地方向が揃った」とは、顔の天地方向が完全に一致した状態に限定されるわけではなく、画像平面上での所定角度範囲、例えば±15度の回転は許容するものとする。   “Faces of the top and bottom of the face are aligned” is not limited to the state in which the top and bottom of the face are completely coincident, and a predetermined angle range on the image plane, for example, ± 15 degrees is allowed. To do.

「弱判別器」とは、正答率が50%を超える判別手段(モジュール)であり、「複数の弱判別器を線形に結合した構造」とは、このような弱判別器を直列に接続し、弱判別器において、対象画像が顔画像であると判別されたときに次の弱判別器に進み、非顔画像であると判別されたときに判別処理を離脱するように構成された構造のことをいう。最後の弱判別器において顔画像であると判別された対象画像が、最終的に、顔画像であると判別される。   “Weak discriminator” is a discriminating means (module) with a correct answer rate exceeding 50%, and “a structure in which a plurality of weak discriminators are linearly combined” is such a weak discriminator connected in series. The weak classifier has a structure configured to proceed to the next weak classifier when the target image is determined to be a face image and to leave the determination process when it is determined to be a non-face image. That means. The target image determined to be a face image by the last weak classifier is finally determined to be a face image.

本発明の顔判別方法および装置並びにそのためのプログラムによれば、判別対象画像のコントラストのばらつきを抑えるべく、判別対象画像に対して、当該判別対象画像における各局所領域について画素値の分散の程度が所定レベルに近づくように画素値の階調変換を行う正規化処理を施すものとし、その局所領域を、判別すべき顔の目が1つのみ含まれる大きさの領域と規定しているので、顔であることを特徴付ける目や鼻等の顔の構成部品内でのコントラストの変化を抑えつつ、顔への重畳物、斜光、顔以外の背景による濃淡のばらつき等による影響を受け難い安定した正規化を行うことができる。これにより、判別対象画像上の輝度分布に係る特徴量について顔画像らしさを適正に反映させることができ、判別精度の低下を抑制することが可能となる。   According to the face discriminating method and apparatus and the program therefor according to the present invention, the degree of dispersion of the pixel values for each local region in the discrimination target image is suppressed with respect to the discrimination target image in order to suppress the contrast variation of the discrimination target image. Since normalization processing is performed to perform gradation conversion of pixel values so as to approach a predetermined level, and the local area is defined as an area having a size that includes only one face eye to be identified. Stable regularity that suppresses changes in contrast in facial components that characterize the face, such as the eyes and nose, and is less susceptible to effects such as superimposition on the face, oblique light, and shading variations due to backgrounds other than the face Can be made. As a result, it is possible to appropriately reflect the likelihood of a face image with respect to the feature amount related to the luminance distribution on the discrimination target image, and it is possible to suppress a reduction in discrimination accuracy.

以下、本発明の実施形態について説明する。図1は本発明の顔判別装置が適用された顔検出システムの構成を示す概略ブロック図である。この顔検出システムは、デジタル画像中に含まれる顔を、顔の位置、大きさ、向き、回転方向によらずに検出するものである。図1に示すように、顔検出システム1は、顔を検出する対象となる入力画像S0を多重解像度化して解像度の異なる複数の画像(以下、解像度画像という)S1_i(i=1,2,3・・・)を得る多重解像度化部10と、後に実行される顔検出処理の精度向上を目的とした前処理として、解像度画像S1_iの各々に対して、画像全体にわたって局所的な領域におけるコントラストのばらつきを抑制する正規化(以下、局所正規化という)を施し、局所正規化済みの解像度画像S1′_iを得る局所正規化部(正規化手段)20と、局所正規化済みの解像度画像S1′_iの各々に対してラフな顔検出処理を施すことにより顔候補S2を抽出する第1の顔検出部30と、各顔候補を含む所定の近傍領域内の画像に対して高精度な顔検出処理を施すことにより顔候補S2をさらに絞り込み、真の顔と思われる顔S3を得る第2の顔検出部40と、各解像度画像上で検出された顔S3の各々について、同一の顔が重複して検出されたものであるか否かをその位置関係から判定して整理し、重複検出のない顔S3′を得る重複検出判定部50とを備える。   Hereinafter, embodiments of the present invention will be described. FIG. 1 is a schematic block diagram showing the configuration of a face detection system to which the face discrimination device of the present invention is applied. This face detection system detects a face included in a digital image regardless of the position, size, orientation, and rotation direction of the face. As shown in FIG. 1, the face detection system 1 multi-resolutions an input image S0 that is a target for detecting a face to obtain a plurality of images having different resolutions (hereinafter referred to as resolution images) S1_i (i = 1, 2, 3). ..)) And a pre-processing aimed at improving the accuracy of the face detection processing to be executed later, as a pre-process for the resolution image S1_i. A local normalization unit (normalization means) 20 that obtains a local normalized resolution image S1′_i by performing normalization that suppresses variation (hereinafter referred to as local normalization), and a local normalized resolution image S1 ′ First face detection unit 30 that extracts face candidate S2 by performing rough face detection processing on each of _i, and highly accurate face detection for an image in a predetermined neighborhood region including each face candidate processing The second face detection unit 40 that further narrows down the face candidates S2 and obtains the face S3 that seems to be a true face, and the face S3 detected on each resolution image overlaps the same face. It is provided with an overlap detection determination unit 50 that determines whether or not it is detected based on its positional relationship and arranges it, and obtains a face S3 ′ without overlap detection.

多重解像度化部10は、入力画像S0の解像度(画像サイズ)を変換することにより、その解像度を所定の解像度、例えば、短辺が416画素の矩形サイズの画像に規格化し、規格化済みの入力画像S1を得る。そして、この画像S1を基本画像としてさらに解像度変換を行うことにより、解像度の異なる複数の解像度画像S1_iを生成する。このような複数の解像度画像を生成する理由は、通常、入力画像に含まれる顔の大きさは不明であるが、一方、検出しようとする顔の大きさ(画像サイズ)は、後述の判別器の構造と関連して一定にする必要があるため、解像度の異なる画像上で所定サイズの部分画像をそれぞれ切り出し、その部分画像が顔か非顔かを判別してゆく必要があるためである。具体的には、図2に示すように、画像S1を基本画像S1_1として、画像S1_1に対して2の−1/3乗倍の画像S1_2と、画像S1_2に対して2の−1/3乗倍(基本画像S1_1に対しては2の−2/3乗倍)の画像S1_3とを先に生成し、その後、画像S1_1,S1_2,S1_3のそれぞれに対して、1/2倍サイズの縮小画像を生成し、それらの縮小画像に対してさらに1/2倍サイズの縮小画像を生成する・・・といった処理を繰り返し行い、複数の縮小画像を所定の数だけ生成するようにする。このようにすることで、輝度を表す画素値の補間処理を必要としない1/2倍の縮小処理を主に、基本画像から2の−1/3乗倍ずつ解像度が縮小された複数の画像が高速に生成できる。例えば、画像S1_1が短辺416画素の矩形サイズである場合、画像S1_2,S1_3,・・・は、短辺がそれぞれ、330画素,262画素,208画素,165画素,131画素,104画素,82画素,65画素,・・・の矩形サイズとなり、2の−1/3乗倍ずつ縮小された複数の解像度画像を生成することができる。なお、このように画素値を補間しないで生成される画像は、画像パターンの特徴をそのまま担持する傾向が強いので、顔検出処理において精度向上が期待できる点で好ましい。   The multi-resolution conversion unit 10 converts the resolution (image size) of the input image S0 to normalize the resolution to a predetermined resolution, for example, an image having a rectangular size with a short side of 416 pixels. An image S1 is obtained. Then, by further performing resolution conversion using this image S1 as a basic image, a plurality of resolution images S1_i having different resolutions are generated. The reason for generating such a plurality of resolution images is usually that the size of the face included in the input image is unknown, but the size of the face to be detected (image size) is determined by a discriminator described later. This is because it is necessary to cut out partial images of a predetermined size on images with different resolutions and determine whether the partial image is a face or a non-face. Specifically, as illustrated in FIG. 2, an image S1 is a basic image S1_1, an image S1_2 that is −1/3 times a power of 2 with respect to the image S1_1, and a 2 −1/3 power of the image S1_2 The image S1_3 that is doubled (2 to the power of 2/3 for the basic image S1_1) is generated first, and then a reduced image that is ½ times the size of each of the images S1_1, S1_2, and S1_3 Are generated, and a reduced image of 1/2 size is further generated with respect to the reduced images, so that a predetermined number of reduced images are generated. In this way, a plurality of images whose resolution is reduced by a factor of −1/3 times from the basic image mainly by a reduction process of 1/2 times that does not require an interpolation process of pixel values representing luminance. Can be generated at high speed. For example, when the image S1_1 has a rectangular size of 416 pixels on the short side, the images S1_2, S1_3,... Have 330 pixels, 262 pixels, 208 pixels, 165 pixels, 131 pixels, 104 pixels, and 82 on the short sides, respectively. A rectangular size of pixels, 65 pixels,... Can be generated, and a plurality of resolution images reduced by −1/3 times power can be generated. Note that an image generated without interpolating pixel values in this way has a strong tendency to carry the characteristics of the image pattern as they are, and is preferable in that an improvement in accuracy can be expected in face detection processing.

局所正規化部20は、解像度画像S1_iの各々に対して、解像度画像における各局所領域について、輝度を表す画素値の分散の程度が所定レベル以上である局所領域に対して、該分散の程度を前記所定レベルより高い一定レベルに近づける第1の輝度階調変換処理を施し、前記画素値の分散の程度が前記所定レベル未満である局所領域に対して、該分散の程度を前記一定レベルより低いレベルに抑える第2の輝度階調変換処理を施すものであるが、ここで、局所正規化部20における具体的な処理について説明する。   For each of the resolution images S1_i, the local normalization unit 20 sets the degree of dispersion for each local region in the resolution image with respect to a local region in which the degree of dispersion of the pixel values representing luminance is a predetermined level or more. A first luminance gradation conversion process is performed to approach a certain level higher than the predetermined level, and the degree of dispersion is lower than the certain level for a local region where the degree of dispersion of the pixel values is less than the predetermined level. A second luminance gradation conversion process that suppresses the level is performed. Here, a specific process in the local normalization unit 20 will be described.

図12は局所正規化処理の概念を示した図であり、図13は局所正規化部20における処理フロー示す図である。また、式(1),(2)は、この局所正規化処理のための画素値の階調変換の式である。

Figure 2006309714
FIG. 12 is a diagram illustrating the concept of local normalization processing, and FIG. 13 is a diagram illustrating a processing flow in the local normalization unit 20. Expressions (1) and (2) are gradation conversion expressions for pixel values for the local normalization process.
Figure 2006309714

ここで、Xは注目画素の画素値、X′は注目画素の変換後の画素値、mlocalは注目画素を中心とする局所領域における画素値の平均、Vlocalはこの局所領域における画素値の分散、SDlocalはこの局所領域における画素値の標準偏差、(C1×C1)は上記一定レベルに対応する基準値、C2は上記所定レベルに対応する閾値、SDcは所定の定数である。なお、本実施形態において、輝度の階調数は8bitとし、画素値の取り得る値は0から255とする。 Here, X is the pixel value of the pixel of interest, X ′ is the pixel value after conversion of the pixel of interest, mlocal is the average of the pixel values in the local region centered on the pixel of interest, Vlocal is the variance of the pixel values in this local region, SDlocal is a standard deviation of pixel values in this local area, (C1 × C1) is a reference value corresponding to the above-mentioned fixed level, C2 is a threshold corresponding to the above-mentioned predetermined level, and SDc is a predetermined constant. In the present embodiment, the number of gradations of luminance is 8 bits, and the possible pixel values are 0 to 255.

局所正規化部20は、図13に示すように、解像度画像における1つの画素を注目画素として設定し(ステップS21)、この注目画素を中心とする所定の大きさ、例えば11×11画素サイズの局所領域における画素値の分散Vlocalを算出し(ステップS22)、分散Vlocalが上記所定のレベルに対応する閾値C2以上であるか否かを判定する(ステップS23)。ステップS23において、分散Vlocalが閾値C2以上であると判定された場合には、上記第1の輝度階調変換処理として、分散Vlocalが上記一定のレベルに対応する基準値(C1×C1)より大きいほど、注目画素の画素値Xと平均mlocalとの差を小さくし、分散mlocalが基準値(C1×C1)より小さいほど、注目画素の画素値Xと平均mlocalとの差を大きくする階調変換を式(1)にしたがって行う(ステップS24)。一方、ステップS23において、分散Vlocalが閾値C2未満であると判定された場合には、上記第2の輝度階調変換処理として、分散Vlocalに依らない線形な階調変換を式(2)にしたがって行う(ステップS25)。そして、ステップS21で設定した注目画素が最後の画素であるか否かを判定する(ステップS26)。ステップS26において、その注目画素が最後の画素でないと判定された場合には、ステップS21に戻り、同じ解像度画像上の次の画素を注目画素として設定する。一方、ステップS26において、その注目画素が最後の画素であると判定された場合には、その解像度画像に対する局所正規化を終了する。このように、上記ステップS21からS26の処理を繰り返すことにより、解像度画像全体に局所正規化が施された解像度画像が得られる。この一連の処理を各解像度画像に対して行うことにより、局所正規化済みの解像度画像S1′_iを得る。   As shown in FIG. 13, the local normalization unit 20 sets one pixel in the resolution image as a target pixel (step S21), and has a predetermined size centered on the target pixel, for example, an 11 × 11 pixel size. A variance Vlocal of pixel values in the local region is calculated (step S22), and it is determined whether or not the variance Vlocal is equal to or greater than a threshold C2 corresponding to the predetermined level (step S23). If it is determined in step S23 that the variance Vlocal is greater than or equal to the threshold value C2, the variance Vlocal is larger than the reference value (C1 × C1) corresponding to the certain level as the first luminance gradation conversion process. The tone conversion that decreases the difference between the pixel value X of the target pixel and the average mlocal, and increases the difference between the pixel value X of the target pixel and the average mlocal as the variance mlocal is smaller than the reference value (C1 × C1). Is performed according to the equation (1) (step S24). On the other hand, if it is determined in step S23 that the variance Vlocal is less than the threshold value C2, linear tone conversion that does not depend on the variance Vlocal is performed as the second luminance tone conversion processing according to equation (2). This is performed (step S25). Then, it is determined whether or not the target pixel set in step S21 is the last pixel (step S26). If it is determined in step S26 that the target pixel is not the last pixel, the process returns to step S21, and the next pixel on the same resolution image is set as the target pixel. On the other hand, if it is determined in step S26 that the target pixel is the last pixel, the local normalization for the resolution image is terminated. In this way, by repeating the processes of steps S21 to S26, a resolution image in which local normalization is performed on the entire resolution image is obtained. By performing this series of processing on each resolution image, a locally normalized resolution image S1′_i is obtained.

なお、上記の所定レベルは、局所領域における全体または一部の輝度に応じて変化させるようにしてもよい。例えば、上記の、注目画素毎に階調変換を行う正規化処理において、閾値C2を注目画素の画素値に応じて変化させるようにしてもよい。すなわち、上記の所定レベルに対応する閾値C2を、注目画素の輝度が相対的に高いときにはより高く設定し、その輝度が相対的に低いときにはより低く設定するようにしてもよい。このようにすることで、輝度の低い、いわゆる暗い領域に低いコントラスト(画素値の分散が小さい状態)で存在している顔も正しく正規化することができる。   Note that the predetermined level may be changed according to the whole or a part of luminance in the local region. For example, in the normalization process in which gradation conversion is performed for each target pixel, the threshold value C2 may be changed according to the pixel value of the target pixel. That is, the threshold value C2 corresponding to the predetermined level may be set higher when the luminance of the target pixel is relatively high, and may be set lower when the luminance is relatively low. In this way, it is possible to correctly normalize a face that exists in a low-brightness, so-called dark area with low contrast (a state in which the dispersion of pixel values is small).

また、ここでは、解像度画像に対して局所正規化のみを施した場合について説明しているが、局所正規化とは別の正規化を同時に行うようにしてもよい。例えば、輝度の低い、いわゆる暗い領域のコントラストを高くする(画素値の分散を大きくすることに相当する)ように設定されたルックアップテーブル(LUT)等を用いて階調変換をしてから、上記局所正規化を行なうようにしてもよい。このようにすることで、上述のような、閾値C2を注目画素の画素値に応じて変化させるのと同じ効果が得られ、暗い領域に低いコントラストで存在している顔も正しく正規化することができる。   Further, here, a case where only local normalization is performed on the resolution image has been described, but normalization different from local normalization may be performed simultaneously. For example, after performing gradation conversion using a look-up table (LUT) set so as to increase the contrast of a so-called dark area with low luminance (corresponding to increasing the dispersion of pixel values), The local normalization may be performed. By doing this, the same effect as changing the threshold value C2 according to the pixel value of the target pixel as described above can be obtained, and a face existing in a dark region with low contrast can be correctly normalized. Can do.

第1の顔検出部30は、局所正規化部20により局所正規化処理がなされた各解像度画像S1′_iに対して比較的粗く高速な顔検出処理を施し、各解像度画像S1′_iから顔候補S2を暫定的に抽出するものである。図3は、この第1の顔検出部30の構成を示すブロック図である。第1の顔検出部30は、図3に示すように、各解像度画像について、顔画像であるか否かの判別対象となる部分画像(判別対象画像)を切り出すサブウィンドウWを順次設定する第1のサブウィンドウ設定部31と、部分画像が主に正面顔の画像であるか否かを判別する第1の正面顔判別器(顔判別手段)33と、この部分画像が主に左横顔の画像であるか否かを判別する第1の左横顔判別器(顔判別手段)34と、この部分画像が主に右横顔の画像であるか否かを判別する第1の右横顔判別器(顔判別手段)35とから構成されており、各判別器33から35は、それぞれ、複数の弱判別器WCi(i=1からN)が線形に結合してカスケード構造を有している。   The first face detection unit 30 performs a relatively coarse and high-speed face detection process on each resolution image S1′_i that has been subjected to the local normalization process by the local normalization unit 20, and performs face detection from each resolution image S1′_i. Candidate S2 is provisionally extracted. FIG. 3 is a block diagram showing a configuration of the first face detection unit 30. As shown in FIG. 3, the first face detection unit 30 sequentially sets subwindows W for cutting out partial images (discrimination target images) to be discriminated as to whether or not each resolution image is a face image. Sub-window setting unit 31, a first front face discriminator (face discrimination means) 33 for discriminating whether or not the partial image is mainly a front face image, and this partial image is mainly a left side face image. A first left side profile discriminator (face discrimination means) 34 for discriminating whether or not there is, and a first right side profile discriminator (face discrimination) for discriminating whether or not this partial image is mainly a right side profile image Each discriminator 33 to 35 has a cascade structure in which a plurality of weak discriminators WCi (i = 1 to N) are linearly coupled.

第1のサブウィンドウ設定部31は、すべての解像度画像S1′_iの各々について、解像度画像をその平面上で360度回転させつつ、解像度画像上において32×32画素サイズの部分画像を切り出すサブウィンドウWを、所定画素数分、例えば5画素ずつ移動させながら順次設定し、その切り出された部分画像を第1の正面顔判別器33、第1の左横顔判別器34および第1の右横顔判別器35にそれぞれ出力する。   For each resolution image S1′_i, the first sub-window setting unit 31 rotates a resolution image 360 degrees on the plane, and a sub-window W for cutting out a 32 × 32 pixel size partial image on the resolution image. The predetermined partial number is sequentially set while moving, for example, 5 pixels, and the cut out partial images are set as the first front face discriminator 33, the first left side face discriminator 34, and the first right side face discriminator 35. Respectively.

上記各判別器33から35は、それぞれ、順次入力されてくる部分画像に対し、この部分画像が正面顔、左横顔または右横顔を表す顔画像であるか否かの判別を行い、各解像度画像S1′_iにおいて、平面上のあらゆる回転角度にある正面顔、左横顔、および右横顔を検出し、顔候補S2を出力する。なお、斜め向きの顔の検出精度を上げるため、右斜め顔、左斜め顔をそれぞれ判別する判別器をさらに設けるようにしてもよいが、ここでは特に設けないものとする。   Each of the discriminators 33 to 35 determines whether or not each partial image is a face image representing a front face, a left side face, or a right side face with respect to the sequentially input partial images. In S1′_i, a front face, a left side face, and a right side face at every rotation angle on the plane are detected, and a face candidate S2 is output. In addition, in order to improve the detection accuracy of the oblique face, a discriminator for discriminating each of the right oblique face and the left oblique face may be further provided, but it is not particularly provided here.

上記各判別器33から35は、部分画像の輝度分布に係る少なくとも1つの特徴量を算出し、この特徴量を用いてこの部分画像が顔画像であるか否かを判別するものであるが、ここで、これら各判別器33から35における具体的な処理について説明する。図5は、各判別器における大局的な処理フローを示したものであり、図6は、その中の各弱判別器による処理フローを示したものである。   Each of the discriminators 33 to 35 calculates at least one feature amount related to the luminance distribution of the partial image, and determines whether or not the partial image is a face image using the feature amount. Here, specific processing in each of the discriminators 33 to 35 will be described. FIG. 5 shows a general processing flow in each discriminator, and FIG. 6 shows a processing flow by each weak discriminator therein.

まず、最初の弱判別器WC1が、解像度画像S1′_i上で切り出された所定サイズの部分画像に対してこの部分画像が顔であるか否かを判別する(ステップSS1)。具体的には、弱判別器WC1は、図7に示すように、解像度画像S1′_i上で切り出された所定サイズの部分画像、すなわち、32×32画素サイズの画像に対して、4近傍画素平均(画像を2×2画素サイズ毎に複数のブロックに区分し、各ブロックの4画素における画素値の平均値をそのブロックに対応する1つの画素の画素値とする処理)を行うことにより、16×16画素サイズの画像と、8×8画素サイズの縮小した画像を得、これら3つの画像の平面内に設定される所定の2点を1ペアとして、複数種類のペアからなる1つのペア群を構成する各ペアにおける2点間の輝度の差分値をそれぞれ計算し、これらの差分値の組合せを特徴量とする(ステップSS1−1)。各ペアの所定の2点は、例えば、画像上の顔の濃淡の特徴が反映されるよう決められた縦方向に並んだ所定の2点や、横方向に並んだ所定の2点とする。そして、特徴量である差分値の組合せに応じて所定のスコアテーブルを参照してスコアを算出し(ステップSS1−2)、直前の弱判別器が算出したスコアに自己の算出したスコアを加算して累積スコアを算出するが(ステップSS1−3)、最初の弱判別器WC1では、直前の弱判別器がないので、自己の算出したスコアをそのまま累積スコアとする。この累積スコアが所定の閾値以上であるか否かによって部分画像が顔であるか否かを判別する(ステップSS1−4)。ここで、上記部分画像が顔と判別されたときには、次の弱判別器WC2による判別に移行し(ステップSS2)、部分画像が非顔と判別されたときには、部分画像は、即、非顔と断定され(ステップSSB)、処理が終了する。   First, the first weak discriminator WC1 discriminates whether or not this partial image is a face with respect to the partial image of a predetermined size cut out on the resolution image S1′_i (step SS1). Specifically, as shown in FIG. 7, the weak discriminator WC1 performs four neighboring pixels on a partial image of a predetermined size cut out on the resolution image S1′_i, that is, an image of 32 × 32 pixel size. By performing an average (a process in which an image is divided into a plurality of blocks for each 2 × 2 pixel size and an average value of pixel values of four pixels of each block is set to a pixel value of one pixel corresponding to the block), A pair of a plurality of types is obtained by obtaining a 16 × 16 pixel size image and a reduced image of 8 × 8 pixel size as a pair of two predetermined points set in the plane of these three images. The difference value of the brightness | luminance between two points in each pair which comprises a group is each calculated, and the combination of these difference values is made into a feature-value (step SS1-1). The predetermined two points of each pair are, for example, two predetermined points arranged in the vertical direction and two predetermined points arranged in the horizontal direction so as to reflect the characteristics of the facial shading on the image. Then, a score is calculated by referring to a predetermined score table according to a combination of difference values as feature amounts (step SS1-2), and the score calculated by itself is added to the score calculated by the previous weak discriminator. The accumulated score is calculated (step SS1-3). However, since the first weak discriminator WC1 has no previous weak discriminator, the score calculated by itself is used as the cumulative score. It is determined whether or not the partial image is a face depending on whether or not the accumulated score is equal to or greater than a predetermined threshold (step SS1-4). Here, when the partial image is determined to be a face, the process proceeds to determination by the next weak classifier WC2 (step SS2). When the partial image is determined to be a non-face, the partial image is immediately determined to be a non-face. It is determined (step SSB), and the process ends.

ステップSS2においても、ステップSS1と同様に、弱判別器WC2が部分画像に基づいて画像上の特徴を表す上記のような特徴量を算出し(ステップSS2−1)、スコアテーブルを参照して特徴量からスコアを算出する(ステップSS2−2)。そして、自ら算出したスコアを前の弱判別器WC1が算出した累積スコアに加算して累積スコアを更新し(ステップSS2−3)、この累積スコアが所定の閾値以上であるか否かによって部分画像が顔であるか否かを判別する(ステップSS2−4)。ここでも、部分画像が顔と判別されたときには、次の弱判別器WC3による判別に移行し(ステップSS3)、部分画像が非顔と判別されたときには、部分画像は、即、非顔と断定され(ステップSSB)、処理が終了する。このようにして、N個すべての弱判別器において部分画像が顔であると判別されたときには、その部分画像を最終的に顔候補として抽出する(ステップSSA)。   Also in step SS2, as in step SS1, the weak classifier WC2 calculates the above-described feature amount representing the feature on the image based on the partial image (step SS2-1), and refers to the score table for the feature. A score is calculated from the amount (step SS2-2). Then, the score calculated by itself is added to the cumulative score calculated by the previous weak discriminator WC1 to update the cumulative score (step SS2-3), and the partial image is determined depending on whether or not the cumulative score is equal to or greater than a predetermined threshold. Is a face (step SS2-4). Again, when the partial image is determined to be a face, the process proceeds to determination by the next weak classifier WC3 (step SS3). When the partial image is determined to be a non-face, the partial image is immediately determined to be a non-face. (Step SSB), and the process ends. In this way, when it is determined that the partial image is a face in all N weak classifiers, the partial image is finally extracted as a face candidate (step SSA).

判別器33から35は、それぞれ、独自の、特徴量の種類、スコアテーブル、および閾値によって定められた複数の弱判別器からなる判別器であり、それぞれの判別すべき顔の向き、すなわち、正面顔、左横顔、右横顔にある顔を判別する。   Each of the discriminators 33 to 35 is a discriminator composed of a plurality of weak discriminators determined by unique feature type, score table, and threshold value. A face, a left side profile, and a right side profile are identified.

第2の顔検出部40は、全解像度画像のうち、顔候補S2の各々がそれぞれ含まれる所定領域内の各画像に対して比較的精度の高い顔検出処理を施し、顔候補近傍の画像から真の顔S3を検出するものである。この第2の顔検出部40は、基本的には、第1の顔検出部30と同様の構成であり、図4に示すように、第2のサブウィンドウ設定部41と、第2の正面顔判別器43と、第2の左横顔検出部44と、第2の右横顔検出部45とから構成されており、各判別器43から45は、それぞれ、複数の弱判別器WCi(i=1からN)が線形に結合してカスケード構造を有する。ただし、これらの判別器は、第1の顔検出部30における判別器より判別精度の高いものが好ましい。この第2の顔検出部40においては、判別器における大局的な処理フロー、および弱判別器による処理フローも基本的には第1の顔検出部30と同様であるが、サブウィンドウWを設定する位置は、第1の顔検出部30によって抽出された顔候補S2を含む所定領域内の画像に限定され、また、サブウィンドウWの移動幅は、第1の顔検出部30の場合より細かく、例えば、1画素ずつとなる。これにより、第1の顔検出部30でラフに抽出された顔候補S2がさらに絞り込まれ、真の顔S3だけが出力されることになる。   The second face detection unit 40 performs face detection processing with relatively high accuracy on each image in a predetermined area in which each of the face candidates S2 is included in all resolution images, and from the images near the face candidates. The true face S3 is detected. The second face detection unit 40 basically has the same configuration as that of the first face detection unit 30. As shown in FIG. 4, the second face detection unit 40 and the second front face are arranged. It comprises a discriminator 43, a second left side face detector 44, and a second right side face detector 45. Each of the discriminators 43 to 45 includes a plurality of weak discriminators WCi (i = 1). To N) are linearly coupled to form a cascade structure. However, it is preferable that these discriminators have higher discrimination accuracy than the discriminators in the first face detection unit 30. In the second face detection unit 40, the general processing flow in the classifier and the processing flow in the weak classifier are basically the same as those in the first face detection unit 30, but the sub window W is set. The position is limited to an image within a predetermined area including the face candidate S2 extracted by the first face detection unit 30, and the movement width of the subwindow W is finer than that of the first face detection unit 30, for example, One pixel at a time. As a result, the face candidates S2 roughly extracted by the first face detection unit 30 are further narrowed down and only the true face S3 is output.

重複検出判定部50は、第2の顔検出部40によって検出された各解像度画像S1′_i上の顔S3の位置情報に基づいて、各解像度画像上で検出された顔のうち重複して検出された同一の顔を1つの顔としてまとめる処理を行い、入力画像S0において検出された顔S3′の位置情報を出力する。判別器は、学習方法にもよるが、一般的に部分画像のサイズに対して検出できる顔の大きさにはある程度幅があるので、解像度レベルが隣接する複数の解像度画像において、同一の顔が重複して検出される場合があるからである。   The duplication detection determination unit 50 detects duplicated faces detected on each resolution image based on the position information of the face S3 on each resolution image S1′_i detected by the second face detection unit 40. A process of grouping the same faces as one face is performed, and position information of the face S3 ′ detected in the input image S0 is output. Although the discriminator depends on the learning method, the size of the face that can be detected with respect to the size of the partial image generally has a certain width, and therefore, in a plurality of resolution images having adjacent resolution levels, the same face is detected. This is because it may be detected in duplicate.

図9は、上記顔検出システムにおける処理の流れを示したフローチャートである。図9に示すように、多重解像度化部10に入力画像S0が供給されると(ステップS1)、この入力画像S0の画像サイズが所定のサイズに変換された画像S1が生成され、画像S1から2の−1/3乗倍ずつ解像度が縮小された複数の解像度画像S1_iが生成される(ステップS2)。そして、局所正規化部20において、各解像度画像S1_iの画像全体に局所的な領域におけるコントラストのばらつきを抑制する局所正規化処理、すなわち、画素値の分散が所定の閾値以上の領域に対してはその分散をある一定レベルに近づける輝度階調変換をし、画素値の分散がその所定の閾値を下回る領域に対してはその分散を上記一定レベルより低いレベルに抑える輝度階調変換をする局所的な正規化が施され、局所正規化済みの解像度画像S1′_iが得られる(ステップS3)。第1の顔検出部30は、第1のサブウィンドウ設定部31により、局所正規化済みの各解像度画像S1′_iにおいて、サブウィンドウWの設定により所定サイズの部分画像を順次切り出すとともに(ステップS4)、正面顔、右横顔および左横顔の判別器33から35を用いて、これら部分画像の各々に対して顔判別を行い、各解像度画像S1′_iについての顔候補S2をラフに検出する(ステップS5)。さらに、第2の顔検出部40は、ステップS5で抽出された顔候補S2の近傍画像に対して、第1の顔検出部30と同様に、サブウィンドウWの設定による部分画像の切り出し(ステップS6)、正面顔、右横顔、および左横顔の判別器43から45を用いて精査に相当する顔検出を行い、真の顔S3に絞り込む(ステップS7)。そして、各解像度画像S1′_iにおいて重複して検出された同一の顔を判定(ステップS8)し、これらをそれぞれ1つにまとめて最終的に検出された顔S3′とする。   FIG. 9 is a flowchart showing the flow of processing in the face detection system. As shown in FIG. 9, when the input image S0 is supplied to the multi-resolution conversion unit 10 (step S1), an image S1 in which the image size of the input image S0 is converted to a predetermined size is generated, and the image S1 is generated. A plurality of resolution images S <b> 1 </ b> _i whose resolution is reduced by 2 to 1/3 times are generated (step S <b> 2). Then, the local normalization unit 20 performs local normalization processing for suppressing variation in contrast in a local region in the entire image of each resolution image S1_i, that is, for a region where the dispersion of pixel values is equal to or greater than a predetermined threshold. Local brightness gradation conversion is performed to reduce the dispersion to a level lower than the predetermined level for areas where the dispersion of pixel values falls below the predetermined threshold. Normalization is performed, and a locally normalized resolution image S1′_i is obtained (step S3). The first face detection unit 30 sequentially cuts out partial images of a predetermined size according to the setting of the subwindow W in each resolution image S1′_i that has been locally normalized by the first subwindow setting unit 31 (step S4). Using the front face, right side face, and left side face discriminators 33 to 35, face discrimination is performed on each of these partial images, and a face candidate S2 for each resolution image S1′_i is roughly detected (step S5). ). Further, the second face detection unit 40 cuts out a partial image based on the setting of the subwindow W (step S6), similar to the first face detection unit 30, with respect to the neighborhood image of the face candidate S2 extracted in step S5. ) Face detection corresponding to scrutiny is performed using the front face, right side face, and left side face discriminators 43 to 45, and the face is narrowed down to the true face S3 (step S7). Then, the same face detected redundantly in each resolution image S1′_i is determined (step S8), and these are collectively combined into one finally detected face S3 ′.

次に、判別器の学習方法について説明する。図10は、この判別器の学習方法を示すフローチャートである。なお、学習は、判別器の種類、すなわち、判別すべき顔の向き毎に行われる。   Next, a learning method for the classifier will be described. FIG. 10 is a flowchart showing a learning method of the classifier. Note that learning is performed for each type of classifier, that is, for each face orientation to be determined.

学習の対象となるサンプル画像群は、所定のサイズ、例えば32×32画素サイズで規格化された、顔であることが分かっている複数のサンプル画像と、顔でないことが分かっている複数のサンプル画像とからなる。顔であることが分かっているサンプル画像としては、顔の向きが判別器の判別すべき顔の向きと同一であって顔の天地方向が揃ったものを用いる。顔であることが分かっているサンプル画像は、1つのサンプル画像につき、縦および/または横を0.7倍から1.2倍の範囲にて0.1倍単位で段階的に拡縮して得られる各サンプル画像に対し、平面上±15度の範囲にて3度単位で段階的に回転させて得られる複数の変形バリエーションを用いる。なおこのとき、顔のサンプル画像は、目の位置が所定の位置に来るように顔のサイズと位置を規格化し、上記の平面上の回転、拡縮は目の位置を基準として行うようにする。例えば、d×dサイズの正面顔のサンプル画像の場合においては、図14に示すように、両目の位置が、サンプル画像の最左上の頂点と最右上の頂点から、それぞれ、内側に1/4d、下側に1/4d移動した各位置とに来るように顔のサイズと位置を規格化し、また、上記の平面上の回転、拡縮は、両目の中間点を中心に行うようにする。各サンプル画像には、重みすなわち重要度が割り当てられる。まず、すべてのサンプル画像の重みの初期値が等しく1に設定される(ステップS11)。   The sample image group to be learned is a plurality of sample images that are known to be faces and a plurality of samples that are known to be non-faces, standardized at a predetermined size, for example, 32 × 32 pixel size. It consists of an image. As a sample image that is known to be a face, an image in which the face orientation is the same as the face orientation to be discriminated by the discriminator and the face orientations are aligned is used. A sample image that is known to be a face is obtained by scaling in steps of 0.1 times in the range of 0.7 to 1.2 times in length and / or width for each sample image. For each sample image to be obtained, a plurality of deformation variations obtained by rotating stepwise in units of 3 degrees within a range of ± 15 degrees on a plane is used. At this time, the face sample image is standardized in size and position so that the eye position is at a predetermined position, and the above-described rotation and scaling on the plane are performed based on the eye position. For example, in the case of a d × d size front face sample image, as shown in FIG. 14, the positions of both eyes are 1/4 d inward from the upper left vertex and the upper right vertex of the sample image, respectively. The face size and position are normalized so as to come to each position moved 1 / 4d downward, and the above-mentioned rotation and scaling on the plane are performed around the middle point of both eyes. Each sample image is assigned a weight or importance. First, the initial value of the weight of all the sample images is set equal to 1 (step S11).

次に、サンプル画像およびその縮小画像の平面内に設定される所定の2点を1ペアとして複数のペアからなるペア群を複数種類設定したときの、この複数種類のペア群のそれぞれについて弱半別器が作成される(ステップS12)。ここで、それぞれの弱判別器とは、サブウィンドウWで切り出された部分画像とその縮小画像の平面内に設定される所定の2点を1ペアとして複数のペアからなる1つのペア群を設定したときの、この1つのペア群を構成する各ペアにおける2点間の画素値(輝度)の差分値の組合せを用いて、顔の画像と顔でない画像とを判別する基準を提供するものである。本実施形態においては、1つのペア群を構成する各ペアにおける2点間の画素値の差分値の組合せについてのヒストグラムを弱判別器のスコアテーブルの基礎として使用する。   Next, when a plurality of pairs of groups consisting of a plurality of pairs are set with a predetermined two points set in the plane of the sample image and the reduced image as one pair, each of the plurality of types of pairs is weak. A separate device is created (step S12). Here, each weak discriminator sets one pair group consisting of a plurality of pairs with a predetermined two points set in the plane of the partial image cut out in the sub-window W and the reduced image as one pair. This provides a reference for discriminating between a face image and a non-face image using a combination of difference values of pixel values (luminance) between two points in each pair constituting this one pair group. . In the present embodiment, a histogram for a combination of pixel value difference values between two points in each pair constituting one pair group is used as the basis of the score table of the weak classifier.

図11を参照しながらある判別器の作成について説明する。図11の左側のサンプル画像に示すように、この判別器を作成するためのペア群を構成する各ペアの2点は、顔であることが分かっている複数のサンプル画像において、サンプル画像上の右目の中心にある点をP1、右側の頬の部分にある点をP2、眉間の部分にある点をP3、サンプル画像を4近傍画素平均で縮小した16×16画素サイズの縮小画像上の右目の中心にある点をP4、右側の頬の部分にある点をP5、さらに4近傍画素平均で縮小した8×8画素サイズの縮小画像上の額の部分にある点をP6、口の部分にある点をP7として、P1−P2、P1−P3、P4−P5、P4−P6、P6−P7の5ペアである。なお、ある判別器を作成するための1つのペア群を構成する各ペアの2点の座標位置はすべてのサンプル画像において同一である。そして顔であることが分かっているすべてのサンプル画像について上記5ペアを構成する各ペアの2点間の画素値の差分値の組合せが求められ、そのヒストグラムが作成される。ここで、画素値の差分値の組合せとしてとり得る値は、画像の輝度階調数に依存するが、仮に16ビット階調である場合には、1つの画素値の差分値につき65536通りあり、全体では階調数の(ペア数)乗、すなわち65536の5乗通りとなってしまい、学習および検出のために多大なサンプルの数、時間およびメモリを要することとなる。このため、本実施形態においては、画素値の差分値を適当な数値幅で区切って量子化し、n値化する(例えばn=100)。   The creation of a classifier will be described with reference to FIG. As shown in the sample image on the left side of FIG. 11, two points of each pair constituting the pair group for creating this discriminator are a plurality of sample images that are known to be faces. The right eye on the reduced image of 16 × 16 pixel size in which the point in the center of the right eye is P1, the point in the right cheek part is P2, the point in the part between the eyebrows is P3, and the sample image is reduced by an average of four neighboring pixels The point at the center of P4, the point at the cheek on the right side is P5, and the point at the forehead part on the reduced image of 8 × 8 pixel size reduced by the average of 4 neighboring pixels is P6, the mouth part A certain point is P7, and there are five pairs of P1-P2, P1-P3, P4-P5, P4-P6, and P6-P7. Note that the coordinate positions of the two points of each pair constituting one pair group for creating a certain classifier are the same in all sample images. For all sample images that are known to be faces, combinations of pixel value difference values between two points of each of the five pairs are obtained, and a histogram thereof is created. Here, the value that can be taken as a combination of the difference values of the pixel values depends on the number of luminance gradations of the image, but if it is a 16-bit gradation, there are 65536 different values for the difference value of one pixel value, As a whole, the number of gradations is (the number of pairs), that is, 65536 to the fifth power, and a large number of samples, time, and memory are required for learning and detection. For this reason, in the present embodiment, the difference value of the pixel value is divided by an appropriate numerical value width and quantized to be n-valued (for example, n = 100).

これにより、画素値の差分値の組合せの数はnの5乗通りとなるため、画素値の差分値の組合せを表すデータ数を低減できる。   As a result, the number of combinations of difference values of pixel values is n to the fifth power, so that the number of data representing combinations of difference values of pixel values can be reduced.

同様に、顔でないことが分かっている複数のサンプル画像についても、ヒストグラムが作成される。なお、顔でないことが分かっているサンプル画像については、顔であることが分かっているサンプル画像上における上記各ペアの所定の2点の位置に対応する位置(同様に参照符号P1からP7を用いる)が用いられる。これらの2つのヒストグラムが示す頻度値の比の対数値を取ってヒストグラムで表したものが、図11の一番右側に示す、弱判別器のスコアテーブルの基礎として用いられるヒストグラムである。この弱判別器のヒストグラムが示す各縦軸の値を、以下、判別ポイントと称する。この弱判別器によれば、正の判別ポイントに対応する、画素値の差分値の組合せの分布を示す画像は顔である可能性が高く、判別ポイントの絶対値が大きいほどその可能性は高まると言える。逆に、負の判別ポイントに対応する画素値の差分値の組合せの分布を示す画像は顔でない可能性が高く、やはり判別ポイントの絶対値が大きいほどその可能性は高まる。ステップS12では、判別に使用され得る複数種類のペア群を構成する各ペアの所定の2点間の画素値の差分値の組合せについて、上記のヒストグラム形式の複数の弱判別器が作成される。   Similarly, histograms are created for a plurality of sample images that are known not to be faces. For sample images that are known not to be faces, positions corresponding to the positions of the two predetermined points of each pair on the sample image that is known to be a face (similarly, reference numerals P1 to P7 are used). ) Is used. A histogram obtained by taking the logarithm of the ratio of the frequency values indicated by these two histograms and representing the histogram is the histogram used as the basis of the score table of the weak discriminator shown on the rightmost side of FIG. The value of each vertical axis indicated by the histogram of the weak classifier is hereinafter referred to as a discrimination point. According to this weak discriminator, an image showing the distribution of combinations of pixel value difference values corresponding to positive discrimination points is highly likely to be a face, and the possibility increases as the absolute value of the discrimination point increases. It can be said. Conversely, an image showing a distribution of combinations of difference values of pixel values corresponding to negative discrimination points is highly likely not to be a face, and the possibility increases as the absolute value of the discrimination point increases. In step S12, a plurality of weak discriminators in the above-described histogram format are created for combinations of pixel value difference values between two predetermined points of each pair constituting a plurality of types of pair groups that can be used for discrimination.

続いて、ステップS12で作成した複数の弱半別器のうち、画像が顔であるか否かを判別するのに最も有効な弱判別器が選択される。最も有効な弱判別器の選択は、各サンプル画像の重みを考慮して行われる。この例では、各弱判別器の重み付き正答率が比較され、最も高い重み付き正答率を示す弱判別器が選択される(ステップS13)。すなわち、最初のステップS13では、各サンプル画像の重みは等しく1であるので、単純にその弱判別器によって画像が顔であるか否かが正しく判別されるサンプル画像の数が最も多いものが、最も有効な弱判別器として選択される。一方、後述するステップS15において各サンプル画像の重みが更新された後の2回目のステップS13では、重みが1のサンプル画像、重みが1よりも大きいサンプル画像、および重みが1よりも小さいサンプル画像が混在しており、重みが1よりも大きいサンプル画像は、正答率の評価において、重みが1のサンプル画像よりも重みが大きい分多くカウントされる。これにより、2回目以降のステップS13では、重みが小さいサンプル画像よりも、重みが大きいサンプル画像が正しく判別されることに、より重点が置かれる。   Subsequently, the most effective weak discriminator for discriminating whether or not the image is a face is selected from the plurality of weak semi-divided devices created in step S12. The most effective weak classifier is selected in consideration of the weight of each sample image. In this example, the weighted correct answer rates of the weak classifiers are compared, and the weak classifier showing the highest weighted correct answer rate is selected (step S13). That is, in the first step S13, since the weight of each sample image is equal to 1, the one with the largest number of sample images for which it is simply determined correctly whether or not the image is a face by the weak classifier is as follows: Selected as the most effective weak classifier. On the other hand, in the second step S13 after the weight of each sample image is updated in step S15, which will be described later, a sample image with a weight of 1, a sample image with a weight greater than 1, and a sample image with a weight less than 1 The sample images having a weight greater than 1 are counted more in the evaluation of the correct answer rate because the weight is larger than the sample images having a weight of 1. Thereby, in step S13 after the second time, more emphasis is placed on correctly identifying a sample image having a large weight than a sample image having a small weight.

次に、それまでに選択した弱判別器の組合せの正答率、すなわち、それまでに選択した弱判別器を組み合わせて使用して(学習段階では、弱判別器は必ずしも線形に結合させる必要はない)各サンプル画像が顔の画像であるか否かを判別した結果が、実際に顔の画像であるか否かの答えと一致する率が、所定の閾値を超えたか否かが確かめられる(ステップS14)。ここで、弱判別器の組合せの正答率の評価に用いられるのは、現在の重みが付けられたサンプル画像群でも、重みが等しくされたサンプル画像群でもよい。所定の閾値を超えた場合は、それまでに選択した弱判別器を用いれば画像が顔であるか否かを十分に高い確率で判別できるため、学習は終了する。所定の閾値以下である場合は、それまでに選択した弱判別器と組み合わせて用いるための追加の弱判別器を選択するために、ステップS16へと進む。   Next, the correct answer rate of the combination of weak classifiers selected so far, that is, using the weak classifiers selected so far in combination (in the learning stage, the weak classifiers do not necessarily need to be linearly combined. ) It is ascertained whether the result of determining whether or not each sample image is a face image has exceeded a predetermined threshold value at a rate that matches the answer of whether or not it is actually a face image (step) S14). Here, the current weighted sample image group or the sample image group with equal weight may be used for evaluating the correct answer rate of the combination of weak classifiers. When the predetermined threshold value is exceeded, learning is terminated because it is possible to determine whether the image is a face with a sufficiently high probability by using the weak classifier selected so far. If it is equal to or less than the predetermined threshold value, the process proceeds to step S16 in order to select an additional weak classifier to be used in combination with the weak classifier selected so far.

ステップS16では、直近のステップS13で選択された弱判別器が再び選択されないようにするため、その弱判別器が除外される。   In step S16, the weak discriminator selected in the most recent step S13 is excluded so as not to be selected again.

次に、直近のステップS13で選択された弱判別器では顔であるか否かを正しく判別できなかったサンプル画像の重みが大きくされ、画像が顔であるか否かを正しく判別できたサンプル画像の重みが小さくされる(ステップS15)。このように重みを大小させる理由は、次の弱判別器の選択において、既に選択された弱判別器では正しく判別できなかった画像を重要視し、それらの画像が顔であるか否かを正しく判別できる弱判別器が選択されるようにして、弱判別器の組合せの効果を高めるためである。   Next, the weight of the sample image that could not be correctly determined whether or not it is a face in the weak classifier selected in the most recent step S13 is increased, and the sample image that can be correctly determined whether or not the image is a face. Is reduced (step S15). The reason for increasing or decreasing the weight in this way is that in the selection of the next weak classifier, importance is placed on images that could not be correctly determined by the already selected weak classifier, and whether or not those images are faces is correct. This is because a weak discriminator that can be discriminated is selected to enhance the effect of the combination of the weak discriminators.

続いて、ステップS13へと戻り、上記したように重み付き正答率を基準にして次に有効な弱判別器が選択される。   Subsequently, the process returns to step S13, and the next effective weak classifier is selected based on the weighted correct answer rate as described above.

以上のステップS13からS16を繰り返して、顔であるか否かを判別するのに適した弱判別器として、特定のペア群を構成する各ペアの所定の2点間の画素値の差分値の組合せに対応する弱判別器が選択されたところで、ステップS14で確認される正答率が閾値を超えたとすると、顔であるか否かの判別に用いる弱判別器の種類と判別条件とが確定され(ステップS17)、これにより学習を終了する。なお、選択された弱判別器は、その重み付き正答率が高い順に線形結合され、1つの判別器が構成される。また、各弱判別器については、それぞれ得られたヒストグラムを基に、画素値の差分値の組合せに応じてスコアを算出するためのスコアテーブルが生成される。なお、ヒストグラム自身をスコアテーブルとして用いることもでき、この場合、ヒストグラムの判別ポイントがそのままスコアとなる。   As a weak discriminator suitable for discriminating whether or not a face is repeated by repeating the above steps S13 to S16, the difference value of the pixel value between two predetermined points of each pair constituting a specific pair group If the weak discriminator corresponding to the combination is selected and the correct answer rate confirmed in step S14 exceeds the threshold value, the type of the weak discriminator used for determining whether or not it is a face and the determination condition are determined. (Step S17), thereby completing the learning. The selected weak classifiers are linearly combined in descending order of the weighted correct answer rate to constitute one classifier. For each weak classifier, a score table for calculating a score according to a combination of pixel value difference values is generated based on the obtained histogram. Note that the histogram itself can also be used as a score table. In this case, the discrimination point of the histogram is directly used as a score.

なお、上記の学習手法を採用する場合において、弱判別器は、特定のペア群を構成する各ペアの所定の2点間の画素値の差分値の組合せを用いて顔の画像と顔でない画像とを判別する基準を提供するものであれば、上記のヒストグラムの形式のものに限られずいかなるものであってもよく、例えば2値データ、閾値または関数等であってもよい。また、同じヒストグラムの形式であっても、図11の中央に示した2つのヒストグラムの差分値の分布を示すヒストグラム等を用いてもよい。   In the case of adopting the above learning method, the weak classifier uses a combination of difference values of pixel values between two predetermined points of each pair constituting a specific pair group, and a face image and a non-face image. Is not limited to the above-described histogram format, and may be anything, for example, binary data, a threshold value, a function, or the like. Further, even in the same histogram format, a histogram or the like indicating the distribution of difference values between the two histograms shown in the center of FIG. 11 may be used.

また、学習の方法としては上記手法に限定されるものではなく、ニューラルネットワーク等他のマシンラーニングの手法を用いることができる。   Further, the learning method is not limited to the above method, and other machine learning methods such as a neural network can be used.

ここで、上記の局所正規化部20による局所正規化処理における局所領域の最適な大きさについて考えてみることにする。   Here, the optimum size of the local region in the local normalization process by the local normalization unit 20 will be considered.

この局所正規化処理は、上述の通り、サブウィンドウWで切り出された部分画像において局所的なコントラストのばらつきを抑制する処理であり、具体的には、部分画像における各画素を注目画素として順次設定するとともに、その注目画素毎に、この注目画素を中心とする所定の大きさの局所領域における輝度を表す画素値の分散を算出し、この分散が所定の基準値より大きいほど注目画素の画素値とその局所領域における画素値の平均値(他の統計学上の代表値でもよい)との差を小さくし、この分散が上記基準値より小さいほど注目画素の画素値とその局所領域における画素値の平均値との差を大きくする階調変換を行う正規化処理である。   As described above, the local normalization process is a process for suppressing local contrast variation in the partial image cut out in the sub-window W. Specifically, each pixel in the partial image is sequentially set as a target pixel. In addition, for each target pixel, a variance of pixel values representing luminance in a local region having a predetermined size centered on the target pixel is calculated, and the pixel value of the target pixel is calculated as the variance is larger than a predetermined reference value. The difference between the average value of pixel values in the local region (which may be other statistical representative values) is reduced, and the pixel value of the pixel of interest and the pixel value of the local region become smaller as the variance is smaller than the reference value. This is a normalization process that performs gradation conversion that increases the difference from the average value.

このような局所正規化処理においては、この局所領域のサイズによってコントラストのばらつきをどの程度局所的に抑制するかが決まるわけであるが、一般的には、局所領域のサイズが大きいほど、輝度のばらつきを抑えることができる一方細かいコントラストの変動を抑制し難くなり、局所領域のサイズが小さいほど、細かいコントラストの変動を抑制しやすくなる一方輝度がばらつく傾向にある。また、その局所領域内に顔を構成する複数種類の部位の全部または一部が同時に入り込むような場合、例えば、その局所領域内に目を中心として鼻の一部等が入り込むような場合には、上記画素値の分散がその鼻の部分の画素値やその鼻の部分が局所領域に対して占める割合等に敏感に反応し、その中心に位置する目の部分の画素値が不自然にばらつく場合があるが、このように顔を構成する所定の部位における画素値が不自然にばらつくと、その判別対象画像上の輝度分布に係る特徴量について顔画像らしさが適正に反映されず、判別精度が低下するという問題がある。   In such a local normalization process, the local region size determines how much the variation in contrast is locally suppressed, but in general, the larger the local region size, the higher the luminance. While variation can be suppressed, it becomes difficult to suppress fine contrast fluctuations, and as the size of the local region is smaller, fine contrast fluctuations are more likely to be suppressed, while brightness tends to vary. Also, when all or some of the multiple types of parts constituting the face enter the local area at the same time, for example, when a part of the nose enters the local area centering on the eyes The dispersion of the pixel values is sensitive to the pixel value of the nose portion and the ratio of the nose portion to the local region, and the pixel value of the eye portion located at the center varies unnaturally. In some cases, however, if the pixel values in a predetermined part constituting the face vary unnaturally in this way, the feature value related to the luminance distribution on the discrimination target image is not properly reflected and the discrimination accuracy is not accurately reflected. There is a problem that decreases.

したがって、上記の局所正規化処理の特性や問題点を考慮すると、上記局所領域の適切なサイズは、この局所正規化処理が顔判別処理の前処理であることに照らして、抑制可能なコントラストの変動の程度と輝度のばらつく程度とのバランスがよく、かつ、顔を構成する各部位間の距離に鑑みて顔を構成する複数種類の部位が同時に入り込まない程度の大きさということになる。このような要件を満足する局所領域としては、例えば、図15に示すような、顔の特徴を表す顔の構成部位の中で最も小さい「目」を基準として経験的に他の部位が入り込まない程度の大きさである、判別器が判別すべき顔の目が1つのみ含まれる大きさの領域とすることができる。なお、判別器が判別すべき顔の目の大きさは、その学習に用いた顔を表すサンプル画像における顔の目の大きさが基準となることから、この局所領域は、この領域の長手方向の幅を、判別器の学習に用いた顔を表すサンプル画像における目の長手方向の幅の平均値の1.1から1.8倍の間の長さとする領域とすることもできる。本実施形態における局所正規化部20による局所正規化処理における局所領域のサイズ、すなわち11×11画素サイズは、上記のような観点から設定されたサイズの一例である。   Therefore, in consideration of the characteristics and problems of the local normalization process, the appropriate size of the local region has a contrast that can be suppressed in light of the fact that the local normalization process is a pre-process of the face discrimination process. The balance between the degree of variation and the variation in luminance is good, and the size is such that a plurality of types of parts constituting the face do not enter at the same time in view of the distance between the parts constituting the face. As a local region satisfying such requirements, for example, as shown in FIG. 15, other parts do not enter empirically based on the smallest “eye” among the constituent parts of the face representing facial features. An area having a size that includes only one face eye to be discriminated by the discriminator can be obtained. Note that the size of the face eye to be discriminated by the discriminator is based on the size of the face eye in the sample image representing the face used for the learning, so this local region is the longitudinal direction of this region. Can be a region having a length between 1.1 and 1.8 times the average value of the width in the longitudinal direction of the eyes in the sample image representing the face used for learning of the discriminator. The size of the local region in the local normalization process by the local normalization unit 20 in this embodiment, that is, the 11 × 11 pixel size is an example of a size set from the above viewpoint.

このように、本実施形態による顔判別方法および装置によれば、判別対象画像のコントラストのばらつきを抑えるべく、判別対象画像に対して、当該判別対象画像における各局所領域について画素値の分散の程度が所定レベルに近づくように画素値の階調変換を行う正規化処理を施すものとし、その局所領域を、判別すべき顔の目が1つのみ含まれる大きさの領域と規定しているので、顔であることを特徴付ける目や鼻等の顔の構成部品内でのコントラストの変化を抑えつつ、顔への重畳物、斜光、顔以外の背景による濃淡のばらつき等による影響を受け難い安定した正規化を行うことができる。これにより、判別対象画像上の輝度分布に係る特徴量について顔画像らしさを適正に反映させることができ、判別精度の低下を抑制することが可能となる。   As described above, according to the face discrimination method and apparatus according to the present embodiment, the degree of dispersion of pixel values for each local region in the discrimination target image with respect to the discrimination target image in order to suppress the variation in contrast of the discrimination target image. Normalization processing is performed to perform gradation conversion of pixel values so as to approach a predetermined level, and the local area is defined as an area having a size that includes only one face eye to be discriminated. Suppresses changes in contrast in facial components such as the eyes and nose that characterize the face, and is stable and less affected by superimposition on the face, oblique light, and variations in shade due to background other than the face Normalization can be performed. As a result, it is possible to appropriately reflect the likelihood of a face image with respect to the feature amount related to the luminance distribution on the discrimination target image, and it is possible to suppress a reduction in discrimination accuracy.

以上、本発明の実施形態に係る顔判別方法および装置について説明したが、上記顔判別装置(局所正規化部と判別器)における各処理をコンピュータに実行させるためのプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取可能な記録媒体も、本発明の実施形態の1つである。   Although the face discrimination method and apparatus according to the embodiment of the present invention has been described above, a program for causing a computer to execute each process in the face discrimination apparatus (local normalization unit and discriminator) is also an embodiment of the present invention. It is one of. A computer-readable recording medium that records such a program is also one embodiment of the present invention.

顔検出システム1の構成を示すブロック図Block diagram showing the configuration of the face detection system 1 検出対象画像の多重解像度化の工程を示す図The figure which shows the process of multiresolution of a detection target image 第1の顔検出部30の構成を示すブロック図The block diagram which shows the structure of the 1st face detection part 30. 第2の顔検出部40の構成を示すブロック図The block diagram which shows the structure of the 2nd face detection part 40 判別器における大局的な処理フローを示す図Diagram showing the global processing flow in the classifier 弱判別器における処理フローを示す図The figure which shows the processing flow in the weak classifier 弱判別器における特徴量の算出を説明するための図The figure for demonstrating calculation of the feature-value in a weak discriminator 複数の解像度画像での解像度画像の回転とサブウィンドウの移動を説明するための図Diagram for explaining resolution image rotation and sub-window movement in multiple resolution images 顔検出システム1において行われる処理を示すフローチャートThe flowchart which shows the process performed in the face detection system 1 判別器の学習方法を示すフローチャートFlow chart showing the learning method of the classifier 弱判別器のヒストグラムを導出する方法を示す図The figure which shows the method of deriving the histogram of the weak classifier 局所正規化処理の概念を示す図Diagram showing the concept of local normalization processing 局所正規化部における処理フローを示す図The figure which shows the processing flow in the local normalization part 目の位置が所定の位置にくるように規格化された顔のサンプル画像を示す図The figure which shows the sample image of the face standardized so that the position of eyes may be in a predetermined position 目の大きさを基準にした適切なサイズの局所領域の例を示す図The figure which shows the example of the local area of appropriate size on the basis of the size of the eye 注目画素を代表とする局所領域の例を示す図The figure which shows the example of the local area | region which represented the attention pixel 画素値の分布に基づいて設定される、注目画素を代表とする局所領域の例を示す図The figure which shows the example of the local area | region represented by the attention pixel set based on distribution of a pixel value

符号の説明Explanation of symbols

1 顔検出システム
10 多重解像度化部
20 局所正規化部(正規化手段)
30 第1の顔検出部
31 第1のサブウィンドウ設定部
33 第1の正面顔判別器(顔判別手段)
34 第1の左横顔判別器(顔判別手段)
35 第1の右横顔判別器(顔判別手段)
40 第2の顔検出部
41 第2のサブウィンドウ設定部
43 第2の正面顔判別器(顔判別手段)
44 第2の左横顔判別器(顔判別手段)
45 第2の右横顔判別器(顔判別手段)
50 重複検出判定部
DESCRIPTION OF SYMBOLS 1 Face detection system 10 Multi-resolution part 20 Local normalization part (normalization means)
30 1st face detection part 31 1st subwindow setting part 33 1st front face discriminator (face discrimination means)
34 First left side face classifier (face discrimination means)
35 First right side face classifier (face discrimination means)
40 Second face detection unit 41 Second sub window setting unit 43 Second front face discriminator (face discrimination means)
44 Second left side face classifier (face discrimination means)
45 Second right side face classifier (face discrimination means)
50 Duplicate detection judgment part

Claims (5)

顔画像であるか否かを判別する対象となる判別対象画像に対して、該画像における各局所領域について輝度を表す画素値の分散の程度を所定レベルに近づける輝度階調変換を行う正規化処理を施すことにより、前記判別対象画像におけるコントラストのばらつきを抑制する正規化ステップと、
前記正規化処理が施された判別対象画像の輝度分布に係る少なくとも1つの特徴量を算出し、該特徴量を用いて前記判別対象画像が顔画像であるか否かを判別する顔判別ステップとを有する顔判別方法であって、
前記局所領域が、前記顔判別手段が判別すべき顔の目を1つのみ含む大きさの領域であることを特徴とする顔判別方法。
A normalization process for performing luminance gradation conversion on a discrimination target image that is a target for discriminating whether or not it is a face image, so that the degree of dispersion of pixel values representing luminance for each local region in the image approaches a predetermined level Normalizing step for suppressing variation in contrast in the discrimination target image by applying
A face determination step of calculating at least one feature amount relating to a luminance distribution of the determination target image subjected to the normalization process, and determining whether the determination target image is a face image using the feature amount; A face discrimination method comprising:
The face discrimination method, wherein the local area is an area having a size including only one face eye to be discriminated by the face discrimination means.
顔画像であるか否かを判別する対象となる判別対象画像に対して、該画像における各局所領域について輝度を表す画素値の分散の程度を所定レベルに近づける輝度階調変換を行う正規化処理を施すことにより、前記判別対象画像におけるコントラストのばらつきを抑制する正規化手段と、
前記正規化処理が施された判別対象画像の輝度分布に係る少なくとも1つの特徴量を算出し、該特徴量を用いて前記判別対象画像が顔画像であるか否かを判別する顔判別手段とを備えた顔判別装置であって、
前記局所領域が、前記顔判別手段が判別すべき顔の目を1つのみ含む大きさの領域であることを特徴とする顔判別装置。
A normalization process for performing luminance gradation conversion on a discrimination target image that is a target for discriminating whether or not it is a face image, so that the degree of dispersion of pixel values representing luminance for each local region in the image approaches a predetermined level Normalizing means for suppressing variation in contrast in the discrimination target image by applying
Face discriminating means for calculating at least one feature amount relating to a luminance distribution of the discrimination target image subjected to the normalization processing and discriminating whether or not the discrimination target image is a face image using the feature amount; A face discrimination device comprising:
The face discrimination apparatus characterized in that the local area is an area having a size including only one face eye to be discriminated by the face discrimination means.
前記正規化処理が、前記判別対象画像における各画素を注目画素として順次設定するとともに、前記注目画素毎に、該注目画素を代表とする所定の大きさの局所領域における画素値の分散を算出し、該分散が前記所定レベルに対応する基準値より大きいほど、前記注目画素の画素値と該注目画素を代表とする前記局所領域における画素値の統計学上の所定の代表値との差を小さくし、該分散が前記基準値より小さいほど、前記注目画素の画素値と前記所定の代表値との差を大きくする階調変換を行う処理であることを特徴とする請求項2記載の顔判別装置。   The normalization process sequentially sets each pixel in the discrimination target image as a target pixel, and calculates a variance of pixel values in a local area of a predetermined size represented by the target pixel for each target pixel. As the variance is larger than the reference value corresponding to the predetermined level, the difference between the pixel value of the target pixel and the predetermined statistical value of the pixel value in the local region represented by the target pixel is reduced. 3. The face discrimination according to claim 2, wherein gradation conversion is performed to increase the difference between the pixel value of the target pixel and the predetermined representative value as the variance is smaller than the reference value. apparatus. 前記顔判別手段が、顔の向きが判別すべき顔の向きと同一であって顔の天地方向が揃った互いに異なる複数の学習用顔画像を用いて、顔のパターンの特徴を学習してなるものであり、
前記局所領域が、該領域の長手方向の幅を、前記学習用顔画像における目の長手方向の幅の平均値の1.1から1.8倍の間の長さとする領域であることを特徴とする請求項2または3記載の顔判別装置。
The face discriminating means learns the features of the face pattern using a plurality of different learning face images having the same face orientation as the face orientation to be discriminated and having the same face orientation. Is,
The local region is a region in which the longitudinal width of the region is a length between 1.1 and 1.8 times the average value of the longitudinal width of the eyes in the learning face image. The face discrimination device according to claim 2 or 3.
コンピュータを、
顔画像であるか否かを判別する対象となる判別対象画像に対して、該画像における各局所領域について輝度を表す画素値の分散の程度を所定レベルに近づける輝度階調変換を行う正規化処理を施すことにより、前記判別対象画像におけるコントラストのばらつきを抑制する正規化手段と、
前記正規化処理が施された判別対象画像の輝度分布に係る少なくとも1つの特徴量を算出し、該特徴量を用いて前記判別対象画像が顔画像であるか否かを判別する顔判別手段として機能させるためのプログラムであって、
前記局所領域が、前記顔判別手段が判別すべき顔の目を1つのみ含む大きさの領域であることを特徴とするプログラム。
Computer
A normalization process for performing luminance gradation conversion on a discrimination target image that is a target for discriminating whether or not it is a face image, so that the degree of dispersion of pixel values representing luminance for each local region in the image approaches a predetermined level Normalizing means for suppressing variation in contrast in the discrimination target image by applying
As face discrimination means for calculating at least one feature amount related to the luminance distribution of the discrimination target image subjected to the normalization process and discriminating whether the discrimination target image is a face image or not using the feature amount. A program for functioning,
The program according to claim 1, wherein the local area is an area having a size including only one eye of the face to be discriminated by the face discrimination means.
JP2006029176A 2005-03-31 2006-02-07 Face discrimination method, apparatus, and program Expired - Fee Related JP4749879B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006029176A JP4749879B2 (en) 2005-03-31 2006-02-07 Face discrimination method, apparatus, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005103780 2005-03-31
JP2005103780 2005-03-31
JP2006029176A JP4749879B2 (en) 2005-03-31 2006-02-07 Face discrimination method, apparatus, and program

Publications (2)

Publication Number Publication Date
JP2006309714A true JP2006309714A (en) 2006-11-09
JP4749879B2 JP4749879B2 (en) 2011-08-17

Family

ID=37476483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006029176A Expired - Fee Related JP4749879B2 (en) 2005-03-31 2006-02-07 Face discrimination method, apparatus, and program

Country Status (1)

Country Link
JP (1) JP4749879B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158776A (en) * 2006-12-22 2008-07-10 Canon Inc Feature detection method and device, program, and storage medium
WO2008139781A1 (en) * 2007-05-09 2008-11-20 Mitsubishi Electric Corporation Face detection apparatus and face detection program
JP2012103815A (en) * 2010-11-08 2012-05-31 National Institute Of Advanced Industrial & Technology Image processing method, image processing program, computer readable storage medium storing the program and image processing device
CN110084258A (en) * 2018-02-12 2019-08-02 成都视观天下科技有限公司 Face preferred method, equipment and storage medium based on video human face identification
CN115619410A (en) * 2022-10-19 2023-01-17 闫雪 Self-adaptive financial payment platform

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11306348A (en) * 1998-04-21 1999-11-05 Toshiba Tec Corp Method and device for object detection
JP2002216124A (en) * 2001-01-17 2002-08-02 Kitakiyuushiyuu Techno Center:Kk Converting method of image contrast by mobile normalization method
JP2003036439A (en) * 2001-07-23 2003-02-07 Minolta Co Ltd Device, method and program for extracting image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11306348A (en) * 1998-04-21 1999-11-05 Toshiba Tec Corp Method and device for object detection
JP2002216124A (en) * 2001-01-17 2002-08-02 Kitakiyuushiyuu Techno Center:Kk Converting method of image contrast by mobile normalization method
JP2003036439A (en) * 2001-07-23 2003-02-07 Minolta Co Ltd Device, method and program for extracting image

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158776A (en) * 2006-12-22 2008-07-10 Canon Inc Feature detection method and device, program, and storage medium
WO2008139781A1 (en) * 2007-05-09 2008-11-20 Mitsubishi Electric Corporation Face detection apparatus and face detection program
JPWO2008139781A1 (en) * 2007-05-09 2010-07-29 三菱電機株式会社 Face detection device and face detection program
JP4555396B2 (en) * 2007-05-09 2010-09-29 三菱電機株式会社 Face detection device and face detection program
JP2012103815A (en) * 2010-11-08 2012-05-31 National Institute Of Advanced Industrial & Technology Image processing method, image processing program, computer readable storage medium storing the program and image processing device
CN110084258A (en) * 2018-02-12 2019-08-02 成都视观天下科技有限公司 Face preferred method, equipment and storage medium based on video human face identification
CN115619410A (en) * 2022-10-19 2023-01-17 闫雪 Self-adaptive financial payment platform
CN115619410B (en) * 2022-10-19 2024-01-26 闫雪 Self-adaptive financial payment platform

Also Published As

Publication number Publication date
JP4749879B2 (en) 2011-08-17

Similar Documents

Publication Publication Date Title
JP4744918B2 (en) Face detection method, apparatus, and program
JP4657934B2 (en) Face detection method, apparatus and program
JP4619927B2 (en) Face detection method, apparatus and program
JP4628882B2 (en) Classifier learning method, face discrimination method and apparatus, and program
US7801337B2 (en) Face detection method, device and program
JP4708909B2 (en) Method, apparatus and program for detecting object of digital image
US8155396B2 (en) Method, apparatus, and program for detecting faces
JP4640825B2 (en) Specific orientation face determination method, apparatus, and program
US7092554B2 (en) Method for detecting eye and mouth positions in a digital image
US8605955B2 (en) Methods and apparatuses for half-face detection
US8577099B2 (en) Method, apparatus, and program for detecting facial characteristic points
US20070189609A1 (en) Method, apparatus, and program for discriminating faces
JP4757598B2 (en) Face detection method, apparatus, and program
JP2007102401A (en) Face direction specification method, face discrimination method and device and program
US20060222217A1 (en) Method, apparatus, and program for discriminating faces
JP4795864B2 (en) Feature point detection apparatus and method, and program
JP4749879B2 (en) Face discrimination method, apparatus, and program
JP2011170890A (en) Face detecting method, face detection device, and program
JP4749884B2 (en) Learning method of face discriminating apparatus, face discriminating method and apparatus, and program
JP4795737B2 (en) Face detection method, apparatus, and program
JP2006244385A (en) Face-discriminating apparatus, program and learning method for the apparatus
JP4749880B2 (en) Face discrimination method, apparatus, and program
JP2007011935A (en) Method and apparatus for discriminating face, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110518

R150 Certificate of patent or registration of utility model

Ref document number: 4749879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees