Nothing Special   »   [go: up one dir, main page]

JP4219521B2 - Matching method and apparatus, and recording medium - Google Patents

Matching method and apparatus, and recording medium Download PDF

Info

Publication number
JP4219521B2
JP4219521B2 JP2000028520A JP2000028520A JP4219521B2 JP 4219521 B2 JP4219521 B2 JP 4219521B2 JP 2000028520 A JP2000028520 A JP 2000028520A JP 2000028520 A JP2000028520 A JP 2000028520A JP 4219521 B2 JP4219521 B2 JP 4219521B2
Authority
JP
Japan
Prior art keywords
face
template
matching
area
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000028520A
Other languages
Japanese (ja)
Other versions
JP2001216518A (en
Inventor
昌世 片峯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2000028520A priority Critical patent/JP4219521B2/en
Publication of JP2001216518A publication Critical patent/JP2001216518A/en
Application granted granted Critical
Publication of JP4219521B2 publication Critical patent/JP4219521B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、人物の顔を含む画像とテンプレートとのテンプレートマッチングを行うマッチング方法および装置、これらの方法および装置を用いた画像処理方法および装置並びにマッチング方法および画像処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体に関するものである。
【0002】
【従来の技術】
ネガフイルムやリバーサルフイルムなどを用いて人物像を撮影することにより得られた写真などの画像において、最も注目される部位は人物の顔である。したがって、画像の見えをよくするためには人物の顔が適正な色、濃度および階調となるように画像に対して画像処理を施す必要がある。一方、人物の顔が適正な色、濃度および階調となるように画像処理を施すためには、画像から人物の顔領域を適切に抽出する必要がある。このため、例えば人物を含む画像中から肌色領域の候補を抽出し、各候補のクロマや輝度のヒストグラムに基づいて肌色の色空間を定義して肌色領域を決定し、この肌色領域を顔領域とする方法(特開平6−309433号)、複数の顔テンプレートを用意し、この顔テンプレートと画像とのテンプレートマッチングを行って顔領域候補を抽出した後に、顔領域候補内における肌色の分布に基づいて顔領域を抽出する方法(特開平8−63597号)等により画像から顔領域を抽出して、画像処理を施すことが提案されている。
【0003】
【発明が解決しようとする課題】
しかしながら、上記特開平6−309433号に記載された方法は、予め定められた肌色空間にある領域を肌色領域として抽出するものである。したがって、顔画像のコントラストが大きいと顔画像中の肌色の濃度が広範囲に亘って分布するため、定義された肌色空間に含まれない肌色を有する領域が顔領域に存在する可能性が高くなり、その結果顔の領域を全て抽出することができない場合がある。また、定義された肌色空間に顔の背景の色が含まれる場合には、顔画像とともに背景も抽出されてしまう。一方、上記特開平8−63597号に記載された方法は、顔テンプレートを用いたテンプレートマッチングによりある程度の顔の領域を定めることができるものの、抽出された顔領域候補から肌色の分布に基づいて顔領域を抽出する際に、上記特開平6−309433号に記載された方法と同様の問題が生じる。
【0004】
本発明は上記事情に鑑みなされたものであり、顔画像に含まれる顔のコントラストを考慮して、顔領域を適切に抽出するための情報を得ることができるマッチング方法および装置、このマッチング方法および装置を用いた画像処理方法および装置並びにマッチング方法および画像処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体を提供することを目的とするものである。
【0005】
【課題を解決するための手段】
本発明によるマッチング方法は、顔の輪郭および顔の構成部品を含むとともに、顔の種類、顔の向きおよび顔に照射される光源の方向が少なくとも異なる複数の顔テンプレートと人物の顔を含む顔画像とのマッチング度を求めるテンプレートマッチングを行って、該マッチング度が最も高い顔テンプレートを決定し、
該マッチング度が最も高い顔テンプレートに基づいて、前記顔画像上の顔を含む顔領域における顔の向きおよび該顔に照射される光源の方向に関する情報を取得することを特徴とするものである。
【0006】
ここで、「顔テンプレート」とは、人間の顔について顔の輪郭、目、口、鼻および耳等の顔の構成部品を含むものであり、顔の種類、顔の向きおよび顔に照射される光源の方向を少なくとも変更することにより得られるものである。本発明における「顔テンプレート」においては、顔の向きが変わることにより、顔の輪郭の形状および顔の構成部品の配置位置が異なるものとなる。また、光源の方向が変わることにより、顔の輪郭に囲まれる領域の濃度分布が異なるものとなる。例えば、光源方向が顔の正面であれば濃度分布は均一なものとなるが、光源方向がテンプレートに向かって右側であれば、顔の輪郭に囲まれる領域の右側が明るく、左側が暗い濃度分布となる。なお、この「顔テンプレート」としては、顔を3次元的に表したものであっても2次元的に表したものであってもよい。また、「顔の種類」としては、大人、子供、女性、男性、黄色人種、白色人種あるいは黒色人種等が挙げられる。なお、顔の種類、顔の向きおよび光源の方向に加えて、顔のサイズが異なる顔テンプレートを用いてもよい。
【0007】
なお、顔の輪郭の形状、目、鼻などの顔の構成部品の位置が分かれば顔の向きを知ることができる。したがって、「顔の向きに関する情報」とは、マッチング度が最も高い顔テンプレートにおける顔の輪郭形状および顔の構成部品の位置に関する情報のことをいう。
【0008】
また、顔に照射する光源の方向を変化させると、顔における明るさの分布が種々変更され、その結果顔の濃度分布が種々変更されることとなる。したがって、「光源の方向に関する情報」とは、マッチング度が最も高い顔テンプレートにおける顔領域の濃度分布に関する情報のことをいう。
【0009】
なお、本発明によるマッチング方法においては、前記顔画像において前記顔領域を含む所定範囲の領域を顔領域候補として設定し、
該顔領域候補内において前記テンプレートマッチングを行うことが好ましい。
【0010】
ここで、「顔領域を含む所定範囲の領域」は、顔画像をモニタなどの表示手段に表示して顔領域を矩形、円形等の領域で囲むことにより設定してもよく、顔画像を予め複数の領域に分割し、分割された領域から顔領域を含む領域を抽出することにより設定してもよい。
【0011】
また、本発明によるマッチング方法においては、前記複数の顔テンプレートを予め作成してもよい。
【0012】
さらに、前記複数の顔テンプレートを、前記顔の種類に応じて予め作成された複数の基準テンプレートにおける顔の向きおよび光源の方向を変更することにより作成し、
該顔の向きおよび光源の方向が変更された顔テンプレートを取得しつつ前記テンプレートマッチングを行うようにしてもよい。
【0013】
さらにまた、本発明によるマッチング方法においては、前記テンプレートマッチングを、前記複数の顔テンプレートについて階層的にマッチング度を求めることにより行うことが好ましい。
【0014】
ここで、「階層的にマッチング度を求める」とは、顔の種類、顔の向きおよび光源の方向の3要素のうち、2要素(例えば顔の向きおよび光源の方向)を固定して1要素(顔の種類)を変数とし、1要素のみを変更することによりテンプレートマッチングを行うことをいう。例えば、変数とする1要素を顔の種類とした場合、まず顔の種類についてテンプレートマッチングを行い、最もマッチング度が高いテンプレートを求めることにより、顔の種類が決定される。次いで、顔の種類を固定し、他の1要素(例えば顔の向き)を変数としてテンプレートマッチングを行い、最もマッチング度が高いテンプレートを求めることにより、顔の種類および顔の方向が決定される。そして、顔の種類および顔の向きを固定し、さらに他の1要素(光源の方向)を変数としてテンプレートマッチングを行い、最もマッチング度が高いテンプレートを求めることにより、顔画像における顔の種類、顔の方向および光源の方向が決定される。
【0015】
本発明による画像処理方法は、本発明によるマッチング方法により取得された前記顔の向きおよび光源の方向に関する情報に基づいて、前記顔領域における肌色の濃度分布を求め、
該濃度分布に基づいて前記顔画像における肌色空間を定義し、
前記顔画像における前記肌色空間に対応する領域を前記顔領域として抽出することを特徴とするものである。
【0016】
ここで、「顔の向きおよび光源の方向に関する情報に基づいて、顔領域における肌色の濃度分布を求める」とは、顔の向きに関する情報から顔領域の輪郭を推定し、顔の向きに関する情報における顔の構成部品の位置および光源の方向に関する情報から、顔領域の輪郭内の高濃度域および低濃度域の分布を得ることをいう。
【0017】
また、「濃度分布に基づいて肌色空間を定義する」とは、濃度分布に基づいて顔領域中に存在する高濃度域および低濃度域の全ての肌色の領域が含まれるように肌色空間を定めることをいう。
【0018】
なお、本発明による画像処理方法においては、前記肌色領域に対して所定の画像処理を施すことが好ましい。
【0019】
ここで、「画像処理」としては、肌色領域を所望とする肌色に変換する色変換処理、顔領域の階調を変換する階調変換処理、シャープネス強調処理等の種々の処理を用いることができる。
【0020】
本発明によるマッチング装置は、顔の輪郭および顔の構成部品を含むとともに、顔の種類、顔の向きおよび顔に照射される光源の方向が少なくとも異なる複数の顔テンプレートと人物の顔を含む顔画像とのマッチング度を求めるテンプレートマッチングを行って、該マッチング度が最も高い顔テンプレートを決定するテンプレートマッチング手段と、
該マッチング度が最も高い顔テンプレートに基づいて、前記顔画像上の顔を含む顔領域における顔の向きおよび該顔に照射される光源の方向に関する情報を取得する情報取得手段とを備えたことを特徴とするものである。
【0021】
なお、本発明によるマッチング装置においては、前記顔画像において前記顔領域を含む所定範囲の領域を顔領域候補として設定する領域設定手段をさらに備え、
前記テンプレートマッチング手段は、前記顔領域候補内において前記テンプレートマッチングを行う手段であることが好ましい。
【0022】
また、本発明によるマッチング装置においては、前記複数の顔テンプレートを記憶するテンプレート記憶手段をさらに備えるようにしてもよい。
【0023】
さらに、本発明によるマッチング装置においては、前記顔の種類に応じて予め作成された複数の基準テンプレートを記憶する基準テンプレート記憶手段と、
前記複数の基準テンプレートにおける顔の向きおよび光源の方向を変更することにより前記複数の顔テンプレートを作成するテンプレート作成手段とをさらに備えるようにし、
前記テンプレートマッチング手段を、該テンプレート作成手段により作成された前記顔の向きおよび前記光源の方向が異なる顔テンプレートを取得しつつ前記テンプレートマッチングを行う手段としてもよい。
【0024】
さらにまた、本発明によるマッチング装置においては、前記テンプレートマッチング手段は、前記テンプレートマッチングを、前記複数の顔テンプレートについて階層的にマッチング度を求めることにより行う手段であることが好ましい。
【0025】
本発明による画像処理装置は、本発明によるマッチング装置により取得された前記顔の向きおよび光源の方向に関する情報に基づいて、前記顔領域における肌色の濃度分布を求める手段と、
該濃度分布に基づいて前記顔画像における肌色空間を定義する手段と、
前記顔画像における前記肌色空間に対応する領域を前記顔領域として抽出する手段とを備えたことを特徴とするものである。
【0026】
なお、本発明による画像処理装置においては、前記肌色領域に対して所定の画像処理を施す手段をさらに備えることが好ましい。
【0027】
なお、本発明によるマッチング方法および画像処理方法をコンピュータに実行させるためのプログラムとして、コンピュータ読取り可能な記録媒体に記録して提供してもよい。
【0028】
【発明の効果】
本発明によるマッチング方法および装置によれば、複数の顔テンプレートと顔画像とのテンプレートマッチングを行って、顔画像に含まれる顔領域と最もマッチング度が高い顔テンプレートを決定し、この顔テンプレートに基づいて、顔画像上の顔領域における顔の向きおよび顔に照射される光源の方向に関する情報を取得するようにしたものである。ここで、顔の向きに関する情報から顔の輪郭の形状および顔の構成部品の位置を知ることができ、光源の方向に関する情報から顔に照射される光源の方向に応じて変動する顔領域の濃度分布を知ることができる。したがって、顔の向きおよび光源の方向に関する情報を用いることにより、肌色領域の抽出や、顔の構成部品の抽出などの種々の処理を行い易くすることができる。
【0029】
また、顔画像において顔領域を含む所定範囲の領域を顔領域候補として設定し、この顔領域候補内においてテンプレートマッチングを行うことにより、顔画像全体においてテンプレートマッチングを行う場合と比較して、マッチングのための演算時間を短縮することができる。
【0030】
さらに、複数の顔テンプレートを予め作成しておくことにより、顔テンプレートに何ら手を加えることなく、各顔テンプレートを順次使用するのみでテンプレートマッチングを行うことができる。
【0031】
さらにまた、予め作成された基準テンプレートにおける顔の向きおよび光源の方向を変更することにより複数の顔テンプレートを作成し、顔の向きおよび光源の方向を変更しつつテンプレートマッチングを行うことにより、保存しておくテンプレートの数を少なくすることができ、これによりテンプレートを記憶する記憶手段の容量を低減することができる。
【0032】
また、階層的にマッチング度を求めることにより、全ての顔テンプレートについてテンプレートマッチングを行う必要がなくなるため、テンプレートマッチングのための演算を高速に行うことができる。
【0033】
本発明による画像処理方法および装置においては、本発明によるマッチング方法および装置により抽出された顔の向きおよび光源の方向に関する情報に基づいて、顔画像中の顔領域における肌色の濃度分布が求められる。すなわち、顔の向きに関する情報から顔領域の輪郭を推定し、顔の向きに関する情報における鼻等の顔の構成部品の位置および光源の方向に関する情報から、顔領域の輪郭内の高濃度域および低濃度域の分布を得、これが肌色の濃度分布として得られる。この濃度分布は、顔領域における高濃度域および低濃度域がどのように分布して顔の領域のコントラストを形成しているかを表す情報であり、この濃度分布に基づいて、顔領域中に存在する高濃度域および低濃度域の全ての肌色の領域が含まれるように肌色空間が定義される。このため、顔領域のコントラストが大きくても顔領域の肌色が全て抽出されるように肌色空間を定義することができ、これにより顔画像から肌色領域を正確に抽出することができる。
【0034】
また、抽出された肌色領域に対して画像処理を施すことにより、顔画像中の顔領域を所望とする画像処理が施されたものとすることができる。
【0035】
【発明の実施の形態】
以下図面を参照して本発明の実施形態について説明する。
【0036】
図1は本発明の実施形態によるマッチング装置を適用した画像処理装置の構成を示す概略ブロック図である。図1に示すように本実施形態による画像処理装置は、デジタルカメラにより撮像された、あるいはスキャナにより読取られた人物の顔を含む画像を表す画像データS0に対して処理を施して処理済み画像データS1を得るものであり、画像データS0が記録されたメディアから画像データS0を読み出す、あるいはネットワークを介して転送された画像データS0を読み出す読出手段1と、読み出した画像データS0により表される画像から人物の顔を抽出する顔抽出手段2と、画像データS0に対して画像処理を施して処理済み画像データS1を得る画像処理手段3と、処理済み画像データS1をプリンタ、ネットワーク、記録媒体、モニタ等に出力する出力手段4と、画像データS0等を表示するモニタ5と、顔抽出手段2、画像処理手段3および出力手段4に対して種々の入力を行うためのキーボード、マウス等からなる入力手段6とを備える。
【0037】
顔抽出手段2は、画像データS0により表される画像に後述する顔領域候補Fを指定する領域指定手段11と、領域指定手段11において指定された顔領域候補Fを抽出する領域抽出手段12と、複数のテンプレートTを表すテンプレートデータTDを記憶したテンプレート記憶手段13と、テンプレートTと領域抽出手段12において抽出された顔領域候補Fとのテンプレートマッチングを行って顔領域候補Fにおける顔の向きおよび光源の方向に関する情報Iを求めるマッチング手段14と、マッチング手段14において求められた情報Iに基づいて、顔領域候補Fから肌色領域Hを抽出する肌色領域抽出手段15とを備える。
【0038】
領域指定手段11は、画像データS0をモニタ5に表示し、モニタ5に表示された画像(以下画像についてもS0で表すものとする)S0に対して入力手段6からの指示により、例えば図2に示すように顔を含む領域を顔領域候補Fとして指定するものである。なお、顔領域候補Fは矩形に限定されるものではなく、円形あるいは楕円形であってもよい。また、画像S0を複数の領域に分割して各領域を指定する番号を付与し、顔を含む領域の番号を指定することにより顔領域候補Fを指定してもよい。例えば図3に示すように、画像S0を5×5の領域に分割した場合、顔領域候補Fの番号は22となる。
【0039】
なお、画像データS0を取得した際に顔領域候補Fを予め設定しておき、設定された顔領域候補Fの情報(例えば顔領域候補の位置、顔を含む領域の番号)をタグ情報として画像データS0に予め付加しておいてもよい。これにより、領域指定手段11においては、入力手段6からの指示がなくても、画像データS0のタグ情報に基づいて、顔領域候補Fが指定された画像S0をモニタ5に表示することができる。
【0040】
領域抽出手段12は、領域指定手段11において指定された顔領域候補Fを抽出するものであるが、抽出の際には顔領域候補Fにおいて顔領域以外の領域ができるだけ少なくなるように、領域指定手段11において指定された顔領域候補Fの大きさを多少変更してもよい。なお、領域抽出手段12において顔領域候補Fを抽出することにより、モニタ5には抽出された顔領域候補Fのみを表示してもよいが、図2に示すように画像S0上に顔領域候補Fの境界を表示してもよい。
【0041】
テンプレート記憶手段13には、複数種類の顔について、大きさ、向きおよび照射される光源の方向を異なるものとした複数のテンプレートTを表すテンプレートデータTDが、実写あるいはコンピュータグラフィックスによって作成されて記憶されている。ここで、コンピュータグラフィックスによりテンプレートデータTDを作成すれば、テンプレートTがノイズや撮影時のぶれによる影響を受けないため、より好ましいものである。なお、テンプレートTには、顔の種類、大きさおよび向きに応じた顔の輪郭および目、鼻、眉毛等の顔の構成部品が含まれる。
【0042】
ここで、顔の種類としては、大人、子供、赤ちゃん、老人、女性、男性、黄色人種、白色人種あるいは黒色人種等が挙げられる。また、顔の向きを異なるものとするためには、例えば例えば顔が正面を向いた状態を0度とし、0〜360度まで15度毎に異なる顔の向きに応じて、顔の輪郭および構成部品の配置を変更してテンプレートTとすればよい。また、光源の方向を異なるものとするためには、光源が顔の正面にある状態を0度とし、上下左右および斜め方向の合計4方向について、±90度の範囲で15度毎に異なる方向から顔に向けて光を照射した状態の顔の画像をテンプレートTとすればよい。なお、顔の大きさを考慮することなくテンプレートデータTDを作成してもよい。この場合、後述するマッチング手段14においては、顔領域候補FとテンプレートTとが正規化されてマッチングが行われることとなる。
【0043】
また、テンプレートデータTDは、階層化してテンプレート記憶手段13に記憶することが好ましい。例えば、図4に示すように、赤ちゃんの顔の下位の階層に顔の向きが異なる赤ちゃんの顔を対応付け、さらに個々の顔の向きにおける下位の階層に、顔上の影の位置すなわち光源の位置が異なる赤ちゃんの顔を対応付けておくことが好ましい。このように、テンプレートデータTDを階層化して記憶しておくことにより、まず顔の種類が決定された後、その種類に応じた顔の向きを決定し、さらにその後光源の方向を決定するよう階層的にテンプレートマッチングを行うことができる。したがって、全てのテンプレートTを用いてテンプレートマッチングを行う場合と比較して、マッチング手段14における顔領域候補FとテンプレートTとのテンプレートマッチングを効率よく行うことができる。
【0044】
なお、複数種類の顔を表す実写あるいはコンピュータグラフィックスの3次元形状モデルをテンプレートデータTDとして記憶してもよい。図5は男性の顔の3次元形状モデルを表すテンプレートデータTDを示す図である。このようにテンプレートデータTDを3次元形状モデルとした場合、3次元形状モデルをモニタ5に表示して入力手段6により顔の向きおよび照射される光源の方向を種々変更して後述するマッチング手段4において顔領域候補Fとのテンプレートマッチングを行うことができる。このように、テンプレートデータTDを3次元形状モデルとし、このテンプレートデータTDにより表されるテンプレートTにおける顔の向きおよび光源の方向を変更して顔領域候補Fとのテンプレートマッチングを行うことにより、テンプレート記憶手段13に記憶するテンプレートデータTDを少なくすることができ、これによりテンプレート記憶手段13の容量を低減することができる。
【0045】
また、この場合においても階層的に顔の向きおよび照射される光源の方向を変更してテンプレートマッチングを行うことができ、これにより顔領域候補FとテンプレートTとのテンプレートマッチングを効率よく行うことができる。
【0046】
また、テンプレートデータTDとしては2値化したテンプレートTを表すものであってもよい。
【0047】
マッチング手段14は、領域抽出手段12において抽出された顔領域候補Fを表すデータが入力されると、テンプレート記憶手段13からテンプレートデータTDを順次読み出して、顔領域候補FとテンプレートTとのテンプレートマッチングを行うものである。具体的には、顔領域候補FおよびテンプレートTを2値化し、2値化した顔領域候補FおよびテンプレートTとのマッチング度を求める。なおテンプレートTが2値化されている場合には、テンプレートTをそのまま用いる。そして、マッチング度が最大となるテンプレートTにおける顔の向きおよび光源の方向を、顔領域候補Fにおける顔の向きおよび光源の方向を表す情報Iとして求めるものである。具体的には、2値化した顔領域候補FにおけるデータをF′、2値化したテンプレートTのデータをTD′とすると、テンプレートTの位置および種類を変更する毎に下記の式(1)に示すように、データF′とデータTD′とのマッチング度Mを算出する。
【0048】
M=(Σ|Fij′−TDij′|)/n (1)
但し、Fij′:データF′により表される画像の画素値
TDij′:データF′と対応するデータTD′により表される画像の画素値
n:データFij′またはデータTDij′により表される画像の画素数
そして、算出されたマッチング度Mが最大となったテンプレートTにおける顔の向きおよび光源の方向を、顔領域候補Fにおける顔の向きおよび光源の方向を表す情報Iとして求めるものである。なお、テンプレートTおよび顔領域候補Fを2値化することなくテンプレートマッチングを行ってもよい。
【0049】
ここで、顔の輪郭の形状、目、鼻などの顔の構成部品の位置が分かれば顔の向きを知ることができる。したがって、顔の向きに関する情報とは、マッチング度が最も高いテンプレートTにおける顔の輪郭形状、目、鼻などの顔の構成部品の位置に関する情報のことをいう。
【0050】
また、顔に照射する光源の方向を変化させると、顔における明るさの分布が種々変更され、その結果顔の濃度分布が種々変更されることとなる。したがって、光源の方向に関する情報とは、マッチング度が最も高いテンプレートTにおける顔の濃度分布に関する情報のことをいう。
【0051】
なお、テンプレート記憶手段13においてテンプレートデータTDが図4に示すように階層化されている場合、顔の種類のマッチング後は、マッチングされた種類の顔の下位階層において顔の向きについてのみのマッチングを行えばよく、さらに顔の向きのマッチング後は、顔の向きの下位階層において光源の方向についてのみマッチングを行えばよい。
【0052】
また、領域指定手段11における領域指定時に、画像S0に含まれる顔の種類(例えば女性の顔である、赤ちゃんの顔である等)を予め入力しておくことにより、マッチング手段14において、入力された種類の顔を表すテンプレートTを優先的にマッチングに使用することができ、これによってもテンプレートマッチングを効率よく行うことができる。
【0053】
さらに、顔領域候補FおよびテンプレートTをLog-Polar変換して、テンプレートマッチングを行ってもよい。ここで、人間の顔は円形に近い形状をなしているため、例えば図6に示すような右90度の方向から光が照射された顔画像を、顔画像の中心を極とするとともに、図6におけるY軸を基準としてLog-Polar変換すると、顔の輪郭は図7に示すように、極座標上において略水平方向に延在するものとなる。したがって、顔領域候補FおよびテンプレートTをLog-Polar変換することにより、円形に近い形状を有する領域同士をテンプレートマッチングする場合と比較して、テンプレートマッチングを行い易くすることができる。
【0054】
肌色領域抽出手段15は、マッチング手段14において得られた顔領域候補Fにおける顔の向きおよび光源方向を表す情報Iに基づいて、顔領域候補Fを明るい領域すなわち低濃度域および暗い領域すなわち高濃度域に領域分割し、各領域毎に肌色空間を定義して肌色領域を抽出する。この肌色領域Hの抽出は以下のようにして行う。まず、顔の向きに関する情報から顔領域候補Fにおける顔の輪郭を知ることができ、さらに光源方向を表す情報から輪郭により囲まれる領域内における明るい領域および暗い領域の分布すなわち濃度分布を知ることができる。またこの際、顔の向きに関する情報から顔の構成部品の位置を知ることができるが、とくに鼻および目の位置に関する情報に基づいて、顔において他の領域よりも明るくなる鼻および目の下にある頬の位置を知ることができる。そして、濃度分布および鼻、頬の位置に基づいて肌色空間を定義して肌色領域Hを抽出する。
【0055】
具体的には、図6に示すように正面を向いた顔の右側から光が照射されている場合、顔の右半分の領域(以下右領域とする)は明るいが左半分の領域(以下左領域とする)は暗いものとなる。また、人間の顔においては鼻および頬が突出しているため、右領域においては鼻の右側および頬が他の領域より明るくなる。また、左領域においても鼻および頬の部分が他の領域より明るくなる。
【0056】
したがって、右領域については最も明るい部分すなわち鼻の右側と頬の部分を含むように肌色空間を定義して、顔の右半分の領域を抽出する。一方、顔の左半分についても鼻の左側と頬の部分を含むように肌色空間を定義して、顔の左半分の領域を抽出する。
【0057】
画像処理手段3は、抽出された肌色領域Hが所望とする濃度および色となるように、この肌色領域Hの画像データS0に対して階調処理や色変換処理さらにはシャープネス処理等の画像処理を施して処理済み画像データS1を得る。なお、肌色領域H以外の領域について画像処理を施してもよい。ここで、シャープネス処理としては、肌色領域Hの大きさすなわち顔の大きさに応じて、顔が大きい場合にはシャープネス強調の程度を弱くし、顔が小さい場合にはシャープネス強調の程度を大きくするように処理を施すことができる。
【0058】
次いで、本実施形態の動作について説明する。図8は本実施形態の動作を示すフローチャートである。まず、読出手段1において画像データS0が読み出されて(ステップS1)、顔領域抽出手段2に入力される。画像データS0はモニタ5に表示され(ステップS2)、入力手段6からの入力により顔領域候補Fが指定される(ステップS3)。そして、領域抽出手段12において顔領域候補Fが抽出される(ステップS4)。抽出された顔領域候補Fはマッチング手段14に入力され、ここでテンプレート記憶手段13に記憶されたテンプレートデータTDを用いて、テンプレートデータTDにより表されるテンプレートTと顔領域候補Fとのテンプレートマッチングが行われる(ステップS5)。そしてテンプレートマッチングが終了すると、マッチング度が最も大きいテンプレートTに基づいて顔の向きおよび光源の方向を表す情報Iが生成される(ステップS6)。
【0059】
肌色領域抽出手段15は情報Iに基づいて、上述したように顔領域候補Fから肌色領域Hを抽出する(ステップS7)。そして、画像処理手段3において画像データS0により表される画像における肌色領域Hに対して階調処理、色変換処理、シャープネス処理等の画像処理が施されて処理済み画像データS1が得られる(ステップS8)。そして、処理済み画像データS1は出力手段4において出力され(ステップS9)、処理を終了する。
【0060】
このように、本実施形態においては、顔領域候補Fを複数のテンプレートTによりテンプレートマッチングして顔領域候補Fにおける顔の向きおよび光源の方向を表す情報Iを得るようにしたため、顔の向きに関する情報から顔の輪郭形状および顔の構成部品の位置を知ることができ、光源の方向に関する情報から顔に照射される光の方向に応じて変動する顔領域候補Fの濃度分布を知ることができる。そして、情報Iのうち顔の向きに関する情報から顔領域の輪郭を推定し、顔の向きに関する情報における鼻等の顔の構成部品の位置および光源の方向に関する情報から、顔の輪郭内における濃度分布が得られる。したがって、この濃度分布に基づいて、顔領域候補Fにおける顔の輪郭内の領域中に存在する高濃度域および低濃度域の全ての肌色の領域が含まれるように肌色空間を定義することにより、顔領域のコントラストが大きくとも顔領域候補Fの肌色が全て抽出されるように肌色空間を定義することができ、これにより肌色領域Hを正確に抽出することができる。
【0061】
また、領域指定手段11において顔を含む所定範囲の領域を顔領域候補Fとして設定し、この設定された顔領域候補Fにおいてテンプレートマッチングを行うようにしたため、顔画像全体においてテンプレートマッチングを行う場合と比較して、マッチングのための演算時間を短縮することができる。
【0062】
なお、上記実施形態においては、情報Iとして顔の向きに関する情報および光源の方向に関する情報を得、これらに基づいて肌色領域Hを抽出しているが、情報Iに基づいて顔領域候補Fから目、鼻などの顔の構成部品の位置を知ることができ、これにより情報Iを用いて顔領域候補Fからの顔の構成部品の抽出を簡易に行うことができる。
【図面の簡単な説明】
【図1】本発明の実施形態による画像処理装置の構成を示すブロック図
【図2】顔領域候補Fの指定を説明するための図
【図3】顔領域候補Fの指定を説明するための図
【図4】階層化されたテンプレートを示す図
【図5】3次元テンプレートの例を示す図
【図6】肌色領域の抽出を説明するための図
【図7】 Log-Polar変換した顔領域候補を示す図
【図8】本実施形態の動作を示すフローチャート
【符号の説明】
1 読出手段
2 顔抽出手段
3 画像処理手段
4 出力手段
5 モニタ
6 入力手段
11 領域指定手段
12 領域抽出手段
13 テンプレート記憶手段
14 マッチング手段
15 肌色領域抽出手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a matching method and apparatus for performing template matching between an image including a human face and a template, an image processing method and apparatus using these methods and apparatuses, and a computer to execute the matching method and image processing method. The present invention relates to a computer-readable recording medium on which a program is recorded.
[0002]
[Prior art]
In an image such as a photograph obtained by taking a human image using a negative film, a reversal film, or the like, the most noticeable part is the face of the person. Therefore, in order to improve the appearance of the image, it is necessary to perform image processing on the image so that the human face has an appropriate color, density, and gradation. On the other hand, in order to perform image processing so that a person's face has an appropriate color, density, and gradation, it is necessary to appropriately extract the person's face area from the image. For this reason, for example, skin color area candidates are extracted from an image including a person, a skin color area is determined by defining a skin color color space based on a chroma or luminance histogram of each candidate, and the skin color area is defined as a face area. Method (Japanese Patent Laid-Open No. 6-309433), after preparing a plurality of face templates and performing template matching between the face templates and images to extract face area candidates, based on the skin color distribution in the face area candidates It has been proposed to extract a face area from an image by a method of extracting a face area (Japanese Patent Laid-Open No. 8-63597) or the like and perform image processing.
[0003]
[Problems to be solved by the invention]
However, the method described in JP-A-6-309433 extracts a region in a predetermined skin color space as a skin color region. Therefore, since the skin color density in the face image is distributed over a wide range when the contrast of the face image is large, there is a high possibility that an area having a skin color not included in the defined skin color space exists in the face area. As a result, it may not be possible to extract all the face regions. Further, when the color of the background of the face is included in the defined skin color space, the background is also extracted together with the face image. On the other hand, although the method described in the above-mentioned Japanese Patent Application Laid-Open No. 8-63597 can determine a certain face area by template matching using a face template, a face based on the skin color distribution from the extracted face area candidates. When extracting a region, the same problem as the method described in JP-A-6-309433 occurs.
[0004]
The present invention has been made in view of the above circumstances, and a matching method and apparatus capable of obtaining information for appropriately extracting a face region in consideration of the contrast of a face included in a face image, the matching method and An object of the present invention is to provide a computer-readable recording medium in which a program for causing a computer to execute an image processing method and apparatus using the apparatus, a matching method, and an image processing method is provided.
[0005]
[Means for Solving the Problems]
The matching method according to the present invention includes a face image including a plurality of face templates and a person's face, which include face contours and face components, and at least different face types, face orientations, and directions of light sources applied to the face. Template matching to find the matching degree with and determine the face template with the highest matching degree,
Based on the face template having the highest matching degree, information on the face direction in the face area including the face on the face image and the direction of the light source irradiated on the face is acquired.
[0006]
Here, the “face template” includes facial components such as the face outline, eyes, mouth, nose and ears of a human face, and the face type, face orientation and face are irradiated. This is obtained by changing at least the direction of the light source. In the “face template” of the present invention, the shape of the face outline and the arrangement position of the face components differ depending on the orientation of the face. In addition, when the direction of the light source is changed, the density distribution of the region surrounded by the outline of the face is different. For example, if the light source direction is the front of the face, the density distribution is uniform, but if the light source direction is the right side of the template, the right side of the area surrounded by the face outline is bright and the left side is dark. It becomes. The “face template” may be a three-dimensional representation of the face or a two-dimensional representation of the face. Examples of the “face type” include adults, children, women, men, yellow races, white races, black races, and the like. In addition to face types, face orientations, and light source directions, face templates having different face sizes may be used.
[0007]
Note that the face orientation can be known if the shape of the face contour and the positions of the facial components such as eyes and nose are known. Therefore, the “information about the orientation of the face” refers to information about the contour shape of the face and the position of the constituent parts of the face in the face template having the highest matching degree.
[0008]
Further, when the direction of the light source that irradiates the face is changed, the brightness distribution in the face is changed variously, and as a result, the density distribution of the face is changed variously. Therefore, “information on the direction of the light source” refers to information on the density distribution of the face region in the face template having the highest matching degree.
[0009]
In the matching method according to the present invention, a predetermined area including the face area in the face image is set as a face area candidate,
The template matching is preferably performed within the face area candidate.
[0010]
Here, the “region of a predetermined range including the face area” may be set by displaying the face image on a display unit such as a monitor and surrounding the face area with a rectangle, a circle, or the like. It may be set by dividing a plurality of areas and extracting an area including a face area from the divided areas.
[0011]
In the matching method according to the present invention, the plurality of face templates may be created in advance.
[0012]
Further, the plurality of face templates are created by changing a face direction and a light source direction in a plurality of reference templates created in advance according to the type of the face,
The template matching may be performed while acquiring a face template in which the face direction and the light source direction are changed.
[0013]
Furthermore, in the matching method according to the present invention, it is preferable that the template matching is performed by hierarchically obtaining matching degrees for the plurality of face templates.
[0014]
Here, “determining the matching level hierarchically” means that one of the three elements of the face type, the face direction, and the light source direction is fixed to two elements (for example, the face direction and the light source direction). This means that template matching is performed by changing only one element with (face type) as a variable. For example, when one element as a variable is set as a face type, first, template matching is performed for the face type, and a template having the highest matching degree is obtained to determine the face type. Next, the face type is fixed, template matching is performed using another element (for example, the face orientation) as a variable, and the template having the highest matching degree is obtained, whereby the face type and the face direction are determined. Then, the face type and face direction are fixed, and template matching is performed using another element (light source direction) as a variable, and a template having the highest matching degree is obtained. And the direction of the light source are determined.
[0015]
The image processing method according to the present invention obtains a skin color density distribution in the face region based on the information on the face direction and the light source direction obtained by the matching method according to the present invention,
Defining a skin color space in the face image based on the density distribution;
An area corresponding to the skin color space in the face image is extracted as the face area.
[0016]
Here, “determining the skin color density distribution in the face area based on the information on the face direction and the light source direction” means that the contour of the face area is estimated from the information on the face direction and the information on the face direction is used. It refers to obtaining the distribution of the high density area and the low density area within the outline of the face area from the information on the position of the facial component and the direction of the light source.
[0017]
“Define the skin color space based on the density distribution” means that the skin color space is defined so that all the skin color areas of the high density region and the low density region existing in the face region are included based on the density distribution. That means.
[0018]
In the image processing method according to the present invention, it is preferable to perform predetermined image processing on the skin color area.
[0019]
Here, as the “image processing”, various processes such as a color conversion process for converting the skin color area into a desired skin color, a gradation conversion process for converting the gradation of the face area, and a sharpness enhancement process can be used. .
[0020]
The matching device according to the present invention includes a face image including a plurality of face templates and a person's face that include at least a face type, a face direction, and a direction of a light source applied to the face, including a face outline and a face component. Template matching means for performing a template matching to obtain a matching degree with the template and determining a face template having the highest matching degree;
Information acquisition means for acquiring information relating to the face direction in the face region including the face on the face image and the direction of the light source irradiated to the face based on the face template having the highest matching degree; It is a feature.
[0021]
The matching device according to the present invention further includes region setting means for setting a predetermined region including the face region as a face region candidate in the face image,
The template matching means is preferably means for performing the template matching in the face area candidate.
[0022]
The matching device according to the present invention may further include template storage means for storing the plurality of face templates.
[0023]
Furthermore, in the matching device according to the present invention, reference template storage means for storing a plurality of reference templates created in advance according to the type of the face,
A template creating means for creating the plurality of face templates by changing a face direction and a light source direction in the plurality of reference templates;
The template matching unit may be a unit that performs the template matching while acquiring face templates having different face orientations and light source directions created by the template creation unit.
[0024]
Furthermore, in the matching device according to the present invention, it is preferable that the template matching unit is a unit that performs the template matching by hierarchically obtaining matching degrees for the plurality of face templates.
[0025]
An image processing apparatus according to the present invention comprises: means for obtaining a skin color density distribution in the face area based on information on the face direction and the light source direction acquired by the matching apparatus according to the present invention;
Means for defining a skin color space in the face image based on the density distribution;
Means for extracting, as the face area, an area corresponding to the skin color space in the face image.
[0026]
The image processing apparatus according to the present invention preferably further includes means for performing predetermined image processing on the skin color area.
[0027]
The matching method and the image processing method according to the present invention may be provided by being recorded on a computer-readable recording medium as a program for causing a computer to execute the matching method and the image processing method.
[0028]
【The invention's effect】
According to the matching method and apparatus of the present invention, template matching between a plurality of face templates and a face image is performed, a face template having the highest matching degree with a face region included in the face image is determined, and based on this face template Thus, information on the direction of the face in the face area on the face image and the direction of the light source irradiated on the face is acquired. Here, it is possible to know the shape of the face outline and the position of the components of the face from the information about the face direction, and the density of the face region that varies depending on the direction of the light source irradiated to the face from the information about the direction of the light source You can know the distribution. Therefore, by using the information on the face direction and the light source direction, various processes such as the extraction of the skin color area and the extraction of the face components can be easily performed.
[0029]
In addition, by setting a predetermined area including the face area in the face image as a face area candidate, and performing template matching within the face area candidate, compared with the case where template matching is performed on the entire face image, matching is performed. Therefore, the calculation time can be shortened.
[0030]
Furthermore, by creating a plurality of face templates in advance, template matching can be performed by simply using each face template without any modification to the face template.
[0031]
Furthermore, a plurality of face templates can be created by changing the face direction and the light source direction in the reference template created in advance, and saved by performing template matching while changing the face direction and the light source direction. It is possible to reduce the number of templates to be stored, thereby reducing the capacity of the storage means for storing the templates.
[0032]
In addition, by obtaining the matching level hierarchically, it is not necessary to perform template matching for all face templates, so that the calculation for template matching can be performed at high speed.
[0033]
In the image processing method and apparatus according to the present invention, the skin color density distribution in the face area in the face image is obtained based on the information about the face direction and the light source direction extracted by the matching method and apparatus according to the present invention. That is, the contour of the face area is estimated from the information related to the face direction, and the high density region and the low density in the contour of the face area are determined based on the information related to the position of the face component such as the nose and the light source direction. A density range distribution is obtained, which is obtained as a skin color density distribution. This density distribution is information that shows how the high density area and low density area in the face area are distributed to form the contrast of the face area. Based on this density distribution, this density distribution exists in the face area. The skin color space is defined so as to include all the skin color regions of the high density region and the low density region. Therefore, the skin color space can be defined so that all the skin colors of the face area are extracted even when the contrast of the face area is large, and thus the skin color area can be accurately extracted from the face image.
[0034]
Further, by performing image processing on the extracted skin color area, it is possible to perform image processing that makes the face area in the face image desired.
[0035]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0036]
FIG. 1 is a schematic block diagram showing a configuration of an image processing apparatus to which a matching apparatus according to an embodiment of the present invention is applied. As shown in FIG. 1, the image processing apparatus according to the present embodiment performs processing on image data S0 representing an image including a person's face captured by a digital camera or read by a scanner, and processed image data. S1 is obtained, and the image data S0 is read from the medium on which the image data S0 is recorded, or the reading means 1 that reads the image data S0 transferred via the network, and the image represented by the read image data S0 A face extracting unit 2 for extracting a person's face from the image, an image processing unit 3 for performing image processing on the image data S 0 to obtain processed image data S 1, An output means 4 for outputting to a monitor, a monitor 5 for displaying image data S0, etc., a face extracting means 2, an image processing means 3 and keyboard for performing various inputs to the output unit 4, and an input unit 6 consisting of a mouse or the like.
[0037]
The face extracting unit 2 includes an area specifying unit 11 that specifies a face area candidate F, which will be described later, in the image represented by the image data S0, and an area extracting unit 12 that extracts the face area candidate F specified by the area specifying unit 11. The template storage unit 13 storing the template data TD representing the plurality of templates T, and the template T and the face region candidate F extracted by the region extraction unit 12 are subjected to template matching to determine the face direction and the face region candidate F Matching means 14 for obtaining information I regarding the direction of the light source, and skin color area extracting means 15 for extracting the skin color area H from the face area candidate F based on the information I obtained by the matching means 14.
[0038]
The area designating unit 11 displays the image data S0 on the monitor 5, and in response to an instruction from the input unit 6 to the image displayed on the monitor 5 (hereinafter also referred to as S0) S0, for example, FIG. An area including a face is designated as a face area candidate F as shown in FIG. The face area candidate F is not limited to a rectangle, and may be a circle or an ellipse. Alternatively, the face region candidate F may be specified by dividing the image S0 into a plurality of regions, assigning numbers for specifying each region, and specifying the number of the region including the face. For example, as shown in FIG. 3, when the image S0 is divided into 5 × 5 areas, the number of the face area candidate F is 22.
[0039]
Note that the face area candidate F is set in advance when the image data S0 is acquired, and the information of the set face area candidate F (for example, the position of the face area candidate and the number of the area including the face) is used as the tag information. It may be added in advance to the data S0. Thereby, the area designating unit 11 can display the image S0 in which the face area candidate F is designated on the monitor 5 on the basis of the tag information of the image data S0 without an instruction from the input unit 6. .
[0040]
The area extracting unit 12 extracts the face area candidate F designated by the area designating unit 11, and at the time of extraction, area designation is performed so that the area other than the face area is minimized in the face area candidate F. The size of the face area candidate F specified in the means 11 may be slightly changed. Note that only the extracted face area candidate F may be displayed on the monitor 5 by extracting the face area candidate F in the area extracting means 12, but the face area candidate is displayed on the image S0 as shown in FIG. The boundary of F may be displayed.
[0041]
In the template storage means 13, template data TD representing a plurality of templates T having different sizes, orientations, and directions of the light source to be radiated for a plurality of types of faces is created and stored by live action or computer graphics. Has been. Here, it is more preferable to create the template data TD by computer graphics because the template T is not affected by noise or blurring during photographing. The template T includes facial contours according to the type, size, and orientation of the face, and facial components such as eyes, nose, and eyebrows.
[0042]
Here, the types of faces include adults, children, babies, elderly people, women, men, yellow races, white races or black races. Also, in order to make the face direction different, for example, the state where the face is facing the front is set to 0 degree, and the face contour and configuration are changed according to the face direction which is different every 15 degrees from 0 to 360 degrees. What is necessary is just to change the arrangement | positioning of components and to make it the template T. Also, in order to make the direction of the light source different, the state where the light source is in front of the face is 0 degree, and the direction is different every 15 degrees within a range of ± 90 degrees for a total of four directions of up, down, left and right and oblique directions The template T may be an image of a face that is irradiated with light from the face toward the face. Note that the template data TD may be created without considering the face size. In this case, in the matching means 14 described later, the face area candidate F and the template T are normalized and matching is performed.
[0043]
The template data TD is preferably stored in the template storage unit 13 in a hierarchical manner. For example, as shown in FIG. 4, a baby face having a different face direction is associated with a lower hierarchy of the baby's face, and the shadow position on the face, that is, the light source It is preferable to associate baby faces with different positions. In this way, by storing the template data TD in a hierarchical manner, first the face type is determined, then the face direction corresponding to the type is determined, and then the direction of the light source is further determined. Template matching can be performed. Therefore, the template matching between the face area candidate F and the template T in the matching means 14 can be performed more efficiently than when performing template matching using all the templates T.
[0044]
Note that a live-action or computer graphics three-dimensional shape model representing a plurality of types of faces may be stored as the template data TD. FIG. 5 is a diagram showing template data TD representing a three-dimensional shape model of a male face. In this way, when the template data TD is a three-dimensional shape model, the three-dimensional shape model is displayed on the monitor 5 and the face means and the direction of the irradiated light source are variously changed by the input means 6 and matching means 4 described later. Template matching with the face area candidate F can be performed. As described above, the template data TD is used as a three-dimensional shape model, and the template T is matched with the face region candidate F by changing the face direction and the light source direction in the template T represented by the template data TD. The template data TD stored in the storage unit 13 can be reduced, whereby the capacity of the template storage unit 13 can be reduced.
[0045]
Also in this case, template matching can be performed by hierarchically changing the direction of the face and the direction of the illuminating light source, thereby efficiently performing template matching between the face region candidate F and the template T. it can.
[0046]
Further, the template data TD may represent a binarized template T.
[0047]
When the data representing the face area candidate F extracted by the area extracting means 12 is input, the matching means 14 sequentially reads the template data TD from the template storage means 13 and performs template matching between the face area candidate F and the template T. Is to do. Specifically, the face area candidate F and the template T are binarized, and the degree of matching with the binarized face area candidate F and the template T is obtained. When the template T is binarized, the template T is used as it is. Then, the face direction and the light source direction in the template T having the maximum matching degree are obtained as information I representing the face direction and the light source direction in the face region candidate F. Specifically, assuming that the data in the binarized face area candidate F is F ′, and the binarized template T data is TD ′, the following equation (1) is applied each time the position and type of the template T are changed. As shown, the degree of matching M between the data F ′ and the data TD ′ is calculated.
[0048]
M = (Σ | Fij′−TDij ′ |) / n (1)
Where Fij ′: the pixel value of the image represented by the data F ′
TDij ′: the pixel value of the image represented by the data TD ′ corresponding to the data F ′
n: number of pixels of the image represented by the data Fij ′ or the data TDij ′
Then, the face direction and the light source direction in the template T with the calculated matching degree M being maximized are obtained as information I representing the face direction and the light source direction in the face region candidate F. Note that template matching may be performed without binarizing the template T and the face area candidate F.
[0049]
Here, the orientation of the face can be known if the shape of the face contour and the positions of the facial components such as eyes and nose are known. Therefore, the information related to the orientation of the face refers to information related to the position of the face component such as the face contour shape, eyes, and nose in the template T having the highest degree of matching.
[0050]
Further, when the direction of the light source that irradiates the face is changed, the brightness distribution in the face is changed variously, and as a result, the density distribution of the face is changed variously. Therefore, the information regarding the direction of the light source refers to information regarding the density distribution of the face in the template T having the highest matching degree.
[0051]
If the template data TD is hierarchized in the template storage means 13 as shown in FIG. 4, after matching the face type, matching is performed only for the face direction in the lower hierarchy of the face of the matched type. Further, after matching the face direction, matching may be performed only for the direction of the light source in the lower hierarchy of the face direction.
[0052]
In addition, when the area designating unit 11 designates an area, the type of face included in the image S0 (for example, a female face, a baby face, etc.) is inputted in advance, so that the matching means 14 inputs it. The template T representing the different types of faces can be used for matching preferentially, and this also enables efficient template matching.
[0053]
Further, template matching may be performed by Log-Polar conversion of the face area candidate F and the template T. Here, since the human face has a nearly circular shape, for example, a face image irradiated with light from the direction of 90 degrees to the right as shown in FIG. When Log-Polar conversion is performed using the Y axis in FIG. 6 as a reference, the contour of the face extends in a substantially horizontal direction on polar coordinates as shown in FIG. Therefore, by performing the Log-Polar conversion on the face area candidate F and the template T, it is possible to make template matching easier than in the case of performing template matching between areas having a shape close to a circle.
[0054]
The skin color area extracting unit 15 selects the face area candidate F as a bright area, that is, a low density area and a dark area, that is, a high density, based on the information I indicating the face direction and the light source direction in the face area candidate F obtained by the matching means 14. A skin color area is extracted by defining a skin color space for each area. The skin color region H is extracted as follows. First, it is possible to know the outline of the face in the face area candidate F from the information on the face direction, and further to know the distribution of the bright and dark areas in the area surrounded by the outline, that is, the density distribution from the information indicating the light source direction. it can. At this time, the position of the facial components can be known from the information on the face orientation, but the cheeks under the nose and eyes that are brighter than other areas on the face, especially based on the information on the nose and eye positions. You can know the position of. Then, a skin color space is defined based on the density distribution and the positions of the nose and cheeks, and the skin color region H is extracted.
[0055]
Specifically, as shown in FIG. 6, when light is irradiated from the right side of the face facing forward, the right half area of the face (hereinafter referred to as the right area) is bright but the left half area (hereinafter left). The area is dark. Further, since the nose and cheeks protrude in the human face, the right side of the nose and the cheeks are brighter in the right region than in the other regions. In the left area, the nose and cheeks are brighter than other areas.
[0056]
Therefore, for the right region, the skin color space is defined so as to include the brightest portion, that is, the right side of the nose and the cheek portion, and the right half region of the face is extracted. On the other hand, the skin color space is defined so that the left half of the face also includes the left side of the nose and the cheek part, and the left half region of the face is extracted.
[0057]
The image processing unit 3 performs image processing such as gradation processing, color conversion processing, and sharpness processing on the image data S0 of the skin color region H so that the extracted skin color region H has a desired density and color. To obtain processed image data S1. Note that image processing may be performed on regions other than the skin color region H. Here, as the sharpness processing, the degree of sharpness enhancement is reduced when the face is large, and the degree of sharpness enhancement is increased when the face is small, according to the size of the skin color region H, that is, the size of the face. Can be processed as follows.
[0058]
Next, the operation of this embodiment will be described. FIG. 8 is a flowchart showing the operation of this embodiment. First, the image data S0 is read by the reading means 1 (step S1) and input to the face area extracting means 2. The image data S0 is displayed on the monitor 5 (step S2), and the face area candidate F is designated by the input from the input means 6 (step S3). Then, the area extraction means 12 extracts the face area candidate F (step S4). The extracted face area candidate F is input to the matching unit 14, and the template matching between the template T represented by the template data TD and the face area candidate F is performed using the template data TD stored in the template storage unit 13. Is performed (step S5). When the template matching is completed, information I representing the face direction and the light source direction is generated based on the template T having the largest matching degree (step S6).
[0059]
The skin color area extracting means 15 extracts the skin color area H from the face area candidate F as described above based on the information I (step S7). Then, the image processing means 3 performs image processing such as gradation processing, color conversion processing, and sharpness processing on the skin color region H in the image represented by the image data S0 to obtain processed image data S1 (step S1). S8). Then, the processed image data S1 is output from the output means 4 (step S9), and the process is terminated.
[0060]
As described above, in the present embodiment, the face area candidate F is subjected to template matching using the plurality of templates T to obtain the information I indicating the face direction and the light source direction in the face area candidate F. From the information, it is possible to know the face contour shape and the position of the components of the face, and from the information about the direction of the light source, it is possible to know the density distribution of the face region candidate F that varies according to the direction of the light irradiated to the face. . Then, the contour of the face region is estimated from information related to the face orientation in the information I, and the density distribution in the contour of the face is determined from the information related to the position of the components of the face such as the nose and the light source direction in the information related to the face orientation. Is obtained. Therefore, by defining the skin color space based on this density distribution so as to include all the skin color areas of the high density area and the low density area existing in the area within the face contour in the face area candidate F, The skin color space can be defined so that all the skin colors of the face region candidate F can be extracted even if the contrast of the face region is large, whereby the skin color region H can be accurately extracted.
[0061]
In addition, since the area designating unit 11 sets a predetermined area including the face as the face area candidate F, and template matching is performed on the set face area candidate F, the template matching is performed on the entire face image. In comparison, the calculation time for matching can be shortened.
[0062]
In the above embodiment, information on the face direction and information on the direction of the light source is obtained as the information I, and the skin color region H is extracted based on these information. The position of the facial component such as the nose can be known, and the facial component from the face region candidate F can be easily extracted using the information I.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining designation of a face area candidate F
FIG. 3 is a diagram for explaining designation of a face area candidate F
FIG. 4 is a diagram showing a hierarchical template
FIG. 5 is a diagram showing an example of a three-dimensional template
FIG. 6 is a diagram for explaining skin color region extraction;
FIG. 7 is a diagram showing face area candidates subjected to Log-Polar conversion.
FIG. 8 is a flowchart showing the operation of this embodiment.
[Explanation of symbols]
1 Reading means
2 Face extraction means
3 Image processing means
4 Output means
5 Monitor
6 Input means
11 Area designation means
12 region extraction means
13 Template storage means
14 Matching means
15 Skin color area extraction means

Claims (33)

顔の輪郭および顔の構成部品を含むとともに、少なくとも大人、子供、赤ちゃん、老人、女性、男性、黄色人種、白色人種または黒色人種別の顔の種類、顔の向きおよび顔に照射される光源の方向が少なくとも異なる複数の顔テンプレートを、前記顔の種類に応じて予め作成された複数の基準テンプレートにおける前記顔の向きおよび前記光源の方向を変更することにより取得しつつ、該顔テンプレートと人物の顔を含む顔画像とのマッチング度を求めるテンプレートマッチングを行って、該マッチング度が最も高い顔テンプレートを決定し、
該マッチング度が最も高い顔テンプレートに基づいて、前記顔画像上の顔を含む顔領域における顔の向きおよび該顔に照射される光源の方向に関する情報を取得することを特徴とするマッチング方法。
Includes facial contours and facial components, and irradiates at least adult, child, baby, elderly, female, male, yellow, white or black face types, face orientation and face While acquiring a plurality of face templates having at least different light source directions by changing the face direction and the light source direction in a plurality of reference templates created in advance according to the type of the face, Perform template matching to obtain a matching degree with a face image including a human face, determine a face template with the highest matching degree,
A matching method comprising: obtaining information on a face direction in a face region including a face on the face image and a light source direction irradiated on the face based on a face template having the highest matching degree.
前記顔画像において前記顔領域を含む所定範囲の領域を顔領域候補として設定し、
該顔領域候補内において前記テンプレートマッチングを行うことを特徴とする請求項1記載のマッチング方法。
A region of a predetermined range including the face region in the face image is set as a face region candidate,
The matching method according to claim 1, wherein the template matching is performed within the face area candidate.
前記テンプレートマッチングを、前記複数の顔テンプレートについて階層的にマッチング度を求めることにより行うことを特徴とする請求項1または2記載のマッチング方法。  3. The matching method according to claim 1, wherein the template matching is performed by obtaining a matching level hierarchically for the plurality of face templates. 請求項1から3のいずれか1項記載のマッチング方法により取得された前記顔の向きおよび光源の方向に関する情報に基づいて、前記顔領域における肌色の濃度分布を求め、
該濃度分布に基づいて前記顔画像における肌色空間を定義し、
前記顔画像における前記肌色空間に対応する領域を前記顔領域として抽出することを特徴とする画像処理方法。
Based on the information on the face direction and the light source direction acquired by the matching method according to any one of claims 1 to 3, a skin color density distribution in the face region is obtained,
Defining a skin color space in the face image based on the density distribution;
An image processing method, wherein an area corresponding to the skin color space in the face image is extracted as the face area.
前記肌色領域に対して所定の画像処理を施すことを特徴とする請求項4記載の画像処理方法。  5. The image processing method according to claim 4, wherein predetermined image processing is performed on the skin color area. 顔の輪郭および顔の構成部品を含むとともに、少なくとも大人、子供、赤ちゃん、老人、女性、男性、黄色人種、白色人種または黒色人種別の顔の種類に応じて予め作成された複数の基準テンプレートを記憶する基準テンプレート記憶手段と、
前記複数の基準テンプレートにおける顔の向きおよび光源の方向を変更することにより前記複数の顔テンプレートを作成するテンプレート作成手段と、
該テンプレート作成手段により作成された前記顔の種類、前記顔の向きおよび前記光源の方向が異なる複数の顔テンプレートを取得しつつ、該顔テンプレートと人物の顔を含む顔画像とのマッチング度を求めるテンプレートマッチングを行って、該マッチング度が最も高い顔テンプレートを決定するテンプレートマッチング手段と、
該マッチング度が最も高い顔テンプレートに基づいて、前記顔画像上の顔を含む顔領域における顔の向きおよび該顔に照射される光源の方向に関する情報を取得する情報取得手段とを備えたことを特徴とするマッチング装置。
Multiple criteria created in advance according to face type of at least adult, child, baby, elderly, female, male, yellow race, white race or black race, including facial contours and facial components Reference template storage means for storing a template;
A template creating means for creating the plurality of face templates by changing a face direction and a light source direction in the plurality of reference templates;
The degree of matching between the face template and a face image including a human face is obtained while acquiring a plurality of face templates having different face types, face orientations and light source directions created by the template creation means. Template matching means for performing template matching and determining a face template having the highest matching degree;
Information acquisition means for acquiring information relating to the face direction in the face region including the face on the face image and the direction of the light source irradiated to the face based on the face template having the highest matching degree; A unique matching device.
前記顔画像において前記顔領域を含む所定範囲の領域を顔領域候補として設定する領域設定手段をさらに備え、
前記テンプレートマッチング手段は、前記顔領域候補内において前記テンプレートマッチングを行う手段であることを特徴とする請求項6記載のマッチング装置。
A region setting means for setting a region of a predetermined range including the face region in the face image as a face region candidate;
7. The matching apparatus according to claim 6, wherein the template matching means is means for performing the template matching in the face area candidate.
前記テンプレートマッチング手段は、前記テンプレートマッチングを、前記複数の顔テンプレートについて階層的にマッチング度を求めることにより行う手段であることを特徴とする請求項6または7記載のマッチング装置。  8. The matching apparatus according to claim 6, wherein the template matching unit is a unit that performs the template matching by hierarchically obtaining a matching degree for the plurality of face templates. 請求項6から8のいずれか1項記載のマッチング装置により取得された前記顔の向きおよび光源の方向に関する情報に基づいて、前記顔領域における肌色の濃度分布を求める手段と、
該濃度分布に基づいて前記顔画像における肌色空間を定義する手段と、
前記顔画像における前記肌色空間に対応する領域を前記顔領域として抽出する手段とを備えたことを特徴とする画像処理装置。
Means for obtaining a skin color density distribution in the face area based on information on the face orientation and the light source orientation obtained by the matching device according to any one of claims 6 to 8;
Means for defining a skin color space in the face image based on the density distribution;
An image processing apparatus comprising: means for extracting an area corresponding to the skin color space in the face image as the face area.
前記肌色領域に対して所定の画像処理を施す手段をさらに備えたことを特徴とする請求項9記載の画像処理装置。  The image processing apparatus according to claim 9, further comprising means for performing predetermined image processing on the skin color area. 顔の輪郭および顔の構成部品を含むとともに、少なくとも大人、子供、赤ちゃん、老人、女性、男性、黄色人種、白色人種または黒色人種別の顔の種類、顔の向きおよび顔に照射される光源の方向が少なくとも異なる複数の顔テンプレートを、前記顔の種類に応じて予め作成された複数の基準テンプレートにおける前記顔の向きおよび前記光源の方向を変更することにより取得しつつ、該顔テンプレートと人物の顔を含む顔画像とのマッチング度を求めるテンプレートマッチングを行って、該マッチング度が最も高い顔テンプレートを決定する手順と、
該マッチング度が最も高い顔テンプレートに基づいて、前記顔画像上の顔を含む顔領域における顔の向きおよび該顔に照射される光源の方向に関する情報を取得する手順とを有するマッチング方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体。
Includes facial contours and facial components, and irradiates at least adult, child, baby, elderly, female, male, yellow, white or black face types, face orientation and face While acquiring a plurality of face templates having at least different light source directions by changing the face direction and the light source direction in a plurality of reference templates created in advance according to the type of the face, Performing a template matching to obtain a matching degree with a face image including a human face, and determining a face template having the highest matching degree;
A matching method having a procedure for acquiring information on a face direction in a face region including a face on the face image and a direction of a light source irradiated on the face based on a face template having the highest matching degree. A computer-readable recording medium on which a program for execution is recorded.
前記顔画像において前記顔領域を含む所定範囲の領域を顔領域候補として設定する手順をさらに有し、
前記テンプレートマッチングを行う手順は、該顔領域候補内において前記テンプレートマッチングを行う手順であることを特徴とする請求項11記載のコンピュータ読取り可能な記録媒体。
The method further comprises a step of setting a predetermined area including the face area as a face area candidate in the face image,
The computer-readable recording medium according to claim 11, wherein the template matching procedure is a procedure for performing the template matching in the face area candidate.
前記テンプレートマッチングを行う手順は、前記テンプレートマッチングを、前記複数の顔テンプレートについて階層的にマッチング度を求めることにより行う手順であることを特徴とする請求項11または12記載のコンピュータ読取り可能な記録媒体。  The computer-readable recording medium according to claim 11 or 12, wherein the template matching procedure is a procedure in which the template matching is performed by hierarchically obtaining matching degrees for the plurality of face templates. . 請求項1から3のいずれか1項記載のマッチング方法により取得された前記顔の向きおよび光源の方向に関する情報に基づいて、前記顔領域における肌色の濃度分布を求める手順と、
該濃度分布に基づいて前記顔画像における肌色空間を定義する手順と、
前記顔画像における前記肌色空間に対応する領域を前記顔領域として抽出する手順とを有することを特徴とするコンピュータ読取り可能な記録媒体。
A procedure for obtaining a skin color density distribution in the face region based on information on the face direction and the light source direction acquired by the matching method according to claim 1;
Defining a skin color space in the face image based on the density distribution;
A computer-readable recording medium comprising: a step of extracting an area corresponding to the skin color space in the face image as the face area.
前記肌色領域に対して所定の画像処理を施す手順をさらに有することを特徴とする請求項14記載のコンピュータ読取り可能な記録媒体。  15. The computer-readable recording medium according to claim 14, further comprising a procedure for performing predetermined image processing on the skin color area. 顔の輪郭および顔の構成部品を含むとともに、少なくとも大人、子供、赤ちゃん、老人、女性、男性、黄色人種、白色人種または黒色人種別の顔の種類、顔の向きおよび顔に照射される光源の方向が少なくとも異なる複数の顔テンプレートと人物の顔を含む顔画像とのマッチング度を求めるテンプレートマッチングを行って、該マッチング度が最も高い顔テンプレートを決定し、
該マッチング度が最も高い顔テンプレートに基づいて、前記顔画像上の顔を含む顔領域における顔の向きおよび該顔に照射される光源の方向に関する情報を取得し、
該顔の向きおよび光源の方向に関する情報に基づいて、前記顔領域における肌色の濃度分布を求め、
該濃度分布に基づいて前記顔画像における肌色空間を定義し、
前記顔画像における前記肌色空間に対応する領域を前記顔領域として抽出することを特徴とする画像処理方法。
Includes facial contours and facial components, and irradiates at least adult, child, baby, elderly, female, male, yellow, white or black face types, face orientation and face Performing template matching to obtain a matching degree between a plurality of face templates having different light source directions and a face image including a human face, and determining a face template having the highest matching degree;
Based on the face template having the highest matching degree, obtain information on the face direction in the face area including the face on the face image and the direction of the light source irradiated to the face,
Based on the information on the face direction and the light source direction, obtain a skin color density distribution in the face region;
Defining a skin color space in the face image based on the density distribution;
An image processing method, wherein an area corresponding to the skin color space in the face image is extracted as the face area.
前記顔画像において前記顔領域を含む所定範囲の領域を顔領域候補として設定し、
該顔領域候補内において前記テンプレートマッチングを行うことを特徴とする請求項16記載の画像処理方法。
A region of a predetermined range including the face region in the face image is set as a face region candidate,
The image processing method according to claim 16, wherein the template matching is performed within the face area candidate.
前記複数の顔テンプレートが予め作成されてなることを特徴とする請求項16または17記載の画像処理方法。  The image processing method according to claim 16 or 17, wherein the plurality of face templates are created in advance. 前記複数の顔テンプレートが、前記顔の種類に応じて予め作成された複数の基準テンプレートにおける顔の向きおよび光源の方向を変更することにより作成され、
前記顔の向きおよび光源の方向が変更された顔テンプレートを取得しつつ前記テンプレートマッチングを行うことを特徴とする請求項16または17記載の画像処理方法。
The plurality of face templates are created by changing a face direction and a light source direction in a plurality of reference templates created in advance according to the type of the face,
The image processing method according to claim 16 or 17, wherein the template matching is performed while acquiring a face template in which the face direction and the light source direction are changed.
前記テンプレートマッチングを、前記複数の顔テンプレートについて階層的にマッチング度を求めることにより行うことを特徴とする請求項16から19のいずれか1項記載の画像処理方法。  20. The image processing method according to claim 16, wherein the template matching is performed by obtaining matching levels hierarchically for the plurality of face templates. 前記肌色領域に対して所定の画像処理を施すことを特徴とする請求項16から20のいずれか1項記載の画像処理方法。  21. The image processing method according to claim 16, wherein predetermined image processing is performed on the skin color area. 顔の輪郭および顔の構成部品を含むとともに、少なくとも大人、子供、赤ちゃん、老人、女性、男性、黄色人種、白色人種または黒色人種別の顔の種類、顔の向きおよび顔に照射される光源の方向が少なくとも異なる複数の顔テンプレートと人物の顔を含む顔画像とのマッチング度を求めるテンプレートマッチングを行って、該マッチング度が最も高い顔テンプレートを決定するテンプレートマッチング手段と、
該マッチング度が最も高い顔テンプレートに基づいて、前記顔画像上の顔を含む顔領域における顔の向きおよび該顔に照射される光源の方向に関する情報を取得する情報取得手段と、
該顔の向きおよび光源の方向に関する情報に基づいて、前記顔領域における肌色の濃度分布を求める手段と、
該濃度分布に基づいて前記顔画像における肌色空間を定義する手段と、
前記顔画像における前記肌色空間に対応する領域を前記顔領域として抽出する手段とを備えたことを特徴とする画像処理装置。
Includes facial contours and facial components, and irradiates at least adult, child, baby, elderly, female, male, yellow, white or black face types, face orientation and face Template matching means for performing template matching to obtain a matching degree between a plurality of face templates having different light source directions and a face image including a human face, and determining a face template having the highest matching degree;
Based on the face template having the highest matching degree, information acquisition means for acquiring information on the face direction in the face region including the face on the face image and the direction of the light source irradiated to the face;
Means for obtaining a skin color density distribution in the face region based on information on the face direction and the light source direction;
Means for defining a skin color space in the face image based on the density distribution;
An image processing apparatus comprising: means for extracting an area corresponding to the skin color space in the face image as the face area.
前記顔画像において前記顔領域を含む所定範囲の領域を顔領域候補として設定する領域設定手段をさらに備え、
前記テンプレートマッチング手段は、前記顔領域候補内において前記テンプレートマッチングを行う手段であることを特徴とする請求項22記載の画像処理装置。
A region setting means for setting a region of a predetermined range including the face region in the face image as a face region candidate;
The image processing apparatus according to claim 22, wherein the template matching means is means for performing the template matching in the face area candidate.
前記複数の顔テンプレートを記憶するテンプレート記憶手段をさらに備えたことを特徴とする請求項22または23記載の画像処理装置。  24. The image processing apparatus according to claim 22, further comprising template storage means for storing the plurality of face templates. 前記顔の種類に応じて予め作成された複数の基準テンプレートを記憶する基準テンプレート記憶手段と、
前記複数の基準テンプレートにおける顔の向きおよび光源の方向を変更することにより前記複数の顔テンプレートを作成するテンプレート作成手段とをさらに備え、
前記テンプレートマッチング手段は、該テンプレート作成手段により作成された前記顔の向きおよび光源の方向が異なる顔テンプレートを取得しつつ前記テンプレートマッチングを行う手段であることを特徴とする請求項22または23記載の画像処理装置。
Reference template storage means for storing a plurality of reference templates created in advance according to the type of the face;
A template creating means for creating the plurality of face templates by changing a face direction and a light source direction in the plurality of reference templates;
The template matching means is means for performing the template matching while acquiring face templates having different face orientations and light source directions created by the template creation means. Image processing device.
前記テンプレートマッチング手段は、前記テンプレートマッチングを、前記複数の顔テンプレートについて階層的にマッチング度を求めることにより行う手段であることを特徴とする請求項22から25のいずれか1項記載の画像処理装置。  The image processing apparatus according to any one of claims 22 to 25, wherein the template matching unit is a unit that performs the template matching by hierarchically obtaining a matching degree for the plurality of face templates. . 前記肌色領域に対して所定の画像処理を施す手段をさらに備えたことを特徴とする請求項22から26のいずれか1項記載の画像処理装置。  27. The image processing apparatus according to claim 22, further comprising means for performing predetermined image processing on the skin color area. 顔の輪郭および顔の構成部品を含むとともに、少なくとも大人、子供、赤ちゃん、老人、女性、男性、黄色人種、白色人種または黒色人種別の顔の種類、顔の向きおよび顔に照射される光源の方向が少なくとも異なる複数の顔テンプレートと人物の顔を含む顔画像とのマッチング度を求めるテンプレートマッチングを行って、該マッチング度が最も高い顔テンプレートを決定する手順と、
該マッチング度が最も高い顔テンプレートに基づいて、前記顔画像上の顔を含む顔領域における顔の向きおよび該顔に照射される光源の方向に関する情報を取得する手順と、
該顔領域における肌色の濃度分布を求める手順と、
該濃度分布に基づいて前記顔画像における肌色空間を定義する手順と、
前記顔画像における前記肌色空間に対応する領域を前記顔領域として抽出する手順とを有することを特徴とする画像処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体。
Includes facial contours and facial components, and irradiates at least adult, child, baby, elderly, female, male, yellow, white or black face types, face orientation and face Performing a template matching to obtain a matching degree between a plurality of face templates having different light source directions and a face image including a human face, and determining a face template having the highest matching degree;
A procedure for obtaining information on the face direction in the face area including the face on the face image and the direction of the light source irradiated on the face based on the face template having the highest matching degree;
A procedure for obtaining a skin color density distribution in the face region;
Defining a skin color space in the face image based on the density distribution;
A computer-readable recording medium storing a program for causing a computer to execute an image processing method, comprising: extracting a region corresponding to the skin color space in the face image as the face region.
前記顔画像において前記顔領域を含む所定範囲の領域を顔領域候補として設定する手順をさらに有し、
前記テンプレートマッチングを行う手順は、該顔領域候補内において前記テンプレートマッチングを行う手順であることを特徴とする請求項28記載のコンピュータ読取り可能な記録媒体。
The method further comprises a step of setting a predetermined area including the face area as a face area candidate in the face image,
29. The computer-readable recording medium according to claim 28, wherein the template matching procedure is a procedure for performing the template matching in the face area candidate.
前記複数の顔テンプレートが予め作成されてなることを特徴とする請求項28または29記載のコンピュータ読取り可能な記録媒体。  30. The computer-readable recording medium according to claim 28 or 29, wherein the plurality of face templates are created in advance. 前記複数の顔テンプレートを、前記顔の種類に応じて予め作成された複数の基準テンプレートにおける顔の向きおよび光源の方向を変更することにより作成する手順をさらに有し、
前記テンプレートマッチングを行う手順は、前記顔の向きおよび光源の方向が変更された顔テンプレートを取得しつつ前記テンプレートマッチングを行う手順であることを特徴とする請求項28または29記載のコンピュータ読取り可能な記録媒体。
A step of creating the plurality of face templates by changing a face direction and a light source direction in a plurality of reference templates created in advance according to the type of the face;
30. The computer-readable method according to claim 28, wherein the template matching procedure is a procedure for performing the template matching while acquiring a face template in which the face direction and the light source direction are changed. recoding media.
前記テンプレートマッチングを行う手順は、前記テンプレートマッチングを、前記複数の顔テンプレートについて階層的にマッチング度を求めることにより行う手順であることを特徴とする請求項28から31のいずれか1項記載のコンピュータ読取り可能な記録媒体。  32. The computer according to claim 28, wherein the template matching procedure is a procedure in which the template matching is performed by hierarchically obtaining matching degrees for the plurality of face templates. A readable recording medium. 前記肌色領域に対して所定の画像処理を施す手順をさらに有することを特徴とする請求項28から32のいずれか1項記載のコンピュータ読取り可能な記録媒体。  The computer-readable recording medium according to any one of claims 28 to 32, further comprising a procedure of performing predetermined image processing on the skin color area.
JP2000028520A 2000-02-07 2000-02-07 Matching method and apparatus, and recording medium Expired - Fee Related JP4219521B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000028520A JP4219521B2 (en) 2000-02-07 2000-02-07 Matching method and apparatus, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000028520A JP4219521B2 (en) 2000-02-07 2000-02-07 Matching method and apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2001216518A JP2001216518A (en) 2001-08-10
JP4219521B2 true JP4219521B2 (en) 2009-02-04

Family

ID=18553909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000028520A Expired - Fee Related JP4219521B2 (en) 2000-02-07 2000-02-07 Matching method and apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP4219521B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4578000B2 (en) * 2001-01-29 2010-11-10 株式会社バンダイナムコゲームス Pattern recognition processing apparatus, method, and information storage medium
JP3999091B2 (en) * 2002-09-25 2007-10-31 富士フイルム株式会社 Image correction processing apparatus and program
US8553949B2 (en) 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
EP1667068A4 (en) * 2003-08-29 2011-09-28 Nec Corp Object posture estimation/correlation system using weight information
WO2005093656A1 (en) * 2004-03-24 2005-10-06 Mitsubishi Denki Kabushiki Kaisha System for estimating attitude at specific part, methode for estimating attitude at specific part, and program for estimating attitude at specific part
JP2005316581A (en) * 2004-04-27 2005-11-10 Konica Minolta Photo Imaging Inc Image processing method, image processor and image processing program
JP4574249B2 (en) * 2004-06-29 2010-11-04 キヤノン株式会社 Image processing apparatus and method, program, and imaging apparatus
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
WO2007004521A1 (en) * 2005-06-30 2007-01-11 Olympus Corporation Marker specification device and marker specification method
KR101303877B1 (en) 2005-08-05 2013-09-04 삼성전자주식회사 Method and apparatus for serving prefer color conversion of skin color applying face detection and skin area detection
JP2007052547A (en) * 2005-08-16 2007-03-01 Kddi Corp Face detector
JP2007220004A (en) 2006-02-20 2007-08-30 Funai Electric Co Ltd Television and authentication device
KR100776880B1 (en) * 2006-08-31 2007-11-19 미쓰비시덴키 가부시키가이샤 System for estimating attitude at specific part, methode for estimating attitude at specific part, and program for estimating attitude at specific part
JP4999731B2 (en) * 2008-02-29 2012-08-15 セコム株式会社 Face image processing device
US8971628B2 (en) 2010-07-26 2015-03-03 Fotonation Limited Face detection using division-generated haar-like features for illumination invariance

Also Published As

Publication number Publication date
JP2001216518A (en) 2001-08-10

Similar Documents

Publication Publication Date Title
JP4219521B2 (en) Matching method and apparatus, and recording medium
US8290279B2 (en) Method, a system, and a computer program product for processing images
Benson et al. Synthesising continuous-tone caricatures
US7082211B2 (en) Method and system for enhancing portrait images
KR101446975B1 (en) Automatic face and skin beautification using face detection
JP4574249B2 (en) Image processing apparatus and method, program, and imaging apparatus
TWI421781B (en) Make-up simulation system, make-up simulation method, make-up simulation method and make-up simulation program
JP2008234342A (en) Image processor and image processing method
JP2010507854A (en) Method and apparatus for virtual simulation of video image sequence
JP2002245471A (en) Photograph finishing service for double print accompanied by second print corrected according to subject contents
WO2004084142A1 (en) Image processing device
CN111243051B (en) Portrait photo-based simple drawing generation method, system and storage medium
US20140064617A1 (en) Image generation apparatus, image generation method, and recording medium
US6975763B2 (en) Shade component removing apparatus and shade component removing method for removing shade in image
JP2005222152A (en) Image correcting device
KR102009130B1 (en) The System Providing Diagnosis of Makeup and Question and Answer Service
JP2004030007A (en) Makeup simulation apparatus, makeup simulation method, makeup simulation program and recording medium with program recorded thereon
US7212674B1 (en) Method, apparatus and recording medium for face extraction
JP2004240622A (en) Image processing method, image processor and image processing program
JP2014102713A (en) Face component extraction device, face component extraction method, and program
KR100422470B1 (en) Method and apparatus for replacing a model face of moving image
JP5419777B2 (en) Face image synthesizer
CN116681579A (en) Real-time video face replacement method, medium and system
KR20010084996A (en) Method for generating 3 dimension avatar using one face image and vending machine with the same
KR20010102873A (en) Method and system for generating an avatar of real-picture using finite image templates

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050912

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080819

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081112

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4219521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131121

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees