Nothing Special   »   [go: up one dir, main page]

JP2006163871A - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2006163871A
JP2006163871A JP2004354946A JP2004354946A JP2006163871A JP 2006163871 A JP2006163871 A JP 2006163871A JP 2004354946 A JP2004354946 A JP 2004354946A JP 2004354946 A JP2004354946 A JP 2004354946A JP 2006163871 A JP2006163871 A JP 2006163871A
Authority
JP
Japan
Prior art keywords
face
model
image
hair
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004354946A
Other languages
English (en)
Other versions
JP4449723B2 (ja
Inventor
Daichi Sasaki
大地 佐々木
Osamu Watanabe
修 渡辺
Hidemichi Nakabashi
英通 中橋
Akira Kawamura
亮 川村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004354946A priority Critical patent/JP4449723B2/ja
Priority to EP07015825A priority patent/EP1847968A1/en
Priority to EP07015824A priority patent/EP1847967A1/en
Priority to EP05026390A priority patent/EP1669933A3/en
Priority to US11/296,846 priority patent/US7764828B2/en
Priority to KR1020050119541A priority patent/KR101190686B1/ko
Priority to CN2007100977276A priority patent/CN101055646B/zh
Priority to CNB2005101345503A priority patent/CN100468463C/zh
Priority to CN2007100977280A priority patent/CN101055647B/zh
Publication of JP2006163871A publication Critical patent/JP2006163871A/ja
Application granted granted Critical
Publication of JP4449723B2 publication Critical patent/JP4449723B2/ja
Anticipated expiration legal-status Critical
Active legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Generation (AREA)

Abstract

【課題】リアルなアニメーションを、容易に実現する。
【解決手段】特徴点抽出部135は、顔が写っている顔画像から、詳細な特徴点を抽出し、顔モデル生成部136に供給する。一方、顔モデル生成部136は、詳細な特徴点に基づき、顔の3次元モデルである顔モデルを生成し、その周辺部分を、奥行き方向であるZ方向に拡張する。また、顔モデル生成部136は、顔モデルとは別に、頭髪モデルを生成する。そして、顔モデル生成部136は、顔モデルに、頭髪モデルを合成する。
【選択図】図2

Description

本発明は、画像処理装置、画像処理方法、およびプログラムに関し、特に、例えば、リアルなアニメーションを、容易に実現することができるようにする画像処理装置、画像処理方法、およびプログラムに関する。
例えば、人の顔のリアルなCG(Computer Graphics)を生成するには、顔の忠実な3次元モデル、即ち、3次元形状とテクスチャを得る必要がある。顔の忠実な3次元モデルを得る方法としては、例えば、Cyberware社が行っている方法、即ち、3次元スキャナにより実際の顔をスキャンする方法や、実際の顔の型をとって模型を作成し、3次元ポインタを用いて、模型のデータを入力する方法がある(例えば、非特許文献1参照)。
これらの方法によれば、リアルで高精細な3次元モデルを得ることができるので、精細なCGが必要とされる映画製作や、リアリティが重要なゲーム製作などでよく利用される。しかしながら、3次元スキャナは高価であり、また、3次元スキャナによって顔のすべてをスキャンするのは、多大な時間を要する。同様に、3次元ポインタも高価であり、さらに、3次元ポインタによるデータの入力は、人手によって行わなければならないため、より多大なコスト(時間と労力)を要する。
また、最近では、CPU(Central Processing Unit)やメモリ等の高速化および低価格化により、大容量のディジタルデータとなる画像のデータ処理も比較的容易に可能となってきており、そのようなデータ処理の1つとして、3次元モデルを、撮影方向の異なる複数の画像(2次元の画像)から生成する処理がある。例えば、非特許文献2では、5枚の異なる方向から撮影した顔画像(顔が写されている画像)からリアルな3次元モデルを生成する方法が提案されており、この方法によれば、Cyberware社の方法に比較して、容易に、3次元モデルを生成することができる。
しかしながら、非特許文献2に記載の方法では、顔の特徴点を、複数枚の顔画像それぞれから得て、その特徴点に基づいて、顔の3次元モデルを変形するため、その3次元モデルには、元の顔画像に写し出されている実際の顔と微妙なずれが生じる。即ち、非特許文献2に記載の方法では、複数の顔画像から得られる特徴点の精度がそれほど高くないために、ある方向から撮像された顔画像の特徴点の中から、他の方向から撮像された顔画像の特徴点に正確に対応する特徴点を指定することが困難であり、さらに、ライティングが行われる結果、正面から見た顔の3次元モデルから生成されたCGですら、実物と異なる印象を与えてしまう。
また、3次元モデルを生成する方法として、上述のCyberware社の方法で得られている顔の3次元モデルのサンプルを用い、1枚の顔画像の顔面部分と3次元モデルのレンダリング結果との誤差が最小になるよう、3次元モデルを反復的に修正することで、正確な3次元モデルを再構成する手法がある(例えば、非特許文献3参照)。
しかしながら、この方法では、多数のサンプルを用いて、3次元モデルを反復的に修正するというアルゴリズムの性質上、最終的な3次元モデルを得るまでに多大な時間を要する。
一方、正面から顔を撮影した1枚の顔画像に、適当な3次元形状を付加する(適応させる)ことで、顔の3次元モデルを生成する方法があり(例えば、特許文献1参照)、この方法によれば、顔画像に写っている本人との類似性が高い顔の3次元モデルを、比較的容易に生成することができる。
しかしながら、正面から顔を撮影した1枚の顔画像には、顔の周辺部分(頬から耳にかけての側面、頭頂部、顎の下側)が写っていないため、そのような顔画像から生成される3次元モデルも、正面から見える顔の範囲(顔画像に写っている顔の範囲)のものとなる。従って、例えば、そのような3次元モデルを、斜め方向から見たCG(2次元の画像)を生成するために回転させると、3次元モデルにない顔の周辺部分が正面に現れることにより、斜め方向から見たCGが破綻する(不自然になる)ことがあった。
そこで、正面から顔を撮影した1枚の顔画像から生成された3次元モデルに、他の方法で生成された、顔の周辺部分が存在する3次元モデルを結合することにより、正面から顔を撮影した1枚の顔画像から生成された3次元モデルに、顔の周辺部分を付加することが考えられる。
しかしながら、正面から顔を撮影した1枚の顔画像から3次元モデルを生成する処理の他に、顔の周辺部分が存在する3次元モデルを生成する処理を行うことは、処理全体の簡便性が失われることになる。さらに、正面から顔を撮影した1枚の顔画像から生成された3次元モデルと、他の方法で生成された、顔の周辺部分が存在する3次元モデルとを結合した場合には、その結合部分に、違和感を生じる。
一方、頭髪は細かいために、例えば、3次元スキャナによって頭髪をスキャンしても、正確にキャプチャすることが困難であった。このため、従来の顔の3次元モデルを生成する方法においては、頭髪は、顔の3次元モデルに反映されないことが多い。
また、顔の3次元モデルの生成後に、その3次元モデルに、顔画像の頭髪(のテクスチャ)を合成することにより、頭髪を、顔の3次元モデルに反映する方法があるが、この方法では、本人の頭髪の形状(髪型)や質感を再現することは難しい。即ち、顔の3次元モデルは、その輪郭が顔の輪郭に一致するように生成されるので、3次元モデルにおいて、顔の輪郭からはみ出した部分に対応する位置(部分)に、3次元形状は存在しない。しかしながら、頭髪は、一般に、顔の輪郭からはみ出した範囲にも存在するため、顔の3次元モデルに、単に、顔画像の頭髪を合成しても、顔の3次元モデルには、顔の輪郭からはみ出した範囲の頭髪が反映されず、その結果、顔画像に写っているような頭髪の髪型や質感は得られない。
ところで、例えば、瞬きや、口の開閉、顔(首)を傾けるなどといった、顔のリアルなアニメーション(のCG)を実現することの要請は高い。
顔のリアルなアニメーションを実現するには、例えば、瞬きを行う目や、開閉する口、傾く顔の輪郭などの動かす部位について、局所的に、精度が高い多くの特徴点が必要となる。即ち、例えば、目については、リアルな瞬きを実現するために、眼孔から露出している眼球の部分の輪郭上の正確で多数の点と、まぶたと眼孔との境界上の正確で多数の点を、特徴点として検出する必要がある。
しかしながら、従来においては、特徴点は、例えば、いわゆる顔認識や、顔の3次元モデルの生成に用いられ、それほどの精度や数が要求されていなかった。
即ち、特徴点を検出する方法としては、例えば、顔画像をワーピング(変形貼り付けによる加算)し、主成分分析で次元圧縮をすることにより、顔画像の情報量をある程度削減して、特徴点を検出するAAM(Active Appearance Models)と呼ばれる方法がある(例えば、非特許文献4参照)。AAMによれば、顔画像に写っている顔の特徴点とテクスチャそれぞれに対して主成分分析をかけて情報を抽出し、1つの顔を主成分パラメータで表現し、その主成分パラメータを変化させることによって、新しい顔に対しても特徴点とテクスチャの情報を大まかに復元することができる。
AAMでは、顔画像の情報量をある程度削減することで、元の顔画像をぼけた画像にし、そのぼけた画像を用いて、特徴点を検出するため、大域的(大局的)な特徴点が得られる。従って、AAMによる特徴点の検出方法は、例えば、3次元モデルの生成には用いることができるが、精度が高い特徴点を必要とするリアルなアニメーションには不向きである。
一方、例えば、上述した非特許文献2に記載の方法においては、3次元モデルの生成に、複数枚の顔画像から得た特徴点が用いられるが、この方法において生じる、3次元モデルと、元の顔画像に写し出されている実際の顔と微妙なずれは、複数枚の顔画像それぞれに対して、多数の特徴点を、精度良く指定することにより低減することができる。
しかしながら、撮影方向の異なる複数枚の顔画像それぞれに対して、対応する特徴点を、数多く、しかも高精度に指定することは困難である。また、仮に、そのような特徴点を得ることができたとしても、その結果得られるCGは、3次元モデルの、いわゆる見た目の精度が伴わないため、顔画像に写っている本人を正面から見た画像とは必ずしも一致しない、従来の、いわばCG的な不自然なCGになってしまうことが予想される。
特開2002-32783号公報 "Cyberware"、[online]、Cyberware、[平成16年12月6日検索]、インターネット〈URL:http://www.cyberware.com/〉 Frederic Pighin, Jamie Hecker, Dani Lischinski, Richard Szeliski, and David Salesin. Synthesizing Realistic Facial Expressions from Photographs. Proceedings of SIGGRAPH 98, in Computer Graphics Proceedings, Annual Conference Series, 1998. BLANZ, V., AND VETTER, T. A morphable model for the synthesis of 3D faces. Proceedings of ACM SIGGRAPH 99, in Computer Graphics Proceedings, Annual Conference Series, 1999. T.F. Cootes, G.J.Edwards, and C.J.Taylor, "Active Appearance Models",Proc.Fifth European Conf. Computer Vision, H. Burkhardt and B. Neumann,eds, vol.2, pp.484-498, 1998
以上のように、従来においては、リアルなアニメーションを、容易に実現する要素技術が提案されていなかった。
本発明は、このような状況に鑑みてなされたものであり、リアルなアニメーションを、容易に実現することができるようにするものである。
本発明の第1の画像処理装置は、画像から、その画像に表示されている物体の3次元モデルを生成する3次元モデル生成手段と、3次元モデル生成手段において生成された3次元モデルの周辺部分を、奥行き方向であるZ方向に拡張する拡張手段とを備えることを特徴とする。
本発明の第1の画像処理方法は、画像から、その画像に表示されている物体の3次元モデルを生成する3次元モデル生成ステップと、3次元モデル生成ステップにおいて生成された3次元モデルの周辺部分を、奥行き方向であるZ方向に拡張する拡張ステップとを含むことを特徴とする。
本発明の第1のプログラムは、画像から、その画像に表示されている物体の3次元モデルを生成する3次元モデル生成ステップと、3次元モデル生成ステップにおいて生成された3次元モデルの周辺部分を、奥行き方向であるZ方向に拡張する拡張ステップとを含むことを特徴とする。
本発明の第2の画像処理装置は、画像から、その画像に表示されている顔の3次元モデルである顔モデルを生成する3次元モデル生成手段と、画像に、あらかじめ用意されている頭髪のモデルである頭髪モデルをマッピングするマッピング手段と、画像から、頭髪でない部分である非頭髪部分を検出する非頭髪部分検出手段と、画像にマッピングされた頭髪モデルのうちの、非頭髪部分にマッピングされた部分の、奥行き方向であるZ方向の位置を表すZ値を変更するZ値変更手段と、Z値変更手段においてZ値が変更された頭髪モデルと、顔モデルとを合成する合成手段とを備えることを特徴とする。
本発明の第2の画像処理方法は、画像から、その画像に表示されている顔の3次元モデルである顔モデルを生成する3次元モデル生成ステップと、画像に、あらかじめ用意されている頭髪のモデルである頭髪モデルをマッピングするマッピングステップと、画像から、頭髪でない部分である非頭髪部分を検出する非頭髪部分検出ステップと、画像にマッピングされた頭髪モデルのうちの、非頭髪部分にマッピングされた部分の、奥行き方向であるZ方向の位置を表すZ値を変更するZ値変更ステップと、Z変更ステップにおいてZ値が変更された頭髪モデルと、顔モデルとを合成する合成ステップとを含むことを特徴とする。
本発明の第2のプログラムは、画像から、その画像に表示されている顔の3次元モデルである顔モデルを生成する3次元モデル生成ステップと、画像に、あらかじめ用意されている頭髪のモデルである頭髪モデルをマッピングするマッピングステップと、画像から、頭髪でない部分である非頭髪部分を検出する非頭髪部分検出ステップと、画像にマッピングされた頭髪モデルのうちの、非頭髪部分にマッピングされた部分の、奥行き方向であるZ方向の位置を表すZ値を変更するZ値変更ステップと、Z変更ステップにおいてZ値が変更された頭髪モデルと、顔モデルとを合成する合成ステップとを含むことを特徴とする。
本発明の第3の画像処理装置は、顔の所定の部位のテンプレートの位置とサイズを、画像に表示されている顔に適応させる第1の適応手段と、テンプレートの形状を規定する複数のパラメータを、その複数より少ない1以上のパラメータに基づいて変更することにより、位置とサイズが画像に表示されている顔に適応したテンプレートの形状を、所定の部位の形状の範囲内で変形し、画像に表示されている顔に適応させ、位置、サイズ、および形状が画像に表示されている顔に適応したテンプレートから、顔の所定の部位の特徴点を求める第2の適応手段とを備えることを特徴とする。
本発明の第3の画像処理方法は、顔の所定の部位のテンプレートの位置とサイズを、画像に表示されている顔に適応させる第1の適応ステップと、テンプレートの形状を規定する複数のパラメータを、その複数より少ない1以上のパラメータに基づいて変更することにより、位置とサイズが画像に表示されている顔に適応したテンプレートの形状を、所定の部位の形状の範囲内で変形し、画像に表示されている顔に適応させ、位置、サイズ、および形状が画像に表示されている顔に適応したテンプレートから、顔の所定の部位の特徴点を求める第2の適応ステップとを含むことを特徴とする。
本発明の第3のプログラムは、顔の所定の部位のテンプレートの位置とサイズを、画像に表示されている顔に適応させる第1の適応ステップと、テンプレートの形状を規定する複数のパラメータを、その複数より少ない1以上のパラメータに基づいて変更することにより、位置とサイズが画像に表示されている顔に適応したテンプレートの形状を、所定の部位の形状の範囲内で変形し、画像に表示されている顔に適応させ、位置、サイズ、および形状が画像に表示されている顔に適応したテンプレートから、顔の所定の部位の特徴点を求める第2の適応ステップとを含むことを特徴とする。
本発明の第1の画像処理装置、画像処理方法、およびプログラムにおいては、画像から、その画像に表示されている物体の3次元モデルが生成され、その3次元モデルの周辺部分が、奥行き方向であるZ方向に拡張される。
本発明の第2の画像処理装置、画像処理方法、およびプログラムにおいては、画像から、その画像に表示されている顔の顔モデルが生成される。一方、画像に、あらかじめ用意されている頭髪のモデルである頭髪モデルがマッピングされるとともに、画像から、頭髪でない部分である非頭髪部分が検出される。そして、画像にマッピングされた頭髪モデルのうちの、非頭髪部分にマッピングされた部分の、奥行き方向であるZ方向の位置を表すZ値が変更され、そのZ値が変更された頭髪モデルと、顔モデルとが合成される。
本発明の第3の画像処理装置、および画像処理方法、およびプログラムにおいては、顔の所定の部位のテンプレートの位置とサイズが、画像に表示されている顔に適応される。さらに、テンプレートの形状を規定する複数のパラメータを、その複数より少ない1以上のパラメータに基づいて変更することにより、位置とサイズが画像に表示されている顔に適応したテンプレートの形状が、所定の部位の形状の範囲内で変形され、画像に表示されている顔に適応される。そして、位置、サイズ、および形状が画像に表示されている顔に適応したテンプレートから、顔の所定の部位の特徴点が求められる。
本発明によれば、画像から、3次元モデルを、容易に得ることができる。また、本発明によれば、画像から、精度の高い特徴点を、容易に得ることができる。その結果、例えば、リアルなアニメーションを、容易に実現することが可能となる。
以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。
請求項1に記載の画像処理装置は、
3次元の物体が表示された2次元の画像から、前記物体の3次元モデルを生成する画像処理装置(例えば、図2の画像処理装置)において、
前記画像から、その画像に表示されている前記物体の3次元モデルを生成する3次元モデル生成手段(例えば、図25の顔モデル適応部261)と、
前記3次元モデル生成手段において生成された前記3次元モデルの周辺部分を、奥行き方向であるZ方向に拡張する拡張手段(例えば、図25の拡張部264)と
を備えることを特徴とする。
請求項5に記載の画像処理装置は、
前記画像に、あらかじめ用意されている頭髪のモデルである頭髪モデルをマッピングするマッピング手段(例えば、図25のマッピング部271)と、
前記画像から、頭髪でない部分である非頭髪部分を検出する非頭髪部分検出手段(例えば、図25の非頭髪部分検出部272)と、
前記画像にマッピングされた前記頭髪モデルのうちの、前記非頭髪部分にマッピングされた部分の、Z方向の位置を表すZ値を変更するZ値変更手段(例えば、図25のZ値変更部272)と、
前記Z値変更手段においてZ値が変更された前記頭髪モデルと、前記顔モデルとを合成する合成手段(例えば、図25の合成部254)と
をさらに備えることを特徴とする。
請求項6に記載の画像処理装置は、
前記Z値変更手段においてZ値が変更された前記頭髪モデルのZ値に対して、ローパスフィルタによるフィルタリングを行うフィルタ手段(例えば、図25のフィルタ部274)をさらに備える
ことを特徴とする。
請求項8に記載の画像処理装置は、
顔の所定の部位のテンプレートの位置とサイズを、前記画像に表示されている顔に適応させる第1の適応手段(例えば、図13のステップS202の処理を行う図11の目特徴点検出部202)と、
前記テンプレートの形状を規定する複数のパラメータを、その複数より少ない1以上のパラメータに基づいて変更することにより、位置とサイズが前記画像に表示されている顔に適応した前記テンプレートの形状を、前記所定の部位の形状の範囲内で変形し、前記画像に表示されている顔に適応させる第2の適応手段(例えば、図13のステップS203の処理を行う図11の目特徴点検出部202)と
をさらに備え、
前記3次元モデル生成手段は、位置、サイズ、および形状が前記画像に表示されている顔に適応した前記テンプレートから得られる顔の特徴点に基づき、前記画像に表示されている前記顔の顔モデルを生成する
ことを特徴とする。
請求項9に記載の画像処理方法は、
3次元の物体が表示された2次元の画像から、前記物体の3次元モデルを生成する画像処理方法において、
前記画像から、その画像に表示されている前記物体の3次元モデルを生成する3次元モデル生成ステップ(例えば、図47のステップS251)と、
前記3次元モデル生成ステップにおいて生成された前記3次元モデルの周辺部分を、奥行き方向であるZ方向に拡張する拡張ステップ(例えば、図47のステップS252)と
を含むことを特徴とする。
請求項10に記載のプログラムは、
3次元の物体が表示された2次元の画像から、前記物体の3次元モデルを生成する画像処理を、コンピュータに実行させるプログラムにおいて、
前記画像から、その画像に表示されている前記物体の3次元モデルを生成する3次元モデル生成ステップ(例えば、図47のステップS251)と、
前記3次元モデル生成ステップにおいて生成された前記3次元モデルの周辺部分を、奥行き方向であるZ方向に拡張する拡張ステップ(例えば、図47のステップS252)と
を含むことを特徴とする。
請求項11に記載の画像処理装置は、
3次元の顔が表示された2次元の画像から、前記顔の3次元モデルである顔モデルを生成する画像処理装置(例えば、図2の画像処理装置)において、
前記画像から、その画像に表示されている前記顔の3次元モデルである顔モデルを生成する3次元モデル生成手段(例えば、図25の顔モデル適応部261)と、
前記画像に、あらかじめ用意されている頭髪のモデルである頭髪モデルをマッピングするマッピング手段(例えば、図25のマッピング部271)と、
前記画像から、頭髪でない部分である非頭髪部分を検出する非頭髪部分検出手段(例えば、図25の非頭髪部分検出部272)と、
前記画像にマッピングされた前記頭髪モデルのうちの、前記非頭髪部分にマッピングされた部分の、奥行き方向であるZ方向の位置を表すZ値を変更するZ値変更手段(例えば、図25のZ値変更部273)と、
前記Z値変更手段においてZ値が変更された前記頭髪モデルと、前記顔モデルとを合成する合成手段(例えば、図25の合成部254)と
を備えることを特徴とする。
請求項13に記載の画像処理装置は、
前記Z値変更手段においてZ値が変更された前記頭髪モデルのZ値に対して、ローパスフィルタによるフィルタリングを行うフィルタ手段(例えば、図25のフィルタ部274)をさらに備える
ことを特徴とする。
請求項15に記載の画像処理方法は、
3次元の顔が表示された2次元の画像から、前記顔の3次元モデルである顔モデルを生成する画像処理方法において、
前記画像から、その画像に表示されている前記顔の3次元モデルである顔モデルを生成する3次元モデル生成ステップ(例えば、図47のステップS251)と、
前記画像に、あらかじめ用意されている頭髪のモデルである頭髪モデルをマッピングするマッピングステップ(例えば、図48のステップS272)と、
前記画像から、頭髪でない部分である非頭髪部分を検出する非頭髪部分検出ステップ(例えば、図48のステップS273)と、
前記画像にマッピングされた前記頭髪モデルのうちの、前記非頭髪部分にマッピングされた部分の、奥行き方向であるZ方向の位置を表すZ値を変更するZ値変更ステップ(例えば、図48のステップ274)と、
前記Z変更ステップにおいてZ値が変更された前記頭髪モデルと、前記顔モデルとを合成する合成ステップ(例えば、図48のステップS276)と
を含むことを特徴とする。
請求項16に記載のプログラムは、
3次元の顔が表示された2次元の画像から、前記顔の3次元モデルである顔モデルを生成する画像処理を、コンピュータに実行させるプログラムにおいて、
前記画像から、その画像に表示されている前記顔の3次元モデルである顔モデルを生成する3次元モデル生成ステップ(例えば、図47のステップS251)と、
前記画像に、あらかじめ用意されている頭髪のモデルである頭髪モデルをマッピングするマッピングステップ(例えば、図48のステップS272)と、
前記画像から、頭髪でない部分である非頭髪部分を検出する非頭髪部分検出ステップ(例えば、図48のステップS273)と、
前記画像にマッピングされた前記頭髪モデルのうちの、前記非頭髪部分にマッピングされた部分の、奥行き方向であるZ方向の位置を表すZ値を変更するZ値変更ステップ(例えば、図48のステップ274)と、
前記Z変更ステップにおいてZ値が変更された前記頭髪モデルと、前記顔モデルとを合成する合成ステップ(例えば、図48のステップS276)と
を含むことを特徴とする。
請求項17に記載の画像処理装置は、
3次元の顔が表示された2次元の画像から、前記顔の特徴点を求める画像処理装置(例えば、図2の画像処理装置)において、
顔の所定の部位のテンプレートの位置とサイズを、前記画像に表示されている顔に適応させる第1の適応手段(例えば、図13のステップS202の処理を行う図11の目特徴点検出部202)と、
前記テンプレートの形状を規定する複数のパラメータを、その複数より少ない1以上のパラメータに基づいて変更することにより、位置とサイズが前記画像に表示されている顔に適応した前記テンプレートの形状を、前記所定の部位の形状の範囲内で変形し、前記画像に表示されている顔に適応させ、位置、サイズ、および形状が前記画像に表示されている顔に適応した前記テンプレートから、前記顔の所定の部位の特徴点を求める第2の適応手段(例えば、図13のステップS203の処理を行う図11の目特徴点検出部202)と
を備えることを特徴とする。
請求項20に記載の画像処理方法は、
3次元の顔が表示された2次元の画像から、前記顔の特徴点を求める画像処理方法において、
顔の所定の部位のテンプレートの位置とサイズを、前記画像に表示されている顔に適応させる第1の適応ステップ(例えば、図13のステップS202)と、
前記テンプレートの形状を規定する複数のパラメータを、その複数より少ない1以上のパラメータに基づいて変更することにより、位置とサイズが前記画像に表示されている顔に適応した前記テンプレートの形状を、前記所定の部位の形状の範囲内で変形し、前記画像に表示されている顔に適応させ、位置、サイズ、および形状が前記画像に表示されている顔に適応した前記テンプレートから、前記顔の所定の部位の特徴点を求める第2の適応ステップ(例えば、図13のステップS203)と
を含むことを特徴とする。
請求項21に記載のプログラムは、
3次元の顔が表示された2次元の画像から、前記顔の特徴点を求める画像処理を、コンピュータに実行させるプログラムにおいて、
顔の所定の部位のテンプレートの位置とサイズを、前記画像に表示されている顔に適応させる第1の適応ステップ(例えば、図13のステップS202)と、
前記テンプレートの形状を規定する複数のパラメータを、その複数より少ない1以上のパラメータに基づいて変更することにより、位置とサイズが前記画像に表示されている顔に適応した前記テンプレートの形状を、前記所定の部位の形状の範囲内で変形し、前記画像に表示されている顔に適応させ、位置、サイズ、および形状が前記画像に表示されている顔に適応した前記テンプレートから、前記顔の所定の部位の特徴点を求める第2の適応ステップ(例えば、図13のステップS203)と
を含むことを特徴とする。
以下、図面を参照して、本発明の実施の形態について説明する。
図1は、本発明を適用した画像処理装置を実現するコンピュータのハードウェアの構成例を示している。
コンピュータは、CPU102を内蔵している。CPU102には、バス101を介して、入出力インタフェース110が接続されており、CPU102は、入出力インタフェース110を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部107が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)103に格納されているプログラムを実行する。あるいは、また、CPU102は、ハードディスク105に格納されているプログラム、衛星若しくはネットワークから転送され、通信部108で受信されてハードディスク105にインストールされたプログラム、またはドライブ109に装着されたリムーバブル記録媒体111から読み出されてハードディスク105にインストールされたプログラムを、RAM(Random Access Memory)104にロードして実行する。これにより、CPU102は、後述するフローチャートにしたがった処理、あるいは後述するブロック図の構成により行われる処理を行う。そして、CPU102は、その処理結果を、必要に応じて、例えば、入出力インタフェース110を介して、LCD(Liquid Crystal Display)やスピーカ等で構成される出力部106から出力、あるいは、通信部108から送信、さらには、ハードディスク105に記録等させる。
CPU102に実行させるプログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク105やROM103に予め記録しておくことができる。
あるいはまた、プログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体111に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体111は、いわゆるパッケージソフトウエアとして提供することができる。
なお、プログラムは、上述したようなリムーバブル記録媒体111からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、例えば、NIC(Network Interface Card)や、IEEE(Institute of Electrical and Electronics Engineers)1394またはUSB(Universal Serial Bus)に準拠したインタフェースである通信部108で受信し、内蔵するハードディスク105にインストールすることができる。
図1の実施の形態においては、コンピュータ(CPU102)が、ハードディスク105にインストールされている(アプリケーション)プログラムを実行することにより、例えば、3次元の物体としての、例えば、人の顔が表示された(写っている)2次元の画像から、その顔の3次元モデルを生成する処理(モデリング処理)と、その3次元モデルから、顔(の部位)が動くCGを生成して表示する処理(アニメーション処理)とを行う画像処理装置として機能する。
即ち、図2は、図1のコンピュータがプログラムを実行することによって等価的に実現される画像処理装置の一実施の形態の構成例を示している。
記憶部131には、人の顔が写っている2次元の画像(の画像データ)が供給されるようになっている。記憶部131は、例えば、図1のRAM104に相当し、そこに供給される、1枚の、人の顔が写っている画像(以下、適宜、顔画像という)を一時記憶する。
なお、記憶部131に記憶させる顔画像は、ディジタル(スチル)カメラで撮影した画像や、写真をスキャナで取り込んで得られる画像などを、通信部108からハードディスク105に記憶しておき、記憶部131に供給することができる。
前処理部132は、記憶部131に記憶された1枚の顔画像を読み出して、後述する前処理を施す。そして、前処理部132は、前処理の結果得られる1枚の画像(以下、適宜、正規化顔画像という)を、正規化顔画像記憶部133に供給する。
正規化顔画像記憶部133は、例えば、図1のRAM104に相当し、前処理部132から供給される1枚の正規化顔画像(の画像データ)を一時記憶する。
通常特徴点抽出部134は、正規化顔画像記憶部133に記憶されている正規化顔画像から、特徴点を抽出(検出)し、さらに、その特徴点から、正規化顔画像に写っている目と口の領域である目領域と口領域を求める。そして、通常特徴点抽出部134は、特徴点と、目領域および口領域の情報を、詳細特徴点抽出部135に供給する。
詳細特徴点抽出部135は、通常特徴点抽出部134から供給される特徴点や、目領域、口領域の情報に基づき、正規化顔画像記憶部133に記憶されている正規化顔画像から、特徴点を抽出(検出)し、顔モデル生成部136に供給する。
ここで、通常特徴点抽出部134が正規化顔画像から抽出する特徴点は、例えば、前述のAAMなどによって抽出される大域的な特徴点であり、正規化顔画像に写っている顔の目や、口、顔の輪郭の大雑把な位置等を認識することができれば良く、それほどの精度や数は要求されない。これに対して、詳細特徴点抽出部135が正規化顔画像から抽出する特徴点は、後述する顔のCGのアニメーション(CGアニメーション)の生成等に用いられるものであり、通常特徴点抽出部134で抽出される特徴点に比較して、数も多く、精度も高いものである。
以下、通常特徴点抽出部134で抽出される特徴点と、詳細特徴点抽出部135で抽出される特徴点とを区別するために、通常特徴点抽出部134で抽出される特徴点を、通常特徴点ともいい、詳細特徴点抽出部135で抽出される特徴点を、詳細特徴点ともいう。
顔モデル生成部136は、正規化顔画像記憶部133に記憶された1枚の正規化顔画像と、詳細特徴点抽出部135から供給される特徴点とに基づき、正規化顔画像に写っている顔の3次元モデルである顔モデルを生成し、顔モデル記憶部137に供給する。
顔モデル記憶部137は、例えば、図1のRAM104に相当し、顔モデル生成部136から供給される顔モデル(のデータ)を一時記憶する。
アニメーション処理部138は、顔モデル記憶部137に記憶された顔モデルに基づき、操作部139の操作に応じて顔(の部位)が動くCGアニメーション(のデータ)を生成し、表示部140に供給する。
操作部139は、例えば、図1の入力部107に相当し、ユーザによって操作され、その操作に対応した操作信号を、アニメーション処理部138に供給する。
表示部140は、例えば、図1の出力部106に相当し、アニメーション処理部138から供給されるCGアニメーションを表示する。
次に、図3のフローチャートを参照して、図2の画像処理装置の動作について説明する。
記憶部131には、人の顔を正面から撮像した1枚の顔画像が、既に記憶されており、ステップS101では、前処理部132が、記憶部131に記憶された1枚の顔画像を読み出して、前処理を施す。そして、前処理部132は、前処理の結果得られる1枚の正規化顔画像を、正規化顔画像記憶部133に供給して記憶させ、ステップS102からS103に進む。
ステップS103では、通常特徴点抽出部134は、例えば、AAMによって、正規化顔画像記憶部133に記憶されている正規化顔画像から、通常特徴点を抽出し、さらに、目領域と口領域を求める。そして、通常特徴点抽出部134は、特徴点と、目領域および口領域の情報を、詳細特徴点抽出部135に供給して、ステップS104に進む。
ステップS104では、詳細特徴点抽出部135は、通常特徴点抽出部134から供給される通常特徴点や、目領域の情報、口領域の情報と、正規化顔画像記憶部133に記憶されている正規化顔画像とに基づき、その正規化顔画像の特定の部位、即ち、例えば、正規化顔画像に写っている顔の目、口、顎等の特徴点を抽出し、顔モデル生成部136に供給する。
そして、ステップS104からS105に進み、顔モデル生成部136は、正規化顔画像記憶部133に記憶された1枚の正規化顔画像と、詳細特徴点抽出部135から供給される特徴点とに基づき、正規化顔画像に写っている顔の顔モデルを生成して、ステップS106に進む。ステップS106では、顔モデル生成部136は、正規化顔画像に写っている人の頭髪の3次元モデルである頭髪モデルを生成し、ステップS105で生成した顔モデルに合成して、ステップS107に進む。
ステップS107では、顔モデル生成部136は、詳細特徴点抽出部135から供給される詳細特徴点に基づき、ステップS106で頭髪モデルを合成した顔モデルに対して、目(眼球)の3次元モデルである目モデルと、歯(口内)の3次元モデルである歯モデルとを埋め込み(合成し)、その結果得られる顔モデルを顔モデル記憶部137に供給して記憶させ、ステップS108に進む。
ステップS108では、アニメーション処理部138が、顔モデル記憶部137に記憶された顔モデルに基づき、操作部139の操作に応じて顔(の部位)が動くCGアニメーション(のデータ)を生成し、表示部140に供給する。これにより、表示部140においては、記憶部131に記憶された顔画像に写っている顔のCGが操作部139の操作に応じて動くCGアニメーションが表示される。
なお、顔モデル記憶部137に記憶された顔モデルは、例えば、図1の通信部108を介して、インターネット上のサーバにアップロードし、あるいは、他の装置に送信することができる。また、顔モデル記憶部137に記憶された顔モデルは、例えば、ドライブ109を介して、リムーバブル記録媒体111に記録し、第3者等に配布することができる。
次に、図4のフローチャートを参照して、図3のステップS102において、図2の前処理部132が行う前処理について説明する。
前処理部132は、まず最初に、ステップS121において、記憶部131に記憶された1枚の顔画像のサイズを、必要に応じて縮小して、ステップS122に進む。即ち、記憶部131に記憶された顔画像が、例えば、市販のディジタルカメラで撮像された画像である場合、そのままのサイズでは、後の処理の負荷が大になるので、その負荷を低減するため、ステップS121では、顔画像のサイズが、例えば、画素を間引くローパスフィルタリング等を行うことによって、所定のサイズに縮小される。
なお、記憶部131に記憶された顔画像が、所定のサイズ以下である場合には、ステップS121の処理はスキップされる。
また、記憶部131に記憶された顔画像は、そこに写っている人(顔)の部分と他の部分とを識別しやすいように、背景が、例えば、グレー一色などの単一色になっているとする。
ここで、図5に、記憶部131に記憶され、前処理部132による前処理の対象となる顔画像の例を示す。
ステップS122では、前処理部132は、ステップS121の処理により所定のサイズに縮小された顔画像に写っている人の顔の部分を含む矩形の領域である顔スケールを推定し、さらに、顔画像に写っている人の肩から下にある服とそれより上の部分との境界(以下、適宜、服境界という)を推定する。
する。
ここで、図6を参照して、顔スケールと服境界を推定する方法を説明する。
図6は、図5の顔画像を、ステップS121で縮小して得られる顔画像を示している。
例えば、顔画像が、画素値として、RGB(Red, Greeen, Blue)の3値を有しているものとすると、前処理部132は、まず、顔画像のRGBの値に基づき、顔画像から、そこに写っている人と背景との境界(以下、適宜、人物境界という)を検出する。
即ち、前処理部132は、顔画像の左端と右端のそれぞれから、内側の方向に向かって、エッジとなっているエッジ画素を、顔画像の各行について検出していく。具体的には、前処理部132は、顔画像のある行に注目すれば、その行の1つの画素を注目画素として注目して、注目画素と、注目画素に対して顔画像の内側の方向に隣接する画素との、R,G,Bの値それぞれどうしの差分の自乗和(以下、適宜、RGB自乗誤差という)を計算し、そのRGB自乗誤差と固定の閾値(小さい閾値)とを比較することを、顔画像の左端と右端のそれぞれから、内側の方向に向かって順次行うことで、エッジ画素を検出し、そのエッジ画素を、人物境界(を構成する画素)の候補とする。
つまり、前処理部132は、顔画像の内側の方向に向かって最初に見つかる、RGB自乗誤差が固定の閾値より大きい画素を、エッジ画素として検出し、そのエッジ画素を、人物境界の候補とする。ここで、エッジ画素は、人物境界(であるエッジとなっている画素)である可能性もあるが、背景内に存在する何らかのエッジ(となっている画素)である可能性もある。
前処理部132は、最初の人物境界の候補の検出後、その人物境界の候補よりも外側の顔画像の領域(横方向に並ぶ画素)を背景と仮定し、背景を代表するRGBの値(以下、適宜、背景RGB値という)を求める。ここで、背景RGB値としては、例えば、背景の各画素のRGBの値の平均値や、背景の任意の画素のRGBの値などを採用することができる。
前処理部132は、その後、さらに、人物境界の候補から内側の方向に向かって、エッジ画素の検出を続行する。但し、最初に検出された人物境界の候補から内側の画素については、RGB自乗誤差と比較する閾値としては、顔画像の内側の画素ほど値が大きくなる可変の閾値が採用される。
そして、前処理部132は、新たなエッジ画素が検出された場合、即ち、ある画素において、そのRGB自乗誤差が可変の閾値よりも大きい場合、現在の人物境界の候補から新たなエッジ画素までの間にある画素(横方向に並ぶ画素)の画素値を代表するRGBの値(以下、適宜、外側代表RGB値という)を求める。ここで、外側代表RGB値としては、例えば、現在の人物境界の候補から新たなエッジ画素までの間にある各画素のRGBの値の平均値や、現在の人物境界の候補から新たなエッジ画素までの間にある任意の画素(例えば、新たなエッジ画素の、顔画像の外側の方向に隣接する画素など)のRGBの値などを採用することができる。
さらに、前処理部132は、新たなエッジ画素の、顔画像の内側の方向にある画素のRGBの値(以下、適宜、内側代表RGB値という)を求める。ここで、内側代表RGB値としては、例えば、新たなエッジ画素の、顔画像の内側の方向に隣接する画素のRGBの値などを採用することができる。
そして、前処理部132は、内側代表RGB値の背景類似度と、外側RGB値の背景類似度とを求める。ここで、背景類似度とは、背景との類似性を表す値であり、内側代表RGB値の背景類似度としては、例えば、内側代表RGB値のR,G,Bの値それぞれと、背景RGB値のR,G,Bの値それぞれとの差分の自乗和を採用することができる。同様に、外側代表RGB値の背景類似度としては、例えば、外側代表RGB値のR,G,Bの値それぞれと、背景RGB値のR,G,Bの値それぞれとの差分の自乗和を採用することができる。この場合、背景類似度の「値」が小さいほど、背景との類似性が高いことを表す。
前処理部132は、内側代表RGB値の背景類似度と、外側RGB値の背景類似度とを求めた後、それらの背景類似度に基づき、内側代表RGB値と外側RGB値のうちのいずれが、背景RGB値との類似性が高いかを判定する。
内側代表RGB値よりも、外側RGB値の方が、背景RGB値との類似性が高い場合、前処理部132は、現在の人物境界の候補から新たなエッジ画素までの間が、背景であるとして、人物境界の候補を、新たなエッジ画素に更新する。そして、前処理部132は、エッジ画素の検出を続行する。
また、外側代表RGB値よりも、内側RGB値の方が、背景RGB値との類似性が高い場合、前処理部132は、エッジ画素の検出を続行する。そして、顔画像の左端または右端のそれぞれから開始したエッジ画素の検出が、他端の画素まで行われた場合、前処理部132は、その時点で、人物境界の候補となっている画素を、人物境界として決定(確定)する。
例えば、図5に示した顔画像については、図6に示すように、人物境界が決定される。
前処理部132は、人物境界を決定すると、顔画像を、例えば、上から下方向にスキャンして、人物境界を観測することにより、顔スケールと服境界を推定する。
ここで、図6に示すように、人物境界は、上方向から下方向に観測していくと、顔画像に写っている人の頭頂部から、幅が拡がっていき、図6において矢印Aで示すように、こめかみ付近で極大値となって、その後、首の方向にかけて、幅が減少していく。そして、首から肩にかけて、人物境界の幅は、再び拡がっていく。
従って、顔画像を、上方向から下方向にスキャンして、人物境界を観測した場合、最初に見つかる、人物境界となっている画素の行から、2回目の人物境界の幅の拡がりの開始点となっている画素の行までの縦方向(垂直方向)の部分(図6において矢印Bで示す部分)と、最初に見つかる幅の極大値の行の、人物境界の左端から右端までの横方向(水平方向)の部分(図6において矢印Aで示す部分)には、顔画像に写っている人の顔(顔面)が存在する。さらに、例えば、2回目の人物境界の幅の拡がりの開始点となっている画素の行以下には、人の肩が写っている。
そこで、前処理部132は、顔画像を、上方向から下方向にスキャンして、人物境界を観測していき、最初に見つかる、人物境界となっている画素の行から、2回目の人物境界の幅の拡がりの開始点となっている画素の行までを、縦方向の長さ(図6において矢印Bで示す部分)とするとともに、最初に見つかる幅の極大値の行の、人物境界の左端から右端までを、横方向の長さ(図6において矢印Aで示す部分)とする矩形を検出する。そして、前処理部132は、その矩形を所定数倍した矩形の領域、またはその矩形の横と縦を所定サイズだけ拡げた矩形の領域を、顔画像に写っている人の顔の部分を含む矩形の領域である顔スケールとして推定する。
さらに、前処理部132は、2回目の人物境界の幅の拡がりの開始点となっている画素の行を、顔画像に写っている人の肩から下にある服とそれより上の部分との境界である服境界として推定する。
ここで、以下の処理は、顔画像のうちの顔スケールを対象として、その顔スケールのうちの服境界より上に顔面があるものとして行われる。
図4に戻り、ステップS122において、上述のように、顔スケールと服境界が推定された後は、ステップS123に進み、前処理部132は、顔スケール内の顔画像を2値化し、その結果得られる2値化画像を対象として、顔スケールに写っている顔の目と口のテンプレートマッチングを行う。
即ち、前処理部132は、顔スケール内の顔画像の、例えば、色相と彩度に基づき、顔スケール内の肌色の領域の画素値を、例えば1とするとともに、それ以外の色の領域の画素値を、例えば0とする2値化画像を生成する。
ここで、図7に、図6に示した顔画像から得られる2値化画像を示す。図7の2値化画像において、白い部分は画素値が1の肌色の画素であり、黒い部分は画素値が0の、肌色以外の色の画素である。顔(顔面)のほとんどの部分では、画素値が肌色を表す1となるが、黒色の黒目や、赤みがかった色の唇の部分では、画素値が0となる。
前処理部132は、2値化画像の生成後、その2値化画像を対象として、顔スケールに写っている顔の目と口のテンプレートマッチングを行う。
即ち、前処理部132は、正方形の中に、目と口の矩形の領域が設けられたテンプレートである目口テンプレートを有している。即ち、目口テンプレートは、図7に示すように、正方形状に画素が配置されたテンプレートであり、目と口の領域の画素値が0で、その他の領域の画素値が1になっている。前処理部132は、図7に示すように、目口テンプレートを、顔スケール上に配置し、目口テンプレートの各画素と、顔スケールの同一位置の画素との画素値の差分の自乗和を計算することを、目口テンプレートを顔スケール上に配置する位置と、目口テンプレートのサイズを変えながら行うテンプレートマッチングを行う。
そして、前処理部132は、テンプレートマッチングの結果、顔スケールに最もマッチする目口テンプレートの位置とサイズ、即ち、自乗和を最小にする目口テンプレートの位置とサイズを検出する。なお、目口テンプレートを用いたテンプレートマッチングにおいて、目口テンプレートのサイズは、横方向と縦方向の長さを独立に変えても良いし、元の正方形と相似形となるように変えても良い。ここでは、処理を簡単にするため、目口テンプレートのサイズを、元の正方形と相似形となるように変えることとする。
ここで、位置とサイズが顔スケールに最もマッチした状態の目口テンプレートを、マッチ目口テンプレートという。
また、目口テンプレートには、顔の中心位置とすべき位置の情報(以下、適宜、中心情報という)が含まれている。顔の中心位置とすべき位置としては、例えば、目口テンプレートの形状である正方形の重心位置などを採用することができる。
再び、図4に戻り、前処理部132は、ステップS123において、マッチ目口テンプレートが得られると、ステップS124に進み、前処理部132は、マッチ目口テンプレートに基づき、顔画像(ステップS122で縮小された顔画像)を縮小(または拡大)して、ステップS125に進む。
即ち、前処理部132は、マッチ目口テンプレートのサイズから、顔画像に写っている顔のサイズを推定し、その顔のサイズが、3次元モデルの生成やCGアニメーションの生成に適したサイズとしてあらかじめ決められたサイズを中心とする所定の範囲内のサイズとなるように、顔画像を縮小する。
ステップS125では、前処理部132は、ステップS124で縮小した後の顔画像から、顔の中心位置を中心(重心)とする矩形の領域、即ち、例えば、横×縦が512×512画素の正方形状の領域を切り出す。なお、顔の中心位置は、マッチ目口テンプレートに含まれる中心情報から認識される。
ここで、ステップS125において、前処理部132が、ステップS124で縮小した後の顔画像から、上述したような512×512画素の正方形状の領域を切り出す場合には、ステップS124では、その512×512画素の正方形状の領域に、適切なサイズで顔が含まれるように、顔画像が縮小される。
ステップS125において顔画像から切り出される領域の画像(これも、顔画像という)には、適切なサイズで顔が写っており、そのような顔画像が得られた後は、ステップS125からS126に進み、前処理部132は、ステップS125で得られた顔画像の色補正を行って、ステップS127に進む。
即ち、顔画像の背景が、例えば、上述したように、グレー一色である場合には、前処理部132は、顔画像のうちの、ステップS122で得られた人物境界の外側、つまり背景を構成する画素の画素値としてのRGBの値をサンプリングし、そのサンプリングしたRGBの値を用いて、あらかじめ用意されたグレーのRGBの値からの偏差と、顔画像の背景の画素のRGBの値との関係を近似する1次関数を、R,G,Bそれぞれについて求める。そして、前処理部132は、その一次関数に基づき、ステップS125で得られた画像の全体の色補正を行う。
ステップS127では、前処理部132は、色補正後の画像の輝度値(輝度レベル)を補正する。
即ち、前処理部132は、色補正後の画像の全体を対象に、輝度値の最小値と最大値とを検出する。いま、輝度値が、例えば、8ビットで表されるものとすると、前処理部132は、色補正後の画像における輝度値の最小値が0になり、最大値が255(=28-1)となるように、色補正後の画像のすべての画素値に1次変換を施し、これにより、色補正後の画像の輝度値を補正する。
そして、ステップS127からS128に進み、前処理部132は、輝度値の補正後の画像を、正規化顔画像として、正規化顔画像記憶部133(図2)に供給(出力)して記憶させ、前処理を終了する。なお、前処理部132は、正規化顔画像に、人物境界や、服境界、目口テンプレートから得られる顔の中心位置などの情報も適宜含めて、正規化顔画像記憶部133に供給して記憶させる。
ここで、図8は、図5に示した顔画像を対象として前処理を行うことにより得られる正規化顔画像を示している。
図4のステップS125において、上述したように、横×縦が512×512画素の正方形状の領域が切り出される場合には、正規化顔画像は、そのような512×512画素の画像となる。
以上のように、正規化顔画像記憶部133に正規化顔画像が記憶されると、図3(のステップS103)で説明したように、通常特徴点抽出部134は、正規化顔画像記憶部133に記憶された正規化顔画像から、例えば、AAMによって、通常特徴点を抽出し、さらに、その通常特徴点から、正規化顔画像に写っている目と口それぞれの目領域と口領域を求める。そして、通常特徴点抽出部134は、通常特徴点と、目領域および口領域(の情報)を、詳細特徴点抽出部135に供給する。
ここで、図9に、通常特徴点抽出部134において、図8に示した正規化顔画像から得られる通常特徴点と、目領域および口領域とを示す。また、図10に、通常特徴点抽出部134において、他の正規化顔画像から得られる通常特徴点と、目領域および口領域とを示す。
AAMによれば、図9や図10に○印で示すように、正規化顔画像に写っている顔の目や、口、顔の輪郭等における特徴的な点としての特徴点(通常特徴点)が、大まかに(大域的に)得られる。通常特徴点抽出部134は、正規化顔画像から得られた特徴点に基づき、目が位置する矩形の領域である目領域と、口が位置する矩形の領域である口領域を求め、通常特徴点とともに、詳細特徴点抽出部135に供給する。
なお、通常特徴点は、正規化顔画像に写っている顔の目や、口、顔の輪郭等についての、大まかな特徴的な点であり、従って、そのような通常特徴点から求められる目領域や口領域も、目や口の大まかな位置を表す領域である。
次に、図11は、図2の詳細特徴点抽出部135の構成例を示すブロック図である。
テンプレート記憶部201は、目、口、顎(顔の輪郭)のテンプレートを記憶しており、目のテンプレート(目テンプレート)を目特徴点検出部202に、口のテンプレート(口テンプレート)を口特徴点検出部203に、顎のテンプレート(顎テンプレート)を顎特徴点検出部204に、それぞれ供給する。
目特徴点検出部202には、テンプレート記憶部201から目テンプレートが供給される他、正規化顔画像記憶部133(図2)から、そこに記憶された正規化顔画像が供給されるとともに、通常特徴点抽出部134から、通常特徴点と、目領域および口領域の情報(以下、適宜、すべてをまとめて、領域情報という)が供給されるようになっている。
目特徴点検出部202は、正規化顔画像記憶部133からの正規化顔画像、通常特徴点抽出部134からの領域情報、およびテンプレート記憶部201からの目テンプレートとに基づき、正規化顔画像の目について、詳細特徴点を検出(抽出)し、顎特徴点検出部204に供給するとともに、顔モデル生成部136(図2)に供給する。
口特徴点検出部203には、テンプレート記憶部201から口テンプレートが供給される他、正規化顔画像記憶部133(図2)から、そこに記憶された正規化顔画像が供給されるとともに、通常特徴点抽出部134から、領域情報が供給されるようになっている。
口特徴点検出部203は、正規化顔画像記憶部133からの正規化顔画像、通常特徴点抽出部134からの領域情報、およびテンプレート記憶部201からの口テンプレートとに基づき、正規化顔画像の口について、詳細特徴点を検出(抽出)し、顎特徴点検出部204に供給するとともに、顔モデル生成部136(図2)に供給する。
顎特徴点検出部204には、テンプレート記憶部201から顎テンプレートが供給されるとともに、目特徴点検出部202と口特徴点検出部203から、それぞれ、目と口の詳細特徴点が供給される他、正規化顔画像記憶部133(図2)から、そこに記憶された正規化顔画像が供給される。
顎特徴点検出部204は、正規化顔画像記憶部133からの正規化顔画像、およびテンプレート記憶部201からの顎テンプレート、さらには、目特徴点検出部202からの目の詳細特徴点、および口特徴点検出部203からの口の詳細特徴点に基づき、正規化顔画像の顔の輪郭、特に顎(下顎)について、詳細特徴点を検出(抽出)し、顔モデル生成部136(図2)に供給する。
次に、図12は、図11のテンプレート記憶部201に記憶されている目のテンプレートの例を示している。
目テンプレートは、外側から順に、まぶたと眼孔との標準的な境界(以下、適宜、目の外側の輪郭ともいう)上の点、眼孔から露出している眼球の部分の標準的な輪郭(以下、適宜、目の内側の輪郭ともいう)上の点、および瞳の中心の点から構成される。
ここで、目テンプレートを構成する点を、以下、適宜、制御点ともいう。図12では、制御点を、□印で示してある。
目テンプレートにおいて、目の外側の輪郭上の制御点は、まぶたと眼孔との境界(線)を精度良く再現することができる程度の数(多数)だけ設けられており、図12では、30個の制御点が設けられている。
また、目テンプレートにおいて、目の内側の輪郭上の制御点も、眼孔から露出している眼球の部分の輪郭(線)を精度良く再現することができる程度の数(多数)だけ設けられており、図12では、20個の制御点が設けられている。
さらに、目テンプレートにおいて、瞳の中心の制御点は、実際の瞳の中心に相当する位置に1点だけ設けられている。
なお、目テンプレートの制御点の数は、上述した数に限定されるものではなく、特に、目の内側の輪郭上の制御点は、眼孔から露出している眼球の部分の輪郭を精度良く再現することができる程度の数であれば良く、目の外側の輪郭上の制御点も、まぶたと眼孔との境界を精度良く再現することができる程度の数であれば良い。
また、図12に示した目テンプレートは、(正規化顔画像に写っている人の)右目の目テンプレートである。テンプレート記憶部201には、右目の目テンプレートと同様の左目の目テンプレートも記憶されている。
さらに、テンプレート記憶部201には、図12に示した目テンプレートと同様の口テンプレートおよび顎テンプレートも記憶されている。
ここで、口テンプレートは、例えば、上唇と下唇との標準的な境界(線)としての線分の上に制御点が並んだものであり、その制御点としては、上唇と下唇との境界を精度良く再現することができる程度の数(多数)が設けられている。また、顎テンプレートは、例えば、顔の標準的な輪郭としての楕円(の円周)上に制御点が並んだものであり、その楕円の顎(下顎)に相当する部分には、顎(下顎の輪郭)を精度良く再現することができる程度の多数の制御点が設けられている。
次に、図13のフローチャートを参照して、図11の目特徴点検出部202の処理について説明する。
目特徴点検出部202は、まず、ステップS201において、正規化顔画像記憶部133からの正規化顔画像(図2)と、通常特徴点抽出部134からの領域情報のうちの目領域の情報に基づき、テンプレート記憶部201からの目テンプレートのサイズと位置の初期値を決定する。
即ち、目特徴点検出部202は、例えば、正規化顔画像の、目領域の情報が表す矩形の領域に、目テンプレートが内接するように、目テンプレートを(その形状を保ったまま)拡大または縮小して、正規化顔画像上に配置する。ステップS201で正規化顔画像上に配置された目テンプレートのサイズと位置が、それぞれの初期値である。ここで、目テンプレートのサイズと位置の初期値を、それぞれ、初期サイズと初期位置という。
ステップS201からS202に進み、目特徴点検出部202は、目テンプレートのサイズと位置を、それぞれ、初期サイズと初期位置から徐々に変化させ、正規化顔画像に表示されている(写っている)顔に適応(フィット)させる位置/サイズフィット処理を行う。
即ち、ステップS202の位置/サイズフィット処理では、目特徴点検出部202は、目テンプレートの形状を保ったまま、そのサイズと位置を変化させ、各サイズと各位置について、目テンプレートが正規化顔画像に写っている顔の目にフィットしている程度を評価する評価関数を演算する。
ここで、目特徴点検出部202は、目テンプレートを拡大または縮小することにより、そのサイズを、形状を保ったまま変化させる。また、目特徴点検出部202は、目テンプレートの全体(の制御点)を平行移動することにより、その位置を、形状を保ったまま変化させる。なお、目特徴点検出部202では、目テンプレートの平行移動の他、例えば、瞳の中心の制御点を中心とする回転によって、目テンプレートの位置を変化させることも可能である。
目特徴点検出部202は、評価関数が、最もフィットしていることを表している値となるとき、つまり、評価関数が、例えば、最大値または最小値をなるときの目テンプレートのサイズと位置を求める。
なお、評価関数が、最大値または最小値のいずれとなったときが、最もフィットしていることを表すかは、どのような評価関数を採用するかによって異なる。
また、ある位置pとサイズsについての評価関数f(p,s)としては、例えば、次式などを採用することができる。
f(p,s)=(-A1+A2)+(B1-B2)
・・・(1)
ここで、式(1)において、A1は、瞳の中心の制御点を中心とする半径R0の範囲(例えば、黒目の一部の領域に相当する範囲)の正規化顔画像からサンプリングしたN0個の画素の画素値の総和を表し、A2は、瞳の中心の制御点から左右に距離L1だけ離れた位置をそれぞれ中心とする半径R1の範囲(例えば、白目の一部の領域に相当する範囲)の正規化顔画像からサンプリングしたN1個の画素の画素値の総和を表す。また、B1は、目の外側の輪郭上の上半分の制御点のそれぞれを中心とする半径R2の範囲(例えば、まぶたの一部の領域に相当する範囲)の正規化顔画像からサンプリングしたN2個の画素の画素値の総和を表し、B2は、目の内側の輪郭上の上半分の制御点のそれぞれを中心とする半径R3の範囲(例えば、瞳孔から露出している眼球の輪郭付近の一部の領域に相当する範囲)の正規化顔画像からサンプリングしたN3個の画素の画素値の総和を表す。
従って、式(1)のf(p,s)=(-A1+A2)+(B1-B2)において、負の符号がついているA1とB2は、暗い(画素値が小さい)ことが期待される画素の総和であり、正の符号がついているA2とB1は、明るい(画素値が大きい)ことが期待される画素値の総和であるから、評価関数f(p,s)が、最大値となるときに、目テンプレートの位置pとサイズsが正規化顔画像に写っている顔の目に最もフィットしていることとなる。
なお、評価関数f(p,s)を計算するのに必要となるA1およびA2を求めるにあたっては、瞳の中心の制御点を中心とする半径R0の範囲の正規化顔画像からサンプリングする画素の数であるN0個と、瞳の中心の制御点から左右に距離L1だけ離れた位置をそれぞれ中心とする半径R1の範囲の正規化顔画像からサンプリングする画素の数であるN1個とは、同一の数であっても良いし、異なる数であっても良い。また、瞳の中心の制御点を中心とする半径R0の範囲の正規化顔画像の画素すべてと、瞳の中心の制御点から左右に距離L1だけ離れた位置をそれぞれ中心とする半径R1の範囲の正規化顔画像の画素すべてとをサンプリングしても良い。
同様に、評価関数f(p,s)を計算するのに必要となるB1およびB2を求めるにあたっては、目の外側の輪郭上の上半分の制御点のそれぞれを中心とする半径R2の範囲の正規化顔画像からサンプリングする画素の数であるN2個と、目の内側の輪郭上の上半分の制御点のそれぞれを中心とする半径R2の範囲の正規化顔画像からサンプリングする画素の数であるN3個も、同一の数であっても良いし、異なる数であっても良い。また、目の外側の輪郭上の上半分の制御点のそれぞれを中心とする半径R2の範囲の正規化顔画像の画素すべてと、目の内側の輪郭上の上半分の制御点のそれぞれを中心とする半径R3の範囲の正規化顔画像の画素すべてとをサンプリングしても良い。
さらに、評価関数f(p,s)を計算するにあたり、正規化顔画像からの画素のサンプリングは、ある規則(例えば、1画素おきにサンプリングするなどの規則)にしたがって行っても良いし、ランダムに行っても良い。
また、正規化顔画像ごとの輝度値やコントラストの違いの影響を低減するため、例えば、式f(p,s)=(-A1+A2)+(B1-B2)で表される評価関数f(p,s)については、暗いことが期待される画素の画素値は、負の符号がついているA1やB2を求める総和の対象とし、明るいことが期待される画素の画素値は、正の符号がついているA2やB1をを求める総和の対象とすることができる。
即ち、例えば、上述の場合においては、正の符号がついているB1を、目の外側の輪郭上の上半分の制御点のそれぞれを中心とする半径R2の範囲の正規化顔画像からサンプリングしたN2個の画素の画素値の総和としたが、目の外側の輪郭上の上半分の制御点のうちの、例えば、暗いことが期待される目尻付近の制御点を中心とする半径R2の範囲の正規化顔画像からサンプリングした画素の画素値は、正の符号がついているB1ではなく、負の符号がついているB2を求める総和の対象とすることができる。
さらに、上述の場合には、評価関数が最大値または最小値をなったときの目テンプレートのサイズと位置を、正規化顔画像に最もフィットしているサイズと位置として求めることとしたが、その他、例えば、評価関数が所定の閾値以下または以上となったときの目テンプレートのサイズと位置を、正規化顔画像に最もフィットしているサイズと位置として求めることができる。また、例えば、前回の評価関数に対する今回の評価関数の変化分が、所定の閾値以下または以上となったときの目テンプレートのサイズと位置を、正規化顔画像に最もフィットしているサイズと位置として求めることもできる。
ステップS202の処理後は、ステップS203に進み、目特徴点検出部202は、ステップS202で求められた位置とサイズの目テンプレートを基準として、その目テンプレートの形状を変形し、目テンプレートの形状を、正規化顔画像に写っている顔の目に適応(フィット)させる形状フィット処理を行う。
即ち、目特徴点検出部202は、ステップS202においては、目テンプレートの位置とサイズを変化させ、目テンプレートを、正規化顔画像に写っている顔の目にフィットさせたが、ステップS203では、目テンプレートの形状を変化させ、目テンプレートを、正規化顔画像に写っている顔の目に、さらにフィットさせる形状フィット処理を行う。
具体的には、例えば、目特徴点検出部202は、第1の形状フィット処理として、目テンプレートの外側の輪郭上の制御点のうちの、目尻の部分に相当する複数の制御点の位置を上、下、左、または右に移動させ、その複数の制御点を結んだ線を、正規化顔画像の目尻の輪郭(まぶたと眼孔との境界の目尻側)に(なるべく)一致させる。
また、目特徴点検出部202は、第2の形状フィット処理として、目テンプレートの外側の輪郭上の制御点のうちの、上側の複数の制御点の位置を上または下に移動させ、その複数の制御点を結んだ線を、正規化顔画像のまぶたと眼孔との境界の上側に(なるべく)一致させるとともに、目テンプレートの外側の輪郭上の制御点のうちの、下側の複数の制御点の位置を上または下に移動させ、その複数の制御点を結んだ線を、まぶたと眼孔との境界の下側に(なるべく)一致させる。
さらに、目特徴点検出部202は、第3の形状フィット処理として、目テンプレートの外側の輪郭上の制御点のうちの、鼻に近い側の複数の制御点の位置を上、下、左、または右に移動させ、その複数の制御点を結んだ線を、正規化顔画像のまぶたと眼孔との境界の、鼻に近い側に(なるべく)一致させる。
また、目特徴点検出部202は、第4の形状フィット処理として、目テンプレートの内側の輪郭上の制御点のうちの目尻側の複数の制御点の位置を上、下、左、または右に移動させ、その複数の制御点を結んだ線を、正規化顔画像の眼孔から露出している眼球の目尻側の白目の輪郭に(なるべく)一致させるとともに、目テンプレートの内側の輪郭上の制御点のうちの鼻に近い側の複数の制御点の位置を上、下、左、または右に移動させ、その複数の制御点を結んだ線を、正規化顔画像の眼孔から露出している眼球の白目の鼻に近い側の輪郭に(なるべく)一致させる。
さらに、目特徴点検出部202は、第5の形状フィット処理として、目テンプレートの内側の輪郭上の制御点のうちの上側の複数の制御点の位置を上または下に移動させ、その複数の制御点を結んだ線を、正規化顔画像の眼孔から露出している眼球の上側の輪郭に(なるべく)一致させるとともに、目テンプレートの内側の輪郭上の制御点のうちの下側の複数の制御点の位置を上または下に移動させ、その複数の制御点を結んだ線を、正規化顔画像の眼孔から露出している眼球の下側の輪郭に(なるべく)一致させる。
第1乃至第5のフィット処理は、ステップS202の位置/サイズフィット処理と同様に、制御点の移動させた各位置について、目テンプレートが正規化顔画像に写っている顔の目にフィットしている程度を評価する評価関数を演算し、その評価関数が、最もフィットしていることを表している値となるときを検出することによって行われる。
なお、第1乃至第5の形状フィット処理それぞれで演算する評価関数としては、同一の関数を採用することもできるし、別々の関数を採用することもできる。さらに、例えば、第2の形状フィット処理などでは、目テンプレートの外側の輪郭上の制御点のうちの、上側の複数の制御点と、目テンプレートの外側の輪郭上の制御点のうちの、下側の複数の制御点とを移動するが、この上側の複数の制御点を移動する場合と、下側の複数の制御点を移動する場合とでも、評価関数として、別々の関数を採用することができる。移動対象の制御点(のセット)が異なるごとに、適切な関数を評価関数として採用することにより、目テンプレートの形状を、正規化顔画像に、より高精度にフィットさせることができる。
また、評価関数の演算には、移動対象の複数の制御点の一部またはすべてを用いても良いし、さらには、移動対象になっていない制御点を用いても良い。即ち、例えば、第1の形状フィット処理として、目テンプレートの外側の輪郭上の制御点のうちの、目尻の部分に相当する複数の制御点を移動させる場合には、その移動対象の、目尻の部分に相当する複数の制御点の一部またはすべての位置付近の正規化顔画像の画素をサンプリングして、評価関数を演算しても良いし、さらに、目テンプレートの、目尻の部分に相当する複数の制御点以外の制御点の位置付近の正規化顔画像の画素をもサンプリングして、評価関数を演算しても良い。
ステップS203の形状フィット処理が終了すると、位置、サイズ、および形状が正規化顔画像(の目)にフィット(適応)した目テンプレート(以下、適宜、適応目テンプレートともいう)が得られる。目特徴点検出部202は、適応目テンプレートから、正規化顔画像の目の特徴点を求め、詳細特徴点として、顎特徴点検出部204(図11)に供給するとともに、顔モデル生成部136(図2)に供給し、処理を終了する。
ここで、目特徴点検出部202では、例えば、適応目テンプレートの制御点のうちの一部またはすべてを、正規化顔画像の目の詳細特徴点として求めることができる。また、目特徴点検出部202では、例えば、適応目テンプレートの制御点を結んだ線上の点をサンプリングし、そのサンプリングされた点を、正規化顔画像の目の詳細特徴点として求めることができる。
以上のように、目特徴点検出部202では、目テンプレートの位置とサイズを、正規化顔画像の顔(正規化顔画像に写っている顔)の目にフィットさせ、位置とサイズがフィットした目テンプレートを基準として、その形状を、正規化顔画像の顔の目にフィットさせるようにしたので、正規化顔画像の限定された範囲を対象に処理を行うだけで、多数の詳細特徴点を得ることができる。即ち、多数の、精度が高い特徴点を、容易に得ることができる。
なお、目特徴点検出部202では、ステップS203において、目テンプレートの形状を正規化顔画像にフィットさせた後、図13に点線で示すように、ステップS202に戻り、形状がフィットした目テンプレートを基準として、その目テンプレートの位置とサイズを正規化顔画像にフィットさせ、以下同様にして、ステップS202およびS203の処理を1回以上繰り返すようにすることができる。この場合、より精度が高い特徴点を得ることができる。
次に、図14は、図13のステップS202の位置/サイズフィット処理によって得られる、位置とサイズが正規化顔画像にフィットした目テンプレートを示している。
即ち、図14の左側は、ある正規化顔画像を対象に位置/サイズフィット処理が行われることによって得られる、位置とサイズが正規化顔画像にフィットした目テンプレートを示しており、図14の右側は、他の正規化顔画像を対象に位置/サイズフィット処理が行われることによって得られる、位置とサイズが正規化顔画像にフィットした目テンプレートを示している。
図14の左側と右側のいずれにおいても、目テンプレートの位置およびサイズは、正規化顔画像の目にフィット(マッチ)している。即ち、目テンプレートの位置とサイズは、それぞれ、正規化顔画像の目の位置とサイズに(ほぼ)一致している。
但し、図14の左側では、目テンプレートの形状が、正規化顔画像の目に、比較的フィットしているのに対して、図14の右側では、目テンプレートの形状が、正規化顔画像の目にあまりフィットしていない。
そこで、図15は、位置とサイズが正規化顔画像にフィットした目テンプレートを基準として、図13のステップS203の形状フィット処理を行うことによって得られる、位置、サイズ、および形状が正規化顔画像にフィットした目テンプレートを示している。
即ち、図15の左側は、図14の左側の目テンプレートを基準として、形状フィット処理を行うことによって得られる目テンプレートを示しており、図15の右側は、図14の右側の目テンプレートを基準として、形状フィット処理を行うことによって得られる目テンプレートを示している。
図15の左側と右側のいずれにおいても、目テンプレートの位置、サイズ、形状は、正規化顔画像の目にフィットしている。即ち、目テンプレートの位置、サイズ、形状は、いずれも、正規化顔画像の目の位置、サイズ、形状に(ほぼ)一致している。
ところで、目特徴点検出部202(図11)では、ステップS203(図13)において、目テンプレートの形状を変化させ、目テンプレートの形状を、正規化顔画像の顔の目にフィットさせる形状フィット処理を行うが、目テンプレートの形状を変化させる方法としては、例えば、目テンプレートを構成する複数の制御点のそれぞれを、独立に移動する方法がある。
例えば、いま、正規化顔画像上に、左から右方向をx軸とするとともに、下から上方向をy軸とするxy座標系を想定し、制御点の移動を、その移動後の制御点の位置を表す、xy座標系上の座標(x,y)を与えることによって行うこととすると、目テンプレートを構成する複数の制御点それぞれの座標(x,y)のすべてによって、目テンプレートの形状が規定される。従って、この場合、目テンプレートの形状を規定するパラメータは、目テンプレートを構成する複数の制御点それぞれの座標(x,y)のすべてであり、そのパラメータの数は、目テンプレートを構成する制御点の数の2倍(x座標とy座標)である。
目テンプレートを構成する複数の制御点のそれぞれを、独立に移動する場合には、その複数の制御点それぞれの座標(x,y)を、独立に与える必要がある。
しかしながら、目テンプレートは(口テンプレートや顎テンプレートも同様)、上述したように、ある程度の数の制御点で構成されるため、そのような数の制御点すべての座標(x,y)を独立に与えるのは面倒であるし、さらに、複数の制御点それぞれの座標(x,y)を、独立に与えると、その座標(x,y)の組み合わせの数は膨大であるから、正規化顔画像の顔の目にフィットする形状の目テンプレートが得られるまでに、膨大な時間を要することになる。また、目テンプレートを構成する複数の制御点のそれぞれを、独立に移動すると、目テンプレートの形状が、目としてとり得る形状の範囲を超え、正規化顔画像の目にフィットし得ない形状になることがあり、そのような、正規化顔画像の目にフィットし得ない目テンプレートの形状について、上述したような評価関数の演算等を行うのは、いわば無駄である。
そこで、目特徴点検出部202(図11)は、ステップS203(図13)の形状フィット処理において、目テンプレートの形状を規定する複数のパラメータとしての、その目テンプレートを構成する複数の制御点それぞれの座標(x,y)を、その複数のパラメータの数(目テンプレートを構成する制御点の数の2倍の数)より少ない1以上の数のパラメータに基づいて変更することにより、目テンプレートの形状を、目としてとり得る形状の範囲内で変化させる(変形する)ようになっている。
そこで、目テンプレートを構成する複数の制御点それぞれの座標(x,y)を、少ない数のパラメータに基づいて変更する方法について説明する。
目特徴点検出部202は、例えば、図13のステップS203で説明した第2の形状フィット処理において、目テンプレートの外側の輪郭上の制御点のうちの、上側または下側の複数の制御点を移動させる場合や、第5の形状フィット処理において、目テンプレートの内側の輪郭上の制御点のうちの上側または下側の複数の制御点の位置を移動させる場合、例えば、式(2)にしたがって、目テンプレートを構成する制御点のうちの、移動対象の制御点の座標(xn,yn)を求める。
xn=xn'
yn=(1-t)yn'+tymax(n) 但し、t≧0のとき
yn=(1-(-t))yn'+(-t)ymin(n) 但し、t<0のとき
・・・(2)
ここで、式(2)において、nは、移動対象の複数の制御点のうちのn番目の制御点を表すインデックスであり、xnとynは、それぞれ、n番目の制御点の、移動後のx座標とy座標を表す。また、xn'とyn'は、それぞれ、n番目の制御点の、移動直前のx座標とy座標を表す。さらに、ymax(n)は、n番目の制御点が取り得るy座標の最大値を表し、ymin(n)は、n番目の制御点が取り得るy座標の最小値を表す。また、tは、移動対象の複数の制御点のうちの複数の制御点それぞれの座標(x,y)を変更するのに与えられる(1つの)パラメータであり、ここでは、-1から+1までの範囲の実数をとるものとする。
なお、式(2)において、ymax(n)およびymin(n)は、パラメータtが-1から+1までの範囲で変化する限り、式(2)で与えられる座標(xn,yn)に位置する制御点によって形状が表される目テンプレートが、目としてとり得る形状の範囲内の形状となるような値に、あらかじめ設定されている。
式(2)によれば、移動対象の複数の制御点、即ち、いまの場合、目テンプレートの外側の輪郭上の制御点のうちの、上側または下側の複数の制御点や、目テンプレートの内側の輪郭上の制御点のうちの上側または下側の複数の制御点は、その座標(x,y)が1つのパラメータtに基づいて変更されることにより、図16に示すように移動し、これにより、目テンプレートの形状が、目としてとり得る形状の範囲内で変化する。
即ち、図16の上から1番目は、形状が変化する前の目テンプレート(を構成する制御点)、つまり、位置とサイズが正規化顔画像にフィットした目テンプレートを示している。従って、この目テンプレートの形状は、テンプレート記憶部201(図11)に記憶されている目テンプレートの形状と同一(相似)である。
図16の上から2番目は、図16の上から1番目の目テンプレートを、制御点の移動直前の状態の目テンプレートとするとともに、パラメータtを0として、式(2)により求めた座標(xn,yn)に制御点を移動した目テンプレートを示している。図16の上から2番目の目テンプレートの形状は、図16の上から1番目の目テンプレートの形状と同一である。
図16の上から3番目は、図16の上から1番目の目テンプレートを、制御点の移動直前の状態の目テンプレートとするとともに、パラメータtを1として、式(2)により求めた座標(xn,yn)に制御点を移動した目テンプレートを示している。図16の上から3番目の目テンプレートの形状は、図16の上から1番目の目テンプレートの形状と比較して、目尻の部分がつり上がった形状になっている。
図16の上から4番目は、図16の上から1番目の目テンプレートを、制御点の移動直前の状態の目テンプレートとするとともに、パラメータtを-1として、式(2)により求めた座標(xn,yn)に制御点を移動した目テンプレートを示している。図16の上から4番目の目テンプレートの形状は、図16の上から1番目の目テンプレートの形状と比較して、目尻の部分が垂れ下がった形状になっている。
図16の上から5番目は、図16の上から1番目の目テンプレートを、制御点の移動直前の状態の目テンプレートとするとともに、パラメータtを0.45として、式(2)により求めた座標(xn,yn)に制御点を移動した目テンプレートを示している。図16の上から5番目の目テンプレートの形状は、図16の上から1番目の目テンプレートの形状と比較して、目尻の部分が、多少上につり上がった形状になっている。
図16では、上から5番目の目テンプレートの形状、即ち、パラメータtが0.45であるときの目テンプレートの形状が、正規化顔画像の目に、最もフィットしている。
ここで、図16では、n番目の制御点についてのymax(n)は+1で、ymin(n)は-1になっている。
なお、制御点の座標(xn,yn)を求める式は、式(2)に限定されるものではない。さらに、移動する制御点の単位(セット)も、目テンプレートの外側の輪郭上の制御点のうちの、上側または下側の複数の制御点や、目テンプレートの内側の輪郭上の制御点のうちの上側または下側の複数の制御点に限定されるものではない。
即ち、目特徴点検出部202では、例えば、図13のステップS203で説明した第4の形状フィット処理において、目テンプレートの内側の輪郭上の制御点のうちの鼻に近い側の複数の制御点を移動させる場合、例えば、式(3)にしたがって、その鼻に近い側の複数の制御点の座標(xn,yn)を求める。
xn=(xn'-xmin(n))tx+xmin(n)
yn=(1-t)yn'+tyymax(n) 但し、ty≧0のとき
yn=(1-(-t))yn'+(-t)ymin(n) 但し、ty<0のとき
・・・(3)
ここで、式(3)において、n,xn,yn,xn',yn',ymax(n),ymin(n)は、式(2)における場合と同様のものである。また、xmin(n)は、n番目の制御点が取り得るx座標の最小値を表す。さらに、txとtyは、目テンプレートを構成する複数の制御点それぞれの座標(x,y)を変更するのに与えられる(2つの)パラメータであり、パラメータtxは、例えば、0から+1までの範囲の実数をとり、パラメータtyは、例えば、-1から+1までの範囲の実数をとる。
なお、式(3)において、xmin(n),ymax(n)およびymin(n)は、パラメータtxが0から+1までの範囲で変化し、かつ、パラメータtyが-1から+1までの範囲で変化する限り、式(3)で与えられる座標(xn,yn)に位置する制御点によって形状が表される目テンプレートが、目としてとり得る形状の範囲内の形状となるような値に、あらかじめ設定されている。
式(3)によれば、移動対象の複数の制御点、即ち、いまの場合、目テンプレートの内側の輪郭上の制御点のうちの鼻に近い側の複数の制御点は、その座標(x,y)が2つのパラメータtxとtyに基づいて変更されることにより、図16に示した場合と同様に、目テンプレートの形状が、目としてとり得る形状の範囲内で変化するように移動する。
具体的には、例えば、図17の上から1番目に示す目テンプレートの複数の制御点における、内側の輪郭上の制御点のうちの、図中■印で示す、鼻に近い側の複数の制御点は、2つのパラメータtxとtyに基づき、目テンプレートの形状が、目としてとり得る形状の範囲内で変化するように移動する。
例えば、鼻に近い側の複数の制御点のうちのn番目の制御点は、x方向については、パラメータtxに基づき、図17の上から2番目に示すように、x座標がxmin(n)以上となる位置に移動する。なお、図17の上から2番目では、xmin(n)は0になっている。
さらに、鼻に近い側の複数の制御点のうちのn番目の制御点は、y方向については、パラメータtyに基づき、図17の上から3番目に示すように、y座標がymin(n)以上でymax(n)以下の範囲内の位置に移動する。なお、図17の上から3番目では、ymax(n)は+1で、ymin(n)は-1になっている。
以上のように、目テンプレートの形状を規定する複数のパラメータとしての、複数の制御点のx座標とy座標が、その数より少ない1以上のパラメータとしてのtやtxおよびtyに基づいて変更されることにより、(位置とサイズが正規化顔画像にフィットしている)目テンプレートの形状が、目の形状の範囲内で変化(変形)されるので、つまり、目テンプレートを構成する複数の制御点が、目の形状の範囲を逸脱しないように、幾つかの単位(セット)で、いわば連動して移動するので、少ない数のパラメータの操作によって、目テンプレートの形状を、正規化顔画像にフィットさせることができる。即ち、目テンプレートの形状を、正規化顔画像に、容易にフィットさせることができる。
なお、形状フィット処理においては、例えば、目テンプレートを構成する制御点のうちの、外側の輪郭上の制御点(を結ぶ線)を、正規化顔画像のまぶたと眼孔との境界に一致させるように移動した後、内側の輪郭上の制御点(を結ぶ線)を、正規化顔画像の眼孔から露出している眼球の部分の輪郭に一致させるように移動することができる。
このように、外側の輪郭上の制御点(を結ぶ線)を、正規化顔画像のまぶたと眼孔との境界に一致させるように移動した後、内側の輪郭上の制御点を移動することにより、内側の輪郭上の制御点を移動する範囲を制限することができるので、さらなる処理の容易化を図ることができる。
即ち、内側の輪郭上の制御点が、外側の輪郭上の制御点を結ぶ線で囲まれる範囲の外側に位置することは、目テンプレートの形状が、目の形状の範囲から逸脱することになるから、内側の輪郭上の制御点を移動させることができる位置は、外側の輪郭上の制御点を結ぶ線で囲まれる範囲に制限され、その分、処理量を少なくすることができる。
次に、図18のフローチャートを参照して、図11の口特徴点検出部203の処理について説明する。
口特徴点検出部203で行われる処理(の流れ)は、処理の対象となる顔の部位が目ではなく、口になるだけで、巨視的には、目特徴点検出部202で行われる、図13で説明した処理と同様である。
口特徴点検出部203は、まず、ステップS211において、正規化顔画像記憶部133からの正規化顔画像(図2)と、通常特徴点抽出部134からの領域情報のうちの口領域の情報に基づき、テンプレート記憶部201からの口テンプレートのサイズと位置の初期値を決定する。
即ち、口テンプレートは、多数の制御点が、横方向に、一直線上に並んだものであり、口特徴点検出部203は、例えば、正規化顔画像の、口領域の情報が表す矩形の領域の横方向の長さに、口テンプレートの長さ(横方向の長さ)が一致するように、口テンプレートのサイズを拡大または縮小し、その拡大または縮小後の口テンプレートを、口領域の情報が表す矩形の領域の縦方向の中点の位置に、かつ、その矩形の領域に内接するように、正規化顔画像上に配置する。ステップS211で正規化顔画像上に配置された口テンプレートのサイズと位置が、それぞれの初期値である。ここで、口テンプレートのサイズと位置の初期値も、それぞれ、初期サイズと初期位置という。
そして、ステップS211からS212に進み、口特徴点検出部203は、口テンプレートのサイズと位置を、それぞれ、初期サイズと初期位置から徐々に変化させ、正規化顔画像に表示されている(写っている)顔に適応(フィット)させる位置/サイズフィット処理を行う。
即ち、ステップS212の位置/サイズフィット処理では、口特徴点検出部203は、口テンプレートの形状を保ったまま、そのサイズと位置を変化させ、各サイズと位置について、口テンプレートが正規化顔画像に写っている顔の口(上唇と下唇との境界)にフィットしている程度を評価する評価関数を演算する。
ここで、口特徴点検出部203は、口テンプレートを拡大または縮小することにより、そのサイズを、形状を保ったまま変化させる。また、口特徴点検出部203は、口テンプレートの全体(の制御点)を平行移動することにより、その位置を、形状を保ったまま変化させる。なお、口特徴点検出部203では、口テンプレートの平行移動の他、例えば、任意の制御点等を中心とする回転によって、口テンプレートの位置を変化させることも可能である。
口特徴点検出部203は、評価関数が、最もフィットしていることを表している値となるときの口テンプレートのサイズと位置を求める。
ステップS212の処理後は、ステップS213に進み、口特徴点検出部203は、ステップS212で求められた位置とサイズの口テンプレートを基準として、その口テンプレートの形状を変形し、口テンプレートの形状を、正規化顔画像に写っている顔の口に適応(フィット)させる形状フィット処理を行う。
即ち、口特徴点検出部203は、ステップS212においては、口テンプレートの位置とサイズを変化させ、口テンプレートを、正規化顔画像に写っている顔の口にフィットさせたが、ステップS213では、口テンプレートの形状を変化させ、口テンプレートを、正規化顔画像に写っている顔の口に、さらにフィットさせる形状フィット処理を行う。
具体的には、口特徴点検出部203は、口テンプレートを構成する制御点の1以上を移動対象として移動させるが、その移動対象とする制御点の数を徐々に少なくしていく。
即ち、口特徴点検出部203は、形状フィット処理において、まず最初に、口テンプレートを構成する制御点のすべてを、移動対象として選択し、その移動対象の制御点すべてを、目特徴点検出部202における場合と同様に連動して移動させる。つまり、口特徴点検出部203は、口テンプレートの形状を規定する複数のパラメータとしての、複数の制御点のx座標とy座標を、その数より少ない1以上のパラメータに基づいて変更することにより、(位置とサイズが正規化顔画像にフィットしている)口テンプレートの形状を、口の形状の範囲内で変化(変形)し、これにより、少ない数のパラメータの操作によって、口テンプレートの形状を、正規化顔画像の口になるべく一致させる。
次に、口特徴点検出部203は、口テンプレートを構成する制御点のうちの、例えば、左半分の複数の制御点を、移動対象として選択し、その移動対象の制御点すべてを、目特徴点検出部202における場合と同様に連動して移動させ、口テンプレートの形状を、正規化顔画像の口にフィットさせる。
続いて、口特徴点検出部203は、口テンプレートを構成する制御点のうちの、例えば、右半分の複数の制御点を、移動対象として選択し、その移動対象の制御点すべてを、目特徴点検出部202における場合と同様に連動して移動させ、口テンプレートの形状を、正規化顔画像の口にフィットさせる。
その後、口特徴点検出部203は、口テンプレートを構成する制御点のうちの、中心付近の複数の制御点、左端と中心との中点付近の複数の制御点、右端と中心との中点付近の複数の制御点を、順次、移動対象として選択し、その移動対象の制御点すべてを、目特徴点検出部202における場合と同様に連動して移動させ、口テンプレートの形状を、正規化顔画像の口にフィットさせる。
そして、口特徴点検出部203は、最後に、口テンプレートを構成する制御点を1つずつ移動対象として選択して移動させ、口テンプレートの形状を、正規化顔画像の口にフィットさせる。この場合も、制御点の移動は、口テンプレートの形状が、口の形状の範囲内になるように行われる。但し、この場合、制御点は、1つ(1点)ずつ移動されるので、その移動は、移動対象の制御点の座標(x,y)を直接与えることによって行われる。
なお、口テンプレートの形状を、正規化顔画像の口にフィットさせる処理は、図13のステップS202の位置/サイズフィット処理で説明した場合と同様に、制御点を移動させた各位置について、口テンプレートが正規化顔画像に写っている顔の口にフィットしている程度を評価する評価関数を演算することによって行われる。
ステップS213の形状フィット処理が終了すると、位置、サイズ、および形状が正規化顔画像(の口)にフィット(適応)した口テンプレート(以下、適宜、適応口テンプレートともいう)が得られる。口特徴点検出部203は、適応口テンプレートから、正規化顔画像の口の特徴点を求め、詳細特徴点として、顎特徴点検出部204(図11)に供給するとともに、顔モデル生成部136(図2)に供給し、処理を終了する。
ここで、口特徴点検出部203では、例えば、適応口テンプレートの制御点のうちの一部またはすべてを、正規化顔画像の口の詳細特徴点として求めることができる。また、口特徴点検出部203では、例えば、適応口テンプレートの制御点を結んだ線上の点をサンプリングし、そのサンプリングされた点を、正規化顔画像の口の詳細特徴点として求めることができる。
以上のように、口特徴点検出部203でも、目特徴点検出部202(図11)と同様に、口テンプレートの位置とサイズを、正規化顔画像の顔(正規化顔画像に写っている顔)の口にフィットさせ、位置とサイズがフィットした口テンプレートを基準として、その形状を、正規化顔画像の顔の口にフィットさせるようにしたので、多数の詳細特徴点を容易に得ることができる。
さらに、口特徴点検出部203において、口テンプレートの複数の制御点を移動する場合には、目特徴点検出部202と同様に、口テンプレートの形状を規定する複数のパラメータとしての、複数の制御点のx座標とy座標が、その数より少ない1以上のパラメータに基づいて変更されることにより、(位置とサイズが正規化顔画像にフィットしている)口テンプレートの形状が、目の形状の範囲内で変化(変形)されるので、口テンプレートの形状を、正規化顔画像に、容易にフィットさせることができる。
また、口特徴点検出部203では、口テンプレートの、移動対象とする制御点を徐々に少なくしていくことにより、評価関数の、いわゆる収束性が向上し、さらに、1つの制御点が、他の制御点から極端にはずれた位置に移動することを防止することができる。
なお、口特徴点検出部203において、口テンプレートの、移動対象とする制御点を徐々に少なくしていく場合には、あわせて、移動対象の制御点を移動することができる範囲を、徐々に狭くしていくことができる。
また、口特徴点検出部203でも、目特徴点検出部202(図11)と同様に、ステップS213において、口テンプレートの形状を正規化顔画像にフィットさせた後、図18に点線で示すように、ステップS212に戻り、形状がフィットした口テンプレートを基準として、その口テンプレートの位置とサイズを正規化顔画像にフィットさせ、以下同様にして、ステップS212およびS213の処理を1回以上繰り返すようにすることができる。この場合、より精度が高い特徴点を得ることができる。
さらに、図18では、口特徴点検出部203は、ステップS211において、通常特徴点抽出部134(図2)からの領域情報のうちの口領域の情報に基づき、テンプレート記憶部201からの口テンプレートのサイズと位置の初期値である初期サイズと初期位置を決定するようにしたが、口テンプレートの初期サイズと初期位置は、さらに、目特徴点検出部202で得られた目の詳細特徴点にも基づいて決定することができる。
即ち、例えば、左目と右目の詳細特徴点のうちの、瞳の中心の点である特徴点どうしの中点を、正規化顔画像に写っている人の目の中心として、口テンプレートの中心(口テンプレートを左右に2分する点)の横方向の位置を、目の中心の横方向の位置に一致させるとともに、口テンプレートの中心の縦方向の位置を、口領域の情報が表す矩形の領域の縦方向の中点の縦方向の位置に一致させ、さらに、口領域の情報が表す矩形の領域からはみ出さないサイズの口テンプレートのサイズと位置を、それぞれ、初期サイズと初期位置とすることができる。
なお、目特徴点検出部203の処理と、口特徴点検出部204の処理とは、基本的には、どちらを先に行ってもかまわないし、同時に行ってもかまわない。但し、口特徴点検出部204において、上述したように、口テンプレートの初期サイズと初期位置を、目特徴点検出部202で得られた目の詳細特徴点にも基づいて決定する場合には、目特徴点検出部203の処理を先に行い、その処理の終了後、つまり、目の詳細特徴点が得られた後に、口特徴点検出部204の処理を行う必要がある。
次に、図19は、図18のステップS212の位置/サイズフィット処理によって得られる、位置とサイズが正規化顔画像にフィットした口テンプレートと、その口テンプレートを基準として、図18のステップS213の形状フィット処理を行うことによって得られる、位置、サイズ、および形状が正規化顔画像にフィットした口テンプレートを示している。
即ち、図19の左上は、ある正規化顔画像を対象に位置/サイズフィット処理を行うことによって得られる、位置とサイズが正規化顔画像にフィットした口テンプレートを示しており、図19の右上は、他の正規化顔画像を対象に位置/サイズフィット処理を行うことによって得られる、位置とサイズが正規化顔画像にフィットした口テンプレートを示している。
図19の左上と右上のいずれにおいても、口テンプレートの位置およびサイズは、正規化顔画像の口(上唇と下唇との境界)にフィット(マッチ)している。即ち、口テンプレートの位置とサイズは、それぞれ、正規化顔画像の口の位置とサイズに(ほぼ)一致している。
但し、口テンプレートの形状は、正規化顔画像の口にフィットしていない。
そこで、図19の左下は、図19の左上の口テンプレートを基準として、形状フィット処理を行うことによって得られる口テンプレートを示しており、図19の右下は、図19の右上の口テンプレートを基準として、形状フィット処理を行うことによって得られる口テンプレートを示している。
図19の左下と右下のいずれにおいても、口テンプレートの位置、サイズ、形状は、正規化顔画像の口にフィットしている。即ち、口テンプレートの位置、サイズ、形状は、いずれも、正規化顔画像の口(上唇と下唇との境界)の位置、サイズ、形状に(ほぼ)一致している。
次に、図20のフローチャートを参照して、図11の顎特徴点検出部204の処理について説明する。
顎特徴点検出部204で行われる処理(の流れ)は、処理の対象となる顔の部位が目ではなく、顎になるだけで、巨視的には、目特徴点検出部202で行われる、図13で説明した処理と同様である。
顎特徴点検出部204は、まず、ステップS221において、正規化顔画像記憶部133(図2)からの正規化顔画像、目特徴点検出部202(図11)からの目の詳細特徴点、および口特徴点検出部203からの口の詳細特徴点に基づき、テンプレート記憶部201からの顎テンプレートのサイズと位置の初期値を決定する。
即ち、顎特徴点検出部204は、例えば、左目と右目の詳細特徴点のうちの、瞳の中心の点である特徴点どうしの中点を、正規化顔画像に写っている人の目の中心とするとともに、口の詳細特徴点のうちの、中心の制御点(例えば、正規化顔画像にフィットさせる前の口テンプレートの中点に位置している制御点)であった詳細特徴点を、正規化顔画像に写っている人の口の中心として、目の中心と口の中心とを結ぶ直線(以下、適宜、中心線という)を求める。
さらに、顎特徴点検出部204は、目の中心と口の中心との間の長さを求め、その長さに応じて、顎テンプレートのサイズを拡大または縮小する。
そして、顎特徴点検出部204は、口の中心から中心線に沿って、目の中心と口の中心との間の長さを所定数倍した長さだけ下方の位置(以下、適宜、下顎標準位置という)を求め、その下顎標準位置に、顎テンプレートの、下顎の中心の制御点が位置するように、顎テンプレートを正規化顔画像上に配置する。
即ち、顎テンプレートは、上述したように、顔の標準的な輪郭としての楕円(の円周)上に制御点が並んだものであり、顎(下顎)に相当する部分には、顎(下顎の輪郭)を精度良く再現することができる程度の多数の制御点が設けられている。そして、顎テンプレートにおいては、楕円の下顎に相当する部分の最下部に、下顎の中心と呼ばれる制御点が設けられており、顎特徴点検出部204は、その制御点の位置が、下顎標準位置に一致するように(かつ、その制御点における接線が中心線と直交するように)、顎テンプレートを正規化顔画像上に配置する。ステップS221で正規化顔画像上に配置された顎テンプレートのサイズと位置が、それぞれの初期値である。ここで、顎テンプレートのサイズと位置の初期値も、それぞれ、初期サイズと初期位置という。
そして、ステップS221からS222に進み、顎特徴点検出部204は、顎テンプレートのサイズと位置を、それぞれ、初期サイズと初期位置から徐々に変化させ、正規化顔画像に表示されている(写っている)顔に適応(フィット)させる位置/サイズフィット処理を行う。
即ち、ステップS222の位置/サイズフィット処理では、顎特徴点検出部204は、顎テンプレートの形状を保ったまま、そのサイズと位置を変化させ、各サイズと位置について、顎テンプレートが正規化顔画像に写っている顔の輪郭、特に、下顎(顔の下側の輪郭)にフィットしている程度を評価する評価関数を演算する。
ここで、顎特徴点検出部204は、顎テンプレートを拡大または縮小することにより、そのサイズを、形状を保ったまま変化させる。また、顎特徴点検出部204は、顎テンプレートの全体(の制御点)を平行移動することにより、その位置を、形状を保ったまま変化させる。なお、顎特徴点検出部204では、顎テンプレートの平行移動の他、例えば、任意の制御点等を中心とする回転によって、顎テンプレートの位置を変化させることも可能である。
顎特徴点検出部204は、評価関数が、最もフィットしていることを表している値となるときの顎テンプレートのサイズと位置を求める。
ステップS222の処理後は、ステップS223に進み、顎特徴点検出部204は、ステップS222で求められた位置とサイズの顎テンプレートを基準として、その顎テンプレートの形状を変形し、顎テンプレートの形状を、正規化顔画像に写っている顔の輪郭、特に、下顎に適応(フィット)させる形状フィット処理を行う。
即ち、顎特徴点検出部204は、ステップS222においては、顎テンプレートの位置とサイズを変化させ、顎テンプレートを、正規化顔画像に写っている顔の下顎にフィットさせたが、ステップS223では、顎テンプレートの形状を変化させ、顎テンプレートを、正規化顔画像に写っている顔の下顎に、さらにフィットさせる形状フィット処理を行う。
具体的には、顎特徴点検出部204は、口特徴点検出部203と同様に、顎テンプレートの複数の制御点を連動して移動させること、つまり、顎テンプレートの形状を規定する複数のパラメータとしての、複数の制御点のx座標とy座標を、その数より少ない1以上のパラメータに基づいて変更することにより、(位置とサイズが正規化顔画像にフィットしている)顎テンプレートの形状を、下顎(顔の輪郭)の形状の範囲内で変化(変形)し、これにより、少ない数のパラメータの操作によって、顎テンプレートの形状を、正規化顔画像の下顎になるべく一致させることを、移動対象とする制御点を徐々に少なくしながら繰り返す。
そして、顎特徴点検出部204において、ステップS223の形状フィット処理が終了すると、位置、サイズ、および形状が正規化顔画像(の下顎)にフィット(適応)した顎テンプレート(以下、適宜、適応顎テンプレートともいう)が得られる。顎特徴点検出部204は、適応顎テンプレートから、正規化顔画像の顔の輪郭、特に、下顎の特徴点を求め、詳細特徴点として、顔モデル生成部136(図2)に供給し、処理を終了する。
ここで、顎特徴点検出部204では、例えば、適応顎テンプレートの制御点のうちの一部またはすべてを、正規化顔画像の顎の詳細特徴点として求めることができる。また、顎特徴点検出部204では、例えば、適応顎テンプレートの制御点を結んだ線上の点をサンプリングし、そのサンプリングされた点を、正規化顔画像の顎の詳細特徴点として求めることができる。
顎特徴点検出部204でも、目特徴点検出部202や口特徴点検出部203における場合と同様に、顎テンプレートの形状を、正規化顔画像に、容易にフィットさせることができ、さらに、多数の、精度が高い特徴点を、容易に得ることができる。
なお、顎特徴点検出部204でも、目特徴点検出部202(図11)と同様に、ステップS223において、顎テンプレートの形状を正規化顔画像にフィットさせた後、図20に点線で示すように、ステップS222に戻り、形状がフィットした顎テンプレートを基準として、その顎テンプレートの位置とサイズを正規化顔画像にフィットさせ、以下同様にして、ステップS222およびS223の処理を1回以上繰り返すようにすることができる。この場合、より精度が高い特徴点を得ることができる。
次に、図21乃至図24を参照して、図2の通常特徴点抽出部134で得られる通常特徴点と、詳細特徴点抽出部135で得られる詳細特徴点とについて、さらに説明する。
図21および図22は、通常特徴点抽出部134で得られる通常特徴点、即ち、例えば、AAMによって得られる特徴点を示している。
図21は、顔全体について得られた通常特徴点を示しており、図22は、顔のある部位としての目の部分について得られた通常特徴点を示している。
図21および図22から、通常特徴点は、精度が高くなく、また、数も少ないことが分かる。即ち、通常特徴点は、図21に示すように、目や、口、顎(下顎)、鼻などの位置に、まばらに得られる。さらに、通常特徴点は、例えば、目については、図22に示すように、目の位置付近において得られ、例えば、眼孔から露出している眼球の部分の輪郭や、まぶたと眼孔との境界の位置を、正確には表さない。
一方、図23および図24は、詳細特徴点抽出部135で得られる詳細特徴点を示している。
即ち、図23は、目テンプレートの内側の輪郭上の制御点から得られた詳細特徴点を示しており、図24は、目テンプレートの外側の輪郭上の制御点から得られた詳細特徴点を示している。
図23から、目テンプレートの内側の輪郭上の制御点から得られた詳細特徴点は、眼孔から露出している眼球の部分の輪郭の位置を正確に表していることが分かる。さらに、目テンプレートの内側の輪郭上の制御点から得られた詳細特徴点は、それらを結ぶことによって、眼孔から露出している眼球の部分の輪郭を精度良く再現することができる程度の数だけ得られている。
また、図24から、目テンプレートの外側の輪郭上の制御点から得られた詳細特徴点は、まぶたと眼孔との境界の位置を正確に表していることが分かる。さらに、目テンプレートの外側の輪郭上の制御点から得られた詳細特徴点は、それらを結ぶことによって、まぶたと眼孔との境界を精度良く再現することができる程度の数だけ得られている。
次に、図25は、図2の顔モデル生成部136の構成例を示すブロック図である。
顔モデル生成部136は、標準3次元モデル記憶部251、顔処理部252、頭髪処理部253、および合成部254から構成されている。
標準3次元モデル記憶部251は、標準的な顔の3次元形状を有する顔モデル、標準的な首の3次元形状を有する首モデル、標準的な耳(左右の耳)の3次元形状を有する耳モデル、および標準的な頭髪の3次元形状を有する頭髪モデルを記憶している。これらの顔モデル、首モデル、耳モデル、および頭髪モデルは、あらかじめ用意され、標準3次元モデル記憶部251に記憶される。なお、あらかじめ用意する顔モデル、首モデル、耳モデルは、例えば、実在する人の顔、首、耳を模したものでも良いが、ここでは、仮想的な顔、首、耳を模したものとなっており、例えば、顔モデルは、左右が完全に対称になっている。
標準3次元モデル記憶部251に記憶されている顔モデル、首モデル、および耳モデルは、顔処理部252に供給され、頭髪モデルは、頭髪処理部253に供給される。
顔処理部252は、顔モデル適応部261、首モデル適応部262、耳モデル適応部263、拡張部264、および合成部265から構成される。
顔モデル適応部261には、正規化顔画像記憶部133(図2)から正規化顔画像が、詳細特徴点抽出部135から詳細特徴点が、標準3次元モデル記憶部251から顔モデルが、それぞれ供給される。顔モデル適応部261は、詳細特徴点抽出部135からの詳細特徴点等に基づき、標準3次元モデル記憶部251からの顔モデルを、正規化顔画像記憶部133からの正規化顔画像に写っている顔(顔面)に適応させ、これにより、正規化顔画像に写っている顔(顔面)の3次元モデルとしての顔モデルを生成し、拡張部264に供給する。
首モデル適応部262には、正規化顔画像記憶部133から正規化顔画像が、詳細特徴点抽出部135から詳細特徴点が、標準3次元モデル記憶部251から首モデルが、それぞれ供給される。首モデル適応部262は、詳細特徴点抽出部135からの詳細特徴点等に基づき、標準3次元モデル記憶部251からの首モデルを、正規化顔画像記憶部133からの正規化顔画像に写っている首に適応させ、これにより、正規化顔画像に写っている首の3次元モデルとしての首モデルを生成し、合成部265に供給する。
耳モデル適応部263には、正規化顔画像記憶部133から正規化顔画像が、詳細特徴点抽出部135から詳細特徴点が、標準3次元モデル記憶部251から耳モデルが、それぞれ供給される。耳モデル適応部263は、詳細特徴点抽出部135からの詳細特徴点等に基づき、標準3次元モデル記憶部251からの耳モデルを、正規化顔画像記憶部133からの正規化顔画像に写っている耳(左右の耳)に適応させ、これにより、正規化顔画像に写っている耳の3次元モデルとしての耳モデルを生成し、合成部265に供給する。
拡張部264は、顔モデル適応部261から供給される顔モデルの周辺部分を、奥行き方向であるZ方向に拡張し、その結果得られる顔モデルを、合成部265に供給する。
合成部265は、拡張部264から供給される顔モデルに、首モデル適応部262から供給される首モデルと、耳モデル適応部263から供給される耳モデルとを合成し、その首モデルと耳モデルとが合成された顔モデルを、合成部254に供給する。
頭髪処理部253は、マッピング部271、非頭髪部分検出部272、Z値変更部273、およびフィルタ部274から構成される。
マッピング部271には、正規化顔画像記憶部133(図2)から正規化顔画像が、詳細特徴点抽出部135から詳細特徴点が、標準3次元モデル記憶部251から頭髪モデルが、それぞれ供給される。マッピング部271は、詳細特徴点抽出部135からの詳細特徴点等に基づき、標準3次元モデル記憶部251からの頭髪モデルを、正規化顔画像記憶部133からの正規化顔画像に写っている頭部にマッピングし、Z値変更部273に供給する。
非頭髪部分検出部272には、正規化顔画像記憶部133から正規化顔画像が供給される。非頭髪部分検出部272は、正規化顔画像記憶部133からの正規化顔画像から、頭髪でない部分である非頭髪部分を検出し、その非頭髪部分の情報を、Z値変更部273に供給する。
Z値変更部273は、マッピング部271から供給される頭髪モデル(正規化顔画像の頭部にマッピングされた頭髪モデル)のうちの、非頭髪部分にマッピングされた部分を、非頭髪部分検出部272からの非頭髪部分の情報から検出し、その非頭髪部分にマッピングされた部分のZ値を変更して、フィルタ部274に供給する。
フィルタ部274は、Z値変更部273においてZ値が変更された頭髪モデルのZ値に対して、ローパスフィルタによるフィルタリングを行い(施し)、そのフィルタリング後の頭髪モデルを、合成部254に供給する。
合成部254は、顔処理部265(の合成部265)から供給される顔モデルに、頭髪処理部253(のフィルタ部274)から供給される頭髪モデルを合成し、その頭髪モデルが合成された顔モデルを、最終的な顔モデルとして、顔モデル記憶部137(図2)に供給して記憶させる。
次に、図26乃至図28を参照して、図25の顔モデル適応部261の処理について説明する。
図26は、標準3次元モデル記憶部251に記憶されている顔モデルを示している。
標準3次元モデル記憶部251に記憶されている顔モデルは、上述したように、標準的な顔(正面を向いた顔)の3次元形状を有する3次元モデルで、例えば、その3次元形状の各点について、横方向をx軸、縦方向をy軸、奥行き方向をz軸とするxyz座標系上の座標(x,y,z)を有している。座標(x,y,z)のうちの奥行き方向(Z方向)の座標であるz座標は、特に、Z値と呼ばれ、図26は、横方向をx軸とするとともに、縦方向をy軸として定義されるxy座標系において、座標(x,y)で表される、正面から見た顔モデル上の各点のZ値を、濃淡によって表している。
即ち、例えば、いま、z軸を、手前側から奥方向にとるとともに、顔モデルの一番手前側にある点のZ値を0とするとすると、図26では、小さいZ値である点(手前側の点)が明るく、大きいZ値である点(奥側の点)が暗く、それぞれ表されている。
標準3次元モデル記憶部251に記憶されている顔モデルには、図26に示すように、その顔モデル(正面から見た顔モデル)の縦方向を、4つの領域Dv1,Dv2,Dv3,Dv4に分割するとともに、横方向を2つの領域Dh1とDh2に分割するために、5つの基準点Dp1,Dp2,Dp3,Dp4,Dp5が設定(記憶)されている。
ここで、基準点Dp1は、顔の一番上の点、即ち、額と髪の毛との境界上の最も上の点であり、基準点Dp2は、目の中心点(例えば、右目と左目の瞳の中心どうしの中点)である。また、基準点Dp3は、鼻の、上唇側の境界上の点であり、基準点Dp4は、口(上唇と下唇との境界)上の点である。さらに、基準点Dp5は、顔の一番下の点、即ち、下顎と首の境界上の最も下の点である。
そして、領域Dv1は、基準点Dp1を通る水平線(x軸に平行な直線)と、基準点Dp2を通る水平線とで挟まれる領域であり、領域Dv2は、基準点Dp2を通る水平線と、基準点Dp3を通る水平線とで挟まれる領域である。また、領域Dv3は、基準点Dp3を通る水平線と、基準点Dp4を通る水平線とで挟まれる領域であり、領域Dv4は、基準点Dp4を通る水平線と、基準点Dp5を通る水平線とで挟まれる領域である。
なお、標準3次元モデル記憶部251に記憶されている顔モデルは、上述したように、左右対称であり、5つの基準点Dp1,Dp2,Dp3,Dp4,Dp5は、すべて、対称の軸上に存在する。
そして、5つの基準点Dp1,Dp2,Dp3,Dp4,Dp5を、その順で結ぶ線によって、顔モデルの横方向が、2つの領域Dh1とDh2に分割される。
ここで、基準点Dp1,Dp2,Dp3,Dp4,Dp5を、その順で結ぶ線は、対称の軸に一致する。従って、顔モデルの2つの領域Dh1とDh2とは、対称な領域である。
標準3次元モデル記憶部251に記憶されている顔モデルは、以上のような5つの基準点Dp1乃至Dp5によって、縦方向が、4つの領域Dv1,Dv2,Dv3,Dv4に分割されるとともに、横方向が2つの領域Dh1とDh2に分割され、その結果、合計で、8つの領域R1,R2,R3,R4,R5,R6,R7,R8に分割されている。
顔モデル適応部261(図25)は、標準3次元モデル記憶部251からの顔モデル(以下、適宜、標準顔モデルという)を、正規化顔画像記憶部133からの正規化顔画像に写っている顔(顔面)に適応させるため、詳細特徴点抽出部135からの詳細特徴点等に基づき、正規化顔画像に写っている顔を、標準顔モデルの8つの領域R1乃至R8それぞれに対応する8つの領域(対応領域)に分割する。
即ち、図27は、正規化顔画像に写っている顔を、標準顔モデルの8つの領域R1乃至R8それぞれの対応領域に分割した状態を示している。
顔モデル適応部261は、まず、正規化顔画像上の、5つの基準点Dp1乃至Dp5(図26)それぞれに対応する点(対応点)を検出する。
即ち、顔モデル適応部261は、例えば、詳細特徴点抽出部135からの詳細特徴点のうちの、顎の詳細特徴点を結ぶことにより、正規化顔画像に写っている顔の輪郭を認識し、その輪郭から、基準点Dp1の対応点、つまり、正規化顔画像に写っている顔の一番上の点(額と髪の毛との境界上の最も上の点)を検出する。
また、顔モデル適応部261は、詳細特徴点抽出部135からの詳細特徴点のうちの、目の詳細特徴点に基づき、瞳の中心の点である詳細特徴点どうしの中点を求め、この中点を、基準点Dp2の対応点、つまり、正規化顔画像に写っている顔の目の中心として検出する。
さらに、顔モデル適応部261は、正規化顔画像を対象に、画像処理を行うことにより、その正規化顔画像に写っている顔における鼻の穴、つまり、目と口の間にある、小さく暗い2つの穴(略楕円状の領域)を検出し、例えば、その2つの穴の重心どうしを間の中点を、基準点Dp3の対応点、つまり、正規化顔画像に写っている顔における鼻の、上唇側の境界上の点として検出する。
また、顔モデル適応部261は、詳細特徴点抽出部135からの詳細特徴点のうちの、口の詳細特徴点に基づき、その詳細特徴点のうちの、中心の制御点(例えば、正規化顔画像にフィットさせる前の口テンプレートの中点に位置している制御点)であった詳細特徴点を、基準点Dp4の対応点、つまり、正規化顔画像に写っている顔における口(上唇と下唇との境界)上の点として検出する。
さらに、顔モデル適応部261は、詳細特徴点抽出部135からの詳細特徴点のうちの、顎の詳細特徴点に基づき、その詳細特徴点のうちの、下顎の中心の制御点であった詳細特徴点を、基準点Dp5の対応点、つまり、正規化顔画像に写っている顔の一番下の点(下顎と首の境界上の最も下の点)として検出する。
そして、顔モデル適応部261は、図27に示すように、基準点Dp1乃至Dp5それぞれの対応点のそれぞれを通る5つの水平線によって、正規化顔画像を、縦方向に、4つの領域Dv1乃至Dv4(図26)それぞれに対応する4つの領域に分割する。
さらに、顔モデル適応部261は、図27に示すように、基準点Dp1乃至Dp5それぞれの対応点の隣接する対応点どうしを直線で結ぶことにより、正規化顔画像を、横方向に、2つの領域Dh1とDv2(図26)それぞれに対応する2つの領域に分割する。
以上のように、顔モデル適応部261は、正規化顔画像を、縦方向に、4つの領域に分割するとともに、横方向に、2つの領域に分割し、これにより、正規化顔画像(に写っている顔)を、図27に示すように、合計で、8つの領域R1乃至R8(図26)それぞれの8つの対応領域に分割する。
その後、顔モデル適応部261は、標準顔モデル(図26)を、正規化顔画像記憶部133からの正規化顔画像に写っている顔に、8つの領域R1乃至R8それぞれごとに適応させる。
即ち、顔モデル適応部261は、基準点Dp1乃至Dp5のうちの、標準顔モデルの領域R1の境界上にある基準点Dp1とDp2(図26)が、正規化顔画像上の対応点に一致し、かつ、領域R1が、正規化顔画像の対応領域に一致するように、領域R1の各点(x,y,z)のx座標とy座標を変更することにより、領域R1(内の標準顔モデル)を変形(マッピング)する。
同様に、顔モデル適応部261は、他の領域R2乃至R8も変形し、これにより、標準顔モデルの全体を、正規化顔画像に写っている顔の全体に適応させた顔モデルを得て、拡張部264に供給する。
ここで、図28に、図26の標準顔モデルを、図27の正規化顔画像に写っている顔に適応させた顔モデルを示す。図28でも、図26における場合と同様に、横方向をx軸とするとともに、縦方向をy軸として定義されるxy座標系において、座標(x,y)で表される顔モデル上の各点のZ値を、濃淡によって表している。
正規化顔画像に写っている顔に適応させた顔モデルには、正規化顔画像に写っている顔の各点(画素)に対応する点が存在し、顔モデル適応部261は、顔モデルの各点に、その点が対応する正規化顔画像に写っている顔の点における画素値を与える。従って、正規化顔画像に写っている顔に適応させた顔モデルは、xyz座標系上の座標(x,y,z)の他、画素値(色)を有している。
次に、図29を参照して、図25の首モデル適応部262の処理について説明する。
首モデル適応部262は、詳細特徴点抽出部135からの詳細特徴点のうちの、目の詳細特徴点に基づき、正規化顔画像に写っている顔における左右それぞれの瞳の中心を求める。さらに、首モデル適応部262は、詳細特徴点抽出部135からの詳細特徴点のうちの、口の詳細特徴点に基づき、正規化顔画像に写っている顔における口の中心を求める。
そして、首モデル適応部262は、図29に斜線を付して示すように、正規化顔画像において、左右それぞれの瞳の中心それぞれを通る縦方向の2つの直線で挟まれ、口の中心を通る横方向の直線より下側の領域を、首が存在する首領域として決定し、その首領域に、標準3次元モデル記憶部251からの首モデルを適応させる。即ち、首モデル適応部262は、首領域の各点に、首モデルの各点が対応するように、首モデルを変形(マッピング)する。
首モデル適応部262は、以上のようにして、首領域に適応させた首モデルを、正規化顔画像に写っている首に適応させた首モデルとして、合成部265(図25)に供給する。
次に、図30を参照して、図25の耳モデル適応部263の処理について説明する。
耳モデル適応部263は、詳細特徴点抽出部135からの詳細特徴点のうちの、目の詳細特徴点に基づき、正規化顔画像に写っている顔における目の中心を求める。さらに、耳モデル適応部263は、正規化顔画像から、その正規化顔画像に写っている顔における鼻の穴を求める。また、耳モデル適応部263は、詳細特徴点抽出部135からの詳細特徴点のうちの、顎の詳細特徴点を結んで得られる、正規化顔画像に写っている顔の輪郭から、その顔の最大の幅を求める。
そして、耳モデル適応部263は、図30に示すように、目の中心と鼻の穴との間の長さを縦方向の長さとし、顔の幅を横方向の長さとする矩形を所定数倍した矩形内の領域を、耳が存在する耳領域の候補(以下、適宜、耳領域候補という)として求める。
耳モデル適応部263は、耳領域候補を対象に、顔の左右の外側から、顔の輪郭に向かって、横(水平)方向に、正規化顔画像の画素をスキャンし、肌色の画素を検出する。
そして、耳モデル適応部263は、最初に検出された肌色の画素と、正規化顔画像に写っている顔の輪郭までの横方向の距離を求め、その距離が、所定の距離以上である場合、顔の輪郭方向に向かって耳が存在するとして、正規化顔画像の画素のスキャンを、顔の輪郭まで続行して、耳が写っている画素としての肌色の画素を検出する。耳モデル適応部263は、矩形の耳領域候補の各行について、上述の処理を行い、これにより、耳が写っている画素でなる耳領域を検出する。
耳モデル適応部263は、耳領域の検出後、その首領域に、標準3次元モデル記憶部251からの耳モデルを適応させる。即ち、耳モデル適応部263は、耳領域の各点に、耳モデルの各点が対応するように、耳モデルを変形(マッピング)する。
耳モデル適応部263は、以上のようにして、耳領域に適応させた耳モデルを、正規化顔画像に写っている耳に適応させた耳モデルとして、合成部265(図25)に供給する。
次に、図31乃至図37を参照して、図25の拡張部264の処理について説明する。
拡張部264は、顔モデル適応部261(図25)から供給される顔モデルの周辺部分を、奥行き方向であるZ方向に拡張する。
即ち、図31は、顔モデル適応部261で得られる顔モデルを模式的に示している。なお、図31において、横方向には、z軸をとってある。
顔画像は、人を正面から撮像して得られる画像であるから、顔画像において、その人の顔は、正面から見える範囲しか写っていない。従って、顔画像には勿論、その顔画像から得られる正規化顔画像にも、正面から見えない部分、即ち、例えば、顔の側面部分や頭頂部等は写っていない。
このため、そのような正規化顔画像に適応させた顔モデルは、図31に示すように、顔の側面部分や頭頂部が、実質的に存在しないもの、即ち、それほどの奥行きがないものとなる。
ここで、図31では、顔モデルの一番手前側のZ値(z座標)を0とするとともに、z1,z2,z3に、式0<z1<z2<z3で表される関係があるとして、z1,z2,z3のうちの、z2までしか、顔モデルの奥行きが存在しない。なお、Z値が大きいほど、奥側であることを表すものとする。
拡張部264は、顔モデルに、ある程度の奥行きをもたせるために、顔モデルのZ値(z座標)を、例えば、非線形な関数にしたがって変換して、顔モデルを、Z方向に、非線形に伸張することにより、顔モデルの周辺部分をZ方向に拡張する。
即ち、図32は、拡張部264が、顔モデルのZ値の変換に用いる関数(以下、適宜、Z値変換関数という)の例を示している。
図32においては、Z値変換関数の引数となる、顔モデルの元のZ値であるzinを横軸にとり、Z値変換関数による変換後のZ値であるzoutを縦軸にとってある。
図32のZ値変換関数によれば、0以上z1以下の値のzinは、同一の値のzoutに変換され、z1を越える値のzinは、そのzinより大きい値のzoutに変換される。例えば、z1より大で、z2以下の値のzinは、z1より大で、z3以下の、元のzinより大きい値のzoutに変換される。
従って、図32のZ値変換関数によれば、図31に示した顔モデルは、図33に示すように、Z方向(奥側)に拡張される。
即ち、図33は、図31の顔モデルを、図32のZ値変換関数に基づき、Z方向に伸張して得られる顔モデルを、図31と同様に模式的に示している。
図32のZ値変換関数に基づき、図31の顔モデルのZ値を変換することにより、0以上z1以下のZ値は、同一のZ値に変換され、z1を越えるZ値は、それより大きいZ値に変換される。
即ち、図31の顔モデルについては、z1より大で、z2以下の範囲のZ値が、z1より大で、z3以下の範囲の、元のz値より大きいZ値に変換され、その結果、0からz2までのZ値しかとらなかった図31の顔モデルは、0からz3までのZ値をとる図33の顔モデルとなる。
ここで、図34および図35は、顔画像に写っている人(被写体)と、その顔画像から生成された顔モデルを、上方向から見た様子を、模式的に示している。
図34および図35の左から1番目に示すように、顔画像は、人を正面から撮像して得られる画像であり、顔画像には、その人の顔は、正面から見える範囲しか写っていない。従って、顔画像には勿論、その顔画像から得られる正規化顔画像にも、正面から見えない部分、即ち、例えば、顔の側面部分や頭頂部等は写っていない。
このため、そのような正規化顔画像に適応させた顔モデルは、図34および図35の左から2番目に示すように、顔の側面部分等が、実質的に存在しないもの、即ち、それほどの奥行きがないものとなる。
従って、そのような顔モデルに基づき、顔のCGアニメーションを生成(作成)した場合、図34の左から3番目に示すように、顔を左右に僅かに回転させるだけで、顔モデルに実質的に存在しない顔の側面部分が、正面方向を向き、その結果、CGアニメーションが破綻する。
一方、図35の左から3番目に示すように、それほどの奥行きがない顔モデルの周辺部分をZ方向に拡張し、顔モデルに、ある程度の奥行きをもたせ、そのような顔モデルに基づき、顔のCGアニメーションを生成した場合には、図35の左から4番目に示すように、顔を多少左右に回転させても、拡張した周辺部分が存在するので、上述したようなCGアニメーションの破綻を防止することができる。
即ち、図36は、周辺部分をZ方向に拡張していない顔モデルに基づき、顔のCGアニメーションを生成し、向かって左方向に回転させた状態を示している。
また、図37は、周辺部分をZ方向に拡張した顔モデルに基づき、顔のCGアニメーションを生成し、向かって左方向に回転させた状態を示している。
図36では、顔モデルの側面部分が存在しないために、左方向に回転した顔が不自然につぶれてしまっているのに対して、図37では、顔モデルの側面部分が存在しているので、左方向を向いた自然な(リアルな)顔のCGアニメーションが実現されていることが分かる。
なお、顔モデルのZ値の変換に用いるZ値変換関数は、図32に示した関数に限定されるものではない。また、本実施の形態では、Z値変換関数を、非線形の関数としたが、Z値変換関数は、線形の関数であっても良い。但し、Z値変換関数は、図32に示したように、小さいZ値は、同一の値に変換し、大きいZ値は、より大きいZ値に変換する関数として、即ち、顔モデルの手前側の点は、そのままの位置に変換し、顔モデルの奥側の点ほど、より奥側に移動させるのが望ましい。
次に、図38乃至図40を参照して、図25の合成部265の処理について説明する。
合成部265は、拡張部264から供給される顔モデルに対して、首モデル適応部262から供給される首モデルと、耳モデル適応部263から供給される耳モデルのうちの、顔モデルよりも手前側の部分を合成する。
即ち、図38は、顔モデルに対して、首モデルのうちの、顔モデルよりも手前側の部分を合成する様子を模式的に示している。
なお、図38においては、横方向がZ方向であり、左が手前側で、右が奥側になっている。
合成部265は、首モデルの各点のZ値を、その点と座標(x,y)が同一の、顔モデルの点(首モデルの点に対応する顔モデルの点)のZ値とを比較する。そして、首モデルの点のZ値が、それに対応する顔モデルの点のZ値未満である場合、つまり、首モデルの点が、図38において矢印a1で示すように、それに対応する顔モデルの点よりも手前側にある場合(首モデルの点の手前側に、顔モデルが存在しない場合)、その首モデルの点を顔モデルに合成する。
一方、首モデルの点のZ値が、それに対応する顔モデルの点のZ値以上である場合、つまり、首モデルの点が、図38において矢印a2で示すように、それに対応する顔モデルの点よりも奥側にある場合(または、Z方向について同一位置にある場合)、その首モデルの点は、顔モデルに合成されない。
合成部265は、耳モデルについても、首モデルと同様に、耳モデルのうちの、顔モデルよりも手前側の部分を、顔モデルに合成する。
例えば、ディジタルカメラ等によって、被写体である人を撮像して、顔画像を得る場合、その顔画像における首や耳の写り具合は、被写体となった人の個性(髪型や、姿形、姿勢など)や、撮像時の角度(撮影方向)の少しのずれなどによって大きく異なる。このため、標準顔モデルを、正規化顔画像に写っている顔に適応させるだけでは、首や耳が不自然な顔モデル、従って、全体としても不自然な顔モデルが得られることがある。
そこで、顔処理部252(図25)では、顔(顔面)の顔モデル(耳と首の3次元形状がない顔モデル)とは別に、首モデルと耳モデルを生成して顔モデルに合成することで、自然な顔モデルを得るようになっている。
即ち、図39は、標準顔モデルを、正規化顔画像に写っている顔に適応させて得られる顔モデルの左側面図であり、図40は、その顔モデルに、首モデルと耳モデルとを合成して得られる顔モデルの左側面図である。
図39では、耳(左耳)が不自然に歪み、首がほとんど存在しない顔モデルになっているのに対して、図40では、自然な耳と首が存在し、全体として自然な顔モデルになっていることが分かる。
次に、図41乃至図46を参照して、図25の頭髪処理部253の処理について説明する。
頭髪は、一般に、顔の輪郭の内側にも、顔の輪郭からはみ出した範囲にも存在し、即ち、顔モデルの輪郭からはみ出した範囲にも存在し、また、髪型は、人によって大きく異なる。そこで、頭髪処理部253は、顔モデルとは別に、3次元形状を有する頭髪モデルを生成し、これにより、正規化顔画像に写っている人の頭髪の髪型や質感と同様の髪型や質感を有する頭髪の顔モデルを実現する。
即ち、頭髪処理部253のマッピング部271(図25)は、詳細特徴点抽出部135(図2)からの詳細特徴点から、正規化顔画像に写っている顔の輪郭を認識し、その顔の輪郭に基づき、正規化顔画像記憶部133(図2)からの正規化顔画像上に、頭髪輪郭線で囲まれる頭髪存在領域を設定(決定)する。
ここで、頭髪輪郭線は、頭髪が存在しうると予想される範囲の輪郭線である。
マッピング部271は、正規化顔画像の頭髪存在領域に、標準3次元モデル記憶部251に記憶された頭髪モデル(以下、適宜、標準頭髪モデルという)をマッピングする。
即ち、例えば、頭髪存在領域には、マッピングに用いられる点としての1以上のマッピング点が設定されており(決められており)、標準頭髪モデルには、各マッピング点に対応する点(対応点)が設定されている。マッピング部271は、正規化顔画像上の頭髪存在領域のマッピング点が、標準頭髪モデルの対応点に一致するように、標準頭髪モデルを変形する。
図41は、標準頭髪モデルを正規化顔画像(の頭髪存在領域)にマッピングして得られる頭髪モデルを示している。
なお、図41の左側は、頭髪モデルの正面図であり、図41の右側は、頭髪モデルの左側面図である。
図41に示すように、頭髪モデルは、頭頂部から額にかけて顔形状の手前側を被い、側頭上部から中部にかけて顔形状より後ろ側(奥側)に向かって下がっていく3次元形状を有する。
マッピング部271は、図41に示すように頭髪モデルを正規化顔画像にマッピングし、そのマッピング後の頭髪モデルを、Z値変更部273(図25)に供給する。
一方、頭髪処理部253の非頭髪部分検出部272(図25)は、正規化顔画像記憶部133に記憶された正規化顔画像において、例えば、黒くない部分(領域)と肌色の部分を、頭髪でない非頭髪領域として検出し、その非頭髪領域の情報を、Z値変更部273に供給する。
Z値変更部273は、非頭髪部分検出部272から供給される情報から、正規化顔画像上の非頭髪部分を認識し、マッピング部271からの頭髪モデルのうちの、非頭髪部分にマッピングされた部分の、Z値を変更する。即ち、Z値変更部273は、頭髪モデルと、顔処理部252(図25)で得られる顔モデルとを合成したときに、頭髪モデルのうちの、非頭髪部分にマッピングされた部分が、顔モデルよりも奥側に位置するように、頭髪モデルのZ値を変更する。具体的には、Z値変更部273は、頭髪モデルのうちの、非頭髪部分にマッピングされた部分のZ値を、例えば、無限大に相当する大きな値に変更する。
これにより、図41に示した頭髪モデルは、図42に示すようになる。
即ち、図42は、図41の頭髪モデルのうちの、非頭髪部分にマッピングされた部分のZ値を変更して得られる頭髪モデルを示している。
なお、図41と同様に、図42の左側は、頭髪モデルの正面図であり、図42の右側は、頭髪モデルの左側面図である。
図42に示すように、正規化顔画像に写っている人の頭髪の髪型や質感と同様の髪型や質感を有する頭髪モデルを得ることができる。
ここで、図43は、ある正規化顔画像から得られた顔モデルに頭髪モデルを合成しないで生成したCGを示しており、図44は、その顔モデルに頭髪モデルを合成して生成したCGを示している。また、図45は、他の正規化顔画像から得られた顔モデルに頭髪モデルを合成しないで生成したCGを示しており、図46は、その顔モデルに頭髪モデルを合成して生成したCGを示している。
図43や図45の、頭髪モデルなしで生成されたCGでは、頭髪が、顔の輪郭(表面)に貼り付いたように不自然につぶれてしまっているのに対して、図44や図46の、頭髪モデルを用いて生成されたCGでは、質感等が自然な頭髪になっていることが分かる。
次に、図47のフローチャートを参照して、図2の顔モデル生成部136が、図3のステップS105で行う、顔モデルを生成する処理について説明する。
顔モデル生成部136の顔処理部252(図25)における顔モデル適応部261が、ステップS251において、詳細特徴点抽出部135から供給される詳細特徴点等に基づき、標準3次元モデル記憶部251に記憶された標準顔モデルを、正規化顔画像記憶部133に記憶された正規化顔画像に写っている顔(顔面)に適応させ、これにより、正規化顔画像に写っている顔(顔面)の3次元モデルとしての顔モデルを生成し、拡張部264に供給して、ステップS252に進む。
ステップS252では、拡張部264は、顔モデル適応部261から供給される顔モデルの周辺部分をZ方向に拡張し、その結果得られる顔モデルを、合成部265に供給して、ステップS253に進む。
ステップS253では、首モデル適応部262が、詳細特徴点抽出部135から供給される詳細特徴点等に基づき、標準3次元モデル記憶部251に記憶された首モデルを、正規化顔画像記憶部133からの正規化顔画像に写っている首に適応させ、これにより、正規化顔画像に写っている首の3次元モデルとしての首モデルを生成し、合成部265に供給して、ステップS254に進む。
ステップS254では、耳モデル適応部263が、詳細特徴点抽出部135からの詳細特徴点等に基づき、標準3次元モデル記憶部251からの耳モデルを、正規化顔画像記憶部133からの正規化顔画像に写っている耳(左右の耳)に適応させ、これにより、正規化顔画像に写っている耳の3次元モデルとしての耳モデルを生成し、合成部265に供給して、ステップS255に進む。
ステップS255では、合成部265が、拡張部264から供給される顔モデルに対して、首モデル適応部262から供給される首モデルと、耳モデル適応部263から供給される耳モデルのうちの、顔モデルよりも手前側の部分を合成し、その合成後の顔モデルを、合成部254に供給して、リターンする。
次に、図48のフローチャートを参照して、図2の顔モデル生成部136が、図3のステップS106で行う、頭髪モデルを生成して顔モデルに合成する処理について説明する。
顔モデル生成部136の頭髪処理部253(図25)におけるマッピング部271は、ステップS271において、詳細特徴点抽出部135からの詳細特徴点等に基づき、正規化顔画像記憶部133(図2)に記憶された正規化顔画像上に、頭髪輪郭線を設定し(描き)、その頭髪輪郭線で囲まれる頭髪存在領域を認識して、ステップS272に進む。
ステップS272では、マッピング部271が、正規化顔画像の頭髪存在領域に、標準3次元モデル記憶部251に記憶された標準頭髪モデルをマッピングし、そのマッピングの結果得られる頭髪モデルを、Z値変更部273に供給して、ステップS273に進む。
ステップS273では、非頭髪部分検出部272が、正規化顔画像記憶部133に記憶された正規化顔画像から、頭髪でない部分である非頭髪部分を検出し、その非頭髪部分の情報を、Z値変更部273に供給して、ステップS274に進む。
ステップS274では、Z値変更部273が、非頭髪部分検出部272から供給される情報から、正規化顔画像の非頭髪部分を認識する。さらに、Z値変更部273は、マッピング部271から供給される頭髪モデルのうちの、非頭髪部分にマッピングされた部分を検出し、その非頭髪部分にマッピングされた部分のZ値を変更する。そして、Z値変更部273は、Z値の変更後の頭髪モデルを、フィルタ部274に供給して、ステップS274からS275に進む。
ステップS275では、フィルタ部274は、Z値変更部273からの頭髪モデルのZ値に対して、ローパスフィルタによるフィルタリングを行う。このフィルタリングによって、頭髪モデルの、Z方向について急峻に変化している部分は、滑らかに変化するように変更され、頭髪モデルは、自然な頭髪を表すものとなる。フィルタ部274は、Z値のフィルタリングを行った頭髪モデルを、合成部254に供給して、ステップS276に進む。
ステップS276では、顔モデル生成部136における合成部254(図25)が、顔処理部265の合成部265から供給される顔モデルに、頭髪処理部253のフィルタ部274から供給される頭髪モデルのうちの、顔モデルよりも手前側の部分を合成して、リターンする。
その後、顔モデル生成部136(の合成部254)は、図3のステップS107で説明したように、頭髪モデルが合成された顔モデルに対して、詳細特徴点抽出部135から供給される詳細特徴点に基づき、目モデルと歯モデルとを埋め込み、その結果得られる顔モデルを、最終的な顔モデルとして、顔モデル記憶部137(図2)に供給して記憶させる。
なお、目モデルが埋め込まれた後の顔モデルが不自然なものにならないように、顔モデルに埋め込まれる目モデルの白目部分の画素値は、正規化顔画像に写っている顔の目の白目部分の画素値に基づき、その画素値と同様の値に補正される。
以上のようにして、顔モデルが顔モデル記憶部137に記憶された後は、図3のステップS108で説明したように、アニメーション処理部138(図2)が、顔モデル記憶部137に記憶された顔モデルに基づき、操作部139の操作に応じて顔(の部位)が動くCGアニメーション(のデータ)を生成し、表示部140に供給する。これにより、表示部140においては、記憶部131に記憶された顔画像に写っている顔のCGが操作部139の操作に応じて動くCGアニメーションが表示される。
図49乃至図52は、以上のようにして、表示部140に表示されたCGアニメーションを示している。
即ち、図49は、元の顔画像(顔モデル、ひいてはCGアニメーションを生成するのに用いた顔画像)に写っている顔と同様の状態のCGアニメーションを示している。
また、図50は、目(まぶた)を閉じた状態のCGアニメーションを示しており、図51は、口を開いた状態のCGアニメーションを示している。図52は、顔(首)を、向かって左に回転して、瞳も、向かって左に移動した状態のCGアニメーションを示している。
図49乃至図52から、リアルなCGアニメーションが実現されていることが分かる。
なお、目の開閉(まばたき)は、目の詳細特徴点に基づいて行われ、口の開閉は、口の詳細特徴点に基づいて行われる。また、顔の回転は、顎の詳細特徴点に基づき、顔と首とを分離して行われる。
以上のように、図2の画像処理装置によれば、非常に写実的なCGアニメーションを容易に(簡単)に生成(作成)することができる。
また、1枚の顔画像からCGアニメーションを生成することができるので、例えば、俳優や歴史上の人物などの、実際に撮影することが困難な人物であっても、写真等から、その人物のCGアニメーションを生成し、動画(映像)を制作することができる。
なお、顔のCGアニメーションは、例えば、マウスが操作され、CGアニメーションが表示されている画面の任意の位置がクリックされた場合に、そのクリックされた位置の方向に、視線と首を向けさせるようにすることができる。
また、顔のCGアニメーションは、例えば、複数のボタンのうちのいずれかのボタンが操作された場合に、その操作されたボタンに応じて、表情(目や口の開き具合や、視線の方向など)を変え、あるいは首(顔)等を動かすようにすることができる。
さらに、顔のCGアニメーションは、ユーザの身振り等をセンサによって検出し、その身振りに応じて動くようにすることができる。
また、顔のCGアニメーションは、ユーザの顔をカメラで撮像して特徴点の動きを抽出(検出)し、その動きと同様に動くようにすることができる。
さらに、顔のCGアニメーションには、CGによる各種の装飾、加工を施すことができる。例えば、顔のCGアニメーションには、任意の背景を合成することができる。さらに、例えば、CGアニメーションには、帽子や、冠、ティアラなどのかぶりものを付加することができる。また、例えば、CGアニメーションには、ネックレスや、イヤリング、ピアスなどの装飾品を付加することができる。さらに、例えば、CGアニメーションには、メガネやカラーコンタクトなどのいわゆるアイウェアを付加することができる。また、例えば、顔のCGアニメーションには、フェイスペイントを施し、あるいは、汗や、血管、青ざめた状態を表すシンボルなどの、いわば漫画的演出を施すことができる。さらに、例えば、様々な髪型の頭髪モデルを用意しておき、そのうちの任意の頭髪モデルを用いて、アニメーションCGを生成するようにすることができる。また、例えば、顔のCGアニメーションには、蝶や蜂などの虫のCGアニメーションを表示し、その虫の動きに追従する動きをさせ、さらには、その虫を食べる動きをさせることができる。
なお、上述の実施の形態では、図1に示した汎用のコンピュータにおいて、顔モデルを生成するモデリング処理を行い、さらには、その顔モデルから、リアルなCGアニメーションを生成(作成)するアニメーション処理を行うようにしたが、モデリング処理やアニメーション処理は、コンピュータ以外の任意の装置において行うことが可能である。
特に、画像を撮像する撮像装置と、画像を表示する表示装置を有する、例えば、携帯電話機や、ディジタルカメラ、テレビ電話機などでは、顔画像の撮像、その顔画像を用いてのモデリング処理、およびそのモデリング処理によって得られる顔モデルを用いてのアニメーション処理をすべて行い、さらに、そのアニメーション処理によって得られるCGアニメーションを表示することができる。
また、モデリング処理およびアニメーション処理を、通信機能を有する装置、即ち、例えば、テレビ電話機などに実装した場合には、電話相手の実際の画像の変わりに、アニメーション処理によって得られるCGアニメーションを表示して、通話(コミュニケーション)を行う、いわゆるキャラ電(キャラクタ電話)を実現することができる。
この場合、膨大な情報量を非常に低コストで伝達することができる。即ち、テレビ電話機において、実際のユーザの画像を表示する場合には、ある程度短い周期で、ユーザの画像を、電話相手の装置に送信する必要がある。これに対して、CGアニメーションをであれば、そのCGアニメーションのデータを送信し、その後は、そのCGアニメーションを動かすデータだけを送ればよい。さらに、CGアニメーションによれば、ユーザは、現在のユーザの画像を実際に送信しなくても、電話相手に、自身の存在を認識させることができる。また、ユーザは、現在のユーザの画像を実際に送信せずに済むので、現在の状況を、電話相手に知られたくないときに、プライバシが保たれる。さらに、CGアニメーションは、リアルなCGであるため、ユーザの表情も反映される。人は、他人の表情を瞬時に読み取ることができるから、ユーザが、ある意味の表情をしたCGアニメーションを、電話相手に送信することで、ユーザ意図する情報を効果的、効率的に、電話相手に伝達することができる。また、表情を付加することにより、より記憶に残るコミュニケーションが可能になる。
なお、上述のようなリアルな顔のCGアニメーションは、例えば、携帯電話機おける、いわゆる着アニメや、待受けアニメなどとして使用することができる。また、携帯電話機では、着信時に、CGアニメーションを表示させ、着信音としての歌などにあわせて、歌を歌っているように動かすことができる。さらに、携帯電話機では、持ち主の顔の顔モデル(のデータ)を、電話相手の携帯電話機に送信し、その携帯電話機において、顔モデルに基づいてCGアニメーションを生成して表示することができる。
また、顔のCGアニメーションは、例えば、ゲームにも利用することができる。即ち、RPG(Role Playing game)において、主人公のCGに、ユーザの顔のCGアニメーションを利用することができる。さらに、いわゆるアクションゲームや、レースゲーム、格闘ゲームなどにおいては、ユーザが操作するキャラクタのCGに、そのユーザの顔のCGアニメーションを利用することができる。
この場合、ユーザは、ゲームのキャラクタに対する思い入れが非常に強くなり、ゲームの楽しみが増える。
また、モデリング処理のうちの、詳細特徴点を抽出(検出)する処理は、例えば、ゲームの進行やキャラクタの動き等を、詳細特徴点に基づいて制御するのに利用することができる。即ち、例えば、ユーザの顔をカメラで撮像して得られる顔の画像から、詳細特徴点を抽出し、その特徴点に基づいて、ゲームの進行や、顔のCGアニメーションの動きを制御することができる。
ユーザの顔をカメラで撮像して得られる顔の画像から抽出した詳細特徴点に基づいて、ゲームの進行等を制御する場合には、ユーザが顔を動かすことにより、顔の筋肉が活性化され、表情が豊かになり、あるいは、いわゆる若返りを促進することが可能となる。
また、モデリング処理、およびアニメーション処理(ボタンの操作その他の入力に対してインタラクティブにCGアニメーションを動かすインタラクション処理を含む)は、ゲームその他のアプリケーション(ソフトウェア)の開発用ミドルウェアとして提供することができる。即ち、例えば、モデリング処理、およびアニメーション処理を行うプログラムは、アプリケーション開発に利用可能なAPI(Application Programming Interface)として提供することができる。この場合、例えば、カメラ等で撮像された顔画像からの顔モデルの生成、その顔モデルからのCGアニメーションの生成、そのCGアニメーションに対する表情付け、そのCGアニメーションの動きの制御等は、APIを利用することにより、容易に行うことができる。
さらに、顔のCGアニメーションは、例えば、テレビジョン放送のニュース番組において、いわばバーチャルなニュースキャスタとして利用することができる。また、例えば、テキスト音声合成を利用することで、実際のアナウンサがニュースを読み上げなくても、ニュース番組を編成することが可能となる。
さらに、顔のCGアニメーションは、Webサイトや、機器、アプリケーションなどにおいて、様々なサービスを提供するエージェントとして利用することができる。即ち、顔のCGアニメーションは、例えば、会社のWebサイトで受付的な存在を果たすエージェントとして利用することができる。また、顔のCGアニメーションは、例えば、Webサイトのコンテンツを案内するエージェントや、オンラインショップのWebサイトで商品を紹介するエージェント、個人のWebページで、その個人の自己紹介を行うエージェントなどとして利用することができる。さらに、顔のCGアニメーションは、例えば、表示機能を有する機器において表示し、その機器の機能を紹介するエージェントとして利用することができる。また、顔のCGアニメーションは、例えば、コンピュータにインストールされ、実行されるアプリケーションにおいて、ヘルプ回答を行うエージェントとして利用することができる。
この場合、例えば、ユーザが好きな人(例えば、祖父や祖母は孫、その他、好きな有名人など)のCGアニメーションをエージェントにでき、より親しみのあるインタフェースを構築して、クオリティオブライフを向上させることができる。
さらに、顔のCGアニメーションは、仮想空間において、ユーザを表すキャラクタであるアバタとして利用することができる。また、仮想空間においてチャットの機能が提供されている場合には、アバタとしてのCGアニメーションを、チャットの相手方の装置に表示して会話をさせることができる。
また、例えば、様々な髪型の頭髪モデルを用意しておき、そのうちの任意の頭髪モデルを用いて、アニメーションCGを生成して表示することにより、例えば、美容室などにおいて、実際に髪をカット等する前に、カット後の髪型を確認することができる。
さらに、例えば、様々な眼鏡のCGを用意しておき、その眼鏡のCGを、顔のCGアニメーションに付加することにより、ユーザが、実際の眼鏡をかけなくても、かけたときの容姿を確認することができる。
また、例えば、汎用のコンピュータに、ディジタルカメラで撮像した顔画像を取り込み、その顔画像からCGアニメーションを作成する場合には、例えば、そのようなCGアニメーションによるアルバムを作成することができる。また、例えば、汎用のコンピュータに、様々なストーリのテンプレート(ストーリテンプレート)を用意しておき、そのストーリテンプレートに、ユーザ自身や友人の顔画像を貼り付けて、CGアニメーションによる即席のショートフィルム(映画)を作成し、あるいは、家族の顔画像を貼り付けて、CGアニメーションによる家族ドラマを作成する、といったことが可能となる。
さらに、例えば、CGアニメーションは、動物や、虫、無生物などが写った他の画像(映像)と合成して、映像を制作するのに利用することができる。
なお、本実施の形態では、人の顔を対象として、3次元モデルの生成、さらには、CGアニメーションの生成を行ったが、3次元モデルの生成、およびCGアニメーションの生成は、人の顔の他、例えば、動物の顔、さらには、その他の物体を対象として行うことが可能である。
また、本実施の形態では、1枚の顔画像から顔モデルを生成するようにしたが、顔モデルは、複数枚の顔画像から生成することも可能である。
コンピュータのハードウェア構成例を示すブロック図である。 本発明を適用した画像処理装置の一実施の形態の構成例を示すブロック図である。 画像処理装置の動作を説明するフローチャートである。 前処理を説明するフローチャートである。 顔画像を示す図である。 顔スケールと服境界を推定する方法を説明するための図である。 2値化画像を示す図である。 正規化顔画像を示す図である。 正規化顔画像を示す図である。 正規化顔画像を示す図である。 詳細特徴点抽出部135の構成例を示すブロック図である。 目テンプレートを示す図である。 目特徴点検出部202の処理を説明するフローチャートである。 目テンプレートを示す図である。 目テンプレートを示す図である。 目テンプレートの制御点の移動を説明するための図である。 目テンプレートの制御点の移動を説明するための図である。 口特徴点検出部203の処理を説明するフローチャートである。 口テンプレートを示す図である。 顎特徴点検出部204の処理を説明するフローチャートである。 通常特徴点を示す図である。 通常特徴点を示す図である。 詳細特徴点を示す図である。 詳細特徴点を示す図である。 顔モデル生成部136の構成例を示すブロック図である。 標準顔モデルを示す図である。 正規化顔画像を示す図である。 顔モデルを示す図である。 首モデル適応部262の処理を説明するための図である。 耳モデル適応部263の処理を説明するための図である。 顔モデルを示す図である。 Z値変換関数を示す図である。 顔モデルを示す図である。 拡張部264の処理を説明するための図である。 拡張部264の処理を説明するための図である。 周辺部分をZ方向に拡張していない顔モデルから生成されたCGアニメーションを示す図である。 周辺部分をZ方向に拡張した顔モデルから生成されたCGアニメーションを示す図である。 合成部265を説明するための図である。 首モデルと耳モデルとを合成していない顔モデルから生成したCGを示す図である。 首モデルと耳モデルとを合成した顔モデルから生成したCGを示す図である。 標準頭髪モデルを正規化顔画像にマッピングして得られる頭髪モデルを示す図である。 Z値を変更した頭髪モデルを示す図である。 頭髪モデルを合成しない顔モデルから生成したCGを示す図である。 頭髪モデルを合成した顔モデルから生成したCGを示す図である。 頭髪モデルを合成しない顔モデルから生成したCGを示す図である。 頭髪モデルを合成した顔モデルから生成したCGを示す図である。 顔モデル生成部136が顔モデルを生成する処理を説明するフローチャートである。 顔モデル生成部136が頭髪モデルを生成して顔モデルに合成する処理を説明するフローチャートである。 CGを示す図である。 CGを示す図である。 CGを示す図である。 CGを示す図である。
符号の説明
101 バス, 102 CPU, 103 ROM, 104 RAM, 105 ハードディスク, 106 出力部, 107 入力部, 108 通信部, 109 ドライブ, 110 入出力インタフェース, 111 リムーバブル記録媒体, 131 記憶部, 132 前処理部, 133 正規化顔画像記憶部, 134 通常特徴点抽出部, 135 詳細特徴点抽出部, 136 顔モデル生成部, 137 顔モデル記憶部,138 アニメーション処理部, 139 操作部, 140 表示部, 201 テンプレート記憶部, 202 目特徴点検出部, 203 口特徴点検出部, 204 顎特徴点検出部, 251 標準3次元モデル記憶部, 252 顔処理部, 253 頭髪処理部, 254 合成部, 261 顔モデル適応部, 262 首モデル適応部, 263 耳モデル適応部, 264 拡張部, 265 合成部, 271 マッピング部, 272 非頭髪部分検出部, 273 Z値変更部, 274 フィルタ部

Claims (21)

  1. 3次元の物体が表示された2次元の画像から、前記物体の3次元モデルを生成する画像処理装置において、
    前記画像から、その画像に表示されている前記物体の3次元モデルを生成する3次元モデル生成手段と、
    前記3次元モデル生成手段において生成された前記3次元モデルの周辺部分を、奥行き方向であるZ方向に拡張する拡張手段と
    を備えることを特徴とする画像処理装置。
  2. 前記拡張手段は、前記3次元モデルを、Z方向に、非線形に伸張することにより、前記3次元モデルの周辺部分を、Z方向に拡張する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記3次元モデル生成手段は、1枚の前記画像から前記3次元モデルを生成する
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 前記画像には、顔が表示されており、
    前記3次元モデル生成手段は、前記画像に表示されている前記顔の3次元モデルである顔モデルを生成する
    ことを特徴とする請求項1に記載の画像処理装置。
  5. 前記画像に、あらかじめ用意されている頭髪のモデルである頭髪モデルをマッピングするマッピング手段と、
    前記画像から、頭髪でない部分である非頭髪部分を検出する非頭髪部分検出手段と、
    前記画像にマッピングされた前記頭髪モデルのうちの、前記非頭髪部分にマッピングされた部分の、Z方向の位置を表すZ値を変更するZ値変更手段と、
    前記Z値変更手段においてZ値が変更された前記頭髪モデルと、前記顔モデルとを合成する合成手段と
    をさらに備えることを特徴とする請求項4に記載の画像処理装置。
  6. 前記Z値変更手段においてZ値が変更された前記頭髪モデルのZ値に対して、ローパスフィルタによるフィルタリングを行うフィルタ手段をさらに備える
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記Z値変更手段は、前記頭髪モデルと、前記顔モデルとを合成したときに、前記頭髪モデルのうちの、前記非頭髪部分にマッピングされた部分が、前記顔モデルよりも奥側に位置するように、Z値を変更する
    ことを特徴とする請求項5に記載の画像処理装置。
  8. 顔の所定の部位のテンプレートの位置とサイズを、前記画像に表示されている顔に適応させる第1の適応手段と、
    前記テンプレートの形状を規定する複数のパラメータを、その複数より少ない1以上のパラメータに基づいて変更することにより、位置とサイズが前記画像に表示されている顔に適応した前記テンプレートの形状を、前記所定の部位の形状の範囲内で変形し、前記画像に表示されている顔に適応させる第2の適応手段と
    をさらに備え、
    前記3次元モデル生成手段は、位置、サイズ、および形状が前記画像に表示されている顔に適応した前記テンプレートから得られる顔の特徴点に基づき、前記画像に表示されている前記顔の顔モデルを生成する
    ことを特徴とする請求項4に記載の画像処理装置。
  9. 3次元の物体が表示された2次元の画像から、前記物体の3次元モデルを生成する画像処理方法において、
    前記画像から、その画像に表示されている前記物体の3次元モデルを生成する3次元モデル生成ステップと、
    前記3次元モデル生成ステップにおいて生成された前記3次元モデルの周辺部分を、奥行き方向であるZ方向に拡張する拡張ステップと
    を含むことを特徴とする画像処理方法。
  10. 3次元の物体が表示された2次元の画像から、前記物体の3次元モデルを生成する画像処理を、コンピュータに実行させるプログラムにおいて、
    前記画像から、その画像に表示されている前記物体の3次元モデルを生成する3次元モデル生成ステップと、
    前記3次元モデル生成ステップにおいて生成された前記3次元モデルの周辺部分を、奥行き方向であるZ方向に拡張する拡張ステップと
    を含むことを特徴とするプログラム。
  11. 3次元の顔が表示された2次元の画像から、前記顔の3次元モデルである顔モデルを生成する画像処理装置において、
    前記画像から、その画像に表示されている前記顔の3次元モデルである顔モデルを生成する3次元モデル生成手段と、
    前記画像に、あらかじめ用意されている頭髪のモデルである頭髪モデルをマッピングするマッピング手段と、
    前記画像から、頭髪でない部分である非頭髪部分を検出する非頭髪部分検出手段と、
    前記画像にマッピングされた前記頭髪モデルのうちの、前記非頭髪部分にマッピングされた部分の、奥行き方向であるZ方向の位置を表すZ値を変更するZ値変更手段と、
    前記Z値変更手段においてZ値が変更された前記頭髪モデルと、前記顔モデルとを合成する合成手段と
    を備えることを特徴とする画像処理装置。
  12. 前記3次元モデル生成手段は、1枚の前記画像から前記顔モデルを生成する
    ことを特徴とする請求項11に記載の画像処理装置。
  13. 前記Z値変更手段においてZ値が変更された前記頭髪モデルのZ値に対して、ローパスフィルタによるフィルタリングを行うフィルタ手段をさらに備える
    ことを特徴とする請求項11に記載の画像処理装置。
  14. 前記Z値変更手段は、前記頭髪モデルと、前記顔モデルとを合成したときに、前記頭髪モデルのうちの、前記非頭髪部分にマッピングされた部分が、前記3次元モデルよりも奥側に位置するように、Z値を変更する
    ことを特徴とする請求項11に記載の画像処理装置。
  15. 3次元の顔が表示された2次元の画像から、前記顔の3次元モデルである顔モデルを生成する画像処理方法において、
    前記画像から、その画像に表示されている前記顔の3次元モデルである顔モデルを生成する3次元モデル生成ステップと、
    前記画像に、あらかじめ用意されている頭髪のモデルである頭髪モデルをマッピングするマッピングステップと、
    前記画像から、頭髪でない部分である非頭髪部分を検出する非頭髪部分検出ステップと、
    前記画像にマッピングされた前記頭髪モデルのうちの、前記非頭髪部分にマッピングされた部分の、奥行き方向であるZ方向の位置を表すZ値を変更するZ値変更ステップと、
    前記Z変更ステップにおいてZ値が変更された前記頭髪モデルと、前記顔モデルとを合成する合成ステップと
    を含むことを特徴とする画像処理方法。
  16. 3次元の顔が表示された2次元の画像から、前記顔の3次元モデルである顔モデルを生成する画像処理を、コンピュータに実行させるプログラムにおいて、
    前記画像から、その画像に表示されている前記顔の3次元モデルである顔モデルを生成する3次元モデル生成ステップと、
    前記画像に、あらかじめ用意されている頭髪のモデルである頭髪モデルをマッピングするマッピングステップと、
    前記画像から、頭髪でない部分である非頭髪部分を検出する非頭髪部分検出ステップと、
    前記画像にマッピングされた前記頭髪モデルのうちの、前記非頭髪部分にマッピングされた部分の、奥行き方向であるZ方向の位置を表すZ値を変更するZ値変更ステップと、
    前記Z変更ステップにおいてZ値が変更された前記頭髪モデルと、前記顔モデルとを合成する合成ステップと
    を含むことを特徴とするプログラム。
  17. 3次元の顔が表示された2次元の画像から、前記顔の特徴点を求める画像処理装置において、
    顔の所定の部位のテンプレートの位置とサイズを、前記画像に表示されている顔に適応させる第1の適応手段と、
    前記テンプレートの形状を規定する複数のパラメータを、その複数より少ない1以上のパラメータに基づいて変更することにより、位置とサイズが前記画像に表示されている顔に適応した前記テンプレートの形状を、前記所定の部位の形状の範囲内で変形し、前記画像に表示されている顔に適応させ、位置、サイズ、および形状が前記画像に表示されている顔に適応した前記テンプレートから、前記顔の所定の部位の特徴点を求める第2の適応手段と
    を備えることを特徴とする画像処理装置。
  18. 前記第1および第2の適応手段は、前記テンプレートを、1枚の前記画像に表示されている顔に適応させる
    ことを特徴とする請求項17に記載の画像処理装置。
  19. 前記所定の部位は目であり、
    前記特徴点は、眼孔から露出している眼球の部分の輪郭上の点と、まぶたと眼孔との境界上の点である
    ことを特徴とする請求項17に記載の画像処理装置。
  20. 3次元の顔が表示された2次元の画像から、前記顔の特徴点を求める画像処理方法において、
    顔の所定の部位のテンプレートの位置とサイズを、前記画像に表示されている顔に適応させる第1の適応ステップと、
    前記テンプレートの形状を規定する複数のパラメータを、その複数より少ない1以上のパラメータに基づいて変更することにより、位置とサイズが前記画像に表示されている顔に適応した前記テンプレートの形状を、前記所定の部位の形状の範囲内で変形し、前記画像に表示されている顔に適応させ、位置、サイズ、および形状が前記画像に表示されている顔に適応した前記テンプレートから、前記顔の所定の部位の特徴点を求める第2の適応ステップと
    を含むことを特徴とする画像処理方法。
  21. 3次元の顔が表示された2次元の画像から、前記顔の特徴点を求める画像処理を、コンピュータに実行させるプログラムにおいて、
    顔の所定の部位のテンプレートの位置とサイズを、前記画像に表示されている顔に適応させる第1の適応ステップと、
    前記テンプレートの形状を規定する複数のパラメータを、その複数より少ない1以上のパラメータに基づいて変更することにより、位置とサイズが前記画像に表示されている顔に適応した前記テンプレートの形状を、前記所定の部位の形状の範囲内で変形し、前記画像に表示されている顔に適応させ、位置、サイズ、および形状が前記画像に表示されている顔に適応した前記テンプレートから、前記顔の所定の部位の特徴点を求める第2の適応ステップと
    を含むことを特徴とするプログラム。
JP2004354946A 2004-12-08 2004-12-08 画像処理装置、画像処理方法、およびプログラム Active JP4449723B2 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2004354946A JP4449723B2 (ja) 2004-12-08 2004-12-08 画像処理装置、画像処理方法、およびプログラム
EP07015824A EP1847967A1 (en) 2004-12-08 2005-12-02 Generating a three dimensional model of a face from a single two-dimensional image
EP05026390A EP1669933A3 (en) 2004-12-08 2005-12-02 Generating a three dimensional model of a face from a single two-dimensional image
EP07015825A EP1847968A1 (en) 2004-12-08 2005-12-02 Generating a three dimensional model of a face from a single two-dimensional image: adaption of a generic hair model
US11/296,846 US7764828B2 (en) 2004-12-08 2005-12-07 Method, apparatus, and computer program for processing image
KR1020050119541A KR101190686B1 (ko) 2004-12-08 2005-12-08 화상 처리 장치, 화상 처리 방법 및 컴퓨터 판독가능한 기록 매체
CN2007100977276A CN101055646B (zh) 2004-12-08 2005-12-08 用于处理图像的方法和装置
CNB2005101345503A CN100468463C (zh) 2004-12-08 2005-12-08 用于处理图像的方法、装置
CN2007100977280A CN101055647B (zh) 2004-12-08 2005-12-08 用于处理图像的方法、装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004354946A JP4449723B2 (ja) 2004-12-08 2004-12-08 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2006163871A true JP2006163871A (ja) 2006-06-22
JP4449723B2 JP4449723B2 (ja) 2010-04-14

Family

ID=36072088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004354946A Active JP4449723B2 (ja) 2004-12-08 2004-12-08 画像処理装置、画像処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US7764828B2 (ja)
EP (3) EP1847967A1 (ja)
JP (1) JP4449723B2 (ja)
KR (1) KR101190686B1 (ja)
CN (3) CN101055646B (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092180A (ja) * 2008-10-06 2010-04-22 Toyota Central R&D Labs Inc 瞼尤度演算装置、及びプログラム
JP2010176589A (ja) * 2009-01-30 2010-08-12 Secom Co Ltd 取引監視装置
JP2010224775A (ja) * 2009-03-23 2010-10-07 Dainippon Printing Co Ltd アイキャッチ合成装置及び方法
JP2011107877A (ja) * 2009-11-16 2011-06-02 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
US8249312B2 (en) 2007-08-27 2012-08-21 Seiko Epson Corporation Image processing device and image processing method
JP2013135357A (ja) * 2011-12-27 2013-07-08 Jvc Kenwood Corp 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム
JP2014520333A (ja) * 2011-06-20 2014-08-21 アルカテル−ルーセント 3次元画像モデル適応のための方法および装置
KR101525133B1 (ko) * 2011-06-07 2015-06-10 오므론 가부시키가이샤 화상처리장치, 정보생성장치, 화상처리방법, 정보생성방법, 제어 프로그램 및 기록매체
WO2021256319A1 (ja) * 2020-06-15 2021-12-23 ソニーグループ株式会社 情報処理装置、情報処理方法および記録媒体
JP7086362B1 (ja) 2021-03-29 2022-06-20 株式会社セルシス 情報処理システム、情報処理方法および情報処理プログラム
JP2023016504A (ja) * 2021-07-21 2023-02-02 アイメソフト ジェイエスシー スライド再生プログラム、スライド再生装置及びスライド再生方法
JP7560711B2 (ja) 2019-09-12 2024-10-03 フリュー株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Families Citing this family (169)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7421098B2 (en) * 2002-10-07 2008-09-02 Technion Research & Development Foundation Ltd. Facial recognition and the open mouth problem
US6947579B2 (en) * 2002-10-07 2005-09-20 Technion Research & Development Foundation Ltd. Three-dimensional face recognition
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
US7483763B2 (en) * 2005-11-17 2009-01-27 Centertrak, Llc System and method for the digital specification of head shape data for use in developing custom hair pieces
JP4760349B2 (ja) * 2005-12-07 2011-08-31 ソニー株式会社 画像処理装置および画像処理方法、並びに、プログラム
KR100724134B1 (ko) * 2006-01-09 2007-06-04 삼성전자주식회사 이미지 매칭 속도와 블렌딩 방법을 개선한 파노라마 영상제공 방법 및 장치
JP4414401B2 (ja) * 2006-02-10 2010-02-10 富士フイルム株式会社 顔特徴点検出方法および装置並びにプログラム
JP4986279B2 (ja) * 2006-09-08 2012-07-25 任天堂株式会社 ゲームプログラムおよびゲーム装置
CN101173853B (zh) * 2006-11-01 2011-02-02 鸿富锦精密工业(深圳)有限公司 定位测量装置及方法
US7945075B2 (en) 2006-12-19 2011-05-17 Seiko Epson Corporation Converting a digital image from color to gray-scale
US7953294B2 (en) * 2007-01-23 2011-05-31 Accenture Global Services Limited Reshaping a camera image
US20080174795A1 (en) * 2007-01-23 2008-07-24 Accenture Global Services Gmbh Reshaping an image to thin or fatten a face
GB2480173A (en) * 2007-02-05 2011-11-09 Amegoworld Ltd A data structure for representing an animated model of a head/face wherein hair overlies a flat peripheral region of a partial 3D map
KR100858087B1 (ko) * 2007-02-14 2008-09-10 삼성전자주식회사 객체 포즈 정규화 방법과 장치 및 객체 인식 방법
JP4420056B2 (ja) * 2007-04-20 2010-02-24 ソニー株式会社 画像処理装置と画像処理方法および画像処理プログラム、並びに再生情報生成装置と再生情報生成方法及び再生情報生成プログラム
US20080278516A1 (en) * 2007-05-11 2008-11-13 Santon John C System and method for adjusting perceived eye rotation in image of face
JP4874914B2 (ja) * 2007-09-28 2012-02-15 富士フイルム株式会社 顎位置算出装置、それを用いた画像処理装置および顎位置算出方法並びにプログラム
US8063905B2 (en) * 2007-10-11 2011-11-22 International Business Machines Corporation Animating speech of an avatar representing a participant in a mobile communication
US9536344B1 (en) 2007-11-30 2017-01-03 Roblox Corporation Automatic decoration of a three-dimensional model
KR100940862B1 (ko) * 2007-12-17 2010-02-09 한국전자통신연구원 3차원 얼굴 애니메이션을 위한 헤드 모션 추적 방법
US7802883B2 (en) 2007-12-20 2010-09-28 Johnson & Johnson Vision Care, Inc. Cosmetic contact lenses having a sparkle effect
US8126221B2 (en) * 2008-02-14 2012-02-28 Ecole Polytechnique Federale De Lausanne (Epfl) Interactive device and method for transmitting commands from a user
US8279222B2 (en) * 2008-03-14 2012-10-02 Seiko Epson Corporation Processing graphics data for a stereoscopic display
JP5251547B2 (ja) * 2008-06-06 2013-07-31 ソニー株式会社 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
US8446414B2 (en) * 2008-07-14 2013-05-21 Microsoft Corporation Programming APIS for an extensible avatar system
US20120246585A9 (en) * 2008-07-14 2012-09-27 Microsoft Corporation System for editing an avatar
US8384719B2 (en) * 2008-08-01 2013-02-26 Microsoft Corporation Avatar items and animations
US20100035692A1 (en) * 2008-08-08 2010-02-11 Microsoft Corporation Avatar closet/ game awarded avatar
US8133119B2 (en) * 2008-10-01 2012-03-13 Microsoft Corporation Adaptation for alternate gaming input devices
US8866821B2 (en) 2009-01-30 2014-10-21 Microsoft Corporation Depth map movement tracking via optical flow and velocity prediction
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US9652030B2 (en) 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US8773355B2 (en) * 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
JP5106459B2 (ja) * 2009-03-26 2012-12-26 株式会社東芝 立体物判定装置、立体物判定方法及び立体物判定プログラム
EP2246806B1 (en) * 2009-04-29 2014-04-02 Autoliv Development AB Vision method and system for automatically detecting objects in front of a motor vehicle
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US9498718B2 (en) * 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US20100277470A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US9015638B2 (en) * 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US8340432B2 (en) * 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8253746B2 (en) * 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US20100295771A1 (en) * 2009-05-20 2010-11-25 Microsoft Corporation Control of display objects
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US20100306685A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation User movement feedback via on-screen avatars
US9182814B2 (en) * 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8744121B2 (en) * 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8145594B2 (en) * 2009-05-29 2012-03-27 Microsoft Corporation Localized gesture aggregation
US20100306716A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
US8418085B2 (en) * 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8803889B2 (en) * 2009-05-29 2014-08-12 Microsoft Corporation Systems and methods for applying animations or motions to a character
US8176442B2 (en) * 2009-05-29 2012-05-08 Microsoft Corporation Living cursor control mechanics
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8320619B2 (en) * 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US8856691B2 (en) * 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US7914344B2 (en) * 2009-06-03 2011-03-29 Microsoft Corporation Dual-barrel, connector jack and plug assemblies
KR20100138648A (ko) 2009-06-25 2010-12-31 삼성전자주식회사 영상 처리 장치 및 방법
US8390680B2 (en) * 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
US9141193B2 (en) * 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
KR101032726B1 (ko) * 2009-09-01 2011-05-06 엘지이노텍 주식회사 눈 상태 검출방법
US20110109617A1 (en) * 2009-11-12 2011-05-12 Microsoft Corporation Visualizing Depth
KR101647722B1 (ko) * 2009-11-13 2016-08-23 엘지전자 주식회사 영상표시장치 및 그 동작방법
KR101055411B1 (ko) * 2010-03-12 2011-08-09 이상원 입체 영상 생성 방법 및 그 장치
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
JP2011228918A (ja) * 2010-04-20 2011-11-10 Sony Corp 情報処理装置、情報処理方法およびプログラム
US20110304629A1 (en) * 2010-06-09 2011-12-15 Microsoft Corporation Real-time animation of facial expressions
JP5808171B2 (ja) * 2010-07-16 2015-11-10 株式会社 資生堂 目元画像シミュレーション装置、目元画像生成方法、及び目元画像生成プログラム
GB2483285A (en) * 2010-09-03 2012-03-07 Marc Cardle Relief Model Generation
CN102419868B (zh) * 2010-09-28 2016-08-03 三星电子株式会社 基于3d头发模板进行3d头发建模的设备和方法
JP5648443B2 (ja) * 2010-11-26 2015-01-07 ソニー株式会社 画像処理装置および方法、並びにプログラム
US8144976B1 (en) * 2010-12-06 2012-03-27 Seiko Epson Corporation Cascaded face model
US8884968B2 (en) * 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
JP5743142B2 (ja) * 2011-03-29 2015-07-01 ソニー株式会社 画像理装置および方法、並びにプログラム
US8891876B2 (en) * 2011-04-25 2014-11-18 Hewlett-Packard Development Company, L.P. Mouth corner candidates
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
CN102244804A (zh) * 2011-07-19 2011-11-16 彩虹集团公司 一种视频信号2d转3d方法
CA2844433A1 (en) * 2011-08-09 2013-02-14 Optovue, Inc. Motion correction and normalization of features in optical coherence tomography
US8988446B2 (en) * 2011-10-07 2015-03-24 Zynga Inc. 2D animation from a 3D mesh
US20130136336A1 (en) * 2011-11-24 2013-05-30 Kabushiki Kaisha Toshiba Image processing apparatus and controlling method for image processing apparatus
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
CN102609976A (zh) * 2012-01-18 2012-07-25 浪潮(北京)电子信息产业有限公司 一种三维灰度图像的处理方法和系统
KR101339900B1 (ko) * 2012-03-09 2014-01-08 한국과학기술연구원 2차원 단일 영상 기반 3차원 몽타주 생성 시스템 및 방법
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
TWI471808B (zh) * 2012-07-20 2015-02-01 Pixart Imaging Inc 瞳孔偵測裝置
US20140050404A1 (en) * 2012-08-17 2014-02-20 Apple Inc. Combining Multiple Image Detectors
CN103634554B (zh) * 2012-08-20 2017-06-27 联想(北京)有限公司 一种数据传输的方法、数据接收的方法及电子设备
US9275269B1 (en) * 2012-11-09 2016-03-01 Orbeus, Inc. System, method and apparatus for facial recognition
KR101671137B1 (ko) * 2012-12-04 2016-10-31 엘지전자 주식회사 영상 촬영 장치 및 그 방법
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US8989486B2 (en) * 2013-03-04 2015-03-24 Zynga Inc. Generation of intermediate images for texture compression
JP5603452B1 (ja) * 2013-04-11 2014-10-08 株式会社スクウェア・エニックス ビデオゲーム処理装置、及びビデオゲーム処理プログラム
US20150317511A1 (en) * 2013-11-07 2015-11-05 Orbeus, Inc. System, method and apparatus for performing facial recognition
US9699123B2 (en) 2014-04-01 2017-07-04 Ditto Technologies, Inc. Methods, systems, and non-transitory machine-readable medium for incorporating a series of images resident on a user device into an existing web browser session
CN103955962B (zh) * 2014-04-21 2018-03-09 华为软件技术有限公司 一种虚拟人头发生成的装置及方法
CN105335984B (zh) * 2014-06-19 2018-02-06 株式会社理光 跟踪对象的方法和装置
EP3158535A4 (en) 2014-06-20 2018-01-10 Intel Corporation 3d face model reconstruction apparatus and method
CN104318615B (zh) * 2014-10-29 2017-04-19 中国科学技术大学 一种发音器官三维建模方法
CN104484858B (zh) * 2014-12-31 2018-05-08 小米科技有限责任公司 人物图像处理方法及装置
GB201506776D0 (en) * 2015-04-21 2015-06-03 Nestec Sa Preparing food products
CN104765932A (zh) * 2015-04-23 2015-07-08 上海趣搭网络科技有限公司 建立头部模型的方法和装置
US10386996B2 (en) * 2015-06-11 2019-08-20 Microsoft Technology Licensing, Llc Communicating emotional information via avatar animation
US10248883B2 (en) * 2015-08-20 2019-04-02 Align Technology, Inc. Photograph-based assessment of dental treatments and procedures
US10089526B2 (en) * 2015-08-21 2018-10-02 Magic Leap, Inc. Eyelid shape estimation
AU2016310451B2 (en) 2015-08-21 2021-04-22 Magic Leap, Inc. Eyelid shape estimation using eye pose measurement
AU2016340222B2 (en) 2015-10-16 2021-07-01 Magic Leap, Inc. Eye pose identification using eye features
TW201730813A (zh) * 2016-02-26 2017-09-01 國立交通大學 具有深度資訊之影像處理方法及其電腦程式產品
US10783716B2 (en) * 2016-03-02 2020-09-22 Adobe Inc. Three dimensional facial expression generation
JP6872742B2 (ja) * 2016-06-30 2021-05-19 学校法人明治大学 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
CN106296784A (zh) * 2016-08-05 2017-01-04 深圳羚羊极速科技有限公司 一种通过人脸3d数据,进行面部3d装饰物渲染的算法
CA2974314A1 (en) * 2016-08-05 2018-02-05 Wal-Mart Stores, Inc. Landscape design systems and methods
CN117193617A (zh) 2016-09-23 2023-12-08 苹果公司 头像创建和编辑
DK179471B1 (en) 2016-09-23 2018-11-26 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
KR102152078B1 (ko) * 2016-12-07 2020-09-04 한국전자통신연구원 3d 얼굴 모델 생성 장치 및 방법
US9971933B1 (en) 2017-01-09 2018-05-15 Ulsee Inc. Facial image screening method and face recognition system thereof
CN106960467A (zh) * 2017-03-22 2017-07-18 北京太阳花互动科技有限公司 一种带有骨骼信息的人脸重构方法和系统
CN107103619B (zh) * 2017-04-19 2022-03-08 腾讯科技(上海)有限公司 一种头发纹理方向的处理方法、装置及系统
DK179948B1 (en) 2017-05-16 2019-10-22 Apple Inc. Recording and sending Emoji
KR102439054B1 (ko) 2017-05-16 2022-09-02 애플 인크. 이모지 레코딩 및 전송
US20180357819A1 (en) * 2017-06-13 2018-12-13 Fotonation Limited Method for generating a set of annotated images
US10636193B1 (en) * 2017-06-29 2020-04-28 Facebook Technologies, Llc Generating graphical representation of a user's face and body using a monitoring system included on a head mounted display
US10636192B1 (en) 2017-06-30 2020-04-28 Facebook Technologies, Llc Generating a graphical representation of a face of a user wearing a head mounted display
CN109389015A (zh) * 2017-08-10 2019-02-26 丽宝大数据股份有限公司 脸部相似度评估方法与电子装置
CN109426767A (zh) * 2017-08-24 2019-03-05 丽宝大数据股份有限公司 眼线描绘指引装置及其方法
CN114838675A (zh) * 2017-10-06 2022-08-02 先进扫描仪公司 生成一个或多个亮度边缘以形成物体的三维模型
CN108399598B (zh) * 2018-01-24 2021-11-23 武汉智博创享科技股份有限公司 基于全景影像的人脸模糊化方法及系统
KR102565755B1 (ko) * 2018-02-23 2023-08-11 삼성전자주식회사 얼굴의 특징점의 움직임에 따라 모션이 수행된 아바타를 표시하는 전자 장치와 이의 동작 방법
DK201870378A1 (en) 2018-05-07 2020-01-13 Apple Inc. DISPLAYING USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES
CN110046020B (zh) * 2018-05-07 2021-01-15 苹果公司 电子设备、计算机可读存储介质及电子设备处执行的方法
DK201870374A1 (en) 2018-05-07 2019-12-04 Apple Inc. AVATAR CREATION USER INTERFACE
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
KR102583214B1 (ko) * 2018-05-07 2023-09-27 애플 인크. 아바타 생성 사용자 인터페이스
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
CN109344714B (zh) * 2018-08-31 2022-03-15 电子科技大学 一种基于关键点匹配的视线估计方法
CN111105343B (zh) * 2018-10-26 2023-06-09 Oppo广东移动通信有限公司 物体三维模型的生成方法和装置
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
DK201970530A1 (en) 2019-05-06 2021-01-28 Apple Inc Avatar integration with multiple applications
US12096838B2 (en) * 2019-10-07 2024-09-24 The Procter & Gamble Company Method of making applicator with precision eye opening
CN111192241B (zh) * 2019-12-23 2024-02-13 深圳市优必选科技股份有限公司 一种人脸图像的质量评估方法、装置及计算机存储介质
CN111161405B (zh) * 2019-12-24 2023-08-01 东南大学 一种动物毛发三维重建方法
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
DK181103B1 (en) 2020-05-11 2022-12-15 Apple Inc User interfaces related to time
US11195301B1 (en) * 2020-07-26 2021-12-07 Nec Corporation Of America Estimation of head yaw in an image
US11837023B2 (en) * 2020-09-15 2023-12-05 Nec Corporation Detection system, detection method, and computer program
CN112288855A (zh) * 2020-10-29 2021-01-29 张也弛 一种操作者眼睛注视模型的建立方法及装置
US11803237B2 (en) * 2020-11-14 2023-10-31 Facense Ltd. Controlling an eye tracking camera according to eye movement velocity
US11714536B2 (en) 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
KR102373608B1 (ko) * 2021-06-21 2022-03-14 주식회사 쓰리디팩토리 디지털 휴먼 영상 형성을 위한 전자 장치 및 방법과, 그를 수행하도록 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4872056A (en) * 1987-02-05 1989-10-03 Video Graphic Styling, Inc. Method for displaying selected hairstyles in video form
JPH04199474A (ja) 1990-11-29 1992-07-20 Matsushita Electric Ind Co Ltd 顔画像合成装置
JPH04358291A (ja) * 1991-06-04 1992-12-11 Hitachi Ltd 色彩画像変更方法
DE69232403T2 (de) * 1991-08-06 2002-08-22 Canon K.K., Tokio/Tokyo Dreidimensionales Modellverarbeitungsverfahren und -gerät
US5659625A (en) * 1992-06-04 1997-08-19 Marquardt; Stephen R. Method and apparatus for analyzing facial configurations and components
KR0158038B1 (ko) * 1993-03-29 1998-12-15 모리시다 요오이찌 개인식별장치
US5687307A (en) * 1993-09-21 1997-11-11 Canon Kabushiki Kaisha Computer graphic animation in which texture animation is independently performed on a plurality of objects in three-dimensional space
JPH0877334A (ja) 1994-09-09 1996-03-22 Konica Corp 顔画像の特徴点自動抽出方法
JP2603445B2 (ja) * 1994-11-10 1997-04-23 インターナショナル・ビジネス・マシーンズ・コーポレイション 髪画像適合方法及びコンピュータ・システム
JPH08147494A (ja) 1994-11-17 1996-06-07 Matsushita Electric Ind Co Ltd 頭髪画像生成装置
JP3577154B2 (ja) 1995-02-02 2004-10-13 松下電器産業株式会社 画像処理装置
JP3735893B2 (ja) 1995-06-22 2006-01-18 セイコーエプソン株式会社 顔画像処理方法および顔画像処理装置
JP3139617B2 (ja) 1996-03-25 2001-03-05 オムロン株式会社 似顔絵作成方法及び装置
JPH09305798A (ja) 1996-05-10 1997-11-28 Oki Electric Ind Co Ltd 画像表示装置
US6865291B1 (en) * 1996-06-24 2005-03-08 Andrew Michael Zador Method apparatus and system for compressing data that wavelet decomposes by color plane and then divides by magnitude range non-dc terms between a scalar quantizer and a vector quantizer
US6108005A (en) * 1996-08-30 2000-08-22 Space Corporation Method for producing a synthesized stereoscopic image
US6215898B1 (en) * 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
NL1007397C2 (nl) 1997-10-30 1999-05-12 V O F Headscanning Werkwijze en inrichting voor het met een gewijzigd uiterlijk weergeven van tenminste een deel van het menselijk lichaam.
JPH11191162A (ja) 1997-12-26 1999-07-13 Minolta Co Ltd 3次元形状データ処理装置及びモデリングシステム
DE19757773A1 (de) * 1997-12-24 1999-07-01 Bernward Maehner Verfahren zur dreidimensionalen, detaillierten Simulation plastischer Veränderungen an menschlichen Körperpartien
JPH11219422A (ja) 1998-02-02 1999-08-10 Hitachi Ltd 顔による個人同定通信方法
US6297825B1 (en) * 1998-04-06 2001-10-02 Synapix, Inc. Temporal smoothing of scene analysis data for image sequence generation
US6072496A (en) * 1998-06-08 2000-06-06 Microsoft Corporation Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects
JP2000090290A (ja) * 1998-07-13 2000-03-31 Sony Corp 画像処理装置および画像処理方法、並びに媒体
JP2000090289A (ja) * 1998-07-13 2000-03-31 Sony Corp 画像処理装置および画像処理方法、並びに媒体
US7050655B2 (en) * 1998-11-06 2006-05-23 Nevengineering, Inc. Method for generating an animated three-dimensional video head
JP3005581B1 (ja) * 1999-03-16 2000-01-31 コナミ株式会社 画像作成装置、画像作成方法、画像作成プログラムが記録された可読記録媒体およびビデオゲ―ム装置
JP2000339498A (ja) 1999-05-31 2000-12-08 Minolta Co Ltd 3次元形状データ処理装置
JP3297410B2 (ja) 1999-09-09 2002-07-02 株式会社ナムコ 画像生成システム及び情報記憶媒体
US7127109B1 (en) * 1999-09-27 2006-10-24 University Of South Florida Digital interference holographic microscope and methods
JP3639475B2 (ja) 1999-10-04 2005-04-20 シャープ株式会社 3次元モデル生成装置および3次元モデル生成方法ならびに3次元モデル生成プログラムを記録した記録媒体
US6674484B1 (en) * 2000-01-10 2004-01-06 Koninklijke Philips Electronics N.V. Video sample rate conversion to achieve 3-D effects
JP2001209799A (ja) 2000-01-27 2001-08-03 Minolta Co Ltd 3次元形状データ処理装置、それを用いた3次元形状加工装置、3次元形状データ処理方法および記録媒体
JP2001222725A (ja) 2000-02-07 2001-08-17 Sharp Corp 画像処理装置
JP2001357415A (ja) * 2000-04-13 2001-12-26 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
US6574356B1 (en) * 2000-04-19 2003-06-03 National Science Council Method for three-dimensional image reconstruction of basal ganglion
JP2001319245A (ja) 2000-05-02 2001-11-16 Sony Corp 画像処理装置および方法、並びに記録媒体
US6894686B2 (en) * 2000-05-16 2005-05-17 Nintendo Co., Ltd. System and method for automatically editing captured images for inclusion into 3D video game play
US7123254B2 (en) * 2000-06-30 2006-10-17 Minolta Co., Ltd. Method of and device for modifying standard model
JP2002032783A (ja) 2000-07-19 2002-01-31 Minolta Co Ltd 3次元モデルの生成方法および装置
JP2002083286A (ja) 2000-09-06 2002-03-22 Telecommunication Advancement Organization Of Japan アバタ生成方法、装置及びそのプログラムを記録した記録媒体
US6731287B1 (en) * 2000-10-12 2004-05-04 Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret A.S. Method for animating a 3-D model of a face
JP3848101B2 (ja) * 2001-05-17 2006-11-22 シャープ株式会社 画像処理装置および画像処理方法ならびに画像処理プログラム
US7123263B2 (en) 2001-08-14 2006-10-17 Pulse Entertainment, Inc. Automatic 3D modeling system and method
US6985145B2 (en) * 2001-11-09 2006-01-10 Nextengine, Inc. Graphical interface for manipulation of 3D models
US7019749B2 (en) * 2001-12-28 2006-03-28 Microsoft Corporation Conversational interface agent
WO2003081536A1 (en) * 2002-03-26 2003-10-02 So-Woon Kim System and method for 3-dimension simulation of glasses
US6963671B2 (en) * 2002-04-17 2005-11-08 Mitsubishi Electric Research Labs, Inc. Method for determining distances to a surface from a range image
CN1313979C (zh) * 2002-05-03 2007-05-02 三星电子株式会社 产生三维漫画的装置和方法
US8023563B2 (en) * 2002-10-04 2011-09-20 Stmicroelectronics S.R.L. Method and system for processing signals via perceptive vectorial quantization, computer program product therefor
CN100483462C (zh) * 2002-10-18 2009-04-29 清华大学 融合多视角、多线索二维信息的人脸三维模型的建立方法
US20040246269A1 (en) * 2002-11-29 2004-12-09 Luis Serra System and method for managing a plurality of locations of interest in 3D data displays ("Zoom Context")
US7039222B2 (en) * 2003-02-28 2006-05-02 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
US7508961B2 (en) * 2003-03-12 2009-03-24 Eastman Kodak Company Method and system for face detection in digital images
US7019744B2 (en) * 2003-04-30 2006-03-28 Pixar Method and apparatus for rendering of translucent objects using volumetric grids
JP2005023488A (ja) 2003-07-04 2005-01-27 Seilin Koshi:Kk 着物
US7218774B2 (en) * 2003-08-08 2007-05-15 Microsoft Corp. System and method for modeling three dimensional objects from a single image

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8249312B2 (en) 2007-08-27 2012-08-21 Seiko Epson Corporation Image processing device and image processing method
JP2010092180A (ja) * 2008-10-06 2010-04-22 Toyota Central R&D Labs Inc 瞼尤度演算装置、及びプログラム
JP2010176589A (ja) * 2009-01-30 2010-08-12 Secom Co Ltd 取引監視装置
JP2010224775A (ja) * 2009-03-23 2010-10-07 Dainippon Printing Co Ltd アイキャッチ合成装置及び方法
JP2011107877A (ja) * 2009-11-16 2011-06-02 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
KR101525133B1 (ko) * 2011-06-07 2015-06-10 오므론 가부시키가이샤 화상처리장치, 정보생성장치, 화상처리방법, 정보생성방법, 제어 프로그램 및 기록매체
JP2014520333A (ja) * 2011-06-20 2014-08-21 アルカテル−ルーセント 3次元画像モデル適応のための方法および装置
US9269194B2 (en) 2011-06-20 2016-02-23 Alcatel Lucent Method and arrangement for 3-dimensional image model adaptation
JP2013135357A (ja) * 2011-12-27 2013-07-08 Jvc Kenwood Corp 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム
JP7560711B2 (ja) 2019-09-12 2024-10-03 フリュー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
WO2021256319A1 (ja) * 2020-06-15 2021-12-23 ソニーグループ株式会社 情報処理装置、情報処理方法および記録媒体
JP7086362B1 (ja) 2021-03-29 2022-06-20 株式会社セルシス 情報処理システム、情報処理方法および情報処理プログラム
JP2022152058A (ja) * 2021-03-29 2022-10-12 株式会社セルシス 情報処理システム、情報処理方法および情報処理プログラム
JP2023016504A (ja) * 2021-07-21 2023-02-02 アイメソフト ジェイエスシー スライド再生プログラム、スライド再生装置及びスライド再生方法

Also Published As

Publication number Publication date
CN101055646B (zh) 2010-06-23
US20060188144A1 (en) 2006-08-24
CN100468463C (zh) 2009-03-11
JP4449723B2 (ja) 2010-04-14
EP1847967A1 (en) 2007-10-24
EP1847968A1 (en) 2007-10-24
CN1787012A (zh) 2006-06-14
EP1669933A2 (en) 2006-06-14
US7764828B2 (en) 2010-07-27
CN101055646A (zh) 2007-10-17
EP1669933A3 (en) 2006-09-13
CN101055647A (zh) 2007-10-17
KR20060064553A (ko) 2006-06-13
KR101190686B1 (ko) 2012-10-12
CN101055647B (zh) 2011-02-23

Similar Documents

Publication Publication Date Title
JP4449723B2 (ja) 画像処理装置、画像処理方法、およびプログラム
KR102241153B1 (ko) 2차원 이미지로부터 3차원 아바타를 생성하는 방법, 장치 및 시스템
US11381778B2 (en) Hybrid texture map to be used during 3D video conferencing
US11410457B2 (en) Face reenactment
CN108876877B (zh) 表情符号人偶化
US11765332B2 (en) Virtual 3D communications with participant viewpoint adjustment
EP2450852A1 (fr) Procédé et dispositif de simulation virtuelle d' une image
KR100422470B1 (ko) 3차원 동화상 모델 얼굴 대체 방법 및 장치
KR20020086306A (ko) 무선 통신 기기에서의 실사형 애니메이션캐릭터생성시스템 및 그 방법
KR20010102873A (ko) 정형 이미지 템플릿을 이용한 실사 아바타 생성 방법 및시스템
KR102728245B1 (ko) 아바타 표시 장치, 아바타 생성 장치 및 프로그램
TW202016887A (zh) 獨照生成裝置和方法及其非揮發性電腦可讀媒體
CN113287118B (zh) 用于面部再现的系统和方法
CN118396857A (zh) 一种图像处理方法及电子设备
KR20040067730A (ko) 레인지 스캐너를 이용한 3d 실사 아바타 생성장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100118

R151 Written notification of patent or utility model registration

Ref document number: 4449723

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250