Nothing Special   »   [go: up one dir, main page]

JP4213327B2 - Method and apparatus for estimating light source direction and three-dimensional shape, and recording medium - Google Patents

Method and apparatus for estimating light source direction and three-dimensional shape, and recording medium Download PDF

Info

Publication number
JP4213327B2
JP4213327B2 JP2000157228A JP2000157228A JP4213327B2 JP 4213327 B2 JP4213327 B2 JP 4213327B2 JP 2000157228 A JP2000157228 A JP 2000157228A JP 2000157228 A JP2000157228 A JP 2000157228A JP 4213327 B2 JP4213327 B2 JP 4213327B2
Authority
JP
Japan
Prior art keywords
light source
cosine
measurement point
dimensional shape
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000157228A
Other languages
Japanese (ja)
Other versions
JP2001084362A (en
Inventor
哲 大沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2000157228A priority Critical patent/JP4213327B2/en
Publication of JP2001084362A publication Critical patent/JP2001084362A/en
Application granted granted Critical
Publication of JP4213327B2 publication Critical patent/JP4213327B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、単一の光源を用いて物体を撮影を行うことにより得られた画像から、撮影時の光源の方向と物体の3次元形状とを推定する推定方法および装置並びに推定方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体に関するものである。
【0002】
【従来の技術】
実画像とコンピュータグラフィックス(CG)のような仮想画像とを違和感なく合成するための技術は複合現実感技術と称され、通信、交通、娯楽等種々の分野において重要な役割を果たすものとして期待されている。このように実画像と仮想画像とを違和感なく合成するためには、幾何学的、光学的および時間的な整合性を持ってこれらを合成する必要がある。特に光学的整合性については、実画像における光源の方向および強度と仮想画像における光源の方向および強度とを一致させないと、合成画像が非常に違和感のあるものとなるため、極めて重要である。このため、画像中における光源の強度分布を推定するための方法が提案されている(佐藤ら、実物体のソフトシャドウに基づく実照明環境の推定、コンピュータビジョンとイメージメディア、110-3,1998.3.19、PP17-24)。
【0003】
この方法は、実物体のソフトシャドウに基づいて、環境照明の強度分布を推定する方法であり、画像中にある3次元形状が既知の物体の影を用いて、環境照明の強度分布の推定を行っている。具体的には、仮想的な光源の明るさと、物体上のある測定点におけるデータ値との関係を行列式にて表し、この行列式におけるマトリクスの逆行列を求めることにより、光源の強度分布を推定するものである。そして、このような方法により画像中の光源の強度分布を推定すれば、仮想画像における光源の強度分布を実画像における光源の強度分布と一致させることができるため、実画像と仮想画像とを違和感なく合成することができる。
【0004】
また、イメージペースト的な手法により、任意の光源方向から照明された物体画像を生成する方法も提案されている(池内克史、仮想現実感モデルの自動生成:光学的側面、信学技法、PRMU98-122(1998-11)、PP75-82)。この方法は、光源を複数方向に変更して物体を撮影した複数のサンプル画像の線形和として、任意の光源方向から照明された画像を作成する方法である。
【0005】
【発明が解決しようとする課題】
しかしながら、上記佐藤らの方法は、測定点の位置を逆行列を算出可能な、数学的に1次独立となる位置に設定する必要があり、このような測定点の位置をマニュアル操作により求める必要があることから、操作が非常に煩わしい。また、物体の3次元形状が既知である必要もある。さらに、上記池内の方法は、対象となる物体に対して予め80もの光源方向から撮影された画像を作成する必要があるため、演算に非常に長時間を要することから現実的な手法ではない。
【0006】
本発明は上記事情に鑑みなされたものであり、光源の方向および物体の3次元形状を簡易に推定することができる推定方法および装置並びに推定方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体を提供することを目的とするものである。
【0007】
【課題を解決するための手段】
本発明による光源方向と物体の3次元形状との推定方法は、表面反射率が略一定である部分を含む3次元形状を有する物体を、実質的な単一光源下において撮影することにより得られる画像に基づいて、前記光源の方向と前記物体の3次元形状とを推定する推定方法であって、
前記画像上における前記物体の画像を表す物体画像データのデータ値、および該物体画像データと該物体の一般的な3次元形状を表す3次元形状データとの位置合わせを行った後の前記3次元形状データにより表される近似物体と、任意の複数方向に設定した仮想光源との位置関係に基づいて、前記光源の方向と前記物体の3次元形状とを推定することを特徴とするものである。
【0008】
ここで、「実質的な単一光源において撮影する」とは、晴天における太陽光の下で撮影を行った場合のように、他の光源の存在を無視することができ、単一の光源のみを用いたに略等しい状況で撮影を行うことをいう。
【0009】
また、例えば物体を人物の顔とした場合に、顔の形状は人によって異なるが、どのような顔の形状であっても概略一致するような形状が存在する。したがって、ここでは、このような物体の形状と概略一致する3次元形状を表す3次元形状データを、「一般的な3次元形状を表す3次元形状データ」とする。
【0010】
なお、人物の顔の肌色は、表面反射率が略一定であると見なせるものである。
【0011】
また、物体画像データと3次元形状データとの位置合わせは、画像中における物体の向きと物体の3次元形状の向き、中心位置、2次元方向すなわち物体画像データが存在する方向におけるサイズ等が一致するように、3次元形状データと物体画像データとをマッチングさせることをいう。このようなマッチングにより、3次元形状データは物体画像データと2次元方向においてのみ位置が合わせられており、本発明においては、このように位置が合わせられた3次元形状データにより表される物体の形状を近似物体とするものである。
【0012】
なお、本発明による推定方法においては、前記近似物体上における前記物体の前記表面反射率が略一定である部分に対応する部分に複数の測定点を設定し、
前記任意の複数方向に設定した仮想光源から前記複数の測定点へ向かう方向ベクトルと、該複数の測定点における法線ベクトルとのなす余弦を算出し、
該余弦と、前記複数の測定点に対応する前記物体画像データのデータ値との関係を前記複数の仮想光源の方向毎にプロットし、
前記プロットが略直線となる仮想光源の方向を仮の光源方向と推定し、
前記仮の光源方向を求めたプロットが前記直線上に位置するように、該プロットにおける前記余弦を修正し、
前記測定点における前記方向ベクトルと前記法線ベクトルとのなす余弦が、前記修正された余弦に近づくように該測定点の位置を修正して修正測定点を取得し、
該修正測定点を新たな前記測定点とする前記余弦の算出、前記プロット、前記仮の光源方向の推定、前記余弦の修正および前記修正測定点の取得を所定回数繰り返し、
該繰り返し処理の結果得られる前記仮の光源方向を前記光源の方向と推定し、該繰り返し処理の結果得られる修正測定点の位置により定められる形状を、前記物体の3次元形状と推定することが好ましい。
【0013】
ここで、「方向ベクトル」は、仮想光源の座標位置および測定点の座標位置から算出することができ、「法線ベクトル」は位置合わせ後の3次元形状データ上における測定点の座標位置のデータ値に基づいて求めることができる。また、余弦は、方向ベクトルと法線ベクトルとの内積から求めることができる。
【0014】
また、「プロットが直線上に位置するようにプロットにおける余弦を修正する」とは、プロットした測定点における余弦の値を変更して、プロットが直線上に位置するようにプロットを移動させることをいう。
【0015】
また、「修正された余弦に近づくように測定点の位置を修正する」とは、修正前の測定点における方向ベクトルと法線ベクトルとのなす余弦を、修正された余弦と完全に一致させるのではなく、修正された余弦の値を越えることなく、これに近い値となるように測定点の位置を修正することにより、修正後の測定点における方向ベクトルと法線ベクトルのなす余弦が、上記修正された余弦に近い値となるようにすることをいう。なお、ここで、「測定点の位置を修正する」とは、3次元形状データは物体画像データにおける2次元方向について位置合わせされているため、この2次元方向については位置を修正せず、物体画像データに対する奥行き方向について位置を修正することをいう。具体的には、物体画像データが存在する平面をxy平面とすると、z方向についてのみ測定点の位置を修正することをいう。
【0016】
なお、本発明においては、3次元形状が推定されるのは、物体の表面反射率が略一定である部分のみであるが、3次元形状を有する物体の全体の表面反射率が略一定である場合には、物体の全体の3次元形状を推定することができる。
【0017】
また、本発明による推定方法においては、前記複数の測定点における前記物体画像データのデータ値に基づいて、前記複数の測定点に鏡面反射する鏡面反射測定点が存在するか否かを判断し、
前記鏡面反射測定点が存在する場合には、該鏡面反射測定点に基づいて、前記光源の方向である蓋然性が高い前記仮想光源の方向を選択し、
該選択された方向における仮想光源により、前記余弦の算出を行うことが好ましい。
【0018】
さらに、本発明による推定方法においては、前記光源の方向の推定を、最小二乗法を用いた評価関数に基づいて、前記プロットが略直線となるか否かを判断することにより行うことが好ましい。
【0019】
この場合、前記所定回数としては、前記評価関数が所定値以下となるまでの回数とすることが好ましい。
【0020】
また、本発明による推定方法においては、前記光源の方向の推定に用いられたプロットにより設定される直線の傾きに基づいて、前記光源の強度を推定することが好ましい。
【0021】
さらに、本発明による推定方法においては、前記物体が人物の顔であることが好ましい。
【0022】
さらに、前記3次元形状データが前記物体の3次元形状を表すポリゴンデータであることが好ましい。
【0023】
本発明による推定装置は、表面反射率が略一定である部分を含む3次元形状を有する物体を、実質的な単一光源下において撮影することにより得られる画像に基づいて、前記光源の方向と前記物体の3次元形状とを推定する推定装置であって、
前記画像上における前記物体の画像を表す物体画像データのデータ値、および該物体画像データと該物体の一般的な3次元形状を表す3次元形状データとの位置合わせを行った後の前記3次元形状データにより表される近似物体と、任意の複数方向に設定した仮想光源との位置関係に基づいて、前記光源の方向と前記物体の3次元形状とを推定する手段を備えたことを特徴とするものである。
【0024】
なお、本発明による推定装置においては、前記光源の方向と前記物体の3次元形状とを推定する手段は、前記近似物体上における前記物体の前記表面反射率が略一定である部分に対応する部分に複数の測定点を設定する測定点設定手段と、前記任意の複数方向に設定した仮想光源から前記複数の測定点へ向かう方向ベクトルと、該複数の測定点における法線ベクトルとのなす余弦を算出する余弦算出手段と、
該余弦と、前記複数の測定点に対応する前記物体画像データのデータ値との関係を前記複数の仮想光源の方向毎にプロットするプロット手段と、
前記プロットが略直線となる仮想光源の方向を仮の光源方向と推定する仮の光源方向推定手段と、
前記仮の光源方向を求めたプロットが前記直線上に位置するように、該プロットにおける前記余弦を修正する余弦修正手段と、
前記測定点における前記方向ベクトルと前記法線ベクトルとのなす余弦が、前記修正された余弦に近づくように該測定点の位置を修正して修正測定点を取得する測定点修正手段と、
該修正測定点を新たな前記測定点とする前記余弦の算出、前記プロット、前記仮の光源方向の推定、前記余弦の修正および前記修正測定点の取得を所定回数繰り返すよう、前記測定点設定手段、前記余弦算出手段、前記プロット手段、前記仮の光源方向推定手段、前記余弦修正手段および前記測定点修正手段を制御する制御手段と、
該繰り返し処理の結果得られる前記仮の光源方向を前記光源の方向と推定し、該繰り返し処理の結果得られる修正測定点の位置により定められる形状を、前記物体の3次元形状と推定する推定手段とを備えることが好ましい。
【0025】
また、本発明による推定装置においては、前記複数の測定点における前記物体画像データのデータ値に基づいて、前記複数の測定点に鏡面反射する鏡面反射測定点が存在するか否かを判断し、該鏡面反射測定点が存在する場合には、該鏡面反射測定点に基づいて、前記光源の方向である蓋然性が高い前記仮想光源の方向を選択する選択手段を備え、
前記余弦算出手段は、該選択された方向における仮想光源により、前記余弦を算出する手段であることが好ましい。
【0026】
さらに、本発明による推定装置においては、前記仮の光源方向推定手段は、前記光源の方向の推定を、最小二乗法を用いた評価関数に基づいて、前記プロットが略直線となるか否かを判断することにより行う判断手段を備えることが好ましい。
【0027】
また、本発明による推定装置においては、前記推定手段は、前記光源の方向の推定に用いられたプロットにより設定される直線の傾きに基づいて、前記光源の強度を推定する手段であることが好ましい。
【0028】
また、本発明による推定装置においては、前記物体が人物の顔であることが好ましい。
【0029】
さらに、前記3次元形状データが前記物体の3次元形状を表すポリゴンデータであることが好ましい。
【0030】
なお、本発明による推定方法を、コンピュータに実行させるためのプログラムとして、コンピュータ読取り可能な記録媒体に記録して提供してもよい。
【0031】
【発明の効果】
本発明によれば、物体画像データのデータ値、および近似物体と任意の複数方向に設定した仮想光源との位置関係のみが分かれば、光源の方向と物体の3次元形状とを推定することができる。このため、上記佐藤らの方法のように、逆行列を算出可能な測定点を求める必要がなく、また行列演算を行う必要がないため、比較的簡易な演算により撮影時の光源の方向を推定することができ、さらには物体の3次元形状が未知であってもこの3次元形状を推定することができる。さらに、上記池内の方法のように、多数方向からの画像を撮影しておく必要もないため、簡易に光源の方向および物体の3次元形状を推定することができる。そしてこれにより、実画像とCGのような仮想画像とを合成する場合に、実画像において推定した光源の方向に基づいて、仮想画像が適切な光源から照明がなされているように修正した後に合成をすることができ、違和感のない合成画像を得ることができる。また、MPEG−4のように、オブジェクト毎に画像を転送して動画を見る段階において合成する符号化方式において、オブジェクトに実画像と仮想画像が含まれている場合に、実画像の照明方向に応じて仮想画像の照明方向を修正して合成することができ、これにより違和感のない合成動画像を得ることができる。さらに、実画像に含まれる物体を適切な3次元画像として表すことができるため、実画像から違和感のない3次元画像を生成することができる。さらにまた、太陽光下において撮影を行うことにより得られた画像の場合、画像中の太陽光の方向を推定することにより、画像に対する逆光補正や濃度補正を容易に行うことができる。
【0032】
とくに、仮想光源の位置が物体撮影時の光源位置と一致する場合には、光源から表面反射率が略一定である物体上のある測定点へ向かう方向ベクトルとその測定点における法線ベクトルとがなす余弦、およびその測定点における反射光の強度値すなわち物体画像データのデータ値の関係が直線上に位置するという特徴に基づいて、撮影時の光源の方向を推定することが好ましい。すなわち、物体画像データと3次元形状データとの位置合わせを行った後に、3次元形状データにより規定される近似物体上における物体の表面反射率が略一定である部分に対応する部分に複数の測定点を設定し、この測定点から仮想光源へ向かう方向ベクトルと、測定点における法線ベクトルとの余弦を求める。そして、この余弦と、測定点における物体画像データのデータ値との関係を複数の仮想光源毎にプロットし、これらの関係が直線上に位置する仮想光源の方向を撮影時における仮の光源の方向とする。そして、この仮の光源方向のプロットが直線上に位置するように、各プロットにおける余弦の値を修正し、仮の光源方向のプロットを求めた測定点における方向ベクトルと法線ベクトルとのなす余弦が、修正された余弦と略一致するように測定点の位置を修正して修正測定点を得る。
【0033】
この後、修正測定点を新たな測定点とする余弦の算出、プロット、仮の光源方向の推定、余弦の修正および修正測定点の取得を所定回数繰り返し、この結果得られる仮の光源方向を撮影時の光源方向と推定し、修正測定点の位置により定められる形状を物体の3次元形状と推定することが好ましい。
【0034】
なお、仮の光源方向を推定する前に、複数の測定点に鏡面反射測定点が存在するか否かを判断し、鏡面反射測定点が存在する場合には、この鏡面反射測定点に基づいて撮影時の光源方向である蓋然性が高い仮想光源の方向を選択することにより、光源方向の推定に使用する仮想光源の数を少なくすることができるため、演算時間を短縮することができる。すなわち、鏡面反射する測定点が存在するということは、実際の光源から測定点に照射された光が正反射して物体を撮影した撮影手段の方向に進んでいるということができる。したがって、鏡面反射測定点における法線ベクトルは、光源から鏡面反射測定点へ向かうベクトルと、鏡面反射測定点から撮影手段へ向かうベクトルとがなす角度を2等分するものとなる。よって、鏡面反射測定点が存在する場合には、その測定点における法線ベクトルと、鏡面反射測定点から撮影手段へ向かうベクトルとに基づいて、演算に使用する仮想光源の方向を絞り込むことができるものである。
【0035】
また、光源の強度をも推定することにより、上述したように実画像と仮想画像とを合成する場合に、実画像において推定した光源の強度にも基づいて仮想画像が適切な強度により照明がなされているように修正した後に合成をすることができ、これにより一層違和感のない合成画像を得ることができる。
【0036】
さらに、3次元形状データをポリゴンデータとすることにより、測定点が存在する平面を求めれば、この平面を規定する式から測定点における法線ベクトルを直ちに算出することができるため、光源の方向をより簡易に推定することができる。
【0037】
【発明の実施の形態】
以下図面を参照して本発明の実施形態について説明する。
【0038】
図1は本発明の実施形態による光源方向および物体の3次元形状を推定するための推定装置の構成を示す概略ブロック図である。図1に示すように、本実施形態による推定装置は、人物の顔を含む画像を表す2次元画像データS0と、人物の顔の3次元形状を表す3次元形状データS1との位置合わせを行って合成データS2を得る位置合わせ手段1と、3次元形状データS1を記憶するメモリ2と、合成データS2に基づいて人物を含む画像における光源の方向および顔の3次元形状を推定する推定手段3とを備える。なお、本実施形態においては光源は単一であり、人物の顔の肌色部分の表面反射率は略一定であるものとする。
【0039】
位置合わせ手段1は、図2(a)に示す人物の顔画像を表す2次元画像データS0と、図2(b)に示す人物の顔の3次元形状を近似的に表す3次元形状データS1との位置合わせを行うものである。3次元形状データS1は、2次元画像データS0により表される顔画像に応じてその向き、サイズおよび中心位置を変更可能なものであり、複数の面により3次元形状を規定するポリゴンデータとなっている。この位置合わせは2次元画像データS0および3次元形状データS1をモニタ(不図示)に表示し、表示された画像を観察しながらマニュアル操作により、3次元形状データS1により表される3次元形状の向き、大きさおよび中心位置を、2次元画像データS0により表される顔画像と一致させることにより行う。このような位置合わせを行うことにより、図2(c)に示すような合成画像を表す合成データS2を得ることができる。ここで、合成データS2には2次元画像データS0と位置合わせ後の3次元形状データS1′とが含まれることとなる。なお、図2においては、図面上左右方向をx方向、上下方向をy方向、紙面に対して垂直な方向をz方向とする。また、位置合わせ後の3次元形状データS1′により、人物の顔の3次元形状が近似的に表されることとなる。
【0040】
ここで、人物画像を撮影したカメラの焦点位置f、カメラから人物の顔までの距離z0が既知であるとすると、位置合わせ後の3次元形状データS1′により表される3次元形状上におけるある位置の座標(xw,yw,zw)と、人物画像上でのこの位置に対応する位置における座標(xv,yv)とは、下記の透視変換の式(1)、(2)により記述することができる。
【0041】
xv=α・f・xw/(f+zw+z0) (1)
yv=α・f・yw/(f+zw+z0) (2)
但し、α:スケール
x,y方向:人物画像の平面上の方向
z方向:人物画像における奥行き方向
ここで、3次元形状データS1は奥行き方向(z方向)にも値を有するため、式(1)、(2)の関係を用いることにより、位置合わせ後の3次元形状データS1′上における位置と、2次元画像データS0上における位置とをより正確に対応付けることができる。
【0042】
なお、カメラの焦点位置f等が未知である場合には、上記式(1)、(2)により位置合わせ後の3次元形状データS1′と2次元画像データS0との対応付けを行うことができないが、人物の奥行き寸法はカメラから被写体である人物までの距離と比較して非常に小さいため、このような場合にはz方向については無視しても差し支えないものである。したがって、この場合は、位置合わせ後の3次元形状データS1′における任意の位置の座標が(x1,y1,z1)であったとすると、この位置に対応する2次元画像データS0上の位置における座標は(x1,y1)とすればよい。
【0043】
図3は推定手段3の構成を示す概略ブロック図である。図3に示すように推定手段3は、位置合わせ後の3次元形状データS1′により表される3次元形状上に複数の測定点を設定する測定点設定手段11と、任意の複数方向に設定した仮想光源から複数の測定点へ向かう方向ベクトルと、複数の測定点における法線ベクトルとのなす余弦を算出する余弦算出手段12と、算出された余弦と、複数の測定点に対応する2次元画像データS0のデータ値との関係を複数の仮想光源の方向毎にプロットするプロット手段13と、プロットが略直線となる仮想光源の方向を仮の光源方向と推定する仮の光源方向推定手段14と、仮の光源方向を求めたプロットが直線上に位置するように、上記プロットにおける余弦を修正する余弦修正手段15と、測定点における方向ベクトルと法線ベクトルとのなす余弦が、修正された余弦に近づくように測定点の位置を修正して修正測定点を取得する測定点修正手段16と、修正測定点を新たな測定点としての余弦の算出、プロット、仮の光源方向の推定、余弦の修正および修正測定点の取得を所定回数繰り返すよう、測定点設定手段11、余弦算出手段12、プロット手段13、仮の光源方向推定手段14、余弦修正手段15および測定点修正手段16を制御する制御手段17とを備え、繰り返し処理の結果得られる仮の光源方向を光源の方向と推定し、繰り返し処理の結果得られる修正測定点の位置により定められる形状を、顔の3次元形状と推定するものである。
【0044】
推定手段3においては以下のようにして光源方向および顔の3次元形状が推定される。まず、光源方向の推定について説明する。図4および図5は光源方向の推定を説明するための図である。なお、図4においては、簡便のために位置合わせ後の3次元形状データS1′により表される3次元形状のy軸に垂直な平面における断面図を用いて2次元的に説明する。まず、測定点設定手段11において3次元形状データS1′により表される3次元形状上に複数の測定点を設定する。なお、図4,5においては簡便のため測定点を2点P1,P2としているが、実際にはより複数の測定点が設定されるものである。また、この測定点は、3次元形状データS1′により表される3次元形状上における人物の顔の肌色部分に対応する部分に設定される。そして、図4に示すように、y軸周りに−90度〜+90度まで、45度間隔に5つの仮想的な光源(仮想光源とする)L1〜L5が存在するものとして、余弦算出手段12において、図5に示すように上記複数の測定点P1,P2について、各光源L1〜L5毎に光源から測定点P1,P2に向かう方向ベクトルLiP1,LiP2(i=1〜5)と、測定点P1,P2における法線ベクトルn1,n2との余弦cosθ1,cosθ2を算出する。ここで、仮想光源L1〜L5および測定点P1,P2の座標位置は予め分かっているため、方向ベクトルLiP1,LiP2は仮想光源L1〜L5および測定点P1,P2の座標値から算出することができる。また、3次元形状データS1′はポリゴンデータであることから、測定点P1,P2が存在する面は容易に求めることができ、またこの面を規定する式ax+bx+cx+d=0から法線ベクトルn1,n2は(a,b,c)として求めることができる。したがって、方向ベクトルLiP1,LiP2と法線ベクトルn1,n2との内積から余弦cosθ1、cosθ2を算出することができる。
【0045】
ここで、本実施形態においては測定点は拡散反射する位置に設定されていることから、測定点における反射光の強度値、照明すなわち光源から発せられる光の強度、表面反射率、遮断および上記余弦との間には下記の式(3),(4)に示す関係が存在する。
【0046】
I(P1)=k1・s1・cosθ1・Lc+Ie (3)
I(P2)=k2・s2・cosθ2・Lc+Ie (4)
但し、I(P1),I(P2):測定点P1,P2での反射光の強度値
k1,k2:表面反射率
s2,s2:遮断の値(0または1)
Lc:照明の強度
Ie:環境光の強度
遮断とは例えば人物の顔において、光源の方向に応じて生じる、鼻の影となってしまって光が届かない部分のことをいう。このように光が届かない部分においては遮断sの値は0となり、それ以外の部分においては光が届いて反射されるために遮断sの値は1となる。したがって、s=0となる測定点は反射光の強度値が0となることから、本実施形態においては光源方向推定の演算には用いないものとする。この場合、演算に用いる測定点が不足する場合があるため、s=0となる測定点が存在する場合にはs=1となる新たな測定点を設定することが好ましい。
【0047】
反射光の強度値I(P1),I(P2)は測定点P1,P2における2次元画像データS0のデータ値となる。本実施形態においては位置合わせ手段1にて、2次元画像データS0と3次元形状データS1との位置合わせがなされているため、例えば上記式(1)、(2)により位置合わせ後の3次元形状データS1′における測定点P1,P2の座標値から2次元画像データS0上における測定点P1,P2に対応する座標値を求める。そして、2次元画像データS0における測定点P1,P2に対応する座標位置でのデータ値を、測定点P1,P2における反射光の強度値I(P1),I(P2)として求める。
【0048】
なお、余弦cosθ1、cosθ2が負となると反射光の強度値が負となってしまうことから、本実施形態においてはcosθ1,cosθ2>0となるような測定点のみを用いるものとする。この場合、演算に用いる測定点が不足する場合があるため、cosθ1,cosθ2≦0となる測定点が存在する場合にはcosθ1,cosθ2>0となる新たな測定点を設定することが好ましい。
【0049】
本実施形態では、人物の顔において拡散反射する点における表面反射率は略一定であることから、上記式(3),(4)においてはk1=k2となる。また、遮断s1,s2の値はともに1である。そして、上記式(3)、(4)より、仮想光源の位置が正しい、すなわち撮影時の光源位置と一致する場合には、下記の式(5)に示すように、顔の表面における反射光の強度値の比と余弦の比とが一致するという特徴がある。
【0050】
Lc・k・s=(I(P1)-Ie)/cosθ1=(I(P2)-Ie)/cosθ2 (5)
但し、k:k1,k2
s:s1,s2
Lc・k・s=一定
したがって、プロット手段13においては、各仮想光源L1〜L5毎に、複数の測定点P1,P2における反射光の強度値と余弦cosθ1、cosθ2との関係を図6に示すようにプロットする。なお、図6においては反射光の強度値をその最大値が1.0となるように正規化している。
【0051】
図6に示すように仮想光源L1〜L5においてその位置が撮影時の光源の位置と一致する場合には、上記式(5)に示す関係から、反射光の強度値と余弦とのプロットは略直線上に位置することとなる。したがって、プロットが略直線上に位置する仮想光源の位置を撮影時の光源の位置と見なすことができる。図6においては−45度の方向からの光源すなわち仮想光源L2を光源として用いた場合の反射光の強度値と余弦との関係が略直線上に位置することから、仮の光源方向推定手段14において、仮想光源L2の位置が撮影時の仮の光源の位置として求められる。したがって、撮影時においては人物の顔から見て図4における−45度の方向から光が照射されていると見なすことができる。なお、この直線と縦軸すなわち強度軸との交点の値が、環境光Ieの強度となる。また、この直線の傾きは上記式(5)におけるLc・k・sであり、図6から傾きの大きさが分かる。したがって、傾きをaとすると、Lc=a/k・sとなって照明の強度Lcを求めることができる。
【0052】
ここで、プロットが直線上に位置するか否かの判断は、例えば最小二乗法を用いた評価関数により行う。すなわち、直線の式をy=ax+bとすると、
【数1】

Figure 0004213327
但し、N:プロット数
xn:余弦の値
yn:反射光の強度値
として、a,bの値を求めることができる。そしてこのようにして求められたa,bの値から、下記の式(7)に示す評価関数cfを算出する。
【0053】
【数2】
Figure 0004213327
そしてこの評価関数cfの値が最も小さい値となった仮想光源の方向を撮影時における仮の光源方向とすればよい。
【0054】
次に、顔の3次元形状の推定について説明する。図7は仮の光源方向を決定するために用いたプロットおよびこのプロットから求められた直線Cを示す図である。図7に示すように、位置合わせ後の3次元形状データS1′は、顔の近似的な3次元形状を表すものであることから、実際の顔の形状は3次元形状データS1′により表される形状とはずれているため、プロットは完全に直線C上に位置するものではなく、直線Cから隔たって存在するものである。ここで、本実施形態においては、3次元形状データS1′はx,y方向については位置合わせがなされていることから、z軸方向の値が実際の値からずれているためにこの隔たりが生じるものであると考えることができる。したがって、本実施形態は、各プロットの直線Cからの隔たりを修正することにより3次元形状データS1′のz軸方向のずれを修正して顔の3次元形状を推定するものである。
【0055】
まず、上述したように求めた仮の光源方向を求めたプロットの直線Cからのずれは、そのプロットに対応する測定点における法線ベクトルの傾きのずれから生じるものであると考えることができる。例えば、図7における測定点P3に対応するプロットの場合、プロットが直線Cから左側にずれているため、測定点P3における法線ベクトルの傾きがずれて余弦の値が実際の余弦の値よりも小さくなっていると考えることができる。ここで、実際の余弦の値とは、仮の光源から実際の顔の3次元形状上に設定される測定点へ向かう方向ベクトルと、この測定点における法線ベクトルとがなす余弦のことである。そこで、余弦修正手段15において、測定点P3における余弦の値が大きくなるように修正して法線ベクトルの傾きを修正することにより、測定点P3における3次元形状データS1′のz値を修正してプロットを直線Cに近づく方向に移動させる。すなわち、測定点P3に対応する2次元画像データS0のデータ値をg(P3)とすると、g(P3)=ax+bより、
x=cosθc=(g(P3)−b)/a (8)
但し、cosθc:測定点P3が直線C上に位置する場合の余弦の値
そこで、測定点P3におけるθの値、すなわち方向ベクトルと法線ベクトルとがなす角度をθcの値に近づけるように修正する。なお、余弦の値をYとした場合、θの値は、
θ=cos−1Y (9)
により求めることができる。なお、図7における測定点P4に対応するプロットのように、プロットが直線Cから右側にずれている場合は、測定点P4における余弦の値が小さくなるように測定点P4における法線ベクトルの傾きを修正することにより、3次元形状データのz値を修正してプロットを直線Cに近づく方向に移動させる。
【0056】
図8は、θの値の修正を説明するための図である。図8において、θoldは修正前の測定点P3における方向ベクトルPLと法線ベクトルnoldとがなす角度、θnewは修正後の測定点P3における方向ベクトルPLと法線ベクトルnnewとがなす角度、θcは測定点P3が直線C上に位置する場合の方向ベクトルPLと法線ベクトルとがなす角度である。まず、ベクトルnnewを下記の式(10)により算出する。
【0057】
nnew=nold+α(θold−θc)・(PL−nold) (10)
但し、α:係数(0<α<1)
ここで、αの値は1より小さい値を有するため、法線ベクトルnnewはαの値に応じて法線ベクトルnoldの終点から光源Lへ向かうベクトル(PL−nold)上を移動することとなる。ここで、αの値を1としないのは、直線Cはあくまでも仮の光源方向を表すため、実際の光源方向とは厳密には異なるものであり、このように実際の光源方向とは異なる仮の光源方向に基づいて測定点を一気に修正すると、顔の3次元形状を正確に求めることができなくなるからである。
【0058】
このようにして法線ベクトルnnewが算出されると、この法線ベクトルnnewに基づいて、測定点修正手段16において、測定点P3における3次元形状データS1′のz値が修正される。具体的には測定点P3が図9に示すような点A,B,Cを頂点とするポリゴンに存在する場合に、点A,B,Cの頂点のzの値を修正して、3次元形状データS1′のz値を修正する。ここで、法線ベクトルnnewを(a′,b′,c′)、測定点P3の座標を(x1,y1,z1)とすると、測定点P3を通り法線ベクトルがnnewである平面の方程式が定まる。
【0059】
a′x+b′y+c′z+d′=0 (11)
d′=−(a′x1+b′y1+c′z1) (12)
点A,B,Cにおいてはx、yの値は変更されておらず、zの値のみが変更されるため、変更されたzの値をznewとすると、
znew=−(a′x+b′y+d)/c′ (13)
により求めることができる。これにより、修正後の点A,B,Cの座標は、(x,y,znew)と表すことができる。
【0060】
以上の処理を仮の光源方向を決定したプロットに対応する全ての測定点について行い、新たな測定点の座標値を得、これを修正3次元データScとする。なお、修正3次元データSc上における測定点を修正測定点とする。
【0061】
そして、修正測定点を新たな測定点とし、新たな仮想光源を設定して、新たな仮想光源から修正測定点へ向かう方向ベクトルおよび修正測定点の法線ベクトルnnewがなす余弦cosθnewと、修正測定点における反射光の強度値との関係をプロットし、さらに上記式(7)および(8)により新たな直線を求めて新たな仮想光源の方向を決定するとともに、評価関数cfを算出する。この際、新たな仮想光源は、仮の光源の近傍に設定すればよい。そして、評価関数cfの値が予め定められた所定値よりも大きいか否かが判断され、所定値を越える場合には、上述したように測定点のz値を修正して新たな修正測定点を求め、この新たな修正測定点についての仮の光源方向および評価関数cfの値の算出を、評価関数cfの値が上記所定値よりも小さい値となるまで繰り返す。そして、評価関数cfが所定値以下となったときの仮想光源の方向を光源の方向と推定し、この際の修正測定点により定められる3次元形状を顔の3次元形状と推定するものである。なお、ここで、推定される顔の3次元形状は顔の肌色部分の3次元形状となる。以上の処理は、制御手段17により、測定点設定手段11、余弦算出手段12、プロット手段13、仮の光源方向推定手段14、余弦修正手段15、および測定点修正手段16を制御することにより行われる。
【0062】
次いで、本実施形態の動作について説明する。図10は、本実施形態の動作を示すフローチャートである。まず、位置合わせ手段1において2次元画像データS0と3次元形状データS1との位置合わせが行われる(ステップS1)。そして位置合わせされた合成データS2が推定手段3に入力される。推定手段3においては、位置合わせ後の3次元形状データS1′により表される3次元形状上に複数の測定点を設定するとともに(ステップS2)、仮想光源L1〜L5から任意の仮想光源を選択する(ステップS3)。本実施形態においては、仮想光源L1から順に選択するものとする。そして、各測定点において、法線ベクトルと測定点および仮想光源間の方向ベクトルとのなす余弦が算出され(ステップS4)、各測定点における反射光の強度値と上述した余弦との関係が図6に示すようにプロットされる(ステップS5)。そして、反射光の強度値と余弦との関係において、評価関数cfが予め定められた値以下となったか否かを判断することにより、プロットが直線上に位置するか否かが判断され(ステップS6)、ステップS6が否定された場合にはステップS3に戻り、異なる仮想光源を選択してステップS4からステップS6の処理を繰り返す。ステップS6が肯定された場合には、この仮想光源の方向を撮影時における仮の光源方向として決定する(ステップS7)。
【0063】
このように仮の光源方向が決定されると、この仮の光源方向の直線を決定した際の評価関数cfが所定値以下であるか否かが判断される(ステップS8)。ステップS8が否定されると、上述したように測定点の位置が修正され(ステップS9)、さらに仮の光源方向の近傍に新たな仮想光源を設定して(ステップS10)、ステップS3に戻り、以下ステップS3からステップS8までの処理を繰り返す。そして、ステップS8が肯定されると、仮の光源方向を撮影時の光源の方向として決定するとともに、修正された測定点の座標位置から顔の3次元形状を決定し(ステップS11)、処理を終了する。
【0064】
このように、本実施形態においては、仮想光源の位置が正しい、すなわち撮影時の光源位置と一致する場合には、式(5)に示すように、顔の表面における反射光の強度値の比と上記余弦の比とが一致するという特徴に基づいて、撮影時の光源の方向を推定するようにしたため、測定点の設定については遮断sの値が0でないという条件のみを満たせばよく、また比較的簡易な演算により光源の方向を推定することができる。また、物体の3次元形状が未知であっても、推定された光源の方向に基づいて、上記池内の方法と比較して簡易に物体の3次元形状をも推定することができる。そしてこれにより、実画像とCGのような仮想画像とを合成する場合に、実画像において推定した光源の方向に基づいて、仮想画像が適切な光源から照明がなされているように修正した後に合成をすることができ、違和感のない合成画像を得ることができる。また、MPEG−4のように、オブジェクト毎に画像を転送して動画を見る段階において合成する符号化方式において、オブジェクトに実画像と仮想画像が含まれている場合に、実画像の照明方向に応じて仮想画像の照明方向を修正して合成することができ、これにより違和感のない合成動画像を得ることができる。さらに、実画像に含まれる物体を適切な3次元画像として表すことができるため、実画像から違和感のない3次元画像を生成することができる。さらにまた、太陽光下において撮影を行うことにより得られた画像の場合、画像中の太陽光の方向を推定することにより、画像に対する逆光補正や濃度補正を容易に行うことができる。
【0065】
なお、上記実施形態においては、説明のために2次元状に仮想光源L1〜L5を配置しているが、実際には3次元形状データS1に対して3次元状に複数の仮想光源を配置し、各測定点毎に反射光の強度と上記余弦との関係をプロットして撮影時の光源方向および物体の3次元形状を推定するものである。
【0066】
また、上記実施形態においては、式(6)および(7)に示すように、最小二乗法による評価関数cfを用いて仮の光源方向を推定しているが、これに限定されるものではなく、図6に示すプロットをモニタに表示し、オペレータがこれを観察してプロットが直線上に位置する仮想光源の方向を仮の光源の方向として求めるようにしてもよい。
【0067】
さらに、2次元画像データS0を取得する際において使用するカメラは、入力する光と出力する画像データとの関係が非線形となるものである。このため、予め使用するカメラによりグレーチャートを撮影して、カメラに対する入力と出力との関係を求めておき、この関係が直線となるようにカメラの入出力特性を補正しておくことが好ましい。
【0068】
なお、実環境における物体表面の輝度は、上述した拡散反射光および環境光に加えて鏡面反射光も含まれ、これらの光の組み合わせによりモデル化することができるものである。すなわち、物体表面の輝度は下記の式(14)により表すことができる。なお、ここでは相互反射は拡散反射、鏡面反射および環境光と比べて小さく、無視できるものとする。
【0069】
I=Id+Is+Ie (14)
但し、I:物体表面の輝度
Id:拡散反射光
Is:鏡面反射光
Ie:環境光
ここで、上記実施形態と同様に光源が1つである場合を想定し、3次元形状データS1′を用いて、顔画像から鏡面反射位置を検出する場合について説明する。
【0070】
上記式(14)より、顔表面上の任意の2点における強度値すなわちデータ値の差ΔIは、拡散反射光Idおよび鏡面反射光Isに依存する。まず、拡散反射光Idのみが存在すると仮定して考えると、表面反射率が一定の箇所において上記図5に示すような2つの測定点P1,P2における強度差ΔIは下記の式(15)に示すように、定式化することができる。
【0071】
ΔI=k・s1・cosθ1・Lc-k・s2・cosθ2・Lc=k(s1・cos1-s2・cos2)Lc(15)
光源の位置および強度は変化しないと仮定できるため、強度差ΔIは2点における余弦の差すなわち法線ベクトルの方向差および遮断のいずれかにより生じるものとなる。ここで、基準となる測定点(例えばP1とする)が拡散反射する位置に存在するものとすると、強度差ΔIが遮断により生じる場合は、他方の測定点P2は影となっているため、2点の位置がわずかに違っていても強度値は大きく低下するように変化する。一方、強度差ΔIが余弦の差により生じる場合は、他方の測定点P2も拡散反射する位置にあると強度差ΔIは略余弦の値に比例するものとなるが、他方の測定点P2が鏡面反射する位置にあると2点の位置がわずかに違っていても強度値は大きく増加するように変化する。このように、位置合わせ後の3次元形状データS1′上の拡散反射する位置に1つの測定点P1を設定し、この測定点P1のデータ値とこれに近接する任意の測定点P2(拡散反射する位置に限定されない)におけるデータ値との差を求め、2点の位置の差がわずかであるにもかかわらず、データ値が急激に大きくなる点を鏡面反射する位置として求めることができる。
【0072】
一方、鏡面反射の式は下記の式(16)に示すように定式化することができる。
【0073】
Is=k・s・cosα・Lc (16)
すなわち、図11に示すような位置に光源があるとすると、物体を撮影した撮影手段が矢印Rの位置、すなわち光源Lから出射した光の点Pにおける正反射方向にある場合に、点Pは鏡面反射することとなり、カメラの位置がRから角度αずれた位置Vに移動するほど鏡面反射光の強度は小さくなる。
【0074】
したがって、図12に示すように、測定点設定手段11において設定された複数の測定点に鏡面反射する測定点が存在するか否かを判断し、存在する場合に鏡面反射する測定点を選択する選択手段20を設け、仮の光源の方向を推測する前(図10に示すフローチャートのステップS3の前)に、複数の測定点に鏡面反射する測定点が存在するか否かを判断し、鏡面反射する測定点が存在する場合には、図11に示すように、その位置(Pとする)における法線ベクトルが、方向ベクトルPLと、方向ベクトルPRとがなす角度を2等分するものとなることから、光源が存在する方向をある程度推測することができる。したがって、上記実施形態のようにあらゆる方向に仮想光源を設定しなくとも、光源が存在しそうな方向にのみ仮想光源を設定すれば、仮の光源方向を推定することができるため、演算量を低減して処理を高速に行うことができる。
【0075】
なお、上記実施形態においては、人物の顔の形状を推定しているが、これに限定されるものではなく、種々の物体の3次元形状を推定することができるものである。
【図面の簡単な説明】
【図1】本発明の実施形態による推定装置の構成を示す概略ブロック図
【図2】2次元画像データと3次元形状データとの位置合わせを説明するための図
【図3】推定手段の構成を示す概略ブロック図
【図4】仮想光源の方向を説明するための図
【図5】測定点における余弦の算出を説明するための図
【図6】余弦と反射光の強度値との関係を示すグラフ
【図7】仮の光源方向を決定するために用いるプロットを示す図
【図8】θの修正を説明するための図
【図9】z値の修正を説明するための図
【図10】本実施形態の動作を示すフローチャート
【図11】鏡面反射を説明するための図
【図12】選択手段を設けた実施形態の構成を示す概略ブロック図
【符号の説明】
1 位置合わせ手段
2 メモリ
3 推定手段
11 測定点設定手段
12 余弦算出手段
13 プロット手段
14 仮の光源方向推定手段
15 余弦修正手段
16 測定点修正手段
17 制御手段
20 選択手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an estimation method and apparatus for estimating the direction of a light source and the three-dimensional shape of an object at the time of photographing from an image obtained by photographing the object using a single light source. The present invention relates to a computer-readable recording medium on which a program to be executed is recorded.
[0002]
[Prior art]
Technology for synthesizing real images and virtual images such as computer graphics (CG) without any sense of incongruity is called mixed reality technology and is expected to play an important role in various fields such as communication, transportation, and entertainment. Has been. Thus, in order to synthesize a real image and a virtual image without a sense of incongruity, it is necessary to synthesize them with geometric, optical and temporal consistency. In particular, optical consistency is extremely important because the direction and intensity of the light source in the actual image and the direction and intensity of the light source in the virtual image do not match, so that the composite image becomes very uncomfortable. For this reason, a method for estimating the intensity distribution of the light source in the image has been proposed (Sato et al., Estimation of actual lighting environment based on soft shadows of real objects, computer vision and image media, 110-3, 1998.3. 19, PP17-24).
[0003]
This method estimates the ambient light intensity distribution based on the soft shadow of a real object, and uses the shadow of an object with a known three-dimensional shape in the image to estimate the ambient light intensity distribution. Is going. Specifically, the relationship between the brightness of the virtual light source and the data value at a certain measurement point on the object is represented by a determinant, and the inverse distribution of the matrix in this determinant is obtained to obtain the intensity distribution of the light source. To be estimated. Then, if the intensity distribution of the light source in the image is estimated by such a method, the intensity distribution of the light source in the virtual image can be matched with the intensity distribution of the light source in the actual image. Can be synthesized.
[0004]
In addition, a method of generating an object image illuminated from an arbitrary light source direction using an image paste method has been proposed (Katsufumi Ikeuchi, automatic generation of a virtual reality model: optical aspects, scientific techniques, PRMU98- 122 (1998-11), PP75-82). This method is a method of creating an image illuminated from an arbitrary light source direction as a linear sum of a plurality of sample images obtained by photographing an object by changing the light source in a plurality of directions.
[0005]
[Problems to be solved by the invention]
However, in the method of Sato et al., It is necessary to set the position of the measurement point to a mathematically independent position where the inverse matrix can be calculated, and it is necessary to obtain the position of such a measurement point by manual operation. The operation is very troublesome. In addition, the three-dimensional shape of the object needs to be known. Furthermore, the method in the pond is not a realistic method because it requires a very long time for the calculation because it is necessary to create an image that has been captured in advance from 80 light source directions for the target object.
[0006]
The present invention has been made in view of the above circumstances, and an estimation method and apparatus capable of easily estimating the direction of a light source and the three-dimensional shape of an object, and a computer-readable recording of a program for causing a computer to execute the estimation method The object is to provide a possible recording medium.
[0007]
[Means for Solving the Problems]
The method of estimating the light source direction and the three-dimensional shape of the object according to the present invention is obtained by photographing an object having a three-dimensional shape including a portion having a substantially constant surface reflectance under a substantially single light source. An estimation method for estimating a direction of the light source and a three-dimensional shape of the object based on an image,
The data value of object image data representing the image of the object on the image, and the three-dimensional after the alignment between the object image data and three-dimensional shape data representing a general three-dimensional shape of the object The direction of the light source and the three-dimensional shape of the object are estimated based on the positional relationship between the approximate object represented by the shape data and a virtual light source set in any of a plurality of directions. .
[0008]
Here, “shooting with a substantially single light source” means that the presence of other light sources can be ignored as in the case of shooting under sunlight in fine weather, and only a single light source can be ignored. Shooting in a situation that is almost equivalent to using
[0009]
For example, when the object is a human face, the shape of the face varies depending on the person, but there is a shape that roughly matches any face shape. Therefore, the three-dimensional shape data representing a three-dimensional shape that roughly matches the shape of such an object is referred to as “three-dimensional shape data representing a general three-dimensional shape”.
[0010]
The skin color of the person's face can be regarded as having a substantially constant surface reflectance.
[0011]
The alignment of the object image data and the three-dimensional shape data matches the direction of the object in the image, the direction of the three-dimensional shape of the object, the center position, the size in the two-dimensional direction, that is, the direction in which the object image data exists. As described above, this means matching three-dimensional shape data with object image data. By such matching, the position of the three-dimensional shape data is aligned with the object image data only in the two-dimensional direction. In the present invention, the object represented by the three-dimensional shape data thus aligned is used. The shape is an approximate object.
[0012]
In the estimation method according to the present invention, a plurality of measurement points are set in a portion corresponding to a portion where the surface reflectance of the object on the approximate object is substantially constant,
Calculating a cosine formed by a direction vector from the virtual light source set in the plurality of arbitrary directions to the plurality of measurement points and a normal vector at the plurality of measurement points;
The relationship between the cosine and the data value of the object image data corresponding to the plurality of measurement points is plotted for each direction of the plurality of virtual light sources,
Estimating the direction of the virtual light source in which the plot is substantially a straight line as the temporary light source direction,
Modify the cosine in the plot so that the plot for the temporary light source direction is located on the straight line,
Correcting the position of the measurement point so that a cosine formed by the direction vector and the normal vector at the measurement point approaches the corrected cosine, and obtaining a corrected measurement point;
The calculation of the cosine using the corrected measurement point as the new measurement point, the plot, the estimation of the temporary light source direction, the correction of the cosine and the acquisition of the corrected measurement point are repeated a predetermined number of times,
Estimating the temporary light source direction obtained as a result of the iterative process as the direction of the light source, and estimating the shape determined by the position of the corrected measurement point obtained as a result of the iterative process as the three-dimensional shape of the object preferable.
[0013]
Here, the “direction vector” can be calculated from the coordinate position of the virtual light source and the coordinate position of the measurement point, and the “normal vector” is the data of the coordinate position of the measurement point on the three-dimensional shape data after alignment. It can be determined based on the value. Further, the cosine can be obtained from the inner product of the direction vector and the normal vector.
[0014]
“Correct the cosine in the plot so that the plot is on a straight line” means to change the cosine value at the plotted measurement point and move the plot so that the plot is on the straight line. Say.
[0015]
In addition, “correct the position of the measurement point so that it approaches the corrected cosine” means that the cosine formed by the direction vector and the normal vector at the measurement point before correction is completely matched with the corrected cosine. Rather than exceeding the corrected cosine value, the cosine formed by the direction vector and the normal vector at the corrected measurement point is calculated by correcting the position of the measurement point so that it is close to this value. This means that the value is close to the corrected cosine. Here, “correcting the position of the measurement point” means that the three-dimensional shape data is aligned in the two-dimensional direction in the object image data, so the position is not corrected in the two-dimensional direction. This refers to correcting the position in the depth direction with respect to image data. Specifically, when the plane in which the object image data exists is an xy plane, this means that the position of the measurement point is corrected only in the z direction.
[0016]
In the present invention, the three-dimensional shape is estimated only in a portion where the surface reflectance of the object is substantially constant, but the entire surface reflectance of the object having the three-dimensional shape is substantially constant. In this case, the entire three-dimensional shape of the object can be estimated.
[0017]
Further, in the estimation method according to the present invention, based on the data value of the object image data at the plurality of measurement points, it is determined whether there are specular reflection measurement points that are specularly reflected at the plurality of measurement points,
When the specular reflection measurement point exists, based on the specular reflection measurement point, select the direction of the virtual light source that is highly likely to be the direction of the light source,
The cosine is preferably calculated using a virtual light source in the selected direction.
[0018]
Further, in the estimation method according to the present invention, it is preferable that the direction of the light source is estimated by determining whether or not the plot is substantially a straight line based on an evaluation function using a least square method.
[0019]
In this case, the predetermined number of times is preferably the number of times until the evaluation function becomes a predetermined value or less.
[0020]
In the estimation method according to the present invention, it is preferable that the intensity of the light source is estimated based on a slope of a straight line set by a plot used for estimating the direction of the light source.
[0021]
Furthermore, in the estimation method according to the present invention, it is preferable that the object is a human face.
[0022]
Furthermore, it is preferable that the three-dimensional shape data is polygon data representing the three-dimensional shape of the object.
[0023]
The estimation apparatus according to the present invention is based on an image obtained by photographing an object having a three-dimensional shape including a portion having a substantially constant surface reflectance under a substantially single light source, and the direction of the light source. An estimation device for estimating a three-dimensional shape of the object,
The data value of object image data representing the image of the object on the image, and the three-dimensional after the alignment between the object image data and three-dimensional shape data representing a general three-dimensional shape of the object Characterized by comprising means for estimating the direction of the light source and the three-dimensional shape of the object based on the positional relationship between the approximate object represented by the shape data and a virtual light source set in any of a plurality of directions. To do.
[0024]
In the estimation apparatus according to the present invention, the means for estimating the direction of the light source and the three-dimensional shape of the object corresponds to a portion on the approximate object where the surface reflectance of the object is substantially constant. A cosine formed by a measurement point setting means for setting a plurality of measurement points, a direction vector from the virtual light source set in any of a plurality of directions to the plurality of measurement points, and a normal vector at the plurality of measurement points Cosine calculating means for calculating;
Plotting means for plotting the relationship between the cosine and the data value of the object image data corresponding to the plurality of measurement points for each direction of the plurality of virtual light sources;
A temporary light source direction estimating means for estimating a virtual light source direction in which the plot is substantially a straight line as a temporary light source direction;
Cosine correction means for correcting the cosine in the plot so that the plot for obtaining the temporary light source direction is positioned on the straight line;
Measurement point correcting means for correcting a position of the measurement point so as to obtain a corrected measurement point so that a cosine formed by the direction vector and the normal vector at the measurement point approaches the corrected cosine;
The measurement point setting means for repeating the calculation of the cosine using the corrected measurement point as the new measurement point, the plot, the estimation of the temporary light source direction, the correction of the cosine and the acquisition of the corrected measurement point a predetermined number of times. Control means for controlling the cosine calculating means, the plotting means, the temporary light source direction estimating means, the cosine correcting means, and the measuring point correcting means;
Estimating means for estimating the temporary light source direction obtained as a result of the iterative process as the direction of the light source, and estimating the shape defined by the position of the corrected measurement point obtained as a result of the iterative process as the three-dimensional shape of the object It is preferable to comprise.
[0025]
Further, in the estimation apparatus according to the present invention, based on the data value of the object image data at the plurality of measurement points, it is determined whether there are specular reflection measurement points that are specularly reflected at the plurality of measurement points, In the case where the specular reflection measurement point exists, selection means for selecting the direction of the virtual light source having a high probability of being the direction of the light source based on the specular reflection measurement point,
The cosine calculation means is preferably means for calculating the cosine by a virtual light source in the selected direction.
[0026]
Furthermore, in the estimation device according to the present invention, the temporary light source direction estimation means estimates the direction of the light source based on an evaluation function using a least square method and determines whether or not the plot is substantially a straight line. It is preferable to include a determination unit that performs the determination.
[0027]
In the estimation apparatus according to the present invention, it is preferable that the estimation unit is a unit that estimates the intensity of the light source based on a slope of a straight line set by a plot used for estimating the direction of the light source. .
[0028]
In the estimation apparatus according to the present invention, it is preferable that the object is a human face.
[0029]
Furthermore, it is preferable that the three-dimensional shape data is polygon data representing the three-dimensional shape of the object.
[0030]
The estimation method according to the present invention may be provided by being recorded on a computer-readable recording medium as a program for causing a computer to execute the estimation method.
[0031]
【The invention's effect】
According to the present invention, if only the data value of the object image data and the positional relationship between the approximate object and the virtual light source set in any of a plurality of directions are known, the direction of the light source and the three-dimensional shape of the object can be estimated. it can. Therefore, unlike the method of Sato et al., It is not necessary to obtain measurement points that can calculate the inverse matrix, and it is not necessary to perform matrix calculation, so the direction of the light source at the time of shooting is estimated by relatively simple calculation. Further, even if the three-dimensional shape of the object is unknown, this three-dimensional shape can be estimated. In addition, unlike the method in the pond, it is not necessary to take images from many directions, so the direction of the light source and the three-dimensional shape of the object can be easily estimated. As a result, when a real image and a virtual image such as a CG are combined, the virtual image is corrected so that it is illuminated from an appropriate light source based on the direction of the light source estimated in the real image and then combined. It is possible to obtain a composite image without any sense of incongruity. Further, in MPEG-4, for example, in an encoding method in which an image is transferred for each object and synthesized at the stage of viewing a moving image, if the object includes a real image and a virtual image, the actual image is illuminated in the illumination direction. Accordingly, the illumination direction of the virtual image can be corrected and synthesized, thereby obtaining a synthesized moving image with no sense of incongruity. Furthermore, since an object included in the real image can be represented as an appropriate three-dimensional image, a three-dimensional image without a sense of incongruity can be generated from the real image. Furthermore, in the case of an image obtained by shooting under sunlight, it is possible to easily perform backlight correction and density correction on the image by estimating the direction of sunlight in the image.
[0032]
In particular, when the position of the virtual light source coincides with the light source position at the time of object shooting, the direction vector from the light source to a certain measurement point on the object whose surface reflectance is substantially constant and the normal vector at the measurement point are It is preferable to estimate the direction of the light source at the time of photographing based on the characteristic that the relationship between the cosine formed and the intensity value of reflected light at the measurement point, that is, the data value of the object image data, is located on a straight line. That is, after the alignment of the object image data and the three-dimensional shape data, a plurality of measurements are performed on a portion corresponding to a portion where the surface reflectance of the object on the approximate object specified by the three-dimensional shape data is substantially constant. A point is set, and a cosine of a direction vector from the measurement point toward the virtual light source and a normal vector at the measurement point is obtained. Then, the relationship between the cosine and the data value of the object image data at the measurement point is plotted for each of the plurality of virtual light sources, and the direction of the virtual light source where these relationships are located on a straight line is the direction of the temporary light source at the time of shooting And Then, the cosine value in each plot is corrected so that the temporary light source direction plot is located on a straight line, and the cosine formed by the direction vector and the normal vector at the measurement point at which the temporary light source direction plot is obtained However, the position of the measurement point is corrected so as to substantially coincide with the corrected cosine to obtain a corrected measurement point.
[0033]
After this, the calculation of the cosine with the corrected measurement point as the new measurement point, plotting, estimation of the temporary light source direction, correction of the cosine and acquisition of the corrected measurement point are repeated a predetermined number of times, and the resulting temporary light source direction is photographed. It is preferable that the direction determined by the position of the corrected measurement point is estimated as the three-dimensional shape of the object by estimating the light source direction at the time.
[0034]
Before estimating the temporary light source direction, it is determined whether or not there are specular reflection measurement points at a plurality of measurement points, and if there are specular reflection measurement points, based on the specular reflection measurement points, Since the number of virtual light sources used for estimating the light source direction can be reduced by selecting the direction of the virtual light source that has a high probability of being the light source direction at the time of shooting, the calculation time can be shortened. That is, the existence of a specularly reflecting measurement point means that the light emitted from the actual light source to the measurement point is reflected regularly and proceeds in the direction of the imaging means that images the object. Therefore, the normal vector at the specular reflection measurement point bisects the angle formed by the vector from the light source to the specular reflection measurement point and the vector from the specular reflection measurement point to the imaging means. Therefore, when there is a specular reflection measurement point, the direction of the virtual light source used for the calculation can be narrowed down based on the normal vector at the measurement point and the vector from the specular reflection measurement point to the imaging means. Is.
[0035]
Further, when the real image and the virtual image are combined as described above by estimating the intensity of the light source, the virtual image is illuminated with an appropriate intensity based on the intensity of the light source estimated in the real image. Thus, the image can be synthesized after being corrected, whereby a synthesized image with a more uncomfortable feeling can be obtained.
[0036]
Furthermore, if the plane in which the measurement point exists is obtained by using the three-dimensional shape data as polygon data, the normal vector at the measurement point can be immediately calculated from the equation defining the plane, so the direction of the light source can be determined. It can be estimated more easily.
[0037]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0038]
FIG. 1 is a schematic block diagram showing a configuration of an estimation apparatus for estimating a light source direction and a three-dimensional shape of an object according to an embodiment of the present invention. As shown in FIG. 1, the estimation apparatus according to the present embodiment performs alignment between two-dimensional image data S0 representing an image including a person's face and three-dimensional shape data S1 representing a three-dimensional shape of the person's face. Positioning means 1 for obtaining combined data S2, memory 2 for storing three-dimensional shape data S1, and estimating means 3 for estimating the direction of the light source and the three-dimensional shape of the face in an image including a person based on the combined data S2. With. In the present embodiment, it is assumed that the light source is single and the surface reflectance of the skin color portion of the person's face is substantially constant.
[0039]
The alignment means 1 includes two-dimensional image data S0 representing the person's face image shown in FIG. 2A and three-dimensional shape data S1 approximately representing the three-dimensional shape of the person's face shown in FIG. Are aligned with each other. The three-dimensional shape data S1 can be changed in orientation, size, and center position according to the face image represented by the two-dimensional image data S0, and becomes polygon data that defines a three-dimensional shape by a plurality of surfaces. ing. In this alignment, the two-dimensional image data S0 and the three-dimensional shape data S1 are displayed on a monitor (not shown), and the three-dimensional shape represented by the three-dimensional shape data S1 is manually operated while observing the displayed image. This is performed by matching the orientation, size, and center position with the face image represented by the two-dimensional image data S0. By performing such alignment, synthesized data S2 representing a synthesized image as shown in FIG. 2C can be obtained. Here, the composite data S2 includes the two-dimensional image data S0 and the three-dimensional shape data S1 ′ after alignment. In FIG. 2, the horizontal direction in the drawing is the x direction, the vertical direction is the y direction, and the direction perpendicular to the paper surface is the z direction. In addition, the three-dimensional shape of the person's face is approximately represented by the three-dimensional shape data S1 ′ after the alignment.
[0040]
Here, assuming that the focal position f of the camera that captured the person image and the distance z0 from the camera to the person's face are known, they are on the three-dimensional shape represented by the three-dimensional shape data S1 ′ after alignment. The coordinates of the position (xw, yw, zw) and the coordinates (xv, yv) at the position corresponding to this position on the person image are described by the following perspective transformation formulas (1) and (2). Can do.
[0041]
xv = α · f · xw / (f + zw + z0) (1)
yv = α · f · yw / (f + zw + z0) (2)
Where α is the scale
x, y direction: direction on the plane of the person image
z direction: depth direction in a human image
Here, since the three-dimensional shape data S1 also has a value in the depth direction (z direction), the position on the three-dimensional shape data S1 ′ after alignment is obtained by using the relationship of the expressions (1) and (2). And the position on the two-dimensional image data S0 can be associated more accurately.
[0042]
When the focal position f of the camera is unknown, the three-dimensional shape data S1 ′ after the alignment and the two-dimensional image data S0 can be associated by the above formulas (1) and (2). However, since the depth dimension of the person is very small compared to the distance from the camera to the person who is the subject, in this case, the z direction can be ignored. Therefore, in this case, if the coordinates of an arbitrary position in the three-dimensional shape data S1 ′ after alignment are (x1, y1, z1), the coordinates at the position on the two-dimensional image data S0 corresponding to this position. May be (x1, y1).
[0043]
FIG. 3 is a schematic block diagram showing the configuration of the estimation means 3. As shown in FIG. 3, the estimation means 3 includes measurement point setting means 11 for setting a plurality of measurement points on the three-dimensional shape represented by the three-dimensional shape data S1 ′ after alignment, and setting in arbitrary plural directions. The cosine calculation means 12 for calculating the cosine formed by the direction vector from the virtual light source toward the plurality of measurement points and the normal vector at the plurality of measurement points, the calculated cosine, and the two-dimensional corresponding to the plurality of measurement points Plotting means 13 for plotting the relationship with the data value of the image data S0 for each direction of the plurality of virtual light sources, and provisional light source direction estimating means 14 for estimating the direction of the virtual light source in which the plot is substantially a straight line as the provisional light source direction. The cosine correction means 15 for correcting the cosine in the plot so that the plot for obtaining the temporary light source direction is located on a straight line, and the remainder formed by the direction vector and the normal vector at the measurement point However, the measurement point correction means 16 corrects the position of the measurement point so as to approach the corrected cosine and obtains the corrected measurement point, and the calculation, plotting, and temporary light source of the cosine using the corrected measurement point as a new measurement point Measurement point setting means 11, cosine calculation means 12, plotting means 13, provisional light source direction estimation means 14, cosine correction means 15 and measurement point correction so as to repeat direction estimation, cosine correction and correction measurement point acquisition a predetermined number of times. And a control means 17 for controlling the means 16. The provisional light source direction obtained as a result of the iterative process is estimated as the direction of the light source, and the shape determined by the position of the corrected measurement point obtained as a result of the iterative process is defined as Estimated as a dimensional shape.
[0044]
The estimation means 3 estimates the light source direction and the three-dimensional shape of the face as follows. First, estimation of the light source direction will be described. 4 and 5 are diagrams for explaining the estimation of the light source direction. In FIG. 4, for the sake of simplicity, the description will be given two-dimensionally using a cross-sectional view in a plane perpendicular to the y-axis of the three-dimensional shape represented by the three-dimensional shape data S1 ′ after alignment. First, the measurement point setting unit 11 sets a plurality of measurement points on the three-dimensional shape represented by the three-dimensional shape data S1 ′. In FIGS. 4 and 5, the measurement points are set to two points P1 and P2 for simplicity, but actually, a plurality of measurement points are set. Further, this measurement point is set to a portion corresponding to the skin color portion of the person's face on the three-dimensional shape represented by the three-dimensional shape data S1 ′. As shown in FIG. 4, it is assumed that there are five virtual light sources (assumed to be virtual light sources) L1 to L5 at intervals of 45 degrees from −90 degrees to +90 degrees around the y-axis. 5, the direction vectors LiP1 and LiP2 (i = 1 to 5) from the light source to the measurement points P1 and P2 for each of the light sources L1 to L5 and the measurement points for the plurality of measurement points P1 and P2 as shown in FIG. Cosine cos θ1 and cos θ2 with normal vectors n1 and n2 at P1 and P2 are calculated. Here, since the coordinate positions of the virtual light sources L1 to L5 and the measurement points P1 and P2 are known in advance, the direction vectors LiP1 and LiP2 can be calculated from the coordinate values of the virtual light sources L1 to L5 and the measurement points P1 and P2. . Further, since the three-dimensional shape data S1 ′ is polygon data, the surface on which the measurement points P1 and P2 exist can be easily obtained, and the normal vectors n1, n2 from the expressions ax + bx + cx + d = 0 that define the surface. Can be obtained as (a, b, c). Therefore, the cosine cos θ1 and cos θ2 can be calculated from the inner product of the direction vectors LiP1 and LiP2 and the normal vectors n1 and n2.
[0045]
Here, in the present embodiment, since the measurement point is set at a position where it is diffusely reflected, the intensity value of reflected light at the measurement point, the intensity of illumination, that is, the light emitted from the light source, the surface reflectance, the cutoff, and the cosine There is a relationship represented by the following equations (3) and (4).
[0046]
I (P1) = k1 · s1 · cos θ1 · Lc + Ie (3)
I (P2) = k2 · s2 · cos θ2 · Lc + Ie (4)
Where I (P1), I (P2): intensity values of reflected light at the measurement points P1, P2.
k1, k2: surface reflectance
s2, s2: cutoff values (0 or 1)
Lc: intensity of illumination
Ie: Ambient light intensity
Blocking refers to, for example, a part of a person's face that is generated depending on the direction of the light source and becomes a shadow of the nose and does not reach the light. In this way, the value of the blocking s is 0 in the portion where the light does not reach, and the value of the blocking s is 1 in the other portions because the light reaches and is reflected. Therefore, since the intensity value of the reflected light is 0 at the measurement point where s = 0, it is not used for the calculation of the light source direction in this embodiment. In this case, since there may be a shortage of measurement points used for calculation, it is preferable to set a new measurement point where s = 1 when there is a measurement point where s = 0.
[0047]
The intensity values I (P1) and I (P2) of the reflected light are the data values of the two-dimensional image data S0 at the measurement points P1 and P2. In the present embodiment, since the alignment unit 1 performs alignment between the two-dimensional image data S0 and the three-dimensional shape data S1, for example, the three-dimensional after alignment by the above formulas (1) and (2). Coordinate values corresponding to the measurement points P1 and P2 on the two-dimensional image data S0 are obtained from the coordinate values of the measurement points P1 and P2 in the shape data S1 ′. Then, the data values at the coordinate positions corresponding to the measurement points P1 and P2 in the two-dimensional image data S0 are obtained as the intensity values I (P1) and I (P2) of the reflected light at the measurement points P1 and P2.
[0048]
Since the intensity value of the reflected light becomes negative when the cosine cos θ1 and cos θ2 are negative, only measurement points that satisfy cos θ1, cos θ2> 0 are used in the present embodiment. In this case, since there may be a shortage of measurement points used for calculation, it is preferable to set new measurement points that satisfy cos θ1, cos θ2> 0 when cos θ1, cos θ2 ≦ 0.
[0049]
In the present embodiment, the surface reflectance at the point of diffuse reflection on the human face is substantially constant, and therefore k1 = k2 in the above formulas (3) and (4). The values of the interruptions s1 and s2 are both 1. From the above formulas (3) and (4), when the position of the virtual light source is correct, that is, coincides with the light source position at the time of shooting, as shown in the following formula (5), the reflected light on the face surface There is a feature that the ratio of the intensity values of the two coincides with the ratio of the cosine.
[0050]
Lc · k · s = (I (P1) -Ie) / cosθ1 = (I (P2) -Ie) / cosθ2 (5)
However, k: k1, k2
s: s1, s2
Lc · k · s = constant
Therefore, the plotting unit 13 plots the relationship between the intensity values of the reflected light at the plurality of measurement points P1 and P2 and the cosine cos θ1 and cos θ2 for each of the virtual light sources L1 to L5 as shown in FIG. In FIG. 6, the intensity value of the reflected light is normalized so that the maximum value is 1.0.
[0051]
As shown in FIG. 6, when the positions of the virtual light sources L1 to L5 coincide with the positions of the light sources at the time of photographing, the plot of the intensity value of the reflected light and the cosine is approximately from the relationship shown in the above equation (5). It will be located on a straight line. Therefore, the position of the virtual light source whose plot is located on a substantially straight line can be regarded as the position of the light source at the time of photographing. In FIG. 6, since the relationship between the intensity value of the reflected light and the cosine when the light source from the direction of −45 degrees, that is, the virtual light source L2 is used as the light source, is located on a substantially straight line, the provisional light source direction estimating means 14 The position of the virtual light source L2 is obtained as the position of the temporary light source at the time of shooting. Therefore, it can be considered that light is irradiated from the direction of −45 degrees in FIG. Note that the value of the intersection of this straight line and the vertical axis, that is, the intensity axis, is the intensity of the ambient light Ie. The slope of this straight line is Lc · k · s in the above equation (5), and the magnitude of the slope can be seen from FIG. Therefore, if the inclination is a, Lc = a / k · s, and the illumination intensity Lc can be obtained.
[0052]
Here, whether or not the plot is positioned on a straight line is determined by an evaluation function using, for example, the least square method. That is, if the straight line equation is y = ax + b,
[Expression 1]
Figure 0004213327
N: Number of plots
xn: cosine value
yn: intensity value of reflected light
As a result, the values of a and b can be obtained. Then, an evaluation function cf shown in the following formula (7) is calculated from the values of a and b thus obtained.
[0053]
[Expression 2]
Figure 0004213327
The direction of the virtual light source where the value of the evaluation function cf becomes the smallest value may be set as the temporary light source direction at the time of shooting.
[0054]
Next, estimation of the three-dimensional shape of the face will be described. FIG. 7 is a diagram showing a plot used for determining a temporary light source direction and a straight line C obtained from the plot. As shown in FIG. 7, since the three-dimensional shape data S1 ′ after alignment represents an approximate three-dimensional shape of the face, the actual face shape is represented by the three-dimensional shape data S1 ′. Therefore, the plot does not completely lie on the straight line C but is separated from the straight line C. Here, in this embodiment, since the three-dimensional shape data S1 ′ is aligned in the x and y directions, this gap occurs because the value in the z-axis direction deviates from the actual value. You can think of it as something. Therefore, in the present embodiment, the three-dimensional shape of the face is estimated by correcting the shift in the z-axis direction of the three-dimensional shape data S1 ′ by correcting the distance of each plot from the straight line C.
[0055]
First, it can be considered that the deviation from the straight line C of the plot obtained for the temporary light source direction obtained as described above is caused by the deviation of the inclination of the normal vector at the measurement point corresponding to the plot. For example, in the case of the plot corresponding to the measurement point P3 in FIG. 7, since the plot is shifted to the left side from the straight line C, the slope of the normal vector at the measurement point P3 is shifted and the cosine value is larger than the actual cosine value. You can think that it is getting smaller. Here, the actual cosine value is a cosine formed by a direction vector from the temporary light source toward the measurement point set on the three-dimensional shape of the actual face and a normal vector at the measurement point. . Therefore, the cosine correction means 15 corrects the z-value of the three-dimensional shape data S1 ′ at the measurement point P3 by correcting the inclination of the normal vector so as to increase the cosine value at the measurement point P3. The plot is moved in a direction approaching the straight line C. That is, if the data value of the two-dimensional image data S0 corresponding to the measurement point P3 is g (P3), g (P3) = ax + b
x = cos θc = (g (P3) −b) / a (8)
Where cos θc: cosine value when the measurement point P3 is located on the straight line C
Therefore, the value of θ at the measurement point P3, that is, the angle formed by the direction vector and the normal vector is corrected so as to approach the value of θc. When the cosine value is Y, the value of θ is
θ = cos -1 Y (9)
It can ask for. When the plot is shifted to the right from the straight line C as in the plot corresponding to the measurement point P4 in FIG. 7, the slope of the normal vector at the measurement point P4 is reduced so that the cosine value at the measurement point P4 becomes smaller. Is corrected, the z value of the three-dimensional shape data is corrected, and the plot is moved in the direction approaching the straight line C.
[0056]
FIG. 8 is a diagram for explaining the correction of the value of θ. In FIG. 8, θold is an angle formed by the direction vector PL and the normal vector nold at the measurement point P3 before correction, θnew is an angle formed by the direction vector PL and the normal vector nnew at the measurement point P3 after correction, and θc is This is the angle formed by the direction vector PL and the normal vector when the measurement point P3 is located on the straight line C. First, the vector nnew is calculated by the following equation (10).
[0057]
nnew = nold + [alpha] ([theta] old- [theta] c). (PL-nold) (10)
Where α: coefficient (0 <α <1)
Here, since the value of α has a value smaller than 1, the normal vector nnew moves on a vector (PL-nold) from the end point of the normal vector nold toward the light source L according to the value of α. . Here, the value of α is not set to 1 because the straight line C represents the provisional light source direction to the last, and thus is strictly different from the actual light source direction, and thus the provisional light source direction is different from the actual light source direction. This is because if the measurement points are corrected at once based on the light source direction, the three-dimensional shape of the face cannot be obtained accurately.
[0058]
When the normal vector nnew is calculated in this way, the z value of the three-dimensional shape data S1 'at the measurement point P3 is corrected by the measurement point correction means 16 based on the normal vector nnew. Specifically, when the measurement point P3 exists in a polygon having points A, B, and C as vertices as shown in FIG. The z value of the shape data S1 ′ is corrected. Here, assuming that the normal vector nnew is (a ′, b ′, c ′) and the coordinates of the measurement point P3 are (x1, y1, z1), an equation of a plane passing through the measurement point P3 and having a normal vector nnew. Is determined.
[0059]
a′x + b′y + c′z + d ′ = 0 (11)
d '=-(a'x1 + b'y1 + c'z1) (12)
At points A, B, and C, the values of x and y are not changed, and only the value of z is changed. Therefore, when the changed value of z is znew,
znew =-(a'x + b'y + d) / c '(13)
It can ask for. Thereby, the coordinates of the corrected points A, B, and C can be expressed as (x, y, znew).
[0060]
The above processing is performed for all the measurement points corresponding to the plot for which the temporary light source direction is determined, and the coordinate values of new measurement points are obtained, and this is used as the modified three-dimensional data Sc. A measurement point on the corrected three-dimensional data Sc is a corrected measurement point.
[0061]
Then, using the corrected measurement point as a new measurement point, setting a new virtual light source, the cosine cosθnew formed by the direction vector from the new virtual light source to the corrected measurement point and the normal vector nnew of the corrected measurement point, and the corrected measurement The relationship with the intensity value of the reflected light at the point is plotted, and a new straight line is obtained by the above formulas (7) and (8) to determine the direction of the new virtual light source, and the evaluation function cf is calculated. At this time, the new virtual light source may be set near the temporary light source. Then, it is determined whether or not the value of the evaluation function cf is larger than a predetermined value. If the value exceeds the predetermined value, the z value of the measurement point is corrected as described above to obtain a new corrected measurement point. The calculation of the temporary light source direction and the value of the evaluation function cf for the new corrected measurement point is repeated until the value of the evaluation function cf becomes smaller than the predetermined value. Then, the direction of the virtual light source when the evaluation function cf is equal to or less than a predetermined value is estimated as the direction of the light source, and the three-dimensional shape defined by the corrected measurement point at this time is estimated as the three-dimensional shape of the face. . Here, the estimated three-dimensional shape of the face is the three-dimensional shape of the skin color portion of the face. The above processing is performed by controlling the measurement point setting means 11, the cosine calculation means 12, the plotting means 13, the temporary light source direction estimation means 14, the cosine correction means 15, and the measurement point correction means 16 by the control means 17. Is called.
[0062]
Next, the operation of this embodiment will be described. FIG. 10 is a flowchart showing the operation of this embodiment. First, the alignment unit 1 aligns the two-dimensional image data S0 and the three-dimensional shape data S1 (step S1). The aligned composite data S2 is input to the estimation means 3. The estimation means 3 sets a plurality of measurement points on the three-dimensional shape represented by the three-dimensional shape data S1 ′ after alignment (step S2), and selects an arbitrary virtual light source from the virtual light sources L1 to L5. (Step S3). In this embodiment, the virtual light sources L1 are selected in order. Then, at each measurement point, the cosine formed by the normal vector and the direction vector between the measurement point and the virtual light source is calculated (step S4), and the relationship between the intensity value of the reflected light at each measurement point and the above-mentioned cosine is shown. 6 is plotted (step S5). Then, in the relationship between the intensity value of the reflected light and the cosine, it is determined whether or not the plot is located on a straight line by determining whether or not the evaluation function cf is equal to or less than a predetermined value (step S6) If step S6 is negative, the process returns to step S3, a different virtual light source is selected, and the processing from step S4 to step S6 is repeated. When step S6 is affirmed, the direction of this virtual light source is determined as a temporary light source direction at the time of shooting (step S7).
[0063]
When the temporary light source direction is determined in this way, it is determined whether or not the evaluation function cf when determining the straight line in the temporary light source direction is equal to or smaller than a predetermined value (step S8). If step S8 is negative, the position of the measurement point is corrected as described above (step S9), a new virtual light source is set near the temporary light source direction (step S10), and the process returns to step S3. Thereafter, the processing from step S3 to step S8 is repeated. If step S8 is affirmed, the temporary light source direction is determined as the direction of the light source at the time of photographing, and the three-dimensional shape of the face is determined from the coordinate position of the corrected measurement point (step S11), and the process is performed. finish.
[0064]
As described above, in this embodiment, when the position of the virtual light source is correct, that is, coincides with the light source position at the time of shooting, as shown in Expression (5), the ratio of the intensity values of the reflected light on the face surface is shown. Since the direction of the light source at the time of shooting is estimated based on the feature that the ratio of the cosine and the above cosine ratio coincides, it is only necessary to satisfy only the condition that the value of the cutoff s is not 0 for setting the measurement point. The direction of the light source can be estimated by a relatively simple calculation. Even if the three-dimensional shape of the object is unknown, the three-dimensional shape of the object can be easily estimated based on the estimated direction of the light source as compared with the method in the pond. As a result, when a real image and a virtual image such as a CG are combined, the virtual image is corrected so that it is illuminated from an appropriate light source based on the direction of the light source estimated in the real image and then combined. It is possible to obtain a composite image without any sense of incongruity. Further, in MPEG-4, for example, in an encoding method in which an image is transferred for each object and synthesized at the stage of viewing a moving image, if the object includes a real image and a virtual image, the actual image is illuminated in the illumination direction. Accordingly, the illumination direction of the virtual image can be corrected and synthesized, thereby obtaining a synthesized moving image with no sense of incongruity. Furthermore, since an object included in the real image can be represented as an appropriate three-dimensional image, a three-dimensional image without a sense of incongruity can be generated from the real image. Furthermore, in the case of an image obtained by shooting under sunlight, it is possible to easily perform backlight correction and density correction on the image by estimating the direction of sunlight in the image.
[0065]
In the above embodiment, the virtual light sources L1 to L5 are arranged two-dimensionally for the sake of explanation, but actually, a plurality of virtual light sources are arranged three-dimensionally with respect to the three-dimensional shape data S1. The relationship between the intensity of reflected light and the cosine is plotted for each measurement point to estimate the light source direction and the three-dimensional shape of the object at the time of photographing.
[0066]
Moreover, in the said embodiment, as shown to Formula (6) and (7), although the temporary light source direction is estimated using the evaluation function cf by the least square method, it is not limited to this. The plot shown in FIG. 6 may be displayed on the monitor, and the operator may observe it to obtain the direction of the virtual light source where the plot is located on the straight line as the direction of the temporary light source.
[0067]
Furthermore, the camera used when acquiring the two-dimensional image data S0 has a non-linear relationship between the input light and the output image data. For this reason, it is preferable to take a gray chart with a camera to be used in advance, obtain the relationship between the input and output to the camera, and correct the input / output characteristics of the camera so that this relationship is a straight line.
[0068]
Note that the luminance of the object surface in the actual environment includes specular reflection light in addition to the diffuse reflection light and environment light described above, and can be modeled by a combination of these lights. That is, the brightness of the object surface can be expressed by the following formula (14). Here, the mutual reflection is small as compared with diffuse reflection, specular reflection and ambient light, and can be ignored.
[0069]
I = Id + Is + Ie (14)
Where I: brightness of the object surface
Id: Diffuse reflected light
Is: Specular reflection light
Ie: Ambient light
Here, assuming that there is one light source as in the above embodiment, a case where the specular reflection position is detected from the face image using the three-dimensional shape data S1 ′ will be described.
[0070]
From the above equation (14), the difference ΔI between the intensity values at two arbitrary points on the face surface, that is, the data value, depends on the diffuse reflection light Id and the specular reflection light Is. First, assuming that only the diffuse reflection light Id exists, the intensity difference ΔI at the two measurement points P1 and P2 as shown in FIG. 5 at a place where the surface reflectance is constant is expressed by the following equation (15). As shown, it can be formulated.
[0071]
ΔI = k ・ s1 ・ cosθ1 ・ Lc-k ・ s2 ・ cosθ2 ・ Lc = k (s1 ・ cos1-s2 ・ cos2) Lc (15)
Since it can be assumed that the position and intensity of the light source do not change, the intensity difference ΔI is caused by either a cosine difference at two points, that is, by a normal vector direction difference or blockage. Here, assuming that a reference measurement point (for example, P1) is present at a position where it is diffusely reflected, when the intensity difference ΔI is caused by interruption, the other measurement point P2 is a shadow, so that 2 Even if the position of the point is slightly different, the intensity value changes so as to greatly decrease. On the other hand, when the intensity difference ΔI is caused by a cosine difference, the intensity difference ΔI is approximately proportional to the value of the cosine when the other measurement point P2 is also in a diffuse reflection position, but the other measurement point P2 is a mirror surface. If it is in a reflecting position, the intensity value changes so as to increase greatly even if the positions of the two points are slightly different. In this way, one measurement point P1 is set at the position where the diffuse reflection is performed on the three-dimensional shape data S1 ′ after the alignment, and the data value of the measurement point P1 and an arbitrary measurement point P2 (diffuse reflection) are adjacent thereto. The data value is not limited to the position where the data value is obtained, and the point at which the data value increases rapidly despite the slight difference between the two positions can be obtained as the specular reflection position.
[0072]
On the other hand, the specular reflection equation can be formulated as shown in the following equation (16).
[0073]
Is = k · s · cos n α ・ Lc (16)
That is, assuming that the light source is located at a position as shown in FIG. 11, the point P is obtained when the photographing means for photographing the object is in the position of the arrow R, that is, in the regular reflection direction at the point P of the light emitted from the light source L. The specular reflection occurs, and the intensity of the specular reflection light decreases as the position of the camera moves to a position V shifted from the angle α by an angle α.
[0074]
Therefore, as shown in FIG. 12, it is determined whether or not there are measurement points that are specularly reflected at the plurality of measurement points set by the measurement point setting means 11, and if there are, the measurement points that are specularly reflected are selected. Before selecting the provisional light source 20 and estimating the direction of the temporary light source (before step S3 in the flowchart shown in FIG. 10), it is determined whether or not there are measurement points that are specularly reflected at a plurality of measurement points. When there is a measurement point to be reflected, as shown in FIG. 11, the normal vector at that position (P) divides the angle formed by the direction vector PL and the direction vector PR into two equal parts. Thus, the direction in which the light source exists can be estimated to some extent. Therefore, even if the virtual light source is not set in any direction as in the above embodiment, if the virtual light source is set only in the direction where the light source is likely to exist, the provisional light source direction can be estimated, thereby reducing the amount of calculation. Thus, processing can be performed at high speed.
[0075]
In the above embodiment, the shape of the person's face is estimated. However, the present invention is not limited to this, and the three-dimensional shape of various objects can be estimated.
[Brief description of the drawings]
FIG. 1 is a schematic block diagram showing a configuration of an estimation apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining alignment between 2D image data and 3D shape data;
FIG. 3 is a schematic block diagram showing the configuration of estimation means
FIG. 4 is a diagram for explaining the direction of a virtual light source;
FIG. 5 is a diagram for explaining calculation of a cosine at a measurement point
FIG. 6 is a graph showing the relationship between cosine and intensity value of reflected light.
FIG. 7 is a diagram showing a plot used to determine a temporary light source direction.
FIG. 8 is a diagram for explaining correction of θ.
FIG. 9 is a diagram for explaining z value correction;
FIG. 10 is a flowchart showing the operation of the embodiment.
FIG. 11 is a diagram for explaining specular reflection;
FIG. 12 is a schematic block diagram showing a configuration of an embodiment provided with a selection unit.
[Explanation of symbols]
1 Positioning means
2 memory
3 Estimating means
11 Measuring point setting means
12 Cosine calculation means
13 Plotting means
14 Temporary light source direction estimation means
15 Cosine correction means
16 Measuring point correction means
17 Control means
20 selection means

Claims (21)

表面反射率が略一定である部分を含む3次元形状を有する物体を、実質的な単一光源下において撮影することにより得られる画像に基づいて、前記光源の方向と前記物体の3次元形状とを推定する推定方法であって、
前記画像上における前記物体の画像を表す物体画像データ該物体の一般的な3次元形状を表す3次元形状データとの位置合わせを行った後の前記3次元形状データにより表される近似物体上における前記物体の前記表面反射率が略一定である部分に対応する部分に、複数の測定点を設定し、
任意の複数方向に設定した仮想光源から前記複数の測定点へ向かう方向ベクトルと、該複数の測定点における法線ベクトルとのなす余弦を算出し、
該余弦と、前記複数の測定点に対応する前記物体画像データのデータ値との関係を前記複数の仮想光源の方向毎にプロットし、
前記プロットが略直線となる仮想光源の方向を仮の光源方向と推定し、
前記仮の光源方向を求めたプロットが前記直線上に位置するように、該プロットにおける前記余弦を修正し、
前記測定点における前記方向ベクトルと前記法線ベクトルとのなす余弦が、前記修正された余弦に近づくように該測定点の位置を修正して修正測定点を取得し、
該修正測定点を新たな前記測定点とする前記余弦の算出、前記プロット、前記仮の光源方向の推定、前記余弦の修正および前記修正測定点の取得を所定回数繰り返し、
該繰り返し処理の結果得られる前記仮の光源方向を前記光源の方向と推定し、
該繰り返し処理の結果得られる修正測定点の位置により定められる形状を、前記物体の3次元形状と推定することを特徴とする推定方法。
Based on an image obtained by photographing an object having a three-dimensional shape including a portion having a substantially constant surface reflectance under a substantially single light source, the direction of the light source and the three-dimensional shape of the object An estimation method for estimating
On the approximation object represented by the three-dimensional shape data after aligning the three-dimensional shape data indicating a general three-dimensional shape of the object image data and said object that represents the image of the object on said image A plurality of measurement points are set in a portion corresponding to a portion where the surface reflectance of the object is substantially constant in
Calculating a cosine formed by a direction vector from a virtual light source set in a plurality of directions to the plurality of measurement points and a normal vector at the plurality of measurement points;
The relationship between the cosine and the data value of the object image data corresponding to the plurality of measurement points is plotted for each direction of the plurality of virtual light sources,
Estimating the direction of the virtual light source in which the plot is substantially a straight line as the temporary light source direction,
Modify the cosine in the plot so that the plot for the temporary light source direction is located on the straight line,
Correcting the position of the measurement point so that a cosine formed by the direction vector and the normal vector at the measurement point approaches the corrected cosine, and obtaining a corrected measurement point;
The calculation of the cosine using the corrected measurement point as the new measurement point, the plot, the estimation of the temporary light source direction, the correction of the cosine and the acquisition of the corrected measurement point are repeated a predetermined number of times,
Estimating the temporary light source direction obtained as a result of the repetition process as the direction of the light source;
An estimation method characterized by estimating a shape defined by the position of a corrected measurement point obtained as a result of the repeated processing as a three-dimensional shape of the object .
前記複数の測定点における前記物体画像データのデータ値に基づいて、前記複数の測定点に鏡面反射する鏡面反射測定点が存在するか否かを判断し、
前記鏡面反射測定点が存在する場合には、該鏡面反射測定点に基づいて、前記光源の方向である蓋然性が高い前記仮想光源の方向を選択し、
該選択された方向における仮想光源により、前記余弦の算出を行うことを特徴とする請求項記載の推定方法。
Based on the data value of the object image data at the plurality of measurement points, determine whether there are specular reflection measurement points that are specularly reflected at the plurality of measurement points,
When the specular reflection measurement point exists, based on the specular reflection measurement point, select the direction of the virtual light source that is highly likely to be the direction of the light source,
The virtual light source in said selected direction, estimating method according to claim 1, characterized in that the calculation of the cosine.
前記仮の光源の方向の推定を、最小二乗法を用いた評価関数に基づいて、前記プロットが略直線となるか否かを判断することにより行うことを特徴とする請求項または記載の推定方法。The direction of estimation of the temporary light source, based on the evaluation function using the least squares method, according to claim 1, wherein said plot and performing by determining whether a substantially linear Estimation method. 前記所定回数は、前記評価関数が所定値以下となるまでの回数であることを特徴とする請求項記載の推定方法。The estimation method according to claim 3 , wherein the predetermined number of times is a number of times until the evaluation function becomes a predetermined value or less. 前記光源の方向の推定に用いられたプロットにより設定される直線の傾きに基づいて、前記光源の強度を推定することを特徴とする請求項からのいずれか1項記載の推定方法。On the basis of the slope of the line that is set with plots were used to estimate the direction of the light source, estimating method according to any one of the claims 1 to 4, characterized in that to estimate the intensity of the light source. 前記物体が人物の顔であることを特徴とする請求項1からのいずれか1項記載の推定方法。Estimation method according to any one of claims 1 to 5, wherein the object is a human face. 前記3次元形状データが前記物体の3次元形状を表すポリゴンデータであることを特徴とする請求項1からのいずれか1項記載の推定方法。Estimation method according to any one of claims 1 6, wherein the three-dimensional shape data is polygon data representing a three-dimensional shape of the object. 表面反射率が略一定である部分を含む3次元形状を有する物体を、実質的な単一光源下において撮影することにより得られる画像に基づいて、前記光源の方向と前記物体の3次元形状とを推定する推定装置であって、
前記画像上における前記物体の画像を表す物体画像データ該物体の一般的な3次元形状を表す3次元形状データとの位置合わせを行った後の前記3次元形状データにより表される近似物体上における前記物体の前記表面反射率が略一定である部分に対応する部分に、複数の測定点を設定する測定点設定手段と、
任意の複数方向に設定した仮想光源から前記複数の測定点へ向かう方向ベクトルと、該複数の測定点における法線ベクトルとのなす余弦を算出する余弦算出手段と、
該余弦と、前記複数の測定点に対応する前記物体画像データのデータ値との関係を前記 複数の仮想光源の方向毎にプロットするプロット手段と、
前記プロットが略直線となる仮想光源の方向を仮の光源方向と推定する仮の光源方向推定手段と、
前記仮の光源方向を求めたプロットが前記直線上に位置するように、該プロットにおける前記余弦を修正する余弦修正手段と、
前記測定点における前記方向ベクトルと前記法線ベクトルとのなす余弦が、前記修正された余弦に近づくように該測定点の位置を修正して修正測定点を取得する測定点修正手段と、
該修正測定点を新たな前記測定点とする前記余弦の算出、前記プロット、前記仮の光源方向の推定、前記余弦の修正および前記修正測定点の取得を所定回数繰り返すよう、前記測定点設定手段、前記余弦算出手段、前記プロット手段、前記仮の光源方向推定手段、前記余弦修正手段および前記測定点修正手段を制御する制御手段と、
該繰り返し処理の結果得られる前記仮の光源方向を前記光源の方向と推定し、該繰り返し処理の結果得られる修正測定点の位置により定められる形状を、前記物体の3次元形状と推定する推定手段とを備えたことを特徴とする推定装置。
Based on an image obtained by photographing an object having a three-dimensional shape including a portion having a substantially constant surface reflectance under a substantially single light source, the direction of the light source and the three-dimensional shape of the object An estimation device for estimating
On the approximation object represented by the three-dimensional shape data after aligning the three-dimensional shape data indicating a general three-dimensional shape of the object image data and said object representing the image of the object on the image Measuring point setting means for setting a plurality of measuring points in a portion corresponding to a portion where the surface reflectance of the object is substantially constant;
Cosine calculation means for calculating a cosine formed by a direction vector from the virtual light source set in any plurality of directions to the plurality of measurement points and a normal vector at the plurality of measurement points;
Plotting means for plotting the relationship between the cosine and the data value of the object image data corresponding to the plurality of measurement points for each direction of the plurality of virtual light sources;
A temporary light source direction estimating means for estimating a virtual light source direction in which the plot is substantially a straight line as a temporary light source direction;
Cosine correction means for correcting the cosine in the plot so that the plot for obtaining the temporary light source direction is positioned on the straight line;
Measurement point correcting means for correcting a position of the measurement point so as to obtain a corrected measurement point so that a cosine formed by the direction vector and the normal vector at the measurement point approaches the corrected cosine;
The measurement point setting means for repeating the calculation of the cosine using the corrected measurement point as the new measurement point, the plot, the estimation of the temporary light source direction, the correction of the cosine and the acquisition of the corrected measurement point a predetermined number of times. Control means for controlling the cosine calculating means, the plotting means, the temporary light source direction estimating means, the cosine correcting means, and the measuring point correcting means;
Estimating means for estimating the temporary light source direction obtained as a result of the iterative process as the direction of the light source, and estimating the shape defined by the position of the corrected measurement point obtained as a result of the iterative process as the three-dimensional shape of the object estimating device characterized by comprising and.
前記複数の測定点における前記物体画像データのデータ値に基づいて、前記複数の測定点に鏡面反射する鏡面反射測定点が存在するか否かを判断し、該鏡面反射測定点が存在する場合には、該鏡面反射測定点に基づいて、前記光源の方向である蓋然性が高い前記仮想光源の方向を選択する選択手段を備え、
前記余弦算出手段は、該選択された方向における仮想光源により、前記余弦を算出する手段であることを特徴とする請求項記載の推定装置。
Based on the data values of the object image data at the plurality of measurement points, it is determined whether or not there are specular reflection measurement points that are specularly reflected at the plurality of measurement points, and when the specular reflection measurement points exist Comprises a selection means for selecting the direction of the virtual light source that is highly likely to be the direction of the light source based on the specular reflection measurement point,
9. The estimation apparatus according to claim 8 , wherein the cosine calculation means is means for calculating the cosine by a virtual light source in the selected direction.
前記仮の光源方向推定手段は、前記仮の光源の方向の推定を、最小二乗法を用いた評価関数に基づいて、前記プロットが略直線となるか否かを判断することにより行う判断手段を備えたことを特徴とする請求項または記載の推定装置。The temporary light source direction estimating means is a determination means for performing estimation of the direction of the temporary light source by determining whether or not the plot is substantially a straight line based on an evaluation function using a least square method. estimating apparatus according to claim 8 or 9, characterized in that it comprises. 前記所定回数は、前記評価関数が所定値以下となるまでの回数であることを特徴とする請求項10記載の推定装置。The estimation device according to claim 10 , wherein the predetermined number of times is a number of times until the evaluation function becomes a predetermined value or less. 前記推定手段は、前記光源の方向の推定に用いられたプロットにより設定される直線の傾きに基づいて、前記光源の強度をも推定する手段であることを特徴とする請求項から11のいずれか1項記載の推定装置。The said estimation means is a means which also estimates the intensity | strength of the said light source based on the inclination of the straight line set by the plot used for estimation of the direction of the said light source, The any one of Claim 8 to 11 characterized by the above-mentioned. The estimation apparatus according to claim 1. 前記物体が人物の顔であることを特徴とする請求項から12のいずれか1項記載の推定装置。Estimating apparatus of any one of 12 claims 8, wherein the object is a human face. 前記3次元形状データが前記物体の3次元形状を表すポリゴンデータであることを特徴とする請求項から13のいずれか1項記載の推定装置。We are estimating device according to any one of claims 8 to 13, wherein the three-dimensional shape data is polygon data representing a three-dimensional shape of the object. 表面反射率が略一定である部分を含む3次元形状を有する物体を、実質的な単一光源下において撮影することにより得られる画像に基づいて、前記光源の方向と前記物体の3次元形状とを推定する推定方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体であって、
前記プログラムは、前記画像上における前記物体の画像を表す物体画像データ該物体の一般的な3次元形状を表す3次元形状データとの位置合わせを行った後の前記3次元形状データにより表される近似物体上における前記物体の前記表面反射率が略一定である部分に対応する部分に、複数の測定点を設定する手順と、
任意の複数方向に設定した仮想光源から前記複数の測定点へ向かう方向ベクトルと、該複数の測定点における法線ベクトルとのなす余弦を算出する手順と、
該余弦と、前記複数の測定点に対応する前記物体画像データのデータ値との関係を前記複数の仮想光源の方向毎にプロットする手順と、
前記プロットが略直線となる仮想光源の方向を仮の光源方向と推定する手順と、
前記仮の光源方向を求めたプロットが前記直線上に位置するように、該プロットにおける前記余弦を修正する手順と、
前記測定点における前記方向ベクトルと前記法線ベクトルとのなす余弦が、前記修正された余弦に近づくように該測定点の位置を修正して修正測定点を取得する手順と、
該修正測定点を新たな前記測定点とする前記余弦の算出、前記プロット、前記仮の光源方向の推定、前記余弦の修正および前記修正測定点の取得を所定回数繰り返す手順と、
該繰り返し処理の結果得られる前記仮の光源方向を前記光源の方向と推定し、該繰り返し処理の結果得られる修正測定点の位置により定められる形状を、前記物体の3次元形状と推定する手順とを有することを特徴とするコンピュータ読取り可能な記録媒体。
Based on an image obtained by photographing an object having a three-dimensional shape including a portion having a substantially constant surface reflectance under a substantially single light source, the direction of the light source and the three-dimensional shape of the object A computer-readable recording medium storing a program for causing a computer to execute an estimation method for estimating
The program is represented by the three-dimensional shape data after alignment of object image data representing the image of the object on the image and three-dimensional shape data representing a general three-dimensional shape of the object. A procedure for setting a plurality of measurement points in a portion corresponding to a portion where the surface reflectance of the object on the approximate object is substantially constant;
A procedure for calculating a cosine formed by a direction vector from a virtual light source set in an arbitrary plurality of directions to the plurality of measurement points and a normal vector at the plurality of measurement points;
A procedure for plotting the relationship between the cosine and the data value of the object image data corresponding to the plurality of measurement points for each direction of the plurality of virtual light sources;
A procedure for estimating a virtual light source direction in which the plot is substantially a straight line as a temporary light source direction;
A procedure for correcting the cosine in the plot so that the plot for obtaining the temporary light source direction is positioned on the straight line;
A procedure for obtaining a corrected measurement point by correcting the position of the measurement point so that a cosine formed by the direction vector and the normal vector at the measurement point approaches the corrected cosine;
Calculating the cosine using the corrected measurement point as the new measurement point, the plot, estimating the temporary light source direction, correcting the cosine and obtaining the corrected measurement point a predetermined number of times;
A procedure for estimating the temporary light source direction obtained as a result of the iterative process as the direction of the light source, and estimating a shape defined by the position of the corrected measurement point obtained as a result of the iterative process as a three-dimensional shape of the object; computer readable recording medium characterized by having a.
前記複数の測定点における前記物体画像データのデータ値に基づいて、前記複数の測定点に鏡面反射する鏡面反射測定点が存在するか否かを判断する手順と、
前記鏡面反射測定点が存在する場合には、該鏡面反射測定点に基づいて、前記光源の方向である蓋然性が高い前記仮想光源の方向を選択する手順とをさらに有し、
前記余弦を算出する手順は、該選択された方向における仮想光源により、前記余弦の算出を行う手順であることを特徴とする請求項15記載のコンピュータ読取り可能な記録媒体。
A procedure for determining whether or not there are specular reflection measurement points that are specularly reflected at the plurality of measurement points based on data values of the object image data at the plurality of measurement points;
A step of selecting the direction of the virtual light source having a high probability of being the direction of the light source based on the specular reflection measurement point when the specular reflection measurement point exists;
The computer-readable recording medium according to claim 15 , wherein the procedure of calculating the cosine is a procedure of calculating the cosine by using a virtual light source in the selected direction.
前記仮の光源の方向を推定する手順は、最小二乗法を用いた評価関数に基づいて、前記プロットが略直線となるか否かを判断する手順を有することを特徴とする請求項15または16記載のコンピュータ読取り可能な記録媒体。Procedure for estimating the direction of the temporary light source, based on the evaluation functions using the least square method, according to claim 15 or 16, characterized in that it comprises a procedure for determining whether the plot is substantially linear The computer-readable recording medium as described. 前記所定回数は、前記評価関数が所定値以下となるまでの回数であることを特徴とする請求項17記載のコンピュータ読取り可能な記録媒体。The computer-readable recording medium according to claim 17 , wherein the predetermined number of times is a number of times until the evaluation function becomes a predetermined value or less. 前記光源の方向の推定に用いられたプロットにより設定される直線の傾きに基づいて、前記光源の強度を推定する手順をさらに有することを特徴とする請求項15から18のいずれか1項記載のコンピュータ読取り可能な記録媒体。The method according to any one of claims 15 to 18 , further comprising a step of estimating the intensity of the light source based on a slope of a straight line set by a plot used for estimating the direction of the light source. Computer-readable recording medium. 前記物体が人物の顔であることを特徴とする請求項15から19のいずれか1項記載のコンピュータ読取り可能な記録媒体。Computer-readable recording medium of any one of claims 15 to 19, wherein the object is a human face. 前記3次元形状データが前記物体の3次元形状を表すポリゴンデータであることを特徴とする請求項15から20のいずれか1項記載のコンピュータ読取り可能な記録媒体。Computer-readable recording medium of any one of claims 15 to 20, wherein the 3-D shape data is polygon data representing a three-dimensional shape of the object.
JP2000157228A 1999-07-12 2000-05-26 Method and apparatus for estimating light source direction and three-dimensional shape, and recording medium Expired - Fee Related JP4213327B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000157228A JP4213327B2 (en) 1999-07-12 2000-05-26 Method and apparatus for estimating light source direction and three-dimensional shape, and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP19686199 1999-07-12
JP11-196861 1999-07-12
JP2000157228A JP4213327B2 (en) 1999-07-12 2000-05-26 Method and apparatus for estimating light source direction and three-dimensional shape, and recording medium

Publications (2)

Publication Number Publication Date
JP2001084362A JP2001084362A (en) 2001-03-30
JP4213327B2 true JP4213327B2 (en) 2009-01-21

Family

ID=26510025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000157228A Expired - Fee Related JP4213327B2 (en) 1999-07-12 2000-05-26 Method and apparatus for estimating light source direction and three-dimensional shape, and recording medium

Country Status (1)

Country Link
JP (1) JP4213327B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9903941B2 (en) 2014-01-22 2018-02-27 Samsung Electronics Co., Ltd. Time of flight camera device and method of driving the same

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4623320B2 (en) * 2004-11-04 2011-02-02 日本電気株式会社 Three-dimensional shape estimation system and image generation system
US7860340B2 (en) 2004-11-04 2010-12-28 Nec Corporation Three-dimensional shape estimation system and image generation system
ES2325374T3 (en) * 2005-05-03 2009-09-02 Seac02 S.R.L. INCREASED REALITY SYSTEM WITH IDENTIFICATION OF REAL MARKER OBJECT.
JP6237032B2 (en) * 2013-09-19 2017-11-29 凸版印刷株式会社 Color and three-dimensional shape measuring method and apparatus
JP6360200B2 (en) 2014-05-13 2018-07-18 ナント・ホールデイングス・アイ・ピー・エル・エル・シー System and method for rendering augmented reality content with an albedo model
JP6395456B2 (en) * 2014-06-09 2018-09-26 株式会社キーエンス Image inspection apparatus, image inspection method, image inspection program, computer-readable recording medium, and recorded apparatus
CN109632088B (en) * 2019-01-17 2024-02-02 南京易纹兴智能科技有限公司 Automatic control system for detecting and correcting illuminance of multiple light sources

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9903941B2 (en) 2014-01-22 2018-02-27 Samsung Electronics Co., Ltd. Time of flight camera device and method of driving the same

Also Published As

Publication number Publication date
JP2001084362A (en) 2001-03-30

Similar Documents

Publication Publication Date Title
US11869139B2 (en) System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function
CN110288642B (en) Three-dimensional object rapid reconstruction method based on camera array
CN104335005B (en) 3D is scanned and alignment system
Bernardini et al. Building a digital model of Michelangelo's Florentine Pieta
Alexander et al. The digital emily project: Achieving a photorealistic digital actor
Rushmeier et al. Acquiring input for rendering at appropriate levels of detail: Digitizing a pieta
Brostow et al. Video normals from colored lights
US20130249901A1 (en) Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces
JP2008537190A (en) Generation of three-dimensional image of object by irradiating with infrared pattern
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
JP2003203220A (en) Three-dimensional image processing method, three- dimensional image processor, there-dimensional image processing system and three-dimensional image processing program
JP2003130621A (en) Method and system for measuring three-dimensional shape
CN114998499A (en) Binocular three-dimensional reconstruction method and system based on line laser galvanometer scanning
JP4217100B2 (en) Image composition method, apparatus, and program, and stereo model rendering method, apparatus, and program
WO2020075252A1 (en) Information processing device, program, and information processing method
JP2002236909A (en) Image data processing method and modeling device
WO2018056802A1 (en) A method for estimating three-dimensional depth value from two-dimensional images
JP4213327B2 (en) Method and apparatus for estimating light source direction and three-dimensional shape, and recording medium
JP4977436B2 (en) Light source position estimation device
D'Apuzzo Automated photogrammetric measurement of human faces
KR20200049337A (en) Apparatus and method for registering images
JP5059503B2 (en) Image composition apparatus, image composition method, and image composition program
US20240175677A1 (en) Measuring system providing shape from shading
WO2013142819A1 (en) Systems and methods for geometrically mapping two-dimensional images to three-dimensional surfaces
JP2001084380A (en) Method and device for estimating light source direction and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050912

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080819

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081028

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081030

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees