JP2012003724A - 三次元指先位置検出方法、三次元指先位置検出装置、及びプログラム - Google Patents
三次元指先位置検出方法、三次元指先位置検出装置、及びプログラム Download PDFInfo
- Publication number
- JP2012003724A JP2012003724A JP2010140977A JP2010140977A JP2012003724A JP 2012003724 A JP2012003724 A JP 2012003724A JP 2010140977 A JP2010140977 A JP 2010140977A JP 2010140977 A JP2010140977 A JP 2010140977A JP 2012003724 A JP2012003724 A JP 2012003724A
- Authority
- JP
- Japan
- Prior art keywords
- fingertip
- operator
- fingertip position
- finger
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】2台のカメラで撮像した操作者の手指の画像から、画像処理によって、操作者の手指の三次元位置を容易に、かつ高精度で検出する。
【解決手段】第1の指先位置検出手段は、第1のカメラ200で撮像した第1の画像から、操作者の指先位置である第1の指先位置を検出する。第2の指先位置検出手段は、第2のカメラ210で撮像した第2の画像から、探索領域を第1の指先位置に対応するエピポーラ線に限定して、操作者の指軸の位置姿勢を検出した後に、操作者の指軸とエピポーラ線との交点を、操作者の指先位置である第2の指先位置として検出する。三次元指先位置推定手段224は、第1の指先位置と第2の指先位置とに基づいて、操作者の指先の三次元位置を推定する。
【選択図】図6
【解決手段】第1の指先位置検出手段は、第1のカメラ200で撮像した第1の画像から、操作者の指先位置である第1の指先位置を検出する。第2の指先位置検出手段は、第2のカメラ210で撮像した第2の画像から、探索領域を第1の指先位置に対応するエピポーラ線に限定して、操作者の指軸の位置姿勢を検出した後に、操作者の指軸とエピポーラ線との交点を、操作者の指先位置である第2の指先位置として検出する。三次元指先位置推定手段224は、第1の指先位置と第2の指先位置とに基づいて、操作者の指先の三次元位置を推定する。
【選択図】図6
Description
本発明は、2台のカメラで撮像した操作者の手指の画像から、画像処理によって、操作者の指先の三次元位置を検出する三次元指先位置検出方法、三次元指先位置検出装置、及びプログラムに関する。
家庭電化製品や、街頭に設置されている情報キオスク端末などの操作対象機器の操作では、リモコンを使用して操作するか、もしくは操作対象機器に備えられたボタンや、タッチスクリーンにより操作するという形態が主流であるが、リモコンを用いる形態では、リモコンを紛失した場合に、操作ができない、また、ボタンや、タッチスクリーンを用いる形態では、不特定多数が素手で操作するものであり、不衛生なので機器に直接触れたくない、といった理由から、操作者が行うジェスチャを認識することにより操作対象機器を操作する形態が考案されている。
その形態は様々であり、ジェスチャとしては、首振り、頷き、眼球運動、ウインク、腕振り、指差し等、また、操作者の動作をセンシングするデバイスとしては、奥行き情報を直接取得可能なデバイスや、通常のビデオカメラ等がある。
ここで、ジェスチャ認識システムを、従来の物理的な機器を代替するものという観点から捉えた場合、通常、ボタンや、タッチスクリーンは、指で操作されていることから、ジェスチャとして指の動きを用いる形態に妥当性があると考えられる。ここで、指の動きとは、指の曲げ伸ばし等ではなく、指先位置の時間的変位、すなわち軌道のことである。また、コストの観点から、ハードウェア構成を安価に実現できる、通常のビデオカメラを用いる形態に妥当性があると考えられる。
以上の考察から、本発明では、指の動きによるジェスチャを通常のビデオカメラで撮像して認識する形態を対象とすることにした。
さて、このようなジェスチャ認識システムでは、先ずは、撮像された画像上において指先位置を検出することが必要となるが、これまでに、そのための技術がいくつか考案されている。大別すると、1つは単純背景下を対象としたものであり、もう1つは複雑背景下を対象としたものである。
前者の原理は、手指を撮像したカラー画像から、色相・明度・彩度等に基づいて肌色であると判定された画素からなる領域を抽出し、その領域の形状を基に指先位置を検出するものである(例えば、特許文献1参照)。
後者の原理は、様々なポーズや、姿勢にある手指の輪郭形状を基に予め作成しておいたテンプレート群を、画像から抽出された輪郭に適用し、最も類似度が大きいテンプレートに対応するポーズや、姿勢を以って手指の位置姿勢を検出するものである(例えば、非特許文献1参照)。
また、これら技術の多くでは、不特定多数の操作者への対応を可能とするために、画像から色ヒストグラムを算出し、その分布から肌の色を動的に推定し、この推定された肌の色を基に手指領域を抽出する技術が共通して用いられている(例えば、特許文献2参照)。
Bj¨orn Stenger, Arasanathan Thayananthan, Philip H.S. Torr, Roberto Cipolla, "Model-Based Hand Tracking Using a Hierarchical Bayesian Filter," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 28, no. 9, pp. 1372-1384, Sept. 2006, doi:10.1109/TPAMI.2006.189
しかしながら、前述の特許文献1にも明記されているように、指を撮影したカラー画像から、色相・明度・彩度等に基づいて、肌色であると判定された画素からなる領域を抽出し、その領域の形状を基に指先位置を検出する方法では、手領域と他の肌色物体とが重ならないことが必須条件である。
図20(a)、(b)は、従来技術による、指を撮影したカラー画像から、色相・明度・彩度等に基づいて、肌色であると判定された画素からなる領域を抽出し、その領域の形状を基に指先位置を検出する方法を説明するための概念図である。例えば、図20(a)に示すように、手指を撮影する際に、操作者以外の人物の顔10が背後に映り込んで、図20(b)に示すように、画像上において手領域に他の肌色領域に重なっている場合、検出される領域が手領域と顔領域との和集合領域20となるため、指先位置を正確に検出することは原理的に不可能である。
これに対して、非特許文献1に示されているように、輝度画像の輪郭情報を基に手指の位置姿勢を検出する方法が提案されているが、複雑背景下では、一般に、画像上における手指領域と背景との差異が小さく、輪郭が検出できない区分が、手指領域の境界上に相当の割合で発生する。
図21(a)、(b)は、従来技術による、輝度画像の輪郭情報を基に手指の位置姿勢を検出する方法を説明するための概念図である。指先の先端位置とは、例えば、図21(a)に示される手指領域の境界40の左端30であるが、VGA等の低解像度のカメラを用いる場合、図21(b)に示すように、左右方向の輪郭推定に寄与する画素50の個数が少ないため、指先の先端位置を正しく推定することは困難である。これは、ノイズが強い場合や手指の背後に複雑な背景が映りこむ場合には、いっそう困難となる。
また、前述の特許文献2に示されている、求めた色ヒストグラムから予め定めた肌の色の有効範囲内のピーク値(度数が最大の値)を検出して肌の色の基準値とする方法では、2つ以上のピークがある場合には、肌の色を誤って推定する恐れがあり、操作者の手指の三次元位置を正確に検出することができないという問題がある。
本発明は、このような事情を考慮してなされたものであり、その目的は、2台のカメラで撮像した操作者の手指の画像から、画像処理によって、操作者の手指の三次元位置を高精度で検出することができる三次元指先位置検出方法、三次元指先位置検出装置、及びプログラムを提供することにある。
本発明は、第1のカメラで第1の方向から操作者の手指を撮影した第1の画像と、第2のカメラで前記第1の方向とは異なる第2の方向から操作者の手指を撮影した第2の画像とから、画像処理によって操作者の指先の三次元位置を検出する三次元指先位置検出装置であって、前記第1の画像から、操作者の指先位置を検出する第1の指先位置検出手段と、前記第2の画像から、探索領域を前記第1の指先位置に対応するエピポーラ線に限定して、前記操作者の指軸の位置姿勢を検出した後に、前記操作者の指軸と前記エピポーラ線との交点を、前記操作者の指先位置である第2の指先位置として検出する第2の指先位置検出手段と、前記第1の指先位置検出手段によって検出された第1の指先位置と前記第2の指先位置検出手段によって検出された第2の指先位置とに基づいて、前記操作者の指先の三次元位置を推定する三次元指先位置推定手段とを備えることを特徴とする。
本発明は、前記第2の指先位置検出手段は、前記操作者の指軸候補位置に対して、複数の指軸候補を予め登録した指軸検出用テンプレート群を適用することにより、その指類似度が最大となる指軸候補位置およびテンプレートに対応する姿勢を以って指軸の位置姿勢と推定することを特徴とする。
本発明は、前記第2の指先位置検出手段は、類似度が所定値より大きい指軸候補位置が複数検出された場合には、同複数の指軸上の所定の区間の各位置に対して、複数の手領域候補を予め登録した手領域検証用テンプレート群を適用し、その手領域類似度が最大となる指軸候補を以って指軸の位置姿勢と推定することを特徴とする。
本発明は、前記第1の指先位置検出手段は、複数の操作者の手指を撮像した複数の第1の画像から、色ヒストグラムの分布領域を表す2値化モデルを生成する2値化モデル生成手段と、前記色ヒストグラムの主要部分の分布を表すテンプレートを作成するテンプレート作成手段と、入力された対象画像のヒストグラムの分布における、前記テンプレート作成手段によって作成されたテンプレートが最も類似する位置に、前記2値化モデル生成手段によって生成された2値化モデルを配置することによって、前記操作者の手指における色分布を推定する色分布推定手段とを備え、前記推定された色分布によって前記操作者の指先位置を検出することを特徴とする。
本発明は、第1のカメラで第1の方向から操作者の手指を撮影した第1の画像と、第2のカメラで前記第1の方向とは異なる第2の方向から操作者の手指を撮影した第2の画像とから、画像処理によって操作者の指先の三次元位置を検出する三次元指先位置検出方法であって、前記第1の画像から、操作者の指先位置を検出する第1の指先位置検出ステップと、前記第2の画像から、探索領域を前記第1の指先位置に対応するエピポーラ線に限定して、前記操作者の指軸の位置姿勢を検出した後に、前記操作者の指軸と前記エピポーラ線との交点を、前記操作者の指先位置である第2の指先位置として検出する第2の指先位置検出ステップと、前記第1の指先位置検出手段によって検出された第1の指先位置と前記第2の指先位置検出手段によって検出された第2の指先位置とに基づいて、前記操作者の指先の三次元位置を推定する三次元指先位置推定ステップとを含むことを特徴とする。
本発明は、第1のカメラで第1の方向から操作者の手指を撮影した第1の画像と、第2のカメラで前記第1の方向とは異なる第2の方向から操作者の手指を撮影した第2の画像とから、画像処理によって操作者の指先の三次元位置を検出する三次元指先位置検出装置のコンピュータに、前記第1の画像から、操作者の指先位置を検出する第1の指先位置検出ステップと、前記第2の画像から、探索領域を前記第1の指先位置に対応するエピポーラ線に限定して、前記操作者の指軸の位置姿勢を検出した後に、前記操作者の指軸と前記エピポーラ線との交点を、前記操作者の指先位置である第2の指先位置として検出する第2の指先位置検出ステップと、前記第1の指先位置検出手段によって検出された第1の指先位置と前記第2の指先位置検出手段によって検出された第2の指先位置とに基づいて、前記操作者の指先の三次元位置を推定する三次元指先位置推定ステップとを実行させることを特徴とする。
この発明によれば、複数のカメラを用いて指先の三次元位置を検出する装置において、指先位置を容易に、かつ高精度に検出することができる。
以下、本発明の一実施形態を、図面を参照して説明する。なお、実施例を説明するための全図において、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
A.第1実施形態
まず、本発明の第1実施形態について説明する。
本第1実施形態は、三次元指先位置検出方法において、肌の色を推定する方法に関するもので、予め、肌の色のヒストグラムの「2値化モデル」と「テンプレート」とを作成しておき、個々の操作者の手指を撮像した画像から得られる色ヒストグラムに、これらのテンプレートを適用し、最も類似度が高くなるテンプレートの位置に、この2値化モデルを移動させた2値化モデルを以って、当該操作者の肌の色と推定する。
まず、本発明の第1実施形態について説明する。
本第1実施形態は、三次元指先位置検出方法において、肌の色を推定する方法に関するもので、予め、肌の色のヒストグラムの「2値化モデル」と「テンプレート」とを作成しておき、個々の操作者の手指を撮像した画像から得られる色ヒストグラムに、これらのテンプレートを適用し、最も類似度が高くなるテンプレートの位置に、この2値化モデルを移動させた2値化モデルを以って、当該操作者の肌の色と推定する。
図1は、本発明の第1実施形態による三次元指先位置検出方法において、指先位置検出方法の動作を説明するためのフローチャートである。図2(a)、(b)は、本第1実施形態による、操作者の指先位置検出方法の動作を説明するための概念図である。また、図3(a)〜(c)、及び図4(a)〜(c)は、本第1実施形態による三次元指先位置検出方法において、指先位置検出方法で算出する色ヒストグラムを示す概念図である。
まず、図1に示すステップS110において、肌の色のヒストグラムと2値化色ヒストグラムとを作成する。
(ステップS110)
(A1)複数人のサンプル取得対象者から任意に選択した第1サンプル取得対象者に対して、図2(a)に示すように、青色等の背景70の下に手指60を撮像し、例えば、図2(a)の手指60の親指先端部分を拡大した図2(b)に示すように、手指領域と背景領域とがブレンドされた画素90を除いた純粋手指領域80を算出する。
(ステップS110)
(A1)複数人のサンプル取得対象者から任意に選択した第1サンプル取得対象者に対して、図2(a)に示すように、青色等の背景70の下に手指60を撮像し、例えば、図2(a)の手指60の親指先端部分を拡大した図2(b)に示すように、手指領域と背景領域とがブレンドされた画素90を除いた純粋手指領域80を算出する。
該純粋手指領域80内の画素から、図3(a)に示す純粋色ヒストグラム100を算出し、該純粋色ヒストグラム100とガウシアンカーネルとの畳み込み処理により、図3(b)に示す、平滑化色ヒストグラム110を算出し、求めた平滑化色ヒストグラム110の最大値の50%より小さい頻度をゼロとして、図3(c)に示す、削ぎ落とし色ヒストグラム120を算出する。
図3(a)〜(c)、図4(a)〜(c)において、色ヒストグラムは、2次元の色空間上で表現されている。なお、第1サンプル取得対象者の純粋色ヒストグラム100、平滑化色ヒストグラム110、及び削ぎ落とし色ヒストグラム120を、特に、基本純粋色ヒストグラム、基本平滑化色ヒストグラム、及び基本削ぎ落とし色ヒストグラムとする。また、色ヒストグラム座標の原点を色ヒストグラムに相対的に固定された色ヒストグラムの基準点とする。
その他の各サンプル取得対象者に対しても、同様の処理により、純粋色ヒストグラム100と平滑化色ヒストグラム110とを算出する。
その他の各サンプル取得対象者に対しても、同様の処理により、純粋色ヒストグラム100と平滑化色ヒストグラム110とを算出する。
(A2)上記(A1)で求めた平滑化色ヒストグラム110を2次元的にずらしながら基本削ぎ落とし色ヒストグラムとの類似度を、例えば、正規化相関により求めてゆき、類似度が最も高くなるずらし位置における、平滑化色ヒストグラム110の基準点の色ヒストグラム座標の原点からの変位を求め、純粋色ヒストグラム100をこの変位だけずらしたものを基本純粋色ヒストグラムに加算し、図4(a)に示す、加算純粋色ヒストグラム130を算出する。該処理を各サンプル取得者全ての色ヒストグラムについて行い、最終的に得られたものを加算純粋色ヒストグラム130とする。
加算純粋色ヒストグラム130から、図4(b)に示すように、加算平滑化色ヒストグラム150を算出し、図4(c)に示すように、加算削ぎ落とし色ヒストグラム160を算出し、求めた加算純粋色ヒストグラム130を頻度非ゼロの基準で切り詰めて、加算2値化色ヒストグラム140を算出する。加算2値化色ヒストグラム140が肌の色のヒストグラムの「2値化モデル」として、加算削ぎ落とし色ヒストグラム160が「テンプレート」として上記(A2)の操作者の肌の色の推定に利用される。
なお、サンプル取得対象者の人数が少ない場合や、撮像の際に照明変動がある場合等では、加算2値化色ヒストグラム140に対してモルフォロジー演算による膨張処理(Dilate)を数回程度施してもよい。
なお、サンプル取得対象者の人数が少ない場合や、撮像の際に照明変動がある場合等では、加算2値化色ヒストグラム140に対してモルフォロジー演算による膨張処理(Dilate)を数回程度施してもよい。
次に、図1に示すステップS120において、以下で説明するように、操作者の手指を撮像した入力動画から、当該操作者の肌の色を推定する。
(ステップS120)
(B1)操作者の手指を撮像した入力動画のフレーム画像の全画素から、純粋色ヒストグラムを算出する。なお、背景差分や、フレーム間差分により、色ヒストグラム算出に用いる画素を絞り込んでもよい。
(B2)この処理を所定の枚数のフレーム画像に対して行い、それぞれ算出された純粋色ヒストグラムを加算して得られた入力純粋色ヒストグラムとガウシアンカーネルとの畳み込み処理により、入力平滑化色ヒストグラムを得る。
(B1)操作者の手指を撮像した入力動画のフレーム画像の全画素から、純粋色ヒストグラムを算出する。なお、背景差分や、フレーム間差分により、色ヒストグラム算出に用いる画素を絞り込んでもよい。
(B2)この処理を所定の枚数のフレーム画像に対して行い、それぞれ算出された純粋色ヒストグラムを加算して得られた入力純粋色ヒストグラムとガウシアンカーネルとの畳み込み処理により、入力平滑化色ヒストグラムを得る。
(B3)加算削ぎ落とし色ヒストグラム160(テンプレート)を2次元的にずらしながら、この入力平滑化色ヒストグラムとの類似度を、例えば、正規化相関により求めていき、類似度が最も高くなるずらし位置における、加算削ぎ落とし色ヒストグラム160の基準点の入力平滑化色ヒストグラム座標の原点からの変位を求める。加算2値化色ヒストグラム140(二値化モデル)を、この変位だけずらし、推定2値化色ヒストグラムとして求め、これを以って、推定された当該操作者の肌の色とする。
上述した第1実施形態によれば、予め、肌の色のヒストグラムの「2値化モデル」と「テンプレート」とを作成しておき、個々の操作者の手指を撮像した画像から得られる色ヒストグラムに、これらのテンプレートを適用し、最も類似度が高くなるテンプレートの位置に、この2値化モデルを移動させた2値化モデルを以って、当該操作者の肌の色と推定するようにしたので、肌色の重なりがあったり、複雑な背景であっても、操作者の手指を高精度で検出することができる。
B.第2実施形態
次に、本発明の第2実施形態について説明する。
本第2実施形態は、2台のカメラで撮影した操作者の手指の画像から、画像処理によって、操作者の手指の三次元位置を検出するものである。
次に、本発明の第2実施形態について説明する。
本第2実施形態は、2台のカメラで撮影した操作者の手指の画像から、画像処理によって、操作者の手指の三次元位置を検出するものである。
図5(a)、(b)は、本第2実施形態による三次元指先位置検出装置の概略構成を示すブロック図である。第1のカメラ200は、その光軸が鉛直方向下向きに、かつ操作者の手指が検出領域239のどのような位置姿勢にあっても撮像可能な具合に載置されている。第2のカメラ210は、その光軸が水平方向となるように、かつ操作者の手指が検出領域239のどのような位置姿勢にあっても撮像可能な具合に載置されている。また、背景230は黒色であり、第1のカメラ200の撮像範囲を十分に覆うように載置されている。
また、図6は、本第2実施形態による三次元指先位置検出装置の構成を示すブロック図である。三次元指先位置検出装置は、第1のカメラ200と、第2のカメラ210と、第1の指先位置検出手段220と、指軸検出用テンプレート作成手段221と、手領域検証用テンプレート作成手段222と、第2の指先位置検出手段223と、三次元指先位置推定手段224とを有する。
図7は、本第2実施形態において、指軸検出用テンプレート作成手段221による指軸検出用テンプレートの作成方法を説明するためのフローチャートである。また、図8(a)、(b)は、本第2実施形態において、指先位置、指軸、評価位置群、検証開始位置、及び検証終了位置を算出する方法を説明するための概念図である。
まず、指軸検出用テンプレート作成手段221は、図7に示すステップS210において、指先位置、指軸、評価位置群、検証開始位置、及び検証終了位置を算出する。
(ステップS210)
(C1)検出領域239内にある操作者の手指を第2のカメラ210で撮像した画像のうち、図8(a)に示す指先241と中手指節間関節242との距離が最も小さい画像において、指領域260に対してモルフォロジー演算による浸食処理(Erode)を数回程度施して侵食指領域261を算出し、指先241と中手指節間関節242とを結んで得られる指軸240に垂直で、指先241、及び中手指節間関節242から、それぞれ所定のマージンをとった直線251、及び直線252を算出し、指軸240上にあり、中手指節間関節242からそれぞれ所定の距離だけ離れた位置243、及び位置244を、後述する手領域検証用テンプレートの基準を合わせるための、検証開始位置、及び検証終了位置として、それぞれ算出する。
(ステップS210)
(C1)検出領域239内にある操作者の手指を第2のカメラ210で撮像した画像のうち、図8(a)に示す指先241と中手指節間関節242との距離が最も小さい画像において、指領域260に対してモルフォロジー演算による浸食処理(Erode)を数回程度施して侵食指領域261を算出し、指先241と中手指節間関節242とを結んで得られる指軸240に垂直で、指先241、及び中手指節間関節242から、それぞれ所定のマージンをとった直線251、及び直線252を算出し、指軸240上にあり、中手指節間関節242からそれぞれ所定の距離だけ離れた位置243、及び位置244を、後述する手領域検証用テンプレートの基準を合わせるための、検証開始位置、及び検証終了位置として、それぞれ算出する。
(C2)侵食指領域261を、直線251、及び直線252により分割することで、図8(b)に示す有効指領域262を算出し、有効指領域262内で均一に配置された所定の個数の評価位置群280を算出する。以降、該所定の個数をnTとする。なお、次のステップS220のテンプレート作成過程において、指軸240、指先241、位置243、位置244、及び評価位置群280の相対位置姿勢は固定されているとする。
次に、指軸検出用テンプレート作成手段221は、図7に示すステップS220において、指軸検出用テンプレートを作成する。
ここで、図9、図10は、本第2実施形態による、指軸検出用テンプレートの作成方法を説明するための概念図である。
(ステップS220)
図9に示すように、0から2πラジアンの角度を256分割した、0ラジアンから始まる各角度区分270に対応する方向コードを0、1、…、255として、図10に示すように、指先241をローカル座標の原点に固定し、各角度区分に対して、指軸240とx軸との角度290が当該角度区分の中間角度となるようにした際の評価位置群280のローカル座標上での位置群を(xT、yT)として、図11に示すテーブルに保存する。併せて、当該角度区分に対応する方向コードをcTとして保存する。なお、ここでは、256個のテーブルが生成されるが、指の採り得る方向が限定されている場合には、対応する角度区分のテーブルのみ生成すればよい。
ここで、図9、図10は、本第2実施形態による、指軸検出用テンプレートの作成方法を説明するための概念図である。
(ステップS220)
図9に示すように、0から2πラジアンの角度を256分割した、0ラジアンから始まる各角度区分270に対応する方向コードを0、1、…、255として、図10に示すように、指先241をローカル座標の原点に固定し、各角度区分に対して、指軸240とx軸との角度290が当該角度区分の中間角度となるようにした際の評価位置群280のローカル座標上での位置群を(xT、yT)として、図11に示すテーブルに保存する。併せて、当該角度区分に対応する方向コードをcTとして保存する。なお、ここでは、256個のテーブルが生成されるが、指の採り得る方向が限定されている場合には、対応する角度区分のテーブルのみ生成すればよい。
次に、手領域検証用テンプレートの作成方法について詳細に説明する。
図12は、本第2実施形態において、手領域検証用テンプレート作成手段222による手領域検証用テンプレートの作成方法を説明するためのフローチャートである。また、図13(a)〜(d)は、本第2実施形態による手領域検証用テンプレートの作成方法を説明するための概念図である。
図12は、本第2実施形態において、手領域検証用テンプレート作成手段222による手領域検証用テンプレートの作成方法を説明するためのフローチャートである。また、図13(a)〜(d)は、本第2実施形態による手領域検証用テンプレートの作成方法を説明するための概念図である。
まず、手領域検証用テンプレート作成手段222は、図12に示すステップS310において、中手指節間関節位置、及び評価位置群を算出する。
(ステップS310)
(D1)検出領域239内に均等に分布するN個の各位置に指先を合わせた操作者の手指を、第2のカメラ210で撮像してN枚の画像を取得し、これら取得した各画像に対して、図13(a)に示すように、手指領域300を算出し、手指領域300に対してモルフォロジー演算による浸食処理(Erode)を数回程度施して侵食手指領域301を算出し、さらに、浸食処理(Erode)を数回程度施して侵食手指領域302を算出する。
(ステップS310)
(D1)検出領域239内に均等に分布するN個の各位置に指先を合わせた操作者の手指を、第2のカメラ210で撮像してN枚の画像を取得し、これら取得した各画像に対して、図13(a)に示すように、手指領域300を算出し、手指領域300に対してモルフォロジー演算による浸食処理(Erode)を数回程度施して侵食手指領域301を算出し、さらに、浸食処理(Erode)を数回程度施して侵食手指領域302を算出する。
(D2)図13(b)に示すように、取得した各画像上における、中手指節間関節242の位置と指節間関節310の位置とを結ぶ直線330を算出し、予め定めた手の表面上の位置320と位置321とを結ぶ直線331を算出し、侵食手指領域302から、これら直線330と直線331とにより切り出された、図13(c)に示すテンプレート作成用マスク領域340を算出する。なお、テンプレート作成用マスク領域340ついては、伸ばした第二指(人差し指)の中手指節間関節における曲げ具合による影響を受けない領域であることが重要である。このため、伸ばした第二指を、中手指節間関節において様々な角度に曲げて撮像した画像群から、輝度値が同一である画素からなる領域に対して、浸食処理(Erode)を数回程度施して得られる領域を、テンプレート作成用マスク領域340としてもよい。
(D3)取得した各画像に勾配演算を施し、各画素の位置における勾配ベクトルの大きさが、同一位置における画素の値である勾配画像を算出し、テンプレート作成用マスク領域340内におけるこの勾配画像の最大値を求め、テンプレート作成用マスク領域340内におけるこの勾配画像の画素のうち、この最大値の20%より大きな値を持つ画素からなる領域を図13(d)に示す有効手領域341とし、この有効手領域341内で均一に配置された所定の個数の評価位置群350を算出する。以降、この所定の個数をnFとする。なお、次のステップS320のテンプレート作成過程において、画像上における中手指節間関節242の位置、及び評価位置群350の相対位置は固定されているとする。
次に、手領域検証用テンプレート作成手段222は、図12に示すステップS320において、手領域検証用テンプレートを作成する。
(ステップS320)
取得した各画像に勾配演算を施し、各画素の位置における勾配ベクトルの方向が含まれる角度区分に対応する方向コードが、同一位置における画素の値である方向コード画像を算出し、方向コード画像において、画像上における中手指節間関節242の位置からの、評価位置群350の各相対位置、及びそれら位置における方向コード群を(xF、yF、cF)として、図14に示すテーブルに保存する。
(ステップS320)
取得した各画像に勾配演算を施し、各画素の位置における勾配ベクトルの方向が含まれる角度区分に対応する方向コードが、同一位置における画素の値である方向コード画像を算出し、方向コード画像において、画像上における中手指節間関節242の位置からの、評価位置群350の各相対位置、及びそれら位置における方向コード群を(xF、yF、cF)として、図14に示すテーブルに保存する。
最後に、手領域検証用テンプレート作成手段222は、図12に示すステップS330において、手領域検証用テンプレートの個数を削減する。ここで、図15(a)、(b)は、本第2実施形態による、手領域検証用テンプレートの個数を削減する方法を説明するための概念図である。
(ステップS330)
(E1)取得した各方向コード画像を、侵食手指領域301を有効領域としてマスクした方向コード画像に対して、中手指節間関節242の近傍領域である図15(a)に示す中手指節間関節近傍領域299内の全ての画素位置に対して、1つの手領域検証用テンプレートを適用して得られる最小評価値を、各列に記憶した図15(b)に示すテーブルを作成し、該テーブルの各要素を所定の域値により二値化する。
(E1)取得した各方向コード画像を、侵食手指領域301を有効領域としてマスクした方向コード画像に対して、中手指節間関節242の近傍領域である図15(a)に示す中手指節間関節近傍領域299内の全ての画素位置に対して、1つの手領域検証用テンプレートを適用して得られる最小評価値を、各列に記憶した図15(b)に示すテーブルを作成し、該テーブルの各要素を所定の域値により二値化する。
(E2)評価値が非ゼロである要素の個数が少ない列から順に、その列に対応する手領域検証用テンプレートを削除していき、手領域検証用テンプレートの個数が適当な個数となった時点で終了する。
次に、操作者の指先の三次元位置を検出する方法について詳細に説明する。
図16は、本第2実施形態において、操作者の指先の三次元位置を検出する方法を説明するためのフローチャートである。また、図17(a)〜(d)は、本第2実施形態において、操作者の指先の三次元位置を検出する方法を説明するための概念図である。また、図18(a)〜(c)は、本第2実施形態において、操作者の指先の三次元位置を検出する方法を説明するための概念図である。
図16は、本第2実施形態において、操作者の指先の三次元位置を検出する方法を説明するためのフローチャートである。また、図17(a)〜(d)は、本第2実施形態において、操作者の指先の三次元位置を検出する方法を説明するための概念図である。また、図18(a)〜(c)は、本第2実施形態において、操作者の指先の三次元位置を検出する方法を説明するための概念図である。
まず、第1の指先位置検出手段220は、図16に示すステップ410において、操作者の手指を第1のカメラ200によって撮像した動画から、第1の指先位置を検出する。
(ステップS410)
(F1)図17(a)に示す、入力動画のフレーム画像に対して、第1実施形態で説明した方法により、推定2値化色ヒストグラムを求め、以降の入力動画のフレーム画像に、該推定2値化色ヒストグラムを適用し、図17(b)に示されるような、手指領域420や、ノイズ領域421、421等が含まれる2値画像を算出する。
なお、黒色背景を利用した背景差分等により、同2値画像を算出してもよい。
(ステップS410)
(F1)図17(a)に示す、入力動画のフレーム画像に対して、第1実施形態で説明した方法により、推定2値化色ヒストグラムを求め、以降の入力動画のフレーム画像に、該推定2値化色ヒストグラムを適用し、図17(b)に示されるような、手指領域420や、ノイズ領域421、421等が含まれる2値画像を算出する。
なお、黒色背景を利用した背景差分等により、同2値画像を算出してもよい。
次に、該2値画像に対して、モルフォロジー演算による浸食処理(Erode)を数回程度施して、図17(c)に示すような浸食2値画像を算出し、該浸食2値画像に対してラベリング処理を施して得られた面積最大の領域を核領域430として算出する。さらに、図17(d)において、核領域430の重心431を起点として、図17(b)の2値画像に塗り潰し処理を施して手指領域440を算出し、該手指領域440の先端を暫定指先位置450として求める。ここで、最もV座標が大きな領域を核領域430としてもよい。
(F2)入力動画のフレーム画像の勾配画像を算出し、図18(a)に示すように、暫定指先位置450を通り、v軸に平行な直線上にあり、暫定指先位置450からそれぞれ所定のマージンをとった位置451、及び位置452を算出し、得られた勾配画像において、位置451と位置452とを結ぶ線分上にある画素のうち、値が最大となる画素の位置460を求める。
さらに、この最大値の50%を探索基準値とし、位置451と位置452とを結ぶ線分上にある画素において、v軸方向の隣接する2画素のうち、一方が探索基準値より小さく、他方が探索基準値以上となる2画素を、位置451を開始位置として探索し、それぞれの画素の値を基にそれぞれの位置を内挿して、探索基準値をとると推定されるサブピクセル位置470を求める。
次に、u軸方向に隣接する数個のv軸方向画像列に対して、図18(b)に示すように、このサブピクセル位置470から所定のマージンをとった位置471を開始位置としてv軸の負の向きに同様の探索を行い、サブピクセル位置群472を求め、求めたサブピクセル位置群472に、図18(c)に示すように、例えば、二次関数等の曲線500を当てはめ、その曲線500上においてv座標が最大となる位置510を以って第1の指先位置とする。
次に、第2の指先位置検出手段223は、図16に示すステップ420において、操作者の手指を第2のカメラ210により撮像した動画から、第2の指先位置を検出する。ここで、図19(a)、(b)は、操作者の手指を第2のカメラ210により撮像した動画から、第2の指先位置を検出する方法を説明するための概念図である。
(G1)図19(a)に示す、入力動画のフレーム画像600の方向コード画像を算出し、該フレーム画像600の撮像と同一のタイミングで、第1のカメラ200により撮像された画像における指先位置510に対応するエピポーラ線620上の各画素位置(x、y)に対して、256個の全ての指軸検出用テンプレートを適用して、数式(1)で定義されるEのうち、最小の値を求め、これを当該画素位置(x、y)における指類似度Eとする。ここで、数式(1)において、Cは方向コード画像の画素(x、y)における値であり、また、一部において、テンプレートのインデックスである添え字[i]を省略してある。
(G2)この指類似度Eが所定の域値より小さい場合、すなわち、複数の指軸候補が存在する場合には、図19(b)に示すように、当該指軸検出用テンプレートの方向コードcTに対応する角度701だけ、指軸240をu軸700から回転させた際の上記方向コード画像上での位置243、及び位置244を結ぶ線分上の全ての画素位置(xS、yS)に対して、N個の全ての手領域検証用テンプレートを適用して、数式(2)で定義されるEのうち、最小の値を求め、これを当該画素位置(x、y)における手指類似度Eとする。ここで、数式(2)において、Cは方向コード画像の画素(x、y)における値であり、また、一部において、テンプレートのインデックスである添え字[i]を省略してある。
(G3)上記指類似度Eが所定の域値以上の場合には、当該画素位置(x、y)における手指類似度を128とする。
(G4)これら手領域類似度Eが最小の値となる、エピポーラ線620上の画素位置(x、y)を以って、第2の指先位置630とする。
最後に、図16にステップ430において、操作者の手指を第1のカメラ200によって撮像した動画における第1の指先位置510と、操作者の手指を第2のカメラ210によって撮像した動画における第2の指先位置630とから、指先の3次元指先位置を検出する。
図5(a)に示すように、三次元空間における、第1のカメラ200のレンズ中心と操作者の指先とを結ぶ半直線202、及び第2のカメラ210のレンズ中心と操作者の指先とを結ぶ半直線212を、それぞれ第1の指先位置510と第2の指先位置630とから求め、半直線202からの距離の二乗と半直線212からの距離の二乗との和が最小となる位置を以って、指先の3次元指先位置とする。
上述した第2実施形態によれば、対象物の部分状態、すなわち状態の一部を容易に検出可能な位置姿勢に載置された第1のカメラ200、第2のカメラ210により撮像された画像から、指軸検出用テンプレート、及び手領域検出用テンプレートを用いて、指軸の位置姿勢を検出することにより、肌色の重なりがあったり、複雑な背景であっても、操作者の手指の三次元位置を高精度で検出することができる。
なお、前述の説明において、本実施形態の三次元指先位置検出装置における各処理は、コンピュータに実行させることも可能であり、その場合に、各処理は、コンピュータ内のハードディスクなどに格納されるプログラムを、コンピュータが実行することにより行われる。このプログラムは、CD−ROM、あるいは、ネットワークを介したダウンロードにより供給される。
以上、本発明者によってなされた発明を、前記実施例に基づき具体的に説明したが、本発明は、前記実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
以上、本発明者によってなされた発明を、前記実施例に基づき具体的に説明したが、本発明は、前記実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
60 撮像された手指
70、230 背景
140 加算2値化色ヒストグラム
160 加算削ぎ落とし色ヒストグラム
200 第1のカメラ
210 第2のカメラ
220 第1の指先位置検出手段
221 指軸検出用テンプレート作成手段
222 手領域検証用テンプレート作成手段
223 第2の指先位置検出手段
224 三次元指先位置推定手段
239 検出領域
240 指軸
241 指先
260 指領域
300、440 手指領域
340 テンプレート作成用マスク領域
341 有効手領域
70、230 背景
140 加算2値化色ヒストグラム
160 加算削ぎ落とし色ヒストグラム
200 第1のカメラ
210 第2のカメラ
220 第1の指先位置検出手段
221 指軸検出用テンプレート作成手段
222 手領域検証用テンプレート作成手段
223 第2の指先位置検出手段
224 三次元指先位置推定手段
239 検出領域
240 指軸
241 指先
260 指領域
300、440 手指領域
340 テンプレート作成用マスク領域
341 有効手領域
Claims (6)
- 第1のカメラで第1の方向から操作者の手指を撮影した第1の画像と、第2のカメラで前記第1の方向とは異なる第2の方向から操作者の手指を撮影した第2の画像とから、画像処理によって操作者の指先の三次元位置を検出する三次元指先位置検出装置であって、
前記第1の画像から、操作者の指先位置を検出する第1の指先位置検出手段と、
前記第2の画像から、探索領域を前記第1の指先位置に対応するエピポーラ線に限定して、前記操作者の指軸の位置姿勢を検出した後に、前記操作者の指軸と前記エピポーラ線との交点を、前記操作者の指先位置である第2の指先位置として検出する第2の指先位置検出手段と、
前記第1の指先位置検出手段によって検出された第1の指先位置と前記第2の指先位置検出手段によって検出された第2の指先位置とに基づいて、前記操作者の指先の三次元位置を推定する三次元指先位置推定手段と
を備えることを特徴とする三次元指先位置検出装置。 - 前記第2の指先位置検出手段は、
前記操作者の指軸候補位置に対して、複数の指軸候補を予め登録した指軸検出用テンプレート群を適用することにより、その指類似度が最大となる指軸候補位置およびテンプレートに対応する姿勢を以って指軸の位置姿勢と推定することを特徴とする請求項1に記載の三次元指先位置検出装置。 - 前記第2の指先位置検出手段は、
類似度が所定値より大きい指軸候補位置が複数検出された場合には、
同複数の指軸上の所定の区間の各位置に対して、複数の手領域候補を予め登録した手領域検証用テンプレート群を適用し、その手領域類似度が最大となる指軸候補を以って指軸の位置姿勢と推定することを特徴とする請求項2に記載の三次元指先位置検出装置。 - 前記第1の指先位置検出手段は、
複数の操作者の手指を撮像した複数の第1の画像から、色ヒストグラムの分布領域を表す2値化モデルを生成する2値化モデル生成手段と、
前記色ヒストグラムの主要部分の分布を表すテンプレートを作成するテンプレート作成手段と、
入力された対象画像のヒストグラムの分布における、前記テンプレート作成手段によって作成されたテンプレートが最も類似する位置に、前記2値化モデル生成手段によって生成された2値化モデルを配置することによって、前記操作者の手指における色分布を推定する色分布推定手段とを備え、
前記推定された色分布によって前記操作者の指先位置を検出することを特徴とする請求項1ないし3のいずれかに記載の三次元指先位置検出装置。 - 第1のカメラで第1の方向から操作者の手指を撮影した第1の画像と、第2のカメラで前記第1の方向とは異なる第2の方向から操作者の手指を撮影した第2の画像とから、画像処理によって操作者の指先の三次元位置を検出する三次元指先位置検出方法であって、
前記第1の画像から、操作者の指先位置を検出する第1の指先位置検出ステップと、
前記第2の画像から、探索領域を前記第1の指先位置に対応するエピポーラ線に限定して、前記操作者の指軸の位置姿勢を検出した後に、前記操作者の指軸と前記エピポーラ線との交点を、前記操作者の指先位置である第2の指先位置として検出する第2の指先位置検出ステップと、
前記第1の指先位置検出手段によって検出された第1の指先位置と前記第2の指先位置検出手段によって検出された第2の指先位置とに基づいて、前記操作者の指先の三次元位置を推定する三次元指先位置推定ステップと
を含むことを特徴とする三次元指先位置検出方法。 - 第1のカメラで第1の方向から操作者の手指を撮影した第1の画像と、第2のカメラで前記第1の方向とは異なる第2の方向から操作者の手指を撮影した第2の画像とから、画像処理によって操作者の指先の三次元位置を検出する三次元指先位置検出装置のコンピュータに、
前記第1の画像から、操作者の指先位置を検出する第1の指先位置検出ステップと、
前記第2の画像から、探索領域を前記第1の指先位置に対応するエピポーラ線に限定して、前記操作者の指軸の位置姿勢を検出した後に、前記操作者の指軸と前記エピポーラ線との交点を、前記操作者の指先位置である第2の指先位置として検出する第2の指先位置検出ステップと、
前記第1の指先位置検出手段によって検出された第1の指先位置と前記第2の指先位置検出手段によって検出された第2の指先位置とに基づいて、前記操作者の指先の三次元位置を推定する三次元指先位置推定ステップと
を実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010140977A JP2012003724A (ja) | 2010-06-21 | 2010-06-21 | 三次元指先位置検出方法、三次元指先位置検出装置、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010140977A JP2012003724A (ja) | 2010-06-21 | 2010-06-21 | 三次元指先位置検出方法、三次元指先位置検出装置、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012003724A true JP2012003724A (ja) | 2012-01-05 |
Family
ID=45535585
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010140977A Pending JP2012003724A (ja) | 2010-06-21 | 2010-06-21 | 三次元指先位置検出方法、三次元指先位置検出装置、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012003724A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015520471A (ja) * | 2012-06-20 | 2015-07-16 | アマゾン・テクノロジーズ、インコーポレイテッド | ジェスチャー入力のための指先の場所特定 |
WO2015104919A1 (ja) * | 2014-01-10 | 2015-07-16 | コニカミノルタ株式会社 | ジェスチャー認識装置、操作入力装置およびジェスチャー認識方法 |
US9400575B1 (en) | 2012-06-20 | 2016-07-26 | Amazon Technologies, Inc. | Finger detection for element selection |
JP2016186670A (ja) * | 2015-03-27 | 2016-10-27 | セイコーエプソン株式会社 | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム |
-
2010
- 2010-06-21 JP JP2010140977A patent/JP2012003724A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015520471A (ja) * | 2012-06-20 | 2015-07-16 | アマゾン・テクノロジーズ、インコーポレイテッド | ジェスチャー入力のための指先の場所特定 |
US9400575B1 (en) | 2012-06-20 | 2016-07-26 | Amazon Technologies, Inc. | Finger detection for element selection |
WO2015104919A1 (ja) * | 2014-01-10 | 2015-07-16 | コニカミノルタ株式会社 | ジェスチャー認識装置、操作入力装置およびジェスチャー認識方法 |
JP2016186670A (ja) * | 2015-03-27 | 2016-10-27 | セイコーエプソン株式会社 | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI499966B (zh) | 互動式操作方法 | |
Kulshreshth et al. | Poster: Real-time markerless kinect based finger tracking and hand gesture recognition for HCI | |
CN105849673A (zh) | 基于自然三维手势的人机导览方法 | |
US20120163661A1 (en) | Apparatus and method for recognizing multi-user interactions | |
Wu et al. | Robust fingertip detection in a complex environment | |
KR20100138602A (ko) | 실시간으로 피사체의 손을 검출하기 위한 장치 및 방법 | |
WO2015149712A1 (zh) | 一种指向交互方法、装置及系统 | |
JP6066093B2 (ja) | 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム | |
JP2014165660A (ja) | バーチャルキーボードの入力方法、プログラム、記憶媒体、及びバーチャルキーボードシステム | |
Tang et al. | GrabAR: Occlusion-aware grabbing virtual objects in AR | |
KR102052449B1 (ko) | 가상 마우스 시스템 및 그 제어 방법 | |
Raheja et al. | Hand gesture pointing location detection | |
CN105261038B (zh) | 基于双向光流和感知哈希的指尖跟踪方法 | |
Chu et al. | Hand gesture for taking self portrait | |
US20160140762A1 (en) | Image processing device and image processing method | |
JP2012003724A (ja) | 三次元指先位置検出方法、三次元指先位置検出装置、及びプログラム | |
KR101167784B1 (ko) | 단말기의 후면부 손가락 움직임에 따른 포인터 인식 방법 및 제어 명령어 인식 방법 | |
JP5416489B2 (ja) | 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム | |
JP2011191870A (ja) | 情報端末装置 | |
JP6350331B2 (ja) | 追尾装置、追尾方法及び追尾プログラム | |
JPH08279044A (ja) | パターン認識装置およびジェスチャ認識装置 | |
Xie et al. | Hand posture recognition using kinect | |
Shu et al. | The finger-based interactive projection using a monocular camera | |
Madaras et al. | Position estimation and calibration of inertial motion capture systems using single camera | |
Puttapirat et al. | Hand posture estimation from 2D image sequence by hand landmark identification |