Nothing Special   »   [go: up one dir, main page]

JP5727969B2 - 位置推定装置、方法、及びプログラム - Google Patents

位置推定装置、方法、及びプログラム Download PDF

Info

Publication number
JP5727969B2
JP5727969B2 JP2012136408A JP2012136408A JP5727969B2 JP 5727969 B2 JP5727969 B2 JP 5727969B2 JP 2012136408 A JP2012136408 A JP 2012136408A JP 2012136408 A JP2012136408 A JP 2012136408A JP 5727969 B2 JP5727969 B2 JP 5727969B2
Authority
JP
Japan
Prior art keywords
data
person
actual size
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012136408A
Other languages
English (en)
Other versions
JP2014002489A (ja
Inventor
隆介 平井
隆介 平井
賢一 下山
賢一 下山
三田 雄志
雄志 三田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012136408A priority Critical patent/JP5727969B2/ja
Priority to US13/724,346 priority patent/US9064310B2/en
Publication of JP2014002489A publication Critical patent/JP2014002489A/ja
Application granted granted Critical
Publication of JP5727969B2 publication Critical patent/JP5727969B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明の実施形態は、位置推定装置、方法、及びプログラムに関する。
人物を可視光カメラで撮影した画像と、距離センサで測定した当該人物までの距離とに基づいて、実空間上での当該人物の3次元位置を推定する位置推定装置がある。
このような位置推定装置には、撮影した画像における人物の顔領域を検出し、当該顔領域に対応する方向を距離センサでセンシングして当該人物までの距離を測定することにより、当該人物の3次元位置を推定しようとするものがある。
しかしながら、距離センサで測定可能な範囲は限られているため、人物の位置によっては、当該人物の3次元位置を精度良く推定することができない。
一方、人物を2つの可視光カメラ(ステレオカメラ)で撮影した画像から、実空間上での当該人物の3次元位置を推定する位置推定装置がある。
このような位置推定装置には、撮影した各画像における人物の顔領域の位置に基づき、三角測量によって当該人物の3次元位置を推定しようとするものがある。
しかしながら、人物の位置によっては、一方のカメラにしか当該人物が写らない場合があり、当該人物の3次元位置を精度良く推定することができない。
特開2011−217229号公報
Paul Viola and Michael Jones,"Rapid Object Detection using a Boosted Cascade of Simple Features"IEEE conf. on Computer Vision and Patern Recognition(CVPR 2001)
発明が解決しようとする課題は、対象物の3次元位置を精度良く推定することができる位置推定装置、方法、及びプログラムを提供することである。
上記課題を解決するために、本発明の一の実施形態に係る位置推定装置は、第1取得部と、第2取得部と、第1算出部と、第2算出部と、推定部とを備える。
第1取得部は、対象物が撮影された第1画像上での前記対象物のサイズと、前記第1画像上での前記対象物の位置とに関する第1データを取得する。第2取得部は、(1)前記対象物までの距離、又は(2)前記対象物が撮影された第2画像上での前記対象物の位置、に関する第2データを取得する。第1算出部は、前記第1データから推定される前記対象物の第1実サイズと、前記第2データから推定される前記対象物の第2実サイズとに対する重みを、前記第1データと前記第2データとに基づいて算出する。第2算出部は、前記第1実サイズと前記第2実サイズと前記重みとを用いて、前記対象物の第3実サイズを算出する。推定部は、前記第3実サイズから、前記対象物の3次元位置を推定する。
第1の実施形態に係る位置推定装置1の利用形態を表す一例図。 位置推定装置1を表すブロック図。 位置推定装置1の処理を表すフローチャート。 第1取得部11の処理を表すフローチャート。 人物領域の一例図。 第2取得部12の処理を表すフローチャート。 可視光カメラ101と人物との位置関係、及び人物のサイズについての説明図。 第2算出部14の処理を表すフローチャート。 第2の実施形態に係る位置推定装置2の利用形態を表す一例図。 第2の実施形態における第2取得部12の処理を表すフローチャート。 位置推定装置3を表すブロック図。 位置推定装置4を表すブロック図。
以下、本発明の実施形態について図面を参照して詳細に説明する。
本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
(第1の実施形態)
第1の実施形態に係る位置推定装置1は、専用メガネ無しで立体画像を観察可能なTV(テレビ)、PC(Personal Computer)、医用モニタ、スマートフォン、デジタルフォトフレーム等の立体画像表示装置や、デジタルカメラ等に用いられ得る。
図1に示すように、位置推定装置1は、可視光カメラ101と距離センサ102とを用いて、人物の3次元位置を推定するものである。例えば、位置推定装置1が立体画像表示装置10に用いられる場合、立体画像表示装置10は、推定された人物(観察者)の3次元位置に基づいて、観察者が立体画像を観察可能な視域を制御することができる。
また、例えば、位置推定装置1がデジタルカメラ(不図示)に用いられる場合、デジタルカメラは、推定された人物(被写体)の位置に基づいて、レンズのフォーカスを制御することができる。
位置推定装置1は、可視光カメラ101によって人物を撮影した画像上での、当該人物の顔領域のサイズに関する第1データを求める。位置推定装置1は、距離センサ102を用いて、可視光カメラ101から当該人物までの距離に関する第2データを求める。位置推定装置1は、第1データと第2データとに基づいて、当該人物の実際のサイズ(実サイズ)を算出し、当該実サイズから当該人物の3次元位置を推定する。
図2は、位置推定装置1を表すブロック図である。位置推定装置1は、第1取得部11と、第2取得部12と、第1算出部13と、第2算出部14と、推定部15とを備える。
第1取得部11は、可視光カメラ101で撮影した第1画像から、人物が写っている領域(人物領域)を検出し、当該人物領域のサイズ及び位置に関する第1データを取得する。人物領域は、人物全体の領域に限られず、人物の一部の領域(例えば、顔領域)であっても構わない。本実施形態では、人物領域は、顔領域であるとして説明する。第1画像は、可視光カメラ101が撮影した動画のフレームであってよい。第1取得部11は、第1データを、第1算出部13と、第2算出部14と、推定部15とに供給する。
第2取得部12は、距離センサ102のセンシング情報から、当該人物までの距離に関する第2データを取得する。すなわち、本実施形態における第2データは、可視光カメラ101から当該人物までの距離に関するものである。第2取得部12は、第2データを、第1算出部13と、第2算出部14とに供給する。
第1算出部13は、第1データから推定される人物の第1実サイズと、第2データから推定される第2実サイズとに対する重みを、第1データと第2データとに基づいて算出する。第1算出部13は、算出した重みを第2算出部14に供給する。第1実サイズ、第2実サイズ、第3実サイズについては後に詳述する。
第2算出部14は、第1実サイズと第2実サイズと重みとに基づいて、より精度の高い人物の第3実サイズを算出する。第2算出部14は、第3実サイズを推定部15に供給する。第2算出部14は、第3実サイズを記憶部51に書き込む。記憶部51に書き込まれた第3実サイズは、第1取得部11が、次の時刻以降の第1データを取得する際に用いられる(後述する)。
推定部15は、当該人物の実サイズと第1データとから、当該人物の3次元位置を推定する。推定部15は、推定した3次元位置を出力部16に供給する。
出力部16は、推定した3次元位置を、例えば立体画像表示装置やデジタルカメラ等に出力する。
第1取得部11と、第2取得部12と、第1算出部13と、第2算出部14と、推定部15と、出力部16とは、中央演算処理装置(CPU)、及びCPUが用いるメモリにより実現されてよい。
以上、位置推定装置1の構成について説明した。
図3は、位置推定装置1の処理を表すフローチャートである。第1取得部11は、第1データを取得する(S101)。第2取得部12は、第2データを取得する(S102)。第1算出部13は、第1データから推定される人物の第1実サイズと、第2データから推定される第2実サイズとに対する重みを、第1データと第2データとに基づいて算出する(S103)。第2算出部14は、第1実サイズと第2実サイズと重みとに基づいて、より精度の高い人物の第3実サイズを算出する(S104)。推定部15は、当該人物の実サイズと第1データとから、当該人物の3次元位置を推定する(S105)。出力部16は、推定した3次元位置を出力する(S106)。
以上、位置推定装置1の処理について説明した。
以下、本実施形態の各構成ブロックについて説明する。
図4は、第1取得部11の処理を表すフローチャートである。ステップS201において、第1取得部11は、取得した第1画像中で人物領域(人物の顔領域)を検出する(S201)。例えば、第1取得部11は、第1画像上で、人物領域を検出するための探索窓を走査し、当該探索窓内に含まれる画像に対して複数の矩形特徴を求める。第1取得部11は、各々の矩形特徴に対する弱識別器を直列につないだ強識別器(不図示)によって、当該探索窓内に人物領域が含まれているか否かを判定してよい。この方法は、例えば非特許文献1に開示されている。
なお、本実施形態で上記の人物領域の検出方法を用いる場合、当該検出を行なう各機能部(詳細後述)に、パターン識別器(不図示)を備えた構成とすればよい。パターン識別器は、複数の弱識別器を直列に接続したカスケード構造の識別器であって、非特許文献1に開示されたカスケード型AdaBoostベース識別器である。
具体的には、パターン識別器は、第1画像に対して、カスケードの各段の弱識別器で顔であるか否かを判定し、顔であると判定された画像のみを次段の弱識別器へ供給する。そして、最後の弱識別器で顔であると判定された画像を、最終的に人物領域を含む画像であると判定する。
カスケードの各段を構成する強識別器は、複数の弱識別器を直列につないだ構成である。各弱識別器では、探索窓内の画像に対して求めた矩形特徴を用いて、当該探索窓内に人物領域が存在するか否かを判定する。
ここで、探索窓の画像内における2次元座標の位置ベクトルをxとすると、位置ベクトルxにおいての、弱識別器nの出力は、式1により表される。
Figure 0005727969
式1中、h(x)は弱識別器nの出力を示し、f(x)は弱識別器nの判定関数を示す。また、pは不等号の等号の向きを定めるために、1あるいは−1となる数を示し、θは各弱識別器nに対して予め定められている閾値を示す。例えばθは、識別器作成の際の学習において設定される。
また、N個の弱識別器を直列につないだ構成の強識別器の出力は、式2によって表される。
Figure 0005727969
式2中、H(x)は、N個の弱識別器を直列につないだ構成の強識別器の出力を示す。また、式2中、αは予め定められている弱識別器nの重みを示し、hは式1で表した弱識別器nの出力を示す。例えばαは、識別器作成の際の学習において設定される。
なお、パターン識別器を通過した画像について、式3により、顔らしさを表す尤度l(x)を算出する。
Figure 0005727969
式3中、aは、識別器作成の際の学習において生成される重みを表す定数である。また、式3中、H(x)は、強識別器の出力を示す。
なお、人物は必ずしも一定の方向から撮影されるわけではない。例えば、横方向や斜め方向から撮影される場合もあり得る。このような場合には、人物の横顔を検出するためのパターン識別器を用いればよい。あるいは、人物の1つないし複数の姿勢の各々に対応するパターン識別器を用いてもよい。
すなわち、ステップS201において、第1取得部11は、所定のサイズの探索窓を用いて、取得した第1画像全体を走査し、各走査位置において、探索窓内に含まれる画像に人物領域が含まれるか否かを、上述のようなパターン識別器により判定する。このとき、第1取得部11は、異なるサイズの複数の探索窓を用いて、第1画像を走査する。各々の探索窓サイズの情報は予め設定され、第1取得部11が保持していてよい。
第1取得部11は、第1画像内の、各探索窓サイズで走査した各走査位置ベクトルxにおける強識別器の出力値H(x)から、各探索窓サイズ及び各走査位置ベクトルxにおける尤度l(x)を求める。当該強識別器の出力値H(x)は式2を用いて算出する。各探索窓サイズ及び各走査位置ベクトルxにおける尤度l(x)は、式3を用いて算出する。
さらに、第1取得部11は、最も尤度l(x)の高い走査位置ベクトルxの探索窓サイズの探索窓内の中心位置を、第1画像における人物領域の位置(2次元位置)として検出する。
ステップS202において、第1取得部11は、検出した人物領域に対して第1データを求める(S202)。第1データは、第1画像上で検出された人物領域の2次元位置及びサイズと、人物領域らしさを表す尤度と、人物の第1実サイズ(後述)とを含む。第1取得部11は、時刻ごとの第1画像について、第1データを求める。ここで、時刻tにおける、人物kが撮影された第1画像の第1データを表すベクトルS (t)を式4で表すこととする。
Figure 0005727969
図5は、人物領域の一例図である。可視光カメラ101によって撮影した第1画像の左上を原点とし、水平方向にx軸、垂直方向にy軸を設定する。この場合、図5における人物領域1の2次元位置は、人物領域1の中心点(x (t),y (t))と表され、人物領域1のサイズは、w (t)と表される。また、人物領域2の2次元位置は、人物領域2の中心点(x (t),y (t))と表され、人物領域2のサイズは、w (t)と表される。
(t)は、人物の第1実サイズを表す。第1実サイズW (t)は、人物領域のサイズw (t)に対応する平均的な実サイズとして、予め設定されていてよい。この場合、第1取得部11は、第1実サイズW (t)を予め保持しておく。第1取得部11は、このようにして求めた時刻ごとの第1データを保持しておく。
ステップS203において、第1取得部11は、現在の第1画像に対して求めた第1データと、過去の第1画像(例えば直前の時刻の第1画像)に対して求めた第1データとを比較し、各々が対応する人物が同一の人物であるか否かを判定する(S203)。このとき、第1取得部11は、記憶部51から、過去の時刻の第1データを読み出す。
例えば、第1取得部11は、過去の第1データに対応する人物領域と、現在の第1データに対応する人物領域との重なり度合いによって、それらが同一の人物であるか否かを判定する。この場合、人物領域どうしの重なり合う面積の比率が一定以上(例えば75%以上)であれば同一の人物であると判定してよい。
同一の人物である場合(S203:YES)、ステップS204において、第1取得部11は、現在求めた第1実サイズを、当該過去に求めた第3実サイズ(後述)に置換する(S204)。例えば、第1取得部11は、式5にように、現在求めた第1実サイズW (t)に直前の時刻の第3実サイズW (t−1)を代入してよい。
Figure 0005727969
同一の人物でない場合(S203:NO)、ステップS205において、第1取得部11は、現在求めた第1実サイズW (t)を、そのまま第1データに用いる(S205)。
以上、第1取得部の処理について説明した。
図6は、第2取得部12の処理を表すフローチャートである。ステップS301において、第2取得部12は、距離センサ102のセンシング情報に基づき、可視光カメラ101で撮影された第1画像に含まれる少なくとも1つの画素毎に、当該画素に対応する被写体と、可視光カメラ101との距離を測定する(S301)。第1画像の画素に対応する被写体の方向については、既知であるものとする。
図5に示す座標において、時刻tでの位置(x,y)の画素に対応する物体までの距離をd(t)(x,y)と表す。したがって、本実施形態における第2データは、距離d(t)(x,y)を含む。
第2取得部12は、第1画像の全画素について、距離d(t)(x,y)を測定したか否かを判定する(S302)。全画素について測定が終了していない場合は(S302:NO)、ステップS301に遷移し、まだ測定を終了していない画素について、距離d(t)(x,y)を測定する。全画素について測定が終了した場合は(S302:YES)、処理を終了する。
なお、距離センサ102は、全ての画素に対応する物体までの距離を測定できないものであってもよく、距離を測定できなかった位置(x、y)における画素に対応する物体までの距離は、測定不能であることを示す値(例えば、NULL)とすればよい(すなわち、d(t)(x,y)=NULL)。
以上、第2取得部12について説明した。
第1算出部13は、第1データと第2データとを取得し、第1画像での人物領域に対応する距離d(t)(x,y)に基づいて、第1データから推定される人物の第1実サイズと、第2データから推定される人物の第2の実サイズに対する重みであって、当該人物についてより精度の高い第3実サイズを算出するための当該重みを算出する。本実施形態における第1算出部13は、第2データの信頼度に応じて、当該重みを算出する。すなわち、第2データの信頼度が小さいほど、第1実サイズに対する重みを相対的に大きくする。ここでは、第2実サイズに対する重みλ (t)の算出方法について説明する。
本実施形態の重みλ (t)は、0〜1の実数で表現され、第2データでの人物kの人物領域に関する距離d(t)(x,y)がNULLでない画素(x,y)が多い場合ほど(第2データの測定が可能である画素(x,y)が多いほど)、1に近くなるものとする。例えば、重みλ (t)は、式6により表されてよい。
Figure 0005727969
ここで、Ωは、第1画像において人物kの人物領域に含まれる画素の座標を表している。Nは、集合Ωに含まれる画素の数を表す。関数If(a≠b)は、aとbとが異なる値であれば1を、そうでなければ0とする関数である。th1は、0≦th1≦1の範囲の実数であり、取得可能な第2データが多いほど、大きくなる値とする。
すなわち、本例での信頼度とは、第2データの測定が可能である画素の個数が、人物kの人物領域において一定数に達すれば1となる。
以上、第1算出部13の処理について説明した。
第2算出部14は、第1データと第2データと重みλ (t)とを取得し、第1データから推定される第1実サイズW (t)と、第2データから推定される第2実サイズW^ (t)と、重みλ (t)とを用いて、第3実サイズを算出する。
図7は、可視光カメラ101と人物との位置関係、及び人物のサイズについての説明図である。図7では、xz平面上において、可視光カメラ101人物kの幾何的関係を示している。本例では、点Oに可視光カメラ101を配置する。可視光カメラ101のX軸方向の画角をθx、第1画像のz軸方向の焦点位置をFとし、人物kのz軸方向の位置をZとする。第1データに含まれる人物kの人物領域のサイズw (t)をAA’とし、人物kの実サイズをBB’とし、可視光カメラ101から人物kまでの距離をOZとする。
ここで、可視光カメラ101で撮影された第1画像の水平解像度をIwとすると、距離OFは式7により表すことができる。
Figure 0005727969
すなわち、このOFは、カメラの仕様によって定まる定数である。
AA’と、BB’と、OFと、OZとは、AA’:BB’=OF:OZの関係がある。この関係を、第1データに基づいて表すと、式8のようになる。
Figure 0005727969
ここでZ (t)=OZである。
図8は、第2算出部14の処理を表すフローチャートである。ステップS401において、第2算出部14は、第1データと第2データとに基づいて、可視光カメラ101から人物kまでの実距離Z^ (t)を算出する(S401)。
例えば、第2算出部14は、式9により実距離Z^ (t)を算出してもよい(「^」はハットを表す)。
Figure 0005727969
ここで、Ωは、第1画像においてd(t)(x,y)≠NULLである人物kの人物領域の画素の集合を表し、Nは、集合Ωに含まれる画素数を表す。
あるいは、第2算出部14は、Ωに含まれるd(t)(x,y)の中間値や平均値を実距離Z^ (t)として算出してもよい。あるいは、第2算出部14は、式10のように、第2データの距離に関する情報が、第1データの人物領域の中心に近いほど、大きい重みを付ける加重平均により実距離Z^ (t)を算出してもよい。
Figure 0005727969
ここで、σは、人物kの人物領域のサイズによって変化する変数であり、第1データに含まれるw(t)を2で除したものとする。
ステップS402において、第2算出部14は、第1データと実距離Z^ (t)とから、人物kの第2実サイズW^ (t)を算出する(S402)。例えば、第2算出部14は、式(11)により、第2実サイズW^ (t)を算出してもよい。
Figure 0005727969
ステップS403において、第2算出部14は、第1実サイズW (t)と、第2実サイズW^ (t)と、重みλ (t)とから、より精度の高い人物の第3実サイズを算出する(S403)。例えば、第2算出部14は、式12により、第3実サイズを算出してもよい。第2算出部14は、第3実サイズを記憶部51に書き込む。
Figure 0005727969
ここで、式12の左辺が、第3実サイズである。
推定部15は、第1データと第3実サイズとから、可視光カメラ101に対する人物kの3次元位置を推定する。人物kのZ軸方向の位置Z (t)については、式(8)によって求められる。また、X軸方向についての位置をX (t)、Y軸方向についての位置をY (t)とすると、推定部15は、式13により、X (t)とY (t)とを求めてよい。
Figure 0005727969
本実施形態では、人物を対象物の例として説明したが、これに限られない。例えば、動物や車等、第1画像から検出可能なものであれば、いかなるものであっても構わない。
上述したように、本実施形態によれば、対象物の3次元位置を精度良く推定することができる。
一般的に距離センサ102には、当該人物までの距離を測定することが可能な範囲がある。例えば、距離センサ102と当該人物とが一定距離より近い場合、距離センサ102は、当該人物までの距離を求めることができない。本実施形態の位置推定装置1は、過去に求めた当該人物の実サイズと、現在求めた第1データとを用いて、当該人物の3次元位置を推定することができる。このため、距離センサ102による正確な距離測定が行なえない場合であっても、人物の3次元位置を精度良く推定することができる。
(変形例1)
本実施形態における重みλ (t)は、式14により算出してもよい。
Figure 0005727969
Ωは、第1画像においてd(t)(x,y)≠NULLである人物kの人物領域の画素の集合を表している。ここで、σは、人物kの人物領域サイズによって変化する変数であり、第1データに含まれるw (t)を2で除したものとする。th2は、予め定められた0≦th2≦1の範囲の実数である。
あるいは、本実施形態における重みλ (t)は、式15により算出してもよい。
Figure 0005727969
変数等については、式(14)と同様である。
(第2の実施形態)
図9に示すように、第2の実施形態における位置推定装置2は、距離センサ102の代わりに、可視光カメラ201を用いて、人物までの距離に関する第2データを取得する点が、第1の実施形態の場合と異なる。すなわち、本実施形態の位置推定装置2は、可視光カメラ101及び可視光カメラ201を用いたステレオカメラにより、人物の3次元位置を推定する。可視光カメラ201は、可視光カメラ101とのエピポーラ幾何が既知であるものとする。エピポーラ幾何は、一般的なステレオカメラの校正方法によって求めることができる。
位置推定装置2を表すブロック図は、位置推定装置1と同様のため省略する。位置推定装置2では、第2取得部12の処理と、第1算出部13の処理と、第2算出部14の処理とが、位置推定装置1の場合と主に異なる。
図10は、本実施形態における第2取得部12の処理を表すフローチャートである。ステップS501において、第2取得部12は、可視光カメラ201が撮影した第2画像中で人物領域を検出する(S501)。検出の方法は、第1取得部11と同様であってよい。
ステップS502において、第2取得部12は、第2データを求める(S502)。本実施形態の第2データは、第2画像に対して、第1取得部11と同様の探索法を用いて検出した人物領域の位置に関するものである。時刻tにおける、人物kの人物領域の第2データを表すベクトルs^ (t)を式16によりで表すとする。
Figure 0005727969
ここでの人物kは、式4に人物kと同じである。例えば、第2取得部12は、可視光カメラ101に写っている人物と、可視光カメラ201に写っている人物とが同じであるか否かを、例えば、第1画像における人物領域の画素値と、第2画像における人物領域の画素値との類似度により判定してよい。
第1算出部13は、式17を用いて、第2データに対する重みλ (t)を算出してよい。
Figure 0005727969
すなわち、第2画像の人物kの第2データに含まれる尤度が高ければ高いほど、第2データに対する重みλ (t)が高くなる。あるいは、第1算出部13は、式18を用いて、第2データに対する重みλ (t)を算出してよい。
Figure 0005727969
ここで、th3は、0〜1の間の実数である。
なお、人物kが可視光カメラ201の死角に存在していた場合等、上述した探索方法で人物kが検出されなかった場合には、第1算出部13は、第2データに対する重みλ (t)を0にしてよい。
第2算出部14は、第1データに含まれる人物kの人物領域の2次元位置と、第2データに含まれる人物kの人物領域の2次元位置とから、三角測量により人物kまでの実距離Z^ (t)を算出する。第2算出部14は、第1データと実距離Z^ (t)とから、人物kの第2実サイズW^ (t)を算出する。第2算出部14は、第1実サイズW (t)と、第2実サイズW^ (t)と、重みλ (t)とから、より精度の高い人物kの第3実サイズを算出する。
例えば、第2算出部14は、以下に示す方法に従って、人物kの第3実サイズを算出して良い。
例えば、人物kの仮の3次元位置を式19で表すとする。
Figure 0005727969
第1画像上における人物kの位置ベクトルuk,1を式20で表す。
Figure 0005727969
第2画像上における人物kの位置ベクトルuk,2を式21で表す。
Figure 0005727969
人物kの実空間上における仮の3次元位置を、式22のように同次座標系で表現する。
Figure 0005727969
上記式中の「T」は転置を表す。これにより、式23及び式24の関係式が得られる。
Figure 0005727969
Figure 0005727969
式(23)中のαは、可視光カメラ101の撮像時のカメラスケールを示す。式(24)中のβは、可視光カメラ201の撮像時のカメラスケールを示す。また、式(23)中のPは、実空間(3次元座標系)上の点から第1画像への射影行列を示す。また、式(23)中のQは、実空間(3次元座標系)上の点から第2画像への射影行列を示す。なお、これらの射影行列は、事前に可視光カメラ101と可視光カメラ201とのキャリブレーションを行なう事で得られ、第2算出部14が予め保持しておいてよい。
そして、上記式(23)及び式(24)から式(25)の連立方程式が得られる。
Figure 0005727969
第2算出部14は、式(25)の左辺の行列の擬似逆行列を、最小二乗法によって求めることで、人物kの仮の3次元位置を算出する。
この人物kの仮の3次元位置のz座標が、本実施形態における実距離Z^k(t)である。
そして、第2算出部14は、第1の実施形態の場合と同様にして、第1データと実距離Z^k(t)とから、人物kの第2実サイズW^k(t)を算出する。第2算出部14は、第1実サイズWk(t)と、第2実サイズW^k(t)と、重みλk(t)とから、第3実サイズを算出する。
本実施形態によれば、ステレオカメラを用いた場合であっても、対象物の3次元位置を精度良く推定することができる。
(第3の実施形態)
一般的に、可視光カメラを用いて人物領域(例えば、顔領域)を検出する際には、画像に混入するノイズの影響や、画像のダイナミックレンジの低下(暗所で撮影されている場合)の影響を受け、検出される人物領域の位置に誤差が生じることがある。一方、赤外線は暗所においても影響がなく、安定した測定が可能である。
第3の実施形態に係る位置推定装置3は、人物を検出した際の人物領域の大きさに誤差があった場合、実距離Z^k(t)を用いて人物の3次元位置を修正する点が、上記実施形態の推定装置と異なる。
図11は、位置推定装置3を表すブロック図である。位置推定装置3は、位置推定装置1に対して、修正部31をさらに備える。また、推定部15は、推定した3次元位置を修正部31に供給する。
修正部31は、推定部15から人物kの3次元位置を取得し、第1算出部13から重みλ (t)を取得し、第1取得部11から第1データを取得し、第2算出部14から実距離Z^ (t)を取得し、人物kの3次元位置を修正する。例えば、修正部31は、式26により、人物kの3次元位置のz座標である実距離Z^ (t)を修正してよい。
Figure 0005727969
修正部31は、修正した実距離Z^ (t)を用いて、式27により、人物kの3次元位置のx座標とy座標とを修正してよい。
Figure 0005727969
OFは、式(7)に示した、可視光カメラの仕様によって定まる定数である。
本実施形態によれば、対象物の3次元位置をさらに精度良く推定することができる。
(第4の実施形態)
第4の実施形態に係る位置推定装置4は、第2取得部12が、第1データに含まれる人物の検出位置をさらに用いて、第2データを求める点が、上述の実施形態の場合と異なる。
図12は、位置推定装置4を表すブロック図である。位置推定装置1に対して、位置推定装置4の第1取得部11は、第1データを第2取得部12に供給する。
第2取得部12が距離センサを用いる場合には、人物領域の示す人物の方向に赤外線等のセンサプローブを照射して、人物領域内の距離の情報を得ることができる。
また、第2取得部12が可視光カメラ201を用いる場合には、第2取得部12が探索窓を用いて走査する範囲を、第1画像において第1取得部11が検出した人物領域を通るエピポーラ線上に限定することが可能である。
これにより、対象物の3次元位置を効率的に精度良く推定することができる。
(第5の実施形態)
第5の実施形態では、位置推定装置1が立体画像表示装置10に用いられる場合についてさらに説明する。立体画像表示装置10は、推定された人物の3次元位置に基づいて、観察者が立体画像を観察可能な視域を制御する。
立体画像表示装置10は、視域制御部(不図示)を備える。視域制御部(不図示)は、
位置推定装置1が推定した3次元位置を用いて、視域を制御する。
特殊なメガネを要さない立体画像表示装置10には、パララックスバリアやレンチキュラーレンズを表示パネルに対向して配置することで、視点の異なる複数の視点画像を立体画像として観察者に提示することができる。
立体画像表示装置10では、観察者の観察位置によっては、右目が観察する視点画像に対して、相対的に右側の視点画像を左目が観察してしまう逆視領域が存在するため、視域は限られてしまう。この視域は、立体画像装置10の設計値等によって定まる。
上記の場合、例えば、左目が観察する視点画像と、右目が観察する視点画像を入れ替えることで、視域を変更することが可能になる。
視域決定部(不図示)は、位置推定装置1が推定した3次元位置が視域内に含まれるように、視域を変更する。
これにより、位置推定装置1が立体画像表示装置10に用いられる場合、観察者は良好な立体画像を観察することができる。
なお、上述の位置推定装置は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることでも実現することが可能である。すなわち、第1取得部11、第2取得部12、第1算出部13、第2算出部14、推定部15、出力部16、修正部31は、上記のコンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、位置推定装置は、上記のプログラムをコンピュータ装置にあらかじめインストールすることで実現してもよいし、CD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータ装置に適宜インストールすることで実現してもよい。また、第1取得部11、第2取得部12、第1算出部13、第2算出部14、推定部15、出力部16、修正部31、記憶部51は、上記のコンピュータ装置に内蔵あるいは外付けされたメモリ、ハードディスクもしくはCD−R、CD−RW、DVD−RAM、DVD−Rなどの記憶媒体などを適宜利用して実現することができる。
これまで、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1,3,4 位置推定装置
11 第1取得部
12 第2取得部
13 第1算出部
14 第2算出部
15 推定部
16 出力部
31 修正部
51 記憶部

Claims (8)

  1. 対象物が撮影された第1画像上での前記対象物のサイズと、前記第1画像上での前記対象物の位置とに関する第1データを取得する第1取得部と、
    (1)前記対象物までの距離、又は(2)前記対象物が撮影された第2画像上での前記対象物の位置、に関する第2データを取得する第2取得部と、
    前記第1データから推定される前記対象物の第1実サイズと、前記第2データから推定される前記対象物の第2実サイズとに対する重みを、前記第1データと前記第2データとに基づいて算出する第1算出部と、
    前記第1実サイズと前記第2実サイズと前記重みとを用いて、前記対象物の第3実サイズを算出する第2算出部と、
    前記第3実サイズから、前記対象物の3次元位置を推定する推定部と
    を備える、位置推定装置。
  2. 前記第1算出部は、前記第2データの信頼度に応じて前記重みを算出する、
    請求項1記載の位置推定装置。
  3. 前記第2取得部は、前記第1画像の画素毎、又は前記第2画像の画素毎に、前記第2データを取得し、
    前記第1算出部は、前記第2データを取得することが可能な画素が少ない程、前記第1データに対する重みを相対的に大きくする、
    請求項2記載の位置推定装置。
  4. 第1時刻および第2時刻それぞれにおける前記第1データを記憶する記憶部をさらに備え、
    第1の時刻において前記第1データを示す対象物と第2の時刻において前記第1データを示す対象物が同一である場合に、前記2算出部は、過去時刻の前記第3実サイズをさらに用いて、現在時刻の前記第1実サイズを算出する、
    請求項1〜3記載の位置推定装置。
  5. 前記第2取得部は、前記第1データを用いて、前記第2データを算出する、
    請求項1記載の位置推定装置。
  6. 前記重みに応じて、推定された前記対象物の3次元位置を修正する修正部をさらに備える、
    請求項1記載の位置推定装置。
  7. 対象物が撮影された第1画像上での前記対象物のサイズと、前記第1画像上での前記対象物の位置とに関する第1データを取得し、
    (1)前記対象物までの距離、又は(2)前記対象物が撮影された第2画像上での前記対象物の位置、に関する第2データを取得し、
    前記第1データから推定される前記対象物の第1実サイズと、前記第2データから推定される前記対象物の第2実サイズとに対する重みを、前記第1データと前記第2データとに基づいて算出し、
    前記第1実サイズと前記第2実サイズと前記重みとを用いて、前記対象物の第3実サイズを算出し、
    前記第3実サイズから、前記対象物の3次元位置を推定する、
    位置推定方法。
  8. コンピュータを、
    対象物が撮影された第1画像上での前記対象物のサイズと、前記第1画像上での前記対象物の位置とに関する第1データを取得する手段と、
    (1)前記対象物までの距離、又は(2)前記対象物が撮影された第2画像上での前記対象物の位置、に関する第2データを取得する手段と、
    前記第1データから推定される前記対象物の第1実サイズと、前記第2データから推定される前記対象物の第2実サイズとに対する重みを、前記第1データと前記第2データとに基づいて算出する手段と、
    前記第1実サイズと前記第2実サイズと前記重みとを用いて、前記対象物の第3実サイズを算出する手段と、
    前記第3実サイズから、前記対象物の3次元位置を推定する手段として機能させる、位置推定プログラム。
JP2012136408A 2012-06-15 2012-06-15 位置推定装置、方法、及びプログラム Expired - Fee Related JP5727969B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012136408A JP5727969B2 (ja) 2012-06-15 2012-06-15 位置推定装置、方法、及びプログラム
US13/724,346 US9064310B2 (en) 2012-06-15 2012-12-21 Position estimation device, position estimation method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012136408A JP5727969B2 (ja) 2012-06-15 2012-06-15 位置推定装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2014002489A JP2014002489A (ja) 2014-01-09
JP5727969B2 true JP5727969B2 (ja) 2015-06-03

Family

ID=49755956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012136408A Expired - Fee Related JP5727969B2 (ja) 2012-06-15 2012-06-15 位置推定装置、方法、及びプログラム

Country Status (2)

Country Link
US (1) US9064310B2 (ja)
JP (1) JP5727969B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104639934B (zh) * 2015-01-22 2017-11-21 深圳超多维光电子有限公司 立体图像反视处理方法及显示装置
JP7253441B2 (ja) * 2019-05-09 2023-04-06 東芝テック株式会社 追跡装置及び情報処理プログラム
JP7253440B2 (ja) * 2019-05-09 2023-04-06 東芝テック株式会社 追跡装置及び情報処理プログラム
US20220137626A1 (en) * 2020-11-04 2022-05-05 Canon Kabushiki Kaisha Apparatus, method, and non-transitory computer-readable storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2071515A1 (en) * 2007-12-11 2009-06-17 Honda Research Institute Europe GmbH Visually tracking an object in real world using 2D appearance and multicue depth estimations
DE102009049849B4 (de) * 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
JP2011217229A (ja) 2010-04-01 2011-10-27 Victor Co Of Japan Ltd 撮像装置および表示方法
KR101740231B1 (ko) * 2010-11-17 2017-05-26 삼성전자주식회사 3차원 얼굴 위치 추정 방법 및 장치
RU2012104001A (ru) 2010-11-22 2014-12-27 Кабусики Кайся Тосиба Устройство и способ отображения стереоскопических изображений

Also Published As

Publication number Publication date
JP2014002489A (ja) 2014-01-09
US9064310B2 (en) 2015-06-23
US20130336539A1 (en) 2013-12-19

Similar Documents

Publication Publication Date Title
JP5580164B2 (ja) 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
US9759548B2 (en) Image processing apparatus, projector and projector system including image processing apparatus, image processing method
KR101766603B1 (ko) 화상 처리 장치, 화상 처리 시스템, 화상 처리 방법, 및 컴퓨터 프로그램
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
TWI496108B (zh) AR image processing apparatus and method
JP5715735B2 (ja) 3次元測定方法、装置、及びシステム、並びに画像処理装置
JP5672112B2 (ja) ステレオ画像較正方法、ステレオ画像較正装置及びステレオ画像較正用コンピュータプログラム
JP5743859B2 (ja) 画像処理装置、方法、及び画像表示装置
CN107808398B (zh) 摄像头参数算出装置以及算出方法、程序、记录介质
JP2004340840A (ja) 距離測定装置、距離測定方法、及び距離測定プログラム
JP2015203652A (ja) 情報処理装置および情報処理方法
EP2887313B1 (en) Image processing apparatus, system, image processing method, and computer-readable recording medium
JP6566768B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
WO2011125937A1 (ja) キャリブレーションデータ選択装置、選択方法、及び選択プログラム、並びに三次元位置測定装置
KR101482645B1 (ko) Fov왜곡 보정 모델에 2d패턴을 적용한 왜곡중심 보정 방법
US20160292888A1 (en) Image measurement device, and recording medium
US20200250806A1 (en) Information processing apparatus, information processing method, and storage medium
JP5727969B2 (ja) 位置推定装置、方法、及びプログラム
US9355497B2 (en) Image processing system, image processing apparatus, and image processing method for combining CG image with captured image
US20210256729A1 (en) Methods and systems for determining calibration quality metrics for a multicamera imaging system
JP2016099759A (ja) 顔検出方法、顔検出装置、及び顔検出プログラム
JP2010217984A (ja) 像検出装置及び像検出方法
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JP6452361B2 (ja) 情報処理装置、情報処理方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140822

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150403

LAPS Cancellation because of no payment of annual fees