Nothing Special   »   [go: up one dir, main page]

JP5773944B2 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP5773944B2
JP5773944B2 JP2012116993A JP2012116993A JP5773944B2 JP 5773944 B2 JP5773944 B2 JP 5773944B2 JP 2012116993 A JP2012116993 A JP 2012116993A JP 2012116993 A JP2012116993 A JP 2012116993A JP 5773944 B2 JP5773944 B2 JP 5773944B2
Authority
JP
Japan
Prior art keywords
image
detection
detection surface
camera
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012116993A
Other languages
English (en)
Other versions
JP2013242812A (ja
Inventor
大場 章男
章男 大場
博之 勢川
博之 勢川
稲田 徹悟
徹悟 稲田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2012116993A priority Critical patent/JP5773944B2/ja
Priority to EP13794634.9A priority patent/EP2854099B1/en
Priority to CN201380032860.7A priority patent/CN104380338B/zh
Priority to US14/397,654 priority patent/US10469829B2/en
Priority to PCT/JP2013/002481 priority patent/WO2013175700A1/ja
Publication of JP2013242812A publication Critical patent/JP2013242812A/ja
Application granted granted Critical
Publication of JP5773944B2 publication Critical patent/JP5773944B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影画像に基づいた処理を行う情報処理装置、および当該装置が行う情報処理方法に関する。
近年、パーソナルコンピュータやゲーム機などにカメラを搭載し、ユーザの姿を撮像して様々な形で利用することが一般的に行われるようになってきた。例えばテレビ電話、ビデオチャットなど、ユーザの画像を、ネットワークを介してそのまま相手に伝送するものや、画像解析によってユーザの動きを認識してゲームや情報処理の入力情報とするものなどが実用化されている(例えば特許文献1参照)。
近年ではさらに、奥行き方向を含む3次元空間におけるユーザの動きを精度よく検出することにより、より臨場感のあるゲームや画像表現を実現できるようになってきた。対象物の奥行き方向の位置を検出する手法としては、ステレオカメラで撮影した左右の画像の視差を利用するもの、照射した赤外線の反射時間や赤外線画像を解析するもの、などが実用化されている。
WO 2007/050885 A2公報
ステレオカメラを利用した従来技術では、光源などの撮影環境の変化により計測結果に影響が生じる可能性がある。また精度を上げるためにカメラの解像度を上げると、計算コストが高くなり応答性が悪化しやすくなる、というジレンマも生じる。一方、赤外線を利用した技術は、別途、赤外線センサや専用のカメラシステムが必要であり、製造コストが高く、消費電力も大きい。
本発明はこのような課題に鑑みてなされたものであり、その目的は、対象物の3次元空間における位置を利用した高精度かつ応答性のよい情報処理を、安価に実現することのできる技術を提供することにある。
本発明のある態様は情報処理装置に関する。この情報処理装置は、撮影画像を用いて計測対象の3次元空間における位置を検出する情報処理装置であって、所定の距離を隔てて設置された第1のカメラおよび第2のカメラで計測対象を並列に撮影したステレオ画像のデータを取得する画像取得部と、3次元空間において検知面を定義し、ステレオ画像のうち第1のカメラの撮影画像に検知面を投影した検知領域を定める検知面定義部と、ステレオ画像のうち第2のカメラの撮影画像において、検知領域と同一の領域を、検知面の奥行き方向の位置によって定まる視差の大きさだけ、視差を解消する方向に移動させた視差補正領域を導出する視差補正領域導出部と、第1のカメラの撮影画像における検知領域の画像と、第2のカメラの撮影画像における視差補正領域の画像とでマッチング処理を行うマッチング部と、マッチング部が行ったマッチング結果を出力する検出結果出力部と、を備えたことを特徴とする。
本発明の別の態様は情報処理方法に関する。この情報処理方法は、撮影画像を用いて計測対象の3次元空間における位置を検出する情報処理装置が行う情報処理方法であって、所定の距離を隔てて設置された第1のカメラおよび第2のカメラで計測対象を並列に撮影したステレオ画像のデータを撮像装置から取得するステップと、3次元空間において検知面を定義し、ステレオ画像のうち第1のカメラの撮影画像に検知面を投影した検知領域を定めるステップと、ステレオ画像のうち第2のカメラの撮影画像において、検知領域と同一の領域を、検知面の奥行き方向の位置によって定まる視差の大きさだけ、視差を解消する方向に移動させた視差補正領域を導出するステップと、第1のカメラの撮影画像における検知領域の画像と、第2のカメラの撮影画像における視差補正領域の画像とでマッチング処理を行うステップと、マッチング結果を出力するステップと、マッチング結果を利用して画像を生成し表示装置に表示するステップと、を含むことを特徴とする。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によると、撮影画像を入力情報として利用する情報処理を安価かつ高精度に実現することができる。
本実施の形態を適用できる情報処理システムの構成例を示す図である。 本実施の形態における情報処理装置の内部回路構成を示す図である。 本実施の形態における撮像装置と情報処理装置の構成を示す図である。 本実施の形態において定義する検知面を説明するための図である。 本実施の形態において利用する、ステレオ画像における視差と計測対象の奥行き方向の位置の関係を説明するための図である。 図5における距離Zに対する視差Dの変化を表す図である。 本実施の形態における位置情報生成部の構成を詳細に示す図である。 本実施の形態における検知面の設定例を説明するための図である。 図8で示した環境で撮影されたステレオ画像の例を示す図である。 本実施の形態における検知面の別の設定例を説明するための図である。 図10で示した環境で撮影されたステレオ画像の例を示す図である。 本実施の形態の情報処理システムによってなされる情報処理のうち、主に位置検出に係る処理の手順を示すフローチャートである。 周期的な構造を有する物の存在による誤判定を説明するための図である。 本実施の形態において周期的構造物の存在に起因する位置検出精度の低下を防止する手法を説明するための図である。 本実施の形態において周期的構造物の存在に起因する検知精度の低下を防止する別の手法を説明するための図である。 本実施の形態において天井面、床面を検出する手法を説明するための図である。 図16で示した天井面、床面を検出するときの位置情報生成部の処理手順を示すフローチャートである。 本実施の形態において人物全体の形状に合わせたモデル形状を有する複数の検知面を定義し、撮影画像へ投影させた例を示す図である。 本実施の形態において情報処理装置のキャリブレーションを行う場合のシステム構成を示す図である。
図1は本実施の形態を適用できる情報処理システムの構成例を示す。情報処理システム2は、ユーザ1などの対象物を撮影する2つのカメラを搭載した撮像装置12、撮影した画像に基づき、ユーザの要求に応じた情報処理を行う情報処理装置10、情報処理装置10が処理した結果得られた画像データを出力する表示装置16を含む。また情報処理装置10はインターネットなどのネットワーク18と接続可能とする。
情報処理装置10と、撮像装置12、表示装置16、ネットワーク18とは、有線ケーブルで接続されてよく、また無線LAN(Local Area Network)などにより無線接続されてもよい。撮像装置12、情報処理装置10、表示装置16のうちいずれか2つ、または全てが組み合わされて一体的に装備されていてもよい。また、撮像装置12は必ずしも表示装置16の上に設置されていなくてもよい。さらに被写体の数や種類は限定されない。
撮像装置12は、それぞれがCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備えた2つのデジタルビデオカメラを既知の間隔で左右に配置した構成を有する。2つのデジタルビデオカメラはそれぞれ、同一空間に存在する被写体を左右の位置から所定のフレームレートで撮影する。以後、このように撮影されたフレームの対を「ステレオ画像」とも呼ぶ。
情報処理装置10は、画像平面およびカメラからの奥行き方向を含む3次元空間における被写体の位置を検出する。検出結果は、被写体の位置や動きを入力情報として用いる後段の処理に利用する。例えば被写体であるユーザ1の肩や手のひらに飛来する仮想オブジェクトを撮影画像上に描画するようなAR(拡張現実)を実現するのに用いる。あるいはユーザ1の動きをトラッキングしてゲームの画像に反映させたり情報処理のコマンド入力に変換したりしてもよく、その使用目的は限定されない。
表示装置16は、情報処理装置10が行った処理の結果を、必要に応じて画像として表示する。表示装置16は、画像を出力するディスプレイおよび音声を出力するスピーカを有するテレビであってよく、例えば液晶テレビ、プラズマテレビ、PCディスプレイ等である。上述のとおり情報処理装置10が最終的に実行する処理内容や表示すべき画像はその使用目的によって特に限定されるものではないため、以後は情報処理装置10が行う、対象物の位置検出処理に主眼を置き説明する。
図2は情報処理装置10の内部回路構成を示している。情報処理装置10は、CPU(Central Processing Unit)22、GPU(Graphics Porcessing Unit)24、メインメモリ26を含む。CPU22は、オペレーティングシステムやアプリケーションなどのプログラムに基づいて、情報処理装置10内部の構成要素における処理や信号伝送を制御する。GPU24は画像処理を行う。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。
これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インタフェースや、有線又は無線LANのネットワークインタフェースからなる通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、表示装置16やスピーカなどの出力装置へデータを出力する出力部36、キーボード、マウス、マイクロホン、撮像装置12などの入力装置からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。
CPU22は、記憶部34に記憶されているオペレーティングシステムを実行することにより情報処理装置10の全体を制御する。CPU22はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。
GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU22からの描画命令に従って描画処理を行い、表示画像を図示しないフレームバッファに格納する。そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部36などに出力する。
図3は撮像装置12と情報処理装置14の構成を示している。図3に示す各機能ブロックは、ハードウェア的には、図2に示したCPU、GPU、RAM、各種プロセッサなどの構成で実現でき、ソフトウェア的にはデータ入力機能、データ保持機能、画像解析機能、描画機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
撮像装置12は第1カメラ13a、第2カメラ13bを含む。各カメラはそれぞれ、既知の幅を隔てた左右の位置から所定のフレームレートで被写体を撮影する。撮影して得られるステレオ画像は情報処理装置10からの要求により一般的な手法で随時、情報処理装置10へ送信される。ここで「被写体」とは図1のユーザ1のように視野の中心に存在する人や物に限らず、背景、天井、床、壁、家具、各種設備など、視野に入っているものであればよい。それらの何を被写体とするかは、検出結果の使用目的によって設定する。具体例は後に述べる。
情報処理装置10は、撮像装置12からステレオ画像を取得する画像取得部42、ユーザからの指示入力を取得する入力情報取得部44、撮影画像に基づき被写体の位置情報を生成する位置情報生成部46、被写体の位置に基づき必要な処理を行い出力情報を生成する出力情報生成部50、撮像装置12から入力されたステレオ画像および位置情報生成部46などが生成した中間データを記憶する画像記憶部48を含む。
入力情報取得部44は、ユーザからの指示入力を受け付け、それに応じた処理要求信号をその他の機能ブロックに送信する。入力情報取得部44は、ボタン、キーボード、マウス、トラックボール、タッチパネルなど一般的な入力装置と、当該入力装置になされた操作内容を解釈して処理要求信号を生成するCPUなどの協働により実現する。
画像取得部42は、入力情報取得部44からの要求に従い撮像装置12からステレオ画像等の画像データを取得し、画像記憶部48に格納する。取得する画像は情報処理装置10が後段で実施する処理や出力する情報に応じて様々であってよい。例えば第1カメラ13aが撮影した画像のみを撮影時のフレームレートで取得し、それより低いレートで第1カメラ13a、第2カメラ13bが撮影したステレオ画像を取得するなどでよい。つまり第1カメラ13aが撮影した画像と第2カメラ13bが撮影した画像の取得レートは独立に設定できるようにしてもよい。
位置情報生成部46は、画像記憶部48に格納されたステレオ画像のデータに基づき、被写体の3次元の位置を検出する。このとき位置情報生成部46は、カメラ座標系の3次元空間に対象物を検知する検知面を設定し、当該検知面と被写体との位置関係により被写体の位置を特定する。このとき検知面のカメラからの距離(奥行き方向の位置)から算出される視差の値を利用して、ステレオ画像から検知面と被写体との位置関係を特定する。詳細は後に述べる。
出力情報生成部50は、位置情報生成部46から入力された、被写体の位置に係る情報に基づき、画像記憶部48から読み出した撮影画像に描画処理を施すなど、位置検出の結果の使用目的に応じた処理を適宜行う。上述のとおりここで行う処理は特に限定されず、入力情報取得部44が受け付けたユーザからの指示に応じて適宜切り替えてよい。処理の結果得られた画像のデータは、表示装置16に出力され表示される。あるいはネットワーク18を介して別の装置へ送信してもよい。
図4は本実施の形態において定義する検知面を説明するための図である。まず第1カメラ13aのカメラ座標系による3次元空間に被写体たるユーザ1がいるとする。このユーザ1のうち、位置を検出したい部分、同図の例では左手近傍に、図示するように検知面51を設定する。すなわち検知面51は、カメラ座標系による3次元空間においてその頂点座標を定義した仮想的な平面である。検知面の輪郭形状は特に限定されず、傾きも任意に設定してよい。
図4では第1カメラ13aによる撮影画像52も模式的に示している。撮影画像52には当然、ユーザ1の像が写っている。位置情報生成部46は、3次元空間に仮想的に定義した検知面51を撮影画像52の平面に投影し、検知面51に対応する領域54を算出する。以後、3次元空間で定義する「検知面」に対し、それを画像平面に投影した領域を「検知領域」と呼ぶ。3次元空間において定義されたモデルを2次元の画像平面に投影させる処理は、一般的なコンピュータグラフィックス処理の一つである。コンピュータグラフィックス処理を応用することによって検知面による位置検出を効率的に行える。
本実施の形態では、定義した検知面上に被写体が存在するか否かを位置情報として検出する。具体的な手法は後に述べるが、このようにすることで、(1)一つの検知面上に新たに被写体が存在するようになった(触れた)ことを検知する、(2)複数の検知面を所定範囲に分布させ、被写体が存在する検知面を抽出することで被写体の位置を検知する、という2種類のアプローチを実現できる。例えば上記(1)は、定義した検知面を表面の一部として仮想オブジェクトを描画すれば、被写体と仮想オブジェクトの相互作用を発生させるのに利用できる。上記(2)は、前の時刻の検出結果を利用して検知面を集中的に分布させることにより、被写体のトラッキングに利用できる。
検知面51の大きさは、位置を検出したい部分(以後、「計測対象」と呼ぶ)の大きさによって変化させてよい。本実施の形態では画像全体から計測対象を絞り込み、さらに奥行き方向の位置を限定的かつ集中的に計測することにより、余分な処理を除外し必要な部分に注力する。結果として処理の負荷を増大させることなく、要求される情報を高精度に取得できる。なお第2カメラ13bによっても、撮影画像52と同様であり、視差に応じて被写体がずれた位置に写る画像が撮影される。
次に計測対象の位置を、検知面とステレオ画像を用いて検出する原理を説明する。図5はステレオ画像における視差と計測対象の奥行き方向の位置の関係を説明するための図である。第1カメラ13a、第2カメラ13bは距離Lを隔てた平行な光軸を有するように設置される。これらのステレオカメラに対し、計測対象は奥行き方向に距離Z離れた右端の矢印に位置するとする。
各カメラが撮影した画像の1画素が表す実空間での幅Δxは、距離Zに比例して次のように表される。
Δx=Z×w/W
ここでWはカメラの横方向の画素数、wは距離Zが1のときの実空間の横方向の視野範囲であり視角によって定まる。
距離Lだけ離れたカメラで撮影された同一の計測対象は、その画像上でおよそ下記のような画素数上の視差Dを有する。
D=L/Δx=L×(W/w)×(1/Z)=C/Z
ここでCはカメラおよびそのセッティングにより定まる値であり、運用時は定数とみなせる。
図6は距離Zに対する視差Dの変化を表している。上式に示すように視差Dは距離Zに反比例した曲線56となる。一般的なステレオ画像法によれば、図示した関係を利用し、ステレオ画像上で表れる計測対象の特徴点の視差Dから、奥行き方向の距離Zを求める。画像は画素単位でデータを持つため視差Dも画素単位で得られる。図5において視差は実空間においてΔx単位で得られるため、奥行き方向の距離が得られる単位Δzは、図5から次のようになる。
Δz=Δx×Z/L=Z×(w/W)×(1/L)
すなわち従来のステレオ画像法による距離Zの分解能は距離Zの2乗に比例して低下する。図6のグラフにおける縦の点線の間隔はΔzを表している。例えば計測対象が矢印58の位置にあっても、距離Zの計測結果はその直近の値z1またはz2に丸められてしまう。このように従来手法では計測対象が遠方にあるほど計測結果に誤差が生じやすい傾向となる。
本実施の形態では、まず検知面によって距離Zを任意の値に設定し、それに対する視差Dを導出する。そして第1カメラ13aが撮影した画像における検知領域の画像と、第2カメラ13bが撮影した画像における同一領域を視差Dだけずらした領域の画像とでマッチングを行い評価する。被写体の像のうち両画像で同じ位置にある部分、すなわちマッチングの評価値が高い部分は視差Dを有するということであり、ひいては当該部分が、最初に設定した距離Zに位置する、と結論づけることができる。
図7は位置情報生成部46の構成を詳細に示している。位置情報生成部46は、検知面を定義する検知面定義部60、画像の特徴量を算出する特徴量算出部62、視差を考慮してマッチング対象の領域を導出する視差補正領域導出部64、導出された領域を切り出す領域切り出し部66、切り出された領域間でマッチング処理を行うマッチング部68、マッチングの結果から必要な情報を出力する位置情報出力部70を含む。
検知面定義部60は、第1カメラ13aのカメラ座標系の3次元空間において検知面を定義し、第1カメラ13aの撮影画像の平面に投影することにより検知領域の頂点座標を算出する。なお以後の説明では、ステレオ画像のうち、第1カメラ13aが撮影した画像を左画像、第2カメラ13bが撮影した画像を右画像とするが、左右の画像でその役割を逆にしても同様の結果が得られる。
検知面定義部60が定義する検知面は、上述のように位置検出結果の使用目的によって様々考えられる。例えば固定としてあらかじめ設定しておいてもよいし、ARにおける仮想オブジェクトを構成するポリゴンの情報を出力情報生成部50から受け取り、それに対応するように検知面を発生させてもよい。または前の時刻における位置検出結果を位置情報出力部70から受け取り、その位置を中心に検知面を集中的に配置してもよい。
あるいは検知面定義部60に簡易的な奥行き画像生成機能を設け、計測対象のおよその位置を自ら見積もるようにしてもよい。この機能は、ステレオ画像法により画面全体の奥行き画像を生成する一般的な機能でよいが、本実施の形態を実現するための補助的な情報を取得するのが目的であるため、簡易的な処理を行うのみでよい。具体的には処理対象の画像の解像度を下げたり、マッチングを行うブロックエリアを大きく設定したりすることにより処理の負荷を軽減させる。
特徴量算出部62は、左画像および右画像に対し、所定の特徴量を導出する処理を施し、特徴量の大きい部分を他と区別した画像(以下、「特徴点画像」と呼ぶ)を生成する。例えばソーベルフィルタを用いてエッジ画像を生成する。あるいは動き差分画像を生成したり、テンプレート形状とのパターンマッチングによって計測対象の領域と他の領域とを2値の画素値で区別したりしてもよい。処理を施す対象は画像全体でなく、検知領域を含む限定的な領域のみでよい。このようにすることで無駄な処理を省き負荷を軽減できる。
視差補正領域導出部64は、第2カメラ13bが撮影した右画像のうち、第1カメラ13aが撮影した左画像における検知領域と同一の領域を、検知面の奥行き方向の位置Zに対応する視差Dの分だけ左方向にずらした領域を、視差補正領域として導出する。領域切り出し部66は、左右の特徴点画像のうち、左画像の検知領域と、右画像の視差補正領域を切り出し、マッチング用の2つの画像を生成する。マッチング部68は、そのようにして生成された左右の画像に対しブロックマッチングを行い、評価値の高い、ひいては画像上の同じ位置に存在するとみなされる特徴点を導出する。
この特徴点を有する部分が、検知面の位置に存在する被写体を表す。なおマッチング処理は画素単位でなく、隣接する画素値を内挿することにより得られる画素間の値を比較対象に含めることにより、画素より小さい単位で行ってよい。また本実施の形態は、マッチング対象の画像のうち同じ位置に同じ物または部位が存在していることを検出することができれば、いわゆる「特徴点画像」をマッチング対象とせず、例えば原画像のままマッチングを行ってもよい。
位置情報出力部70は、マッチング結果に基づき、出力情報生成部50が用いる情報を生成して出力する。例えば計測対象が接触した検知面、接触箇所、接触面積などを情報として出力する。またそのような情報を撮影された動画の各フレーム、あるいは数フレームおきに取得することにより時間変化のデータを出力してもよい。
次に検知面の設定と位置検出処理の具体例を説明する。図8は検知面の設定例を説明するための図である。同図上段は撮影環境を上から見た模式図72a、下段は横から見た模式図72bである。図示するように第1カメラ13a、第2カメラ13bに被写体である人物74が対峙している。このような環境により図4に示したような画像が撮影される。
なお図5に示したように、第1カメラ13a、第2カメラ13bの光軸は平行で、縦方向のずれはないとする。実際には撮影された画像にずれが生じている場合があるが、一般的な手法によりそのような画像は、ずれのない状態に補正されているものとする。このとき等視差面は点線で示すように分布する。ここで等視差面とは、面上の全ての点において視差が等しい平面である。このような環境において、図示するように、ある等視差面上に検知面76を定義した場合について考える。
図9は図8で示した環境で撮影されたステレオ画像の例を示している。図8で示したように検知面76を定義すると、それを左画像80aに投影したときの検知領域82が定まる。この検知領域82の左上の座標を(x,y)とする。等視差面に検知面を定義したことから、左画像80aと右画像80bの視差は全領域で同一である。すなわち奥行き方向の位置zにある検知面上に存在する物は、左画像80aと右画像80bでは視差D=C/zだけずれて写る。
そこで右画像80bにおいて、検知領域82と同一の領域を視差分だけ左方向に平行移動させた、左上の座標が(x−C/z,y)の領域を視差補正領域84とする。なお右画像80bにおいて計測対象は左側にずれて写るため、視差を解消して計測対象が左画像80aと同じ位置になるようにするための領域移動は左方向となる。左画像80a側をずらす場合は当然、逆方向となる。そして左画像80aの検知領域82と、右画像80bの視差補正領域84の特徴点画像、例えばエッジ画像を切り出し、マッチング処理を行う。そして評価値の高い特徴点のみを他と異なる画素値としたマッチング画像86を生成する。
図9におけるマッチング画像86では、理解を容易にするため、エッジとして抽出された、被写体の左手の輪郭全体を実線および点線で示しているが、実際のマッチング画像はこのうち実線部分のみが残された画像であるとする。すなわち指先の一部および手首の一部が、図8で示した検知面上に位置している、という情報が得られる。マッチング画像として残す部分は、マッチング評価値のしきい値判定によって決定する。
このしきい値を調整することによって、奥行き方向の位置zに対する検出分解能を制御できる。なお図9および後述する図10、13、14、15において、見やすさのためマッチング画像はマッチング評価値の高い部分を黒色、その他の部分を白色で示しているが、それに限定する主旨ではなく白黒反転していてもよい。
図10は検知面の設定の別の例を示している。図の示し方は図8と同様であり、第1カメラ13a、第2カメラ13bに被写体である人物94が対峙している。図8では検知面を等視差面上に定義したが、図10では等視差面に対し任意の傾きを有する場合に拡張している。つまり検知面96は、等視差面に関わりなく定義する。
図11は図10で示した環境で撮影されたステレオ画像の例を示している。図10で示したように検知面96を定義すると、左画像100aの検知領域102が定まる。この例では検知面96を等視差面と独立に定義しているため、カメラから検知面96までの距離、ひいては視差が、画像上の全領域で等しいとは限らない。そのため検知領域の全頂点座標を独立に操作することにより全領域に対し適切なずらし量を適用する。
具体的には図示するように、左画像100a上の検知領域102の頂点座標を(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)とし、検知面におけるそれらの頂点のカメラからの距離をそれぞれz1、z2、z3、z4とすると、右画像100bにおける視差補正領域104の頂点座標は(x1−C/z1,y1)、(x2−C/z2,y2)、(x3−C/z3,y3)、(x4−C/z4,y4)となる。
このような頂点座標を有する領域を切り出し、図9で説明したのと同様にしてマッチング画像106を生成する。ただしこの場合、検知領域102と視差補正領域104は異なる形を有している可能性がある。そのため領域切り出し部66は、切り出した領域を適宜伸縮させ、マッチング処理を施すための同一の形状およびサイズの画像とする。この処理は、コンピュータグラフィックス処理においてテクスチャを読み出し、所望のポリゴンに貼り付ける処理と同等であるため、GPUを利用することにより効率的に行える。
なおそのようにして生成された図11のマッチング画像106には、図9に示したマッチング画像86より多くの特徴点が残っている。この結果により、被写体の左手は、図10で定義した検知面の傾斜により近い角度を有することがわかる。また図10では一つの検知面を定義していたが、複数の検知面を任意方向に定義しても処理内容は同様である。したがって、検知面を仮想オブジェクトのポリゴンに対応させて定義することも容易であり、本実施形態の手法はそのような仮想オブジェクトと被写体との相互作用表現において特に親和性が高い。
次にこれまで述べた構成によって実現できる情報処理システム2の動作を説明する。図12は情報処理システム2によってなされる情報処理のうち、主に位置検出に係る処理の手順を示すフローチャートである。まずユーザが処理内容の指定とともに処理の開始を指示すると、撮像装置12は被写体の撮影を開始する(S10)。情報処理装置10はそのようにして撮影されたフレーム画像のデータを順次取得する(S12)。この画像には所定のレートでステレオ画像が含まれる。なおS12からS24までの処理は当該所定のレートで繰り返される。
情報処理装置10の検知面定義部60は、取得したステレオ画像の解像度を必要に応じて変換する(S14)。例えば撮像装置12から取得したステレオ画像の解像度が要求される位置検出の精度と比較し高すぎる場合、余計な処理負荷が生じたりノイズの原因になったりする。そのため検出結果の使用目的ごとに要求される精度に対応するステレオ画像の解像度をあらかじめ定めておき、当該解像度を有する画像へ変換する。
次に検知面定義部60は、第1カメラ13aの座標系において検知面を定義する(S16)。検知面は上述のように検出結果の使用目的や計測対象の大きさなどに応じて、形状、サイズ、数、位置、傾きなどを様々に設定できる。想定される撮影環境や計測対象によって適切な検知面の定義をあらかじめ準備しておいてもよいし、簡易的に生成した奥行き画像や仮想オブジェクトの位置、前の時刻での検出結果などに応じて適応的に変化させてもよい。
次に特徴量算出部62は、検知面を左画像に投影してなる検知領域を含む所定範囲の領域、右画像における同様の領域に対し、エッジ抽出などの処理を施し所定の特徴量を算出し、特徴点画像を生成する(S18)。次に視差補正領域導出部64は、右画像については検知面の奥行き方向の位置に応じて定まる視差補正領域の頂点座標を導出し、左右の特徴点画像のうち左画像については検知領域を、右画像については視差補正領域を切り出す(S20)。このとき、切り出された領域から、同じ形状およびサイズを有するマッチング用の画像を生成する。
この処理は上述のとおり、切り出し対象の各領域をテクスチャとみなすことにより、GPUによるテクスチャマッピングの機能を利用できる。このとき、テクスチャフィルタに適切な値を与えることにより、切り出された領域の伸縮を調整でき、実質的に、ブロックマッチング時に比較する単位領域、すなわち輝度差の総和などを求めるブロックエリアの面積を制御できる。ブロックエリアの面積を小さくすることにより、より細かい単位でのマッチング評価が可能となり、奥行き方向の位置の分解能が上がることになる。このようにテクスチャフィルタを適切にすることにより奥行き方向の位置の分解能を制御できる。
また切り出した領域の貼り付け先であるマッチング用画像の解像度を調整すると、画像平面(xy平面)における位置の分解能も制御できる。このように本実施の形態では、GPUを利用しながら各処理段階での設定値を調整することにより、各パラメータについて十分な精度を保ちながら無駄な処理を容易に省くことができる。なおS20とS18の処理は逆の順序で行ってもよい。すなわち左画像の検知領域と右画像の視差補正領域を切り出し、テクスチャマッピングなどにより同じサイズおよび形状の画像としてから特徴点を抽出し、その結果得られる特徴点画像をマッチング用画像としてもよい。
次にマッチング部68は、右画像の検知領域および左画像の視差補正領域をそれぞれ貼り付けたマッチング用画像に対し、ブロックマッチングを行い、マッチング評価値の高い特徴点のみを残したマッチング画像を生成する(S22)。そして位置情報出力部70は、当該マッチング画像に基づき、計測対象の検知面への接触の有無、計測対象の3次元空間での位置など、必要とされる情報を生成し出力する(S24)。
出力情報生成部50は、位置情報出力部70から供給された情報に基づき、仮想オブジェクトを描画したりゲーム画像を更新したりする(S26)。なおS26における画像の更新は、S12からS24までの位置検出処理とは独立したレートで行ってよく、例えば撮像装置12が撮影した動画のフレームレートと同等のレートでよい。
一般的なステレオ画像法では、ステレオ画像の対応点を探索窓をずらしていくことにより特定し、その視差に基づき計測対象の奥行き方向の位置を得る。一方、本実施の形態ではあらかじめ視差分だけ画像をずらし、同じ形状の特徴点が同じ位置にあるか否かで、検知面の位置に計測対象があるか否かを判定する。これにより探索窓をずらしながら対応点を求めるのと比較し処理負荷が軽減されるとともに、奥行き方向の位置が画素単位で丸められ精度が低減するのを防ぐことができる。
一方で、一度のマッチングにより結果を出すという構成上、次のような問題が生じる可能性が出てくる。すなわち検知面と異なる位置にあるにも関わらず、被写体の周期的な模様や構造によって、視差分だけ画像をずらしたときに偶然、同じ位置に再度同じ模様や特徴点が位置してしまうことが考えられる。この場合、その模様や特徴点についてもマッチング評価値が高くなり、当該被写体が検知面上にあるように誤判定されてしまう。
図13は周期的な構造を有する物の存在による誤判定を説明するための図である。同図右上は、撮影空間において、第1カメラ13a、第2カメラ13bと計測対象112の位置関係を表す上面図110である。この撮影空間において、計測対象112より奧に、周期的な構造を有する背景物114が位置しているとする。
この環境において、第1カメラ13a、第2カメラ13bで撮影した画像のうち、検知領域の画像が、それぞれ、左画像116、右画像118である。図示するように左画像116には、計測対象112の像120aの背後に背景物114の像122aが写っている。同様に右画像118には、計測対象112の像120b、背景物114の像122bが写っている。計測対象112は背景物114よりカメラに近いため、ステレオ画像における視差がより大きい。
この状態で計測対象112が、カメラからの奥行き方向の距離がZである検知面113上にあるとすると、右画像118の領域を視差D=C/Zだけ左にずらした視差補正領域の画像124と、左画像116の検知領域とでマッチング処理を行うことになる。ところが背景物が間隔dの縦線模様を有するなど周期的構造を有する場合、当該間隔dと背景物自体の視差によっては、左画像116の縦線と、視差補正領域の画像124の縦線の位置が偶然一致してしまう場合がある。
図の例では左画像116の背景物の像122aにおける左から2番目の縦線の横方向の位置XLと、視差補正領域の画像124の一番左の縦線の位置XRが等しくなっている。すると左右の端にある縦線以外は互いに重なる位置となり、マッチング評価値が高くなる。そのためマッチング評価値の高い特徴点のみを残したマッチング画像126において、本来検出されるべき計測対象112の特徴点120cとともに、検知面113上にはない背景物114の一部の特徴点128をも検出されてしまう。
図14は周期的構造物の存在に起因する位置検出精度の低下を防止する手法を説明するための図である。左画像116、右画像118は図13に示したものと同一である。この手法ではさらに、撮影された右画像、左画像のそれぞれについて、前フレームからの動き差分画像130、132を取得する。計測対象が何らかの動きを伴う場合、動き差分画像130、132は、図示するように、計測対象の像120a、120bの領域とその近傍で値を有する(動き領域134a、134b)。
特徴量算出部62は、左右の動き差分画像130、132を取得し、それを用いてそれぞれの特徴点画像をマスクし、計測対象の動き領域134a、134b以外の領域の特徴点を無効とする。そのようにして右画像118をずらしたうえマッチング部68がマッチング処理を施すことにより、動きのない背景物が検出対象から除外されたマッチング画像136を生成できる。
なお動き差分画像による特徴点画像のマスクは、マッチング部68がマッチング画像に対し行ってもよい。この場合、左画像の動き差分画像130のみを用いてもよい。また動き差分画像に代え、背景差分によって前景のみを抽出した前景画像、計測対象が周囲の温度と異なる場合は温度分布などに基づき、計測対象以外の領域をマスクするようにしてもよい。
図15は周期的構造物の存在に起因する検知精度の低下を防止する別の手法を説明するための図である。この手法では、異なる計測対象をターゲットとした検知面を複数定義する。そして、各検知面に対応する視差分だけ右画像をずらした複数の視差補正領域と、左画像の検知領域とをそれぞれマッチング処理し、その結果得られた複数のマッチング画像を互いのマスク画像として利用することにより計測対象を区別する。
図15の例では、右上に示した撮影環境の上面図110において、計測対象112をターゲットとする第1検知面138と、背景物114をターゲットとする第2検知面140を定義している。図15の左画像116、右画像118は図13、14に示したものと同一である。視差補正領域導出部64は、第1検知面138の奥行き方向の距離Zに対応する視差Dだけ右画像の検知領域をずらした画像124(図13で示した画像124と同一)、および、第2検知面140の奥行き方向の距離Z’に対応する視差D’だけ右画像の検知領域をずらした画像142を生成する。
そしてマッチング部68は、左画像116と、右画像を2通りにずらした画像124、142のそれぞれとでマッチング処理を行う。第1検知面138に対応させて視差Dだけずらした画像124に対するマッチング画像126は、図13で示したのと同様、背景物の特徴点が残る画像となる。一方、第2検知面140に対応させて視差D’だけずらした画像142に対するマッチング画像144は、計測対象112の領域においてはマッチング評価値が低くなるため、背景物の特徴点のみが残った画像となる。
マッチング部68は、このようにして生成した2つのマッチング画像126、144のうち一方を他方のマスク画像として使用する。同図の例では、第1検知面138に対して得られたマッチング画像126のうち、第2検知面140に対し得られたマッチング画像144で評価値の高かった箇所の特徴点を無効とする。これにより、第1検知面138がターゲットとする計測対象112のみを検出する画像146が得られる。
同図の例では、第2検知面140に対し得られたマッチング画像144において、すでに計測対象112の特徴点が消えているが、計測対象112の模様や形状によっては同様にミスマッチングが起こり、マッチング画像144に計測対象112の特徴点が残っている場合がある。そのため、上述と同様に、第2検知面140に対して得られたマッチング画像144のうち、第1検知面138に対して得られたマッチング画像126で評価の高かった箇所の特徴点を無効とすることにより、第2検知面140がターゲットとする背景物114のみを確実に検出できる。
図15は2つの計測対象をターゲットとして検知面を設定したが、その数は3つ以上でもよい。また撮影空間のおよその奥行き情報を取得する処理を前処理として追加することにより、第1検知面、第2検知面の設定を行ってもよい。この機能は上述した簡易的な奥行き画像生成処理によって実現できる。さらに次に述べるように、本実施の形態の位置検出手法により背景の位置を取得し、それに基づき背景物用の検知面を定義してもよい。
これまでの説明は主に、ユーザの手など主たる被写体の位置検出に検知面を利用する態様であった。一方、本実施の形態で定義する検知面は平面モデルであるため、床、天井、壁などの検出にも有効である。これらの所謂背景は、動きや形状などでの特徴が見出しにくいため、従来技術ではそれ自体の位置検出は容易でなかったが、環境のモデル化やARの舞台設定には非常に重要な要素である。
図16は本実施の形態において天井面、床面を検出する手法を説明するための図である。同図右側は撮影環境を横から見た模式図150であり、左側は当該撮影環境で撮影された左画像152である。右画像も視差が生じる以外は同様に撮影されるが同図では省略している。このような撮影環境において、天井面を検出するための天井用検知面154および、床面を検出するための床用検知面156をこれまでと同様に定義する。ただしあらかじめ定めた検知面に動きを有する被写体が接触するのを検知する場合と異なり、動きのない天井面や床面の位置を探索するのが目的であるため、検知面側の位置や角度を様々に変化させる。
図17は図16で示した天井面、床面を検出するときの位置情報生成部46の処理手順を示すフローチャートである。まず検知面定義部60は、天井用検知面154、床用検知面156をそれぞれ、画像の縦方向(y軸方向)に所定範囲で変化させて複数、定義する(S30)。すなわち図16の矢印Aの方向で検知面を所定間隔で複数分布させる。そして特徴量算出部62、視差補正領域導出部64、領域切り出し部66、マッチング部68がこれまで述べたのと同様の処理を各検知面について行う(S32)。具体的には奥行き方向の位置に応じて各頂点をずらした右画像の視差補正領域の特徴点画像と左画像の検知領域の特徴点画像を切り出し、マッチング処理を施すことによりマッチング画像を生成する。
このとき特徴点として抽出されるのは、天井の照明器具、タイルなどの建材の連結部分が形成する格子模様、絨毯の模様などである。次に、各検知面に対応するマッチング画像を参照し、特徴点が最も残っている、すなわち画像全体で総合的にマッチング評価値が最も高い検知面を、マッチング評価値の合計を比較するなどして抽出する(S34)。そして当該検知面に対応するマッチング画像において特に評価値の高い領域を固定とし、画像の水平面、すなわち撮影空間のxz平面に対する傾斜を変化させて新たな検知面を複数個定義する(S36)。
すなわち図16の矢印Bの方向で検知面を所定角度で複数分布させる。このとき上述のように、S34において抽出したマッチング画像において特にマッチング評価値が高い部分は変化させないなど、矢印A方向での探索結果を利用して回転軸を決定してもよい。そしてS32と同様に各検知面についてマッチング画像を生成し(S38)、総合的にマッチング評価値が最も高い検知面を抽出する(S40)。このときの検知面がすなわち、天井面、または床面となる。なお天井面と床面を同時に検出しなくてもよい。また壁面の検出は、S30において画像の横方向(x軸方向)に変化させて検知面を分布させ、S36において画像の垂直面すなわち撮影空間のyz平面に対する傾斜を変化させて検知面を分布させればその他の処理は同様である。
これまで述べたように、本実施の形態は、計測対象と検知面との相対的な関係を検出できるため、計測対象の動きの有無に関わらず、検知面を1つまたは複数分布させることによって様々な運用が考えられる。以下、運用例について説明する。
(1)水平面/垂直面検出
図16、17で説明したように、天井面、床面、壁面の位置を検出するのと同様に、机の上面、椅子の座面、舞台上面など、撮影環境において基準となり得る水平面や垂直面の位置を検出する。天井面、壁面、床面が検出できると、それらの平面との距離や角度の関係などからその他の水平面、垂直面のおよその位置を類推できる。そして当該位置に集中的に検知面を分布させることにより、より効率的にこれらの平面を検出できる。
また検出した平面と平面とが交差する位置がわかるため、水平面、垂直面を構成する物の大きさの上限を類推することができる。天井面や床面のようにカメラの奥行き方向に長い平面を一度に検出することにより、元来、視差が小さく位置の検出精度を出しにくい遠方であっても、カメラに近い位置において検出された高精度な平面と一続きであることを利用し高精度な位置特定が可能となる。
(2)ステレオ画像法と組み合わせた位置探索
上述したように、検知面定義部60などにおいて、一般的なステレオ画像法、すなわちステレオ画像の特徴点を対応づけ、それらの視差から対象物の奥行き方向の位置を算出する手法により奥行き画像を生成し、それを利用して検知面を定義してもよい。例えば計測対象である人の頭、手、胴体など、ターゲットとなる部位のおよその奥行き方向の位置を奥行き画像により導出する。そして部位ごとに、導出したおよその距離を中心とした所定範囲に集中的に検知面を分布させる。そして検知面を用いた評価を上述のとおり行い、最もマッチング評価値の高い検知面を抽出することにより、各ターゲットの位置を特定する。
(3)仮想オブジェクトとの相互作用
上述のとおり動く仮想オブジェクトを描画し、被写体である人物の手の上に飛来したり、手の動きに合わせてはねたり、といった、被写体と仮想オブジェクトの相互作用の発生にも利用できる。このとき、検知面定義部60などによって簡易的な奥行き画像を所定のレートで生成し、手などのターゲットのおよその位置を監視する。そして一般的なグラフィックス処理により仮想オブジェクトをターゲット方向へ動かしていき、ターゲットまでの距離がしきい値より小さくなった時点で、ターゲット上に検知面を定義する。
この場合、ターゲットが動けば検知面もそれに合うように動かす必要がある。そのため、ターゲット近傍に複数の検知面を分布させ、マッチング評価値の高い検知面を逐次取得する。そして当該検知面に仮想オブジェクトが到達したら、仮想オブジェクトが止まる、跳ね返される、といった相互作用を働かせる。
上記ターゲットを机上面や椅子の座面などとする場合は、奥行き画像に基づき机や椅子近傍の水平面を(1)で説明したように探索する。通常、机や椅子は動かないため、探索して得られた水平面を表す検知面はそのまま仮想オブジェクトの着地面とすることができる。なお仮想オブジェクトは、奥行き画像や検知面による検知結果を利用して一般的な手法により出力情報生成部50が描画する。
(4)モデル形状の検知面による探索
人物の全体像や顔面など位置を特定したいターゲットの形状に合わせて複数の検知面を組み合わせモデルを形成する。図18は人物全体の形状に合わせたモデル形状を有する複数の検知面を定義し、撮影画像へ投影させた例を示している。画像平面160において、人体のモデルを構成する矩形162の1つ1つが検知面である。なお被写体の人物はこの人体モデルに重なっているものとして図示を省略している。
このようなモデルをあらかじめ作成しておき、前フレームでの探索結果などに基づき、モデルの位置、姿勢などを所定範囲で分布させる。そして最もマッチング評価値の高い形状を抽出することにより、人物の位置や姿勢を特定する。これを所定フレームごとに繰り返すことにより、位置のみならず姿勢などの形状変化についても追跡することができる。なお図18の例は比較的、複雑なモデルであるが、要求される精度に応じて簡易化したり、より多数の小さい検知面を用いてさらに詳細なモデルとしてもよい。例えば顔面、胴体をそれぞれ1つの検知面で表してもよいし、顔面を額、鼻、頬、目などで分割し、それぞれ異なる検知面で表してもよい。
なお手や顔などカメラに対して角度が変化する可能性のあるターゲットについては、天井面を探索したのと同様に、それらをターゲットとした検知面の角度を可動範囲内で変化させるように分布させてもよい。また、同じターゲットであっても、最初は比較的面積の大きい検知面を定義しておよその位置を取得し、その後、図18で示したような面積が小さい多数の検知面で、位置や姿勢などの詳細を取得するようにしてもよい。
(5)商品データベースを利用したキャリブレーション
商品のラベルなどの情報からその商品の形状や実寸などの規格を含む情報を提供する商品データサーバを利用して、情報処理装置10のキャリブレーションを行う。図19はその場合のシステム構成を示している。図1において示したネットワーク18を介して、情報処理装置10から商品データサーバ172へアクセスする。商品データサーバ172は、商品のラベルやバーコードなどの画像を送信すると該当する商品の情報を返信するサーバである。あるいは情報処理装置10側でラベルやバーコードの画像解析を行い商品名や型番などの基本情報を取得したうえで、当該情報を商品データサーバ172へ送信することで商品の情報を返信してもらうシステムでもよい。
商品データサーバ172には規格データベース174が備えられる。規格データベース174は、商品の識別情報と、形状や実寸を含む商品情報とを対応づけて記憶するデータベースである。商品データサーバ172は、情報処理装置10から送信されたラベルなどの画像、または商品の基本情報から当該商品の識別情報を取得し、それに基づき規格データベース174から商品情報を取得したうえで情報処理装置10にその商品情報を返信する。
情報処理装置10は、位置情報生成部46にキャリブレーション部170を含む。なお情報処理システム2、情報処理装置10、位置情報生成部46は、キャリブレーション部170以外については、図1、2、3、7で示したのと同じ構成を有するが、ここでは図示を省略している。キャリブレーション部170は、被写体に含まれる商品のラベルの画像を取得すると、当該画像のデータやそれから得られる基本情報を商品データサーバ172に送信する。
商品データサーバ172から該当商品の情報を取得すると、キャリブレーション部170は、取得した商品の縦方向、横方向の実寸と、撮影環境におけるカメラからの見かけ上のサイズとの比較によって、カメラから商品までの距離を特定する。そして商品の形状に準じた検知面を設定して、上述のようにステレオ画像のマッチング評価を行う。
この場合、カメラから商品までの距離が既知であるため、生成されたマッチング画像はその評価値が高くなるはずであるが、右画像の視差補正領域を求めるための、視差に基づくずらし量に誤差があると評価値が低くなる。そこでキャリブレーション部170は、右画像の視差補正領域を求めるときのずらし量を複数通りに変化させ、最も評価の高いマッチング画像が得られるずらし量を求める。これにより、カメラからの距離と適切なずらし量との関係を正確に導出することができる。
なお上述の例では、実寸が未知であるが商品データサーバからの情報を利用可能な任意の商品を用いてキャリブレーションを行った。一方、実寸や形状に係る情報を情報処理装置10側で保持している物を用いて同様にキャリブレーションを行ってもよい。あらかじめキャリブレーション用の物を準備しておき、それを撮影することによって同様の処理を行ってもよい。
以上述べた本実施の形態によれば、撮像装置にカメラを2つ設け、異なる視点から対象物の動画を同時に撮影する。そして一方のカメラ座標系による3次元空間に検知面を定義する。検知面をカメラの撮影画像に投影させてなる検知領域の画像と、他方のカメラの撮影画像の同じ領域を検知面の奥行き方向の位置に基づく視差分だけすらした領域の画像とでマッチング処理を行う。そしてマッチング評価の高い特徴点を有する物体が、検知面の位置にある、と判断する。
3次元空間に検知面を定義すること、2次元画像に投影させること、検知領域および視差補正領域の画像を切り出してマッチング用の画像として貼り付けること、はコンピュータグラフィックス処理におけるモデリング、座標変換、テクスチャ読み出しの処理と同等であるため、GPUなど画像処理に適したリソースをそのまま利用することができる。そして、入力画像の解像度、検知面の配置密度、領域読み出し時の解像度、マッチング画像の解像度をそれぞれ独立に設定できるため、画像平面方向、奥行き方向の検知精度を、処理負荷や使用目的に応じて適切に制御することができる。
またGPUにおいて、解像度に応じた適切なバッファ割り付けが行われるため、処理やリソース使用が効率的である。コンピュータグラフィックス処理の機能を利用することにより、ゲームなどのコンテンツ設計における検知面を含む注目領域の設定と、仮想オブジェクトなどのモデルのデザインレベルの設定を一体化できるため、コンテンツ作成が容易になる。さらに、先に3次元空間で奥行き方向の位置を設定したうえでその位置での視差を逆算するため、従来のステレオマッチング法において画素単位で求めた視差から奥行き方向の位置を算出するのに比べ丸め誤差が発生しにくい。このことは、特にカメラから遠方にある物について有効である。
また従来のステレオマッチング法が、基準画像のブロックエリアに対し探索窓を視差の起こりうる範囲だけ移動させながらマッチングを行い対応点を抽出するのに対し、本実施の形態による手法では、探索窓の移動そもののが必要ない。また部分的な検知領域のみを処理対象とするため、処理の負荷が格段に小さくなる。さらに検知面の数を変化させたり、背景物の模様などに起因する誤判定を抑制する処理を加えたり外したりすることで、検出結果の使用目的、撮影環境、装置の処理性能などに応じた適切な処理系を選択できる。
以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
例えば本実施の形態では、主に第1カメラ13aの3次元カメラ座標系において検知面を定義した。一方、第1カメラ13a、第2カメラ13bのカメラ座標系以外の座標系において検知面を定義してもよい。例えば表示用の高解像度画像を撮影する第3のカメラを別に設け、そのカメラの3次元座標系において検知面を定義してもよい。あるいはAR表示などにおけるグラフィックス描画で設定する3次元カメラ座標系において検知面を定義してもよい。このような場合でも本実施の形態と同様、第1カメラ13a、第2カメラ13bのどちらかの撮影画像平面に検知面を投影し、それらのカメラから検知面までの距離に応じた視差で他方の画像をずらしてマッチングを行うことにより、当該検知面に位置する被写体を検出できる。
2 情報処理システム、 10 情報処理装置、 12 撮像装置、 16 表示装置、 13a 第1カメラ、 13b 第2カメラ、 22 CPU、 24 GPU、 26 メインメモリ、 42 画像取得部、 44 入力情報取得部、 46 位置情報生成部、 48 画像記憶部、 50 出力情報生成部、 60 検知面定義部、 62 特徴量算出部、 64 視差補正領域導出部、 66 領域切り出し部、 68 マッチング部、 70 位置情報出力部、 170 キャリブレーション部、 172 商品データサーバ、 174 規格データベース。

Claims (14)

  1. 撮影画像を用いて計測対象の3次元空間における位置を検出する情報処理装置であって、
    所定の距離を隔てて設置された第1のカメラおよび第2のカメラで計測対象を並列に撮影したステレオ画像のデータを取得する画像取得部と、
    前記3次元空間において検知面を定義し、前記ステレオ画像のうち前記第1のカメラの撮影画像に前記検知面を投影した検知領域を定める検知面定義部と、
    前記ステレオ画像のうち前記第2のカメラの撮影画像において、前記検知領域と同一の領域を、前記検知面の奥行き方向の位置によって定まる視差の大きさだけ、視差を解消する方向に移動させた視差補正領域を導出する視差補正領域導出部と、
    前記第1のカメラの撮影画像における検知領域の画像と、前記第2のカメラの撮影画像における視差補正領域の画像とでマッチング処理を行うマッチング部と、
    前記マッチング部が行ったマッチング結果を出力する検出結果出力部と、
    を備えたことを特徴とする情報処理装置。
  2. 前記検知面の奥行き方向の位置が検知面内で異なるとき、前記視差補正領域導出部は、前記第2のカメラの撮影画像において、前記検知領域と同一の領域の頂点ごとに視差の大きさを算出し、頂点をそれぞれの大きさで移動させることにより前記視差補正領域を導出することを特徴とする請求項1に記載の情報処理装置。
  3. 前記第1のカメラの撮影画像における検知領域の画像と、前記第2のカメラの撮影画像における視差補正領域の画像とを、同じ大きさのマッチング用の画像とするためにテクスチャマッピングを行う領域切り出し部をさらに含むことを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記検知面定義部は、前記検知面を前記3次元空間における所定範囲に複数定義し、
    前記視差補正領域導出部は、前記検知面ごとに前記視差補正領域を導出し、
    前記マッチング部は、前記検知面ごとに前記マッチング処理を行い、
    前記検出結果出力部は、マッチング評価値の最も高い検知面を抽出することにより、計測対象の位置を、抽出した検知面上と判定することを特徴とする請求項1から3のいずれかに記載の情報処理装置。
  5. 前記検知面定義部は、複数の前記検知面を、前記3次元空間における所定の軸に対する回転角を異ならせて定義することを特徴とする請求項4に記載の情報処理装置。
  6. 前記画像取得部は所定のフレームレートで撮影されたステレオ画像を取得し、
    前記マッチング部は、同じカメラで撮影された前の時刻の撮影画像との比較により生成された動き差分画像を用い、各画像のうち動き領域以外の領域を無効としたうえ、マッチング処理を行うことを特徴とする請求項1から5のいずれかに記載の情報処理装置。
  7. 前記検知面定義部は、複数の計測対象のそれぞれに対応させて複数の前記検知面を定義し、
    前記視差補正領域導出部は、前記検知面ごとに前記視差補正領域を導出し、
    前記マッチング部は、前記検知面ごとに前記マッチング処理を行ったうえ、一の検知面においてマッチング評価値がしきい値より高い箇所のうち、別の検知面においてもマッチング評価値がしきい値より高い箇所を無効とすることにより計測対象ごとのマッチング結果とすることを特徴とする請求項1から3のいずれかに記載の情報処理装置。
  8. 前記マッチング部は、マッチング評価値がしきい値より高い箇所を、前記検知面上に存在する計測対象の部位として特定し、
    前記検知面上に計測対象の部位が存在するとき、前記3次元空間において、当該検知面と同一平面を表面の一部とした仮想オブジェクトが当該計測対象と相互作用するように、撮影画像上に前記仮想オブジェクトを描画し表示装置に表示させる出力情報生成部をさらに含むことを特徴とする請求項1から7のいずれかに記載の情報処理装置。
  9. 前記検知面定義部は、前記ステレオ画像の解像度を小さくした低解像度ステレオ画像に対し、対応点を抽出してその視差から対象物の奥行き方向の位置を算出するステレオマッチングを行い、その結果から計測対象の概算された位置を取得して、当該位置に基づき前記検知面の位置を決定することを特徴とする請求項1から8のいずれかに記載の情報処理装置。
  10. 前記画像取得部は所定のフレームレートで撮影されたステレオ画像を取得し、
    前記検知面定義部は、前の時刻のステレオ画像に対して判定された計測対象の位置に基づき、複数の前記検知面の位置を決定することを特徴とする請求項4または5に記載の情報処理装置。
  11. 計測対象の実寸をデータベースから取得し、撮影画像における見かけ上のサイズと実寸との比較により当該計測対象の奥行き方向の位置を取得し、当該位置に検知面を定義したうえで視差補正領域の移動量を変化させてそれぞれマッチング処理を行った結果、正しいマッチング評価が得られる前記移動量を抽出することにより、奥行き方向の位置と前記移動量の関係を補正するキャリブレーション部をさらに備えたことを特徴とする請求項1から10のいずれかに記載の情報処理装置。
  12. 撮影画像を用いて計測対象の3次元空間における位置を検出する情報処理装置が行う情報処理方法であって、
    所定の距離を隔てて設置された第1のカメラおよび第2のカメラで計測対象を並列に撮影したステレオ画像のデータを撮像装置から取得するステップと、
    前記3次元空間において検知面を定義し、前記ステレオ画像のうち前記第1のカメラの撮影画像に前記検知面を投影した検知領域を定めるステップと、
    前記ステレオ画像のうち前記第2のカメラの撮影画像において、前記検知領域と同一の領域を、前記検知面の奥行き方向の位置によって定まる視差の大きさだけ、視差を解消する方向に移動させた視差補正領域を導出するステップと、
    前記第1のカメラの撮影画像における検知領域の画像と、前記第2のカメラの撮影画像における視差補正領域の画像とでマッチング処理を行うステップと、
    マッチング結果を出力するステップと、
    前記マッチング結果を利用して画像を生成し表示装置に表示するステップと、
    を含むことを特徴とする情報処理方法。
  13. 撮影画像を用いて計測対象の3次元空間における位置を検出する機能をコンピュータに実現させるコンピュータプログラムであって、
    所定の距離を隔てて設置された第1のカメラおよび第2のカメラで計測対象を並列に撮影したステレオ画像のデータを撮像装置から取得する機能と、
    前記3次元空間において検知面を定義し、前記ステレオ画像のうち前記第1のカメラの撮影画像に前記検知面を投影した検知領域を定める機能と、
    前記ステレオ画像のうち前記第2のカメラの撮影画像において、前記検知領域と同一の領域を、前記検知面の奥行き方向の位置によって定まる視差の大きさだけ、視差を解消する方向に移動させた視差補正領域を導出する機能と、
    前記第1のカメラの撮影画像における検知領域の画像と、前記第2のカメラの撮影画像における視差補正領域の画像とでマッチング処理を行う機能と、
    マッチング結果を出力する機能と、
    をコンピュータに実現させることを特徴とするコンピュータプログラム。
  14. 撮影画像を用いて計測対象の3次元空間における位置を検出する機能をコンピュータに実現させるコンピュータプログラムであって、
    所定の距離を隔てて設置された第1のカメラおよび第2のカメラで計測対象を並列に撮影したステレオ画像のデータを撮像装置から取得する機能と、
    前記3次元空間において検知面を定義し、前記ステレオ画像のうち前記第1のカメラの撮影画像に前記検知面を投影した検知領域を定める機能と、
    前記ステレオ画像のうち前記第2のカメラの撮影画像において、前記検知領域と同一の領域を、前記検知面の奥行き方向の位置によって定まる視差の大きさだけ、視差を解消する方向に移動させた視差補正領域を導出する機能と、
    前記第1のカメラの撮影画像における検知領域の画像と、前記第2のカメラの撮影画像における視差補正領域の画像とでマッチング処理を行う機能と、
    マッチング結果を出力する機能と、
    をコンピュータに実現させるコンピュータプログラムを記録したことを特徴とする、コンピュータに読み取り可能な記録媒体。
JP2012116993A 2012-05-22 2012-05-22 情報処理装置および情報処理方法 Active JP5773944B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012116993A JP5773944B2 (ja) 2012-05-22 2012-05-22 情報処理装置および情報処理方法
EP13794634.9A EP2854099B1 (en) 2012-05-22 2013-04-11 Information processing device and information processing method
CN201380032860.7A CN104380338B (zh) 2012-05-22 2013-04-11 信息处理器以及信息处理方法
US14/397,654 US10469829B2 (en) 2012-05-22 2013-04-11 Information processor and information processing method
PCT/JP2013/002481 WO2013175700A1 (ja) 2012-05-22 2013-04-11 情報処理装置および情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012116993A JP5773944B2 (ja) 2012-05-22 2012-05-22 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JP2013242812A JP2013242812A (ja) 2013-12-05
JP5773944B2 true JP5773944B2 (ja) 2015-09-02

Family

ID=49623415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012116993A Active JP5773944B2 (ja) 2012-05-22 2012-05-22 情報処理装置および情報処理方法

Country Status (5)

Country Link
US (1) US10469829B2 (ja)
EP (1) EP2854099B1 (ja)
JP (1) JP5773944B2 (ja)
CN (1) CN104380338B (ja)
WO (1) WO2013175700A1 (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6300560B2 (ja) * 2014-02-14 2018-03-28 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
JP6165650B2 (ja) * 2014-02-14 2017-07-19 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
US10210629B2 (en) 2014-02-14 2019-02-19 Sony Interactive Entertainment Inc. Information processor and information processing method
JP6593995B2 (ja) * 2015-01-26 2019-10-23 三菱電機株式会社 空港監視装置
US10699476B2 (en) * 2015-08-06 2020-06-30 Ams Sensors Singapore Pte. Ltd. Generating a merged, fused three-dimensional point cloud based on captured images of a scene
CN105184780B (zh) * 2015-08-26 2018-06-05 京东方科技集团股份有限公司 一种立体视觉深度的预测方法和系统
CN108028883B (zh) * 2015-09-30 2020-11-03 索尼公司 图像处理装置和图像处理方法
JP6452585B2 (ja) 2015-10-01 2019-01-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および位置情報取得方法
JP6696149B2 (ja) * 2015-10-29 2020-05-20 富士通株式会社 画像生成方法、画像生成プログラム、情報処理装置および表示制御方法
JP2019113882A (ja) 2016-03-23 2019-07-11 株式会社ソニー・インタラクティブエンタテインメント 頭部装着装置
CN106582015B (zh) * 2016-11-24 2020-01-07 北京乐动卓越科技有限公司 一种在2d游戏中实现3d效果展示的方法及系统
JP6950170B2 (ja) * 2016-11-30 2021-10-13 株式会社リコー 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム
WO2018098789A1 (en) * 2016-12-01 2018-06-07 SZ DJI Technology Co., Ltd. Method and system for detecting and tracking objects using characteristic points
KR102718581B1 (ko) 2017-01-26 2024-10-17 삼성전자주식회사 스테레오 매칭 방법 및 장치
JP6700480B2 (ja) * 2017-03-30 2020-05-27 株式会社ソニー・インタラクティブエンタテインメント ポリゴンモデル生成装置、ポリゴンモデル生成方法及びプログラム
US10977818B2 (en) * 2017-05-19 2021-04-13 Manor Financial, Inc. Machine learning based model localization system
EP3430595B1 (en) * 2017-05-23 2020-10-28 Brainlab AG Determining the relative position between a point cloud generating camera and another camera
CN109242901B (zh) * 2017-07-11 2021-10-22 深圳市道通智能航空技术股份有限公司 应用于三维相机的图像校准方法和装置
US11257248B2 (en) * 2017-08-01 2022-02-22 Sony Corporation Information processing device, information processing method, recording medium, and image capturing apparatus for self-position-posture estimation
US10762658B2 (en) * 2017-10-24 2020-09-01 Altek Corporation Method and image pick-up apparatus for calculating coordinates of object being captured using fisheye images
US10957064B2 (en) * 2017-12-29 2021-03-23 PlusAI Corp Method and system for multiple stereo based depth estimation and collision warning/avoidance utilizing the same
JP7253323B2 (ja) * 2018-02-14 2023-04-06 オムロン株式会社 3次元計測システム及び3次元計測方法
EP3651056A1 (en) * 2018-11-06 2020-05-13 Rovco Limited Computing device and method for video object detection
GB2578789A (en) * 2018-11-09 2020-05-27 Sony Corp A method, apparatus and computer program for image processing
CN111383255B (zh) * 2018-12-29 2024-04-12 北京市商汤科技开发有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN109935318B (zh) * 2019-03-06 2021-07-30 智美康民(珠海)健康科技有限公司 三维脉波的显示方法、装置、计算机设备及存储介质
CN111225201B (zh) * 2020-01-19 2022-11-15 深圳市商汤科技有限公司 视差校正方法及装置、存储介质
WO2021203770A1 (zh) * 2020-04-10 2021-10-14 熵智科技(深圳)有限公司 基于双投射器的双目立体匹配方法、装置、介质和设备
CN111601097B (zh) * 2020-04-10 2020-12-18 熵智科技(深圳)有限公司 基于双投射器的双目立体匹配方法、装置、介质和设备
CN112115889B (zh) * 2020-09-23 2022-08-30 成都信息工程大学 基于视觉的智能车运动目标检测方法
CN112911264B (zh) * 2021-01-27 2022-11-29 广东未来科技有限公司 3d拍摄方法、装置、存储介质及移动终端
CN113983951B (zh) * 2021-09-10 2024-03-29 深圳市辰卓科技有限公司 三维目标的测量方法、装置、影像仪及存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4286556B2 (ja) * 2003-02-24 2009-07-01 株式会社東芝 画像表示装置
JP4394487B2 (ja) * 2004-03-05 2010-01-06 富士重工業株式会社 ステレオ画像処理装置
US7586534B2 (en) * 2005-03-22 2009-09-08 Fujifilm Corporation Multi-eye image pickup device, adjusting method and device therefor, and image-area adjusting system and method
WO2006137253A1 (ja) * 2005-06-22 2006-12-28 Matsushita Electric Industrial Co., Ltd. 画像生成装置および画像生成方法
JP2009514106A (ja) 2005-10-26 2009-04-02 株式会社ソニー・コンピュータエンタテインメント コンピュータプログラムとインタフェースするためのシステムおよび方法
JP4804202B2 (ja) * 2006-04-10 2011-11-02 富士重工業株式会社 ステレオ式監視装置
JP5075672B2 (ja) 2008-02-25 2012-11-21 株式会社東芝 対象物検出装置及び方法
JP5409107B2 (ja) * 2009-05-13 2014-02-05 任天堂株式会社 表示制御プログラム、情報処理装置、表示制御方法、および情報処理システム
JP5405264B2 (ja) * 2009-10-20 2014-02-05 任天堂株式会社 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法
JP4754031B2 (ja) * 2009-11-04 2011-08-24 任天堂株式会社 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム
US9109891B2 (en) * 2010-02-02 2015-08-18 Konica Minolta Holdings, Inc. Stereo camera
CN102792333B (zh) * 2010-03-19 2016-11-23 拉碧斯半导体株式会社 图像处理装置、方法、程序以及记录介质
US9344701B2 (en) * 2010-07-23 2016-05-17 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation
CN102447917A (zh) * 2010-10-08 2012-05-09 三星电子株式会社 立体图像匹配方法及其设备
JP5522018B2 (ja) * 2010-12-15 2014-06-18 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP5351878B2 (ja) * 2010-12-20 2013-11-27 富士フイルム株式会社 立体画像表示装置および方法並びにプログラム
JP5214826B2 (ja) * 2010-12-24 2013-06-19 富士フイルム株式会社 立体パノラマ画像作成装置、立体パノラマ画像作成方法及び立体パノラマ画像作成プログラム並びに立体パノラマ画像再生装置、立体パノラマ画像再生方法及び立体パノラマ画像再生プログラム、記録媒体
KR101758058B1 (ko) * 2011-01-20 2017-07-17 삼성전자주식회사 깊이 정보를 이용한 카메라 모션 추정 방법 및 장치, 증강 현실 시스템
JP5798334B2 (ja) * 2011-02-18 2015-10-21 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
JP2012198075A (ja) * 2011-03-18 2012-10-18 Ricoh Co Ltd ステレオカメラ装置、画像補整方法
JP5757790B2 (ja) * 2011-06-03 2015-07-29 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び、情報処理方法
JP5770018B2 (ja) * 2011-06-03 2015-08-26 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御方法及び表示制御システム

Also Published As

Publication number Publication date
US10469829B2 (en) 2019-11-05
EP2854099A4 (en) 2016-10-12
CN104380338B (zh) 2020-08-18
WO2013175700A1 (ja) 2013-11-28
US20150077520A1 (en) 2015-03-19
JP2013242812A (ja) 2013-12-05
EP2854099A1 (en) 2015-04-01
CN104380338A (zh) 2015-02-25
EP2854099B1 (en) 2019-07-17

Similar Documents

Publication Publication Date Title
JP5773944B2 (ja) 情報処理装置および情報処理方法
US11308347B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
TWI549022B (zh) 用於全自動動態鉸接模型校準的電腦可讀取儲存裝置及處理器實施的方法
CN110998659B (zh) 图像处理系统、图像处理方法、及程序
US8401225B2 (en) Moving object segmentation using depth images
JP5865910B2 (ja) 構造化光および立体視に基づく深度カメラ
JP6548518B2 (ja) 情報処理装置および情報処理方法
US20150002419A1 (en) Recognizing interactions with hot zones
US8866898B2 (en) Living room movie creation
KR20180100476A (ko) 이미지 및 뎁스 데이터를 사용하여 3차원(3d) 인간 얼굴 모델을 발생시키는 가상 현실 기반 장치 및 방법
US11816848B2 (en) Resilient dynamic projection mapping system and methods
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
KR20160147495A (ko) 인터랙티브 콘텐츠 제어 장치 및 방법
KR101892735B1 (ko) 직관적인 상호작용 장치 및 방법
US11043004B2 (en) Resolving region-of-interest (ROI) overlaps for distributed simultaneous localization and mapping (SLAM) in edge cloud architectures
Hernandez et al. Near laser-scan quality 3-D face reconstruction from a low-quality depth stream
JP2016152586A (ja) プロジェクションマッピング装置、映像投影制御装置、映像投影制御方法および映像投影制御プログラム
Weiss et al. Home 3D body scans from a single Kinect
JP2016024728A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150630

R150 Certificate of patent or registration of utility model

Ref document number: 5773944

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250