JP5773944B2 - 情報処理装置および情報処理方法 - Google Patents
情報処理装置および情報処理方法 Download PDFInfo
- Publication number
- JP5773944B2 JP5773944B2 JP2012116993A JP2012116993A JP5773944B2 JP 5773944 B2 JP5773944 B2 JP 5773944B2 JP 2012116993 A JP2012116993 A JP 2012116993A JP 2012116993 A JP2012116993 A JP 2012116993A JP 5773944 B2 JP5773944 B2 JP 5773944B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- detection
- detection surface
- camera
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
Description
Δx=Z×w/W
ここでWはカメラの横方向の画素数、wは距離Zが1のときの実空間の横方向の視野範囲であり視角によって定まる。
D=L/Δx=L×(W/w)×(1/Z)=C/Z
ここでCはカメラおよびそのセッティングにより定まる値であり、運用時は定数とみなせる。
Δz=Δx×Z/L=Z2×(w/W)×(1/L)
図16、17で説明したように、天井面、床面、壁面の位置を検出するのと同様に、机の上面、椅子の座面、舞台上面など、撮影環境において基準となり得る水平面や垂直面の位置を検出する。天井面、壁面、床面が検出できると、それらの平面との距離や角度の関係などからその他の水平面、垂直面のおよその位置を類推できる。そして当該位置に集中的に検知面を分布させることにより、より効率的にこれらの平面を検出できる。
上述したように、検知面定義部60などにおいて、一般的なステレオ画像法、すなわちステレオ画像の特徴点を対応づけ、それらの視差から対象物の奥行き方向の位置を算出する手法により奥行き画像を生成し、それを利用して検知面を定義してもよい。例えば計測対象である人の頭、手、胴体など、ターゲットとなる部位のおよその奥行き方向の位置を奥行き画像により導出する。そして部位ごとに、導出したおよその距離を中心とした所定範囲に集中的に検知面を分布させる。そして検知面を用いた評価を上述のとおり行い、最もマッチング評価値の高い検知面を抽出することにより、各ターゲットの位置を特定する。
上述のとおり動く仮想オブジェクトを描画し、被写体である人物の手の上に飛来したり、手の動きに合わせてはねたり、といった、被写体と仮想オブジェクトの相互作用の発生にも利用できる。このとき、検知面定義部60などによって簡易的な奥行き画像を所定のレートで生成し、手などのターゲットのおよその位置を監視する。そして一般的なグラフィックス処理により仮想オブジェクトをターゲット方向へ動かしていき、ターゲットまでの距離がしきい値より小さくなった時点で、ターゲット上に検知面を定義する。
人物の全体像や顔面など位置を特定したいターゲットの形状に合わせて複数の検知面を組み合わせモデルを形成する。図18は人物全体の形状に合わせたモデル形状を有する複数の検知面を定義し、撮影画像へ投影させた例を示している。画像平面160において、人体のモデルを構成する矩形162の1つ1つが検知面である。なお被写体の人物はこの人体モデルに重なっているものとして図示を省略している。
商品のラベルなどの情報からその商品の形状や実寸などの規格を含む情報を提供する商品データサーバを利用して、情報処理装置10のキャリブレーションを行う。図19はその場合のシステム構成を示している。図1において示したネットワーク18を介して、情報処理装置10から商品データサーバ172へアクセスする。商品データサーバ172は、商品のラベルやバーコードなどの画像を送信すると該当する商品の情報を返信するサーバである。あるいは情報処理装置10側でラベルやバーコードの画像解析を行い商品名や型番などの基本情報を取得したうえで、当該情報を商品データサーバ172へ送信することで商品の情報を返信してもらうシステムでもよい。
Claims (14)
- 撮影画像を用いて計測対象の3次元空間における位置を検出する情報処理装置であって、
所定の距離を隔てて設置された第1のカメラおよび第2のカメラで計測対象を並列に撮影したステレオ画像のデータを取得する画像取得部と、
前記3次元空間において検知面を定義し、前記ステレオ画像のうち前記第1のカメラの撮影画像に前記検知面を投影した検知領域を定める検知面定義部と、
前記ステレオ画像のうち前記第2のカメラの撮影画像において、前記検知領域と同一の領域を、前記検知面の奥行き方向の位置によって定まる視差の大きさだけ、視差を解消する方向に移動させた視差補正領域を導出する視差補正領域導出部と、
前記第1のカメラの撮影画像における検知領域の画像と、前記第2のカメラの撮影画像における視差補正領域の画像とでマッチング処理を行うマッチング部と、
前記マッチング部が行ったマッチング結果を出力する検出結果出力部と、
を備えたことを特徴とする情報処理装置。 - 前記検知面の奥行き方向の位置が検知面内で異なるとき、前記視差補正領域導出部は、前記第2のカメラの撮影画像において、前記検知領域と同一の領域の頂点ごとに視差の大きさを算出し、頂点をそれぞれの大きさで移動させることにより前記視差補正領域を導出することを特徴とする請求項1に記載の情報処理装置。
- 前記第1のカメラの撮影画像における検知領域の画像と、前記第2のカメラの撮影画像における視差補正領域の画像とを、同じ大きさのマッチング用の画像とするためにテクスチャマッピングを行う領域切り出し部をさらに含むことを特徴とする請求項1または2に記載の情報処理装置。
- 前記検知面定義部は、前記検知面を前記3次元空間における所定範囲に複数定義し、
前記視差補正領域導出部は、前記検知面ごとに前記視差補正領域を導出し、
前記マッチング部は、前記検知面ごとに前記マッチング処理を行い、
前記検出結果出力部は、マッチング評価値の最も高い検知面を抽出することにより、計測対象の位置を、抽出した検知面上と判定することを特徴とする請求項1から3のいずれかに記載の情報処理装置。 - 前記検知面定義部は、複数の前記検知面を、前記3次元空間における所定の軸に対する回転角を異ならせて定義することを特徴とする請求項4に記載の情報処理装置。
- 前記画像取得部は所定のフレームレートで撮影されたステレオ画像を取得し、
前記マッチング部は、同じカメラで撮影された前の時刻の撮影画像との比較により生成された動き差分画像を用い、各画像のうち動き領域以外の領域を無効としたうえ、マッチング処理を行うことを特徴とする請求項1から5のいずれかに記載の情報処理装置。 - 前記検知面定義部は、複数の計測対象のそれぞれに対応させて複数の前記検知面を定義し、
前記視差補正領域導出部は、前記検知面ごとに前記視差補正領域を導出し、
前記マッチング部は、前記検知面ごとに前記マッチング処理を行ったうえ、一の検知面においてマッチング評価値がしきい値より高い箇所のうち、別の検知面においてもマッチング評価値がしきい値より高い箇所を無効とすることにより計測対象ごとのマッチング結果とすることを特徴とする請求項1から3のいずれかに記載の情報処理装置。 - 前記マッチング部は、マッチング評価値がしきい値より高い箇所を、前記検知面上に存在する計測対象の部位として特定し、
前記検知面上に計測対象の部位が存在するとき、前記3次元空間において、当該検知面と同一平面を表面の一部とした仮想オブジェクトが当該計測対象と相互作用するように、撮影画像上に前記仮想オブジェクトを描画し表示装置に表示させる出力情報生成部をさらに含むことを特徴とする請求項1から7のいずれかに記載の情報処理装置。 - 前記検知面定義部は、前記ステレオ画像の解像度を小さくした低解像度ステレオ画像に対し、対応点を抽出してその視差から対象物の奥行き方向の位置を算出するステレオマッチングを行い、その結果から計測対象の概算された位置を取得して、当該位置に基づき前記検知面の位置を決定することを特徴とする請求項1から8のいずれかに記載の情報処理装置。
- 前記画像取得部は所定のフレームレートで撮影されたステレオ画像を取得し、
前記検知面定義部は、前の時刻のステレオ画像に対して判定された計測対象の位置に基づき、複数の前記検知面の位置を決定することを特徴とする請求項4または5に記載の情報処理装置。 - 計測対象の実寸をデータベースから取得し、撮影画像における見かけ上のサイズと実寸との比較により当該計測対象の奥行き方向の位置を取得し、当該位置に検知面を定義したうえで視差補正領域の移動量を変化させてそれぞれマッチング処理を行った結果、正しいマッチング評価が得られる前記移動量を抽出することにより、奥行き方向の位置と前記移動量の関係を補正するキャリブレーション部をさらに備えたことを特徴とする請求項1から10のいずれかに記載の情報処理装置。
- 撮影画像を用いて計測対象の3次元空間における位置を検出する情報処理装置が行う情報処理方法であって、
所定の距離を隔てて設置された第1のカメラおよび第2のカメラで計測対象を並列に撮影したステレオ画像のデータを撮像装置から取得するステップと、
前記3次元空間において検知面を定義し、前記ステレオ画像のうち前記第1のカメラの撮影画像に前記検知面を投影した検知領域を定めるステップと、
前記ステレオ画像のうち前記第2のカメラの撮影画像において、前記検知領域と同一の領域を、前記検知面の奥行き方向の位置によって定まる視差の大きさだけ、視差を解消する方向に移動させた視差補正領域を導出するステップと、
前記第1のカメラの撮影画像における検知領域の画像と、前記第2のカメラの撮影画像における視差補正領域の画像とでマッチング処理を行うステップと、
マッチング結果を出力するステップと、
前記マッチング結果を利用して画像を生成し表示装置に表示するステップと、
を含むことを特徴とする情報処理方法。 - 撮影画像を用いて計測対象の3次元空間における位置を検出する機能をコンピュータに実現させるコンピュータプログラムであって、
所定の距離を隔てて設置された第1のカメラおよび第2のカメラで計測対象を並列に撮影したステレオ画像のデータを撮像装置から取得する機能と、
前記3次元空間において検知面を定義し、前記ステレオ画像のうち前記第1のカメラの撮影画像に前記検知面を投影した検知領域を定める機能と、
前記ステレオ画像のうち前記第2のカメラの撮影画像において、前記検知領域と同一の領域を、前記検知面の奥行き方向の位置によって定まる視差の大きさだけ、視差を解消する方向に移動させた視差補正領域を導出する機能と、
前記第1のカメラの撮影画像における検知領域の画像と、前記第2のカメラの撮影画像における視差補正領域の画像とでマッチング処理を行う機能と、
マッチング結果を出力する機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。 - 撮影画像を用いて計測対象の3次元空間における位置を検出する機能をコンピュータに実現させるコンピュータプログラムであって、
所定の距離を隔てて設置された第1のカメラおよび第2のカメラで計測対象を並列に撮影したステレオ画像のデータを撮像装置から取得する機能と、
前記3次元空間において検知面を定義し、前記ステレオ画像のうち前記第1のカメラの撮影画像に前記検知面を投影した検知領域を定める機能と、
前記ステレオ画像のうち前記第2のカメラの撮影画像において、前記検知領域と同一の領域を、前記検知面の奥行き方向の位置によって定まる視差の大きさだけ、視差を解消する方向に移動させた視差補正領域を導出する機能と、
前記第1のカメラの撮影画像における検知領域の画像と、前記第2のカメラの撮影画像における視差補正領域の画像とでマッチング処理を行う機能と、
マッチング結果を出力する機能と、
をコンピュータに実現させるコンピュータプログラムを記録したことを特徴とする、コンピュータに読み取り可能な記録媒体。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012116993A JP5773944B2 (ja) | 2012-05-22 | 2012-05-22 | 情報処理装置および情報処理方法 |
EP13794634.9A EP2854099B1 (en) | 2012-05-22 | 2013-04-11 | Information processing device and information processing method |
CN201380032860.7A CN104380338B (zh) | 2012-05-22 | 2013-04-11 | 信息处理器以及信息处理方法 |
US14/397,654 US10469829B2 (en) | 2012-05-22 | 2013-04-11 | Information processor and information processing method |
PCT/JP2013/002481 WO2013175700A1 (ja) | 2012-05-22 | 2013-04-11 | 情報処理装置および情報処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012116993A JP5773944B2 (ja) | 2012-05-22 | 2012-05-22 | 情報処理装置および情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013242812A JP2013242812A (ja) | 2013-12-05 |
JP5773944B2 true JP5773944B2 (ja) | 2015-09-02 |
Family
ID=49623415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012116993A Active JP5773944B2 (ja) | 2012-05-22 | 2012-05-22 | 情報処理装置および情報処理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10469829B2 (ja) |
EP (1) | EP2854099B1 (ja) |
JP (1) | JP5773944B2 (ja) |
CN (1) | CN104380338B (ja) |
WO (1) | WO2013175700A1 (ja) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6300560B2 (ja) * | 2014-02-14 | 2018-03-28 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および情報処理方法 |
JP6165650B2 (ja) * | 2014-02-14 | 2017-07-19 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および情報処理方法 |
US10210629B2 (en) | 2014-02-14 | 2019-02-19 | Sony Interactive Entertainment Inc. | Information processor and information processing method |
JP6593995B2 (ja) * | 2015-01-26 | 2019-10-23 | 三菱電機株式会社 | 空港監視装置 |
US10699476B2 (en) * | 2015-08-06 | 2020-06-30 | Ams Sensors Singapore Pte. Ltd. | Generating a merged, fused three-dimensional point cloud based on captured images of a scene |
CN105184780B (zh) * | 2015-08-26 | 2018-06-05 | 京东方科技集团股份有限公司 | 一种立体视觉深度的预测方法和系统 |
CN108028883B (zh) * | 2015-09-30 | 2020-11-03 | 索尼公司 | 图像处理装置和图像处理方法 |
JP6452585B2 (ja) | 2015-10-01 | 2019-01-16 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および位置情報取得方法 |
JP6696149B2 (ja) * | 2015-10-29 | 2020-05-20 | 富士通株式会社 | 画像生成方法、画像生成プログラム、情報処理装置および表示制御方法 |
JP2019113882A (ja) | 2016-03-23 | 2019-07-11 | 株式会社ソニー・インタラクティブエンタテインメント | 頭部装着装置 |
CN106582015B (zh) * | 2016-11-24 | 2020-01-07 | 北京乐动卓越科技有限公司 | 一种在2d游戏中实现3d效果展示的方法及系统 |
JP6950170B2 (ja) * | 2016-11-30 | 2021-10-13 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム |
WO2018098789A1 (en) * | 2016-12-01 | 2018-06-07 | SZ DJI Technology Co., Ltd. | Method and system for detecting and tracking objects using characteristic points |
KR102718581B1 (ko) | 2017-01-26 | 2024-10-17 | 삼성전자주식회사 | 스테레오 매칭 방법 및 장치 |
JP6700480B2 (ja) * | 2017-03-30 | 2020-05-27 | 株式会社ソニー・インタラクティブエンタテインメント | ポリゴンモデル生成装置、ポリゴンモデル生成方法及びプログラム |
US10977818B2 (en) * | 2017-05-19 | 2021-04-13 | Manor Financial, Inc. | Machine learning based model localization system |
EP3430595B1 (en) * | 2017-05-23 | 2020-10-28 | Brainlab AG | Determining the relative position between a point cloud generating camera and another camera |
CN109242901B (zh) * | 2017-07-11 | 2021-10-22 | 深圳市道通智能航空技术股份有限公司 | 应用于三维相机的图像校准方法和装置 |
US11257248B2 (en) * | 2017-08-01 | 2022-02-22 | Sony Corporation | Information processing device, information processing method, recording medium, and image capturing apparatus for self-position-posture estimation |
US10762658B2 (en) * | 2017-10-24 | 2020-09-01 | Altek Corporation | Method and image pick-up apparatus for calculating coordinates of object being captured using fisheye images |
US10957064B2 (en) * | 2017-12-29 | 2021-03-23 | PlusAI Corp | Method and system for multiple stereo based depth estimation and collision warning/avoidance utilizing the same |
JP7253323B2 (ja) * | 2018-02-14 | 2023-04-06 | オムロン株式会社 | 3次元計測システム及び3次元計測方法 |
EP3651056A1 (en) * | 2018-11-06 | 2020-05-13 | Rovco Limited | Computing device and method for video object detection |
GB2578789A (en) * | 2018-11-09 | 2020-05-27 | Sony Corp | A method, apparatus and computer program for image processing |
CN111383255B (zh) * | 2018-12-29 | 2024-04-12 | 北京市商汤科技开发有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN109935318B (zh) * | 2019-03-06 | 2021-07-30 | 智美康民(珠海)健康科技有限公司 | 三维脉波的显示方法、装置、计算机设备及存储介质 |
CN111225201B (zh) * | 2020-01-19 | 2022-11-15 | 深圳市商汤科技有限公司 | 视差校正方法及装置、存储介质 |
WO2021203770A1 (zh) * | 2020-04-10 | 2021-10-14 | 熵智科技(深圳)有限公司 | 基于双投射器的双目立体匹配方法、装置、介质和设备 |
CN111601097B (zh) * | 2020-04-10 | 2020-12-18 | 熵智科技(深圳)有限公司 | 基于双投射器的双目立体匹配方法、装置、介质和设备 |
CN112115889B (zh) * | 2020-09-23 | 2022-08-30 | 成都信息工程大学 | 基于视觉的智能车运动目标检测方法 |
CN112911264B (zh) * | 2021-01-27 | 2022-11-29 | 广东未来科技有限公司 | 3d拍摄方法、装置、存储介质及移动终端 |
CN113983951B (zh) * | 2021-09-10 | 2024-03-29 | 深圳市辰卓科技有限公司 | 三维目标的测量方法、装置、影像仪及存储介质 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4286556B2 (ja) * | 2003-02-24 | 2009-07-01 | 株式会社東芝 | 画像表示装置 |
JP4394487B2 (ja) * | 2004-03-05 | 2010-01-06 | 富士重工業株式会社 | ステレオ画像処理装置 |
US7586534B2 (en) * | 2005-03-22 | 2009-09-08 | Fujifilm Corporation | Multi-eye image pickup device, adjusting method and device therefor, and image-area adjusting system and method |
WO2006137253A1 (ja) * | 2005-06-22 | 2006-12-28 | Matsushita Electric Industrial Co., Ltd. | 画像生成装置および画像生成方法 |
JP2009514106A (ja) | 2005-10-26 | 2009-04-02 | 株式会社ソニー・コンピュータエンタテインメント | コンピュータプログラムとインタフェースするためのシステムおよび方法 |
JP4804202B2 (ja) * | 2006-04-10 | 2011-11-02 | 富士重工業株式会社 | ステレオ式監視装置 |
JP5075672B2 (ja) | 2008-02-25 | 2012-11-21 | 株式会社東芝 | 対象物検出装置及び方法 |
JP5409107B2 (ja) * | 2009-05-13 | 2014-02-05 | 任天堂株式会社 | 表示制御プログラム、情報処理装置、表示制御方法、および情報処理システム |
JP5405264B2 (ja) * | 2009-10-20 | 2014-02-05 | 任天堂株式会社 | 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法 |
JP4754031B2 (ja) * | 2009-11-04 | 2011-08-24 | 任天堂株式会社 | 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム |
US9109891B2 (en) * | 2010-02-02 | 2015-08-18 | Konica Minolta Holdings, Inc. | Stereo camera |
CN102792333B (zh) * | 2010-03-19 | 2016-11-23 | 拉碧斯半导体株式会社 | 图像处理装置、方法、程序以及记录介质 |
US9344701B2 (en) * | 2010-07-23 | 2016-05-17 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation |
CN102447917A (zh) * | 2010-10-08 | 2012-05-09 | 三星电子株式会社 | 立体图像匹配方法及其设备 |
JP5522018B2 (ja) * | 2010-12-15 | 2014-06-18 | 富士通株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
JP5351878B2 (ja) * | 2010-12-20 | 2013-11-27 | 富士フイルム株式会社 | 立体画像表示装置および方法並びにプログラム |
JP5214826B2 (ja) * | 2010-12-24 | 2013-06-19 | 富士フイルム株式会社 | 立体パノラマ画像作成装置、立体パノラマ画像作成方法及び立体パノラマ画像作成プログラム並びに立体パノラマ画像再生装置、立体パノラマ画像再生方法及び立体パノラマ画像再生プログラム、記録媒体 |
KR101758058B1 (ko) * | 2011-01-20 | 2017-07-17 | 삼성전자주식회사 | 깊이 정보를 이용한 카메라 모션 추정 방법 및 장치, 증강 현실 시스템 |
JP5798334B2 (ja) * | 2011-02-18 | 2015-10-21 | 任天堂株式会社 | 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法 |
JP2012198075A (ja) * | 2011-03-18 | 2012-10-18 | Ricoh Co Ltd | ステレオカメラ装置、画像補整方法 |
JP5757790B2 (ja) * | 2011-06-03 | 2015-07-29 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、及び、情報処理方法 |
JP5770018B2 (ja) * | 2011-06-03 | 2015-08-26 | 任天堂株式会社 | 表示制御プログラム、表示制御装置、表示制御方法及び表示制御システム |
-
2012
- 2012-05-22 JP JP2012116993A patent/JP5773944B2/ja active Active
-
2013
- 2013-04-11 WO PCT/JP2013/002481 patent/WO2013175700A1/ja active Application Filing
- 2013-04-11 EP EP13794634.9A patent/EP2854099B1/en active Active
- 2013-04-11 US US14/397,654 patent/US10469829B2/en active Active
- 2013-04-11 CN CN201380032860.7A patent/CN104380338B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US10469829B2 (en) | 2019-11-05 |
EP2854099A4 (en) | 2016-10-12 |
CN104380338B (zh) | 2020-08-18 |
WO2013175700A1 (ja) | 2013-11-28 |
US20150077520A1 (en) | 2015-03-19 |
JP2013242812A (ja) | 2013-12-05 |
EP2854099A1 (en) | 2015-04-01 |
CN104380338A (zh) | 2015-02-25 |
EP2854099B1 (en) | 2019-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5773944B2 (ja) | 情報処理装置および情報処理方法 | |
US11308347B2 (en) | Method of determining a similarity transformation between first and second coordinates of 3D features | |
TWI549022B (zh) | 用於全自動動態鉸接模型校準的電腦可讀取儲存裝置及處理器實施的方法 | |
CN110998659B (zh) | 图像处理系统、图像处理方法、及程序 | |
US8401225B2 (en) | Moving object segmentation using depth images | |
JP5865910B2 (ja) | 構造化光および立体視に基づく深度カメラ | |
JP6548518B2 (ja) | 情報処理装置および情報処理方法 | |
US20150002419A1 (en) | Recognizing interactions with hot zones | |
US8866898B2 (en) | Living room movie creation | |
KR20180100476A (ko) | 이미지 및 뎁스 데이터를 사용하여 3차원(3d) 인간 얼굴 모델을 발생시키는 가상 현실 기반 장치 및 방법 | |
US11816848B2 (en) | Resilient dynamic projection mapping system and methods | |
JP6352208B2 (ja) | 三次元モデル処理装置およびカメラ校正システム | |
KR20160147495A (ko) | 인터랙티브 콘텐츠 제어 장치 및 방법 | |
KR101892735B1 (ko) | 직관적인 상호작용 장치 및 방법 | |
US11043004B2 (en) | Resolving region-of-interest (ROI) overlaps for distributed simultaneous localization and mapping (SLAM) in edge cloud architectures | |
Hernandez et al. | Near laser-scan quality 3-D face reconstruction from a low-quality depth stream | |
JP2016152586A (ja) | プロジェクションマッピング装置、映像投影制御装置、映像投影制御方法および映像投影制御プログラム | |
Weiss et al. | Home 3D body scans from a single Kinect | |
JP2016024728A (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140502 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150630 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5773944 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |