JP7341736B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7341736B2 JP7341736B2 JP2019106238A JP2019106238A JP7341736B2 JP 7341736 B2 JP7341736 B2 JP 7341736B2 JP 2019106238 A JP2019106238 A JP 2019106238A JP 2019106238 A JP2019106238 A JP 2019106238A JP 7341736 B2 JP7341736 B2 JP 7341736B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- region
- information processing
- plane
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/04—Architectural design, interior design
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Image Analysis (AREA)
Description
MRやARを実現するために、CGを現実環境の任意の位置に適切に位置合わせをすることが行われている。位置合わせの結果、ユーザはディスプレイを通じて見まわしたとしても、常に現実環境の一点に存在するCGを視認でき、あたかもそこに存在するかのような体験ができる。
また、近年では、このようなマーカーを用いずに、位置合わせを実現する技術が提案されており、例えば、SLAM(Simultaneous Localiztion And Mapping)という手法がある。非特許文献1には、SLAMの基本的な原理が開示されている。SLAMでは、カメラ画像を入力とし、その画像中の一つ以上の静止した特徴から、相対的な位置姿勢を求めることでカメラ位置姿勢を更新する。このような特徴としては、画像中の色変化が激しく輪郭、特にコーナーを形成している点やエッジがある。例えば無地の机の上に、机とは違う色のキューブが置かれていれば、そのキューブの各頂点が特徴点となり、それぞれの輪郭線はエッジとなる。
MR等のアプリケーションでは、位置合わせの結果を用いて、現実環境の特定の位置にCGを配置した画像を提供することが行われている。
逆に、現実空間において特徴となる箇所の数が極端に少ないと、位置合わせの精度が不十分となる部分が発生しうる。
また、現実空間中において、ある一方を向いた際の視野には特徴となる箇所が充足されて配置されているが、他の一方を向いた際の視野には特徴となる箇所が極端に少なく配置されている場合がある。このように、空間中に特徴となる箇所が万遍なく配置されていない場合、位置合わせの精度が不十分となる場合がある。
このような課題に対しては、画像中で特徴となる箇所の分布及び量が適切に存在する部分にカメラを向けるように誘導することが考えられる。特許文献1には、ユーザに提示する表示部に誘導オブジェクトを表示し、推奨する観察方向を通知する仕組みが開示されている。
このような状況に対応して、ユーザが、現実空間内に特徴を付与することが考えられる。例えば、ユーザが、現実空間において特徴の分布が不適切な領域に、特徴となるコーナー点を有する物体を配置することが考えられる。また、例えば、ユーザが、無地の壁に絵柄のあるポスターを貼る、無地の床にカーペットを敷く等を行うことで、現実空間に特徴を付与することが考えられる。
ただし、特徴の不足する場所であれば、どこでも容易に特徴を付与できるわけではない。例えば、MR体験を行っている部屋の中空に何らかの物体を固定することは容易ではない。この場合、例えば、固定器具を使うことが考えられるが、固定器具により人の通路等が妨げられ、体験環境そのものを壊すことになってしまうため、固定器具を設置できない場合がある。
そのため、ユーザが、特徴を付与する適切な場所を把握することが重要となる。しかし、ユーザは、位置合わせの特性についての知識を有しない場合がある。そのため、ユーザは、現実空間のどこに、特徴を付与すればよいかを把握できずに、適切に特徴を現実空間内に付与できないため、適切な位置合わせを実現できない場合がある。
本発明は、適切な位置合わせの実現に寄与することを目的とする。
[1.ハードウェア構成]
図1は、本実施形態の画像処理装置100のハードウェア構成の一例を示す図である。画像処理装置100は、撮影された画像から、位置合わせのための特徴を付与すべき領域を決定する情報処理装置である。本実施形態では、画像処理装置100は、パーソナルコンピュータ(PC)であるとするが、サーバ装置、タブレット装置、スマートグラス、コンピュータが組み込まれたヘッドマウントディスプレイ等の他の情報処理装置であってもよい。
画像処理装置100は、撮像部101、入力部102、記憶部103、表示部104、制御部105、バス106を含む。撮像部101、入力部102、記憶部103、表示部104、制御部105は、バス106を介して相互に通信可能に接続されている。
本実施形態では、撮像部101は、画像処理装置100に含まれることとするが、画像処理装置100に含まれずに、画像処理装置100と有線又は無線で接続された外部の撮像装置であることとしてもよい。
記憶部103は、各種プログラム、各種設定情報、撮像部101による撮像画像等を記憶する記憶装置である。記憶部103は、半導体メモリ又はハードディスク等の記憶媒体を含む。記憶部103により記憶されるデータは、例えば、撮像画像、カメラパラメータ、及び、様々なデータベース(DB)内のデータである。本実施形態では、画像処理装置100の処理に係るプログラム、各種データは、記憶部103に記憶されることとするが、外部の記憶部(例えば、データサーバ、ネットワークストレージ、外付けメモリ等)に記憶されていることとしてもよい。その場合、画像処理装置100は、その外部の記憶部から各種プログラム、各種データを取得する。
本実施形態では、表示部104は、画像処理装置100に含まれる表示モジュールであることとするが、画像処理装置100に含まれない外部の表示モジュールであることとしてもよい。その場合、表示部104は、有線又は無線で、画像処理装置100と接続される。
バス106は、撮像部101、入力部102、記憶部103、表示部104、制御部105を相互に接続する伝送経路である。
図2は、画像処理装置100の機能構成の一例を示す図である。
画像処理装置100は、画像取得部110、カメラ情報取得部120、特徴取得部130、位置推定部140、候補決定部150、領域決定部160を含む。
カメラ情報取得部120は、撮像部101のカメラパラメータを取得する。カメラパラメータとは、撮像部101の各種属性を示すパラメータであり、撮像部101の位置姿勢を示す外部パラメータ、撮影条件に関する内部パラメータを含む。
位置推定部140は、特徴取得部130により抽出された特徴それぞれの位置を推定し、推定した特徴の位置に基づいて、現実空間における撮像部101の位置姿勢を推定する。位置推定部140は、推定した特徴取得部130により抽出された特徴それぞれの位置を候補決定部150に送信する。
特徴取得部130及び位置推定部140は、撮像部101により撮影されたフレームごとに、特徴抽出及び撮像部101の位置推定の処理を継続することで、異なる位置姿勢の撮像部101からの撮像画像に映る特徴を取得していく。位置推定部140は、特徴取得部130により抽出された1つ以上の特徴の位置の情報を特徴位置情報として候補決定部150に送信する。
領域決定部160は、候補決定部150から1つ以上の候補領域の情報を受け取る。領域決定部160は、候補領域それぞれについて、候補領域を、個別の部分領域に区分したうえで、その部分領域の中で特徴の数が任意の閾値以下の領域を、特徴が付与される領域として決定し、決定した領域の情報を記憶部103に記憶する。以下では、領域決定部160が決定する特徴が付与される領域を、特徴付与推奨領域とする。領域決定部160は、特徴付与推奨領域の情報を、表示部104に表示する。
図3は、画像処理装置100の処理の一例を示すフローチャートである。
本実施形態では、画像処理装置100は、室内における特徴付与推奨領域を決定する。
S310において、カメラ情報取得部120は、撮像部101のカメラパラメータを取得する。本実施形態では、撮像部101のカメラパラメータは、予め制御部105により記憶部103に記憶されているとする。そのため、カメラ情報取得部120は、記憶部103から、撮像部101のカメラパラメータを取得する。ただし、カメラ情報取得部120は、入力部102を介して入力された情報に基づいて、撮像部101のカメラパラメータを取得してもよい。また、カメラ情報取得部120は、撮像部101に問い合わせることで、撮像部101のカメラパラメータを取得してもよい。
1フレームの入力画像から特徴取得部130により抽出された特徴からは、その入力画像中の特徴に対応する位置しか得られない。そこで、位置推定部140は、S310で取得されたカメラパラメータと、S320で取得された複数の入力画像と、これらの入力画像それぞれにおける特徴に対応する位置と、に基づいて、特徴の現実空間における位置を推定する。本実施形態では、画像処理装置100は、現実空間における位置を、現実空間に設定された3次元座標系における座標値として表すこととする。
そして、位置推定部140は、求めた複数の入力画像間における特徴の対応情報から、E行列(基礎行列)と呼ばれる変換行列を決定する。位置推定部140は、決定したE行列から撮像部101の位置姿勢を求め、複数の入力画像間の相対位置姿勢に基づいて、現実空間における特徴に対応する位置の3次元情報を推定する。以下では、現実空間における特徴に対応する位置を、特徴点とする。位置推定部140は、推定した特徴それぞれの位置の情報を、特徴位置情報として候補決定部150に送信する。
S340の処理の詳細については、図4で後述する。
図4のフローチャートにおけるS401~S407の処理は、S340での候補決定部150の処理を示す。また、S408~S414の処理は、S340での領域決定部160の処理を示す。
図5に室内における特徴位置情報が示す特徴点の分布の様子の一例を示す。図中の黒色の星印が、特徴点を示す。
S403において、候補決定部150は、S402で選択した3つの特徴点を通る平面を求める。本実施形態では、候補決定部150は、p0、p1、p2を、以下の式1に当てはめることで、求める平面の法線Vの式を求める。
S405において、候補決定部150は、抽出特徴点集合から、3つの特徴点の全ての組み合わせについて、S402で抽出したか否かを判定する。候補決定部150は、抽出特徴点集合から、3つの特徴点の全ての組み合わせについて、S402で抽出したと判定した場合、処理をS406へ進める。また、候補決定部150は、抽出特徴点集合にS402で抽出していない3つの特徴点の組み合わせが存在すると判定した場合、処理をS402へ進める。
S407において、候補決定部150は、S406で記憶された特徴点の数が、特徴位置情報が示す特徴点全体の数の設定された割合として定められた閾値を下回るか否かを判定する。候補決定部150は、S406で記憶された特徴点の数が閾値以上であると判定した場合、対象平面の領域を、候補領域として決定し、処理をS408に進め、S406で記憶された特徴点の数が閾値を下回ると判定した場合、処理をS414に進める。
そこで、本実施形態では、候補決定部150は、S406で記憶された特徴点の数が定められた閾値以上である場合に、対象平面を、何らかのオブジェクトの平面部を包含する平面として判断し、処理をS408に進めることとする。
図6が示す状態は、S408の処理の完了した後の状態の一例である。図6の平面1は、対象平面を示す。図6には、平面1に含まれる特徴点について、平面検出フラグが1になったことが示されている。
S410において、領域決定部160は、S409で抽出した特徴点の集合の重心と、対象平面上における縦横の偏差と、求める。そして、領域決定部160は、対象平面上で、求めた重心を中心に、求めた縦横の偏差の幅を有する領域を特定する。以下では、S410で特定された領域を、対象領域とする。図7にS410で特定された対象領域の一例を示す。
また、領域決定部160は、縦横の幅が、求めた縦横の偏差の1/2であるサイズを、サイズSとして記憶部103に記憶する。
S412において、領域決定部160は、対象領域中で、サイズSの探索ウィンドウを走査させつつ、対象領域全域を走査し終わるまで、以下の処理を繰り返す。即ち、領域決定部160は、対象領域中の探索ウィンドウに含まれる特徴点の数を特定し、特定した特徴点の数が、設定された閾値以下である場合、その際の探索ウィンドウの領域を、特徴が粗な領域として決定する。そして、領域決定部160は、決定した特徴が粗な領域を特徴付与推奨領域に決定する。そして、領域決定部160は、その探索ウィンドウの領域の情報を、特徴付与推奨領域の情報として、記憶部103に記憶する。
図8にS412の処理で決定された特徴付与推奨領域の一例を示す。
図9に、S413の処理において、更新後のサイズSが設定された閾値未満であると判定された時点において、決定された特徴付与推奨領域の一例を示す。
例えば、候補決定部150は、2度目のS401で平面検出フラグの立っていない特徴点を抽出する。2度目のS408の処理の完了後の各特徴点を、図10に示す。図10には、平面1に含まれる特徴点だけでなく、平面2(対象平面)に含まれる各特徴点についても、対応する平面検出フラグが1となっている様子が示されている。
また、その場合にS413の処理において、更新後のサイズSが設定された閾値未満であると判定された時点において、決定された特徴付与推奨領域の一例を図11に示す。平面2中に特徴付与推奨領域が決定されていることが分かる。
また、その場合にS413の処理において、更新後のサイズSが設定された閾値未満であると判定された時点において、決定された特徴付与推奨領域の一例を図13に示す。平面3中に特徴付与推奨領域が決定されていることが分かる。
図3の説明に戻る。
S350において、領域決定部160は、S414で決定した特徴付与推奨領域の情報を、表示部104に表示する。本実施形態では、領域決定部160は、室内の画像に特徴付与推奨領域の情報が示す領域を重畳して表示する。その場合、領域決定部160は、特徴付与推奨領域の情報が示す領域を、設定された表示態様(例えば、設定された色で表示、点滅表示等)で表示することで強調表示する。図14にS360で表示部104に表示される画面の一例を示す。図14の例では、表示部104に現実空間とCGを重畳するMR空間を描画するアプリーションが提供する画面上に、特徴付与推奨領域が強調して提示されている様子が示されている。
本実施形態では、領域決定部160は、S350で、特徴量付与推奨領域の情報を、表示部104に表示することで出力することとした。ただし、他の例として、領域決定部160は、S340で決定した特徴量付与推奨領域の情報を、印刷機等を介して、印刷媒体に印刷することで出力してもよい。また、領域決定部160は、S340で決定した特徴量付与推奨領域の情報を、設定された送信先(例えば、ユーザの保有する端末等)に送信することで出力してもよい。
本実施形態では、画像処理装置100は、特徴付与推奨領域として、平面の領域を決定した。ただし、他の例として、画像処理装置100は、ユーザが特徴を付与できる場所で、かつ、特徴が粗な領域であるならば、平面以外の領域を、特徴付与推奨領域に決定してもよい。
本変形例では、画像取得部110は、撮像部101に含まれるデプスカメラからデプスデータを取得するものとして説明する。特徴取得部130は、撮像画像から特徴を抽出すると共に、現実空間のサーフェース、又はポイントクラウド(デプスカメラが計測した現実空間上の点の集合)を特定する。候補決定部150は、このサーフェース、又はポイントクラウドを、候補領域として決定する。領域決定部160は、S412で候補領域の中で探索ウィンドウを走査させ、特徴付与推奨領域を決定することとしてもよい。
本実施形態では、画像処理装置100は、S340の処理として、S401~S414の処理を実行することとした。ただし、他の例として、画像処理装置100は、例えば、撮像対象の領域(室内)の全体について設定されたサイズの探索ウィンドウを用いて、走査しつつ、S412と同様の処理で、特徴が粗な領域を決定する。そして、画像処理装置100は、決定した特徴が粗な領域のうち、設定された条件(例えば、平面領域であること等)を満たす領域を、特徴付与推奨領域を決定してもよい。
ユーザの個別の事情によっては、特徴付与推奨領域として決定される領域の中にも特徴の付与が望ましくない領域があり得る。また、特徴付与推奨領域として決定されない領域(例えば、中空の領域等)の中にも特徴の付与が望ましい領域もあり得る。
そこで、画像処理装置100は、表示部104に表示されるGUI、入力部102等を介してユーザから、特徴を付与できる領域、又は特徴の付与を許可しない領域の情報(例えば、テキスト情報等)を受付けてもよい。
その場合、画像処理装置100は、ユーザから受け付けた情報が示す特徴を付与できる領域を候補領域として決定し、特徴付与推奨領域を決定してもよい。また、画像処理装置100は、ユーザから受け付けた情報が示す特徴を付与できる領域を候補領域として決定し、特徴付与推奨領域を決定し、他の領域について、本実施形態で説明した処理を行うことで、他の領域について、特徴付与推奨領域を決定してもよい。
また、画像処理装置100は、本実施形態で説明した処理で特徴付与推奨領域を決定し、決定した特徴量付与推奨領域からユーザから受け付けた情報が示す特徴を付与できない領域を除外した領域を、最終的な特徴量付与推奨領域に決定してもよい。
画像処理装置100は、各機能構成要素のうち、位置推定部140、領域決定部160等については、その代わりとして、機械学習された学習済みモデルを代わりに用いて処理してもよい。その場合、例えば、その機能構成要素への入力データと出力データとの組合せを学習データとして複数個準備されているとする。そして、画像処理装置100は、学習データから機械学習によって知識を獲得し、獲得した知識に基づいて入力データに対する出力データを結果として出力する学習済みモデルを予め生成する。このような学習済みモデルとしては、例えば、ニューラルネットワークモデル等がある。そして、その学習済みモデルは、前記処理部と同等の処理をするためのプログラムとして、CPU、GPU等と協働で動作することにより、対応する機能構成要素の処理を行う。なお、画像処理装置100は、このような学習済みモデルを、必要に応じて一定の処理後に更新してもよい。
101 撮像部
105 制御部
Claims (19)
- 撮像部による撮像画像を取得する取得手段と、
前記取得手段により取得された前記撮像画像に基づいて、前記撮像画像に含まれる一つ以上の特徴それぞれに対応する現実空間における三次元位置を推定する推定手段と、前記推定手段により推定された三次元位置に基づいて、特徴が付与される領域の候補として、現実空間に存在するオブジェクト上の平面上の領域である候補領域を決定する第1の決定手段と、
前記候補領域から、特徴が付与される領域である特徴付与推奨領域を決定する第2の決定手段と、
を有し、
前記第2の決定手段は、前記第1の決定手段により決定された前記候補領域を入力データ、前記特徴付与推奨領域を出力データとして学習した学習済みモデルにより、前記決定を行う情報処理装置。 - 前記第1の決定手段は、前記推定手段により推定された前記特徴の三次元位置の分布に基づいて、前記現実空間に存在するオブジェクト上の平面の領域に属する特徴群を特定し、前記特徴群に基づいて前記候補領域を決定する請求項1に記載の情報処理装置。
- 前記第2の決定手段は、前記候補領域に設定された部分領域に含まれる特徴の個数が設定された第1閾値以下である場合、前記部分領域を前記特徴付与推奨領域に決定する請求項2に記載の情報処理装置。
- 前記第2の決定手段により決定された前記特徴付与推奨領域の情報を出力する出力手段を更に有する請求項1に記載の情報処理装置。
- 前記出力手段は、前記第2の決定手段により決定された前記特徴付与推奨領域の情報を表示部に表示することで、出力する請求項4に記載の情報処理装置。
- 前記第1の決定手段は、
前記推定手段により三次元位置が推定された複数の前記特徴のうち、重複しないように選択された3つに基づいて特定される平面と、前記選択された3つ以外の特徴の三次元位置の関係に基づいて、前記現実空間に存在するオブジェクト上の平面を特定する請求項2に記載の情報処理装置。 - 前記第1の決定手段は、
前記特徴から3つの特徴点を選択される3つの特徴の全ての組合せについて、該3つの特徴の三次元位置に基づいて特定される平面と、前記選択された3つ以外の各特徴の三次元位置との間の距離に基づいて、前記平面に含まれる特徴を取得する請求項6に記載の情報処理装置。 - 前記第1の決定手段は、
前記距離を計算し、前記距離が第2閾値を下回る特徴の数を、前記平面に含まれる特徴の数として取得する請求項7に記載の情報処理装置。 - 前記第1の決定手段は、
前記平面に含まれる特徴の数が、定められた第3閾値以上である場合、前記平面を、前記現実空間に存在するオブジェクト上の平面として特定する請求項7に記載の情報処理装置。 - 前記第2の決定手段は、
前記現実空間に存在するオブジェクト上の平面に含まれる特徴の分布に基づいて、前記特徴付与推奨領域を決定する請求項9に記載の情報処理装置。 - 前記第2の決定手段は、
前記現実空間に存在するオブジェクト上の平面のうち、前記推定手段によって三次元位置が推定された特徴を含まない小領域の集合を、前記特徴付与推奨領域と決定する請求項10に記載の情報処理装置。 - 前記第2の決定手段は、
前記現実空間に存在するオブジェクト上の平面のうち、前記推定手段によって三次元位置が推定された特徴を含まない部分を、前記特徴付与推奨領域と決定する請求項10に記載の情報処理装置。 - 前記第2の決定手段は、
前記現実空間に存在するオブジェクト上の平面のうち、前記推定手段によって三次元位置が推定された特徴が粗な部分を、前記特徴付与推奨領域と決定する請求項10に記載の情報処理装置。 - 前記現実空間に存在するオブジェクトには、壁面、床、テーブルのいずれかを含む請求項1に記載の情報処理装置。
- 前記第2の決定手段は、前記現実空間のうち中空に当たる部分への特徴の付与を推奨しない請求項1に記載の情報処理装置。
- 前記撮像部のカメラパラメータを取得するパラメータ取得手段を更に備え、
前記推定手段は、前記取得手段により取得された前記撮像画像と、前記パラメータ取得手段により取得された前記カメラパラメータと、に基づいて、前記撮像画像に含まれる一つ以上の特徴それぞれに対応する現実空間における三次元位置を推定する請求項1に記載の情報処理装置。 - 前記推定手段は、前記取得手段により取得された前記撮像画像と、前記パラメータ取得手段により取得された前記カメラパラメータを入力データ、前記現実空間における前記特徴の三次元位置を出力データとして学習した学習済みモデルにより、前記推定を行うことを特徴とする請求項16に記載の情報処理装置。
- 情報処理装置が実行する情報処理方法であって、
撮像部による撮像画像を取得する取得ステップと、
前記取得ステップで取得された前記撮像画像と、に基づいて、前記撮像画像に含まれる一つ以上の特徴それぞれに対応する現実空間における三次元位置を推定する推定ステップと、
前記推定ステップで推定された三次元位置に基づいて、特徴が付与される領域の候補として、現実空間に存在するオブジェクト上の平面上の領域である候補領域を決定する第1の決定ステップと、
前記候補領域から、特徴が付与される領域である特徴付与推奨領域を決定する第2の決定ステップと、
を含み、
前記第2の決定ステップは、前記第1の決定ステップにて決定された前記候補領域を入力データ、前記特徴付与推奨領域を出力データとして学習した学習済みモデルにより、前記決定を行う情報処理方法。 - コンピュータを、請求項1乃至17の何れか1項に記載の情報処理装置の各手段として、機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019106238A JP7341736B2 (ja) | 2019-06-06 | 2019-06-06 | 情報処理装置、情報処理方法及びプログラム |
US16/893,268 US11423622B2 (en) | 2019-06-06 | 2020-06-04 | Apparatus for generating feature positions in a virtual world, information processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019106238A JP7341736B2 (ja) | 2019-06-06 | 2019-06-06 | 情報処理装置、情報処理方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020201572A JP2020201572A (ja) | 2020-12-17 |
JP2020201572A5 JP2020201572A5 (ja) | 2022-06-13 |
JP7341736B2 true JP7341736B2 (ja) | 2023-09-11 |
Family
ID=73650680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019106238A Active JP7341736B2 (ja) | 2019-06-06 | 2019-06-06 | 情報処理装置、情報処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11423622B2 (ja) |
JP (1) | JP7341736B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022096379A (ja) * | 2020-12-17 | 2022-06-29 | 富士通株式会社 | 画像出力プログラム,画像出力方法および画像出力装置 |
CN116309442B (zh) * | 2023-03-13 | 2023-10-24 | 北京百度网讯科技有限公司 | 挑拣信息的确定方法及目标对象的挑拣方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013225245A (ja) | 2012-04-23 | 2013-10-31 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
JP2016004292A (ja) | 2014-06-13 | 2016-01-12 | 富士通株式会社 | 端末装置、情報処理システム、及び表示制御プログラム |
JP2017054484A (ja) | 2015-09-09 | 2017-03-16 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
JP2017067704A (ja) | 2015-10-01 | 2017-04-06 | トヨタ紡織株式会社 | 3次元形状データ作成方法及びそれを用いた部品検査方法、並びに3次元形状データ作成装置及び部品検査プログラム |
JP2018091667A (ja) | 2016-11-30 | 2018-06-14 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
WO2018180442A1 (ja) | 2017-03-31 | 2018-10-04 | オリンパス株式会社 | 検査支援装置、検査支援方法及びプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4956375B2 (ja) * | 2007-10-30 | 2012-06-20 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
EP2750110B1 (en) * | 2011-08-24 | 2020-03-18 | Sony Corporation | Information processing device, information processing method, and program |
JP6332281B2 (ja) * | 2013-12-17 | 2018-05-30 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP6723798B2 (ja) * | 2015-05-20 | 2020-07-15 | キヤノン株式会社 | 情報処理装置、方法、プログラム |
US10789622B2 (en) * | 2018-05-07 | 2020-09-29 | Adobe Inc. | Generating and providing augmented reality representations of recommended products based on style compatibility in relation to real-world surroundings |
US11263457B2 (en) * | 2019-04-01 | 2022-03-01 | Houzz, Inc. | Virtual item display simulations |
-
2019
- 2019-06-06 JP JP2019106238A patent/JP7341736B2/ja active Active
-
2020
- 2020-06-04 US US16/893,268 patent/US11423622B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013225245A (ja) | 2012-04-23 | 2013-10-31 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
JP2016004292A (ja) | 2014-06-13 | 2016-01-12 | 富士通株式会社 | 端末装置、情報処理システム、及び表示制御プログラム |
JP2017054484A (ja) | 2015-09-09 | 2017-03-16 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
JP2017067704A (ja) | 2015-10-01 | 2017-04-06 | トヨタ紡織株式会社 | 3次元形状データ作成方法及びそれを用いた部品検査方法、並びに3次元形状データ作成装置及び部品検査プログラム |
JP2018091667A (ja) | 2016-11-30 | 2018-06-14 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
WO2018180442A1 (ja) | 2017-03-31 | 2018-10-04 | オリンパス株式会社 | 検査支援装置、検査支援方法及びプログラム |
Non-Patent Citations (1)
Title |
---|
TATENO, Keisuke et al.,CNN-SLAM:Real-time dense monocular SLAM with learned depth prediction,[online],2017年,https://ieeexplore.ieee.org/document/8100178 |
Also Published As
Publication number | Publication date |
---|---|
US20200388078A1 (en) | 2020-12-10 |
US11423622B2 (en) | 2022-08-23 |
JP2020201572A (ja) | 2020-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109561296B (zh) | 图像处理装置、图像处理方法、图像处理系统和存储介质 | |
CN104380338B (zh) | 信息处理器以及信息处理方法 | |
US9443353B2 (en) | Methods and systems for capturing and moving 3D models and true-scale metadata of real world objects | |
US6968084B2 (en) | Specific point detecting method and device | |
US10600169B2 (en) | Image processing system and image processing method | |
CN106548516B (zh) | 三维漫游方法和装置 | |
TWI701941B (zh) | 圖像處理方法及裝置、電子設備及儲存介質 | |
US20170214899A1 (en) | Method and system for presenting at least part of an image of a real object in a view of a real environment, and method and system for selecting a subset of a plurality of images | |
US9846942B2 (en) | Method and system for determining a pose of camera | |
WO2016029939A1 (en) | Method and system for determining at least one image feature in at least one image | |
JP6352208B2 (ja) | 三次元モデル処理装置およびカメラ校正システム | |
WO2020006519A1 (en) | Synthesizing an image from a virtual perspective using pixels from a physical imager array | |
US11490062B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP6640294B1 (ja) | 複合現実システム、プログラム、携帯端末装置、及び方法 | |
JP6723798B2 (ja) | 情報処理装置、方法、プログラム | |
JP2019003428A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP7341736B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20170007118A1 (en) | Apparatus and method for estimating gaze from un-calibrated eye measurement points | |
JP2015050482A (ja) | 画像処理装置、立体画像表示装置、画像処理方法およびプログラム | |
JP2019185475A (ja) | 特定プログラム、特定方法及び情報処理装置 | |
JP2004030408A (ja) | 三次元画像表示装置及び表示方法 | |
JP6719945B2 (ja) | 情報処理装置、情報処理方法、情報処理システム及びプログラム | |
US10798360B2 (en) | Information processing system, method for controlling same, and program | |
JP6694514B2 (ja) | 情報処理装置 | |
KR101850134B1 (ko) | 3차원 동작 모델 생성 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220602 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220602 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230830 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7341736 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |