JP2016021097A - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP2016021097A JP2016021097A JP2014143691A JP2014143691A JP2016021097A JP 2016021097 A JP2016021097 A JP 2016021097A JP 2014143691 A JP2014143691 A JP 2014143691A JP 2014143691 A JP2014143691 A JP 2014143691A JP 2016021097 A JP2016021097 A JP 2016021097A
- Authority
- JP
- Japan
- Prior art keywords
- image
- recognition
- unit
- processing apparatus
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Mutual Connection Of Rods And Tubes (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、およびプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.
近年、現実空間の画像(映像)をコンピュータで処理して仮想情報を重畳するAR(拡張現実感)技術が注目を集めている。AR技術を用いることで、ユーザの行動を支援したり、ユーザに直観的な情報提示を行ったりすることが可能となる。例えば、ユーザの周囲に存在する看板や広告にAR技術を用いることで、限られたスペースでは伝えることのできない詳細な情報や動画や3Dコンテンツなどを提示したり、場所や時間や閲覧者の属性などによって提示する情報を適宜変更したりすることができる。 In recent years, AR (augmented reality) technology for processing virtual space information (video) by a computer and superimposing virtual information has attracted attention. By using the AR technology, it becomes possible to support the user's action or present information intuitively to the user. For example, by using AR technology for signs and advertisements around the user, detailed information that cannot be conveyed in a limited space, video, 3D content, etc. can be presented, location, time, and viewer attributes The information to be presented can be changed as appropriate.
AR技術の主要なプラットフォームとして、携帯端末が期待されている。この携帯端末としては、例えば、撮像装置(カメラ)およびディスプレイを搭載し、画像処理に十分な処理性能を備えたスマートフォンやHMD(Head Mounted Display)などの端末がある。 Mobile terminals are expected as a major platform for AR technology. As this portable terminal, for example, there are terminals such as a smartphone and an HMD (Head Mounted Display) equipped with an imaging device (camera) and a display and having sufficient processing performance for image processing.
AR技術では、仮想情報を正しい位置に重畳するために、撮像装置と現実空間との相対的な姿勢(位置および向き)をリアルタイムで推定する必要がある。 In the AR technology, in order to superimpose virtual information at a correct position, it is necessary to estimate the relative posture (position and orientation) between the imaging device and the real space in real time.
上述の姿勢推定の手法として、例えば、認識対象となる基準マーカを用いる手法が提案されている(例えば、非特許文献1、2参照)。基準マーカとして、非特許文献1ではARマーカが適用され、非特許文献2では任意の画像が適用される。しかし、非特許文献1、2に示されている手法では、上述の姿勢推定を行う装置に、基準マーカを予め登録しておく必要がある。
As a technique for estimating the posture described above, for example, a technique using a reference marker to be recognized has been proposed (for example, see Non-Patent
そこで、上述の姿勢推定の手法として、仮想情報を重畳する前段階の処理で現実空間をモデリングし、復元(モデリング)された空間全体を基準マーカとして扱うための手法が提案されている(例えば、非特許文献3参照)。この手法によれば、基準マーカを適宜作成するので、上述の姿勢推定を行う装置に、基準マーカを予め登録しておく必要がなくなる。 Therefore, as a method for estimating the posture described above, a method for modeling the real space in the process of the previous stage of superimposing virtual information and treating the entire restored (modeled) space as a reference marker has been proposed (for example, Non-Patent Document 3). According to this method, since the reference marker is appropriately created, it is not necessary to register the reference marker in advance in the above-described posture estimation apparatus.
これらARマーカを用いる手法と、任意の画像を用いる手法と、基準マーカを適宜作成する手法とには、それぞれ利便性や処理負荷のトレードオフが存在する。このため、適切な手法を、状況に応じて選択する必要がある。 There are trade-offs in convenience and processing load between the method using the AR marker, the method using an arbitrary image, and the method of appropriately creating a reference marker. For this reason, it is necessary to select an appropriate method according to the situation.
また、処理性能の低い端末でも上述のような各種手法に対応できるように、認識アルゴリズムの高速化(効率化)の検討が進められている。例えば特許文献1には、初期姿勢の推定処理と、姿勢の追跡処理と、を組み合わせ、姿勢の追跡処理では連続的に入力されるプレビュー画像内で特徴点の追跡を行う手法が提案されている。この手法によれば、処理性能の低い端末でも、姿勢の推定をリアルタイムで行うことができる。
In addition, a high-speed (efficient) recognition algorithm is being studied so that a terminal with low processing performance can cope with the above-described various methods. For example,
ところで、AR技術において、仮想情報を配置する方法として、2つの方法がある。1つ目の方法は、基準マーカに対する仮想情報の相対的な位置関係を登録しておくことで、仮想情報をAR空間内に固定配置する方法である。2つ目の方法は、基準マーカとは異なるオブジェクトに対する仮想情報の相対的な位置関係を登録しておくことで、仮想情報をAR空間内に配置する方法である。 By the way, in the AR technology, there are two methods for arranging virtual information. The first method is a method in which the virtual information is fixedly arranged in the AR space by registering the relative positional relationship of the virtual information with respect to the reference marker. The second method is a method of arranging virtual information in the AR space by registering a relative positional relationship of virtual information with respect to an object different from the reference marker.
2つ目の方法では、カメラの動きや、基準となるオブジェクトの動きに合わせて、仮想情報の表示位置が変化する。この2つ目の方法は、例えばトレーディングカードの上に3Dモデルといった仮想情報を表示する場合に用いられる。 In the second method, the display position of the virtual information changes according to the movement of the camera and the movement of the reference object. This second method is used, for example, when displaying virtual information such as a 3D model on a trading card.
トレーディングカードの上に3Dモデルといった仮想情報を表示する場合、オブジェクト(トレーディングカード)と現実空間との間の姿勢が固定ではないため、AR空間(例えばカードゲームのフィールドなど)を提示するためには、固定配置された基準マーカが必要になる。また、オブジェクトの認識についても、基準マーカを認識する際と同様の処理が必要になる。さらに、複数のオブジェクト上に仮想情報を表示する場合には、各オブジェクトを認識する(姿勢を推定する)必要があるため、高い処理能力が端末に要求される。 When virtual information such as a 3D model is displayed on a trading card, since the posture between the object (trading card) and the real space is not fixed, in order to present an AR space (for example, a card game field) A fixedly arranged reference marker is required. Moreover, the same processing as that for recognizing the reference marker is required for the recognition of the object. Furthermore, when displaying virtual information on a plurality of objects, it is necessary to recognize each object (estimate the posture), and thus high processing capability is required of the terminal.
特許文献1や非特許文献1、2の手法では、仮想情報をオブジェクトに登録した場合、各端末は、独立してオブジェクトを認識する必要がある。このため、オブジェクトの数が増加するに従って、各端末における処理負荷が増大し、各端末でのリアルタイム処理の実現が困難となり、その結果、各端末が表示可能な仮想情報の数が限定されてユーザビリティが低下してしまうおそれがあった。
In the methods of
また、オブジェクトの姿勢の推定は、プレビュー画像ごとに独立に行われる。このため、オクルージョン(遮蔽)や光の反射(白飛び)などによって、オブジェクトの認識に一時的に失敗してしまい、仮想情報の表示が中断してしまうことがあった。 Further, the estimation of the posture of the object is performed independently for each preview image. For this reason, the object recognition may be temporarily failed due to occlusion (shielding) or reflection of light (out-of-white), and display of virtual information may be interrupted.
さらに、初期姿勢を推定する処理は、姿勢の追跡処理と比べて撮影角度や撮影距離に対する頑健性に欠けることがあるので、撮影位置によっては、仮想情報の表示が中断すると、仮想情報の表示を再開できないこともあった。 Furthermore, the process of estimating the initial posture may lack robustness with respect to the shooting angle and shooting distance compared to the tracking processing of the posture, so depending on the shooting position, if the virtual information display is interrupted, the virtual information display may be Sometimes it could not be resumed.
そこで、本発明は、上述の課題に鑑みてなされたものであり、AR技術において、処理負荷を軽減したり、オブジェクトの認識の頑健性を向上させたりすることを目的とする。 Therefore, the present invention has been made in view of the above-described problems, and it is an object of the AR technology to reduce processing load and improve robustness of object recognition.
本発明は、上記の課題を解決するために、以下の事項を提案している。
(1) 本発明は、プレビュー画像に仮想情報を重畳させる画像処理装置(例えば、図1の画像処理装置1に相当)であって、前記プレビュー画像を取得する画像取得手段(例えば、図1の画像取得部10に相当)と、前記画像取得手段により取得されたプレビュー画像内のオブジェクトを認識する画像認識手段(例えば、図1の画像認識部20に相当)と、前記画像認識手段により認識されたオブジェクト間の関係性(例えば、後述のオブジェクト間の相対姿勢に相当)を推定し、推定結果に基づいてオブジェクトを分類し、同一のグループに分類したオブジェクトのうちの1つである主要オブジェクトの前記画像認識手段による認識結果に基づいて、当該グループに分類した当該主要オブジェクト以外のオブジェクトを認識するオブジェクト関係推定手段(例えば、図1のオブジェクト関係推定部30に相当)と、前記画像認識手段による認識結果と、前記オブジェクト関係推定手段による認識結果と、に基づいて、前記画像取得手段により取得されたプレビュー画像に仮想情報を重畳させる仮想情報表示手段(例えば、図1の仮想情報表示部70に相当)と、を備えることを特徴とする画像処理装置を提案している。
The present invention proposes the following matters in order to solve the above problems.
(1) The present invention is an image processing apparatus (for example, equivalent to the
この発明によれば、プレビュー画像に仮想情報を重畳させる画像処理装置に、画像取得手段、画像認識手段、オブジェクト関係推定手段、および仮想情報表示手段を設け、画像取得手段により、プレビュー画像を取得することとした。また、画像認識手段により、画像取得手段により取得されたプレビュー画像内のオブジェクトを認識することとした。また、オブジェクト関係推定手段により、画像認識手段により認識されたオブジェクト間の関係性を推定し、推定結果に基づいてオブジェクトを分類し、同一のグループに分類したオブジェクトのうちの1つである主要オブジェクトの画像認識手段による認識結果に基づいて、このグループに分類した主要オブジェクト以外のオブジェクトを認識することとした。また、仮想情報表示手段により、画像認識手段による認識結果と、オブジェクト関係推定手段による認識結果と、に基づいて、画像取得手段により取得されたプレビュー画像に仮想情報を重畳させることとした。このため、オブジェクト関係推定手段により、オブジェクトを、このオブジェクトと関係性の高いオブジェクトの認識結果に基づいて認識することができる。したがって、オブジェクト関係推定手段によりオブジェクトを認識することで、画像認識手段により認識するオブジェクトの数を減少させたり、画像認識手段では認識できなかったオブジェクトを認識したりすることができる。よって、AR技術において、処理負荷を軽減したり、オブジェクトの認識の頑健性を向上させたりすることができる。 According to the present invention, an image processing device that superimposes virtual information on a preview image is provided with image acquisition means, image recognition means, object relation estimation means, and virtual information display means, and the preview image is acquired by the image acquisition means. It was decided. The image recognition means recognizes the object in the preview image acquired by the image acquisition means. In addition, the object relationship estimation means estimates the relationship between the objects recognized by the image recognition means, classifies the objects based on the estimation results, and is a main object that is one of the objects classified into the same group Based on the recognition result by the image recognition means, objects other than the main objects classified into this group are recognized. The virtual information display means superimposes the virtual information on the preview image acquired by the image acquisition means based on the recognition result by the image recognition means and the recognition result by the object relationship estimation means. For this reason, the object relation estimating means can recognize the object based on the recognition result of the object having a high relation with the object. Therefore, by recognizing the object by the object relationship estimating means, it is possible to reduce the number of objects recognized by the image recognizing means or to recognize an object that could not be recognized by the image recognizing means. Therefore, in the AR technology, it is possible to reduce the processing load and improve the robustness of object recognition.
(2) 本発明は、(1)の画像処理装置について、前記オブジェクト関係推定手段は、前記主要オブジェクトとして、前記画像認識手段により認識できたオブジェクトを適用し、前記主要オブジェクトと同一のグループに分類した当該主要オブジェクト以外のオブジェクトとして、当該主要オブジェクトと同一のグループに分類されているとともに前記画像認識手段により認識できなかったオブジェクトを適用することを特徴とする画像処理装置を提案している。 (2) In the image processing apparatus according to (1), the object relationship estimation unit applies the object recognized by the image recognition unit as the main object, and classifies the main object into the same group as the main object. As an object other than the main object, an image processing apparatus is proposed in which an object that is classified into the same group as the main object and that cannot be recognized by the image recognition unit is applied.
この発明によれば、(1)の画像処理装置において、オブジェクト関係推定手段により、主要オブジェクトとして、画像認識手段により認識できたオブジェクトを適用し、主要オブジェクトと同一のグループに分類した主要オブジェクト以外のオブジェクトとして、主要オブジェクトと同一のグループに分類されているとともに画像認識手段により認識できなかったオブジェクトを適用することとした。このため、画像認識手段では認識できなかったオブジェクトを、主要オブジェクトの認識結果に基づいて認識することができる。 According to the present invention, in the image processing apparatus of (1), the object relation estimation means applies the object recognized by the image recognition means as the main object, and other than the main objects classified into the same group as the main object. As the object, an object classified into the same group as the main object and not recognized by the image recognition means is applied. For this reason, the object which could not be recognized by the image recognition means can be recognized based on the recognition result of the main object.
(3) 本発明は、(1)または(2)の画像処理装置について、前記オブジェクト関係推定手段は、各グループからオブジェクトを1つずつ主要オブジェクトとして選択し、前記主要オブジェクトと同一のグループに分類された当該主要オブジェクト以外のオブジェクトについて、前記画像認識手段による認識を休止させる認識処理制御手段(例えば、図11の認識処理制御部40に相当)を備えることを特徴とする画像処理装置を提案している。
(3) In the image processing apparatus according to (1) or (2), the object relation estimation unit selects one object from each group as a main object and classifies the same into the same group as the main object. Proposed is an image processing apparatus comprising a recognition processing control unit (for example, corresponding to the recognition
この発明によれば、(1)または(2)の画像処理装置において、オブジェクト関係推定手段により、各グループからオブジェクトを1つずつ主要オブジェクトとして選択することとした。また、(1)または(2)の画像処理装置に、主要オブジェクトと同一のグループに分類された主要オブジェクト以外のオブジェクトについて、画像認識手段による認識を休止させる認識処理制御手段を設けることとした。このため、主要オブジェクトと同一のグループに分類された主要オブジェクト以外のオブジェクトについて、画像認識手段による認識を休止させてもオブジェクト関係推定手段により認識することができるので、画像認識手段により認識するオブジェクトの数を減少させることができる。 According to the present invention, in the image processing apparatus according to (1) or (2), the object relation estimation unit selects one object from each group as a main object. In addition, the image processing apparatus of (1) or (2) is provided with a recognition processing control unit that pauses recognition by the image recognition unit for objects other than the main object classified into the same group as the main object. For this reason, objects other than the main object classified into the same group as the main object can be recognized by the object relationship estimation unit even when the recognition by the image recognition unit is suspended. The number can be reduced.
(4) 本発明は、(3)の画像処理装置について、前記認識処理制御手段は、前記画像認識手段による主要オブジェクトの認識が失敗すると、当該主要オブジェクトと同一のグループに分類された当該主要オブジェクト以外のオブジェクトについて、前記画像認識手段による認識を再開させることを特徴とする画像処理装置を提案している。 (4) In the image processing apparatus according to (3), when the recognition processing control unit fails to recognize the main object by the image recognition unit, the main object classified into the same group as the main object. An image processing apparatus is proposed in which recognition by the image recognition means is resumed for objects other than the above.
この発明によれば、(3)の画像処理装置において、認識処理制御手段により、画像認識手段による主要オブジェクトの認識が失敗すると、主要オブジェクトと同一のグループに分類された主要オブジェクト以外のオブジェクトについて、画像認識手段による認識を再開させることとした。このため、オブジェクト関係推定手段による認識ができなくなった場合には、画像認識手段による認識を再開させることができ、オブジェクトの認識の頑健性をさらに向上させることができる。 According to the present invention, in the image processing apparatus of (3), when the recognition processing control unit fails to recognize the main object by the image recognition unit, the objects other than the main object classified into the same group as the main object are The recognition by the image recognition means is resumed. For this reason, when recognition by an object relationship estimation means becomes impossible, recognition by an image recognition means can be restarted and the robustness of object recognition can be further improved.
(5) 本発明は、(3)または(4)の画像処理装置について、前記認識処理制御手段は、前記画像認識手段による認識を休止させているオブジェクトについての前記オブジェクト関係推定手段による認識結果を、前記画像取得手段により取得されたプレビュー画像と照合し、照合に失敗すれば、当該オブジェクトについて前記画像認識手段による認識を再開させることを特徴とする画像処理装置を提案している。 (5) In the image processing apparatus according to (3) or (4), the recognition processing control unit may recognize a recognition result by the object relationship estimation unit for an object whose recognition by the image recognition unit is suspended. The image processing apparatus has been proposed in which the preview image obtained by the image obtaining unit is collated and if the collation fails, the recognition of the object by the image recognizing unit is resumed.
この発明によれば、(3)または(4)の画像処理装置において、認識処理制御手段により、画像認識手段による認識を休止させているオブジェクトについてのオブジェクト関係推定手段による認識結果を、画像取得手段により取得されたプレビュー画像と照合し、照合に失敗すれば、オブジェクトについて画像認識手段による認識を再開させることとした。このため、オブジェクト関係推定手段による認識結果が正しいか否かを判定することができる。 According to the present invention, in the image processing apparatus according to (3) or (4), the recognition processing control means recognizes the recognition result by the object relation estimation means for the object whose recognition by the image recognition means is suspended, as the image acquisition means. When the collation fails, the recognition by the image recognition means is resumed. For this reason, it can be determined whether the recognition result by the object relationship estimation means is correct.
(6) 本発明は、(3)から(5)のいずれかの画像処理装置について、前記認識処理制御手段は、前記画像認識手段による認識を再開させる際に、前記画像取得手段により前回取得されたプレビュー画像における前記オブジェクト関係推定手段による認識結果を初期値として、前記画像認識手段に姿勢を追跡させることを特徴とする画像処理装置を提案している。 (6) In the image processing apparatus according to any one of (3) to (5), the recognition processing control unit is previously acquired by the image acquisition unit when the recognition by the image recognition unit is resumed. An image processing apparatus is proposed in which the image recognition unit is made to track the posture with the recognition result of the object relation estimation unit in the preview image as an initial value.
ここで、オクルージョンや光の反射などによってオブジェクトの認識に失敗してしまうのが、一時的なものであれば、オブジェクトの認識の失敗の解消時には、姿勢追跡部23による姿勢の追跡処理に成功することが想定される。一般的に、初期姿勢推定部22による姿勢の初期値の推定よりも、正確な姿勢の初期値を用いた画像認識手段による姿勢の追跡処理の方が、処理負荷や、姿勢推定の精度や、認識の頑健性に優れる。そこで、この発明によれば、(3)から(5)のいずれかの画像処理装置において、認識処理制御手段により、画像認識手段による認識を再開させる際に、画像取得手段により前回取得されたプレビュー画像におけるオブジェクト関係推定手段による認識結果を初期値として、画像認識手段に姿勢を追跡させることとした。このため、処理負荷を軽減することができるとともに、姿勢推定の精度および認識の頑健性を向上させることができる。
Here, if the object recognition failure due to occlusion or light reflection is temporary, the
(7) 本発明は、(3)から(6)のいずれかの画像処理装置について、前記認識処理制御手段は、前記画像認識手段による認識を休止させているオブジェクトについての前記オブジェクト関係推定手段による認識結果に基づいて、当該オブジェクトを前記画像取得手段により取得されたプレビュー画像に投影して投影画像を作成するとともに、前記投影画像と、前記画像取得手段により取得されたプレビュー画像と、の類似度が閾値未満であれば、照合に失敗したと判定することを特徴とする画像処理装置を提案している。 (7) In the image processing apparatus according to any one of (3) to (6), the recognition processing control unit includes the object relation estimation unit for an object whose recognition by the image recognition unit is suspended. Based on the recognition result, the object is projected onto the preview image acquired by the image acquisition unit to create a projection image, and the similarity between the projection image and the preview image acquired by the image acquisition unit If it is less than the threshold value, an image processing apparatus is proposed in which it is determined that the verification has failed.
この発明によれば、(3)から(6)のいずれかの画像処理装置において、認識処理制御手段により、画像認識手段による認識を休止させているオブジェクトについてのオブジェクト関係推定手段による認識結果に基づいて、オブジェクトを画像取得手段により取得されたプレビュー画像に投影して投影画像を作成するとともに、投影画像と、画像取得手段により取得されたプレビュー画像と、の類似度が閾値未満であれば、照合に失敗したと判定することとした。このため、オブジェクト関係推定手段による認識結果が正しいか否かを判定することができる。 According to the present invention, in any one of the image processing apparatuses according to (3) to (6), the recognition processing control means is based on the recognition result by the object relation estimation means for the object whose recognition by the image recognition means is suspended. Then, an object is projected onto the preview image acquired by the image acquisition unit to create a projection image, and if the similarity between the projection image and the preview image acquired by the image acquisition unit is less than a threshold, collation is performed. It was decided that it failed. For this reason, it can be determined whether the recognition result by the object relationship estimation means is correct.
(8) 本発明は、(7)の画像処理装置について、前記認識処理制御手段は、前記類似度が最大化する姿勢を反復計算により推定して、前記オブジェクト関係推定手段による認識結果を補正することを特徴とする画像処理装置を提案している。 (8) In the image processing apparatus according to (7), the recognition processing control unit estimates the posture that maximizes the similarity by iterative calculation, and corrects the recognition result by the object relationship estimation unit. An image processing apparatus characterized by this is proposed.
この発明によれば、(7)の画像処理装置において、認識処理制御手段により、類似度が最大化する姿勢を反復計算により推定して、オブジェクト関係推定手段による認識結果を補正することとした。このため、AR技術において、処理負荷をさらに軽減したり、オブジェクトの認識の頑健性をさらに向上させたりすることができる。 According to the present invention, in the image processing apparatus of (7), the recognition processing control unit estimates the posture with which the degree of similarity is maximized by iterative calculation, and corrects the recognition result by the object relationship estimation unit. For this reason, in the AR technique, the processing load can be further reduced, and the robustness of object recognition can be further improved.
(9) 本発明は、(3)から(8)のいずれかの画像処理装置について、前記認識処理制御手段は、前記画像認識手段による認識を休止させているオブジェクトについての前記オブジェクト関係推定手段による認識結果に基づいて、当該オブジェクトを前記画像取得手段により取得されたプレビュー画像に投影して投影画像を作成するとともに、前記投影画像と、前記画像取得手段により取得されたプレビュー画像と、のテンプレートマッチングにより一致箇所を推定し、一致箇所における応答値が閾値未満であれば、照合に失敗したと判定することを特徴とする画像処理装置を提案している。 (9) In the image processing apparatus according to any one of (3) to (8), the recognition processing control unit includes the object relationship estimation unit for an object whose recognition by the image recognition unit is suspended. Based on the recognition result, the object is projected onto the preview image acquired by the image acquisition unit to create a projection image, and template matching between the projection image and the preview image acquired by the image acquisition unit The image processing apparatus is characterized in that the matching part is estimated by the above, and if the response value at the matching part is less than the threshold, it is determined that the matching has failed.
この発明によれば、(3)から(8)のいずれかの画像処理装置において、認識処理制御手段により、画像認識手段による認識を休止させているオブジェクトについてのオブジェクト関係推定手段による認識結果に基づいて、オブジェクトを画像取得手段により取得されたプレビュー画像に投影して投影画像を作成するとともに、投影画像と、画像取得手段により取得されたプレビュー画像と、のテンプレートマッチングにより一致箇所を推定し、一致箇所における応答値が閾値未満であれば、照合に失敗したと判定することとした。このため、オブジェクト関係推定手段による認識結果が正しいか否かを判定することができる。 According to this invention, in any one of the image processing apparatuses according to (3) to (8), the recognition processing control unit is based on the recognition result of the object relation estimation unit for the object whose recognition by the image recognition unit is suspended. Then, the object is projected onto the preview image acquired by the image acquisition unit to create a projection image, and the matching portion is estimated by template matching between the projection image and the preview image acquired by the image acquisition unit. If the response value at the location is less than the threshold, it is determined that the verification has failed. For this reason, it can be determined whether the recognition result by the object relationship estimation means is correct.
(10) 本発明は、(1)から(9)のいずれかの画像処理装置について、前記画像処理装置とは異なる第1の画像処理装置で認識されたオブジェクトの認識結果を、当該画像処理装置を基準とした認識結果に変換する協調認識処理手段(例えば、図16の協調認識処理部60に相当)を備え、前記仮想情報表示手段は、前記画像認識手段による認識結果と、前記オブジェクト関係推定手段による認識結果と、前記協調認識処理手段による認識結果と、に基づいて、前記画像取得手段により取得されたプレビュー画像に仮想情報を重畳させることを特徴とする画像処理装置を提案している。
(10) According to the present invention, for any one of (1) to (9), the recognition result of an object recognized by a first image processing device different from the image processing device is used as the image processing device. And a virtual recognition display unit (e.g., corresponding to the cooperative
この発明によれば、(1)から(9)のいずれかの画像処理装置において、画像処理装置とは異なる第1の画像処理装置で認識されたオブジェクトの認識結果を、画像処理装置を基準とした認識結果に変換する協調認識処理手段を設けることとした。また、仮想情報表示手段により、画像認識手段による認識結果と、オブジェクト関係推定手段による認識結果と、協調認識処理手段による認識結果と、に基づいて、画像取得手段により取得されたプレビュー画像に仮想情報を重畳させることとした。このため、プレビュー画像への仮想情報の重畳に、他の画像処理装置で認識結果も用いることができるので、AR技術において、処理負荷をさらに軽減したり、オブジェクトの認識の頑健性をさらに向上させたりすることができる。 According to the present invention, in any one of the image processing devices (1) to (9), the recognition result of the object recognized by the first image processing device different from the image processing device is used as a reference. It was decided to provide cooperative recognition processing means for converting to the recognized result. Further, the virtual information display means adds virtual information to the preview image acquired by the image acquisition means based on the recognition result by the image recognition means, the recognition result by the object relationship estimation means, and the recognition result by the cooperative recognition processing means. It was decided to superimpose. For this reason, the recognition result can also be used by another image processing apparatus for superimposing virtual information on the preview image. Therefore, in AR technology, the processing load can be further reduced and the robustness of object recognition can be further improved. Can be.
(11) 本発明は、(1)から(10)のいずれかの画像処理装置について、前記オブジェクト関係推定手段は、前記画像認識手段により認識されたオブジェクト間の関係性として、当該オブジェクト同士の相対的な位置関係を示す相対姿勢を求めることを特徴とする画像処理装置を提案している。 (11) In the image processing apparatus according to any one of (1) to (10), the object relationship estimation unit may determine the relationship between the objects as the relationship between the objects recognized by the image recognition unit. Proposed is an image processing apparatus characterized by obtaining a relative posture indicating a general positional relationship.
この発明によれば、(1)から(10)のいずれかの画像処理装置において、オブジェクト関係推定手段により、画像認識手段により認識されたオブジェクト間の関係性として、オブジェクト同士の相対的な位置関係を示す相対姿勢を求めることとした。このため、オブジェクト間の相対姿勢を用いて、同様の動きをしているオブジェクト同士といった、関係性の高いオブジェクト同士を検索することができる。 According to this invention, in the image processing apparatus according to any one of (1) to (10), the relative positional relationship between the objects as the relationship between the objects recognized by the image recognition unit by the object relationship estimation unit. The relative posture indicating For this reason, it is possible to search for highly related objects such as objects that are moving in the same manner using the relative posture between the objects.
(12) 本発明は、(1)から(11)のいずれかの画像処理装置について、前記オブジェクト関係推定手段は、前記画像取得手段によりプレビュー画像が取得されるたびに、当該プレビュー画像内のオブジェクト間の相対姿勢を求め、予め定められた数のプレビュー画像に亘って連続して、相対姿勢のプレビュー画像間での変化量が閾値未満であるオブジェクトを、同一のグループに分類することを特徴とする画像処理装置を提案している。 (12) In the image processing apparatus according to any one of (1) to (11), the object relationship estimation unit may cause the object in the preview image to be acquired each time the preview image is acquired by the image acquisition unit. Relative posture between the images is obtained, and the objects whose change amount between the preview images of the relative posture is less than the threshold value are continuously classified over a predetermined number of preview images, and are classified into the same group. An image processing apparatus is proposed.
この発明によれば、(1)から(11)のいずれかの画像処理装置において、オブジェクト関係推定手段により、画像取得手段によりプレビュー画像が取得されるたびに、プレビュー画像内のオブジェクト間の相対姿勢を求め、予め定められた数のプレビュー画像に亘って連続して、相対姿勢のプレビュー画像間での変化量が閾値未満であるオブジェクトを、同一のグループに分類することとした。このため、複数の連続するプレビュー画像におけるオブジェクト同士の関係性を考慮して、オブジェクトを分類することができる。 According to the present invention, in any one of the image processing apparatuses according to (1) to (11), each time the preview image is acquired by the image acquisition unit by the object relationship estimation unit, the relative posture between the objects in the preview image is acquired. The objects whose change amount between the preview images of the relative posture is less than the threshold value are continuously classified into the same group over a predetermined number of preview images. For this reason, it is possible to classify objects in consideration of the relationship between objects in a plurality of continuous preview images.
(13) 本発明は、(12)の画像処理装置について、前記オブジェクト関係推定手段は、前記画像取得手段により取得された最新のプレビュー画像において求めた相対姿勢と、当該最新のプレビュー画像よりも前のプレビュー画像において求めた相対姿勢の平均と、の差分を前記変化量として求めることを特徴とする画像処理装置を提案している。 (13) In the image processing apparatus according to (12), the object relationship estimation unit may determine the relative posture obtained in the latest preview image acquired by the image acquisition unit and the previous preview image. An image processing apparatus is proposed in which a difference between the average of the relative postures obtained in the preview image is obtained as the amount of change.
この発明によれば、(12)の画像処理装置において、オブジェクト関係推定手段により、画像取得手段により取得された最新のプレビュー画像において求めた相対姿勢と、最新のプレビュー画像よりも前のプレビュー画像において求めた相対姿勢の平均と、の差分を変化量として求めることとした。このため、オブジェクト同士の関係性をより考慮して、オブジェクトをより適切に分類することができる。 According to the present invention, in the image processing apparatus of (12), the relative posture determined in the latest preview image acquired by the image acquisition unit by the object relationship estimation unit and the preview image before the latest preview image. The difference between the average of the calculated relative postures and the amount of change was determined. For this reason, it is possible to classify the objects more appropriately in consideration of the relationship between the objects.
(14) 本発明は、(1)から(13)のいずれかの画像処理装置について、前記画像認識手段は、オブジェクトごとの認識結果に、当該認識結果の認識精度の指標となる情報を付加し、前記オブジェクト関係推定手段は、前記画像認識手段により付加された認識精度の指標が閾値以上であるオブジェクト間の相対姿勢を、安定していると判定することを特徴とする画像処理装置を提案している。 (14) In the image processing apparatus according to any one of (1) to (13), the image recognition unit adds information serving as an index of recognition accuracy of the recognition result to the recognition result for each object. The object relationship estimation means proposes an image processing apparatus that determines that the relative posture between objects having a recognition accuracy index added by the image recognition means equal to or greater than a threshold value is stable. ing.
この発明によれば、(1)から(13)のいずれかの画像処理装置において、画像認識手段により、オブジェクトごとの認識結果に、認識結果の認識精度の指標となる情報を付加し、オブジェクト関係推定手段により、画像認識手段により付加された認識精度の指標が閾値以上であるオブジェクト間の相対姿勢を、安定していると判定することとした。このため、オブジェクトの認識結果の認識精度を考慮して、オブジェクトを分類することができる。 According to the present invention, in the image processing apparatus according to any one of (1) to (13), the image recognition unit adds information serving as an index of recognition accuracy of the recognition result to the recognition result for each object, and the object relationship The estimation means determines that the relative posture between objects whose recognition accuracy index added by the image recognition means is equal to or greater than a threshold value is stable. For this reason, the objects can be classified in consideration of the recognition accuracy of the recognition result of the objects.
(15) 本発明は、(1)から(14)のいずれかの画像処理装置について、前記画像認識手段は、オブジェクトごとの認識結果に、当該認識結果の認識精度の指標となる情報を付加し、前記オブジェクト関係推定手段は、前記画像認識手段により付加された認識精度の指標の最も高いオブジェクトを、前記主要オブジェクトに適用することを特徴とする画像処理装置を提案している。 (15) In the image processing apparatus according to any one of (1) to (14), the image recognition unit adds information serving as an index of recognition accuracy of the recognition result to the recognition result for each object. The object relation estimation means proposes an image processing apparatus that applies the object with the highest recognition accuracy index added by the image recognition means to the main object.
この発明によれば、(1)から(14)のいずれかの画像処理装置において、画像認識手段により、オブジェクトごとの認識結果に、認識結果の認識精度の指標となる情報を付加し、オブジェクト関係推定手段により、画像認識手段により付加された認識精度の指標の最も高いオブジェクトを、主要オブジェクトに適用することとした。このため、認識精度の最も高いオブジェクトとの関係性を用いて、オブジェクト関係推定手段によりオブジェクトを認識することができるので、オブジェクトの認識の頑健性をさらに向上させることができる。 According to the present invention, in the image processing apparatus according to any one of (1) to (14), the image recognition unit adds information serving as an index of recognition accuracy of the recognition result to the recognition result for each object, and the object relationship The estimation means applies the object having the highest recognition accuracy index added by the image recognition means to the main object. For this reason, since the object can be recognized by the object relationship estimation means using the relationship with the object having the highest recognition accuracy, the robustness of the object recognition can be further improved.
(16) 本発明は、(14)または(15)の画像処理装置について、前記画像認識手段は、前記認識精度の指標として、オブジェクトに対する撮影距離と、オブジェクトに対する撮影角度と、のうち少なくともいずれかを用いることを特徴とする画像処理装置を提案している。 (16) In the image processing device according to (14) or (15), the image recognition unit may use at least one of a shooting distance to the object and a shooting angle to the object as an index of the recognition accuracy. Has proposed an image processing device characterized by the use of.
この発明によれば、(14)または(15)の画像処理装置において、画像認識手段により、認識精度の指標として、オブジェクトに対する撮影距離と、オブジェクトに対する撮影角度と、のうち少なくともいずれかを用いることとした。このため、オブジェクトに対する撮影距離や、オブジェクトに対する撮影角度を用いて、認識精度の指標を設定することができる。 According to this invention, in the image processing apparatus of (14) or (15), the image recognition means uses at least one of the shooting distance to the object and the shooting angle to the object as an index of recognition accuracy. It was. For this reason, the recognition accuracy index can be set using the shooting distance to the object and the shooting angle to the object.
(17) 本発明は、(14)から(16)のいずれかの画像処理装置について、前記画像認識手段は、前記認識精度の指標として、局所特徴量のマッチング数と、局所特徴量のマッチングのスコアと、のうち少なくともいずれかを用いることを特徴とする画像処理装置を提案している。 (17) In the image processing device according to any one of (14) to (16), the image recognition unit may include a local feature amount matching number and a local feature amount matching as an index of the recognition accuracy. An image processing apparatus that uses at least one of a score and a score is proposed.
この発明によれば、(14)から(16)のいずれかの画像処理装置において、画像認識手段により、認識精度の指標として、局所特徴量のマッチング数と、局所特徴量のマッチングのスコアと、のうち少なくともいずれかを用いることとした。このため、局所特徴量のマッチング数や、局所特徴量のマッチングのスコアを用いて、認識精度の指標を設定することができる。 According to the present invention, in the image processing device according to any one of (14) to (16), the number of local feature values matching score, the local feature value matching score, as an index of recognition accuracy by the image recognition unit, At least one of them was used. For this reason, an index of recognition accuracy can be set using the matching number of local feature quantities and the matching score of local feature quantities.
(18) 本発明は、(14)から(17)のいずれかの画像処理装置について、前記画像認識手段は、前記認識精度の指標として、SSD(Sum of Squared Difference)の応答値と、NCC(Normalized Cross Correlation)の応答値と、のうち少なくともいずれかを用いることを特徴とする画像処理装置を提案している。 (18) In the image processing apparatus according to any one of (14) to (17), the image recognition unit may use an SSD (Sum of Squared Difference) response value, an NCC ( There has been proposed an image processing apparatus using at least one of a response value of (Normalized Cross Correlation).
この発明によれば、(14)から(17)のいずれかの画像処理装置において、画像認識手段により、認識精度の指標として、SSDの応答値と、NCCの応答値と、のうち少なくともいずれかを用いることとした。このため、SSDの応答値や、NCCの応答値を用いて、認識精度の指標を設定することができる。 According to this invention, in the image processing apparatus according to any one of (14) to (17), at least one of an SSD response value and an NCC response value is used as an index of recognition accuracy by the image recognition means. It was decided to use. For this reason, the index of recognition accuracy can be set using the response value of SSD or the response value of NCC.
(19) 本発明は、(1)から(18)のいずれかの画像処理装置について、前記画像認識手段は、オブジェクトごとの認識結果に、当該オブジェクトの認識に要する処理負荷の指標となる情報を付加し、前記オブジェクト関係推定手段は、前記画像認識手段により付加された処理負荷の指標が閾値未満であるオブジェクトを、前記主要オブジェクトに適用することを特徴とする画像処理装置を提案している。 (19) In the image processing apparatus according to any one of (1) to (18), the image recognition unit may add information serving as an index of a processing load required for recognition of the object to the recognition result for each object. In addition, the object relationship estimation means proposes an image processing apparatus characterized in that an object having a processing load index added by the image recognition means is less than a threshold is applied to the main object.
この発明によれば、(1)から(18)のいずれかの画像処理装置において、画像認識手段により、オブジェクトごとの認識結果に、オブジェクトの認識に要する処理負荷の指標となる情報を付加し、オブジェクト関係推定手段により、画像認識手段により付加された処理負荷の指標が閾値未満であるオブジェクトを、主要オブジェクトに適用することとした。このため、処理負荷の低いオブジェクトとの関係性を用いて、オブジェクト関係推定手段によりオブジェクトを認識することができるので、処理負荷をさらに軽減することができる。 According to the present invention, in the image processing device according to any one of (1) to (18), the image recognition unit adds information serving as an index of the processing load required for object recognition to the recognition result for each object. The object relation estimation means applies an object whose processing load index added by the image recognition means is less than a threshold value to the main object. For this reason, since the object can be recognized by the object relationship estimating means using the relationship with the object having a low processing load, the processing load can be further reduced.
(20) 本発明は、(19)の画像処理装置について、前記画像認識手段は、前記処理負荷の指標として、認識に要した時間を用いることを特徴とする画像処理装置を提案している。 (20) The present invention proposes the image processing apparatus according to (19), wherein the image recognition means uses a time required for recognition as an index of the processing load.
この発明によれば、(19)の画像処理装置において、画像認識手段により、処理負荷の指標として、認識に要した時間を用いることとした。このため、認識に要した時間を用いて、処理負荷の指標を設定することができる。 According to the present invention, in the image processing apparatus of (19), the time required for recognition is used as an index of the processing load by the image recognition means. For this reason, it is possible to set a processing load index using the time required for recognition.
(21) 本発明は、(19)の画像処理装置について、前記画像認識手段は、前記処理負荷の指標として、オブジェクトの種類に応じた値を設定することを特徴とする画像処理装置を提案している。 (21) The present invention proposes an image processing apparatus according to (19), wherein the image recognition means sets a value corresponding to the type of object as an index of the processing load. ing.
この発明によれば、(19)の画像処理装置において、画像認識手段により、処理負荷の指標として、オブジェクトの種類に応じた値を用いることとした。このため、オブジェクトの種類に応じた値を用いて、処理負荷の指標を設定することができる。 According to the present invention, in the image processing apparatus of (19), the image recognition means uses a value corresponding to the type of object as the processing load index. Therefore, it is possible to set a processing load index using a value according to the type of object.
(22) 本発明は、画像取得手段(例えば、図1の画像取得部10に相当)、画像認識手段(例えば、図1の画像認識部20に相当)、オブジェクト関係推定手段(例えば、図1のオブジェクト関係推定部30に相当)、および仮想情報表示手段(例えば、図1の仮想情報表示部70に相当)を備え、プレビュー画像に仮想情報を重畳させる画像処理装置(例えば、図1の画像処理装置1に相当)における画像処理方法であって、前記画像取得手段が、前記プレビュー画像を取得する第1のステップと、前記画像認識手段が、前記第1のステップで取得されたプレビュー画像内のオブジェクトを認識する第2のステップと、前記オブジェクト関係推定手段が、前記第2のステップで認識されたオブジェクト間の関係性(例えば、後述のオブジェクト間の相対姿勢に相当)を推定し、推定結果に基づいてオブジェクトを分類し、同一のグループに分類したオブジェクトのうちの1つである主要オブジェクトの前記第2のステップによる認識結果に基づいて、当該グループに分類した当該主要オブジェクト以外のオブジェクトを認識する第3のステップと、前記仮想情報表示手段が、前記第2のステップによる認識結果と、前記第3のステップによる認識結果と、に基づいて、前記第1のステップで取得されたプレビュー画像に仮想情報を重畳させる第4のステップと、を備えることを特徴とする画像処理方法を提案している。
(22) The present invention provides image acquisition means (for example, equivalent to the
この発明によれば、上述した効果と同様の効果を奏することができる。 According to the present invention, the same effects as described above can be obtained.
(23) 本発明は、画像取得手段(例えば、図1の画像取得部10に相当)、画像認識手段(例えば、図1の画像認識部20に相当)、オブジェクト関係推定手段(例えば、図1のオブジェクト関係推定部30に相当)、および仮想情報表示手段(例えば、図1の仮想情報表示部70に相当)を備え、プレビュー画像に仮想情報を重畳させる画像処理装置(例えば、図1の画像処理装置1に相当)における画像処理方法を、コンピュータに実行させるためのプログラムであって、前記画像取得手段が、前記プレビュー画像を取得する第1のステップと、前記画像認識手段が、前記第1のステップで取得されたプレビュー画像内のオブジェクトを認識する第2のステップと、前記オブジェクト関係推定手段が、前記第2のステップで認識されたオブジェクト間の関係性(例えば、後述のオブジェクト間の相対姿勢に相当)を推定し、推定結果に基づいてオブジェクトを分類し、同一のグループに分類したオブジェクトのうちの1つである主要オブジェクトの前記第2のステップによる認識結果に基づいて、当該グループに分類した当該主要オブジェクト以外のオブジェクトを認識する第3のステップと、前記仮想情報表示手段が、前記第2のステップによる認識結果と、前記第3のステップによる認識結果と、に基づいて、前記第1のステップで取得されたプレビュー画像に仮想情報を重畳させる第4のステップと、をコンピュータに実行させるためのプログラムをコンピュータに実行させるためのプログラムを提案している。
(23) The present invention provides image acquisition means (for example, equivalent to the
この発明によれば、コンピュータを用いてプログラムを実行することで、上述した効果と同様の効果を奏することができる。 According to the present invention, the same effect as described above can be obtained by executing the program using a computer.
本発明によれば、AR技術において、処理負荷を軽減したり、オブジェクトの認識の頑健性を向上させたりすることができる。 According to the present invention, in the AR technology, it is possible to reduce the processing load and improve the robustness of object recognition.
以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下の実施形態における構成要素は適宜、既存の構成要素などとの置き換えが可能であり、また、他の既存の構成要素との組み合せを含む様々なバリエーションが可能である。したがって、以下の実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the constituent elements in the following embodiments can be appropriately replaced with existing constituent elements, and various variations including combinations with other existing constituent elements are possible. Accordingly, the description of the following embodiments does not limit the contents of the invention described in the claims.
<第1実施形態>
[画像処理装置1の概要]
図1は、本発明の第1実施形態に係る画像処理装置1のブロック図である。画像処理装置1は、AR技術に対応している。この画像処理装置1の概要について、図2、3、4、5を用いて以下に説明する。
<First Embodiment>
[Outline of Image Processing Apparatus 1]
FIG. 1 is a block diagram of an
図2は、第1の視点から、画像処理装置1の搭載されている端末100が撮影している例を示す模式図である。図2では、テーブルAAの上に3つのオブジェクトM1、M2、M3が直線状に配置されている。端末100は、内蔵しているカメラで、オブジェクトM1の側からテーブルAA上を撮影している。
FIG. 2 is a schematic diagram illustrating an example in which the terminal 100 in which the
図3は、図2における端末100の表示画面110aを示す図である。表示画面110aには、下方(図3において下方)から上方(図3において上方)に向かってオブジェクトM1、M2、M3の順番にオブジェクトM1からM3が表示されている。また、オブジェクトM1の右方(図3において右方)には、オブジェクトM1に紐付けられた仮想情報C1が重畳されている。また、オブジェクトM2の右方(図3において右方)には、オブジェクトM2に紐付けられた仮想情報C2が重畳されている。また、オブジェクトM3の右方(図3において右方)には、オブジェクトM3に紐付けられた仮想情報C3が重畳されている。このため、端末100の所有者は、表示画面110aを通して、AR空間に存在する仮想情報C1からC3を認識することができる。
FIG. 3 is a diagram showing the
図4は、第2の視点から、画像処理装置1の搭載されている端末100が撮影している例を示す模式図である。端末100は、内蔵しているカメラで、オブジェクトM3の側からテーブルAA上を撮影している。
FIG. 4 is a schematic diagram illustrating an example in which the terminal 100 on which the
図5は、図4における端末100の表示画面110bを示す図である。表示画面110bには、上方(図5において上方)から下方(図5において下方)に向かってオブジェクトM1、M2、M3の順番にオブジェクトM1からM3が表示されている。また、オブジェクトM1の左方(図5において左方)には、オブジェクトM1に紐付けられた仮想情報C1が重畳されている。また、オブジェクトM2の左方(図5において左方)には、オブジェクトM2に紐付けられた仮想情報C2が重畳されている。また、オブジェクトM3の左方(図5において左方)には、オブジェクトM3に紐付けられた仮想情報C3が重畳されている。このため、端末100の所有者は、表示画面110bを通しても、AR空間に存在する仮想情報C1からC3を認識することができる。
FIG. 5 is a diagram showing a
なお、表示画面110bでは、仮想情報C1からC3のそれぞれは、表示画面110aに表示されている仮想情報C1からC3を180度回転させた状態で表示されている。これは、表示画面110bを表示している際の端末100が、表示画面110aを表示している際の端末100と180度反対の方向から、オブジェクトM1からM3のそれぞれを撮影しているためである。このため、端末100の所有者は、表示画面110bを通して、仮想情報C1からC3に対する視点を図2における視点から180度回転させると、視点の回転に追随して、AR空間において仮想情報C1からC3も180度回転したと認識することができる。
On the
図2から図5では、端末を動かした場合を示しているが、オブジェクトを動かした場合にも、オブジェクトの動きに追随して、仮想情報も端末100の表示画面上で動く。なお、端末やオブジェクトを動かした際に、仮想情報は、オブジェクトとの相対的な位置関係を保持した状態で動く。また、仮想情報C1からC3のそれぞれは、現実空間には存在しておらず、オブジェクトM1からM3のそれぞれと紐付けて端末100に記憶されている。 2 to 5 show the case where the terminal is moved, but virtual information also moves on the display screen of the terminal 100 following the movement of the object even when the object is moved. Note that when the terminal or the object is moved, the virtual information moves while maintaining a relative positional relationship with the object. Further, each of the virtual information C1 to C3 does not exist in the real space, but is stored in the terminal 100 in association with each of the objects M1 to M3.
ここで、画像認識処理におけるオブジェクトの認識精度は、オブジェクトとカメラとの距離が離れるに従って低下する。また、オクルージョンや光の反射などによって、オブジェクトがプレビュー画像に一時的に写らなくなり、このオブジェクトの認識に一時的に失敗してしまうことがある。このような理由により、例えば、オブジェクトM1について、図2の第1の視点では認識できるが、図4の第2の視点では認識できないといった状況が起こり得る。 Here, the recognition accuracy of the object in the image recognition process decreases as the distance between the object and the camera increases. Further, due to occlusion or light reflection, the object may not be temporarily displayed in the preview image, and recognition of this object may temporarily fail. For this reason, for example, a situation may occur in which the object M1 can be recognized from the first viewpoint in FIG. 2, but cannot be recognized from the second viewpoint in FIG.
そこで、まず、図2から5を用いて上述したAR空間を、上述の特許文献1の技術で実現する場合について、以下に説明する。この場合において、上述の状況が起こると、オブジェクトM1についての姿勢の追跡処理を行っても、オブジェクトを認識できないので、オブジェクトM1の認識処理を、初期姿勢の推定処理からやり直す必要がある。しかし、初期姿勢の推定処理の、オブジェクトとカメラとの距離や角度に対する頑健性は低い。このため、初期姿勢の推定処理からやり直しても、オブジェクトM1の認識を再開できない可能性がある。
Therefore, first, the case where the AR space described above with reference to FIGS. 2 to 5 is realized by the technique of
次に、図2から5を用いて上述したAR空間を、本実施形態に係る画像処理装置1で実現する場合について、以下に説明する。この場合、画像処理装置1は、オブジェクトM1を認識するために、オブジェクトM1と他のオブジェクトとの相対的な位置関係を示す相対姿勢を予め推定しておく。オブジェクトM1の認識に失敗すると、推定しておいた相対姿勢を用いて、他のオブジェクトの認識結果を、オブジェクトM1の認識結果に変換する。これによれば、端末100がオブジェクトM1を直接認識できなくても、他のオブジェクトの認識結果を変換して、オブジェクトM1を認識することができる。このため、オブジェクトの認識の頑健性を向上させることができ、端末100の表示画面110に仮想情報C1を表示することができるので、
Next, a case where the AR space described above with reference to FIGS. 2 to 5 is realized by the
[画像処理装置1の構成]
以上の画像処理装置1について、以下に詳述する。図1に戻って、画像処理装置1は、デスクトップPCといった据え置き型のコンピュータや、ラップトップPC、携帯電話機、携帯ゲーム機、HMDなどの携帯型の情報端末に搭載可能である。この画像処理装置1は、画像取得部10、画像認識部20、オブジェクト関係推定部30、および仮想情報表示部70を備える。
[Configuration of Image Processing Apparatus 1]
The above
[画像取得部10の構成および動作]
画像取得部10は、WEBカメラやカメラモジュールといった撮像装置で撮影された画像を連続的に取得する。本実施形態では、画像取得部10は、60fpsのフレームレートで画像を取得するものとする。なお、画像を連続的に撮影する撮像装置は、画像処理装置1の内部に設けられるものであってもよいし、画像処理装置1の外部に設けられるものであってもよい。
[Configuration and Operation of Image Acquisition Unit 10]
The
[画像認識部20の構成および動作]
画像認識部20は、画像取得部10により取得された画像(以降、プレビュー画像とする)を入力とする。この画像認識部20は、入力されたプレビュー画像内のオブジェクトを識別し、識別した各オブジェクトの姿勢を推定して、識別した各オブジェクトを認識する。この画像認識部20は、オブジェクト識別部21、初期姿勢推定部22、および姿勢追跡部23を備える。
[Configuration and Operation of Image Recognition Unit 20]
The
オブジェクト識別部21は、画像取得部10により取得されたプレビュー画像を入力とする。このオブジェクト識別部21は、入力されたプレビュー画像内のオブジェクトの識別処理を行う。識別処理では、プレビュー画像から局所特徴量を検出し、特徴量データベース(辞書)に予め登録されているオブジェクトごとの局所特徴量と照合して、オブジェクトを識別する。
The
なお、オブジェクトの識別処理は、例えば外部サーバで行われるものとしてもよい。この場合には、オブジェクト識別部21は、プレビュー画像を外部サーバに送信し、外部サーバから識別処理の結果を受け取ることになる。これによれば、識別処理をアウトソースすることができるので、大規模なオブジェクトや多数のオブジェクトを扱う場合に好適である。
The object identification process may be performed by, for example, an external server. In this case, the
一方、オブジェクトの数が少数である場合には、画像認識部20からオブジェクト識別部21を省くことが可能である。
On the other hand, when the number of objects is small, the
初期姿勢推定部22は、画像取得部10により取得されたプレビュー画像を入力とする。この初期姿勢推定部22は、入力されたプレビュー画像に含まれる、オブジェクト識別部21により識別されたオブジェクトについて、姿勢を推定し、推定結果を姿勢の初期値とする。初期姿勢推定部22は、後述の姿勢追跡部23によるオブジェクトの姿勢の追跡を開始する際と、姿勢追跡部23によるオブジェクトの姿勢の追跡を行わなくなった場合と、において上述の姿勢の推定を行う。
The initial
本実施形態では、オブジェクトの姿勢を六自由度の姿勢行列(4行4列)で表現する。姿勢行列は、画像取得部10が取得するプレビュー画像を撮影する撮像装置と、オブジェクトと、の相対的な位置関係を示す情報を有するものであり、三次元特殊ユークリッド群SE(3)に属し、ともに三自由度の三次元回転行列および三次元並進ベクトルで表される。姿勢行列を用いる場合、プレビュー画像中におけるオブジェクトのピクセル座標と、初期姿勢推定部22に予め登録されているこのオブジェクト上の座標と、の関係は、以下の数式(1)で表すことができる。
In the present embodiment, the posture of the object is expressed by a posture matrix of 6 degrees of freedom (4 rows and 4 columns). The posture matrix has information indicating the relative positional relationship between the imaging device that captures the preview image acquired by the
数式(1)において、Aは、撮像装置の内部パラメータを示す。撮像装置の内部パラメータは、予めカメラキャリブレーションによって求めておくことが好ましい。ただし、撮像装置の内部パラメータは、実際の値とずれていたとしても、最終的に推定した姿勢行列と打ち消し合うため、仮想情報を重畳する位置には影響しない。このため、撮像装置の内部パラメータには、一般的なカメラの内部パラメータを代用することが可能である。 In Equation (1), A indicates an internal parameter of the imaging device. It is preferable that the internal parameters of the imaging apparatus are obtained in advance by camera calibration. However, even if the internal parameters of the imaging apparatus deviate from the actual values, they cancel each other out with the estimated posture matrix, so that the position where the virtual information is superimposed is not affected. For this reason, a general camera internal parameter can be substituted for the internal parameter of the imaging apparatus.
数式(1)において、Rは、三次元空間内の回転を表すパラメータを示す。Rにおける各パラメータは、オイラー角といった表現により三パラメータで表現することが可能である。 In Expression (1), R represents a parameter representing rotation in the three-dimensional space. Each parameter in R can be expressed by three parameters by expression such as Euler angle.
数式(1)において、tは、三次元空間内の平行移動を表すパラメータを示す。また、X、Y、Zのそれぞれは、初期姿勢推定部22に予め登録されているオブジェクト上のX座標、Y座標、Z座標のそれぞれを示す。また、u、vは、プレビュー画像中のu座標およびv座標を示す。
In Equation (1), t represents a parameter representing the parallel movement in the three-dimensional space. Each of X, Y, and Z represents an X coordinate, a Y coordinate, and a Z coordinate on the object registered in advance in the initial
なお、本実施形態では、姿勢行列の推定を、画像内の自然特徴を用いて行うものとする。自然特徴とは、画像間の点対応の取得やマッチングを行うために、画像の局所領域から算出される特徴のことであり、画像内のエッジやコーナーなどの、対応付けの容易な局所領域から抽出される。自然特徴の代表例としては、SIFT(Scale Invariant Feature Transform)やSURF(Speed Up Robust Features)などの、高精度な対応付けが可能な局所特徴量があり、これらを用いて姿勢行列を算出する手法は一般に知られている。 In the present embodiment, the posture matrix is estimated using natural features in the image. A natural feature is a feature that is calculated from a local region of an image in order to obtain or match a point correspondence between images. From a local region that can be easily matched, such as an edge or a corner in the image. Extracted. Typical examples of natural features include local feature quantities that can be associated with high accuracy, such as SIFT (Scale Invariant Feature Transform) and SURF (Speed Up Robust Features), and a method of calculating a posture matrix using these features Is generally known.
オブジェクトの姿勢は、オブジェクトや撮像装置が動くことによって、画像取得部10により連続的に取得されるプレビュー画像中において刻々と変化する。このため、初期姿勢推定部22には、上述のオブジェクト識別部21と比べて処理速度が求められる。したがって、画像取得部10は、画像処理装置1の内部に設けられる必要があり、非特許文献2に開示されているように処理負荷の小さいアルゴリズムを用いることが望ましい。
The posture of the object changes every moment in the preview image continuously acquired by the
姿勢追跡部23は、画像取得部10により取得されたプレビュー画像と、初期姿勢推定部22により推定されたオブジェクトの姿勢の初期値と、を入力とする。この姿勢追跡部23は、入力されたプレビュー画像およびオブジェクトの姿勢の初期値に基づいて、オブジェクトの姿勢の追跡処理を行ってオブジェクトの姿勢を推定し、オブジェクトを認識する。
The
姿勢追跡部23は、オブジェクトの姿勢の追跡に成功した場合、すなわちオブジェクトの認識に成功した場合には、認識に成功したオブジェクトの識別子(ID)と、認識に成功したオブジェクトの姿勢の推定値と、を認識結果として出力する。また、この認識結果を、画像取得部10により取得された次フレームのプレビュー画像において追跡処理を行う際の初期値として用いる。このため、オブジェクトの姿勢の追跡に成功している間は、このオブジェクトに対して初期姿勢推定部22による処理を行う必要がない。
When the
また、オブジェクトの姿勢の追跡に成功している間は、このオブジェクトに対する追跡処理を、画像取得部10によりプレビュー画像が取得されるたびに行う必要がある。このため、姿勢追跡部23には、上述の初期姿勢推定部22と比べて処理速度が求められる。したがって、姿勢追跡部23は、画像処理装置1の内部に設けられる必要があるとともに、オブジェクトの姿勢の追跡処理を最低でもリアルタイムで行うことができる必要があり、非特許文献2に開示されているように処理負荷の小さい姿勢追跡アルゴリズムを用いることが望ましい。
Further, while the tracking of the posture of the object is successful, it is necessary to perform tracking processing for the object every time the preview image is acquired by the
非特許文献2に開示されている手法では、姿勢の初期値から線形予測によって姿勢の予測値を推定し、オブジェクト内の特徴点の移動量を、予測値からの探索によって推定する。探索は、特徴点の周囲から、局所領域の相関値が最も高い箇所を求めることで行われる。各特徴点の移動量から、上述の数式(1)を満たすように、姿勢の推定値を予測値から更新する。姿勢の追跡処理が反復してリアルタイムで行われる場合、フレーム間の特徴点の移動量は小さいため、特徴点の探索幅を限定することで、処理負荷の軽減を実現できる。
In the method disclosed in
また、カメラやオブジェクトが急速に移動するなどによって、特徴点の移動量が探索幅を超えた場合には、上述の手法では姿勢の追跡に失敗する。この場合、上述の手法は、追跡に失敗したことを特徴点の探索状況によって検知することが可能である。例えば、探索に成功した(相関値が閾値以上の箇所が求められた)特徴点の数が閾値以下となった場合には、姿勢の推定値の更新を中断して、追跡に失敗したことを示す信号を出力することが可能である。追跡に失敗したことを示す信号が出力された場合、姿勢追跡部23による追跡処理を中断し、次フレーム以降において初期姿勢推定部22による姿勢の初期値を推定する処理を実行すればよい。
Further, when the movement amount of the feature point exceeds the search width due to the rapid movement of the camera or the object, the posture tracking fails in the above-described method. In this case, the above-described method can detect that the tracking has failed based on the feature point search status. For example, if the number of feature points that succeeded in the search (where the correlation value is greater than or equal to the threshold value) is less than or equal to the threshold value, the update of the estimated posture value is interrupted, and the tracking failure It is possible to output the indicated signal. When a signal indicating that the tracking has failed is output, the tracking processing by the
なお、オブジェクトの姿勢の追跡処理をリアルタイムで行うために、追跡可能なオブジェクト数の上限を予め設定しておき、上限を超えたオブジェクトについては追跡処理を行わないようにしてもよい。これによれば、追跡するオブジェクト数が上限に達している場合には、オブジェクト識別部21による識別処理と、初期姿勢推定部22による姿勢の初期値を推定する処理と、を休止することになる。なお、上述の上限は、画像処理装置1の処理能力に応じて設定されることが好ましい。
In order to perform tracking processing of the posture of an object in real time, an upper limit of the number of objects that can be tracked may be set in advance, and tracking processing may not be performed for an object that exceeds the upper limit. According to this, when the number of objects to be tracked has reached the upper limit, the identification processing by the
以上の画像認識部20は、上述のオブジェクトの姿勢の推定を、オブジェクトごとに行う。オブジェクトごとの姿勢の推定処理は、互いに独立であるため並列に実施してもよいし、順番に実施してもよい。
The above
また、AR空間内に仮想情報を固定配置して重畳させる場合には、画像認識部20は、オブジェクトの認識に加えて、基準マーカの認識も行う。オブジェクトを認識する場合と同様の処理で基準マーカを認識できる場合には、画像認識部20は、オブジェクトと基準マーカとを区別することなく認識を行う。一方、基準マーカが、非特許文献1の手法で認識可能なARマーカである場合や、非特許文献3の手法で認識可能な復元された空間である場合には、基準マーカをオブジェクトと区別して、基準マーカのみ、対応する認識手法で認識を行う。AR空間内に固定配置して重畳させる仮想情報がない場合や、そもそも基準マーカが存在しない場合には、画像認識部20は、オブジェクトの認識のみ行う。
When virtual information is fixedly arranged and superimposed in the AR space, the
いずれにせよ、画像認識部20が行うことは、オブジェクト(存在する場合には基準マーカも)の姿勢の推定である。なお、基準マーカの有無、基準マーカの種類、および姿勢の推定に用いる認識手法は、上述の手法に限定されるものではない。
In any case, what the
[オブジェクト関係推定部30の構成および動作]
オブジェクト関係推定部30は、画像認識部20による認識結果を入力とする。このオブジェクト関係推定部30は、画像認識部20により認識されたオブジェクト間の関係性を推定し、推定結果に基づいてオブジェクトを分類する。また、認識に失敗したオブジェクトについては、このオブジェクトと同一のグループに分類したオブジェクトのうちの1つである主要オブジェクトの画像認識部20による認識結果に基づいて、認識する。このオブジェクト関係推定部30は、オブジェクト関係推定処理部31および姿勢変換処理部32を備える。
[Configuration and Operation of Object Relationship Estimation Unit 30]
The object
オブジェクト関係推定処理部31は、画像認識部20による認識結果を入力とする。このオブジェクト関係推定処理部31は、画像認識部20により認識されたオブジェクト間の関係性を推定して分類する。具体的には、画像認識部20により認識されたオブジェクト間の相対姿勢を算出し、相対姿勢の変動に応じて各オブジェクトを分類する。なお、本実施形態では、相対姿勢も上述の姿勢行列で表現するものとする。このオブジェクト関係推定処理部31について、以下に詳述する。
The object relationship
オブジェクト関係推定処理部31は、画像認識部20により認識されたオブジェクトの数が2つ以上である場合に動作する。ここで、例えば、第1の視点におけるオブジェクトAの姿勢行列のことを姿勢行列WA1とし、第1の視点におけるオブジェクトBの姿勢行列のことを姿勢行列WB1とする。すると、オブジェクトAとオブジェクトBとの間の相対姿勢WABは、以下の数式(2)により求めることができる。
The object relationship
ここで、仮に、カメラが移動して第1の視点から第2の視点に移動している間、オブジェクトA、Bの双方が固定配置されていて移動しない場合には、以下の数式(3)に示すように相対姿勢WABは変動しない。また、オブジェクトA、Bの双方が同一の剛体オブジェクトに固定配置されている場合にも、剛体オブジェクトが動いても、相対姿勢WABは変動しない。 Here, if both the objects A and B are fixedly arranged and do not move while the camera moves and moves from the first viewpoint to the second viewpoint, the following formula (3) relative orientation as shown in W AB does not change. Also, the object A, even if both the B is fixedly disposed on the same rigid object, even moving rigid object, relative orientation W AB does not change.
そこで、オブジェクト関係推定処理部31は、まず、画像取得部10により取得されたプレビュー画像がフレームごとに、画像認識部20により認識されたオブジェクト間の相対姿勢を推定する。次に、オブジェクト間ごとに、相対姿勢のフレーム間での変化量を相対姿勢変化量として求め、相対姿勢変化量が閾値β未満であるオブジェクト間について、相対姿勢が1フレーム安定したと判定する。次に、αフレーム以上に亘って連続して相対姿勢の安定しているオブジェクト間について、これらオブジェクトを同一のグループに分類する。
Therefore, the object relationship
なお、上述の相対姿勢変化量は、以下のようにして求められる。前フレームで相対姿勢が安定していないと判定した場合には、前フレームにおいて推定した相対姿勢から、現フレームにおいて推定した相対姿勢までの変化量を、上述の相対姿勢変化量として求める。一方、nフレーム(ただし、nは、n>1を満たす任意の整数)に亘って連続して相対姿勢が安定していると判定している場合には、nフレーム前から前フレームまでの間に推定した相対姿勢の平均(平均相対姿勢)を求め、この平均相対姿勢と、現フレームにおいて推定した相対姿勢と、の差分を、上述の相対姿勢変化量として求める。 The above-described relative posture change amount is obtained as follows. When it is determined that the relative posture is not stable in the previous frame, a change amount from the relative posture estimated in the previous frame to the relative posture estimated in the current frame is obtained as the above-described relative posture change amount. On the other hand, when it is determined that the relative posture is continuously stable over n frames (where n is an arbitrary integer satisfying n> 1), the interval between n frames before and the previous frame is determined. The average of the estimated relative postures (average relative posture) is obtained, and the difference between the average relative posture and the relative posture estimated in the current frame is obtained as the above-described relative posture change amount.
また、上述の相対姿勢変化量は、並進と回転とに分けて、それぞれ独立した閾値と比較してもよい。 The relative posture change amount described above may be divided into translation and rotation, and may be compared with independent threshold values.
また、オブジェクト関係推定処理部31が動作を開始した段階、すなわちグループ分けの初期状態では、画像認識部20により認識された全てのオブジェクトは、それぞれ別々のグループに属している状態(オブジェクト数=グループ数)となる。また、同一のグループには、3つ以上のオブジェクトを分類することが可能であり、例えばオブジェクトAとオブジェクトBとの間の相対姿勢WABと、オブジェクトAとオブジェクトCとの間の相対姿勢WACと、がそれぞれαフレーム以上に亘って連続して安定している場合には、オブジェクトA、B、Cの3つを同一のグループに分類することができる。
Further, at the stage when the object relationship
また、同一のグループに分類されていたオブジェクト間の相対姿勢について、安定していないと判定した場合には、これらオブジェクトのグループ化を解除して、これらオブジェクトを別々のグループに分ける。オブジェクトのグループ化を解除する場合としては、例えば、これらオブジェクトのうち少なくともいずれかが動いた場合が想定される。 Further, when it is determined that the relative posture between the objects classified into the same group is not stable, the grouping of these objects is canceled and these objects are divided into different groups. As a case where the grouping of objects is canceled, for example, a case where at least one of these objects moves is assumed.
また、オクルージョンや光の反射などによって、このオブジェクトの認識に一時的に失敗してしまうことがある。このような場合には、オブジェクト間の相対姿勢を推定することができないが、同一のグループに分類されているオブジェクト間の相対姿勢は、変化していないことが想定されるため、グループ化の解除は行わない。 In addition, recognition of this object may temporarily fail due to occlusion or light reflection. In such a case, it is impossible to estimate the relative posture between objects, but it is assumed that the relative posture between objects classified in the same group has not changed. Do not do.
ただし、オブジェクト間の相対姿勢を推定できないフレームが連続して発生し続けると、相対姿勢が変化していないこと(相対姿勢の不変性)を保証できなくなってしまう。また、オブジェクト間の相対姿勢を推定できない原因がオクルージョンや光の反射などの一時的なものである場合には、この原因が解消して、オブジェクト間の相対姿勢の推定を再開できると考えられる。そこで、θフレーム以上に亘って連続してオブジェクト間の相対姿勢を推定できない場合には、グループ化を解除する。 However, if frames in which the relative posture between objects cannot be estimated continue to occur, it cannot be guaranteed that the relative posture has not changed (relative posture invariance). In addition, when the reason why the relative posture between objects cannot be estimated is a temporary cause such as occlusion or light reflection, it is considered that this cause can be resolved and the estimation of the relative posture between objects can be resumed. Therefore, when the relative posture between the objects cannot be estimated continuously over the θ frame or more, the grouping is canceled.
ここで、オブジェクト間の相対姿勢を推定できないのは、認識できなかったオブジェクトとの間の相対姿勢である。すなわち、認識できていないオブジェクトについては、このオブジェクトと他のオブジェクトとの間の相対姿勢を推定できない。このため、θフレーム以上に亘って連続して認識できていないオブジェクトについては、他のオブジェクトとの間の相対姿勢をθフレーム以上に亘って連続して推定できないことになり、グループ化が解除されることになる。 Here, the relative posture between the objects that cannot be recognized cannot be estimated. That is, for an object that cannot be recognized, the relative posture between this object and another object cannot be estimated. For this reason, for objects that cannot be recognized continuously over the θ frame or more, the relative posture with other objects cannot be continuously estimated over the θ frame or more, and the grouping is canceled. Will be.
姿勢変換処理部32は、画像認識部20による認識結果と、オブジェクト関係推定処理部31による分類結果および相対姿勢の推定結果と、を入力とする。この姿勢変換処理部32は、画像認識部20による認識に失敗したオブジェクトについて、同一のグループに分類されている他のオブジェクトについての画像認識部20による認識結果を、この他のオブジェクトとの間の相対姿勢を用いて認識する。姿勢変換処理部32について、以下に詳述する。
The posture
姿勢変換処理部32は、同一のグループに分類されているオブジェクトが1組以上存在している場合、すなわち2つ以上のオブジェクトが同一のグループに分類されている場合に、動作する。ここで、例えば、オブジェクトEの認識には画像認識部20が失敗しているとともに、オブジェクトEと同一のグループに分類されているオブジェクトFの認識には画像認識部20が成功しており、オブジェクトEとオブジェクトFとの間の相対姿勢WEFが推定されているものとする。また、画像認識部20による成功した認識により、第1の視点におけるオブジェクトFの姿勢行列WF1が得られているものとする。すると、オブジェクトFを上述の主要オブジェクトとして、第1の視点におけるオブジェクトEの姿勢行列WE1を、以下の数式(4)により求めることができる。
The posture
[仮想情報表示部70の構成および動作]
仮想情報表示部70は、画像取得部10により取得されたプレビュー画像と、画像認識部20による認識結果と、オブジェクト関係推定部30による認識結果と、を入力とする。この仮想情報表示部70は、プレビュー画像に、画像認識部20およびオブジェクト関係推定部30による認識結果に基づいて仮想情報を重畳させる。なお、仮想情報を重畳させる際に、仮想情報表示部70は、撮像装置の内部パラメータ行列(画角といった情報を含む)と、重畳させる仮想情報が紐付けられているオブジェクトの姿勢行列と、を用いて、3Dレンダリングによって対応する位置にこの仮想情報を重畳させる。また、仮想情報を重畳させる際に、仮想情報表示部70は、統合認識結果に基づいて仮想情報の位置や向きを補正する。
[Configuration and Operation of Virtual Information Display Unit 70]
The virtual
なお、仮想情報表示部70は、有線ケーブルや無線ネットワークを介して自端末と接続された外部モニタや、自端末に搭載されているディスプレイ(網膜投影型を含む)や、プロジェクタなどの、映像をユーザに掲示するための表示装置を制御するものである。この表示装置が、例えば、光学シースルー型のHMDや、プロジェクタを用いて視界に直接付加情報を重畳するものである場合には、プレビュー画像は表示させず、仮想情報のみを表示させることとしてもよい。
The virtual
[画像処理装置1の動作]
以上の構成を備える画像処理装置1の動作について、図6から10を用いて以下に説明する。
[Operation of Image Processing Apparatus 1]
The operation of the
図6は、画像処理装置1のフローチャートである。
FIG. 6 is a flowchart of the
ステップS100において、画像処理装置1は、画像取得部10によりプレビュー画像を取得し、ステップS101に処理を移す。
In step S100, the
ステップS101において、画像処理装置1は、画像認識部20およびオブジェクト関係推定処理部31により第1の画像認識処理を行って、ステップS100で取得したプレビュー画像内の各オブジェクトを認識し、ステップS102に処理を移す。なお、第1の画像認識処理の詳細については、図7を用いて後述する。
In step S101, the
ステップS102において、画像処理装置1は、オブジェクト関係推定処理部31により、ステップS101において現フレームで認識した全てのオブジェクトの中から2つを選択し、ステップS103に処理を移す。
In step S102, the
ステップS103において、画像処理装置1は、オブジェクト関係推定処理部31により、ステップS102またはステップS107で選択した2つのオブジェクトに対する相対姿勢連続推定回数カウンタのカウンタ値がゼロであるか否かを判別する。ゼロであると判別した場合には、ステップS104に処理を移し、ゼロではないと判別した場合には、ステップS105に処理を移す。なお、相対姿勢連続推定回数カウンタは、ステップS102またはステップS107で選択した2つのオブジェクトごとに設けられ、2つのオブジェクトごとに、何フレームに亘って連続して相対姿勢を求めたかを計数するためのものである。
In step S103, the
ステップS104において、画像処理装置1は、オブジェクト関係推定処理部31により、相対姿勢算出処理を行って、ステップS106に処理を移す。なお、相対姿勢算出処理の詳細については、図8を用いて後述する。
In step S104, the
ステップS105において、画像処理装置1は、オブジェクト関係推定処理部31により、分類処理を行って、ステップS106に処理を移す。なお、分類処理の詳細については、図9を用いて後述する。
In step S105, the
ステップS106において、画像処理装置1は、オブジェクト関係推定処理部31により、ステップS101において現フレームで認識した全てのオブジェクトについて、2つで1つの組として、全ての組み合わせを現フレームで選択したか否かを判別する。選択したと判別した場合には、ステップS108に処理を移し、選択していないと判別した場合には、ステップS107に処理を移す。
In step S106, the
ステップS107において、画像処理装置1は、オブジェクト関係推定処理部31により、ステップS101において現フレームで認識した全てのオブジェクトのうち、選択していない組み合わせを構成する2つのオブジェクトを選択し、ステップS103に処理を戻す。
In step S107, the
ステップS108において、画像処理装置1は、姿勢変換処理部32および仮想情報表示部70により、第1の重畳表示処理を行って、図6に示した処理を終了する。なお、第1の重畳表示処理の詳細については、図10を用いて後述する。
In step S108, the
図7は、画像処理装置1が行う上述の第1の画像認識処理のフローチャートである。
FIG. 7 is a flowchart of the first image recognition process described above performed by the
ステップS110において、画像処理装置1は、姿勢追跡部23により、ステップS100で取得したプレビュー画像中に、前フレームで認識したオブジェクトが含まれているか否かを判別する。含まれていると判別した場合には、ステップS111に処理を移し、含まれていないと判別した場合には、ステップS116に処理を移す。
In step S110, the
ステップS111において、画像処理装置1は、姿勢追跡部23により、ステップS110において前フレームで認識したと判別した各オブジェクトについて、前フレームでの姿勢を初期値として姿勢の追跡処理を行って認識し、ステップS112に処理を移す。
In step S111, the
ステップS112において、画像処理装置1は、オブジェクト関係推定処理部31により、ステップS111において現フレームで姿勢を追跡できた各オブジェクトについて、対応する姿勢追跡連続失敗回数カウンタをリセットし、ステップS113に処理を移す。これによれば、画像取得部10により取得されたプレビュー画像に含まれている全てのオブジェクトのうち、現フレームで認識できたオブジェクトに対する姿勢追跡連続失敗回数カウンタが、リセットされることになる。なお、姿勢追跡連続失敗回数カウンタは、オブジェクトごとに設けられ、オブジェクトごとに、何フレームに亘って連続して姿勢の追跡に失敗したかを計数するためのものである。
In step S112, the
ステップS113において、画像処理装置1は、オブジェクト関係推定処理部31により、ステップS111において現フレームで姿勢を追跡できなかった各オブジェクトについて、対応する姿勢追跡連続失敗回数カウンタをインクリメントし、ステップS114に処理を移す。これによれば、画像取得部10により取得されたプレビュー画像に含まれている全てのオブジェクトのうち、現フレームで認識できなかったオブジェクトに対する姿勢追跡連続失敗回数カウンタが、1だけ加算されることになる。
In step S113, the
ステップS114において、画像処理装置1は、オブジェクト関係推定処理部31により、姿勢追跡連続失敗回数カウンタの値が閾値θ以上であるオブジェクトについて、姿勢追跡連続失敗回数カウンタをリセットするとともに、グループ化を解除して、ステップS115に処理を移す。これによれば、画像取得部10により取得されたプレビュー画像に含まれている全てのオブジェクトのうち、θフレーム以上に亘って連続して認識できなかったオブジェクトについて、姿勢追跡連続失敗回数カウンタがリセットされるとともに、グループ化が解除されることになる。
In step S114, the
ステップS115において、画像処理装置1は、姿勢追跡部23により、追跡中のオブジェクトの数が、予め定められた上限値に達したか否かを判別する。達した場合には、図7に示した処理を終了し、達していない場合には、ステップS116に処理を移す。
In step S115, the
ステップS116において、画像処理装置1は、オブジェクト識別部21により、ステップS100で取得したプレビュー画像内のオブジェクトを識別し、ステップS117に処理を移す。
In step S116, the
ステップS117において、画像処理装置1は、初期姿勢推定部22により、ステップS110で取得したプレビュー画像に含まれるステップS116で識別したオブジェクトのうち、前フレームで認識していないオブジェクトのそれぞれと、現フレームで姿勢の追跡に失敗したオブジェクトのそれぞれと、について、姿勢の初期値を求めて認識し、ステップS118に処理を移す。
In step S117, the
ステップS118において、画像処理装置1は、オブジェクト関係推定処理部31により、ステップS117で姿勢の初期値を求めた各オブジェクトに対して姿勢追跡連続失敗回数カウンタを新たに設け、新たに設けた姿勢追跡連続失敗回数カウンタをリセットし、図7に示した処理を終了する。
In step S118, the
図8は、画像処理装置1が行う上述の第1の相対姿勢算出処理のフローチャートである。
FIG. 8 is a flowchart of the above-described first relative posture calculation process performed by the
ステップS120において、画像処理装置1は、オブジェクト関係推定処理部31により、ステップS102またはステップS107で選択した2つのオブジェクト間の、現フレームにおける相対姿勢を求め、図8に示した処理を終了する。
In step S120, the
図9は、画像処理装置1が行う上述の分類処理のフローチャートである。
FIG. 9 is a flowchart of the above-described classification process performed by the
ステップS130において、画像処理装置1は、オブジェクト関係推定処理部31により、ステップS102またはステップS107で選択した2つのオブジェクト間の、現フレームにおける相対姿勢を求め、ステップS131に処理を移す。
In step S130, the
ステップS131において、画像処理装置1は、オブジェクト関係推定処理部31により、ステップS102またはステップS107で選択した2つのオブジェクト間の相対姿勢について、相対姿勢連続推定回数カウンタのカウンタ値を「1」にインクリメントしたフレーム(以降、平均相対姿勢推定開始フレームとする)から前フレームまでの各フレームで推定したものの平均値を、平均相対姿勢として求め、ステップS132に処理を移す。
In step S131, the
なお、平均相対姿勢は、前フレームにおいて計算した平均相対姿勢(平均相対姿勢推定開始フレームから2フレーム前のフレームまでの平均相対姿勢)と、前フレームにおいて計算した相対姿勢WN−1と、から加重平均として求めることができる。前フレームにおいて計算した平均相対姿勢は、以下の数式(5)により求めることができ、加重平均は、以下の数式(6)により求めることができる。上述の相対姿勢WN−1や数式(5)、(6)において、Nは、平均相対姿勢を推定する際の相対姿勢連続推定回数カウンタのカウンタ値を表すものとする。 The average relative posture is calculated from the average relative posture calculated in the previous frame (average relative posture from the average relative posture estimation start frame to the frame two frames before) and the relative posture W N−1 calculated in the previous frame. It can be obtained as a weighted average. The average relative attitude calculated in the previous frame can be obtained by the following equation (5), and the weighted average can be obtained by the following equation (6). In the above-described relative posture W N-1 and equations (5) and (6), N represents the counter value of the relative posture continuous estimation number counter when estimating the average relative posture.
ステップS132において、画像処理装置1は、オブジェクト関係推定処理部31により、ステップS102またはステップS107で選択した2つのオブジェクト間について、平均相対姿勢と、現フレームで推定した相対姿勢と、の差分の絶対値を、相対姿勢変化量として求め、ステップS133に処理を移す。
In step S132, the
ステップS133において、画像処理装置1は、オブジェクト関係推定処理部31により、ステップS132により求めた相対姿勢変化量が閾値β未満であるか否かを判別する。相対姿勢変化量が閾値β未満であると判別した場合には、ステップS134に処理を移し、相対姿勢変化量が閾値β以上である場合には、ステップS137に処理を移す。
In step S133, the
ステップS134において、画像処理装置1は、オブジェクト関係推定処理部31により、ステップS133で相対姿勢変化量が閾値β未満であると判別した2つのオブジェクトに対する相対姿勢連続推定回数カウンタをインクリメントし、ステップS135に処理を移す。
In step S134, the
ステップS135において、画像処理装置1は、オブジェクト関係推定処理部31により、ステップS133で相対姿勢変化量が閾値β未満であると判別した2つのオブジェクトに対する相対姿勢連続推定回数カウンタのカウンタ値が閾値α以上であるか否かを判別する。カウンタ値が閾値α以上であると判別した場合には、ステップS136に処理を移し、カウンタ値が閾値α未満であると判別した場合には、図9に示した処理を終了する。
In step S135, the
ステップS136において、画像処理装置1は、オブジェクト関係推定処理部31により、ステップS135でカウンタ値が閾値α以上であると判別した2つのオブジェクトを、同一のグループに分類し、図9に示した処理を終了する。
In step S136, the
ステップS137において、画像処理装置1は、オブジェクト関係推定処理部31により、ステップS133で相対姿勢変化量が閾値β以上であると判別した2つのオブジェクトに対する相対姿勢連続推定回数カウンタをリセットし、ステップS138に処理を移す。
In step S137, the
ステップS138において、画像処理装置1は、オブジェクト関係推定処理部31により、ステップS133で相対姿勢変化量が閾値β以上であると判別した2つのオブジェクトは、同一のグループに分類されているか否かを判別する。同一のグループに分類されていると判別した場合には、ステップS139に処理を移し、同一のグループに分類されていないと判別した場合には、図9に示した処理を終了する。
In step S138, the
ステップS139において、画像処理装置1は、ステップS133で相対姿勢変化量が閾値β以上であると判別した2つのオブジェクトについて、同一のグループに分類されているのを解除し、図9に示した処理を終了する。
In step S139, the
図10は、画像処理装置1が行う上述の第1の重畳表示処理のフローチャートである。
FIG. 10 is a flowchart of the above-described first superimposed display process performed by the
ステップS140において、画像処理装置1は、姿勢変換処理部32により、前フレームで認識したオブジェクトの中に、現フレームで認識していないオブジェクト(消失オブジェクト)が存在しているか否かを判別する。存在していると判別した場合には、ステップS141に処理を移し、存在していないと判別した場合には、ステップS143に処理を移す。
In step S <b> 140, the
ステップS141において、画像処理装置1は、姿勢変換処理部32により、消失オブジェクトと前フレームで同一のグループに分類されていたオブジェクトが存在しているか否かを判別する。存在していると判別した場合には、ステップS142に処理を移し、存在していないと判別した場合には、ステップS143に処理を移す。
In step S <b> 141, the
ステップS142において、画像処理装置1は、姿勢変換処理部32により、ステップS141において消失オブジェクトと前フレームで同一のグループに分類されていたと判別したオブジェクト(上述の主要オブジェクト)の現フレームにおける姿勢を、消失オブジェクトと主要オブジェクトとの間の前フレームで推定した相対姿勢を用いて、消失オブジェクトの現フレームにおける姿勢に変換し、ステップS143に処理を移す。
In step S142, the
ステップS143において、画像処理装置1は、仮想情報表示部70により、ステップS111やステップS117における認識結果と、ステップS142により推定した姿勢と、を用いて、ステップS100で取得したプレビュー画像に仮想情報を重畳させ、図10に示した処理を終了する。
In step S143, the
以上の画像処理装置1によれば、以下の効果を奏することができる。
According to the
画像処理装置1は、画像認識部20により認識できなかったオブジェクトが存在する場合に、オブジェクト関係推定部30により、このオブジェクトと同一のグループに分類されているとともに画像認識部20により認識できたオブジェクトを主要オブジェクトとして適用して、画像認識部20では認識できなかったオブジェクトを、主要オブジェクトの認識結果に基づいて認識する。このため、画像認識部20では認識できなかったオブジェクトを、このオブジェクトと関係性の高いオブジェクトの認識結果に基づいて認識することができる。したがって、画像認識部20では認識できなかったオブジェクトを認識することができるので、AR技術において、オブジェクトの認識の頑健性を向上させることができる。
When there is an object that cannot be recognized by the
また、画像処理装置1は、オブジェクト関係推定部30により、画像認識部20により認識されたオブジェクト間の関係性として、オブジェクト間の相対姿勢を求める。このため、オブジェクト間の相対姿勢を用いて、同様の動きをしているオブジェクト同士といった、関係性の高いオブジェクト同士を検索することができる。
In the
また、画像処理装置1は、オブジェクト関係推定部30により、画像取得部10によりプレビュー画像が取得されるたびに、プレビュー画像内のオブジェクト間の相対姿勢を求め、αフレームに亘って連続して、相対姿勢のプレビュー画像間での変化量が閾値未満であるオブジェクトを、同一のグループに分類する。このため、複数の連続するプレビュー画像におけるオブジェクト同士の関係性を考慮して、オブジェクトを分類することができる。
In addition, the
また、画像処理装置1は、オブジェクト関係推定部30により、画像取得部10により取得された最新のプレビュー画像において求めた相対姿勢と、最新のプレビュー画像よりも前のプレビュー画像において求めた相対姿勢の平均と、の差分を変化量として求める。このため、オブジェクト同士の関係性をより考慮して、オブジェクトをより適切に分類することができる。
In addition, the
また、画像処理装置1は、平均相対姿勢を、前フレームにおいて計算した平均相対姿勢と、前フレームにおいて計算した相対姿勢WN−1と、から加重平均として求める。このため、前フレームにおいて計算した平均相対姿勢を用いて、現フレームの平均相対姿勢を更新する形になる。したがって、フレームが切り替わるたびに、平均相対姿勢推定開始フレームから前フレームまでの各フレームで推定した相対姿勢の平均値を初めから計算し直して平均相対姿勢を求める場合と比べて、処理負荷を軽減することができるとともに、各フレームにおいて計算した平均姿勢を記憶しておく必要がなくなるため、必要とするメモリ容量を小さくすることができる。
Further, the
<第2実施形態>
[画像処理装置1Aの概要]
図11は、本発明の第2実施形態に係る画像処理装置1Aのブロック図である。画像処理装置1Aは、図1に示した本発明の第1実施形態に係る画像処理装置1とは、認識処理制御部40を備える点で異なる。なお、画像処理装置1Aにおいて、画像処理装置1と同一の構成要件については、同一符号を付し、その説明を省略する。
Second Embodiment
[Outline of
FIG. 11 is a block diagram of an
ここで、まず、図2から5を用いて上述したAR空間を、上述の特許文献1の技術で実現する場合について、以下に説明する。この場合、端末100は、オブジェクトM1からM3をそれぞれリアルタイムで認識し続ける必要があり、処理負荷が高くなってしまう。
Here, first, a case where the AR space described above with reference to FIGS. 2 to 5 is realized by the technique of
次に、図2から5を用いて上述したAR空間を、本実施形態に係る画像処理装置1Aで実現する場合について、以下に説明する。この場合、端末100は、例えばオブジェクトM1からM3を同一のグループに分類していれば、これらオブジェクトM1からM3のうち、1つだけ追跡処理により認識すれば、他の2つについては相対姿勢を用いて認識することができる。これによれば、端末100が姿勢追跡部23による追跡処理を行わなくてはならないオブジェクトの数が減少するので、端末100の処理負荷を軽減することができる。
Next, the case where the AR space described above with reference to FIGS. 2 to 5 is realized by the
[画像処理装置1Aの構成]
以上の画像処理装置1Aについて、以下に詳述する。
[Configuration of
The above
[認識処理制御部40の構成および動作]
図11に戻って、画像処理装置1Aに設けられた認識処理制御部40は、オブジェクト関係推定処理部31によるオブジェクトの分類結果と、画像認識部20による認識結果と、を入力とする。この認識処理制御部40は、認識処理制御処理部41および姿勢照合処理部42を備える。
[Configuration and Operation of Recognition Processing Control Unit 40]
Returning to FIG. 11, the recognition
認識処理制御処理部41は、オブジェクト関係推定処理部31によるオブジェクトの分類結果と、画像認識部20による認識結果と、を入力とする。この認識処理制御処理部41は、同一のグループに分類されているオブジェクトの中に、認識に成功したオブジェクトが2つ以上存在している場合に、これら認識に成功したオブジェクトのうち、1つを主要オブジェクトとして登録し、残りを認識休止オブジェクトとして登録する。また、認識休止オブジェクトについて、姿勢追跡部23による姿勢の追跡処理を休止させる。
The recognition processing
ここで、オクルージョンや光の反射などによってオブジェクトの認識に失敗してしまうのが、一時的なものであれば、オブジェクトの認識の失敗の解消時には、姿勢追跡部23による姿勢の追跡処理に成功することが想定される。一般的に、初期姿勢推定部22による姿勢の初期値の推定よりも、正確な姿勢の初期値を用いた姿勢追跡部23による姿勢の追跡処理の方が、処理負荷や、姿勢推定の精度や、認識の頑健性に優れる。そこで、画像認識部20による認識に失敗したオブジェクトについては、本来であれば、初期姿勢推定部22による姿勢の初期値の推定からやり直すが、画像認識部20による認識に失敗したオブジェクトが主要オブジェクトと同一のグループに分類されている場合には、認識処理制御処理部41は、画像認識部20による認識に失敗したオブジェクトについての姿勢を姿勢変換処理部32により求め、その結果を姿勢の初期値として姿勢追跡部23による追跡処理を行わせる。
Here, if the object recognition failure due to occlusion or light reflection is temporary, the
姿勢照合処理部42は、画像取得部10により取得されたプレビュー画像と、姿勢変換処理部32による変換により得られた認識休止オブジェクトの認識結果と、を入力とする。ここで、認識休止オブジェクトについては、姿勢追跡部23による姿勢の追跡処理を休止するので、主要オブジェクトとの間の相対姿勢を推定することができない。このため、認識休止オブジェクトが動いた場合に、相対姿勢を適切に更新することができず、その結果、姿勢変換処理部32による変換により得られた認識休止オブジェクトの認識結果が適切ではなく、認識休止オブジェクトに対して正しい位置に仮想情報を重畳させることができなくなってしまう。そこで、姿勢照合処理部42は、認識休止オブジェクトについて、姿勢変換処理部32の変換により得られた認識結果が正しいかどうか、すなわち相対姿勢が変動しているかどうかの照合を行う。
The posture
具体的には、姿勢照合処理部42は、SSD(Sum of Squared Difference)やNCC(Normalized Cross Correlation)などの画像の類似度を評価する手法を用いて、高速に姿勢を照合する。この際、画像認識部20が用いるオブジェクトの参照モデル(平面オブジェクトの場合には画像、三次元オブジェクトの場合には3Dモデル)を、姿勢変換処理部32による変換により得られた認識結果で投影してテンプレート画像を生成し、プレビュー画像とマッチングすることで、類似度を評価する。姿勢変換処理部32による変換により得られた認識結果が正しい場合には、SSDやNCCの応答値(類似度)が高くなることが想定されるため、姿勢照合処理部42は、類似度が閾値γを下回る場合に、このオブジェクトを認識休止オブジェクトから除外する。
Specifically, the posture
また、相対姿勢や主要オブジェクトの姿勢の誤差が大きい場合には、姿勢変換処理部32による変換により得られた認識結果には、誤差が含まれることがあり得る。そこで、姿勢照合処理部42は、SSDやNCCなどの画像の類似度の評価の際に、テンプレート画像を上下左右に一定範囲内でスライドさせて、最も類似度の高い箇所をテンプレートマッチングによって推定し、最も類似度の高い箇所における応答値を類似度としてもよい。
In addition, when the error in the relative posture or the posture of the main object is large, the recognition result obtained by the conversion by the posture
また、姿勢変換処理部32による変換により得られた認識結果に含まれる誤差を補正するために、姿勢照合処理部42は、SSDやNCCなどの画像の類似度の評価の際に、姿勢におけるSSDやNCCのヤコビアンを計算し、反復計算により、類似度を最大化する姿勢を推定してもよい。例えば、非特許文献4には、平面オブジェクトに対して、SSDを最小化する姿勢を効率的な反復計算により推定する手法(ESM:Efficient Second Order Minimization)が開示されており、この際の初期値に、姿勢変換処理部32により得られた姿勢を用いることで、少ない反復回数で姿勢を最小化して、AR技術において、処理負荷をさらに軽減したり、オブジェクトの認識の頑健性をさらに向上させたりすることができる。
In addition, in order to correct an error included in the recognition result obtained by the conversion by the posture
[画像処理装置1Aの動作]
以上の構成を備える画像処理装置1Aの動作について、図12から15を用いて以下に説明する。
[Operation of
The operation of the
図12は、画像処理装置1Aのフローチャートである。
FIG. 12 is a flowchart of the
ステップS200において、画像処理装置1Aは、画像取得部10によりプレビュー画像を取得し、ステップS201に処理を移す。
In step S200, the
ステップS201において、画像処理装置1Aは、画像認識部20とオブジェクト関係推定処理部31と認識処理制御部40とにより第2の画像認識処理を行って、ステップS200で取得したプレビュー画像内の各オブジェクトを認識し、ステップS202に処理を移す。なお、第2の画像認識処理の詳細については、図13を用いて後述する。
In step S201, the
ステップS202において、画像処理装置1Aは、オブジェクト関係推定処理部31により、ステップS201において現フレームで認識した全てのオブジェクトのうち、前フレームで主要オブジェクトに登録したオブジェクトを1つ選択するとともに、前フレームで他のオブジェクトと同一のグループに分類されていないオブジェクトを1つ選択して、ステップS203に処理を移す。
In step S202, the
ステップS203において、画像処理装置1Aは、オブジェクト関係推定処理部31により、ステップS202またはステップS207で選択した2つのオブジェクトに対する相対姿勢連続推定回数カウンタのカウンタ値がゼロであるか否かを判別する。ゼロであると判別した場合には、ステップS204に処理を移し、ゼロではないと判別した場合には、ステップS205に処理を移す。
In step S203, the
ステップS204において、画像処理装置1Aは、オブジェクト関係推定処理部31により、図8に示した相対姿勢算出処理を行って、ステップS206に処理を移す。
In step S <b> 204, the
ステップS205において、画像処理装置1Aは、オブジェクト関係推定処理部31により、図9に示した分類処理を行って、ステップS206に処理を移す。
In step S <b> 205, the
ステップS206において、画像処理装置1Aは、オブジェクト関係推定処理部31により、ステップS201において現フレームで認識した全てのオブジェクトのうち、前フレームで主要オブジェクトに登録したオブジェクトと、前フレームで他のオブジェクトと同一のグループに分類されていないオブジェクトと、について、全ての組み合わせを現フレームで選択したか否かを判別する。選択したと判別した場合には、ステップS208に処理を移し、選択していないと判別した場合には、ステップS207に処理を移す。
In step S206, the
ステップS207において、画像処理装置1Aは、オブジェクト関係推定処理部31により、ステップS201において現フレームで認識した全てのオブジェクトのうち、前フレームで主要オブジェクトに登録したオブジェクトと、前フレームで他のオブジェクトと同一のグループに分類されていないオブジェクトと、について、選択していない組み合わせを構成する2つのオブジェクトを選択し、ステップS203に処理を戻す。
In step S207, the
ステップS208において、画像処理装置1Aは、姿勢変換処理部32および仮想情報表示部70により、第2の重畳表示処理を行って、図12に示した処理を終了する。なお、第2の重畳表示処理の詳細については、図15を用いて後述する。
In step S208, the
図13および図14は、画像処理装置1Aが行う上述の第2の画像認識処理のフローチャートである。
13 and 14 are flowcharts of the above-described second image recognition process performed by the
ステップS210において、画像処理装置1Aは、姿勢追跡部23により、ステップS200で取得したプレビュー画像中に、前フレームで認識したオブジェクトが含まれているか否かを判別する。含まれていると判別した場合には、ステップS211に処理を移し、含まれていないと判別した場合には、ステップS225に処理を移す。
In step S210, the
ステップS211において、画像処理装置1Aは、認識処理制御処理部41により、ステップS200で取得したプレビュー画像中に、同一のグループに分類されており前フレームにおいて認識に成功したオブジェクトが2つ以上存在しているか否かを判別する。存在していると判別した場合には、ステップS212に処理を移し、存在していないと判別した場合には、ステップS220に処理を移す。
In step S211, the
ステップS212において、画像処理装置1Aは、認識処理制御処理部41により、ステップS211で認識に成功したと判別した2つ以上のオブジェクトのうち、1つを主要オブジェクトとして登録し、残りを認識休止オブジェクトとして登録し、ステップS213に処理を移す。
In step S212, the
ステップS213において、画像処理装置1Aは、姿勢追跡部23により、ステップS212で主要オブジェクトに登録した各オブジェクトについて、前フレームでの姿勢を初期値として姿勢の追跡処理を行って認識し、ステップS214に処理を移す。
In step S213, the
ステップS214において、画像処理装置1Aは、認識処理制御処理部41により、ステップS213で追跡に失敗した主要オブジェクトがあるか否かを判別する。あると判別した場合には、ステップS215に処理を移し、ないと判別した場合には、ステップS220に処理を移す。
In step S214, the
ステップS215において、画像処理装置1Aは、認識処理制御処理部41により、ステップS213で追跡に失敗した主要オブジェクトと同一のグループに分類されているオブジェクトを、全て認識休止オブジェクトから除外し、ステップS216に処理を移す。
In step S215, the
ステップS216において、画像処理装置1Aは、姿勢照合処理部42により、ステップS213で追跡に成功した主要オブジェクトがあるか否かを判別する。あると判別した場合には、ステップS217に処理を移し、ないと判別した場合には、ステップS220に処理を移す。
In step S216, the
ステップS217において、画像処理装置1Aは、姿勢変換処理部32により、ステップS213で追跡に成功した主要オブジェクトの姿勢を、同一のグループに分類されている認識休止オブジェクトの姿勢に変換し、姿勢照合処理部42により、変換した姿勢を照合し、ステップS218に処理を移す。
In step S217, the
ステップS218において、画像処理装置1Aは、姿勢照合処理部42により、ステップS217の照合に失敗したオブジェクトがあるか否か、すなわち照合によって求められた類似度が閾値γを下回るオブジェクトがあるか否かを判別する。あると判別した場合には、ステップS219に処理を移し、ないと判別した場合には、ステップS220に処理を移す。
In step S218, the
ステップS219において、画像処理装置1Aは、姿勢照合処理部42により、ステップS218で照合に失敗したオブジェクトを、認識休止オブジェクトから除外し、ステップS220に処理を移す。
In step S219, the
ステップS220において、画像処理装置1Aは、姿勢追跡部23により、前フレームにおいて認識したが同一グループに他のオブジェクトが分類されていないオブジェクトと、ステップS219で認識休止オブジェクトから除外されたオブジェクトと、について、前フレームでの姿勢を初期値として姿勢を追跡処理を行って認識し、ステップS221に処理を移す。
In step S220, the
ステップS221からS227のそれぞれにおいて、画像処理装置1Aは、図7のステップS112からS118のそれぞれにおいて画像処理装置1が行う処理と同様の処理を行う。
In each of steps S221 to S227, the
図15は、画像処理装置1Aが行う上述の第2の重畳表示処理のフローチャートである。
FIG. 15 is a flowchart of the above-described second superimposed display process performed by the
ステップS230において、画像処理装置1Aは、仮想情報表示部70により、ステップS213やステップS220における認識結果と、ステップS142により推定した姿勢と、を用いて、ステップS200で取得したプレビュー画像に仮想情報を重畳させ、図15に示した処理を終了する。
In step S230, the
以上の画像処理装置1Aによれば、画像処理装置1が奏することのできる上述の効果に加えて、以下の効果を奏することができる。
According to the above
画像処理装置1Aは、オブジェクト関係推定部30により、各グループからオブジェクトを1つずつ主要オブジェクトとして選択し、認識処理制御部40により、主要オブジェクトと同一のグループに分類された主要オブジェクト以外のオブジェクトについて、画像認識部20による認識を休止させる。また、オブジェクト関係推定部30により、画像認識部20による認識を休止させているオブジェクトを、主要オブジェクトの認識結果に基づいて認識する。このため、主要オブジェクトと同一のグループに分類された主要オブジェクト以外のオブジェクトについて、画像認識部20による認識を休止させてもオブジェクト関係推定部30により認識することができるので、画像認識部20により認識するオブジェクトの数を減少させることができる。したがって、AR技術において、処理負荷を軽減することができる。
In the
また、画像処理装置1Aは、認識処理制御部40により、画像認識部20による認識を休止させているオブジェクトについてのオブジェクト関係推定部30による認識結果を、画像取得部10により取得されたプレビュー画像と照合し、照合に失敗すれば、オブジェクトについて画像認識部20による認識を再開させる。このため、オブジェクト関係推定部30による認識結果が正しいか否かを判定することができる。
In addition, the
また、画像処理装置1Aは、認識処理制御部40により、画像認識部20による認識を再開させる際に、画像取得部10により前フレームにおけるオブジェクト関係推定部30による認識結果を初期値として、画像認識部20に姿勢を追跡させる。このため、処理負荷を軽減することができるとともに、姿勢推定の精度および認識の頑健性を向上させることができる。
In addition, when the recognition
また、画像処理装置1Aは、認識処理制御部40により、画像認識部20による認識を休止させているオブジェクトについてのオブジェクト関係推定部30による認識結果に基づいて、オブジェクトを画像取得部10により取得されたプレビュー画像に投影して投影画像を作成するとともに、投影画像と、画像取得部10により取得されたプレビュー画像と、の類似度が閾値γ未満であれば、照合に失敗したと判定する。このため、オブジェクト関係推定部30による認識結果が正しいか否かを判定することができる。
In the
<第3実施形態>
[画像処理装置1Bの概要]
図16は、本発明の第3実施形態に係る画像処理装置1Bのブロック図である。画像処理装置1Bは、図11に示した本発明の第2実施形態に係る画像処理装置1Aとは、認識結果共有処理部50および協調認識処理部60を備える点で異なる。なお、画像処理装置1Bにおいて、画像処理装置1Aと同一の構成要件については、同一符号を付し、その説明を省略する。
<Third Embodiment>
[Outline of
FIG. 16 is a block diagram of an
本実施形態では、画像処理装置1Bを搭載した端末として、自端末および他端末を想定し、これら2つの端末が同一のAR空間を共有することを想定している。この場合、自端末と他端末とでは、オブジェクトからカメラまでの距離や、オブジェクトに対するカメラの位置や向きが異なるため、一方の端末では認識できるオブジェクトを他方の端末では認識できないといったことが起こり得る。そこで、自端末と他端末との間でも、オブジェクトの認識結果を共有する。
In the present embodiment, it is assumed that the terminal and other terminals are assumed as terminals equipped with the
[認識結果共有処理部50の構成および動作]
認識結果共有処理部50は、自端末の画像認識部20による認識結果と、他端末の画像認識部20による認識結果と、を入力とするとともに、入力された自端末の画像認識部20による認識結果を他端末の画像認識部20に送信する。これによれば、自端末と他端末との間で、画像認識部20による認識結果を共有することができる。
[Configuration and Operation of Recognition Result Sharing Processing Unit 50]
The recognition result sharing
他端末の画像認識部20との認識結果の送受信は、アドホック通信で実現される。これによれば、同一LAN内の他端末と通信を行うことができる。また、アクセスポイントが存在しない場合でも、Wi−Fi DirectやBluetooth(登録商標)を用いて近接する端末間で通信を行うことが可能である。アドホック通信に必要なペアリング機能、ディスカバリ機能などを備えたソフトウェア(ライブラリ)は一般に公開されており、このようなライブラリを利用することで本機能の実現は容易に可能である。ただし、本機能は、無線ネットワークや有線ケーブルを介して、一般的な通信プロトコルを利用して実現することも可能である。
Transmission / reception of the recognition result with the
なお、認識結果共有処理部50による処理は、自端末と他端末とで同期する必要がないため、自端末の画像認識部20による認識結果を他端末の画像認識部20に送信する処理と、他端末の画像認識部20による認識結果を自端末の画像認識部20で受信する処理と、は独立に実行することが可能である。また、認識結果の送受信のための通信処理では、一般的に遅延が発生するため、他端末の画像認識部20との認識結果の送信処理および受信処理は、他の処理とは独立に(プログラム上の別スレッドで)実行することが可能である。
In addition, since the process by the recognition result sharing
[協調認識処理部60の構成および動作]
協調認識処理部60は、自端末の画像認識部20による認識結果と、他端末の画像認識部20による認識結果と、を入力とする。協調認識処理部60は、他端末での認識結果を、自端末を基準とした認識結果に変換し、自端末での認識結果と統合する。この協調認識処理部60は、相対姿勢推定部61および姿勢変換部62を備える。
[Configuration and Operation of Cooperative Recognition Processing Unit 60]
The cooperative
相対姿勢推定部61は、自端末の画像認識部20による認識結果と、他端末の画像認識部20による認識結果と、を入力とする。この相対姿勢推定部61は、自端末での認識結果と、他端末での認識結果と、に基づいて、自端末と他端末との相対的な位置関係を示す姿勢(相対姿勢)を推定する。なお、以降では、画像処理装置1Bが搭載された自端末のことを自端末Sとし、画像処理装置1Bが搭載された他端末のことを他端末Tとする。
The relative
相対姿勢の推定は、自端末Sでの認識結果および他端末Tでの認識結果の双方に、同一のオブジェクトについての認識結果が含まれている場合に、実行可能である。なお、同一のオブジェクトは、基準マーカであってもよい。 The estimation of the relative posture can be executed when the recognition result for the same object is included in both the recognition result at the own terminal S and the recognition result at the other terminal T. Note that the same object may be a reference marker.
ここで、以降では、上述の同一のオブジェクトのことをオブジェクトaとする。また、自端末Sの姿勢追跡部23により推定されたオブジェクトaの姿勢行列のことを姿勢行列WSaとし、他端末Tの姿勢追跡部23により推定されたオブジェクトaの姿勢行列のことを姿勢行列WTaとする。すると、以下の数式(7)により、自端末Sと他端末Tとの相対姿勢WSTを求めることができる。
Hereafter, the same object is referred to as object a. In addition, the posture matrix of the object a estimated by the
なお、上述の同一のオブジェクトとして基準マーカが存在する場合には、上述のオブジェクトaとして基準マーカを用いることが好ましい。これは、基準マーカが、一般的に容易に認識できるようにデザインされており、他のオブジェクトと比べて画像認識部20による認識精度が高いためである。
In addition, when a reference marker exists as the above-mentioned same object, it is preferable to use a reference marker as the above-mentioned object a. This is because the reference marker is generally designed to be easily recognized, and the recognition accuracy by the
一方、上述の同一のオブジェクトとして基準マーカが存在しない場合には、自端末および他端末の双方で認識できているオブジェクトを、上述のオブジェクトaとして用いればよい。上述の同一のオブジェクトとして基準マーカが存在しない場合としては、画像取得部10により取得されたプレビュー画像内にそもそも基準マーカが存在しない場合や、画像取得部10により取得されたプレビュー画像内に基準マーカは存在しているものの自端末および他端末のうち少なくともいずれかで認識できていない場合が考えられる。
On the other hand, when the reference marker does not exist as the same object, an object that can be recognized by both the own terminal and the other terminal may be used as the object a. When the reference marker does not exist as the same object as described above, the reference marker does not exist in the preview image acquired by the
なお、数式(7)を用いて上述した相対姿勢の推定は、自端末Sおよび他端末Tの2台の端末が存在している場合である。端末が3台以上存在している場合には、以下のようにして相対姿勢を推定することもできる。ここで、例えば、3台の端末を、自端末S、他端末T、他端末Uとし、自端末Sと他端末Tとの相対姿勢WSTと、他端末Tと他端末Uとの相対姿勢WTUと、を求めることができているものとする。この場合、自端末Sと他端末Uとの相対姿勢WSUは、以下の数式(8)により求めることができる。 In addition, the estimation of the relative attitude described above using Equation (7) is a case where there are two terminals, that is, the own terminal S and the other terminal T. When there are three or more terminals, the relative posture can be estimated as follows. Here, for example, the three terminals are the own terminal S, the other terminal T, and the other terminal U, the relative attitude W ST between the own terminal S and the other terminal T, and the relative attitude between the other terminal T and the other terminal U. It is assumed that WTU can be obtained. In this case, the relative posture W SU between the terminal S and the other terminal U can be obtained by the following mathematical formula (8).
このため、自端末Sおよび他端末Uの双方で認識できているオブジェクトが存在していない場合でも、数式(7)の代わりに数式(8)を用いることで、自端末Sと他端末Uとの相対姿勢WSUを求めることができる。ただし、この場合には、協調認識処理部60に、他端末Tと他端末Uとの相対姿勢WTUが、他端末Tまたは他端末Uの少なくともいずれかから入力される必要がある。
Therefore, even when there is no object that can be recognized by both the own terminal S and the other terminal U, by using the equation (8) instead of the equation (7), the own terminal S and the other terminal U Relative posture W SU can be obtained. However, in this case, the relative attitude W TU between the other terminal T and the other terminal U needs to be input to the cooperative
姿勢変換部62は、他端末の画像認識部20による認識結果と、相対姿勢推定部61により推定された相対姿勢WSTと、を入力とする。この姿勢変換部62は、相対姿勢WSTを用いて、他端末での認識結果を、自端末を基準とした認識結果に変換する。
Posture changing
ここで、自端末Sが認識できていないオブジェクトbについての認識結果が、他端末Tでの認識結果に含まれており、他端末Tの姿勢追跡部23により推定されたオブジェクトbの姿勢行列が姿勢行列WTbで表されているものとする。すると、以下の数式(9)により、他端末Tの姿勢追跡部23により推定されたオブジェクトbの姿勢行列WTbを、自端末Sにおけるオブジェクトbの姿勢行列WSbに変換し、自端末Sにおけるオブジェクトbの認識結果とすることができる。
Here, the recognition result of the object b that the terminal S cannot recognize is included in the recognition result of the other terminal T, and the posture matrix of the object b estimated by the
これによれば、自端末Sの姿勢変換部62は、自端末Sの画像認識部20により認識されていないオブジェクトbについても、他端末Tの画像認識部20による認識結果と、自端末Sと他端末Tとの相対姿勢と、に基づいて認識することができる。
According to this, the
また、姿勢変換部62は、この自端末Sにおけるオブジェクトbの認識結果と、自端末Sの画像認識部20による認識結果(自端末Sにおけるオブジェクトaの認識結果)と、を統合し、統合認識結果とする。これによれば、姿勢変換部62は、オブジェクトaおよびオブジェクトbについて、自端末Sにおける認識結果を得ることができる。
Further, the
なお、上述のように相対姿勢を用いることで、他端末での認識結果に含まれる全てのオブジェクトについて、他端末での認識結果から、自端末を基準とした認識結果に変換することができる。ただし、他端末での認識結果に含まれる全てのオブジェクトのうち、相対姿勢を求める際に用いたオブジェクトについては、この相対姿勢を用いて自端末における認識結果に変換すると、自端末におけるこのオブジェクトの認識結果に一致することになる。このため、他端末での認識結果に含まれる全てのオブジェクトのうち、相対姿勢を求める際に用いたオブジェクトについては、相対姿勢を用いて変換することに意味はない。 In addition, by using a relative posture as described above, it is possible to convert all objects included in the recognition result at the other terminal from the recognition result at the other terminal into a recognition result based on the own terminal. However, among all the objects included in the recognition results at other terminals, the object used when obtaining the relative posture is converted to the recognition result at the own terminal using this relative posture, and this object It matches the recognition result. For this reason, it is meaningless to convert the object used when obtaining the relative posture among all the objects included in the recognition result at the other terminal using the relative posture.
また、自端末および他端末の双方で認識できているオブジェクトについては、自端末での認識結果と、他端末での認識結果を相対姿勢を用いて変換したものと、のいずれかを用いることができる。ただし、本実施形態では、自端末での認識結果を優先的に用い、自端末で認識していないオブジェクトについてのみ、他端末での認識結果を相対姿勢を用いて変換したものを用いるものとする。なお、自端末で認識していないオブジェクトとは、自端末で認識処理を行ったが認識に失敗してしまったオブジェクトと、そもそも自端末で認識処理が行われていないオブジェクトと、のことである。 For objects that can be recognized by both the own terminal and the other terminal, either the recognition result of the own terminal or the result of converting the recognition result of the other terminal using a relative posture may be used. it can. However, in this embodiment, the recognition result at the own terminal is preferentially used, and only the object that is not recognized at the own terminal is obtained by converting the recognition result at the other terminal using the relative posture. . Note that the objects that are not recognized by the own terminal are objects that have been recognized by the own terminal but failed to be recognized, and objects that have not been recognized by the own terminal in the first place. .
仮想情報表示部70は、プレビュー画像に、画像認識部20およびオブジェクト関係推定部30による認識結果に加えて、姿勢変換部62による認識結果に基づいて、仮想情報を重畳させる。
The virtual
以上の画像処理装置1Bによれば、画像処理装置1Aが奏することのできる上述の効果に加えて、以下の効果を奏することができる。
According to the
画像処理装置1Bは、協調認識処理部60により、他の画像処理装置で認識されたオブジェクトの認識結果を、画像処理装置1Bを基準とした認識結果に変換する。また、仮想情報表示部70により、画像認識部20による認識結果と、オブジェクト関係推定部30による認識結果と、協調認識処理部60による認識結果と、に基づいて、画像取得部10により取得されたプレビュー画像に仮想情報を重畳させる。このため、プレビュー画像への仮想情報の重畳に、他の画像処理装置で認識結果も用いることができるので、AR技術において、処理負荷をさらに軽減したり、オブジェクトの認識の頑健性をさらに向上させたりすることができる。
In the
なお、本発明の画像処理装置1、1A、1Bの処理を、コンピュータ読み取り可能な非一時的な記録媒体に記録し、この記録媒体に記録されたプログラムを画像処理装置1、1A、1Bに読み込ませ、実行することによって、本発明を実現できる。
The processing of the
ここで、上述の記録媒体には、例えば、EPROMやフラッシュメモリといった不揮発性のメモリ、ハードディスクといった磁気ディスク、CD−ROMなどを適用できる。また、この記録媒体に記録されたプログラムの読み込みおよび実行は、画像処理装置1、1A、1Bに設けられたプロセッサによって行われる。
Here, for example, a nonvolatile memory such as an EPROM or a flash memory, a magnetic disk such as a hard disk, a CD-ROM, or the like can be applied to the above-described recording medium. Further, reading and execution of the program recorded on the recording medium is performed by a processor provided in the
また、上述のプログラムは、このプログラムを記憶装置などに格納した画像処理装置1、1A、1Bから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネットなどのネットワーク(通信網)や電話回線などの通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
Further, the above-described program may be transmitted from the
また、上述のプログラムは、上述の機能の一部を実現するためのものであってもよい。さらに、上述の機能を画像処理装置1、1A、1Bにすでに記録されているプログラムとの組み合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
Further, the above-described program may be for realizing a part of the above-described function. Furthermore, what can implement | achieve the above-mentioned function in combination with the program already recorded on the
以上、この発明の実施形態につき、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計なども含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes a design that does not depart from the gist of the present invention.
例えば、上述の各実施形態では、オブジェクトとして、図2から4では二次元バーコードを記載したが、これに限らず、任意の図や文字や物体などであってもよい。 For example, in each of the above-described embodiments, the two-dimensional barcode is described as an object in FIGS. 2 to 4, but the present invention is not limited to this, and any figure, character, object, or the like may be used.
また、上述の第2実施形態において、認識処理制御部40により、画像認識部20による主要オブジェクトの認識が失敗すると、主要オブジェクトと同一のグループに分類された主要オブジェクト以外のオブジェクトについて、画像認識部20による認識を再開させることとしてもよい。これによれば、オブジェクト関係推定部30による認識ができなくなった場合には、画像認識部20による認識を再開させることができ、オブジェクトの認識の頑健性をさらに向上させることができる。
Further, in the second embodiment described above, when the recognition
また、上述の各実施形態において、画像認識部20により、オブジェクトごとの認識結果に、認識結果の認識精度の指標となる情報を付加し、オブジェクト関係推定部30により、画像認識部20により付加された認識精度の指標が閾値以上であるオブジェクト間の相対姿勢を、安定していると判定することとしてもよい。さらに、認識精度の最も高いオブジェクトを、主要オブジェクトとしてもよい。これらによれば、オブジェクトの認識結果の認識精度を考慮して、オブジェクトを分類することができる。なお、上述の認識精度の指標としては、例えば、オブジェクトに対する撮影距離や撮影角度を採用したり、局所特徴量のマッチング数やマッチングのスコアを採用したり、SSD(Sum of Squared Difference)やNCC(Normalized Cross Correlation)といったテンプレートマッチングの手法を用いる場合にはSSDやNCCの応答値をそのまま採用したりすることができる。
In each of the above-described embodiments, the
また、上述の各実施形態において、画像認識部20により、オブジェクトごとの認識結果に、オブジェクトの認識に要する処理負荷の指標となる情報を付加し、オブジェクト関係推定部30により、画像認識部20により付加された処理負荷の指標が閾値未満であるオブジェクトを、主要オブジェクトとしてもよい。これによれば、処理負荷の低いオブジェクトとの関係性を用いて、オブジェクト関係推定部30によりオブジェクトを認識することができるので、処理負荷をさらに軽減することができる。なお、上述の処理負荷の指標としては、例えば、認識に要した時間を採用したり、オブジェクトの種類に応じた値を設定したりすることができる。
In each of the above-described embodiments, the
1、1A、1B;画像処理装置
10;画像取得部
20;画像認識部
30;オブジェクト関係推定部
40;認識処理制御部
50;認識結果共有処理部
60;協調認識処理部
70;仮想情報表示部
C1、C2、C3;仮想情報
M1、M2、M3;オブジェクト
DESCRIPTION OF
Claims (23)
前記プレビュー画像を取得する画像取得手段と、
前記画像取得手段により取得されたプレビュー画像内のオブジェクトを認識する画像認識手段と、
前記画像認識手段により認識されたオブジェクト間の関係性を推定し、推定結果に基づいてオブジェクトを分類し、同一のグループに分類したオブジェクトのうちの1つである主要オブジェクトの前記画像認識手段による認識結果に基づいて、当該グループに分類した当該主要オブジェクト以外のオブジェクトを認識するオブジェクト関係推定手段と、
前記画像認識手段による認識結果と、前記オブジェクト関係推定手段による認識結果と、に基づいて、前記画像取得手段により取得されたプレビュー画像に仮想情報を重畳させる仮想情報表示手段と、を備えることを特徴とする画像処理装置。 An image processing device for superimposing virtual information on a preview image,
Image acquisition means for acquiring the preview image;
Image recognition means for recognizing an object in the preview image acquired by the image acquisition means;
The relationship between objects recognized by the image recognition means is estimated, the objects are classified based on the estimation results, and the main object that is one of the objects classified into the same group is recognized by the image recognition means. Based on the result, object relationship estimation means for recognizing objects other than the main object classified into the group,
Virtual information display means for superimposing virtual information on the preview image acquired by the image acquisition means based on the recognition result by the image recognition means and the recognition result by the object relationship estimation means. An image processing apparatus.
前記主要オブジェクトとして、前記画像認識手段により認識できたオブジェクトを適用し、
前記主要オブジェクトと同一のグループに分類した当該主要オブジェクト以外のオブジェクトとして、当該主要オブジェクトと同一のグループに分類されているとともに前記画像認識手段により認識できなかったオブジェクトを適用することを特徴とする請求項1に記載の画像処理装置。 The object relationship estimation means includes:
Applying the object recognized by the image recognition means as the main object,
The object that is classified into the same group as the main object and that cannot be recognized by the image recognition unit is applied as an object other than the main object classified into the same group as the main object. Item 8. The image processing apparatus according to Item 1.
各グループからオブジェクトを1つずつ前記主要オブジェクトとして選択し、
前記主要オブジェクトと同一のグループに分類された当該主要オブジェクト以外のオブジェクトについて、前記画像認識手段による認識を休止させる認識処理制御手段を備えることを特徴とする請求項1または2に記載の画像処理装置。 The object relationship estimation means includes:
Select one object from each group as the main object,
The image processing apparatus according to claim 1, further comprising a recognition processing control unit that pauses recognition by the image recognition unit for an object other than the main object classified into the same group as the main object. .
前記画像認識手段による認識を休止させているオブジェクトについての前記オブジェクト関係推定手段による認識結果に基づいて、当該オブジェクトを前記画像取得手段により取得されたプレビュー画像に投影して投影画像を作成するとともに、
前記投影画像と、前記画像取得手段により取得されたプレビュー画像と、の類似度が閾値未満であれば、照合に失敗したと判定することを特徴とする請求項3から6のいずれかに記載の画像処理装置。 The recognition processing control means includes
Based on the recognition result by the object relation estimation unit for the object whose recognition by the image recognition unit is suspended, the object is projected onto the preview image acquired by the image acquisition unit, and a projection image is created.
The collation is determined to have failed if the similarity between the projection image and the preview image acquired by the image acquisition unit is less than a threshold value. Image processing device.
前記画像認識手段による認識を休止させているオブジェクトについての前記オブジェクト関係推定手段による認識結果に基づいて、当該オブジェクトを前記画像取得手段により取得されたプレビュー画像に投影して投影画像を作成するとともに、
前記投影画像と、前記画像取得手段により取得されたプレビュー画像と、のテンプレートマッチングにより一致箇所を推定し、一致箇所における応答値が閾値未満であれば、照合に失敗したと判定することを特徴とする請求項3から8のいずれかに記載の画像処理装置。 The recognition processing control means includes
Based on the recognition result by the object relation estimation unit for the object whose recognition by the image recognition unit is suspended, the object is projected onto the preview image acquired by the image acquisition unit, and a projection image is created.
A matching part is estimated by template matching between the projection image and the preview image acquired by the image acquisition unit, and if a response value at the matching part is less than a threshold, it is determined that the matching has failed. The image processing apparatus according to claim 3.
前記仮想情報表示手段は、前記画像認識手段による認識結果と、前記オブジェクト関係推定手段による認識結果と、前記協調認識処理手段による認識結果と、に基づいて、前記画像取得手段により取得されたプレビュー画像に仮想情報を重畳させることを特徴とする請求項1から9のいずれかに記載の画像処理装置。 Coordinate recognition processing means for converting a recognition result of an object recognized by a first image processing device different from the image processing device into a recognition result based on the image processing device,
The virtual information display means is a preview image acquired by the image acquisition means based on a recognition result by the image recognition means, a recognition result by the object relationship estimation means, and a recognition result by the cooperative recognition processing means. The image processing apparatus according to claim 1, wherein virtual information is superimposed on the image processing apparatus.
前記画像取得手段によりプレビュー画像が取得されるたびに、当該プレビュー画像内のオブジェクト間の相対姿勢を求め、
予め定められた数のプレビュー画像に亘って連続して、相対姿勢のプレビュー画像間での変化量が閾値未満であるオブジェクトを、同一のグループに分類することを特徴とする請求項1から11のいずれかに記載の画像処理装置。 The object relationship estimation means includes:
Each time a preview image is acquired by the image acquisition means, a relative posture between objects in the preview image is obtained,
12. The objects of which the amount of change between the preview images of the relative posture is less than a threshold value continuously over a predetermined number of preview images are classified into the same group. The image processing apparatus according to any one of the above.
前記オブジェクト関係推定手段は、前記画像認識手段により付加された認識精度の指標が閾値以上であるオブジェクト間の相対姿勢を、安定していると判定することを特徴とする請求項1から13のいずれかに記載の画像処理装置。 The image recognizing unit adds information serving as an index of recognition accuracy of the recognition result to the recognition result for each object,
14. The object relation estimation unit determines that the relative posture between objects having a recognition accuracy index added by the image recognition unit equal to or greater than a threshold value is stable. An image processing apparatus according to claim 1.
前記オブジェクト関係推定手段は、前記画像認識手段により付加された認識精度の指標の最も高いオブジェクトを、前記主要オブジェクトに適用することを特徴とする請求項1から14のいずれかに記載の画像処理装置。 The image recognizing unit adds information serving as an index of recognition accuracy of the recognition result to the recognition result for each object,
15. The image processing apparatus according to claim 1, wherein the object relation estimation unit applies the object having the highest recognition accuracy index added by the image recognition unit to the main object. .
前記オブジェクト関係推定手段は、前記画像認識手段により付加された処理負荷の指標が閾値未満であるオブジェクトを、前記主要オブジェクトに適用することを特徴とする請求項1から18のいずれかに記載の画像処理装置。 The image recognizing unit adds information serving as an index of a processing load required for recognition of the object to the recognition result for each object,
The image according to any one of claims 1 to 18, wherein the object relation estimation unit applies an object having a processing load index added by the image recognition unit less than a threshold to the main object. Processing equipment.
前記画像取得手段が、前記プレビュー画像を取得する第1のステップと、
前記画像認識手段が、前記第1のステップで取得されたプレビュー画像内のオブジェクトを認識する第2のステップと、
前記オブジェクト関係推定手段が、前記第2のステップで認識されたオブジェクト間の関係性を推定し、推定結果に基づいてオブジェクトを分類し、同一のグループに分類したオブジェクトのうちの1つである主要オブジェクトの前記第2のステップによる認識結果に基づいて、当該グループに分類した当該主要オブジェクト以外のオブジェクトを認識する第3のステップと、
前記仮想情報表示手段が、前記第2のステップによる認識結果と、前記第3のステップによる認識結果と、に基づいて、前記第1のステップで取得されたプレビュー画像に仮想情報を重畳させる第4のステップと、を備えることを特徴とする画像処理方法。 An image processing method in an image processing apparatus comprising image acquisition means, image recognition means, object relationship estimation means, and virtual information display means, and superimposing virtual information on a preview image,
A first step in which the image acquisition means acquires the preview image;
A second step in which the image recognition means recognizes an object in the preview image acquired in the first step;
The object relationship estimation means estimates the relationship between the objects recognized in the second step, classifies the objects based on the estimation result, and is one of the objects classified into the same group A third step of recognizing an object other than the main object classified into the group based on the recognition result of the object in the second step;
The virtual information display means superimposes virtual information on the preview image acquired in the first step based on the recognition result in the second step and the recognition result in the third step. An image processing method comprising the steps of:
前記画像取得手段が、前記プレビュー画像を取得する第1のステップと、
前記画像認識手段が、前記第1のステップで取得されたプレビュー画像内のオブジェクトを認識する第2のステップと、
前記オブジェクト関係推定手段が、前記第2のステップで認識されたオブジェクト間の関係性を推定し、推定結果に基づいてオブジェクトを分類し、同一のグループに分類したオブジェクトのうちの1つである主要オブジェクトの前記第2のステップによる認識結果に基づいて、当該グループに分類した当該主要オブジェクト以外のオブジェクトを認識する第3のステップと、
前記仮想情報表示手段が、前記第2のステップによる認識結果と、前記第3のステップによる認識結果と、に基づいて、前記第1のステップで取得されたプレビュー画像に仮想情報を重畳させる第4のステップと、をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute an image processing method in an image processing apparatus that includes image acquisition means, image recognition means, object relationship estimation means, and virtual information display means, and superimposes virtual information on a preview image,
A first step in which the image acquisition means acquires the preview image;
A second step in which the image recognition means recognizes an object in the preview image acquired in the first step;
The object relationship estimation means estimates the relationship between the objects recognized in the second step, classifies the objects based on the estimation result, and is one of the objects classified into the same group A third step of recognizing an object other than the main object classified into the group based on the recognition result of the object in the second step;
The virtual information display means superimposes virtual information on the preview image acquired in the first step based on the recognition result in the second step and the recognition result in the third step. Program for causing a computer to execute the above steps.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014143691A JP6305856B2 (en) | 2014-07-11 | 2014-07-11 | Image processing apparatus, image processing method, and program |
MYPI2015703842A MY178928A (en) | 2014-07-11 | 2015-06-18 | Extendible working machine |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014143691A JP6305856B2 (en) | 2014-07-11 | 2014-07-11 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016021097A true JP2016021097A (en) | 2016-02-04 |
JP6305856B2 JP6305856B2 (en) | 2018-04-04 |
Family
ID=55265912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014143691A Active JP6305856B2 (en) | 2014-07-11 | 2014-07-11 | Image processing apparatus, image processing method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6305856B2 (en) |
MY (1) | MY178928A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017201498A (en) * | 2016-04-28 | 2017-11-09 | 国立大学法人電気通信大学 | Object detection device, object detection method, and object detection program |
JP2018077732A (en) * | 2016-11-10 | 2018-05-17 | キヤノン株式会社 | Image processing apparatus, and image processing method |
JP2021508135A (en) * | 2017-12-22 | 2021-02-25 | ノヴァラム・ディーエックス・リミテッド | Analysis of captured images to determine inspection conclusions |
JP2021105802A (en) * | 2019-12-26 | 2021-07-26 | 株式会社マネーフォワード | Image processing system, image processing method, and image processing program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007271564A (en) * | 2006-03-31 | 2007-10-18 | Canon Inc | Position and attitude measurement method, position and attitude measuring instrument |
JP2012175666A (en) * | 2011-02-24 | 2012-09-10 | Ohbayashi Corp | Image composition method |
JP2012178064A (en) * | 2011-02-25 | 2012-09-13 | Nintendo Co Ltd | Image processing system, image processing method, image processing device and image processing program |
JP2013141049A (en) * | 2010-03-24 | 2013-07-18 | Hitachi Ltd | Server and terminal utilizing world coordinate system database |
JP2014106642A (en) * | 2012-11-26 | 2014-06-09 | Kddi Corp | Ar system using optical see-through type hmd |
-
2014
- 2014-07-11 JP JP2014143691A patent/JP6305856B2/en active Active
-
2015
- 2015-06-18 MY MYPI2015703842A patent/MY178928A/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007271564A (en) * | 2006-03-31 | 2007-10-18 | Canon Inc | Position and attitude measurement method, position and attitude measuring instrument |
JP2013141049A (en) * | 2010-03-24 | 2013-07-18 | Hitachi Ltd | Server and terminal utilizing world coordinate system database |
JP2012175666A (en) * | 2011-02-24 | 2012-09-10 | Ohbayashi Corp | Image composition method |
JP2012178064A (en) * | 2011-02-25 | 2012-09-13 | Nintendo Co Ltd | Image processing system, image processing method, image processing device and image processing program |
JP2014106642A (en) * | 2012-11-26 | 2014-06-09 | Kddi Corp | Ar system using optical see-through type hmd |
Non-Patent Citations (1)
Title |
---|
植松 裕子: "任意位置姿勢に配置された複数平面マーカの統合によるオンラインARシステム", 映像情報メディア学会誌 第60巻 第6号, vol. Vol.60 No.6 (2006), JPN6018007066, 1 June 2006 (2006-06-01), JP, pages 909 - 919, ISSN: 0003747992 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017201498A (en) * | 2016-04-28 | 2017-11-09 | 国立大学法人電気通信大学 | Object detection device, object detection method, and object detection program |
JP2018077732A (en) * | 2016-11-10 | 2018-05-17 | キヤノン株式会社 | Image processing apparatus, and image processing method |
JP2021508135A (en) * | 2017-12-22 | 2021-02-25 | ノヴァラム・ディーエックス・リミテッド | Analysis of captured images to determine inspection conclusions |
JP7390730B2 (en) | 2017-12-22 | 2023-12-04 | ノヴァラム・ディーエックス・リミテッド | Analysis of captured images to determine test conclusions |
JP2021105802A (en) * | 2019-12-26 | 2021-07-26 | 株式会社マネーフォワード | Image processing system, image processing method, and image processing program |
Also Published As
Publication number | Publication date |
---|---|
JP6305856B2 (en) | 2018-04-04 |
MY178928A (en) | 2020-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10936911B2 (en) | Logo detection | |
US10198823B1 (en) | Segmentation of object image data from background image data | |
US10032286B2 (en) | Tracking objects between images | |
EP2880626B1 (en) | Localisation and mapping | |
US8442307B1 (en) | Appearance augmented 3-D point clouds for trajectory and camera localization | |
US8644551B2 (en) | Systems and methods for tracking natural planar shapes for augmented reality applications | |
EP2915138B1 (en) | Systems and methods of merging multiple maps for computer vision based tracking | |
JP6030240B2 (en) | Method and apparatus for face recognition | |
CN110986969B (en) | Map fusion method and device, equipment and storage medium | |
US20210274358A1 (en) | Method, apparatus and computer program for performing three dimensional radio model construction | |
EP3090382B1 (en) | Real-time 3d gesture recognition and tracking system for mobile devices | |
JP6609640B2 (en) | Managing feature data for environment mapping on electronic devices | |
US20130148849A1 (en) | Image processing device and method | |
JP6305856B2 (en) | Image processing apparatus, image processing method, and program | |
WO2022237048A1 (en) | Pose acquisition method and apparatus, and electronic device, storage medium and program | |
US10600202B2 (en) | Information processing device and method, and program | |
JP6290020B2 (en) | Image processing apparatus, image processing method, and program | |
US9413477B2 (en) | Screen detector | |
JP2014102805A (en) | Information processing device, information processing method and program | |
WO2023007730A1 (en) | Information processing system, information processing device, information processing method, and recording medium | |
CN113947635A (en) | Image positioning method and device, electronic equipment and storage medium | |
KR20140103036A (en) | Object tracking device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180306 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6305856 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |