JP6626338B2 - Information processing apparatus, control method for information processing apparatus, and program - Google Patents
Information processing apparatus, control method for information processing apparatus, and program Download PDFInfo
- Publication number
- JP6626338B2 JP6626338B2 JP2015242643A JP2015242643A JP6626338B2 JP 6626338 B2 JP6626338 B2 JP 6626338B2 JP 2015242643 A JP2015242643 A JP 2015242643A JP 2015242643 A JP2015242643 A JP 2015242643A JP 6626338 B2 JP6626338 B2 JP 6626338B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional
- feature
- accuracy
- measured object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 79
- 230000010365 information processing Effects 0.000 title claims description 43
- 230000006866 deterioration Effects 0.000 claims description 85
- 238000004364 calculation method Methods 0.000 claims description 76
- 238000005259 measurement Methods 0.000 claims description 64
- 238000011156 evaluation Methods 0.000 claims description 63
- 238000003384 imaging method Methods 0.000 claims description 53
- 238000012545 processing Methods 0.000 claims description 23
- 230000015556 catabolic process Effects 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 14
- 238000006731 degradation reaction Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 description 30
- 239000011159 matrix material Substances 0.000 description 21
- 239000013598 vector Substances 0.000 description 17
- 230000008569 process Effects 0.000 description 16
- 238000012986 modification Methods 0.000 description 13
- 230000004048 modification Effects 0.000 description 13
- 230000036544 posture Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000012937 correction Methods 0.000 description 9
- 238000003860 storage Methods 0.000 description 8
- 238000003708 edge detection Methods 0.000 description 6
- 238000005457 optimization Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000002945 steepest descent method Methods 0.000 description 2
- 238000002940 Newton-Raphson method Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000002939 conjugate gradient method Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Description
本発明は、情報処理装置、情報処理装置の制御方法、およびプログラムに関する。 The present invention relates to an information processing device, a control method for the information processing device, and a program.
近年のロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、ハンドなどのエンドエフェクタによって部品を把持して組立を行う。ロボットが部品を把持するためには、把持の対象となる部品とロボット(ハンド)との間の相対的な位置及び姿勢を計測する必要がある。このような物体の位置及び姿勢の計測は、ロボットによる部品把持のためだけでなく、ロボットが自律移動するための自己位置推定や、拡張現実感における現実空間(現実物体)と仮想物体の位置合わせなど様々な目的に応用される。 With the development of robot technology in recent years, robots are replacing complex tasks that have been performed by humans, such as assembly of industrial products. Such a robot grasps and assembles a component with an end effector such as a hand. In order for the robot to grip a component, it is necessary to measure the relative position and orientation between the component to be gripped and the robot (hand). Such measurement of the position and orientation of the object is not only for grasping parts by the robot, but also for estimating its own position for the robot to move autonomously, and for aligning the real space (real object) with the virtual object in augmented reality. It is applied to various purposes.
物体の位置及び姿勢を計測する方法として、3次元形状モデルのモデル特徴とカメラ等の撮像装置から得られる2次元画像における計測データ特徴を用いる方法がある。非特許文献1では、2次元画像上の計測データ特徴であるエッジに対して、線分の集合で表される物体の3次元形状モデルの投影像を当てはめることにより、物体の位置及び姿勢を計測する方法が開示されている。この方法では、既知の情報として与えられる概略の位置及び姿勢に基づいて、3次元形状モデル中の線分を2次元画像上に投影し、投影された線分上に離散的に配置された制御点の夫々に対応するエッジを2次元画像上で検出する。このようにして得られた制御点(モデル特徴)とエッジ(計測データ特徴)との対応に基づいて、制御点が属する線分の投影像と対応するエッジとの画像上での距離の二乗和が最小となるように概略の位置及び姿勢を補正することで最終的な位置及び姿勢が得られる。
As a method for measuring the position and orientation of an object, there is a method using a model feature of a three-dimensional shape model and a measurement data feature in a two-dimensional image obtained from an imaging device such as a camera. In
しかし、上述した手法では、モデル特徴(制御点)と計測データ特徴(エッジ)との間に誤対応が発生した場合に、物体の位置及び姿勢の推定処理が破綻したり、位置及び姿勢の推定精度が低下したりするという課題がある。本発明は、以上の課題を鑑み、形状モデルのモデル特徴と2次元画像上の計測データ特徴との、より高精度な対応付けを実現することを目的とする。 However, in the above-described method, when an erroneous correspondence occurs between a model feature (control point) and a measurement data feature (edge), the estimation process of the position and orientation of the object fails, or the estimation of the position and orientation is performed. There is a problem that accuracy is reduced. The present invention has been made in view of the above problems, and has as its object to realize more accurate association between a model feature of a shape model and a measurement data feature on a two-dimensional image.
上記の目的を達成するための本発明の一態様による情報処理装置は以下の構成を備える。すなわち、
被測定物体の形状を表す形状モデルに基づいて、前記被測定物体を撮像手段により撮像した画像に生じる該被測定物体の画像劣化を予測する予測手段と、
前記被測定物体を前記撮像手段により撮像することにより得られた2次元画像について、前記形状モデルのモデル特徴に対応する計測データ特徴を探索する探索手段と、
前記探索手段で探索された計測データ特徴について前記2次元画像を用いて画像劣化を評価する評価手段と、
前記予測手段で予測した画像劣化と前記評価手段で評価した画像劣化に基づいて、前記モデル特徴と前記計測データ特徴の対応の正確度を算出する算出手段と、
前記モデル特徴と前記計測データ特徴の対応の正確度に基づいて、前記形状モデルと前記2次元画像中の被測定物体とを照合する照合手段と、を備える。
An information processing apparatus according to one embodiment of the present invention for achieving the above object has the following configuration. That is,
Based on a shape model representing the shape of the measured object, a prediction unit that predicts image degradation of the measured object that occurs in an image of the measured object captured by an imaging unit,
Searching means for searching for a measurement data feature corresponding to a model feature of the shape model, for a two-dimensional image obtained by imaging the object to be measured by the imaging means;
Evaluation means for evaluating image deterioration using the two-dimensional image for the measurement data feature searched by the search means;
Calculation means for calculating the accuracy of the correspondence between the model feature and the measurement data feature based on the image deterioration estimated by the prediction means and the image deterioration evaluated by the evaluation means,
A matching unit that matches the shape model with a measured object in the two-dimensional image based on the accuracy of the correspondence between the model feature and the measurement data feature.
本発明によれば、被測定物体の形状モデルのモデル特徴と2次元画像上の計測データ特徴との、より高精度な対応付けを実現することができる。そのため、たとえば、被測定物体の位置及び姿勢の推定をより高精度に実現できる。 According to the present invention, it is possible to realize a more accurate association between a model feature of a shape model of a measured object and a measurement data feature on a two-dimensional image. Therefore, for example, the position and orientation of the measured object can be estimated with higher accuracy.
以下、添付の図面を参照して、本発明の好適な実施形態のいくつかを説明する。 Hereinafter, some preferred embodiments of the present invention will be described with reference to the accompanying drawings.
<第1実施形態>
第1実施形態では、2次元画像で得られる画像のボケ、ブレの大きさを利用して、局所線特徴と計測データ特徴との対応付けを行う。すなわち、局所線特徴毎に、2次元画像において得られるボケ、ブレの大きさを予測しておき、2次元画像から実測したボケ、ブレの大きさと比較し、それらが近い値を示した特徴の寄与度を高くして対応付けする。第1実施形態では、被測定物体を模した形状モデルが表す形状と、事前に決められた撮像装置と被測定物体との相対的な移動方向および速度から、シミュレーションによりボケ、ブレの大きさを計算することでボケ、ブレの大きさを予測する。
<First embodiment>
In the first embodiment, a local line feature is associated with a measurement data feature by using the magnitude of blur and blur of an image obtained as a two-dimensional image. That is, for each local line feature, the magnitude of blur and blur obtained in the two-dimensional image is predicted, compared with the magnitude of blur and blur actually measured from the two-dimensional image, and the values of features having similar values are shown. The degree of contribution is made higher and associated. In the first embodiment, the size of blur and blur is determined by simulation based on the shape represented by the shape model imitating the measured object and the relative moving direction and speed of the imaging device and the measured object determined in advance. By calculating, the magnitude of blur or blur is predicted.
図1(a)は、本実施形態における情報処理装置1のハードウエア構成例を示すブロック図である。図1(a)において、CPU101は、ROM102またはRAM103に格納されたプログラムを実行することにより、情報処理装置1における各種制御を実現する。ROM102は、CPU101の起動時に実行されるプログラムを含む各種プログラムや各種データを記憶する。RAM103はCPU101のメインメモリとして機能する。たとえば、RAM103には、外部記憶装置105から読み出されたアプリケーションプログラムがCPU101による実行のために展開される。表示部104は、CPU101の制御下で各種の表示を行う。外部記憶装置105は、たとえばハードディスク等で構成され、アプリケーションプログラムや形状モデルのデータ、処理対象となる2次元画像を蓄積する。インタフェース106は、外部装置と通信を行う。インタフェース106には、たとえば撮像装置20が接続され、撮像装置20から2次元画像を受信する。バス107は上述した各構成の相互の通信を可能にする。
FIG. 1A is a block diagram illustrating a hardware configuration example of an
図1(b)は本実施形態における情報処理装置1の機能構成例を示すブロック図である。図1(b)に示される各機能は、CPU101がROM102に記憶されているプログラム、および/または、外部記憶装置105からRAM103に展開されたプログラムを実行することにより実現される。なお、各機能部の一部またはすべてを専用のハードウエアで実現してもよいことは明らかである。図1(b)において、情報処理装置1は、モデル入力部110、予測値算出部120、画像入力部130、探索部140、評価値算出部150、正確度算出部160、照合部170を備える。また、図1に示す構成は、本発明の情報処理装置の適用例となる構成である。以下、情報処理装置1の各機能部について説明する。
FIG. 1B is a block diagram illustrating a functional configuration example of the
モデル入力部110は、被測定物体の形状を表す形状モデル(本実施形態では、外部記憶装置105に格納されている3次元形状モデルとする)を入力する。本実施形態における形状モデルは、図2(a)に示すような、3次元位置と3次元線分方向から構成される物体輪郭上の局所的な3次元線分情報(以後、局所線特徴と称する)によって構成されるものとする。形状モデルは、モデル入力部110を介して、探索部140に提供される。
The
予測値算出部120は、被測定物体が撮影された2次元画像の画像劣化予測値を算出する。本実施形態では、被測定物体の3次元形状モデル、概略の位置/姿勢の値、処理対象の2次元画像を撮影した撮像装置の内部パラメータを用いて、焦点外れによるボケの大きさDと画像平面上での平行移動によって生じるブレの大きさBを画像劣化予測値とする。ボケの大きさD、ブレの大きさB、画像劣化予測値を取得する処理の詳細は後述する。
The predicted
画像入力部130は、被測定物体が撮影された2次元画像を取得する。取得される2次元画像はグレー画像であってもよいしカラー画像であってもよい。本実施形態では、予め撮影された2次元画像を記憶する外部の記憶装置(不図示)から2次元画像を取得するが、撮像装置20を用いて撮影された結果の2次元画像を、画像入力部130がその撮像装置20から直接に取得するようにしてもよい。いずれにしても、2次元画像にはその画像を撮影した撮像装置20の内部パラメータが対応付けられて保持される。
The
探索部140は、画像入力部130から入力された2次元画像において、モデル入力部110から入力された被測定物体の形状モデルの、局所線特徴の対応の候補を探索する。この探索は、形状モデルを構成するすべての局所線特徴の位置及び姿勢の概略値、2次元画像を撮影した撮像装置の内部パラメータを用いて行われる。本実施形態では、対応の候補(計測データ特徴)として2次元画像中のエッジ特徴を検出する。エッジ特徴は微分フィルタで検出した濃度勾配の極値となる点である。図4は、本実施形態におけるエッジ検出を説明する図である。被測定物体の概略位置及び姿勢と2次元画像を撮影した撮像装置20の校正済みの内部パラメータを用いて、形状モデルを構成する各線分の2次元画像上への投影像を算出する。
The
図4(a)に示されるように、線分の投影像は2次元画像上でも線分となる(投影された線分401)。次に、2次元画像上で等間隔になるように、投影された線分401上に制御点402を設定し、設定した制御点402ごとに、投影された線分401の法線方向に1次元のエッジ検出を行う(図4(a))。すなわち、投影された線分401上に設定された制御点402を通り、投影された線分401の法線方向を有する探索ライン403に沿って、エッジ検出が行われる。2次元画像のエッジ404は画素値の濃度勾配の極値として検出されるため、図4(b)に示すように、近傍に複数のエッジが存在する場合には1つの制御点について複数のエッジが検出されることがある。本実施形態では、検出されるエッジをすべて仮説として保持する。 As shown in FIG. 4A, the projected image of the line segment is also a line segment on the two-dimensional image (projected line segment 401). Next, control points 402 are set on the projected line segments 401 so as to be at equal intervals on the two-dimensional image, and one for each set control point 402 in the normal direction of the projected line segments 401. Dimensional edge detection is performed (FIG. 4A). That is, edge detection is performed along the search line 403 having the normal direction of the projected line segment 401 through the control point 402 set on the projected line segment 401. Since the edge 404 of the two-dimensional image is detected as an extreme value of the density gradient of the pixel value, as shown in FIG. May be detected. In the present embodiment, all detected edges are held as hypotheses.
評価値算出部150は、画像入力部130で得られた2次元画像のボケの大きさおよびブレの大きさを推定する。本実施形態では、2次元画像中のエッジと直交する方向に沿った画素の輝度変化に対して、ボケ・ブレが生じたときのエッジの輝度変化を表す関数を当てはめることによって、エッジ特徴それぞれについて画像劣化評価値を算出する。2次元画像中のエッジを検出する処理は、探索部140によるエッジ検出と同様の処理である。処理の詳細は後述する。
The evaluation
正確度算出部160は、被測定物体の形状モデルの局所線特徴との対応付けの仮説として探索部140が保持したエッジ特徴のそれぞれの対応について正確度を算出する。正確度の算出は、予測値算出部120で得られた画像劣化予測値と、評価値算出部150で得られた画像劣化評価値に基づいて行われるが、その処理の詳細な内容は後述する。照合部170は、被測定物体の形状モデル中の各局所線特徴に対応する2次元画像上のエッジ特徴と正確度算出部160で算出した正確度に基づいて、被測定物体の位置及び姿勢を算出する。照合部170による位置及び姿勢の算出処理の詳細は後述する。
The
図3は第1実施形態におけるエッジ特徴と局所線特徴との対応付け、2次元画像上の被測定物体の位置及び姿勢の算出の処理手順を示すフローチャートである。まず、モデル入力部110は、被測定物体の形状モデルを入力し、情報処理装置1に取り込む(ステップS301)。次に、予測値算出部120は、2次元画像の画像劣化予測値を算出する(ステップS302)。画像劣化予測値の算出には、被測定物体の形状モデルを構成するすべての局所線特徴の位置及び姿勢の概略値、撮像装置と被測定物体との相対的な移動方向・速度、2次元画像の取得時における撮像装置の内部パラメータが用いられる。なお、本実施形態では、物体の置かれているおおよその位置や姿勢の値を局所線特徴の位置及び姿勢の概略値として用いる。2次元画像の画像劣化予測値の算出処理の詳細は図5の参照により後述する。
FIG. 3 is a flowchart showing a processing procedure for calculating the position and orientation of the measured object on the two-dimensional image in association with the edge features and the local line features in the first embodiment. First, the
次に、画像入力部130は、2次元画像を入力し、情報処理装置1に取り込む(ステップS303)。探索部140は、画像入力部130が入力した2次元画像から形状モデルの局所線特徴の対応の候補を探索する(ステップS304)。対応の候補の探索方法は、図4により前述したとおりであり、モデル入力部110が入力した形状モデルのすべての局所線特徴の位置及び姿勢の概略値、および2次元画像の撮影時の撮像装置の内部パラメータに基づいてなされる。
Next, the
評価値算出部150は、画像入力部130により得られた2次元画像のボケの大きさおよびブレの大きさを推定し、画像劣化評価値を算出する(ステップS305)。より詳細には、評価値算出部150は、画像入力部130で得られた2次元画像からエッジ検出を行う。そして、評価値算出部150は、検出したエッジ特徴と直交する方向に沿った画素の輝度変化に対してボケ・ブレが生じたときのエッジの輝度変化を表す関数を当てはめることでエッジ部分でのボケ・ブレ幅を推定し、画像劣化評価値を得る。この処理の詳細は後述する。次に、正確度算出部160は、予測値算出部120で得た画像劣化予測値と、評価値算出部150で得た画像劣化評価値とを用いて、探索部140で得た局所線特徴とエッジ特徴の対応付けの正確度を算出する(ステップS306)。この正確度の算出処理の詳細は図7の参照により後述する。そして、照合部170は、算出された正確度が最大となるエッジ特徴を、形状モデルの局所線特徴に当てはめることにより、計測対象物体の位置及び姿勢を算出する(ステップS307)。
The evaluation
図5はステップS302における画像劣化予測値を算出する処理を表すフローチャートである。本実施形態では、モデル特徴の2次元画像のボケおよび/またはブレによる像の広がりに起因する画像劣化を予測する。以下、予測値算出部120による画像劣化予測値算出処理を図5のフローチャートを参照して説明する。まず、予測値算出部120は、形状モデルのすべての局所線特徴の位置及び姿勢の概略値、撮像装置と被測定物体との相対的な移動方向・速度、および2次元画像の撮影に用いた内部パラメータを取得する(ステップS501)。本実施形態における撮像装置と被測定物体との相対的な移動方向・速度として、例えば、被測定物体を1軸方向に並進運動を行う機材(たとえばベルトコンベア)に配置したときの設計データに基づいて、その並進運動の移動量と移動方向を取得する。
FIG. 5 is a flowchart illustrating the process of calculating the predicted image deterioration value in step S302. In the present embodiment, image deterioration due to image spreading due to blurring and / or blurring of a two-dimensional image of a model feature is predicted. Hereinafter, the image deterioration prediction value calculation processing by the prediction
次に、予測値算出部120は、形状モデルの中から、画像劣化予測値σ0を算出するために、局所線特徴を選択する(ステップS502)。そして、予測値算出部120は、選択された1つの局所線特徴において予測されるボケの大きさDを以下の式[数1]を用いて算出する(ステップS503)。
上記の式[数1]において、fは撮影レンズの焦点距離、Loは仮想視点のピント位置、Lnは仮想視点からモデル点までの距離、Fはレンズの絞り値、Δdは画素の大きさを表す。撮影レンズの焦点距離fや絞り値Fは、使用する撮像装置の仕様を参照することで取得される。LnはステップS501で入力された概略位置姿勢から算出される。撮影に用いたカメラレンズの焦点距離や主点位置、レンズ歪みパラメータなどの内部パラメータは、使用する機器の仕様を参照することにより、または、非特許文献2に記載された方法によって事前にキャリブレーションしておくことにより取得される。 In the formula [Number 1] above, f is the focal length of the taking lens, L o is the distance focus position of the virtual viewpoint, L n from the virtual viewpoint to the model points, F is the lens aperture, [Delta] d is the pixel size Represents The focal length f and the aperture value F of the taking lens are obtained by referring to the specifications of the imaging device to be used. Ln is calculated from the approximate position and orientation input in step S501. The internal parameters such as the focal length, principal point position, and lens distortion parameters of the camera lens used for shooting are calibrated in advance by referring to the specifications of the equipment to be used or by the method described in Non-Patent Document 2. Obtained by doing.
次に、予測値算出部120は、ステップS503でボケの大きさを予測したのと同じ局所線特徴において予測されるブレの大きさを算出する(ステップS504)。本実施形態ではブレ量として露光時間中における各局所線特徴の2次元画像上での移動量を用いる。具体的には、形状モデルを2次元画像に投影した画像から検出される、投影局所線特徴の露光時間中における画像面での移動量が用いられる。ステップS504では、モデル投影画像で得られる投影局所線特徴のヤコビアンを算出し、投影局所線特徴のヤコビアンとステップS502で入力した撮像装置と被測定物体との相対的な移動方向・速度に基づいて、投影局所線特徴のブレの大きさを算出する。
Next, the predicted
投影局所線特徴のヤコビアンとは、位置姿勢6自由度のパラメータが微小に変化したときに、画像上の投影局所線特徴が変化する割合を表す値である。被測定物体の概略位置姿勢sに基づいて、投影局所線特徴に対応するエッジ特徴のブレ量を(du、dv)、投影局所線特徴の法線方向を(nu、nv)(単位ベクトル)と表すと、対応間の符号付距離err2Dは以下の式[数2]より算出できる。なお、du=u’−u、dv=v’−vとする。
ここで、被測定物体の位置及び姿勢sは6次元ベクトルであり、対象物体の位置を表す3つの要素(s1、s2、s3)と、姿勢を表す3つの要素(s4、s5、s6)からなる。姿勢を表す3つの要素は、例えばオイラー角による表現や、方向が原点を通る回転軸を表してノルムが回転角を表す3次元ベクトルなどによって表現される。この位置及び姿勢sの各パラメータで、対応間距離err2Dを偏微分することによって、以下の式[数3]のように投影局所線特徴のヤコビアンを算出する。
以上のようにしてステップS502で選択された投影局所線特徴のヤコビアンが計算される。この投影局所線特徴のヤコビアンを用いて、2次元画像の露光時間ti中に対象物体が相対位置姿勢速度Vで動くことによって発生する、局所線特徴と2次元画像中のエッジ特徴との間の距離変化Bは、以下の式[数4]により計算できる。
次に、予測値算出部120では、ステップS503で算出したボケの大きさDとステップS504で算出したブレの大きさBから、ステップS502で選択した局所線特徴の画像劣化予測値σ0を、以下の式[数5]を用いて算出する(ステップS505)。
すべての局所線特徴について画像劣化予測値σ0の算出が終わるまで、ステップS502〜S505の処理を繰り返す(ステップS506)。こうして、全ての局所線特徴に対して画像劣化予測値σ0の算出を終えたら本処理を終了する。 For all the local line feature to calculate the image deterioration prediction value sigma 0 is completed, it repeats the processing of steps S502~S505 (step S506). When the calculation of the predicted image deterioration value σ 0 has been completed for all the local line features in this manner, the present process is terminated.
次に、ステップS305における、ボケ・ブレの大きさを2次元画像から評価する処理を説明する。本実施形態では、計測データ特徴の2次元画像におけるボケおよび/またはブレによる像の広がりに起因する画像劣化を評価する。図6は、ステップS305において評価値算出部150が実行する画像劣化評価値の算出処理を示すフローチャートである。評価値算出部150は、ステップS304で検出された対応の候補であるエッジ特徴のうちの1つを選択し(ステップS601)、選択したエッジ特徴について画像劣化評価値を算出する(ステップS602)。
Next, the process of evaluating the magnitude of blur and blur from the two-dimensional image in step S305 will be described. In the present embodiment, image deterioration due to the spread of the image due to blur and / or blur in the two-dimensional image of the measurement data feature is evaluated. FIG. 6 is a flowchart illustrating a process of calculating an image deterioration evaluation value performed by the evaluation
評価値算出部150による画像劣化評価値の算出について説明する。評価値算出部150は、ステップS601で選択したエッジ特徴の位置とエッジの法線方向から、そのエッジ特徴のボケ・ブレの大きさを算出する。本実施形態で用いるエッジモデルとしては、以下の式[数6]で表されるような誤差関数erfを用いて当てはめを行い、σをボケ・ブレの大きさとして求める。
画像劣化評価値σを、以下の式[数7]で表す評価関数Eを最急降下法や、Levenberg‐Marquardt法による繰り返し演算等で最小化することで推定する。
ステップS304で検出されたすべてのエッジ特徴について、上述したボケ・ブレの大きさの評価を終えるまでステップS601とS602の処理が繰り返される(ステップS603)。ステップS304で検出されたすべてのエッジ特徴についてボケ・ブレの大きさの評価を終えると本処理は終了する。 Steps S601 and S602 are repeated for all the edge features detected in step S304 until the above-described evaluation of the magnitude of blur or blur is completed (step S603). When the evaluation of the magnitude of blur / blur is completed for all the edge features detected in step S304, this processing ends.
図7はステップS306における正確度の算出処理を示すフローチャートである。本実施形態では、予測値算出部120が算出した画像劣化の度合いである画像劣化予測値と、評価値算出部150が評価した画像劣化の度合いである画像劣化評価値が近いほど高い値となるように正確度が算出される。まず、正確度算出部160は、被測定物体の形状モデル中の局所線特徴を一つ選択する(ステップS701)。次に、正確度算出部160は、ステップS701で選択した局所線特徴との対応付けの候補として、ステップS304において探索部140が探索したエッジ特徴(対応の候補)を一つ選択し(ステップS702)、その正確度を算出する(ステップS703)。以下、正確度の算出について説明する。
FIG. 7 is a flowchart showing the accuracy calculation processing in step S306. In the present embodiment, the closer the image degradation prediction value that is the degree of image degradation calculated by the prediction
正確度算出部160は、評価値算出部150の算出結果を参照して、ステップS702で選択したエッジ特徴に対応する画像劣化評価値σを取得する。また、正確度算出部160は、ステップS701で選択した局所線特徴の画像劣化予測値σ0を取得する。正確度算出部160は、画像劣化予測値σ0と画像劣化評価値σとから正確度Tを以下の式[数8]に従って算出する。
ステップS701で選択された局所線特徴について探索部140が探索したすべての対応の候補(エッジ特徴)について正確度Tを算出し終えるまで、ステップS702〜S703を繰り返す。すべての対応の候補(エッジ特徴)について正確度Tの算出を終えると、処理はステップS705に進む。正確度算出部160は、以上の処理(ステップS701〜S704)を、被測定物体の形状モデル中のすべての局所線特徴について終えるまで繰り返す。すべての局所線特徴について終えると、本処理を終了する。
Steps S702 to S703 are repeated until the accuracy T has been calculated for all the corresponding candidates (edge features) searched by the
図8はステップS307における、照合部170による位置姿勢算出の処理手順を説明するフローチャートである。照合部170は、計測データに形状モデルが当てはまるように、非線形最適化手法の一つであるGauss−Newton法を用いて計測対象物体の位置及び姿勢(以下、6次元ベクトルsで表す)の概略値を反復演算によって繰り返し補正する。
FIG. 8 is a flowchart illustrating a processing procedure of calculating the position and orientation by the
まず、照合部170は、初期化処理を行う(ステップS801)。本実施形態では、被測定物体の置かれているおおよその位置や姿勢の値が概略値として照合部170に入力される。この概略値は、ステップS302で用いたのと同じものである。次に、照合部170は、モデルの局所線特徴と照合するエッジ特徴を選択する(ステップS802)。選択には正確度算出部160が算出した、エッジ特徴と局所線特徴との対応の正確度Tを用いる。たとえば、一つの局所線特徴に関して複数のエッジ特徴が対応付け仮説として検出されている場合は、正確度Tが一番高い対応の候補(エッジ特徴)を当該局所線特徴に対応づけて以後の処理を行う。
First, the
続いて、照合部170は、位置及び姿勢を算出するための係数行列と誤差ベクトルの算出を行う(ステップS803)。ここで係数行列の各要素は、画像上での点と直線の距離を位置及び姿勢の関数としたときの、位置及び姿勢の各要素に関する一次の偏微分係数である。誤差ベクトルは、エッジについては投影された線分と検出されたエッジの画像上での符号付き距離、点群データについては点とモデルの面の3次元空間中での符号付き距離である。
Subsequently, the
次に、係数行列の導出について説明する。図9は、投影像である線分901と検出されたエッジ902の関係を説明する図である。図9では、画像の水平方向、垂直方向をそれぞれu軸、v軸としている。ある制御点903(投影された各線分を画像上で等間隔に分割した点)の画像上での位置を(u0,v0)、その制御点903が所属する線分901の画像上での傾きをu軸に対する傾きθと表す。傾きθは、線分の両端の3次元座標を被測定物体の位置姿勢sに基づいて画像上に投影し、画像上での両端の座標を結んだ直線の傾きとして算出する。線分901の画像上での法線ベクトルは(sinθ,−cosθ)となる。また、制御点903の対応点904の2次元画像上の座標を(u’,v’)とする。ここで、点(u’,v’)を通り、傾きがθである直線(図9の破線により示されるエッジ902)上の点(u,v)は、以下の式[数9]のように表される(θは定数とする)。ここで、d=u’sinθ−v’cosθ(定数)である。
制御点の画像上での位置は計測対象物体の位置及び姿勢により変化する。また、計測対象物体の位置及び姿勢の自由度は6自由度である。すなわち位置姿勢sは6次元ベクトルであり、計測対象物体の位置を表す3つの要素と、姿勢を表す3つの要素からなる。姿勢を表す3つの要素は、例えばオイラー角による表現や、方向が原点を通る回転軸を表してノルムが回転角を表す3次元ベクトルなどによって表現される。位置及び姿勢により変化する制御点の画像座標(u、v)は(u0、v0)の近傍で1次のテイラー展開によって以下の式[数10]のように近似できる。但し、数10において、Δsi(i=1、2、…、6)はsの各成分の微小変化を表す。
位置及び姿勢の概略値と実際の位置及び姿勢の差がそれほどないと仮定すると、正しいsによって得られる制御点の画像上での位置は式[数9]が表す直線上にあると仮定できる。式[数10]によって近似されるu、vを式[数9]に代入することにより、式[数11]が得られる。
解くべき連立方程式は式[数12]のようになる。
式[数12]において、z1、z2・・・は各エッジの奥行きを表している。ここで式[数12]を式[数13]のように表す。[数13]において、Jは係数行列、Eは誤差ベクトル、Δsは補正値である。
次に、照合部170は、式[数13]をもとに、行列Jの一般化逆行列(JT・J)−1・JTを用いて位置及び姿勢の補正値Δsを最小二乗基準で求める(ステップS804)。しかしながら、エッジや点群データには誤検出などによる外れ値が多いため、次に述べるようなロバスト推定手法を用いる。一般に、外れ値であるエッジや点群データでは式[数12]の右辺の誤差ベクトルの値が大きくなる。そこで、誤差の絶対値が大きいデータには小さな重みを与え、誤差が小さいデータには大きな重みを与える。重みは例えば式[数14]に示すようなTukeyの関数により与える。
Next, the
各計測データ(エッジまたは点群データ)に対応する重みをwiとする。ここで式[数15]のように重み行列Wを定義する。
重み行列Wは、対角成分以外はすべて0の正方行列であり、対角成分には、式[数14]に従って算出された重みwiが入る。この重み行列W用いて、式[数13]を式[数16]のように変形する。
図8に戻り、照合部170は、ステップS804において算出された位置及び姿勢の補正値Δsにより、位置及び姿勢の概略値を補正する(ステップS805)。
続いて、照合部170は、収束判定を行い、収束していれば終了し、収束していなければ処理をステップS802に戻す(ステップS806)。収束判定では、補正値Δsがほぼ0である場合や、誤差ベクトルの二乗和が補正前と補正後でほとんど変わらない場合(補正前後の差分が所定の閾値以下になった場合)に収束したと判定する。なお、上記では非線形最適化手法としてGauss−Newton法を用いた例を説明した。しかしながら、非線形最適化手法はこれに限るものではなく、Newton−Raphson法、Levenberg−Marquardt法、最急降下法、共役勾配法などのその他の非線形最適化手法を用いてもよい。
Subsequently, the
本実施形態における被測定物体のモデルとして保持する形状情報は、対象形状を表す2次元もしくは3次元の幾何情報であれば良く、表現形式に特に制限はない。例えば、2次元の幾何情報を表す場合は単純な2次元点の集合や、2次元ラインの集合などで表現してもよい。また、3次元の幾何情報を表す場合は、単純な3次元点の集合や、稜線を表す3次元ラインの集合、3次元点3点で構成される線の集合で表されるポリゴン形式の形状情報などで表しても良い。 The shape information held as the model of the measured object in the present embodiment may be two-dimensional or three-dimensional geometric information representing the target shape, and there is no particular limitation on the expression format. For example, when expressing two-dimensional geometric information, it may be represented by a set of simple two-dimensional points or a set of two-dimensional lines. In the case of representing three-dimensional geometric information, a polygonal shape represented by a set of simple three-dimensional points, a set of three-dimensional lines representing edges, and a set of three-dimensional points It may be represented by information.
また、ステップS501において入力される撮像装置と被測定物体との相対的な移動方向・速度として、被測定物体がある方向に並進運動を行うことを想定した移動方向および移動量の情報を入力する例を示したが、本実施形態はこれに限られるものではない。例えば、被測定物体に上述のセンサを取り付け、その情報から撮像装置と被測定物体との相対位置姿勢の速度を算出しても良い。また、撮像装置が動くような場面では、撮像装置の動きを取得してもよい。例えば、ロボットに撮像装置を取り付けた場合、ロボットモーション情報を撮像装置と被測定物体との相対的な移動方向・速度の入力としてもよい。あるいは撮像装置に磁気センサや超音波センサなど6自由度の位置及び姿勢を計測する物理センサを取り付け、それらの情報を入力してもよい。本実施形態では、撮像装置と被測定物体との相対的な位置姿勢の速度が算出できる限り、いずれの方法を用いても良く、手段・機器の選択に特に制限はない。 Further, as the relative movement direction / speed between the imaging device and the measured object input in step S501, information on the moving direction and the movement amount assuming that the measured object performs a translational movement in a certain direction is input. Although an example has been described, the present embodiment is not limited to this. For example, the above-described sensor may be attached to the measured object, and the speed of the relative position and orientation between the imaging device and the measured object may be calculated from the information. In a situation where the imaging device moves, the movement of the imaging device may be acquired. For example, when an imaging device is attached to a robot, the robot motion information may be used as an input of the relative movement direction / speed between the imaging device and the measured object. Alternatively, a physical sensor, such as a magnetic sensor or an ultrasonic sensor, that measures the position and orientation with six degrees of freedom may be attached to the imaging device, and the information may be input. In the present embodiment, any method may be used as long as the relative position and orientation speed of the imaging device and the measured object can be calculated, and there is no particular limitation on the selection of means and devices.
また、予測値算出部120において画像劣化予測値として推定される量は、上述の情報に限るものではない。たとえば、撮像装置と被測定物体の相対的な移動によって2次元画像が劣化する量を表すことが出来る値であれば良く、その計算方法および表現に特に制限はない。例えば、被測定物体が撮影された2次元画像のエッジ特徴のブレの大きさを、3次元空間に逆投影して算出した3次元空間中における移動量として表しても良い。また、ボケの大きさDやブレの大きさBを基にして作成した点広がり関数(Point Spread Function:PSF)を画像劣化評価値としてもよい。また、上記実施形態では、ボケおよびブレの両方の影響を考慮して予測値を取得したが、どちらか片方のみの影響を考慮した予測値を取得するようにしてもよい。
Further, the amount estimated as the predicted image deterioration value by the predicted
また、探索部140での対応の候補となる計測データ特徴として、本実施形態ではエッジ特徴を用いたが、これに限られるものではない。たとえば、点特徴など2次元画像上の位置を特定できる特徴であればどのような特徴であってもよい。また、特定の種類の特徴のみを用いるのではなく、複数の種類の特徴(たとえば、点とエッジ)とモデル特徴の対応を検出してもよい。
In the present embodiment, an edge feature is used as a measurement data feature that is a candidate for correspondence in the
また、評価値算出部150において、単一画像からボケ・ブレの大きさを推定する手法は、上述した手法に限るものでない。例えば、ボケ・ブレの広がりをガウス分布状に広がると仮定し、ボケ・ブレが生じているエッジ部分の輝度分布を、最小二乗法を用いてガウス関数にフィッティングしたときに得られる標準偏差からボケ・ブレの大きさを求めてもよい。また本実施形態ではエッジ特徴単位で画像劣化評価値を算出したがこれに限るものではない。例えば、2次元画像を方形の部分領域に分け、部分領域ごとに画像劣化評価値を算出してもよい。
In addition, the method of estimating the magnitude of blur or blur from a single image in the evaluation
また、正確度算出部160において、式[数8]を用いて正確度を算出したが、正確度の算出方法はこれに限られるものではない。正確度を算出する関数は、画像劣化評価値と画像劣化予測値との差が大きいときには正確度を小さく、画像劣化評価値と画像劣化予測値との差が小さいときには正確度を大きく算出するような関数であればよい。たとえば、例えばガウス関数、Tukeyの関数、Huberの関数などを利用することもできる。
In addition, although the
また、照合部170において、正確度の一番高い局所線特徴とエッジ特徴のペアを照合したが、これに限られるものではない。算出された正確度の大きいペアが優先して選択されればよく、たとえば、正確度が一番高かったペアを選択したとしても、正確度がある閾値以下であれば照合に利用しないようにしてもよい。同様に、局所線特徴とエッジ特徴のペアが1つしか検出されなかった場合でも、その正確度が閾値以下であれば、当該ペアを照合に利用しないようにしてもよい。さらに、本実施形態において照合部170は、被測定物体の位置及び姿勢を取得したがこれに限るものではない。例えば、事前に複数の位置・向きで2次元画像上における局所線特徴の位置を保持しておき、パターンマッチングによって局所線特徴とエッジ特徴を照合し、概略の位置・向きを同定する、あるいは物体の種類を特定してもよい。
In addition, the
また、ステップS302、ステップS501、ステップS801では、被測定物体のモデルの位置および姿勢の概略値として、物体の置かれているおおよその位置や姿勢の値が与えられた。しかしながら概略の位置および姿勢の入力方法はこれに限るものではない。たとえば、前回(前時刻)の計測で得られた計測値を概略の位置及び姿勢として用いてもよい。また、過去の位置及び姿勢の計測をもとに物体の速度や角速度を時系列フィルタにより推定し、過去の位置及び姿勢と推定された速度・加速度から現在の位置及び姿勢を予測して、概略の位置及び姿勢として用いてもよい。また、他のセンサを用いた物体の位置及び姿勢の計測が可能である場合には、該センサによる出力値を位置及び姿勢の概略値として用いてもよい。たとえば、トランスミッタが発する磁界を物体に装着するレシーバで検出することにより位置及び姿勢を計測する磁気式センサ、物体上に配置されたマーカをシーンに固定されたカメラによって撮影することにより位置及び姿勢を計測する光学式センサがあげられる。その他、6自由度の位置及び姿勢を計測するセンサであればいかなるセンサであってもよい。また、物体の置かれているおおよその位置や姿勢があらかじめわかっている場合に、その値を概略値として用いるようにしてもよい。 In steps S302, S501, and S801, the approximate position and orientation of the object are given as approximate values of the position and orientation of the model of the measured object. However, the method of inputting the approximate position and posture is not limited to this. For example, the measurement value obtained by the previous (previous time) measurement may be used as the approximate position and orientation. In addition, the speed and angular velocity of the object are estimated by a time-series filter based on the measurement of the past position and orientation, and the current position and orientation are estimated from the past position and orientation and the estimated speed / acceleration. May be used as the position and orientation of the image. If the position and orientation of the object can be measured using another sensor, the output values of the sensor may be used as approximate values of the position and orientation. For example, a magnetic sensor that measures the position and orientation by detecting the magnetic field generated by the transmitter with a receiver attached to the object, and the position and orientation by shooting a marker placed on the object with a camera fixed to the scene There is an optical sensor for measuring. In addition, any sensor may be used as long as it measures the position and orientation with six degrees of freedom. If the approximate position and orientation of the object is known in advance, the values may be used as approximate values.
以上述べたように第1実施形態では、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を算出し、モデル特徴と計測データ特徴の照合を行う方法について説明した。これにより、モデル特徴と計測データ特徴を正しく照合することが可能になる。 As described above, in the first embodiment, the accuracy of association is calculated from the magnitude of blur and blur of an image obtained from a two-dimensional image of the measured object, and the model feature is compared with the measurement data feature. Has been described. This makes it possible to correctly collate the model features with the measurement data features.
<変形例1>
第1実施形態では、照合部170において、正確度の高い局所線特徴とエッジ特徴のペアを選択し、照合していたが、これに限られるものではない。算出された正確度の高いペアが優先して照合処理に用いられれば良く、例えば、各局所線特徴とエッジ特徴の対応の正確度の大きさを、位置姿勢推定を行うときの各エッジ特徴毎の重みとして設定し、この重みづけに基づいて照合を行ってもよい。この重みづけの方法について説明する。まず式[数15]で算出される重み行列Wの対角成分にそれぞれの局所線特徴とエッジ特徴対応の正確度Tを与える。この重み行列Wを用いて式[数17]のように解くことにより、位置及び姿勢の補正値Δsを求め、位置及び姿勢の概略値を補正する。以上の方法により、算出された正確度の高いペアを優先して照合することができる。
<
In the first embodiment, the
なお、重み行列Wの対角成分に与える値として正確度Tそのものを与えていたが、これに限るものではない。正確度が高いペアは大きな重みを与え、正確度が低いペアには小さな重みを与える値であればなんでもよく、全ての正確度を正確度の最大値で割ったときの比を重みとして与えてもよい。 Although the accuracy T itself is given as a value to be given to the diagonal component of the weight matrix W, the present invention is not limited to this. Any pair that has a high degree of accuracy gives a large weight, and a pair that has a low degree of accuracy has a small weight.A ratio obtained by dividing all the degrees of accuracy by the maximum value of the degrees of accuracy is given as a weight. Is also good.
以上述べたように変形例1では、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を各データ特徴の重みとして設定し、局所線特徴とエッジ特徴の照合を行う方法について説明した。これにより、高精度に照合することが可能になる。 As described above, in the first modification, the accuracy of the association is set as the weight of each data feature from the magnitude of blur and blur of the image obtained from the two-dimensional image of the measured object, and the local line feature is set. The method of matching the edge feature with the edge feature has been described. Thereby, it is possible to perform the matching with high accuracy.
<第2実施形態>
第1実施形態では、モデルから2次元画像上で起きるボケ、ブレの大きさを予測し、2次元画像で得られる画像のボケ、ブレの大きさと比較して正確度を算出し、その正確度を局所線特徴との対応付けに利用する方法について説明した。第2実施形態では、予めボケ、ブレの大きさを算出した2次元画像から、各局所線特徴の画像劣化予測値を算出し、実測した画像のボケ、ブレの大きさと比較して対応の正確度を算出し、正確度が一番高い値を示した特徴同士を対応付けする。以下、第2実施形態について説明する。第2実施形態における情報処理装置の構成や位置及び姿勢の計測の処理手順は第1実施形態(図1、図3)と同様である。
<Second embodiment>
In the first embodiment, the magnitude of blur and blur occurring on a two-dimensional image is predicted from a model, and the accuracy is calculated by comparing the magnitude with the magnitude of blur and blur of an image obtained in the two-dimensional image. The method of using for the association with the local line feature has been described. In the second embodiment, an image deterioration prediction value of each local line feature is calculated from a two-dimensional image in which the magnitude of blur and blur is calculated in advance, and the calculated value is compared with the magnitude of blur and blur of an actually measured image to obtain a corresponding accurate value. The degree is calculated, and the features having the highest accuracy are associated with each other. Hereinafter, the second embodiment will be described. The configuration of the information processing apparatus and the processing procedure for measuring the position and orientation in the second embodiment are the same as those in the first embodiment (FIGS. 1 and 3).
第2実施形態では、ステップS302において、予測値算出部120は、以前(前時刻)に得られた2次元画像からボケの大きさおよびブレの大きさを推定する。2次元画像からのボケ・ブレの大きさの推定方法は、第1実施形態の評価値算出部150によるエッジ特徴部分のボケ・ブレの大きさの推定方法と同様である。但し、エッジ特徴部分の代わりにモデル特徴の投影位置においてボケ・ブレの大きさが計測される。たとえば、予測値算出部120は、前回に得られた2次元画像に、被測定物体の概略の位置姿勢を用いてその形状モデル(たとえば局所線特徴)を投影する。そして、その投影位置についてステップS601、S602で説明した方法で画像劣化評価値を算出し、これを画像劣化予測値とする。したがって予測値算出部120により得られた局所線特徴の画像劣化予測値σ1は、2次元画像上に形状モデルを投影したときの、モデル特徴(たとえば局所線特徴)の座標位置におけるボケ、ブレの大きさである。
In the second embodiment, in step S302, the predicted
正確度算出部160は、ステップS302で予測値算出部120により得られた画像劣化予測値と、ステップS305で評価値算出部150により得られた画像劣化評価値とから、探索部140が検索したエッジ特徴のそれぞれについて正確度を算出する。なお、探索部140が探索したエッジ特徴とは、被測定物体のモデルの局所線特徴の対応の候補であり、仮説としてメモリに記憶されている(ステップS304)。正確度Tは、モデル中の局所線特徴と対応する仮説として保持した2次元画像上のエッジ特徴の画像劣化評価値σとモデル中の局所線特徴の画像劣化予測値σ1を用いて、以下の式[数19]にしたがって算出される。なお、2次元画像中のエッジ特徴とモデル中の局所線特徴との対応付けの仮説が複数検出された場合には、候補に挙がったすべてのエッジに対して、以下の式[数19]を用いて正確度Tが算出される。
以上述べたように、第2実施形態では、事前に計測した2次元画像を用いてボケやブレの大きさを算出し、ボケやブレの大きさが近い特徴同士の対応の正確度を高くすることによって対応付けを行う。これにより、特徴同士の照合を正しく行うことが可能になる。 As described above, in the second embodiment, the magnitude of blur or blur is calculated using a two-dimensional image measured in advance, and the accuracy of correspondence between features with similar magnitudes of blur or blur is increased. By doing so, the association is performed. As a result, it is possible to correctly perform matching between the features.
なお、第2実施形態における予測値算出部120では、前回(前時刻)に得られた2次元画像から、ボケの大きさおよびブレの大きさを推定したがそれに限るものではない。被測定物体の代わりに、それを模擬できる物体(以下、模擬物体)を撮影した2次元画像を「前回に得られた2次元画像」として用いてもよい。また、事前に複数の位置・姿勢で被測定物体もしくは模擬物体を撮影した2次元画像上で検出したボケの大きさおよびブレの大きさをテーブル化しておき、このテーブルを参照するようにしてもよい。すなわち、予測値算出部120は、このテーブルを参照することにより、被測定物体の概略の位置及び姿勢に対応するボケ・ブレの大きさを画像劣化予測値として取得してもよい。このほか、実写の2次元画像の代わりに、形状モデルを2次元に投影して作成したCG画像を用いて画像劣化予測値を得るようにしてもよい。このようなCG画像上でボケ・ブレの現象をシミュレートするに当たっては、公知の手法、例えば非特許文献3に開示されている方法を用いることができる。
Note that the predicted
以上のように、第2実施形態の方法を用いることで、事前に計測した2次元画像や作成したCG画像を用いてボケやブレの大きさから対応付けの正確度を算出することによって、モデル特徴と計測データ特徴の正しく照合することが可能になる。 As described above, by using the method of the second embodiment, the accuracy of association is calculated from the magnitude of blur or blur using a two-dimensional image measured in advance or a created CG image. The feature and the measurement data feature can be correctly collated.
<第3実施形態>
第1および第2実施形態においては、2次元画像で生じるであろう画像のボケ、ブレの大きさを画像劣化予測値(σ0、σ1)として推定し、2次元画像で得られたエッジ特徴とモデルの局所線特徴との対応付けの選択に利用した。第3実施形態では、実測した3次元計測点(以下、3次元点と記載する)とモデルの面特徴との対応付けに画像劣化予測値を利用する。第3実施形態では、局所面特徴の2次元画像上でのボケやブレの大きさと、実測した3次元点の3次元位置を2次元画像上に投影したときの2次元画像上のボケやブレの大きさとが近い特徴の対応について高い正確度を付与し、対応付けの選択を行う。
<Third embodiment>
In the first and second embodiments, the magnitude of blurring and blurring of an image that may occur in a two-dimensional image is estimated as an image deterioration prediction value (σ 0 , σ 1 ), and an edge obtained in the two-dimensional image is obtained. It was used to select the correspondence between the features and the local line features of the model. In the third embodiment, the predicted image deterioration value is used for associating the actually measured three-dimensional measurement points (hereinafter, referred to as three-dimensional points) with the surface features of the model. In the third embodiment, the size of blur or blur on the two-dimensional image of the local surface feature and the blur or blur on the two-dimensional image when the measured three-dimensional position of the three-dimensional point is projected on the two-dimensional image. A high degree of accuracy is given to the correspondence of a feature having a size close to the size of, and the correspondence is selected.
図10は第3実施形態における情報処理装置3の機能構成例を表した図である。なお、情報処理装置3のハードウエア構成は、図1(a)と同様である。情報処理装置3は、情報処理装置1の構成に加えて、3次元点入力部210と位置算出部220を有する。また、図10に示す構成は、本発明の情報処理装置の適用例となる構成である。図10に示される各機能は、CPU101がROM102に記憶されているプログラム、および/または、外部記憶装置105からRAM103に展開されたプログラムを実行することにより実現される。なお、各機能部の一部またはすべてを専用のハードウエアで実現してもよいことは明らかである。
FIG. 10 is a diagram illustrating an example of a functional configuration of the information processing device 3 according to the third embodiment. Note that the hardware configuration of the information processing device 3 is the same as that in FIG. The information processing device 3 includes a three-dimensional
3次元点入力部210は、被測定物体表面の点群の3次元座標を取得する。第3実施形態では、予め距離センサを用いて取得された3次元点群の3次元座標を外部に記憶された記憶装置から取得するものとするが、これに限られるものではない。たとえば、距離センサ(たとえば3次元計測装置)を用いて取得した3次元点群が入力されてもよい。
The three-dimensional
位置算出部220は、3次元点入力部210で入力された点群の3次元座標を2次元画像上に投影したときの2次元画像位置を算出する。3次元座標の2次元画像位置は、2次元画像を撮影した撮像装置の内部パラメータ、および該撮像装置と3次元点を測定するのに用いた距離センサとの相対的な位置及び姿勢とから算出される。なお、距離センサと撮像装置は相互に固定されており、両者の相対的な位置及び姿勢は変化しないと仮定し、事前にキャリブレーションしておく。例えば3次元形状が既知であるキャリブレーション物体を様々な方向から観察し、2次元画像に基づいたキャリブレーション物体の位置及び姿勢と、距離画像に基づいたキャリブレーション物体の位置及び姿勢の差をもとに、距離センサと撮像装置の相対的な位置及び姿勢を求めておく。
The
なお、第3実施形態におけるモデル入力部110で入力されるモデルは、図2(b)に示すような、3次元位置と3次元法線方向から構成される物体表面上の局所的な3次元平面情報(以後、局所面特徴と称する)によって構成されるものとする。予測値算出部120は、第1実施形態と同様の方法で局所面特徴の劣化予測値σ0を算出する。
Note that the model input by the
探索部140は、画像入力部130が入力した2次元画像と3次元点入力部210が入力した3次元点とモデル入力部110が入力した形状モデルの局所面特徴との対応を検出する。局所面特徴と3次元点との対応付けにおいては、モデル入力部110で入力された被測定物体のモデルを構成するすべての局所面特徴の位置及び姿勢の概略値に基づいて局所面特徴の近傍の3次元点を検出する。近傍に3次元点が複数存在する場合には検出される3次元点のすべてを仮説として保持する。
The
評価値算出部150は、位置算出部220が算出した3次元点のそれぞれの2次元画像上の位置におけるボケ・ブレの大きさを画像劣化評価値σとして算出する。画像劣化評価値σの算出方法は第1実施形態と同様である。正確度算出部160は、予測値算出部120で得られた画像劣化予測値σ0と、評価値算出部150で得られた画像劣化評価値σから、モデルの局所面特徴と対応付けの仮説として保持したそれぞれの3次元点特徴について対応の正確度Tを算出する。正確度Tの算出方法は第1実施形態と同様である。
The evaluation
第3実施形態における照合部170は、正確度算出部160で算出した正確度Tに基づいて、被測定物体のモデル中の各局所面特徴に対応する3次元点のうち照合に使用する3次元点を選択する。ここでは、正確度Tの一番高い局所面特徴と3次元点のペアが選択されるものとするがこれに限られるものではない。たとえば、正確度Tが一番高かったペアを選択したとしても、その正確度Tがある閾値以下であれば照合に利用しないようにしてもよい。同様に、局所面特徴と3次元点のペアが1つしか検出されなかった場合でも、その正確度が閾値以下であれば、当該ペアを照合に利用しないようにしてもよい。そして、照合部170は、選択された3次元点とを用いて、被測定物体の位置及び姿勢を算出する。照合部170による位置姿勢の算出方法は第1実施形態と同様の方法を用いることができる。
The
なお、本実施形態における3次元点の計測に用いる距離センサとしては、対象に照射したレーザ光の反射光をカメラで撮影し、三角測量により距離を計測するアクティブ式のものを利用する。しかしながら、距離センサはこれに限るものではなく、光の飛行時間を利用するTime-of-flight方式であってもよい。これらのアクティブ式の距離センサは、表面のテクスチャが少ない物体が対象であるとき好適である。また、ステレオカメラが撮影する画像から三角測量によって各画素の奥行きを計算するパッシブ式であってもよい。パッシブ式の距離センサは、表面のテクスチャが十分ある物体を対象とする場合に好適である。その他、3次元点を計測するものであればいかなるものであっても本発明の本質を損なうものではない。 Note that as a distance sensor used for measuring a three-dimensional point in the present embodiment, an active sensor that captures reflected light of laser light applied to an object with a camera and measures the distance by triangulation is used. However, the distance sensor is not limited to this, and may be a time-of-flight system that uses the time of flight of light. These active distance sensors are suitable when an object having a small surface texture is targeted. In addition, a passive type that calculates the depth of each pixel by triangulation from an image captured by a stereo camera may be used. The passive distance sensor is suitable for an object having a sufficient surface texture. In addition, any measurement of three-dimensional points does not impair the essence of the present invention.
以上述べたように第3実施形態では、局所面特徴の2次元画像上でのボケやブレの大きさと、実測した3次元点の3次元位置を2次元画像上に投影したときの2次元画像上のボケやブレの大きさとが近い特徴の対応について高い正確度を付与し、モデル特徴と3次元計測点の照合を行う方法について説明した。これにより、モデル特徴と3次元計測点を正しく照合することが可能になる。 As described above, in the third embodiment, the size of blur or blur on the two-dimensional image of the local surface feature, and the two-dimensional image obtained by projecting the three-dimensional position of the actually measured three-dimensional point on the two-dimensional image A method has been described in which a high degree of accuracy is given to the correspondence of a feature close to the size of the above-described blur or blur, and the model feature is compared with a three-dimensional measurement point. This makes it possible to correctly collate the model feature with the three-dimensional measurement point.
<変形例2>
第3実施形態では、照合部170において、正確度の高い局所面特徴と3次元点のペアを選択し、照合していたが、これに限られるものではない。各局所面特徴と3元点の対応の正確度を、位置姿勢推定を行う時の3次元点毎の重みとして設定するようにしてもよい。たとえば、変形例1と同様に、正確度の高さを各3次元点毎の重みとして設定し、この重みづけに基づいて照合を行ってもよい。この重みづけの方法については変形例1と同様に式[数15]で算出される重み行列Wの対角成分にそれぞれの局所面特徴と3次元点の対応の正確度Tを与える。この重み行列Wを用いて式[数17]のように解くことにより、位置及び姿勢の補正値Δsを求め、位置及び姿勢の概略値を補正する。以上の方法により、算出された正確度の高いペアを優先して照合することができる。
<Modification 2>
In the third embodiment, the
なお、重み行列Wの対角成分に与える値として正確度Tそのものを与えていたが、変形例1と同様にこれに限るものではない。正確度が高いペアは大きな重みを与え、正確度が低いペアには小さな重みを与える値であればなんでもよい。 Although the accuracy T itself is given as a value given to the diagonal component of the weight matrix W, the value is not limited to this as in the first modification. Any pair may be used as long as a high accuracy pair gives a large weight and a low accuracy pair gives a small weight.
以上述べたように変形例2では、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を各データ特徴の重みとして設定し、局所面特徴と3次元点の照合を行う方法について説明した。これにより、高精度に照合することが可能になる。 As described above, in the second modification, the accuracy of the association is set as the weight of each data feature based on the magnitude of blur and blur of the image obtained from the two-dimensional image of the measured object, and the local surface feature is set. The method of performing the matching of the three-dimensional points with the above has been described. Thereby, it is possible to perform the matching with high accuracy.
<変形例3>
第3実施形態における、ステップS504で行うブレの大きさの算出方法は以下のような方法でもよい。ブレの大きさとして露光時間中における各局所面特徴の3次元空間中の移動量を用いる。具体的には、形状モデルの概略位置姿勢sに基づき各局所面特徴のヤコビアンを算出し、各局所面特徴のヤコビアンとステップS502で入力した撮像装置と被測定物体との相対的な移動方向・速度から各局所面特徴のブレの大きさを算出する。
<Modification 3>
In the third embodiment, the method of calculating the magnitude of blur performed in step S504 may be the following method. The amount of movement of each local surface feature in the three-dimensional space during the exposure time is used as the magnitude of the blur. Specifically, the Jacobian of each local surface feature is calculated based on the approximate position and orientation s of the shape model, and the relative movement direction of the Jacobian of each local surface feature and the input of the imaging device and the object to be measured input in step S502. The magnitude of the blur of each local surface feature is calculated from the speed.
局所面特徴のヤコビアンとは、位置姿勢6自由度のパラメータが微小に変化したときに、3次元空間中の局所面特徴が変化する割合を表す値である。被測定物体の概略位置姿勢sに基づいて、局所面特徴に対応する3次元点のブレ量を(dx、dy、dz)、局所面特徴の法線方向を(nx、ny、nz)(単位ベクトル)と表すと、対応間の符号付距離err3Dは以下の式[数20]より算出できる。
そして、局所線特徴のヤコビアンと同様に位置及び姿勢sの各パラメータで、対応間距離err3Dを偏微分することによって、以下の式[数21]のように局所面特徴のヤコビアン行列を算出する。
以上のようにしてステップS502で選択された投影局所線特徴のヤコビアンが計算される。この投影局所線特徴のヤコビアンを用いて、2次元画像の露光時間ti中に対象物体が相対位置姿勢速度Vで動くことによって発生する、局所面特徴3次元点との間の距離変化Bは、以下の式[数22]により計算できる。
以上述べたように変形例3では、局所面特徴の3次元空間中での移動量からブレの大きさを算出する方法について述べた。この方法を用いることにより、正確にモデル特徴のブレ量の予測値を得ることが可能になる。 As described above, in the third modification, the method of calculating the magnitude of the blur from the moving amount of the local surface feature in the three-dimensional space has been described. By using this method, it is possible to accurately obtain the predicted value of the blur amount of the model feature.
<変形例4>
第3の実施形態におけるステップS803で行う、位置及び姿勢を算出するための係数行列と誤差ベクトルの算出方法は以下のような方法でもよい。
<Modification 4>
The method of calculating the coefficient matrix and the error vector for calculating the position and orientation performed in step S803 in the third embodiment may be the following method.
カメラ座標で表される点群の3次元座標は、計測対象物体の位置及び姿勢sを用いて計測対象物体の座標系における3次元座標(x,y,z)に変換される。概略の位置及び姿勢によって、点群データ中のある点が計測対象物体座標(x0,y0,z0)に変換されるとする。(x,y,z)は計測対象物体の位置及び姿勢により変化するものであり、(x0,y0,z0)の近傍で1次のテイラー展開によって式[数23]のように近似できる。
点群データ中のある点に対応付けられた局所面特徴の、計測対象物体座標系における方程式をax+by+cz=e(a2+b2+c2=1、a,b,c,eは定数)とする。正しいsによって変換される(x,y,z)は、平面の方程式ax+by+cz=eを満たすと仮定する。式[数23]を平面の方程式に代入すると、式[数24]が得られる。 The equation of the local surface feature associated with a certain point in the point cloud data in the coordinate system of the object to be measured is expressed as ax + by + cz = e (a 2 + b 2 + c 2 = 1, a, b, c, e is a constant). Assume that (x, y, z) transformed by the correct s satisfies the plane equation ax + by + cz = e. By substituting equation [23] into the plane equation, equation [24] is obtained.
ここで式[数25]を式[数13]のように表す。この係数行列Jと誤差ベクトルEを用いて第1、2の実施形態と同様の方法で位置及び姿勢を算出する。以上の変形例3の方法を用いることにより、より正確に計測物体の位置及び姿勢を算出することができる。 Here, Expression [Expression 25] is represented as Expression [Expression 13]. Using the coefficient matrix J and the error vector E, the position and orientation are calculated in the same manner as in the first and second embodiments. By using the method of the third modification, the position and orientation of the measurement object can be calculated more accurately.
<第4実施形態>
第1および第2実施形態では局所線特徴とエッジ特徴の対応のみから、第3実施形態では局所面特徴と3次元点の対応のみから、モデル特徴と計測データ特徴の照合を行ったがこれに限られるものではない。局所線特徴とエッジ特徴の対応および局所面特徴と3次元点の対応の、両方の対応を用いて照合してもよい。本実施形態の方法によって、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を算出することによって、実測したエッジ特徴と局所線特徴、および3次元点と局所面特徴との両方を正しく照合することが可能になる。
<Fourth embodiment>
In the first and second embodiments, the model feature and the measurement data feature are compared only from the correspondence between the local line feature and the edge feature, and in the third embodiment, only from the correspondence between the local surface feature and the three-dimensional point. It is not limited. The matching may be performed using both the correspondence between the local line feature and the edge feature and the correspondence between the local surface feature and the three-dimensional point. According to the method of the present embodiment, the accuracy of the association is calculated from the magnitude of blur and blur of the image obtained from the two-dimensional image obtained by capturing the measured object, so that the actually measured edge features and local line features, and It is possible to correctly match both the three-dimensional point and the local surface feature.
第4の実施形態における情報処理装置の構成は、第1、2および3の実施形態における構成と同様である。第4の実施形態における照合部170は、正確度算出部160で算出した、エッジ特徴と局所線特徴との対応の正確度および、3次元点と局所面特徴と対応の正確度に基づいて、
・被測定物体のモデル中の各局所線特徴および局所面特徴に対応するエッジ特徴、
・3次元点のうち照合に使用するエッジ特徴、および3次元点、を選択する。続いて選択した対応に基づいて、位置及び姿勢を算出するための係数行列と誤差ベクトルの算出を行う。本実施形態においては、エッジ特徴と3次元点を併用して位置及び姿勢を求めるために、式[数12]と式[数25]を合わせて、式[数26]のようなΔsiに関する線形連立方程式を立てることができる。
An edge feature corresponding to each local line feature and local surface feature in the model of the measured object;
Select an edge feature and a three-dimensional point to be used for matching from among the three-dimensional points. Subsequently, based on the selected correspondence, a coefficient matrix and an error vector for calculating the position and orientation are calculated. In the present embodiment, in order to determine the position and orientation in combination an edge feature and a three-dimensional point, the equation [Expression 12] The combined equation [Equation 25], relates Delta] s i of Equation [Expression 26] A linear simultaneous equation can be established.
ここで式[数26]を式[数13]のように表す。この係数行列Jと誤差ベクトルEを用いて第1、2、3実施形態と同様の方法で位置及び姿勢を算出する。 Here, Equation [26] is represented as Equation [13]. Using the coefficient matrix J and the error vector E, the position and orientation are calculated in the same manner as in the first, second, and third embodiments.
またこれに限らず変形例1および2で述べたように、正確度の高さを各3次元点毎の重みとして設定し、この重みづけに基づいて照合を行ってもよい。正確度Tそのものを与えるだけでなく、変形例1、2と同様に正確度が高いペアには大きな重みを与え、正確度が低いペアには小さな重みを与える値であればなんでもよい。
Alternatively, as described in
以上述べた第4実施形態の方法を用いることで、局所線特徴とエッジ特徴の対応、および局所面特徴と3次元点の対応、両方を用いて照合することができる。本実施形態の方法によって、それぞれの対応で照合を行うよりもより正確にモデル特徴と計測データの照合を行うことが可能になる。 By using the method of the fourth embodiment described above, it is possible to perform matching using both the correspondence between local line features and edge features and the correspondence between local surface features and three-dimensional points. According to the method of the present embodiment, it is possible to perform more accurate matching between the model feature and the measurement data than performing matching in each correspondence.
<第5実施形態>
情報処理装置1、3の好適な適用例の一つについて、以下に説明する。すなわち、撮像装置より得られる2次元画像を基に被測定物体の位置姿勢を推定し、産業用ロボットアームによりその把持などを行う利用例があげられる。以下、図11を用いて、情報処理装置1,3のロボットシステムへの適用例を説明する。図11は、情報処理装置1、3による位置姿勢の推定結果に基づいてロボット60を用いて被測定物体40を把持するロボットシステムの構成例を示す図である。
<Fifth embodiment>
One preferred application example of the
ロボット60は、たとえば回転および/または並進移動軸からなる可動軸を有し、各可動軸はロボットコントローラ61により駆動制御される。たとえば、ロボット60は、ロボットコントローラ61により指令された位置に手先を移動させ、物体の把持などを行う。被測定物体40は、作業台に置かれる位置が変わるため、現在の被測定物体40の位置姿勢を推定し、ロボットの把持制御を行う必要がある。撮像装置20は、通常の2次元画像を撮影するカメラであり、産業用ロボットアームの手先等の被測定物体40を撮像できる位置に設置する。情報処理装置1、3は、撮像装置20から得られる2次元画像を基に被測定物体40の位置姿勢を推定する。情報処理装置1、3で推定された被測定物体40の位置姿勢は、ロボットコントローラ61に入力され、ロボットコントローラ61は入力された位置姿勢の推定結果に基づいて被測定物体40の把持などを行うようにロボットアームを制御する。
The robot 60 has a movable axis composed of, for example, a rotation and / or translation axis, and each movable axis is driven and controlled by a
以上のように、第5実施形態のロボットシステムによれば、より正確に位置姿勢推定を行う情報処理装置1,3から被測定物体40の位置姿勢の推定結果を得ることができる。そのため、ロボット60は被測定物体40をより確実に把持することが可能である。
As described above, according to the robot system of the fifth embodiment, the estimation result of the position and orientation of the measured object 40 can be obtained from the
<効果>
以上説明したように、第1実施形態によれば、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を算出することによって、モデル特徴と計測データ特徴を正しく照合することができる。また、第3実施形態によれば、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を算出することによって、実測した3次元点と3次元形状モデルの面特徴とを正しく照合することが可能になる。第4実施形態によれば、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を算出することによって、2次元画像中のエッジ特徴と3次元形状モデルの線特徴、および実測した3次元点と3次元形状モデルの面特徴とを同時に正しく照合することが可能になる。また、第2実施形態によれば、過去に計測対象となった2次元画像や作成したCG画像を用いて事前に取得されたボケやブレの大きさから対応付けの正確度を算出することによって、モデル特徴と計測データ特徴の照合を正しく行うことが可能になる。さらに、第5実施形態によれば、被測定物体の位置姿勢を推定し、推定結果に基づいてロボットシステムが被測定物体の把持および移動が可能となる。
<Effect>
As described above, according to the first embodiment, the accuracy of the association is calculated from the magnitude of blur and blur of an image obtained from a two-dimensional image of the object to be measured. Measurement data features can be correctly collated. Further, according to the third embodiment, the accuracy of the association is calculated from the magnitude of blur and blur of the two-dimensional image obtained by capturing the measured object, so that the actually measured three-dimensional point and the three-dimensional point are calculated. It is possible to correctly collate with the surface feature of the dimensional shape model. According to the fourth embodiment, the accuracy of the association is calculated from the magnitude of blur and blur of the image obtained from the two-dimensional image obtained by capturing the object to be measured. The line features of the three-dimensional shape model and the actually measured three-dimensional points and the surface features of the three-dimensional shape model can be simultaneously and correctly collated. Further, according to the second embodiment, the accuracy of association is calculated from the magnitude of blur or blur acquired in advance using a two-dimensional image or a CG image that has been measured in the past. Thus, it is possible to correctly collate the model feature and the measurement data feature. Further, according to the fifth embodiment, the position and orientation of the measured object are estimated, and the robot system can grip and move the measured object based on the estimation result.
<定義>
なお、被測定物体の形状モデルとして入力する形状情報は、単純な2次元点の集合や、2次元ラインの集合など、また、単純な3次元点の集合や、稜線を表す3次元ラインの集合、3次元点3点で構成されるポリゴンの形状情報などで表しても良い。
<Definition>
The shape information input as the shape model of the object to be measured includes a set of simple two-dimensional points, a set of two-dimensional lines, a set of simple three-dimensional points, and a set of three-dimensional lines representing edges. Alternatively, it may be represented by shape information of a polygon composed of three three-dimensional points.
また、予測値算出部では、画像劣化予測値として、焦点外れによるボケの大きさと、画像平面上での平行移動によって生じるブレの大きさを、画像劣化予測値としたが、これに限るものではない。撮像装置と被測定物体の相対的な移動によって2次元画像が劣化する量を表すことが出来る値であれば良く、計算方法および表現に特に制限はない。例えば、被測定物体が撮影された2次元画像のエッジ特徴のブレの大きさを、3次元空間に逆投影して算出した3次元空間中における移動量として表しても良い。また、ボケの大きさやブレの大きさを基にして作成した点広がり関数(Point Spread Function:PSF)を画像劣化評価値としてもよい。また、ボケおよびブレの両方の影響を考慮した予測値以外に、どちらか片方のみの影響を考慮した予測値でもよい。 In the prediction value calculation unit, as the image deterioration prediction value, the magnitude of blur due to defocus and the size of blur caused by parallel movement on the image plane are set as the image deterioration prediction value. However, the present invention is not limited to this. Absent. Any value may be used as long as it can represent the amount of deterioration of the two-dimensional image due to relative movement between the imaging device and the measured object, and there is no particular limitation on the calculation method and expression. For example, the magnitude of the blurring of the edge feature of the two-dimensional image of the object to be measured may be represented as a movement amount in the three-dimensional space calculated by back-projecting the two-dimensional image into the three-dimensional space. Further, a point spread function (PSF) created based on the magnitude of blur or magnitude of blur may be used as the image deterioration evaluation value. Further, in addition to a predicted value that takes into account the effects of both blurring and blurring, a predicted value that takes into account only one of the effects may be used.
画像入力部で入力される被測定物体が撮影された2次元画像は、対象像が得られる限りどの方式でもよい。例えば、グレー画像であってもよいしカラー画像であってもよい。また本発明では予め撮影された2次元画像を入力したが、これに限るものではない。撮像装置を用いて撮影された結果を入力してもよい。探索部140で検出する対応の候補となる計測データ特徴としては、エッジ特徴でもよいし、点特徴など2次元画像上の位置を特定できる特徴であればどのような特徴であってもよい。また、特定種類の特徴のみ用いるのではなく、複数種類の特徴(たとえば点とエッジ)とモデル特徴の対応を検出してもよい。
The two-dimensional image of the object to be measured captured by the image input unit may be of any type as long as a target image is obtained. For example, the image may be a gray image or a color image. In the present invention, a two-dimensional image captured in advance is input, but the present invention is not limited to this. You may input the result image | photographed using the imaging device. The measurement data feature that is a candidate for correspondence detected by the
評価値算出部は、例えば、2次元画像中のエッジと直交する方向に沿った画素の輝度変化に対して、ボケ・ブレが生じたときのエッジの輝度変化を表す関数の当てはめによって、エッジ特徴それぞれについて画像劣化評価値を算出する。ここで、輝度変化を表す関数として、式[数6]のような誤差関数に代えてガウス関数などを用いてもよい。また、上記実施形態では、制御点に対応する対応点や3次元点の投影位置といったように特徴単位で劣化評価値を算出したが、これに限られるものではない。たとえば、2次元画像を方形の部分領域に分け、部分領域ごとに劣化評価値を算出してもよい。 The evaluation value calculation unit calculates the edge feature by applying a function representing the brightness change of the edge when blurring and blurring occurs to the brightness change of the pixel along the direction orthogonal to the edge in the two-dimensional image. An image deterioration evaluation value is calculated for each of them. Here, as a function representing the luminance change, a Gaussian function or the like may be used instead of the error function as shown in Expression [6]. Further, in the above-described embodiment, the deterioration evaluation value is calculated for each feature such as the corresponding point corresponding to the control point and the projection position of the three-dimensional point. However, the present invention is not limited to this. For example, a two-dimensional image may be divided into rectangular partial areas, and a deterioration evaluation value may be calculated for each partial area.
正確度算出部における算出方法は、画像劣化評価値(σ)と画像劣化予測値(σ0、σ1)との差が大きいときには正確度を小さく、画像劣化評価値と画像劣化予測値との差が小さいときには正確度を大きく算出する方法であればよい。例えば、式[数8]に示したような算出方法の代わりにガウス関数、Tukeyの関数、Huberの関数などを用いて算出してもよい。 When the difference between the image deterioration evaluation value (σ) and the image deterioration prediction value (σ 0 , σ 1 ) is large, the accuracy is small. When the difference is small, any method may be used as long as the accuracy is calculated to be large. For example, the calculation may be performed using a Gaussian function, a Tukey function, a Huber function, or the like, instead of the calculation method as shown in Expression [8].
照合部は、正確度がある閾値以上のモデル特徴と画像特徴のペアを選択し、照合する。このときペアが1つしか検出されなかった場合も,閾値以下であれば照合に利用しなくてもよい。ただし、これに限るものではなく、正確度が高いペアを優先して照合処理に用いられるように重みづけを行ってもよい。このとき重みづけで与える値は、正確度が高いペアは大きな重みを与え、正確度が低いペアには小さな重みを与える値であればなんでもよい。また照合部は、被測定物体の位置及び姿勢を算出してもよいし、事前に複数の位置・向きでモデル特徴の位置を保持しておき、パターンマッチングによってモデル特徴と計測データ特徴を照合し、概略の位置・向きを同定、あるいは物体の種類を特定してもよい。 The matching unit selects a pair of a model feature and an image feature whose accuracy is equal to or greater than a certain threshold and performs matching. At this time, even when only one pair is detected, if the number is equal to or smaller than the threshold, the pair need not be used for the matching. However, the present invention is not limited to this, and weighting may be performed such that a pair having higher accuracy is preferentially used in the matching process. At this time, any value may be used as a value given by weighting as long as a pair with high accuracy is given a large weight and a pair with low accuracy is given a small weight. The matching unit may calculate the position and orientation of the measured object, or hold the positions of the model features in a plurality of positions and orientations in advance, and match the model features with the measurement data features by pattern matching. The approximate position and orientation may be identified, or the type of the object may be identified.
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. It can also be realized by the following processing. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.
1,3:情報処理装置、110:モデル入力部、120:予測値算出部、130:画像入力部、140:探索部、150:評価値算出部、160:正確度算出部、170:照合部、210:3次元点入力部、220:位置算出部 1,3: Information processing device, 110: Model input unit, 120: Prediction value calculation unit, 130: Image input unit, 140: Search unit, 150: Evaluation value calculation unit, 160: Accuracy calculation unit, 170: Collation unit , 210: three-dimensional point input unit, 220: position calculation unit
Claims (18)
前記被測定物体を前記撮像手段により撮像することにより得られた2次元画像について、前記形状モデルのモデル特徴に対応する計測データ特徴を探索する探索手段と、
前記探索手段で探索された計測データ特徴について前記2次元画像を用いて画像劣化を評価する評価手段と、
前記予測手段で予測した画像劣化と前記評価手段で評価した画像劣化に基づいて、前記モデル特徴と前記計測データ特徴の対応の正確度を算出する算出手段と、
前記モデル特徴と前記計測データ特徴の対応の正確度に基づいて、前記形状モデルと前記2次元画像中の被測定物体とを照合する照合手段と、を備えることを特徴とする情報処理装置。 Based on a shape model representing the shape of the measured object, a prediction unit that predicts image degradation of the measured object that occurs in an image of the measured object captured by an imaging unit,
Searching means for searching for a measurement data feature corresponding to a model feature of the shape model, for a two-dimensional image obtained by imaging the object to be measured by the imaging means;
Evaluation means for evaluating image deterioration using the two-dimensional image for the measurement data feature searched by the search means;
Calculation means for calculating the accuracy of the correspondence between the model feature and the measurement data feature based on the image deterioration estimated by the prediction means and the image deterioration evaluated by the evaluation means,
An information processing apparatus comprising: a matching unit configured to match the shape model with a measured object in the two-dimensional image based on the accuracy of the correspondence between the model feature and the measurement data feature.
を特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。 The matching means selects a correspondence between the model feature and the measurement data feature based on the accuracy,
The information processing apparatus according to claim 1, wherein:
前記撮像手段により前記被測定物体を撮像して前記2次元画像を取得する取得手段と、をさらに備えることを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。 Said imaging means;
The information processing apparatus according to claim 1, further comprising: an acquisition unit configured to acquire the two-dimensional image by imaging the object to be measured by the imaging unit.
前記被測定物体の表面上の3次元計測点の3次元座標を取得する取得手段と、
前記撮像手段により撮像された2次元画像において、前記取得手段で取得された3次元座標に基づいて前記2次元画像に投影された点群の位置における画像劣化を評価する評価手段と、
前記3次元計測点と前記形状モデルのモデル特徴との対応を探索する探索手段と、
前記予測手段で予測した画像劣化と前記評価手段で評価した画像劣化に基づいて、前記モデル特徴と前記3次元計測点の対応の正確度を算出する算出手段と、
前記モデル特徴と前記3次元計測点の対応の正確度に基づいて、前記形状モデルと前記被測定物体の形状を示す3次元計測点とを照合する照合手段と、を備えることを特徴とする情報処理装置。 Based on a shape model representing the shape of the measured object, a prediction unit that predicts image degradation of the measured object that occurs in an image of the measured object captured by an imaging unit,
Acquiring means for acquiring three-dimensional coordinates of a three-dimensional measurement point on the surface of the measured object;
Evaluation means for evaluating, in the two-dimensional image captured by the imaging means, image degradation at a position of a point cloud projected on the two-dimensional image based on the three-dimensional coordinates acquired by the acquisition means;
Searching means for searching for a correspondence between the three-dimensional measurement points and model features of the shape model;
Calculating means for calculating the accuracy of the correspondence between the model feature and the three-dimensional measurement point based on the image deterioration predicted by the predicting means and the image deterioration evaluated by the evaluating means;
Information comprising: matching means for comparing the shape model with a three-dimensional measurement point indicating the shape of the measured object based on the accuracy of the correspondence between the model feature and the three-dimensional measurement point. Processing equipment.
前記取得手段は、前記計測装置から次元座標を取得することを特徴とする請求項13に記載の情報処理装置。 A measuring device for measuring three-dimensional coordinates of the three-dimensional measuring point,
14. The information processing apparatus according to claim 13, wherein the obtaining unit obtains dimensional coordinates from the measuring device.
前記被測定物体を前記撮像手段により撮像することにより得られた2次元画像について、前記形状モデルのモデル特徴に対応する計測データ特徴を探索する探索工程と、
前記探索工程で探索された計測データ特徴について前記2次元画像を用いて画像劣化を評価する評価工程と、
前記予測工程で予測した画像劣化と前記評価工程で評価した画像劣化に基づいて、前記モデル特徴と前記計測データ特徴の対応の正確度を算出する算出工程と、
前記モデル特徴と前記計測データ特徴の対応の正確度に基づいて、前記形状モデルと前記2次元画像中の被測定物体とを照合する照合工程と、を有することを特徴とする情報処理装置の制御方法。 Based on a shape model representing the shape of the measured object, a prediction step of predicting image degradation of the measured object that occurs in an image of the measured object captured by an imaging unit,
A search step of searching for a measurement data feature corresponding to a model feature of the shape model, for a two-dimensional image obtained by imaging the object to be measured by the imaging unit;
An evaluation step of evaluating image deterioration using the two-dimensional image with respect to the measurement data feature searched in the search step;
A calculation step of calculating the accuracy of the correspondence between the model feature and the measurement data feature based on the image deterioration estimated in the prediction step and the image deterioration evaluated in the evaluation step;
A collation step of collating the shape model with an object to be measured in the two-dimensional image based on the accuracy of the correspondence between the model feature and the measurement data feature. Method.
前記被測定物体の表面上の3次元計測点の3次元座標を取得する取得工程と、
前記撮像手段により撮像された2次元画像を用いて、前記取得工程で取得された3次元座標に基づいて前記2次元画像に投影された点群の位置における画像劣化を評価する評価工程と、
前記3次元計測点と前記形状モデルのモデル特徴との対応を探索する探索工程と、
前記予測工程で予測した画像劣化と前記評価工程で評価した画像劣化に基づいて、前記モデル特徴と前記3次元計測点の対応の正確度を算出する算出工程と、
前記モデル特徴と前記3次元計測点の対応の正確度に基づいて、前記形状モデルと前記被測定物体の形状を示す3次元計測点とを照合する照合工程と、を有することを特徴とする情報処理装置の制御方法。 Based on a shape model representing the shape of the measured object, a prediction step of predicting image degradation of the measured object that occurs in an image of the measured object captured by an imaging unit,
An acquisition step of acquiring three-dimensional coordinates of a three-dimensional measurement point on the surface of the measured object;
An evaluation step of evaluating image deterioration at a position of a point cloud projected on the two-dimensional image based on the three-dimensional coordinates obtained in the obtaining step, using a two-dimensional image captured by the imaging unit;
A search step of searching for a correspondence between the three-dimensional measurement point and a model feature of the shape model;
A calculating step of calculating the accuracy of the correspondence between the model features and the three-dimensional measurement points based on the image deterioration estimated in the prediction step and the image deterioration evaluated in the evaluation step;
A collation step of collating the shape model with a three-dimensional measurement point indicating the shape of the measured object based on the accuracy of the correspondence between the model feature and the three-dimensional measurement point. A method for controlling a processing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/010,005 US9914222B2 (en) | 2015-02-05 | 2016-01-29 | Information processing apparatus, control method thereof, and computer readable storage medium that calculate an accuracy of correspondence between a model feature and a measurement data feature and collate, based on the accuracy, a geometric model and an object in an image |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015021488 | 2015-02-05 | ||
JP2015021488 | 2015-02-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016148649A JP2016148649A (en) | 2016-08-18 |
JP6626338B2 true JP6626338B2 (en) | 2019-12-25 |
Family
ID=56691191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015242643A Active JP6626338B2 (en) | 2015-02-05 | 2015-12-11 | Information processing apparatus, control method for information processing apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6626338B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6938201B2 (en) * | 2017-04-26 | 2021-09-22 | キヤノン株式会社 | Information processing equipment, information processing methods and programs |
CN111954792B (en) * | 2018-04-17 | 2022-12-20 | 索尼公司 | Signal processing apparatus, signal processing method, and image capturing apparatus |
JP7188201B2 (en) * | 2019-03-13 | 2022-12-13 | 富士通株式会社 | Image processing device, image processing method, and image processing program |
US11403764B2 (en) * | 2020-02-14 | 2022-08-02 | Mujin, Inc. | Method and computing system for processing candidate edges |
JP7310693B2 (en) * | 2020-04-23 | 2023-07-19 | 株式会社デンソー | ROBOT CONTROL DEVICE AND ROBOT CONTROL METHOD |
WO2024180756A1 (en) * | 2023-03-02 | 2024-09-06 | 日本電気株式会社 | Control system, control method, and recording medium |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100356016B1 (en) * | 1999-12-21 | 2002-10-18 | 한국전자통신연구원 | Automatic parcel volume capture system and volume capture method using parcel image recognition |
JP4585456B2 (en) * | 2006-01-23 | 2010-11-24 | 株式会社東芝 | Blur conversion device |
JP5228856B2 (en) * | 2008-12-02 | 2013-07-03 | セイコーエプソン株式会社 | Work object position detection method and position detection apparatus |
JP5393318B2 (en) * | 2009-07-28 | 2014-01-22 | キヤノン株式会社 | Position and orientation measurement method and apparatus |
JP5291605B2 (en) * | 2009-12-04 | 2013-09-18 | 日本放送協会 | Camera posture estimation apparatus and camera posture estimation program |
JP5839929B2 (en) * | 2010-11-19 | 2016-01-06 | キヤノン株式会社 | Information processing apparatus, information processing system, information processing method, and program |
-
2015
- 2015-12-11 JP JP2015242643A patent/JP6626338B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016148649A (en) | 2016-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6626338B2 (en) | Information processing apparatus, control method for information processing apparatus, and program | |
US20200096317A1 (en) | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium | |
JP6180087B2 (en) | Information processing apparatus and information processing method | |
US9025857B2 (en) | Three-dimensional measurement apparatus, measurement method therefor, and computer-readable storage medium | |
JP6573354B2 (en) | Image processing apparatus, image processing method, and program | |
JP5393318B2 (en) | Position and orientation measurement method and apparatus | |
US9355453B2 (en) | Three-dimensional measurement apparatus, model generation apparatus, processing method thereof, and non-transitory computer-readable storage medium | |
JP5839971B2 (en) | Information processing apparatus, information processing method, and program | |
JP6324025B2 (en) | Information processing apparatus and information processing method | |
JP5839929B2 (en) | Information processing apparatus, information processing system, information processing method, and program | |
JP6444027B2 (en) | Information processing apparatus, information processing apparatus control method, information processing system, and program | |
JP6317618B2 (en) | Information processing apparatus and method, measuring apparatus, and working apparatus | |
JP6370038B2 (en) | Position and orientation measurement apparatus and method | |
US9914222B2 (en) | Information processing apparatus, control method thereof, and computer readable storage medium that calculate an accuracy of correspondence between a model feature and a measurement data feature and collate, based on the accuracy, a geometric model and an object in an image | |
JP6677522B2 (en) | Information processing apparatus, control method for information processing apparatus, and program | |
JP2015132523A (en) | Position/attitude measurement apparatus, position/attitude measurement method, and program | |
JP6285765B2 (en) | Information processing apparatus and information processing method | |
JP6766229B2 (en) | Position and posture measuring device and method | |
US20210233269A1 (en) | Method and computer readable medium for pose estimation | |
JP2021043075A (en) | Information processing device, control method therefor, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160311 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191129 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6626338 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |