Nothing Special   »   [go: up one dir, main page]

JP6626338B2 - Information processing apparatus, control method for information processing apparatus, and program - Google Patents

Information processing apparatus, control method for information processing apparatus, and program Download PDF

Info

Publication number
JP6626338B2
JP6626338B2 JP2015242643A JP2015242643A JP6626338B2 JP 6626338 B2 JP6626338 B2 JP 6626338B2 JP 2015242643 A JP2015242643 A JP 2015242643A JP 2015242643 A JP2015242643 A JP 2015242643A JP 6626338 B2 JP6626338 B2 JP 6626338B2
Authority
JP
Japan
Prior art keywords
image
dimensional
feature
accuracy
measured object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015242643A
Other languages
Japanese (ja)
Other versions
JP2016148649A (en
Inventor
達矢 鈴木
達矢 鈴木
鈴木 雅博
雅博 鈴木
小林 一彦
一彦 小林
藤木 真和
真和 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/010,005 priority Critical patent/US9914222B2/en
Publication of JP2016148649A publication Critical patent/JP2016148649A/en
Application granted granted Critical
Publication of JP6626338B2 publication Critical patent/JP6626338B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理装置の制御方法、およびプログラムに関する。   The present invention relates to an information processing device, a control method for the information processing device, and a program.

近年のロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、ハンドなどのエンドエフェクタによって部品を把持して組立を行う。ロボットが部品を把持するためには、把持の対象となる部品とロボット(ハンド)との間の相対的な位置及び姿勢を計測する必要がある。このような物体の位置及び姿勢の計測は、ロボットによる部品把持のためだけでなく、ロボットが自律移動するための自己位置推定や、拡張現実感における現実空間(現実物体)と仮想物体の位置合わせなど様々な目的に応用される。   With the development of robot technology in recent years, robots are replacing complex tasks that have been performed by humans, such as assembly of industrial products. Such a robot grasps and assembles a component with an end effector such as a hand. In order for the robot to grip a component, it is necessary to measure the relative position and orientation between the component to be gripped and the robot (hand). Such measurement of the position and orientation of the object is not only for grasping parts by the robot, but also for estimating its own position for the robot to move autonomously, and for aligning the real space (real object) with the virtual object in augmented reality. It is applied to various purposes.

物体の位置及び姿勢を計測する方法として、3次元形状モデルのモデル特徴とカメラ等の撮像装置から得られる2次元画像における計測データ特徴を用いる方法がある。非特許文献1では、2次元画像上の計測データ特徴であるエッジに対して、線分の集合で表される物体の3次元形状モデルの投影像を当てはめることにより、物体の位置及び姿勢を計測する方法が開示されている。この方法では、既知の情報として与えられる概略の位置及び姿勢に基づいて、3次元形状モデル中の線分を2次元画像上に投影し、投影された線分上に離散的に配置された制御点の夫々に対応するエッジを2次元画像上で検出する。このようにして得られた制御点(モデル特徴)とエッジ(計測データ特徴)との対応に基づいて、制御点が属する線分の投影像と対応するエッジとの画像上での距離の二乗和が最小となるように概略の位置及び姿勢を補正することで最終的な位置及び姿勢が得られる。   As a method for measuring the position and orientation of an object, there is a method using a model feature of a three-dimensional shape model and a measurement data feature in a two-dimensional image obtained from an imaging device such as a camera. In Non-Patent Document 1, the position and orientation of an object are measured by applying a projection image of a three-dimensional shape model of the object represented by a set of line segments to an edge which is a measurement data feature on a two-dimensional image. A method for doing so is disclosed. According to this method, a line segment in a three-dimensional shape model is projected on a two-dimensional image based on a rough position and orientation given as known information, and a control discretely arranged on the projected line segment is performed. Edges corresponding to each of the points are detected on the two-dimensional image. Based on the correspondence between the control point (model feature) and the edge (measurement data feature) obtained in this way, the sum of squares of the distance between the projected image of the line to which the control point belongs and the corresponding edge on the image The final position and orientation can be obtained by correcting the approximate position and orientation so that is minimized.

T. Drummond and R. Cipolla, “Real-time visual tracking of complex structures,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.24, no.7, pp.932-946, 2002.T. Drummond and R. Cipolla, “Real-time visual tracking of complex structures,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.24, no.7, pp.932-946, 2002. R. Y. Tsai, “A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses,” IEEE Journal of Robotics and Automation, vol.RA-3, no.4, 1987. (実施形態で参照される)RY Tsai, “A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses,” IEEE Journal of Robotics and Automation, vol.RA-3, no.4, 1987. (Referred to in the form) 馬場、浅田、天野、“Calibrated Computer Graphicsによる画像合成の試み:カメラキャリブレーションに基づく任意フォーカス画像の生成と検証”、情報処理学会論文誌39(7),2180-2188,1998 (実施形態で参照される)Baba, Asada, Amano, "A Trial of Image Synthesis by Calibrated Computer Graphics: Generation and Verification of Arbitrary Focus Image Based on Camera Calibration", Transactions of Information Processing Society of Japan 39 (7), 2180-2188, 1998 (refer to the embodiment) Be done) Y. Hel-Or and M. Werman, “Pose estimation by fusing noisy data of different dimensions,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.17, no.2, pp.195-201, 1995. (実施形態で参照される)Y. Hel-Or and M. Werman, “Pose estimation by fusing noisy data of different dimensions,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.17, no.2, pp.195-201, 1995. Referenced by)

しかし、上述した手法では、モデル特徴(制御点)と計測データ特徴(エッジ)との間に誤対応が発生した場合に、物体の位置及び姿勢の推定処理が破綻したり、位置及び姿勢の推定精度が低下したりするという課題がある。本発明は、以上の課題を鑑み、形状モデルのモデル特徴と2次元画像上の計測データ特徴との、より高精度な対応付けを実現することを目的とする。   However, in the above-described method, when an erroneous correspondence occurs between a model feature (control point) and a measurement data feature (edge), the estimation process of the position and orientation of the object fails, or the estimation of the position and orientation is performed. There is a problem that accuracy is reduced. The present invention has been made in view of the above problems, and has as its object to realize more accurate association between a model feature of a shape model and a measurement data feature on a two-dimensional image.

上記の目的を達成するための本発明の一態様による情報処理装置は以下の構成を備える。すなわち、
被測定物体の形状を表す形状モデルに基づいて、前記被測定物体を撮像手段により撮像した画像に生じる該被測定物体の画像劣化を予測する予測手段と、
前記被測定物体を前記撮像手段により撮像することにより得られた2次元画像について、前記形状モデルのモデル特徴に対応する計測データ特徴を探索する探索手段と、
前記探索手段で探索された計測データ特徴について前記2次元画像を用いて画像劣化を評価する評価手段と、
前記予測手段で予測した画像劣化と前記評価手段で評価した画像劣化に基づいて、前記モデル特徴と前記計測データ特徴の対応の正確度を算出する算出手段と、
前記モデル特徴と前記計測データ特徴の対応の正確度に基づいて、前記形状モデルと前記2次元画像中の被測定物体とを照合する照合手段と、を備える。
An information processing apparatus according to one embodiment of the present invention for achieving the above object has the following configuration. That is,
Based on a shape model representing the shape of the measured object, a prediction unit that predicts image degradation of the measured object that occurs in an image of the measured object captured by an imaging unit,
Searching means for searching for a measurement data feature corresponding to a model feature of the shape model, for a two-dimensional image obtained by imaging the object to be measured by the imaging means;
Evaluation means for evaluating image deterioration using the two-dimensional image for the measurement data feature searched by the search means;
Calculation means for calculating the accuracy of the correspondence between the model feature and the measurement data feature based on the image deterioration estimated by the prediction means and the image deterioration evaluated by the evaluation means,
A matching unit that matches the shape model with a measured object in the two-dimensional image based on the accuracy of the correspondence between the model feature and the measurement data feature.

本発明によれば、被測定物体の形状モデルのモデル特徴と2次元画像上の計測データ特徴との、より高精度な対応付けを実現することができる。そのため、たとえば、被測定物体の位置及び姿勢の推定をより高精度に実現できる。   According to the present invention, it is possible to realize a more accurate association between a model feature of a shape model of a measured object and a measurement data feature on a two-dimensional image. Therefore, for example, the position and orientation of the measured object can be estimated with higher accuracy.

第1実施形態における情報処理装置の構成を示す図。FIG. 2 is a diagram illustrating a configuration of an information processing apparatus according to the first embodiment. 実施形態における計測対象物の3次元形状モデルを例示する図。FIG. 4 is a diagram illustrating a three-dimensional shape model of a measurement target according to the embodiment. 第1実施形態における、位置姿勢を計測する処理手順を表すフローチャート。9 is a flowchart illustrating a processing procedure for measuring a position and orientation according to the first embodiment. 画像からのエッジ検出を説明する図。FIG. 4 is a view for explaining edge detection from an image. 第1実施形態における、画像劣化予測値を算出する手順を表すフローチャート。5 is a flowchart illustrating a procedure for calculating a predicted image deterioration value according to the first embodiment. 第1実施形態における、2次元画像の画像劣化評価値を算出する手順を表すフローチャート。5 is a flowchart illustrating a procedure for calculating an image deterioration evaluation value of a two-dimensional image according to the first embodiment. 第1実施形態における、対応付け重み算出の処理手順を説明するフローチャート。7 is a flowchart illustrating a processing procedure for calculating an association weight according to the first embodiment. 第1実施形態における、位置姿勢算出の処理手順を説明するフローチャート。5 is a flowchart illustrating a processing procedure for calculating a position and orientation according to the first embodiment. 線分の投影像と検出されたエッジの関係を説明する図。FIG. 4 is a diagram illustrating a relationship between a projected image of a line segment and a detected edge. 第3実施形態における情報処理装置の機能構成例を示す図。FIG. 13 is a diagram illustrating a functional configuration example of an information processing apparatus according to a third embodiment. 第4実施形態におけるロボットシステムの構成例を示す図。The figure which shows the example of a structure of the robot system in 4th Embodiment.

以下、添付の図面を参照して、本発明の好適な実施形態のいくつかを説明する。   Hereinafter, some preferred embodiments of the present invention will be described with reference to the accompanying drawings.

<第1実施形態>
第1実施形態では、2次元画像で得られる画像のボケ、ブレの大きさを利用して、局所線特徴と計測データ特徴との対応付けを行う。すなわち、局所線特徴毎に、2次元画像において得られるボケ、ブレの大きさを予測しておき、2次元画像から実測したボケ、ブレの大きさと比較し、それらが近い値を示した特徴の寄与度を高くして対応付けする。第1実施形態では、被測定物体を模した形状モデルが表す形状と、事前に決められた撮像装置と被測定物体との相対的な移動方向および速度から、シミュレーションによりボケ、ブレの大きさを計算することでボケ、ブレの大きさを予測する。
<First embodiment>
In the first embodiment, a local line feature is associated with a measurement data feature by using the magnitude of blur and blur of an image obtained as a two-dimensional image. That is, for each local line feature, the magnitude of blur and blur obtained in the two-dimensional image is predicted, compared with the magnitude of blur and blur actually measured from the two-dimensional image, and the values of features having similar values are shown. The degree of contribution is made higher and associated. In the first embodiment, the size of blur and blur is determined by simulation based on the shape represented by the shape model imitating the measured object and the relative moving direction and speed of the imaging device and the measured object determined in advance. By calculating, the magnitude of blur or blur is predicted.

図1(a)は、本実施形態における情報処理装置1のハードウエア構成例を示すブロック図である。図1(a)において、CPU101は、ROM102またはRAM103に格納されたプログラムを実行することにより、情報処理装置1における各種制御を実現する。ROM102は、CPU101の起動時に実行されるプログラムを含む各種プログラムや各種データを記憶する。RAM103はCPU101のメインメモリとして機能する。たとえば、RAM103には、外部記憶装置105から読み出されたアプリケーションプログラムがCPU101による実行のために展開される。表示部104は、CPU101の制御下で各種の表示を行う。外部記憶装置105は、たとえばハードディスク等で構成され、アプリケーションプログラムや形状モデルのデータ、処理対象となる2次元画像を蓄積する。インタフェース106は、外部装置と通信を行う。インタフェース106には、たとえば撮像装置20が接続され、撮像装置20から2次元画像を受信する。バス107は上述した各構成の相互の通信を可能にする。   FIG. 1A is a block diagram illustrating a hardware configuration example of an information processing apparatus 1 according to the present embodiment. 1A, the CPU 101 implements various controls in the information processing apparatus 1 by executing a program stored in the ROM 102 or the RAM 103. The ROM 102 stores various programs and various data including programs executed when the CPU 101 is started. The RAM 103 functions as a main memory of the CPU 101. For example, an application program read from the external storage device 105 is loaded on the RAM 103 for execution by the CPU 101. The display unit 104 performs various displays under the control of the CPU 101. The external storage device 105 is configured by, for example, a hard disk or the like, and stores application programs, data of shape models, and two-dimensional images to be processed. The interface 106 communicates with an external device. For example, the imaging device 20 is connected to the interface 106, and receives a two-dimensional image from the imaging device 20. The bus 107 enables the components described above to communicate with each other.

図1(b)は本実施形態における情報処理装置1の機能構成例を示すブロック図である。図1(b)に示される各機能は、CPU101がROM102に記憶されているプログラム、および/または、外部記憶装置105からRAM103に展開されたプログラムを実行することにより実現される。なお、各機能部の一部またはすべてを専用のハードウエアで実現してもよいことは明らかである。図1(b)において、情報処理装置1は、モデル入力部110、予測値算出部120、画像入力部130、探索部140、評価値算出部150、正確度算出部160、照合部170を備える。また、図1に示す構成は、本発明の情報処理装置の適用例となる構成である。以下、情報処理装置1の各機能部について説明する。   FIG. 1B is a block diagram illustrating a functional configuration example of the information processing apparatus 1 according to the present embodiment. Each function illustrated in FIG. 1B is realized by the CPU 101 executing a program stored in the ROM 102 and / or a program expanded from the external storage device 105 to the RAM 103. It is apparent that some or all of the functional units may be realized by dedicated hardware. 1B, the information processing apparatus 1 includes a model input unit 110, a predicted value calculation unit 120, an image input unit 130, a search unit 140, an evaluation value calculation unit 150, an accuracy calculation unit 160, and a collation unit 170. . Further, the configuration shown in FIG. 1 is a configuration that is an application example of the information processing apparatus of the present invention. Hereinafter, each functional unit of the information processing apparatus 1 will be described.

モデル入力部110は、被測定物体の形状を表す形状モデル(本実施形態では、外部記憶装置105に格納されている3次元形状モデルとする)を入力する。本実施形態における形状モデルは、図2(a)に示すような、3次元位置と3次元線分方向から構成される物体輪郭上の局所的な3次元線分情報(以後、局所線特徴と称する)によって構成されるものとする。形状モデルは、モデル入力部110を介して、探索部140に提供される。   The model input unit 110 inputs a shape model (in the present embodiment, a three-dimensional shape model stored in the external storage device 105) representing the shape of the measured object. The shape model according to the present embodiment includes local three-dimensional line segment information (hereinafter referred to as a local line feature and a local line feature) on an object contour composed of three-dimensional positions and three-dimensional line segment directions as shown in FIG. ). The shape model is provided to the search unit 140 via the model input unit 110.

予測値算出部120は、被測定物体が撮影された2次元画像の画像劣化予測値を算出する。本実施形態では、被測定物体の3次元形状モデル、概略の位置/姿勢の値、処理対象の2次元画像を撮影した撮像装置の内部パラメータを用いて、焦点外れによるボケの大きさDと画像平面上での平行移動によって生じるブレの大きさBを画像劣化予測値とする。ボケの大きさD、ブレの大きさB、画像劣化予測値を取得する処理の詳細は後述する。   The predicted value calculation unit 120 calculates a predicted image deterioration value of a two-dimensional image of the measured object. In the present embodiment, the size D of the blur due to defocus and the image D are calculated using a three-dimensional shape model of the measured object, approximate position / posture values, and internal parameters of the imaging device that has captured the two-dimensional image to be processed. The magnitude B of the blur caused by the parallel movement on the plane is defined as the predicted image deterioration value. The details of the process of acquiring the blur size D, the blur size B, and the predicted image deterioration value will be described later.

画像入力部130は、被測定物体が撮影された2次元画像を取得する。取得される2次元画像はグレー画像であってもよいしカラー画像であってもよい。本実施形態では、予め撮影された2次元画像を記憶する外部の記憶装置(不図示)から2次元画像を取得するが、撮像装置20を用いて撮影された結果の2次元画像を、画像入力部130がその撮像装置20から直接に取得するようにしてもよい。いずれにしても、2次元画像にはその画像を撮影した撮像装置20の内部パラメータが対応付けられて保持される。   The image input unit 130 acquires a two-dimensional image of the measured object. The acquired two-dimensional image may be a gray image or a color image. In the present embodiment, a two-dimensional image is acquired from an external storage device (not shown) that stores a two-dimensional image captured in advance. The unit 130 may directly acquire from the imaging device 20. In any case, the two-dimensional image is held in association with the internal parameters of the imaging device 20 that has captured the image.

探索部140は、画像入力部130から入力された2次元画像において、モデル入力部110から入力された被測定物体の形状モデルの、局所線特徴の対応の候補を探索する。この探索は、形状モデルを構成するすべての局所線特徴の位置及び姿勢の概略値、2次元画像を撮影した撮像装置の内部パラメータを用いて行われる。本実施形態では、対応の候補(計測データ特徴)として2次元画像中のエッジ特徴を検出する。エッジ特徴は微分フィルタで検出した濃度勾配の極値となる点である。図4は、本実施形態におけるエッジ検出を説明する図である。被測定物体の概略位置及び姿勢と2次元画像を撮影した撮像装置20の校正済みの内部パラメータを用いて、形状モデルを構成する各線分の2次元画像上への投影像を算出する。   The search unit 140 searches the two-dimensional image input from the image input unit 130 for a candidate for the local line feature of the shape model of the measured object input from the model input unit 110. This search is performed using the approximate values of the positions and orientations of all the local line features constituting the shape model and the internal parameters of the imaging device that has captured the two-dimensional image. In the present embodiment, an edge feature in a two-dimensional image is detected as a corresponding candidate (measurement data feature). The edge feature is a point at which the density gradient has an extreme value detected by the differential filter. FIG. 4 is a diagram illustrating edge detection in the present embodiment. Using the approximate position and orientation of the measured object and the calibrated internal parameters of the imaging device 20 that has captured the two-dimensional image, a projected image of each line constituting the shape model on the two-dimensional image is calculated.

図4(a)に示されるように、線分の投影像は2次元画像上でも線分となる(投影された線分401)。次に、2次元画像上で等間隔になるように、投影された線分401上に制御点402を設定し、設定した制御点402ごとに、投影された線分401の法線方向に1次元のエッジ検出を行う(図4(a))。すなわち、投影された線分401上に設定された制御点402を通り、投影された線分401の法線方向を有する探索ライン403に沿って、エッジ検出が行われる。2次元画像のエッジ404は画素値の濃度勾配の極値として検出されるため、図4(b)に示すように、近傍に複数のエッジが存在する場合には1つの制御点について複数のエッジが検出されることがある。本実施形態では、検出されるエッジをすべて仮説として保持する。   As shown in FIG. 4A, the projected image of the line segment is also a line segment on the two-dimensional image (projected line segment 401). Next, control points 402 are set on the projected line segments 401 so as to be at equal intervals on the two-dimensional image, and one for each set control point 402 in the normal direction of the projected line segments 401. Dimensional edge detection is performed (FIG. 4A). That is, edge detection is performed along the search line 403 having the normal direction of the projected line segment 401 through the control point 402 set on the projected line segment 401. Since the edge 404 of the two-dimensional image is detected as an extreme value of the density gradient of the pixel value, as shown in FIG. May be detected. In the present embodiment, all detected edges are held as hypotheses.

評価値算出部150は、画像入力部130で得られた2次元画像のボケの大きさおよびブレの大きさを推定する。本実施形態では、2次元画像中のエッジと直交する方向に沿った画素の輝度変化に対して、ボケ・ブレが生じたときのエッジの輝度変化を表す関数を当てはめることによって、エッジ特徴それぞれについて画像劣化評価値を算出する。2次元画像中のエッジを検出する処理は、探索部140によるエッジ検出と同様の処理である。処理の詳細は後述する。   The evaluation value calculation unit 150 estimates the size of blur and the size of blur of the two-dimensional image obtained by the image input unit 130. In the present embodiment, by applying a function representing a change in luminance of an edge when blurring and blurring occurs to a change in luminance of a pixel along a direction orthogonal to an edge in a two-dimensional image, each of the edge features is obtained. An image deterioration evaluation value is calculated. The process of detecting an edge in a two-dimensional image is the same process as the edge detection by the search unit 140. Details of the processing will be described later.

正確度算出部160は、被測定物体の形状モデルの局所線特徴との対応付けの仮説として探索部140が保持したエッジ特徴のそれぞれの対応について正確度を算出する。正確度の算出は、予測値算出部120で得られた画像劣化予測値と、評価値算出部150で得られた画像劣化評価値に基づいて行われるが、その処理の詳細な内容は後述する。照合部170は、被測定物体の形状モデル中の各局所線特徴に対応する2次元画像上のエッジ特徴と正確度算出部160で算出した正確度に基づいて、被測定物体の位置及び姿勢を算出する。照合部170による位置及び姿勢の算出処理の詳細は後述する。   The accuracy calculation unit 160 calculates the accuracy of each of the edge features held by the search unit 140 as a hypothesis of the association with the local line feature of the shape model of the measured object. The calculation of the accuracy is performed based on the image deterioration prediction value obtained by the prediction value calculation unit 120 and the image deterioration evaluation value obtained by the evaluation value calculation unit 150. The details of the processing will be described later. . The matching unit 170 determines the position and orientation of the measured object based on the edge features on the two-dimensional image corresponding to each local line feature in the shape model of the measured object and the accuracy calculated by the accuracy calculating unit 160. calculate. Details of the process of calculating the position and orientation by the matching unit 170 will be described later.

図3は第1実施形態におけるエッジ特徴と局所線特徴との対応付け、2次元画像上の被測定物体の位置及び姿勢の算出の処理手順を示すフローチャートである。まず、モデル入力部110は、被測定物体の形状モデルを入力し、情報処理装置1に取り込む(ステップS301)。次に、予測値算出部120は、2次元画像の画像劣化予測値を算出する(ステップS302)。画像劣化予測値の算出には、被測定物体の形状モデルを構成するすべての局所線特徴の位置及び姿勢の概略値、撮像装置と被測定物体との相対的な移動方向・速度、2次元画像の取得時における撮像装置の内部パラメータが用いられる。なお、本実施形態では、物体の置かれているおおよその位置や姿勢の値を局所線特徴の位置及び姿勢の概略値として用いる。2次元画像の画像劣化予測値の算出処理の詳細は図5の参照により後述する。   FIG. 3 is a flowchart showing a processing procedure for calculating the position and orientation of the measured object on the two-dimensional image in association with the edge features and the local line features in the first embodiment. First, the model input unit 110 inputs a shape model of a measured object and takes it into the information processing device 1 (step S301). Next, the prediction value calculation unit 120 calculates an image deterioration prediction value of the two-dimensional image (Step S302). In calculating the predicted image deterioration value, the approximate values of the positions and orientations of all the local line features constituting the shape model of the measured object, the relative moving direction and speed between the imaging device and the measured object, and the two-dimensional image The internal parameters of the imaging device at the time of acquisition are used. In the present embodiment, the approximate position and posture values of the object are used as approximate values of the position and posture of the local line feature. Details of the process of calculating the predicted image deterioration value of the two-dimensional image will be described later with reference to FIG.

次に、画像入力部130は、2次元画像を入力し、情報処理装置1に取り込む(ステップS303)。探索部140は、画像入力部130が入力した2次元画像から形状モデルの局所線特徴の対応の候補を探索する(ステップS304)。対応の候補の探索方法は、図4により前述したとおりであり、モデル入力部110が入力した形状モデルのすべての局所線特徴の位置及び姿勢の概略値、および2次元画像の撮影時の撮像装置の内部パラメータに基づいてなされる。   Next, the image input unit 130 inputs a two-dimensional image and takes it into the information processing device 1 (step S303). The search unit 140 searches for a candidate corresponding to the local line feature of the shape model from the two-dimensional image input by the image input unit 130 (step S304). The method of searching for a correspondence candidate is as described above with reference to FIG. 4. The approximate values of the positions and orientations of all the local line features of the shape model input by the model input unit 110 and the imaging apparatus for capturing a two-dimensional image Is made based on the internal parameters of

評価値算出部150は、画像入力部130により得られた2次元画像のボケの大きさおよびブレの大きさを推定し、画像劣化評価値を算出する(ステップS305)。より詳細には、評価値算出部150は、画像入力部130で得られた2次元画像からエッジ検出を行う。そして、評価値算出部150は、検出したエッジ特徴と直交する方向に沿った画素の輝度変化に対してボケ・ブレが生じたときのエッジの輝度変化を表す関数を当てはめることでエッジ部分でのボケ・ブレ幅を推定し、画像劣化評価値を得る。この処理の詳細は後述する。次に、正確度算出部160は、予測値算出部120で得た画像劣化予測値と、評価値算出部150で得た画像劣化評価値とを用いて、探索部140で得た局所線特徴とエッジ特徴の対応付けの正確度を算出する(ステップS306)。この正確度の算出処理の詳細は図7の参照により後述する。そして、照合部170は、算出された正確度が最大となるエッジ特徴を、形状モデルの局所線特徴に当てはめることにより、計測対象物体の位置及び姿勢を算出する(ステップS307)。   The evaluation value calculation unit 150 estimates the magnitude of blur and blur of the two-dimensional image obtained by the image input unit 130, and calculates an image deterioration evaluation value (step S305). More specifically, the evaluation value calculation unit 150 performs edge detection from the two-dimensional image obtained by the image input unit 130. Then, the evaluation value calculation unit 150 applies a function representing the luminance change of the edge when blurring / blurring occurs to the luminance change of the pixel along the direction orthogonal to the detected edge feature, and The blur / blur width is estimated to obtain an image deterioration evaluation value. Details of this processing will be described later. Next, the accuracy calculation section 160 uses the image deterioration prediction value obtained by the prediction value calculation section 120 and the image deterioration evaluation value obtained by the evaluation value calculation section 150 to obtain the local line feature obtained by the search section 140. Then, the accuracy of the correspondence between the edge feature and the edge feature is calculated (step S306). Details of the accuracy calculation process will be described later with reference to FIG. Then, the matching unit 170 calculates the position and orientation of the measurement target object by applying the calculated edge feature having the maximum accuracy to the local line feature of the shape model (step S307).

図5はステップS302における画像劣化予測値を算出する処理を表すフローチャートである。本実施形態では、モデル特徴の2次元画像のボケおよび/またはブレによる像の広がりに起因する画像劣化を予測する。以下、予測値算出部120による画像劣化予測値算出処理を図5のフローチャートを参照して説明する。まず、予測値算出部120は、形状モデルのすべての局所線特徴の位置及び姿勢の概略値、撮像装置と被測定物体との相対的な移動方向・速度、および2次元画像の撮影に用いた内部パラメータを取得する(ステップS501)。本実施形態における撮像装置と被測定物体との相対的な移動方向・速度として、例えば、被測定物体を1軸方向に並進運動を行う機材(たとえばベルトコンベア)に配置したときの設計データに基づいて、その並進運動の移動量と移動方向を取得する。   FIG. 5 is a flowchart illustrating the process of calculating the predicted image deterioration value in step S302. In the present embodiment, image deterioration due to image spreading due to blurring and / or blurring of a two-dimensional image of a model feature is predicted. Hereinafter, the image deterioration prediction value calculation processing by the prediction value calculation unit 120 will be described with reference to the flowchart in FIG. First, the predicted value calculation unit 120 was used to capture the approximate values of the position and orientation of all the local line features of the shape model, the relative movement direction and speed between the imaging device and the measured object, and the capturing of a two-dimensional image. An internal parameter is obtained (step S501). The relative movement direction and speed between the imaging apparatus and the object to be measured in the present embodiment are based on, for example, design data when the object to be measured is arranged on a device (for example, a belt conveyor) that performs a translational motion in one axis direction. Then, the moving amount and moving direction of the translational motion are obtained.

次に、予測値算出部120は、形状モデルの中から、画像劣化予測値σを算出するために、局所線特徴を選択する(ステップS502)。そして、予測値算出部120は、選択された1つの局所線特徴において予測されるボケの大きさDを以下の式[数1]を用いて算出する(ステップS503)。

Figure 0006626338
Next, the predicted value calculation unit 120 selects a local line feature from the shape model to calculate the predicted image deterioration value σ 0 (step S502). Then, the predicted value calculation unit 120 calculates the size D of the blur predicted in the selected one local line feature by using the following equation (Equation 1) (step S503).
Figure 0006626338

上記の式[数1]において、fは撮影レンズの焦点距離、Lは仮想視点のピント位置、Lは仮想視点からモデル点までの距離、Fはレンズの絞り値、Δdは画素の大きさを表す。撮影レンズの焦点距離fや絞り値Fは、使用する撮像装置の仕様を参照することで取得される。LnはステップS501で入力された概略位置姿勢から算出される。撮影に用いたカメラレンズの焦点距離や主点位置、レンズ歪みパラメータなどの内部パラメータは、使用する機器の仕様を参照することにより、または、非特許文献2に記載された方法によって事前にキャリブレーションしておくことにより取得される。 In the formula [Number 1] above, f is the focal length of the taking lens, L o is the distance focus position of the virtual viewpoint, L n from the virtual viewpoint to the model points, F is the lens aperture, [Delta] d is the pixel size Represents The focal length f and the aperture value F of the taking lens are obtained by referring to the specifications of the imaging device to be used. Ln is calculated from the approximate position and orientation input in step S501. The internal parameters such as the focal length, principal point position, and lens distortion parameters of the camera lens used for shooting are calibrated in advance by referring to the specifications of the equipment to be used or by the method described in Non-Patent Document 2. Obtained by doing.

次に、予測値算出部120は、ステップS503でボケの大きさを予測したのと同じ局所線特徴において予測されるブレの大きさを算出する(ステップS504)。本実施形態ではブレ量として露光時間中における各局所線特徴の2次元画像上での移動量を用いる。具体的には、形状モデルを2次元画像に投影した画像から検出される、投影局所線特徴の露光時間中における画像面での移動量が用いられる。ステップS504では、モデル投影画像で得られる投影局所線特徴のヤコビアンを算出し、投影局所線特徴のヤコビアンとステップS502で入力した撮像装置と被測定物体との相対的な移動方向・速度に基づいて、投影局所線特徴のブレの大きさを算出する。   Next, the predicted value calculation unit 120 calculates the magnitude of the blur predicted in the same local line feature as the magnitude of the blur predicted in step S503 (step S504). In the present embodiment, the movement amount of each local line feature on the two-dimensional image during the exposure time is used as the blur amount. Specifically, the amount of movement of the projected local line feature on the image plane during the exposure time, which is detected from an image obtained by projecting the shape model into a two-dimensional image, is used. In step S504, the Jacobian of the projected local line feature obtained in the model projection image is calculated, and based on the Jacobian of the projected local line feature and the relative moving direction and speed between the imaging device and the object to be measured input in step S502. , The magnitude of the blurring of the projected local line feature is calculated.

投影局所線特徴のヤコビアンとは、位置姿勢6自由度のパラメータが微小に変化したときに、画像上の投影局所線特徴が変化する割合を表す値である。被測定物体の概略位置姿勢sに基づいて、投影局所線特徴に対応するエッジ特徴のブレ量を(du、dv)、投影局所線特徴の法線方向を(n、n)(単位ベクトル)と表すと、対応間の符号付距離err2Dは以下の式[数2]より算出できる。なお、du=u’−u、dv=v’−vとする。

Figure 0006626338
The Jacobian of the projected local line feature is a value representing the rate of change of the projected local line feature on the image when the parameter of the position and orientation 6 degrees of freedom changes minutely. Based on the approximate position and orientation s of the object to be measured, a blur of the corresponding edge feature in the projection local line feature (du, dv), the normal direction of projection local line feature (n u, n v) (unit vector ), The signed distance err 2D between the correspondences can be calculated from the following equation [Equation 2]. Note that du = u'-u and dv = v'-v.
Figure 0006626338

ここで、被測定物体の位置及び姿勢sは6次元ベクトルであり、対象物体の位置を表す3つの要素(s、s、s)と、姿勢を表す3つの要素(s、s、s)からなる。姿勢を表す3つの要素は、例えばオイラー角による表現や、方向が原点を通る回転軸を表してノルムが回転角を表す3次元ベクトルなどによって表現される。この位置及び姿勢sの各パラメータで、対応間距離err2Dを偏微分することによって、以下の式[数3]のように投影局所線特徴のヤコビアンを算出する。

Figure 0006626338
Here, the position and orientation s of the measured object are six-dimensional vectors, and three elements (s 1 , s 2 , s 3 ) representing the position of the target object and three elements (s 4 , s) representing the orientation 5, consisting of s 6). The three elements representing the posture are represented by, for example, an Euler angle or a three-dimensional vector whose direction represents a rotation axis passing through the origin and whose norm represents the rotation angle. The Jacobian of the projected local line feature is calculated as shown in the following Expression [3] by partially differentiating the distance err 2D between correspondences with each parameter of the position and posture s.
Figure 0006626338

以上のようにしてステップS502で選択された投影局所線特徴のヤコビアンが計算される。この投影局所線特徴のヤコビアンを用いて、2次元画像の露光時間t中に対象物体が相対位置姿勢速度Vで動くことによって発生する、局所線特徴と2次元画像中のエッジ特徴との間の距離変化Bは、以下の式[数4]により計算できる。

Figure 0006626338
Bはスカラーであり、露光時間中に画像平面上で、投影局所線特徴の2次元位置が移動する量を表す。以上の処理を全ての局所線特徴に対して行い、全ての局所線特徴に対してブレ量を算出する。 As described above, the Jacobian of the projected local line feature selected in step S502 is calculated. Using Jacobian of the projection local line feature, the object during the exposure time t i of the 2-dimensional image is generated by moving a relative position and orientation velocity V, between the edge feature in the local line feature and the two-dimensional image Can be calculated by the following equation [Equation 4].
Figure 0006626338
B is a scalar and represents the amount by which the two-dimensional position of the projected local line feature moves on the image plane during the exposure time. The above processing is performed for all the local line features, and the blur amount is calculated for all the local line features.

次に、予測値算出部120では、ステップS503で算出したボケの大きさDとステップS504で算出したブレの大きさBから、ステップS502で選択した局所線特徴の画像劣化予測値σを、以下の式[数5]を用いて算出する(ステップS505)。

Figure 0006626338
Next, the prediction value calculation unit 120 calculates an image deterioration prediction value σ 0 of the local line feature selected in step S502 from the blur size D calculated in step S503 and the blur size B calculated in step S504, It is calculated using the following equation [Equation 5] (step S505).
Figure 0006626338

すべての局所線特徴について画像劣化予測値σの算出が終わるまで、ステップS502〜S505の処理を繰り返す(ステップS506)。こうして、全ての局所線特徴に対して画像劣化予測値σの算出を終えたら本処理を終了する。 For all the local line feature to calculate the image deterioration prediction value sigma 0 is completed, it repeats the processing of steps S502~S505 (step S506). When the calculation of the predicted image deterioration value σ 0 has been completed for all the local line features in this manner, the present process is terminated.

次に、ステップS305における、ボケ・ブレの大きさを2次元画像から評価する処理を説明する。本実施形態では、計測データ特徴の2次元画像におけるボケおよび/またはブレによる像の広がりに起因する画像劣化を評価する。図6は、ステップS305において評価値算出部150が実行する画像劣化評価値の算出処理を示すフローチャートである。評価値算出部150は、ステップS304で検出された対応の候補であるエッジ特徴のうちの1つを選択し(ステップS601)、選択したエッジ特徴について画像劣化評価値を算出する(ステップS602)。   Next, the process of evaluating the magnitude of blur and blur from the two-dimensional image in step S305 will be described. In the present embodiment, image deterioration due to the spread of the image due to blur and / or blur in the two-dimensional image of the measurement data feature is evaluated. FIG. 6 is a flowchart illustrating a process of calculating an image deterioration evaluation value performed by the evaluation value calculation unit 150 in step S305. The evaluation value calculation unit 150 selects one of the edge features that are the corresponding candidates detected in step S304 (step S601), and calculates an image degradation evaluation value for the selected edge feature (step S602).

評価値算出部150による画像劣化評価値の算出について説明する。評価値算出部150は、ステップS601で選択したエッジ特徴の位置とエッジの法線方向から、そのエッジ特徴のボケ・ブレの大きさを算出する。本実施形態で用いるエッジモデルとしては、以下の式[数6]で表されるような誤差関数erfを用いて当てはめを行い、σをボケ・ブレの大きさとして求める。

Figure 0006626338
数6において、x、yはエッジのある着目画素位置、rは着目画素位置からの距離、θはエッジの法線方向、tは着目画素からの探索範囲、σはボケの大きさとブレの大きさを統合した値(画像劣化評価値)を示す。なお、tは任意の正の値である。 The calculation of the image deterioration evaluation value by the evaluation value calculation unit 150 will be described. The evaluation value calculation unit 150 calculates the magnitude of blur and blur of the edge feature from the position of the edge feature and the normal direction of the edge selected in step S601. As an edge model used in the present embodiment, fitting is performed using an error function erf as represented by the following equation [Equation 6], and σ is determined as the magnitude of blur and blur.
Figure 0006626338
In Equation 6, x 0 and y 0 are the pixel position of interest having an edge, r is the distance from the pixel position of interest, θ is the normal direction of the edge, t is the search range from the pixel of interest, and σ is the magnitude and blur of blur. Are shown as values (image deterioration evaluation values) obtained by integrating the sizes of the images. Note that t is an arbitrary positive value.

画像劣化評価値σを、以下の式[数7]で表す評価関数Eを最急降下法や、Levenberg‐Marquardt法による繰り返し演算等で最小化することで推定する。

Figure 0006626338
数7において、I(x,y)は座標(x,y)における撮影画像の輝度値を示す。 The image deterioration evaluation value σ is estimated by minimizing an evaluation function E represented by the following equation [Equation 7] by a steepest descent method, a repetitive operation by the Levenberg-Marquardt method, or the like.
Figure 0006626338
In Expression 7, I (x, y) indicates the luminance value of the captured image at the coordinates (x, y).

ステップS304で検出されたすべてのエッジ特徴について、上述したボケ・ブレの大きさの評価を終えるまでステップS601とS602の処理が繰り返される(ステップS603)。ステップS304で検出されたすべてのエッジ特徴についてボケ・ブレの大きさの評価を終えると本処理は終了する。   Steps S601 and S602 are repeated for all the edge features detected in step S304 until the above-described evaluation of the magnitude of blur or blur is completed (step S603). When the evaluation of the magnitude of blur / blur is completed for all the edge features detected in step S304, this processing ends.

図7はステップS306における正確度の算出処理を示すフローチャートである。本実施形態では、予測値算出部120が算出した画像劣化の度合いである画像劣化予測値と、評価値算出部150が評価した画像劣化の度合いである画像劣化評価値が近いほど高い値となるように正確度が算出される。まず、正確度算出部160は、被測定物体の形状モデル中の局所線特徴を一つ選択する(ステップS701)。次に、正確度算出部160は、ステップS701で選択した局所線特徴との対応付けの候補として、ステップS304において探索部140が探索したエッジ特徴(対応の候補)を一つ選択し(ステップS702)、その正確度を算出する(ステップS703)。以下、正確度の算出について説明する。   FIG. 7 is a flowchart showing the accuracy calculation processing in step S306. In the present embodiment, the closer the image degradation prediction value that is the degree of image degradation calculated by the prediction value calculation unit 120 and the image deterioration evaluation value that is the degree of image degradation evaluated by the evaluation value calculation unit 150, the higher the value. The accuracy is calculated as follows. First, the accuracy calculation unit 160 selects one local line feature in the shape model of the measured object (step S701). Next, the accuracy calculation unit 160 selects one edge feature (candidate for correspondence) searched by the search unit 140 in step S304 as a candidate for association with the local line feature selected in step S701 (step S702). ), And calculate the accuracy (step S703). Hereinafter, the calculation of the accuracy will be described.

正確度算出部160は、評価値算出部150の算出結果を参照して、ステップS702で選択したエッジ特徴に対応する画像劣化評価値σを取得する。また、正確度算出部160は、ステップS701で選択した局所線特徴の画像劣化予測値σを取得する。正確度算出部160は、画像劣化予測値σと画像劣化評価値σとから正確度Tを以下の式[数8]に従って算出する。

Figure 0006626338
The accuracy calculation unit 160 acquires an image deterioration evaluation value σ corresponding to the edge feature selected in step S702 with reference to the calculation result of the evaluation value calculation unit 150. In addition, the accuracy calculation unit 160 acquires the predicted image deterioration value σ 0 of the local line feature selected in step S701. The accuracy calculation unit 160 calculates the accuracy T from the predicted image deterioration value σ 0 and the image deterioration evaluation value σ according to the following equation [Equation 8].
Figure 0006626338

ステップS701で選択された局所線特徴について探索部140が探索したすべての対応の候補(エッジ特徴)について正確度Tを算出し終えるまで、ステップS702〜S703を繰り返す。すべての対応の候補(エッジ特徴)について正確度Tの算出を終えると、処理はステップS705に進む。正確度算出部160は、以上の処理(ステップS701〜S704)を、被測定物体の形状モデル中のすべての局所線特徴について終えるまで繰り返す。すべての局所線特徴について終えると、本処理を終了する。   Steps S702 to S703 are repeated until the accuracy T has been calculated for all the corresponding candidates (edge features) searched by the search unit 140 for the local line feature selected in step S701. When the calculation of the accuracy T is completed for all the corresponding candidates (edge features), the process proceeds to step S705. The accuracy calculation unit 160 repeats the above processing (steps S701 to S704) until all the local line features in the shape model of the measured object have been completed. When the processing has been completed for all the local line features, this processing ends.

図8はステップS307における、照合部170による位置姿勢算出の処理手順を説明するフローチャートである。照合部170は、計測データに形状モデルが当てはまるように、非線形最適化手法の一つであるGauss−Newton法を用いて計測対象物体の位置及び姿勢(以下、6次元ベクトルsで表す)の概略値を反復演算によって繰り返し補正する。   FIG. 8 is a flowchart illustrating a processing procedure of calculating the position and orientation by the matching unit 170 in step S307. The collation unit 170 uses the Gauss-Newton method, which is one of the nonlinear optimization techniques, to outline the position and orientation (hereinafter, represented by a 6-dimensional vector s) of the measurement target object so that the shape model is applied to the measurement data. The value is repeatedly corrected by an iterative operation.

まず、照合部170は、初期化処理を行う(ステップS801)。本実施形態では、被測定物体の置かれているおおよその位置や姿勢の値が概略値として照合部170に入力される。この概略値は、ステップS302で用いたのと同じものである。次に、照合部170は、モデルの局所線特徴と照合するエッジ特徴を選択する(ステップS802)。選択には正確度算出部160が算出した、エッジ特徴と局所線特徴との対応の正確度Tを用いる。たとえば、一つの局所線特徴に関して複数のエッジ特徴が対応付け仮説として検出されている場合は、正確度Tが一番高い対応の候補(エッジ特徴)を当該局所線特徴に対応づけて以後の処理を行う。   First, the matching unit 170 performs an initialization process (step S801). In the present embodiment, the approximate position and posture values of the object to be measured are input to the matching unit 170 as approximate values. This approximate value is the same as that used in step S302. Next, the matching unit 170 selects an edge feature to be matched with the local line feature of the model (Step S802). For the selection, the accuracy T of the correspondence between the edge feature and the local line feature calculated by the accuracy calculation unit 160 is used. For example, when a plurality of edge features are detected as a correspondence hypothesis with respect to one local line feature, the correspondence candidate (edge feature) having the highest accuracy T is associated with the local line feature and the subsequent processing is performed. I do.

続いて、照合部170は、位置及び姿勢を算出するための係数行列と誤差ベクトルの算出を行う(ステップS803)。ここで係数行列の各要素は、画像上での点と直線の距離を位置及び姿勢の関数としたときの、位置及び姿勢の各要素に関する一次の偏微分係数である。誤差ベクトルは、エッジについては投影された線分と検出されたエッジの画像上での符号付き距離、点群データについては点とモデルの面の3次元空間中での符号付き距離である。   Subsequently, the matching unit 170 calculates a coefficient matrix and an error vector for calculating the position and orientation (step S803). Here, each element of the coefficient matrix is a first-order partial differential coefficient relating to each element of the position and the attitude when the distance between the point and the straight line on the image is a function of the position and the attitude. The error vector is a signed distance on the image between the projected line segment and the detected edge for the edge, and a signed distance in the three-dimensional space between the point and the model surface for the point cloud data.

次に、係数行列の導出について説明する。図9は、投影像である線分901と検出されたエッジ902の関係を説明する図である。図9では、画像の水平方向、垂直方向をそれぞれu軸、v軸としている。ある制御点903(投影された各線分を画像上で等間隔に分割した点)の画像上での位置を(u,v)、その制御点903が所属する線分901の画像上での傾きをu軸に対する傾きθと表す。傾きθは、線分の両端の3次元座標を被測定物体の位置姿勢sに基づいて画像上に投影し、画像上での両端の座標を結んだ直線の傾きとして算出する。線分901の画像上での法線ベクトルは(sinθ,−cosθ)となる。また、制御点903の対応点904の2次元画像上の座標を(u’,v’)とする。ここで、点(u’,v’)を通り、傾きがθである直線(図9の破線により示されるエッジ902)上の点(u,v)は、以下の式[数9]のように表される(θは定数とする)。ここで、d=u’sinθ−v’cosθ(定数)である。

Figure 0006626338
Next, derivation of a coefficient matrix will be described. FIG. 9 is a diagram illustrating a relationship between a line segment 901 which is a projected image and a detected edge 902. In FIG. 9, the horizontal direction and the vertical direction of the image are defined as u axis and v axis, respectively. A position (u 0 , v 0 ) of a certain control point 903 (a point obtained by dividing each projected line segment at equal intervals on the image) on the image is represented on the image of the line segment 901 to which the control point 903 belongs. Is represented as a gradient θ with respect to the u-axis. The inclination θ is calculated by projecting the three-dimensional coordinates of both ends of the line segment on an image based on the position and orientation s of the measured object, and calculating the inclination of a straight line connecting the coordinates of both ends on the image. The normal vector on the image of the line segment 901 is (sin θ, −cos θ). The coordinates of the corresponding point 904 of the control point 903 on the two-dimensional image are (u ′, v ′). Here, a point (u, v) on a straight line (the edge 902 indicated by a broken line in FIG. 9) that passes through the point (u ′, v ′) and has an inclination θ is represented by the following equation [Equation 9]. (Θ is a constant). Here, d = u′sin θ−v′cos θ (constant).
Figure 0006626338

制御点の画像上での位置は計測対象物体の位置及び姿勢により変化する。また、計測対象物体の位置及び姿勢の自由度は6自由度である。すなわち位置姿勢sは6次元ベクトルであり、計測対象物体の位置を表す3つの要素と、姿勢を表す3つの要素からなる。姿勢を表す3つの要素は、例えばオイラー角による表現や、方向が原点を通る回転軸を表してノルムが回転角を表す3次元ベクトルなどによって表現される。位置及び姿勢により変化する制御点の画像座標(u、v)は(u、v)の近傍で1次のテイラー展開によって以下の式[数10]のように近似できる。但し、数10において、Δs(i=1、2、…、6)はsの各成分の微小変化を表す。

Figure 0006626338
The position of the control point on the image changes depending on the position and orientation of the measurement target object. The degree of freedom of the position and orientation of the measurement target object is six degrees of freedom. That is, the position and orientation s is a six-dimensional vector, and includes three elements representing the position of the measurement target object and three elements representing the orientation. The three elements representing the posture are represented by, for example, an Euler angle or a three-dimensional vector whose direction represents a rotation axis passing through the origin and whose norm represents the rotation angle. The image coordinates (u, v) of the control point, which changes depending on the position and orientation, can be approximated by the following Taylor expansion in the vicinity of (u 0 , v 0 ) by the following Taylor expansion. However, in Expression 10, Δs i (i = 1, 2,..., 6) represents a minute change of each component of s.
Figure 0006626338

位置及び姿勢の概略値と実際の位置及び姿勢の差がそれほどないと仮定すると、正しいsによって得られる制御点の画像上での位置は式[数9]が表す直線上にあると仮定できる。式[数10]によって近似されるu、vを式[数9]に代入することにより、式[数11]が得られる。

Figure 0006626338
位置及び姿勢の概略値によって算出された各制御点の奥行き(視点から制御点までの距離=z)を、画像上の誤差に乗じることによって3次元空間中の誤差に変換する。 Assuming that the difference between the approximate value of the position and orientation and the actual position and orientation is not so large, it can be assumed that the position on the image of the control point obtained by the correct s is on the straight line represented by Expression [9]. By substituting u and v approximated by Equation [Equation 10] into Equation [Equation 9], Equation [Equation 11] is obtained.
Figure 0006626338
The depth of each control point (distance from the viewpoint to the control point = z) calculated based on the approximate values of the position and orientation is converted into an error in a three-dimensional space by multiplying the error on the image.

解くべき連立方程式は式[数12]のようになる。

Figure 0006626338
The simultaneous equations to be solved are as shown in Equation [12].
Figure 0006626338

式[数12]において、z1、z2・・・は各エッジの奥行きを表している。ここで式[数12]を式[数13]のように表す。[数13]において、Jは係数行列、Eは誤差ベクトル、Δsは補正値である。

Figure 0006626338
線形連立方程式の係数行列Jを算出するための偏微分係数の算出は、例えば非特許文献2に開示されている方法によって行うことができる。 In the equation [Equation 12], z 1 , z 2 ... Represent the depth of each edge. Here, equation [12] is represented as equation [13]. In [Equation 13], J is a coefficient matrix, E is an error vector, and Δs is a correction value.
Figure 0006626338
The calculation of the partial differential coefficient for calculating the coefficient matrix J of the linear system of equations can be performed by, for example, a method disclosed in Non-Patent Document 2.

次に、照合部170は、式[数13]をもとに、行列Jの一般化逆行列(JT・J)−1・JTを用いて位置及び姿勢の補正値Δsを最小二乗基準で求める(ステップS804)。しかしながら、エッジや点群データには誤検出などによる外れ値が多いため、次に述べるようなロバスト推定手法を用いる。一般に、外れ値であるエッジや点群データでは式[数12]の右辺の誤差ベクトルの値が大きくなる。そこで、誤差の絶対値が大きいデータには小さな重みを与え、誤差が小さいデータには大きな重みを与える。重みは例えば式[数14]に示すようなTukeyの関数により与える。 Next, the matching unit 170 calculates the position and orientation correction value Δs using the generalized inverse matrix (J T · J) -1 · J T of the matrix J based on the equation [Equation 13]. (Step S804). However, the edge or point cloud data has many outliers due to erroneous detection or the like, so the following robust estimation method is used. In general, the value of the error vector on the right side of Expression [12] is large for edge or point cloud data that is an outlier. Therefore, a small weight is given to data with a large absolute value of the error, and a large weight is given to data with a small error. The weight is given by, for example, a Tukey function as shown in Expression [Equation 14].

Figure 0006626338
上記式[数14]において、c、cは定数である。なお、重みを与える関数はTukeyの関数である必要はなく、例えばHuberの関数など、誤差が大きいデータには小さな重みを与え、誤差が小さいデータには大きな重みを与える関数であればなんでもよい。
Figure 0006626338
In the above expression [14], c 1 and c 2 are constants. The weighting function does not need to be a Tukey function, but may be any function that gives a small weight to data with a large error and a large weight to data with a small error, such as a Huber function.

各計測データ(エッジまたは点群データ)に対応する重みをwとする。ここで式[数15]のように重み行列Wを定義する。

Figure 0006626338
The weights corresponding to each measurement data (edge or point group data) and w i. Here, a weight matrix W is defined as in Expression [15].
Figure 0006626338

重み行列Wは、対角成分以外はすべて0の正方行列であり、対角成分には、式[数14]に従って算出された重みwが入る。この重み行列W用いて、式[数13]を式[数16]のように変形する。

Figure 0006626338
式[数16]を式[数17]のように解くことにより補正値Δsを求める。
Figure 0006626338
Weight matrix W is all but diagonal elements are square matrices of 0, the diagonal components enters the weight w i calculated in accordance with Equation [Expression 14]. Using this weight matrix W, equation [13] is transformed as equation [16].
Figure 0006626338
The correction value Δs is obtained by solving Expression [16] as in Expression [17].
Figure 0006626338

図8に戻り、照合部170は、ステップS804において算出された位置及び姿勢の補正値Δsにより、位置及び姿勢の概略値を補正する(ステップS805)。

Figure 0006626338
Returning to FIG. 8, the collation unit 170 corrects the approximate value of the position and orientation using the position and orientation correction value Δs calculated in step S804 (step S805).
Figure 0006626338

続いて、照合部170は、収束判定を行い、収束していれば終了し、収束していなければ処理をステップS802に戻す(ステップS806)。収束判定では、補正値Δsがほぼ0である場合や、誤差ベクトルの二乗和が補正前と補正後でほとんど変わらない場合(補正前後の差分が所定の閾値以下になった場合)に収束したと判定する。なお、上記では非線形最適化手法としてGauss−Newton法を用いた例を説明した。しかしながら、非線形最適化手法はこれに限るものではなく、Newton−Raphson法、Levenberg−Marquardt法、最急降下法、共役勾配法などのその他の非線形最適化手法を用いてもよい。   Subsequently, the matching unit 170 performs a convergence determination, and ends if it has converged, and returns the process to step S802 if it has not converged (step S806). In the convergence determination, it is assumed that the convergence has occurred when the correction value Δs is almost 0, or when the sum of squares of the error vector hardly changes before and after the correction (when the difference before and after the correction becomes equal to or less than a predetermined threshold). judge. In the above, an example using the Gauss-Newton method as the nonlinear optimization method has been described. However, the nonlinear optimization technique is not limited to this, and other nonlinear optimization techniques such as the Newton-Raphson method, the Levenberg-Marquardt method, the steepest descent method, and the conjugate gradient method may be used.

本実施形態における被測定物体のモデルとして保持する形状情報は、対象形状を表す2次元もしくは3次元の幾何情報であれば良く、表現形式に特に制限はない。例えば、2次元の幾何情報を表す場合は単純な2次元点の集合や、2次元ラインの集合などで表現してもよい。また、3次元の幾何情報を表す場合は、単純な3次元点の集合や、稜線を表す3次元ラインの集合、3次元点3点で構成される線の集合で表されるポリゴン形式の形状情報などで表しても良い。   The shape information held as the model of the measured object in the present embodiment may be two-dimensional or three-dimensional geometric information representing the target shape, and there is no particular limitation on the expression format. For example, when expressing two-dimensional geometric information, it may be represented by a set of simple two-dimensional points or a set of two-dimensional lines. In the case of representing three-dimensional geometric information, a polygonal shape represented by a set of simple three-dimensional points, a set of three-dimensional lines representing edges, and a set of three-dimensional points It may be represented by information.

また、ステップS501において入力される撮像装置と被測定物体との相対的な移動方向・速度として、被測定物体がある方向に並進運動を行うことを想定した移動方向および移動量の情報を入力する例を示したが、本実施形態はこれに限られるものではない。例えば、被測定物体に上述のセンサを取り付け、その情報から撮像装置と被測定物体との相対位置姿勢の速度を算出しても良い。また、撮像装置が動くような場面では、撮像装置の動きを取得してもよい。例えば、ロボットに撮像装置を取り付けた場合、ロボットモーション情報を撮像装置と被測定物体との相対的な移動方向・速度の入力としてもよい。あるいは撮像装置に磁気センサや超音波センサなど6自由度の位置及び姿勢を計測する物理センサを取り付け、それらの情報を入力してもよい。本実施形態では、撮像装置と被測定物体との相対的な位置姿勢の速度が算出できる限り、いずれの方法を用いても良く、手段・機器の選択に特に制限はない。   Further, as the relative movement direction / speed between the imaging device and the measured object input in step S501, information on the moving direction and the movement amount assuming that the measured object performs a translational movement in a certain direction is input. Although an example has been described, the present embodiment is not limited to this. For example, the above-described sensor may be attached to the measured object, and the speed of the relative position and orientation between the imaging device and the measured object may be calculated from the information. In a situation where the imaging device moves, the movement of the imaging device may be acquired. For example, when an imaging device is attached to a robot, the robot motion information may be used as an input of the relative movement direction / speed between the imaging device and the measured object. Alternatively, a physical sensor, such as a magnetic sensor or an ultrasonic sensor, that measures the position and orientation with six degrees of freedom may be attached to the imaging device, and the information may be input. In the present embodiment, any method may be used as long as the relative position and orientation speed of the imaging device and the measured object can be calculated, and there is no particular limitation on the selection of means and devices.

また、予測値算出部120において画像劣化予測値として推定される量は、上述の情報に限るものではない。たとえば、撮像装置と被測定物体の相対的な移動によって2次元画像が劣化する量を表すことが出来る値であれば良く、その計算方法および表現に特に制限はない。例えば、被測定物体が撮影された2次元画像のエッジ特徴のブレの大きさを、3次元空間に逆投影して算出した3次元空間中における移動量として表しても良い。また、ボケの大きさDやブレの大きさBを基にして作成した点広がり関数(Point Spread Function:PSF)を画像劣化評価値としてもよい。また、上記実施形態では、ボケおよびブレの両方の影響を考慮して予測値を取得したが、どちらか片方のみの影響を考慮した予測値を取得するようにしてもよい。   Further, the amount estimated as the predicted image deterioration value by the predicted value calculation unit 120 is not limited to the above information. For example, any value may be used as long as it can represent the amount of deterioration of the two-dimensional image due to relative movement between the imaging device and the measured object, and there is no particular limitation on the calculation method and expression. For example, the magnitude of the blurring of the edge feature of the two-dimensional image of the object to be measured may be represented as a movement amount in the three-dimensional space calculated by back-projecting the two-dimensional image into the three-dimensional space. Further, a point spread function (PSF) created based on the size D of the blur and the size B of the blur may be used as the image deterioration evaluation value. Further, in the above-described embodiment, the predicted value is obtained in consideration of the influence of both blur and blur, but the predicted value may be obtained in consideration of the influence of only one of them.

また、探索部140での対応の候補となる計測データ特徴として、本実施形態ではエッジ特徴を用いたが、これに限られるものではない。たとえば、点特徴など2次元画像上の位置を特定できる特徴であればどのような特徴であってもよい。また、特定の種類の特徴のみを用いるのではなく、複数の種類の特徴(たとえば、点とエッジ)とモデル特徴の対応を検出してもよい。   In the present embodiment, an edge feature is used as a measurement data feature that is a candidate for correspondence in the search unit 140. However, the present invention is not limited to this. For example, any feature that can specify a position on a two-dimensional image such as a point feature may be used. Instead of using only a specific type of feature, a correspondence between a plurality of types of features (for example, points and edges) and a model feature may be detected.

また、評価値算出部150において、単一画像からボケ・ブレの大きさを推定する手法は、上述した手法に限るものでない。例えば、ボケ・ブレの広がりをガウス分布状に広がると仮定し、ボケ・ブレが生じているエッジ部分の輝度分布を、最小二乗法を用いてガウス関数にフィッティングしたときに得られる標準偏差からボケ・ブレの大きさを求めてもよい。また本実施形態ではエッジ特徴単位で画像劣化評価値を算出したがこれに限るものではない。例えば、2次元画像を方形の部分領域に分け、部分領域ごとに画像劣化評価値を算出してもよい。   In addition, the method of estimating the magnitude of blur or blur from a single image in the evaluation value calculation unit 150 is not limited to the above-described method. For example, assuming that the spread of blur and blur is spread in a Gaussian distribution, the blur distribution is obtained from the standard deviation obtained when fitting the luminance distribution of the edge portion where the blur and blur occurs to the Gaussian function using the least squares method. -The magnitude of blur may be obtained. In this embodiment, the image deterioration evaluation value is calculated for each edge feature. However, the present invention is not limited to this. For example, a two-dimensional image may be divided into rectangular partial areas, and an image deterioration evaluation value may be calculated for each partial area.

また、正確度算出部160において、式[数8]を用いて正確度を算出したが、正確度の算出方法はこれに限られるものではない。正確度を算出する関数は、画像劣化評価値と画像劣化予測値との差が大きいときには正確度を小さく、画像劣化評価値と画像劣化予測値との差が小さいときには正確度を大きく算出するような関数であればよい。たとえば、例えばガウス関数、Tukeyの関数、Huberの関数などを利用することもできる。   In addition, although the accuracy calculation unit 160 calculates the accuracy using Expression [8], the method of calculating the accuracy is not limited to this. The function for calculating the accuracy is such that when the difference between the image deterioration evaluation value and the image deterioration prediction value is large, the accuracy is small, and when the difference between the image deterioration evaluation value and the image deterioration prediction value is small, the accuracy is calculated to be large. Function. For example, a Gaussian function, a Tukey function, a Huber function, or the like can be used.

また、照合部170において、正確度の一番高い局所線特徴とエッジ特徴のペアを照合したが、これに限られるものではない。算出された正確度の大きいペアが優先して選択されればよく、たとえば、正確度が一番高かったペアを選択したとしても、正確度がある閾値以下であれば照合に利用しないようにしてもよい。同様に、局所線特徴とエッジ特徴のペアが1つしか検出されなかった場合でも、その正確度が閾値以下であれば、当該ペアを照合に利用しないようにしてもよい。さらに、本実施形態において照合部170は、被測定物体の位置及び姿勢を取得したがこれに限るものではない。例えば、事前に複数の位置・向きで2次元画像上における局所線特徴の位置を保持しておき、パターンマッチングによって局所線特徴とエッジ特徴を照合し、概略の位置・向きを同定する、あるいは物体の種類を特定してもよい。   In addition, the matching unit 170 matches the pair of the local line feature and the edge feature with the highest accuracy, but the present invention is not limited to this. It is sufficient that a pair with the calculated accuracy is selected with priority.For example, even if the pair with the highest accuracy is selected, if the accuracy is below a certain threshold, it is not used for matching. Is also good. Similarly, even when only one pair of the local line feature and the edge feature is detected, if the accuracy is equal to or less than the threshold value, the pair may not be used for matching. Furthermore, in the present embodiment, the collation unit 170 acquires the position and orientation of the measured object, but the present invention is not limited to this. For example, the positions of local line features on a two-dimensional image are held in advance in a plurality of positions and orientations, and the local line features and edge features are collated by pattern matching to roughly identify the position and orientation, or May be specified.

また、ステップS302、ステップS501、ステップS801では、被測定物体のモデルの位置および姿勢の概略値として、物体の置かれているおおよその位置や姿勢の値が与えられた。しかしながら概略の位置および姿勢の入力方法はこれに限るものではない。たとえば、前回(前時刻)の計測で得られた計測値を概略の位置及び姿勢として用いてもよい。また、過去の位置及び姿勢の計測をもとに物体の速度や角速度を時系列フィルタにより推定し、過去の位置及び姿勢と推定された速度・加速度から現在の位置及び姿勢を予測して、概略の位置及び姿勢として用いてもよい。また、他のセンサを用いた物体の位置及び姿勢の計測が可能である場合には、該センサによる出力値を位置及び姿勢の概略値として用いてもよい。たとえば、トランスミッタが発する磁界を物体に装着するレシーバで検出することにより位置及び姿勢を計測する磁気式センサ、物体上に配置されたマーカをシーンに固定されたカメラによって撮影することにより位置及び姿勢を計測する光学式センサがあげられる。その他、6自由度の位置及び姿勢を計測するセンサであればいかなるセンサであってもよい。また、物体の置かれているおおよその位置や姿勢があらかじめわかっている場合に、その値を概略値として用いるようにしてもよい。   In steps S302, S501, and S801, the approximate position and orientation of the object are given as approximate values of the position and orientation of the model of the measured object. However, the method of inputting the approximate position and posture is not limited to this. For example, the measurement value obtained by the previous (previous time) measurement may be used as the approximate position and orientation. In addition, the speed and angular velocity of the object are estimated by a time-series filter based on the measurement of the past position and orientation, and the current position and orientation are estimated from the past position and orientation and the estimated speed / acceleration. May be used as the position and orientation of the image. If the position and orientation of the object can be measured using another sensor, the output values of the sensor may be used as approximate values of the position and orientation. For example, a magnetic sensor that measures the position and orientation by detecting the magnetic field generated by the transmitter with a receiver attached to the object, and the position and orientation by shooting a marker placed on the object with a camera fixed to the scene There is an optical sensor for measuring. In addition, any sensor may be used as long as it measures the position and orientation with six degrees of freedom. If the approximate position and orientation of the object is known in advance, the values may be used as approximate values.

以上述べたように第1実施形態では、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を算出し、モデル特徴と計測データ特徴の照合を行う方法について説明した。これにより、モデル特徴と計測データ特徴を正しく照合することが可能になる。   As described above, in the first embodiment, the accuracy of association is calculated from the magnitude of blur and blur of an image obtained from a two-dimensional image of the measured object, and the model feature is compared with the measurement data feature. Has been described. This makes it possible to correctly collate the model features with the measurement data features.

<変形例1>
第1実施形態では、照合部170において、正確度の高い局所線特徴とエッジ特徴のペアを選択し、照合していたが、これに限られるものではない。算出された正確度の高いペアが優先して照合処理に用いられれば良く、例えば、各局所線特徴とエッジ特徴の対応の正確度の大きさを、位置姿勢推定を行うときの各エッジ特徴毎の重みとして設定し、この重みづけに基づいて照合を行ってもよい。この重みづけの方法について説明する。まず式[数15]で算出される重み行列Wの対角成分にそれぞれの局所線特徴とエッジ特徴対応の正確度Tを与える。この重み行列Wを用いて式[数17]のように解くことにより、位置及び姿勢の補正値Δsを求め、位置及び姿勢の概略値を補正する。以上の方法により、算出された正確度の高いペアを優先して照合することができる。
<Modification 1>
In the first embodiment, the matching unit 170 selects and matches a pair of a local line feature and an edge feature with high accuracy. However, the present invention is not limited to this. The calculated high-precision pair may be preferentially used for the matching process.For example, the degree of accuracy of the correspondence between each local line feature and the edge feature is determined for each edge feature when performing position and orientation estimation. May be set as the weight, and the matching may be performed based on the weight. The weighting method will be described. First, the accuracy T of the correspondence between the local line feature and the edge feature is given to the diagonal components of the weight matrix W calculated by Expression [15]. Using the weight matrix W to solve the equation [Equation 17], the position and orientation correction value Δs is obtained, and the approximate values of the position and orientation are corrected. According to the above-described method, it is possible to preferentially collate the calculated high-accuracy pair.

なお、重み行列Wの対角成分に与える値として正確度Tそのものを与えていたが、これに限るものではない。正確度が高いペアは大きな重みを与え、正確度が低いペアには小さな重みを与える値であればなんでもよく、全ての正確度を正確度の最大値で割ったときの比を重みとして与えてもよい。   Although the accuracy T itself is given as a value to be given to the diagonal component of the weight matrix W, the present invention is not limited to this. Any pair that has a high degree of accuracy gives a large weight, and a pair that has a low degree of accuracy has a small weight.A ratio obtained by dividing all the degrees of accuracy by the maximum value of the degrees of accuracy is given as a weight. Is also good.

以上述べたように変形例1では、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を各データ特徴の重みとして設定し、局所線特徴とエッジ特徴の照合を行う方法について説明した。これにより、高精度に照合することが可能になる。   As described above, in the first modification, the accuracy of the association is set as the weight of each data feature from the magnitude of blur and blur of the image obtained from the two-dimensional image of the measured object, and the local line feature is set. The method of matching the edge feature with the edge feature has been described. Thereby, it is possible to perform the matching with high accuracy.

<第2実施形態>
第1実施形態では、モデルから2次元画像上で起きるボケ、ブレの大きさを予測し、2次元画像で得られる画像のボケ、ブレの大きさと比較して正確度を算出し、その正確度を局所線特徴との対応付けに利用する方法について説明した。第2実施形態では、予めボケ、ブレの大きさを算出した2次元画像から、各局所線特徴の画像劣化予測値を算出し、実測した画像のボケ、ブレの大きさと比較して対応の正確度を算出し、正確度が一番高い値を示した特徴同士を対応付けする。以下、第2実施形態について説明する。第2実施形態における情報処理装置の構成や位置及び姿勢の計測の処理手順は第1実施形態(図1、図3)と同様である。
<Second embodiment>
In the first embodiment, the magnitude of blur and blur occurring on a two-dimensional image is predicted from a model, and the accuracy is calculated by comparing the magnitude with the magnitude of blur and blur of an image obtained in the two-dimensional image. The method of using for the association with the local line feature has been described. In the second embodiment, an image deterioration prediction value of each local line feature is calculated from a two-dimensional image in which the magnitude of blur and blur is calculated in advance, and the calculated value is compared with the magnitude of blur and blur of an actually measured image to obtain a corresponding accurate value. The degree is calculated, and the features having the highest accuracy are associated with each other. Hereinafter, the second embodiment will be described. The configuration of the information processing apparatus and the processing procedure for measuring the position and orientation in the second embodiment are the same as those in the first embodiment (FIGS. 1 and 3).

第2実施形態では、ステップS302において、予測値算出部120は、以前(前時刻)に得られた2次元画像からボケの大きさおよびブレの大きさを推定する。2次元画像からのボケ・ブレの大きさの推定方法は、第1実施形態の評価値算出部150によるエッジ特徴部分のボケ・ブレの大きさの推定方法と同様である。但し、エッジ特徴部分の代わりにモデル特徴の投影位置においてボケ・ブレの大きさが計測される。たとえば、予測値算出部120は、前回に得られた2次元画像に、被測定物体の概略の位置姿勢を用いてその形状モデル(たとえば局所線特徴)を投影する。そして、その投影位置についてステップS601、S602で説明した方法で画像劣化評価値を算出し、これを画像劣化予測値とする。したがって予測値算出部120により得られた局所線特徴の画像劣化予測値σは、2次元画像上に形状モデルを投影したときの、モデル特徴(たとえば局所線特徴)の座標位置におけるボケ、ブレの大きさである。 In the second embodiment, in step S302, the predicted value calculation unit 120 estimates the size of blur and the size of blur from a two-dimensional image obtained before (previous time). The method of estimating the magnitude of blur and blur from the two-dimensional image is the same as the method of estimating the magnitude of blur and blur of the edge feature portion by the evaluation value calculation unit 150 of the first embodiment. However, the magnitude of blur / blur is measured at the projection position of the model feature instead of the edge feature portion. For example, the predicted value calculation unit 120 projects a shape model (for example, a local line feature) of the measured object on the two-dimensional image obtained last time using the approximate position and orientation of the measured object. Then, an image deterioration evaluation value is calculated for the projection position by the method described in steps S601 and S602, and this is set as an image deterioration prediction value. Therefore, the predicted image degradation value σ 1 of the local line feature obtained by the predicted value calculation unit 120 is determined by blurring or blurring at the coordinate position of the model feature (for example, the local line feature) when the shape model is projected on the two-dimensional image. Is the size of

正確度算出部160は、ステップS302で予測値算出部120により得られた画像劣化予測値と、ステップS305で評価値算出部150により得られた画像劣化評価値とから、探索部140が検索したエッジ特徴のそれぞれについて正確度を算出する。なお、探索部140が探索したエッジ特徴とは、被測定物体のモデルの局所線特徴の対応の候補であり、仮説としてメモリに記憶されている(ステップS304)。正確度Tは、モデル中の局所線特徴と対応する仮説として保持した2次元画像上のエッジ特徴の画像劣化評価値σとモデル中の局所線特徴の画像劣化予測値σを用いて、以下の式[数19]にしたがって算出される。なお、2次元画像中のエッジ特徴とモデル中の局所線特徴との対応付けの仮説が複数検出された場合には、候補に挙がったすべてのエッジに対して、以下の式[数19]を用いて正確度Tが算出される。

Figure 0006626338
The accuracy calculating section 160 is searched by the searching section 140 from the image deterioration predicted value obtained by the predicted value calculating section 120 in step S302 and the image deterioration evaluation value obtained by the evaluation value calculating section 150 in step S305. The accuracy is calculated for each of the edge features. The edge feature searched by the search unit 140 is a candidate for the correspondence of the local line feature of the model of the measured object, and is stored in the memory as a hypothesis (Step S304). The accuracy T is calculated using the image degradation evaluation value σ of the edge feature on the two-dimensional image held as a hypothesis corresponding to the local line feature in the model and the predicted image degradation value σ 1 of the local line feature in the model as follows. Is calculated according to the equation [Equation 19]. When a plurality of hypotheses for associating the edge features in the two-dimensional image with the local line features in the model are detected, the following equation [Equation 19] is applied to all the edges listed as candidates. Is used to calculate the accuracy T.
Figure 0006626338

以上述べたように、第2実施形態では、事前に計測した2次元画像を用いてボケやブレの大きさを算出し、ボケやブレの大きさが近い特徴同士の対応の正確度を高くすることによって対応付けを行う。これにより、特徴同士の照合を正しく行うことが可能になる。   As described above, in the second embodiment, the magnitude of blur or blur is calculated using a two-dimensional image measured in advance, and the accuracy of correspondence between features with similar magnitudes of blur or blur is increased. By doing so, the association is performed. As a result, it is possible to correctly perform matching between the features.

なお、第2実施形態における予測値算出部120では、前回(前時刻)に得られた2次元画像から、ボケの大きさおよびブレの大きさを推定したがそれに限るものではない。被測定物体の代わりに、それを模擬できる物体(以下、模擬物体)を撮影した2次元画像を「前回に得られた2次元画像」として用いてもよい。また、事前に複数の位置・姿勢で被測定物体もしくは模擬物体を撮影した2次元画像上で検出したボケの大きさおよびブレの大きさをテーブル化しておき、このテーブルを参照するようにしてもよい。すなわち、予測値算出部120は、このテーブルを参照することにより、被測定物体の概略の位置及び姿勢に対応するボケ・ブレの大きさを画像劣化予測値として取得してもよい。このほか、実写の2次元画像の代わりに、形状モデルを2次元に投影して作成したCG画像を用いて画像劣化予測値を得るようにしてもよい。このようなCG画像上でボケ・ブレの現象をシミュレートするに当たっては、公知の手法、例えば非特許文献3に開示されている方法を用いることができる。   Note that the predicted value calculation unit 120 in the second embodiment estimates the magnitude of blur and the magnitude of blurring from the two-dimensional image obtained last time (previous time), but the present invention is not limited to this. Instead of the measured object, a two-dimensional image obtained by photographing an object capable of simulating the object (hereinafter, a simulated object) may be used as the “two-dimensional image obtained last time”. In addition, the size of blur and the size of blur detected on a two-dimensional image obtained by photographing the measured object or the simulated object at a plurality of positions / postures may be tabulated in advance, and this table may be referred to. Good. That is, the predicted value calculating unit 120 may obtain the blur / blur magnitude corresponding to the approximate position and orientation of the measured object as the image deterioration predicted value by referring to this table. In addition, an image deterioration prediction value may be obtained using a CG image created by projecting a shape model two-dimensionally, instead of a two-dimensional image of a real photograph. In simulating the blurring and blurring phenomenon on such a CG image, a known method, for example, a method disclosed in Non-Patent Document 3 can be used.

以上のように、第2実施形態の方法を用いることで、事前に計測した2次元画像や作成したCG画像を用いてボケやブレの大きさから対応付けの正確度を算出することによって、モデル特徴と計測データ特徴の正しく照合することが可能になる。   As described above, by using the method of the second embodiment, the accuracy of association is calculated from the magnitude of blur or blur using a two-dimensional image measured in advance or a created CG image. The feature and the measurement data feature can be correctly collated.

<第3実施形態>
第1および第2実施形態においては、2次元画像で生じるであろう画像のボケ、ブレの大きさを画像劣化予測値(σ、σ)として推定し、2次元画像で得られたエッジ特徴とモデルの局所線特徴との対応付けの選択に利用した。第3実施形態では、実測した3次元計測点(以下、3次元点と記載する)とモデルの面特徴との対応付けに画像劣化予測値を利用する。第3実施形態では、局所面特徴の2次元画像上でのボケやブレの大きさと、実測した3次元点の3次元位置を2次元画像上に投影したときの2次元画像上のボケやブレの大きさとが近い特徴の対応について高い正確度を付与し、対応付けの選択を行う。
<Third embodiment>
In the first and second embodiments, the magnitude of blurring and blurring of an image that may occur in a two-dimensional image is estimated as an image deterioration prediction value (σ 0 , σ 1 ), and an edge obtained in the two-dimensional image is obtained. It was used to select the correspondence between the features and the local line features of the model. In the third embodiment, the predicted image deterioration value is used for associating the actually measured three-dimensional measurement points (hereinafter, referred to as three-dimensional points) with the surface features of the model. In the third embodiment, the size of blur or blur on the two-dimensional image of the local surface feature and the blur or blur on the two-dimensional image when the measured three-dimensional position of the three-dimensional point is projected on the two-dimensional image. A high degree of accuracy is given to the correspondence of a feature having a size close to the size of, and the correspondence is selected.

図10は第3実施形態における情報処理装置3の機能構成例を表した図である。なお、情報処理装置3のハードウエア構成は、図1(a)と同様である。情報処理装置3は、情報処理装置1の構成に加えて、3次元点入力部210と位置算出部220を有する。また、図10に示す構成は、本発明の情報処理装置の適用例となる構成である。図10に示される各機能は、CPU101がROM102に記憶されているプログラム、および/または、外部記憶装置105からRAM103に展開されたプログラムを実行することにより実現される。なお、各機能部の一部またはすべてを専用のハードウエアで実現してもよいことは明らかである。   FIG. 10 is a diagram illustrating an example of a functional configuration of the information processing device 3 according to the third embodiment. Note that the hardware configuration of the information processing device 3 is the same as that in FIG. The information processing device 3 includes a three-dimensional point input unit 210 and a position calculation unit 220 in addition to the configuration of the information processing device 1. The configuration illustrated in FIG. 10 is a configuration that is an application example of the information processing apparatus of the present invention. Each function shown in FIG. 10 is realized by CPU 101 executing a program stored in ROM 102 and / or a program loaded from external storage device 105 to RAM 103. It is apparent that some or all of the functional units may be realized by dedicated hardware.

3次元点入力部210は、被測定物体表面の点群の3次元座標を取得する。第3実施形態では、予め距離センサを用いて取得された3次元点群の3次元座標を外部に記憶された記憶装置から取得するものとするが、これに限られるものではない。たとえば、距離センサ(たとえば3次元計測装置)を用いて取得した3次元点群が入力されてもよい。   The three-dimensional point input unit 210 acquires three-dimensional coordinates of a point group on the surface of the measured object. In the third embodiment, the three-dimensional coordinates of the three-dimensional point group previously obtained using the distance sensor are obtained from a storage device stored externally, but the present invention is not limited to this. For example, a three-dimensional point group acquired using a distance sensor (for example, a three-dimensional measuring device) may be input.

位置算出部220は、3次元点入力部210で入力された点群の3次元座標を2次元画像上に投影したときの2次元画像位置を算出する。3次元座標の2次元画像位置は、2次元画像を撮影した撮像装置の内部パラメータ、および該撮像装置と3次元点を測定するのに用いた距離センサとの相対的な位置及び姿勢とから算出される。なお、距離センサと撮像装置は相互に固定されており、両者の相対的な位置及び姿勢は変化しないと仮定し、事前にキャリブレーションしておく。例えば3次元形状が既知であるキャリブレーション物体を様々な方向から観察し、2次元画像に基づいたキャリブレーション物体の位置及び姿勢と、距離画像に基づいたキャリブレーション物体の位置及び姿勢の差をもとに、距離センサと撮像装置の相対的な位置及び姿勢を求めておく。   The position calculation unit 220 calculates a two-dimensional image position when the three-dimensional coordinates of the point group input by the three-dimensional point input unit 210 are projected on a two-dimensional image. The two-dimensional image position of the three-dimensional coordinates is calculated from the internal parameters of the imaging device that captured the two-dimensional image and the relative position and orientation of the imaging device and the distance sensor used to measure the three-dimensional point. Is done. Note that the distance sensor and the imaging device are fixed to each other, and it is assumed that the relative position and posture of the two do not change, and calibration is performed in advance. For example, a calibration object having a known three-dimensional shape is observed from various directions, and the difference between the position and orientation of the calibration object based on the two-dimensional image and the position and orientation of the calibration object based on the distance image is also determined. At this time, the relative position and orientation of the distance sensor and the imaging device are obtained.

なお、第3実施形態におけるモデル入力部110で入力されるモデルは、図2(b)に示すような、3次元位置と3次元法線方向から構成される物体表面上の局所的な3次元平面情報(以後、局所面特徴と称する)によって構成されるものとする。予測値算出部120は、第1実施形態と同様の方法で局所面特徴の劣化予測値σを算出する。 Note that the model input by the model input unit 110 in the third embodiment is a local three-dimensional object on the object surface composed of a three-dimensional position and a three-dimensional normal direction, as shown in FIG. It is assumed that the information is constituted by plane information (hereinafter, referred to as a local plane feature). The predicted value calculation unit 120 calculates the predicted deterioration value σ 0 of the local surface feature by the same method as in the first embodiment.

探索部140は、画像入力部130が入力した2次元画像と3次元点入力部210が入力した3次元点とモデル入力部110が入力した形状モデルの局所面特徴との対応を検出する。局所面特徴と3次元点との対応付けにおいては、モデル入力部110で入力された被測定物体のモデルを構成するすべての局所面特徴の位置及び姿勢の概略値に基づいて局所面特徴の近傍の3次元点を検出する。近傍に3次元点が複数存在する場合には検出される3次元点のすべてを仮説として保持する。   The search unit 140 detects a correspondence between the two-dimensional image input by the image input unit 130, the three-dimensional point input by the three-dimensional point input unit 210, and the local surface feature of the shape model input by the model input unit 110. In associating the local surface features with the three-dimensional points, the local surface features are approximated based on the approximate values of the positions and orientations of all the local surface features constituting the model of the measured object input by the model input unit 110. Are detected. When there are a plurality of three-dimensional points in the vicinity, all detected three-dimensional points are held as hypotheses.

評価値算出部150は、位置算出部220が算出した3次元点のそれぞれの2次元画像上の位置におけるボケ・ブレの大きさを画像劣化評価値σとして算出する。画像劣化評価値σの算出方法は第1実施形態と同様である。正確度算出部160は、予測値算出部120で得られた画像劣化予測値σと、評価値算出部150で得られた画像劣化評価値σから、モデルの局所面特徴と対応付けの仮説として保持したそれぞれの3次元点特徴について対応の正確度Tを算出する。正確度Tの算出方法は第1実施形態と同様である。 The evaluation value calculation unit 150 calculates, as the image deterioration evaluation value σ, the magnitude of blur or blur at the position on each two-dimensional image of the three-dimensional point calculated by the position calculation unit 220. The method of calculating the image deterioration evaluation value σ is the same as in the first embodiment. The accuracy calculation unit 160 calculates a hypothesis of association with a local surface feature of the model from the predicted image deterioration value σ 0 obtained by the predicted value calculation unit 120 and the image deterioration evaluation value σ obtained by the evaluation value calculation unit 150. The corresponding accuracy T is calculated for each of the three-dimensional point features held as. The method of calculating the accuracy T is the same as in the first embodiment.

第3実施形態における照合部170は、正確度算出部160で算出した正確度Tに基づいて、被測定物体のモデル中の各局所面特徴に対応する3次元点のうち照合に使用する3次元点を選択する。ここでは、正確度Tの一番高い局所面特徴と3次元点のペアが選択されるものとするがこれに限られるものではない。たとえば、正確度Tが一番高かったペアを選択したとしても、その正確度Tがある閾値以下であれば照合に利用しないようにしてもよい。同様に、局所面特徴と3次元点のペアが1つしか検出されなかった場合でも、その正確度が閾値以下であれば、当該ペアを照合に利用しないようにしてもよい。そして、照合部170は、選択された3次元点とを用いて、被測定物体の位置及び姿勢を算出する。照合部170による位置姿勢の算出方法は第1実施形態と同様の方法を用いることができる。   The matching unit 170 according to the third embodiment uses the three-dimensional points used for matching among the three-dimensional points corresponding to each local surface feature in the model of the measured object based on the accuracy T calculated by the accuracy calculating unit 160. Select a point. Here, it is assumed that the pair of the local surface feature and the three-dimensional point having the highest accuracy T is selected, but the present invention is not limited to this. For example, even if the pair with the highest accuracy T is selected, if the accuracy T is equal to or smaller than a certain threshold, the pair may not be used for comparison. Similarly, even when only one pair of the local surface feature and the three-dimensional point is detected, if the accuracy is equal to or less than the threshold, the pair may not be used for matching. Then, the matching unit 170 calculates the position and orientation of the measured object using the selected three-dimensional points. As the method of calculating the position and orientation by the matching unit 170, the same method as in the first embodiment can be used.

なお、本実施形態における3次元点の計測に用いる距離センサとしては、対象に照射したレーザ光の反射光をカメラで撮影し、三角測量により距離を計測するアクティブ式のものを利用する。しかしながら、距離センサはこれに限るものではなく、光の飛行時間を利用するTime-of-flight方式であってもよい。これらのアクティブ式の距離センサは、表面のテクスチャが少ない物体が対象であるとき好適である。また、ステレオカメラが撮影する画像から三角測量によって各画素の奥行きを計算するパッシブ式であってもよい。パッシブ式の距離センサは、表面のテクスチャが十分ある物体を対象とする場合に好適である。その他、3次元点を計測するものであればいかなるものであっても本発明の本質を損なうものではない。   Note that as a distance sensor used for measuring a three-dimensional point in the present embodiment, an active sensor that captures reflected light of laser light applied to an object with a camera and measures the distance by triangulation is used. However, the distance sensor is not limited to this, and may be a time-of-flight system that uses the time of flight of light. These active distance sensors are suitable when an object having a small surface texture is targeted. In addition, a passive type that calculates the depth of each pixel by triangulation from an image captured by a stereo camera may be used. The passive distance sensor is suitable for an object having a sufficient surface texture. In addition, any measurement of three-dimensional points does not impair the essence of the present invention.

以上述べたように第3実施形態では、局所面特徴の2次元画像上でのボケやブレの大きさと、実測した3次元点の3次元位置を2次元画像上に投影したときの2次元画像上のボケやブレの大きさとが近い特徴の対応について高い正確度を付与し、モデル特徴と3次元計測点の照合を行う方法について説明した。これにより、モデル特徴と3次元計測点を正しく照合することが可能になる。   As described above, in the third embodiment, the size of blur or blur on the two-dimensional image of the local surface feature, and the two-dimensional image obtained by projecting the three-dimensional position of the actually measured three-dimensional point on the two-dimensional image A method has been described in which a high degree of accuracy is given to the correspondence of a feature close to the size of the above-described blur or blur, and the model feature is compared with a three-dimensional measurement point. This makes it possible to correctly collate the model feature with the three-dimensional measurement point.

<変形例2>
第3実施形態では、照合部170において、正確度の高い局所面特徴と3次元点のペアを選択し、照合していたが、これに限られるものではない。各局所面特徴と3元点の対応の正確度を、位置姿勢推定を行う時の3次元点毎の重みとして設定するようにしてもよい。たとえば、変形例1と同様に、正確度の高さを各3次元点毎の重みとして設定し、この重みづけに基づいて照合を行ってもよい。この重みづけの方法については変形例1と同様に式[数15]で算出される重み行列Wの対角成分にそれぞれの局所面特徴と3次元点の対応の正確度Tを与える。この重み行列Wを用いて式[数17]のように解くことにより、位置及び姿勢の補正値Δsを求め、位置及び姿勢の概略値を補正する。以上の方法により、算出された正確度の高いペアを優先して照合することができる。
<Modification 2>
In the third embodiment, the matching unit 170 selects and matches a pair of a local surface feature and a three-dimensional point with high accuracy. However, the present invention is not limited to this. The accuracy of the correspondence between each local surface feature and the ternary point may be set as a weight for each three-dimensional point when estimating the position and orientation. For example, similarly to the first modification, the degree of accuracy may be set as a weight for each three-dimensional point, and matching may be performed based on the weight. As for the weighting method, the accuracy T of the correspondence between the local surface features and the three-dimensional points is given to the diagonal components of the weight matrix W calculated by the equation [Equation 15] as in the first modification. Using the weight matrix W to solve the equation [Equation 17], the position and orientation correction value Δs is obtained, and the approximate values of the position and orientation are corrected. According to the above-described method, it is possible to preferentially collate the calculated high-accuracy pair.

なお、重み行列Wの対角成分に与える値として正確度Tそのものを与えていたが、変形例1と同様にこれに限るものではない。正確度が高いペアは大きな重みを与え、正確度が低いペアには小さな重みを与える値であればなんでもよい。   Although the accuracy T itself is given as a value given to the diagonal component of the weight matrix W, the value is not limited to this as in the first modification. Any pair may be used as long as a high accuracy pair gives a large weight and a low accuracy pair gives a small weight.

以上述べたように変形例2では、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を各データ特徴の重みとして設定し、局所面特徴と3次元点の照合を行う方法について説明した。これにより、高精度に照合することが可能になる。   As described above, in the second modification, the accuracy of the association is set as the weight of each data feature based on the magnitude of blur and blur of the image obtained from the two-dimensional image of the measured object, and the local surface feature is set. The method of performing the matching of the three-dimensional points with the above has been described. Thereby, it is possible to perform the matching with high accuracy.

<変形例3>
第3実施形態における、ステップS504で行うブレの大きさの算出方法は以下のような方法でもよい。ブレの大きさとして露光時間中における各局所面特徴の3次元空間中の移動量を用いる。具体的には、形状モデルの概略位置姿勢sに基づき各局所面特徴のヤコビアンを算出し、各局所面特徴のヤコビアンとステップS502で入力した撮像装置と被測定物体との相対的な移動方向・速度から各局所面特徴のブレの大きさを算出する。
<Modification 3>
In the third embodiment, the method of calculating the magnitude of blur performed in step S504 may be the following method. The amount of movement of each local surface feature in the three-dimensional space during the exposure time is used as the magnitude of the blur. Specifically, the Jacobian of each local surface feature is calculated based on the approximate position and orientation s of the shape model, and the relative movement direction of the Jacobian of each local surface feature and the input of the imaging device and the object to be measured input in step S502. The magnitude of the blur of each local surface feature is calculated from the speed.

局所面特徴のヤコビアンとは、位置姿勢6自由度のパラメータが微小に変化したときに、3次元空間中の局所面特徴が変化する割合を表す値である。被測定物体の概略位置姿勢sに基づいて、局所面特徴に対応する3次元点のブレ量を(dx、dy、dz)、局所面特徴の法線方向を(n、n、n)(単位ベクトル)と表すと、対応間の符号付距離err3Dは以下の式[数20]より算出できる。

Figure 0006626338
The Jacobian of the local surface feature is a value representing the rate of change of the local surface feature in the three-dimensional space when the parameter of the position and orientation 6 degrees of freedom changes minutely. Based on the approximate position and orientation s of the object to be measured, a blur amount of the three-dimensional point corresponding to the local surface characteristics (dx, dy, dz), the normal direction of the local surface characteristics (n x, n y, n z ) (Unit vector), the signed distance err 3D between the correspondences can be calculated from the following equation [Equation 20].
Figure 0006626338

そして、局所線特徴のヤコビアンと同様に位置及び姿勢sの各パラメータで、対応間距離err3Dを偏微分することによって、以下の式[数21]のように局所面特徴のヤコビアン行列を算出する。

Figure 0006626338
Then, similarly to the Jacobian of the local line feature, the Jacobian matrix of the local surface feature is calculated by partial differentiation of the correspondence distance err 3D with each parameter of the position and the posture s as in the following [Equation 21]. .
Figure 0006626338

以上のようにしてステップS502で選択された投影局所線特徴のヤコビアンが計算される。この投影局所線特徴のヤコビアンを用いて、2次元画像の露光時間t中に対象物体が相対位置姿勢速度Vで動くことによって発生する、局所面特徴3次元点との間の距離変化Bは、以下の式[数22]により計算できる。

Figure 0006626338
Bはスカラーであり、露光時間中に三次元空間中の局所面特徴の3次元位置が移動する量を表す。以上の処理を全ての局所面特徴に対して行い、全ての局所面特徴に対してブレ量を算出する。 As described above, the Jacobian of the projected local line feature selected in step S502 is calculated. Using Jacobian of the projection local line feature, the object during the exposure time t i of the 2-dimensional image is generated by moving a relative position and orientation velocity V, the distance change B between the three-dimensional point local areal feature , Can be calculated by the following equation [Equation 22].
Figure 0006626338
B is a scalar and represents an amount by which the three-dimensional position of the local surface feature in the three-dimensional space moves during the exposure time. The above processing is performed for all local surface features, and the blur amount is calculated for all local surface features.

以上述べたように変形例3では、局所面特徴の3次元空間中での移動量からブレの大きさを算出する方法について述べた。この方法を用いることにより、正確にモデル特徴のブレ量の予測値を得ることが可能になる。   As described above, in the third modification, the method of calculating the magnitude of the blur from the moving amount of the local surface feature in the three-dimensional space has been described. By using this method, it is possible to accurately obtain the predicted value of the blur amount of the model feature.

<変形例4>
第3の実施形態におけるステップS803で行う、位置及び姿勢を算出するための係数行列と誤差ベクトルの算出方法は以下のような方法でもよい。
<Modification 4>
The method of calculating the coefficient matrix and the error vector for calculating the position and orientation performed in step S803 in the third embodiment may be the following method.

カメラ座標で表される点群の3次元座標は、計測対象物体の位置及び姿勢sを用いて計測対象物体の座標系における3次元座標(x,y,z)に変換される。概略の位置及び姿勢によって、点群データ中のある点が計測対象物体座標(x0,y0,z0)に変換されるとする。(x,y,z)は計測対象物体の位置及び姿勢により変化するものであり、(x0,y0,z0)の近傍で1次のテイラー展開によって式[数23]のように近似できる。

Figure 0006626338
The three-dimensional coordinates of the point group represented by the camera coordinates are converted into three-dimensional coordinates (x, y, z) in the coordinate system of the measurement target object using the position and orientation s of the measurement target object. It is assumed that a certain point in the point cloud data is converted into the coordinates of the object to be measured (x 0 , y 0 , z 0 ) based on the approximate position and orientation. (X, y, z) varies depending on the position and orientation of the measurement target object, and is approximated by Equation (23) by a first-order Taylor expansion near (x 0 , y 0 , z 0 ). it can.
Figure 0006626338

点群データ中のある点に対応付けられた局所面特徴の、計測対象物体座標系における方程式をax+by+cz=e(a2+b2+c2=1、a,b,c,eは定数)とする。正しいsによって変換される(x,y,z)は、平面の方程式ax+by+cz=eを満たすと仮定する。式[数23]を平面の方程式に代入すると、式[数24]が得られる。 The equation of the local surface feature associated with a certain point in the point cloud data in the coordinate system of the object to be measured is expressed as ax + by + cz = e (a 2 + b 2 + c 2 = 1, a, b, c, e is a constant). Assume that (x, y, z) transformed by the correct s satisfies the plane equation ax + by + cz = e. By substituting equation [23] into the plane equation, equation [24] is obtained.

Figure 0006626338
式[数24]はsの各成分の微小変化Δsi(i=1,2,・・・,6)についての方程式であるため、式[数25]のようなΔsiに関する線形連立方程式を立てることができる。
Figure 0006626338
Figure 0006626338
Since Equation [24] is an equation for a small change Δsi (i = 1, 2,..., 6) of each component of s, it is necessary to formulate a linear simultaneous equation for Δsi as Equation [25]. Can be.
Figure 0006626338

ここで式[数25]を式[数13]のように表す。この係数行列Jと誤差ベクトルEを用いて第1、2の実施形態と同様の方法で位置及び姿勢を算出する。以上の変形例3の方法を用いることにより、より正確に計測物体の位置及び姿勢を算出することができる。   Here, Expression [Expression 25] is represented as Expression [Expression 13]. Using the coefficient matrix J and the error vector E, the position and orientation are calculated in the same manner as in the first and second embodiments. By using the method of the third modification, the position and orientation of the measurement object can be calculated more accurately.

<第4実施形態>
第1および第2実施形態では局所線特徴とエッジ特徴の対応のみから、第3実施形態では局所面特徴と3次元点の対応のみから、モデル特徴と計測データ特徴の照合を行ったがこれに限られるものではない。局所線特徴とエッジ特徴の対応および局所面特徴と3次元点の対応の、両方の対応を用いて照合してもよい。本実施形態の方法によって、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を算出することによって、実測したエッジ特徴と局所線特徴、および3次元点と局所面特徴との両方を正しく照合することが可能になる。
<Fourth embodiment>
In the first and second embodiments, the model feature and the measurement data feature are compared only from the correspondence between the local line feature and the edge feature, and in the third embodiment, only from the correspondence between the local surface feature and the three-dimensional point. It is not limited. The matching may be performed using both the correspondence between the local line feature and the edge feature and the correspondence between the local surface feature and the three-dimensional point. According to the method of the present embodiment, the accuracy of the association is calculated from the magnitude of blur and blur of the image obtained from the two-dimensional image obtained by capturing the measured object, so that the actually measured edge features and local line features, and It is possible to correctly match both the three-dimensional point and the local surface feature.

第4の実施形態における情報処理装置の構成は、第1、2および3の実施形態における構成と同様である。第4の実施形態における照合部170は、正確度算出部160で算出した、エッジ特徴と局所線特徴との対応の正確度および、3次元点と局所面特徴と対応の正確度に基づいて、
・被測定物体のモデル中の各局所線特徴および局所面特徴に対応するエッジ特徴、
・3次元点のうち照合に使用するエッジ特徴、および3次元点、を選択する。続いて選択した対応に基づいて、位置及び姿勢を算出するための係数行列と誤差ベクトルの算出を行う。本実施形態においては、エッジ特徴と3次元点を併用して位置及び姿勢を求めるために、式[数12]と式[数25]を合わせて、式[数26]のようなΔsに関する線形連立方程式を立てることができる。

Figure 0006626338
The configuration of the information processing apparatus according to the fourth embodiment is the same as the configuration according to the first, second, and third embodiments. The matching unit 170 in the fourth embodiment calculates the accuracy of the correspondence between the edge feature and the local line feature and the accuracy of the correspondence between the three-dimensional point and the local surface feature, which are calculated by the accuracy calculation unit 160.
An edge feature corresponding to each local line feature and local surface feature in the model of the measured object;
Select an edge feature and a three-dimensional point to be used for matching from among the three-dimensional points. Subsequently, based on the selected correspondence, a coefficient matrix and an error vector for calculating the position and orientation are calculated. In the present embodiment, in order to determine the position and orientation in combination an edge feature and a three-dimensional point, the equation [Expression 12] The combined equation [Equation 25], relates Delta] s i of Equation [Expression 26] A linear simultaneous equation can be established.
Figure 0006626338

ここで式[数26]を式[数13]のように表す。この係数行列Jと誤差ベクトルEを用いて第1、2、3実施形態と同様の方法で位置及び姿勢を算出する。   Here, Equation [26] is represented as Equation [13]. Using the coefficient matrix J and the error vector E, the position and orientation are calculated in the same manner as in the first, second, and third embodiments.

またこれに限らず変形例1および2で述べたように、正確度の高さを各3次元点毎の重みとして設定し、この重みづけに基づいて照合を行ってもよい。正確度Tそのものを与えるだけでなく、変形例1、2と同様に正確度が高いペアには大きな重みを与え、正確度が低いペアには小さな重みを与える値であればなんでもよい。   Alternatively, as described in Modifications 1 and 2, the degree of accuracy may be set as a weight for each three-dimensional point, and matching may be performed based on the weight. Any value may be used as long as a value that gives not only the accuracy T itself but also a large weight to a pair with high accuracy and a small weight to a pair with low accuracy as in the first and second modifications.

以上述べた第4実施形態の方法を用いることで、局所線特徴とエッジ特徴の対応、および局所面特徴と3次元点の対応、両方を用いて照合することができる。本実施形態の方法によって、それぞれの対応で照合を行うよりもより正確にモデル特徴と計測データの照合を行うことが可能になる。   By using the method of the fourth embodiment described above, it is possible to perform matching using both the correspondence between local line features and edge features and the correspondence between local surface features and three-dimensional points. According to the method of the present embodiment, it is possible to perform more accurate matching between the model feature and the measurement data than performing matching in each correspondence.

<第5実施形態>
情報処理装置1、3の好適な適用例の一つについて、以下に説明する。すなわち、撮像装置より得られる2次元画像を基に被測定物体の位置姿勢を推定し、産業用ロボットアームによりその把持などを行う利用例があげられる。以下、図11を用いて、情報処理装置1,3のロボットシステムへの適用例を説明する。図11は、情報処理装置1、3による位置姿勢の推定結果に基づいてロボット60を用いて被測定物体40を把持するロボットシステムの構成例を示す図である。
<Fifth embodiment>
One preferred application example of the information processing apparatuses 1 and 3 will be described below. That is, there is a use example in which the position and orientation of the measured object are estimated based on the two-dimensional image obtained from the imaging device, and the industrial robot arm grips the object and the like. Hereinafter, an example in which the information processing apparatuses 1 and 3 are applied to a robot system will be described with reference to FIG. FIG. 11 is a diagram illustrating a configuration example of a robot system that grips the measured object 40 using the robot 60 based on the estimation result of the position and orientation by the information processing apparatuses 1 and 3.

ロボット60は、たとえば回転および/または並進移動軸からなる可動軸を有し、各可動軸はロボットコントローラ61により駆動制御される。たとえば、ロボット60は、ロボットコントローラ61により指令された位置に手先を移動させ、物体の把持などを行う。被測定物体40は、作業台に置かれる位置が変わるため、現在の被測定物体40の位置姿勢を推定し、ロボットの把持制御を行う必要がある。撮像装置20は、通常の2次元画像を撮影するカメラであり、産業用ロボットアームの手先等の被測定物体40を撮像できる位置に設置する。情報処理装置1、3は、撮像装置20から得られる2次元画像を基に被測定物体40の位置姿勢を推定する。情報処理装置1、3で推定された被測定物体40の位置姿勢は、ロボットコントローラ61に入力され、ロボットコントローラ61は入力された位置姿勢の推定結果に基づいて被測定物体40の把持などを行うようにロボットアームを制御する。   The robot 60 has a movable axis composed of, for example, a rotation and / or translation axis, and each movable axis is driven and controlled by a robot controller 61. For example, the robot 60 moves a hand to a position instructed by the robot controller 61 to grip an object or the like. Since the position of the measured object 40 on the workbench changes, it is necessary to estimate the current position and orientation of the measured object 40 and perform grip control of the robot. The imaging device 20 is a camera that captures a normal two-dimensional image, and is installed at a position where an object to be measured 40 such as a hand of an industrial robot arm can be imaged. The information processing devices 1 and 3 estimate the position and orientation of the measured object 40 based on the two-dimensional image obtained from the imaging device 20. The position and orientation of the measured object 40 estimated by the information processing devices 1 and 3 are input to the robot controller 61, and the robot controller 61 performs gripping of the measured object 40 based on the input estimation result of the position and orientation. To control the robot arm.

以上のように、第5実施形態のロボットシステムによれば、より正確に位置姿勢推定を行う情報処理装置1,3から被測定物体40の位置姿勢の推定結果を得ることができる。そのため、ロボット60は被測定物体40をより確実に把持することが可能である。   As described above, according to the robot system of the fifth embodiment, the estimation result of the position and orientation of the measured object 40 can be obtained from the information processing devices 1 and 3 that more accurately estimate the position and orientation. Therefore, the robot 60 can grip the measured object 40 more reliably.

<効果>
以上説明したように、第1実施形態によれば、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を算出することによって、モデル特徴と計測データ特徴を正しく照合することができる。また、第3実施形態によれば、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を算出することによって、実測した3次元点と3次元形状モデルの面特徴とを正しく照合することが可能になる。第4実施形態によれば、被測定物体が撮影された2次元画像で得られる画像のボケ、ブレの大きさから対応付けの正確度を算出することによって、2次元画像中のエッジ特徴と3次元形状モデルの線特徴、および実測した3次元点と3次元形状モデルの面特徴とを同時に正しく照合することが可能になる。また、第2実施形態によれば、過去に計測対象となった2次元画像や作成したCG画像を用いて事前に取得されたボケやブレの大きさから対応付けの正確度を算出することによって、モデル特徴と計測データ特徴の照合を正しく行うことが可能になる。さらに、第5実施形態によれば、被測定物体の位置姿勢を推定し、推定結果に基づいてロボットシステムが被測定物体の把持および移動が可能となる。
<Effect>
As described above, according to the first embodiment, the accuracy of the association is calculated from the magnitude of blur and blur of an image obtained from a two-dimensional image of the object to be measured. Measurement data features can be correctly collated. Further, according to the third embodiment, the accuracy of the association is calculated from the magnitude of blur and blur of the two-dimensional image obtained by capturing the measured object, so that the actually measured three-dimensional point and the three-dimensional point are calculated. It is possible to correctly collate with the surface feature of the dimensional shape model. According to the fourth embodiment, the accuracy of the association is calculated from the magnitude of blur and blur of the image obtained from the two-dimensional image obtained by capturing the object to be measured. The line features of the three-dimensional shape model and the actually measured three-dimensional points and the surface features of the three-dimensional shape model can be simultaneously and correctly collated. Further, according to the second embodiment, the accuracy of association is calculated from the magnitude of blur or blur acquired in advance using a two-dimensional image or a CG image that has been measured in the past. Thus, it is possible to correctly collate the model feature and the measurement data feature. Further, according to the fifth embodiment, the position and orientation of the measured object are estimated, and the robot system can grip and move the measured object based on the estimation result.

<定義>
なお、被測定物体の形状モデルとして入力する形状情報は、単純な2次元点の集合や、2次元ラインの集合など、また、単純な3次元点の集合や、稜線を表す3次元ラインの集合、3次元点3点で構成されるポリゴンの形状情報などで表しても良い。
<Definition>
The shape information input as the shape model of the object to be measured includes a set of simple two-dimensional points, a set of two-dimensional lines, a set of simple three-dimensional points, and a set of three-dimensional lines representing edges. Alternatively, it may be represented by shape information of a polygon composed of three three-dimensional points.

また、予測値算出部では、画像劣化予測値として、焦点外れによるボケの大きさと、画像平面上での平行移動によって生じるブレの大きさを、画像劣化予測値としたが、これに限るものではない。撮像装置と被測定物体の相対的な移動によって2次元画像が劣化する量を表すことが出来る値であれば良く、計算方法および表現に特に制限はない。例えば、被測定物体が撮影された2次元画像のエッジ特徴のブレの大きさを、3次元空間に逆投影して算出した3次元空間中における移動量として表しても良い。また、ボケの大きさやブレの大きさを基にして作成した点広がり関数(Point Spread Function:PSF)を画像劣化評価値としてもよい。また、ボケおよびブレの両方の影響を考慮した予測値以外に、どちらか片方のみの影響を考慮した予測値でもよい。   In the prediction value calculation unit, as the image deterioration prediction value, the magnitude of blur due to defocus and the size of blur caused by parallel movement on the image plane are set as the image deterioration prediction value. However, the present invention is not limited to this. Absent. Any value may be used as long as it can represent the amount of deterioration of the two-dimensional image due to relative movement between the imaging device and the measured object, and there is no particular limitation on the calculation method and expression. For example, the magnitude of the blurring of the edge feature of the two-dimensional image of the object to be measured may be represented as a movement amount in the three-dimensional space calculated by back-projecting the two-dimensional image into the three-dimensional space. Further, a point spread function (PSF) created based on the magnitude of blur or magnitude of blur may be used as the image deterioration evaluation value. Further, in addition to a predicted value that takes into account the effects of both blurring and blurring, a predicted value that takes into account only one of the effects may be used.

画像入力部で入力される被測定物体が撮影された2次元画像は、対象像が得られる限りどの方式でもよい。例えば、グレー画像であってもよいしカラー画像であってもよい。また本発明では予め撮影された2次元画像を入力したが、これに限るものではない。撮像装置を用いて撮影された結果を入力してもよい。探索部140で検出する対応の候補となる計測データ特徴としては、エッジ特徴でもよいし、点特徴など2次元画像上の位置を特定できる特徴であればどのような特徴であってもよい。また、特定種類の特徴のみ用いるのではなく、複数種類の特徴(たとえば点とエッジ)とモデル特徴の対応を検出してもよい。   The two-dimensional image of the object to be measured captured by the image input unit may be of any type as long as a target image is obtained. For example, the image may be a gray image or a color image. In the present invention, a two-dimensional image captured in advance is input, but the present invention is not limited to this. You may input the result image | photographed using the imaging device. The measurement data feature that is a candidate for correspondence detected by the search unit 140 may be an edge feature or any feature such as a point feature that can specify a position on a two-dimensional image. Instead of using only a specific type of feature, a correspondence between a plurality of types of features (for example, points and edges) and a model feature may be detected.

評価値算出部は、例えば、2次元画像中のエッジと直交する方向に沿った画素の輝度変化に対して、ボケ・ブレが生じたときのエッジの輝度変化を表す関数の当てはめによって、エッジ特徴それぞれについて画像劣化評価値を算出する。ここで、輝度変化を表す関数として、式[数6]のような誤差関数に代えてガウス関数などを用いてもよい。また、上記実施形態では、制御点に対応する対応点や3次元点の投影位置といったように特徴単位で劣化評価値を算出したが、これに限られるものではない。たとえば、2次元画像を方形の部分領域に分け、部分領域ごとに劣化評価値を算出してもよい。   The evaluation value calculation unit calculates the edge feature by applying a function representing the brightness change of the edge when blurring and blurring occurs to the brightness change of the pixel along the direction orthogonal to the edge in the two-dimensional image. An image deterioration evaluation value is calculated for each of them. Here, as a function representing the luminance change, a Gaussian function or the like may be used instead of the error function as shown in Expression [6]. Further, in the above-described embodiment, the deterioration evaluation value is calculated for each feature such as the corresponding point corresponding to the control point and the projection position of the three-dimensional point. However, the present invention is not limited to this. For example, a two-dimensional image may be divided into rectangular partial areas, and a deterioration evaluation value may be calculated for each partial area.

正確度算出部における算出方法は、画像劣化評価値(σ)と画像劣化予測値(σ、σ)との差が大きいときには正確度を小さく、画像劣化評価値と画像劣化予測値との差が小さいときには正確度を大きく算出する方法であればよい。例えば、式[数8]に示したような算出方法の代わりにガウス関数、Tukeyの関数、Huberの関数などを用いて算出してもよい。 When the difference between the image deterioration evaluation value (σ) and the image deterioration prediction value (σ 0 , σ 1 ) is large, the accuracy is small. When the difference is small, any method may be used as long as the accuracy is calculated to be large. For example, the calculation may be performed using a Gaussian function, a Tukey function, a Huber function, or the like, instead of the calculation method as shown in Expression [8].

照合部は、正確度がある閾値以上のモデル特徴と画像特徴のペアを選択し、照合する。このときペアが1つしか検出されなかった場合も,閾値以下であれば照合に利用しなくてもよい。ただし、これに限るものではなく、正確度が高いペアを優先して照合処理に用いられるように重みづけを行ってもよい。このとき重みづけで与える値は、正確度が高いペアは大きな重みを与え、正確度が低いペアには小さな重みを与える値であればなんでもよい。また照合部は、被測定物体の位置及び姿勢を算出してもよいし、事前に複数の位置・向きでモデル特徴の位置を保持しておき、パターンマッチングによってモデル特徴と計測データ特徴を照合し、概略の位置・向きを同定、あるいは物体の種類を特定してもよい。   The matching unit selects a pair of a model feature and an image feature whose accuracy is equal to or greater than a certain threshold and performs matching. At this time, even when only one pair is detected, if the number is equal to or smaller than the threshold, the pair need not be used for the matching. However, the present invention is not limited to this, and weighting may be performed such that a pair having higher accuracy is preferentially used in the matching process. At this time, any value may be used as a value given by weighting as long as a pair with high accuracy is given a large weight and a pair with low accuracy is given a small weight. The matching unit may calculate the position and orientation of the measured object, or hold the positions of the model features in a plurality of positions and orientations in advance, and match the model features with the measurement data features by pattern matching. The approximate position and orientation may be identified, or the type of the object may be identified.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. It can also be realized by the following processing. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.

1,3:情報処理装置、110:モデル入力部、120:予測値算出部、130:画像入力部、140:探索部、150:評価値算出部、160:正確度算出部、170:照合部、210:3次元点入力部、220:位置算出部 1,3: Information processing device, 110: Model input unit, 120: Prediction value calculation unit, 130: Image input unit, 140: Search unit, 150: Evaluation value calculation unit, 160: Accuracy calculation unit, 170: Collation unit , 210: three-dimensional point input unit, 220: position calculation unit

Claims (18)

被測定物体の形状を表す形状モデルに基づいて、前記被測定物体を撮像手段により撮像した画像に生じる該被測定物体の画像劣化を予測する予測手段と、
前記被測定物体を前記撮像手段により撮像することにより得られた2次元画像について、前記形状モデルのモデル特徴に対応する計測データ特徴を探索する探索手段と、
前記探索手段で探索された計測データ特徴について前記2次元画像を用いて画像劣化を評価する評価手段と、
前記予測手段で予測した画像劣化と前記評価手段で評価した画像劣化に基づいて、前記モデル特徴と前記計測データ特徴の対応の正確度を算出する算出手段と、
前記モデル特徴と前記計測データ特徴の対応の正確度に基づいて、前記形状モデルと前記2次元画像中の被測定物体とを照合する照合手段と、を備えることを特徴とする情報処理装置。
Based on a shape model representing the shape of the measured object, a prediction unit that predicts image degradation of the measured object that occurs in an image of the measured object captured by an imaging unit,
Searching means for searching for a measurement data feature corresponding to a model feature of the shape model, for a two-dimensional image obtained by imaging the object to be measured by the imaging means;
Evaluation means for evaluating image deterioration using the two-dimensional image for the measurement data feature searched by the search means;
Calculation means for calculating the accuracy of the correspondence between the model feature and the measurement data feature based on the image deterioration estimated by the prediction means and the image deterioration evaluated by the evaluation means,
An information processing apparatus comprising: a matching unit configured to match the shape model with a measured object in the two-dimensional image based on the accuracy of the correspondence between the model feature and the measurement data feature.
前記画像劣化は、2次元画像のボケおよび/またはブレによる像の広がりに起因する画像劣化であることを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the image deterioration is image deterioration caused by an image spread due to blurring and / or blurring of a two-dimensional image. 前記評価手段は、前記2次元画像の前記計測データ特徴へ誤差関数をあてはめることにより前記画像劣化を評価することを特徴とする請求項1または2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the evaluation unit evaluates the image deterioration by applying an error function to the measurement data feature of the two-dimensional image. 前記予測手段は、前記形状モデル、与えられた前記被測定物体の位置および姿勢、前記被測定物体と前記撮像手段との相対位置姿勢の変化、および前記撮像手段の内部パラメータに基づいて、前記画像劣化を予測することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。   The prediction unit is configured to determine the image based on the shape model, a given position and orientation of the measured object, a change in a relative position and orientation between the measured object and the imaging unit, and internal parameters of the imaging unit. The information processing apparatus according to any one of claims 1 to 3, wherein deterioration is predicted. 前記予測手段は、前記被測定物体または前記被測定物体を模擬した物体を撮影することにより予め得られた画像に前記形状モデルを投影したときの、前記予め得られた画像のモデル特徴の座標位置における画像劣化を取得することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。   The predicting unit is configured to project the shape model onto an image obtained in advance by photographing the object to be measured or an object simulating the object to be measured, and the coordinate position of a model feature of the previously obtained image. The information processing apparatus according to any one of claims 1 to 4, wherein the image deterioration is obtained. 前記予測手段は、前記被測定物体の形状モデルを2次元に投影して作成したCG画像に基づいて画像劣化を取得することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。   The information according to any one of claims 1 to 5, wherein the prediction unit obtains image degradation based on a CG image created by projecting the shape model of the measured object two-dimensionally. Processing equipment. 前記算出手段は、前記予測手段で予測した画像劣化の度合いと前記評価手段が評価した画像劣化の度合いが近いほど高い値となるように前記正確度を算出することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。   4. The apparatus according to claim 1, wherein the calculating unit calculates the accuracy such that the closer the degree of image deterioration estimated by the predicting unit and the degree of image deterioration evaluated by the evaluating unit, the higher the value. 7. The information processing device according to any one of 6. 前記照合手段は、前記正確度に基づいて、前記モデル特徴と前記計測データ特徴の対応を選択すること、
を特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
The matching means selects a correspondence between the model feature and the measurement data feature based on the accuracy,
The information processing apparatus according to claim 1, wherein:
前記照合手段は、前記算出手段により算出された正確度の大きい対応を優先して選択することを特徴とする請求項8に記載の情報処理装置。   The information processing apparatus according to claim 8, wherein the matching unit preferentially selects a correspondence with a high degree of accuracy calculated by the calculation unit. 前記照合手段は、前記正確度に基づいて、前記計測データ特徴に関する重みを設定すること、を特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the matching unit sets a weight for the measurement data feature based on the accuracy. 前記照合手段は、前記被測定物体の3次元空間の位置および/または姿勢を算出する手段であることを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the matching unit is a unit that calculates a position and / or a posture of the measured object in a three-dimensional space. 前記撮像手段と、
前記撮像手段により前記被測定物体を撮像して前記2次元画像を取得する取得手段と、をさらに備えることを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。
Said imaging means;
The information processing apparatus according to claim 1, further comprising: an acquisition unit configured to acquire the two-dimensional image by imaging the object to be measured by the imaging unit.
被測定物体の形状を表す形状モデルに基づいて、前記被測定物体を撮像手段により撮像した画像に生じる該被測定物体の画像劣化を予測する予測手段と、
前記被測定物体の表面上の3次元計測点の3次元座標を取得する取得手段と、
前記撮像手段により撮像された2次元画像において、前記取得手段で取得された3次元座標に基づいて前記2次元画像に投影された点群の位置における画像劣化を評価する評価手段と、
前記3次元計測点と前記形状モデルのモデル特徴との対応を探索する探索手段と、
前記予測手段で予測した画像劣化と前記評価手段で評価した画像劣化に基づいて、前記モデル特徴と前記3次元計測点の対応の正確度を算出する算出手段と、
前記モデル特徴と前記3次元計測点の対応の正確度に基づいて、前記形状モデルと前記被測定物体の形状を示す3次元計測点とを照合する照合手段と、を備えることを特徴とする情報処理装置。
Based on a shape model representing the shape of the measured object, a prediction unit that predicts image degradation of the measured object that occurs in an image of the measured object captured by an imaging unit,
Acquiring means for acquiring three-dimensional coordinates of a three-dimensional measurement point on the surface of the measured object;
Evaluation means for evaluating, in the two-dimensional image captured by the imaging means, image degradation at a position of a point cloud projected on the two-dimensional image based on the three-dimensional coordinates acquired by the acquisition means;
Searching means for searching for a correspondence between the three-dimensional measurement points and model features of the shape model;
Calculating means for calculating the accuracy of the correspondence between the model feature and the three-dimensional measurement point based on the image deterioration predicted by the predicting means and the image deterioration evaluated by the evaluating means;
Information comprising: matching means for comparing the shape model with a three-dimensional measurement point indicating the shape of the measured object based on the accuracy of the correspondence between the model feature and the three-dimensional measurement point. Processing equipment.
3次元計測点の3次元座標を計測する計測装置をさらに備え、
前記取得手段は、前記計測装置から次元座標を取得することを特徴とする請求項13に記載の情報処理装置。
A measuring device for measuring three-dimensional coordinates of the three-dimensional measuring point,
14. The information processing apparatus according to claim 13, wherein the obtaining unit obtains dimensional coordinates from the measuring device.
前記照合手段により推定された前記被測定物体の位置姿勢の推定結果に基づいて、ロボットアームを制御する制御手段と、をさらに備えることを特徴とする請求項1乃至14のいずれか1項に記載の情報処理装置。   15. The control device according to claim 1, further comprising: a control unit configured to control a robot arm based on an estimation result of the position and orientation of the measured object estimated by the matching unit. Information processing device. 被測定物体の形状を表す形状モデルに基づいて、前記被測定物体を撮像手段により撮像した画像に生じる該被測定物体の画像劣化を予測する予測工程と、
前記被測定物体を前記撮像手段により撮像することにより得られた2次元画像について、前記形状モデルのモデル特徴に対応する計測データ特徴を探索する探索工程と、
前記探索工程で探索された計測データ特徴について前記2次元画像を用いて画像劣化を評価する評価工程と、
前記予測工程で予測した画像劣化と前記評価工程で評価した画像劣化に基づいて、前記モデル特徴と前記計測データ特徴の対応の正確度を算出する算出工程と、
前記モデル特徴と前記計測データ特徴の対応の正確度に基づいて、前記形状モデルと前記2次元画像中の被測定物体とを照合する照合工程と、を有することを特徴とする情報処理装置の制御方法。
Based on a shape model representing the shape of the measured object, a prediction step of predicting image degradation of the measured object that occurs in an image of the measured object captured by an imaging unit,
A search step of searching for a measurement data feature corresponding to a model feature of the shape model, for a two-dimensional image obtained by imaging the object to be measured by the imaging unit;
An evaluation step of evaluating image deterioration using the two-dimensional image with respect to the measurement data feature searched in the search step;
A calculation step of calculating the accuracy of the correspondence between the model feature and the measurement data feature based on the image deterioration estimated in the prediction step and the image deterioration evaluated in the evaluation step;
A collation step of collating the shape model with an object to be measured in the two-dimensional image based on the accuracy of the correspondence between the model feature and the measurement data feature. Method.
被測定物体の形状を表す形状モデルに基づいて、前記被測定物体を撮像手段により撮像した画像に生じる該被測定物体の画像劣化を予測する予測工程と、
前記被測定物体の表面上の3次元計測点の3次元座標を取得する取得工程と、
前記撮像手段により撮像された2次元画像を用いて、前記取得工程で取得された3次元座標に基づいて前記2次元画像に投影された点群の位置における画像劣化を評価する評価工程と、
前記3次元計測点と前記形状モデルのモデル特徴との対応を探索する探索工程と、
前記予測工程で予測した画像劣化と前記評価工程で評価した画像劣化に基づいて、前記モデル特徴と前記3次元計測点の対応の正確度を算出する算出工程と、
前記モデル特徴と前記3次元計測点の対応の正確度に基づいて、前記形状モデルと前記被測定物体の形状を示す3次元計測点とを照合する照合工程と、を有することを特徴とする情報処理装置の制御方法。
Based on a shape model representing the shape of the measured object, a prediction step of predicting image degradation of the measured object that occurs in an image of the measured object captured by an imaging unit,
An acquisition step of acquiring three-dimensional coordinates of a three-dimensional measurement point on the surface of the measured object;
An evaluation step of evaluating image deterioration at a position of a point cloud projected on the two-dimensional image based on the three-dimensional coordinates obtained in the obtaining step, using a two-dimensional image captured by the imaging unit;
A search step of searching for a correspondence between the three-dimensional measurement point and a model feature of the shape model;
A calculating step of calculating the accuracy of the correspondence between the model features and the three-dimensional measurement points based on the image deterioration estimated in the prediction step and the image deterioration evaluated in the evaluation step;
A collation step of collating the shape model with a three-dimensional measurement point indicating the shape of the measured object based on the accuracy of the correspondence between the model feature and the three-dimensional measurement point. A method for controlling a processing device.
請求項16または17に記載の情報処理装置の制御方法の各工程をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute each step of the information processing apparatus control method according to claim 16.
JP2015242643A 2015-02-05 2015-12-11 Information processing apparatus, control method for information processing apparatus, and program Active JP6626338B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/010,005 US9914222B2 (en) 2015-02-05 2016-01-29 Information processing apparatus, control method thereof, and computer readable storage medium that calculate an accuracy of correspondence between a model feature and a measurement data feature and collate, based on the accuracy, a geometric model and an object in an image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015021488 2015-02-05
JP2015021488 2015-02-05

Publications (2)

Publication Number Publication Date
JP2016148649A JP2016148649A (en) 2016-08-18
JP6626338B2 true JP6626338B2 (en) 2019-12-25

Family

ID=56691191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015242643A Active JP6626338B2 (en) 2015-02-05 2015-12-11 Information processing apparatus, control method for information processing apparatus, and program

Country Status (1)

Country Link
JP (1) JP6626338B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6938201B2 (en) * 2017-04-26 2021-09-22 キヤノン株式会社 Information processing equipment, information processing methods and programs
CN111954792B (en) * 2018-04-17 2022-12-20 索尼公司 Signal processing apparatus, signal processing method, and image capturing apparatus
JP7188201B2 (en) * 2019-03-13 2022-12-13 富士通株式会社 Image processing device, image processing method, and image processing program
US11403764B2 (en) * 2020-02-14 2022-08-02 Mujin, Inc. Method and computing system for processing candidate edges
JP7310693B2 (en) * 2020-04-23 2023-07-19 株式会社デンソー ROBOT CONTROL DEVICE AND ROBOT CONTROL METHOD
WO2024180756A1 (en) * 2023-03-02 2024-09-06 日本電気株式会社 Control system, control method, and recording medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100356016B1 (en) * 1999-12-21 2002-10-18 한국전자통신연구원 Automatic parcel volume capture system and volume capture method using parcel image recognition
JP4585456B2 (en) * 2006-01-23 2010-11-24 株式会社東芝 Blur conversion device
JP5228856B2 (en) * 2008-12-02 2013-07-03 セイコーエプソン株式会社 Work object position detection method and position detection apparatus
JP5393318B2 (en) * 2009-07-28 2014-01-22 キヤノン株式会社 Position and orientation measurement method and apparatus
JP5291605B2 (en) * 2009-12-04 2013-09-18 日本放送協会 Camera posture estimation apparatus and camera posture estimation program
JP5839929B2 (en) * 2010-11-19 2016-01-06 キヤノン株式会社 Information processing apparatus, information processing system, information processing method, and program

Also Published As

Publication number Publication date
JP2016148649A (en) 2016-08-18

Similar Documents

Publication Publication Date Title
JP6626338B2 (en) Information processing apparatus, control method for information processing apparatus, and program
US20200096317A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
JP6180087B2 (en) Information processing apparatus and information processing method
US9025857B2 (en) Three-dimensional measurement apparatus, measurement method therefor, and computer-readable storage medium
JP6573354B2 (en) Image processing apparatus, image processing method, and program
JP5393318B2 (en) Position and orientation measurement method and apparatus
US9355453B2 (en) Three-dimensional measurement apparatus, model generation apparatus, processing method thereof, and non-transitory computer-readable storage medium
JP5839971B2 (en) Information processing apparatus, information processing method, and program
JP6324025B2 (en) Information processing apparatus and information processing method
JP5839929B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP6444027B2 (en) Information processing apparatus, information processing apparatus control method, information processing system, and program
JP6317618B2 (en) Information processing apparatus and method, measuring apparatus, and working apparatus
JP6370038B2 (en) Position and orientation measurement apparatus and method
US9914222B2 (en) Information processing apparatus, control method thereof, and computer readable storage medium that calculate an accuracy of correspondence between a model feature and a measurement data feature and collate, based on the accuracy, a geometric model and an object in an image
JP6677522B2 (en) Information processing apparatus, control method for information processing apparatus, and program
JP2015132523A (en) Position/attitude measurement apparatus, position/attitude measurement method, and program
JP6285765B2 (en) Information processing apparatus and information processing method
JP6766229B2 (en) Position and posture measuring device and method
US20210233269A1 (en) Method and computer readable medium for pose estimation
JP2021043075A (en) Information processing device, control method therefor, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191129

R151 Written notification of patent or utility model registration

Ref document number: 6626338

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151