JP2021018219A - Three-dimensional shape measurement system, three-dimensional shape measurement method, and three-dimensional shape measurement program - Google Patents
Three-dimensional shape measurement system, three-dimensional shape measurement method, and three-dimensional shape measurement program Download PDFInfo
- Publication number
- JP2021018219A JP2021018219A JP2019135943A JP2019135943A JP2021018219A JP 2021018219 A JP2021018219 A JP 2021018219A JP 2019135943 A JP2019135943 A JP 2019135943A JP 2019135943 A JP2019135943 A JP 2019135943A JP 2021018219 A JP2021018219 A JP 2021018219A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional shape
- point
- decoding
- coded pattern
- constraint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 57
- 238000000691 measurement method Methods 0.000 title claims description 10
- 238000012545 processing Methods 0.000 claims abstract description 55
- 238000003384 imaging method Methods 0.000 claims abstract description 33
- 238000004364 calculation method Methods 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 30
- 238000001514 detection method Methods 0.000 claims description 12
- 230000006837 decompression Effects 0.000 abstract 2
- 238000010586 diagram Methods 0.000 description 14
- 230000010365 information processing Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 241001589086 Bellapiscis medius Species 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 238000004441 surface measurement Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、対象物に符号化パターン画像を投影して、符号化パターン画像が投影された対象物を撮影することで当該対象物の3次元形状を計測する3次元形状計測システム、3次元形状計測方法、3次元形状計測プログラムに関する。 The present invention is a three-dimensional shape measuring system that measures a three-dimensional shape of an object by projecting a coded pattern image onto the object and photographing the object on which the coded pattern image is projected. The measurement method relates to a three-dimensional shape measurement program.
3次元計測技術は、生産現場における対象物(ワーク)の傷の検査や、乱雑に置かれた対象物(ワーク)のアームロボットによる把持などに有用な技術である。なかでもプロジェクタとカメラの組み合わせ(以下、「プロカム」という。)に基づく光計測法は、面計測方式であるため実時間での計測ができ、コストを抑えることができ、工業的な応用価値が高い。プロカムシステムに基づく3次元計測法として、グレイコード法や位相シフト法(例えば、非特許文献1、2)、特殊な投影パターンを用いた高速計測手法(例えば、非特許文献3)が知られている。 The three-dimensional measurement technique is a technique useful for inspecting scratches on an object (work) at a production site and grasping a randomly placed object (work) by an arm robot. Among them, the optical measurement method based on the combination of a projector and a camera (hereinafter referred to as "Pro Cam") is a surface measurement method, so it can measure in real time, can reduce costs, and has industrial application value. high. As a three-dimensional measurement method based on the Procam system, a Gray code method, a phase shift method (for example, Non-Patent Documents 1 and 2), and a high-speed measurement method using a special projection pattern (for example, Non-Patent Document 3) are known. ing.
しかしながら、対象物の鏡面性が強い場合(例えば、対象物が金属製である場合)には、対象物の凹部では鏡面相互反射が生じる。その結果、投影光の反射光がカメラとプロジェクタの位置関係から期待される画素以外で観測されたり(問題点1)、カメラの1つの画素に複数の反射光が重畳して観測されたりする(問題点2)。プロカムを用いた一般的な計測法は、プロカムに基づく3次元計測法は、対象物の材質がランバート反射であることを前提としており、対象物の鏡面性が強い場合には、上記の問題点1及び2によって、対象物の凹部の正確な3次元計測が困難になる。
However, when the mirror surface of the object is strong (for example, when the object is made of metal), mirror surface mutual reflection occurs in the recess of the object. As a result, the reflected light of the projected light is observed in a pixel other than the pixel expected from the positional relationship between the camera and the projector (problem 1), or a plurality of reflected lights are superposed on one pixel of the camera and observed (problem 1). Problem 2). The general measurement method using Pro Cam is based on Pro Cam, and the three-dimensional measurement method is based on the premise that the material of the object is Lambertian reflection. If the object has a strong mirror surface, the
問題点1に対しては、直接反射光が観測される場合には期待される領域をカメラ画像のエピポーラ線上に限定できること(エピポーラ拘束)を用いて、エピポーラ線外で観測される相互反射光を除去することで対応付けを安定化する手法が提案されている(例えば、非特許文献4〜7)。これらの既存法では反射分離の安定性のために多数のバイナリパターンの投影と撮影を必要とし、特殊な装置を用いなければ即時性が期待できない。
For problem 1, the mutually reflected light observed outside the epipolar line can be limited to the epipolar line of the camera image (epipolar constraint) when the directly reflected light is observed. A method for stabilizing the association by removing it has been proposed (for example,
バイナリパターンを用いる符号化方式の中で最小枚数で符号化が可能なグレイコード法は、投影画像の視差方向の画素数をMとすると、投影枚数 NGC=log2Mで座標符号化が可能である。 The Gray code method, which can encode with the minimum number of pixels among the coding methods using binary patterns, allows coordinate coding with the number of projected images NGC = log 2 M, where M is the number of pixels in the parallax direction of the projected image. Is.
しかし、この手法ではそれぞれのカメラ画素は単一のプロジェクタ画素の影響しか受けないと仮定しているため、問題点2のように、投影画像のエピポーラ線上の異なる画素からの投影光が鏡面相互反射によって1つのカメラ画素で観測されてしまうと、相互反射光の対応点の除去ができず、誤った形状が求められてしまう。
However, since this method assumes that each camera pixel is affected only by a single projector pixel, the projected light from different pixels on the epipolar line of the projected image is mirror-plane mutual reflection as in
そこで、本発明は、エピポーラ拘束のみでは直接反射成分の復号化情報であるか相互反射成分の復号化情報であるかを分離できない重畳点についても、相互反射による復元点を排除して3次元形状計測をするのに有利な3次元形状計測システムを提供することを目的とする。 Therefore, the present invention eliminates the restoration point due to mutual reflection even for the superimposed point where it is not possible to separate whether it is the decoding information of the direct reflection component or the decoding information of the mutual reflection component only by the epipolar constraint. An object of the present invention is to provide a three-dimensional shape measurement system which is advantageous for measuring.
本発明の一態様の3次元形状計測システムは、符号化パターン画像列をなす複数種類の符号化パターン画像を順に投影する投影手段と、前記投影手段にて前記符号化パターン画像が投影される対象物を順に撮像して、複数の撮像画像からなる撮像画像列を取得する撮像手段と、前記符号化パターン画像列及び前記撮像画像列に基づいて、復号化を行って復号化情報を取得する復号化手段であって、直接反射光と間接反射光とが重なった重畳点については直接反射成分の復号化情報と相互反射成分の復号化情報とに分離して前記復号化情報を取得する復号化手段と、前記復号化情報を用いて、幾何計算により復元点を求めることにより前記対象物の3次元形状を計測する3次元形状計測手段と、所定の拘束範囲外の前記復元点を排除するジオメトリ拘束処理を行う重畳点処理手段とを備えた構成を有している。 The three-dimensional shape measurement system according to one aspect of the present invention includes a projection means for sequentially projecting a plurality of types of coded pattern images forming a coded pattern image sequence, and an object on which the coded pattern image is projected by the projection means. Decoding to acquire decoding information by performing decoding based on the imaging means for acquiring an imaged image sequence composed of a plurality of captured images by sequentially imaging an object and the coded pattern image string and the captured image string. Decoding means for obtaining the decoding information by separating the superimposed point where the directly reflected light and the indirect reflected light overlap into the decoding information of the directly reflected component and the decoding information of the mutual reflection component. A means, a three-dimensional shape measuring means for measuring the three-dimensional shape of the object by obtaining a restoration point by geometric calculation using the decoding information, and a geometry for excluding the restoration point outside a predetermined constraint range. It has a configuration including a superimposing point processing means for performing constraint processing.
この構成によって、復号化により重畳点において直接反射成分の復号化情報と相互反射成分の復号化情報とが分離して得られ、それらを用いて3次元形状計測を行ったときに、相互反射の対応点で復元された点は復元範囲外に復元され、直接反射の対応点は復元範囲内に復元される性質を用いて、復元範囲外の復元点を排除することで、直接反射の対応点を復元するエピポーラ拘束のみでは分離できない重畳点についても、相互反射による復元点を適切に排除して3次元形状の計測(復元)を行うことができる。 With this configuration, the decoding information of the direct reflection component and the decoding information of the mutual reflection component are separately obtained at the superimposition point by decoding, and when the three-dimensional shape measurement is performed using them, the mutual reflection Corresponding points of direct reflection are restored outside the restoration range by using the property that the corresponding points of direct reflection are restored within the restoration range by eliminating the restoration points outside the restoration range. It is possible to measure (restore) the three-dimensional shape by appropriately excluding the restoration points due to mutual reflection even for the overlapping points that cannot be separated only by the epipolar constraint that restores.
上記の3次元形状計測システムにおいて、前記重畳点処理手段は、前記復元点をエピポーラ線上に限定するエピポーラ拘束処理によって前記重畳点における前記相互反射成分の復号化情報を排除してよく、前記3次元形状計測手段は、前記エピポーラ拘束処理によって前記相互反射成分の復号化情報を排除された前記復号化情報を用いて、前記3次元形状を計測してよい。 In the above three-dimensional shape measurement system, the superimposition point processing means may eliminate the decoding information of the mutual reflection component at the superimposition point by epipolar constraint processing that limits the restoration point on the epipolar line, and the three-dimensional The shape measuring means may measure the three-dimensional shape by using the decoding information in which the decoding information of the mutual reflection component is excluded by the epipolar constraint process.
この構成により、エピポーラ拘束によって相互反射成分の復号化情報を排除するので、ジオメトリ拘束によって分離できない相互反射成分の復号化情報を排除できる。 With this configuration, since the decoding information of the mutual reflection component is excluded by the epipolar constraint, the decoding information of the mutual reflection component that cannot be separated by the geometry constraint can be excluded.
上記の3次元形状計測システムにおいて、前記重畳点処理手段は、前記ジオメトリ拘束処理における前記拘束範囲を設定する拘束範囲設定手段を備えていてよい。 In the above three-dimensional shape measurement system, the superimposition point processing means may include a constraint range setting means for setting the constraint range in the geometry constraint process.
この構成により、設定された拘束範囲によってジオメトリ拘束処理を行うことができる。 With this configuration, geometry constraint processing can be performed according to the set constraint range.
上記の3次元形状計測システムにおいて、前記拘束範囲設定手段は、ユーザによる指定に応じて前記拘束範囲を設定してよい。 In the above three-dimensional shape measurement system, the constraint range setting means may set the constraint range according to a designation by the user.
この構成により、ユーザが拘束範囲を設定することができる。 With this configuration, the user can set the constraint range.
上記の3次元形状計測システムにおいて、前記拘束範囲設定手段は、前記対象物の形状に応じて前記拘束範囲を設定してよい。 In the above three-dimensional shape measuring system, the restraint range setting means may set the restraint range according to the shape of the object.
この構成により、対象物の形状に対応した拘束範囲を設定できる。 With this configuration, the restraint range corresponding to the shape of the object can be set.
上記の3次元形状計測システムにおいて、前記拘束範囲設定手段は、前記対象物の位置に応じて前記拘束範囲を設定してよい。 In the above three-dimensional shape measuring system, the restraint range setting means may set the restraint range according to the position of the object.
この構成により、対象物の位置に対応した拘束範囲を設定できる。 With this configuration, the restraint range corresponding to the position of the object can be set.
上記の3次元形状計測システムは、前記対象物を検出する検出手段をさらに備えていてよく、前記拘束範囲設定手段は、前記検出手段の検出結果に応じて前記拘束範囲を設定してよい。 The three-dimensional shape measuring system may further include a detection means for detecting the object, and the restraint range setting means may set the restraint range according to the detection result of the detection means.
この構成により、実際の対象物の検出に基づいて、拘束範囲を設定できる。 With this configuration, the constraint range can be set based on the detection of the actual object.
上記の3次元形状計測システムは、前記3次元形状計測手段より粗い精度で前記対象物の形状を計測する第2の3次元形状計測手段をさらに備えていてよく、前記拘束範囲設定手段は、前記第2の3次元形状計測手段の計測結果に基づいて、前記対象物が含まれるように前記拘束範囲を設定してよい。 The three-dimensional shape measuring system may further include a second three-dimensional shape measuring means for measuring the shape of the object with a coarser accuracy than the three-dimensional shape measuring means, and the restraint range setting means may be provided. Based on the measurement result of the second three-dimensional shape measuring means, the restraint range may be set so as to include the object.
この構成により、第2の3次元計測手段による対象物体の粗い形状計測に基づいて拘束範囲を設定できる。 With this configuration, the restraint range can be set based on the rough shape measurement of the target object by the second three-dimensional measuring means.
上記の3次元形状計測システムは、前記符号化パターン画像列は、ランダム数に基づいて生成されてよい。 In the above three-dimensional shape measurement system, the coded pattern image sequence may be generated based on a random number.
この構成により、符号化パターン画像列で得られる各画素の信号同士のゼロ平均正規化相互相関が低く、直交性の高い符号化パターン画像列を生成できる。 With this configuration, it is possible to generate a coded pattern image string having low zero average normalization cross-correlation between the signals of each pixel obtained in the coded pattern image string and having high orthogonality.
上記の3次元形状計測システムにおいて、前記復号化手段は、最大の正規化相互相関値と第2位の正規化相互相関値との比を所定の閾値と比較することで、前記重畳点を識別してよい。 In the above three-dimensional shape measurement system, the decoding means identifies the superposition point by comparing the ratio of the maximum normalized cross-correlation value to the second-order normalized cross-correlation value with a predetermined threshold value. You can do it.
この構成により、符号化パターン画像列の直交性が高いことを利用して、重畳点を識別できる。 With this configuration, the superimposition points can be identified by utilizing the high orthogonality of the coded pattern image sequence.
本発明の一態様の3次元形状計測方法は、符号化パターン画像列をなす複数種類の符号化パターン画像を順に投影する投影ステップと、前記投影ステップにて前記符号化パターン画像が投影される対象物を順に撮像して、複数の撮像画像からなる撮像画像列を取得する撮像ステップと、前記符号化パターン画像列及び前記撮像画像列に基づいて、前記撮像画像上で、直接反射光と間接反射光とが重なった重畳点を含む対応点を探索する復号化ステップと、前記復号化情報を用いて、幾何計算により復元点を求めることにより前記対象物の3次元形状を計測する3次元形状計測ステップと、所定の拘束範囲外の前記復元点を排除するジオメトリ拘束処理を行う重畳点処理ステップとを備えた構成を有している。 The three-dimensional shape measurement method of one aspect of the present invention includes a projection step of sequentially projecting a plurality of types of coded pattern images forming a coded pattern image sequence, and an object on which the coded pattern image is projected in the projection step. Directly reflected light and indirect reflection on the captured image based on the imaging step of acquiring an captured image sequence consisting of a plurality of captured images by sequentially imaging an object, the coded pattern image sequence, and the captured image sequence. Three-dimensional shape measurement that measures the three-dimensional shape of the object by obtaining the restoration point by geometric calculation using the decoding step to search for the corresponding point including the overlapping point where the light overlaps and the decoding information. It has a configuration including a step and a superimposing point processing step for performing a geometry constraint processing for excluding the restoration point outside a predetermined constraint range.
この構成によっても、復号化により重畳点において直接反射成分の復号化情報と相互反射成分の復号化情報とが分離して得られ、それらを用いて3次元形状計測を行ったときに、相互反射の対応点で復元された点は復元範囲外に復元され、直接反射の対応点は復元範囲内に復元される性質を用いて、復元範囲外の復元点を排除することで、直接反射の対応点を復元するエピポーラ拘束のみでは分離できない重畳点についても、相互反射による復元点を適切に排除して3次元形状の計測(復元)を行うことができる。 Even with this configuration, the decoding information of the direct reflection component and the decoding information of the mutual reflection component are separately obtained by decoding at the superimposition point, and when three-dimensional shape measurement is performed using them, mutual reflection is performed. Correspondence of direct reflection by eliminating the restoration points outside the restoration range by using the property that the points restored by the correspondence points of are restored outside the restoration range and the correspondence points of direct reflection are restored within the restoration range. It is possible to measure (restore) the three-dimensional shape by appropriately excluding the restoration points due to mutual reflection even for the overlapping points that cannot be separated only by the epipolar constraint that restores the points.
本発明の一態様の3次元形状計測プログラムは、コンピュータに、投影手段に、符号化パターン画像列をなす複数種類の符号化パターン画像を順に投影させる投影ステップと、撮像手段に、前記投影ステップにて前記符号化パターン画像が投影される対象物を順に撮像させて、複数の撮像画像からなる撮像画像列を取得させる撮像ステップと、前記符号化パターン画像列及び前記撮像画像列に基づいて、前記撮像画像上で、直接反射光と間接反射光とが重なった重畳点を含む対応点を探索する復号化ステップと、前記復号化情報を用いて、幾何計算により復元点を求めることにより前記対象物の3次元形状を計測する3次元形状計測ステップと、所定の拘束範囲外の前記復元点を排除するジオメトリ拘束処理を行う重畳点処理ステップとを実行させる構成を有している。 The three-dimensional shape measurement program according to one aspect of the present invention includes a projection step in which a computer projects a plurality of types of coded pattern images forming a coded pattern image sequence on a projection means in order, and a projection step on the imaging means. Based on the imaging step of sequentially imaging an object on which the coded pattern image is projected to acquire an captured image sequence composed of a plurality of captured images, and the coded pattern image sequence and the captured image sequence. The object is obtained by geometrically calculating a restoration point using the decoding step of searching for a corresponding point including an overlapping point in which the directly reflected light and the indirect reflected light overlap on the captured image and the decoding information. It has a configuration in which a three-dimensional shape measurement step for measuring the three-dimensional shape of the above and a superposition point processing step for performing a geometry constraint process for excluding the restoration point outside a predetermined constraint range are executed.
この構成によっても、復号化により重畳点において直接反射成分の復号化情報と相互反射成分の復号化情報とが分離して得られ、それらを用いて3次元形状計測を行ったときに、相互反射の対応点で復元された点は復元範囲外に復元され、直接反射の対応点は復元範囲内に復元される性質を用いて、復元範囲外の復元点を排除することで、直接反射の対応点を復元するエピポーラ拘束のみでは分離できない重畳点についても、相互反射による復元点を適切に排除して3次元形状の計測(復元)を行うことができる。 Even with this configuration, the decoding information of the direct reflection component and the decoding information of the mutual reflection component are separately obtained by decoding at the superimposition point, and when three-dimensional shape measurement is performed using them, mutual reflection is performed. Correspondence of direct reflection by eliminating the restoration points outside the restoration range by using the property that the points restored by the correspondence points of are restored outside the restoration range and the correspondence points of direct reflection are restored within the restoration range. It is possible to measure (restore) the three-dimensional shape by appropriately excluding the restoration points due to mutual reflection even for the overlapping points that cannot be separated only by the epipolar constraint that restores the points.
本発明によれば、直接反射の対応点を復元するエピポーラ拘束のみでは分離できない重畳点についても、相互反射による復元点を適切に排除して3次元形状の計測(復元)を行うことができる。 According to the present invention, even for a superposed point that cannot be separated only by the epipolar constraint that restores the corresponding point of direct reflection, the restoration point due to mutual reflection can be appropriately excluded to measure (restore) the three-dimensional shape.
以下、図面を参照して本発明の実施の形態を説明する。なお、以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施の形態に応じた具体的構成が適宜採用されてよい。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the embodiments described below are examples of cases where the present invention is carried out, and the present invention is not limited to the specific configurations described below. In carrying out the present invention, a specific configuration according to the embodiment may be appropriately adopted.
図1は、本発明の実施の形態の3次元形状計測システムの応用シーンを示す図である。3次元形状計測システム100は、プロジェクタ10と、カメラ20と、3次元形状計測装置30とを含んで構成される。プロジェクタ10は、所定のフレームレートで変化する符号化パターン画像を投影する。カメラ20は、3次元形状計測の対象物であるワークWを撮影するように設置される。カメラ20は、プロジェクタ10によって投影されてワークWで反射した符号化パターン画像を所定のフレームレートで撮影して、撮像画像を生成する。
FIG. 1 is a diagram showing an application scene of the three-dimensional shape measurement system according to the embodiment of the present invention. The three-dimensional
プロジェクタ10とカメラ20との幾何的関係、即ち位置及び姿勢の関係は、運用時には固定されており、この幾何的関係は3次元形状計測装置30において既知である。また、プロジェクタ10及びカメラ20は、いずれも3次元形状計測装置30に有線又は無線で通信可能に接続されている。
The geometrical relationship between the
3次元形状計測装置30は、プロジェクタ10が投影した符号化パターン画像と、カメラ20が撮影した撮像画像とに基づいて、ワークWの位置情報を含む3次元形状を計測する。3次元形状計測装置30は、例えば、汎用のコンピュータが本実施の形態の3次元形状計測プログラムを実行することで実現されてよい。
The three-dimensional
図1の例では、3次元形状計測装置30は、アームロボット40に接続されている。アームロボット40は、複数の関節を有するアームを備え、ワークWに対して、ワークWを把持するという仕事をする。3次元形状計測装置30にて得られたワークWの3次元形状計測の結果は、アームロボット40に与えられる。アームロボット40は、ワークWの位置情報及び3次元形状情報に基づいて動作する。これにより、アームロボット40は、目的とするワークWに対して適切に仕事をすることができ、例えばワークWを適切にピッキングすることが可能となる。
In the example of FIG. 1, the three-dimensional
図2は、本発明の実施の形態の3次元形状計測システムにおける機能構成を示すブロック図である。3次元形状計測システム100は、撮像部1と、投影部2と、同期制御部3と、符号化パターン画像生成部4と、情報処理部5と、3次元情報出力部6とを備えている。
FIG. 2 is a block diagram showing a functional configuration in the three-dimensional shape measurement system according to the embodiment of the present invention. The three-dimensional
撮像部1は、カメラ20で構成される。投影部2は、プロジェクタ10で構成される。同期制御部3、符号化パターン画像生成部4、情報処理部5、及び3次元情報出力部6は、3次元形状計測装置30に備えられてもよく、あるいは、その一部のみが3次元形状計測装置30に備えられ、他の一部はプロジェクタ10若しくは高速カメラ20、又は3次元形状計測装置30に接続された他の装置に備えられてもよい。
The imaging unit 1 is composed of a
撮像部1は、撮像を行って撮像画像を得る。撮像部1は、1000〜3000fps程度の高いフレームレートで連続的に撮像を行って、連続する複数の撮像画像からなる撮像画像列を得る。本実施の形態では、撮像部1は、入射する光の輝度値のみを検出して、撮像画像としてモノクロ画像を生成する。また、本実施の形態では、撮像部1は、1024×768ピクセルの解像度の撮像素子を用いて撮像画像を得る。 The imaging unit 1 performs imaging to obtain an captured image. The imaging unit 1 continuously performs imaging at a high frame rate of about 1000 to 3000 fps to obtain an captured image sequence composed of a plurality of continuous captured images. In the present embodiment, the imaging unit 1 detects only the brightness value of the incident light and generates a monochrome image as an captured image. Further, in the present embodiment, the image pickup unit 1 obtains a captured image using an image pickup device having a resolution of 1024 × 768 pixels.
投影部2は、符号化パターン画像生成部4で生成された符号化パターン画像生成情報に基づいて符号化パターン画像を投影する。投影部2は、符号化パターン画像列を構成する複数の符号化パターン画像を60fps程度で順に投影する。なお、投影部2としては、DMDを用いた高速駆動(例えば、5000Hz程度)が可能なDLPプロジェクタを用いてもよい。この場合に、撮像部1を構成するカメラ20はハイスピードカメラとしてもよい。また、本実施の形態では、投影部2は、480×360ピクセルのDMDを用い、1ドットサイズを5×5ピクセルとしている。
The
符号化パターン画像生成部4は、符号化パターン画像生成情報を生成して、投影部2に供給する。図3は、本発明の実施の形態の投影部によって投影される符号化パターン画像列を示す図である。符号化パターン画像生成部4は、符号化パターン画像として、復号化に関するランダムドットの時系列変調信号データに基づいて白黒2値のランダムドットパターンを生成する。
The coded pattern
符号化パターン画像生成部4は、ランダム数として、メルセンヌツイスタ又はM系列の乱数を用いて、符号化パターン画像を生成する。これにより、各画素の信号同士のゼロ平均正規化相互相関が低く、直交性の高い符号化パターン画像列を得ることができる。
The coded pattern
符号化パターン画像生成部4は、投影部2のフレームレートよりも高速に、複数の異なる符号化パターン画像からなる符号化パターン画像列を生成する。
The coded pattern
符号化パターン画像生成部4は、N種類(本実施の形態ではN=6912とする。)の符号化パターン画像生成情報を順に繰り返し出力する。すなわち、符号化パターン画像生成部4は、t=1のタイムフレーム用の符号化パターン画像の生成情報、t=2のタイムフレーム用の符号化パターン画像の生成情報、t=3のタイムフレーム用の符号化パターン画像の生成情報、・・・、t=Nのタイムフレーム用の符号化パターン画像の生成情報を順に生成する。
The coded pattern
本実施の形態では、符号化パターン画像生成部4は、符号化パターン画像として、白黒2値のランダムドットパターンを生成する。これにより、他のパターン画像に比べて、各ドットの符号化信号の直交性を容易に高くすることができ、各ドットの信号が空間的に独立しているため、撮影枚数の増減を柔軟に行うことができる。
In the present embodiment, the coded pattern
図4は、本発明の実施の形態の符号化パターン画像生成のフローチャートである。符号化パターン画像生成部4は、まず、画素を指定して、適当なシードを基に、0〜255のランダム数を生成する(ステップS41)。そして、符号化パターン画像生成部4は、生成されたランダム数が閾値128以下であれば(ステップS42でYES)、当該画素の画素値を255とし(ステップS43)、生成されたランダム数が閾値128未満であれば(ステップS42でNO)、当該画素の画素値を0とする(ステップS44)。
FIG. 4 is a flowchart of coded pattern image generation according to the embodiment of the present invention. First, the coded pattern
N枚の画像のすべての画素で、画素値が決定されていない場合は(ステップS45でNO)、指定する画素を1つ進めて、ステップS41〜S44を繰り返し、すべての画像のすべての画素について、画素値を決定すると(ステップS45でYES)、処理を終了する。この処理により、白黒2値のランダムパターンの画像がN枚生成される。 If the pixel value has not been determined for all the pixels of the N images (NO in step S45), the specified pixel is advanced by one, steps S41 to S44 are repeated, and all the pixels of all the images are covered. When the pixel value is determined (YES in step S45), the process ends. By this process, N black-and-white binary random pattern images are generated.
同期制御部3は、撮像部1と投影部2との同期をとる。これにより、撮像部1において、投影部2で時系列に変化する符号化パターン画像列の各タイムフレームの画像を確実に撮像することができる。
The
情報処理部5は、撮像部1で得られた時系列に並ぶ複数の撮像画像からなる撮像画像列と、符号化パターン画像生成部4で生成された時系列に並ぶ複数の符号化パターン画像生成情報を取得する。なお、情報処理部5が符号化パターン画像生成部4から取得する符号化パターン画像生成情報を特に、キャリブレーションパラメタともいう。情報処理部5は、撮像画像と符号化パターン画像生成情報(キャリブレーションパラメタ)とに基づいて、対象物Wの3次元形状を計測する。情報処理部5は、復号化部51と、重畳点処理部52と、3次元形状計測部53とを備えている。
The information processing unit 5 generates an image sequence composed of a plurality of captured images obtained by the imaging unit 1 in a time series, and a plurality of coded pattern images generated in a time series generated by the coded pattern
復号化部51は、符号化パターン画像列と撮像画像列とに基づいて、投影光が重畳している領域については、画素ごとに復号化情報を直接反射成分と相互反射成分とを分離する。ここで、上述のように、本実施の形態では、時系列に従って変化する符号化パターン画像を投影しているので、N個のタイムフレームに対応するN枚の撮像画像によって、画素ごとにNステップで変化するドットパターンが得られる。
Based on the coded pattern image sequence and the captured image sequence, the
復号化部51は、相関演算にゼロ平均正規化相互相関(Zero-mean Normalized Cross-Correlation:ZNCC)を用いる。復号化部51は、各撮像画像で得られる観測信号と全符号化信号とでZNCCを算出し、最大のZNCC値zncc1と第2位のZNCC値zncc2の信号を求め、これらの比rzncc=zncc1/zncc2が閾値thzncc以上である点を直接反射点であると識別し、それ以外の点を重畳点であると識別することで、重畳点とそれ以外の点とを区別しつつ対応点を抽出する。ここで、重畳点とは、相互反射などが原因で直接反射光と間接反射光とが重なった点である。本実施の形態では、閾値thznccは、2.0とし、ZNCC値が0.4以上である対応点を用いて復元を行った。
The
図5は、本発明の実施の形態の復号化で得た最大のZNCC値と第2位のZNCC値をマップした図である。図5において、最大のZNCC値(図5の「First」)は左側に配置され、第2位のZNCC値(図5の「Second」)は右側に配置されている。また、図5において、上段は撮影枚数N=50であり、下段は撮影枚数N=20である。図5から、投影光が当たる領域では、Nが増加すると、最大のZNCC値と第2位のZNCC値との差が大きくなり、復号化の安定性が高くなることが分かる。 FIG. 5 is a map showing the maximum ZNCC value obtained by decoding according to the embodiment of the present invention and the ZNCC value at the second position. In FIG. 5, the largest ZNCC value (“First” in FIG. 5) is located on the left side and the second ZNCC value (“Second” in FIG. 5) is located on the right side. Further, in FIG. 5, the upper row shows the number of shots N = 50, and the lower row shows the number of shots N = 20. From FIG. 5, it can be seen that as N increases in the region exposed to the projected light, the difference between the maximum ZNCC value and the second-position ZNCC value increases, and the decoding stability increases.
復号化部51は、抽出した重畳点において、どの2つの符号化信号の和の信号が最大のZNCC値となるかを探索する。このとき、符号化信号のすべての組合せについてZNCC値を求めると計算が膨大となるため、復号化部51は、直交する信号同士であれば、下式(1)が成り立つことを用いて、重畳点の信号のZNCC値を求める。
The
図6は、本発明の実施の形態の復号化のフローチャートである。まず、復号化部51は、符号化パターン画像生成部4から得た、符号化パターン画像列を生成するのに用いた、復号化に関するランダムドットの時系列変調信号データを取得する(ステップS61)。復号化部51は、撮像部1から、符号化パターン画像列を撮像して得られた撮像画像列を入力する(ステップS62)。
FIG. 6 is a flowchart of decoding according to the embodiment of the present invention. First, the
復号化部51は、撮像画像の各画素において、時間方向の輝度変調の信号を取得する(ステップS63)。復号化部51は、各画素で得られた信号とランダムドットの時系列変調信号データとを用いて、ZNCCを算出する(ステップS64)。復号化部51は、ZNCCの値が最小の信号を採用して、復号化を行う(ステップS65)。
The
復号化の結果が2つの信号の和の合成信号でない場合は(ステップS66でNO)、復号化部51は、1つの復号化情報として信号を取得する(ステップS67)。復号化の結果が2つの信号の和の合成信号である場合は(ステップS66でYES)、復号化部51は、2つの復号化情報に分離して信号を取得する(ステップS68)。
If the result of the decoding is not a composite signal of the sum of the two signals (NO in step S66), the
このように、復号化部51では、重畳点に対して投影画像上で直接反射と相互反射の1つの対応点が得られた状態となり、重畳点処理部52は、相互反射の対応点で復元された点を排除する。重畳点処理部52は、エピポーラ拘束処理部521と、ジオメトリ拘束処理部522と、拘束範囲設定部523とを備えている。
In this way, the
エピポーラ拘束処理部521は、復号化部51から得られた復号化情報から、エピポーラ拘束処理によって、エピポーラ線上の対応点を排除することで、重畳点における相互反射成分の復号化情報を排除する。
The epipolar
ジオメトリ拘束処理部522は、復号化部51から得られた復号化情報について、エピポーラ拘束処理部521で一部の復号化情報が排除された後に、さらに、エピポーラ拘束のみでは排除できない重畳点の相互反射成分の復号化情報をジオメトリ拘束によって排除する。
Regarding the decoding information obtained from the
このために、3次元形状計測部53は、エピポーラ拘束処理が行われた後の復号化情報即ち、相互反射成分の復号化情報が排除された復号化情報を用いて、幾何計算により復元点を求めることにより3次元形状の計測(復元)を行って、復元点をジオメトリ拘束処理部522に出力する。ジオメトリ拘束処理部522は、3次元形状計測部53から得た復元点が復元範囲内か否かを判断し、復元範囲外の復元点を排除する。
For this purpose, the three-dimensional
拘束範囲設定部523は、ジオメトリ拘束処理部522におけるジオメトリ拘束の範囲を設定する。ジオメトリ拘束処理部522は、拘束範囲設定部523で設定された拘束範囲においてジオメトリ拘束処理を行って相互反射による復元点を排除する。拘束範囲設定部523におけるジオメトリ拘束の範囲の設定については、後に詳述する。
The constraint
図7は、本発明の実施の形態の直接反射成分と間接反射成分とが重畳する例を示す図である。図7に示す例では、ワークWが鏡面性を有することにより、プロジェクタ10から投影される投影画像81上のエピポーラ線83上の2点85、86から投影された光が、カメラ20の撮像画像82上のエピポーラ線84上の1点87で観測されている。
FIG. 7 is a diagram showing an example in which the direct reflection component and the indirect reflection component of the embodiment of the present invention are superimposed. In the example shown in FIG. 7, since the work W has a mirror surface property, the light projected from the two
図8は、本発明の実施の形態のジオメトリ拘束処理の説明図である。図8において、奥行方向の復元範囲91は、ワークWを包含するように設定されている。対応点92を用いた復元点94はワークWの表面上にあり、対応点93を用いた復元点95はワークWとは異なる場所にある。また、図8には、カメラ20の光学中心95及びプロジェクタ10の光学中心96が示されている。直接反射光の対応点94及び相互反射光の対応点93の2つの対応点のうち相互反射光の対応点93で3次元計測された点(復元点)は、復元範囲91外に復元されているため、ジオメトリ拘束処理部522は、この復元点を排除する。
FIG. 8 is an explanatory diagram of the geometry constraint processing according to the embodiment of the present invention. In FIG. 8, the
これにより、図7において相互反射光で得られた対応点は、図8のようにワークWの復元範囲91から離れた位置に復元される可能性が高いため、ジオメトリ拘束処理部522でこのような対応点を排除することで、図7の場合の多くの重畳点について、相互反射光の復元点を有効に排除できる。
As a result, the corresponding points obtained by the mutually reflected light in FIG. 7 are likely to be restored to a position away from the
3次元情報出力部6は、ジオメトリ拘束処理部522におけるジオメトリ拘束処理で残った復元点を3次元形状の計測結果として出力する。
The three-dimensional information output unit 6 outputs the restoration points remaining in the geometry constraint processing in the geometry
図9は、本発明の実施の形態の対応付けの結果(N=30の時)を示す図である。図9(A)はカメラ20による実験シーンの撮像画像である。図9(A)に示すように、この例では、左に白い箱があり、右にアルミ製のL字アングルが配置されている。図9(B)は、幾何拘束を用いない場合の結果を示している。なお、図9(B)の左上には、座標符号化情報も示している。
FIG. 9 is a diagram showing the result of association (when N = 30) according to the embodiment of the present invention. FIG. 9A is an image captured by the
図9(C)は、エピポーラ拘束処理を行った結果を示しており、図9(E)はエピポーラ拘束処理とジオメトリ拘束処理を行った結果を示している。図9(D)は、図9(C)及び図9(E)における結果の一部を拡大して並べて示している。 FIG. 9C shows the result of performing the epipolar constraint process, and FIG. 9E shows the result of performing the epipolar constraint process and the geometry constraint process. 9 (D) shows a part of the results in FIGS. 9 (C) and 9 (E) in an enlarged manner and side by side.
幾何拘束を用いない図9(B)の場合には、L字アングル上で重畳点が発生し、復号化誤りが比較的多くなっているが、エピポーラ拘束処理を行った図9(C)の結果では重畳点による符号化誤りが大幅に減少している。さらに、ジオメトリ拘束処理も行うと、図9(D)に示すように、相互反射に起因する符号化誤り(図9(C)及び図9(D)の黒枠部を参照)をより低減できることが分かる。 In the case of FIG. 9 (B) in which the geometric constraint is not used, overlapping points occur on the L-shaped angle and the decoding error is relatively large, but in FIG. 9 (C) in which the epipolar constraint process is performed. As a result, the coding error due to the superposition point is greatly reduced. Further, when the geometry constraint processing is also performed, as shown in FIG. 9 (D), coding errors due to mutual reflection (see the black frame portions in FIGS. 9 (C) and 9 (D)) can be further reduced. I understand.
図10は、本発明の実施の形態の3次元形状測定部による形状計測結果を示す図である。図10(A)は、従来の方法を用いた結果であり、図10(B)は、幾何拘束を用いない場合の結果であり、図10(C)は、エピポーラ拘束処理を行った場合の結果であり、図10(D)は、エピポーラ拘束処理とジオメトリ拘束処理を行った場合の結果である。 FIG. 10 is a diagram showing a shape measurement result by the three-dimensional shape measuring unit according to the embodiment of the present invention. FIG. 10 (A) is the result of using the conventional method, FIG. 10 (B) is the result of not using the geometric constraint, and FIG. 10 (C) is the result of performing the epipolar constraint process. As a result, FIG. 10 (D) shows the result when the epipolar constraint process and the geometry constraint process are performed.
図10(A)に示す従来の方法の結果では、相互反射成分を判定できないが、図10(B)〜(D)では、相互反射成分を判定できている。L字アングルの凹み付近での計測点について注目すると、エピポーラ拘束処理に加えてジオメトリ拘束処理を行った効果により、図10(D)が最も密で、かつ、ノイズを少なくして計測できている。 Although the mutual reflection component cannot be determined by the result of the conventional method shown in FIG. 10 (A), the mutual reflection component can be determined in FIGS. 10 (B) to 10 (D). Focusing on the measurement points near the dent of the L-shaped angle, FIG. 10 (D) is the densest and can be measured with less noise due to the effect of performing geometry constraint processing in addition to epipolar constraint processing. ..
図11は、本発明の実施の形態のジオメトリ拘束処理の効果を示すグラフである。エピポーラ共有点は、近点及び遠点で構成され、投影画像上のエピポーラ線上の2点が相互反射のために離れた位置からの投影光が重畳したエピポーラ共有点を「遠点」と定義し、近傍ドットの漏れ光が重畳したエピポーラ共有点を「近点」と定義する。 FIG. 11 is a graph showing the effect of the geometry constraint processing according to the embodiment of the present invention. The epipolar common point is composed of a near point and a far point, and the epipolar common point where two points on the epipolar line on the projected image are superimposed with the projected light from a distant position due to mutual reflection is defined as a "far point". , The epipolar shared point on which the leaked light of the neighboring dots is superimposed is defined as the "near point".
図11において、各グラフは投影枚数Nを変えた際の発生点数を示す。図11(A)の縦軸は、重畳点及びエピポーラ共有点の点数の変化を示し、図11(B)の縦軸は、エピポーラ共有点を構成する遠点及び近点の点数の変化を示し、図11(C)の縦軸は、遠点のうちジオメトリ拘束処理で除去された点数の変化を示している。 In FIG. 11, each graph shows the number of points generated when the number of projected sheets N is changed. The vertical axis of FIG. 11A shows the change in the points of the superimposition point and the epipolar common point, and the vertical axis of FIG. 11B shows the change of the points of the far point and the near point constituting the epipolar common point. , The vertical axis of FIG. 11C shows the change in the number of distant points removed by the geometry constraint process.
全体傾向を見ると、撮影枚数Nが比較的小さい場合(N=10〜29)は、直接反射の信号の信頼度が低く、正しく復号化されない点が多いため、重畳点が多く発生するが、エピポーラ共有点は少ない。一方で、撮影枚数Nが比較的大きい場合(N=30〜50)は、直接反射の信号の信頼度が高くなり、正しく復号化される点が増えるため、重畳点は減少し、エピポーラ共有点は増加する傾向にある。 Looking at the overall tendency, when the number of shots N is relatively small (N = 10 to 29), the reliability of the direct reflection signal is low and there are many points where it is not correctly decoded, so that many overlapping points occur. There are few epipolar sharing points. On the other hand, when the number of shots N is relatively large (N = 30 to 50), the reliability of the direct reflection signal is high and the number of points to be correctly decoded increases, so that the number of superimposition points decreases and the epipolar shared point. Tends to increase.
図11(B)及び図11(C)に示すように、投影枚数Nが大きい場合は、遠点と近点の発声比率はおよそ1対4であり、遠点のうち、相互反射による復元点の約60%をジオメトリ拘束処理で排除できる。この例では、最小投影枚数N=30でノイズの少ない復元が可能である。以上のように、投影枚数Nを少なくすると、エピポーラ拘束処理のみでは直接反射光の対応点が決定できない重畳点が増加し、ジオメトリ拘束処理の効果が顕著になる。 As shown in FIGS. 11B and 11C, when the number of projected images N is large, the vocalization ratio between the far point and the near point is about 1: 4, and the restoration point due to mutual reflection among the far points About 60% of the above can be eliminated by geometry constraint processing. In this example, restoration with less noise is possible with a minimum number of projected images N = 30. As described above, when the number of projected sheets N is reduced, the number of overlapping points at which the corresponding points of the directly reflected light cannot be determined only by the epipolar constraint processing increases, and the effect of the geometry constraint processing becomes remarkable.
次に、拘束範囲設定部523におけるジオメトリ拘束処理の拘束範囲の設定について説明する。上記の説明から明らかなように、拘束範囲は、対象物を完全に含んでいる必要があるとともに、拘束範囲が小さいほど、ジオメトリ拘束処理が有効に相互反射光の復元点を排除できる。このような拘束範囲は、種々の方法によって設定することができる。
Next, the setting of the constraint range of the geometry constraint process in the constraint
なお、拘束範囲は、必ずしも3次元の閉空間として設定される必要はなく、1次元又は2次元の方向に解放されていてもよい。例えば、奥行方向にのみ拘束範囲が設定され、奥行方向と直行する平面方向には解放されていてもよく、あるいは、拘束範囲が投影部2の投影画角内として設定され、投影奥行方向の拘束条件が設定されていなくてもよい。
The constraint range does not necessarily have to be set as a three-dimensional closed space, and may be released in the one-dimensional or two-dimensional direction. For example, the constraint range may be set only in the depth direction and released in the plane direction perpendicular to the depth direction, or the constraint range may be set within the projection angle of view of the
まず、拘束範囲は、ユーザの指定に応じて設定することができる。この場合には、拘束範囲設定部523には、ユーザからの拘束範囲の指定が入力され、拘束範囲設定部523は、この指定に従って拘束範囲を設定する。ユーザは、撮像部1及び投影部2に関連して設定された座標内で任意の範囲を指定することができる。例えば、拘束範囲を直方体のボックス形状とする場合には、ユーザは、ボックスの縦横高さ、位置、姿勢を指定することで拘束範囲を指定することができる。
First, the constraint range can be set according to the user's specification. In this case, the constraint range designation from the user is input to the constraint
特に、対象物の形状、位置、姿勢が既知である場合には、ユーザは、その既知の形状、位置、姿勢に従って拘束範囲を指定することができる。例えば、上記のように対象物に対して仕事をするための3次元形状計測の場合には、対象物の位置及び姿勢が未知である場合があるが、対象物の形状検査のための3次元形状計測の場合には、対象物の形状、位置、姿勢が既知である場合がある。対象物の形状、位置、姿勢が既知である場合には、ユーザが予め対象物の既知の形状、位置、姿勢に応じて拘束範囲を指定することができる。 In particular, when the shape, position, and posture of the object are known, the user can specify the restraint range according to the known shape, position, and posture. For example, in the case of 3D shape measurement for working on an object as described above, the position and posture of the object may be unknown, but 3D for shape inspection of the object. In the case of shape measurement, the shape, position, and posture of the object may be known. When the shape, position, and posture of the object are known, the user can specify the restraint range in advance according to the known shape, position, and posture of the object.
また、拘束範囲設定部523は、対象物の形状に応じて拘束範囲を設定してもよい。上述のように、対象物がL字アングルである場合には、拘束範囲はその形状に合わせて、当該L字アングルを包含するL字アングル形状に設定されてよい。
Further, the restraint
また、3次元形状計測システム100が、対象物を検出する検出部をさらに備えて、拘束範囲設定部523が、検出部の検出結果に応じて拘束範囲を設定してよい。すなわち、対象物の位置が未知である場合に、検出部が既存の手法を用いて対象物を検知し、拘束範囲設定部523が、検知部によって対象物が検知された位置に拘束範囲を設定してよい。
Further, the three-dimensional
さらに、3次元形状計測システム100は、上記の3次元形状計測より粗い精度で対象物の形状を計測する第2の3次元形状計測部をさらに備えていてよい。そして、拘束範囲設定部523は、第2の3次元形状計測部の計測結果に基づいて、対象物が含まれるように拘束範囲を設定してよい。第2の3次元形状計測部によって対象物の大まかな形状、位置、姿勢が得られるので、拘束範囲設定部523は、それを包含するように拘束範囲を設定する。
Further, the three-dimensional
あるいは、対象物が存在すべき空間に、拘束範囲となるべき形状、位置、姿勢の物体を置いて、第2の3次元形状計測部によって当該物体を計測して、拘束範囲設定部523が、計測された形状、位置、姿勢をそのまま拘束範囲としてもよい。
Alternatively, an object having a shape, position, and posture that should be a restraint range is placed in the space where the object should exist, and the object is measured by the second three-dimensional shape measurement unit, and the restraint
図12は、本発明の実施の形態の3次元形状計測のフローチャートである。まず、信号処理部5は、あらかじめ得られている幾何的なキャリブレーションパラメタを取得する(ステップS121)。投影部2は、符号化パターン画像生成部4で生成された符号化パターン画像列を投影する(ステップS122)。撮像部1は、投影された符号化パターン画像列を複数枚撮像して撮像画像列を取得する(ステップS123)。
FIG. 12 is a flowchart of three-dimensional shape measurement according to the embodiment of the present invention. First, the signal processing unit 5 acquires the geometric calibration parameters obtained in advance (step S121). The
符号化部51は、撮像画像列を用いて、撮像画像上で復号化を行う(ステップS124)。エピポーラ拘束処理部521は、重畳点についてエピポーラ拘束処理を行うことで、復号化情報から相互反射成分の復号化情報を排除する(ステップS125)。3次元形状計測部53が残った重畳点を含む復号化情報から3次元形状を計測(復元)して、ジオメトリ拘束処理部522に出力する(ステップS126)。
The
ジオメトリ拘束処理部522は、3次元形状計測部53から得た復元点から、復元範囲外の復元点を排除し(ステップS127)、3次元情報出力部6は、残った復元点を対象物の3次元形状を示す3次元形状データとして出力する(ステップS128)。
The geometry
以上のように、本実施の形態によれば、復号化により重畳点において直接反射成分の復号化情報と相互反射成分の復号化情報とが分離して得られ、それらを用いて3次元形状計測を行ったときに、相互反射の対応点で復元された点は復元範囲外に復元され、直接反射の対応点は復元範囲内に復元される性質を用いて、復元範囲外の復元点を排除することで、直接反射の対応点を復元するエピポーラ拘束のみでは分離できない重畳点についても、相互反射による復元点を適切に排除して3次元形状の計測(復元)を行うことができる。 As described above, according to the present embodiment, the decoding information of the direct reflection component and the decoding information of the mutual reflection component are separately obtained at the superimposition point by decoding, and the three-dimensional shape measurement is performed using them. When the above is performed, the points restored at the corresponding points of mutual reflection are restored outside the restoration range, and the corresponding points of direct reflection are restored within the restoration range, and the restoration points outside the restoration range are excluded. By doing so, it is possible to measure (restore) the three-dimensional shape by appropriately excluding the restoration points due to mutual reflection even for the overlapping points that cannot be separated only by the epipolar constraint that restores the corresponding points of direct reflection.
(変形例1)
上記の実施の形態では、対象物に投影された符号化パターン画像をカメラ20(撮像部1)で撮像しているが、このカメラ20に代えて、イベントカメラを用いてもよい。イベントカメラは輝度値の変化量に応じて、画素ごとにイベントを検出することが可能なカメラである。イベントカメラは、通常のカメラよりもダイナミックレンジが広く、小型かつ省メモリで利用できる点で有利である。イベントカメラのこの性質を利用することで、対象物が金属以外の半透明物等である場合にも有効に3次元形状を計測できる。
(Modification example 1)
In the above embodiment, the coded pattern image projected on the object is captured by the camera 20 (imaging unit 1), but an event camera may be used instead of the
(変形例2)
上記の実施の形態では、符号化パターン画像として、白黒2値のランダムドットパターンを用いているが、これに代えて、ライン型のM系列画像などを用いてもよい。
(Modification 2)
In the above embodiment, a black-and-white binary random dot pattern is used as the coded pattern image, but a line-type M-sequence image or the like may be used instead.
(変形例3)
上記の実施の形態では、プロジェクタ10とカメラ20とをそれぞれ1つずつ用いて3次元形状計測システム100を構成したが、プロジェクタ10やカメラ20は、複数であってもよい。例えば、1台のプロジェクタと複数台のカメラ20の組み合わせ、複数台のプロジェクタ10と1台のカメラ20との組み合わせ、複数台のプロジェクタ10と複数台のプロジェクタ10と複数台のカメラ20との組み合わせで3次元形状計測システム100を構成してもよい。
(Modification 3)
In the above embodiment, the three-dimensional
プロジェクタ10が複数ある場合には、それぞれのプロジェクタ10が独自の符号化パターン画像列を投影し、かつ、それぞれが発生させる符号化の信号のZNCCが相対的に低い場合には、復号化情報の分離が可能となる。
When there are a plurality of
本発明は、直接反射の対応点を復元するエピポーラ拘束のみでは分離できない重畳点についても、相互反射による復元点を適切に排除して3次元形状の計測(復元)を行うことができ、対象物に符号化パターン画像を投影して、符号化パターン画像が投影された対象物を撮影することで当該対象物の3次元形状を計測する3次元形状計測システム等として有用である。 According to the present invention, even for a superposed point that cannot be separated only by the epipolar constraint that restores the corresponding point of direct reflection, the restoration point due to mutual reflection can be appropriately excluded to measure (restore) the three-dimensional shape of the object. It is useful as a three-dimensional shape measurement system or the like that measures the three-dimensional shape of the object by projecting the coded pattern image onto the object and photographing the object on which the coded pattern image is projected.
1 撮像部
2 投影部
3 同期制御部
4 符号化パターン画像生成部
5 情報処理部
51 復号化部
52 重畳点処理部
521 エピポーラ拘束処理部
522 ジオメトリ拘束処理部
523 拘束範囲設定部
53 3次元形状計測部
6 3次元形状出力部
10 プロジェクタ
20 カメラ
30 3次元形状計測装置
40 アームロボット
100 3次元形状計測システム
W ワーク(対象物)
1
Claims (12)
前記投影手段にて前記符号化パターン画像が投影される対象物を順に撮像して、複数の撮像画像からなる撮像画像列を取得する撮像手段と、
前記符号化パターン画像列及び前記撮像画像列に基づいて、復号化を行って復号化情報を取得する復号化手段であって、直接反射光と間接反射光とが重なった重畳点については直接反射成分の復号化情報と相互反射成分の復号化情報とに分離して前記復号化情報を取得する復号化手段と、
前記復号化情報を用いて、幾何計算により復元点を求めることにより前記対象物の3次元形状を計測する3次元形状計測手段と、
所定の拘束範囲外の前記復元点を排除するジオメトリ拘束処理を行う重畳点処理手段と、
を備えた3次元形状計測システム。 A projection means that sequentially projects multiple types of coded pattern images that form a coded pattern image sequence,
An imaging means that acquires an image sequence composed of a plurality of captured images by sequentially imaging an object on which the coded pattern image is projected by the projection means.
It is a decoding means that obtains decoding information by performing decoding based on the coded pattern image sequence and the captured image sequence, and is directly reflected at an overlapping point where directly reflected light and indirect reflected light overlap. Decoding means for acquiring the decoding information by separating the decoding information of the component and the decoding information of the mutual reflection component,
A three-dimensional shape measuring means for measuring the three-dimensional shape of the object by obtaining a restoration point by geometric calculation using the decoded information.
Superimposition point processing means that performs geometry constraint processing that excludes the restoration points outside the predetermined constraint range, and
3D shape measurement system equipped with.
前記3次元形状計測手段は、前記エピポーラ拘束処理によって前記相互反射成分の復号化情報を排除された前記復号化情報を用いて、前記3次元形状を計測する、請求項1に記載の3次元形状計測システム。 The superimposition point processing means eliminates the decoding information of the mutual reflection component at the superimposition point by epipolar constraint processing that limits the restoration point on the epipolar line.
The three-dimensional shape according to claim 1, wherein the three-dimensional shape measuring means measures the three-dimensional shape by using the decoding information from which the decoding information of the mutual reflection component is excluded by the epipolar constraint process. Measurement system.
前記拘束範囲設定手段は、前記検出手段の検出結果に応じて前記拘束範囲を設定する、請求項3に記載の3次元形状計測システム。 Further provided with a detection means for detecting the object,
The three-dimensional shape measurement system according to claim 3, wherein the restraint range setting means sets the restraint range according to the detection result of the detection means.
前記拘束範囲設定手段は、前記第2の3次元形状計測手段の計測結果に基づいて、前記対象物が含まれるように前記拘束範囲を設定する、請求項3に記載の3次元形状計測システム。 A second three-dimensional shape measuring means for measuring the shape of the object with a coarser accuracy than the three-dimensional shape measuring means is further provided.
The three-dimensional shape measuring system according to claim 3, wherein the restraint range setting means sets the restraint range so as to include the object based on the measurement result of the second three-dimensional shape measuring means.
前記投影ステップにて前記符号化パターン画像が投影される対象物を順に撮像して、複数の撮像画像からなる撮像画像列を取得する撮像ステップと、
前記符号化パターン画像列及び前記撮像画像列に基づいて、前記撮像画像上で、直接反射光と間接反射光とが重なった重畳点を含む対応点を探索する復号化ステップと、
前記復号化情報を用いて、幾何計算により復元点を求めることにより前記対象物の3次元形状を計測する3次元形状計測ステップと、
所定の拘束範囲外の前記復元点を排除するジオメトリ拘束処理を行う重畳点処理ステップと、
を備えた3次元形状計測方法。 A projection step that sequentially projects multiple types of coded pattern images that form a coded pattern image sequence,
An imaging step in which an object on which the coded pattern image is projected is sequentially imaged in the projection step, and an captured image sequence composed of a plurality of captured images is acquired.
Based on the coded pattern image sequence and the captured image sequence, a decoding step of searching for a corresponding point including a superposed point in which the directly reflected light and the indirect reflected light overlap on the captured image, and a decoding step.
A three-dimensional shape measurement step of measuring the three-dimensional shape of the object by obtaining a restoration point by geometric calculation using the decoding information, and
A superposition point processing step that performs a geometry constraint process that excludes the restored points outside the predetermined constraint range, and
A three-dimensional shape measurement method equipped with.
投影手段に、符号化パターン画像列をなす複数種類の符号化パターン画像を順に投影させる投影ステップと、
撮像手段に、前記投影ステップにて前記符号化パターン画像が投影される対象物を順に撮像させて、複数の撮像画像からなる撮像画像列を取得させる撮像ステップと、
前記符号化パターン画像列及び前記撮像画像列に基づいて、前記撮像画像上で、直接反射光と間接反射光とが重なった重畳点を含む対応点を探索する復号化ステップと、
前記復号化情報を用いて、幾何計算により復元点を求めることにより前記対象物の3次元形状を計測する3次元形状計測ステップと、
所定の拘束範囲外の前記復元点を排除するジオメトリ拘束処理を行う重畳点処理ステップと、
を実行させる3次元形状計測プログラム。 On the computer
A projection step of sequentially projecting a plurality of types of coded pattern images forming a coded pattern image sequence on the projection means,
An imaging step in which the imaging means sequentially images an object on which the coded pattern image is projected in the projection step to acquire an image sequence composed of a plurality of captured images.
Based on the coded pattern image sequence and the captured image sequence, a decoding step of searching for a corresponding point including a superposed point in which the directly reflected light and the indirect reflected light overlap on the captured image, and a decoding step.
A three-dimensional shape measurement step of measuring the three-dimensional shape of the object by obtaining a restoration point by geometric calculation using the decoding information, and
A superposition point processing step that performs a geometry constraint process that excludes the restored points outside the predetermined constraint range, and
3D shape measurement program to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019135943A JP2021018219A (en) | 2019-07-24 | 2019-07-24 | Three-dimensional shape measurement system, three-dimensional shape measurement method, and three-dimensional shape measurement program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019135943A JP2021018219A (en) | 2019-07-24 | 2019-07-24 | Three-dimensional shape measurement system, three-dimensional shape measurement method, and three-dimensional shape measurement program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021018219A true JP2021018219A (en) | 2021-02-15 |
Family
ID=74563171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019135943A Pending JP2021018219A (en) | 2019-07-24 | 2019-07-24 | Three-dimensional shape measurement system, three-dimensional shape measurement method, and three-dimensional shape measurement program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021018219A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113358103A (en) * | 2021-04-25 | 2021-09-07 | 西安交通大学 | Distributed measurement architecture processing method of large-scale R-LATs measurement system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016217833A (en) * | 2015-05-19 | 2016-12-22 | 株式会社リコー | Image processing system and image processing method |
JP2018146449A (en) * | 2017-03-07 | 2018-09-20 | オムロン株式会社 | Device and method for measuring three-dimensional shape |
-
2019
- 2019-07-24 JP JP2019135943A patent/JP2021018219A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016217833A (en) * | 2015-05-19 | 2016-12-22 | 株式会社リコー | Image processing system and image processing method |
JP2018146449A (en) * | 2017-03-07 | 2018-09-20 | オムロン株式会社 | Device and method for measuring three-dimensional shape |
Non-Patent Citations (1)
Title |
---|
TATSUHIKO FURUSE ET AL.: "Synchronous Detection for Robust 3-D Shape Measurement against Interreflection and Subsurface Scatte", ICIAP 2011: PROCEEDINGS OF THE 16TH INTERNATIONAL CONFERENCE ON IMAGE ANALYSIS AND PROCESSING: PRAT, vol. 6978, JPN6022040956, 14 September 2011 (2011-09-14), pages 276 - 285, XP019164492, ISSN: 0005102734, DOI: 10.1007/978-3-642-24085-0_29 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113358103A (en) * | 2021-04-25 | 2021-09-07 | 西安交通大学 | Distributed measurement architecture processing method of large-scale R-LATs measurement system |
CN113358103B (en) * | 2021-04-25 | 2023-06-09 | 西安交通大学 | Distributed measurement architecture processing method of large-scale R-LATs measurement system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6347789B2 (en) | System for optically scanning and measuring the surrounding environment | |
EP1595224B1 (en) | Acquisition of three-dimensional images by an active stereo technique using locally unique patterns | |
JP6596433B2 (en) | Structured optical matching of a set of curves from two cameras | |
JP6097903B2 (en) | Three-dimensional shape acquisition apparatus, processing method, and program | |
JP7168077B2 (en) | Three-dimensional measurement system and three-dimensional measurement method | |
US20140307085A1 (en) | Distance measuring apparatus and method | |
JP3482990B2 (en) | 3D image capturing device | |
CN112602118B (en) | Image processing device and three-dimensional measurement system | |
KR102160340B1 (en) | Method and apparatus for generating 3-dimensional data of moving object | |
JP2011237296A (en) | Three dimensional shape measuring method, three dimensional shape measuring device, and program | |
JP7184203B2 (en) | Image processing device, three-dimensional measurement system, image processing method | |
JP6975106B2 (en) | 3D shape measurement system, 3D shape measurement method, and 3D shape measurement program | |
JP2015019346A (en) | Parallax image generator | |
JP2021018219A (en) | Three-dimensional shape measurement system, three-dimensional shape measurement method, and three-dimensional shape measurement program | |
Rodrigues et al. | Structured light techniques for 3D surface reconstruction in robotic tasks | |
JP6456084B2 (en) | Image processing apparatus, image processing method, and program | |
JP2020027599A (en) | Three-dimensional scanning system | |
JP3253328B2 (en) | Distance video input processing method | |
KR20220078447A (en) | Operation method of image restoration apparatus for restoring low-density area | |
JP2006058092A (en) | Three-dimensional shape measuring device and method | |
JP2022083132A (en) | Three-dimensional shape measuring system, three-dimensional shape measuring method, and three-dimensional shape measuring program | |
JP2023158825A (en) | Three-dimensional shape measurement system, three-dimensional shape measurement method and three-dimensional shape measurement program | |
Nikolova | Experimental studies on the acquisition of 3D information using 2D images captured by a moving digital still camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211019 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221116 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230426 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230426 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230509 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20230714 |