Nothing Special   »   [go: up one dir, main page]

JP2023158825A - Three-dimensional shape measurement system, three-dimensional shape measurement method and three-dimensional shape measurement program - Google Patents

Three-dimensional shape measurement system, three-dimensional shape measurement method and three-dimensional shape measurement program Download PDF

Info

Publication number
JP2023158825A
JP2023158825A JP2022068842A JP2022068842A JP2023158825A JP 2023158825 A JP2023158825 A JP 2023158825A JP 2022068842 A JP2022068842 A JP 2022068842A JP 2022068842 A JP2022068842 A JP 2022068842A JP 2023158825 A JP2023158825 A JP 2023158825A
Authority
JP
Japan
Prior art keywords
point
dimensional shape
camera
hypothetical
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022068842A
Other languages
Japanese (ja)
Inventor
信一 住吉
Shinichi Sumiyoshi
慎作 日浦
Shinsaku Hiura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2022068842A priority Critical patent/JP2023158825A/en
Publication of JP2023158825A publication Critical patent/JP2023158825A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image processing system that can accurately obtain a three-dimensional image of an object even if the number of picked-up images is small, and can also suppress the effects of light reflection.SOLUTION: A three-dimensional shape measurement system for measuring a three-dimensional shape of an object performing known movement comprises a projection unit 1 that projects one projection image 101 having a code pattern onto the object performing known movement, an imaging unit 2 that continuously captures the object onto which the one projection image 101 is projected to generate a plurality of camera images 201, and a restoration unit 44 that sets a plurality of hypothesis points m1 to m4 on the camera line of sight for an arbitrary point p0 in the camera image and determines a hypothesis point among the plurality of hypothetical points m1 to m4 that satisfies motion constraints based on the known movement as a restoration point for the arbitrary point in question.SELECTED DRAWING: Figure 3

Description

特許法第30条第2項適用申請有り 〔掲載年月日〕 令和3年9月24日 〔掲載アドレス〕 https://eprints.lib.hokudai.ac.jp/dspace/handle/2115/83276Application for application of Article 30, Paragraph 2 of the Patent Act has been filed [Publication date] September 24, 2021 [Publication address] https://eprints. lib. hokudai. ac. jp/dspace/handle/2115/83276

本発明は、物体に符号化パターン画像を投影して、符号化パターン画像が投影された物体を撮影することで当該物体の3次元形状を計測する3次元形状計測システム、3次元形状計測方法、3次元形状計測プログラムに関する。 The present invention provides a three-dimensional shape measuring system, a three-dimensional shape measuring method, and a three-dimensional shape measuring system that projects a coded pattern image onto an object and measures the three-dimensional shape of the object by photographing the object onto which the coded pattern image is projected. Concerning a three-dimensional shape measurement program.

物体にパターン画像を投影して物体の3次元形状を計測する手法は、多くの工夫がなされている。パターン画像の種類として、スポット光投影法やスリット光投影法等が使用されていた。スポット光投影法は、レーザービームを対象物に投影し、スリット光投影法は光切断法とも呼ばれ、スリット光を対象物に投影することで、対象物の3次元位置を求める手法である。スリット光投影法は、工業計測などで広く用いられている。 Many techniques have been devised to measure the three-dimensional shape of an object by projecting a pattern image onto the object. As types of pattern images, spot light projection method, slit light projection method, etc. have been used. The spot light projection method projects a laser beam onto the object, and the slit light projection method, also called the light sectioning method, is a method of determining the three-dimensional position of the object by projecting a slit light onto the object. The slit light projection method is widely used in industrial measurement and the like.

Brenner, C., Boehm, J. and Guehring, J.: Photogrammetric calibration and accuracy evaluation of a crosspattern stripe projector, Videometrics VI, Vol. 3641, International Society for Optics and Photonics, pp. 164-173 (1998).Brenner, C., Boehm, J. and Guehring, J.: Photogrammetric calibration and accuracy evaluation of a crosspattern stripe projector, Videometrics VI, Vol. 3641, International Society for Optics and Photonics, pp. 164-173 (1998). Sato, K. and Inokuchi, S.: Three-dimensional surface measurement by space encoding range imaging, Journal of Robotic Systems, Vol. 2, pp. 27-39 (1985).Sato, K. and Inokuchi, S.: Three-dimensional surface measurement by space encoding range imaging, Journal of Robotic Systems, Vol. 2, pp. 27-39 (1985). Sagawa, R., Furukawa, R. and Kawasaki, H.: Dense 3D reconstruction from high frame-rate video using a static grid pattern, IEEE transactionson pattern analysis and machine intelligence, Vol. 36, No. 9, pp. 1733-1747 (2014).Sagawa, R., Furukawa, R. and Kawasaki, H.: Dense 3D reconstruction from high frame-rate video using a static grid pattern, IEEE transactions on pattern analysis and machine intelligence, Vol. 36, No. 9, pp. 1733- 1747 (2014). T. Weise, B. Leibe, and L. V. Gool. : Fast 3D scanning withautomatic motion compensation, In Proc. IEEE Conference on Computer Vision and Pattern Recognition, pages 1-8, 2007.T. Weise, B. Leibe, and L. V. Gool. : Fast 3D scanning with automatic motion compensation, In Proc. IEEE Conference on Computer Vision and Pattern Recognition, pages 1-8, 2007. Shiba, Y., Ono, S., Furukawa, R., Hiura, S., & Kawasaki, H.: Temporal Shape Super-Resolution by Intra-frame Motion Encoding Using High-fpsStructured Light, In Proceedings - 2017 IEEE International Conference on Computer Vision, ICCV 2017 (pp. 115-123).Shiba, Y., Ono, S., Furukawa, R., Hiura, S., & Kawasaki, H.: Temporal Shape Super-Resolution by Intra-frame Motion Encoding Using High-fpsStructured Light, In Proceedings - 2017 IEEE International Conference on Computer Vision, ICCV 2017 (pp. 115-123).

しかしながら、従来の投影法では、対象物の画像を復元するのに、撮像画像枚数が多く必要であり、また、対象物や周辺物の光反射により、画像の復元に影響が出ることが少なくない。 However, with conventional projection methods, a large number of captured images are required to restore the image of the object, and the restoration of the image is often affected by light reflection from the object and surrounding objects. .

そこで、本発明は、撮像画像の枚数が少なくても対象物の3次元画像を正確に得ることができ、また、光反射による影響を抑制することができる画像処理システム、画像処理装置、およびプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION Therefore, the present invention provides an image processing system, an image processing device, and a program that can accurately obtain a three-dimensional image of an object even with a small number of captured images, and can suppress the effects of light reflection. The purpose is to provide

本願発明の一態様の3次元形状計測システムは、既知の移動をする物体の3次元形状を計測する3次元形状計測システムであって、前記既知の移動をしている前記物体に符号化パターンを有する1つの投影画像を投影する投影部と、前記1つの投影画像が投影された前記既知の移動をしている前記物体を連続的に撮影して複数のカメラ画像を生成する撮影部と、前記カメラ画像の任意の点について、カメラ視線上に複数の仮説点を設定するとともに、前記複数の仮説点のうち、前記既知の動きに基づく動き制約を満たす仮説点を、当該任意の点の復元点として決定する復元部とを備えた構成を有する。 A three-dimensional shape measuring system according to one aspect of the present invention is a three-dimensional shape measuring system that measures the three-dimensional shape of an object that is moving in a known manner, and the system is a three-dimensional shape measuring system that measures the three-dimensional shape of an object that is moving in a known manner. a projection unit that projects one projection image having a plurality of projection images; a photographing unit that generates a plurality of camera images by continuously photographing the object having the known movement and onto which the one projection image is projected; For any point in the camera image, a plurality of hypothetical points are set on the camera's line of sight, and among the plurality of hypothetical points, a hypothetical point that satisfies the movement constraint based on the known movement is selected as the restoration point of the arbitrary point. It has a configuration including a restoration unit that determines as follows.

この構成により、スリット光投影法のような投影画像1枚で1次元的なラインのみを投影するタイプの計測システムの場合と比較して、上記のように符号化パターンを有する1つの投影画像を投影する場合には計測に必要な撮影画像の枚数が比較的少なくても密に物体の3次元形状を計測できる。また、ランダムパターンのもつ直交性の特性によって、相互反射などに頑健な3次元形状の計測が可能となる。すなわち、スリット光投影法のような1次元的なラインのみを投影するタイプの計測システムの場合は、相互反射、ハレーションなどの光学現象に頑健にできない一方で、上記のように符号化パターンの投影画像を用いることで相互反射、ハレーションなどの光学現象への頑健性を向上できる。 With this configuration, compared to a type of measurement system that projects only a one-dimensional line with a single projection image, such as the slit light projection method, it is possible to use a single projection image with a coding pattern as described above. In the case of projection, the three-dimensional shape of the object can be precisely measured even if the number of captured images required for measurement is relatively small. Furthermore, the orthogonality characteristic of the random pattern makes it possible to measure three-dimensional shapes that are robust against mutual reflection. In other words, in the case of a measurement system that projects only one-dimensional lines, such as the slit light projection method, it cannot be made robust against optical phenomena such as interreflection and halation. Using images can improve robustness to optical phenomena such as interreflection and halation.

上記の3次元形状計測システムにおいて、前記符号化パターンは、複数のスリットがランダムに配置されたランダムスリットパターンであってよい。 In the above three-dimensional shape measurement system, the encoding pattern may be a random slit pattern in which a plurality of slits are randomly arranged.

ランダムスリットパターンは、ライン間の境界部が少なく隣のラインの影響を受けにくいため、この構成により、光学現象が強く起きていないシーンにおいて特によく物体の3次元形状を計測できる。 Since the random slit pattern has few boundaries between lines and is less susceptible to the influence of adjacent lines, this configuration allows the three-dimensional shape of an object to be measured particularly well in scenes where strong optical phenomena are not occurring.

上記の3次元形状計測システムにおいて、前記スリットの伸長方向は、前記既知の動きに直交する方向であってよい。 In the above three-dimensional shape measurement system, the direction in which the slit extends may be perpendicular to the known movement.

この構成により、物体が既知の移動を行う間に撮影した複数の撮影画像において十分な輝度変化パターンが得られる。 With this configuration, a sufficient brightness change pattern can be obtained in a plurality of images taken while the object is moving in a known manner.

上記の3次元形状計測システムにおいて、前記ランダムパターンは、複数のドットが2次元状にランダムに配置されたランダムドットパターンであってよい。 In the three-dimensional shape measurement system described above, the random pattern may be a random dot pattern in which a plurality of dots are randomly arranged in a two-dimensional manner.

この構成により、特に、相互反射に対する頑健性は高かく、ノイズ点が復元されにくいという利点が得られる。 This configuration has the advantage that, in particular, robustness against interreflection is high and noise points are less likely to be reconstructed.

上記の3次元形状計測システムにおいて、前記復元部は、前記既知の移動を表す動きパラメタで前記複数の仮説点を移動させてよく、移動させた前記複数の仮説点を前記カメラ画像及び前記投影画像にそれぞれ透視投影することで得られる輝度変化パターンの組の相関が最大となる前記仮説点を前記動き制約を満たすと判断して、当該仮説点を前記復元点として決定してよい。 In the above three-dimensional shape measurement system, the restoring unit may move the plurality of hypothesis points using a motion parameter representing the known movement, and transfer the plurality of hypothesis points that have been moved to the camera image and the projection image. It may be determined that the hypothetical point at which the correlation between the set of luminance change patterns obtained by perspectively projecting the images satisfies the motion constraint is determined as the restoration point.

この構成により、移動する物体上の奥行き点を複数の仮説点の中から探索する際に、既知の動きパラメタで物体が移動することを制約として用いて、正しい奥行き値の仮説点で得た投影座標と撮影座標の輝度変化パターンの組が最大の相関を得ることを利用して形状復元をすることができる。 With this configuration, when searching for a depth point on a moving object from among multiple hypothetical points, the projection obtained at the hypothetical point with the correct depth value is used as a constraint that the object moves with known motion parameters. The shape can be restored by utilizing the fact that the set of luminance change patterns of coordinates and photographing coordinates has the maximum correlation.

上記の3次元形状計測システムは、前記復元部で設定された初期の前記仮説点及び移動された前記仮説点がエピポーラ拘束及び/又は奥行き拘束を満たさない場合に、当該仮説点を前記復元点の候補から除外する幾何拘束処理部をさらに備えていてよい。 The above-mentioned three-dimensional shape measurement system converts the hypothetical point to the restoring point when the initial hypothetical point set by the restoring unit and the moved hypothetical point do not satisfy an epipolar constraint and/or a depth constraint. It may further include a geometric constraint processing unit for excluding candidates.

この構成により、カメラ視線上に複数の仮説点を設定すると仮説数が爆発してしまい、計算効率が非常に悪くなるほか、正しい復元点が得られる確率が減ってしまうところ、エピポーラ拘束及び/又は奥行き拘束によって仮説点の数を制限して復元点の探索を行うことができる。 With this configuration, if multiple hypothesis points are set on the camera's line of sight, the number of hypotheses will explode, resulting in extremely poor computational efficiency and the probability of obtaining a correct restoration point will decrease. It is possible to search for restoration points by limiting the number of hypothesis points using depth constraints.

上記の3次元計測システムは、前記物体の代わりに校正パターンを用いて、前記投影部、前記撮影部、及び前記復元部によって得られた前記校正パターン上の点の復元点の移動フローを求めることで、前記動きパラメタを求める動きパラメタ取得部をさらに備えていてよい。 The three-dimensional measurement system described above uses a calibration pattern instead of the object to determine a movement flow of restoration points of points on the calibration pattern obtained by the projection unit, the imaging unit, and the restoration unit. The image forming apparatus may further include a motion parameter acquisition section that obtains the motion parameter.

この構成により、実際に動く物体について3次元形状計測を行うときと同じ既知の移動を用いて動きパラメタを推定することができる。 With this configuration, motion parameters can be estimated using the same known movement as when measuring the three-dimensional shape of an actually moving object.

本発明の一態様の3次元形状計測方法は、既知の移動をする物体の3次元形状を計測する3次元形状計測方法であって、前記既知の移動をしている前記物体に符号化パターンを有する投影画像を投影する投影ステップと、前記1つの投影画像が投影された前記既知の移動をしている前記物体を連続的に撮影して複数のカメラ画像を生成する撮影ステップと、前記カメラ画像の任意の点について、カメラ視線上に複数の仮説点を設定するとともに、前記複数の仮説点のうち、前記既知の動きに基づく動き制約を満たす仮説点を、当該任意の点の復元点として決定する復元ステップとを含む構成を有している。 A three-dimensional shape measuring method according to one aspect of the present invention is a three-dimensional shape measuring method for measuring a three-dimensional shape of an object that is moving in a known manner, and in which a coding pattern is applied to the object that is moving in a known manner. a projection step of projecting a projection image having a projection image; a photographing step of generating a plurality of camera images by continuously photographing the object having the known movement on which the one projection image is projected; and a photographing step of generating a plurality of camera images. For an arbitrary point, a plurality of hypothetical points are set on the camera's line of sight, and among the plurality of hypothetical points, a hypothetical point that satisfies the movement constraint based on the known movement is determined as the restoration point of the arbitrary point. The configuration includes a restoring step.

この構成によっても、撮影画像の枚数が比較的少なくても密に物体の3次元形状を計測でき、かつ、相互反射、ハレーションなどの光学現象に頑健な3次元形状の計測が可能となる。 With this configuration as well, the three-dimensional shape of an object can be precisely measured even if the number of captured images is relatively small, and the three-dimensional shape can be measured robustly against optical phenomena such as mutual reflection and halation.

本発明の一態様の3次元形状計測プログラムは、既知の移動をする物体の3次元形状を計測する3次元形状計測プログラムであって、プロジェクタ及びカメラに接続された情報処理装置にて実行されることで、前記プロジェクタに、前記既知の移動をしている前記物体に符号化パターンを有する1つの投影画像を投影させ、前記カメラに、前記1つの投影画像が投影された前記既知の移動をしている前記物体を連続的に撮影して複数のカメラ画像を生成させ、前記カメラ画像の任意の点について、カメラ視線上に複数の仮説点を設定するとともに、前記複数の仮説点のうち、前記既知の動きに基づく動き制約を満たす仮説点を、当該任意の点の復元点として決定する構成を有している。 A three-dimensional shape measurement program according to one aspect of the present invention is a three-dimensional shape measurement program that measures the three-dimensional shape of an object that moves in a known manner, and is executed by an information processing device connected to a projector and a camera. This causes the projector to project one projection image having a coded pattern on the object that is moving in the known manner, and causes the camera to project one projection image having the encoded pattern on the object that is moving in the known manner. A plurality of camera images are generated by continuously photographing the object, and a plurality of hypothetical points are set on the camera's line of sight for any point in the camera image, and among the plurality of hypothetical points, the It has a configuration in which a hypothetical point that satisfies a motion constraint based on known motion is determined as a restoration point for the arbitrary point.

この構成によっても、撮影画像の枚数が比較的少なくても密に物体の3次元形状を計測でき、かつ、相互反射、ハレーションなどの光学現象に頑健な3次元形状の計測が可能となる。 With this configuration as well, the three-dimensional shape of an object can be precisely measured even if the number of captured images is relatively small, and the three-dimensional shape can be measured robustly against optical phenomena such as mutual reflection and halation.

図1は、本発明の実施の形態の3次元形状計測システムの応用シーンを示す図である。FIG. 1 is a diagram showing an application scene of a three-dimensional shape measuring system according to an embodiment of the present invention. 図2は、本発明の実施の形態の3次元形状計測システムによる3次元形状計測の原理を説明する図である。FIG. 2 is a diagram illustrating the principle of three-dimensional shape measurement by the three-dimensional shape measurement system according to the embodiment of the present invention. 図3は、本発明の実施の形態の動き制約を用いた復号化及び仮説点決定のアルゴリズムの処理工程を説明するための図である。FIG. 3 is a diagram for explaining processing steps of an algorithm for decoding and hypothesis point determination using motion constraints according to an embodiment of the present invention. 図4は、本発明の実施の形態の3次元形状計測システムにおける機能構成を示すブロック図である。FIG. 4 is a block diagram showing the functional configuration of the three-dimensional shape measuring system according to the embodiment of the present invention. 図5は、本発明の実施の形態の3次元形状計測方法のフローチャートである。FIG. 5 is a flowchart of a three-dimensional shape measuring method according to an embodiment of the present invention. 図6は、本発明の実施の形態の動きパラメタ推定のフローチャートである。FIG. 6 is a flowchart of motion parameter estimation according to the embodiment of the present invention. 図7は、本発明の実施の形態の動きパラメタを推定するための装置を示す図である。FIG. 7 is a diagram illustrating an apparatus for estimating motion parameters according to an embodiment of the present invention. 図8Aは、本発明の実施の形態の投影画像の例を示す図である。FIG. 8A is a diagram showing an example of a projected image according to the embodiment of the present invention. 図8Bは、本発明の実施の形態の投影画像の例を示す図である。FIG. 8B is a diagram showing an example of a projected image according to the embodiment of the present invention. 図8Cは、従来法で用いられるシングルスリットの投影画像を示す図である。FIG. 8C is a diagram showing a single slit projection image used in the conventional method. 図9は、本発明の実施の形態の符号化パターンの生成過程を示すフローチャートである。FIG. 9 is a flowchart showing the encoding pattern generation process according to the embodiment of the present invention. 図10は、本発明の実施の形態の復元のフローチャートである。FIG. 10 is a flowchart of restoration according to an embodiment of the present invention. 図11は、本発明の実施の形態の幾何拘束処理のフローチャートである。FIG. 11 is a flowchart of geometric constraint processing according to the embodiment of the present invention. 図12は、実施例の3次元形状計測の結果を示す図である。FIG. 12 is a diagram showing the results of three-dimensional shape measurement in the example. 図13は、実施例の撮影枚数と復元率との関係を示すグラフである。FIG. 13 is a graph showing the relationship between the number of captured images and the restoration rate in the example. 図14Aは、白飛びが生じる状況での実験及びその結果を示す図である。FIG. 14A is a diagram showing an experiment in a situation where overexposure occurs and its results. 図14Bは、相互反射が生じる状況での実験及びその結果を示す図である。FIG. 14B is a diagram showing an experiment in a situation where mutual reflection occurs and its results. 図14Cは、鏡面反射物体を含む複数の材質の物体についての実験及びその結果を示す図である。FIG. 14C is a diagram illustrating experiments on objects made of a plurality of materials including a specular reflection object and the results thereof.

以下、図面を参照して本発明の実施の形態を説明する。なお、以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施の形態に応じた具体的構成が適宜採用されてよい。 Embodiments of the present invention will be described below with reference to the drawings. Note that the embodiment described below shows an example of the case where the present invention is implemented, and the present invention is not limited to the specific configuration described below. In implementing the present invention, specific configurations depending on the embodiments may be adopted as appropriate.

図1は、本発明の実施の形態の3次元形状計測システムの応用シーンを示す図である。3次元形状計測システム100は、プロジェクタ10と、カメラ20と、3次元形状計測装置30とを含んで構成される。プロジェクタ10は、符号化パターンを有する投影画像(以下、「符号化パターン画像」ともいう。)を投影する。カメラ20は、3次元形状計測の対象物であるワークWを撮影するように設置される。カメラ20は、プロジェクタ10によって投影されて移動するワークWで反射した符号化パターン画像を所定のフレームレートで撮影して、カメラ画像を生成する。 FIG. 1 is a diagram showing an application scene of a three-dimensional shape measuring system according to an embodiment of the present invention. The three-dimensional shape measurement system 100 includes a projector 10, a camera 20, and a three-dimensional shape measurement device 30. The projector 10 projects a projection image having a coding pattern (hereinafter also referred to as "encoding pattern image"). The camera 20 is installed so as to photograph the workpiece W, which is the object of three-dimensional shape measurement. The camera 20 generates a camera image by capturing the encoded pattern image projected by the projector 10 and reflected by the moving work W at a predetermined frame rate.

プロジェクタ10とカメラ20との幾何的関係、即ち位置及び姿勢の関係は、運用時には固定されており、この幾何的関係は3次元形状計測装置30において既知である。また、プロジェクタ10及びカメラ20は、いずれも3次元形状計測装置30に有線又は無線で通信可能に接続されている。なお、図1では、プロジェクタ10とカメラ20とが一体的に構成される例を示しているが、プロジェクタ10とカメラ20とが別体で構成されてもよい。 The geometrical relationship between the projector 10 and the camera 20, that is, the relationship in position and orientation, is fixed during operation, and this geometrical relationship is known in the three-dimensional shape measuring device 30. Further, the projector 10 and the camera 20 are both connected to a three-dimensional shape measuring device 30 so as to be able to communicate by wire or wirelessly. Although FIG. 1 shows an example in which the projector 10 and camera 20 are integrally configured, the projector 10 and camera 20 may be configured separately.

3次元形状計測装置30は、プロジェクタ10が投影した符号化パターン画像と、カメラ20が撮影したカメラ画像とに基づいて、ワークWの位置情報を含む3次元形状を計測する。3次元形状計測装置30は、例えば、汎用のコンピュータが本実施の形態の3次元形状計測プログラムを実行することで実現されてよい。 The three-dimensional shape measuring device 30 measures the three-dimensional shape including positional information of the workpiece W based on the encoded pattern image projected by the projector 10 and the camera image taken by the camera 20. The three-dimensional shape measuring device 30 may be realized, for example, by a general-purpose computer executing the three-dimensional shape measuring program of this embodiment.

図1の例では、ベルトコンベアC上に複数のワークWが載せられて、ベルトコンベアCの回転によってワークWが一定の方向に一定の速度で移動している。3次元形状計測装置30は、アームロボット40に接続されている。アームロボット40は、複数の関節を有するアームを備え、移動しているワークWに対して、ワークWを把持するという仕事をする。3次元形状計測装置30にて得られたワークWの3次元形状計測の結果は、アームロボット40に与えられる。アームロボット40は、ワークWの位置情報及び3次元形状情報に基づいて動作する。これにより、アームロボット40は、目的とするワークWに対して適切に仕事をすることができ、例えばワークWを適切にピッキングすることが可能となる。このようなシステムをロボットピッキングシステムという。 In the example of FIG. 1, a plurality of workpieces W are placed on a belt conveyor C, and the rotation of the belt conveyor C causes the workpieces W to move in a constant direction at a constant speed. The three-dimensional shape measuring device 30 is connected to an arm robot 40. The arm robot 40 includes an arm having a plurality of joints, and performs the job of gripping a moving workpiece W. The three-dimensional shape measurement result of the workpiece W obtained by the three-dimensional shape measuring device 30 is given to the arm robot 40. The arm robot 40 operates based on the position information and three-dimensional shape information of the workpiece W. Thereby, the arm robot 40 can appropriately work on the target workpiece W, for example, it becomes possible to appropriately pick the workpiece W. Such a system is called a robot picking system.

以下では、まず本実施の形態の3次元形状計測システム100による3次元形状計測の原理を説明し、その後に、そのような3次元形状計測を行うための構成を説明する。 Below, the principle of three-dimensional shape measurement by the three-dimensional shape measurement system 100 of this embodiment will be explained first, and then the configuration for performing such three-dimensional shape measurement will be explained.

図2は、本発明の実施の形態の3次元形状計測システムによる3次元形状計測の原理を説明する図である。本実施の形態の3次元形状計測システム100は、物体がベルトコンベアCによって運ばれることによる既知の移動を動き制約という幾何制約として利用して物体の3次元形状を計測する。ベルトコンベアCは、一方向に等速で動くものとし、その上に載っている物体及び物体上の点Pも同じ動きをするものとする。この点Pの動きベクトルをオブジェクトフローという。プロジェクタ10によって投影画像101を投影しながら物体がベルトコンベアC上を動いていくシーンをカメラ20で撮影してカメラ画像210を得る。 FIG. 2 is a diagram illustrating the principle of three-dimensional shape measurement by the three-dimensional shape measurement system according to the embodiment of the present invention. The three-dimensional shape measuring system 100 of the present embodiment measures the three-dimensional shape of an object by using the known movement of the object as it is carried by the belt conveyor C as a geometric constraint called a movement constraint. It is assumed that the belt conveyor C moves at a constant speed in one direction, and that the object placed on it and the point P on the object also move in the same way. The motion vector of this point P is called an object flow. A camera image 210 is obtained by photographing a scene in which an object moves on a belt conveyor C while projecting a projection image 101 by a projector 10 with a camera 20.

本実施の形態のように物体の移動ないしオブジェクトフローを厳密に設定できるという環境では、カメラ20によって撮影されたカメラ画像201及びプロジェクタ10が投影する投影画像101において、物体上の点Pは、エピポーラ線外で動くことになる。すなわち、エピポーラ拘束以外の新しい制約軸が与えられる。3次元形状計測システム100は、この制約を幾何制約として用いる。この幾何制約を動き制約という。 In an environment where the movement of an object or object flow can be set strictly as in this embodiment, in the camera image 201 taken by the camera 20 and the projection image 101 projected by the projector 10, the point P on the object is epipolar. You will be moving outside the line. In other words, a new constraint axis other than the epipolar constraint is provided. The three-dimensional shape measurement system 100 uses this constraint as a geometric constraint. This geometric constraint is called a motion constraint.

図3は、本発明の実施の形態の動き制約を用いた復号化及び仮説点決定のアルゴリズムの処理工程を説明するための図である。動き制約を用いた計測アルゴリズムの概要は以下のとおりである。まず、カメラ画像201中の任意の点p0について、カメラ視線L上で奥行方向に幾何拘束条件を満たす複数の仮説点m1~m4を設定する。ここで、カメラ視線Lは、カメラ20の焦点とカメラの撮像面における当該任意の点P0とを結ぶ線である。 FIG. 3 is a diagram for explaining processing steps of an algorithm for decoding and hypothesis point determination using motion constraints according to an embodiment of the present invention. The outline of the measurement algorithm using motion constraints is as follows. First, for an arbitrary point p0 in the camera image 201, a plurality of hypothetical points m1 to m4 that satisfy the geometric constraint condition are set in the depth direction on the camera line of sight L. Here, the camera line of sight L is a line connecting the focal point of the camera 20 and the arbitrary point P0 on the imaging surface of the camera.

そして、複数の仮説点m1~m4をカメラ画像201と投影画像101に透視投影をする。この透視投影を、各仮説点m1~m4をオブジェクトフロー方向Fに動かしながら行う。このとき、投影するプロジェクト画像の符号化パターンは動きに同期して変化させる。また、この段階で、幾何拘束条件を満たさない仮説点は排除する。そして、複数の仮説点m1~m4の、カメラ画像に透視投影された輝度変化パターン(以下、「復号化信号」ともいう。)202とプロジェクタ画像に透視投影された輝度変化パターン(以下、「符号化信号」ともいう。)102との組(ペア)が得られ、これらの全ての組の符号化信号と復号化信号との相関値を計算し、相関値が最大となる仮説点を復元点とする。図3の例では、仮説点m2の相関が最も大きいので、仮説点m2が復元点とされる。 Then, a plurality of hypothetical points m1 to m4 are perspectively projected onto the camera image 201 and the projection image 101. This perspective projection is performed while moving each hypothetical point m1 to m4 in the object flow direction F. At this time, the encoding pattern of the project image to be projected is changed in synchronization with the movement. Also, at this stage, hypothetical points that do not satisfy the geometric constraints are excluded. Then, a brightness change pattern (hereinafter also referred to as "decoded signal") 202 perspectively projected onto the camera image and a brightness change pattern (hereinafter referred to as "coded signal") perspectively projected onto the projector image of the plurality of hypothesis points m1 to m4. 102 is obtained, the correlation values between the encoded signal and the decoded signal of all these pairs are calculated, and the hypothetical point at which the correlation value is maximum is determined as the restoration point. shall be. In the example of FIG. 3, since the correlation of the hypothesis point m2 is the largest, the hypothesis point m2 is set as the restoration point.

図4は、本発明の実施の形態の3次元形状計測システムにおける機能構成を示すブロック図である。3次元形状計測システム100は、投影部1と、撮影部2と、情報処理部4と、3次元情報出力部5とを備えている。 FIG. 4 is a block diagram showing the functional configuration of the three-dimensional shape measuring system according to the embodiment of the present invention. The three-dimensional shape measurement system 100 includes a projection section 1, an imaging section 2, an information processing section 4, and a three-dimensional information output section 5.

投影部1は、プロジェクタ10で構成される。撮影部2は、カメラ20で構成される。情報処理部4、及び3次元情報出力部5は、3次元形状計測装置30に備えられてもよく、あるいは、その一部のみが3次元形状計測装置30に備えられ、他の一部はプロジェクタ10若しくはカメラ20、又は3次元形状計測装置30に接続された他の装置に備えられてもよい。 The projection unit 1 is composed of a projector 10. The photographing section 2 includes a camera 20. The information processing section 4 and the three-dimensional information output section 5 may be provided in the three-dimensional shape measuring device 30, or only a part thereof may be provided in the three-dimensional shape measuring device 30, and the other part may be provided in the projector. 10 or the camera 20, or another device connected to the three-dimensional shape measuring device 30.

投影部1は、符号化パターンに基づいて符号化パターン画像を投影する。投影部1は、ベルトコンベアCによって移動する物体に対して符号化パターン画像を投影する。なお、投影部1としては、プロジェクタ10のように任意の投影画像を投影できる装置を用いてもよいし、OHPのように、用意された版に対応した投影画像を投影する装置であってもよい。 The projection unit 1 projects a coding pattern image based on the coding pattern. The projection unit 1 projects a coded pattern image onto an object moving by a belt conveyor C. Note that the projection unit 1 may be a device capable of projecting an arbitrary projection image, such as the projector 10, or a device such as an OHP, which projects a projection image corresponding to a prepared plate. good.

撮影部2は、撮影を行ってカメラ画像を得る。撮影部2は、連続する複数のカメラ画像からなるカメラ画像列を得る。本実施の形態では、撮影部2は、入射する光の輝度値のみを検出して、カメラ画像としてモノクロ画像を生成する。また、本実施の形態では、撮影部2は、1024×768ピクセルの解像度の撮像素子を用いてカメラ画像を得る。 The photographing unit 2 performs photographing and obtains a camera image. The photographing unit 2 obtains a camera image sequence consisting of a plurality of consecutive camera images. In this embodiment, the photographing unit 2 detects only the luminance value of incident light and generates a monochrome image as a camera image. Further, in this embodiment, the photographing unit 2 obtains a camera image using an image sensor with a resolution of 1024×768 pixels.

情報処理部4は、幾何キャリブレーションパラメタ取得部41、動きパラメタ取得部42、復元部44、及び幾何拘束処理部45を備えている。幾何キャリブレーションパラメタ取得部41は、投影部1及び撮影部2とオブジェクトフローとの幾何的なキャリブレーションを実施する。投影部1と撮影部2とオブジェクトフローとの関係が固定されている場合には、幾何キャリブレーションパラメタは一定である。動きパラメタ取得部42は、所定の移動をする物体のオブジェクトフローを推定によって取得する。復元部44は、カメラ画像列、幾何キャリブレーションパラメタ、及び動きパラメタを用いて、複数の奥行き仮説点の中から動き制約を満たす点を復号化することで奥行き(復元点)の推定を行う。幾何拘束処理部45は、復元部44が奥行きの推定を行う際に、幾何学的制約を満たさない仮説点を候補から除外する。 The information processing section 4 includes a geometric calibration parameter acquisition section 41, a motion parameter acquisition section 42, a restoration section 44, and a geometric constraint processing section 45. The geometric calibration parameter acquisition unit 41 performs geometric calibration between the projection unit 1, the imaging unit 2, and the object flow. When the relationship between the projection section 1, the photographing section 2, and the object flow is fixed, the geometric calibration parameter is constant. The motion parameter acquisition unit 42 acquires the object flow of an object that moves in a predetermined manner by estimation. The restoring unit 44 estimates the depth (restored point) by decoding a point that satisfies the motion constraint from among the plurality of hypothetical depth points using the camera image sequence, the geometric calibration parameter, and the motion parameter. The geometric constraint processing unit 45 excludes hypothetical points that do not satisfy the geometric constraints from candidates when the restoration unit 44 estimates the depth.

3次元情報出力部5は、復元部44で得られた復元点の集合を物体の3次元形状の計測結果として出力する。 The three-dimensional information output unit 5 outputs the set of restoration points obtained by the restoration unit 44 as a measurement result of the three-dimensional shape of the object.

図5は、本発明の実施の形態の3次元形状計測方法のフローチャートである。まず、幾何キャリブレーションパラメタ取得部41は、あらかじめ得ていた幾何的なキャリブレーションパラメタを取得する(ステップS41)。また、動きパラメタ取得部42は、投影部1及び撮影部2と移動する対象物との相対的な動きパラメタ、即ちオブジェクトフローを取得する(ステップS42)。 FIG. 5 is a flowchart of a three-dimensional shape measuring method according to an embodiment of the present invention. First, the geometric calibration parameter acquisition unit 41 acquires previously obtained geometric calibration parameters (step S41). Furthermore, the motion parameter acquisition section 42 acquires relative motion parameters between the projection section 1 and the photographing section 2 and the moving object, that is, object flow (step S42).

投影部1は、動きパラメタ取得部42で取得した動きパラメタに従って移動する物体に投影画像を投影する(ステップS43)。撮影部2は、投影画像が投影された物体をN枚撮影し、それらのカメラ画像列を入力データとして情報処理部4に入力する(ステップS44)。 The projection unit 1 projects a projection image onto the moving object according to the motion parameter acquired by the motion parameter acquisition unit 42 (step S43). The photographing unit 2 photographs N images of the object onto which the projection image is projected, and inputs a sequence of these camera images to the information processing unit 4 as input data (step S44).

復元部44は、撮影部2からの入力データを用いて、幾何拘束処理部45で定義される幾何拘束条件を満たす奥行き仮説点をM個生成し、符号化信号102と復号化信号202との組のスコアが最大となる奥行き仮説点を復元点として採用する(ステップS45)。最後に、3D情報出力部5は、最終的に得られた3次元復元結果を出力する(ステップS46)。 The restoring unit 44 uses the input data from the imaging unit 2 to generate M depth hypothetical points that satisfy the geometric constraint conditions defined by the geometric constraint processing unit 45, and calculates the difference between the encoded signal 102 and the decoded signal 202. The depth hypothesis point with the maximum set score is adopted as the restoration point (step S45). Finally, the 3D information output unit 5 outputs the finally obtained three-dimensional restoration result (step S46).

図6は、本発明の実施の形態の動きパラメタ推定のフローチャートである。図7は、本発明の実施の形態の動きパラメタを推定するための装置を示す図である。まず、計測対象の物体の動きと同じ動きをする装置に、チェスパターンを有する校正ボード61を設置する(ステップS61)。撮影フレームnでの計測対象の物体と同じ位置で校正ボードを撮影し、次の位置へ移動して撮影するという処理を繰り返す(ステップS62)。 FIG. 6 is a flowchart of motion parameter estimation according to the embodiment of the present invention. FIG. 7 is a diagram illustrating an apparatus for estimating motion parameters according to an embodiment of the present invention. First, a calibration board 61 having a chess pattern is installed in a device that moves in the same way as the object to be measured (step S61). The process of photographing the calibration board at the same position as the object to be measured in photographing frame n, moving to the next position, and photographing is repeated (step S62).

動きパラメタ取得部42は、校正ボード61のカメラ画像列を用いてフレームn-1からフレームnへの動きパラメタ(R,T)nを推定する(ステップS63)。このとき、動きパラメタ取得部42は、校正ボード61のチェスパターンのコーナーの3次元的な平均動きフローから、動きパラメタを推定する。 The motion parameter acquisition unit 42 estimates motion parameters (R, T)n from frame n-1 to frame n using the camera image sequence of the calibration board 61 (step S63). At this time, the motion parameter acquisition unit 42 estimates motion parameters from the three-dimensional average motion flow of the corners of the chess pattern on the calibration board 61.

具体的には、例えば、特定の傾きをした校正ボードを10mmずつ動かしながら7回撮影した場合、あるコーナーに注目するとnフレームのコーナーの3次元点とn-1フレームのコーナーの3次元点との差から6個のベクトルが得られ、これらの平均を求めることで、そのコーナーの平均動きフローを求めることができる。この処理を全コーナーに対して行い、それぞれの平均動きフローを求め、さらにそれらを平均化することで、全体の平均動きフローを求めることができる。動きパラメタ取得部42は、この全体の平均動きフローをオブジェクトフロー、即ち動きパラメタとする。 Specifically, for example, if a calibration board with a specific inclination is moved 10 mm at a time and photographed 7 times, if you focus on a certain corner, you will notice that the 3D point at the corner of the n frame and the 3D point at the corner of the n-1 frame. Six vectors are obtained from the difference between , and by calculating the average of these vectors, the average motion flow of that corner can be calculated. By performing this process on all corners, finding the average motion flow for each corner, and further averaging them, the overall average motion flow can be found. The motion parameter acquisition unit 42 uses this entire average motion flow as an object flow, that is, a motion parameter.

なお、より複雑な動きをするロボットアームのような装置でも、同様の方法で各コーナーの[Rt]を求めることができる。コーナーをより密にとるために複数の校正器を用いてもよく、コーナーがない領域は周囲のコーナーの動きフローを線形補間などで補間してもよい。 Note that even for a device such as a robot arm that makes more complicated movements, [Rt] of each corner can be determined using the same method. A plurality of calibrators may be used to draw corners more closely, and in areas where there are no corners, the motion flow of surrounding corners may be interpolated by linear interpolation or the like.

図8A及び図8Bは、本発明の実施の形態の投影画像の例を示す図である。図8Aは、投影画像が、複数のドットが2次元状にランダムに配置されたランダムドットパターンを有する例を示しており、図8Bは、投影画像が、縦方向に伸長する複数のスリットがランダムに配置されたランダムスリットパターンを有する例を示している。図8Aの例では、投影画像は1280×800画素の画素数を有し、ドットサイズは10×10画素である。図8Bの例では、投影画像は1280×800画素の画素数を有し、スリット幅は10画素である。 8A and 8B are diagrams showing examples of projected images according to the embodiment of the present invention. FIG. 8A shows an example in which the projected image has a random dot pattern in which a plurality of dots are randomly arranged in a two-dimensional manner, and FIG. 8B shows an example in which the projected image has a plurality of slits extending in the vertical direction in a random pattern. An example is shown with a random slit pattern arranged in . In the example of FIG. 8A, the projected image has a pixel count of 1280×800 pixels, and the dot size is 10×10 pixels. In the example of FIG. 8B, the projected image has a pixel count of 1280×800 pixels, and the slit width is 10 pixels.

図8Cは、従来法で用いられるシングルスリットの投影画像を示す図である。符号化パターンであるランダムドットパターン(図8A)及びランダムスリットパターン(図8B)は、各ドット又はスリットに独立な符号化情報が埋め込まれているため、光学現象に頑健な計測が期待できる。一方、シングルスリットパターン(図8C)の場合は、投影した光が相互反射などにより複数反射すると、直接反射を同定することが困難と予想され、正しい3次元点の計測が困難である。 FIG. 8C is a diagram showing a single slit projection image used in the conventional method. The random dot pattern (FIG. 8A) and the random slit pattern (FIG. 8B), which are encoded patterns, have independent encoded information embedded in each dot or slit, so that measurements that are robust to optical phenomena can be expected. On the other hand, in the case of a single slit pattern (FIG. 8C), if the projected light is reflected multiple times due to mutual reflection, etc., it is expected that it will be difficult to identify the direct reflection, and it will be difficult to measure the correct three-dimensional point.

ランダムドットパターン及びランダムスリットパターンは、シングルスリットと比較すると、符号化情報を含むものであり、よって、ランダムドットパターン及びランダムスリットパターンは、シングルスリットとの対比において、符号化パターンということができる。ランダムドットパターンは、縦方向及び横方向の2次元状に符号化情報を有するパターンであり、ランダムスリットパターンは、縦方向又は横方向のいずれか一方にのみ(図8Bの場合は横方向にのみ)符号化情報を有するパターンである。 A random dot pattern and a random slit pattern contain encoded information compared to a single slit, and thus a random dot pattern and a random slit pattern can be said to be encoded patterns in comparison with a single slit. The random dot pattern is a pattern that has encoded information two-dimensionally in the vertical and horizontal directions, and the random slit pattern has encoded information only in either the vertical or horizontal direction (in the case of FIG. 8B, it has encoded information only in the horizontal direction). ) is a pattern with encoded information.

図9は、図8Aや図8Bに示した符号化パターンの生成過程を示すフローチャートである。まず、符号化パターンの各ドット(ランダムドットの場合)又はスリット(ランダムスリットの場合)について、適当なシードを基にして、0~255のランダム数が生成される(ステップS81)。本実施の形態では、メルセンヌツイスタ又はM系列を用いてランダム数が生成される。そして、各ドット/スリットについて、生成されたランダム数が閾値128以上であれば、当該ドット/スリットの画素値を255とし、生成されたランダム数が128未満であれば、当該ドット/スリットの画素値を0とする(ステップS82)。 FIG. 9 is a flowchart showing the process of generating the encoding patterns shown in FIGS. 8A and 8B. First, for each dot (in the case of random dots) or slit (in the case of random slits) of the encoding pattern, a random number from 0 to 255 is generated based on an appropriate seed (step S81). In this embodiment, random numbers are generated using Mersenne twister or M sequence. For each dot/slit, if the generated random number is equal to or greater than the threshold value of 128, the pixel value of the dot/slit is set to 255, and if the generated random number is less than 128, the pixel value of the dot/slit is set to 255. The value is set to 0 (step S82).

図10は、本発明の実施の形態の復元のフローチャートである。復元部44は、まず、符号化パターン画像が投影された移動する物体を撮影してカメラ画像を取得する(ステップS101)。次に、復元部44は、カメラ画像の画素pで幾何拘束条件であるエピポーラ拘束と奥行き拘束の2つの満たす奥行き仮説点をM_p個設定する(ステップS102)。 FIG. 10 is a flowchart of restoration according to an embodiment of the present invention. The restoring unit 44 first captures a camera image by photographing a moving object onto which a coded pattern image is projected (step S101). Next, the restoring unit 44 sets M_p depth hypothesis points that satisfy the epipolar constraint and the depth constraint, which are the geometric constraint conditions, at the pixel p of the camera image (step S102).

復元部44は、仮説点mを各フレームの動きパラメタ(R,T)_nで3次元座標変換する(ステップS103)。移動された仮説点m_pをカメラ画像と投影画像に透視投影する処理をNフレーム分繰り返し、符号化信号102と復号化信号202との組(ペア)を得る(ステップS104)(図3参照)。復元部44は、次に、仮説点m_pについての符号化信号102と復号化信号202の相関をゼロ平均正規化相互相関で求め、得られた相関値を保存する(ステップS105)。 The restoring unit 44 performs three-dimensional coordinate transformation of the hypothetical point m using the motion parameter (R, T)_n of each frame (step S103). The process of perspectively projecting the moved hypothetical point m_p onto the camera image and the projection image is repeated for N frames to obtain a pair of the encoded signal 102 and the decoded signal 202 (step S104) (see FIG. 3). Next, the restoring unit 44 calculates the correlation between the encoded signal 102 and the decoded signal 202 for the hypothesis point m_p using zero-mean normalized cross-correlation, and stores the obtained correlation value (step S105).

復元部44は、M_p個の仮説点で相関を得る処理が終了したか否かを判断し(ステップS106)、終了していない場合は(ステップS106でNO)、ステップS103に戻って処理を繰り返す。M_p個の仮説点について相関値が得られた場合には(ステップS106でYES)、M_p個の相関値のなかで最大を得た仮説点m_pを当該画素pについての復元点として採用する(ステップS107)。復元部44は、上記の処理をカメラ画像の全画素について行う(ステップS108)。 The restoring unit 44 determines whether the process of obtaining correlations with M_p hypothesis points has been completed (step S106), and if it has not been completed (NO in step S106), the process returns to step S103 and repeats the process. . If correlation values are obtained for the M_p hypothesis points (YES in step S106), the hypothesis point m_p that has obtained the maximum among the M_p correlation values is adopted as the restoration point for the pixel p (step S106). S107). The restoring unit 44 performs the above processing on all pixels of the camera image (step S108).

図11は、本発明の実施の形態の幾何拘束処理のフローチャートである。幾何拘束処理部45は、初期位置から移動したフレームn時点の奥行き仮説点m_pを取得する(ステップS111)。幾何拘束処理部45は、仮説点m_pの奥行き値が復元範囲内であるか否か(奥行き拘束)を判断する(ステップS112)。ここで、計測対象物とカメラ20及びプロジェクタ10との位置関係から事前に復元範囲をヒューリスティックに設定することが一般的に行われているが、奥行き拘束は、その奥行き方向に着目した拘束である。 FIG. 11 is a flowchart of geometric constraint processing according to the embodiment of the present invention. The geometric constraint processing unit 45 acquires the hypothetical depth point m_p at the time of frame n, which has been moved from the initial position (step S111). The geometric constraint processing unit 45 determines whether the depth value of the hypothetical point m_p is within the restoration range (depth constraint) (step S112). Here, it is common practice to heuristically set the restoration range in advance based on the positional relationship between the measurement target and the camera 20 and projector 10, but the depth constraint is a constraint that focuses on the depth direction. .

仮説点m_pの奥行き値が復元範囲内である場合は(ステップS112でYES)、幾何拘束処理部45は、仮説点m_pをカメラ画像と投影画像に透視投影し(ステップS113)、透視投影された点がエピポーラ線上にあるか否か(エピポーラ拘束)を判断する(ステップS114)。エピポーラ拘束は、事前に幾何キャリブレーションで得られたパラメタ(F行列)から求められる。幾何拘束処理部45は、カメラ画像及び投影画像の双方のエピポーラ線上に仮説点の透視投影点が乗るか否かを判断する。 If the depth value of the hypothetical point m_p is within the restoration range (YES in step S112), the geometric constraint processing unit 45 perspectively projects the hypothetical point m_p onto the camera image and the projection image (step S113). It is determined whether the point is on the epipolar line (epipolar constraint) (step S114). The epipolar constraint is determined from parameters (F matrix) obtained in advance through geometric calibration. The geometric constraint processing unit 45 determines whether the perspective projection point of the hypothetical point lies on the epipolar line of both the camera image and the projection image.

エピポーラ線からある程度の距離を許す閾値を用いて、キャリブレーション誤差の影響を低減させてよい。例えば、カメラ20の画素数が1024×768画素であり、プロジェクタ10の画素数が1280×800画素である場合は、カメラ20側では閾値th_Cを10~20画素程度としてよく、プロジェクタ10側ではそれに画素サイズの比を賭けた誤差(閾値th_P=th_C×(1280/1024))を許容してよい。 A threshold that allows some distance from the epipolar line may be used to reduce the effect of calibration errors. For example, if the number of pixels of the camera 20 is 1024 x 768 pixels and the number of pixels of the projector 10 is 1280 x 800 pixels, the threshold value th_C may be set to about 10 to 20 pixels on the camera 20 side, and An error based on the pixel size ratio (threshold th_P=th_C×(1280/1024)) may be allowed.

幾何拘束処理部45は、透視投影された点がエピポーラ線上にある場合(ステップS114でYES)、すなわち、奥行き拘束もエピポーラ拘束も満たす場合には、その奥行き仮説点m_pは幾何制約を満たす仮説点であると判断する(ステップS115)。奥行き拘束又はエピポーラ拘束のいずれかを満たさない場合は(ステップS112でNO、又はステップS114でNO)、幾何拘束処理部45は、その奥行き仮説点m_pは幾何制約を満たさない仮説点であると判断する(ステップS116)。 If the perspective-projected point is on the epipolar line (YES in step S114), that is, if both the depth constraint and the epipolar constraint are satisfied, the depth hypothetical point m_p is a hypothetical point that satisfies the geometric constraint. It is determined that (step S115). If either the depth constraint or the epipolar constraint is not satisfied (NO in step S112 or NO in step S114), the geometric constraint processing unit 45 determines that the hypothetical depth point m_p is a hypothetical point that does not satisfy the geometric constraint. (Step S116).

(実施例)
3次元形状計測の実施例について以下に説明する。図2に示した3次元計測システム100を用いて、計測対象の物体としてスタンフォードバニーのランバートな模型(10×10×10cm程度のサイズ)を移動させながらN枚撮影して3次元毛状を計測する実験を行った。カメラ画像と投影画像とを用いて、動き制約を用いた計測アルゴリズム(図10参照)にて、上述の既知の動き(オブジェクトフロー)で移動するバニーの3次元形状計測(形状復元)をした。
(Example)
An example of three-dimensional shape measurement will be described below. Using the 3D measurement system 100 shown in FIG. 2, N images are taken while moving a Lambertian model of the Stanford bunny (about 10 x 10 x 10 cm) as the object to be measured, and the 3D hair shape is measured. We conducted an experiment to measure the results. Using a camera image and a projection image, a three-dimensional shape measurement (shape restoration) of a bunny moving with the above-mentioned known motion (object flow) was performed using a measurement algorithm using movement constraints (see FIG. 10).

図12は、実施例の3次元形状計測の結果を示す図である。図12において、上段はランダムドットパターンを用いた場合の結果を示しており、中段はランダムスリットを用いた場合の結果を示しており、下段はシングルスリットパターンを用いた場合の結果を示している。また、図12において、各段の左側は撮影枚数をN=9(6mm移動するごとに撮影)とした場合の結果を示しており、各段の右側は撮影枚数をN=54(1mm移動するごとに撮影)とした場合の結果を示している。 FIG. 12 is a diagram showing the results of three-dimensional shape measurement in the example. In Figure 12, the upper row shows the results when a random dot pattern is used, the middle row shows the results when a random slit is used, and the lower row shows the results when a single slit pattern is used. . In addition, in Fig. 12, the left side of each row shows the results when the number of shots is N = 9 (taken every 6 mm movement), and the right side of each row shows the result when the number of shots is N = 54 (taken every 1 mm move). The results are shown for the case where the images were taken separately.

図12に示すように、ランバートな物体では、十分な撮影枚数を取得すれば(格段の右側)、シングルスリットの場合にも正しい形状が得られることがわかる。ただし、シングルスリットの場合には、ランダムドットパターンやランダムスリットパターンと比較してノイズが多い。 As shown in FIG. 12, it can be seen that for a Lambertian object, if a sufficient number of images are taken (on the far right side), the correct shape can be obtained even in the case of a single slit. However, in the case of a single slit, there is more noise compared to a random dot pattern or a random slit pattern.

図13は、実施例の撮影枚数と復元率との関係を示すグラフである。図13は、ランダムドットパターン、ランダムスリットパターン、及びシングルスリットのそれぞれについて、撮影枚数N=27、18、9の各場合の復元率を示している。なお、撮影枚数Nが大きいことは、物体の移動速度が小さいこと、及び/又はカメラ20の撮影のフレームレートが小さいことを意味し、撮影枚数Nが小さいことはその逆を意味する。したがって、撮影枚数Nを小さくしても復元率を高く維持できるということは、物体の移動速度を大きくでき、及び/又は低フレームレートのカメラ20で足りることを意味する。 FIG. 13 is a graph showing the relationship between the number of captured images and the restoration rate in the example. FIG. 13 shows the restoration rates for the random dot pattern, the random slit pattern, and the single slit when the number of captured images N=27, 18, and 9, respectively. Note that a large number of captured images N means that the moving speed of the object is low and/or a low frame rate of imaging by the camera 20, and a small number of captured images N means the opposite. Therefore, the fact that the restoration rate can be maintained high even if the number of captured images N is small means that the moving speed of the object can be increased and/or that the camera 20 with a low frame rate is sufficient.

図13に示すように、ランダムドットパターン及びランダムスリットパターンの場合には、いずれもシングルスリットと比較して高い復元率(高密度)を達成できており、かつ、撮影枚数Nを小さくしても、シングルスリットの場合と比較して復元率(密度)の低下が小さく抑えられている。このことは、図12の左列と右列とを比較しても明らかである。 As shown in Figure 13, in the case of the random dot pattern and the random slit pattern, both achieved a higher restoration rate (higher density) than the single slit pattern, and even when the number of captured images N was reduced. , the reduction in recovery rate (density) is suppressed to a small level compared to the case of a single slit. This is clear even when comparing the left column and right column in FIG. 12.

さらに、多様な反射特性を持つ物体を配備し光学現象に対する頑健(ロバスト)性について調べる実験を行った。図14Aは、白飛びが生じる状況での実験及びその結果を示しており、図14Bは、相互反射が生じる状況での実験及びその結果を示しており、図14Cは、鏡面反射物体を含む複数の材質の物体についての実験及びその結果を示している。 Furthermore, we conducted experiments to examine robustness against optical phenomena by deploying objects with various reflective properties. FIG. 14A shows an experiment and its results in a situation where overexposure occurs, FIG. 14B shows an experiment and its results in a situation where mutual reflection occurs, and FIG. 14C shows a plurality of objects including specularly reflecting objects. Experiments on objects made of materials and their results are shown.

図14Aに示すように、カメラ画像にハレーション(白飛び)が生じている状況では、ランダムドットパターン及びランダムスリットパターンの場合には、白飛びによる欠測の影響を抑制できることが確認できた。また、図14Bに示すように、相互反射が生じている状況では、ランダムスリットパターンの場合には矢印部分で誤った形状が得られてしまっている。また、シングルスリットも同様に矢印部分にて誤った形状が得られてしまっている。一方、相互反射に頑健である考えられるランダムドットパターンについては全体に良好に形状復元ができた。 As shown in FIG. 14A, it was confirmed that in a situation where halation (overexposure) occurs in a camera image, the effects of missing measurements due to overexposure can be suppressed in the case of random dot patterns and random slit patterns. Furthermore, as shown in FIG. 14B, in a situation where mutual reflection occurs, in the case of a random slit pattern, an incorrect shape is obtained at the arrow portion. Similarly, the single slit also has an incorrect shape at the arrow part. On the other hand, the overall shape of the random dot pattern, which is thought to be robust to mutual reflection, was successfully restored.

図14Cにおいて、上段は正面から見た復元結果であり、下段は上から見た復元結果である。図14の例では、ステンレス、発泡スチロール、木製のボールをこの順で並べて置いて3次元形状計測を行った。図14Cに示すように、ランダムスリットパターンを用いた場合には矢印部分にて相互反射により誤った形状が計測されており、また、シングルスリットにおいてもステンレスと発泡スチロールとの間で相互反射の影響により形状計測が正しくできなかった。ランダムドットパターンについては全体に相互反射の影響を抑制して形状復元ができた。 In FIG. 14C, the upper row shows the restoration results seen from the front, and the lower row shows the restoration results seen from above. In the example shown in FIG. 14, stainless steel, styrofoam, and wooden balls were placed side by side in this order and the three-dimensional shape was measured. As shown in Figure 14C, when a random slit pattern is used, an incorrect shape is measured due to mutual reflection at the arrow part, and even in the case of a single slit, due to the influence of mutual reflection between stainless steel and Styrofoam. Shape measurement could not be performed correctly. As for the random dot pattern, the shape could be restored by suppressing the influence of mutual reflection on the whole.

以上の実験から、以下の知見が得られた。すなわち、ランダムスリットパターンは、ライン間の境界部が少なく隣のラインの影響を受けづらく、光学現象が強く起きていないシーンにおいて特に良い形状復元の傾向が見られた。ただし、相互反射によるエピポーラ線外の影響を受けやすく相互反射が発生するシーンでは誤計測してやや大きなノイズ塊が生まれやすい傾向が見られた。 From the above experiments, the following findings were obtained. In other words, the random slit pattern has fewer boundaries between lines and is less susceptible to the influence of adjacent lines, and tends to restore the shape particularly well in scenes where strong optical phenomena do not occur. However, in scenes where interreflection occurs, which is susceptible to effects outside the epipolar line due to interreflection, there was a tendency for erroneous measurements and somewhat large noise lumps to be generated.

また、ランダムドットパターンは、座標復号化時に隣接ドットの影響を受けやすく点が復元されづらい傾向はあるものの、相互反射に対する頑健性は高かったため、ノイズ点が復元されにくい利点があることが分かった。ランダムスリットパターン及びランダムドットパターンのいずれの符号化パターンにおいても、その光学現象に対する頑健性の高さは、ランダム符号をスリットかドットで配置しているためにエピポーラ線の内外の影響を抑制できたために得られたものであると考えられる。 In addition, although random dot patterns tend to be more susceptible to the influence of adjacent dots during coordinate decoding, making it difficult to restore points, it was found to have the advantage of being more robust against interreflection, making noise points less likely to be restored. . The high robustness of both the random slit pattern and random dot pattern encoding patterns against optical phenomena is due to the fact that the random codes are arranged as slits or dots, which suppresses the influence of the inside and outside of the epipolar line. It is thought that it was obtained in

以上のように、本実施の形態では、既知のオブジェクトフローに沿って移動する物体に対して、プロジェクタ10からランダムパターンを有する投影画像を照射してカメラ20で撮影し、カメラ画像における任意の点にカメラ視線上に複数の奥行き仮説点を設定して、仮説点をオブジェクトフローに沿って移動しながらカメラ画像及び投影画像に透視投影することで、カメラ画像における当該仮説点の輝度変化と投影画像の時系列変化とを比較し、それらの相関が最も高い仮説点を復元点として決定する。これにより、プロジェクタ10及びカメラ20として高速(高フレームレート)のものを用いなくても、移動する物体の移動を止めることなく、当該物体の3次元形状を計測できる。 As described above, in this embodiment, an object moving along a known object flow is irradiated with a projection image having a random pattern from the projector 10 and photographed by the camera 20, and an arbitrary point in the camera image is By setting multiple hypothetical depth points on the camera line of sight and perspectively projecting the hypothetical points onto the camera image and projection image while moving the hypothetical points along the object flow, it is possible to calculate the brightness changes of the hypothetical points in the camera image and the projected image. The hypothetical point with the highest correlation is determined as the restoration point. As a result, the three-dimensional shape of a moving object can be measured without stopping the movement of the moving object, without using high-speed (high frame rate) projector 10 and camera 20.

なお、上記の実施の形態では、計測対象の物体がランバートに近い反射特性を持つことを想定しているが、物体がランバート反射物でない場合に本実施の形態を適用してもよい。相対的に静止した状態での計測では、鏡面反射光の影響で復元が欠損する領域が発生してしまうが、本実施の形態によって動きながら対象物の情報を得ることで、欠損を低減できる。 Note that in the above embodiment, it is assumed that the object to be measured has reflection characteristics close to Lambertian, but this embodiment may be applied when the object is not a Lambertian reflector. When measuring in a relatively stationary state, there are areas where restoration is missing due to the influence of specularly reflected light, but this embodiment can reduce the loss by obtaining information about the object while it is moving.

また、上記の実施の形態では、複数のカメラ画像を得るために投影画像における符号化パターンを変化させることなく、一定としたが、これに代えて、複数のカメラ画像について、異なる符号化パターンを有する投影画像を投影してもよい。この場合には、3次元形状計測システム100は、投影部1による投影画像の符号化パターンの変化レートと、撮影部2による撮影のフレームレートとを同期させる同期制御部を備えてもよい。また、この場合には、3次元形状計測システム100が、変化する符号化パターンを生成するための符号化パターン生成部を備えていてもよい。 Further, in the above embodiment, the encoding pattern in the projection image is constant without changing in order to obtain multiple camera images, but instead of this, different encoding patterns are used for the multiple camera images. You may project the projection image which has. In this case, the three-dimensional shape measurement system 100 may include a synchronization control unit that synchronizes the change rate of the encoding pattern of the projected image by the projection unit 1 and the frame rate of the imaging by the imaging unit 2. Furthermore, in this case, the three-dimensional shape measurement system 100 may include a coding pattern generation unit for generating a changing coding pattern.

また、上記の符号化パターン生成部43において生成するモノクロの符号化パターンのドットは、大きい方が幾何キャリブレーション及び動き推定の誤差を吸収できるので望ましい。また、復元部44で仮説点を設定してオブジェクトフローに沿って仮説点を移動させていくときに、仮説点が符号化パターンにおけるドットとドットの境界(境界画素)に相当する場合がある。 Further, it is preferable that the dots of the monochrome encoding pattern generated by the encoding pattern generation unit 43 described above be larger because errors in geometric calibration and motion estimation can be absorbed. Furthermore, when the restoring unit 44 sets a hypothesis point and moves the hypothesis point along the object flow, the hypothesis point may correspond to a boundary between dots (boundary pixel) in the encoding pattern.

この場合には、そのような仮説点は白と黒の中間の値の画素値を持つことになる。よって、境界画素となることが多い仮説点については、復元点の候補から除外するようにしてもよい。例えば、仮説点を50フレームに亘って移動させる場合に、そのうちの20枚(40%)以上が境界画素となる場合にはそのような仮説点を復元点の候補から除外してよい。 In this case, such a hypothetical point will have a pixel value between white and black. Therefore, hypothetical points that are often boundary pixels may be excluded from restoration point candidates. For example, when moving a hypothetical point over 50 frames, if 20 frames (40%) or more of them are boundary pixels, such a hypothetical point may be excluded from restoration point candidates.

また、上記の実施の形態では、1つのプロジェクタ10と1つのカメラ20を用いたが、これらを複数台用いてもよい。例えば、プロジェクタ1台とカメラ2台、あるいはプロジェクタ3台とカメラ3台などを組み合わせでも、プロジェクタそれぞれで独自の符号化パターン画像列を生成し、かつ、各々が発生させる符号化信号のZNCCが相対的に低い場合は、符号化情報の分離が可能である。 Further, in the above embodiment, one projector 10 and one camera 20 are used, but a plurality of these may be used. For example, even if one projector and two cameras, or three projectors and three cameras are combined, each projector will generate its own encoding pattern image sequence, and the ZNCC of the encoded signal generated by each projector will be relative. If the ratio is low, it is possible to separate the encoded information.

また、上記の実施の形態では、ベルトコンベア、即ち水平移動するスライドステージを用いて既知の移動を実現していたが、これに加えて、又はこれに代えて、既知の動作をするデバイス、例えばロボットアームやAGVなどを用いて既知の移動を実現してもよい。ロボットアームやAGVは人によってパラメタ制御されているため、それらの制御信号を回転、並進情報に変換することで、スライドステージによる仮説点の並進移動と同等の計算が可能である。複雑な動きをするロボットアームのような装置でも校正時の各コーナーの[Rt]を求めることができる。コーナーをより密にとるために複数の校正器を用いたり、コーナーがない領域は周囲のコーナーのフローの線形補間などで補間したりする工夫をしてもよい。 Further, in the above embodiment, a known movement is achieved using a belt conveyor, that is, a horizontally moving slide stage, but in addition to or in place of this, a device that performs a known operation, for example, Known movement may be realized using a robot arm, an AGV, or the like. Since the robot arm and AGV are parameter-controlled by humans, by converting these control signals into rotational and translational information, it is possible to perform calculations equivalent to the translational movement of a hypothetical point using a slide stage. Even in a device such as a robot arm that makes complicated movements, it is possible to obtain [Rt] of each corner during calibration. It may be possible to use a plurality of calibrators to draw corners more densely, or to interpolate areas without corners by linear interpolation of the flow of surrounding corners.

1 投影部
2 撮影部
4 情報処理部
41 幾何キャリブレーションパラメタ取得部
42 動きパラメタ取得部
44 復元部
45 幾何拘束処理部
5 3次元情報出力部
10 プロジェクタ
20 カメラ
30 3次元形状計測装置
40 アームロボット
100 3次元形状計測システム
101 投影画像
102 投影画像に透視投影された仮説点の輝度変化パターン(符号化信号)
201 カメラ画像
202 カメラ画像に透視投影された仮説点の輝度変化パターン(復号化信号)
W ワーク

1 Projection section 2 Photography section 4 Information processing section 41 Geometric calibration parameter acquisition section 42 Movement parameter acquisition section 44 Restoration section 45 Geometric constraint processing section 5 Three-dimensional information output section 10 Projector 20 Camera 30 Three-dimensional shape measuring device 40 Arm robot 100 Three-dimensional shape measurement system 101 Projected image 102 Brightness change pattern (encoded signal) of a hypothetical point perspectively projected onto the projected image
201 Camera image 202 Brightness change pattern (decoded signal) of a hypothetical point perspectively projected onto the camera image
W work

Claims (9)

既知の移動をする物体の3次元形状を計測する3次元形状計測システムであって、
前記既知の移動をしている前記物体に符号化パターンを有する1つの投影画像を投影する投影部と、
前記1つの投影画像が投影された前記既知の移動をしている前記物体を連続的に撮影して複数のカメラ画像を生成する撮影部と、
前記カメラ画像の任意の点について、カメラ視線上に複数の仮説点を設定するとともに、前記複数の仮説点のうち、前記既知の動きに基づく動き制約を満たす仮説点を、当該任意の点の復元点として決定する復元部と、
を備えた、3次元形状計測システム。
A three-dimensional shape measurement system that measures the three-dimensional shape of an object with known movement,
a projection unit that projects one projection image having a coding pattern onto the object that is moving in a known manner;
a photographing unit that generates a plurality of camera images by continuously photographing the known moving object onto which the one projection image is projected;
For any point in the camera image, a plurality of hypothetical points are set on the camera's line of sight, and among the plurality of hypothetical points, a hypothetical point that satisfies the movement constraint based on the known movement is restored to the arbitrary point. a restoration part determined as a point;
A 3D shape measurement system equipped with
前記符号化パターンは、複数のスリットがランダムに配置されたランダムスリットパターンである、請求項1に記載の3次元形状計測システム。 The three-dimensional shape measurement system according to claim 1, wherein the encoding pattern is a random slit pattern in which a plurality of slits are randomly arranged. 前記スリットの伸長方向は、前記既知の動きに直交する方向である、請求項2に記載の3次元形状計測システム。 The three-dimensional shape measuring system according to claim 2, wherein the direction in which the slit extends is a direction perpendicular to the known movement. 前記ランダムパターンは、複数のドットが2次元状にランダムに配置されたランダムドットパターンである、請求項1に記載の3次元形状計測システム。 The three-dimensional shape measuring system according to claim 1, wherein the random pattern is a random dot pattern in which a plurality of dots are randomly arranged in a two-dimensional shape. 前記復元部は、前記既知の移動を表す動きパラメタで前記複数の仮説点を移動させて、
移動させた前記複数の仮説点を前記カメラ画像及び前記投影画像にそれぞれ透視投影することで得られる輝度変化パターンの組の相関が最大となる前記仮説点を前記動き制約を満たすと判断して、当該仮説点を前記復元点として決定する、請求項1に記載の3次元形状計測システム。
The restoring unit moves the plurality of hypothesis points using a motion parameter representing the known movement,
determining that the hypothetical point at which the correlation of a set of brightness change patterns obtained by perspectively projecting the plurality of moved hypothetical points onto the camera image and the projection image satisfies the movement constraint; The three-dimensional shape measurement system according to claim 1, wherein the hypothetical point is determined as the restoration point.
前記復元部で設定された初期の前記仮説点及び移動された前記仮説点がエピポーラ拘束及び/又は奥行き拘束を満たさない場合に、当該仮説点を前記復元点の候補から除外する幾何拘束処理部をさらに備えた、請求項1又は2に記載の3次元形状計測システム。 a geometric constraint processing unit that excludes the initial hypothesis point set by the restoration unit and the moved hypothesis point from the restoration point candidates when the hypothesis point does not satisfy an epipolar constraint and/or a depth constraint; The three-dimensional shape measurement system according to claim 1 or 2, further comprising: 前記物体の代わりに校正パターンを用いて、前記投影部、前記撮影部、及び前記復元部によって得られた前記校正パターン上の点の復元点の移動フローを求めることで、前記動きパラメタを求める動きパラメタ取得部をさらに備えた、請求項5に記載の3次元計測システム。 The motion parameter is determined by using a calibration pattern instead of the object and determining a movement flow of restoration points of points on the calibration pattern obtained by the projection unit, the imaging unit, and the restoration unit. The three-dimensional measurement system according to claim 5, further comprising a parameter acquisition section. 既知の移動をする物体の3次元形状を計測する3次元形状計測方法であって、
前記既知の移動をしている前記物体に符号化パターンを有する1つの投影画像を投影する投影ステップと、
前記1つの投影画像が投影された前記既知の移動をしている前記物体を連続的に撮影して複数のカメラ画像を生成する撮影ステップと、
前記カメラ画像の任意の点について、カメラ視線上に複数の仮説点を設定するとともに、前記複数の仮説点のうち、前記既知の動きに基づく動き制約を満たす仮説点を、当該任意の点の復元点として決定する復元ステップと、
を含む、3次元形状計測方法。
A three-dimensional shape measurement method for measuring a three-dimensional shape of an object with known movement, the method comprising:
a projection step of projecting a projection image having a coding pattern onto the object having the known movement;
a photographing step of continuously photographing the known moving object onto which the one projection image is projected to generate a plurality of camera images;
For any point in the camera image, a plurality of hypothetical points are set on the camera's line of sight, and among the plurality of hypothetical points, a hypothetical point that satisfies the movement constraint based on the known movement is restored to the arbitrary point. a restoration step determined as a point;
A three-dimensional shape measurement method, including
既知の移動をする物体の3次元形状を計測する3次元形状計測プログラムであって、プロジェクタ及びカメラに接続された情報処理装置にて実行されることで、
前記プロジェクタに、前記既知の移動をしている前記物体に符号化パターンを有する1つの投影画像を投影させ、
前記カメラに、前記1つの投影画像が投影された前記既知の移動をしている前記物体を連続的に撮影して複数のカメラ画像を生成させ、
前記カメラ画像の任意の点について、カメラ視線上に複数の仮説点を設定するとともに、前記複数の仮説点のうち、前記既知の動きに基づく動き制約を満たす仮説点を、当該任意の点の復元点として決定する、
3次元形状計測プログラム。


A three-dimensional shape measurement program that measures the three-dimensional shape of an object with known movement, and is executed by an information processing device connected to a projector and a camera.
causing the projector to project one projection image having a coding pattern onto the object having the known movement;
causing the camera to continuously photograph the known moving object onto which the one projection image is projected to generate a plurality of camera images;
For any point in the camera image, a plurality of hypothetical points are set on the camera's line of sight, and among the plurality of hypothetical points, a hypothetical point that satisfies the movement constraint based on the known movement is restored to the arbitrary point. Determine as a point,
3D shape measurement program.


JP2022068842A 2022-04-19 2022-04-19 Three-dimensional shape measurement system, three-dimensional shape measurement method and three-dimensional shape measurement program Pending JP2023158825A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022068842A JP2023158825A (en) 2022-04-19 2022-04-19 Three-dimensional shape measurement system, three-dimensional shape measurement method and three-dimensional shape measurement program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022068842A JP2023158825A (en) 2022-04-19 2022-04-19 Three-dimensional shape measurement system, three-dimensional shape measurement method and three-dimensional shape measurement program

Publications (1)

Publication Number Publication Date
JP2023158825A true JP2023158825A (en) 2023-10-31

Family

ID=88513727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022068842A Pending JP2023158825A (en) 2022-04-19 2022-04-19 Three-dimensional shape measurement system, three-dimensional shape measurement method and three-dimensional shape measurement program

Country Status (1)

Country Link
JP (1) JP2023158825A (en)

Similar Documents

Publication Publication Date Title
US9014433B2 (en) Measurement apparatus, information processing apparatus, information processing method, and storage medium
US6754370B1 (en) Real-time structured light range scanning of moving scenes
US7075625B2 (en) Range finder and method
Zhang et al. Rapid shape acquisition using color structured light and multi-pass dynamic programming
US8836766B1 (en) Method and system for alignment of a pattern on a spatial coded slide image
US20090296984A1 (en) System and Method for Three-Dimensional Object Reconstruction from Two-Dimensional Images
JP6596433B2 (en) Structured optical matching of a set of curves from two cameras
JP3482990B2 (en) 3D image capturing device
JP4701848B2 (en) Image matching apparatus, image matching method, and image matching program
Furukawa et al. One-shot entire shape acquisition method using multiple projectors and cameras
US20230084807A1 (en) Systems and methods for 3-d reconstruction and scene segmentation using event cameras
KR102160340B1 (en) Method and apparatus for generating 3-dimensional data of moving object
KR101853215B1 (en) Coding Device and Method and Depth Information Compensation by Plane Modeling
Horbach et al. 3D reconstruction of specular surfaces using a calibrated projector–camera setup
JP2007508557A (en) Device for scanning three-dimensional objects
Furukawa et al. Uncalibrated multiple image stereo system with arbitrarily movable camera and projector for wide range scanning
US12125226B2 (en) Image processing device, three-dimensional measurement system, and image processing method
US20210156881A1 (en) Dynamic machine vision sensor (dmvs) that performs integrated 3d tracking
JP2023158825A (en) Three-dimensional shape measurement system, three-dimensional shape measurement method and three-dimensional shape measurement program
Kawasaki et al. Optimized aperture for estimating depth from projector's defocus
Furukawa et al. Dense 3D reconstruction with an uncalibrated stereo system using coded structured light
JP6456084B2 (en) Image processing apparatus, image processing method, and program
JP2020027599A (en) Three-dimensional scanning system
JP2022083132A (en) Three-dimensional shape measuring system, three-dimensional shape measuring method, and three-dimensional shape measuring program
JP2021018219A (en) Three-dimensional shape measurement system, three-dimensional shape measurement method, and three-dimensional shape measurement program

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20220422

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20241010