JP5297779B2 - Shape measuring apparatus and program - Google Patents
Shape measuring apparatus and program Download PDFInfo
- Publication number
- JP5297779B2 JP5297779B2 JP2008308048A JP2008308048A JP5297779B2 JP 5297779 B2 JP5297779 B2 JP 5297779B2 JP 2008308048 A JP2008308048 A JP 2008308048A JP 2008308048 A JP2008308048 A JP 2008308048A JP 5297779 B2 JP5297779 B2 JP 5297779B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- unit
- parallax
- feature point
- measurement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、複数の撮影位置から測定対象物を撮影した重複画像に基づいて、測定対象物の三次元形状を測定する形状測定技術に係り、特に三次元形状の測定に必要な初期値を始めとする測定値を自動で取得する技術に関する。 The present invention relates to a shape measurement technique for measuring a three-dimensional shape of a measurement object based on overlapping images obtained by photographing the measurement object from a plurality of photographing positions, and in particular, initial values necessary for measurement of the three-dimensional shape. The present invention relates to a technique for automatically acquiring measured values.
従来から写真測量の理論が研究されている。近年では、写真測量の理論を用いて、複数の撮影位置から撮影した重複画像から測定対象物の三次元形状を測定する技術が開示されている。測定対象物の三次元位置を測定するためには、左右画像で6点以上の点を対応付ける必要があるが、この処理は手動で行うか、測定対象物にマークを貼り付けて自動で行う必要があった。 Conventionally, the theory of photogrammetry has been studied. In recent years, a technique for measuring the three-dimensional shape of an object to be measured from overlapping images taken from a plurality of photographing positions using the theory of photogrammetry has been disclosed. In order to measure the three-dimensional position of the measurement object, it is necessary to associate six or more points in the left and right images, but this processing must be performed manually or automatically by attaching a mark to the measurement object. was there.
また、測定対象物の三次元形状を測定するために、測定対象物の画素についてステレオマッチングを行う。ステレオマッチングには、テンプレート画像を変形させながら探索する最小二乗マッチング(Least−Square Matching:LSM)や正規化相関法などが用いられる。この処理には、左右画像で対応付けられた多くの点や線が必要であるが、これらの点や線などの初期値を手動で設定するのは煩雑でスキルを伴う。 Further, in order to measure the three-dimensional shape of the measurement object, stereo matching is performed on the pixels of the measurement object. For stereo matching, least-square matching (LSM) for searching while deforming a template image, a normalized correlation method, or the like is used. This process requires many points and lines associated with the left and right images, but manually setting initial values of these points and lines is cumbersome and involves skills.
このような課題を解決する技術が、例えば、特許文献1や2に開示されている。特許文献1に記載の発明では、基準となる特徴パターンが設けられた測定対象物を異なる方向から撮影した一対の第1撮影画像と、基準となる特徴パターンが設けられていない測定対象物を第1撮影画像の撮影方向と同じ方向から撮影した一対の第2撮影画像とに基づいて、各方向で得られた第1撮影画像と第2撮影画像との差をとり特徴パターンを抽出する。
For example,
この態様によれば、特徴パターンのみの画像が作成できることから、特徴パターンの位置検出を自動で精度よく行うことができる。また、特徴パターンの点の数を増やすことにより、左右画像で対応する面の検出を自動で行うことできる。 According to this aspect, since an image of only the feature pattern can be created, the position of the feature pattern can be automatically and accurately detected. Also, by increasing the number of feature pattern points, it is possible to automatically detect the corresponding surface in the left and right images.
また、特許文献2に記載の発明では、測定対象の撮影位置と設計データによって決定されている測定対象の基準位置との位置補正を行い、測定対象の三次元形状と設計データを比較することによって、誤って対応付けられた誤対応点を削除する。この態様によれば、三次元形状の測定処理を自動化することができる。
このような背景を鑑み、本発明は、重複画像における誤対応点を自動判定することで、三次元形状の測定に必要な初期値を始めとする測定値を自動で取得する技術を提供することを目的とする。 In view of such a background, the present invention provides a technique for automatically acquiring measurement values including initial values necessary for measurement of a three-dimensional shape by automatically determining erroneous correspondence points in overlapping images. With the goal.
請求項1に記載の発明は、複数の撮影位置から重複した撮影領域で、測定対象物を撮影する撮影部と、前記撮影部によって撮影された重複画像における前記測定対象物の特徴点の位置を対応付ける特徴点対応付部と、前記特徴点対応付部で対応付けた特徴点の重複画像における視差を求める視差測定部と、前記視差測定部で求めた視差に基づき、前記測定対象物の特徴点の三次元座標を求める三次元座標演算部と、前記視差測定部で求めた視差、および、前記三次元座標演算部で求めた三次元座標または三次元座標系における測定対象物の形態に基づいて、誤対応点を判定する誤対応点判定部と、前記誤対応点判定部で誤対応点と判定された点を除いた特徴点の位置および前記複数の撮影位置に基づき、前記測定対象物の特徴点の三次元座標または前記測定対象物の三次元形状を求める三次元形状測定部と、を備えることを特徴とする形状測定装置である。 According to the first aspect of the present invention, the imaging unit that images the measurement object in the overlapping imaging region from a plurality of imaging positions, and the position of the feature point of the measurement object in the overlapping image captured by the imaging unit Based on the parallax obtained by the parallax measurement unit, a parallax measurement unit that obtains parallax in an overlapping image of the feature points associated by the feature point association unit, and a feature point of the measurement target Based on the three-dimensional coordinate calculation unit for obtaining the three-dimensional coordinates, the parallax obtained by the parallax measurement unit, and the three-dimensional coordinates obtained by the three-dimensional coordinate calculation unit or the form of the measurement object in the three-dimensional coordinate system An incorrect corresponding point determining unit for determining an erroneous corresponding point, and the position of the feature point excluding the point determined as an erroneous corresponding point by the erroneous corresponding point determining unit and the plurality of photographing positions of the measurement object. 3D coordinates of feature points Others are shape measuring apparatus characterized by comprising: a three-dimensional shape measurement unit for obtaining a three-dimensional shape of the measurement object.
請求項1に記載の発明によれば、重複画像における誤対応点を自動判定することで、三次元形状の測定に必要な初期値を始めとする測定値を自動で取得することができる。 According to the first aspect of the present invention, it is possible to automatically acquire a measurement value including an initial value necessary for measuring a three-dimensional shape by automatically determining an erroneous correspondence point in an overlapping image.
請求項2に記載の発明は、請求項1に記載の発明において、基準点を設けた校正用被写体と、前記校正用被写体を撮影した重複画像内の対応する基準点の位置に基づき、前記撮影部の撮影位置および姿勢を求める撮影位置姿勢測定部とをさらに備えることを特徴とする。 According to a second aspect of the present invention, in the first aspect of the present invention, based on the calibration subject provided with a reference point and the position of the corresponding reference point in a duplicate image obtained by photographing the calibration subject, the imaging And a photographing position / orientation measuring unit that obtains the photographing position and orientation of the unit.
請求項2に記載の発明によれば、測定対象物の撮影前に校正用被写体を撮影し、撮影部の位置を事前に求める第1方式のやり方を用いて、撮影部の撮影位置および姿勢を求めることができる。 According to the second aspect of the present invention, the photographing position and orientation of the photographing unit are determined using the first method in which the calibration subject is photographed before photographing the measurement object and the position of the photographing unit is obtained in advance. Can be sought.
請求項3に記載の発明は、請求項1に記載の発明において、前記撮影部の撮影位置を測定する水平角測部および鉛直角測部の少なくとも一つをさらに備えることを特徴とする。
The invention described in claim 3 is the invention described in
請求項3に記載の発明によれば、校正用被写体を撮影した画像に基づいて撮影部の撮影位置および姿勢を求める必要がない。 According to the third aspect of the present invention, it is not necessary to obtain the photographing position and orientation of the photographing unit based on the image obtained by photographing the calibration subject.
請求項4に記載の発明は、請求項1に記載の発明において、所定の位置関係で基準点を設けた校正用被写体と、前記校正用被写体を撮影した重複画像内の対応する基準点の位置に基づき、前記撮影部の撮影位置および姿勢を求める撮影位置姿勢測定部とをさらに備えることを特徴とする。 According to a fourth aspect of the present invention, in the first aspect of the present invention, the calibration subject provided with a reference point in a predetermined positional relationship and the position of the corresponding reference point in the overlapping image obtained by photographing the calibration subject. And a photographing position / orientation measuring unit for obtaining a photographing position and a posture of the photographing unit.
請求項4に記載の発明によれば、測定対象物と一緒に校正用被写体を撮影し、撮影部の位置と測定対象物の三次元位置を並列的に求める第2方式のやり方を用いて、撮影部の撮影位置および姿勢を求めることができる。 According to the invention described in claim 4, by using the second method of photographing the calibration subject together with the measurement object and obtaining the position of the photographing unit and the three-dimensional position of the measurement object in parallel, The photographing position and posture of the photographing unit can be obtained.
請求項5に記載の発明は、請求項2〜4のいずれかに記載の発明において、前記特徴点対応付部は、撮影部を所定の基線長だけ離して撮影した少なくとも一対のステレオ画像における特徴点の位置を対応付けることを特徴とする。 According to a fifth aspect of the present invention, in the invention according to any one of the second to fourth aspects, the feature point association unit is a feature in at least a pair of stereo images captured by separating the imaging unit by a predetermined baseline length. The point positions are associated with each other.
請求項5に記載の発明によれば、少なくとも一対のステレオ画像に基づき、測定対象物の三次元形状を測定することができる。 According to the fifth aspect of the present invention, the three-dimensional shape of the measurement object can be measured based on at least a pair of stereo images.
請求項6に記載の発明は、請求項2〜4のいずれかに記載の発明において、前記誤対応点判定部は、視差のヒストグラムを作成し、視差の平均から所定範囲内にない視差に相当する特徴点を誤対応点として判定することを特徴とする。
The invention according to claim 6 is the invention according to any one of
請求項6に記載の発明によれば、測定対象物から離れた位置の誤対応点を判定することができる。 According to the sixth aspect of the present invention, it is possible to determine an erroneous correspondence point at a position away from the measurement object.
請求項7に記載の発明は、請求項2〜4のいずれかに記載の発明において、前記測定対象物に対して特徴を投影する特徴投影部をさらに備えることを特徴とする。
The invention according to
請求項7に記載の発明によれば、測定対象物の特徴が乏しい部分に特徴が入るため、多くの特徴点を検出することができる。 According to the seventh aspect of the invention, since the feature enters the portion where the feature of the measurement object is poor, many feature points can be detected.
請求項8に記載の発明は、請求項4に記載の発明において、前記視差測定部は、前記特徴点対応付部で対応付けた特徴点の視差を求める際に、前記特徴点近傍の位置が分かっている基準点の視差に基づき、前記特徴点の視差を推定することを特徴とする。
The invention according to
請求項8に記載の発明によれば、重複画像における特徴点の位置を対応付ける際に、特徴点の推定視差に相当する位置から横方向または縦方向に対応点を探索することができる。
According to the invention described in
請求項9に記載の発明は、請求項4に記載の発明において、前記誤対応点判定部は、特徴点近傍の位置が分かっている基準点の視差に基づき、前記特徴点が誤対応点か否かを判定することを特徴とする。
The invention according to
請求項9に記載の発明によれば、特徴点近傍の基準点の視差に基づき、誤対応点を判定することができる。 According to the ninth aspect of the present invention, it is possible to determine a miscorresponding point based on the parallax of the reference point near the feature point.
請求項10に記載の発明は、請求項1に記載の発明において、前記誤対応点判定部は、横視差および縦視差の少なくとも一つに基づき、誤対応点を判定することを特徴とする。
The invention according to
請求項10に記載の発明によれば、縦視差を除去した撮影、横視差を除去した撮影、または縦視差および横視差の両方を除去した撮影を行うことができる。 According to the tenth aspect of the present invention, it is possible to perform shooting with vertical parallax removed, shooting with horizontal parallax removed, or shooting with both vertical and horizontal parallax removed.
請求項11に記載の発明は、請求項1に記載の発明において、前記三次元形状測定部は、前記測定対象物の輪郭の内側を処理領域として三次元形状を測定することを特徴とする。
The invention described in
請求項11に記載の発明によれば、測定対象物の輪郭部分に不要な三次元形状が形成されない。
According to the invention described in
請求項12に記載の発明は、請求項2〜4のいずれかに記載の発明において、前記誤対応点判定部が誤対応点であると判定した場合には、前記誤対応点に相当する特徴点の指定が解除されることを特徴とする。
The invention according to
請求項12に記載の発明によれば、誤対応点を除いた特徴点の三次元座標を求めることができる。 According to the twelfth aspect of the present invention, it is possible to obtain the three-dimensional coordinates of the feature points excluding the miscorresponding points.
請求項13に記載の発明は、請求項1に記載の発明において、前記特徴点対応付部は、既知の奥行量に基づいて特徴点の視差を求め、前記視差に基づいて誤対応点を判定することを特徴とする。 According to a thirteenth aspect of the present invention, in the first aspect of the invention, the feature point association unit obtains a parallax of a feature point based on a known depth amount, and determines an erroneous correspondence point based on the parallax. It is characterized by doing.
請求項13に記載の発明によれば、奥行量が既知の場合に、誤対応点を判定することができる。 According to the thirteenth aspect of the present invention, it is possible to determine an erroneous correspondence point when the depth amount is known.
請求項14に記載の発明は、請求項1に記載の発明において、重複画像における測定対象物の輪郭を抽出する輪郭抽出部をさらに備え、前記特徴点対応付部は、前記輪郭抽出部によって抽出された輪郭より内側の領域内で特徴点の位置を対応付けることを特徴とする。
The invention according to
請求項14に記載の発明によれば、重複画像内で重複しない領域から特徴点を抽出しないため、輪郭近傍の誤対応点が抽出されない。 According to the fourteenth aspect of the present invention, since the feature points are not extracted from the non-overlapping regions in the overlapping image, the erroneous corresponding points in the vicinity of the contour are not extracted.
請求項15に記載の発明は、請求項2または4に記載の発明において、前記誤対応点判定部は、前記校正用被写体に設けた基準点の重心から前記三次元座標演算部で求めた特徴点の三次元座標までの距離に基づき、前記特徴点を誤対応点と判定することを特徴とする。
The invention according to
請求項15に記載の発明によれば、測定対象物から離れた位置の誤対応点を判定することができる。 According to the fifteenth aspect of the present invention, it is possible to determine an erroneous correspondence point at a position away from the measurement object.
請求項16に記載の発明は、請求項1に記載の発明において、前記三次元形状測定部は、前記誤対応点判定部で初期値を求める際に行った誤対応点の除去の処理を、その後に測定値を求める際に行うように構成されていることを特徴とする。
The invention according to
請求項16に記載の発明によれば、三次元形状測定部で測定値を求める際の測定の信頼性が向上する。
According to invention of
請求項17に記載の発明は、複数の撮影位置から撮影した重複画像における測定対象物の特徴点の位置を対応付ける特徴点対応付ステップと、前記特徴点対応付ステップで対応付けた特徴点の重複画像における視差を求める視差測定ステップと、前記視差測定ステップで求めた視差に基づき、前記測定対象物の特徴点の三次元座標を求める三次元座標演算ステップと、前記三次元座標演算ステップで求めた三次元座標系における測定対象物の形態に基づいて、誤対応点を判定する誤対応点判定ステップと、前記誤対応点判定ステップで誤対応点と判定された点を除いた特徴点の位置および前記複数の撮影位置に基づき、前記測定対象物の特徴点の三次元座標または前記測定対象物の三次元形状を求める三次元形状測定ステップとを備え、前記誤対応点判定ステップは、形態判定ステップを備え、前記形態判定ステップにおいて、前記特徴点対応ステップで対応付けされた特徴点を初期値として特定のメッシュ間隔の不整三角形網の作成を行う第1の処理と、前記不整三角形網の中から特定の閾値を超える辺の長さを有する部分の除去を行う第2の処理と、前記第2の処理の結果、主要な部分と分離した不整三角形網の中から、ラベリングの連結数が特定の閾値以下の塊の除去を行うことで基準形態を作成する第3の処理と、前記第3の処理が終了した段階で残存する前記特徴点の三次元座標と前記基準形態との間の距離が特定の閾値を超えている場合に、該当する前記特徴点を誤対応点と判定する第4の処理とを実行させるためのプログラムである。
The invention according to
請求項17に記載の発明によれば、重複画像における誤対応点を自動判定することで、三次元形状の測定に必要な初期値を始めとする測定値を自動で取得することができる。
According to the invention described in
本発明によれば、重複画像における誤対応点を自動判定することで、三次元形状の測定に必要な初期値を始めとする測定値を自動で与えることができる。 According to the present invention, it is possible to automatically give a measurement value including an initial value necessary for measuring a three-dimensional shape by automatically determining an erroneous correspondence point in an overlapping image.
本発明は、撮影部の位置を、測定対象物の撮影前に校正用被写体を撮影し、事前に求める第1方式と、撮影部の位置を、測定対象物と一緒に校正用被写体を撮影し、並列的に求める第2方式とに適用が可能である。その両者のそれぞれに適用した例について以下に説明する。 According to the present invention, the first method for obtaining the position of the photographing unit in advance of photographing the object to be measured and photographing the calibration object in advance and the position of the photographing unit together with the object to be photographed for photographing the calibration object. The second method can be applied in parallel. Examples applied to both of them will be described below.
1.第1の実施形態
以下、本発明を、第1方式に適用した形状測定装置およびプログラムの一例について、図面を参照して説明する。この第1方式は、最初に校正用被写体により撮影部の位置と姿勢を算出するので、2台以上の撮影部を固定した構成とする。この方法の利点は、動きのあるようなもの(たとえば生体)を計測するときでも、一瞬にして測定対象物をとらえて計測ができることである。また、一度撮影部の位置姿勢を校正用被写体で求めておけば、測定対象物をその空間内に置くことで、三次元計測がいつでも可能である。
1. First Embodiment Hereinafter, an example of a shape measuring apparatus and a program in which the present invention is applied to a first method will be described with reference to the drawings. In this first method, since the position and orientation of the photographing unit are first calculated from the calibration subject, two or more photographing units are fixed. The advantage of this method is that even when a moving object (for example, a living body) is measured, the measurement object can be captured and measured in an instant. In addition, once the position and orientation of the photographing unit is obtained from the calibration subject, three-dimensional measurement can be performed at any time by placing the measurement object in the space.
(形状測定装置の構成)
図1は、第1方式を採用した形状測定装置の上面図である。形状測定装置1は、撮影部2〜9、特徴投影部10〜13、中継部14、計算処理部15、表示部17、操作部16を備える。形状測定装置1は、撮影部2〜9の中央に配置された測定対象物18の形状を測定する。
(Configuration of shape measuring device)
FIG. 1 is a top view of a shape measuring apparatus employing the first method. The
撮影部2〜9には、例えば、ビデオカメラ、工業計測用のCCDカメラ(Charge Coupled Device Camera)、CMOSカメラ(Complementary Metal Oxide Semiconductor Camera)等を用いる。撮影部2〜9は、測定対象物18の周囲に配置される。撮影部2〜9は、複数の撮影位置から重複した撮影領域で測定対象物18を撮影する。
For the
撮影部2〜9は、所定の基線長だけ離して横方向または縦方向に並べられる。なお、撮影部を追加して、横方向および縦方向の両方に並べてもよい。形状測定装置1は、少なくとも一対の重複画像に基づき、測定対象物18の三次元形状を測定する。したがって、撮影部2〜9は、撮影被写体の大きさや形状により、一つもしくは複数に適宜することができる。
The
特徴投影部10〜13には、例えば、プロジェクター、レーザー装置などが用いられる。特徴投影部10〜13は、測定対象物18に対してランダムドットパターン、点状のスポット光、線状のスリット光などのパターンを投影する。これにより、測定対象物18の特徴が乏しい部分に特徴が入る。特徴投影部10〜13は、撮影部2と3の間、撮影部4と5の間、撮影部6と7の間、および撮影部8と9の間に配置される。なお、測定対象物18に特徴がある場合、あるいは模様を塗布できる場合には、特徴投影部10〜13を省略することもできる。
For example, a projector or a laser device is used for the
撮影部2〜9は、イーサネット(登録商標)、または、カメラリンクもしくはIEEE1394(Institute of Electrical and Electronic Engineers 1394)などのインターフェースを介して中継部14に接続する。中継部14には、スイッチングハブ、または、画像キャプチャボード等を用いる。撮影部2〜9が撮影した画像は、中継部14を介して、計算処理部15に入力される。
The
計算処理部15には、パーソナルコンピューター(Personal Computer:PC)、または、FPGA(Field Programmable Gate Array)もしくはASIC(Application Specific Integrated Circuit)などのPLD(Programmable Logic Device)で構成したハードウェアを用いる。計算処理部15は、操作部16によって操作され、計算処理部15の処理内容および計算結果は、表示部17に表示される。操作部16には、キーボードやマウスが用いられ、表示部17には、液晶モニタが用いられる。また、操作部16および表示部17は、タッチパネル式液晶モニタで一体として構成してもよい。
The
図2は、形状測定装置のブロック図である。計算処理部15は、撮影位置姿勢測定部20、特徴点対応付部21、視差測定部22、三次元座標演算部23、誤対応点判定部24、三次元形状測定部25を備える。これらは、PCで実行可能なプログラムのモジュールとして実装してもよいし、FPGAなどのPLDとして実装してもよい。
FIG. 2 is a block diagram of the shape measuring apparatus. The
撮影位置姿勢測定部20は、図1の校正用被写体19を撮影した画像に基づき、撮影部2〜9の外部標定要素(撮影位置および姿勢)を測定する。なお、撮影位置姿勢測定部20は、撮影部2〜9の内部標定要素(主点、焦点距離、レンズ歪み)が既知でない場合は、これも同時に求める。校正用被写体19は、複数の基準点を配置した立方体形状のキャリブレーションボックスである。
The imaging position /
基準点には、カラーコードターゲットを用いる(特開2007−64627号公報参照)。カラーコードターゲットは、3つのレトロターゲット(再帰反射性ターゲット)を有する。まず、撮影位置姿勢測定部20は、校正用被写体19を撮影した画像を二値化することで、レトロターゲットを検出し、その重心位置(基準点の画像座標)を求める。また、撮影位置姿勢測定部20は、カラーコードターゲットの配色(カラーコード)に基づき、各基準点にラベルをつける。これにより、重複画像内で対応する基準点の位置が分かる。
A color code target is used as the reference point (see Japanese Patent Application Laid-Open No. 2007-64627). The color code target has three retro targets (retroreflective targets). First, the photographing position /
そして、撮影位置姿勢測定部20は、相互標定法、または、単写真標定法もしくはDLT法、あるいはバンドル調整法を使うことによって、撮影部2〜9の外部標定要素を算出する。これらは単独で使っても、組み合わせて使ってもよい。なお、第1方式については、本実施形態で、第2方式については、第7の実施形態で詳述する。
Then, the photographing position /
この第1方式は、最初に校正用被写体19により撮影部2〜9の位置と姿勢を算出するので、2台以上の撮影部2〜9を固定した構成とする。この方法の利点は、動きのあるようなもの(たとえば生体)を計測するときでも、一瞬にして測定対象物18をとらえて計測ができることである。また、一度撮影部2〜9の位置姿勢を校正用被写体19で求めておけば、測定対象物18をその空間内に置くことで、三次元計測がいつでも可能である。
In this first method, since the position and orientation of the photographing
特徴点対応付部21は、少なくとも一対のステレオ画像から測定対象物18の特徴点を抽出し、ステレオ画像中の特徴点の位置を対応付ける。なお、撮影部2〜9を横方向に並べた場合には、特徴点対応付部21は、横方向に特徴点の位置を探索し、撮影部2〜9を縦方向に並べた場合には、縦方向に特徴点の位置を探索し、撮影部2〜9を横方向および縦方向に並べた場合には、横方向および縦方向に特徴点の位置を探索する。
The feature
特徴点対応付部21は、背景除去部26、特徴点抽出部27、対応点探索部28を備える。背景除去部26は、測定対象物18が写された処理画像から背景画像を差分することで、測定対象物18のみが写された背景除去画像を生成する。
The feature
特徴点抽出部27は、背景除去画像から特徴点を抽出する。この際、対応点の探索範囲を制限するため、左右のステレオ画像から特徴点を抽出する。特徴点の抽出方法としては、ソーベル、ラプラシアン、プリューウィット、ロバーツなどの微分フィルタが用いられる。
The feature
対応点探索部28は、一方の画像で抽出された特徴点に対応する対応点を他方の画像内で探索する。対応点の探索方法としては、残差逐次検定法(Sequential Similarity Detection Algorithm Method:SSDA)、正規化相関法、方向符号照合法(Orientation Code Matching:OCM)などのテンプレートマッチングが用いられる。
The corresponding
視差測定部22は、特徴点対応付部21で対応付けた特徴点の視差を求める。なお、視差測定部22は、撮影部2〜9を横方向に並べた場合には、横視差を求め、撮影部2〜9を縦方向に並べた場合には、縦視差を求め、撮影部2〜9を横方向および縦方向に並べた場合には、横視差および縦視差を求める。
The
三次元座標演算部23は、撮影位置姿勢測定部20で測定された外部標定要素、および、特徴点対応付部21で対応付けた特徴点の画像座標に基づき、測定対象物18の特徴点の三次元座標を演算する。
The three-dimensional coordinate
誤対応点判定部24は、視差測定部22で求めた視差(横視差および縦視差の少なくとも一つ)、および、三次元座標演算部23で求めた三次元座標または三次元座標系における測定対象物18の形態に基づいて、誤対応点を判定する。誤対応点判定部24は、視差判定部29、空間判定部30、形態判定部31を備える。誤対応点判定部24が誤対応点であると判定した場合には、誤対応点に相当する特徴点の指定が解除される。
The miscorresponding
視差判定部29は、視差測定部22で求めた視差のヒストグラムを作成し、視差の平均値から所定範囲内にない視差に相当する特徴点を誤対応点として判定する。特徴点の三次元座標は、視差に基づいて算出されるため、視差の平均値から大きく外れた視差は、誤対応点の可能性が高い。
The
空間判定部30は、校正用被写体19の基準点の重心から所定距離の空間を計測空間として定義し、三次元座標演算部23で演算された特徴点の三次元座標がその計測空間からはみ出していた場合に、その特徴点を誤対応点として判定する。
The
形態判定部31は、三次元座標演算部23で演算された特徴点の三次元座標から、測定対象物18の基準形態を作成し、基準形態と特徴点の三次元座標との距離に基づき、誤対応点を判定する。
The
三次元形状測定部25は、誤対応点判定部24で誤対応点と判定された点を除いた特徴点群を初期値として、所定領域内の画素についてステレオマッチングを行い、測定対象物18の三次元形状を求める。ステレオマッチングには、テンプレート画像を変形させながら探索するLSM、または正規化相関法などが用いられる。三次元形状は、特徴点の点群または不整三角形網(TIN:Triangulated Irregular Network)として、表示部17に表示される。
The three-dimensional
さらに、誤対応点判定部24で初期値を求める際に行った誤対応点の除去の処理を、三次元形状測定部25が、その後に測定値を求める際にも、同様に行うことができる。
Furthermore, the process of removing the miscorresponding point performed when the miscorresponding
(形状測定装置の処理)
以下、形状測定装置の詳細な処理について図3を参照して説明する。図3は、形状測定装置のプログラムのフローチャートである。このフローチャートを実行するプログラムは、CDROMなどの記録媒体に格納して提供が可能である。
(Processing of shape measuring device)
Hereinafter, detailed processing of the shape measuring apparatus will be described with reference to FIG. FIG. 3 is a flowchart of the program of the shape measuring apparatus. The program for executing this flowchart can be provided by being stored in a recording medium such as a CDROM.
まず、処理画像と背景画像を入力する(ステップS10)。次に、背景除去部26によって、被計測対象物18の背景が除去される(ステップS11)。図4は、処理画像を示す図面代用写真(A)と、背景画像を示す図面代用写真(B)と、背景除去画像を示す図面代用写真(C)である。背景除去画像は、処理画像から背景画像を差分することで生成される。背景除去は、左右画像に対して行われる。なお、背景画像が得られない場合には、この処理を行わなくてもよい。
First, a processed image and a background image are input (step S10). Next, the
次に、特徴点抽出部27によって、左右画像から特徴点が抽出される(ステップS12)。左右の両画像から特徴点を抽出することによって、対応点の探索範囲を小さくすることができる。 Next, feature points are extracted from the left and right images by the feature point extraction unit 27 (step S12). By extracting feature points from the left and right images, the search range for corresponding points can be reduced.
特徴点抽出部27は、必要に応じて縮小処理、明度補正、コントラスト補正などの前処理を行う(ステップS12−1)。次に、ソーベルフィルタによって、前処理された左右画像からエッジ強度が算出される(ステップS12−2)。図5は、x方向およびy方向のソーベルフィルタである。ソーベルフィルタのマトリクスに対応する9つの画素の輝度値を、左上から右下へ向かってI1〜I9とし、x方向の強度をdx、y方向の強度をdyとすると、注目画素(中央の画素)のエッジ強度Magは、以下の数1で算出される。
The feature
図6は、1/4圧縮した入力画像を示す図面代用写真(A)と、ソーベルフィルタによるエッジ強度画像を示す図面代用写真(B)である。特徴点抽出部27は、図6(B)のエッジ強度画像に対して細線化などの後処理を行う(ステップS12−3)。細線化することで、エッジは1画素幅になる。この結果、最終的に抽出される特徴点の位置が間引かれるため、画像中で偏りのなく特徴点が抽出される。
FIG. 6 is a drawing-substituting photograph (A) showing an input image subjected to 1/4 compression, and a drawing-substituting photograph (B) showing an edge strength image obtained by a Sobel filter. The feature
次に、特徴点抽出部27は、二値化処理を行う(ステップS12−4)。二値化の閾値を自動で決定するため、エッジ強度のヒストグラムが作成される。図7は、エッジ強度のヒストグラムである。特徴点抽出部27は、作成したヒストグラムにおいて、エッジ強度の強い方から数えた累積度数が全エッジ画素数の50%の位置に相当するエッジ強度を二値化の閾値とする。
Next, the feature
図7の場合、エッジの画素数は56986画素であり、強度の強い方から数えた累積度数が全エッジ画素数の50%となる28493画素目のエッジ強度は、52である。したがって、二値化の閾値は52となる。図8は、閾値52で二値化した結果を示す図面代用写真であり、図9は、左右画像で抽出された特徴点を示す図面代用写真である。
In the case of FIG. 7, the number of pixels of the edge is 56986 pixels, and the edge strength at the 28493th pixel where the cumulative frequency counted from the stronger side is 50% of the total number of edge pixels is 52. Therefore, the binarization threshold is 52. FIG. 8 is a drawing substitute photograph showing the result of binarization with the
次に、対応点探索部28によって、左右画像中の特徴点が対応付けられる(ステップS13)。対応点探索部28は、左画像中の各特徴点を中心としたテンプレート画像を作成し、右画像中の所定の領域でテンプレート画像に最も相関の強い対応点を探索する。
Next, the corresponding
図10は、テンプレート作成法を説明する説明図(A)と、探索ラインの決定方法を説明する説明図(B)と、探索幅の決定方法を説明する説明図(C)である。図10(A)に示すように、テンプレート画像は、注目特徴点を中心とした21画素×21画素で構成される。ステレオ画像は縦視差が除去されているため、図10(B)に示すように、x軸に平行に探索ラインが設けられる。また、図10(C)に示すように、対応点探索部28は、右画像の探索ライン上で最も左側の特徴点と、最も右側の特徴点を検出し、最も左側の特徴点と最も右側の特徴点までを探索幅として対応点を探索する。
FIG. 10 is an explanatory diagram (A) for explaining the template creation method, an explanatory diagram (B) for explaining the search line determination method, and an explanatory diagram (C) for explaining the search width determination method. As shown in FIG. 10A, the template image is composed of 21 pixels × 21 pixels centered on the feature point of interest. Since the vertical parallax is removed from the stereo image, a search line is provided in parallel to the x-axis as shown in FIG. Also, as shown in FIG. 10C, the corresponding
この結果、テンプレート画像と最も相関の強い点が対応点となる。なお、撮影部2〜9を縦方向に並べた場合、探索ラインはy軸に平行となる。また、撮影部2〜9を縦方向および横方向に並べた場合、探索ラインはx軸およびy軸となる。
As a result, the point having the strongest correlation with the template image becomes the corresponding point. When the photographing
次に、誤対応点判定部24によって、誤って対応付けた特徴点(誤対応点)が判定される(ステップS14)。誤対応点の判定処理には、視差による判定(ステップS14−1)と、計測空間の制限による判定(ステップS14−2)と、測定対象物18の形態による判定(ステップS14−3)とがある。これらの判定処理は、段階的に行われるが、少なくとも一つの処理を行う態様でもよい。
Next, the miscorresponding
以下、視差による判定方法について説明する(ステップS14−1)。ステレオ法では、特徴点の三次元座標は、視差に基づいて算出される。したがって、背景における特徴点の視差は、測定対象物18の特徴点の視差とは異なる傾向を持つ。図11は、誤対応点の視差を説明する説明図である。図11に示すように、誤対応点における視差(−10)は、その他の視差(−50、−50、−40、−60)と比べて大きく異なる。このため、視差判定部29は、視差測定部22によって測定された視差のヒストグラムを作成し、視差の平均値から大きく外れた視差を持つ特徴点を誤対応点として判定する。
Hereinafter, the determination method based on parallax will be described (step S14-1). In the stereo method, the three-dimensional coordinates of feature points are calculated based on parallax. Therefore, the parallax of the feature point in the background tends to be different from the parallax of the feature point of the
図12は、視差のヒストグラムである。視差の平均をμとし、標準偏差をσとした場合、視差が平均μから標準偏差σの1.5倍の区間[μ−1.5σ,μ+1.5σ]になければ、その視差に相当する特徴点は誤対応点と判定される。なお、1.5という値は、複数のサンプルの実験により得られた初期値であり、予め変更可能である。 FIG. 12 is a parallax histogram. When the average parallax is μ and the standard deviation is σ, if the parallax is not in the section [μ−1.5σ, μ + 1.5σ] that is 1.5 times the standard deviation σ from the average μ, it corresponds to that parallax. The feature point is determined to be a miscorresponding point. Note that the value of 1.5 is an initial value obtained by experiments with a plurality of samples, and can be changed in advance.
図13は、視差判定前の特徴点の点群を示す図面代用写真(A)と、視差判定後の特徴点の点群を示す図面代用写真(B)である。図13に示すように、視差判定を行うことで、測定対象物18から大きく離れた背景の特徴点が誤対応点として除去される。
FIG. 13 is a drawing-substituting photograph (A) showing a point group of feature points before parallax determination, and a drawing-substituting photograph (B) showing a point group of feature points after parallax determination. As illustrated in FIG. 13, by performing the parallax determination, the feature points of the background that are far away from the
次に、計測空間の制限による判定方法について説明する(ステップS14−2)。計測空間は、校正用被写体19の基準点の重心を中心とした空間として定義される。図14は、校正用被写体の基準点とその重心を示す図面代用写真である。校正用被写体19は、測定対象物18の重心位置に置かれているものとする。
Next, a determination method based on measurement space limitations will be described (step S14-2). The measurement space is defined as a space centered on the center of gravity of the reference point of the
まず、空間判定部30は、全ての基準点座標の平均をとることで重心座標を算出する。そして、重心から50cmの空間を計測空間として定義する。基準点の重心から三次元座標演算部23で求めた特徴点の三次元座標までの距離が、50cmを超えている場合には、空間判定部30は、その特徴点を誤対応点と判定する。50cmという閾値は、測定対象物18の大きさに基づいて予め変更可能である。図15は、空間判定によって除去される特徴点を示す図面代用写真である。
First, the
次に、測定対象物18の形態による判定方法について説明する(ステップS14−3)。上述した視差判定および空間判定は、大きな誤差をもつ場合に有効であり、測定対象物18の輪郭部分に位置する誤対応点は除去されない。そこで、形態判定部31は、測定対象物18の基準形態を作成し、基準形態と特徴点の三次元座標との距離に基づき、誤対応点を判定する。
Next, the determination method according to the form of the
図16は、メッシュ間隔4mmで作成したTINを示す図面代用写真(A)と、メッシュ間隔10mmで作成したTINを示す図面代用写真(B)である。まず、形態判定部31は、空間判定(ステップS14−2)までに残存した特徴点をLSMの初期値とし、基準形態の元になるTINを作成する。図16(A)に示すように、TINのメッシュ間隔が小さいと、残存する誤対応点によって凹凸面ができてしまう。したがって、形態判定部31は、図16(B)に示すように、TINのメッシュ間隔を大きくして、測定対象物18の大まかな形状(粗面)を作成する。
FIG. 16 is a drawing substitute photo (A) showing a TIN created at a mesh interval of 4 mm, and a drawing substitute photo (B) showing a TIN created at a mesh interval of 10 mm. First, the
次に、形態判定部31は、辺の長さが長いTINを除去する。辺の長さの閾値は、作成するメッシュ間隔が10mmの場合には、その4倍の40mmとする。作成するメッシュ間隔の4倍という閾値は、複数のサンプルの実験により得られた値であり、この閾値は、予め変更可能である。
Next, the
図17は、辺の長いTINを除去した結果を示す図面代用写真である。図17に示すように、辺の長いTINが除去された結果、主要な部分と分離したTINの塊が発生する。分離したTINの塊は、辺の長さが短くても、特徴が少ない背景や頭髪の部分であること多いため、測定対象物18の面であるという信頼性が低い。したがって、形態判定部31は、TINの塊ごとにラベリングを行い、その連結数に基づいて、TINの塊を除去する。図18は、TINのラベリング結果を示す図面代用写真である。形態判定部31は、ラベリングの連結数が10以下のTINの塊を除去することで、最終的な粗面(基準形態)を作成する。なお、ラベリングの連結数の閾値は、予め変更可能である。
FIG. 17 is a drawing-substituting photograph showing the result of removing TIN having a long side. As shown in FIG. 17, as a result of removing the TIN having a long side, a TIN lump separated from the main part is generated. Since the separated TIN lump is often a background or a hair portion with few features even if the side length is short, the reliability of the surface of the
次に、形態判定部31は、作成した基準形態から残存する特徴点の三次元座標までの距離が所定の閾値を越えている場合に、その特徴点を誤対応点と判定する。図19は、基準形態と特徴点の点群を示す図面代用写真(A)と、形態判定後の特徴点の点群を示す図面代用写真(B)である。まず、形態判定部31は、残っている特徴点群の各点から粗面を形成しているTINの頂点のうちで最も近い点を探索する。最も近いTINの頂点から特徴点までの距離が、所定の閾値を越えている場合、形態判定部31は、その特徴点を誤対応点と判定する。閾値は、作成するメッシュ間隔10mmの2倍である20mmとする。作成するメッシュ間隔の2倍という閾値は、複数のサンプルの実験により得られた値であり、この閾値は、予め変更可能である。
Next, when the distance from the created reference form to the three-dimensional coordinates of the remaining feature points exceeds a predetermined threshold value, the
初期値に関する誤対応点の判定が終了すると、三次元形状測定部25によって、測定対象物の三次元形状が測定される(ステップS15)。三次元形状測定部25は、図19(B)に示す特徴点群をLSMの初期値として、ステレオマッチングを行い、三次元形状(密面)を測定する。図20は、密面計測の結果を示す図面代用写真である。図20では、LSMの処理領域は、誤対応点を除去した後の特徴点群を凸包線で囲んだ凸領域としている。このため、頭から肩にかけて不要なTINが生成されているが、特徴投影部10〜13によって投影されたランダムドットパターンの部分は、指定されたメッシュ間隔のTINが生成されている。
When the determination of the miscorresponding point regarding the initial value is completed, the three-dimensional shape of the measurement object is measured by the three-dimensional shape measurement unit 25 (step S15). The three-dimensional
図21は、複数モデルにおける三次元形状の計測結果を示す図面代用写真である。図21に示す複数のモデルを合成した場合、正面のモデルに形成された頭から肩をつなぐ不要なTINが、側面のモデルに形成された本来の面を隠してしまう。したがって、この頭から肩にかけて形成された不要なTINを生成しないように、LSMの処理領域を制限する。 FIG. 21 is a drawing-substituting photograph showing measurement results of a three-dimensional shape in a plurality of models. When a plurality of models shown in FIG. 21 are synthesized, an unnecessary TIN that connects the head to the shoulder formed in the front model hides the original surface formed in the side model. Therefore, the processing area of the LSM is limited so as not to generate unnecessary TIN formed from the head to the shoulder.
図22は、LSMの処理領域の制限を示す図である。図22に示すように、特徴点群の囲み線を作成する。囲み線は、凸包線を作成し、その構成する点の点間距離と角度をみながら内側に処理領域を削っていく処理を繰り返すことで作成される。 FIG. 22 is a diagram illustrating restrictions on the processing area of LSM. As shown in FIG. 22, the enclosing line of the feature point group is created. The encircling line is created by creating a convex hull line and repeating the process of cutting the processing area inward while looking at the distance and angle between the constituent points.
なお、誤対応点判定部24で初期値を求める際に行った誤対応点の除去の処理を、三次元形状測定部25が、その後に測定値を求める際にも、同様に行うことができる。
It should be noted that the processing for removing the miscorresponding point performed when the initial value is obtained by the miscorresponding
図23は、LSMの処理領域を調整した計測結果を示す図面代用写真であり、図24は、図23の複数モデルの合成結果を示す図面代用写真である。図23および図24に示すように、頭から肩にかけて不要なTINが除去されているのが分かる。 FIG. 23 is a drawing-substituting photograph showing the measurement result of adjusting the LSM processing area, and FIG. 24 is a drawing-substituting photograph showing the synthesis result of the plurality of models in FIG. As shown in FIGS. 23 and 24, it can be seen that unnecessary TIN is removed from the head to the shoulder.
以下、測定対象物の撮影前に校正用被写体を撮影し、撮影部の位置を事前に求める第1方式において、撮影位置姿勢測定部20が、相互標定法を採用した場合の具体的処理について説明する。
Hereinafter, specific processing when the photographing position /
相互標定法によれば、重複画像に写された6点以上の対応する基準点に基づき、外部標定要素を求めることができる。また、基準点の三次元上の位置が既知であれば、絶対標定によって撮影部2〜9の絶対座標が求められる。
According to the relative orientation method, an external orientation element can be obtained based on six or more corresponding reference points copied in the overlapping image. If the three-dimensional position of the reference point is known, the absolute coordinates of the photographing
図25は、相互標定を説明する説明図である。相互標定は、左右2枚の画像における6点以上の対応点(パスポイント)によって外部標定要素を求める。相互標定では、投影中心O1とO2と基準点Pを結ぶ2本の光線が同一平面内になければならいという共面条件を用いる。以下の数2に、共面条件式を示す。
FIG. 25 is an explanatory diagram for explaining relative orientation. In the relative orientation, an external orientation element is obtained from six or more corresponding points (pass points) in the two left and right images. In the relative orientation, a coplanar condition that two rays connecting the projection centers O 1 and O 2 and the reference point P must be in the same plane is used. The following
図25に示すように、モデル座標系の原点を左側の投影中心O1にとり、右側の投影中心O2を結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さとする。このとき、求めるパラメータは、左側のカメラのZ軸の回転角κ1、Y軸の回転角φ1、右側のカメラのZ軸の回転角κ2、Y軸の回転角φ2、X軸の回転角ω2の5つの回転角となる。この場合、左側のカメラのX軸の回転角ω1は0なので、考慮する必要はない。このような条件にすると、数2の共面条件式は数3のようになり、この式を解けば各パラメータが求められる。
ここで、モデル座標系XYZとカメラ座標系xyzの間には、次に示すような座標変換の関係式が成り立つ。 Here, the following relational expression for coordinate transformation is established between the model coordinate system XYZ and the camera coordinate system xyz.
これらの式を用いて、次の手順により、未知パラメータ(外部標定要素)を求める。
(1)未知パラメータ(κ1,φ1,κ2,φ2,ω2)の初期近似値は通常0とする。
(2)数3の共面条件式を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を数4により求め、観測方程式をたてる。
(3)最小二乗法をあてはめ、近似値に対する補正量を求める。
(4)近似値を補正する。
(5)補正された近似値を用いて、(1)〜(4)までの操作を収束するまで繰り返す。
Using these equations, an unknown parameter (external orientation element) is obtained by the following procedure.
(1) The initial approximate values of unknown parameters (κ 1 , φ 1 , κ 2 , φ 2 , ω 2 ) are normally 0.
(2) The coplanar conditional expression of Equation 3 is Taylor-expanded around the approximate value, and the value of the differential coefficient when linearized is obtained by Equation 4, and an observation equation is established.
(3) A least square method is applied to obtain a correction amount for the approximate value.
(4) The approximate value is corrected.
(5) Using the corrected approximate value, the operations (1) to (4) are repeated until convergence.
相互標定が収束した場合、さらに接続標定が行われる。接続標定とは、複数のモデル間の傾き、縮尺を統一して同一座標系とする処理である。この処理を行った場合、以下の数5で表される接続較差を算出する。算出した結果、ΔZjおよびΔDjが、所定値(例えば、0.0005(1/2000))以下であれば、接続標定が正常に行われたと判定する。 When the relative orientation converges, connection orientation is further performed. Connection orientation is a process of unifying the inclination and scale between a plurality of models to make the same coordinate system. When this processing is performed, a connection range represented by the following formula 5 is calculated. As a result of the calculation, if ΔZ j and ΔD j are equal to or less than a predetermined value (for example, 0.0005 (1/2000)), it is determined that the connection orientation has been normally performed.
(第1の実施形態の優位性)
第1の実施形態によれば、左右の重複画像における誤対応点を自動判定することで、ステレオマッチングに用いられるLSMまたは正規化相関法の初期値を自動で取得することができる。
(Advantages of the first embodiment)
According to the first embodiment, it is possible to automatically acquire the initial value of the LSM or normalized correlation method used for stereo matching by automatically determining the erroneous correspondence points in the left and right overlapping images.
また、ステレオマッチングの処理領域を制限することで、測定対象物18の本来の形状のみを形成でき、複数のモデルを合成することができる。
Further, by limiting the processing region for stereo matching, only the original shape of the
さらに、撮影部2〜9の撮影位置および姿勢を校正用被写体19により測定することができる。撮影位置および姿勢を求めた後には、三次元計測は、測定対象物18をその空間内に置くことでいつでもできる。また、動きをもった動的な測定対象物18でも、撮影部2〜9により同時撮影すれば、計測が可能である。
Further, the photographing position and orientation of the photographing
2.第2の実施形態
第2の実施形態は、特徴点近傍の基準点の視差に基づき、特徴点の視差を推定または誤対応点を判定するものであり、上述した第1方式を採用した第1実施形態における誤差対応点判定部が行う視差による判定方法の一変形例である。
2. Second Embodiment The second embodiment estimates the parallax of a feature point or determines a miscorresponding point based on the parallax of a reference point near the feature point. The first embodiment adopts the first method described above. It is a modification of the determination method based on parallax performed by the error corresponding point determination unit in the embodiment.
図28は、特徴点の視差推定方法を説明する説明図である。図28に示すように、左ステレオ画像と右ステレオ画像には、測定対象物の特徴点Fと基準点P1〜P3が写される。このとき、左画像の特徴点Fと右画像上の特徴点F’の視差Dは、以下の数6に示すように、基準点P1〜P3の視差をD1〜D3とすると、基準点P1〜P3の平均視差によって推定される。 FIG. 28 is an explanatory diagram illustrating a parallax estimation method for feature points. As shown in FIG. 28, the feature point F of the measurement object and the reference points P1 to P3 are copied in the left stereo image and the right stereo image. At this time, the parallax D between the feature point F of the left image and the feature point F ′ on the right image is represented by the reference point when the parallaxes of the reference points P1 to P3 are D 1 to D 3 as shown in the following formula 6. It is estimated by the average parallax of P1 to P3.
特徴点対応付部21は、特徴点F’の位置を探索する場合に、推定視差Dに相当する位置から横方向に探索する。なお、撮影部2〜9を縦方向に並べた場合には、特徴点対応付部21は、推定視差Dに相当する位置から縦方向に探索する。
When searching for the position of the feature point F ′, the feature
さらに、以上のような視差推定法を用いて、誤対応点を判定してもよい。すなわち、視差判定部29は、特徴点近傍の基準点の平均視差に基づき、その特徴点の誤対応点を判定する。なお、特徴点から基準点までの距離を重み付け、その特徴点の誤対応点を判定することもできる。
Furthermore, the miscorresponding point may be determined using the parallax estimation method as described above. That is, the
(第2の実施形態の優位性)
第2の実施形態によれば、左右画像における特徴点の位置を対応付ける際に、特徴点の推定視差に相当する位置から横方向または縦方向に対応点を探索することができる。また、特徴点近傍の基準点の視差に基づき、誤対応点を判定することができる。
(Advantage of the second embodiment)
According to the second embodiment, when associating the positions of the feature points in the left and right images, the corresponding points can be searched in the horizontal direction or the vertical direction from the position corresponding to the estimated parallax of the feature points. Further, an erroneous correspondence point can be determined based on the parallax of the reference point near the feature point.
3.第3の実施形態
以下、第1の実施形態の変形例について説明する。第3の実施形態は、既知の奥行量に基づいて特徴点の視差を求め、誤対応点を判定するものである。上述した第1方式を採用した第1の実施形態における視差による判定方法の変形例の一つである。
3. Third Embodiment Hereinafter, a modification of the first embodiment will be described. In the third embodiment, parallax of feature points is obtained based on a known depth amount, and an erroneous correspondence point is determined. It is one of the modifications of the determination method by parallax in 1st Embodiment which employ | adopted the 1st system mentioned above.
ステレオ撮影の場合、2つのカメラの光軸は平行であり、主点からCCD面までの距離a(焦点距離)が等しく、CCDは光軸に直角に配置される。このため、カメラの光軸間の距離(基線長)をlとすると、画像上の特徴点F1(x1,y1)、F2(x2,y2)の座標間には、以下の数7の関係が成り立つ。ただし、全体の座標系(x,y,z)の原点を片方のカメラレンズの主点にとる。
In the case of stereo photography, the optical axes of the two cameras are parallel, the distance a (focal length) from the principal point to the CCD surface is equal, and the CCD is disposed perpendicular to the optical axis. For this reason, if the distance (baseline length) between the optical axes of the camera is 1, the relationship of the following
数7によれば、奥行量zは、視差x2−x1に反比例する。したがって、誤対応点判定部24は、既知の奥行量に基づいて、誤対応点を判定することができる。
According to
図29は、奥行量に基づく誤対応点の判定方法を説明する説明図である。特徴点F1とF2の間の奥行量Zが既知であるとする。この際、特徴点F1の視差D1と特徴点F2の視差D2との差D1−D2は、焦点距離をa、基線長をlとすれば、以下の数8によって求められる。
FIG. 29 is an explanatory diagram illustrating a method for determining an erroneous corresponding point based on the depth amount. It is assumed that the depth amount Z between the feature points F1 and F2 is known. At this time, the difference D 1 -D 2 between the parallax D 1 of the feature point F 1 and the parallax D 2 of the feature point F 2 is obtained by the
特徴点F1およびF2のいずれかが誤対応点でない場合には、特徴点F1の視差と特徴点F2の視差の差を、既知の奥行量Zに基づいて数8から求めたD1−D2と比較することで、特徴点F1もしくはF2を誤対応点と判定することができる。
If any of the feature point F1 and F2 are not erroneous corresponding points are, D 1 -D 2 in which the difference in parallax between the parallax and the feature point F2 of the feature point F1, was determined from the
(第3の実施形態の優位性)
第3の実施形態によれば、奥行量が既知の場合に、誤対応点を判定することができる。
(Advantage of the third embodiment)
According to the third embodiment, when the depth amount is known, it is possible to determine a miscorresponding point.
4.第4の実施形態
以下、第1の実施形態の変形例について説明する。第4の実施形態は、測定対象物の輪郭を抽出する輪郭抽出部をさらに備えるものである。
4). Fourth Embodiment A modification of the first embodiment will be described below. The fourth embodiment further includes a contour extraction unit that extracts the contour of the measurement object.
図30は、第4の実施形態に係る形状測定装置のブロック図である。形状測定装置1は、輪郭抽出部37を背景除去部26と特徴点抽出部27との間に備える。まず、輪郭抽出部37は、ソーベル、ラプラシアン、プリューウィット、ロバーツなどの微分フィルタを用いて、測定対象物18のエッジ強度画像を作成する。
FIG. 30 is a block diagram of a shape measuring apparatus according to the fourth embodiment. The
次に、輪郭抽出部37は、エッジ強度画像を細線化した画像に対してラベリング処理を行い、連結する画素数からエッジの長さを求める。そして、エッジ強度とエッジの長さを掛け合わせた値を2値化処理することで、輪郭エッジが抽出される。図31(A)は、輪郭エッジを示す図面代用写真である。輪郭エッジ38は、測定対象物18の内部の特徴と比べてエッジ強度が強く、直線成分が多い。
Next, the
特徴点抽出部27は、輪郭抽出部37によって抽出された輪郭エッジ38より内側の領域内で特徴点を抽出する。図31(B)は、特徴点の抽出領域を示す図面代用写真(B)である。抽出領域39は、輪郭エッジの横幅の所定割合(例えば、80%)の領域である。この80%という値は、予め変更可能である。
The feature
(第4の実施形態の優位性)
図32は、ステレオ画像の撮影範囲の違いを示す図面代用写真である。図32に示すように、ステレオ画像では、右画像に写らない左画像の撮影範囲40と、左画像に写らない右画像の撮影範囲41が存在する。この撮影領域40,41で抽出される特徴点は、特徴点の対応付けができないため、全て誤対応点となる。しかしながら、第4の実施形態によれば、特徴点の抽出領域が制限されるため、誤対応点が抽出されない。
(Advantage of the fourth embodiment)
FIG. 32 is a drawing-substituting photograph showing a difference in photographing range of stereo images. As shown in FIG. 32, in the stereo image, there is a left
5.第5の実施形態
第5の実施形態は、第1の実施形態において、撮影部の位置と姿勢を求める方法として、水平測角部および鉛直測角部の少なくとも一つにより、撮影部の撮影位置を測定する手段を採用したものである。
5. Fifth Embodiment In the fifth embodiment, as the method for obtaining the position and orientation of the photographing unit in the first embodiment, the photographing position of the photographing unit is determined by at least one of the horizontal angle measuring unit and the vertical angle measuring unit. A means for measuring is adopted.
図26は、水平測角部を備えた形状測定装置の上面図である。水平測角部32は、ロータリーエンコーダであり、水平角スケール33、エンコーダ34を備える。撮影部2〜9は、水平角スケール33の任意の位置に固定可能であり、撮影部2〜9と水平角スケール33は、一体となって時計回りおよび反時計回りに回転可能に支持される。一方、エンコーダ34は、水平角スケール33円周上の任意の位置に固定される。
FIG. 26 is a top view of a shape measuring apparatus having a horizontal angle measuring unit. The horizontal
水平角スケール33は、撮影部検出用パターン33a〜33d、水平角検出用スリット33eを有する。撮影部検出用パターン33a〜33dは、水平角スケール33円周上の任意の位置に着脱可能であり、撮影部2〜9が固定される位置に装着される。例えば、撮影部検出用パターン33a〜33dは、撮影部2と3の中間、撮影部4と5の中間、撮影部6と7の中間、撮影部8と9の中間や、撮影部2,4,6,8の直下に装着される。
The
エンコーダ34は、撮影部2〜9および水平角スケール33が回転すると、撮影部検出用パターン33a〜33dを検出する。この際、エンコーダ34は、撮影部検出用パターン33a〜33dのうち最初に検出したパターンの位置の水平角をゼロに設定する。そして、エンコーダ34は、そこから他の撮影部検出用パターン33a〜33dまでの水平角を水平角検出用スリット33eによって検出する。
When the
撮影部2〜9が、同一の水平面を回転するように高さを調整した場合、撮影部2〜9の撮影位置は、エンコーダ34によって検出された水平角のみに基づいて求められる。エンコーダ34は、撮影部2〜9の水平角を計算処理部15に出力する。計算処理部15は、入力した撮影部2〜9の水平角に基づいて、撮影部2〜9の相対的な三次元上の撮影位置を求める。また、実スケールの撮影部2〜9の撮影位置を求める場合、計算処理部15は、水平角スケール33の径を入力する。
When the
また、形状測定装置1は、水平測角部32の代わりに、撮影部2〜9と一体となって鉛直方向に回転する鉛直測角部を備える構成でもよい。この場合、計算処理部15は、鉛直測角部で検出された鉛直角に基づいて撮影部2〜9の撮影位置を求める。
Further, the
さらに、形状測定装置1は、撮影部2〜9および水平測角部32と一体となって鉛直方向に回転する鉛直角測部を備える構成でもよい。この場合、計算処理部15は、撮影部2〜9の水平角および鉛直角に基づいて撮影部2〜9の撮影位置を求める。
Furthermore, the
(第5の実施形態の優位性)
第5の実施形態によれば、校正用被写体19を撮影した画像に基づいて撮影部2〜9の撮影位置および姿勢を求める必要がない。すなわち、形状測定装置1は、撮影位置姿勢測定部20を備える必要がない。
(Advantage of the fifth embodiment)
According to the fifth embodiment, it is not necessary to obtain the shooting positions and postures of the
6.第6の実施形態
第1方式を採用した第1の実施形態において、撮影位置姿勢測定部20が、相互標定法を用いて撮影部の撮影位置や姿勢を求める例を説明した。第6の実施形態では、相互標定法の変わりに、採用しうる具体的処理の例として、単写真標定、およびDLT法について説明する。
6). Sixth Embodiment In the first embodiment that employs the first method, the example has been described in which the photographing position /
6−1.単写真標定
図27は、単写真標定を説明する説明図である。単写真標定は、1枚の写真の中に写された基準点に成り立つ共線条件を用いて、写真を撮影したカメラの位置O(X0,Y0,Z0)およびカメラの姿勢(ω,φ,κ)を求める。共線条件とは、投影中心、写真像および地上の対象点(Op1P1,Op2P2,Op3P3)が、一直線上にあるという条件である。また、カメラの位置O(X0,Y0,Z0)とカメラの姿勢(ω,φ,κ)は外部標定要素である。
6-1. Single photograph orientation FIG. 27 is an explanatory diagram for explaining single photograph orientation. Single photo orientation uses the collinear condition that holds the reference point in a single photo, and uses the camera position O (X 0 , Y 0 , Z 0 ) and camera posture (ω , Φ, κ). The collinear condition is a condition that the projection center, the photographic image, and the ground target points (Op 1 P 1 , Op 2 P 2 , Op 3 P 3 ) are on a straight line. The camera position O (X 0 , Y 0 , Z 0 ) and the camera posture (ω, φ, κ) are external orientation elements.
まず、カメラ座標系をx,y,z、写真座標系x,y、地上座標系をX,Y,Zとする。カメラを各座標軸の正方向に対して左回りにそれぞれω,φ,κだけ順次回転させた向きで撮影が行われたものとする。そして、4点の画像座標(少なくとも3点)と対応する基準点の三次元座標を数9に示す2次の射影変換式に代入し、観測方程式を立ててパラメ−タb1〜b8を求める。
First, the camera coordinate system is x, y, z, the photographic coordinate system x, y, and the ground coordinate system is X, Y, Z. It is assumed that photographing is performed in a direction in which the camera is sequentially rotated counterclockwise by ω, φ, and κ counterclockwise with respect to the positive direction of each coordinate axis. Then, the three-dimensional coordinates of the reference points corresponding to the four image coordinates (at least three points) are substituted into the quadratic projective transformation equation shown in
数9のパラメータb1〜b8を用いて、以下の数10から外部標定要素を求める。
6−2.DLT法
DLT法は、写真座標と対象空間の三次元座標との関係を3次の射影変換式で近似したものである。DLT法の基本式は以下の数11となる。なお、DLT法の詳細については、「村井俊治:解析写真測量、p46−51、p149−155」等を参照する。
6-2. DLT method The DLT method approximates the relationship between the photographic coordinates and the three-dimensional coordinates of the target space by a cubic projective transformation equation. The basic formula of the DLT method is the following
数11の式の分母を消去すると、数12の線形式を導き出せる。
Eliminating the denominator of
さらに、数12を変形すると、以下の数13となる。
Furthermore, when
数13に6点以上の基準点の三次元座標を代入し、最小二乗法を用いて解くと、写真座標と対象点座標との関係を決定するL1〜L11の11個の未知変量を取得できる。なお、L1〜L11には、外部標定要素が含まれる。
By substituting the three-dimensional coordinates of six or more reference points into
(第6の実施形態の優位性)
第6の実施形態によれば、単写真標定を採用した場合には、少ない画像からの測定に有利であり、DLTを採用した場合には、単写真標定よりも演算処理が簡易となる優位がある。
(Advantage of the sixth embodiment)
According to the sixth embodiment, when single photograph orientation is adopted, it is advantageous for measurement from a small number of images, and when DLT is adopted, there is an advantage that calculation processing is simpler than single photograph orientation. is there.
7.第7の実施形態
第7の実施形態は、撮影部の位置を、測定対象物と一緒に基準尺(校正用被写体)を撮影し、並列的に求める第2方式に基づくものであり、第1の実施形態における撮影位置姿勢測定部20の処理方法の一変形例である。
7). Seventh Embodiment The seventh embodiment is based on the second method in which the position of the photographing unit is photographed in parallel with the object to be measured and the reference scale (subject for calibration) is obtained in parallel. It is a modification of the processing method of the imaging position and
第2方式は、計測対象である測定対象物と校正用被写体を同時に写し込み、撮影部の位置姿勢を求めて三次元計測する方法である。この場合は、撮影部を固定する必要がなく、撮影部は1台から複数台でもよく、撮影枚数が2枚以上あれば、計測可能である。この方法の利点は、撮影部の位置は自由でかつ1台からでも計測できるため、構成が簡単にできるという点である。また、測定対象物を撮影するのと同時に撮影部の位置姿勢を求めるので、事前に撮影部の位置姿勢を求めておく必要はない。一緒に写し込む校正用被写体は、基準尺のような長さの決まったものや、あるいは、座標が決まったものなどを使用する。 The second method is a method in which a measurement object to be measured and a calibration subject are simultaneously photographed, and the position and orientation of the photographing unit are obtained to perform three-dimensional measurement. In this case, there is no need to fix the photographing unit, and there may be one to a plurality of photographing units, and measurement is possible if the number of photographing is two or more. The advantage of this method is that the position of the photographing unit is free and can be measured even from one unit, so that the configuration can be simplified. In addition, since the position and orientation of the photographing unit are obtained at the same time as the measurement object is photographed, it is not necessary to obtain the position and orientation of the photographing unit in advance. The calibration subject to be imaged together uses a fixed length such as a reference scale, or a fixed coordinate.
撮影部は基本的に固定する必要がなく、どこに置くのも自由である。図33は、第7の実施形態に係る形状測定装置の上面図であり、図34は、第7の実施形態に係る形状測定装置の変形例の上面図である。図33は、撮影部1台で場所を移動しながら撮影する態様における、基準尺19、撮影部2と測定対象物18、計測処理部15、操作部16、および表示部17の関係を示している。一方、図34は、2台でステレオカメラ構成にしたり、複数台でマルチカメラ構成とした態様における変形例を示している。
The shooting part does not need to be fixed basically and can be placed anywhere. FIG. 33 is a top view of the shape measuring apparatus according to the seventh embodiment, and FIG. 34 is a top view of a modification of the shape measuring apparatus according to the seventh embodiment. FIG. 33 shows the relationship between the
この場合、計測処理部15と、操作部16と、表示部17の三者は、PCを利用すれば、撮影部とPCだけで構成できる。また対象物に模様がない場合は、プロジェクターでパターンを投影するか、もしくは対象に模様を塗布する。撮影部の撮影位置、姿勢を求める方法は、相互標定法、または、単写真標定法もしくはDLT法、バンドル調整法を使い、これらは単独でも組み合わせて使ってもよい。
In this case, the
撮影部の撮影位置および姿勢(外部標定要素)を、単写真標定またはDLT法により求めれば、1枚の写真に写された基準点の相対的な位置関係に基づき、外部標定要素を求めることができる。 If the photographing position and orientation (external orientation element) of the photographing unit are obtained by single photograph orientation or the DLT method, the external orientation element can be obtained based on the relative positional relationship of the reference points captured in one photograph. it can.
図35は、基準尺と測定対象物を撮影した左画像を示す図面代用写真(A)と、右画像を示す図面代用写真(B)である。図35に示すように、測定対象物18は、カラーコードターゲット36a〜36dを相対的な位置関係で配置した基準尺35(校正用被写体)とともに撮影される。
FIG. 35 is a drawing substitute photo (A) showing a left image obtained by photographing a reference scale and a measurement object, and a drawing substitute photo (B) showing a right image. As shown in FIG. 35, the
図2に示す撮影位置姿勢測定部20は、図35に示す重複画像を取得する。撮影位置姿勢測定部20は、重複画像を2値化することで、カラーコードターゲット36a〜36dの重心位置(基準点の画像座標)を求める。また、撮影位置姿勢測定部20は、カラーコードターゲット36a〜36dの配色からカラーコードを読み取り、各カラーコードターゲット36a〜36dにラベルを付ける。
The imaging position /
このラベルによって、重複画像における基準点の対応が分かる。撮影位置姿勢測定部20は、基準点の画像座標、および基準点の三次元上の相対的な位置関係に基づき、相互標定法、単写真標定またはDLT法、あるいはバンドル調整法によって、撮影部2〜9の撮影位置と姿勢を求める。これらを組み合わせることでも高精度な位置姿勢が求められる。
With this label, the correspondence of the reference points in the overlapping image can be known. The photographing position /
本実施形態において採用した撮影位置姿勢測定部20の処理方式である第2方式は、第1の実施形態で採用した第1方式の変形例であり、それ以外の構成や処理については、第1〜第6の実施形態で示した構成や処理を採用できる。
The second method, which is the processing method of the photographing position /
(第7の実施形態の優位性)
第7の実施形態によれば、第2方式を採用しており、測定対象物18と校正用被写体を同時に撮影することにより、撮影部の位置姿勢を求め、三次元測定することが可能なので、撮影部は1台から何台でも構成でき、また撮影部を固定する必要がないので簡単な構成にできる。
(Advantage of the seventh embodiment)
According to the seventh embodiment, the second method is adopted, and the position and orientation of the photographing unit can be obtained and three-dimensionally measured by photographing the
本発明は、測定対象物の三次元形状を測定する形状測定装置およびそのプログラムに利用することができる。 The present invention can be used for a shape measuring apparatus and a program for measuring a three-dimensional shape of a measurement object.
1…形状測定装置、2〜9…撮影部、10〜13…特徴投影部、14…中継部、15…計算処理部、16…操作部、17…表示部、18…測定対象物、19…校正用被写体、20…撮影位置姿勢測定部、21…特徴点対応付部、22…視差測定部、23…三次元座標演算部、24…誤対応点判定部、25…三次元形状測定部、26…背景除去部、27…特徴点抽出部、28…対応点探索部、29…視差測定部、30…空間判定部、31…形態判定部。
DESCRIPTION OF
Claims (17)
前記特徴点対応付部で対応付けた特徴点の重複画像における視差を求める視差測定部と、
前記視差測定部で求めた視差に基づき、前記測定対象物の特徴点の三次元座標を求める三次元座標演算部と、
前記三次元座標演算部で求めた三次元座標系における測定対象物の形態に基づいて、誤対応点を判定する誤対応点判定部と、
前記誤対応点判定部で誤対応点と判定された点を除いた特徴点の位置および前記複数の撮影位置に基づき、前記測定対象物の特徴点の三次元座標または前記測定対象物の三次元形状を求める三次元形状測定部と
を備え、
前記誤対応点判定部は、形態判定部を備え、
前記形態判定部は、
前記特徴点対応部で対応付けされた特徴点を初期値として特定のメッシュ間隔の不整三角形網の作成を行う第1の処理と、
前記不整三角形網の中から特定の閾値を超える辺の長さを有する部分の除去を行う第2の処理と、
前記第2の処理の結果、主要な部分と分離した不整三角形網の中から、ラベリングの連結数が特定の閾値以下の塊の除去を行うことで基準形態を作成する第3の処理と、
前記第3の処理が終了した段階で残存する前記特徴点の三次元座標と前記基準形態との間の距離が特定の閾値を超えている場合に、該当する前記特徴点を誤対応点と判定する第4の処理と
を行うことを特徴とする形状測定装置。 A feature point association unit for correlating the position of the feature point of the measurement object in the overlapping image captured from a plurality of shooting positions ;
A parallax measurement unit that obtains parallax in the overlapping images of the feature points associated by the feature point association unit;
Based on the parallax obtained by the parallax measurement unit, a three-dimensional coordinate calculation unit for obtaining a three-dimensional coordinate of the feature point of the measurement object;
Based on the form of the measurement object in the three-dimensional coordinate system obtained by the three-dimensional coordinate calculation unit, an erroneous corresponding point determination unit that determines an erroneous corresponding point;
Based on the position of the feature point excluding the point determined to be an erroneous correspondence point by the erroneous correspondence point determination unit and the plurality of imaging positions, the three-dimensional coordinates of the characteristic point of the measurement object or the three-dimensional of the measurement object A three-dimensional shape measuring unit to find the shape
With
The miscorresponding point determination unit includes a form determination unit,
The form determination unit
A first process for creating an irregular triangle network having a specific mesh interval with the feature points associated by the feature point correspondence unit as an initial value;
A second process for removing a portion having a side length exceeding a specific threshold from the irregular triangle network;
As a result of the second processing, from the irregular triangle network separated from the main part, a third processing for creating a reference form by removing a lump whose labeling connection number is a specific threshold value or less;
When the distance between the three-dimensional coordinates of the feature point remaining at the stage where the third process is completed and the reference form exceeds a specific threshold, the corresponding feature point is determined as a miscorresponding point And the fourth process
Shape measuring apparatus and performs.
前記校正用被写体を撮影した重複画像内の対応する基準点の位置に基づき、前記撮影部の撮影位置および姿勢を求める撮影位置姿勢測定部と
をさらに備えることを特徴とする請求項1に記載の形状測定装置。 A calibration object with a reference point;
The imaging position / orientation measurement unit for obtaining an imaging position and orientation of the imaging unit based on a position of a corresponding reference point in an overlapping image obtained by imaging the calibration subject. Shape measuring device.
前記校正用被写体を撮影した重複画像内の対応する基準点の位置に基づき、前記撮影部の撮影位置および姿勢を求める撮影位置姿勢測定部と
をさらに備えることを特徴とする請求項1に記載の形状測定装置。 A calibration object with a reference point in a predetermined positional relationship;
The imaging position / orientation measurement unit for obtaining an imaging position and orientation of the imaging unit based on a position of a corresponding reference point in an overlapping image obtained by imaging the calibration subject. Shape measuring device.
前記特徴点対応付ステップで対応付けた特徴点の重複画像における視差を求める視差測定ステップと、
前記視差測定ステップで求めた視差に基づき、前記測定対象物の特徴点の三次元座標を求める三次元座標演算ステップと、
前記三次元座標演算ステップで求めた三次元座標系における測定対象物の形態に基づいて、誤対応点を判定する誤対応点判定ステップと、
前記誤対応点判定ステップで誤対応点と判定された点を除いた特徴点の位置および前記複数の撮影位置に基づき、前記測定対象物の特徴点の三次元座標または前記測定対象物の三次元形状を求める三次元形状測定ステップと
を備え、
前記誤対応点判定ステップは、形態判定ステップを備え、
前記形態判定ステップにおいて、
前記特徴点対応ステップで対応付けされた特徴点を初期値として特定のメッシュ間隔の不整三角形網の作成を行う第1の処理と、
前記不整三角形網の中から特定の閾値を超える辺の長さを有する部分の除去を行う第2の処理と、
前記第2の処理の結果、主要な部分と分離した不整三角形網の中から、ラベリングの連結数が特定の閾値以下の塊の除去を行うことで基準形態を作成する第3の処理と、
前記第3の処理が終了した段階で残存する前記特徴点の三次元座標と前記基準形態との間の距離が特定の閾値を超えている場合に、該当する前記特徴点を誤対応点と判定する第4の処理と
を実行させるためのプログラム。
A feature point correspondence step for correlating the position of the feature point of the measurement object in the overlapping image taken from a plurality of photographing positions ;
A parallax measurement step for obtaining a parallax in an overlapping image of the feature points associated in the feature point association step;
Based on the parallax obtained in the parallax measurement step, a three-dimensional coordinate calculation step for obtaining a three-dimensional coordinate of the feature point of the measurement object;
Based on the form of the measurement object in the three-dimensional coordinate system obtained in the three-dimensional coordinate calculation step, an erroneous corresponding point determining step for determining an erroneous corresponding point;
Based on the position of the feature point excluding the point determined as the erroneous correspondence point in the erroneous correspondence point determination step and the plurality of imaging positions, the three-dimensional coordinates of the characteristic point of the measurement object or the three-dimensional of the measurement object 3D shape measurement step to find the shape
With
The erroneous corresponding point determination step includes a form determination step,
In the form determining step,
A first process for creating an irregular triangle network having a specific mesh interval with the feature points associated in the feature point correspondence step as initial values;
A second process for removing a portion having a side length exceeding a specific threshold from the irregular triangle network;
As a result of the second processing, from the irregular triangle network separated from the main part, a third processing for creating a reference form by removing a lump whose labeling connection number is a specific threshold value or less;
When the distance between the three-dimensional coordinates of the feature point remaining at the stage where the third process is completed and the reference form exceeds a specific threshold, the corresponding feature point is determined as a miscorresponding point A program for executing the fourth process .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008308048A JP5297779B2 (en) | 2008-12-02 | 2008-12-02 | Shape measuring apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008308048A JP5297779B2 (en) | 2008-12-02 | 2008-12-02 | Shape measuring apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010133751A JP2010133751A (en) | 2010-06-17 |
JP5297779B2 true JP5297779B2 (en) | 2013-09-25 |
Family
ID=42345193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008308048A Active JP5297779B2 (en) | 2008-12-02 | 2008-12-02 | Shape measuring apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5297779B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103411559A (en) * | 2013-08-15 | 2013-11-27 | 哈尔滨工业大学 | Angular spectrum scanning quasi-confocal microstructure measuring device and method based on array illumination |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5343042B2 (en) * | 2010-06-25 | 2013-11-13 | 株式会社トプコン | Point cloud data processing apparatus and point cloud data processing program |
JP5557705B2 (en) * | 2010-11-10 | 2014-07-23 | 株式会社トプコン | Structure model creating apparatus and method |
CN102135417B (en) * | 2010-12-26 | 2013-05-22 | 北京航空航天大学 | Full-automatic three-dimension characteristic extracting method |
JP2012202942A (en) * | 2011-03-28 | 2012-10-22 | Casio Comput Co Ltd | Three-dimensional modeling device, three-dimensional modeling method, and program |
JP5464671B2 (en) * | 2011-06-15 | 2014-04-09 | Necシステムテクノロジー株式会社 | Image processing apparatus, image processing method, and image processing program |
JP6108383B2 (en) * | 2012-09-05 | 2017-04-05 | 国立大学法人 宮崎大学 | Piping position measuring system and piping position measuring method |
CN102980532B (en) * | 2012-12-25 | 2015-06-10 | 中国科学院长春光学精密机械与物理研究所 | Method for measuring large-diameter aspheric surface shapes in splicing manner by adopting three-coordinate measuring machine |
CN114909999A (en) * | 2022-07-18 | 2022-08-16 | 深圳市超准视觉科技有限公司 | Three-dimensional measurement system and method based on structured light |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08122030A (en) * | 1994-10-20 | 1996-05-17 | Canon Inc | Method and apparatus for formation of three-dimensional image |
JPH09231371A (en) * | 1996-02-21 | 1997-09-05 | Canon Inc | Picture information input device and its method |
JP3632315B2 (en) * | 1996-08-29 | 2005-03-23 | 富士電機デバイステクノロジー株式会社 | Distance detector |
JPH10318732A (en) * | 1997-05-22 | 1998-12-04 | Topcon Corp | Shape measuring device and image formation apparatus of shape measurement |
JP2001264033A (en) * | 2000-03-17 | 2001-09-26 | Sony Corp | Three-dimensional shape-measuring apparatus and its method, three-dimensional modeling device and its method, and program providing medium |
JP4153761B2 (en) * | 2002-09-19 | 2008-09-24 | 成典 田中 | 3D model space generation device, 3D model space generation method, and 3D model space generation program |
JP2005173995A (en) * | 2003-12-11 | 2005-06-30 | Nippon Telegr & Teleph Corp <Ntt> | Device and method for calculating depth, and program |
JP2006010392A (en) * | 2004-06-23 | 2006-01-12 | Suzuki Motor Corp | Through hole measuring system, method, and through hole measuring program |
JP2006024142A (en) * | 2004-07-09 | 2006-01-26 | Sony Corp | Image processor and image processing method and program |
WO2006074310A2 (en) * | 2005-01-07 | 2006-07-13 | Gesturetek, Inc. | Creating 3d images of objects by illuminating with infrared patterns |
JP5362189B2 (en) * | 2006-05-10 | 2013-12-11 | 株式会社トプコン | Image processing apparatus and processing method thereof |
-
2008
- 2008-12-02 JP JP2008308048A patent/JP5297779B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103411559A (en) * | 2013-08-15 | 2013-11-27 | 哈尔滨工业大学 | Angular spectrum scanning quasi-confocal microstructure measuring device and method based on array illumination |
CN103411559B (en) * | 2013-08-15 | 2015-12-09 | 哈尔滨工业大学 | Based on the accurate confocal microstructure measuring method of angular spectrum scanning of matrix lamp |
Also Published As
Publication number | Publication date |
---|---|
JP2010133751A (en) | 2010-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5156601B2 (en) | Shape measuring apparatus and program | |
JP5297779B2 (en) | Shape measuring apparatus and program | |
JP5430138B2 (en) | Shape measuring apparatus and program | |
US10288418B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP7037876B2 (en) | Use of 3D vision in automated industrial inspection | |
Li et al. | A multiple-camera system calibration toolbox using a feature descriptor-based calibration pattern | |
JP5480914B2 (en) | Point cloud data processing device, point cloud data processing method, and point cloud data processing program | |
JP5580164B2 (en) | Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program | |
EP2751521B1 (en) | Method and system for alignment of a pattern on a spatial coded slide image | |
WO2014024579A1 (en) | Optical data processing device, optical data processing system, optical data processing method, and optical data processing-use program | |
US8179448B2 (en) | Auto depth field capturing system and method thereof | |
JP6836561B2 (en) | Image processing device and image processing method | |
US11158039B2 (en) | Using 3D vision for automated industrial inspection | |
JP2004334819A (en) | Stereo calibration device and stereo image monitoring device using same | |
WO2021163406A1 (en) | Methods and systems for determining calibration quality metrics for a multicamera imaging system | |
JP3696336B2 (en) | How to calibrate the camera | |
Siddique et al. | 3d object localization using 2d estimates for computer vision applications | |
CN116758160B (en) | Method for detecting pose of optical element assembly process based on orthogonal vision system and assembly method | |
JP2011095131A (en) | Image processing method | |
KR101574195B1 (en) | Auto Calibration Method for Virtual Camera based on Mobile Platform | |
JP5967470B2 (en) | Inspection device | |
JP2939577B2 (en) | Object recognition method and apparatus | |
JP2009250777A (en) | Surface inspection device and surface inspection method | |
CN106713741A (en) | Quality diagnosis method and apparatus of panoramic video | |
Ma et al. | A portable system for 3D reconstruction based on Stereo-View |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111027 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130611 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130617 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5297779 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |