Nothing Special   »   [go: up one dir, main page]

JP2008003000A - Method of calibrating image measuring device - Google Patents

Method of calibrating image measuring device Download PDF

Info

Publication number
JP2008003000A
JP2008003000A JP2006174225A JP2006174225A JP2008003000A JP 2008003000 A JP2008003000 A JP 2008003000A JP 2006174225 A JP2006174225 A JP 2006174225A JP 2006174225 A JP2006174225 A JP 2006174225A JP 2008003000 A JP2008003000 A JP 2008003000A
Authority
JP
Japan
Prior art keywords
edge
image data
calibration
pixel pitch
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006174225A
Other languages
Japanese (ja)
Other versions
JP4825598B2 (en
Inventor
Giyokubu Chiyou
玉武 張
Koichi Komatsu
浩一 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Mitsutoyo Kiko Co Ltd
Original Assignee
Mitutoyo Corp
Mitsutoyo Kiko Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitutoyo Corp, Mitsutoyo Kiko Co Ltd filed Critical Mitutoyo Corp
Priority to JP2006174225A priority Critical patent/JP4825598B2/en
Publication of JP2008003000A publication Critical patent/JP2008003000A/en
Application granted granted Critical
Publication of JP4825598B2 publication Critical patent/JP4825598B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To inexpensively provide a method for calibrating an image measuring device for highly accurately calibrating the image measuring device by obtaining correction data to each point of image data. <P>SOLUTION: The calibration method comprises: imaging (image data acquiring process (ST30)) edges at different positions in an imaging region of a CCD camera while relatively moving a stage and the CCD camera in an x direction by preparing a calibration workpiece having the straight edge and mounting it on the stage so that the edge is parallel to a y axis of a machine coordinate system; detecting (imaging point detecting process) a position for imaging the edge from a drive amount of a drive mechanism; detecting (edge detecting process) the edge in the imaged image data to output the coordinate of the edge so as to obtain two-dimensionally widely distributed data; and calculating (displacement amount calculating process) each imaging point by regarding a displacement amount between an edge coordinate obtained by edge detection on the image data and an edge position obtained from the drive amount of the drive mechanism as an edge position displacement amount. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像測定装置の校正方法に関する。例えば、撮像手段で撮像された画像データに基づいてワークの形状測定を行う画像測定装置において、画像データに含まれる誤差を校正する画像測定装置の校正方法に関する。   The present invention relates to a calibration method for an image measuring apparatus. For example, the present invention relates to a calibration method for an image measurement apparatus that calibrates an error included in image data in an image measurement apparatus that measures the shape of a workpiece based on image data captured by an imaging unit.

被測定物の形状等を測定する装置として画像測定機10が知られている。
画像測定機は、図25に示されるように、ワークWを載置するステージ11と、
ワークWに向けて光を照明する光源(不図示)と、ワークWからの反射光を集光する対物レンズおよび対物レンズを通して結像した像を撮像するCCDカメラ12と、CCDカメラ12からの画像データに基づいてワークWの輪郭形状やエッジ検出等の画像処理を施す画像処理部13と、を備えている(例えば、特許文献1、2)。
そして、CCDカメラ12は駆動機構14によってX方向およびY方向に移動可能であり、駆動機構14は駆動制御回路15によって駆動制御される。また、駆動機構14によるCCDカメラ12の駆動量は駆動センサ16によって検出される。
An image measuring machine 10 is known as an apparatus for measuring the shape of an object to be measured.
As shown in FIG. 25, the image measuring machine includes a stage 11 on which the workpiece W is placed,
A light source (not shown) that illuminates light toward the workpiece W, an objective lens that collects reflected light from the workpiece W, a CCD camera 12 that captures an image formed through the objective lens, and an image from the CCD camera 12 An image processing unit 13 that performs image processing such as edge shape detection and edge detection of the workpiece W based on the data (for example, Patent Documents 1 and 2).
The CCD camera 12 can be moved in the X direction and the Y direction by a drive mechanism 14, and the drive mechanism 14 is driven and controlled by a drive control circuit 15. The driving amount of the CCD camera 12 by the driving mechanism 14 is detected by a driving sensor 16.

このような画像測定機10によってワークWを撮像した画像データに基づいてワーク上の測定ポイントの座標を検出する方法について簡単に説明する。
例えば、ステージ上に載置されたワークWをCCDカメラ12で撮像してワーク表面のシミDの座標を検出する場合について考える。まず、CCDカメラ12を駆動機構14によって移動させてシミDを撮像領域内に入れる。このとき、CCDカメラ12の位置については駆動センサ16により検出しておく。そして、CCDカメラ12によってワークWを撮像し、画像データ17を取得する。すると、例えば、図26に示される画像データ17が得られる。
A method for detecting the coordinates of the measurement points on the workpiece based on the image data obtained by imaging the workpiece W with the image measuring machine 10 will be briefly described.
For example, consider a case where the workpiece W placed on the stage is imaged by the CCD camera 12 and the coordinates of the stain D on the workpiece surface are detected. First, the CCD camera 12 is moved by the drive mechanism 14 to put the spot D in the imaging area. At this time, the position of the CCD camera 12 is detected by the drive sensor 16 in advance. Then, the work W is imaged by the CCD camera 12 and the image data 17 is acquired. Then, for example, the image data 17 shown in FIG. 26 is obtained.

次に、この画像データ中でシミDを検出する。すなわち、画像データ中のシミDに対応した画素(ピクセル)を検出する。シミDに対応する画素が検出されたところで、その画素の座標値を出力する。このとき、画像データ17の中心を原点OとしてシミDの画素のピクセル座標値を出力する。例えば、シミに対応する画素のピクセル座標値が(x、y)であったとする。ここで、CCDカメラ12の位置については駆動センサ16によって検出されているので、CCDカメラ12の位置についてはマシン座標系上の位置が判明している。すなわち、画像データ17の中心位置Oについてはマシン座標系において既に既知である。その一方、シミDの位置については、画像データの中心Oからのピクセル座標値(x、y)しか分かっていない。そこで、シミDの位置のピクセル座標値(x、y)に対して1画素(1ピクセル)の大きさ(サイズ)である画素ピッチを乗算すると、画像データ17の中心OからシミDまでの実際の距離が算出される。例えば、X方向のピクセル位置xが300であり、画素ピッチが20μmであるとすると、画像データ17の中心Oから測った実際のシミの位置は、次の式で算出される。 Next, a spot D is detected in the image data. That is, a pixel (pixel) corresponding to the spot D in the image data is detected. When a pixel corresponding to the spot D is detected, the coordinate value of that pixel is output. At this time, the pixel coordinate value of the pixel of the spot D is output with the center of the image data 17 as the origin O. For example, it is assumed that the pixel coordinate value of the pixel corresponding to the spot is (x p , y p ). Here, since the position of the CCD camera 12 is detected by the drive sensor 16, the position of the CCD camera 12 on the machine coordinate system is known. That is, the center position O of the image data 17 is already known in the machine coordinate system. On the other hand, only the pixel coordinate value (x p , y p ) from the center O of the image data is known for the position of the spot D. Accordingly, when the pixel coordinate value (x p , y p ) at the position of the spot D is multiplied by the pixel pitch which is the size (size) of one pixel (one pixel), the center O of the image data 17 to the spot D is obtained. Is calculated. For example, the pixel position x p in the X direction is 300, the pixel pitch is assumed to be 20 [mu] m, the actual position of the stain as measured from the center O of the image data 17 is calculated by the following equation.

(画像データの中心からの実距離)=(ピクセル位置x)×(画素ピッチ)
=300(pixel)×20(μm/pixcel)
=6000μm=6mm
(Actual distance from the center of the image data) = (pixel position x p ) × (pixel pitch)
= 300 (pixel) x 20 (μm / pixcel)
= 6000μm = 6mm

そして、画像データ17の中心位置Oは駆動センサ16の出力値から求められるので、シミDの実際の位置は次のように求められる。   Since the center position O of the image data 17 is obtained from the output value of the drive sensor 16, the actual position of the spot D is obtained as follows.

(シミの位置)=(CCDカメラの位置)+(画像データの中心からの実距離)
=(CCDカメラの位置)+(ピクセル位置x)×(画素ピッチ)
(Spot position) = (position of CCD camera) + (actual distance from the center of the image data)
= (CCD camera position) + (pixel position x p ) × (pixel pitch)

以上はX方向についての説明であるが、Y方向についても同様であるのはもちろんである。   The above has been a description of the X direction, but it goes without saying that the same applies to the Y direction.

ところで、このような画像測定機10では、高精度化のために予め校正(キャリブレーション)が行われ測定誤差を真値に補正するための補正データが求められる。そして、この補正データを利用して、測定で得られた測定データを真値に補正処理することが行われている。これにより、マシンが有する誤差をソフト的に処理して非常に高精度の測定データが得られる。   By the way, in such an image measuring machine 10, calibration (calibration) is performed in advance for high accuracy, and correction data for correcting the measurement error to a true value is obtained. Then, the correction data is used to correct the measurement data obtained by the measurement to a true value. Thereby, the error which a machine has is processed like software, and very highly accurate measurement data are obtained.

測定精度に影響するパラメータとして例えば画像データの画素ピッチが挙げられる。画素ピッチは、ピクセル座標値から実距離に換算するためのパラメータともなるので、正確に校正しておく必要がある。
ここで、従来、画素ピッチを校正するにあたっては、長さが既知のスケールを用意し、このスケールの長さを測定した結果に対して真値を対比し、1画素の大きさである画素ピッチを求めていた。
An example of a parameter that affects measurement accuracy is the pixel pitch of image data. Since the pixel pitch also serves as a parameter for converting the pixel coordinate value to the actual distance, it is necessary to calibrate accurately.
Here, conventionally, when calibrating the pixel pitch, a scale having a known length is prepared, and the result of measuring the length of the scale is compared with a true value to obtain a pixel pitch that is the size of one pixel. I was looking for.

特開2000−205822号公報JP 2000-205822 A 特開2001−66112号公報JP 2001-66112 A

しかし、測定データに影響する誤差を生む要因として、対物レンズの収差がある。
対物レンズに収差があると、CCDカメラ12で撮像される画像データ17に歪みなどの誤差が含まれることになる。そして、対物レンズの収差はレンズの場所ごとに異なるため、画像データ17に現れる誤差もエリアごとに異なってくる。すると、対物レンズの収差に起因して、画面データのエリアごとに画素ピッチが異なってくることになる。例えば、図27のように、(A)の理想結像に対して(B)のようにタル型歪曲が強くでる場合には、中央部分を通るライン(y=yc)と周辺部分を通るライン(y=ys)とで画素ピッチが異なってくる。そのため、前述のように一つの基準長さを測定した結果だけから画素ピッチを求めたとしても、画像データの各エリアに対して最適な画素ピッチを得ることはできない。従って、高精度に画素ピッチを校正するには至らず、測定誤差が依然として残るという問題が生じる。
However, there is an aberration of the objective lens as a factor causing an error affecting measurement data.
If there is an aberration in the objective lens, the image data 17 captured by the CCD camera 12 includes errors such as distortion. Since the aberration of the objective lens is different for each lens location, the error appearing in the image data 17 is also different for each area. Then, due to the aberration of the objective lens, the pixel pitch differs for each area of the screen data. For example, as shown in FIG. 27, when the tall distortion is strong as shown in (B) with respect to the ideal imaging of (A), a line passing through the central portion (y = yc) and a line passing through the peripheral portion. The pixel pitch is different from (y = ys). Therefore, even if the pixel pitch is obtained only from the result of measuring one reference length as described above, an optimal pixel pitch cannot be obtained for each area of the image data. Therefore, the pixel pitch cannot be calibrated with high accuracy, and there is a problem that measurement errors still remain.

ここで、図28のように座標既知の校正ポイントを二次元的に配列したチャートを用意し、各校正ポイントを測定した結果と真値とを対比して、各点における補正データを求めることは原理的には可能であるとも考えられる。
しかしながら、対物レンズの倍率ごとに図28のようなチャートを用意し、さらに各校正ポイントの座標値を正確に求めておくことには非常にコストがかかる。
また、高倍率対物レンズ用のチャートを作成することはそもそも技術的に困難である。
したがって、安価であり、かつ、画像データのエリアごとに高精度の補正データを得る方法が望まれていた。
Here, as shown in FIG. 28, a chart in which calibration points with known coordinates are two-dimensionally arranged is prepared, and the correction data at each point is obtained by comparing the result of measuring each calibration point with the true value. In principle, it is also possible.
However, it is very expensive to prepare a chart as shown in FIG. 28 for each magnification of the objective lens and to accurately obtain the coordinate value of each calibration point.
In addition, it is technically difficult to create a chart for a high-magnification objective lens.
Accordingly, there has been a demand for a method that is inexpensive and obtains highly accurate correction data for each area of image data.

本発明の目的は、安価であり、かつ、画像データの各ポイントに対して補正データを得て高精度に画像測定装置を校正する画像測定装置の校正方法を提供することにある。   An object of the present invention is to provide a calibration method for an image measuring apparatus that is inexpensive and obtains correction data for each point of the image data to calibrate the image measuring apparatus with high accuracy.

本発明の画像測定装置の校正方法は、被測定物を載置するステージに対して対物レンズを有する撮像手段を相対的に移動させる駆動機構を備え、前記撮像手段にて撮像した画像データ上にて測定ポイントを検出するとともにマシンに設定されたx座標とy座標とからなる二次元座標系で前記測定ポイントの位置を出力する画像測定装置の出力値を校正する画像測定装置の校正方法において、真直なエッジを有する校正ワークのエッジの方向を二次元座標系のy軸方向に平行にした状態で前記校正ワークを前記ステージに載置する校正ワーク載置工程と、前記駆動機構によって前記ステージと前記撮像手段とをx軸方向に相対移動させるとともに前記エッジを前記撮像手段の撮像領域内の異なる位置で撮像する画像データ取得工程と、前記画像データ取得工程において前記エッジを撮像した際における前記撮像手段と前記校正ワークとの相対位置を撮像ポイントとして前記駆動機構の駆動量に基づいて検出する撮像ポイント検出工程と、前記画像データ取得工程にて取得された画像データに基づいてエッジ検出を行うエッジ検出工程と、予め設定された複数のy座標において前記各エッジのx座標値を出力するエッジ位置出力工程と、前記エッジ位置出力工程にて出力されたエッジの各x座標値を前記撮像ポイントに基づく実際のエッジ位置と対比した際のずれ量をエッジ位置ずれ量として算出するずれ量算出工程と、撮像領域内の各位置における前記エッジ位置ずれ量の大きさに基づいて画像データ上の各位置におけるx方向の補正データを算出する補正データ算出工程と、前記補正データ算出工程にて算出された補正データを対応する位置と対にして記憶する補正データ記憶工程と、を備えることを特徴とする。   The calibration method for an image measuring apparatus according to the present invention includes a drive mechanism that moves an imaging unit having an objective lens relative to a stage on which an object to be measured is placed, on the image data captured by the imaging unit. In the calibration method of the image measuring apparatus for detecting the measurement point and calibrating the output value of the image measuring apparatus that outputs the position of the measurement point in the two-dimensional coordinate system composed of the x coordinate and the y coordinate set in the machine, A calibration work placing step for placing the calibration work on the stage in a state in which the direction of the edge of the calibration work having a straight edge is parallel to the y-axis direction of the two-dimensional coordinate system; and the stage by the drive mechanism An image data acquisition step of relatively moving the imaging unit in the x-axis direction and imaging the edge at different positions in an imaging region of the imaging unit; An imaging point detection step for detecting a relative position between the imaging means and the calibration work when the edge is imaged in an image acquisition step based on a driving amount of the drive mechanism, and an image data acquisition step. An edge detection step of performing edge detection based on the acquired image data, an edge position output step of outputting an x coordinate value of each edge at a plurality of preset y coordinates, and an edge position output step A shift amount calculation step of calculating a shift amount when each x coordinate value of the output edge is compared with an actual edge position based on the imaging point as an edge position shift amount, and the edge position at each position in the imaging region A correction data calculation step of calculating correction data in the x direction at each position on the image data based on the magnitude of the shift amount; A correction data storage step of storing in the corresponding positions paired correction data calculated by the data calculating step, further comprising the features.

このような構成において、まず、真直なエッジを有する校正ワークを用意する。
このような校正ワークは真直なエッジが一本あればいいので簡便に用意できる。
そして、エッジがマシン座標系のy軸に平行になる状態でこの校正ワークをステージに載置する(校正ワーク載置工程)。
次に、駆動手段によってステージと撮像手段とをx軸方向に相対移動させる。
つまり、エッジはy軸に平行のまま画像データ中でx座標だけが変化することになる。そして、撮像手段の撮像領域内の異なる位置でエッジを撮像する(画像データ取得工程)。例えば、撮像領域内をx方向で10等分するピッチで駆動機構を駆動させ、10等分の各位置でエッジを撮像すると10枚の画像データが得られることになる。このとき、エッジを撮像した位置については駆動機構の駆動量から検出しておく(撮像ポイント検出工程)。次に、撮像された画像データ中でエッジ検出を行う(エッジ検出工程)。そして、エッジの座標を出力する。
In such a configuration, first, a calibration work having a straight edge is prepared.
Such a calibration work can be easily prepared because it requires only one straight edge.
Then, the calibration work is placed on the stage in a state where the edge is parallel to the y-axis of the machine coordinate system (calibration work placement step).
Next, the stage and the imaging unit are relatively moved in the x-axis direction by the driving unit.
That is, only the x coordinate changes in the image data while the edge remains parallel to the y axis. Then, edges are imaged at different positions within the imaging area of the imaging means (image data acquisition step). For example, when the driving mechanism is driven at a pitch that divides the imaging region into 10 equal parts in the x direction and 10 edges are imaged at 10 equal positions, 10 pieces of image data are obtained. At this time, the position where the edge is imaged is detected from the drive amount of the drive mechanism (imaging point detection step). Next, edge detection is performed in the captured image data (edge detection step). Then, the coordinates of the edge are output.

ここで、エッジはy方向に平行な状態でセットされているので、一本のエッジについて複数のy座標に関して同時にx座標が検出されることとなる。そこで、予め設定された複数のy座標に対してx座標値を出力する(エッジ位置出力工程)。例えば、y=y、y、y・・・のように予め決めておき、y=yとエッジとの交点、y=yとエッジとの交点、y=yとエッジとの交点・・を出力する。エッジが真直であるので、仮に、撮像手段の対物レンズに収差がなければ一本のエッジにつき出力されるx座標値は総て同じになるはずであるが、実際にはレンズ収差の影響分だけx座標値は異なってくる。 Here, since the edge is set in a state parallel to the y direction, the x coordinate is simultaneously detected for a plurality of y coordinates for one edge. Therefore, x coordinate values are output for a plurality of preset y coordinates (edge position output step). For example, y = y 1 , y 2 , y 3 ... Are determined in advance, y = y 1 and the intersection of the edge, y = y 2 and the intersection of the edge, y = y 3 and the edge Output the intersection of ... Since the edge is straight, if the objective lens of the image pickup means has no aberration, the x coordinate values output for each edge should be the same. The x coordinate value will be different.

このようにそれぞれの撮像ポイントにおいて撮像したエッジを検出し、設定された複数のy座標に関してx座標値を出力していく。すると、画像データ内において二次元的に広く分布したデータを得る。   In this way, the imaged edge is detected at each imaging point, and x-coordinate values are output for a plurality of set y-coordinates. Then, data that is widely distributed two-dimensionally in the image data is obtained.

ここで、撮像ポイント検出工程により駆動機構の駆動量に基づいて撮像手段と校正ワークとの相対位置は予め分かっているので、撮像手段と校正ワークとの相対位置に基づいて、撮像したエッジの実際の位置を算出することができる。
仮に、撮像手段にて撮像された画像データに歪みがなければ、画像データに基づいて検出されたエッジの座標値は駆動機構の駆動量から特定されたエッジ位置に整合するはずである。
しかしながら、撮像手段の対物レンズに収差がある場合には、画像データに歪み等があるため、画像データ上のエッジ検出にて求められたエッジ座標と駆動機構の駆動量から求められたエッジ位置とにはズレが生じる。
そこで、このズレ量をエッジ位置ずれ量として各撮像ポイントについて算出する(ずれ量算出工程)。すると、視野内において二次元的に分布した複数の撮像ポイントについて画像データ上におけるx方向のずれ量が求められる。
このように画像データ上における各点のずれ量が求まるので、これらのデータに基づいて画像データから得られた検出値を真値に補正するための補正データが算出される(補正データ算出工程)。
求められた補正データは、画像データ上の対応する点と対にして所定のメモリに記憶される。
Here, since the relative position between the imaging unit and the calibration work is known in advance based on the drive amount of the drive mechanism in the imaging point detection step, the actual imaged edge is determined based on the relative position between the imaging unit and the calibration work. Can be calculated.
If there is no distortion in the image data picked up by the image pickup means, the coordinate value of the edge detected based on the image data should match the edge position specified from the drive amount of the drive mechanism.
However, when there is aberration in the objective lens of the image pickup means, the image data has distortion or the like, so the edge position obtained from the edge coordinates obtained by edge detection on the image data and the drive amount of the drive mechanism Deviation occurs.
Therefore, this deviation amount is calculated for each imaging point as an edge position deviation amount (deviation amount calculation step). Then, the shift amount in the x direction on the image data is obtained for a plurality of imaging points distributed two-dimensionally in the field of view.
As described above, since the shift amount of each point on the image data is obtained, correction data for correcting the detection value obtained from the image data to a true value is calculated based on these data (correction data calculation step). .
The obtained correction data is stored in a predetermined memory in pairs with corresponding points on the image data.

実際にワークを測定するにあたっては、ワークを撮像手段にて撮像して画像データを得る。そして、この画像データに基づいて各測定ポイントを検出する。この検出値に対応する補正データを用いて検出値を補正し、補正された結果を出力する。すると、レンズ収差が修正された正しい値が出力されることになる。   When actually measuring a workpiece, the workpiece is imaged by an imaging means to obtain image data. Then, each measurement point is detected based on this image data. The correction value is corrected using the correction data corresponding to the detection value, and the corrected result is output. Then, the correct value with the corrected lens aberration is output.

このような構成によれば、エッジが一本ある校正ワークを用意し、これを移動させて撮像視野内の複数位置でエッジを撮像することにより、撮像領域内において二次元的に分布したデータを得る。レンズ収差が画像データに与える影響は場所によって異なるという二次元的な特質を有するところ、本発明によれば、一本のエッジを用いて二次元的に画像データを校正することができる。すなわち、一本のエッジを異なる場所で撮像することにより、複数のラインを有する校正用チャートを撮像したのと同様の画像データを取得することができる。従来は、一つの基準長さを測定した結果に基づいて校正を行っていたためにレンズ収差のように二次元的に分布する誤差については校正できていなかった。あるいは、二次元的に校正点が予め求められたチャートを利用するにあたってはこのようなチャートを用意するためのコストが高いという問題が生じる。例えば、総てのユーザーが対物レンズの倍率ごとに上記のような校正用チャートを用意することは非常に難しい。   According to such a configuration, a calibration work having one edge is prepared, and this is moved to image the edges at a plurality of positions in the imaging field of view, so that data distributed two-dimensionally in the imaging region can be obtained. obtain. Since the influence of lens aberration on image data has a two-dimensional characteristic that it varies depending on the location, according to the present invention, image data can be calibrated two-dimensionally using one edge. That is, by capturing an image of one edge at different locations, it is possible to acquire the same image data as when capturing a calibration chart having a plurality of lines. Conventionally, since calibration was performed based on the result of measuring one reference length, it was not possible to calibrate an error distributed two-dimensionally such as lens aberration. Alternatively, when using a chart in which calibration points are obtained in two dimensions in advance, there is a problem that the cost for preparing such a chart is high. For example, it is very difficult for all users to prepare the calibration chart as described above for each magnification of the objective lens.

この点、本発明によれば、一本のエッジを有する校正ワークを用意するだけでよいので非常に簡便である。もちろん、校正ワークは倍率ごとに用意する必要もなく、一つの校正ワークで対物レンズの総ての倍率に対応できる。そして、この校正ワークにより画像データを二次元的に補正する補正データを得ることができ、安価でありながらも高精度の校正を実現することができる。特にユーザーが自分で校正作業を行う場合には特別な校正用チャートを必要としないので、簡便に行えるという利点は利用者の利便に大いに資するところがある。   In this regard, according to the present invention, it is very simple because it is only necessary to prepare a calibration work having one edge. Of course, it is not necessary to prepare a calibration work for each magnification, and one calibration work can correspond to all magnifications of the objective lens. Then, correction data for two-dimensionally correcting the image data can be obtained by this calibration work, and high-precision calibration can be realized while being inexpensive. In particular, when the user performs the calibration work by himself / herself, a special calibration chart is not required, and the advantage of being easy to perform greatly contributes to the convenience of the user.

なお、校正ワークのエッジの長さについては特に限定されず、撮像領域のy方向においてある程度の長さがあればよい。例えば、撮像領域のy方向長さの半分程度でもよく、あるいは撮像領域のy方向長さの3分の2程度でもよく、もちろん、撮像領域のy方向長さ以上に長くてもよい。
また、Y方向およびX方向というのは二次元座標系の座標軸方向であり、例えば、縦軸と横軸とでいずれをY軸、X軸とするかは相対的なものにすぎず、いずれをY軸、X軸と定めても本発明の校正方法を適用できるのはもちろんである。
Note that the length of the edge of the calibration work is not particularly limited, and may be a certain length in the y direction of the imaging region. For example, it may be about half the y-direction length of the imaging area, or about two-thirds the y-direction length of the imaging area, and of course may be longer than the y-direction length of the imaging area.
Also, the Y direction and the X direction are the coordinate axis directions of the two-dimensional coordinate system. For example, which of the vertical axis and the horizontal axis is the Y axis or the X axis is only a relative one. Of course, the calibration method of the present invention can also be applied to the Y-axis and the X-axis.

本発明では、前記エッジ位置出力工程は、エッジ検出工程にて検出したエッジ位置をピクセル座標上で抽出するエッジ座標抽出工程と、エッジ座標抽出工程にて抽出されたエッジのピクセル座標に対して予め設定されている画素ピッチを乗算して画像データの中心からエッジまでの実距離を算出するエッジ位置算出工程と、を備え、前記補正データ算出工程は、画素ピッチを補正する画素ピッチ補正工程を備え、前記画素ピッチ補正工程は、前記エッジ座標抽出工程にて抽出されたエッジのピクセル座標に対して前記ずれ量算出工程にて算出された前記エッジ位置ずれ量を二次元座標にプロットするエッジ位置ずれ量プロット工程と、前記エッジ位置ずれ量プロット工程でプロットした点を直線回帰する回帰直線を算出する回帰直線算出工程と、を備え、前記回帰直線の傾きに基づいて画像データ上の各位置におけるx方向の画素ピッチを補正する画素ピッチ補正データを算出する画素ピッチ補正データ算出工程と、を備え、前記補正データ記憶工程は、前記画素ピッチ補正データ算出工程にて算出された画素ピッチ補正データを画像データの各位置と対にして記憶する画素ピッチ補正データ記憶工程を備えることが好ましい。   In the present invention, the edge position output step includes an edge coordinate extraction step of extracting the edge position detected in the edge detection step on the pixel coordinates, and a pixel coordinate of the edge extracted in the edge coordinate extraction step in advance. An edge position calculating step of calculating an actual distance from the center of the image data to the edge by multiplying a set pixel pitch, and the correction data calculating step includes a pixel pitch correcting step of correcting the pixel pitch. The pixel pitch correction step includes an edge position shift for plotting the edge position shift amount calculated in the shift amount calculation step on a two-dimensional coordinate with respect to the pixel coordinates of the edge extracted in the edge coordinate extraction step. A regression line calculation step for calculating a regression line for linear regression of the points plotted in the quantity plotting step and the edge position deviation amount plotting step And a pixel pitch correction data calculation step for calculating pixel pitch correction data for correcting a pixel pitch in the x direction at each position on the image data based on the slope of the regression line, and the correction data storage step Preferably includes a pixel pitch correction data storage step for storing the pixel pitch correction data calculated in the pixel pitch correction data calculation step in pairs with each position of the image data.

このような構成において、ずれ量算出工程においてエッジ位置ずれ量が各点について算出されているところ、このエッジ位置ずれ量に基づいて画像データの画素ピッチを校正する。画素ピッチを校正するにあたり、まず、各ピクセル座標について求められたエッジ位置ずれ量を二次元座標上にプロットする(エッジ位置ずれ量プロット工程)。このとき、画像データ内で二次元的に分布した各点(ピクセル座標)において位置ずれデータが求められているが、例えば、y=yのラインに注目してy=y上の各点について撮像ポイントとエッジ位置ずれ量とをプロットする。例えば、エッジを検出した各ピクセル座標値を横軸にとり、各ピクセル座標に対するエッジ位置ずれ量を縦軸にとることが例として挙げられる。このように点をプロットすると、画像データの中央付近に対して画像データの周辺領域においてエッジずれ量が大きくなる傾向が見られる場合がある。例えば、最適の画素ピッチよりも大きい(あるいは小さい)画素ピッチが設定されている場合には、ピクセル座標値が原点から遠くなるほど実距離との誤差が開いていく。そこで、回帰直線算出工程において、プロットされた点を直線回帰する回帰直線を算出する。このような回帰直線は一般的な最小自乗法により求められる。そして、求められた回帰直線の傾きに基づいて画素ピッチの補正量を算出し、この補正量分を補正してx方向の画素ピッチが求められる。すなわち、現状設定されている画素ピッチから回帰直線の傾き分を修正した画素ピッチを求めて画素ピッチ補正データとする(画素ピッチ補正データ算出工程)。このように求められた画素ピッチ補正データを記憶し、実際の測定において画像データ上の位置を検出するにあたっては補正された画素ピッチに基づいた検出を行う。 In such a configuration, when the edge position shift amount is calculated for each point in the shift amount calculation step, the pixel pitch of the image data is calibrated based on the edge position shift amount. In calibrating the pixel pitch, first, the edge position deviation amount obtained for each pixel coordinate is plotted on two-dimensional coordinates (edge position deviation amount plotting step). In this case, position error data at each point (pixel coordinates) of the two-dimensionally distributed in the image data has been demanded. For example, each point on the focusing on the line y = y 1 y = y 1 The imaging point and the edge position deviation amount are plotted for. For example, each pixel coordinate value at which an edge is detected is taken on the horizontal axis, and the amount of edge position deviation with respect to each pixel coordinate is taken on the vertical axis. When the points are plotted in this way, the edge shift amount tends to increase in the peripheral region of the image data with respect to the vicinity of the center of the image data. For example, when a pixel pitch larger (or smaller) than the optimum pixel pitch is set, the error from the actual distance increases as the pixel coordinate value becomes farther from the origin. Therefore, in the regression line calculation step, a regression line that linearly regresses the plotted points is calculated. Such a regression line can be obtained by a general least square method. Then, a pixel pitch correction amount is calculated based on the obtained slope of the regression line, and the correction amount is corrected to obtain the pixel pitch in the x direction. That is, a pixel pitch obtained by correcting the inclination of the regression line from the currently set pixel pitch is obtained and used as pixel pitch correction data (pixel pitch correction data calculation step). The pixel pitch correction data thus obtained is stored, and detection based on the corrected pixel pitch is performed in detecting the position on the image data in actual measurement.

このような構成によれば、画像データの中央領域から周辺付近へと場所ごとに異なる画素ピッチをその場所に応じて校正することができる。
例えば、レンズ収差がある場合には、検出精度の最小単位である画素ピッチが画像データの中央部と画像データの周辺部とで異なってくることになるが、従来は、一本の基準長さを計るだけで画素ピッチの代表値を一つ校正するだけであったため、正確な校正とはなっていなかった。
この点、本発明によれば、各位置に応じて詳細に画素ピッチを補正できるので、高精度の校正を行うことができる。
According to such a configuration, it is possible to calibrate a different pixel pitch for each location from the central region of the image data to the vicinity of the periphery according to the location.
For example, when there is lens aberration, the pixel pitch, which is the minimum unit of detection accuracy, differs between the central part of the image data and the peripheral part of the image data. Since only one representative value of the pixel pitch was calibrated simply by measuring, the calibration was not accurate.
In this respect, according to the present invention, the pixel pitch can be corrected in detail according to each position, so that highly accurate calibration can be performed.

なお、一つのライン(例えば、y=y)についてエッジ位置ずれ量プロット工程を行って回帰直線を算出(回帰直線算出工程)したのち、ラインを代えて、y=y、y=y等についても同様に行って、このような校正ラインごとに画素ピッチを求めることが好ましいのはもちろんである。 In addition, after performing an edge position shift amount plotting step for one line (for example, y = y 1 ) and calculating a regression line (regression line calculating step), the line is changed and y = y 2 and y = y 3 Of course, it is preferable to obtain the pixel pitch for each calibration line in the same manner.

本発明では、前記補正データ算出工程は、画像データ上の位置ずれを補正する位置補正パラメータを算出する位置補正パラメータ算出工程を備え、前記画素ピッチ算出工程によって算出された画素ピッチの分をエッジ位置出力工程にて出力された各エッジの位置から補正して補正後エッジ位置を算出する画素ピッチ分補正工程と、前記画素ピッチ分補正工程にて算出された補正後エッジ位置を前記撮像ポイントに基づく実際のエッジ位置と対比して両者の残差を算出する残差算出工程と、を備え、前記補正データ記憶工程は、前記残差算出工程にて算出された残差を各画像データ上の各位置におけるx方向の位置補正パラメータとして記憶する位置補正パラメータ記憶工程と、を備えることが好ましい。   In the present invention, the correction data calculation step includes a position correction parameter calculation step for calculating a position correction parameter for correcting a positional deviation on the image data, and the pixel pitch calculated by the pixel pitch calculation step is used as an edge position. Based on the imaging point, the pixel pitch correction step for calculating the corrected edge position by correcting from the position of each edge output in the output step, and the corrected edge position calculated in the pixel pitch correction step A residual calculation step of calculating a residual of both in comparison with an actual edge position, and the correction data storage step includes the residual calculated in the residual calculation step in each image data And a position correction parameter storing step of storing as a position correction parameter in the x direction at the position.

このような構成において、画素ピッチを補正した後にさらに位置ずれを補正する位置補正パラメータを算出する。
まず、画素ピッチ算出工程によって補正後の画素ピッチが求められているので、この補正後の画素ピッチを用いてエッジ位置をあらためて算出する(画素ピッチ分補正工程)。そして、画素ピッチ分を補正した後に算出されたエッジ位置を前記撮像ポイントに基づく実際のエッジ位置と対比して、画素ピッチが補正された状態で残っている誤差(残差)を算出する(残差算出工程)。この誤差分は対物レンズの収差によって画像データ中に生じる歪み等に起因していると考えられ、画像データの各位置によって誤差量が違ってくる。各点について求められた残差を対応する位置と対にして位置補正データとして記憶する。
In such a configuration, after correcting the pixel pitch, a position correction parameter for correcting the positional deviation is calculated.
First, since the pixel pitch after correction is obtained by the pixel pitch calculation step, the edge position is newly calculated using the pixel pitch after correction (pixel pitch correction step). Then, by comparing the edge position calculated after correcting the pixel pitch with the actual edge position based on the imaging point, an error (residual) remaining with the pixel pitch corrected is calculated (residual). Difference calculation step). This error is considered to be caused by distortion or the like generated in the image data due to the aberration of the objective lens, and the amount of error varies depending on each position of the image data. The residual obtained for each point is paired with the corresponding position and stored as position correction data.

このような構成によれば、画像データの場所によって異なる位置ずれをその場所に応じて補正する補正データを得ることができる。そして、レンズ収差に起因して画像データの場所によって異なる誤差を場所に応じた補正データによって適切に補正することにより非常に高精度の画像測定結果を得ることができる。また、この位置補正パラメータは、画素ピッチを補正した後のデータに基づいて算出されているので、位置ずれのみを反映した値に基づく補正データとなっている。このように画素ピッチの補正に続いて位置補正パラメータを算出するという一連の校正により、測定誤差を最適に補正する位置補正パラメータを算出することができる。   According to such a configuration, it is possible to obtain correction data that corrects a positional shift that differs depending on the location of the image data in accordance with the location. A very high-accuracy image measurement result can be obtained by appropriately correcting an error that varies depending on the location of the image data due to lens aberrations using correction data corresponding to the location. Further, since the position correction parameter is calculated based on the data after correcting the pixel pitch, it is correction data based on a value reflecting only the positional deviation. As described above, the position correction parameter for optimally correcting the measurement error can be calculated by a series of calibrations in which the position correction parameter is calculated following the correction of the pixel pitch.

本発明では、前記画像データ取得工程は複数回繰り返し実行され、前記エッジ位置出力工程は、同じ撮像ポイントにおいて取得されたエッジ位置の平均値を出力することが好ましい。   In the present invention, it is preferable that the image data acquisition step is repeatedly executed a plurality of times, and the edge position output step outputs an average value of edge positions acquired at the same imaging point.

このような構成によれば、複数回の撮像によって得られた結果の平均値に基づいて補正データを求めるので、例えば、単発の異常な検出誤差などの影響を受けず、より最適な補正データを得ることができる。   According to such a configuration, the correction data is obtained based on the average value of the results obtained by a plurality of times of imaging, so that, for example, more optimal correction data can be obtained without being influenced by a single abnormal detection error. Obtainable.

本発明では、前記画像測定装置の校正方法において前記x方向と前記y方向とを入れ換えてy方向についての校正を行うことが好ましい。   In the present invention, in the calibration method of the image measuring apparatus, it is preferable to perform calibration in the y direction by exchanging the x direction and the y direction.

このような構成によれば、x方向とy方向の両方向についての補正データを得るので、検出値をx方向およびy方向の両方向で補正した二次元座標上の正確な位置を求めることができる。   According to such a configuration, correction data in both the x direction and the y direction is obtained, so that an accurate position on a two-dimensional coordinate in which the detection value is corrected in both the x direction and the y direction can be obtained.

本発明では、前記画像測定装置の校正方法を対物レンズの倍率ごとに実行して対物レンズの倍率ごとに校正を行うことが好ましい。   In the present invention, it is preferable that the calibration method of the image measuring apparatus is executed for each magnification of the objective lens to perform calibration for each magnification of the objective lens.

このような構成において、対物レンズが異なれば当然に収差も異なるところ、対物レンズごとに校正を行って補正データを得る。
ここで、対物レンズごとに校正用のチャートを用意するとなると非常にコストがかさむことになるが、本発明においては、校正を行うにあたりエッジを有する校正ワークを用意すればよいだけであるので、対物レンズごとに校正を行う場合でもコストが増えることはない。
In such a configuration, if the objective lens is different, the aberration is naturally different. Therefore, calibration is performed for each objective lens to obtain correction data.
Here, if a calibration chart is prepared for each objective lens, it is very expensive. However, in the present invention, it is only necessary to prepare a calibration work having an edge for calibration. Even if calibration is performed for each lens, the cost does not increase.

以下、本発明の実施の形態を図示するとともに図中の各要素に付した符号を参照して説明する。
(第1実施形態)
本発明の画像測定装置の校正方法に係る第1実施形態について説明する。
まず、校正対象となる画像測定装置の構成について簡単に説明する。
図1は、画像測定装置100の構成を示す図である。
画像測定装置100は、画像測定機本体部200と、制御部300と、入力手段111と、出力手段112と、を備える。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of the present invention will be illustrated and described with reference to reference numerals attached to respective elements in the drawings.
(First embodiment)
A first embodiment according to a calibration method for an image measuring apparatus of the present invention will be described.
First, the configuration of the image measuring apparatus to be calibrated will be briefly described.
FIG. 1 is a diagram illustrating a configuration of the image measurement apparatus 100.
The image measuring apparatus 100 includes an image measuring machine main body 200, a control unit 300, an input unit 111, and an output unit 112.

画像測定機本体部200は、ベースとなる架台211と、架台211上に配設されワークWが載置されるステージ212と、ワークWを撮像する撮像手段としてのCCDカメラ213と、CCDカメラ213とワークWとを三次元的に移動させる駆動機構214と、駆動機構214の駆動量を検出する駆動センサ219(図4参照)と、を備えている。   The image measuring machine main body 200 includes a base 211 that serves as a base, a stage 212 that is disposed on the base 211 and on which a work W is placed, a CCD camera 213 that captures an image of the work W, and a CCD camera 213. And a workpiece W are moved three-dimensionally, and a drive sensor 219 (see FIG. 4) for detecting the drive amount of the drive mechanism 214 is provided.

CCDカメラ213は、内部に対物レンズ(不図示)を有している。
対物レンズは、できる限り収差を補正するように複数のレンズが組み合わされて構成されるが、総ての収差を完全に補正することは不可能であり、残存収差がのこってしまう。このようなレンズの収差には、コマ収差、非点収差、像面湾曲などが例として挙げられる。例えば、図2に示されるような格子を収差のあるレンズを通して結像させると、図3のように誤差や歪みが生じることになる。
ここで、このような対物レンズの収差による画像データの誤差を安価にかつ高精度に補正することが本発明の主たる目的となる。
The CCD camera 213 has an objective lens (not shown) inside.
The objective lens is configured by combining a plurality of lenses so as to correct aberrations as much as possible. However, it is impossible to completely correct all aberrations, and residual aberrations remain. Examples of such lens aberration include coma, astigmatism, and curvature of field. For example, when a grating as shown in FIG. 2 is imaged through a lens with aberration, errors and distortions occur as shown in FIG.
Here, the main object of the present invention is to correct the error of the image data due to the aberration of the objective lens at low cost and with high accuracy.

駆動機構214は、ステージ212の側端に沿ったY軸方向へスライド可能に設けられたYスライダ215と、Yスライダ215に支持されているとともにX方向にスライド可能に設けられたXスライダ218と、を備えている。Yスライダ215は門型フレームであり、ステージ212の両側端にそれぞれ立脚しステージ212に垂直方向であるZ方向に高さを有するとともにY軸方向にスライド可能に設けられた二本のビーム支持体216と、ビーム支持体216の上端に支持されてX方向に長さを有するビーム217と、を備える。
Xスライダ218は、ビーム217にスライド移動可能に設けられている。そして、CCDカメラ213はXスライダ218に取り付けられて保持されている。
The drive mechanism 214 includes a Y slider 215 that is slidable in the Y-axis direction along the side edge of the stage 212, and an X slider 218 that is supported by the Y slider 215 and is slidable in the X direction. It is equipped with. The Y-slider 215 is a portal frame and has two beam supports that stand on both side ends of the stage 212 and have a height in the Z direction perpendicular to the stage 212 and are slidable in the Y-axis direction. 216 and a beam 217 supported on the upper end of the beam support 216 and having a length in the X direction.
The X slider 218 is slidably provided on the beam 217. The CCD camera 213 is attached to and held by the X slider 218.

なお、Yスライダ215およびXスライダ218は所定の駆動モータによってそれぞれY軸方向およびX軸方向に駆動される。   The Y slider 215 and the X slider 218 are driven in the Y axis direction and the X axis direction by a predetermined drive motor, respectively.

駆動センサ219は、門型フレームのY軸方向への移動量を検出するY軸センサ220と、Xスライダ218のX軸方向への移動量を検出するX軸センサ221と、を備えている。
このような駆動センサ219は、例えば、リニアエンコーダによって構成することができる。
The drive sensor 219 includes a Y-axis sensor 220 that detects the amount of movement of the portal frame in the Y-axis direction, and an X-axis sensor 221 that detects the amount of movement of the X slider 218 in the X-axis direction.
Such a drive sensor 219 can be constituted by, for example, a linear encoder.

制御部300は、画像測定機本体部200の動作を制御するモーションコントローラ400と、モーションコントローラ400を介して画像測定機本体部200を動作させるとともに画像測定機本体部200によって取得した画像データを処理して被測定物Wの寸法や形状を求めるホストコンピュータ500と、を備えている。   The control unit 300 operates a motion controller 400 that controls the operation of the image measuring machine main body 200, operates the image measuring machine main body 200 via the motion controller 400, and processes image data acquired by the image measuring machine main body 200. And a host computer 500 for determining the size and shape of the workpiece W.

図4は、モーションコントローラ400とホストコンピュータ500との内部構成を示す図である。モーションコントローラ400は、駆動機構214を駆動制御する駆動制御回路410と、駆動センサ219からの検出信号をカウントして駆動機構214の駆動量を検出する駆動カウンタ420と、CCDカメラ213によって撮像される画像データを取り込む画像データ取込部430と、を備えている。   FIG. 4 is a diagram showing an internal configuration of the motion controller 400 and the host computer 500. The motion controller 400 is imaged by a drive control circuit 410 that controls the drive mechanism 214, a drive counter 420 that counts detection signals from the drive sensor 219 and detects the drive amount of the drive mechanism 214, and a CCD camera 213. An image data capturing unit 430 that captures image data.

ホストコンピュータ500は、校正動作指令部510と、データ記憶部520と、
画像処理部530と、演算処理部540と、メモリ570と、補正データ記憶部580と、補正処理部591と、CPU(中央処理部)592と、を備えている。
The host computer 500 includes a calibration operation command unit 510, a data storage unit 520,
The image processing unit 530 includes an arithmetic processing unit 540, a memory 570, a correction data storage unit 580, a correction processing unit 591, and a CPU (central processing unit) 592.

校正動作指令部510は、駆動指令部511と、撮像指令部512と、を備えている。
データ記憶部520は、画像データ記憶部521と、撮像ポイント記憶部522と、エッジ座標記憶部523と、を備える。
画像処理部530は、エッジ検出部531と、エッジ座標抽出部532と、を備える。
演算処理部540は、平均値算出部541と、エッジ位置算出部542と、ずれ量算出部543と、画素ピッチ算出部550と、位置補正パラメータ算出部560と、を備える。
The calibration operation command unit 510 includes a drive command unit 511 and an imaging command unit 512.
The data storage unit 520 includes an image data storage unit 521, an imaging point storage unit 522, and an edge coordinate storage unit 523.
The image processing unit 530 includes an edge detection unit 531 and an edge coordinate extraction unit 532.
The arithmetic processing unit 540 includes an average value calculation unit 541, an edge position calculation unit 542, a deviation amount calculation unit 543, a pixel pitch calculation unit 550, and a position correction parameter calculation unit 560.

画素ピッチ算出部550は、エッジ位置ずれ量プロット部551と、回帰直線算出部552と、画素ピッチ補正データ算出部553と、を備える。
位置補正パラメータ算出部560は、画素ピッチ分補正部561と、残差算出部562と、を備える。
The pixel pitch calculation unit 550 includes an edge position deviation amount plot unit 551, a regression line calculation unit 552, and a pixel pitch correction data calculation unit 553.
The position correction parameter calculation unit 560 includes a pixel pitch correction unit 561 and a residual calculation unit 562.

補正データ記憶部580は、画素ピッチ補正データ記憶部581と、位置補正パラメータ記憶部582と、を備える。   The correction data storage unit 580 includes a pixel pitch correction data storage unit 581 and a position correction parameter storage unit 582.

なお、各機能部の動作については、フローチャートを参照して後述する。   The operation of each functional unit will be described later with reference to a flowchart.

このような構成を備える画像測定装置を校正する方法について説明する。
なお、X方向についての校正を行う場合を例にして説明するが、Y方向の校正を行う場合には以下の説明のXとYとを入れ替えればよいだけである。
A method for calibrating an image measuring apparatus having such a configuration will be described.
Note that the case of performing calibration in the X direction will be described as an example. However, in the case of performing calibration in the Y direction, it is only necessary to replace X and Y in the following description.

本実施形態の校正方法は、図5のフローチャートに示されるように、エッジEを有する校正ワークWcをステージ212に載置する校正ワーク載置工程(ST100)と、校正の精密さレベル等の条件を設定する校正条件設定工程(ST200)と、校正ワークWcを撮像して校正の基礎となるデータを取得するデータ取得工程(ST300)と、撮像した画像データを処理して座標データの算出等を行う画像処理工程(ST400)と、画像データ中の誤差を真値と対比して補正データを算出する補正データ算出工程(ST500)と、算出された補正データを記憶する補正データ記憶工程(ST600)と、を備えている。   In the calibration method of the present embodiment, as shown in the flowchart of FIG. 5, the calibration work placing step (ST100) for placing the calibration work Wc having the edge E on the stage 212, and conditions such as the calibration precision level A calibration condition setting step (ST200) for setting the data, a data acquisition step (ST300) for imaging the calibration work Wc and acquiring data as a basis for calibration, calculation of coordinate data by processing the captured image data, etc. An image processing step (ST400) to be performed, a correction data calculation step (ST500) for calculating correction data by comparing an error in the image data with a true value, and a correction data storage step (ST600) for storing the calculated correction data And.

まず、ワーク載置工程(ST100)において、校正ワークWcをステージ212に載置する。
図6は、校正ワークWcの一例を示す図である。
校正ワークWcは、真直なエッジEを有しており、例えば半分をクロムマスクで覆ったプレート等を用いることができる。そして、校正ワークWcをステージ212に載置するにあたっては、X方向についての校正を行う都合上、図7に示されるようにエッジEがY軸に平行になる状態でセットする。
なお、Y方向についての校正を行う場合にはエッジEをX方向に平行にすればよい。
First, in the workpiece placing step (ST100), the calibration workpiece Wc is placed on the stage 212.
FIG. 6 is a diagram illustrating an example of the calibration work Wc.
The calibration work Wc has a straight edge E, and for example, a plate whose half is covered with a chrome mask can be used. When placing the calibration work Wc on the stage 212, for the convenience of calibration in the X direction, the edge E is set in a state parallel to the Y axis as shown in FIG.
In the case of performing calibration in the Y direction, the edge E may be made parallel to the X direction.

ワーク載置工程(ST100)にて校正ワークWcをセットした後、ST200において校正条件について設定する(校正条件設定工程)。
図8は、校正条件設定工程の手順を示すフローチャートである。
校正条件の設定としては、校正ライン設定工程(ST210)と、撮像エッジ間隔設定工程(ST220)と、繰返し回数設定工程(ST230)と、を行う。
各工程について簡単に説明する。
After setting the calibration workpiece Wc in the workpiece placement step (ST100), the calibration conditions are set in ST200 (calibration condition setting step).
FIG. 8 is a flowchart showing the procedure of the calibration condition setting step.
As calibration conditions, a calibration line setting step (ST210), an imaging edge interval setting step (ST220), and a repetition count setting step (ST230) are performed.
Each step will be briefly described.

校正ライン設定工程(ST210)では、図9に示されるように、撮像領域601内においてX軸に平行であるラインLcを複数設定する。例えば、図9のように撮像領域601のY方向を6等分するように一定の間隔で5本のラインLcを設定してもよい。この場合、校正ラインLcはX軸に平行なラインであるので、ラインのy座標値を設定入力すればよい。例えば、y、y、y、yおよびyの値をそれぞれ入力すればよい。この校正ラインLcのピッチの細かさは、以後の校正手順のなかでy方向についての校正ポイントの密度を決定する。 In the calibration line setting step (ST210), as shown in FIG. 9, a plurality of lines Lc parallel to the X axis are set in the imaging region 601. For example, as shown in FIG. 9, five lines Lc may be set at regular intervals so that the Y direction of the imaging region 601 is equally divided into six. In this case, since the calibration line Lc is a line parallel to the X axis, the y coordinate value of the line may be set and inputted. For example, the values y 1 , y 2 , y 3 , y 4 and y 5 may be input. The fineness of the pitch of the calibration line Lc determines the density of the calibration points in the y direction in the subsequent calibration procedure.

撮像エッジ間隔設定工程(ST220)では、図10に示されるように、撮像領域601内においてy軸に平行であるラインを複数設定する。
例えば、撮像領域601のX方向を20等分するように一定の間隔で19本のラインを設定してもよい。この場合、ライン同士の間隔を入力すればよい。
ここで設定した撮像エッジ間隔は、以後の校正手順のなかでエッジEを撮像する間隔となり、X方向についての校正ポイントの密度を決定する。
In the imaging edge interval setting step (ST220), as shown in FIG. 10, a plurality of lines parallel to the y-axis are set in the imaging region 601.
For example, 19 lines may be set at regular intervals so that the X direction of the imaging region 601 is equally divided into 20. In this case, an interval between lines may be input.
The imaging edge interval set here is the interval for imaging the edge E in the subsequent calibration procedure, and determines the density of calibration points in the X direction.

繰り返し回数設定工程(ST230)では、同じ位置でエッジEを撮像する回数を設定する。単一の撮像結果にのみ基づいた校正では、異常データの影響を受けて正確な校正ができない場合もあるところ、複数回の撮像によって得たデータを平均した値を用いることが好ましいのはもちろんである。そこで、繰り返し回数設定工程(ST230)において同じ位置でエッジEを撮像する回数を設定し、平均値を算出するために用いるデータの数を設定する。このように設定された校正条件は、メモリ570に記憶される。   In the repetition number setting step (ST230), the number of times the edge E is imaged at the same position is set. In calibration based only on a single imaging result, accurate calibration may not be possible due to the influence of abnormal data. Of course, it is preferable to use the average value of data obtained by multiple imaging. is there. Therefore, the number of times the edge E is imaged at the same position in the repetition number setting step (ST230) is set, and the number of data used for calculating the average value is set. The calibration conditions set in this way are stored in the memory 570.

このように校正条件を設定したのち、ST300においてデータ取得工程が実行される。データ取得工程について図11のフローチャートを参照して説明する。
データ取得工程(ST300)においては、まず、画像データ取得工程(ST310)が行われる。この画像データ取得工程(ST310)は、駆動工程(ST311)と撮像工程(ST312)とによって構成され、校正動作指令部510からの指令によって実行される。校正動作指令部510は、画像データ取得工程(ST310)を実行させるにあたり、まず、メモリ570に設定された校正条件のうち撮像エッジ間隔を読み出す。そして、校正動作指令部510の駆動指令部511は、設定された撮像エッジ間隔ずつCCDカメラ213をx方向に移動させる指令を駆動制御回路410に出力する。すると、駆動制御回路410からの制御パルスによって駆動機構214が駆動され、CCDカメラ213がX方向に撮像エッジ間隔ずつ移動される(図12参照)。
After setting the calibration conditions in this way, a data acquisition step is executed in ST300. The data acquisition process will be described with reference to the flowchart of FIG.
In the data acquisition step (ST300), first, an image data acquisition step (ST310) is performed. This image data acquisition step (ST310) includes a driving step (ST311) and an imaging step (ST312), and is executed by a command from the calibration operation command unit 510. In order to execute the image data acquisition step (ST310), the calibration operation command unit 510 first reads the imaging edge interval among the calibration conditions set in the memory 570. Then, the drive command unit 511 of the calibration operation command unit 510 outputs a command to move the CCD camera 213 in the x direction by the set imaging edge interval to the drive control circuit 410. Then, the drive mechanism 214 is driven by the control pulse from the drive control circuit 410, and the CCD camera 213 is moved in the X direction by the imaging edge interval (see FIG. 12).

例えば、当初は、図13(A)に示されるように、撮像領域601中において右端側(+X方向側)にエッジEが位置していたとする。
この状態から、撮像エッジ間隔分だけCCDカメラ213を+x方向に変位させると、図13(B)に示されるように撮像領域601内においてエッジEが−X方向に変位する。そして、このように駆動機構214を駆動させてCCDカメラ213が撮像エッジ間隔分だけ移動したところで校正動作指令部510の撮像指令部512は、画像データ取込部430に画像データの取得を指令する。すると、CCDカメラ213によって撮像が行われ(撮像工程ST312)、画像データが取り込まれる。
For example, initially, as shown in FIG. 13A, it is assumed that the edge E is located on the right end side (+ X direction side) in the imaging region 601.
When the CCD camera 213 is displaced in the + x direction by the imaging edge interval from this state, the edge E is displaced in the −X direction in the imaging region 601 as shown in FIG. Then, when the drive mechanism 214 is driven and the CCD camera 213 is moved by the imaging edge interval, the imaging command unit 512 of the calibration operation command unit 510 commands the image data capturing unit 430 to acquire image data. . Then, imaging is performed by the CCD camera 213 (imaging process ST312), and image data is captured.

このように取り込まれた画像データ602は画像データ記憶工程(ST320)において画像データ記憶部521に記憶される。   The image data 602 thus captured is stored in the image data storage unit 521 in the image data storage step (ST320).

また、画像データ602の取込み(ST320)と同時に撮像ポイントの検出をあわせておこなう(撮像ポイント検出工程ST330)。エッジEの撮像を行った際のCCDカメラ213の位置は駆動カウンタ420のカウント値から検出できる。そして、CCDカメラ213の位置は、画像データ602の中心Oに対応する。毎回の撮像に際してCCDカメラ213の駆動量を駆動カウンタ420から検出するとともにこの移動量に基づいてCCDカメラ213の位置(画像データの中心位置)を算出し、このように算出されたポイントをエッジEの撮像ポイントとして撮像ポイント記憶部522に記憶していく。   Further, simultaneously with the capture of the image data 602 (ST320), the detection of the imaging point is also performed (imaging point detection step ST330). The position of the CCD camera 213 when the edge E is imaged can be detected from the count value of the drive counter 420. The position of the CCD camera 213 corresponds to the center O of the image data 602. At the time of imaging, the drive amount of the CCD camera 213 is detected from the drive counter 420, and the position of the CCD camera 213 (the center position of the image data) is calculated based on the amount of movement. Are stored in the imaging point storage unit 522 as imaging points.

このように駆動機構214によるCCDカメラ213の移動(ST310)とCCDカメラ213による撮像(ST312)とを行っていく。そして、撮像領域601の端から端までの1ストロークを終了したのち(ST340:YES)、さらに、繰り返し回数としてメモリ570に設定された回数分の繰り返しが終了するまで(ST350:YES)、画像データ取得工程(ST310)を実行する。   In this manner, the movement of the CCD camera 213 by the drive mechanism 214 (ST310) and the imaging by the CCD camera 213 (ST312) are performed. Then, after one stroke from the end to the end of the imaging region 601 is completed (ST340: YES), until the repetition of the number of repetitions set in the memory 570 is completed (ST350: YES), the image data An acquisition step (ST310) is executed.

このようにして画像データ602の取得が行われると、例えば、図13(A)(B)(C)・・・に示されるように、エッジ位置が一定ピッチずつ異なる画像データ602が取得されることになる。   When the image data 602 is acquired in this way, for example, as shown in FIGS. 13A, 13B, 13C, image data 602 whose edge positions differ by a constant pitch is acquired. It will be.

データ取得工程(ST300)にて画像データ602が取得された後、画像処理部530による画像処理工程(ST400)が行われる。
画像処理工程(ST400)について図14のフローチャートを参照して説明する。
画像処理工程(ST400)では、画像データ602中のエッジ検出を行うエッジ検出工程(ST410)と、検出したエッジEの座標を抽出するエッジ座標抽出工程(ST420)と、抽出したエッジ座標について各ポイントにおける平均値を算出する平均値算出工程(ST430)と、画像データ602に基づいた演算によってエッジ位置を算出するエッジ位置算出工程(ST440)と、前記ST440にて算出されたエッジ位置を実際のエッジ位置に対比した際のずれ量をエッジ位置ずれ量として算出するずれ量算出工程(ST450)と、を実行する。
After the image data 602 is acquired in the data acquisition step (ST300), the image processing step (ST400) by the image processing unit 530 is performed.
The image processing step (ST400) will be described with reference to the flowchart of FIG.
In the image processing step (ST400), an edge detection step (ST410) for detecting an edge in the image data 602, an edge coordinate extraction step (ST420) for extracting the coordinates of the detected edge E, and each point for the extracted edge coordinates. An average value calculating step (ST430) for calculating an average value in FIG. 5, an edge position calculating step (ST440) for calculating an edge position by calculation based on the image data 602, and the edge position calculated in ST440 as an actual edge A deviation amount calculating step (ST450) for calculating the deviation amount when compared with the position as the edge position deviation amount is executed.

エッジ検出工程(ST410)におけるエッジ検出は、各画像データ602中でy方向に走っているエッジEの検出をエッジ検出部531により行う。画像データ602は、異なる撮像ポイントで撮像されており、さらに、平均値の算出のために同じ撮像ポイントにおいても複数の画像データ602が撮像されているが、これら総ての画像データ602についてエッジ検出を行う。このエッジ検出により例えば図13(A)(B)(C)に示される画像データ602中のエッジEが検出される。
すると、エッジEに対応する画素が特定される。
In the edge detection in the edge detection step (ST410), the edge detection unit 531 detects the edge E running in the y direction in each image data 602. The image data 602 is captured at different imaging points, and a plurality of image data 602 is also captured at the same imaging point for calculating the average value. Edge detection is performed on all the image data 602. I do. By this edge detection, for example, the edge E in the image data 602 shown in FIGS. 13A, 13B, and 13C is detected.
Then, the pixel corresponding to the edge E is specified.

エッジ座標抽出工程(ST420)では、検出されたエッジEのピクセル座標の抽出をエッジ座標抽出部532により行う。
ここで、ピクセル座標の抽出にあたっては、校正条件設定工程(ST200)において校正ラインLcとして設定されたyの座標に対応させて行う。校正ライン設定工程(ST210)において、図9に示されるようにX軸に平行な校正ラインLcが複数設定されているところ、これらの校正ラインLcとエッジEとの交点におけるx座標値を抽出する(図15参照)。エッジEは、撮像領域601内の異なる複数の位置で撮像されており、また、校正ラインLcも異なるy座標で複数設定されているので、分かりやすく説明するために、異なる画像として取得されているエッジEの画像を重ねて図16のように表現すると、画像データ602内において複数のエッジEと校正ラインLcとの交点である格子点の座標値が算出されることになる。
In the edge coordinate extraction step (ST420), the pixel coordinates of the detected edge E are extracted by the edge coordinate extraction unit 532.
Here, pixel coordinates are extracted in correspondence with the coordinates of y set as the calibration line Lc in the calibration condition setting step (ST200). In the calibration line setting step (ST210), as shown in FIG. 9, when a plurality of calibration lines Lc parallel to the X axis are set, the x coordinate value at the intersection of these calibration lines Lc and the edge E is extracted. (See FIG. 15). Since the edge E is imaged at a plurality of different positions in the imaging region 601 and a plurality of calibration lines Lc are set at different y coordinates, they are acquired as different images for easy understanding. When the images of the edge E are overlapped and expressed as shown in FIG. 16, the coordinate value of the lattice point that is the intersection of the plurality of edges E and the calibration line Lc in the image data 602 is calculated.

なお、校正ラインLcは設定された値であるから一の校正ラインLcのy座標値は同じ値になることはもちろんである。
その一方、エッジEは画像データから検出されている。校正ワークWcのエッジEは真直であるので、仮に、対物レンズに収差がなければ画像データ602中でもエッジEは真直性を保って検出されるはずである。すなわち、一のエッジEにおいて複数のy座標でx座標値を抽出すると、x座標値は総て同じ値にあるはずである。
しかしながら、対物レンズには収差が存在しているので画像データ602には歪み等があり、校正ワークWcの真直なエッジEを検出しても画像データ中では歪みをもったエッジEが検出されることになる。すると、一のエッジEに対して複数のy座標値でx座標を抽出すると、レンズ収差の分だけずれた値が得られることになる。
Since the calibration line Lc is a set value, the y coordinate value of one calibration line Lc is of course the same value.
On the other hand, the edge E is detected from the image data. Since the edge E of the calibration work Wc is straight, if there is no aberration in the objective lens, the edge E should be detected in the image data 602 while maintaining straightness. That is, when x coordinate values are extracted with a plurality of y coordinates at one edge E, the x coordinate values should all be the same.
However, since there is aberration in the objective lens, the image data 602 has distortion or the like, and even if the straight edge E of the calibration work Wc is detected, the distorted edge E is detected in the image data. It will be. Then, when x coordinates are extracted with a plurality of y coordinate values for one edge E, a value shifted by the amount of lens aberration is obtained.

一枚一枚の画像データについてエッジEの検出(ST410)とエッジ座標の抽出(ST420)とが行われ、得られたデータは演算処理部540に送られる。   Edge E detection (ST410) and edge coordinate extraction (ST420) are performed for each piece of image data, and the obtained data is sent to the arithmetic processing unit 540.

次に、平均値算出工程(ST430)において、平均値の算出を行う。
エッジEの撮像は、平均値の算出のために同じ撮像ポイントにおいて複数の画像データが撮像されているので、同じ撮像ポイントで撮像された複数画像データにおいて同じy座標について算出されたx座標値を平均した値を算出する。例えば、同じ撮像ポイントで図17(A)(B)(C)のように3枚の画像データを取得していたとすると、x座標値x、x、xの平均値を算出する。平均値算出工程(ST430)は平均値算出部541により実行される。
Next, in the average value calculation step (ST430), the average value is calculated.
In the imaging of the edge E, since a plurality of image data is captured at the same imaging point for calculating the average value, the x coordinate value calculated for the same y coordinate in the plurality of image data captured at the same imaging point is used. Calculate the average value. For example, assuming that three pieces of image data are acquired at the same imaging point as shown in FIGS. 17A, 17B , and 17C , average values of the x coordinate values x a , x b , and x c are calculated. The average value calculation step (ST430) is executed by the average value calculation unit 541.

次に、エッジ位置算出工程(ST440)において、エッジ位置の算出をエッジ位置算出部542により行う。ここで、撮像ポイントとしてCCDカメラ213の位置が既に検出されており、これは画像データ602の中心位置Oに対応している。そして、各エッジEのピクセル座標値はエッジ座標抽出工程(ST420)により抽出済みである。したがって、まず、ピクセル座標値に基づいて画像データ602の中心OからエッジEまでの実際の距離を算出し、さらに、その距離を画像データの中心座標に加算(あるいは減算)すると、エッジEの実際の位置が算出されることになる。   Next, in the edge position calculation step (ST440), the edge position is calculated by the edge position calculation unit 542. Here, the position of the CCD camera 213 has already been detected as an imaging point, and this corresponds to the center position O of the image data 602. The pixel coordinate value of each edge E has already been extracted by the edge coordinate extraction step (ST420). Therefore, first, when the actual distance from the center O of the image data 602 to the edge E is calculated based on the pixel coordinate value, and the distance is added to (or subtracted from) the center coordinates of the image data, the actual state of the edge E is calculated. Will be calculated.

ここで、ピクセル座標値に基づいて画像データ602の中心からエッジEまでの実際の距離を算出するにあたっては、ピクセル座標値に1ピクセル(画素)の大きさである画素ピッチを乗算する。画素ピッチは、初期設定された値を用いてもよく、あるいは以前の校正によって得られている画素ピッチを用いてもよい。
このようにして、エッジ座標抽出工程(ST420)にて抽出された各ピクセル座標値に基づいたエッジ位置を算出していく。
Here, in calculating the actual distance from the center of the image data 602 to the edge E based on the pixel coordinate value, the pixel coordinate value is multiplied by a pixel pitch which is the size of one pixel (pixel). As the pixel pitch, an initially set value may be used, or a pixel pitch obtained by previous calibration may be used.
In this manner, the edge position based on each pixel coordinate value extracted in the edge coordinate extraction step (ST420) is calculated.

なお、もちろんのことであるが、校正ワークWcはステージ212に載置された状態で移動していないことから、正確にエッジ位置が求められれば、そのx座標については総て同じ値となるはずである。   Of course, since the calibration work Wc is not moved in a state of being placed on the stage 212, if the edge position is accurately obtained, all of the x coordinates thereof should be the same value. It is.

次に、ずれ量算出工程(ST450)において、エッジ位置ずれ量の算出をずれ量算出部543により行う。ここで、画像データ602に基づいたエッジ位置についてはエッジ位置算出工程(ST440)によって算出されている。一方、撮像したエッジの実際の位置については例えば次のようにして検出することができる。
例えば、画像データ602の中心Oに合わせてエッジを撮像しておく。
この位置では撮像ポイントとエッジ位置とが一致しているので、CCDカメラの移動量を駆動カウンタのカウント値から追跡し画像データの中心と実際のエッジとの距離関係を検出可能である。そこで、画像データに基づいて検出されたエッジ位置と実際のエッジ位置との実際のずれ量を算出する。このとき、図16に示されるように、エッジEのピクセル座標は、画像データ中で二次元的に分布する格子点について算出されるので、これらすべての格子点(校正ポイント)についてそれぞれエッジ位置ずれ量を算出する。すなわち、すべての校正ポイントについて画像データ602から検出されたエッジ位置と実際のエッジEとでx方向のずれ量が算出される。算出されたエッジ位置ずれ量は、格子点(校正ポイント)のピクセル座標と対にして記憶する。
Next, in the shift amount calculation step (ST450), the shift amount calculation unit 543 calculates the edge position shift amount. Here, the edge position based on the image data 602 is calculated by the edge position calculation step (ST440). On the other hand, the actual position of the imaged edge can be detected as follows, for example.
For example, an edge is imaged in accordance with the center O of the image data 602.
Since the imaging point and the edge position coincide with each other at this position, the distance between the center of the image data and the actual edge can be detected by tracking the movement amount of the CCD camera from the count value of the drive counter. Therefore, an actual deviation amount between the edge position detected based on the image data and the actual edge position is calculated. At this time, as shown in FIG. 16, the pixel coordinates of the edge E are calculated for grid points that are two-dimensionally distributed in the image data. Calculate the amount. That is, the deviation amount in the x direction is calculated from the edge positions detected from the image data 602 and the actual edge E for all the calibration points. The calculated edge position deviation amount is stored in pairs with the pixel coordinates of the grid point (calibration point).

このように各校正ポイントについて算出されたエッジ位置ずれ量に基づいて補正データ算出工程(ST500)が実行される。図18に示されるように、画素ピッチ算出部550による画素ピッチ算出工程(ST510)と、位置補正パラメータ算出部560による位置補正パラメータ算出工程(ST520)と、が行われる。   The correction data calculation step (ST500) is executed based on the edge position deviation amount calculated for each calibration point in this way. As shown in FIG. 18, a pixel pitch calculation step (ST510) by the pixel pitch calculation unit 550 and a position correction parameter calculation step (ST520) by the position correction parameter calculation unit 560 are performed.

画素ピッチ算出工程(ST510)は、エッジ位置ずれ量プロット部551によるエッジ位置ずれ量プロット工程(ST511)と、回帰直線算出部552による回帰直線算出工程(ST512)と、画素ピッチ補正データ算出部553による画素ピッチ補正データ算出工程(ST513)と、を備えている。   The pixel pitch calculation step (ST510) includes an edge position deviation amount plotting step (ST511) by the edge position deviation amount plotting unit 551, a regression line calculation step (ST512) by the regression line calculation unit 552, and a pixel pitch correction data calculation unit 553. And a pixel pitch correction data calculation step (ST513).

エッジ位置ずれ量プロット工程(ST510)は、ずれ量算出工程(ST440)にて算出されたエッジ位置ずれ量を二次元座標上にプロットする。
図19は、エッジ位置ずれ量をグラフにプロットした一例である。
グラフに点をプロットするにあたっては、校正ラインLcごとにデータのプロットを行う。例えば、y=yの校正ラインLcについて校正する場合について説明する。この校正ラインLc上においてエッジ検出された校正ポイントを読み出し、これら各校正ポイントのx座標値を横軸にとる。図19においては、画像データ602のx方向が640画素であり、この画像データ602を20等分してエッジ検出がなされた場合の例である。そして、各校正ポイントに対してずれ量算出工程(ST450)にて算出されたずれ量を縦軸にプロットしていく。図19において、エッジ位置の検出が画像データ602の中心から周辺部にいくに従ってずれ量が大きくなっていくのがわかる。そして、ピクセル座標値がプラスの領域では実際の値よりも正の方向にずれており、ピクセル座標値がマイナスの領域では実際の値よりも負の方向にずれていることがわかる。これは、画素ピッチが実際の値よりも大きめに設定されていることによる。そこで、次に画素ピッチを実際の理想値に校正するための補正値を算出することになる。
In the edge position deviation amount plotting step (ST510), the edge position deviation amount calculated in the deviation amount calculation step (ST440) is plotted on two-dimensional coordinates.
FIG. 19 is an example in which the amount of edge position deviation is plotted on a graph.
In plotting points on the graph, data is plotted for each calibration line Lc. For example, the case where the calibration line Lc where y = y 1 is calibrated will be described. A calibration point whose edge is detected on the calibration line Lc is read out, and the x-coordinate value of each calibration point is taken on the horizontal axis. FIG. 19 shows an example in which the x direction of the image data 602 is 640 pixels, and edge detection is performed by dividing the image data 602 into 20 equal parts. Then, the deviation amount calculated in the deviation amount calculation step (ST450) for each calibration point is plotted on the vertical axis. In FIG. 19, it can be seen that the amount of deviation increases as the detection of the edge position proceeds from the center of the image data 602 to the periphery. It can be seen that the pixel coordinate value is shifted in the positive direction from the actual value in the positive region and the pixel coordinate value is shifted in the negative direction from the actual value in the negative region. This is because the pixel pitch is set larger than the actual value. Therefore, a correction value for calibrating the pixel pitch to the actual ideal value is calculated next.

回帰直線算出工程(ST512)において、エッジ位置ずれ量プロット工程(ST511)にて作成されたグラフに基づいて各データ点を直線回帰する回帰直線lを算出する。このような回帰直線lは最小自乗法を用いて簡便に算出することができる。
図20は、算出された回帰直線lをグラフ上に重ねた図である。
In the regression line calculation step (ST512), a regression line l for linear regression of each data point is calculated based on the graph created in the edge position deviation amount plotting step (ST511). Such a regression line l can be easily calculated using a least square method.
FIG. 20 is a diagram in which the calculated regression line l is superimposed on the graph.

このようなエッジ位置ずれ量のプロット(ST511)と回帰直線lの算出(ST512)は総ての校正ラインLcについて実行する。   Such plotting of the edge position deviation amount (ST511) and calculation of the regression line l (ST512) are executed for all the calibration lines Lc.

校正ラインLcごとに回帰直線lが算出されたところで、次に画素ピッチ補正データ算出工程(ST513)を行う。
画素ピッチ補正データ算出工程(ST513)では、回帰直線lの傾きを抽出する。そして、現在設定されている画素ピッチに対してこの回帰直線lの傾き分を加味し、補正された画素ピッチを算出する。例えば、図19、図20の例では、次の式で表される回帰直線lが求められたとする。エッジ位置ずれ量をEで表す。
When the regression line l is calculated for each calibration line Lc, the pixel pitch correction data calculation step (ST513) is performed next.
In the pixel pitch correction data calculation step (ST513), the slope of the regression line l is extracted. Then, the corrected pixel pitch is calculated by adding the inclination of the regression line l to the currently set pixel pitch. For example, in the examples of FIGS. 19 and 20, it is assumed that a regression line l represented by the following equation is obtained. The edge position deviation amount is represented by E.

E=8.01×10-6p+3.20×10-4 E = 8.01 × 10 -6 x p + 3.20 × 10 -4

傾きが8.01×10-6であるので、現在設定されている画素ピッチからこの傾き分を減算することにより補正後の画素ピッチが求められる。このような画素ピッチの補正を各校正ラインLcごとに実行する。 Since the inclination is 8.01 × 10 −6 , the corrected pixel pitch can be obtained by subtracting this inclination from the currently set pixel pitch. Such pixel pitch correction is executed for each calibration line Lc.

画素ピッチの補正(ST510)に続いて位置補正パラメータ算出工程(ST520)が行われ、画素ピッチ分補正部561による画素ピッチ分補正工程(ST521)と、残差算出部562による残差算出工程(ST522)と、が実行される。   Following the pixel pitch correction (ST510), a position correction parameter calculation step (ST520) is performed, and a pixel pitch correction step (ST521) by the pixel pitch correction unit 561 and a residual calculation step (ST521) by the residual calculation unit 562 ( ST522) is executed.

画素ピッチ分補正工程(ST521)では、既に算出された画素ピッチの補正値を用いてエッジ位置の算出を行う。すなわち、既に算出された画素ピッチを用いて前述のエッジ位置算出工程(ST440)をやり直すことに等しい。すると、画素ピッチ分が補正されることとなる。続いて、残差算出工程(ST522)において、新たに算出されたエッジ位置と実際のエッジ位置とのずれ量を算出する。すなわち、新たに算出されたエッジ位置を用いて前述のずれ量算出工程(ST450)をやり直すことに等しい。このようにして画素ピッチ分が補正されたエッジ位置ずれ量をグラフに表すと、図21のようになる。   In the pixel pitch correction step (ST521), the edge position is calculated using the pixel pitch correction value already calculated. That is, it is equivalent to redoing the above-described edge position calculating step (ST440) using the already calculated pixel pitch. Then, the pixel pitch is corrected. Subsequently, in the residual calculation step (ST522), a deviation amount between the newly calculated edge position and the actual edge position is calculated. That is, it is equivalent to redoing the above-described deviation amount calculation step (ST450) using the newly calculated edge position. FIG. 21 shows the edge position deviation amount corrected for the pixel pitch in this way.

図21に示されるように、画素ピッチ分の補正を行ったのちでも、エッジ位置ずれ量は残差として残る。これは、画素ピッチの他に対物レンズの収差によって画像データに歪みが生じるためであり、このような位置ずれに関してはそれぞれ点ごとに異なった値となるため各点に応じた補正値の設定が必要である。そこで、校正ポイントごとにずれ量の残差を算出する。
総ての校正ポイントについて残差を算出していく。このように算出された残差は、各校正ポイントにおける位置ずれ(測定誤差)となるので、これらの値を位置補正パラメータとする。
As shown in FIG. 21, even after correction for the pixel pitch, the edge position deviation amount remains as a residual. This is because the image data is distorted due to the aberration of the objective lens in addition to the pixel pitch, and such misregistration has a different value for each point. Therefore, a correction value is set according to each point. is necessary. Therefore, the residual deviation is calculated for each calibration point.
Residuals are calculated for all calibration points. Since the residual calculated in this way becomes a position shift (measurement error) at each calibration point, these values are used as position correction parameters.

補正データ算出工程(画素ピッチ算出工程ST510、位置補正パラメータ算出工程ST520)の後、算出された各補正パラメータを補正データ記憶工程(ST600)において補正データ記憶部580に記憶する。すなわち、画素ピッチ補正データ記憶工程(ST610)において画素ピッチの補正値を画素ピッチ補正データ記憶部581に記憶し、位置補正パラメータ記憶工程(ST620)において位置補正パラメータを位置補正パラメータ記憶部582に記憶して校正モードが終了する。   After the correction data calculation step (pixel pitch calculation step ST510, position correction parameter calculation step ST520), the calculated correction parameters are stored in the correction data storage unit 580 in the correction data storage step (ST600). That is, the pixel pitch correction value is stored in the pixel pitch correction data storage unit 581 in the pixel pitch correction data storage step (ST610), and the position correction parameter is stored in the position correction parameter storage unit 582 in the position correction parameter storage step (ST620). Calibration mode ends.

なお、上記の説明はX方向についての校正であるので、Y方向の校正について引き続き行う場合には、校正ワークWcの向きを変えてエッジEがX軸に平行になる向きにする(図22参照)。そして、上記の校正方法のXをYを入れ替えて同様の方法を実行すればよい。さらに、対物レンズが倍率ごとに複数用意されている場合には、総てのレンズについてX方向およびY方向の校正を実行し、算出された補正パラメータ(画素ピッチおよび位置補正パラメータ)を補正データ記憶部580に記憶させる。   Since the above description is calibration in the X direction, when the calibration in the Y direction is continued, the direction of the calibration work Wc is changed so that the edge E is parallel to the X axis (see FIG. 22). ). Then, the same method may be executed by replacing X in the above calibration method with Y. Further, when a plurality of objective lenses are prepared for each magnification, calibration in the X direction and Y direction is executed for all the lenses, and the calculated correction parameters (pixel pitch and position correction parameters) are stored as correction data. Stored in the unit 580.

次に、このように校正された画像測定装置100を用いてワークWを画像測定する場合について簡単に説明する。
ステージ212上にワークを載置して撮像する。取得された画像データは対物レンズの収差の分だけ歪みを有し、例えば、図23(A)のような画像データが取得される。撮像した画像データにおいて測定ポイントのピクセル座標を検出する。続いて、ピクセル座標に画素ピッチを乗算し、さらに、位置ずれ補正パラメータの分だけ位置を補正する。すると、図23(B)に示されるように、レンズ収差が補正される。
そして、最適に補正された測定値が得られる。
ここで、校正ポイントからずれた測定ポイントPについては、この測定ポイントを囲む校正ポイントの補正データを内挿して用いることができる(図24参照)。
このような補正処理は、補正データ記憶部580の補正データを用いて補正処理部591により実行される。
Next, the case where the workpiece W is image-measured using the image measuring apparatus 100 calibrated in this way will be briefly described.
A workpiece is placed on the stage 212 and imaged. The acquired image data has distortion corresponding to the aberration of the objective lens. For example, image data as shown in FIG. 23A is acquired. The pixel coordinates of the measurement point are detected in the captured image data. Subsequently, the pixel coordinate is multiplied by the pixel pitch, and further, the position is corrected by the positional deviation correction parameter. Then, as shown in FIG. 23B, the lens aberration is corrected.
Then, an optimally corrected measurement value is obtained.
Here, with respect to the measurement point P deviated from the calibration point, correction data of the calibration point surrounding the measurement point can be interpolated and used (see FIG. 24).
Such correction processing is executed by the correction processing unit 591 using the correction data in the correction data storage unit 580.

(1)本実施形態では、エッジEが一本ある校正ワークWcを用意すればよいだけであるので、非常に簡便である。そして、この校正ワークを撮像領域内の複数位置で撮像することにより、撮像領域内において二次元的に分布したデータを得ることができる。すなわち、一本のエッジEを異なる場所で撮像することにより、複数のラインを有する校正用チャートを撮像したのと同様の画像データを取得することができる。レンズ収差が画像データに与える影響は場所によって異なるという二次元的な特質を有するところ、本実施形態によれば、一本のエッジEを用いて二次元的に画像データを校正することができる。また、校正用ワークは倍率ごとに用意する必要もなく、一つの校正ワークWcで対物レンズの総ての倍率に対応できる。
すなわち、この校正用ワークWcにより画像データを二次元的に補正する補正データを得ることができ、安価でありながらも高精度の校正を実現することができる。特にユーザーが自分で校正作業を行う場合には特別な校正用チャートを必要としないので、簡便に行えるという利点は利用者の利便に大いに資するところがある。
(1) In this embodiment, since it is only necessary to prepare a calibration work Wc having one edge E, it is very simple. Then, by imaging the calibration work at a plurality of positions in the imaging area, data distributed two-dimensionally in the imaging area can be obtained. That is, by capturing an image of one edge E at different locations, it is possible to acquire the same image data as when capturing a calibration chart having a plurality of lines. The influence of lens aberration on image data has a two-dimensional characteristic that it varies depending on the location. According to this embodiment, image data can be calibrated two-dimensionally using a single edge E. Further, it is not necessary to prepare a calibration work for each magnification, and one calibration work Wc can cope with all magnifications of the objective lens.
That is, correction data for two-dimensionally correcting image data can be obtained by the calibration work Wc, and high-precision calibration can be realized while being inexpensive. In particular, when the user performs the calibration work by himself / herself, a special calibration chart is not required, and the advantage of being easy to perform greatly contributes to the convenience of the user.

(2)場所ごとに異なる画素ピッチをその場所に応じて校正することができる。レンズ収差がある場合には、検出精度の最小単位である画素ピッチが画像データの中央部と画像データの周辺部とで異なってくることになるが、画像データ中に二次元的に分布する校正ポイントに基づいて、各エリアに応じて詳細に画素ピッチを補正できるので、高精度の校正を行うことができる。 (2) Different pixel pitches can be calibrated according to the location. When there is lens aberration, the pixel pitch, which is the minimum unit of detection accuracy, will be different between the central part of the image data and the peripheral part of the image data, but the calibration is distributed two-dimensionally in the image data. Since the pixel pitch can be corrected in detail according to each area based on the points, high-precision calibration can be performed.

(3)画像データの場所によって異なる位置ずれをその場所に応じて補正する位置補正パラメータを得ることができる。また、この位置補正パラメータは、画素ピッチを補正した後のデータに基づいて算出されるので、位置ずれのみを反映した値に基づく補正データとなっている。このように画素ピッチの補正に続いて位置補正パラメータを算出するという一連の校正により、測定誤差を最適に補正する位置補正パラメータを算出することができる。そして、レンズ収差に起因して画像データの場所によって異なる誤差を場所に応じた補正データによって適切に補正することにより非常に高精度の画像測定結果を得ることができる。 (3) It is possible to obtain a position correction parameter for correcting a position shift that differs depending on the location of the image data in accordance with the location. Further, since the position correction parameter is calculated based on the data after correcting the pixel pitch, the position correction parameter is correction data based on a value reflecting only the positional deviation. As described above, the position correction parameter for optimally correcting the measurement error can be calculated by a series of calibrations in which the position correction parameter is calculated following the correction of the pixel pitch. A very high-accuracy image measurement result can be obtained by appropriately correcting an error that varies depending on the location of the image data due to lens aberrations using correction data corresponding to the location.

なお、本発明は前述の実施形態に限定されず、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれる。
上記実施形態では、ステージが固定されており、CCDカメラが移動する場合を例にして説明したが、CCDカメラが固定されておりステージが移動する場合でも本発明は適用可能である。
すなわち、CCDカメラとエッジを有する校正ワークとを相対移動させながら校正ワークを撮像できればよい。
また、コンピュータに所定の校正処理プログラムをインストールし、このコンピュータに画像測定機の校正方法の各処理ステップを実行させてもよい。このように校正処理プログラムをコンピュータにインストールしてこのコンピュータに各処理ステップを実行させれば、各種のパラメータの変更などを容易に行うことができる。
この校正処理プログラムをインストールするには、コンピュータにメモリカードやCD−ROM等を直接差し込んで行ってもよいし、これらの記憶媒体を読み取る機器を外付けで接続してもよい。さらには、LANケーブル、電話線等を信号処理装置に接続して通信によって校正処理プログラムを供給しインストールしてもよいし、無線によって校正処理プログラムを供給してインストールしてもよい。
It should be noted that the present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within the scope that can achieve the object of the present invention are included in the present invention.
In the above-described embodiment, the case where the stage is fixed and the CCD camera moves has been described as an example. However, the present invention can be applied even when the CCD camera is fixed and the stage moves.
That is, it is only necessary that the calibration work can be imaged while the CCD camera and the calibration work having an edge are relatively moved.
Further, a predetermined calibration processing program may be installed in the computer, and the computer may be caused to execute each processing step of the image measuring machine calibration method. In this way, if the calibration processing program is installed in a computer and the computer executes each processing step, various parameters can be easily changed.
In order to install the calibration processing program, a memory card, a CD-ROM, or the like may be directly inserted into a computer, or a device that reads these storage media may be connected externally. Further, a calibration processing program may be supplied and installed by communication by connecting a LAN cable, a telephone line or the like to the signal processing device, or may be supplied and installed by wireless.

本発明は、画像測定装置の校正に利用できる。   The present invention can be used for calibration of an image measuring apparatus.

画像測定装置の構成を示す図である。It is a figure which shows the structure of an image measuring device. 格子を有するワークの一例を示す図。The figure which shows an example of the workpiece | work which has a grating | lattice. 収差を有するレンズを通して格子を撮像した場合の画像データの一例を示す図。The figure which shows an example of the image data at the time of imaging a grating | lattice through the lens which has an aberration. モーションコントローラとホストコンピュータとの内部構成を示す図である。It is a figure which shows the internal structure of a motion controller and a host computer. 校正方法の手順を示すフローチャート。The flowchart which shows the procedure of the calibration method. 校正ワークの一例を示す図である。It is a figure which shows an example of a calibration work. 校正ワークをステージに載置した状態を示す図。The figure which shows the state which mounted the calibration workpiece | work on the stage. 校正条件設定工程の手順を示すフローチャート。The flowchart which shows the procedure of a calibration condition setting process. 撮像領域内においてX軸に平行である校正ラインLcを複数設定した状態を示す図。The figure which shows the state which set the calibration line Lc parallel to the X-axis in the imaging region. 撮像領域内においてy軸に平行であるラインを複数設定した状態を示す図。The figure which shows the state which set the some line parallel to a y-axis within an imaging region. データ取得工程の手順を示すフローチャート。The flowchart which shows the procedure of a data acquisition process. CCDカメラを移動させながら校正用ワークを撮像する様子を示す図。The figure which shows a mode that a calibration workpiece | work is imaged, moving a CCD camera. 異なる位置でエッジを撮像した画像データの例を示す図。The figure which shows the example of the image data which imaged the edge in a different position. 画像処理工程の手順を示すフローチャート。The flowchart which shows the procedure of an image processing process. 校正ラインとエッジとの交点におけるx座標値を抽出する様子を示す図。The figure which shows a mode that the x coordinate value in the intersection of a calibration line and an edge is extracted. 異なる画像として取得されているエッジEの画像を重ねて表現した図。The figure which expressed by superimposing the image of the edge E acquired as a different image. 同じ撮像ポイントで撮像した3枚の画像データから平均値を算出する様子を示す図。The figure which shows a mode that an average value is calculated from three image data imaged at the same imaging point. 補正データ算出工程の手順を示すフローチャート。The flowchart which shows the procedure of a correction data calculation process. エッジ位置ずれ量をグラフにプロットした一例を示す図。The figure which shows an example which plotted the edge position shift amount on the graph. 回帰直線lをグラフ上に重ねた図。The figure which accumulated the regression line l on the graph. 画素ピッチ分が補正されたエッジ位置ずれ量をグラフに表した図。The figure which represented the edge position shift amount by which the part for pixel pitch was corrected on the graph. 校正ワークWcの向きを変えてエッジEがX軸に平行になる向きにした図。The figure which changed the direction of the calibration workpiece | work Wc so that the edge E might become parallel to the X-axis. 補正前の画像データの一例(A)と補正後の画像データの一例(B)を示す図。The figure which shows an example (A) of image data before correction | amendment, and an example (B) of image data after correction | amendment. 測定ポイントを囲む校正ポイントの補正データを内挿して用いる様子を示す図。The figure which shows a mode that the correction data of the calibration point surrounding a measurement point are interpolated and used. 従来の画像測定機の構成を示す図。The figure which shows the structure of the conventional image measuring machine. シミを有するワークを撮像した画像データの一例を示す図。The figure which shows an example of the image data which imaged the workpiece | work which has a stain. (A)の理想結像に対してタル型歪曲が強くでる場合(B)の画像データの一例を示す図。The figure which shows an example of the image data of (B) when tall type distortion appears strongly with respect to the ideal image formation of (A). 座標既知の校正ポイントを二次元的に配列したチャートの一例を示す図。The figure which shows an example of the chart which arranged the calibration point whose coordinate is known two-dimensionally.

符号の説明Explanation of symbols

10…画像測定機、11…ステージ、12…CCDカメラ、13…画像処理部、14…駆動機構、15…駆動制御回路、16…駆動センサ、17…画像データ、100…画像測定装置、111…入力手段、112…出力手段、200…画像測定機本体部、211…架台、212…ステージ、213…CCDカメラ、214…駆動機構、215…Yスライダ、216…ビーム支持体、217…ビーム、218…Xスライダ、219…駆動センサ、220…Y軸センサ、221…X軸センサ、300…制御部、400…モーションコントローラ、410…駆動制御回路、420…駆動カウンタ、430…画像データ取込部、500…ホストコンピュータ、510…校正動作指令部、511…駆動指令部、512…撮像指令部、520…データ記憶部、521…画像データ記憶部、522…撮像ポイント記憶部、523…エッジ座標記憶部、530…画像処理部、531…エッジ検出部、532…エッジ座標抽出部、540…演算処理部、541…平均値算出部、542…エッジ位置算出部、543…ずれ量算出部、550…画素ピッチ算出部、551…エッジ位置ずれ量プロット部、552…回帰直線算出部、553…画素ピッチ補正データ算出部、560…位置補正パラメータ算出部、561…画素ピッチ分補正部、562…残差算出部、570…メモリ、580…補正データ記憶部、581…画素ピッチ補正データ記憶部、582…位置補正パラメータ記憶部、591…補正処理部。 DESCRIPTION OF SYMBOLS 10 ... Image measuring machine, 11 ... Stage, 12 ... CCD camera, 13 ... Image processing part, 14 ... Drive mechanism, 15 ... Drive control circuit, 16 ... Drive sensor, 17 ... Image data, 100 ... Image measuring device, 111 ... Input means 112 ... Output means 200 ... Image measuring machine main body 211 ... Stand base 212 ... Stage 213 CCD camera 214 ... Drive mechanism 215 ... Y slider 216 ... Beam support 217 ... Beam 218 ... X slider, 219 ... drive sensor, 220 ... Y axis sensor, 221 ... X axis sensor, 300 ... control section, 400 ... motion controller, 410 ... drive control circuit, 420 ... drive counter, 430 ... image data fetch section, 500: Host computer 510: Calibration operation command unit 511: Drive command unit 512: Imaging command unit 520: Data storage 521 ... Image data storage unit, 522 ... Imaging point storage unit, 523 ... Edge coordinate storage unit, 530 ... Image processing unit, 531 ... Edge detection unit, 532 ... Edge coordinate extraction unit, 540 ... Calculation processing unit, 541 ... Average Value calculation unit, 542 ... edge position calculation unit, 543 ... deviation amount calculation unit, 550 ... pixel pitch calculation unit, 551 ... edge position deviation amount plot unit, 552 ... regression line calculation unit, 553 ... pixel pitch correction data calculation unit, 560: Position correction parameter calculation unit, 561: Pixel pitch correction unit, 562 ... Residual calculation unit, 570 ... Memory, 580 ... Correction data storage unit, 581 ... Pixel pitch correction data storage unit, 582 ... Position correction parameter storage unit , 591... Correction processing unit.

Claims (6)

被測定物を載置するステージに対して対物レンズを有する撮像手段を相対的に移動させる駆動機構を備え、前記撮像手段にて撮像した画像データ上にて測定ポイントを検出するとともにマシンに設定されたx座標とy座標とからなる二次元座標系で前記測定ポイントの位置を出力する画像測定機の出力値を校正する画像測定機の校正方法において、
真直なエッジを有する校正ワークのエッジの方向を二次元座標系のy軸方向に平行にした状態で前記校正ワークを前記ステージに載置する校正ワーク載置工程と、
前記駆動機構によって前記ステージと前記撮像手段とをx軸方向に相対移動させるとともに前記エッジを前記撮像手段の撮像領域内の異なる位置で撮像する画像データ取得工程と、
前記画像データ取得工程において前記エッジを撮像した際における前記撮像手段と前記校正ワークとの相対位置を撮像ポイントとして前記駆動機構の駆動量に基づいて検出する撮像ポイント検出工程と、
前記画像データ取得工程にて取得された画像データに基づいてエッジ検出を行うエッジ検出工程と、
予め設定された複数のy座標において前記各エッジのx座標値を出力するエッジ位置出力工程と、
前記エッジ位置出力工程にて出力されたエッジの各x座標値を前記撮像ポイントに基づく実際のエッジ位置と対比した際のずれ量をエッジ位置ずれ量として算出するずれ量算出工程と、
撮像領域内の各位置における前記エッジ位置ずれ量の大きさに基づいて画像データ上の各位置におけるx方向の補正データを算出する補正データ算出工程と、
前記補正データ算出工程にて算出された補正データを対応する位置と対にして記憶する補正データ記憶工程と、を備える
ことを特徴とする画像測定装置の校正方法。
Provided with a drive mechanism for moving the imaging means having the objective lens relative to the stage on which the object to be measured is placed, and the measurement point is detected on the image data captured by the imaging means and set in the machine In the calibration method of the image measuring machine for calibrating the output value of the image measuring machine that outputs the position of the measurement point in the two-dimensional coordinate system composed of the x coordinate and the y coordinate,
A calibration workpiece placing step of placing the calibration workpiece on the stage in a state in which the direction of the edge of the calibration workpiece having a straight edge is parallel to the y-axis direction of the two-dimensional coordinate system;
An image data acquisition step of relatively moving the stage and the imaging unit in the x-axis direction by the driving mechanism and imaging the edge at different positions in an imaging region of the imaging unit;
An imaging point detection step of detecting a relative position between the imaging unit and the calibration work when the edge is imaged in the image data acquisition step as an imaging point based on a driving amount of the driving mechanism;
An edge detection step for performing edge detection based on the image data acquired in the image data acquisition step;
An edge position output step of outputting an x coordinate value of each edge at a plurality of y coordinates set in advance;
A deviation amount calculating step of calculating, as an edge position deviation amount, a deviation amount when each x coordinate value of the edge output in the edge position output step is compared with an actual edge position based on the imaging point;
A correction data calculation step of calculating correction data in the x direction at each position on the image data based on the magnitude of the edge position deviation amount at each position in the imaging region;
A correction data storage step of storing the correction data calculated in the correction data calculation step in a pair with a corresponding position.
請求項1に記載の画像測定装置の校正方法において、
前記エッジ位置出力工程は、
エッジ検出工程にて検出したエッジ位置をピクセル座標上で抽出するエッジ座標抽出工程と、エッジ座標抽出工程にて抽出されたエッジのピクセル座標に対して予め設定されている画素ピッチを乗算して画像データの中心からエッジまでの実距離を算出するエッジ位置算出工程と、を備え、
前記補正データ算出工程は、画素ピッチを補正する画素ピッチ補正工程を備え、
前記画素ピッチ補正工程は、
前記エッジ座標抽出工程にて抽出されたエッジのピクセル座標に対して前記ずれ量算出工程にて算出された前記エッジ位置ずれ量を二次元座標にプロットするエッジ位置ずれ量プロット工程と、
前記エッジ位置ずれ量プロット工程でプロットした点を直線回帰する回帰直線を算出する回帰直線算出工程と、を備え、
前記回帰直線の傾きに基づいて画像データ上の各位置におけるx方向の画素ピッチを補正する画素ピッチ補正データを算出する画素ピッチ補正データ算出工程と、を備え、
前記補正データ記憶工程は、前記画素ピッチ補正データ算出工程にて算出された画素ピッチ補正データを画像データの各位置と対にして記憶する画素ピッチ補正データ記憶工程を備える
ことを特徴とする画像測定装置の校正方法。
In the calibration method of the image measuring device according to claim 1,
The edge position output step includes
An edge coordinate extraction step for extracting the edge position detected in the edge detection step on the pixel coordinates, and an image obtained by multiplying the pixel coordinates of the edge extracted in the edge coordinate extraction step by a preset pixel pitch An edge position calculating step for calculating an actual distance from the center of the data to the edge,
The correction data calculation step includes a pixel pitch correction step of correcting the pixel pitch,
The pixel pitch correction step includes
An edge position deviation amount plotting step for plotting the edge position deviation amount calculated in the deviation amount calculation step on two-dimensional coordinates with respect to the pixel coordinates of the edge extracted in the edge coordinate extraction step;
A regression line calculating step for calculating a regression line for linear regression of the points plotted in the edge position deviation amount plotting step, and
A pixel pitch correction data calculating step for calculating pixel pitch correction data for correcting the pixel pitch in the x direction at each position on the image data based on the slope of the regression line, and
The correction data storage step includes a pixel pitch correction data storage step of storing the pixel pitch correction data calculated in the pixel pitch correction data calculation step in pairs with each position of the image data. Device calibration method.
請求項2に記載の画像測定装置の校正方法において、
前記補正データ算出工程は、画像データ上の位置ずれを補正する位置補正パラメータを算出する位置補正パラメータ算出工程を備え、
前記画素ピッチ算出工程によって算出された画素ピッチの分をエッジ位置出力工程にて算出された各エッジの位置から補正して補正後エッジ位置を算出する画素ピッチ分補正工程と、
前記画素ピッチ分補正工程にて算出された補正後エッジ位置を前記撮像ポイントに基づく実際のエッジ位置と対比して両者の残差を算出する残差算出工程と、を備え、
前記補正データ記憶工程は、前記残差算出工程にて算出された残差を各画像データ上の各位置におけるx方向の位置補正パラメータとして記憶する位置補正パラメータ記憶工程と、を備える
ことを特徴とする画像測定装置の校正方法。
In the calibration method of the image measuring device according to claim 2,
The correction data calculation step includes a position correction parameter calculation step for calculating a position correction parameter for correcting a positional deviation on the image data,
A pixel pitch correction step for correcting the pixel pitch calculated in the pixel pitch calculation step from the position of each edge calculated in the edge position output step to calculate a corrected edge position;
A residual calculation step of calculating a residual between the corrected edge position calculated in the pixel pitch correction step and the actual edge position based on the imaging point,
The correction data storage step includes a position correction parameter storage step of storing the residual calculated in the residual calculation step as a position correction parameter in the x direction at each position on each image data. Calibration method for image measuring apparatus.
請求項1から請求項3のいずれかに記載の画像測定装置の校正方法において、
前記画像データ取得工程は複数回繰り返し実行され、
前記エッジ位置出力工程は、同じ撮像ポイントにおいて取得されたエッジ位置の平均値を出力する
ことを特徴とする画像測定装置の校正方法。
In the calibration method of the image measuring device according to any one of claims 1 to 3,
The image data acquisition step is repeatedly executed a plurality of times,
The edge position output step outputs an average value of edge positions acquired at the same imaging point.
請求項1から請求項4に記載の画像測定機の校正方法において前記x方向と前記y方向とを入れ換えてy方向についての校正を行う
ことを特徴とした画像測定装置の校正方法。
5. The calibration method for an image measuring apparatus according to claim 1, wherein the calibration is performed in the y direction by exchanging the x direction and the y direction. 6.
請求項1から請求項5のいずれかに記載の画像測定機の校正方法を対物レンズの倍率ごとに実行して対物レンズの倍率ごとに校正を行う
ことを特徴とした画像測定装置の校正方法。
A calibration method for an image measuring apparatus according to any one of claims 1 to 5, wherein the calibration is performed for each magnification of the objective lens by executing the calibration method for the image measuring machine according to any one of the magnifications of the objective lens.
JP2006174225A 2006-06-23 2006-06-23 Calibration method for image measuring device Expired - Fee Related JP4825598B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006174225A JP4825598B2 (en) 2006-06-23 2006-06-23 Calibration method for image measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006174225A JP4825598B2 (en) 2006-06-23 2006-06-23 Calibration method for image measuring device

Publications (2)

Publication Number Publication Date
JP2008003000A true JP2008003000A (en) 2008-01-10
JP4825598B2 JP4825598B2 (en) 2011-11-30

Family

ID=39007501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006174225A Expired - Fee Related JP4825598B2 (en) 2006-06-23 2006-06-23 Calibration method for image measuring device

Country Status (1)

Country Link
JP (1) JP4825598B2 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100798667B1 (en) * 2004-03-02 2008-01-28 엔이씨 일렉트로닉스 가부시키가이샤 Multilayer system and clock control method
KR100801042B1 (en) * 2005-09-02 2008-02-11 김선영 Automatically Stanby Power Cut-off Plug Socket
KR100802014B1 (en) * 2003-07-31 2008-02-12 인텔 코포레이션 Multilayer reflective extreme ultraviolet lithography mask blanks
KR100811062B1 (en) * 2006-04-27 2008-03-06 주식회사 나모텍 Surface lighting unit having flexibility using film type light guiding plate and display apparatus thereof
KR100812542B1 (en) * 2006-03-03 2008-03-13 이병철 Organic Light Emitting Diode Having Functions of Moisture-Getting and Hydrogen-Discharging
KR100816483B1 (en) * 2006-10-13 2008-03-24 포항공과대학교 산학협력단 Home network system for controlling power consumption of electric appliance using memory chip embedded in socket
KR100820869B1 (en) * 2006-05-08 2008-04-10 장귀수 Regulating unit of high frequency in battery for vehicle
KR100840458B1 (en) * 2006-03-31 2008-06-20 가시오 히타치 모바일 커뮤니케이션즈 컴퍼니 리미티드 Mobile communication terminal and recording medium storing program thereof
KR100841512B1 (en) * 2004-05-06 2008-06-25 가부시키가이샤 나비타이무쟈판 Portable guide device and portable telephone
KR100858781B1 (en) * 2006-09-01 2008-09-17 조동신 Electric power plug of a small-sized timer
KR100864597B1 (en) * 2006-12-18 2008-10-22 (주)파트론 Mobile antenna connector
JP2011133377A (en) * 2009-12-25 2011-07-07 Hitachi High-Technologies Corp Dispensing device
CN109872367A (en) * 2019-03-18 2019-06-11 安徽速达数控设备有限责任公司 Bearing calibration and correction system with CCD camera engraving machine
JP2019201143A (en) * 2018-05-17 2019-11-21 株式会社ディスコ Inspection jig and inspection method
US10788814B2 (en) 2017-10-24 2020-09-29 Seiko Epson Corporation Encoder, robot, and printer
CN112529968A (en) * 2020-12-22 2021-03-19 上海商汤临港智能科技有限公司 Camera equipment calibration method and device, electronic equipment and storage medium
CN113466440A (en) * 2021-06-30 2021-10-01 上海科华实验系统有限公司 Biochemical analyzer positioning accuracy testing equipment and testing method
WO2023037670A1 (en) * 2021-09-09 2023-03-16 Towa株式会社 Calibration method and method for manufacturing electronic component

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11355813A (en) * 1998-06-04 1999-12-24 Honda Motor Co Ltd Device for deciding internal parameters of camera
JP2000205822A (en) * 1999-01-08 2000-07-28 Mitsutoyo Corp Image measurement system and its image correcting method
JP2003259357A (en) * 2002-03-05 2003-09-12 Mitsubishi Electric Corp Calibration method for camera and attachment of camera
JP2004048399A (en) * 2002-07-12 2004-02-12 Honda Motor Co Ltd Image output calibrating device for camera
JP2005004391A (en) * 2003-06-10 2005-01-06 Mitsutoyo Corp Image data processor, image data correcting method, image measuring instrument, image data processing program, and recording medium recorded with this program
JP2005090983A (en) * 2003-09-12 2005-04-07 Dainippon Screen Mfg Co Ltd Linear moving device and stage moving device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11355813A (en) * 1998-06-04 1999-12-24 Honda Motor Co Ltd Device for deciding internal parameters of camera
JP2000205822A (en) * 1999-01-08 2000-07-28 Mitsutoyo Corp Image measurement system and its image correcting method
JP2003259357A (en) * 2002-03-05 2003-09-12 Mitsubishi Electric Corp Calibration method for camera and attachment of camera
JP2004048399A (en) * 2002-07-12 2004-02-12 Honda Motor Co Ltd Image output calibrating device for camera
JP2005004391A (en) * 2003-06-10 2005-01-06 Mitsutoyo Corp Image data processor, image data correcting method, image measuring instrument, image data processing program, and recording medium recorded with this program
JP2005090983A (en) * 2003-09-12 2005-04-07 Dainippon Screen Mfg Co Ltd Linear moving device and stage moving device

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100802014B1 (en) * 2003-07-31 2008-02-12 인텔 코포레이션 Multilayer reflective extreme ultraviolet lithography mask blanks
KR100798667B1 (en) * 2004-03-02 2008-01-28 엔이씨 일렉트로닉스 가부시키가이샤 Multilayer system and clock control method
KR100841512B1 (en) * 2004-05-06 2008-06-25 가부시키가이샤 나비타이무쟈판 Portable guide device and portable telephone
KR100801042B1 (en) * 2005-09-02 2008-02-11 김선영 Automatically Stanby Power Cut-off Plug Socket
KR100812542B1 (en) * 2006-03-03 2008-03-13 이병철 Organic Light Emitting Diode Having Functions of Moisture-Getting and Hydrogen-Discharging
KR100840458B1 (en) * 2006-03-31 2008-06-20 가시오 히타치 모바일 커뮤니케이션즈 컴퍼니 리미티드 Mobile communication terminal and recording medium storing program thereof
KR100811062B1 (en) * 2006-04-27 2008-03-06 주식회사 나모텍 Surface lighting unit having flexibility using film type light guiding plate and display apparatus thereof
KR100820869B1 (en) * 2006-05-08 2008-04-10 장귀수 Regulating unit of high frequency in battery for vehicle
KR100858781B1 (en) * 2006-09-01 2008-09-17 조동신 Electric power plug of a small-sized timer
KR100816483B1 (en) * 2006-10-13 2008-03-24 포항공과대학교 산학협력단 Home network system for controlling power consumption of electric appliance using memory chip embedded in socket
KR100864597B1 (en) * 2006-12-18 2008-10-22 (주)파트론 Mobile antenna connector
JP2011133377A (en) * 2009-12-25 2011-07-07 Hitachi High-Technologies Corp Dispensing device
US10788814B2 (en) 2017-10-24 2020-09-29 Seiko Epson Corporation Encoder, robot, and printer
TWI795563B (en) * 2018-05-17 2023-03-11 日商迪思科股份有限公司 Inspection fixture and inspection method
JP2019201143A (en) * 2018-05-17 2019-11-21 株式会社ディスコ Inspection jig and inspection method
CN110504191A (en) * 2018-05-17 2019-11-26 株式会社迪思科 Check jig and inspection method
KR20190132212A (en) * 2018-05-17 2019-11-27 가부시기가이샤 디스코 Inspection jig and inspection method
KR102645229B1 (en) * 2018-05-17 2024-03-07 가부시기가이샤 디스코 Inspection jig and inspection method
CN110504191B (en) * 2018-05-17 2024-02-23 株式会社迪思科 Inspection jig and inspection method
JP7145643B2 (en) 2018-05-17 2022-10-03 株式会社ディスコ Inspection jig and inspection method
CN109872367A (en) * 2019-03-18 2019-06-11 安徽速达数控设备有限责任公司 Bearing calibration and correction system with CCD camera engraving machine
CN112529968A (en) * 2020-12-22 2021-03-19 上海商汤临港智能科技有限公司 Camera equipment calibration method and device, electronic equipment and storage medium
CN113466440A (en) * 2021-06-30 2021-10-01 上海科华实验系统有限公司 Biochemical analyzer positioning accuracy testing equipment and testing method
CN113466440B (en) * 2021-06-30 2024-04-19 上海科华实验系统有限公司 Biochemical analyzer positioning accuracy testing equipment and method
WO2023037670A1 (en) * 2021-09-09 2023-03-16 Towa株式会社 Calibration method and method for manufacturing electronic component

Also Published As

Publication number Publication date
JP4825598B2 (en) 2011-11-30

Similar Documents

Publication Publication Date Title
JP4825598B2 (en) Calibration method for image measuring device
KR20140089392A (en) Method for calibrating camera measurement system
US8810799B2 (en) Height-measuring method and height-measuring device
JP5297906B2 (en) Image probe calibration method and shape measuring machine
JP2010281621A (en) Three-dimensional shape measuring instrument
EP2068113A1 (en) Calibrating method of image measuring instrument
US20110292200A1 (en) Scanning microscope
JP2005004391A (en) Image data processor, image data correcting method, image measuring instrument, image data processing program, and recording medium recorded with this program
US20040156033A1 (en) Angle detection apparatus, projector including the same, and angle detection method
JPH11351840A (en) Noncontact type three-dimensional measuring method
US20220398778A1 (en) Lens calibration method for digital imaging apparatus
JP4791568B2 (en) 3D measuring device
CN109631757B (en) Grating scale calibration method and device and visual detection device
CN118067003A (en) Interpolation-based image instrument XY plane and Z-axis grating ruler position error compensation method
JP4150474B2 (en) Method and apparatus for correcting table deflection of image measuring machine
JP2003098216A (en) Circuit board inspection device
JP6717759B2 (en) Measuring device and method of operating measuring device
CN114556045B (en) Position measuring method
JP2005136743A (en) Position adjusting instrument and position adjusting method for image pickup device
JPH10311705A (en) Image input apparatus
JP2005043085A (en) Angle detector and projector equipped with the same
CN114571455B (en) System and method for calibrating movement of movement module and robot
JP5950760B2 (en) Calibration method of interference shape measuring mechanism
JP2007033040A (en) Method and device for calibrating optical head part in three-dimensional shape measuring instrument by optical cutting method
CN112802127B (en) Calibration method and device, calibration equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110912

R150 Certificate of patent or registration of utility model

Ref document number: 4825598

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140916

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees