JP2007298376A - Method and device for determining boundary position, program for making computer function as boundary position determination device, and recording medium - Google Patents
Method and device for determining boundary position, program for making computer function as boundary position determination device, and recording medium Download PDFInfo
- Publication number
- JP2007298376A JP2007298376A JP2006126201A JP2006126201A JP2007298376A JP 2007298376 A JP2007298376 A JP 2007298376A JP 2006126201 A JP2006126201 A JP 2006126201A JP 2006126201 A JP2006126201 A JP 2006126201A JP 2007298376 A JP2007298376 A JP 2007298376A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image
- boundary
- dimensional
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
- G01N2021/8896—Circuits specially adapted for system specific signal conditioning
Landscapes
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Abstract
Description
本発明は、境界の位置を決定する技術に関し、より特定的には、被写体の撮影により取得された画像に含まれる境界の位置を決定する技術に関する。 The present invention relates to a technique for determining the position of a boundary, and more specifically to a technique for determining the position of a boundary included in an image acquired by photographing a subject.
高品質な薄型パネルを製造するための品質管理方法として、製造過程における検査工程が重要な役割を果たしている。近年では品質の安定化や目視検査員削減によるコストダウンなどのため、画像処理技術を適用した多種多様な欠陥検査装置が開発されている。一般的に画像処理は処理領域が大きいほど多くの処理時間を要する。そのため、必要な領域のみの画像を用いて検査することにより、処理時間の短縮が図られている。 The inspection process in the manufacturing process plays an important role as a quality control method for manufacturing a high-quality thin panel. In recent years, various defect inspection apparatuses to which image processing technology is applied have been developed in order to stabilize quality and reduce costs by reducing visual inspectors. In general, image processing requires a longer processing time as the processing area is larger. For this reason, the processing time is shortened by inspecting the image using only the necessary area.
一方、薄型パネルの製造方法としては、1枚のガラス基板から複数枚のパネルを製造することが一般的である。このようなガラス基板の欠陥検査においては、カメラによる撮像により取得された画像が用いられる。この欠陥検査において、画像検査処理時間の短縮のための一案として、各パネルの内部のみを検査してその他の部分は検査しないようにする手法がある。 On the other hand, as a method for producing a thin panel, it is common to produce a plurality of panels from a single glass substrate. In such a defect inspection of a glass substrate, an image acquired by imaging with a camera is used. In this defect inspection, as a proposal for shortening the image inspection processing time, there is a method of inspecting only the inside of each panel and not inspecting other portions.
パネル内部のみを検査するためには、ガラス基板の画像中のパネル領域の境界、すなわち、パネルのエッジ位置を決定する必要がある。 In order to inspect only the inside of the panel, it is necessary to determine the boundary of the panel region in the image of the glass substrate, that is, the edge position of the panel.
エッジ位置を決定する方法として、エッジ位置の設計データを利用する方法がある。具体的には、ガラス基板の端に対するエッジの位置、およびカメラとガラス基板との位置関係から、画像中のエッジの位置は、計算により算出される。 As a method of determining the edge position, there is a method of using design data of the edge position. Specifically, the position of the edge in the image is calculated from the position of the edge with respect to the edge of the glass substrate and the positional relationship between the camera and the glass substrate.
しかし、この方法では、一般的に、カメラとガラス基板の位置決め誤差などのため、10mm程度の誤差が生じる。そこで、エッジ位置を画像処理によって決定する必要が生じる。 However, this method generally causes an error of about 10 mm due to positioning errors between the camera and the glass substrate. Therefore, it is necessary to determine the edge position by image processing.
画像処理によってエッジ位置を決定する方法として、たとえば、特開平5−266194号公報(特許文献1)は、ノイズによる干渉を受けず、輪郭線の直線部分の端点を求めることができる技術を開示している。当該技術によれば、まず画像がエッジの方向に濃淡投影され、1次元投影累算データが求められる。次に、1次元投影累算データから勾配の大きさが求められ、勾配の大きさがピークとなる位置が、エッジ位置として検出される。 As a method for determining an edge position by image processing, for example, Japanese Patent Laid-Open No. 5-266194 (Patent Document 1) discloses a technique capable of obtaining an end point of a straight line portion of a contour line without receiving interference due to noise. ing. According to this technique, first, an image is gray-projected in the direction of an edge to obtain one-dimensional projection accumulated data. Next, the gradient magnitude is obtained from the one-dimensional projection accumulated data, and a position where the gradient magnitude reaches a peak is detected as an edge position.
また、画像に表示される複数の部位の接続部分を検出する技術として、たとえば、特開2005−284725号公報(特許文献2)は、突き合わせて接合する押し出し型材や板材等の被接合材の表面に汚れやキズ等の外乱要因があっても、接合線を正確に検出できる技術を開示している。 Moreover, as a technique for detecting a connection portion of a plurality of parts displayed in an image, for example, Japanese Patent Application Laid-Open No. 2005-284725 (Patent Document 2) discloses the surface of a material to be joined such as an extrusion die material or a plate material to be joined together. Even if there is a disturbance factor such as dirt or scratches, a technique that can accurately detect the joining line is disclosed.
また、エッジを検出する技術として、たとえば、特開2004−272313号公報(特許文献3)は、エッジ品質の悪い画像を定量化して、エッジを高精度に検出するための技術を開示している。 As a technique for detecting an edge, for example, Japanese Patent Application Laid-Open No. 2004-272313 (Patent Document 3) discloses a technique for quantifying an image with poor edge quality and detecting the edge with high accuracy. .
さらに、被写体の端部の抽出に関し、たとえば、特開2005−167802号公報(特許文献4)は、原稿画像をエリアセンサによって読み取り、画像データから画像処理によって原稿の端部を抽出し、原稿の輪郭と位置とに基づいて原稿サイズを検知する技術を開示している。
特開平5−266194号公報に開示された第1の技術を用いて、ガラス基板上のパネルのパネルエッジを決定する場合を考える。パネルの周囲には、配線パターンの領域が存在する。配線パターンの領域の外側は、ガラス基板である。 Consider a case in which the panel edge of a panel on a glass substrate is determined using the first technique disclosed in Japanese Patent Laid-Open No. 5-266194. A wiring pattern region exists around the panel. The outside of the wiring pattern region is a glass substrate.
このような構成を有するガラス基板をカメラで撮像すると、パネルの内部から外部に向けて、パネルエッジ、配線パターンのエッジ、ガラス基板のエッジが、それぞれ画像データ上に出力される。 When a glass substrate having such a configuration is imaged by a camera, the panel edge, the edge of the wiring pattern, and the edge of the glass substrate are output on the image data from the inside of the panel to the outside.
当該第1の技術によると、複数の方向に沿って原画像の画素の値を積算することにより、1次元投影累算データが求められ、それぞれについて投影勾配データのピーク値が求められ、前記複数の方向のうち、最も大きい方向のピーク値がエッジ位置とされる。 According to the first technique, by integrating the pixel values of the original image along a plurality of directions, one-dimensional projection accumulation data is obtained, and a peak value of the projection gradient data is obtained for each of the plurality of the plurality of the plurality of directions. Among these directions, the peak value in the largest direction is set as the edge position.
この技術によると、パターンエッジの位置が選ばれて、パネルエッジの位置が選ばれない場合があり、エッジを精度良く決定できないという問題点がある。 According to this technique, the position of the pattern edge is selected and the position of the panel edge may not be selected, and there is a problem that the edge cannot be determined with high accuracy.
また、特開平5−266194号公報において、第2の技術として、1次元投影累算データを求める前に、原画像の2次元勾配分布を求める方法が開示されている。 Japanese Patent Laid-Open No. 5-266194 discloses a second technique for obtaining a two-dimensional gradient distribution of an original image before obtaining one-dimensional projection accumulation data.
2次元勾配分布を求める方法としてSobelフィルタ処理を実施した後の画像データを用いる方法がある。この場合においても、上述の第1の技術に係る方法と同様に、1次元投影累算データから勾配の大きさのピーク位置を求めても、パターンエッジの位置が選ばれて、パネルエッジの位置が選ばれない場合がある。その結果、パネルエッジを高精度に決定することができない場合がある。 As a method for obtaining the two-dimensional gradient distribution, there is a method using image data after performing the Sobel filter processing. Also in this case, as in the method according to the first technique described above, the position of the pattern edge is selected and the position of the panel edge is determined even if the peak position of the gradient magnitude is obtained from the one-dimensional projection accumulated data. May not be selected. As a result, the panel edge may not be determined with high accuracy.
本発明は、上述の問題点を解決するためになされたものであって、その第1の目的は、境界の位置を精度よく決定できる位置決定装置を提供することである。第2の目的は、検査対象物の画像処理検査を効率を向上させられる、境界の位置決定装置を提供することである。 The present invention has been made to solve the above-described problems, and a first object of the present invention is to provide a position determination device that can accurately determine the position of a boundary. The second object is to provide a boundary position determination device capable of improving the efficiency of image processing inspection of an inspection object.
第3の目的は、境界の位置を精度よく決定できる方法を提供することである。第4の目的は、検査対象物の画像処理検査の効率を向上させられる、境界の位置の決定方法を提供することである。 A third object is to provide a method capable of accurately determining the position of the boundary. A fourth object is to provide a boundary position determination method capable of improving the efficiency of image processing inspection of an inspection object.
第5の目的は、境界の位置を精度よく決定できる装置としてコンピュータを機能させるためのプログラムを提供することである。第6の目的は、検査対象物の画像処理検査を効率を向上させられる、境界の位置決定装置として、コンピュータを機能させるためのプログラムを提供することである。 A fifth object is to provide a program for causing a computer to function as an apparatus that can accurately determine the position of a boundary. A sixth object is to provide a program for causing a computer to function as a boundary position determination device capable of improving the efficiency of image processing inspection of an inspection object.
第7の目的は、境界の位置を精度よく決定できる装置としてコンピュータを機能させるためのプログラムが格納された記録媒体を提供することである。第8の目的は、検査対象物の画像処理検査を効率を向上させられる、境界の位置決定装置として、コンピュータを機能させるためのプログラムが格納された記録媒体を提供することである。 A seventh object is to provide a recording medium storing a program for causing a computer to function as an apparatus that can accurately determine the position of a boundary. The eighth object is to provide a recording medium storing a program for causing a computer to function as a boundary position determination device capable of improving the efficiency of image processing inspection of an inspection object.
上記の課題を解決するために、この発明のある局面に従うと、境界の位置決定装置が提供される。この装置は、被写体の撮影により取得された原画像を表わす原画像データを格納する記憶手段を備える。原画像データは2次元の座標軸にしたがって表わされている。この装置は、原画像が複数の部分画像を有する場合に、原画像データに基づいて、各部分画像の境界が強調された画像を表わす強調画像データを生成する第1の生成手段と、境界が強調された後の各部分画像に対応する各部分領域の各輝度値を境界の方向に積算して、平均値を算出することにより、2次元の座標軸のうちの1次元の座標軸に従って表わされる複数の1次元データを生成する第2の生成手段と、被写体の設計データに基づいて、境界の位置を決定するための対象となるデータの範囲を決定する第1の決定手段と、データの範囲に含まれる複数の1次元データを用いて統計量を算出することにより、輝度値についての閾値を算出する算出手段と、データの範囲に含まれる複数の1次元データに基づいて、閾値を越える輝度値に対応する1次元データを特定する特定手段と、特定手段によって特定された1次元データの1次元の座標軸上の座標値を、境界の位置として決定する第2の決定手段とを備える。 In order to solve the above problems, according to one aspect of the present invention, a boundary position determining apparatus is provided. This apparatus includes storage means for storing original image data representing an original image acquired by photographing a subject. The original image data is represented according to a two-dimensional coordinate axis. When the original image has a plurality of partial images, the apparatus includes first generation means for generating enhanced image data representing an image in which the boundary of each partial image is enhanced based on the original image data, and the boundary is A plurality of brightness values of each partial area corresponding to each partial image after being emphasized are integrated in the direction of the boundary, and an average value is calculated, thereby representing a plurality of values expressed in accordance with a one-dimensional coordinate axis of the two-dimensional coordinate axes. A first generation unit for generating one-dimensional data, a first determination unit for determining a range of data to be determined for determining a boundary position based on the design data of the subject, and a data range A calculation means for calculating a threshold value for a luminance value by calculating a statistic using a plurality of included one-dimensional data, and a luminance value exceeding the threshold based on the plurality of one-dimensional data included in the data range Vs. To comprising specifying means for specifying a 1-dimensional data, a coordinate value on a one-dimensional coordinate axis of the one-dimensional data specified by the specifying means, a second determination means for determining a position of the boundary.
好ましくは、第1の決定手段は、原画像データによって決定される範囲と、設計データによって特定される範囲とに基づいて、データの範囲を決定する手段を含む。 Preferably, the first determining means includes means for determining a data range based on a range determined by the original image data and a range specified by the design data.
好ましくは、データの範囲を決定する手段は、設計データに基づいて、計算上の位置データとして、境界の1次元データを算出し、原画像データに基づいて、実際の位置データとして、境界の1次元データを算出し、計算上の位置データと実際の位置データとの差に基づいて、データの範囲を決定する。 Preferably, the means for determining the data range calculates one-dimensional data of the boundary as the calculated position data based on the design data, and 1 of the boundary as the actual position data based on the original image data. Dimension data is calculated, and the data range is determined based on the difference between the calculated position data and the actual position data.
好ましくは、被写体は、検査の対象となる第1の部分と、検査の対象とならない第2の部分とを含む。原画像は、第1の部分に対応する第1の画像と、第2の部分に対応する第2の画像とを含む。第1の生成手段は、強調画像データとして、第1の画像と第2の画像との境界が強調された画像を表わすデータを生成する。 Preferably, the subject includes a first part to be inspected and a second part not to be inspected. The original image includes a first image corresponding to the first portion and a second image corresponding to the second portion. The first generation means generates data representing an image in which the boundary between the first image and the second image is emphasized as the emphasized image data.
好ましくは、被写体は、ガラス基板である。第1の部分は、ガラス基板に加工されたパネル領域である。第1の生成手段は、パネル領域に対応する画像と、パネル領域以外の領域に対応する画像とが接する部分が強調された画像を表わすデータを生成する。 Preferably, the subject is a glass substrate. The first part is a panel region processed into a glass substrate. The first generation means generates data representing an image in which a portion where an image corresponding to the panel area and an image corresponding to an area other than the panel area are in contact is emphasized.
好ましくは、算出手段は、複数の1次元データについての平均値と標準偏差とを算出し、平均値と標準偏差とに基づいて閾値を算出する。 Preferably, the calculation means calculates an average value and a standard deviation for a plurality of one-dimensional data, and calculates a threshold value based on the average value and the standard deviation.
好ましくは、特定手段は、閾値を越える輝度値に対応する複数の1次元データを特定する手段と、特定された各1次元データの各々について、データの範囲の上限値と1次元データとの差をそれぞれ算出する手段と、算出された各差が最小となる1次元データを、閾値を越える輝度値に対応する1次元データとして決定する手段とを含む。 Preferably, the specifying means specifies a plurality of one-dimensional data corresponding to a luminance value exceeding a threshold, and for each of the specified one-dimensional data, a difference between the upper limit value of the data range and the one-dimensional data. And means for determining one-dimensional data that minimizes each calculated difference as one-dimensional data corresponding to a luminance value exceeding a threshold value.
好ましくは、原画像は、矩形領域を含む。境界は、矩形領域の輪郭によって形成されている。第1の生成手段は、強調画像データとして、輪郭により形成される境界が強調された画像を表わすデータを生成する。 Preferably, the original image includes a rectangular area. The boundary is formed by the outline of the rectangular area. The first generation means generates data representing an image in which the boundary formed by the contour is emphasized as the emphasized image data.
好ましくは、第2の生成手段は、境界が強調された後の矩形領域に対応する各画素の各輝度値を、矩形領域における一方向に積算して、平均値を算出することにより、複数の一次元データを生成する。第1の決定手段は、矩形領域についての一次元データによって規定される範囲にデータの範囲が含まれるように、データの範囲を決定する。 Preferably, the second generation means integrates the luminance values of the pixels corresponding to the rectangular area after the boundary is emphasized in one direction in the rectangular area, and calculates an average value, thereby calculating a plurality of values. Generate one-dimensional data. The first determining means determines the data range so that the range defined by the one-dimensional data for the rectangular area includes the data range.
好ましくは、統計量は、平均値と標準偏差とを含む。算出手段は、複数の標準偏差の各値に応じて予め規定された各式を用いて閾値を算出する。各式は、各標準偏差の値によって異なる。 Preferably, the statistic includes an average value and a standard deviation. The calculating means calculates the threshold value using each formula defined in advance according to each value of the plurality of standard deviations. Each formula varies depending on the value of each standard deviation.
この発明の他の局面に従うと、コンピュータが画像に含まれる境界の位置を決定する方法が提供される。コンピュータは、データを格納する記憶装置とデータを用いて予め規定された処理を実行する処理装置とを備えている。この方法は、処理装置が、記憶装置から、被写体の撮影により取得された原画像を表わす原画像データを読み出すステップを備える。原画像データは2次元の座標軸にしたがって表わされている。この方法は、原画像が複数の部分画像を有する場合に、処理装置が、原画像データに基づいて、各部分画像の境界が強調された画像を表わす強調画像データを生成するステップと、処理装置が、境界が強調された後の各部分画像に対応する各部分領域の各輝度値を境界の方向に積算して、平均値を算出することにより、2次元の座標軸のうちの1次元の座標軸に従って表わされる複数の1次元データを生成するステップと、処理装置が、被写体の設計データに基づいて、境界の位置を決定するための対象となるデータの範囲を決定するステップと、処理装置が、データの範囲に含まれる複数の1次元データを用いて統計量を算出することにより、輝度値についての閾値を算出するステップと、処理装置が、データの範囲に含まれる複数の1次元データに基づいて、閾値を越える輝度値に対応する1次元データを特定するステップと、処理装置が、特定された1次元データの1次元の座標軸上の座標値を、境界の位置として決定するステップとを備える。 According to another aspect of the invention, a method is provided for a computer to determine the location of a boundary included in an image. The computer includes a storage device that stores data and a processing device that executes a predetermined process using the data. In this method, the processing device includes a step of reading original image data representing an original image acquired by photographing a subject from a storage device. The original image data is represented according to a two-dimensional coordinate axis. In this method, when the original image has a plurality of partial images, the processing device generates enhanced image data representing an image in which the boundary of each partial image is emphasized based on the original image data; Is obtained by integrating the luminance values of the partial areas corresponding to the partial images after the boundary is emphasized in the direction of the boundary and calculating an average value, thereby calculating a one-dimensional coordinate axis out of the two-dimensional coordinate axes. Generating a plurality of one-dimensional data represented according to the following: a processing device determining a range of data for determining a boundary position based on subject design data; and a processing device, Calculating a threshold value for a luminance value by calculating a statistic using a plurality of one-dimensional data included in the data range; and a processing device including a plurality of primary elements included in the data range. Identifying one-dimensional data corresponding to a luminance value exceeding a threshold value based on the data, and determining a coordinate value on the one-dimensional coordinate axis of the identified one-dimensional data as a boundary position With.
この発明のさらに他の局面に従うと、画像に含まれる境界の位置を決定する装置としてコンピュータを機能させるためのプログラムが提供される。コンピュータは、データを格納する記憶装置とデータを用いて予め規定された処理を実行する処理装置とを備えている。プログラムは処理装置に、記憶装置から、被写体の撮影により取得された原画像を表わす原画像データを読み出すステップを実行させる。原画像データは2次元の座標軸にしたがって表わされている。プログラムは処理装置に、原画像が複数の部分画像を有する場合に、原画像データに基づいて、各部分画像の境界が強調された画像を表わす強調画像データを生成するステップと、境界が強調された後の各部分画像に対応する各部分領域の各輝度値を境界の方向に積算して、平均値を算出することにより、2次元の座標軸のうちの1次元の座標軸に従って表わされる複数の1次元データを生成するステップと、被写体の設計データに基づいて、境界の位置を決定するための対象となるデータの範囲を決定するステップと、データの範囲に含まれる複数の1次元データを用いて統計量を算出することにより、輝度値についての閾値を算出するステップと、データの範囲に含まれる複数の1次元データに基づいて、閾値を越える輝度値に対応する1次元データを特定するステップと、特定された1次元データの1次元の座標軸上の座標値を、境界の位置として決定するステップとを実行させる。 According to still another aspect of the present invention, a program for causing a computer to function as an apparatus for determining the position of a boundary included in an image is provided. The computer includes a storage device that stores data and a processing device that executes a predetermined process using the data. The program causes the processing device to execute a step of reading original image data representing an original image acquired by photographing a subject from the storage device. The original image data is represented according to a two-dimensional coordinate axis. When the original image has a plurality of partial images, the program generates, on the basis of the original image data, enhanced image data representing an image in which the boundary of each partial image is emphasized, and the boundary is enhanced. Then, the luminance values of the partial areas corresponding to the partial images after being added are integrated in the direction of the boundary, and an average value is calculated, whereby a plurality of 1's represented according to the one-dimensional coordinate axis out of the two-dimensional coordinate axes. Using a step of generating dimensional data, a step of determining a range of data to be determined for determining the position of the boundary based on the design data of the subject, and a plurality of one-dimensional data included in the range of data By calculating a statistic, a step of calculating a threshold value for the luminance value and corresponding to a luminance value exceeding the threshold value based on a plurality of one-dimensional data included in the data range Identifying a dimension data, a coordinate value on a one-dimensional coordinate axis of the one-dimensional data is identified, and a step of determining a position of the boundary.
この発明のさらに他の局面に従うと、上記のプログラムを格納した、コンピュータ読み取り可能な記録媒体が提供される。 According to still another aspect of the present invention, a computer-readable recording medium storing the above program is provided.
本発明に係る境界の位置決定装置によると、境界(たとえば、パネルのエッジ部分)の位置を精度よく決定することができる。本発明に係る方法によると、コンピュータは、境界の位置を精度よく決定することができる。本発明に係るプログラムによると、コンピュータは、境界の位置を精度よく決定できる装置として機能する。本発明に係る記録媒体がコンピュータに装着され、当該記録媒体に格納されているプログラムが実行されると、そのプログラムを実行するコンピュータは、境界の位置を精度よく決定することができる装置として機能することができる。その結果、検査対象物の画像処理検査の効率が向上し得る。 According to the boundary position determining apparatus according to the present invention, the position of the boundary (for example, the edge portion of the panel) can be determined with high accuracy. According to the method of the present invention, the computer can accurately determine the position of the boundary. According to the program according to the present invention, the computer functions as an apparatus that can accurately determine the position of the boundary. When a recording medium according to the present invention is mounted on a computer and a program stored in the recording medium is executed, the computer that executes the program functions as an apparatus that can accurately determine the position of the boundary. be able to. As a result, the efficiency of the image processing inspection of the inspection object can be improved.
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
図1を参照して、本発明の実施の形態に係る検査システム10について説明する。図1は、エッジの位置を決定する機能を有する検査システム10のハードウェア構造を表わすブロック図である。検査システム10は、ライト110と、ライト110に電気的に接続されるエッジ位置検出装置100と、エッジ位置検出装置100に電気的に接続されるカメラ120と、エッジ位置検出装置100に電気的に接続されるディスプレイ130とを備える。エッジ位置検出装置100は、ガラス基板に形成されるパネル領域と、パネル領域以外の領域との境界(エッジ)の位置を検出する。具体的には、後述するように、エッジ位置検出装置100は、予め規定された座標軸上における座標値として、境界の位置を検出する。
With reference to FIG. 1, an
検査システム10には、検査の対象物であるガラス基板140が搬入され、予め定められた位置に装着される。ガラス基板140には、2つの薄型パネル141,142がそれぞれ形成されている。
A
ライト110は、エッジ位置検出装置100からの信号に基づいて当該位置に装着されたガラス基板140に予め設定された強度を有する光を照射する。照射される光は、たとえば一般白色光である。
Based on a signal from the edge
カメラ110は、ガラス基板140からの反射光を受光して撮影し、画像データとしてエッジ位置検出装置100に送出する。カメラ120は、エリアセンサカメラでもラインセンサカメラでもよい。カメラ120の撮像部分は、CCD(Charge Coupled Device)、あるいはCMOS(Complementary Metal Oxide Semiconductor)等の光電変換機構を有する。
The
本実施の形態で説明する画像のサイズは、たとえば、横1000画素、縦1200画素である。しかしながら、当該画像のサイズは、上記のものに限られず、その他のサイズ(たとえば、横500画素、縦600画素)であってもよい。 The image size described in the present embodiment is, for example, horizontal 1000 pixels and vertical 1200 pixels. However, the size of the image is not limited to the above, and may be other sizes (for example, horizontal 500 pixels, vertical 600 pixels).
また、本実施の形態で説明される画像の画素の有する輝度値は、“0”〜“255”の範囲の値である。以下の説明では、輝度値が“0”の場合、対応する画素は黒色に対応するものとする。また、輝度値が“255”の場合、対応する画素は白色に対応するものとする。なお、本実施の形態で使用する画像の画素の有する輝度値は、“0”〜“255”の範囲に含まれる値に限られることはなく、その他の範囲に含まれる値であってもよい。 In addition, the luminance value of the pixel of the image described in this embodiment is a value in the range of “0” to “255”. In the following description, when the luminance value is “0”, the corresponding pixel corresponds to black. When the luminance value is “255”, the corresponding pixel corresponds to white. Note that the luminance value of the image pixel used in the present embodiment is not limited to a value included in the range of “0” to “255”, and may be a value included in another range. .
図2を参照して、カメラ120によって撮影されたガラス基板140の画像について説明する。図2は、ガラス基板140の画像240を表わす図である。画像240は、パネル210とガラス基板との境界に形成されるパネルエッジ211,212,213,214と、パネル210を取り囲むようにガラス基板140の内側に形成される配線パターン領域215とを含む。
With reference to FIG. 2, the image of the
パネル220についても、同様にガラス基板140とパネル220との間に形成される配線パターン領域と、パネル220を矩形状に取り囲むパネルエッジとを表わす画像が生成される。さらに、配線パターン領域215とガラス基板140との間には、配線パターンエッジ(たとえば配線パターンエッジ216)が生成される。領域206は、画像240において、検査の対象となる領域に対応する画像である。
Similarly, for the
そこで、図3を参照して、領域206について説明する。図3は、領域206の画像300を表わす図である。
Therefore, the
画像300には、領域206の端部に対応する画像の端201と、配線パターンエッジ216と、パネルエッジ211と、ノイズ230とが示される。図3(A)に示される累算方向は、各領域に含まれる輝度値を積算する方向を表わす。この方向は、ガラス基板140に対して予め規定されている。たとえば、ガラス基板140が矩形である場合には、いずれかの1辺に平行な方向を累算方向として規定される。
The
図3(B)は、画像300に対応する輝度値を上記累算方向にそれぞれ積算することにより算出した値を表わす図である。具体的には、領域310については、X座標値が0からaまでの間において、各領域における輝度値は、少なくとも160以上として表わされる。領域320については、X座標値がaからbまでの間において輝度値は180として表わされる。さらに領域330については、X座標値がb以上の範囲において輝度値は0として表わされる。
FIG. 3B is a diagram illustrating values calculated by integrating the luminance values corresponding to the
図4を参照して、フィルタ処理によって生成された画像について説明する。図4は、画像240における領域206に相当する画像に対してSobelフィルタ処理を実行することにより生成されたエッジ強調画像400を表わす図である。
With reference to FIG. 4, the image produced | generated by the filter process is demonstrated. FIG. 4 is a diagram illustrating an edge-enhanced
図4(A)に示されるように、エッジ強調画像400は、パネル領域の一部に対応する画像410と、配線パターン領域の一部に対応する画像420と、ガラス基板の一部に対応する画像430とを含む。エッジ強調画像400は、さらに、パネルエッジに対応する画像211と、配線パターンエッジに対応する画像216と、ノイズ230とを含む。累算方向450は、各画像に対応する画素の輝度値を積算する方向を表わす。
As shown in FIG. 4A, the
図4(B)は、累算方向450に従って輝度値を積算した結果(積算値)を表わす図である。たとえば、パネル領域において正常な領域に対応する画像410についての積算値は、「0」である。ノイズ230の積算値は、「20」である。パネルエッジに対応する画像211についての積算値は、「40」である。配線パターン領域の一部に対応する画像420についての積算値は、「0」である。配線パターンエッジに対応する画像216についての積算値は、「127」である。ガラス基板に対応する画像430についての積算値は、「0」である。
FIG. 4B is a diagram showing a result (integrated value) obtained by integrating luminance values according to the accumulation direction 450. For example, the integrated value for the
図5を参照して、検査システム10を構成するエッジ位置検出装置100について説明する。図5は、エッジ位置検出装置100によって実現される各機能の構成を表わすブロック図である。エッジ位置検出装置100は、設計データ入力部510と、画像入力部520と、一時記憶部530と、記憶部540と、処理部550とを備える。処理部550は、書込部551と、初期設定部552と、座標取得部553と、抽出部554と、画像生成部555と、積算部556と、データ範囲決定部557と、閾値算出部558と、位置決定部559と、表示制御部560とを含む。
With reference to FIG. 5, the edge
設計データ入力部510は、ガラス基板140に形成されるパネル141,142の設計の仕様を表わすデータ入力を受け付ける。このデータは、たとえばガラス基板140のサイズ情報、パネル141,142のサイズ情報、あるいはパネル141,142とガラス基板140との位置関係を規定するデータを含む。
Design
画像入力部520は、カメラ120から出力される画像データの入力を受け付ける。一時記憶部530は、設計データ入力部510あるいは画像入力部520によって入力が受け付けられたデータ、あるいは処理部550によって生成されたデータを一時的に(揮発的に)保持する。一時記憶部530は、たとえばRAM(Random Access Memory)、フレームバッファとして実現される。なお、一時記憶部530は、物理的には、1つのメモリとして実現される場合に限られず、2つ以上のメモリに分けて構成されてもよい。
The
書込部551は、一時記憶部530に保持されているデータを読み出し、そのデータを記憶部540において確保された領域に書き込む。記憶部540は、データを不揮発的に保持できる記憶装置である。初期設定部552は、記憶部540に格納されているデータおよびエッジ位置検出装置100に対して入力される外部からの指示に基づいて、ガラス基板140に対して実行する検査処理を行なうための初期設定値を記憶部540から読み出し、一時記憶部530において確保された領域に格納する。
The
記憶部540は、ガラス基板140の撮影によって生成された画像データ(たとえば図2に示される画像240を表わすデータ)を格納する。記憶部540は、たとえば、フラッシュメモリ、ハードディスク装置として実現される。
座標取得部553は、記憶部540に格納されているガラス基板140の画像データに基づいて、パネルエッジ211,212,213,214の各座標を取得する。なお、画像処理の検査を促進する観点から、各パネルエッジの座標を取得する態様に代えて、いずれかの特定のパネルエッジ(たとえばパネルエッジ211)の座標を取得するものであってもよい。
The coordinate
抽出部554は、記憶部540に格納されているデータに基づいて画像240から領域206の画像(すなわち境界によって区分される部分画像)を抽出する。具体的には、まず記憶部540には、初期設定部552によって設定された領域206を特定するための座標値が格納されている。抽出部554は、その各座標値を参照して、画像240からその座標値に対応する領域を決定し、決定された領域に含まれるデータを抽出する。抽出部554は、その抽出したデータを一時記憶部530に格納する(抽出された画像データ531)。
The
画像生成部555は、一時記憶部530に格納されている画像データに基づいて、画像の輪郭を強調するための処理を実行する。具体的には、画像生成部555は、抽出された画像データ531を用いて、画像処理において一般的な画像変換方法であるフィルタ処理を用いるとともに、予め初期設定値として入力されているパラメータに基づいてそのフィルタ処理を実行する。実行されるフィルタ処理は、たとえば一般的なエッジ抽出フィルタである3×3のSobelフィルタである。画像生成部555は、当該フィルタ処理を実行することによって生成された画像データを、一時記憶部530に格納する(エッジ強調された画像データ532)。
The
積算部556は、一時記憶部530に格納されているデータを用いて、当該画像を構成する画素の輝度値を予め規定された一方向に積算する。具体的には、積算部556は、画像240において規定されるX座標について同一の座標値を有する各画素の輝度値を予め規定された積算方向(たとえばY軸の負の方向)に積算する。積算部556は、さらに、積算後の値を積算した画素の数で除することにより、当該同一のX座標値を有する画素についての輝度値の平均値を算出する。積算部556は、そのようにして算出した一次投影データ533を一時記憶部530に書き込む。
The accumulating
データ範囲決定部557は、一時記憶部530に格納されている一次投影データ533を用いて、エッジ211の位置を決定するための対象となるデータの範囲を決定する。データ範囲決定部557は、そのデータの範囲を決定すると、一時記憶部530に確保された領域に、データ範囲を表わすデータ534として格納する。
The data range
閾値算出部558は、一次投影データ533を用いて、データ範囲を表わすデータ534によって規定される範囲について予め定められた統計量算出処理を実行することにより、閾値を算出する。本実施の形態に係る閾値は、エッジ211の位置を決定する判断に用いられる輝度値である。閾値算出部558は、閾値を決定すると、一時記憶部530に書き込む(閾値535)。
The threshold
位置決定部559は、一次投影データ533と閾値535とに基づいて、パネルエッジ211の位置(X座標値)を決定する。たとえば、位置決定部559は、閾値535を超える輝度値に対する一次投影データ533を特定し、その特定された一次投影データ533のX座標値をパネルエッジ211の位置として決定する。位置決定部559は、このようにして決定した位置データを、一時記憶部530に書き込む(エッジの位置を表わすデータ536)。
The
表示制御部560は、設定データ入力部510を介して入力される表示指示に基づいて、一時記憶部530に格納されているデータを読み出し、表示部(たとえばディスプレイ130)にそのデータを送出して、撮像画像を表示させる。
図6を参照して、エッジ位置検出装置100のデータ構造について説明する。図6は、記憶部540におけるデータの格納の一態様を概念的に表わす図である。記憶部540は、データを格納するためのメモリ領域602〜メモリ領域630を含む。
With reference to FIG. 6, the data structure of the edge
パネル141,142が形成されたガラス基板140を撮影することにより取得された画像データは、メモリ領域602に記録されている。上記データの範囲を決定するために予め入力されたオフセット値(Poff)は、メモリ領域604に格納されている。エッジの位置を検出する対象としての領域206を規定するために予め入力された座標値は、メモリ領域606,608にそれぞれ入力されている。たとえば、領域206の左上端部の座標値Pltは、(800,1150)としてメモリ領域606に格納されている。同様に、領域206の右下端部を表わす座標値Pbr(X,Y)は、(1000,700)として、メモリ領域608に格納されている。
Image data acquired by photographing the
統計量を算出するために積算するデータ数として予め規定されたデータ数Ndは、メモリ領域610に格納されている。閾値を決定するための算式に用いられる定数aは、メモリ領域612に格納されている。各画素の輝度値を予め規定された一方向に積算するために定められた投影累算方向Dpは、たとえば「Y座標軸の負方向を示すデータ」として、メモリ領域614に格納されている。
A data number Nd defined in advance as the number of data to be integrated for calculating the statistic is stored in the
Sobelフィルタ処理を実行するために使用されるパラメータ値は、メモリ領域616に格納されている。ガラス基板140にパネル141,142を形成するためのパネル設計によって決定される設計データは、メモリ領域618に格納されている。当該設計データは、たとえばガラス基板140の縦横方向のサイズ(たとえば長さ)、パネル141,142の縦横方向のサイズ(たとえば画素数)、ガラス基板140と各パネル141,142との間の間隔、パネル141,142の間隔などを含む。
The parameter values used for executing the Sobel filter process are stored in the
その設計データに基づいて算出されるパネルエッジ(たとえばパネルエッジ211)のX座標値(Xd)は、メモリ領域620に格納される。このX座標値が算出される前は、たとえば「NULL」を表わすデータが格納される。他の領域についても、同様である。カメラ120による撮影によって取得された画像データを用いて算出されるパネルエッジ(たとえばパネルエッジ211)のX座標値(Xr)は、メモリ領域622に格納される。データ範囲決定部557による演算から算出されるパネルエッジ(たとえばパネルエッジ211)の最大値のX座標値(Xe)は、メモリ領域624に格納される。同様に、当該パネルエッジの最小値(Xs)は、メモリ領域626に格納される。メモリ領域624,626に格納されるデータは、たとえば図5に示されるデータ範囲を表わすデータ534に対応する。データ範囲決定部557が前述の処理を実行していない場合には、メモリ領域624,626には、各々の領域にデータが存在しないことを表わす情報(NULL)が格納される。
The X coordinate value (Xd) of the panel edge (for example, panel edge 211) calculated based on the design data is stored in the
閾値Vthは、メモリ領域628に格納される。エッジ位置検出装置100の上記各機能を実現するために使用されるプログラムは、メモリ領域630に格納される。当該プログラムがプロセッサ等の演算処理装置によって実行されると、図5に示される処理部550を構成する各機能が実現される。当該プログラムは、たとえば、各機能を実現するモジュールを組み合わせることにより構成される。
The threshold value Vth is stored in the memory area 628. A program used to realize the above functions of the edge
図7を参照して、エッジ位置検出装置100の制御構造について説明する。図7は、処理部550が実行する処理の手順を表わすフローチャートである。エッジ位置検出装置100がコンピュータシステムによって実現される場合には、コンピュータシステムが備えるプロセッサが、処理部550として機能する。
A control structure of the edge
ステップS710にて、処理部550は、エッジ位置検出装置100に対して外部から入力される指示に基づいて、データの読み出しその他の初期設定を実行する。具体的には、処理部550は、初期設定部552として記憶部540に格納されているデータを読み出して、一時記憶部530に書き込む。当該初期設定により書き込まれるデータは、たとえば、設計データによって算出された、画像240に含まれるパネルエッジ211のX座標値Xs(211)、画像240のデータに基づいて算出される実際のパネルエッジ211のX座標値Xr(211)と座標値Xs(211)との誤差のうち最大誤差Xme(211)と、領域206を特定する座標値と、オフセットPoffと、データ数Ndと、定数aと、投影累算方向Dpとを含む。
In step S710, processing
ステップS720にて、処理部550は、ガラス基板140の全体を表わす画像240から、領域206に対応する画像を抽出する。具体的には、処理部550は、抽出部554として、記憶部540に格納されている画像データを読み出し、左上座標値Pltと右下座標値Prbとを参照して、抽出すべき矩形領域を特定し、その領域に含まれるデータを一時記憶部530において確保された他の領域に格納する(抽出された画像データ531)。一例として、図3(A)に示される画像300では、領域206は矩形の領域であり、領域206の左上の端部の座標値Plt(X,Y)は、(800,1150)であり、領域206の右下の端部の座標値Prb(X,Y)は、(1000,700)である。したがって、これらの座標値により特定される領域に含まれる領域に対応する画素の輝度値が一時記憶部530に保存される。
In step S720, processing
ステップS730にて、処理部550は、抽出された画像のエッジを強調した画像データを生成する。具体的には、処理部550は、画像生成部555として、抽出された画像データ531を参照して予め規定されたSobelフィルタ処理を実行することにより、領域206の中に含まれる輪郭が強調された画像データを生成する(画像データ532)。Sobelフィルタ処理によって生成された画像は、たとえば図4(A)に示される画像400である。
In step S730, processing
ステップS740にて、処理部550は、エッジ強調された画像を表わすデータを投影累算方向Dpの方向に従って積算し、一次元投影累算データを生成する。具体的には、処理部550は、積算部556として、一時記憶部530から、エッジ強調された画像データ532を読み出し、Y座標軸の負方向に沿って、同一のX座標値を有する各画素の輝度値を積算する。図6に示される座標値(メモリ領域606、608)を参照すると、画像のY軸方向の大きさは、450画素(=1150−700)である。したがって、450個の輝度値が積算されることになる。図4(B)の例では、上記の積算は、累算方向440に沿って実行される。
In step S740, processing
ステップS750にて、処理部550は、統計量を算出する対象となる領域を決定する。具体的には、処理部550は、データ範囲決定部557として、一次投影データ533を参照し、データ範囲を表わすデータ534を導出する。本実施の形態においては、各輝度値はY軸方向に従って投影されている。そこで、当該範囲は、X座標の範囲(Xs〜Xe)で指定される。
In step S750, processing
画像240に含まれる実際のパネルエッジ211に対応する座標値Xr(211)は、エッジの位置を精度よく決定するという観点から、統計量を算出するための上記領域に含まれない必要がある。しかしながら、現実には、カメラ120とガラス基板140との位置決め誤差などに起因して、設計データに基づいて算出される画像240におけるパネルエッジ211のX座標値Xs(211)と、画像240に含まれる実際のパネルエッジ211のX座標値Xr(211)とは一致しない場合がある。この場合、ステップS750が実行される段階では、Xr(211)の値は未知である。そこで、統計量を算出するために使用されるデータの範囲を規定する上限値のX座標値(Xe)を、X座標値Xs(211)から最大誤差Sme(211)とオフセットPoffとを減算することにより、画像240に含まれる実際のパネルエッジ211を、上記統計量を算出するための領域に含まれないように設定することができる。同様にして、当該領域の下限値のX座標値(Xs)は、上限値Xeからデータ数Ndを減算することにより、算出される。
The coordinate value Xr (211) corresponding to the
たとえば、図4(B)に示される値を用いた演算は、以下のようにして行なわれる。
Xe=Xs(211)−Xme(211)−Poff
=950−20−10
=920。
For example, the calculation using the values shown in FIG. 4B is performed as follows.
Xe = Xs (211) -Xme (211) -Poff
= 950-20-10
= 920.
ここで、オフセット値(Poff)として「10」が用いられているが、他の値が用いられてもよい。なお、オフセット値は、たとえば以下のようにして決定される。 Here, “10” is used as the offset value (Poff), but other values may be used. The offset value is determined as follows, for example.
まず最初に、Poff=0である場合、Xe=950−20−0=930となる。この値は、最大誤差のずれが生じた場合に、実際のパネルエッジ211が統計量を算出するための領域の端と一致する。そこで、オフセット値の値は、少なくとも「1」以上であればよい。
First, when Poff = 0, Xe = 950-20-0 = 930. This value coincides with the end of the area for calculating the statistic when the
本実施の形態においては、実際のパネルエッジ付近にノイズではない輝度値としての勾配がある場合を想定して、良品としてより安定的な輝度値の平均値と分散となるように、オフセット値は「10」に設定されている。なお、本実施の形態においては、オフセット値の単位は、画素が用いられている。 In the present embodiment, assuming that there is a gradient as a luminance value that is not noise near the actual panel edge, the offset value is set so that the average value and variance of the luminance values are more stable as non-defective products. “10” is set. In the present embodiment, pixels are used as the unit of the offset value.
また、統計量を算出するための領域の小さい方のX座標値Xsは、上限値Xeから統計量算出のためのデータ数Ndを減算することにより求められる。 Further, the X coordinate value Xs of the smaller region for calculating the statistic is obtained by subtracting the number of data Nd for calculating the statistic from the upper limit value Xe.
Xs=Xe−Nd+1
=920−50+1
=871。
Xs = Xe-Nd + 1
= 920-50 + 1
= 871.
ここで、データ数Ndの値が大きいほど、処理時間が長くなるが、エッジの検出精度が向上する。一方、この値が小さいほど、処理時間は短くなるが、処理結果は局所的なノイズの影響を受けやすくなり、上記精度が低下する。そこで、処理時間と検出精度とのトレードオフの関係を考慮して、データ数Ndが決定される。この決定は、たとえば実際に行なった処理の結果(処理時間および検出精度)に基づいて行なわれる。 Here, the larger the value of the data number Nd, the longer the processing time, but the edge detection accuracy is improved. On the other hand, the smaller this value is, the shorter the processing time is, but the processing result is more susceptible to local noise, and the accuracy is reduced. Therefore, the number of data Nd is determined in consideration of the trade-off relationship between processing time and detection accuracy. This determination is made based on, for example, the results of actual processing (processing time and detection accuracy).
以上の演算の結果、本実施の形態において統計量を算出するための領域は、X座標について871〜920と決定される。 As a result of the above calculation, the region for calculating the statistic in the present embodiment is determined as 871 to 920 for the X coordinate.
他のパネルエッジ212,213,214を決定する場合を考慮して、上記の内容を一般的に説明すると、以下のとおりである。まず、「設計データを用いて算出された画像中のパネルエッジの座標値」から、パネルの内側に向けて「画像中の実際のパネルエッジの座標値と設計データから算出された画像中のパネルエッジの座標値との最大誤差」分の画素数がシフトされる。次に、「統計量を算出する領域を決定するための変位量であるオフセット」分の画素数をシフトした位置は、「統計量を算出するための領域」のパネルエッジ側の境界である。さらに、当該「統計量を算出するための領域のパネルエッジ側の境界」から統計量算出のためのデータ数(Nd)−1に相当する画素数をシフトした位置が、他方の境界となる。 Taking the case of determining the other panel edges 212, 213, 214 into consideration, the above contents will be generally described as follows. First, from the “coordinate value of the panel edge in the image calculated using the design data” to the inside of the panel, “the panel value in the image calculated from the actual coordinate value of the panel edge in the image and the design data The number of pixels corresponding to the “maximum error from the edge coordinate value” is shifted. Next, the position shifted by the number of pixels corresponding to “offset, which is a displacement amount for determining a region for calculating a statistic”, is a boundary on the panel edge side of “region for calculating a statistic”. Furthermore, the position where the number of pixels corresponding to the number of data (Nd) −1 for calculating the statistic is shifted from the “boundary on the panel edge side of the region for calculating the statistic” is the other boundary.
図7を再び参照して、ステップS760にて、処理部550は、ステップS750において決定された領域に基づいて統計量を算出し、さらにその統計量に基づいて閾値Vthを算出する。統計量は、たとえば上記領域に含まれる一次元投影累算データの平均値(Vave)と標準偏差(Vsig)とを含む。具体的には、処理部550は、閾値算出部558として、データ範囲を表わすデータ534を参照して閾値535を導出する。
Referring to FIG. 7 again, in step S760, processing
たとえば、図4(B)に示される例では、統計量を算出するための領域の下限のX座標値Xsから当該領域の上限のX座標値Xeに含まれるNd(=50)個の1次元投影累算データの各値は、8個のデータの値は「20」であり、その他の値は「0」である。この場合、平均値Vaveは「3.2」となり、標準偏差Vsigは約「7.4」となる。そこで、以下に示されるように、式1を用いて閾値Vthが算出される。 For example, in the example shown in FIG. 4B, Nd (= 50) one-dimensional values included in the upper limit X coordinate value Xe of the area from the lower limit X coordinate value Xs of the area for calculating the statistic. As for each value of the projection accumulation data, the value of eight data is “20”, and the other values are “0”. In this case, the average value Vave is “3.2”, and the standard deviation Vsig is about “7.4”. Therefore, as shown below, the threshold value Vth is calculated using Equation 1.
Vth=Vave + a×Vsig・・・・・・(式1)
=3.2 + 3.0×7.4
=25.4。
Vth = Vave + a × Vsig (1)
= 3.2 + 3.0 × 7.4
= 25.4.
ここでは、閾値決定用定数aの値として、品質管理の分野において用いられる3σにおける「3」の値が使用されている。 Here, the value of “3” in 3σ used in the field of quality control is used as the value of the threshold determination constant a.
図7を再び参照して、ステップS770にて、処理部550は、閾値Vthを用いて、パネルエッジ211の位置を決定する。具体的には、処理部550は、位置決定部559として、閾値535を参照して、エッジの位置を表わすデータ536を導出する。たとえば、統計量を算出するため糊のパネルエッジ211側の上限値Xe(=920)から、パネルエッジ211の方向に(すなわち、X軸の正の方向に)、閾値Vth(前述の図4の例では、25.4)を最初に超える座標を特定する。本実施の場合、図4(B)に示されるように、閾値Vth(25.4)を越えるX座標値は「940」である。この値は、結果として、パネルエッジ211のX座標値Xs(211)に一致する。
Referring to FIG. 7 again, in step S770, processing
なお、ステップS760において、本実施の形態では閾値Vthを算出する式として(式1)が使用されているが、その他の式が用いられてもよい。たとえば、以下のように、標準偏差Vsigの値に応じて、すなわちノイズの程度に応じて、閾値Vthを算出する式を変更することにより、エッジ位置をより高精度に決定することができる。 In step S760, (Equation 1) is used as an equation for calculating the threshold value Vth in the present embodiment, but other equations may be used. For example, as described below, the edge position can be determined with higher accuracy by changing the equation for calculating the threshold value Vth according to the value of the standard deviation Vsig, that is, according to the degree of noise.
第1のケースとして、ノイズが画像に殆ど含まれない場合(「Vsig≦1.0」という関係が成立するとき)、式(2)が用いられてもよい。 As a first case, when almost no noise is included in the image (when the relationship of “Vsig ≦ 1.0” is established), Expression (2) may be used.
Vth=Vave+a・・・・・・・・・(式2)
ただし、a=9.0。
Vth = Vave + a (Equation 2)
However, a = 9.0.
ここでは、閾値決定用定数aの値として、品質管理の分野において用いられる6σにおける「6」よりも大きな値として、「9.0」が使用されている。この値よりも大きな値が使用されてもよい。 Here, “9.0” is used as the value of threshold determination constant “a”, which is larger than “6” in 6σ used in the field of quality control. A value larger than this value may be used.
第2のケースとして、ノイズが画像に多少存在する場合(たとえば、「1.0<Vsig≦5.0」という関係が成立するとき)、式(3)が用いられてもよい。 As a second case, when there is some noise in the image (for example, when the relationship of “1.0 <Vsig ≦ 5.0” is established), the expression (3) may be used.
Vth=Vave + a×Vsig・・・(式3)
ただし、a=6.0。
Vth = Vave + a × Vsig (Formula 3)
However, a = 6.0.
ここでは、閾値決定用定数aの値として、品質管理の分野において用いられる6σにおける「6」が使用されている。 Here, “6” in 6σ used in the field of quality control is used as the value of the threshold determination constant a.
第3のケースとして、ノイズが多い場合(たとえば、「5.0<Vsig」という関係が成立するとき)、式(4)が用いられてもよい。 As a third case, when there is a lot of noise (for example, when the relationship of “5.0 <Vsig” is established), Expression (4) may be used.
Vth=Vave + a×Vsig・・・(式4)
ただし、a=3.0。
Vth = Vave + a × Vsig (Formula 4)
However, a = 3.0.
このように算式および定数を設定することにより、ノイズがほとんどない場合には(第1のケースに相当)、ある1点の局所的なノイズがエッジ位置として誤検出されることを回避することができる。また、ノイズが大きい場合には(第3のケースに相当)、閾値Vthを決定するための定数aを小さくすることにより、パネルエッジ211のエッジ強度と強いノイズのエッジ強度との差が小さい場合においても、パネルエッジ211の位置の誤検出が回避できる。
By setting the equations and constants in this way, when there is almost no noise (corresponding to the first case), it is possible to avoid erroneous detection of a certain local noise as an edge position. it can. When the noise is large (corresponding to the third case), the difference between the edge strength of the
ここで、図8〜図11を参照して、ガラス基板800のパネルエッジを決定する他の技術について説明する。図8は、ガラス基板800の外観を表わす図である。ガラス基板800は、2つのパネル810,820を含む。
Here, another technique for determining the panel edge of the
パネル810の周囲には、配線パターン領域815が形成されている。パネル810と配線パターン領域815との間には、パネルエッジ811,812,813,814が存在する。また、配線パターン領域815の外側は、ガラス基板800においてパネルが形成されない領域である。パネル820についても、パネル810についての上記の各領域と同様の領域がそれぞれ形成されている。
A
領域806は、当該技術を説明するための対象である。領域806は、図8から明らかなように、パネル810の一部と、配線パターン領域815の一部と、ガラス基板800の一部とを含む。
A
図9は、ガラス基板800をカメラで撮影した場合に取得される画像900を表わす図である。図8に示されるガラス基板800に対する撮像領域850は、画像900においては領域950に対応する。画像900は、パネル810の画像910、920と、パネルエッジ811の画像911と、配線パターン領域815とガラス基板800との境界である配線パターンエッジの画像916とを含む。画像900において一部の領域を占める画像906は、ガラス基板800の一部を占める領域806の画像である。
FIG. 9 is a diagram illustrating an
次に、図10に示される累算方向に対して演算処理を実行する場合について、説明する。図10は、図9に示される画像906を説明するための図である。図10(A)に示されるように、画像906は、パネルからガラス基板の方向に向けて、パネルの画像と、パネルエッジ1020と、配線パターンエッジ1030と、画像の端部1010とを含む。
Next, the case where the calculation process is executed in the accumulation direction shown in FIG. 10 will be described. FIG. 10 is a diagram for explaining the
たとえば、特開平5−266194号公報に開示された技術を用いると、原画像の画素の値を複数の方向に沿って積算することにより、1次元投影累算データが求められる。それぞれについて投影勾配データのピーク値が求められる。当該複数の方向のうち、最も大きい方向のピーク値をエッジ位置とされる。 For example, when the technique disclosed in Japanese Patent Laid-Open No. 5-266194 is used, one-dimensional projection accumulation data is obtained by integrating pixel values of an original image along a plurality of directions. The peak value of the projection gradient data is obtained for each. The peak value in the largest direction among the plurality of directions is set as the edge position.
具体的には、図10(A)において、エッジ位置は、累算方向1040の投影勾配データのピーク値が最も大きい方向であることが明らかである。その場合、画素の値が累算方向1040に投影された場合の1次元投影累算データは、図10(B)のように示される。ここで、図10(B)に示される1次元投影累算データの縦軸の輝度値は、輝度値の平均値を表わす。図10(B)に示される1次元投影累算データから勾配の大きさのピーク位置を求めると、配線パターンエッジ1030の位置が選ばれて、パネルエッジ1020の位置は選ばれない。
Specifically, in FIG. 10A, the edge position is clearly the direction in which the peak value of the projection gradient data in the
図11は、さらに別の技術を説明するための図である。特開平5−266194号公報には、上記技術以外の技術も示されている。その技術は、1次元投影累算データを求める前に、原画像の2次元勾配分布を求める、というものである。 FIG. 11 is a diagram for explaining still another technique. Japanese Patent Laid-Open No. 5-266194 also discloses a technique other than the above technique. The technique is to obtain a two-dimensional gradient distribution of an original image before obtaining one-dimensional projection accumulation data.
ここで、図11(A)に、領域806に対応する画像906に対して、2次元勾配分布を求める方法としてSobelフィルタ処理を実施した画像を示す。この場合も、図10を参照して説明した、2次元勾配分布を求めない方法が適用される場合と同様に、当該エッジ位置は、図11(A)に示される累算方向1140の投影勾配データのピーク値が最も大きい方向であることが、明らかである。
Here, FIG. 11A shows an image obtained by performing Sobel filter processing as a method for obtaining a two-dimensional gradient distribution on the
図11(B)は、図11(A)に示される2次元勾配分布を累算方向1140に投影した場合の1次元投影累算データを表わす。図11(B)に示される1次元投影累算データの縦軸の輝度値は、輝度値の平均値を表わす。図11(B)に示される1次元投影累算データから勾配の大きさのピーク位置を求めても、パターンエッジ1130の位置が選ばれて、パネルエッジ1120の位置は選ばれない。
FIG. 11B shows one-dimensional projection accumulation data when the two-dimensional gradient distribution shown in FIG. 11A is projected in the
このように、従来の技術によれば、パネルと配線パターン領域との境界であるパネルエッジ、たとえば、図10におけるパネルエッジ1020、図11におけるパネルエッジ1120が高精度に決定できない場合がある。
As described above, according to the conventional technique, the panel edge that is the boundary between the panel and the wiring pattern region, for example, the
しかしながら、図1〜図7を参照して説明した本発明の実施の形態に係る検査システム10によると、以下のような技術的特徴に基づき、エッジの位置を精度良く、また短時間で決定することができる。
However, according to the
まず、ステップS750に記載のように、統計量を算出するための領域は、矩形領域であるパネルの内部に設定され、パネル内部の一部の領域の統計量を用いて閾値Vthが決定される。このようにすると、パネル領域の周囲(すなわち配線パターン領域)が統計量の算出の対象とならないため、パネル内部と配線パターン領域であるパネル外部との境界が高精度に決定される。 First, as described in step S750, an area for calculating a statistic is set inside a panel which is a rectangular area, and a threshold value Vth is determined using the statistic of a partial area inside the panel. . In this way, since the periphery of the panel area (that is, the wiring pattern area) is not a target for the calculation of the statistic, the boundary between the inside of the panel and the outside of the panel that is the wiring pattern area is determined with high accuracy.
また、ステップS770に記載のように、閾値Vthを越える位置の中で、統計量を算出するための領域に最も近い位置がエッジ位置として決定されるため、パネル内部と配線パターン領域との境界が高精度に決定される。 Further, as described in step S770, since the position closest to the area for calculating the statistic is determined as the edge position among the positions exceeding the threshold value Vth, the boundary between the inside of the panel and the wiring pattern area is determined. Determined with high accuracy.
また、ステップS710に記載のように、設計データより算出した画像中のパネルエッジ211の座標Xs(211)が、対象となる領域の決定に用いられる。これにより、画像240から、パネルエッジ211を含む領域206を無駄なく適切な大きさで切り出す(抽出する)ことができ、エッジの位置を決定するために要する時間を短くすることができる。
Further, as described in step S710, the coordinates Xs (211) of the
さらに、ステップS710に記載のように、パネルエッジ211の画像中における座標Xr(211)と、設計データより算出された、画像中のパネルエッジ211の座標Xs(211)との最大誤差Xme(211)とが用いられる。ステップS750に記載のように、座標Xs(211)から少なくともXme(211)個の画素数以上離れた座標値を、上記統計量を算出するための領域の限界とすることで、統計量を算出するための領域からパネルエッジ211の画像における座標Xr(211)が除去される。これにより、パネルエッジ211を含まないノイズ成分の統計量が算出される。その結果、閾値Vthを適切に決定することができ、さらにはエッジ位置を高精度に決定することができる。
Further, as described in step S710, the maximum error Xme (211) between the coordinates Xr (211) in the image of the
以上詳述したように、本発明の実施の形態に係るエッジ位置検出装置100は、各処理を実行する回路素子を組み合わせることによりハードウェアの構成として実現されるが、その他の態様でも構成することができる。たとえば、各処理を実行するプログラムを、CPU(Central Processing Unit)その他のプロセッサに実行させることにより、ソフトウェアとハードウェアとが協働する態様によっても実現される。
As described above in detail, the edge
そこで、図12を参照して、エッジ位置検出装置100を実現するコンピュータシステム1200について説明する。図12は、コンピュータシステム1200のハードウェア構成を表わすブロック図である。
A
コンピュータシステム1200は、ハードウェアの主たる構成要素として、CPU1210と、コンピュータシステム1200の使用者による指示の入力を受け付けるマウス1220およびキーボード1230と、入力されるデータあるいはプログラムによって予め規定された処理が実行されることに一時的に生成されるデータを格納するRAM1240と、大容量のデータを格納可能なハードディスク1250と、CD−ROM(Compact Disk-Read Only Memory)駆動装置1260と、モニタ1280と、通信IF(Interface)1290とを含む。上記の各構成要素は、データバスにより接続されている。CD−ROM駆動装置1260には、CD−ROM1262が装着される。
The
エッジ位置検出装置100として機能するコンピュータシステム1200における処理は、当該ハードウェアおよびCPU1210により実行されるソフトウェアによって実現される。このようなソフトウェアは、RAM1240あるいはハードディスク1250に予め記憶されている場合もあれば、CD−ROM1262その他の記録媒体に格納されてプログラム製品として流通し、CD−ROM駆動装置1260その他の読取装置によりその記録媒体から読み取られて、ハードディスク1250に一旦格納される場合もある。そのソフトウェアは、RAM1240あるいはハードディスク1250から読み出されて、CPU1210によって実行される。図12に示されたコンピュータシステム1200のハードウェア自体は、一般的なものである。したがって、本発明の本質的な部分は、RAM1240、ハードディスク1250、CD−ROM1262その他の記録媒体に格納されたソフトウェアであるともいえる。なお、コンピュータシステム1200の各ハードウェアの動作は周知であるので、詳細な説明は繰り返さない。
Processing in the
なお、以上詳述した本実施の形態に含まれる技術思想が適用される範囲は、上記のような境界(エッジ)の検出に限られない。たとえば、当該境界を含む矩形領域を表わす画像における当該矩形領域の外枠の位置を上記境界として検出する場合にも、同様にして適用できる。 Note that the scope to which the technical idea included in the present embodiment described in detail above is applied is not limited to the detection of the boundary (edge) as described above. For example, the present invention can be similarly applied to the case where the position of the outer frame of the rectangular area in the image representing the rectangular area including the boundary is detected as the boundary.
また、本実施の形態の説明を簡単にするために、被写体の撮影により取得される画像が矩形である場合について、本実施の形態の説明を行なった。しかしながら、画像の矩形でない場合、たとえば多角形である場合にも、同様に適用できる。たとえば、多角形を構成する一辺のみを位置の検出対象とし、上述の処理を実行し、各辺について、当該処理を繰り返せばよい。そうすることにより、矩形以外の形状を有する多角形の画像についても、当該形状からなる領域と他の領域との境界の位置を決定することができる。 Further, in order to simplify the description of the present embodiment, the present embodiment has been described in the case where an image acquired by photographing a subject is a rectangle. However, the present invention can be similarly applied to a case where the image is not a rectangle, for example, a polygon. For example, only one side constituting the polygon is set as a position detection target, the above-described processing is executed, and the processing is repeated for each side. By doing so, it is possible to determine the position of the boundary between the region having the shape and the other region even for a polygonal image having a shape other than the rectangle.
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
本発明は、たとえば、画像検査装置、画像変換装置、画像認識装置、パターンマッチング装置、画像を用いた位置決め装置、画像認識機能付自律ロボット、画像認識機能付産業用ロボットなどに利用される。 The present invention is used for, for example, an image inspection device, an image conversion device, an image recognition device, a pattern matching device, a positioning device using an image, an autonomous robot with an image recognition function, an industrial robot with an image recognition function, and the like.
10 検査システム、140 ガラス基板、141,142 パネル、206 領域、210,220,240,300 画像、211,212,213,214,811,812,813,814 パネルエッジ、215,815 配線パターン領域、216 配線パターンエッジ。 10 inspection system, 140 glass substrate, 141, 142 panel, 206 area, 210, 220, 240, 300 image, 211, 212, 213, 214, 811, 812, 813, 814 panel edge, 215, 815 wiring pattern area, 216 Wiring pattern edge.
Claims (13)
前記原画像が複数の部分画像を有する場合に、前記原画像データに基づいて、各前記部分画像の境界が強調された画像を表わす強調画像データを生成する第1の生成手段と、
前記境界が強調された後の各前記部分画像に対応する各部分領域の各輝度値を前記境界の方向に積算して、平均値を算出することにより、前記2次元の座標軸のうちの1次元の座標軸に従って表わされる複数の1次元データを生成する第2の生成手段と、
前記被写体の設計データに基づいて、前記境界の位置を決定するための対象となるデータの範囲を決定する第1の決定手段と、
前記データの範囲に含まれる前記複数の1次元データを用いて統計量を算出することにより、輝度値についての閾値を算出する算出手段と、
前記データの範囲に含まれる前記複数の1次元データに基づいて、前記閾値を越える輝度値に対応する前記1次元データを特定する特定手段と、
前記特定手段によって特定された1次元データの前記1次元の座標軸上の座標値を、前記境界の位置として決定する第2の決定手段とを備える、境界の位置決定装置。 Storage means for storing original image data representing an original image acquired by photographing a subject, wherein the original image data is represented according to a two-dimensional coordinate axis;
First generation means for generating, when the original image has a plurality of partial images, based on the original image data, emphasized image data representing an image in which a boundary between the partial images is emphasized;
The luminance value of each partial area corresponding to each partial image after the boundary is emphasized is integrated in the direction of the boundary, and an average value is calculated, so that one-dimensional of the two-dimensional coordinate axes Second generation means for generating a plurality of one-dimensional data represented according to the coordinate axes of:
First determining means for determining a range of data to be determined for determining the position of the boundary based on the design data of the subject;
Calculating means for calculating a threshold value for a luminance value by calculating a statistic using the plurality of one-dimensional data included in the range of the data;
Specifying means for specifying the one-dimensional data corresponding to a luminance value exceeding the threshold based on the plurality of one-dimensional data included in the data range;
A boundary position determining apparatus comprising: a second determining unit that determines a coordinate value on the one-dimensional coordinate axis of the one-dimensional data specified by the specifying unit as the position of the boundary.
前記設計データに基づいて、計算上の位置データとして、前記境界の1次元データを算出し、
前記原画像データに基づいて、実際の位置データとして、前記境界の前記1次元データを算出し、
前記計算上の位置データと前記実際の位置データとの差に基づいて、前記データの範囲を決定する、請求項2に記載の境界の位置決定装置。 The means for determining the range of the data is:
Based on the design data, as the calculated position data, calculate the one-dimensional data of the boundary,
Based on the original image data, the one-dimensional data of the boundary is calculated as actual position data,
The boundary position determination apparatus according to claim 2, wherein a range of the data is determined based on a difference between the calculated position data and the actual position data.
前記原画像は、前記第1の部分に対応する第1の画像と、前記第2の部分に対応する第2の画像とを含み、
前記第1の生成手段は、前記強調画像データとして、前記第1の画像と前記第2の画像との境界が強調された画像を表わすデータを生成する、請求項1に記載の境界の位置決定装置。 The subject includes a first part to be inspected and a second part not to be inspected,
The original image includes a first image corresponding to the first portion and a second image corresponding to the second portion;
2. The boundary position determination according to claim 1, wherein the first generation unit generates data representing an image in which a boundary between the first image and the second image is enhanced as the enhanced image data. apparatus.
前記第1の部分は、前記ガラス基板に加工されたパネル領域であり、
前記第1の生成手段は、前記パネル領域に対応する画像と、前記パネル領域以外の領域に対応する画像とが接する部分が強調された画像を表わすデータを生成する、請求項4に記載の境界の位置決定装置。 The subject is a glass substrate;
The first portion is a panel region processed into the glass substrate,
5. The boundary according to claim 4, wherein the first generation unit generates data representing an image in which a portion where an image corresponding to the panel area and an image corresponding to an area other than the panel area are in contact is emphasized. Positioning device.
前記閾値を越える輝度値に対応する複数の前記1次元データを特定する手段と、
特定された各前記1次元データの各々について、前記データの範囲の上限値と前記1次元データとの差をそれぞれ算出する手段と、
算出された各前記差が最小となる1次元データを、前記閾値を越える輝度値に対応する前記1次元データとして決定する手段とを含む、請求項1に記載の境界の位置決定装置。 The specifying means is:
Means for identifying a plurality of the one-dimensional data corresponding to luminance values exceeding the threshold;
Means for calculating the difference between the upper limit of the range of the data and the one-dimensional data for each of the identified one-dimensional data;
2. The boundary position determining apparatus according to claim 1, further comprising: means for determining, as the one-dimensional data corresponding to a luminance value exceeding the threshold value, one-dimensional data in which each calculated difference is minimum.
前記境界は、前記矩形領域の輪郭によって形成され、
前記第1の生成手段は、前記強調画像データとして、前記輪郭により形成される前記境界が強調された画像を表わすデータを生成する、請求項1に記載の境界の位置決定装置。 The original image includes a rectangular region;
The boundary is formed by the outline of the rectangular region;
The boundary position determination device according to claim 1, wherein the first generation unit generates data representing an image in which the boundary formed by the contour is emphasized as the emphasized image data.
前記第1の決定手段は、前記矩形領域についての前記一次元データによって規定される範囲に前記データの範囲が含まれるように、前記データの範囲を決定する、請求項8に記載の境界の位置決定装置。 The second generation means integrates each luminance value of each pixel corresponding to the rectangular area after the boundary is emphasized in one direction in the rectangular area, and calculates an average value, thereby calculating the average value. Generate multiple one-dimensional data,
The boundary position according to claim 8, wherein the first determination unit determines the range of the data such that the range of the data is included in a range defined by the one-dimensional data for the rectangular region. Decision device.
前記算出手段は、複数の標準偏差の各値に応じて予め規定された各式を用いて前記閾値を算出し、各前記式は、各前記標準偏差の値によって異なる、請求項1に記載の境界の位置決定装置。 The statistic includes an average value and a standard deviation,
The said calculation means calculates the said threshold value using each formula prescribed | regulated beforehand according to each value of several standard deviation, Each said formula changes with the value of each said standard deviation, The claim | item 2. Boundary positioning device.
前記処理装置が、前記記憶装置から、被写体の撮影により取得された原画像を表わす原画像データを読み出すステップを備え、前記原画像データは2次元の座標軸にしたがって表わされており、
前記原画像が複数の部分画像を有する場合に、前記処理装置が、前記原画像データに基づいて、各前記部分画像の境界が強調された画像を表わす強調画像データを生成するステップと、
前記処理装置が、前記境界が強調された後の各前記部分画像に対応する各部分領域の各輝度値を前記境界の方向に積算して、平均値を算出することにより、前記2次元の座標軸のうちの1次元の座標軸に従って表わされる複数の1次元データを生成するステップと、
前記処理装置が、前記被写体の設計データに基づいて、前記境界の位置を決定するための対象となるデータの範囲を決定するステップと、
前記処理装置が、前記データの範囲に含まれる前記複数の1次元データを用いて統計量を算出することにより、輝度値についての閾値を算出するステップと、
前記処理装置が、前記データの範囲に含まれる前記複数の1次元データに基づいて、前記閾値を越える輝度値に対応する前記1次元データを特定するステップと、
前記処理装置が、前記特定された1次元データの前記1次元の座標軸上の座標値を、前記境界の位置として決定するステップとを備える、境界の位置を決定する方法。 A method for determining a position of a boundary included in an image by a computer, the computer comprising a storage device for storing data and a processing device for executing a predetermined process using the data, The method is
The processing device comprises a step of reading original image data representing an original image acquired by photographing a subject from the storage device, and the original image data is represented according to a two-dimensional coordinate axis,
When the original image has a plurality of partial images, the processing device generates, based on the original image data, enhanced image data representing an image in which a boundary between the partial images is enhanced;
The processing device adds the luminance values of the partial areas corresponding to the partial images after the boundary is emphasized in the direction of the boundary to calculate an average value, thereby calculating the two-dimensional coordinate axis. Generating a plurality of one-dimensional data represented according to a one-dimensional coordinate axis of
The processing device determining a range of data to be determined for determining the position of the boundary based on the design data of the subject;
Calculating a threshold value for a luminance value by calculating a statistic using the plurality of one-dimensional data included in the data range;
The processing device identifying the one-dimensional data corresponding to a luminance value exceeding the threshold based on the plurality of one-dimensional data included in the range of the data;
A method for determining a position of the boundary, comprising: determining, as the boundary position, a coordinate value on the one-dimensional coordinate axis of the identified one-dimensional data.
前記記憶装置から、被写体の撮影により取得された原画像を表わす原画像データを読み出すステップを実行させ、前記原画像データは2次元の座標軸にしたがって表わされており、
前記原画像が複数の部分画像を有する場合に、前記原画像データに基づいて、各前記部分画像の境界が強調された画像を表わす強調画像データを生成するステップと、
前記境界が強調された後の各前記部分画像に対応する各部分領域の各輝度値を前記境界の方向に積算して、平均値を算出することにより、前記2次元の座標軸のうちの1次元の座標軸に従って表わされる複数の1次元データを生成するステップと、
前記被写体の設計データに基づいて、前記境界の位置を決定するための対象となるデータの範囲を決定するステップと、
前記データの範囲に含まれる前記複数の1次元データを用いて統計量を算出することにより、輝度値についての閾値を算出するステップと、
前記データの範囲に含まれる前記複数の1次元データに基づいて、前記閾値を越える輝度値に対応する前記1次元データを特定するステップと、
前記特定された1次元データの前記1次元の座標軸上の座標値を、前記境界の位置として決定するステップとを実行させる、プログラム。 A program for causing a computer to function as a device for determining a position of a boundary included in an image, the computer including a storage device for storing data and a processing device for executing a predetermined process using the data The program is stored in the processing device.
A step of reading original image data representing an original image acquired by photographing a subject from the storage device is executed, and the original image data is represented according to a two-dimensional coordinate axis;
When the original image has a plurality of partial images, based on the original image data, generating enhanced image data representing an image in which the boundary of each partial image is enhanced; and
The luminance value of each partial area corresponding to each partial image after the boundary is emphasized is integrated in the direction of the boundary, and an average value is calculated, so that one-dimensional of the two-dimensional coordinate axes Generating a plurality of one-dimensional data represented according to the coordinate axes of:
Determining a range of data to be determined for determining the position of the boundary based on the design data of the subject;
Calculating a threshold value for a luminance value by calculating a statistic using the plurality of one-dimensional data included in the data range;
Identifying the one-dimensional data corresponding to a luminance value exceeding the threshold based on the plurality of one-dimensional data included in the data range;
And determining a coordinate value on the one-dimensional coordinate axis of the identified one-dimensional data as the position of the boundary.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006126201A JP4275149B2 (en) | 2006-04-28 | 2006-04-28 | Boundary position determination apparatus, method for determining boundary position, program for causing computer to function as the apparatus, and recording medium |
PCT/JP2007/059025 WO2007125981A1 (en) | 2006-04-28 | 2007-04-26 | Boundary position decision device, boundary position decision method, program for functioning computer as the device, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006126201A JP4275149B2 (en) | 2006-04-28 | 2006-04-28 | Boundary position determination apparatus, method for determining boundary position, program for causing computer to function as the apparatus, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007298376A true JP2007298376A (en) | 2007-11-15 |
JP4275149B2 JP4275149B2 (en) | 2009-06-10 |
Family
ID=38655506
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006126201A Active JP4275149B2 (en) | 2006-04-28 | 2006-04-28 | Boundary position determination apparatus, method for determining boundary position, program for causing computer to function as the apparatus, and recording medium |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4275149B2 (en) |
WO (1) | WO2007125981A1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010093623A (en) * | 2008-10-09 | 2010-04-22 | Denso Corp | Image processor |
CN104802168A (en) * | 2015-04-20 | 2015-07-29 | 深圳市文鼎创数据科技有限公司 | Boundary detection method and boundary detection system |
JP2019155481A (en) * | 2018-03-07 | 2019-09-19 | 株式会社ディスコ | Cutting device |
CN113545185A (en) * | 2019-03-14 | 2021-10-22 | 株式会社富士 | Object determination method and object determination device |
CN113658205A (en) * | 2020-06-04 | 2021-11-16 | 牧今科技 | Method and computing system for performing or facilitating physical edge detection |
WO2021246476A1 (en) * | 2020-06-04 | 2021-12-09 | Mujin, Inc. | Method and computing system for performing or facilitating physical edge detection |
US12062182B2 (en) | 2020-06-04 | 2024-08-13 | Mujin, Inc. | Method and computing system for performing or facilitating physical edge detection |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104809386B (en) * | 2015-04-20 | 2017-10-17 | 深圳市文鼎创数据科技有限公司 | A kind of security boundary detection method and system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4409702B2 (en) * | 2000-03-14 | 2010-02-03 | 株式会社東芝 | Recognition device |
JP3633879B2 (en) * | 2001-03-27 | 2005-03-30 | シャープ株式会社 | Sheet glass sorting system |
JP4565796B2 (en) * | 2002-07-25 | 2010-10-20 | 株式会社日立メディコ | Diagnostic imaging equipment |
-
2006
- 2006-04-28 JP JP2006126201A patent/JP4275149B2/en active Active
-
2007
- 2007-04-26 WO PCT/JP2007/059025 patent/WO2007125981A1/en active Application Filing
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010093623A (en) * | 2008-10-09 | 2010-04-22 | Denso Corp | Image processor |
JP4661934B2 (en) * | 2008-10-09 | 2011-03-30 | 株式会社デンソー | Image processing device |
US8310546B2 (en) | 2008-10-09 | 2012-11-13 | Denso Corporation | Image processing apparatus adapted to recognize object in acquired image |
CN104802168A (en) * | 2015-04-20 | 2015-07-29 | 深圳市文鼎创数据科技有限公司 | Boundary detection method and boundary detection system |
CN104802168B (en) * | 2015-04-20 | 2016-08-24 | 深圳市文鼎创数据科技有限公司 | A kind of boundary detection method and system |
JP7049866B2 (en) | 2018-03-07 | 2022-04-07 | 株式会社ディスコ | Cutting equipment |
JP2019155481A (en) * | 2018-03-07 | 2019-09-19 | 株式会社ディスコ | Cutting device |
CN113545185A (en) * | 2019-03-14 | 2021-10-22 | 株式会社富士 | Object determination method and object determination device |
CN113545185B (en) * | 2019-03-14 | 2022-11-25 | 株式会社富士 | Object determination method and object determination device |
CN113658205A (en) * | 2020-06-04 | 2021-11-16 | 牧今科技 | Method and computing system for performing or facilitating physical edge detection |
WO2021246476A1 (en) * | 2020-06-04 | 2021-12-09 | Mujin, Inc. | Method and computing system for performing or facilitating physical edge detection |
JP2022534342A (en) * | 2020-06-04 | 2022-07-29 | 株式会社Mujin | Method and computational system for performing or facilitating physical edge detection |
JP7118382B2 (en) | 2020-06-04 | 2022-08-16 | 株式会社Mujin | Method and computational system for performing or facilitating physical edge detection |
US12062182B2 (en) | 2020-06-04 | 2024-08-13 | Mujin, Inc. | Method and computing system for performing or facilitating physical edge detection |
Also Published As
Publication number | Publication date |
---|---|
WO2007125981A1 (en) | 2007-11-08 |
JP4275149B2 (en) | 2009-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5273196B2 (en) | Image processing device | |
JP4275149B2 (en) | Boundary position determination apparatus, method for determining boundary position, program for causing computer to function as the apparatus, and recording medium | |
JP5997039B2 (en) | Defect inspection method and defect inspection apparatus | |
JP4811272B2 (en) | Image processing apparatus and image processing method for performing three-dimensional measurement | |
JP4154374B2 (en) | Pattern matching device and scanning electron microscope using the same | |
JP5567922B2 (en) | Image processing apparatus and control method thereof | |
JP4160991B2 (en) | Linear defect detection apparatus and semiconductor substrate manufacturing apparatus, linear defect detection method and semiconductor substrate manufacturing method, computer connected to the detection apparatus or ... | |
JP6209833B2 (en) | Inspection tool, inspection method, stereo camera production method and system | |
CN107316047A (en) | Image processing apparatus, image processing method and storage medium | |
JP2005072888A (en) | Image projection method and image projection device | |
JP2015511310A (en) | Segmentation for wafer inspection | |
US7764825B2 (en) | Pattern inspection apparatus and method with enhanced test image correctability using frequency division scheme | |
JP5156601B2 (en) | Shape measuring apparatus and program | |
JP2007285754A (en) | Flaw detection method and flaw detector | |
JP2009211960A (en) | Edge detecting method, and charged particle beam device | |
WO2012029658A1 (en) | Imaging device, image-processing device, image-processing method, and image-processing program | |
JP2010133751A (en) | Shape measuring device and program | |
JP2014203311A (en) | Image processor, image processing method, and program | |
JP4788475B2 (en) | Image processing apparatus and image processing method | |
JP4801697B2 (en) | Image forming method, image forming apparatus, and computer program | |
JP4182937B2 (en) | Image capturing apparatus, image processing method for image capturing apparatus, and program | |
JP7419846B2 (en) | Liquid level detection method and liquid level detection device | |
JP6390163B2 (en) | Information processing apparatus, information processing method, and program | |
JP2009192483A (en) | Three dimensional shape measuring method and three dimensional shape measuring device | |
JP2009250777A (en) | Surface inspection device and surface inspection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070919 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080212 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080930 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090224 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090303 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4275149 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120313 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120313 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130313 Year of fee payment: 4 |
|
SG99 | Written request for registration of restore |
Free format text: JAPANESE INTERMEDIATE CODE: R316G99 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130313 Year of fee payment: 4 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130313 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140313 Year of fee payment: 5 |
|
SG99 | Written request for registration of restore |
Free format text: JAPANESE INTERMEDIATE CODE: R316G99 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |