JP2013167596A - Defect inspection device, defect inspection method, and program - Google Patents
Defect inspection device, defect inspection method, and program Download PDFInfo
- Publication number
- JP2013167596A JP2013167596A JP2012032336A JP2012032336A JP2013167596A JP 2013167596 A JP2013167596 A JP 2013167596A JP 2012032336 A JP2012032336 A JP 2012032336A JP 2012032336 A JP2012032336 A JP 2012032336A JP 2013167596 A JP2013167596 A JP 2013167596A
- Authority
- JP
- Japan
- Prior art keywords
- defect
- feature vector
- defect candidate
- area
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、検査対象物の欠陥の有無を、その検査対象物から得られる画像情報に基づいて検査する欠陥検査装置、欠陥検査方法及びプログラムに関する。 The present invention relates to a defect inspection apparatus, a defect inspection method, and a program for inspecting whether there is a defect in an inspection object based on image information obtained from the inspection object.
燃料電池やリチウムイオン電池などの製造工程において、電極の表面に欠陥があるか否かを検査する技術が知られている。
例えば、特許文献1には、検査対象物である電極基板にX線を照射して透過像を取得し、その透過像に基づいて金属不純物粒子(欠陥)が存在する部分を検出する技術について記載されている。
A technique for inspecting whether or not a surface of an electrode is defective in a manufacturing process of a fuel cell, a lithium ion battery, or the like is known.
For example,
また、特許文献2には、搬送中の電極用素材の上流側から光を照射して得られる第1画像データと、下流側から光を照射して得られる第2画像データとを用いて、異物(欠陥)の形状を判別する技術について記載されている。
しかしながら、特許文献1に記載の技術では、金属不純物粒子の有無は検出できるものの、金属不純物粒子の形状を自動的に識別することができないという問題がある。また、電極用素材の表面に欠落部分(窪み部分)が存在していたとしても、X線透過像では当該欠落部分を検出できない可能性がある。
However, although the technique described in
また、特許文献2に記載の技術では、前記第1画像データと前記第2画像データとを合成した総合画像データにおいて、輝度値が所定値以上である範囲(輪郭)内における画素数などを用いて異物(欠陥)の形状を判別している。したがって、例えば、「円形」や「馬蹄形」というように、異物の大まかな形状を推定できるにとどまる。
In the technique described in
一般に、検査対象物である電極用素材の画像情報から欠陥の有無を検出するに際しては、欠陥の種類を適切に判別する必要がある。また、前記種類の他に、欠陥の位置や面積などを考慮した上で、欠陥の有無を総合的に判定することが望ましい。このようにきめ細かな判定を行うために、従来は、最終的に人間が目視することで欠陥の有無を判定する必要があり、そのために多大な時間とコストを要した。 Generally, when detecting the presence or absence of a defect from image information of an electrode material that is an inspection object, it is necessary to appropriately determine the type of the defect. In addition to the above types, it is desirable to comprehensively determine the presence / absence of a defect in consideration of the position and area of the defect. In order to make such a detailed determination, conventionally, it has been necessary to finally determine the presence or absence of a defect by visually observing it, and therefore, a great deal of time and cost are required.
そこで、本発明は、検査対象物の欠陥の有無を適切に判定することができる欠陥検査装置、欠陥検査方法及びプログラムを提供することを課題とする。 Then, this invention makes it a subject to provide the defect inspection apparatus, the defect inspection method, and program which can determine appropriately the presence or absence of the defect of a test target object.
前記課題を解決するために、本発明に係る欠陥検査装置は、検査対象物の欠陥の有無を、前記検査対象物の画像情報に基づいて検査する欠陥検査装置であって、外部から入力される前記検査対象物の画像情報に対して2値化処理を行うことによって、欠陥候補に含まれる画素の座標値を抽出し、欠陥候補ごとの識別情報であるラベリング値と前記座標値とを対応付けた欠陥候補の領域情報を取得する領域情報取得手段と、前記領域情報取得手段によって取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの位置を重心座標値として算出する位置算出手段と、前記領域情報取得手段によって取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの面積を算出する面積算出手段と、前記領域情報取得手段によって取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの特徴ベクトルを抽出する領域を決定する特徴ベクトル抽出領域決定手段と、前記特徴ベクトル抽出領域決定手段によって決定される前記領域において、前記2値化処理前の画像情報に対して高次局所自己相関処理を行い、前記欠陥候補ごとの特徴ベクトルを抽出する特徴ベクトル抽出手段と、前記特徴ベクトル抽出手段によって抽出されるそれぞれの特徴ベクトルと、予め与えられる境界条件とを比較することによって、前記欠陥候補の種類を判別する種類判別手段と、前記種類判別手段によって判別される欠陥候補の種類と、前記位置算出手段によって算出される欠陥候補の位置と、前記面積算出手段によって算出される欠陥候補の面積とのそれぞれを、予め与えられる判別基準と比較することによって前記検査対象物の欠陥の有無を判定する欠陥判定手段と、を備えることを特徴とする。 In order to solve the above-described problem, a defect inspection apparatus according to the present invention is a defect inspection apparatus that inspects whether there is a defect in an inspection object based on image information of the inspection object, and is input from the outside. By performing binarization processing on the image information of the inspection object, the coordinate value of the pixel included in the defect candidate is extracted, and the labeling value, which is identification information for each defect candidate, is associated with the coordinate value. Area information acquisition means for acquiring area information of the defect candidates, and position calculation means for calculating the position of each defect candidate as a barycentric coordinate value based on the area information of the defect candidates acquired by the area information acquisition means; , An area calculation unit that calculates an area for each defect candidate based on the region information of the defect candidate acquired by the region information acquisition unit, and before the acquisition by the region information acquisition unit In the region determined by the feature vector extraction region determination unit, a feature vector extraction region determination unit that determines a region for extracting a feature vector for each defect candidate based on the region information of the defect candidate, and the binarization process A feature vector extracting unit that performs high-order local autocorrelation processing on the previous image information and extracts a feature vector for each defect candidate, and each feature vector extracted by the feature vector extracting unit is given in advance By comparing the boundary condition, a type determining unit that determines the type of the defect candidate, a type of defect candidate determined by the type determining unit, a position of the defect candidate calculated by the position calculating unit, Each of the defect candidate areas calculated by the area calculating means is compared with a predetermined criterion. Characterized in that it comprises a defect determination unit determines the presence or absence of a defect of the inspection object by.
このような構成によれば、領域情報取得手段は、外部から入力される前記検査対象物の画像情報に対して2値化処理を行うことによって、欠陥候補に含まれる画素の座標値を抽出し、欠陥候補ごとの識別情報であるラベリング値と前記座標値とを対応付けた欠陥候補の領域情報を取得する(領域情報取得ステップ)。そして、特徴ベクトル抽出領域決定手段は、領域情報取得手段によって取得される欠陥候補の領域情報に基づいて、欠陥候補ごとの特徴ベクトルを抽出する領域を決定する(特徴ベクトル抽出領域決定ステップ)。
さらに、特徴ベクトル抽出手段は、特徴ベクトル抽出領域決定手段によって決定される前記領域において、前記2値化処理前の画像情報に対して高次局所自己相関処理を行い、欠陥候補ごとの特徴ベクトルを抽出する(特徴ベクトル抽出ステップ)。
According to such a configuration, the area information acquisition unit extracts the coordinate value of the pixel included in the defect candidate by performing binarization processing on the image information of the inspection object input from the outside. Then, area information of defect candidates is obtained by associating a labeling value, which is identification information for each defect candidate, with the coordinate value (area information acquisition step). Then, the feature vector extraction region determination unit determines a region for extracting a feature vector for each defect candidate based on the defect candidate region information acquired by the region information acquisition unit (a feature vector extraction region determination step).
Further, the feature vector extraction unit performs high-order local autocorrelation processing on the image information before the binarization processing in the region determined by the feature vector extraction region determination unit, and obtains a feature vector for each defect candidate. Extract (feature vector extraction step).
したがって、領域情報取得手段は2値化処理を行い、欠陥候補ごとのラベリング値と座標値とを対応付けることで、欠陥候補の領域情報を容易かつ正確に取得することができる。
また、特徴ベクトル抽出手段が欠陥候補の特徴ベクトルを抽出する領域は、検査対象物の画像全体ではなく、特徴ベクトル抽出領域決定手段によって決定される所定領域となるため、特徴ベクトル抽出手段における演算量を大幅に低減することができる。
Therefore, the area information acquisition means performs binarization processing and associates the labeling value and the coordinate value for each defect candidate, so that the area information of the defect candidate can be acquired easily and accurately.
In addition, since the area from which the feature vector extraction unit extracts the feature vector of the defect candidate is not the entire image of the inspection object but a predetermined region determined by the feature vector extraction region determination unit, the amount of calculation in the feature vector extraction unit Can be greatly reduced.
また、種類判別手段は、特徴ベクトル抽出手段によって抽出されるそれぞれの特徴ベクトルと、予め与えられる境界条件とを比較することによって欠陥候補の種類を判別する(種類判別ステップ)。
そして、欠陥判定手段は、種類判別手段によって判別される欠陥候補の種類と、位置算出手段(位置算出ステップ)によって算出される欠陥候補の位置と、面積算出手段(面積算出ステップ)によって算出される欠陥候補の面積とのそれぞれを、予め与えられる判別基準と比較することによって前記検査対象物の欠陥の有無を判定する(欠陥判定ステップ)。
Further, the type discriminating unit discriminates the type of the defect candidate by comparing each feature vector extracted by the feature vector extracting unit with a boundary condition given in advance (type discriminating step).
The defect determination means is calculated by the defect candidate type determined by the type determination means, the position of the defect candidate calculated by the position calculation means (position calculation step), and the area calculation means (area calculation step). The presence / absence of a defect in the inspection object is determined by comparing each of the areas of the defect candidates with a predetermined determination criterion (defect determination step).
つまり、欠陥判定手段は、欠陥候補の種類、位置、及び面積に基づいて、検査対象物に欠陥が存在するか否かを総合的に判定する。したがって、本発明に係る欠陥検査装置によれば、検査対象物の欠陥の有無を適切に判定することができる。 That is, the defect determination means comprehensively determines whether or not a defect exists in the inspection target based on the type, position, and area of the defect candidate. Therefore, according to the defect inspection apparatus according to the present invention, it is possible to appropriately determine the presence or absence of a defect in the inspection object.
また、本発明に係る前記欠陥検査装置において、外部から入力される前記検査対象物の画像情報に対してバイラテラルフィルタをかけるフィルタ処理手段を備え、前記特徴ベクトル抽出手段は、前記フィルタ処理手段によってフィルタ処理がなされた画像情報のうち、前記特徴ベクトル抽出領域決定手段によって決定される前記領域で高次局所自己相関処理を行い、前記欠陥候補の特徴ベクトルを抽出することが好ましい。 In the defect inspection apparatus according to the present invention, the defect inspection apparatus further includes a filter processing unit that applies a bilateral filter to image information of the inspection object input from the outside, and the feature vector extraction unit is provided by the filter processing unit. It is preferable that high-order local autocorrelation processing is performed on the region determined by the feature vector extraction region determination unit in the image information subjected to the filter processing to extract the feature vector of the defect candidate.
このような構成によれば、フィルタ処理手段が検査対象物の画像情報に対してバイラテラルフィルタをかけ、特徴ベクトル抽出手段は、バイラテラルフィルタをかけた画像情報に対して欠陥候補の特徴ベクトルを抽出する(フィルタ処理ステップ)。
ここで、バイラテラルフィルタは、エッジを保持しつつも画像全体としては平滑化処理を行うものである。これによって特徴ベクトル抽出手段は、バイラテラルフィルタをかけた画像情報に対して欠陥候補の特徴ベクトルを抽出するため、欠陥候補ごとの特徴ベクトルを適切に抽出することができる。
According to such a configuration, the filter processing unit applies a bilateral filter to the image information of the inspection object, and the feature vector extraction unit outputs the feature vector of the defect candidate to the image information subjected to the bilateral filter. Extract (filtering step).
Here, the bilateral filter performs smoothing processing on the entire image while retaining edges. As a result, the feature vector extracting means extracts the feature vector of the defect candidate from the image information subjected to the bilateral filter, and thus can appropriately extract the feature vector for each defect candidate.
また、本発明に係る前記欠陥検査装置において、前記フィルタ処理手段によってフィルタ処理がなされた画像情報のうち、前記特徴ベクトル抽出領域決定手段から入力される前記領域において、輝度値が所定値以上である画素が占める割合を前記欠陥候補の程度値として算出する程度値算出手段を備え、前記欠陥判定手段は、前記種類判別手段によって判別される欠陥候補の種類と、前記位置算出手段によって算出される欠陥候補の位置と、前記面積算出手段によって算出される欠陥候補の面積と、前記程度値算出手段によって算出される欠陥候補の程度値とのそれぞれを、予め与えられている前記判別基準と比較することによって、前記検査対象物の欠陥の有無を判定することが好ましい。 In the defect inspection apparatus according to the present invention, in the image information filtered by the filter processing unit, the luminance value is not less than a predetermined value in the region input from the feature vector extraction region determining unit. A degree value calculating unit that calculates a ratio of pixels as a degree value of the defect candidate, and the defect determining unit includes a defect candidate type determined by the type determining unit and a defect calculated by the position calculating unit. Each of the candidate position, the area of the defect candidate calculated by the area calculating unit, and the degree value of the defect candidate calculated by the degree value calculating unit are compared with the predetermined determination criterion. It is preferable to determine the presence or absence of a defect in the inspection object.
このような構成によれば、フィルタ処理手段から入力される画像情報のうち、特徴ベクトル抽出領域決定手段から入力される前記領域において、輝度値が所定値以上である画素が占める割合を前記欠陥候補の程度値として算出する(程度値算出ステップ)。
そして、欠陥判定手段は、欠陥の有無を判定する際に、欠陥候補の種類、位置及び面積に加えて、欠陥候補の程度値も反映させる。したがって、欠陥判定手段は、検査対象物の欠陥の有無を適切に判定することができる。
なお、輝度値が所定値以上である画素が占める割合と程度値との関係は、欠陥の種類ごとに適宜設定することができる。
According to such a configuration, in the image information input from the filter processing unit, a ratio of pixels having a luminance value equal to or greater than a predetermined value in the region input from the feature vector extraction region determination unit is determined as the defect candidate. Is calculated as a degree value (degree value calculation step).
Then, the defect determination means reflects the degree value of the defect candidate in addition to the type, position, and area of the defect candidate when determining the presence or absence of the defect. Therefore, the defect determination means can appropriately determine the presence or absence of a defect in the inspection object.
It should be noted that the relationship between the ratio and the degree value occupied by pixels having a luminance value equal to or greater than a predetermined value can be set as appropriate for each type of defect.
また、本発明に係る前記欠陥検査装置において、前記種類判別手段は、欠陥候補の種類が既知である教師画像情報から予め導出される判別関数で決定される超平面を前記境界条件として、前記欠陥候補の種類を判別することが好ましい。 Further, in the defect inspection apparatus according to the present invention, the type determination unit uses the hyperplane determined by a determination function derived in advance from teacher image information in which the type of defect candidate is known as the boundary condition. It is preferable to determine the type of candidate.
このような構成によれば、種類判別手段が、教師画像情報から予め導出される判別関数で決定される超平面を境界条件として欠陥候補の種類を判別することで、欠陥候補の種類を適切に判別することができる。 According to such a configuration, the type determination unit appropriately determines the type of defect candidate by determining the type of defect candidate using a hyperplane determined by a discriminant function derived in advance from the teacher image information as a boundary condition. Can be determined.
また、本発明は、前記欠陥検査方法を、コンピュータである前記欠陥検査装置に実行させるためのプログラムである。
本発明に係るプログラムによれば、検査対象物の欠陥の有無を適切に判定することができる欠陥検査方法を、欠陥検査装置に実行させることができる。
Moreover, this invention is a program for making the said defect inspection apparatus which is a computer perform the said defect inspection method.
According to the program according to the present invention, it is possible to cause a defect inspection apparatus to execute a defect inspection method that can appropriately determine the presence or absence of a defect in an inspection object.
本発明により、検査対象物の欠陥の有無を適切に判定することができる欠陥検査装置、欠陥検査方法及びプログラムを提供することができる。 According to the present invention, it is possible to provide a defect inspection apparatus, a defect inspection method, and a program that can appropriately determine the presence or absence of a defect in an inspection object.
以下、本発明を実施するための形態(以下、実施形態と記す)について、適宜図面を参照しながら詳細に説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。 Hereinafter, modes for carrying out the present invention (hereinafter referred to as embodiments) will be described in detail with reference to the drawings as appropriate. In addition, the same code | symbol is attached | subjected to the common part in each figure, and the overlapping description is abbreviate | omitted.
≪第1実施形態≫
<欠陥検査装置の構成>
図1は、本発明の第1実施形態に係る欠陥検査装置の構成図である。欠陥検査装置100は、検査対象物の欠陥の有無を、当該検査対象物の画像情報に基づいて検査するものである。以下の説明では例として、欠陥検査装置100が、燃料電池の電極及び固体高分子膜(Proton Exchange Membrane:PEM)の表面に欠陥があるか否かを検査する場合について説明する。
なお、以下の説明において、前記した電極及び固体高分子膜など、欠陥検査装置100の検査対象となる物を総称して「検査対象物」と記す。
<< First Embodiment >>
<Configuration of defect inspection device>
FIG. 1 is a configuration diagram of a defect inspection apparatus according to the first embodiment of the present invention. The
In the following description, objects to be inspected by the
また、「欠陥」とは、検査対象物に存在する不良箇所であり、例えば、欠落(窪み)又は異物が存在する箇所を含むものとする。欠陥を有する検査対象物は、廃棄又は再利用の対象となる。
また、「欠陥候補」とは、検査対象物のうち前記した欠陥に該当する可能性がある箇所を示すものとする。
Further, the “defect” is a defective portion existing in the inspection target, and includes, for example, a portion where a missing portion (dent) or a foreign object exists. An inspection object having a defect becomes a target for disposal or reuse.
Further, the “defect candidate” indicates a portion that may correspond to the above-described defect in the inspection object.
図1に示すように、欠陥検査装置100は、事前学習部101と、第1記憶部102と、領域情報取得部103と、面積算出部104と、位置情報取得部105と、フィルタ処理部106と、特徴ベクトル抽出部107と、種類判別部108と、第2記憶部109と、欠陥判定部110と、を備える。
欠陥検査装置100は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、各種インタフェースなどの電子回路(図示せず)を含んで構成され、ROMに記憶されたプログラムを読み出してRAMに展開し、CPUが各種処理を実行するようになっている。
As illustrated in FIG. 1, the
The
本実施形態に係る欠陥検査装置100は、欠陥の有無を調べる検査処理を開始する前に、外部から入力される教師画像情報に基づいた事前学習処理を行う。
したがって、まず、事前学習処理に関わる構成ついて説明した後に、その学習結果を用いた欠陥検査処理に関わる構成について説明する。
The
Therefore, after first describing the configuration related to the pre-learning process, the configuration related to the defect inspection process using the learning result will be described.
(1.事前学習処理に関わる構成)
事前学習部101は、外部から入力される教師画像情報を用いた事前学習を行う。当該教師画像情報は、欠陥検査装置100の設定を行う者(以下、設定者と記す。)が予め用意した欠陥候補の画像情報である。
ちなみに、「欠陥候補」は複数種類存在し(例えば、異物P1、欠落Q1など:図3(a)参照)、「欠陥」は欠陥候補画像のうち所定の基準(種類、位置、及び面積)を満たすものである。
また、本実施形態では例として、欠陥候補の種類が全部で10種類である場合について説明する。
(1. Configuration related to pre-learning processing)
The
Incidentally, there are a plurality of types of “defect candidates” (for example, foreign matter P1, missing Q1, etc .: see FIG. 3A), and “defects” are predetermined criteria (type, position, and area) of defect candidate images. To meet.
In the present embodiment, as an example, a case where there are 10 types of defect candidates in total will be described.
まず、予めそれぞれの欠陥候補の種類ごとに複数個ずつ(例えば、6個ずつ)のサンプルが設定者によって用意され、教師画像情報として事前学習部101に入力される。また、教師画像情報のサンプルの種類(種類1,・・・,種類10)が、その教師画像情報と対応付けて事前学習部101に入力される。
事前学習部101は、入力された教師画像情報及び種類に所定の識別記号を対応させ、第1記憶部102に格納する。
First, a plurality of (for example, six) samples are prepared in advance by the setter for each defect candidate type, and input to the
The
次に、事前学習部101は、第1記憶部102から教師画像情報及び識別記号を順次読み出して、フィルタ処理部106に出力する。そして、入力された教師画像情報ごとに、フィルタ処理部106がフィルタ処理を行い、特徴ベクトル抽出部107が教師画像情報の特徴ベクトルを抽出する。さらに、特徴ベクトル抽出部107は、抽出した特徴ベクトルに関する情報を、前記した識別記号と対応付けて第1記憶部102に格納する。
なお、フィルタ処理部106及び特徴ベクトル抽出部107よる処理の詳細については、後記する。
Next, the
Details of processing by the
特徴ベクトル抽出部107により全ての教師画像情報について特徴ベクトルが抽出されると、事前学習部101は第1記憶部102から教師画像情報の特徴ベクトルを読み出し、当該特徴ベクトルを用いた判別分析処理を実行する。すなわち、事前学習部101は、それぞれの教師画像情報の特徴ベクトルに基づいて、全変動STに対する群間変動SBの割合で表される相関比η2を最大とする判別関数を導出し、第1記憶部102に格納する。
When feature vectors are extracted for all teacher image information by the feature
次に、事前学習部101は、種類判別部108に対して種類判別処理を実行させる指令信号を出力する。前記信号が入力されると種類判別部108は、第1記憶部102から教師画像情報の特徴ベクトルを順次読み出し、前記した判別関数を用いてその種類(種類1,・・・,種類10のどれに該当するか)を判別する。そして、種類判別部108は、判別した種類を教師画像情報の識別記号と対応付けて第1記憶部102に格納する。
さらに、事前学習部101は、種類が同一である複数の教師画像情報の特徴ベクトルの重心座標を算出し、その種類と対応付けて第1記憶部102に格納する。
Next, the
Further, the
したがって、第1記憶部102には、設定者によって予め入力された教師画像情報の種類と、判別関数を用いて種類判別部108により判別された教師画像情報の種類と、が識別記号に対応付けて格納されることになる。
また、第1記憶部102には、教師画像情報の重心座標値に関する情報が、その種類ごとに格納されることになる。
Therefore, in the
Further, the
次に、事前学習部101は、種類判別部108の正答率に基づいて学習の適否を判定する。前記正答率は、種類判別部108によって判別された種類が正しかった(設定者によって入力された種類と一致した)サンプル数と、全ての教師画像情報のサンプル数との比率で表される。この正答率が予め設定された所定値以上である場合、事前学習部101は学習が適切であったと判断する。一方、正答率が前記所定値未満である場合、事前学習部101は学習が不適切であったと判断する。
Next, the
また、正答率が前記した所定値以上であった場合でも、教師画像情報自体が適切でない可能性もあり得る。すなわち、設定者が選択した教師画像データの特徴ベクトルのうち、その種類の重心座標から隔たっているものが存在する場合もある。
したがって、事前学習部101は、種類ごと(種類判別部108によって判別された種類ごと)の重心座標を第1記憶部102から読み出し、それぞれの特徴ベクトルと重心座標とのマハラノビス汎距離を算出して表示装置200に出力する。ちなみに、マハラノビス汎距離とは、ユークリッド距離を分散で標準化した距離である。
Moreover, even when the correct answer rate is equal to or higher than the predetermined value, there is a possibility that the teacher image information itself is not appropriate. That is, there may be a feature vector of the teacher image data selected by the setter that is separated from the barycentric coordinates of that type.
Accordingly, the
これによって設定者は、入力したそれぞれの教師画像情報について、種類判別部108の判別結果と、重心座標からのマハラノビス汎距離を知ることができる。
図2は、複数の教師画像について、欠落重心からのマハラノビス汎距離と、異物重心からのマハラノビス汎距離を算出してプロットした図である。図2に示す例では、教師画像情報として2種類の欠陥サンプル(欠落サンプル:6個、異物サンプル:6個)の画像について特徴ベクトルを抽出し、それぞれの種類の重心座標からのマハラノビス汎距離を算出してプロットした。
Thus, the setter can know the discrimination result of the
FIG. 2 is a diagram in which the Mahalanobis general distance from the missing center of gravity and the Mahalanobis general distance from the foreign object center of gravity are calculated and plotted for a plurality of teacher images. In the example shown in FIG. 2, feature vectors are extracted from images of two types of defect samples (missing samples: 6, foreign matter samples: 6) as teacher image information, and Mahalanobis general distances from the centroid coordinates of each type are extracted. Calculated and plotted.
図2に示す例では、領域p1に含まれるデータは欠落サンプルの教師画像情報に対応し、領域q1,q2に含まれるデータは異物サンプルの教師画像情報に対応する。したがって、種類判別部108は、事前学習部101によって導出された判別関数に基づいて、欠陥の種類を適切に判別していることが分かる。
また、図2において、領域q2のデータは欠落重心からの距離が比較的小さくなっているが、当該データに対応する異物サンプルは、その形状が他の異物サンプルと若干異なっていた。
In the example shown in FIG. 2, the data included in the region p1 corresponds to the teacher image information of the missing sample, and the data included in the regions q1 and q2 corresponds to the teacher image information of the foreign material sample. Therefore, it can be seen that the
In FIG. 2, the distance q from the missing center of gravity is relatively small in the data of the region q2, but the shape of the foreign material sample corresponding to the data is slightly different from the other foreign material samples.
したがって、設定者は、図2に示す例において、事前学習部101に入力した教師画像情報が適切であったことがわかる。ちなみに、事前学習が不適切であったと判定した場合、事前学習部101は、設定者によって変更された教師画像情報に基づいて、事前学習を再度実行して判別関数を導出する。
このようにして、事前学習部101は適切な判別関数を導出し、図1に示す第1記憶部102に格納する。
Therefore, the setter knows that the teacher image information input to the
In this way, the
ちなみに、教師画像情報の説明変数の次元数は、前記した特徴ベクトル抽出部107によって抽出される特徴ベクトルの次元数(33次元)である。したがって、事前学習部101は、変数増減法などを用いて教師画像情報を表す33次元のうち、それぞれの種類の識別に寄与している複数個(例えば、5個)の説明変数を特定し、当該説明変数を用いて判別関数を表すようにすることが好ましい。
これによって、教師画像情報の種類を適切に分類できる判別関数を導出できるとともに、後記する種類判別部108の処理負荷を低減することができる。
Incidentally, the number of dimensions of the explanatory variable of the teacher image information is the number of dimensions of the feature vector (33 dimensions) extracted by the feature
As a result, a discriminant function that can appropriately classify the type of teacher image information can be derived, and the processing load of the
また、図1に示すように、第1記憶部102には、欠陥判定部110が欠陥の有無を判定する際の基準となる判別基準情報(位置情報及び面積情報)が設定者によって予め入力される。なお、当該判別基準情報の詳細については後記する。
Further, as shown in FIG. 1, discrimination reference information (position information and area information) serving as a reference when the
(2.欠陥検査処理に関わる構成)
欠陥検査処理は、前記で説明した事前学習処理が終了した後に、検査対象物の画像情報が欠陥検査装置100に入力され、ユーザが入力手段(マウスなど:図示せず)を介して所定の操作を行うことにより開始される。
なお、検査対象物の画像情報は、例えば、照明装置(図示せず)によって光を照射された検査対象物を、CCD(Charge Coupled Device)カメラなどの撮像装置(図示せず)で撮像することによって取得することができる。
(2. Configuration related to defect inspection processing)
In the defect inspection process, after the pre-learning process described above is completed, the image information of the inspection object is input to the
The image information of the inspection object is obtained by, for example, imaging the inspection object irradiated with light by an illumination device (not shown) with an imaging device (not shown) such as a CCD (Charge Coupled Device) camera. Can be obtained by:
検査対象物が燃料電池の電極及び固体高分子膜である場合、外部の撮像装置から入力される画像情報(以下、単に画像情報と記す。)は、図3(a)のようになる。
図3(a)に示すように、検査対象物は、固体高分子膜Mの上に電極Eが貼り合わされている。また、電極Eの右上に欠落P1があり、電極Eの左下に異物Q1がある。
ちなみに、図3(a)では説明のため、欠陥候補(欠落P1及び異物Q1)を実際の寸法よりも大きく記載している(後記する図3(b)、図3(c)についても同様)。
When the inspection object is an electrode of a fuel cell and a solid polymer membrane, image information (hereinafter simply referred to as image information) input from an external imaging device is as shown in FIG.
As shown in FIG. 3A, the inspection object has an electrode E bonded on a solid polymer film M. Further, there is a missing P1 on the upper right side of the electrode E, and a foreign substance Q1 on the lower left side of the electrode E.
Incidentally, in FIG. 3A, for the purpose of explanation, defect candidates (missing P1 and foreign matter Q1) are shown larger than actual dimensions (the same applies to FIGS. 3B and 3C described later). .
領域情報取得部103は、外部から入力される検査対象物の画像情報に対して2値化処理を行うことによって、欠陥候補に含まれる画素の座標値を抽出し、欠陥候補ごとの識別情報であるラベリング値と前記座標値とを対応付けた欠陥候補の領域情報を取得する。
ここで、「欠陥候補の領域情報」とは、欠陥候補が占める領域と、それ以外の領域とを区別するとともに、それぞれの欠陥候補を識別するための情報である。例えば、領域情報取得部103は、欠陥候補が占める領域の画素値を1とし、欠陥候補でない領域の画素値を0とする。
The region information acquisition unit 103 performs a binarization process on the image information of the inspection object input from the outside, thereby extracting the coordinate value of the pixel included in the defect candidate, and using the identification information for each defect candidate. The defect candidate area information in which a certain labeling value is associated with the coordinate value is acquired.
Here, the “defect candidate area information” is information for distinguishing the area occupied by the defect candidate from other areas and identifying each defect candidate. For example, the area information acquisition unit 103 sets the pixel value of the area occupied by the defect candidate to 1 and sets the pixel value of the area that is not the defect candidate to 0.
領域情報取得部103は、輝度情報生成部103aと、2値化処理部103bとを備えている。輝度情報生成部103aは、外部の撮像装置から入力される画像情報から輝度情報を生成する。すなわち、入力される画像情報の全ての画素についてRGBデータからYUVデータに変換し、各画素のY値(輝度値)を輝度情報として2値化処理部103bに出力する。
The area information acquisition unit 103 includes a luminance
2値化処理部103bは、輝度情報生成部103aから入力される輝度情報に基づいて2値化処理を行う。例えば、2値化処理部103bは、輝度値のヒストグラムから2群が最も分離される2値化しきい値を算出する。そして、2値化処理部103bは、輝度値が前記2値化しきい値以上である画素に1を対応させ、輝度値が前記2値化しきい値未満である画素に0を対応させる。
The
さらに、2値化処理部103bは、画素値が1である画素のうち隣接する(又はユークリッド距離が所定値以下である)画素同士を同じ領域として識別し、それぞれの領域に対してラベリングする。
例えば、2値化処理部103bは、図3(a)に示す画像に対して2値化処理を行い、欠落P1に対応する領域P2、及び、異物Q1に対応する領域Q2の画素値を1とする(図3(b)参照)。また、2値化処理部103bは、領域P2,Q2以外の領域の画素値を全て0とする。
Further, the
For example, the
さらに、2値化処理部103bは、図3(b)に示す領域P2,Q2をそれぞれ1つの領域として識別し、領域P2,Q2に対してラベリングを行う。すなわち、2値化処理部103bは、欠陥候補ごとの識別情報であるラベリング値と、欠陥候補に含まれる画素(それぞれの欠陥候補内の一群の画素)の座標値とを対応付けた欠陥候補の領域情報を取得する。
このようにして2値化処理部103bは欠陥候補の領域情報を取得し、面積算出部104及び位置情報取得部105に出力する。
Further, the
In this way, the
面積算出部104は、領域情報取得部103によって取得される欠陥候補の領域情報に基づいて、欠陥候補ごとの面積を算出する。すなわち、面積算出部104は、前記したラベリング値が同一である領域の画素数(つまり、欠陥候補の面積)を算出する。そして、面積算出部104は、欠陥候補ごとの面積値を前記したラベリング値と対応付けて第2記憶部109に格納する。
The
位置情報取得部105は、欠陥候補の位置に関する情報を取得する。位置情報取得部105は、位置算出部105aと、特徴ベクトル抽出領域決定部105bとを備えている。
位置算出部105aは、領域情報取得部103によって取得される欠陥候補の領域情報に基づいて、欠陥候補ごとの位置を重心座標値として算出する。すなわち、位置算出部105aは、2値化処理部103bによってラベリングされた欠陥候補のそれぞれについて重心座標値を算出し、ラベリング値と対応付けて第2記憶部109に格納する。
The position
The
特徴ベクトル抽出領域決定部105bは、領域情報取得部103によって取得される欠陥候補の領域情報に基づいて、欠陥候補ごとの特徴ベクトルを抽出する領域を決定する。
特徴ベクトル抽出領域決定部105bは、特徴ベクトルが抽出される領域(以下、「特徴ベクトル抽出領域」と記す。)を、例えば、次のようにして決定する。すなわち、特徴ベクトル抽出領域決定部105bは、2値化処理部103bから入力されるそれぞれの欠陥候補について、欠陥候補の領域を含む矩形領域を特定し、その座標値を前記したラベリング値と対応付けて特徴ベクトル抽出部107に出力する。
The feature vector extraction
The feature vector extraction
図3(b)に示す例では、特徴ベクトル抽出領域決定部105bは領域P2を含む矩形領域TP2と、領域Q2を含む矩形領域TQ2とを特定する座標値とを、それぞれラベリング値と対応付けて特徴ベクトル抽出部107に出力する。
なお、前記座標値は矩形領域を特定することが可能であればよい。例えば、それぞれの矩形領域のうち最も右上に位置する画素の座標値と、矩形領域のうち最も左下に位置する画素の座標値とすればよい。
In the example shown in FIG. 3B, the feature vector extraction
The coordinate value only needs to be able to specify a rectangular area. For example, the coordinate value of the pixel located in the uppermost right of each rectangular area and the coordinate value of the pixel located in the lowermost left of the rectangular area may be used.
フィルタ処理部106は、外部の撮像装置(図示せず)から入力される検査対象物の画像情報(つまり、入力される画像情報の全ての画素)に対してバイラテラルフィルタ(Bilateral Filter)をかける。ちなみに、フィルタ部106に入力される画像情報に対して2値化処理はされていない。
バイラテラルフィルタはエッジ保持型平滑化フィルタであり、画像全体として平滑化処理を行うことによって画像全体での濃淡変化や細かいノイズをキャンセルしつつ、エッジ(輪郭)を強調するものである。これによって、後記する特徴ベクトル抽出部107において、より適切に欠陥の特徴ベクトルを抽出することができる。
The
The bilateral filter is an edge-preserving smoothing filter, and emphasizes edges (contours) by canceling light and shade changes and fine noise in the entire image by performing smoothing processing on the entire image. Thereby, the feature
なお、フィルタ処理部106による画像処理と、前記した領域情報取得部103による画像処理は並列的に実行される。つまり、外部から入力される画像情報に対してフィルタ処理部106がバイラテラルフィルタをかける処理を実行するのと並行して、前記画像情報に対して領域情報取得部103が2値化処理を行って領域情報を取得する。
これによって、欠陥検査装置100の処理をより速やかに行うことができる。
Note that the image processing by the
Thereby, the process of the
また、本実施形態では、フィルタ処理部106がデータ依存型のバイラテラルフィルタをかけることとした。データ依存型のバイラテラルフィルタは、例えば、ファジー推論によって画像の局所領域ごとにパラメータを算出する。そして、フィルタ処理部106は、前記局所領域ごとに変化するパラメータに基づいたバイラテラルフィルタをかけることによって、フィルタ処理を行う。
これによって、雑音が多く重畳した画素をエッジとして認識して強調処理してしまうことを回避できる。
In the present embodiment, the
As a result, it is possible to avoid recognizing and emphasizing a pixel with a lot of noise as an edge.
なお、データ依存型のバイラテラルフィルタをかける前処理として、輝度のヒストグラム分布を変化させ、欠陥を検出するのに適した分布とすることが好ましい。
図4(a)は、外部から入力される検査対象物の画像情報における輝度のヒストグラムであり、図4(b)は、フィルタ処理部106によって分布が変化された場合における輝度のヒストグラムである。
As preprocessing for applying the data-dependent bilateral filter, it is preferable to change the luminance histogram distribution to obtain a distribution suitable for detecting defects.
4A is a luminance histogram in the image information of the inspection target inputted from the outside, and FIG. 4B is a luminance histogram in the case where the distribution is changed by the
例えば、図3(a)に示すように、検査対象物が燃料電池で用いられる電極E及び固体高分子膜Mである場合について考える。ちなみに、電極Eは黒鉛が炭素繊維で補強されたC/Cコンポジットで構成されている。そうすると、電極Eが黒色であるため、撮像装置(図示せず)によって電極Eを撮像することで得られる画像の輝度値は、値が小さい範囲Aに集中することとなる(図4(a)参照)。ちなみに、輝度値が比較的大きい範囲Bは、固体高分子膜M(図3(a)参照)に対応している。 For example, as shown in FIG. 3A, consider a case in which the inspection object is an electrode E and a solid polymer film M used in a fuel cell. Incidentally, the electrode E is composed of a C / C composite in which graphite is reinforced with carbon fibers. Then, since the electrode E is black, the luminance value of the image obtained by imaging the electrode E by the imaging device (not shown) is concentrated in the range A in which the value is small (FIG. 4A). reference). Incidentally, the range B where the luminance value is relatively large corresponds to the solid polymer film M (see FIG. 3A).
欠陥の大部分は電極に存在するため、フィルタ処理部106は電極に対応する範囲A内に存在する画素を取り出す。すなわち、フィルタ処理部106は、図4(a)に示す範囲A内に存在する画素において、輝度値のヒストグラムが正規分布となり、かつ、当該正規分布の中央値が予め設定された所定値となるようにシフトさせ、輝度値の分布を変更する。
Since most of the defects exist in the electrodes, the
例えば、フィルタ処理部106は、輝度値が、図4(a)に示す範囲A内に存在する画素について、それらの画素における輝度値のヒストグラムが正規分布となり、当該正規分布の中央値が所定値となるように輝度値を変更する。
このように輝度値のヒストグラム分布を変更することによって、後記する特徴ベクトル抽出部107において、より適切に特徴ベクトルを抽出することができる。
For example, for the pixels whose luminance values are within the range A shown in FIG. 4A, the
Thus, by changing the histogram distribution of luminance values, the feature
そして、フィルタ処理部106は、輝度値が変更された画像情報についてデータ依存型のバイラテラルフィルタをかけ、特徴ベクトル抽出部107に出力する。フィルタ処理部106から特徴ベクトル抽出部107に対して出力される情報は、例えば、図3(c)に示すように、エッジを保持しつつ画像全体としては平滑化された画像に対応する画像情報となる。
Then, the
特徴ベクトル抽出部107は、特徴ベクトル抽出領域決定部105bによって決定される領域において、2値化処理前の画像情報に対して高次局所自己相関処理を行い、欠陥候補ごとの特徴ベクトルを抽出する。
例えば、燃料電池の電極表面に欠陥があるか否かを電極ごとに1枚ずつ検査する場合に、欠陥を有する電極は全体の一部である。また、欠陥が占める面積は電極の面積に対して非常に小さい。このような場合に電極の全面について高次自己相関処理を行うと、膨大な量の演算処理を行うこととなる一方、電極の大部分は欠陥領域でないため無駄が生じる。
The feature
For example, when inspecting whether or not the electrode surface of the fuel cell is defective one by one for each electrode, the electrode having the defect is a part of the whole. Also, the area occupied by the defects is very small relative to the area of the electrode. In such a case, if high-order autocorrelation processing is performed on the entire surface of the electrode, an enormous amount of calculation processing is performed. On the other hand, most of the electrode is not a defective region, and thus waste occurs.
したがって、本実施形態において特徴ベクトル抽出部107は、特徴ベクトル抽出領域決定部105bから入力される矩形領域(欠陥候補を含む、一つ又は複数の矩形領域)についてのみ高次局所自己相関処理を行う。これによって、欠陥が存在する可能性がある矩形領域についてのみ限定的に特徴ベクトルの抽出を行うため、欠陥検査を行う際の計算量を大幅に低減させ、検査処理を速やかに行うことが可能となる。
Therefore, in the present embodiment, the feature
次に、特徴ベクトル抽出部107が行う高次局所自己相関処理について説明する。高次局所自己相関処理(Higher-Order Local Auto-Correlation:HLAC)は、2次元の局所領域における相関のパターンを全体で数え上げることで特徴の算出を行うものであり、加法性などの優れた性質を有する。
N次自己相関関数XNは、以下に示す(式1)で表される。なお、(式1)においてf(r)は画像情報の値であり、(a1,a2,・・・,aN)は参照画素rから見た変位方向を表している。
Next, high-order local autocorrelation processing performed by the feature
The Nth-order autocorrelation function XN is expressed by the following (formula 1). In (Expression 1), f (r) is a value of image information, and (a 1 , a 2 ,..., A N ) represents a displacement direction viewed from the reference pixel r.
本実施形態では、(式1)においてN=2(2次元の画像情報)とする。特徴ベクトル抽出部107は、例えば、特徴ベクトル抽出領域(図5に示す矩形領域TP3)内の参照画素の画素値と、所定のマスクパターンK(図5参照)によってマスクされる画素の画素値とを乗算した値を前記矩形領域の全ての画素について積分することで、当該マスクパターンKに対応する特徴量(特徴ベクトルの成分値)を算出する。
In the present embodiment, N = 2 (two-dimensional image information) in (Expression 1). The feature
ちなみに、前記したマスクパターンとは、参照画素のムーア近傍に位置する画素(すなわち、参照画素を囲む近傍の8画素)について設定される所定のパターンである。また、マスクを平行移動などした場合に同値になるものを除外すると、33通りのマスクパターンが存在する。
特徴ベクトル抽出部107は、これらの33通りのマスクパターンについてそれぞれ特徴量(特徴ベクトルの成分値)を算出し、欠陥候補を含む矩形領域の特徴を表す33次元の特徴ベクトルを抽出し、前記したラベリング値と対応付けて種類判別部108に出力する。
Incidentally, the above-described mask pattern is a predetermined pattern set for pixels located in the vicinity of the Moore of reference pixels (that is, eight pixels in the vicinity surrounding the reference pixel). Further, if masks that have the same value when the mask is moved in parallel are excluded, there are 33 mask patterns.
The feature
種類判別部108は、特徴ベクトル抽出部107によって抽出されるそれぞれの特徴ベクトルと、予め与えられる境界条件とを比較することによって、欠陥候補の種類を判別する。より具体的には、種類判別部108は、欠陥候補の種類が既知である教師画像情報から予め導出される判別関数で決定される超平面を前記境界条件として、欠陥候補の種類を判別する
なお、教師画像情報から予め導出される判別関数は、前記した事前学習部101による事前学習処理で予め取得され、第1記憶部102に格納されている。
The
種類判別部108は、特徴ベクトル抽出部107から欠陥候補の特徴ベクトルに対応する情報が入力されると、事前学習部101によって予め導出されている判別関数を第1記憶部102から読み出す。そして、種類判別部108は、読み出した判別関数によって定まる超平面によって仕切られる空間のうち、欠陥候補の特徴ベクトルがどの空間内に存在するかによって欠陥候補の種類を判別する。
When the information corresponding to the feature vector of the defect candidate is input from the feature
さらに種類判別部108は、判別した欠陥候補の種類を、その欠陥候補のラベリング値と対応付けて第2記憶部109に格納する。
したがって、第2記憶部109には、欠陥候補の位置、面積、及び種類が、欠陥候補ごとに定められたラベリング値に対応付けて格納される。
Further, the
Therefore, the
欠陥判定部110は、種類判別部108によって判別される欠陥候補の種類と、位置算出部105aによって算出される欠陥候補の位置と、面積算出部104によって算出される欠陥候補の面積とのそれぞれを、予め与えられる判別基準と比較することによって検査対象物の欠陥の有無を判定する。
ここで、前記した「判別基準」とは、設定者によって予め入力される位置情報(例えば、図6に示す領域X,Y,Zに相当)、面積情報(例えば、図6に示す面積α,β)、及び種類情報(例えば、図6に示す種類1,2,・・・,10)を含み、検査対象物の欠陥の有無を判定する際の基準値を示す情報である。
また、前記した欠陥候補の位置、面積、及び種類は、欠陥判定部110が第2記憶部109からそれぞれの情報を前記したラベリング値と対応付けて読み出すことによって取得される。
The
Here, the above-mentioned “discrimination criteria” are positional information (for example, corresponding to the regions X, Y, and Z shown in FIG. 6) and area information (for example, the areas α, β) and type information (for example,
Further, the position, area, and type of the defect candidate described above are acquired by the
図6は、欠陥候補の種類、位置及び面積に基づいて、欠陥に該当するか否かを判別する際の基準を示す説明図である。なお、図6において○印は欠陥に該当しない場合を示し、×印は欠陥に該当する場合を示している。 FIG. 6 is an explanatory diagram showing a criterion for determining whether or not a defect corresponds to the defect based on the type, position and area of the defect candidate. In FIG. 6, a circle indicates a case that does not correspond to a defect, and a cross indicates a case that corresponds to a defect.
また、図6に示す「位置」とは、位置算出部105aによって算出された欠陥候補の位置(重心の座標値)であり、「面積S」とは、面積算出部104によって算出された欠陥候補の面積である。
また、図6に示す「領域X」は、例えば、電極E(図3(a)参照)内における所定の矩形領域であり、「領域Y」は固体高分子膜M(図3(b)参照)内の所定領域であり、「領域Z」は固体高分子膜Mの外縁付近の所定領域、というように設定する。
前記したように、図6に示す領域X,Y,Z(位置情報)、及び、面積のしきい値であるα,β(面積情報)は、設定者によって予め与えられる判別基準情報であり、予め第1記憶部102に格納されている値である(図1参照)。
Further, the “position” shown in FIG. 6 is the position of the defect candidate (coordinate value of the center of gravity) calculated by the
6 is, for example, a predetermined rectangular region in the electrode E (see FIG. 3A), and the “region Y” is a solid polymer membrane M (see FIG. 3B). The “region Z” is a predetermined region in the vicinity of the outer edge of the solid polymer film M.
As described above, the regions X, Y, and Z (position information) and the area threshold values α and β (area information) shown in FIG. 6 are discrimination reference information given in advance by the setter, The value is stored in advance in the first storage unit 102 (see FIG. 1).
欠陥判定部110が欠陥の有無を判定する際の位置及び面積の基準は、欠陥の種類ごとに異なる場合がある。
例えば、欠落P1(図3(a)参照)の種類が図6に示す種類1に該当し、当該欠落P1が領域Xに位置している場合、欠陥判定部110は、欠陥候補である欠落P1について次のような判定を行う。
すなわち、欠落P1の面積Sの値がβ未満である場合、欠陥判定部110は、欠落P1が欠陥に該当しないと判定する。一方、欠落P1の面積Sの値がβ以上である場合、欠陥判定部110は、欠落P1が欠陥に該当すると判定する。
The position and area criteria used when the
For example, when the type of the missing P1 (see FIG. 3A) corresponds to the
That is, when the value of the area S of the missing P1 is less than β, the
また、異物Q1(図3(a)参照)の種類が図6に示す種類10であり、当該異物Q1が領域Xに位置している場合、欠陥判定部110は、欠陥候補である異物Q1について次のような判定を行う。
すなわち、異物Q1の面積Sの値がα以下である場合、欠陥判定部110は、異物Q1が欠陥に該当しないと判定する。一方、異物Q1の面積Sの値がαより大きい場合、欠陥判定部110は、異物Q1が欠陥に該当すると判定する。
このようにして、欠陥判定部110は、欠陥に該当するか否かを欠陥候補ごとに順次判定し、最終的な判定結果に相当する情報を外部の表示装置200に出力する。そして、表示装置200は、欠陥判定部110から受信した前記情報を表示する。
Further, when the type of the foreign matter Q1 (see FIG. 3A) is the type 10 shown in FIG. 6 and the foreign matter Q1 is located in the region X, the
That is, when the value of the area S of the foreign matter Q1 is α or less, the
In this way, the
図7は、欠陥判定部の処理の流れを示すフローチャートである。ステップS101において欠陥判定部110は、検査対象とする欠陥候補のラベリング値nの値を1とする。つまり、欠陥判定部110は、一つ又は複数存在する欠陥候補のうち、1つ目の欠陥候補についての検査を開始する。
FIG. 7 is a flowchart showing a flow of processing of the defect determination unit. In step S101, the
ステップS102において欠陥判定部110は、ステップS101で選択した欠陥候補の種類が、欠陥の該当可能性がある種類であるか否かを判定する。ここで、「欠陥の該当可能性がある」とは、後記する欠陥の位置や面積の条件によっては、その欠陥候補が欠陥に該当する可能性があることを示している。ちなみに、図6に示す例では、種類1、種類2、及び種類10は、欠陥の該当可能性がある。
なお、欠陥判定部110が、欠陥の位置や面積に関わらず、所定の種類に該当することのみによって欠陥であると判定する場合もある。
In step S102, the
Note that the
欠陥候補の種類が、欠陥の該当可能性がある種類である場合(S102→Yes)、欠陥判定部110の処理はステップS103に進む。一方、欠陥候補の種類が、欠陥の該当可能性がある種類でない場合(S102→No)、欠陥判定部110の処理はステップS106に進む。
ステップS103において欠陥判定部110は、欠陥候補の位置が、欠陥の該当可能性がある位置であるか否かを判定する。つまり、欠陥判定部110は、位置算出部105aによって算出された欠陥候補の位置(重心座標値)が、欠陥の該当可能性がある位置であるか否かを判定する。例えば、図6において、欠陥候補の種類が「種類1」であり、かつ、その位置が領域Yにあった場合、欠陥判定部110は、欠陥の該当可能性があると判定する。
When the type of defect candidate is a type that may be a defect (S102 → Yes), the process of the
In step S <b> 103, the
欠陥候補の位置が、欠陥の該当可能性がある位置である場合(S103→Yes)、欠陥判定部110の処理はステップS104に進む。一方、欠陥候補の位置が、欠陥の該当可能性がある位置でない場合(S103→No)、欠陥判定部110の処理はステップS106に進む。
ステップS104において欠陥判定部110は、欠陥に該当する面積であるか否かを判定する。つまり、欠陥判定部110は、面積算出部104によって算出された欠陥候補の面積(画素数)が、予め設定された所定範囲内であるか否かを判定する。
例えば、図6において、欠陥候補の種類が「種類1」であり、その位置が領域Yであり、かつ、その面積Sの値がα<S<βである場合、欠陥判定部110は、その欠陥候補は欠陥に該当すると判定する(図6の網掛け部分を参照)。
When the position of the defect candidate is a position where there is a possibility of being a defect (S103 → Yes), the processing of the
In step S104, the
For example, in FIG. 6, when the defect candidate type is “
欠陥候補の面積が所定範囲内である場合(S104→Yes)、欠陥判定部110の処理はステップS105に進む。一方、欠陥候補の面積が所定範囲内にない場合(S104→No)、欠陥判定部110の処理はステップS106に進む。
ステップS105において欠陥判定部110は、検査対象物に欠陥があると判定し、その判定結果に相当する信号を表示装置200に対して出力する。欠陥判定部110から前記信号を受信した場合、表示装置200は、「欠陥あり」に相当する画像を表示する。
When the area of the defect candidate is within the predetermined range (S104 → Yes), the process of the
In step S <b> 105, the
ステップS106において欠陥判定部110は、全ての欠陥候補について欠陥の有無を調べたか否かを判定する。すなわち、欠陥候補の総数をNとした場合、検査対象となった欠陥候補の値nが欠陥候補の総数Nに等しいか否かを判定する。
全ての欠陥候補について欠陥の有無を調べた場合(つまり、n=Nである場合:S106→Yes)、欠陥判定部110の処理はステップS107に進む。一方、欠陥の有無を調べていない欠陥候補が少なくとも一つ存在する場合(つまり、n<Nである場合:S106→No)、欠陥判定部110の処理はステップS108に進む。
In step S106, the
When the presence / absence of defects is examined for all defect candidates (that is, when n = N: S106 → Yes), the process of the
ステップS107において欠陥判定部110は、検査対象物に欠陥がないと判定し、その判定結果に相当する信号を表示装置200に対して出力する。欠陥判定部110から前記信号を受信した場合、表示装置200は、「欠陥なし」に相当する画像を表示する。
ステップS108において欠陥判定部110は、欠陥候補のラベリング値nをインクリメントし、ステップS102の処理に戻る。この場合、ステップS102〜S104において欠陥判定部110は、インクリメントされたラベリング値nに対応する欠陥候補について欠陥に該当するか否かを検査する。
In step S <b> 107, the
In step S108, the
<効果1>
本実施形態に係る欠陥検査装置100によれば、特徴ベクトル抽出部107によって高次局所自己相関処理を用いた特徴ベクトルの抽出処理を行う。高次局所自己相関処理では、2次元の局所領域における相関パターンを数え上げることで特徴ベクトルの算出を行う。これによって、欠陥候補の特徴を欠陥候補の形状(輪郭)だけでなく表面の質感などを含めた33次元の特徴ベクトルとして抽出することができる。
したがって、種類判別部108は、前記した特徴ベクトルに基づいて欠陥候補の種類を判別することによって、人間が目視で判断する場合と同様に欠陥候補の種類を適切に判別することができる。
<
According to the
Therefore, the
また、特徴ベクトル抽出部107は、特徴ベクトル抽出領域決定部105bから入力される特徴ベクトル抽出領域(矩形領域)についてのみ高次局所自己相関処理を行い、それ以外の領域については高次局所自己相関処理を行わない。したがって、特徴ベクトル抽出処理に要する演算量を低減し、欠陥検査に要する時間を大幅に短縮することができる。
通常、高次局所自己相関関数は検査対象物の画像全体に適用されるものである。図3(a)に示す画像に対応する検査対象物の画像全体について高次局所自己相関関数を適用して画像処理を行った場合、1つの画像当たり85.3時間を要した。
The feature
Usually, the higher-order local autocorrelation function is applied to the entire image of the inspection object. When image processing was performed by applying a higher-order local autocorrelation function to the entire image of the inspection object corresponding to the image shown in FIG. 3A, 85.3 hours were required for each image.
これに対して、本実施形態に係る欠陥検査装置100を用いて、特徴ベクトル抽出領域(矩形領域)についてのみ高次局所自己相関処理を行うと、1つの画像当たり64秒で処理を終えることができた。すなわち、前記した画像情報全体について高次局所自己相関処理を行った場合と比較すると、その処理速度が約5000倍となった。
このように、欠陥候補を含む矩形領域についてのみ特徴ベクトルの抽出処理を行うことによって、特徴ベクトルの抽出処理に要する時間を大幅に短縮することができる。
On the other hand, when the high-order local autocorrelation process is performed only for the feature vector extraction region (rectangular region) using the
As described above, by performing the feature vector extraction process only for the rectangular region including the defect candidate, the time required for the feature vector extraction process can be significantly shortened.
また、特徴ベクトル抽出処理部108が高次局所自己相関処理を行う前に、フィルタ処理部106がバイラテラルフィルタをかける。前記したように、バイラテラルフィルタは、エッジを保持しつつ画像全体としては平滑化処理(ぼかし処理)を行う。
通常、撮像装置(図示せず)によって検査対象を撮像した場合、その画像は中心部分に比べて周辺部分が若干暗くなる。本実施形態では、バイラテラルフィルタをかけることによって前記した輝度差、及び、ノイズによる輝度差を打ち消しつつも、エッジの強調処理を行うことができる。
このような前処理を行うことによって、特徴ベクトル抽出部107による特徴ベクトルの抽出精度を向上させることができる。
In addition, before the feature vector
Normally, when an inspection object is imaged by an imaging device (not shown), the peripheral portion of the image is slightly darker than the central portion. In the present embodiment, edge enhancement processing can be performed while canceling out the luminance difference and the luminance difference due to noise by applying a bilateral filter.
By performing such preprocessing, the feature vector extraction accuracy by the feature
図8は、特徴ベクトルの抽出を行う前処理として、各種フィルタ処理を行った場合における判定結果を示す説明図であり、(a)は比較例としてエッジ強調フィルタを用いた場合であり、(b)は本実施形態に係るバイラテラルフィルタを用いた場合である。
なお、欠陥サンプルとして、欠陥種類が既知の異物サンプル(6個)と、欠陥種類が既知の欠落サンプル(6個)を用いて、その欠陥種類(つまり、異物と欠落のどちらに該当するか)を判別させるようにした。ちなみに、図8(a),(b)いずれの場合も、特徴ベクトル抽出部107及び種類判別部108における処理内容は前記したものと同様である。
FIG. 8 is an explanatory diagram illustrating determination results when various filter processes are performed as pre-processing for extracting feature vectors. FIG. 8A illustrates a case where an edge enhancement filter is used as a comparative example. ) Is a case where the bilateral filter according to the present embodiment is used.
It should be noted that as a defect sample, a foreign matter sample (6 pieces) having a known defect type and a missing sample (6 pieces) having a known defect type are used, and the defect type (that is, whether a foreign matter or a missing piece is applicable). It was made to distinguish. Incidentally, in both cases of FIGS. 8A and 8B, the processing contents in the feature
図8(a)に示すエッジ強調処理を用いた場合(比較例)は、6個の異物サンプルのうち3個は「異物」と判別できたものの、残りの3個は「欠落」と判別した。また、6個の欠落サンプルのうち2個は「欠落」と判別できたものの、残りの4個は「異物」と判別した。その結果、異物サンプルに関する正答率は50%であり、欠落サンプルに関する正答率は33%であった。
これは、欠陥候補のエッジが欠ける部分が生じて、1つの欠陥候補を複数の欠陥候補として誤認識する場合があったためであると考えられる。
In the case of using the edge enhancement processing shown in FIG. 8A (comparative example), three of the six foreign matter samples could be judged as “foreign matter”, but the remaining three were judged as “missing”. . In addition, two of the six missing samples could be determined as “missing”, but the remaining four were determined as “foreign matter”. As a result, the correct answer rate for the foreign sample was 50%, and the correct answer rate for the missing sample was 33%.
This is considered to be because there was a case where a defect candidate had a missing edge, and one defect candidate was erroneously recognized as a plurality of defect candidates.
これに対して、図8(b)に示すバイラテラルフィルタを用いた場合(本実施形態)は、6個の異物サンプル全てを「異物」と判別し、6個の欠落サンプル全てを「欠落」と判別することができた。すなわち、異物サンプル及び欠落サンプルに関する正答率は、いずれも100%であった。
したがって、本実施形態では、前処理としてバイラテラルフィルタを用いることにより、特徴ベクトル抽出部107が精度よく欠陥候補の特徴ベクトルを抽出し、それに基づいて種類判別部108が適切に欠陥候補の種類を判別することができる。
On the other hand, when the bilateral filter shown in FIG. 8B is used (this embodiment), all six foreign samples are determined as “foreign” and all six missing samples are “missed”. It was possible to determine. That is, the correct answer rates for the foreign material sample and the missing sample were both 100%.
Therefore, in this embodiment, by using a bilateral filter as the preprocessing, the feature
また、本実施形態に係る欠陥検査装置100は、欠陥候補の種類、位置、及び面積を総合して欠陥に該当するか否かを判定するため、欠陥の有無をより適切に判定することができる。例えば、電極(図3(a)参照)に欠陥があるか否かを検査する際に、欠陥候補の種類が同一であり、面積がほぼ同一である場合であっても、その位置によって欠陥と判定すべきか否かが異なる場合がある。
In addition, since the
仮に、シフト不変性を有する高次局所自己相関処理を画像全体に対して行うと、種類及び面積がほぼ同一である場合、位置に関わらず同じ結論(欠陥に該当、又は非該当)を出してしまう。一方、本実施形態では、人間が目視で検査する場合と同様に、欠陥候補の種類だけでなく位置及び面積も考慮した判定処理を行うため、欠陥に該当するか否かを適切に判定することができる。 If high-order local autocorrelation processing with shift invariance is performed on the entire image, if the type and area are almost the same, the same conclusion (applicable to defect or not applicable) is issued regardless of position. End up. On the other hand, in the present embodiment, as in the case where a human visually inspects, determination processing is performed in consideration of not only the type of defect candidate but also the position and area, and therefore it is appropriately determined whether or not the defect is applicable. Can do.
また、フィルタ処理部106がバイラテラルフィルタを用いた処理を行うことによって特徴ベクトルの抽出精度は向上されるが、欠陥候補をその領域ごとに、ひとまとまりのものとして認識することは困難となる。これは、照明装置(図示せず)からの光の当たり具合によって、一つの欠陥候補領域のエッジのうちでも輝度差が生じることによる。
これに対して、本実施形態に係る欠陥検査装置100は、2値化した画像情報に基づいて領域情報取得部103が欠陥候補の領域情報を取得し、前記領域情報に基づいて特徴ベクトル抽出領域決定部105bが、特徴ベクトル抽出領域を決定する。
したがって、特徴ベクトル抽出部107は、決定された特徴ベクトル抽出領域(矩形領域)のそれぞれに欠陥候補が存在することとして特徴ベクトルの抽出を実行すればよいため、前記のような問題を解決することができる。
Further, although the
On the other hand, in the
Therefore, the feature
≪第2実施形態≫
図9は、本発明の第2実施形態に係る欠陥検査装置の構成図である。
本実施形態に係る欠陥検査装置100Aは、第1実施形態に係る欠陥検査装置100と比較して、程度値算出部111が追加されている点が異なるが、その他は第1実施形態と同様である。
したがって、当該異なる部分について説明し、その他については説明を省略する。
<< Second Embodiment >>
FIG. 9 is a configuration diagram of a defect inspection apparatus according to the second embodiment of the present invention.
The defect inspection apparatus 100A according to the present embodiment is different from the
Therefore, the different parts will be described, and the description of the other parts will be omitted.
程度値算出部111は、フィルタ処理部106によってフィルタ処理がなされた画像情報のうち、特徴ベクトル抽出領域決定部105bから入力される領域において、輝度値が所定値以上である画素が占める割合を欠陥候補の程度値として算出する。
なお、「程度値」は、例えば、検査対象物の表面に対する欠落の深さの度合いや、異物の突出具合などを示すものであり、程度値が大きいほど欠陥に該当する可能性が高くなる。また、輝度値が所定値以上である画素が占める割合と程度値との関係は、欠陥の種類ごとに適宜設定することができる。
The degree
Note that the “degree value” indicates, for example, the degree of the depth of a defect with respect to the surface of the inspection object, the degree of protrusion of foreign matter, and the like, and the greater the degree value, the higher the possibility of being a defect. In addition, the relationship between the ratio of the pixels whose luminance value is equal to or greater than a predetermined value and the degree value can be set as appropriate for each type of defect.
程度値算出部111は、フィルタ処理部106から入力される画像情報(バイラテラルフィルタがかけられた画像情報)のうち、特徴ベクトル抽出領域決定部105bから入力される領域(矩形領域)内の画像情報について、例えば、次のような処理を行う。
すなわち、程度値算出部111は、前記した矩形領域内の画素に対して、輝度が所定値以上である画素が占める割合を程度値として算出し、第2記憶部109に格納する。
The degree
That is, the degree
そして、欠陥判定部110は、種類判別部108によって判別される欠陥候補の種類と、位置算出部105aによって算出される欠陥候補の位置と、面積算出部104によって算出される欠陥候補の面積と、程度値算出部111によって算出される欠陥候補の程度値とのそれぞれを、予め与えられている判別基準と比較することによって、検査対象物の欠陥の有無を判定する。
Then, the
ここで、前記した「判別基準」とは、第1実施形態で説明した判別基準(位置情報、面積情報、及び種類情報)に加えて、さらに程度値情報を含み、検査対象物の欠陥の有無を判定する際の基準値を示す情報である。
なお、程度値情報(程度値のしきい値に関する情報)は、設定者によって予め与えられ、第1記憶部102に格納されている値である
Here, the above-mentioned “discrimination criterion” includes degree value information in addition to the discrimination criterion (position information, area information, and type information) described in the first embodiment, and whether there is a defect in the inspection object. It is the information which shows the reference value at the time of determining.
The degree value information (information about the threshold value of the degree value) is a value given in advance by the setter and stored in the
そして、欠陥判定部110は、検出した欠陥候補の種類、位置、及び面積に対応して設定されている判別基準値(ここでは、程度値のしきい値)と、その欠陥候補の程度値とを比較する。
程度値が前記しきい値以上である場合、欠陥判定部110は、その欠陥候補が欠陥に該当すると判定する。一方、程度値が前記しきい値未満である場合、欠陥判定部110は、その欠陥候補が欠陥に該当しないと判定する。
Then, the
If the degree value is equal to or greater than the threshold value, the
例えば、欠陥判定部110は、欠陥候補のサンプルとしての教師画像のうち、欠陥に該当する確率と輝度値との間に正の相関がある(つまり、輝度値が高いほど欠陥に該当する可能性が高い)種類については、次のような判定処理を行う。
すなわち、欠陥判定部110は、欠陥候補の種類に対応するしきい値と、当該欠陥候補の程度値とを比較して、前記程度値が前記しきい値以上である場合に欠陥に該当すると判定する。
一方、欠陥候補のサンプルとしての教師画像のうち、欠陥に該当する確率と輝度値との間に負の相関がある(つまり、輝度値が小さいほど欠陥に該当する可能性が高い)種類に対して、欠陥判定部110は、程度値が欠陥候補の種類に対応するしきい値以下である場合に、欠陥に該当すると判定する。
For example, the
That is, the
On the other hand, among teacher images as defect candidate samples, there is a negative correlation between the probability of being a defect and the luminance value (that is, the smaller the luminance value, the more likely it is a defect) The
<効果2>
本実施形態に係る欠陥検査装置100Aによれば、欠陥判定部110が欠陥の有無を判定する際に、欠陥候補の種類、位置及び面積に加えて、程度値算出部111により算出された欠陥候補の程度値も反映させる。つまり、検出した欠陥候補の種類、位置、及び面積に対応して設定されている判別基準値(ここでは、程度値のしきい値)と、その欠陥候補の程度値とを比較して、欠陥の有無を判定する。
したがって、欠陥判定部110は、検査対象物の欠陥の有無を適切に判定することができる。
<
According to the defect inspection apparatus 100A according to the present embodiment, when the
Therefore, the
≪第3実施形態≫
図10は、本発明の第3実施形態に係る欠陥検査装置の構成図である。
本実施形態に係る欠陥検査装置100Bは、第1実施形態に係る欠陥検査装置100と比較して、位置情報取得部105Bが、位置算出部105a、特徴ベクトル抽出領域決定部105bに加えて、さらに選別処理部105cを備えている点が異なるが、その他は第1実施形態と同様である。
したがって、当該異なる部分について説明し、その他については説明を省略する。
«Third embodiment»
FIG. 10 is a configuration diagram of a defect inspection apparatus according to the third embodiment of the present invention.
Compared to the
Therefore, the different parts will be described, and the description of the other parts will be omitted.
図10に示す選別処理部105cは、特徴ベクトル抽出領域決定部105bから入力される一つ又は複数の領域のうち、予め与えられている選別基準に基づいて、特徴ベクトル抽出部107によって特徴ベクトル抽出処理を行う領域を選別する(つまり、絞り込む)。
ここで、予め与えられている選別基準とは、設定者によって予め入力される位置情報及び面積情報を含み、特徴ベクトル抽出領域を絞り込む際の基準値を示す情報である。
The selection processing unit 105c illustrated in FIG. 10 performs feature vector extraction by the feature
Here, the selection criterion given in advance is information including position information and area information input in advance by the setter and indicating a reference value when narrowing down the feature vector extraction region.
例えば、面積S1の欠陥候補が、図3(a)に示す電極Eの中心付近にあった場合に、面積S1がある所定値以下であるときは、種類を判別するまでもなく欠陥に該当しないものとしてもよい場合がある。
一方、面積S2の欠陥候補が、図3(a)に示す固体高分子膜Mの縁付近にあった場合に、面積S2が前記した面積S1よりも小さくとも、欠陥に該当すると判断すべき場合もある。
なお、前記判断の基準となる値(つまり、選別基準情報)は、前記したように設定者によって予め入力され、第1記憶部102に格納されている。
For example, when the defect candidate of the area S1 is near the center of the electrode E shown in FIG. 3A, if the area S1 is equal to or less than a predetermined value, the type does not need to be identified and does not correspond to a defect. It may be good.
On the other hand, when the defect candidate of the area S2 is in the vicinity of the edge of the solid polymer film M shown in FIG. 3A, it should be determined that it corresponds to the defect even if the area S2 is smaller than the area S1. There is also.
It should be noted that the reference value (that is, the selection criterion information) is input in advance by the setter and stored in the
そして、選別処理部105cは、第2記憶部103から所定のラベリング値に対応する欠陥候補の位置情報及び面積情報を読み出し、さらに、第1記憶部102から選別基準情報を読み出す。そして、その欠陥候補の位置及び面積を、選別基準と照らし合わせることで、特徴ベクトル抽出処理を行うべきか否かを判定する。
Then, the sorting processing unit 105 c reads position information and area information of defect candidates corresponding to a predetermined labeling value from the second storage unit 103, and further reads sorting reference information from the
すなわち、前記選別基準と比較した場合に、前記位置及び面積のうち少なくとも一方が選別条件を満たさない場合(つまり、種類判別処理を行うまでもなく欠陥に該当しないことが明らかである場合)、選別処理部105cは、その欠陥候補を除外する。
一方、前記選別基準と比較した場合に、前記位置及び面積が選別条件を満たしている場合(つまり、種類判別処理を行った上で、欠陥判定処理を行う必要がある場合)、選別処理部105cは、次のような処理を行う。
That is, when compared with the selection criteria, if at least one of the position and area does not satisfy the selection condition (that is, if it is clear that the defect does not correspond to the type determination process), the selection is performed. The processing unit 105c excludes the defect candidate.
On the other hand, when the position and area satisfy the selection condition when compared with the selection criterion (that is, when the defect determination process needs to be performed after performing the type determination process), the selection processing unit 105c. Performs the following process.
すなわち、選別処理部105cは、特徴ベクトル抽出領域決定部105bによって取得された情報(例えば、図3(b)に示すTP2,TQ2の矩形領域を決定する情報)のうち、前記処理によって選別した欠陥候補に関する情報のみを、特徴ベクトル抽出部107に出力する。
そして、特徴ベクトル抽出部107は、選別処理部105cによって選別された欠陥候補に対応する特徴ベクトル抽出領域(矩形領域)についてのみ、特徴ベクトル抽出処理を行う。
That is, the sorting processing unit 105c selects the defect selected by the above processing from the information acquired by the feature vector extraction
Then, the feature
<効果3>
本実施形態に係る欠陥検査装置100Bによれば、選別処理部105cが、欠陥候補の位置及び面積を選別基準と照らし合わせることで、特徴ベクトル抽出処理を行うべき欠陥候補を選別する。そして、特徴ベクトル抽出部107は、前記した欠陥候補に対応する矩形領域についてのみ特徴ベクトルの抽出処理を行えばよい。
したがって、特徴ベクトル抽出部107における演算量を大幅に低減することができ、一連の欠陥検査処理に要するコスト及び時間も大幅に削減することができる。
<
According to the defect inspection apparatus 100B according to the present embodiment, the selection processing unit 105c selects defect candidates to be subjected to the feature vector extraction process by comparing the position and area of the defect candidates with the selection reference. Then, the feature
Therefore, the amount of calculation in the feature
≪変形例≫
以上、本発明に係る欠陥検査装置について各実施形態により説明したが、本発明の実施態様はこれらの記載に限定されるものではなく、種々の変更などを行うことができる。
例えば、前記各実施形態では、燃料電池に用いられる電極E及び固体高分子膜Mに欠陥があるか否かを検査することとしたが、これに限らない。すなわち、リチウムイオン電池や半導体材料など、さまざまな検査対象物について欠陥の有無を検査することができる。
≪Modification≫
The defect inspection apparatus according to the present invention has been described above with reference to the embodiments. However, the embodiments of the present invention are not limited to these descriptions, and various modifications can be made.
For example, in each of the above embodiments, it is determined whether or not the electrode E and the solid polymer film M used in the fuel cell are defective, but the present invention is not limited to this. That is, the presence or absence of defects can be inspected for various inspection objects such as lithium ion batteries and semiconductor materials.
また、前記各実施形態では、外部の撮像装置から画像情報が入力されることとしたが、これに限らない。画像情報は、記録媒体に記憶されているものであってもよいし、ネットワークを介して受信するものであってもよい。
また、前記実施形態では、2値化処理部103bが輝度値のヒストグラムから2群が最も分離される2値化しきい値を算出し、当該2値化しきい値に基づいて画像情報を2値化することとしたが、これに限らない。例えば、しきい値は、予め設定された所定値であってもよい。
In each of the above embodiments, image information is input from an external imaging device, but the present invention is not limited to this. The image information may be stored in a recording medium or received via a network.
In the embodiment, the
また、前記各実施形態では、位置算出部105aが欠陥候補の重心座標を算出し、位置情報として出力する場合について説明したが、これに限らない。例えば、欠陥候補の位置は、特徴ベクトル抽出領域決定部105bによって決定される矩形領域の中心位置(対角線が交わる位置)であってもよい。
また、前記各実施形態では、特徴ベクトル抽出領域決定部105bが、欠陥候補を含む矩形領域を特徴ベクトル抽出領域とする場合について説明したが、形状はこれに限らない。例えば、特徴ベクトル抽出領域として、中心の座標及び半径で決まる円形領域としてもよい。
In each of the above embodiments, the case where the
In each of the above embodiments, the case has been described in which the feature vector extraction
また、前記各実施形態では、フィルタ処理部106がバイラテラルフィルタを用いたフィルタ処理を行うこととしたが、これに限らない。例えば、フィルタ処理部106が、ABF(Adaptive Bilateral Filter)、MAX−MINフィルタ、又はソーベルフィルタを用いたフィルタ処理を行うこととしてもよい。
また、検査対象物及び撮像装置によっては、フィルタ処理部106を介さずとも特徴ベクトルの抽出に適した画像を得られる場合もある。このような場合、フィルタ処理部106を省略することとしてもよい。
In each of the above embodiments, the
Further, depending on the inspection object and the imaging apparatus, an image suitable for feature vector extraction may be obtained without using the
また、前記各実施形態では、事前学習部101が、マハラノビス汎距離を用いて教師画像情報の適否を判定することとしたが、これに限らない。例えば、カルバックライブラー(K−L)情報量基準、赤池の情報量基準(Akaike's Information Criterion:AIC)、又はマローズのCp(Mallows Cp)を用いて、教師画像情報の適否を判断することとしてもよい。
In the above embodiments, the
また、前記各実施形態では、欠陥候補の種類を10種類としたが、欠陥候補の種類は9種類以下又は11種類以上でもよい。
また、前記実施形態では、事前学習部101が判別分析処理を行って判別関数を導出し、種類判別部108が前記判別関数に基づいて欠陥候補の種類を判別することとしたが、これに限らない。
In each of the above embodiments, the number of defect candidates is ten, but the number of defect candidates may be nine or less or eleven or more.
In the embodiment, the
例えば、事前学習部101がサポートベクトルマシンを用いて学習し、それぞれの教師画像情報との距離を最大にする超平面を導くこととしてもよい。この場合、種類判別部108は、当該超平面に基づいて欠陥候補の種類を判別することとなる。
また、前記各実施形態では、欠陥検査装置100(100A)が、第1記憶部102と第2記憶部109とを備えることとしたが、これらを一体としてもよい。また、第1記憶部102及び第2記憶部109を、欠陥検査装置100(100A)の外部に備えることとしてもよい。
For example, the
In each of the above embodiments, the defect inspection apparatus 100 (100A) includes the
また、前記各実施形態では、設定者によって予め入力された教師画像情報(種類が既知である画像情報)に基づいて事前学習部101が事前学習を行った後に、欠陥検査処理を開始することとしたが、これに限らない。
すなわち、欠陥検査装置が、教師なし学習を行う学習部(図示せず)を、事前学習部101の代わりに備えることとしてもよい。前記学習部は、例えば、欠陥検査装置に入力されるサンプル画像情報(種類が未知である画像情報)について、特徴ベクトル抽出部107により抽出された特徴ベクトルを用いたクラスタリング処理を行う。
In each of the above embodiments, after the
That is, the defect inspection apparatus may include a learning unit (not shown) that performs unsupervised learning instead of the
クラスタリングの手法として、例えば、最短距離法や群平均法などの階層的クラスタリングや、k-means法などの非階層的クラスタリングを行うことができる。
また、前記学習部が、ニューラルネットワーク(Neural Network)を用いた学習処理を行うこととしてもよい。
As a clustering method, for example, hierarchical clustering such as the shortest distance method or group average method, or non-hierarchical clustering such as the k-means method can be performed.
The learning unit may perform a learning process using a neural network.
また、前記各実施形態では、欠陥検査装置100(100A)が事前学習部101を備えることとしたが、事前学習部101を備えない構成としてもよい。例えば、事前学習部101を備える装置を別体で設け、予め当該装置を用いて事前学習及び試験を行うこととし、前記装置が、導出した判別関数を欠陥検査装置の第1記憶手段102に格納することとしてもよい。
なお、この場合には、フィルタ処理部106及び特徴ベクトル抽出部107と同様の構成を、前記装置に備える必要がある。
In each of the above embodiments, the defect inspection apparatus 100 (100A) includes the
In this case, the apparatus needs to have the same configuration as the
また、欠陥検査装置が事前学習部101を備えない場合として、判別関数についての情報を記憶媒体から欠陥検査装置に入力してもよいし、ネットワークを介して外部から取得し、欠陥検査装置に入力してもよい。
また、前記各実施形態に係る処理は、コンピュータとソフトウェアプログラムによって実現することができ、そのプログラムをコンピュータが読み取り可能な記録媒体に記録して提供することが可能であり、また、ネットワークを介して提供することも可能である。
In addition, when the defect inspection apparatus does not include the
The processing according to each embodiment can be realized by a computer and a software program, and can be provided by recording the program on a computer-readable recording medium and via a network. It is also possible to provide.
100,100A,100B 欠陥検査装置
101 事前学習部
102 第1記憶部
103 領域情報取得部(領域情報取得手段)
103a 輝度情報生成部
103b 2値化処理部
104 面積算出部(面積算出手段)
105 位置情報取得部
105a 位置算出部(位置算出手段)
105b 特徴ベクトル抽出領域決定部(特徴ベクトル抽出領域決定手段)
106 フィルタ処理部(フィルタ処理手段)
107 特徴ベクトル抽出部(特徴ベクトル抽出手段)
108 種類判別部(種類判別手段)
109 第2記憶部
110 欠陥判定部(欠陥判定手段)
111 程度値算出部(程度値算出手段)
200 表示装置
100, 100A, 100B
103a Luminance
105 position
105b Feature vector extraction region determination unit (feature vector extraction region determination means)
106 Filter processing section (filter processing means)
107 feature vector extraction unit (feature vector extraction means)
108 type discriminator (type discriminating means)
109
111 degree value calculation unit (degree value calculation means)
200 Display device
Claims (9)
外部から入力される前記検査対象物の画像情報に対して2値化処理を行うことによって、欠陥候補に含まれる画素の座標値を抽出し、欠陥候補ごとの識別情報であるラベリング値と前記座標値とを対応付けた欠陥候補の領域情報を取得する領域情報取得手段と、
前記領域情報取得手段によって取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの位置を重心座標値として算出する位置算出手段と、
前記領域情報取得手段によって取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの面積を算出する面積算出手段と、
前記領域情報取得手段によって取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの特徴ベクトルを抽出する領域を決定する特徴ベクトル抽出領域決定手段と、
前記特徴ベクトル抽出領域決定手段によって決定される前記領域において、前記2値化処理前の画像情報に対して高次局所自己相関処理を行い、前記欠陥候補ごとの特徴ベクトルを抽出する特徴ベクトル抽出手段と、
前記特徴ベクトル抽出手段によって抽出されるそれぞれの特徴ベクトルと、予め与えられる境界条件とを比較することによって、前記欠陥候補の種類を判別する種類判別手段と、
前記種類判別手段によって判別される欠陥候補の種類と、前記位置算出手段によって算出される欠陥候補の位置と、前記面積算出手段によって算出される欠陥候補の面積とのそれぞれを、予め与えられる判別基準と比較することによって前記検査対象物の欠陥の有無を判定する欠陥判定手段と、を備える
ことを特徴とする欠陥検査装置。 A defect inspection apparatus that inspects the presence or absence of a defect of an inspection object based on image information of the inspection object,
By performing a binarization process on the image information of the inspection object input from the outside, the coordinate value of the pixel included in the defect candidate is extracted, and the labeling value and the coordinates as identification information for each defect candidate Area information acquisition means for acquiring area information of defect candidates associated with values;
Position calculation means for calculating the position of each defect candidate as a barycentric coordinate value based on the area information of the defect candidate acquired by the area information acquisition means;
Area calculating means for calculating an area for each defect candidate based on the area information of the defect candidate acquired by the area information acquiring means;
A feature vector extraction region determination unit that determines a region for extracting a feature vector for each defect candidate based on the region information of the defect candidate acquired by the region information acquisition unit;
Feature vector extraction means for performing high-order local autocorrelation processing on the image information before the binarization processing in the region determined by the feature vector extraction region determination means and extracting a feature vector for each defect candidate When,
A type discriminating unit that discriminates the type of the defect candidate by comparing each feature vector extracted by the feature vector extracting unit with a predetermined boundary condition;
Discrimination criteria given in advance for the types of defect candidates discriminated by the type discriminating means, the positions of defect candidates calculated by the position calculating means, and the areas of defect candidates calculated by the area calculating means, respectively. And a defect determination means for determining the presence or absence of a defect of the inspection object by comparing with the defect inspection apparatus.
前記特徴ベクトル抽出手段は、前記フィルタ処理手段によってフィルタ処理がなされた画像情報のうち、前記特徴ベクトル抽出領域決定手段によって決定される前記領域で高次局所自己相関処理を行い、前記欠陥候補の特徴ベクトルを抽出する
ことを特徴とする請求項1に記載の欠陥検査装置。 Filter processing means for applying a bilateral filter to the image information of the inspection object input from the outside,
The feature vector extraction unit performs high-order local autocorrelation processing on the region determined by the feature vector extraction region determination unit in the image information filtered by the filter processing unit, and the feature of the defect candidate The defect inspection apparatus according to claim 1, wherein a vector is extracted.
前記欠陥判定手段は、前記種類判別手段によって判別される欠陥候補の種類と、前記位置算出手段によって算出される欠陥候補の位置と、前記面積算出手段によって算出される欠陥候補の面積と、前記程度値算出手段によって算出される欠陥候補の程度値とのそれぞれを、予め与えられている前記判別基準と比較することによって、前記検査対象物の欠陥の有無を判定する
を特徴とする請求項2に記載の欠陥検査装置。 Of the image information filtered by the filter processing unit, a ratio of pixels having a luminance value equal to or greater than a predetermined value in the region input from the feature vector extraction region determination unit is set as the defect candidate degree value. A degree value calculating means for calculating,
The defect determination means includes a defect candidate type determined by the type determination means, a position of the defect candidate calculated by the position calculation means, an area of the defect candidate calculated by the area calculation means, and the degree 3. The presence / absence of a defect in the inspection object is determined by comparing each of the defect candidate degree values calculated by the value calculating means with the determination criterion given in advance. Defect inspection apparatus as described.
ことを特徴とする請求項1から請求項3のいずれか一項に記載の欠陥検査装置。 The type discriminating unit discriminates the type of the defect candidate by using, as the boundary condition, a hyperplane determined by a discriminant function derived in advance from teacher image information whose type of defect candidate is known. The defect inspection apparatus according to any one of claims 1 to 3.
前記欠陥検査装置が、
外部から入力される前記検査対象物の画像情報に対して2値化処理を行うことによって、欠陥候補に含まれる画素の座標値を抽出し、欠陥候補ごとの識別情報であるラベリング値と前記座標値とを対応付けた欠陥候補の領域情報を取得する領域情報取得ステップと、
前記領域情報取得ステップで取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの位置を重心座標値として算出する位置算出ステップと、
前記領域情報取得ステップで取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの面積を算出する面積算出ステップと、
前記領域情報取得ステップで取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの特徴ベクトルを抽出する領域を決定する特徴ベクトル抽出領域決定ステップと、
前記特徴ベクトル抽出領域決定ステップで決定される前記領域において、前記2値化処理前の画像情報に対して高次局所自己相関処理を行い、前記欠陥候補ごとの特徴ベクトルを抽出する特徴ベクトル抽出ステップと、
前記特徴ベクトル抽出ステップで抽出されるそれぞれの特徴ベクトルと、予め与えられる境界条件とを比較することによって、前記欠陥候補の種類を判別する種類判別ステップと、
前記種類判別ステップで判別される欠陥候補の種類と、前記位置算出ステップで算出される欠陥候補の位置と、前記面積算出ステップで算出される欠陥候補の面積とのそれぞれを、予め与えられている判別基準と比較することによって前記検査対象物の欠陥の有無を判定する欠陥判定ステップと、を実行する
ことを特徴とする欠陥検査方法。 A defect inspection method performed by a defect inspection apparatus that inspects the presence or absence of a defect of an inspection object based on image information of the inspection object,
The defect inspection apparatus is
By performing a binarization process on the image information of the inspection object input from the outside, the coordinate value of the pixel included in the defect candidate is extracted, and the labeling value and the coordinates as identification information for each defect candidate An area information acquisition step of acquiring area information of defect candidates associated with values;
A position calculating step for calculating the position of each defect candidate as a barycentric coordinate value based on the area information of the defect candidate acquired in the area information acquiring step;
An area calculating step for calculating an area for each defect candidate based on the area information of the defect candidate acquired in the area information acquiring step;
A feature vector extraction region determination step for determining a region for extracting a feature vector for each defect candidate based on the region information of the defect candidate acquired in the region information acquisition step;
A feature vector extraction step of performing a high-order local autocorrelation process on the image information before the binarization process and extracting a feature vector for each defect candidate in the region determined in the feature vector extraction region determination step When,
A type determination step of determining the type of the defect candidate by comparing each feature vector extracted in the feature vector extraction step with a boundary condition given in advance;
The defect candidate type determined in the type determination step, the position of the defect candidate calculated in the position calculation step, and the area of the defect candidate calculated in the area calculation step are given in advance. A defect determination step of performing a defect determination step of determining the presence or absence of a defect of the inspection object by comparing with a determination criterion.
前記特徴ベクトル抽出ステップでは、前記フィルタ処理ステップでフィルタ処理がなされた画像情報のうち、前記特徴ベクトル抽出領域決定ステップで決定される前記領域で高次局所自己相関処理を行い、前記欠陥候補の特徴ベクトルを抽出する
ことを特徴とする請求項5に記載の欠陥検査方法。 Including a filtering step of applying a bilateral filter to the image information of the inspection object input from the outside,
In the feature vector extraction step, high-order local autocorrelation processing is performed in the region determined in the feature vector extraction region determination step in the image information filtered in the filter processing step, and the feature of the defect candidate The defect inspection method according to claim 5, wherein a vector is extracted.
前記欠陥判定ステップでは、前記種類判別ステップで判別される欠陥候補の種類と、前記位置算出ステップで算出される欠陥候補の位置と、前記面積算出ステップで算出される欠陥候補の面積と、前記程度値算出ステップで算出される欠陥候補の程度値とのそれぞれを、予め与えられている前記判別基準と比較することによって、前記検査対象物の欠陥の有無を判定する
を特徴とする請求項6に記載の欠陥検査方法。 Of the image information subjected to the filtering process in the filtering process step, a ratio of pixels having a luminance value equal to or larger than a predetermined value in the area determined in the feature vector extraction area determining step is set as the defect candidate degree value. A degree value calculating step for calculating,
In the defect determination step, the type of defect candidate determined in the type determination step, the position of the defect candidate calculated in the position calculation step, the area of the defect candidate calculated in the area calculation step, and the degree The presence / absence of a defect in the inspection object is determined by comparing each of the defect candidate degree values calculated in the value calculation step with the predetermined determination criterion. Described defect inspection method.
ことを特徴とする請求項5から請求項7のいずれか一項に記載の欠陥検査方法。 The type of defect determination is characterized in that the type of defect candidate is determined using the hyperplane determined by a discriminant function derived in advance from teacher image information whose type of defect candidate is known as the boundary condition. Item 8. The defect inspection method according to any one of Items 5 to 7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012032336A JP2013167596A (en) | 2012-02-17 | 2012-02-17 | Defect inspection device, defect inspection method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012032336A JP2013167596A (en) | 2012-02-17 | 2012-02-17 | Defect inspection device, defect inspection method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013167596A true JP2013167596A (en) | 2013-08-29 |
Family
ID=49178095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012032336A Pending JP2013167596A (en) | 2012-02-17 | 2012-02-17 | Defect inspection device, defect inspection method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013167596A (en) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016142739A (en) * | 2015-02-05 | 2016-08-08 | 東友ファインケム株式会社Dongwoo Fine−Chem Co., Ltd. | Method for inspecting film |
JP2017054331A (en) * | 2015-09-10 | 2017-03-16 | 株式会社Screenホールディングス | Image sorting method, method for configuring sorter, and image sorting device |
JP2017096853A (en) * | 2015-11-26 | 2017-06-01 | 株式会社リコー | Information processing device, defect detection method and program |
JP6358351B1 (en) * | 2017-03-21 | 2018-07-18 | Jfeスチール株式会社 | Surface defect inspection method and surface defect inspection apparatus |
JP2019066267A (en) * | 2017-09-29 | 2019-04-25 | 清水建設株式会社 | Crack detector, crack detection method, and computer program |
JP2019078640A (en) * | 2017-10-25 | 2019-05-23 | Jfeスチール株式会社 | Surface defect detection method and surface defect detector |
KR20190128111A (en) * | 2018-05-07 | 2019-11-15 | 제네럴 일렉트릭 컴퍼니 | Quality monitoring system and quality monitoring method for fuel cell manufacturing line and quality monitoring system for manufacturing line |
JP2020016514A (en) * | 2018-07-25 | 2020-01-30 | シーシーエス株式会社 | Assisting device for optical inspection systems |
JP2020085546A (en) * | 2018-11-19 | 2020-06-04 | 国立研究開発法人産業技術総合研究所 | System for supporting inspection and repair of structure |
WO2020137222A1 (en) * | 2018-12-28 | 2020-07-02 | オムロン株式会社 | Defect inspecting device, defect inspecting method, and program for same |
JP2020107008A (en) * | 2018-12-27 | 2020-07-09 | 東洋製罐グループホールディングス株式会社 | Image processing system, and image processing program |
WO2020175666A1 (en) * | 2019-02-28 | 2020-09-03 | 大日本印刷株式会社 | Color filter inspection device, inspection device, color filter inspection method, and inspection method |
CN112577978A (en) * | 2019-09-30 | 2021-03-30 | 本田技研工业株式会社 | Electrode structure inspection method |
CN112782190A (en) * | 2019-11-07 | 2021-05-11 | 三星显示有限公司 | Defect inspection device |
JP2021110629A (en) * | 2020-01-09 | 2021-08-02 | 株式会社小糸製作所 | Inspection device and method for inspection |
KR20210097623A (en) * | 2020-01-30 | 2021-08-09 | 한국전자통신연구원 | Method and apparatus for detecting dimension error |
WO2021185404A1 (en) * | 2020-03-20 | 2021-09-23 | Schaeffler Technologies AG & Co. KG | Method and test facility for testing a bipolar plate of an electrochemical cell, in particular of a fuel cell |
JPWO2022074746A1 (en) * | 2020-10-06 | 2022-04-14 | ||
KR20230081910A (en) * | 2021-11-30 | 2023-06-08 | (주)자비스 | Method, apparatus and system for ensemble non-constructing inspection of object based on artificial intelligence |
CN116699428A (en) * | 2023-08-08 | 2023-09-05 | 深圳市杰成镍钴新能源科技有限公司 | Defect detection method and device for retired battery |
CN116990229A (en) * | 2023-09-26 | 2023-11-03 | 南通赛可特电子有限公司 | Defect detection method and system for copper plating layer surface of product |
CN117250208A (en) * | 2023-11-20 | 2023-12-19 | 青岛天仁微纳科技有限责任公司 | Machine vision-based nano-imprint wafer defect accurate detection system and method |
JP7531200B1 (en) | 2023-12-18 | 2024-08-09 | 株式会社日立パワーソリューションズ | Wind turbine blade repair support device and wind turbine blade repair support method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006098151A (en) * | 2004-09-29 | 2006-04-13 | Dainippon Screen Mfg Co Ltd | Pattern inspection device and pattern inspection method |
JP2010038723A (en) * | 2008-08-05 | 2010-02-18 | Hitachi Chem Co Ltd | Flaw inspecting method |
JP2010151655A (en) * | 2008-12-25 | 2010-07-08 | Hitachi High-Technologies Corp | Defect inspection method and apparatus therefore |
JP2011058940A (en) * | 2009-09-09 | 2011-03-24 | Panasonic Electric Works Co Ltd | Apparatus and method for visual inspection |
JP2011516374A (en) * | 2008-03-31 | 2011-05-26 | ビーティー イメージング ピーティーワイ リミテッド | Wafer imaging and processing method and apparatus |
JP2011237302A (en) * | 2010-05-11 | 2011-11-24 | Sumco Corp | Device and method for wafer defect inspection |
-
2012
- 2012-02-17 JP JP2012032336A patent/JP2013167596A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006098151A (en) * | 2004-09-29 | 2006-04-13 | Dainippon Screen Mfg Co Ltd | Pattern inspection device and pattern inspection method |
JP2011516374A (en) * | 2008-03-31 | 2011-05-26 | ビーティー イメージング ピーティーワイ リミテッド | Wafer imaging and processing method and apparatus |
JP2010038723A (en) * | 2008-08-05 | 2010-02-18 | Hitachi Chem Co Ltd | Flaw inspecting method |
JP2010151655A (en) * | 2008-12-25 | 2010-07-08 | Hitachi High-Technologies Corp | Defect inspection method and apparatus therefore |
JP2011058940A (en) * | 2009-09-09 | 2011-03-24 | Panasonic Electric Works Co Ltd | Apparatus and method for visual inspection |
JP2011237302A (en) * | 2010-05-11 | 2011-11-24 | Sumco Corp | Device and method for wafer defect inspection |
Cited By (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI679611B (en) * | 2015-02-05 | 2019-12-11 | 南韓商東友精細化工有限公司 | Method for inspecting film |
KR20160096461A (en) * | 2015-02-05 | 2016-08-16 | 동우 화인켐 주식회사 | Method for inspecting film |
CN105869143A (en) * | 2015-02-05 | 2016-08-17 | 东友精细化工有限公司 | Method for inspecting film |
KR101694337B1 (en) * | 2015-02-05 | 2017-01-09 | 동우 화인켐 주식회사 | Method for inspecting film |
JP2016142739A (en) * | 2015-02-05 | 2016-08-08 | 東友ファインケム株式会社Dongwoo Fine−Chem Co., Ltd. | Method for inspecting film |
CN105869143B (en) * | 2015-02-05 | 2020-06-05 | 东友精细化工有限公司 | Film inspection method |
JP2017054331A (en) * | 2015-09-10 | 2017-03-16 | 株式会社Screenホールディングス | Image sorting method, method for configuring sorter, and image sorting device |
JP2017096853A (en) * | 2015-11-26 | 2017-06-01 | 株式会社リコー | Information processing device, defect detection method and program |
US10859507B2 (en) | 2017-03-21 | 2020-12-08 | Jfe Steel Corporation | Surface defect inspection method and surface defect inspection apparatus |
JP2018155690A (en) * | 2017-03-21 | 2018-10-04 | Jfeスチール株式会社 | Surface defect inspection method and surface defect inspection device |
WO2018173660A1 (en) * | 2017-03-21 | 2018-09-27 | Jfeスチール株式会社 | Surface defect inspection method and surface defect inspection device |
JP6358351B1 (en) * | 2017-03-21 | 2018-07-18 | Jfeスチール株式会社 | Surface defect inspection method and surface defect inspection apparatus |
JP2019066267A (en) * | 2017-09-29 | 2019-04-25 | 清水建設株式会社 | Crack detector, crack detection method, and computer program |
JP2019078640A (en) * | 2017-10-25 | 2019-05-23 | Jfeスチール株式会社 | Surface defect detection method and surface defect detector |
KR102507661B1 (en) * | 2018-05-07 | 2023-03-07 | 제네럴 일렉트릭 컴퍼니 | Quality monitoring system and quality monitoring method for fuel cell manufacturing line and quality monitoring system for manufacturing line |
KR20190128111A (en) * | 2018-05-07 | 2019-11-15 | 제네럴 일렉트릭 컴퍼니 | Quality monitoring system and quality monitoring method for fuel cell manufacturing line and quality monitoring system for manufacturing line |
JP2020016514A (en) * | 2018-07-25 | 2020-01-30 | シーシーエス株式会社 | Assisting device for optical inspection systems |
JP7257750B2 (en) | 2018-07-25 | 2023-04-14 | シーシーエス株式会社 | Support device for optical inspection system |
JP2020085546A (en) * | 2018-11-19 | 2020-06-04 | 国立研究開発法人産業技術総合研究所 | System for supporting inspection and repair of structure |
JP7517641B2 (en) | 2018-11-19 | 2024-07-17 | 国立研究開発法人産業技術総合研究所 | Structure inspection and repair support system |
JP2020107008A (en) * | 2018-12-27 | 2020-07-09 | 東洋製罐グループホールディングス株式会社 | Image processing system, and image processing program |
JP2020106467A (en) * | 2018-12-28 | 2020-07-09 | オムロン株式会社 | Defect inspection device, defect inspection method, and program therefor |
US11830174B2 (en) | 2018-12-28 | 2023-11-28 | Omron Corporation | Defect inspecting device, defect inspecting method, and storage medium |
WO2020137222A1 (en) * | 2018-12-28 | 2020-07-02 | オムロン株式会社 | Defect inspecting device, defect inspecting method, and program for same |
WO2020175666A1 (en) * | 2019-02-28 | 2020-09-03 | 大日本印刷株式会社 | Color filter inspection device, inspection device, color filter inspection method, and inspection method |
JPWO2020175666A1 (en) * | 2019-02-28 | 2020-09-03 | ||
JP7415286B2 (en) | 2019-02-28 | 2024-01-17 | 大日本印刷株式会社 | Color filter inspection equipment, inspection equipment, color filter inspection method and inspection method |
TWI822968B (en) * | 2019-02-28 | 2023-11-21 | 日商大日本印刷股份有限公司 | Color filter inspection device, inspection device, color filter inspection method, and inspection method |
CN112577978A (en) * | 2019-09-30 | 2021-03-30 | 本田技研工业株式会社 | Electrode structure inspection method |
CN112782190A (en) * | 2019-11-07 | 2021-05-11 | 三星显示有限公司 | Defect inspection device |
JP2021110629A (en) * | 2020-01-09 | 2021-08-02 | 株式会社小糸製作所 | Inspection device and method for inspection |
JP7546356B2 (en) | 2020-01-09 | 2024-09-06 | 株式会社小糸製作所 | Inspection device and inspection method |
KR20210097623A (en) * | 2020-01-30 | 2021-08-09 | 한국전자통신연구원 | Method and apparatus for detecting dimension error |
KR102700755B1 (en) * | 2020-01-30 | 2024-08-30 | 한국전자통신연구원 | Method and apparatus for detecting dimension error |
CN115088125A (en) * | 2020-03-20 | 2022-09-20 | 舍弗勒技术股份两合公司 | Method and inspection device for inspecting bipolar plates of electrochemical cells, in particular fuel cells |
WO2021185404A1 (en) * | 2020-03-20 | 2021-09-23 | Schaeffler Technologies AG & Co. KG | Method and test facility for testing a bipolar plate of an electrochemical cell, in particular of a fuel cell |
JP2023514753A (en) * | 2020-03-20 | 2023-04-07 | シェフラー テクノロジーズ アー・ゲー ウント コー. カー・ゲー | Method and apparatus for testing bipolar plates of electrochemical cells, in particular fuel cells |
JP7438382B2 (en) | 2020-03-20 | 2024-02-26 | シェフラー テクノロジーズ アー・ゲー ウント コー. カー・ゲー | Method and testing device for testing bipolar plates of electrochemical cells, especially fuel cells |
JP7410442B2 (en) | 2020-10-06 | 2024-01-10 | 日本電信電話株式会社 | Deterioration detection device, deterioration detection method, and program |
WO2022074746A1 (en) * | 2020-10-06 | 2022-04-14 | 日本電信電話株式会社 | Deterioration detection apparatus, deterioration detection method, and program |
JPWO2022074746A1 (en) * | 2020-10-06 | 2022-04-14 | ||
WO2023101374A1 (en) * | 2021-11-30 | 2023-06-08 | (주)자비스 | Artificial intelligence-based non-destructive ensemble testing method, device, and system for object |
KR102597081B1 (en) * | 2021-11-30 | 2023-11-02 | (주)자비스 | Method, apparatus and system for ensemble non-constructing inspection of object based on artificial intelligence |
KR20230081910A (en) * | 2021-11-30 | 2023-06-08 | (주)자비스 | Method, apparatus and system for ensemble non-constructing inspection of object based on artificial intelligence |
CN116699428B (en) * | 2023-08-08 | 2023-10-10 | 深圳市杰成镍钴新能源科技有限公司 | Defect detection method and device for retired battery |
CN116699428A (en) * | 2023-08-08 | 2023-09-05 | 深圳市杰成镍钴新能源科技有限公司 | Defect detection method and device for retired battery |
CN116990229B (en) * | 2023-09-26 | 2023-12-08 | 南通赛可特电子有限公司 | Defect detection method and system for copper plating layer surface of product |
CN116990229A (en) * | 2023-09-26 | 2023-11-03 | 南通赛可特电子有限公司 | Defect detection method and system for copper plating layer surface of product |
CN117250208B (en) * | 2023-11-20 | 2024-02-06 | 青岛天仁微纳科技有限责任公司 | Machine vision-based nano-imprint wafer defect accurate detection system and method |
CN117250208A (en) * | 2023-11-20 | 2023-12-19 | 青岛天仁微纳科技有限责任公司 | Machine vision-based nano-imprint wafer defect accurate detection system and method |
JP7531200B1 (en) | 2023-12-18 | 2024-08-09 | 株式会社日立パワーソリューションズ | Wind turbine blade repair support device and wind turbine blade repair support method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013167596A (en) | Defect inspection device, defect inspection method, and program | |
JP5546317B2 (en) | Visual inspection device, visual inspection discriminator generation device, visual inspection discriminator generation method, and visual inspection discriminator generation computer program | |
CN111179251B (en) | Defect detection system and method based on twin neural network and by utilizing template comparison | |
JP6061713B2 (en) | Inspection apparatus, inspection method and program | |
CN113592845A (en) | Defect detection method and device for battery coating and storage medium | |
CN111292305A (en) | Improved YOLO-V3 metal processing surface defect detection method | |
WO2014087689A1 (en) | Image processing device, image processing system, and program | |
JP2019061484A (en) | Image processing device and control method thereof and program | |
CN114092387A (en) | Generating training data usable for examining a semiconductor sample | |
CN116012291A (en) | Industrial part image defect detection method and system, electronic equipment and storage medium | |
CN109462999B (en) | Visual inspection method based on learning through data balance and visual inspection device using same | |
CN111814852B (en) | Image detection method, image detection device, electronic equipment and computer readable storage medium | |
CN107016394B (en) | Cross fiber feature point matching method | |
CN116152242B (en) | Visual detection system of natural leather defect for basketball | |
CN117798087B (en) | Visual sorting system and terminal for lithium battery based on appearance defect detection | |
CN113516619B (en) | Product surface flaw identification method based on image processing technology | |
Ghosh et al. | Counterfeit IC detection by image texture analysis | |
CN114049316A (en) | Steel wire rope defect detection method based on metallic luster area | |
KR101929669B1 (en) | The method and apparatus for analyzing an image using an entropy | |
JP2023523426A (en) | Abnormal wafer image classification | |
CN114170168A (en) | Display module defect detection method, system and computer readable storage medium | |
CN113822836B (en) | Method for marking an image | |
CN118038454A (en) | Wafer defect root cause analysis method and device based on proprietary large model | |
CN117036314A (en) | Method for detecting oxidation area of high-density flexible IC substrate | |
CN116188445A (en) | Product surface defect detection and positioning method and device and terminal equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150828 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150908 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151109 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160329 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20160620 |