Nothing Special   »   [go: up one dir, main page]

JP2013167596A - Defect inspection device, defect inspection method, and program - Google Patents

Defect inspection device, defect inspection method, and program Download PDF

Info

Publication number
JP2013167596A
JP2013167596A JP2012032336A JP2012032336A JP2013167596A JP 2013167596 A JP2013167596 A JP 2013167596A JP 2012032336 A JP2012032336 A JP 2012032336A JP 2012032336 A JP2012032336 A JP 2012032336A JP 2013167596 A JP2013167596 A JP 2013167596A
Authority
JP
Japan
Prior art keywords
defect
feature vector
defect candidate
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012032336A
Other languages
Japanese (ja)
Inventor
Minoru Furubayashi
実 古林
Toshiya Watanabe
寿也 渡辺
Sadatoshi Tsuji
禎年 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2012032336A priority Critical patent/JP2013167596A/en
Publication of JP2013167596A publication Critical patent/JP2013167596A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a defect inspection device, a defect inspection method, and a program capable of properly determining the presence/absence of defects in an inspection object.SOLUTION: A defect inspection device includes: an area information obtaining portion 103 for performing binarization processing on image information of an inspection object, and obtaining area information of a defect candidate; a position calculating portion 105a for calculating a position of the defect candidate; an area calculating portion 104 for calculating an area of the defect candidate; a feature vector extracting area deciding portion 105b for deciding an area for extracting a feature vector of the defect candidate; a feature vector extracting portion 107 for extracting a feature vector of the detect candidate; a type discriminating portion 108 for discriminating a type of the defect candidate by comparing each feature vector extracted by the feature vector extracting portion 107 with a boundary condition given in advance; and a defect determining portion 110 for determining the presence/absence of a defect in the inspection object by comparing the type, position, and area of the defect candidate respectively with discrimination references given in advance.

Description

本発明は、検査対象物の欠陥の有無を、その検査対象物から得られる画像情報に基づいて検査する欠陥検査装置、欠陥検査方法及びプログラムに関する。   The present invention relates to a defect inspection apparatus, a defect inspection method, and a program for inspecting whether there is a defect in an inspection object based on image information obtained from the inspection object.

燃料電池やリチウムイオン電池などの製造工程において、電極の表面に欠陥があるか否かを検査する技術が知られている。
例えば、特許文献1には、検査対象物である電極基板にX線を照射して透過像を取得し、その透過像に基づいて金属不純物粒子(欠陥)が存在する部分を検出する技術について記載されている。
A technique for inspecting whether or not a surface of an electrode is defective in a manufacturing process of a fuel cell, a lithium ion battery, or the like is known.
For example, Patent Document 1 describes a technique for acquiring a transmission image by irradiating an electrode substrate, which is an inspection object, with X-rays, and detecting a portion where metal impurity particles (defects) exist based on the transmission image. Has been.

また、特許文献2には、搬送中の電極用素材の上流側から光を照射して得られる第1画像データと、下流側から光を照射して得られる第2画像データとを用いて、異物(欠陥)の形状を判別する技術について記載されている。   Patent Document 2 uses the first image data obtained by irradiating light from the upstream side of the electrode material being conveyed, and the second image data obtained by irradiating light from the downstream side, A technique for discriminating the shape of a foreign object (defect) is described.

特開2006−179424号公報JP 2006-179424 A 特開2010−25566号公報Japanese Unexamined Patent Publication No. 2010-25566

しかしながら、特許文献1に記載の技術では、金属不純物粒子の有無は検出できるものの、金属不純物粒子の形状を自動的に識別することができないという問題がある。また、電極用素材の表面に欠落部分(窪み部分)が存在していたとしても、X線透過像では当該欠落部分を検出できない可能性がある。   However, although the technique described in Patent Document 1 can detect the presence or absence of metal impurity particles, there is a problem that the shape of the metal impurity particles cannot be automatically identified. Moreover, even if a missing portion (a hollow portion) exists on the surface of the electrode material, there is a possibility that the missing portion cannot be detected in the X-ray transmission image.

また、特許文献2に記載の技術では、前記第1画像データと前記第2画像データとを合成した総合画像データにおいて、輝度値が所定値以上である範囲(輪郭)内における画素数などを用いて異物(欠陥)の形状を判別している。したがって、例えば、「円形」や「馬蹄形」というように、異物の大まかな形状を推定できるにとどまる。   In the technique described in Patent Document 2, the total number of pixels in a range (outline) in which the luminance value is equal to or greater than a predetermined value is used in the total image data obtained by combining the first image data and the second image data. The shape of the foreign matter (defect) is discriminated. Therefore, it is only possible to estimate the rough shape of a foreign object, such as “circular” or “horse-shoe”.

一般に、検査対象物である電極用素材の画像情報から欠陥の有無を検出するに際しては、欠陥の種類を適切に判別する必要がある。また、前記種類の他に、欠陥の位置や面積などを考慮した上で、欠陥の有無を総合的に判定することが望ましい。このようにきめ細かな判定を行うために、従来は、最終的に人間が目視することで欠陥の有無を判定する必要があり、そのために多大な時間とコストを要した。   Generally, when detecting the presence or absence of a defect from image information of an electrode material that is an inspection object, it is necessary to appropriately determine the type of the defect. In addition to the above types, it is desirable to comprehensively determine the presence / absence of a defect in consideration of the position and area of the defect. In order to make such a detailed determination, conventionally, it has been necessary to finally determine the presence or absence of a defect by visually observing it, and therefore, a great deal of time and cost are required.

そこで、本発明は、検査対象物の欠陥の有無を適切に判定することができる欠陥検査装置、欠陥検査方法及びプログラムを提供することを課題とする。   Then, this invention makes it a subject to provide the defect inspection apparatus, the defect inspection method, and program which can determine appropriately the presence or absence of the defect of a test target object.

前記課題を解決するために、本発明に係る欠陥検査装置は、検査対象物の欠陥の有無を、前記検査対象物の画像情報に基づいて検査する欠陥検査装置であって、外部から入力される前記検査対象物の画像情報に対して2値化処理を行うことによって、欠陥候補に含まれる画素の座標値を抽出し、欠陥候補ごとの識別情報であるラベリング値と前記座標値とを対応付けた欠陥候補の領域情報を取得する領域情報取得手段と、前記領域情報取得手段によって取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの位置を重心座標値として算出する位置算出手段と、前記領域情報取得手段によって取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの面積を算出する面積算出手段と、前記領域情報取得手段によって取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの特徴ベクトルを抽出する領域を決定する特徴ベクトル抽出領域決定手段と、前記特徴ベクトル抽出領域決定手段によって決定される前記領域において、前記2値化処理前の画像情報に対して高次局所自己相関処理を行い、前記欠陥候補ごとの特徴ベクトルを抽出する特徴ベクトル抽出手段と、前記特徴ベクトル抽出手段によって抽出されるそれぞれの特徴ベクトルと、予め与えられる境界条件とを比較することによって、前記欠陥候補の種類を判別する種類判別手段と、前記種類判別手段によって判別される欠陥候補の種類と、前記位置算出手段によって算出される欠陥候補の位置と、前記面積算出手段によって算出される欠陥候補の面積とのそれぞれを、予め与えられる判別基準と比較することによって前記検査対象物の欠陥の有無を判定する欠陥判定手段と、を備えることを特徴とする。   In order to solve the above-described problem, a defect inspection apparatus according to the present invention is a defect inspection apparatus that inspects whether there is a defect in an inspection object based on image information of the inspection object, and is input from the outside. By performing binarization processing on the image information of the inspection object, the coordinate value of the pixel included in the defect candidate is extracted, and the labeling value, which is identification information for each defect candidate, is associated with the coordinate value. Area information acquisition means for acquiring area information of the defect candidates, and position calculation means for calculating the position of each defect candidate as a barycentric coordinate value based on the area information of the defect candidates acquired by the area information acquisition means; , An area calculation unit that calculates an area for each defect candidate based on the region information of the defect candidate acquired by the region information acquisition unit, and before the acquisition by the region information acquisition unit In the region determined by the feature vector extraction region determination unit, a feature vector extraction region determination unit that determines a region for extracting a feature vector for each defect candidate based on the region information of the defect candidate, and the binarization process A feature vector extracting unit that performs high-order local autocorrelation processing on the previous image information and extracts a feature vector for each defect candidate, and each feature vector extracted by the feature vector extracting unit is given in advance By comparing the boundary condition, a type determining unit that determines the type of the defect candidate, a type of defect candidate determined by the type determining unit, a position of the defect candidate calculated by the position calculating unit, Each of the defect candidate areas calculated by the area calculating means is compared with a predetermined criterion. Characterized in that it comprises a defect determination unit determines the presence or absence of a defect of the inspection object by.

このような構成によれば、領域情報取得手段は、外部から入力される前記検査対象物の画像情報に対して2値化処理を行うことによって、欠陥候補に含まれる画素の座標値を抽出し、欠陥候補ごとの識別情報であるラベリング値と前記座標値とを対応付けた欠陥候補の領域情報を取得する(領域情報取得ステップ)。そして、特徴ベクトル抽出領域決定手段は、領域情報取得手段によって取得される欠陥候補の領域情報に基づいて、欠陥候補ごとの特徴ベクトルを抽出する領域を決定する(特徴ベクトル抽出領域決定ステップ)。
さらに、特徴ベクトル抽出手段は、特徴ベクトル抽出領域決定手段によって決定される前記領域において、前記2値化処理前の画像情報に対して高次局所自己相関処理を行い、欠陥候補ごとの特徴ベクトルを抽出する(特徴ベクトル抽出ステップ)。
According to such a configuration, the area information acquisition unit extracts the coordinate value of the pixel included in the defect candidate by performing binarization processing on the image information of the inspection object input from the outside. Then, area information of defect candidates is obtained by associating a labeling value, which is identification information for each defect candidate, with the coordinate value (area information acquisition step). Then, the feature vector extraction region determination unit determines a region for extracting a feature vector for each defect candidate based on the defect candidate region information acquired by the region information acquisition unit (a feature vector extraction region determination step).
Further, the feature vector extraction unit performs high-order local autocorrelation processing on the image information before the binarization processing in the region determined by the feature vector extraction region determination unit, and obtains a feature vector for each defect candidate. Extract (feature vector extraction step).

したがって、領域情報取得手段は2値化処理を行い、欠陥候補ごとのラベリング値と座標値とを対応付けることで、欠陥候補の領域情報を容易かつ正確に取得することができる。
また、特徴ベクトル抽出手段が欠陥候補の特徴ベクトルを抽出する領域は、検査対象物の画像全体ではなく、特徴ベクトル抽出領域決定手段によって決定される所定領域となるため、特徴ベクトル抽出手段における演算量を大幅に低減することができる。
Therefore, the area information acquisition means performs binarization processing and associates the labeling value and the coordinate value for each defect candidate, so that the area information of the defect candidate can be acquired easily and accurately.
In addition, since the area from which the feature vector extraction unit extracts the feature vector of the defect candidate is not the entire image of the inspection object but a predetermined region determined by the feature vector extraction region determination unit, the amount of calculation in the feature vector extraction unit Can be greatly reduced.

また、種類判別手段は、特徴ベクトル抽出手段によって抽出されるそれぞれの特徴ベクトルと、予め与えられる境界条件とを比較することによって欠陥候補の種類を判別する(種類判別ステップ)。
そして、欠陥判定手段は、種類判別手段によって判別される欠陥候補の種類と、位置算出手段(位置算出ステップ)によって算出される欠陥候補の位置と、面積算出手段(面積算出ステップ)によって算出される欠陥候補の面積とのそれぞれを、予め与えられる判別基準と比較することによって前記検査対象物の欠陥の有無を判定する(欠陥判定ステップ)。
Further, the type discriminating unit discriminates the type of the defect candidate by comparing each feature vector extracted by the feature vector extracting unit with a boundary condition given in advance (type discriminating step).
The defect determination means is calculated by the defect candidate type determined by the type determination means, the position of the defect candidate calculated by the position calculation means (position calculation step), and the area calculation means (area calculation step). The presence / absence of a defect in the inspection object is determined by comparing each of the areas of the defect candidates with a predetermined determination criterion (defect determination step).

つまり、欠陥判定手段は、欠陥候補の種類、位置、及び面積に基づいて、検査対象物に欠陥が存在するか否かを総合的に判定する。したがって、本発明に係る欠陥検査装置によれば、検査対象物の欠陥の有無を適切に判定することができる。   That is, the defect determination means comprehensively determines whether or not a defect exists in the inspection target based on the type, position, and area of the defect candidate. Therefore, according to the defect inspection apparatus according to the present invention, it is possible to appropriately determine the presence or absence of a defect in the inspection object.

また、本発明に係る前記欠陥検査装置において、外部から入力される前記検査対象物の画像情報に対してバイラテラルフィルタをかけるフィルタ処理手段を備え、前記特徴ベクトル抽出手段は、前記フィルタ処理手段によってフィルタ処理がなされた画像情報のうち、前記特徴ベクトル抽出領域決定手段によって決定される前記領域で高次局所自己相関処理を行い、前記欠陥候補の特徴ベクトルを抽出することが好ましい。   In the defect inspection apparatus according to the present invention, the defect inspection apparatus further includes a filter processing unit that applies a bilateral filter to image information of the inspection object input from the outside, and the feature vector extraction unit is provided by the filter processing unit. It is preferable that high-order local autocorrelation processing is performed on the region determined by the feature vector extraction region determination unit in the image information subjected to the filter processing to extract the feature vector of the defect candidate.

このような構成によれば、フィルタ処理手段が検査対象物の画像情報に対してバイラテラルフィルタをかけ、特徴ベクトル抽出手段は、バイラテラルフィルタをかけた画像情報に対して欠陥候補の特徴ベクトルを抽出する(フィルタ処理ステップ)。
ここで、バイラテラルフィルタは、エッジを保持しつつも画像全体としては平滑化処理を行うものである。これによって特徴ベクトル抽出手段は、バイラテラルフィルタをかけた画像情報に対して欠陥候補の特徴ベクトルを抽出するため、欠陥候補ごとの特徴ベクトルを適切に抽出することができる。
According to such a configuration, the filter processing unit applies a bilateral filter to the image information of the inspection object, and the feature vector extraction unit outputs the feature vector of the defect candidate to the image information subjected to the bilateral filter. Extract (filtering step).
Here, the bilateral filter performs smoothing processing on the entire image while retaining edges. As a result, the feature vector extracting means extracts the feature vector of the defect candidate from the image information subjected to the bilateral filter, and thus can appropriately extract the feature vector for each defect candidate.

また、本発明に係る前記欠陥検査装置において、前記フィルタ処理手段によってフィルタ処理がなされた画像情報のうち、前記特徴ベクトル抽出領域決定手段から入力される前記領域において、輝度値が所定値以上である画素が占める割合を前記欠陥候補の程度値として算出する程度値算出手段を備え、前記欠陥判定手段は、前記種類判別手段によって判別される欠陥候補の種類と、前記位置算出手段によって算出される欠陥候補の位置と、前記面積算出手段によって算出される欠陥候補の面積と、前記程度値算出手段によって算出される欠陥候補の程度値とのそれぞれを、予め与えられている前記判別基準と比較することによって、前記検査対象物の欠陥の有無を判定することが好ましい。   In the defect inspection apparatus according to the present invention, in the image information filtered by the filter processing unit, the luminance value is not less than a predetermined value in the region input from the feature vector extraction region determining unit. A degree value calculating unit that calculates a ratio of pixels as a degree value of the defect candidate, and the defect determining unit includes a defect candidate type determined by the type determining unit and a defect calculated by the position calculating unit. Each of the candidate position, the area of the defect candidate calculated by the area calculating unit, and the degree value of the defect candidate calculated by the degree value calculating unit are compared with the predetermined determination criterion. It is preferable to determine the presence or absence of a defect in the inspection object.

このような構成によれば、フィルタ処理手段から入力される画像情報のうち、特徴ベクトル抽出領域決定手段から入力される前記領域において、輝度値が所定値以上である画素が占める割合を前記欠陥候補の程度値として算出する(程度値算出ステップ)。
そして、欠陥判定手段は、欠陥の有無を判定する際に、欠陥候補の種類、位置及び面積に加えて、欠陥候補の程度値も反映させる。したがって、欠陥判定手段は、検査対象物の欠陥の有無を適切に判定することができる。
なお、輝度値が所定値以上である画素が占める割合と程度値との関係は、欠陥の種類ごとに適宜設定することができる。
According to such a configuration, in the image information input from the filter processing unit, a ratio of pixels having a luminance value equal to or greater than a predetermined value in the region input from the feature vector extraction region determination unit is determined as the defect candidate. Is calculated as a degree value (degree value calculation step).
Then, the defect determination means reflects the degree value of the defect candidate in addition to the type, position, and area of the defect candidate when determining the presence or absence of the defect. Therefore, the defect determination means can appropriately determine the presence or absence of a defect in the inspection object.
It should be noted that the relationship between the ratio and the degree value occupied by pixels having a luminance value equal to or greater than a predetermined value can be set as appropriate for each type of defect.

また、本発明に係る前記欠陥検査装置において、前記種類判別手段は、欠陥候補の種類が既知である教師画像情報から予め導出される判別関数で決定される超平面を前記境界条件として、前記欠陥候補の種類を判別することが好ましい。   Further, in the defect inspection apparatus according to the present invention, the type determination unit uses the hyperplane determined by a determination function derived in advance from teacher image information in which the type of defect candidate is known as the boundary condition. It is preferable to determine the type of candidate.

このような構成によれば、種類判別手段が、教師画像情報から予め導出される判別関数で決定される超平面を境界条件として欠陥候補の種類を判別することで、欠陥候補の種類を適切に判別することができる。   According to such a configuration, the type determination unit appropriately determines the type of defect candidate by determining the type of defect candidate using a hyperplane determined by a discriminant function derived in advance from the teacher image information as a boundary condition. Can be determined.

また、本発明は、前記欠陥検査方法を、コンピュータである前記欠陥検査装置に実行させるためのプログラムである。
本発明に係るプログラムによれば、検査対象物の欠陥の有無を適切に判定することができる欠陥検査方法を、欠陥検査装置に実行させることができる。
Moreover, this invention is a program for making the said defect inspection apparatus which is a computer perform the said defect inspection method.
According to the program according to the present invention, it is possible to cause a defect inspection apparatus to execute a defect inspection method that can appropriately determine the presence or absence of a defect in an inspection object.

本発明により、検査対象物の欠陥の有無を適切に判定することができる欠陥検査装置、欠陥検査方法及びプログラムを提供することができる。   According to the present invention, it is possible to provide a defect inspection apparatus, a defect inspection method, and a program that can appropriately determine the presence or absence of a defect in an inspection object.

本発明の第1実施形態に係る欠陥検査装置の構成図である。1 is a configuration diagram of a defect inspection apparatus according to a first embodiment of the present invention. 複数の教師画像ついて、欠落重心からのマハラノビス汎距離と、異物重心からのマハラノビス汎距離を算出してプロットした図である。It is the figure which calculated and plotted the Mahalanobis general distance from the missing gravity center and the Mahalanobis general distance from the foreign material gravity center for a plurality of teacher images. (a)は検査対象物の画像の説明図であり、(b)は2値化処理部による2値化処理後の画像の説明図であり、(c)はフィルタ処理部によるフィルタ処理後の画像の説明図である。(A) is explanatory drawing of the image of a test object, (b) is explanatory drawing of the image after the binarization process by a binarization process part, (c) is after the filter process by a filter process part It is explanatory drawing of an image. (a)は外部から入力される検査対象物の画像情報における輝度のヒストグラムであり(b)はフィルタ処理部によって分布が変化された場合における輝度のヒストグラムである。(A) is a brightness | luminance histogram in the image information of the test object input from the outside, (b) is a brightness | luminance histogram when distribution is changed by the filter process part. 特徴ベクトル抽出部が行う高次局所自己相関処理の説明図である。It is explanatory drawing of the high-order local autocorrelation process which a feature vector extraction part performs. 欠陥候補の種類、位置及び面積に基づいて、欠陥に該当するか否かを判別する際の基準を示す説明図である。It is explanatory drawing which shows the reference | standard at the time of discriminating whether it corresponds to a defect based on the kind, position, and area of a defect candidate. 欠陥判定部の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a defect determination part. 特徴ベクトルの抽出を行う前処理として、各種フィルタ処理を行った場合における判定結果を示す説明図であり、(a)は比較例としてエッジ強調フィルタを用いた場合であり、(b)は本実施形態に係るバイラテラルフィルタを用いた場合である。It is explanatory drawing which shows the determination result at the time of performing various filter processing as pre-processing which extracts a feature vector, (a) is a case where an edge emphasis filter is used as a comparative example, (b) is this implementation This is a case where the bilateral filter according to the embodiment is used. 本発明の第2実施形態に係る欠陥検査装置の構成図である。It is a block diagram of the defect inspection apparatus which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る欠陥検査装置の構成図である。It is a block diagram of the defect inspection apparatus which concerns on 3rd Embodiment of this invention.

以下、本発明を実施するための形態(以下、実施形態と記す)について、適宜図面を参照しながら詳細に説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。   Hereinafter, modes for carrying out the present invention (hereinafter referred to as embodiments) will be described in detail with reference to the drawings as appropriate. In addition, the same code | symbol is attached | subjected to the common part in each figure, and the overlapping description is abbreviate | omitted.

≪第1実施形態≫
<欠陥検査装置の構成>
図1は、本発明の第1実施形態に係る欠陥検査装置の構成図である。欠陥検査装置100は、検査対象物の欠陥の有無を、当該検査対象物の画像情報に基づいて検査するものである。以下の説明では例として、欠陥検査装置100が、燃料電池の電極及び固体高分子膜(Proton Exchange Membrane:PEM)の表面に欠陥があるか否かを検査する場合について説明する。
なお、以下の説明において、前記した電極及び固体高分子膜など、欠陥検査装置100の検査対象となる物を総称して「検査対象物」と記す。
<< First Embodiment >>
<Configuration of defect inspection device>
FIG. 1 is a configuration diagram of a defect inspection apparatus according to the first embodiment of the present invention. The defect inspection apparatus 100 inspects the presence / absence of a defect in the inspection object based on image information of the inspection object. In the following description, as an example, a case will be described in which the defect inspection apparatus 100 inspects whether or not there is a defect on the surface of a fuel cell electrode and a solid polymer membrane (Proton Exchange Membrane: PEM).
In the following description, objects to be inspected by the defect inspection apparatus 100 such as the electrodes and the solid polymer film are collectively referred to as “inspection objects”.

また、「欠陥」とは、検査対象物に存在する不良箇所であり、例えば、欠落(窪み)又は異物が存在する箇所を含むものとする。欠陥を有する検査対象物は、廃棄又は再利用の対象となる。
また、「欠陥候補」とは、検査対象物のうち前記した欠陥に該当する可能性がある箇所を示すものとする。
Further, the “defect” is a defective portion existing in the inspection target, and includes, for example, a portion where a missing portion (dent) or a foreign object exists. An inspection object having a defect becomes a target for disposal or reuse.
Further, the “defect candidate” indicates a portion that may correspond to the above-described defect in the inspection object.

図1に示すように、欠陥検査装置100は、事前学習部101と、第1記憶部102と、領域情報取得部103と、面積算出部104と、位置情報取得部105と、フィルタ処理部106と、特徴ベクトル抽出部107と、種類判別部108と、第2記憶部109と、欠陥判定部110と、を備える。
欠陥検査装置100は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、各種インタフェースなどの電子回路(図示せず)を含んで構成され、ROMに記憶されたプログラムを読み出してRAMに展開し、CPUが各種処理を実行するようになっている。
As illustrated in FIG. 1, the defect inspection apparatus 100 includes a pre-learning unit 101, a first storage unit 102, a region information acquisition unit 103, an area calculation unit 104, a position information acquisition unit 105, and a filter processing unit 106. A feature vector extraction unit 107, a type determination unit 108, a second storage unit 109, and a defect determination unit 110.
The defect inspection apparatus 100 includes an electronic circuit (not shown) such as a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and various interfaces, and a program stored in the ROM. Are loaded into the RAM, and the CPU executes various processes.

本実施形態に係る欠陥検査装置100は、欠陥の有無を調べる検査処理を開始する前に、外部から入力される教師画像情報に基づいた事前学習処理を行う。
したがって、まず、事前学習処理に関わる構成ついて説明した後に、その学習結果を用いた欠陥検査処理に関わる構成について説明する。
The defect inspection apparatus 100 according to the present embodiment performs a pre-learning process based on teacher image information input from the outside before starting an inspection process for checking the presence / absence of a defect.
Therefore, after first describing the configuration related to the pre-learning process, the configuration related to the defect inspection process using the learning result will be described.

(1.事前学習処理に関わる構成)
事前学習部101は、外部から入力される教師画像情報を用いた事前学習を行う。当該教師画像情報は、欠陥検査装置100の設定を行う者(以下、設定者と記す。)が予め用意した欠陥候補の画像情報である。
ちなみに、「欠陥候補」は複数種類存在し(例えば、異物P1、欠落Q1など:図3(a)参照)、「欠陥」は欠陥候補画像のうち所定の基準(種類、位置、及び面積)を満たすものである。
また、本実施形態では例として、欠陥候補の種類が全部で10種類である場合について説明する。
(1. Configuration related to pre-learning processing)
The pre-learning unit 101 performs pre-learning using teacher image information input from the outside. The teacher image information is image information of defect candidates prepared in advance by a person who sets the defect inspection apparatus 100 (hereinafter referred to as a setter).
Incidentally, there are a plurality of types of “defect candidates” (for example, foreign matter P1, missing Q1, etc .: see FIG. 3A), and “defects” are predetermined criteria (type, position, and area) of defect candidate images. To meet.
In the present embodiment, as an example, a case where there are 10 types of defect candidates in total will be described.

まず、予めそれぞれの欠陥候補の種類ごとに複数個ずつ(例えば、6個ずつ)のサンプルが設定者によって用意され、教師画像情報として事前学習部101に入力される。また、教師画像情報のサンプルの種類(種類1,・・・,種類10)が、その教師画像情報と対応付けて事前学習部101に入力される。
事前学習部101は、入力された教師画像情報及び種類に所定の識別記号を対応させ、第1記憶部102に格納する。
First, a plurality of (for example, six) samples are prepared in advance by the setter for each defect candidate type, and input to the pre-learning unit 101 as teacher image information. In addition, the sample type (type 1,..., Type 10) of the teacher image information is input to the pre-learning unit 101 in association with the teacher image information.
The pre-learning unit 101 associates a predetermined identification symbol with the input teacher image information and type, and stores them in the first storage unit 102.

次に、事前学習部101は、第1記憶部102から教師画像情報及び識別記号を順次読み出して、フィルタ処理部106に出力する。そして、入力された教師画像情報ごとに、フィルタ処理部106がフィルタ処理を行い、特徴ベクトル抽出部107が教師画像情報の特徴ベクトルを抽出する。さらに、特徴ベクトル抽出部107は、抽出した特徴ベクトルに関する情報を、前記した識別記号と対応付けて第1記憶部102に格納する。
なお、フィルタ処理部106及び特徴ベクトル抽出部107よる処理の詳細については、後記する。
Next, the pre-learning unit 101 sequentially reads the teacher image information and the identification symbol from the first storage unit 102 and outputs them to the filter processing unit 106. Then, for each input teacher image information, the filter processing unit 106 performs a filter process, and the feature vector extraction unit 107 extracts a feature vector of the teacher image information. Further, the feature vector extraction unit 107 stores information on the extracted feature vector in the first storage unit 102 in association with the above-described identification symbol.
Details of processing by the filter processing unit 106 and the feature vector extraction unit 107 will be described later.

特徴ベクトル抽出部107により全ての教師画像情報について特徴ベクトルが抽出されると、事前学習部101は第1記憶部102から教師画像情報の特徴ベクトルを読み出し、当該特徴ベクトルを用いた判別分析処理を実行する。すなわち、事前学習部101は、それぞれの教師画像情報の特徴ベクトルに基づいて、全変動Sに対する群間変動Sの割合で表される相関比ηを最大とする判別関数を導出し、第1記憶部102に格納する。 When feature vectors are extracted for all teacher image information by the feature vector extraction unit 107, the pre-learning unit 101 reads the feature vector of the teacher image information from the first storage unit 102, and performs discriminant analysis processing using the feature vector. Run. That is, the pre-learning unit 101, based on the feature vector of each teaching image data, a correlation ratio eta 2 represented by the ratio of intergroup variation S B to the total variation S T derives a discriminant function to maximize, Store in the first storage unit 102.

次に、事前学習部101は、種類判別部108に対して種類判別処理を実行させる指令信号を出力する。前記信号が入力されると種類判別部108は、第1記憶部102から教師画像情報の特徴ベクトルを順次読み出し、前記した判別関数を用いてその種類(種類1,・・・,種類10のどれに該当するか)を判別する。そして、種類判別部108は、判別した種類を教師画像情報の識別記号と対応付けて第1記憶部102に格納する。
さらに、事前学習部101は、種類が同一である複数の教師画像情報の特徴ベクトルの重心座標を算出し、その種類と対応付けて第1記憶部102に格納する。
Next, the pre-learning unit 101 outputs a command signal that causes the type determination unit 108 to execute the type determination process. When the signal is input, the type discriminating unit 108 sequentially reads the feature vector of the teacher image information from the first storage unit 102, and uses the discriminant function to determine the type (type 1,..., Type 10). Is determined). Then, the type determination unit 108 stores the determined type in the first storage unit 102 in association with the identification symbol of the teacher image information.
Further, the pre-learning unit 101 calculates the barycentric coordinates of the feature vectors of the plurality of teacher image information of the same type, and stores them in the first storage unit 102 in association with the types.

したがって、第1記憶部102には、設定者によって予め入力された教師画像情報の種類と、判別関数を用いて種類判別部108により判別された教師画像情報の種類と、が識別記号に対応付けて格納されることになる。
また、第1記憶部102には、教師画像情報の重心座標値に関する情報が、その種類ごとに格納されることになる。
Therefore, in the first storage unit 102, the type of the teacher image information input in advance by the setter and the type of the teacher image information determined by the type determination unit 108 using the discrimination function are associated with the identification symbols. Will be stored.
Further, the first storage unit 102 stores information regarding the barycentric coordinate value of the teacher image information for each type.

次に、事前学習部101は、種類判別部108の正答率に基づいて学習の適否を判定する。前記正答率は、種類判別部108によって判別された種類が正しかった(設定者によって入力された種類と一致した)サンプル数と、全ての教師画像情報のサンプル数との比率で表される。この正答率が予め設定された所定値以上である場合、事前学習部101は学習が適切であったと判断する。一方、正答率が前記所定値未満である場合、事前学習部101は学習が不適切であったと判断する。   Next, the pre-learning unit 101 determines the suitability of learning based on the correct answer rate of the type determining unit 108. The correct answer rate is represented by a ratio between the number of samples in which the type determined by the type determination unit 108 is correct (matches the type input by the setter) and the number of samples of all teacher image information. When the correct answer rate is equal to or higher than a predetermined value set in advance, the pre-learning unit 101 determines that learning is appropriate. On the other hand, when the correct answer rate is less than the predetermined value, the pre-learning unit 101 determines that the learning is inappropriate.

また、正答率が前記した所定値以上であった場合でも、教師画像情報自体が適切でない可能性もあり得る。すなわち、設定者が選択した教師画像データの特徴ベクトルのうち、その種類の重心座標から隔たっているものが存在する場合もある。
したがって、事前学習部101は、種類ごと(種類判別部108によって判別された種類ごと)の重心座標を第1記憶部102から読み出し、それぞれの特徴ベクトルと重心座標とのマハラノビス汎距離を算出して表示装置200に出力する。ちなみに、マハラノビス汎距離とは、ユークリッド距離を分散で標準化した距離である。
Moreover, even when the correct answer rate is equal to or higher than the predetermined value, there is a possibility that the teacher image information itself is not appropriate. That is, there may be a feature vector of the teacher image data selected by the setter that is separated from the barycentric coordinates of that type.
Accordingly, the pre-learning unit 101 reads out the barycentric coordinates for each type (for each type determined by the type determining unit 108) from the first storage unit 102, and calculates the Mahalanobis general distance between each feature vector and the barycentric coordinates. The data is output to the display device 200. Incidentally, the Mahalanobis generalized distance is a distance obtained by standardizing Euclidean distance by dispersion.

これによって設定者は、入力したそれぞれの教師画像情報について、種類判別部108の判別結果と、重心座標からのマハラノビス汎距離を知ることができる。
図2は、複数の教師画像について、欠落重心からのマハラノビス汎距離と、異物重心からのマハラノビス汎距離を算出してプロットした図である。図2に示す例では、教師画像情報として2種類の欠陥サンプル(欠落サンプル:6個、異物サンプル:6個)の画像について特徴ベクトルを抽出し、それぞれの種類の重心座標からのマハラノビス汎距離を算出してプロットした。
Thus, the setter can know the discrimination result of the type discrimination unit 108 and the Mahalanobis general distance from the barycentric coordinates for each input teacher image information.
FIG. 2 is a diagram in which the Mahalanobis general distance from the missing center of gravity and the Mahalanobis general distance from the foreign object center of gravity are calculated and plotted for a plurality of teacher images. In the example shown in FIG. 2, feature vectors are extracted from images of two types of defect samples (missing samples: 6, foreign matter samples: 6) as teacher image information, and Mahalanobis general distances from the centroid coordinates of each type are extracted. Calculated and plotted.

図2に示す例では、領域p1に含まれるデータは欠落サンプルの教師画像情報に対応し、領域q1,q2に含まれるデータは異物サンプルの教師画像情報に対応する。したがって、種類判別部108は、事前学習部101によって導出された判別関数に基づいて、欠陥の種類を適切に判別していることが分かる。
また、図2において、領域q2のデータは欠落重心からの距離が比較的小さくなっているが、当該データに対応する異物サンプルは、その形状が他の異物サンプルと若干異なっていた。
In the example shown in FIG. 2, the data included in the region p1 corresponds to the teacher image information of the missing sample, and the data included in the regions q1 and q2 corresponds to the teacher image information of the foreign material sample. Therefore, it can be seen that the type discriminating unit 108 appropriately discriminates the type of defect based on the discriminant function derived by the prior learning unit 101.
In FIG. 2, the distance q from the missing center of gravity is relatively small in the data of the region q2, but the shape of the foreign material sample corresponding to the data is slightly different from the other foreign material samples.

したがって、設定者は、図2に示す例において、事前学習部101に入力した教師画像情報が適切であったことがわかる。ちなみに、事前学習が不適切であったと判定した場合、事前学習部101は、設定者によって変更された教師画像情報に基づいて、事前学習を再度実行して判別関数を導出する。
このようにして、事前学習部101は適切な判別関数を導出し、図1に示す第1記憶部102に格納する。
Therefore, the setter knows that the teacher image information input to the pre-learning unit 101 is appropriate in the example shown in FIG. Incidentally, when it is determined that the pre-learning is inappropriate, the pre-learning unit 101 performs the pre-learning again based on the teacher image information changed by the setter to derive a discriminant function.
In this way, the pre-learning unit 101 derives an appropriate discriminant function and stores it in the first storage unit 102 shown in FIG.

ちなみに、教師画像情報の説明変数の次元数は、前記した特徴ベクトル抽出部107によって抽出される特徴ベクトルの次元数(33次元)である。したがって、事前学習部101は、変数増減法などを用いて教師画像情報を表す33次元のうち、それぞれの種類の識別に寄与している複数個(例えば、5個)の説明変数を特定し、当該説明変数を用いて判別関数を表すようにすることが好ましい。
これによって、教師画像情報の種類を適切に分類できる判別関数を導出できるとともに、後記する種類判別部108の処理負荷を低減することができる。
Incidentally, the number of dimensions of the explanatory variable of the teacher image information is the number of dimensions of the feature vector (33 dimensions) extracted by the feature vector extraction unit 107 described above. Therefore, the pre-learning unit 101 specifies a plurality (for example, five) explanatory variables contributing to the identification of each type among the 33 dimensions representing the teacher image information using a variable increase / decrease method, It is preferable to represent the discriminant function using the explanatory variable.
As a result, a discriminant function that can appropriately classify the type of teacher image information can be derived, and the processing load of the type discriminating unit 108 to be described later can be reduced.

また、図1に示すように、第1記憶部102には、欠陥判定部110が欠陥の有無を判定する際の基準となる判別基準情報(位置情報及び面積情報)が設定者によって予め入力される。なお、当該判別基準情報の詳細については後記する。   Further, as shown in FIG. 1, discrimination reference information (position information and area information) serving as a reference when the defect determination unit 110 determines the presence / absence of a defect is input to the first storage unit 102 in advance by a setter. The Details of the discrimination criterion information will be described later.

(2.欠陥検査処理に関わる構成)
欠陥検査処理は、前記で説明した事前学習処理が終了した後に、検査対象物の画像情報が欠陥検査装置100に入力され、ユーザが入力手段(マウスなど:図示せず)を介して所定の操作を行うことにより開始される。
なお、検査対象物の画像情報は、例えば、照明装置(図示せず)によって光を照射された検査対象物を、CCD(Charge Coupled Device)カメラなどの撮像装置(図示せず)で撮像することによって取得することができる。
(2. Configuration related to defect inspection processing)
In the defect inspection process, after the pre-learning process described above is completed, the image information of the inspection object is input to the defect inspection apparatus 100, and the user performs a predetermined operation via an input unit (such as a mouse: not shown). Is started.
The image information of the inspection object is obtained by, for example, imaging the inspection object irradiated with light by an illumination device (not shown) with an imaging device (not shown) such as a CCD (Charge Coupled Device) camera. Can be obtained by:

検査対象物が燃料電池の電極及び固体高分子膜である場合、外部の撮像装置から入力される画像情報(以下、単に画像情報と記す。)は、図3(a)のようになる。
図3(a)に示すように、検査対象物は、固体高分子膜Mの上に電極Eが貼り合わされている。また、電極Eの右上に欠落P1があり、電極Eの左下に異物Q1がある。
ちなみに、図3(a)では説明のため、欠陥候補(欠落P1及び異物Q1)を実際の寸法よりも大きく記載している(後記する図3(b)、図3(c)についても同様)。
When the inspection object is an electrode of a fuel cell and a solid polymer membrane, image information (hereinafter simply referred to as image information) input from an external imaging device is as shown in FIG.
As shown in FIG. 3A, the inspection object has an electrode E bonded on a solid polymer film M. Further, there is a missing P1 on the upper right side of the electrode E, and a foreign substance Q1 on the lower left side of the electrode E.
Incidentally, in FIG. 3A, for the purpose of explanation, defect candidates (missing P1 and foreign matter Q1) are shown larger than actual dimensions (the same applies to FIGS. 3B and 3C described later). .

領域情報取得部103は、外部から入力される検査対象物の画像情報に対して2値化処理を行うことによって、欠陥候補に含まれる画素の座標値を抽出し、欠陥候補ごとの識別情報であるラベリング値と前記座標値とを対応付けた欠陥候補の領域情報を取得する。
ここで、「欠陥候補の領域情報」とは、欠陥候補が占める領域と、それ以外の領域とを区別するとともに、それぞれの欠陥候補を識別するための情報である。例えば、領域情報取得部103は、欠陥候補が占める領域の画素値を1とし、欠陥候補でない領域の画素値を0とする。
The region information acquisition unit 103 performs a binarization process on the image information of the inspection object input from the outside, thereby extracting the coordinate value of the pixel included in the defect candidate, and using the identification information for each defect candidate. The defect candidate area information in which a certain labeling value is associated with the coordinate value is acquired.
Here, the “defect candidate area information” is information for distinguishing the area occupied by the defect candidate from other areas and identifying each defect candidate. For example, the area information acquisition unit 103 sets the pixel value of the area occupied by the defect candidate to 1 and sets the pixel value of the area that is not the defect candidate to 0.

領域情報取得部103は、輝度情報生成部103aと、2値化処理部103bとを備えている。輝度情報生成部103aは、外部の撮像装置から入力される画像情報から輝度情報を生成する。すなわち、入力される画像情報の全ての画素についてRGBデータからYUVデータに変換し、各画素のY値(輝度値)を輝度情報として2値化処理部103bに出力する。   The area information acquisition unit 103 includes a luminance information generation unit 103a and a binarization processing unit 103b. The luminance information generation unit 103a generates luminance information from image information input from an external imaging device. That is, all the pixels of the input image information are converted from RGB data to YUV data, and the Y value (luminance value) of each pixel is output to the binarization processing unit 103b as luminance information.

2値化処理部103bは、輝度情報生成部103aから入力される輝度情報に基づいて2値化処理を行う。例えば、2値化処理部103bは、輝度値のヒストグラムから2群が最も分離される2値化しきい値を算出する。そして、2値化処理部103bは、輝度値が前記2値化しきい値以上である画素に1を対応させ、輝度値が前記2値化しきい値未満である画素に0を対応させる。   The binarization processing unit 103b performs binarization processing based on the luminance information input from the luminance information generation unit 103a. For example, the binarization processing unit 103b calculates a binarization threshold value at which the two groups are most separated from the luminance value histogram. Then, the binarization processing unit 103b associates 1 with a pixel whose luminance value is greater than or equal to the binarization threshold, and associates 0 with a pixel whose luminance value is less than the binarization threshold.

さらに、2値化処理部103bは、画素値が1である画素のうち隣接する(又はユークリッド距離が所定値以下である)画素同士を同じ領域として識別し、それぞれの領域に対してラベリングする。
例えば、2値化処理部103bは、図3(a)に示す画像に対して2値化処理を行い、欠落P1に対応する領域P2、及び、異物Q1に対応する領域Q2の画素値を1とする(図3(b)参照)。また、2値化処理部103bは、領域P2,Q2以外の領域の画素値を全て0とする。
Further, the binarization processing unit 103b identifies adjacent pixels (or a Euclidean distance equal to or smaller than a predetermined value) among pixels having a pixel value of 1 as the same region, and labels each region.
For example, the binarization processing unit 103b performs binarization processing on the image illustrated in FIG. 3A, and sets the pixel values of the region P2 corresponding to the missing P1 and the pixel value of the region Q2 corresponding to the foreign matter Q1 to 1. (See FIG. 3B). In addition, the binarization processing unit 103b sets all pixel values in regions other than the regions P2 and Q2 to 0.

さらに、2値化処理部103bは、図3(b)に示す領域P2,Q2をそれぞれ1つの領域として識別し、領域P2,Q2に対してラベリングを行う。すなわち、2値化処理部103bは、欠陥候補ごとの識別情報であるラベリング値と、欠陥候補に含まれる画素(それぞれの欠陥候補内の一群の画素)の座標値とを対応付けた欠陥候補の領域情報を取得する。
このようにして2値化処理部103bは欠陥候補の領域情報を取得し、面積算出部104及び位置情報取得部105に出力する。
Further, the binarization processing unit 103b identifies each of the areas P2 and Q2 shown in FIG. 3B as one area, and performs labeling on the areas P2 and Q2. That is, the binarization processing unit 103b associates a labeling value, which is identification information for each defect candidate, with a coordinate value of a pixel (a group of pixels in each defect candidate) included in the defect candidate. Get region information.
In this way, the binarization processing unit 103b acquires defect candidate region information and outputs the defect candidate region information to the area calculation unit 104 and the position information acquisition unit 105.

面積算出部104は、領域情報取得部103によって取得される欠陥候補の領域情報に基づいて、欠陥候補ごとの面積を算出する。すなわち、面積算出部104は、前記したラベリング値が同一である領域の画素数(つまり、欠陥候補の面積)を算出する。そして、面積算出部104は、欠陥候補ごとの面積値を前記したラベリング値と対応付けて第2記憶部109に格納する。   The area calculation unit 104 calculates the area for each defect candidate based on the defect candidate region information acquired by the region information acquisition unit 103. In other words, the area calculation unit 104 calculates the number of pixels in the region having the same labeling value (that is, the area of the defect candidate). Then, the area calculation unit 104 stores the area value for each defect candidate in the second storage unit 109 in association with the labeling value described above.

位置情報取得部105は、欠陥候補の位置に関する情報を取得する。位置情報取得部105は、位置算出部105aと、特徴ベクトル抽出領域決定部105bとを備えている。
位置算出部105aは、領域情報取得部103によって取得される欠陥候補の領域情報に基づいて、欠陥候補ごとの位置を重心座標値として算出する。すなわち、位置算出部105aは、2値化処理部103bによってラベリングされた欠陥候補のそれぞれについて重心座標値を算出し、ラベリング値と対応付けて第2記憶部109に格納する。
The position information acquisition unit 105 acquires information regarding the position of the defect candidate. The position information acquisition unit 105 includes a position calculation unit 105a and a feature vector extraction region determination unit 105b.
The position calculation unit 105 a calculates the position of each defect candidate as the barycentric coordinate value based on the defect candidate region information acquired by the region information acquisition unit 103. That is, the position calculation unit 105a calculates a centroid coordinate value for each of the defect candidates labeled by the binarization processing unit 103b, and stores it in the second storage unit 109 in association with the labeling value.

特徴ベクトル抽出領域決定部105bは、領域情報取得部103によって取得される欠陥候補の領域情報に基づいて、欠陥候補ごとの特徴ベクトルを抽出する領域を決定する。
特徴ベクトル抽出領域決定部105bは、特徴ベクトルが抽出される領域(以下、「特徴ベクトル抽出領域」と記す。)を、例えば、次のようにして決定する。すなわち、特徴ベクトル抽出領域決定部105bは、2値化処理部103bから入力されるそれぞれの欠陥候補について、欠陥候補の領域を含む矩形領域を特定し、その座標値を前記したラベリング値と対応付けて特徴ベクトル抽出部107に出力する。
The feature vector extraction region determination unit 105b determines a region for extracting a feature vector for each defect candidate based on the defect candidate region information acquired by the region information acquisition unit 103.
The feature vector extraction region determination unit 105b determines a region from which a feature vector is extracted (hereinafter referred to as “feature vector extraction region”), for example, as follows. That is, the feature vector extraction region determination unit 105b specifies a rectangular region including a defect candidate region for each defect candidate input from the binarization processing unit 103b, and associates the coordinate value with the labeling value described above. To the feature vector extraction unit 107.

図3(b)に示す例では、特徴ベクトル抽出領域決定部105bは領域P2を含む矩形領域TP2と、領域Q2を含む矩形領域TQ2とを特定する座標値とを、それぞれラベリング値と対応付けて特徴ベクトル抽出部107に出力する。
なお、前記座標値は矩形領域を特定することが可能であればよい。例えば、それぞれの矩形領域のうち最も右上に位置する画素の座標値と、矩形領域のうち最も左下に位置する画素の座標値とすればよい。
In the example shown in FIG. 3B, the feature vector extraction region determination unit 105b associates the coordinate values specifying the rectangular region TP2 including the region P2 and the rectangular region TQ2 including the region Q2 with the labeling values. The result is output to the feature vector extraction unit 107.
The coordinate value only needs to be able to specify a rectangular area. For example, the coordinate value of the pixel located in the uppermost right of each rectangular area and the coordinate value of the pixel located in the lowermost left of the rectangular area may be used.

フィルタ処理部106は、外部の撮像装置(図示せず)から入力される検査対象物の画像情報(つまり、入力される画像情報の全ての画素)に対してバイラテラルフィルタ(Bilateral Filter)をかける。ちなみに、フィルタ部106に入力される画像情報に対して2値化処理はされていない。
バイラテラルフィルタはエッジ保持型平滑化フィルタであり、画像全体として平滑化処理を行うことによって画像全体での濃淡変化や細かいノイズをキャンセルしつつ、エッジ(輪郭)を強調するものである。これによって、後記する特徴ベクトル抽出部107において、より適切に欠陥の特徴ベクトルを抽出することができる。
The filter processing unit 106 applies a bilateral filter to the image information (that is, all the pixels of the input image information) of the inspection object input from an external imaging device (not shown). . Incidentally, the binarization processing is not performed on the image information input to the filter unit 106.
The bilateral filter is an edge-preserving smoothing filter, and emphasizes edges (contours) by canceling light and shade changes and fine noise in the entire image by performing smoothing processing on the entire image. Thereby, the feature vector extraction unit 107 described later can more appropriately extract the feature vector of the defect.

なお、フィルタ処理部106による画像処理と、前記した領域情報取得部103による画像処理は並列的に実行される。つまり、外部から入力される画像情報に対してフィルタ処理部106がバイラテラルフィルタをかける処理を実行するのと並行して、前記画像情報に対して領域情報取得部103が2値化処理を行って領域情報を取得する。
これによって、欠陥検査装置100の処理をより速やかに行うことができる。
Note that the image processing by the filter processing unit 106 and the image processing by the region information acquisition unit 103 are executed in parallel. That is, the area information acquisition unit 103 performs a binarization process on the image information in parallel with the filter processing unit 106 performing a bilateral filter on the image information input from the outside. Region information.
Thereby, the process of the defect inspection apparatus 100 can be performed more promptly.

また、本実施形態では、フィルタ処理部106がデータ依存型のバイラテラルフィルタをかけることとした。データ依存型のバイラテラルフィルタは、例えば、ファジー推論によって画像の局所領域ごとにパラメータを算出する。そして、フィルタ処理部106は、前記局所領域ごとに変化するパラメータに基づいたバイラテラルフィルタをかけることによって、フィルタ処理を行う。
これによって、雑音が多く重畳した画素をエッジとして認識して強調処理してしまうことを回避できる。
In the present embodiment, the filter processing unit 106 applies a data-dependent bilateral filter. The data-dependent bilateral filter calculates a parameter for each local region of an image by, for example, fuzzy inference. And the filter process part 106 performs a filter process by applying the bilateral filter based on the parameter which changes for every said local area | region.
As a result, it is possible to avoid recognizing and emphasizing a pixel with a lot of noise as an edge.

なお、データ依存型のバイラテラルフィルタをかける前処理として、輝度のヒストグラム分布を変化させ、欠陥を検出するのに適した分布とすることが好ましい。
図4(a)は、外部から入力される検査対象物の画像情報における輝度のヒストグラムであり、図4(b)は、フィルタ処理部106によって分布が変化された場合における輝度のヒストグラムである。
As preprocessing for applying the data-dependent bilateral filter, it is preferable to change the luminance histogram distribution to obtain a distribution suitable for detecting defects.
4A is a luminance histogram in the image information of the inspection target inputted from the outside, and FIG. 4B is a luminance histogram in the case where the distribution is changed by the filter processing unit 106.

例えば、図3(a)に示すように、検査対象物が燃料電池で用いられる電極E及び固体高分子膜Mである場合について考える。ちなみに、電極Eは黒鉛が炭素繊維で補強されたC/Cコンポジットで構成されている。そうすると、電極Eが黒色であるため、撮像装置(図示せず)によって電極Eを撮像することで得られる画像の輝度値は、値が小さい範囲Aに集中することとなる(図4(a)参照)。ちなみに、輝度値が比較的大きい範囲Bは、固体高分子膜M(図3(a)参照)に対応している。   For example, as shown in FIG. 3A, consider a case in which the inspection object is an electrode E and a solid polymer film M used in a fuel cell. Incidentally, the electrode E is composed of a C / C composite in which graphite is reinforced with carbon fibers. Then, since the electrode E is black, the luminance value of the image obtained by imaging the electrode E by the imaging device (not shown) is concentrated in the range A in which the value is small (FIG. 4A). reference). Incidentally, the range B where the luminance value is relatively large corresponds to the solid polymer film M (see FIG. 3A).

欠陥の大部分は電極に存在するため、フィルタ処理部106は電極に対応する範囲A内に存在する画素を取り出す。すなわち、フィルタ処理部106は、図4(a)に示す範囲A内に存在する画素において、輝度値のヒストグラムが正規分布となり、かつ、当該正規分布の中央値が予め設定された所定値となるようにシフトさせ、輝度値の分布を変更する。   Since most of the defects exist in the electrodes, the filter processing unit 106 extracts pixels that exist in the range A corresponding to the electrodes. That is, the filter processing unit 106 has a luminance value histogram having a normal distribution and a median value of the normal distribution having a predetermined value set in advance in pixels existing within the range A shown in FIG. The luminance value distribution is changed.

例えば、フィルタ処理部106は、輝度値が、図4(a)に示す範囲A内に存在する画素について、それらの画素における輝度値のヒストグラムが正規分布となり、当該正規分布の中央値が所定値となるように輝度値を変更する。
このように輝度値のヒストグラム分布を変更することによって、後記する特徴ベクトル抽出部107において、より適切に特徴ベクトルを抽出することができる。
For example, for the pixels whose luminance values are within the range A shown in FIG. 4A, the filter processing unit 106 has a normal distribution of luminance histograms for those pixels, and the median value of the normal distribution is a predetermined value. Change the brightness value so that
Thus, by changing the histogram distribution of luminance values, the feature vector extraction unit 107 described later can more appropriately extract feature vectors.

そして、フィルタ処理部106は、輝度値が変更された画像情報についてデータ依存型のバイラテラルフィルタをかけ、特徴ベクトル抽出部107に出力する。フィルタ処理部106から特徴ベクトル抽出部107に対して出力される情報は、例えば、図3(c)に示すように、エッジを保持しつつ画像全体としては平滑化された画像に対応する画像情報となる。   Then, the filter processing unit 106 applies a data-dependent bilateral filter to the image information whose luminance value has been changed, and outputs the result to the feature vector extraction unit 107. The information output from the filter processing unit 106 to the feature vector extraction unit 107 is, for example, image information corresponding to a smoothed image as a whole image while retaining edges as shown in FIG. It becomes.

特徴ベクトル抽出部107は、特徴ベクトル抽出領域決定部105bによって決定される領域において、2値化処理前の画像情報に対して高次局所自己相関処理を行い、欠陥候補ごとの特徴ベクトルを抽出する。
例えば、燃料電池の電極表面に欠陥があるか否かを電極ごとに1枚ずつ検査する場合に、欠陥を有する電極は全体の一部である。また、欠陥が占める面積は電極の面積に対して非常に小さい。このような場合に電極の全面について高次自己相関処理を行うと、膨大な量の演算処理を行うこととなる一方、電極の大部分は欠陥領域でないため無駄が生じる。
The feature vector extraction unit 107 performs high-order local autocorrelation processing on the image information before binarization processing in the region determined by the feature vector extraction region determination unit 105b, and extracts feature vectors for each defect candidate. .
For example, when inspecting whether or not the electrode surface of the fuel cell is defective one by one for each electrode, the electrode having the defect is a part of the whole. Also, the area occupied by the defects is very small relative to the area of the electrode. In such a case, if high-order autocorrelation processing is performed on the entire surface of the electrode, an enormous amount of calculation processing is performed. On the other hand, most of the electrode is not a defective region, and thus waste occurs.

したがって、本実施形態において特徴ベクトル抽出部107は、特徴ベクトル抽出領域決定部105bから入力される矩形領域(欠陥候補を含む、一つ又は複数の矩形領域)についてのみ高次局所自己相関処理を行う。これによって、欠陥が存在する可能性がある矩形領域についてのみ限定的に特徴ベクトルの抽出を行うため、欠陥検査を行う際の計算量を大幅に低減させ、検査処理を速やかに行うことが可能となる。   Therefore, in the present embodiment, the feature vector extraction unit 107 performs high-order local autocorrelation processing only for the rectangular region (one or a plurality of rectangular regions including defect candidates) input from the feature vector extraction region determination unit 105b. . As a result, feature vectors are extracted only for rectangular areas where defects may exist, so that the amount of calculation when performing defect inspection can be greatly reduced, and inspection processing can be performed quickly. Become.

次に、特徴ベクトル抽出部107が行う高次局所自己相関処理について説明する。高次局所自己相関処理(Higher-Order Local Auto-Correlation:HLAC)は、2次元の局所領域における相関のパターンを全体で数え上げることで特徴の算出を行うものであり、加法性などの優れた性質を有する。
N次自己相関関数Xは、以下に示す(式1)で表される。なお、(式1)においてf(r)は画像情報の値であり、(a,a,・・・,a)は参照画素rから見た変位方向を表している。
Next, high-order local autocorrelation processing performed by the feature vector extraction unit 107 will be described. Higher-Order Local Auto-Correlation (HLAC) calculates features by counting the correlation patterns in a two-dimensional local region as a whole, and has superior properties such as additiveness. Have
The Nth-order autocorrelation function XN is expressed by the following (formula 1). In (Expression 1), f (r) is a value of image information, and (a 1 , a 2 ,..., A N ) represents a displacement direction viewed from the reference pixel r.

Figure 2013167596
Figure 2013167596

本実施形態では、(式1)においてN=2(2次元の画像情報)とする。特徴ベクトル抽出部107は、例えば、特徴ベクトル抽出領域(図5に示す矩形領域TP3)内の参照画素の画素値と、所定のマスクパターンK(図5参照)によってマスクされる画素の画素値とを乗算した値を前記矩形領域の全ての画素について積分することで、当該マスクパターンKに対応する特徴量(特徴ベクトルの成分値)を算出する。   In the present embodiment, N = 2 (two-dimensional image information) in (Expression 1). The feature vector extraction unit 107, for example, the pixel value of the reference pixel in the feature vector extraction region (rectangular region TP3 shown in FIG. 5) and the pixel value of the pixel masked by the predetermined mask pattern K (see FIG. 5). The feature value (component value of the feature vector) corresponding to the mask pattern K is calculated by integrating the value obtained by multiplying all the pixels in the rectangular area.

ちなみに、前記したマスクパターンとは、参照画素のムーア近傍に位置する画素(すなわち、参照画素を囲む近傍の8画素)について設定される所定のパターンである。また、マスクを平行移動などした場合に同値になるものを除外すると、33通りのマスクパターンが存在する。
特徴ベクトル抽出部107は、これらの33通りのマスクパターンについてそれぞれ特徴量(特徴ベクトルの成分値)を算出し、欠陥候補を含む矩形領域の特徴を表す33次元の特徴ベクトルを抽出し、前記したラベリング値と対応付けて種類判別部108に出力する。
Incidentally, the above-described mask pattern is a predetermined pattern set for pixels located in the vicinity of the Moore of reference pixels (that is, eight pixels in the vicinity surrounding the reference pixel). Further, if masks that have the same value when the mask is moved in parallel are excluded, there are 33 mask patterns.
The feature vector extraction unit 107 calculates a feature amount (component value of the feature vector) for each of these 33 mask patterns, extracts a 33-dimensional feature vector representing the feature of the rectangular area including the defect candidate, and The data is output to the type determination unit 108 in association with the labeling value.

種類判別部108は、特徴ベクトル抽出部107によって抽出されるそれぞれの特徴ベクトルと、予め与えられる境界条件とを比較することによって、欠陥候補の種類を判別する。より具体的には、種類判別部108は、欠陥候補の種類が既知である教師画像情報から予め導出される判別関数で決定される超平面を前記境界条件として、欠陥候補の種類を判別する
なお、教師画像情報から予め導出される判別関数は、前記した事前学習部101による事前学習処理で予め取得され、第1記憶部102に格納されている。
The type discriminating unit 108 discriminates the type of defect candidate by comparing each feature vector extracted by the feature vector extracting unit 107 with a boundary condition given in advance. More specifically, the type discriminating unit 108 discriminates the type of defect candidate using the hyperplane determined by the discriminant function derived in advance from the teacher image information whose type of defect candidate is known as the boundary condition. The discriminant function derived in advance from the teacher image information is acquired in advance by the pre-learning process by the pre-learning unit 101 and stored in the first storage unit 102.

種類判別部108は、特徴ベクトル抽出部107から欠陥候補の特徴ベクトルに対応する情報が入力されると、事前学習部101によって予め導出されている判別関数を第1記憶部102から読み出す。そして、種類判別部108は、読み出した判別関数によって定まる超平面によって仕切られる空間のうち、欠陥候補の特徴ベクトルがどの空間内に存在するかによって欠陥候補の種類を判別する。   When the information corresponding to the feature vector of the defect candidate is input from the feature vector extraction unit 107, the type determination unit 108 reads out the determination function previously derived by the pre-learning unit 101 from the first storage unit 102. Then, the type discriminating unit 108 discriminates the type of the defect candidate depending on which space the feature vector of the defect candidate exists in the space partitioned by the hyperplane determined by the read discriminant function.

さらに種類判別部108は、判別した欠陥候補の種類を、その欠陥候補のラベリング値と対応付けて第2記憶部109に格納する。
したがって、第2記憶部109には、欠陥候補の位置、面積、及び種類が、欠陥候補ごとに定められたラベリング値に対応付けて格納される。
Further, the type determination unit 108 stores the determined type of defect candidate in the second storage unit 109 in association with the labeling value of the defect candidate.
Therefore, the second storage unit 109 stores the position, area, and type of the defect candidate in association with the labeling value determined for each defect candidate.

欠陥判定部110は、種類判別部108によって判別される欠陥候補の種類と、位置算出部105aによって算出される欠陥候補の位置と、面積算出部104によって算出される欠陥候補の面積とのそれぞれを、予め与えられる判別基準と比較することによって検査対象物の欠陥の有無を判定する。
ここで、前記した「判別基準」とは、設定者によって予め入力される位置情報(例えば、図6に示す領域X,Y,Zに相当)、面積情報(例えば、図6に示す面積α,β)、及び種類情報(例えば、図6に示す種類1,2,・・・,10)を含み、検査対象物の欠陥の有無を判定する際の基準値を示す情報である。
また、前記した欠陥候補の位置、面積、及び種類は、欠陥判定部110が第2記憶部109からそれぞれの情報を前記したラベリング値と対応付けて読み出すことによって取得される。
The defect determination unit 110 determines each of the defect candidate type determined by the type determination unit 108, the position of the defect candidate calculated by the position calculation unit 105a, and the area of the defect candidate calculated by the area calculation unit 104. The presence / absence of a defect in the inspection object is determined by comparing with a predetermined criterion.
Here, the above-mentioned “discrimination criteria” are positional information (for example, corresponding to the regions X, Y, and Z shown in FIG. 6) and area information (for example, the areas α, β) and type information (for example, types 1, 2,..., 10 shown in FIG. 6), and information indicating a reference value when determining the presence or absence of a defect in the inspection object.
Further, the position, area, and type of the defect candidate described above are acquired by the defect determination unit 110 reading each information from the second storage unit 109 in association with the labeling value described above.

図6は、欠陥候補の種類、位置及び面積に基づいて、欠陥に該当するか否かを判別する際の基準を示す説明図である。なお、図6において○印は欠陥に該当しない場合を示し、×印は欠陥に該当する場合を示している。   FIG. 6 is an explanatory diagram showing a criterion for determining whether or not a defect corresponds to the defect based on the type, position and area of the defect candidate. In FIG. 6, a circle indicates a case that does not correspond to a defect, and a cross indicates a case that corresponds to a defect.

また、図6に示す「位置」とは、位置算出部105aによって算出された欠陥候補の位置(重心の座標値)であり、「面積S」とは、面積算出部104によって算出された欠陥候補の面積である。
また、図6に示す「領域X」は、例えば、電極E(図3(a)参照)内における所定の矩形領域であり、「領域Y」は固体高分子膜M(図3(b)参照)内の所定領域であり、「領域Z」は固体高分子膜Mの外縁付近の所定領域、というように設定する。
前記したように、図6に示す領域X,Y,Z(位置情報)、及び、面積のしきい値であるα,β(面積情報)は、設定者によって予め与えられる判別基準情報であり、予め第1記憶部102に格納されている値である(図1参照)。
Further, the “position” shown in FIG. 6 is the position of the defect candidate (coordinate value of the center of gravity) calculated by the position calculation unit 105a, and the “area S” is the defect candidate calculated by the area calculation unit 104. Area.
6 is, for example, a predetermined rectangular region in the electrode E (see FIG. 3A), and the “region Y” is a solid polymer membrane M (see FIG. 3B). The “region Z” is a predetermined region in the vicinity of the outer edge of the solid polymer film M.
As described above, the regions X, Y, and Z (position information) and the area threshold values α and β (area information) shown in FIG. 6 are discrimination reference information given in advance by the setter, The value is stored in advance in the first storage unit 102 (see FIG. 1).

欠陥判定部110が欠陥の有無を判定する際の位置及び面積の基準は、欠陥の種類ごとに異なる場合がある。
例えば、欠落P1(図3(a)参照)の種類が図6に示す種類1に該当し、当該欠落P1が領域Xに位置している場合、欠陥判定部110は、欠陥候補である欠落P1について次のような判定を行う。
すなわち、欠落P1の面積Sの値がβ未満である場合、欠陥判定部110は、欠落P1が欠陥に該当しないと判定する。一方、欠落P1の面積Sの値がβ以上である場合、欠陥判定部110は、欠落P1が欠陥に該当すると判定する。
The position and area criteria used when the defect determination unit 110 determines the presence or absence of a defect may differ depending on the type of defect.
For example, when the type of the missing P1 (see FIG. 3A) corresponds to the type 1 shown in FIG. 6 and the missing P1 is located in the region X, the defect determining unit 110 detects the missing P1 that is a defect candidate. The following determination is made for.
That is, when the value of the area S of the missing P1 is less than β, the defect determining unit 110 determines that the missing P1 does not correspond to a defect. On the other hand, when the value of the area S of the missing P1 is equal to or larger than β, the defect determining unit 110 determines that the missing P1 corresponds to a defect.

また、異物Q1(図3(a)参照)の種類が図6に示す種類10であり、当該異物Q1が領域Xに位置している場合、欠陥判定部110は、欠陥候補である異物Q1について次のような判定を行う。
すなわち、異物Q1の面積Sの値がα以下である場合、欠陥判定部110は、異物Q1が欠陥に該当しないと判定する。一方、異物Q1の面積Sの値がαより大きい場合、欠陥判定部110は、異物Q1が欠陥に該当すると判定する。
このようにして、欠陥判定部110は、欠陥に該当するか否かを欠陥候補ごとに順次判定し、最終的な判定結果に相当する情報を外部の表示装置200に出力する。そして、表示装置200は、欠陥判定部110から受信した前記情報を表示する。
Further, when the type of the foreign matter Q1 (see FIG. 3A) is the type 10 shown in FIG. 6 and the foreign matter Q1 is located in the region X, the defect determination unit 110 determines the foreign matter Q1 that is a defect candidate. The following determination is made.
That is, when the value of the area S of the foreign matter Q1 is α or less, the defect determination unit 110 determines that the foreign matter Q1 does not correspond to a defect. On the other hand, when the value of the area S of the foreign matter Q1 is larger than α, the defect determination unit 110 determines that the foreign matter Q1 corresponds to a defect.
In this way, the defect determination unit 110 sequentially determines whether or not the defect corresponds to each defect candidate, and outputs information corresponding to the final determination result to the external display device 200. The display device 200 displays the information received from the defect determination unit 110.

図7は、欠陥判定部の処理の流れを示すフローチャートである。ステップS101において欠陥判定部110は、検査対象とする欠陥候補のラベリング値nの値を1とする。つまり、欠陥判定部110は、一つ又は複数存在する欠陥候補のうち、1つ目の欠陥候補についての検査を開始する。   FIG. 7 is a flowchart showing a flow of processing of the defect determination unit. In step S101, the defect determination unit 110 sets the value of the labeling value n of the defect candidate to be inspected as 1. That is, the defect determination unit 110 starts an inspection for the first defect candidate among one or more defect candidates.

ステップS102において欠陥判定部110は、ステップS101で選択した欠陥候補の種類が、欠陥の該当可能性がある種類であるか否かを判定する。ここで、「欠陥の該当可能性がある」とは、後記する欠陥の位置や面積の条件によっては、その欠陥候補が欠陥に該当する可能性があることを示している。ちなみに、図6に示す例では、種類1、種類2、及び種類10は、欠陥の該当可能性がある。
なお、欠陥判定部110が、欠陥の位置や面積に関わらず、所定の種類に該当することのみによって欠陥であると判定する場合もある。
In step S102, the defect determination unit 110 determines whether the type of defect candidate selected in step S101 is a type that may be a defect. Here, “there is a possibility of a defect” indicates that the defect candidate may correspond to a defect depending on the position and area conditions of the defect described later. Incidentally, in the example shown in FIG. 6, type 1, type 2, and type 10 may be a defect.
Note that the defect determination unit 110 may determine that the defect is a defect only by corresponding to a predetermined type regardless of the position and area of the defect.

欠陥候補の種類が、欠陥の該当可能性がある種類である場合(S102→Yes)、欠陥判定部110の処理はステップS103に進む。一方、欠陥候補の種類が、欠陥の該当可能性がある種類でない場合(S102→No)、欠陥判定部110の処理はステップS106に進む。
ステップS103において欠陥判定部110は、欠陥候補の位置が、欠陥の該当可能性がある位置であるか否かを判定する。つまり、欠陥判定部110は、位置算出部105aによって算出された欠陥候補の位置(重心座標値)が、欠陥の該当可能性がある位置であるか否かを判定する。例えば、図6において、欠陥候補の種類が「種類1」であり、かつ、その位置が領域Yにあった場合、欠陥判定部110は、欠陥の該当可能性があると判定する。
When the type of defect candidate is a type that may be a defect (S102 → Yes), the process of the defect determination unit 110 proceeds to step S103. On the other hand, if the type of defect candidate is not a type that is likely to be a defect (S102 → No), the process of the defect determination unit 110 proceeds to step S106.
In step S <b> 103, the defect determination unit 110 determines whether or not the position of the defect candidate is a position that may be a defect. That is, the defect determination unit 110 determines whether or not the position of the defect candidate (centroid coordinate value) calculated by the position calculation unit 105a is a position that may be a defect. For example, in FIG. 6, when the type of defect candidate is “type 1” and the position is in the region Y, the defect determination unit 110 determines that there is a possibility of a defect.

欠陥候補の位置が、欠陥の該当可能性がある位置である場合(S103→Yes)、欠陥判定部110の処理はステップS104に進む。一方、欠陥候補の位置が、欠陥の該当可能性がある位置でない場合(S103→No)、欠陥判定部110の処理はステップS106に進む。
ステップS104において欠陥判定部110は、欠陥に該当する面積であるか否かを判定する。つまり、欠陥判定部110は、面積算出部104によって算出された欠陥候補の面積(画素数)が、予め設定された所定範囲内であるか否かを判定する。
例えば、図6において、欠陥候補の種類が「種類1」であり、その位置が領域Yであり、かつ、その面積Sの値がα<S<βである場合、欠陥判定部110は、その欠陥候補は欠陥に該当すると判定する(図6の網掛け部分を参照)。
When the position of the defect candidate is a position where there is a possibility of being a defect (S103 → Yes), the processing of the defect determination unit 110 proceeds to step S104. On the other hand, when the position of the defect candidate is not a position where there is a possibility of being a defect (S103 → No), the process of the defect determination unit 110 proceeds to step S106.
In step S104, the defect determination unit 110 determines whether the area corresponds to a defect. That is, the defect determination unit 110 determines whether the area (number of pixels) of the defect candidate calculated by the area calculation unit 104 is within a predetermined range set in advance.
For example, in FIG. 6, when the defect candidate type is “type 1”, the position is the region Y, and the area S value is α <S <β, the defect determination unit 110 It is determined that the defect candidate corresponds to a defect (see the shaded portion in FIG. 6).

欠陥候補の面積が所定範囲内である場合(S104→Yes)、欠陥判定部110の処理はステップS105に進む。一方、欠陥候補の面積が所定範囲内にない場合(S104→No)、欠陥判定部110の処理はステップS106に進む。
ステップS105において欠陥判定部110は、検査対象物に欠陥があると判定し、その判定結果に相当する信号を表示装置200に対して出力する。欠陥判定部110から前記信号を受信した場合、表示装置200は、「欠陥あり」に相当する画像を表示する。
When the area of the defect candidate is within the predetermined range (S104 → Yes), the process of the defect determination unit 110 proceeds to step S105. On the other hand, when the area of the defect candidate is not within the predetermined range (S104 → No), the process of the defect determination unit 110 proceeds to step S106.
In step S <b> 105, the defect determination unit 110 determines that the inspection target has a defect, and outputs a signal corresponding to the determination result to the display device 200. When the signal is received from the defect determination unit 110, the display device 200 displays an image corresponding to “defect”.

ステップS106において欠陥判定部110は、全ての欠陥候補について欠陥の有無を調べたか否かを判定する。すなわち、欠陥候補の総数をNとした場合、検査対象となった欠陥候補の値nが欠陥候補の総数Nに等しいか否かを判定する。
全ての欠陥候補について欠陥の有無を調べた場合(つまり、n=Nである場合:S106→Yes)、欠陥判定部110の処理はステップS107に進む。一方、欠陥の有無を調べていない欠陥候補が少なくとも一つ存在する場合(つまり、n<Nである場合:S106→No)、欠陥判定部110の処理はステップS108に進む。
In step S106, the defect determination unit 110 determines whether or not all defect candidates have been checked for the presence or absence of defects. That is, when the total number of defect candidates is N, it is determined whether or not the value n of the defect candidates to be inspected is equal to the total number N of defect candidates.
When the presence / absence of defects is examined for all defect candidates (that is, when n = N: S106 → Yes), the process of the defect determination unit 110 proceeds to step S107. On the other hand, when there is at least one defect candidate whose presence or absence of a defect has not been examined (that is, when n <N: S106 → No), the process of the defect determination unit 110 proceeds to step S108.

ステップS107において欠陥判定部110は、検査対象物に欠陥がないと判定し、その判定結果に相当する信号を表示装置200に対して出力する。欠陥判定部110から前記信号を受信した場合、表示装置200は、「欠陥なし」に相当する画像を表示する。
ステップS108において欠陥判定部110は、欠陥候補のラベリング値nをインクリメントし、ステップS102の処理に戻る。この場合、ステップS102〜S104において欠陥判定部110は、インクリメントされたラベリング値nに対応する欠陥候補について欠陥に該当するか否かを検査する。
In step S <b> 107, the defect determination unit 110 determines that the inspection target is not defective, and outputs a signal corresponding to the determination result to the display device 200. When the signal is received from the defect determination unit 110, the display device 200 displays an image corresponding to “no defect”.
In step S108, the defect determination unit 110 increments the labeling value n of the defect candidate and returns to the process of step S102. In this case, in steps S102 to S104, the defect determination unit 110 inspects whether or not the defect candidate corresponding to the incremented labeling value n corresponds to a defect.

<効果1>
本実施形態に係る欠陥検査装置100によれば、特徴ベクトル抽出部107によって高次局所自己相関処理を用いた特徴ベクトルの抽出処理を行う。高次局所自己相関処理では、2次元の局所領域における相関パターンを数え上げることで特徴ベクトルの算出を行う。これによって、欠陥候補の特徴を欠陥候補の形状(輪郭)だけでなく表面の質感などを含めた33次元の特徴ベクトルとして抽出することができる。
したがって、種類判別部108は、前記した特徴ベクトルに基づいて欠陥候補の種類を判別することによって、人間が目視で判断する場合と同様に欠陥候補の種類を適切に判別することができる。
<Effect 1>
According to the defect inspection apparatus 100 according to the present embodiment, the feature vector extraction unit 107 performs feature vector extraction processing using higher-order local autocorrelation processing. In high-order local autocorrelation processing, feature vectors are calculated by counting correlation patterns in a two-dimensional local region. Thereby, the features of the defect candidate can be extracted as a 33-dimensional feature vector including not only the shape (contour) of the defect candidate but also the texture of the surface.
Therefore, the type determination unit 108 can appropriately determine the type of defect candidate as in the case where a human makes a visual determination by determining the type of defect candidate based on the above-described feature vector.

また、特徴ベクトル抽出部107は、特徴ベクトル抽出領域決定部105bから入力される特徴ベクトル抽出領域(矩形領域)についてのみ高次局所自己相関処理を行い、それ以外の領域については高次局所自己相関処理を行わない。したがって、特徴ベクトル抽出処理に要する演算量を低減し、欠陥検査に要する時間を大幅に短縮することができる。
通常、高次局所自己相関関数は検査対象物の画像全体に適用されるものである。図3(a)に示す画像に対応する検査対象物の画像全体について高次局所自己相関関数を適用して画像処理を行った場合、1つの画像当たり85.3時間を要した。
The feature vector extraction unit 107 performs high-order local autocorrelation processing only for the feature vector extraction region (rectangular region) input from the feature vector extraction region determination unit 105b, and performs high-order local autocorrelation for the other regions. Do not process. Therefore, the amount of calculation required for the feature vector extraction process can be reduced, and the time required for defect inspection can be greatly shortened.
Usually, the higher-order local autocorrelation function is applied to the entire image of the inspection object. When image processing was performed by applying a higher-order local autocorrelation function to the entire image of the inspection object corresponding to the image shown in FIG. 3A, 85.3 hours were required for each image.

これに対して、本実施形態に係る欠陥検査装置100を用いて、特徴ベクトル抽出領域(矩形領域)についてのみ高次局所自己相関処理を行うと、1つの画像当たり64秒で処理を終えることができた。すなわち、前記した画像情報全体について高次局所自己相関処理を行った場合と比較すると、その処理速度が約5000倍となった。
このように、欠陥候補を含む矩形領域についてのみ特徴ベクトルの抽出処理を行うことによって、特徴ベクトルの抽出処理に要する時間を大幅に短縮することができる。
On the other hand, when the high-order local autocorrelation process is performed only for the feature vector extraction region (rectangular region) using the defect inspection apparatus 100 according to the present embodiment, the processing may be completed in 64 seconds per image. did it. That is, the processing speed is about 5000 times that of the case where the high-order local autocorrelation processing is performed on the entire image information.
As described above, by performing the feature vector extraction process only for the rectangular region including the defect candidate, the time required for the feature vector extraction process can be significantly shortened.

また、特徴ベクトル抽出処理部108が高次局所自己相関処理を行う前に、フィルタ処理部106がバイラテラルフィルタをかける。前記したように、バイラテラルフィルタは、エッジを保持しつつ画像全体としては平滑化処理(ぼかし処理)を行う。
通常、撮像装置(図示せず)によって検査対象を撮像した場合、その画像は中心部分に比べて周辺部分が若干暗くなる。本実施形態では、バイラテラルフィルタをかけることによって前記した輝度差、及び、ノイズによる輝度差を打ち消しつつも、エッジの強調処理を行うことができる。
このような前処理を行うことによって、特徴ベクトル抽出部107による特徴ベクトルの抽出精度を向上させることができる。
In addition, before the feature vector extraction processing unit 108 performs high-order local autocorrelation processing, the filter processing unit 106 applies a bilateral filter. As described above, the bilateral filter performs a smoothing process (blurring process) on the entire image while maintaining an edge.
Normally, when an inspection object is imaged by an imaging device (not shown), the peripheral portion of the image is slightly darker than the central portion. In the present embodiment, edge enhancement processing can be performed while canceling out the luminance difference and the luminance difference due to noise by applying a bilateral filter.
By performing such preprocessing, the feature vector extraction accuracy by the feature vector extraction unit 107 can be improved.

図8は、特徴ベクトルの抽出を行う前処理として、各種フィルタ処理を行った場合における判定結果を示す説明図であり、(a)は比較例としてエッジ強調フィルタを用いた場合であり、(b)は本実施形態に係るバイラテラルフィルタを用いた場合である。
なお、欠陥サンプルとして、欠陥種類が既知の異物サンプル(6個)と、欠陥種類が既知の欠落サンプル(6個)を用いて、その欠陥種類(つまり、異物と欠落のどちらに該当するか)を判別させるようにした。ちなみに、図8(a),(b)いずれの場合も、特徴ベクトル抽出部107及び種類判別部108における処理内容は前記したものと同様である。
FIG. 8 is an explanatory diagram illustrating determination results when various filter processes are performed as pre-processing for extracting feature vectors. FIG. 8A illustrates a case where an edge enhancement filter is used as a comparative example. ) Is a case where the bilateral filter according to the present embodiment is used.
It should be noted that as a defect sample, a foreign matter sample (6 pieces) having a known defect type and a missing sample (6 pieces) having a known defect type are used, and the defect type (that is, whether a foreign matter or a missing piece is applicable). It was made to distinguish. Incidentally, in both cases of FIGS. 8A and 8B, the processing contents in the feature vector extraction unit 107 and the type determination unit 108 are the same as those described above.

図8(a)に示すエッジ強調処理を用いた場合(比較例)は、6個の異物サンプルのうち3個は「異物」と判別できたものの、残りの3個は「欠落」と判別した。また、6個の欠落サンプルのうち2個は「欠落」と判別できたものの、残りの4個は「異物」と判別した。その結果、異物サンプルに関する正答率は50%であり、欠落サンプルに関する正答率は33%であった。
これは、欠陥候補のエッジが欠ける部分が生じて、1つの欠陥候補を複数の欠陥候補として誤認識する場合があったためであると考えられる。
In the case of using the edge enhancement processing shown in FIG. 8A (comparative example), three of the six foreign matter samples could be judged as “foreign matter”, but the remaining three were judged as “missing”. . In addition, two of the six missing samples could be determined as “missing”, but the remaining four were determined as “foreign matter”. As a result, the correct answer rate for the foreign sample was 50%, and the correct answer rate for the missing sample was 33%.
This is considered to be because there was a case where a defect candidate had a missing edge, and one defect candidate was erroneously recognized as a plurality of defect candidates.

これに対して、図8(b)に示すバイラテラルフィルタを用いた場合(本実施形態)は、6個の異物サンプル全てを「異物」と判別し、6個の欠落サンプル全てを「欠落」と判別することができた。すなわち、異物サンプル及び欠落サンプルに関する正答率は、いずれも100%であった。
したがって、本実施形態では、前処理としてバイラテラルフィルタを用いることにより、特徴ベクトル抽出部107が精度よく欠陥候補の特徴ベクトルを抽出し、それに基づいて種類判別部108が適切に欠陥候補の種類を判別することができる。
On the other hand, when the bilateral filter shown in FIG. 8B is used (this embodiment), all six foreign samples are determined as “foreign” and all six missing samples are “missed”. It was possible to determine. That is, the correct answer rates for the foreign material sample and the missing sample were both 100%.
Therefore, in this embodiment, by using a bilateral filter as the preprocessing, the feature vector extraction unit 107 accurately extracts the feature vector of the defect candidate, and the type determination unit 108 appropriately selects the type of defect candidate based on the feature vector. Can be determined.

また、本実施形態に係る欠陥検査装置100は、欠陥候補の種類、位置、及び面積を総合して欠陥に該当するか否かを判定するため、欠陥の有無をより適切に判定することができる。例えば、電極(図3(a)参照)に欠陥があるか否かを検査する際に、欠陥候補の種類が同一であり、面積がほぼ同一である場合であっても、その位置によって欠陥と判定すべきか否かが異なる場合がある。   In addition, since the defect inspection apparatus 100 according to the present embodiment determines whether or not the defect candidate corresponds to the defect by combining the types, positions, and areas of the defect candidates, it can more appropriately determine the presence or absence of the defect. . For example, when inspecting whether or not an electrode (see FIG. 3A) has a defect, even if the defect candidate type is the same and the area is almost the same, the defect is determined depending on its position. Whether or not to determine may be different.

仮に、シフト不変性を有する高次局所自己相関処理を画像全体に対して行うと、種類及び面積がほぼ同一である場合、位置に関わらず同じ結論(欠陥に該当、又は非該当)を出してしまう。一方、本実施形態では、人間が目視で検査する場合と同様に、欠陥候補の種類だけでなく位置及び面積も考慮した判定処理を行うため、欠陥に該当するか否かを適切に判定することができる。   If high-order local autocorrelation processing with shift invariance is performed on the entire image, if the type and area are almost the same, the same conclusion (applicable to defect or not applicable) is issued regardless of position. End up. On the other hand, in the present embodiment, as in the case where a human visually inspects, determination processing is performed in consideration of not only the type of defect candidate but also the position and area, and therefore it is appropriately determined whether or not the defect is applicable. Can do.

また、フィルタ処理部106がバイラテラルフィルタを用いた処理を行うことによって特徴ベクトルの抽出精度は向上されるが、欠陥候補をその領域ごとに、ひとまとまりのものとして認識することは困難となる。これは、照明装置(図示せず)からの光の当たり具合によって、一つの欠陥候補領域のエッジのうちでも輝度差が生じることによる。
これに対して、本実施形態に係る欠陥検査装置100は、2値化した画像情報に基づいて領域情報取得部103が欠陥候補の領域情報を取得し、前記領域情報に基づいて特徴ベクトル抽出領域決定部105bが、特徴ベクトル抽出領域を決定する。
したがって、特徴ベクトル抽出部107は、決定された特徴ベクトル抽出領域(矩形領域)のそれぞれに欠陥候補が存在することとして特徴ベクトルの抽出を実行すればよいため、前記のような問題を解決することができる。
Further, although the filter processing unit 106 performs processing using a bilateral filter, the feature vector extraction accuracy is improved, but it is difficult to recognize defect candidates as a group for each region. This is because a luminance difference is generated even in the edge of one defect candidate region depending on how the light from the illumination device (not shown) hits.
On the other hand, in the defect inspection apparatus 100 according to the present embodiment, the region information acquisition unit 103 acquires defect candidate region information based on the binarized image information, and the feature vector extraction region is based on the region information. The determination unit 105b determines a feature vector extraction region.
Therefore, the feature vector extraction unit 107 only needs to perform feature vector extraction as a defect candidate exists in each of the determined feature vector extraction regions (rectangular regions), and thus solves the above-described problem. Can do.

≪第2実施形態≫
図9は、本発明の第2実施形態に係る欠陥検査装置の構成図である。
本実施形態に係る欠陥検査装置100Aは、第1実施形態に係る欠陥検査装置100と比較して、程度値算出部111が追加されている点が異なるが、その他は第1実施形態と同様である。
したがって、当該異なる部分について説明し、その他については説明を省略する。
<< Second Embodiment >>
FIG. 9 is a configuration diagram of a defect inspection apparatus according to the second embodiment of the present invention.
The defect inspection apparatus 100A according to the present embodiment is different from the defect inspection apparatus 100 according to the first embodiment in that a degree value calculation unit 111 is added, but the others are the same as in the first embodiment. is there.
Therefore, the different parts will be described, and the description of the other parts will be omitted.

程度値算出部111は、フィルタ処理部106によってフィルタ処理がなされた画像情報のうち、特徴ベクトル抽出領域決定部105bから入力される領域において、輝度値が所定値以上である画素が占める割合を欠陥候補の程度値として算出する。
なお、「程度値」は、例えば、検査対象物の表面に対する欠落の深さの度合いや、異物の突出具合などを示すものであり、程度値が大きいほど欠陥に該当する可能性が高くなる。また、輝度値が所定値以上である画素が占める割合と程度値との関係は、欠陥の種類ごとに適宜設定することができる。
The degree value calculation unit 111 has a defective ratio of pixels whose luminance value is equal to or greater than a predetermined value in the region input from the feature vector extraction region determination unit 105b in the image information filtered by the filter processing unit 106. Calculated as a candidate degree value.
Note that the “degree value” indicates, for example, the degree of the depth of a defect with respect to the surface of the inspection object, the degree of protrusion of foreign matter, and the like, and the greater the degree value, the higher the possibility of being a defect. In addition, the relationship between the ratio of the pixels whose luminance value is equal to or greater than a predetermined value and the degree value can be set as appropriate for each type of defect.

程度値算出部111は、フィルタ処理部106から入力される画像情報(バイラテラルフィルタがかけられた画像情報)のうち、特徴ベクトル抽出領域決定部105bから入力される領域(矩形領域)内の画像情報について、例えば、次のような処理を行う。
すなわち、程度値算出部111は、前記した矩形領域内の画素に対して、輝度が所定値以上である画素が占める割合を程度値として算出し、第2記憶部109に格納する。
The degree value calculation unit 111 is an image in an area (rectangular area) input from the feature vector extraction area determination unit 105b among the image information (image information subjected to the bilateral filter) input from the filter processing unit 106. For example, the following processing is performed on the information.
That is, the degree value calculation unit 111 calculates, as the degree value, the ratio of pixels having a luminance equal to or higher than a predetermined value to the pixels in the rectangular area, and stores the degree value in the second storage unit 109.

そして、欠陥判定部110は、種類判別部108によって判別される欠陥候補の種類と、位置算出部105aによって算出される欠陥候補の位置と、面積算出部104によって算出される欠陥候補の面積と、程度値算出部111によって算出される欠陥候補の程度値とのそれぞれを、予め与えられている判別基準と比較することによって、検査対象物の欠陥の有無を判定する。   Then, the defect determination unit 110 includes the type of defect candidate determined by the type determination unit 108, the position of the defect candidate calculated by the position calculation unit 105a, the area of the defect candidate calculated by the area calculation unit 104, The presence / absence of a defect in the inspection object is determined by comparing each of the defect candidate degree values calculated by the degree value calculation unit 111 with a predetermined criterion.

ここで、前記した「判別基準」とは、第1実施形態で説明した判別基準(位置情報、面積情報、及び種類情報)に加えて、さらに程度値情報を含み、検査対象物の欠陥の有無を判定する際の基準値を示す情報である。
なお、程度値情報(程度値のしきい値に関する情報)は、設定者によって予め与えられ、第1記憶部102に格納されている値である
Here, the above-mentioned “discrimination criterion” includes degree value information in addition to the discrimination criterion (position information, area information, and type information) described in the first embodiment, and whether there is a defect in the inspection object. It is the information which shows the reference value at the time of determining.
The degree value information (information about the threshold value of the degree value) is a value given in advance by the setter and stored in the first storage unit 102.

そして、欠陥判定部110は、検出した欠陥候補の種類、位置、及び面積に対応して設定されている判別基準値(ここでは、程度値のしきい値)と、その欠陥候補の程度値とを比較する。
程度値が前記しきい値以上である場合、欠陥判定部110は、その欠陥候補が欠陥に該当すると判定する。一方、程度値が前記しきい値未満である場合、欠陥判定部110は、その欠陥候補が欠陥に該当しないと判定する。
Then, the defect determination unit 110 determines the discrimination reference value (here, the threshold value of the degree value) set in correspondence with the type, position, and area of the detected defect candidate, and the degree value of the defect candidate. Compare
If the degree value is equal to or greater than the threshold value, the defect determination unit 110 determines that the defect candidate corresponds to a defect. On the other hand, when the degree value is less than the threshold value, the defect determination unit 110 determines that the defect candidate does not correspond to a defect.

例えば、欠陥判定部110は、欠陥候補のサンプルとしての教師画像のうち、欠陥に該当する確率と輝度値との間に正の相関がある(つまり、輝度値が高いほど欠陥に該当する可能性が高い)種類については、次のような判定処理を行う。
すなわち、欠陥判定部110は、欠陥候補の種類に対応するしきい値と、当該欠陥候補の程度値とを比較して、前記程度値が前記しきい値以上である場合に欠陥に該当すると判定する。
一方、欠陥候補のサンプルとしての教師画像のうち、欠陥に該当する確率と輝度値との間に負の相関がある(つまり、輝度値が小さいほど欠陥に該当する可能性が高い)種類に対して、欠陥判定部110は、程度値が欠陥候補の種類に対応するしきい値以下である場合に、欠陥に該当すると判定する。
For example, the defect determination unit 110 has a positive correlation between the probability of being a defect and a luminance value in a teacher image as a defect candidate sample (that is, the higher the luminance value, the more likely it is a defect) For the types that are high, the following determination process is performed.
That is, the defect determination unit 110 compares the threshold corresponding to the type of defect candidate with the degree value of the defect candidate, and determines that the defect corresponds to a defect when the degree value is equal to or greater than the threshold. To do.
On the other hand, among teacher images as defect candidate samples, there is a negative correlation between the probability of being a defect and the luminance value (that is, the smaller the luminance value, the more likely it is a defect) The defect determination unit 110 determines that the defect corresponds to a defect when the degree value is equal to or less than a threshold value corresponding to the type of defect candidate.

<効果2>
本実施形態に係る欠陥検査装置100Aによれば、欠陥判定部110が欠陥の有無を判定する際に、欠陥候補の種類、位置及び面積に加えて、程度値算出部111により算出された欠陥候補の程度値も反映させる。つまり、検出した欠陥候補の種類、位置、及び面積に対応して設定されている判別基準値(ここでは、程度値のしきい値)と、その欠陥候補の程度値とを比較して、欠陥の有無を判定する。
したがって、欠陥判定部110は、検査対象物の欠陥の有無を適切に判定することができる。
<Effect 2>
According to the defect inspection apparatus 100A according to the present embodiment, when the defect determination unit 110 determines the presence or absence of a defect, the defect candidate calculated by the degree value calculation unit 111 in addition to the type, position, and area of the defect candidate. The degree value of is also reflected. That is, the discrimination reference value (here, the threshold value of the degree value) set corresponding to the type, position, and area of the detected defect candidate is compared with the degree value of the defect candidate, and the defect The presence or absence of is determined.
Therefore, the defect determination unit 110 can appropriately determine the presence / absence of a defect in the inspection object.

≪第3実施形態≫
図10は、本発明の第3実施形態に係る欠陥検査装置の構成図である。
本実施形態に係る欠陥検査装置100Bは、第1実施形態に係る欠陥検査装置100と比較して、位置情報取得部105Bが、位置算出部105a、特徴ベクトル抽出領域決定部105bに加えて、さらに選別処理部105cを備えている点が異なるが、その他は第1実施形態と同様である。
したがって、当該異なる部分について説明し、その他については説明を省略する。
«Third embodiment»
FIG. 10 is a configuration diagram of a defect inspection apparatus according to the third embodiment of the present invention.
Compared to the defect inspection apparatus 100 according to the first embodiment, the defect information inspection apparatus 100B according to the present embodiment includes a position information acquisition unit 105B in addition to the position calculation unit 105a and the feature vector extraction region determination unit 105b. The other points are the same as those in the first embodiment, except that the sorting processing unit 105c is provided.
Therefore, the different parts will be described, and the description of the other parts will be omitted.

図10に示す選別処理部105cは、特徴ベクトル抽出領域決定部105bから入力される一つ又は複数の領域のうち、予め与えられている選別基準に基づいて、特徴ベクトル抽出部107によって特徴ベクトル抽出処理を行う領域を選別する(つまり、絞り込む)。
ここで、予め与えられている選別基準とは、設定者によって予め入力される位置情報及び面積情報を含み、特徴ベクトル抽出領域を絞り込む際の基準値を示す情報である。
The selection processing unit 105c illustrated in FIG. 10 performs feature vector extraction by the feature vector extraction unit 107 based on a selection criterion given in advance from one or a plurality of regions input from the feature vector extraction region determination unit 105b. The area to be processed is selected (that is, narrowed down).
Here, the selection criterion given in advance is information including position information and area information input in advance by the setter and indicating a reference value when narrowing down the feature vector extraction region.

例えば、面積S1の欠陥候補が、図3(a)に示す電極Eの中心付近にあった場合に、面積S1がある所定値以下であるときは、種類を判別するまでもなく欠陥に該当しないものとしてもよい場合がある。
一方、面積S2の欠陥候補が、図3(a)に示す固体高分子膜Mの縁付近にあった場合に、面積S2が前記した面積S1よりも小さくとも、欠陥に該当すると判断すべき場合もある。
なお、前記判断の基準となる値(つまり、選別基準情報)は、前記したように設定者によって予め入力され、第1記憶部102に格納されている。
For example, when the defect candidate of the area S1 is near the center of the electrode E shown in FIG. 3A, if the area S1 is equal to or less than a predetermined value, the type does not need to be identified and does not correspond to a defect. It may be good.
On the other hand, when the defect candidate of the area S2 is in the vicinity of the edge of the solid polymer film M shown in FIG. 3A, it should be determined that it corresponds to the defect even if the area S2 is smaller than the area S1. There is also.
It should be noted that the reference value (that is, the selection criterion information) is input in advance by the setter and stored in the first storage unit 102 as described above.

そして、選別処理部105cは、第2記憶部103から所定のラベリング値に対応する欠陥候補の位置情報及び面積情報を読み出し、さらに、第1記憶部102から選別基準情報を読み出す。そして、その欠陥候補の位置及び面積を、選別基準と照らし合わせることで、特徴ベクトル抽出処理を行うべきか否かを判定する。   Then, the sorting processing unit 105 c reads position information and area information of defect candidates corresponding to a predetermined labeling value from the second storage unit 103, and further reads sorting reference information from the first storage unit 102. Then, it is determined whether or not the feature vector extraction process should be performed by comparing the position and area of the defect candidate with the selection criterion.

すなわち、前記選別基準と比較した場合に、前記位置及び面積のうち少なくとも一方が選別条件を満たさない場合(つまり、種類判別処理を行うまでもなく欠陥に該当しないことが明らかである場合)、選別処理部105cは、その欠陥候補を除外する。
一方、前記選別基準と比較した場合に、前記位置及び面積が選別条件を満たしている場合(つまり、種類判別処理を行った上で、欠陥判定処理を行う必要がある場合)、選別処理部105cは、次のような処理を行う。
That is, when compared with the selection criteria, if at least one of the position and area does not satisfy the selection condition (that is, if it is clear that the defect does not correspond to the type determination process), the selection is performed. The processing unit 105c excludes the defect candidate.
On the other hand, when the position and area satisfy the selection condition when compared with the selection criterion (that is, when the defect determination process needs to be performed after performing the type determination process), the selection processing unit 105c. Performs the following process.

すなわち、選別処理部105cは、特徴ベクトル抽出領域決定部105bによって取得された情報(例えば、図3(b)に示すTP2,TQ2の矩形領域を決定する情報)のうち、前記処理によって選別した欠陥候補に関する情報のみを、特徴ベクトル抽出部107に出力する。
そして、特徴ベクトル抽出部107は、選別処理部105cによって選別された欠陥候補に対応する特徴ベクトル抽出領域(矩形領域)についてのみ、特徴ベクトル抽出処理を行う。
That is, the sorting processing unit 105c selects the defect selected by the above processing from the information acquired by the feature vector extraction region determining unit 105b (for example, information for determining the rectangular regions TP2 and TQ2 shown in FIG. 3B). Only the information regarding the candidate is output to the feature vector extraction unit 107.
Then, the feature vector extraction unit 107 performs feature vector extraction processing only on the feature vector extraction region (rectangular region) corresponding to the defect candidate selected by the selection processing unit 105c.

<効果3>
本実施形態に係る欠陥検査装置100Bによれば、選別処理部105cが、欠陥候補の位置及び面積を選別基準と照らし合わせることで、特徴ベクトル抽出処理を行うべき欠陥候補を選別する。そして、特徴ベクトル抽出部107は、前記した欠陥候補に対応する矩形領域についてのみ特徴ベクトルの抽出処理を行えばよい。
したがって、特徴ベクトル抽出部107における演算量を大幅に低減することができ、一連の欠陥検査処理に要するコスト及び時間も大幅に削減することができる。
<Effect 3>
According to the defect inspection apparatus 100B according to the present embodiment, the selection processing unit 105c selects defect candidates to be subjected to the feature vector extraction process by comparing the position and area of the defect candidates with the selection reference. Then, the feature vector extraction unit 107 may perform feature vector extraction processing only for the rectangular area corresponding to the defect candidate.
Therefore, the amount of calculation in the feature vector extraction unit 107 can be greatly reduced, and the cost and time required for a series of defect inspection processes can be greatly reduced.

≪変形例≫
以上、本発明に係る欠陥検査装置について各実施形態により説明したが、本発明の実施態様はこれらの記載に限定されるものではなく、種々の変更などを行うことができる。
例えば、前記各実施形態では、燃料電池に用いられる電極E及び固体高分子膜Mに欠陥があるか否かを検査することとしたが、これに限らない。すなわち、リチウムイオン電池や半導体材料など、さまざまな検査対象物について欠陥の有無を検査することができる。
≪Modification≫
The defect inspection apparatus according to the present invention has been described above with reference to the embodiments. However, the embodiments of the present invention are not limited to these descriptions, and various modifications can be made.
For example, in each of the above embodiments, it is determined whether or not the electrode E and the solid polymer film M used in the fuel cell are defective, but the present invention is not limited to this. That is, the presence or absence of defects can be inspected for various inspection objects such as lithium ion batteries and semiconductor materials.

また、前記各実施形態では、外部の撮像装置から画像情報が入力されることとしたが、これに限らない。画像情報は、記録媒体に記憶されているものであってもよいし、ネットワークを介して受信するものであってもよい。
また、前記実施形態では、2値化処理部103bが輝度値のヒストグラムから2群が最も分離される2値化しきい値を算出し、当該2値化しきい値に基づいて画像情報を2値化することとしたが、これに限らない。例えば、しきい値は、予め設定された所定値であってもよい。
In each of the above embodiments, image information is input from an external imaging device, but the present invention is not limited to this. The image information may be stored in a recording medium or received via a network.
In the embodiment, the binarization processing unit 103b calculates a binarization threshold value from which the two groups are most separated from the luminance value histogram, and binarizes the image information based on the binarization threshold value. However, this is not a limitation. For example, the threshold value may be a predetermined value set in advance.

また、前記各実施形態では、位置算出部105aが欠陥候補の重心座標を算出し、位置情報として出力する場合について説明したが、これに限らない。例えば、欠陥候補の位置は、特徴ベクトル抽出領域決定部105bによって決定される矩形領域の中心位置(対角線が交わる位置)であってもよい。
また、前記各実施形態では、特徴ベクトル抽出領域決定部105bが、欠陥候補を含む矩形領域を特徴ベクトル抽出領域とする場合について説明したが、形状はこれに限らない。例えば、特徴ベクトル抽出領域として、中心の座標及び半径で決まる円形領域としてもよい。
In each of the above embodiments, the case where the position calculation unit 105a calculates the barycentric coordinates of the defect candidate and outputs it as position information has been described. However, the present invention is not limited to this. For example, the position of the defect candidate may be the center position (position where diagonal lines intersect) of the rectangular area determined by the feature vector extraction area determination unit 105b.
In each of the above embodiments, the case has been described in which the feature vector extraction region determination unit 105b sets a rectangular region including a defect candidate as a feature vector extraction region, but the shape is not limited thereto. For example, the feature vector extraction region may be a circular region determined by the center coordinates and radius.

また、前記各実施形態では、フィルタ処理部106がバイラテラルフィルタを用いたフィルタ処理を行うこととしたが、これに限らない。例えば、フィルタ処理部106が、ABF(Adaptive Bilateral Filter)、MAX−MINフィルタ、又はソーベルフィルタを用いたフィルタ処理を行うこととしてもよい。
また、検査対象物及び撮像装置によっては、フィルタ処理部106を介さずとも特徴ベクトルの抽出に適した画像を得られる場合もある。このような場合、フィルタ処理部106を省略することとしてもよい。
In each of the above embodiments, the filter processing unit 106 performs the filter processing using the bilateral filter, but the present invention is not limited to this. For example, the filter processing unit 106 may perform filter processing using an ABF (Adaptive Bilateral Filter), a MAX-MIN filter, or a Sobel filter.
Further, depending on the inspection object and the imaging apparatus, an image suitable for feature vector extraction may be obtained without using the filter processing unit 106. In such a case, the filter processing unit 106 may be omitted.

また、前記各実施形態では、事前学習部101が、マハラノビス汎距離を用いて教師画像情報の適否を判定することとしたが、これに限らない。例えば、カルバックライブラー(K−L)情報量基準、赤池の情報量基準(Akaike's Information Criterion:AIC)、又はマローズのCp(Mallows Cp)を用いて、教師画像情報の適否を判断することとしてもよい。 In the above embodiments, the pre-learning unit 101 determines the suitability of the teacher image information using the Mahalanobis general distance, but the present invention is not limited to this. For example, Kullback-Leibler (K-L) information criterion, Akaike information criteria (Akaike's Information Criterion: AIC) , or Marozu using C p (Mallows C p) of, to determine the appropriateness of teacher image information It is good.

また、前記各実施形態では、欠陥候補の種類を10種類としたが、欠陥候補の種類は9種類以下又は11種類以上でもよい。
また、前記実施形態では、事前学習部101が判別分析処理を行って判別関数を導出し、種類判別部108が前記判別関数に基づいて欠陥候補の種類を判別することとしたが、これに限らない。
In each of the above embodiments, the number of defect candidates is ten, but the number of defect candidates may be nine or less or eleven or more.
In the embodiment, the pre-learning unit 101 performs a discriminant analysis process to derive a discriminant function, and the type discriminating unit 108 discriminates the type of defect candidate based on the discriminant function. Absent.

例えば、事前学習部101がサポートベクトルマシンを用いて学習し、それぞれの教師画像情報との距離を最大にする超平面を導くこととしてもよい。この場合、種類判別部108は、当該超平面に基づいて欠陥候補の種類を判別することとなる。
また、前記各実施形態では、欠陥検査装置100(100A)が、第1記憶部102と第2記憶部109とを備えることとしたが、これらを一体としてもよい。また、第1記憶部102及び第2記憶部109を、欠陥検査装置100(100A)の外部に備えることとしてもよい。
For example, the pre-learning unit 101 may learn using a support vector machine and derive a hyperplane that maximizes the distance from each teacher image information. In this case, the type determination unit 108 determines the type of defect candidate based on the hyperplane.
In each of the above embodiments, the defect inspection apparatus 100 (100A) includes the first storage unit 102 and the second storage unit 109, but these may be integrated. The first storage unit 102 and the second storage unit 109 may be provided outside the defect inspection apparatus 100 (100A).

また、前記各実施形態では、設定者によって予め入力された教師画像情報(種類が既知である画像情報)に基づいて事前学習部101が事前学習を行った後に、欠陥検査処理を開始することとしたが、これに限らない。
すなわち、欠陥検査装置が、教師なし学習を行う学習部(図示せず)を、事前学習部101の代わりに備えることとしてもよい。前記学習部は、例えば、欠陥検査装置に入力されるサンプル画像情報(種類が未知である画像情報)について、特徴ベクトル抽出部107により抽出された特徴ベクトルを用いたクラスタリング処理を行う。
In each of the above embodiments, after the pre-learning unit 101 performs pre-learning based on teacher image information (image information whose type is known) input in advance by the setter, the defect inspection process is started. However, it is not limited to this.
That is, the defect inspection apparatus may include a learning unit (not shown) that performs unsupervised learning instead of the pre-learning unit 101. The learning unit performs, for example, clustering processing using the feature vector extracted by the feature vector extraction unit 107 on sample image information (image information whose type is unknown) input to the defect inspection apparatus.

クラスタリングの手法として、例えば、最短距離法や群平均法などの階層的クラスタリングや、k-means法などの非階層的クラスタリングを行うことができる。
また、前記学習部が、ニューラルネットワーク(Neural Network)を用いた学習処理を行うこととしてもよい。
As a clustering method, for example, hierarchical clustering such as the shortest distance method or group average method, or non-hierarchical clustering such as the k-means method can be performed.
The learning unit may perform a learning process using a neural network.

また、前記各実施形態では、欠陥検査装置100(100A)が事前学習部101を備えることとしたが、事前学習部101を備えない構成としてもよい。例えば、事前学習部101を備える装置を別体で設け、予め当該装置を用いて事前学習及び試験を行うこととし、前記装置が、導出した判別関数を欠陥検査装置の第1記憶手段102に格納することとしてもよい。
なお、この場合には、フィルタ処理部106及び特徴ベクトル抽出部107と同様の構成を、前記装置に備える必要がある。
In each of the above embodiments, the defect inspection apparatus 100 (100A) includes the pre-learning unit 101. However, the pre-learning unit 101 may be omitted. For example, a device including the pre-learning unit 101 is provided separately, and pre-learning and testing are performed in advance using the device, and the device stores the derived discriminant function in the first storage unit 102 of the defect inspection device. It is good to do.
In this case, the apparatus needs to have the same configuration as the filter processing unit 106 and the feature vector extraction unit 107.

また、欠陥検査装置が事前学習部101を備えない場合として、判別関数についての情報を記憶媒体から欠陥検査装置に入力してもよいし、ネットワークを介して外部から取得し、欠陥検査装置に入力してもよい。
また、前記各実施形態に係る処理は、コンピュータとソフトウェアプログラムによって実現することができ、そのプログラムをコンピュータが読み取り可能な記録媒体に記録して提供することが可能であり、また、ネットワークを介して提供することも可能である。
In addition, when the defect inspection apparatus does not include the pre-learning unit 101, information on the discriminant function may be input from the storage medium to the defect inspection apparatus, or acquired from the outside via the network and input to the defect inspection apparatus May be.
The processing according to each embodiment can be realized by a computer and a software program, and can be provided by recording the program on a computer-readable recording medium and via a network. It is also possible to provide.

100,100A,100B 欠陥検査装置
101 事前学習部
102 第1記憶部
103 領域情報取得部(領域情報取得手段)
103a 輝度情報生成部
103b 2値化処理部
104 面積算出部(面積算出手段)
105 位置情報取得部
105a 位置算出部(位置算出手段)
105b 特徴ベクトル抽出領域決定部(特徴ベクトル抽出領域決定手段)
106 フィルタ処理部(フィルタ処理手段)
107 特徴ベクトル抽出部(特徴ベクトル抽出手段)
108 種類判別部(種類判別手段)
109 第2記憶部
110 欠陥判定部(欠陥判定手段)
111 程度値算出部(程度値算出手段)
200 表示装置
100, 100A, 100B Defect inspection apparatus 101 Pre-learning unit 102 First storage unit 103 Region information acquisition unit (region information acquisition means)
103a Luminance information generation unit 103b Binarization processing unit 104 Area calculation unit (area calculation means)
105 position information acquisition unit 105a position calculation unit (position calculation means)
105b Feature vector extraction region determination unit (feature vector extraction region determination means)
106 Filter processing section (filter processing means)
107 feature vector extraction unit (feature vector extraction means)
108 type discriminator (type discriminating means)
109 Second storage unit 110 Defect determination unit (defect determination means)
111 degree value calculation unit (degree value calculation means)
200 Display device

Claims (9)

検査対象物の欠陥の有無を、前記検査対象物の画像情報に基づいて検査する欠陥検査装置であって、
外部から入力される前記検査対象物の画像情報に対して2値化処理を行うことによって、欠陥候補に含まれる画素の座標値を抽出し、欠陥候補ごとの識別情報であるラベリング値と前記座標値とを対応付けた欠陥候補の領域情報を取得する領域情報取得手段と、
前記領域情報取得手段によって取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの位置を重心座標値として算出する位置算出手段と、
前記領域情報取得手段によって取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの面積を算出する面積算出手段と、
前記領域情報取得手段によって取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの特徴ベクトルを抽出する領域を決定する特徴ベクトル抽出領域決定手段と、
前記特徴ベクトル抽出領域決定手段によって決定される前記領域において、前記2値化処理前の画像情報に対して高次局所自己相関処理を行い、前記欠陥候補ごとの特徴ベクトルを抽出する特徴ベクトル抽出手段と、
前記特徴ベクトル抽出手段によって抽出されるそれぞれの特徴ベクトルと、予め与えられる境界条件とを比較することによって、前記欠陥候補の種類を判別する種類判別手段と、
前記種類判別手段によって判別される欠陥候補の種類と、前記位置算出手段によって算出される欠陥候補の位置と、前記面積算出手段によって算出される欠陥候補の面積とのそれぞれを、予め与えられる判別基準と比較することによって前記検査対象物の欠陥の有無を判定する欠陥判定手段と、を備える
ことを特徴とする欠陥検査装置。
A defect inspection apparatus that inspects the presence or absence of a defect of an inspection object based on image information of the inspection object,
By performing a binarization process on the image information of the inspection object input from the outside, the coordinate value of the pixel included in the defect candidate is extracted, and the labeling value and the coordinates as identification information for each defect candidate Area information acquisition means for acquiring area information of defect candidates associated with values;
Position calculation means for calculating the position of each defect candidate as a barycentric coordinate value based on the area information of the defect candidate acquired by the area information acquisition means;
Area calculating means for calculating an area for each defect candidate based on the area information of the defect candidate acquired by the area information acquiring means;
A feature vector extraction region determination unit that determines a region for extracting a feature vector for each defect candidate based on the region information of the defect candidate acquired by the region information acquisition unit;
Feature vector extraction means for performing high-order local autocorrelation processing on the image information before the binarization processing in the region determined by the feature vector extraction region determination means and extracting a feature vector for each defect candidate When,
A type discriminating unit that discriminates the type of the defect candidate by comparing each feature vector extracted by the feature vector extracting unit with a predetermined boundary condition;
Discrimination criteria given in advance for the types of defect candidates discriminated by the type discriminating means, the positions of defect candidates calculated by the position calculating means, and the areas of defect candidates calculated by the area calculating means, respectively. And a defect determination means for determining the presence or absence of a defect of the inspection object by comparing with the defect inspection apparatus.
外部から入力される前記検査対象物の画像情報に対してバイラテラルフィルタをかけるフィルタ処理手段を備え、
前記特徴ベクトル抽出手段は、前記フィルタ処理手段によってフィルタ処理がなされた画像情報のうち、前記特徴ベクトル抽出領域決定手段によって決定される前記領域で高次局所自己相関処理を行い、前記欠陥候補の特徴ベクトルを抽出する
ことを特徴とする請求項1に記載の欠陥検査装置。
Filter processing means for applying a bilateral filter to the image information of the inspection object input from the outside,
The feature vector extraction unit performs high-order local autocorrelation processing on the region determined by the feature vector extraction region determination unit in the image information filtered by the filter processing unit, and the feature of the defect candidate The defect inspection apparatus according to claim 1, wherein a vector is extracted.
前記フィルタ処理手段によってフィルタ処理がなされた画像情報のうち、前記特徴ベクトル抽出領域決定手段から入力される前記領域において、輝度値が所定値以上である画素が占める割合を前記欠陥候補の程度値として算出する程度値算出手段を備え、
前記欠陥判定手段は、前記種類判別手段によって判別される欠陥候補の種類と、前記位置算出手段によって算出される欠陥候補の位置と、前記面積算出手段によって算出される欠陥候補の面積と、前記程度値算出手段によって算出される欠陥候補の程度値とのそれぞれを、予め与えられている前記判別基準と比較することによって、前記検査対象物の欠陥の有無を判定する
を特徴とする請求項2に記載の欠陥検査装置。
Of the image information filtered by the filter processing unit, a ratio of pixels having a luminance value equal to or greater than a predetermined value in the region input from the feature vector extraction region determination unit is set as the defect candidate degree value. A degree value calculating means for calculating,
The defect determination means includes a defect candidate type determined by the type determination means, a position of the defect candidate calculated by the position calculation means, an area of the defect candidate calculated by the area calculation means, and the degree 3. The presence / absence of a defect in the inspection object is determined by comparing each of the defect candidate degree values calculated by the value calculating means with the determination criterion given in advance. Defect inspection apparatus as described.
前記種類判別手段は、欠陥候補の種類が既知である教師画像情報から予め導出される判別関数で決定される超平面を前記境界条件として、前記欠陥候補の種類を判別する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の欠陥検査装置。
The type discriminating unit discriminates the type of the defect candidate by using, as the boundary condition, a hyperplane determined by a discriminant function derived in advance from teacher image information whose type of defect candidate is known. The defect inspection apparatus according to any one of claims 1 to 3.
検査対象物の欠陥の有無を、前記検査対象物の画像情報に基づいて検査する欠陥検査装置が行う欠陥検査方法であって、
前記欠陥検査装置が、
外部から入力される前記検査対象物の画像情報に対して2値化処理を行うことによって、欠陥候補に含まれる画素の座標値を抽出し、欠陥候補ごとの識別情報であるラベリング値と前記座標値とを対応付けた欠陥候補の領域情報を取得する領域情報取得ステップと、
前記領域情報取得ステップで取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの位置を重心座標値として算出する位置算出ステップと、
前記領域情報取得ステップで取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの面積を算出する面積算出ステップと、
前記領域情報取得ステップで取得される前記欠陥候補の領域情報に基づいて、欠陥候補ごとの特徴ベクトルを抽出する領域を決定する特徴ベクトル抽出領域決定ステップと、
前記特徴ベクトル抽出領域決定ステップで決定される前記領域において、前記2値化処理前の画像情報に対して高次局所自己相関処理を行い、前記欠陥候補ごとの特徴ベクトルを抽出する特徴ベクトル抽出ステップと、
前記特徴ベクトル抽出ステップで抽出されるそれぞれの特徴ベクトルと、予め与えられる境界条件とを比較することによって、前記欠陥候補の種類を判別する種類判別ステップと、
前記種類判別ステップで判別される欠陥候補の種類と、前記位置算出ステップで算出される欠陥候補の位置と、前記面積算出ステップで算出される欠陥候補の面積とのそれぞれを、予め与えられている判別基準と比較することによって前記検査対象物の欠陥の有無を判定する欠陥判定ステップと、を実行する
ことを特徴とする欠陥検査方法。
A defect inspection method performed by a defect inspection apparatus that inspects the presence or absence of a defect of an inspection object based on image information of the inspection object,
The defect inspection apparatus is
By performing a binarization process on the image information of the inspection object input from the outside, the coordinate value of the pixel included in the defect candidate is extracted, and the labeling value and the coordinates as identification information for each defect candidate An area information acquisition step of acquiring area information of defect candidates associated with values;
A position calculating step for calculating the position of each defect candidate as a barycentric coordinate value based on the area information of the defect candidate acquired in the area information acquiring step;
An area calculating step for calculating an area for each defect candidate based on the area information of the defect candidate acquired in the area information acquiring step;
A feature vector extraction region determination step for determining a region for extracting a feature vector for each defect candidate based on the region information of the defect candidate acquired in the region information acquisition step;
A feature vector extraction step of performing a high-order local autocorrelation process on the image information before the binarization process and extracting a feature vector for each defect candidate in the region determined in the feature vector extraction region determination step When,
A type determination step of determining the type of the defect candidate by comparing each feature vector extracted in the feature vector extraction step with a boundary condition given in advance;
The defect candidate type determined in the type determination step, the position of the defect candidate calculated in the position calculation step, and the area of the defect candidate calculated in the area calculation step are given in advance. A defect determination step of performing a defect determination step of determining the presence or absence of a defect of the inspection object by comparing with a determination criterion.
外部から入力される前記検査対象物の画像情報に対してバイラテラルフィルタをかけるフィルタ処理ステップを含み、
前記特徴ベクトル抽出ステップでは、前記フィルタ処理ステップでフィルタ処理がなされた画像情報のうち、前記特徴ベクトル抽出領域決定ステップで決定される前記領域で高次局所自己相関処理を行い、前記欠陥候補の特徴ベクトルを抽出する
ことを特徴とする請求項5に記載の欠陥検査方法。
Including a filtering step of applying a bilateral filter to the image information of the inspection object input from the outside,
In the feature vector extraction step, high-order local autocorrelation processing is performed in the region determined in the feature vector extraction region determination step in the image information filtered in the filter processing step, and the feature of the defect candidate The defect inspection method according to claim 5, wherein a vector is extracted.
前記フィルタ処理ステップでフィルタ処理がなされた画像情報のうち、前記特徴ベクトル抽出領域決定ステップで決定される前記領域において、輝度値が所定値以上である画素が占める割合を前記欠陥候補の程度値として算出する程度値算出ステップを含み、
前記欠陥判定ステップでは、前記種類判別ステップで判別される欠陥候補の種類と、前記位置算出ステップで算出される欠陥候補の位置と、前記面積算出ステップで算出される欠陥候補の面積と、前記程度値算出ステップで算出される欠陥候補の程度値とのそれぞれを、予め与えられている前記判別基準と比較することによって、前記検査対象物の欠陥の有無を判定する
を特徴とする請求項6に記載の欠陥検査方法。
Of the image information subjected to the filtering process in the filtering process step, a ratio of pixels having a luminance value equal to or larger than a predetermined value in the area determined in the feature vector extraction area determining step is set as the defect candidate degree value. A degree value calculating step for calculating,
In the defect determination step, the type of defect candidate determined in the type determination step, the position of the defect candidate calculated in the position calculation step, the area of the defect candidate calculated in the area calculation step, and the degree The presence / absence of a defect in the inspection object is determined by comparing each of the defect candidate degree values calculated in the value calculation step with the predetermined determination criterion. Described defect inspection method.
前記種類判別ステップでは、欠陥候補の種類が既知である教師画像情報から予め導出される判別関数で決定される超平面を前記境界条件として、前記欠陥候補の種類を判別する
ことを特徴とする請求項5から請求項7のいずれか一項に記載の欠陥検査方法。
The type of defect determination is characterized in that the type of defect candidate is determined using the hyperplane determined by a discriminant function derived in advance from teacher image information whose type of defect candidate is known as the boundary condition. Item 8. The defect inspection method according to any one of Items 5 to 7.
請求項5から請求項8のいずれか一項に記載の欠陥検査方法を、コンピュータである前記欠陥検査装置に実行させるためのプログラム。   The program for making the said defect inspection apparatus which is a computer perform the defect inspection method as described in any one of Claims 5-8.
JP2012032336A 2012-02-17 2012-02-17 Defect inspection device, defect inspection method, and program Pending JP2013167596A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012032336A JP2013167596A (en) 2012-02-17 2012-02-17 Defect inspection device, defect inspection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012032336A JP2013167596A (en) 2012-02-17 2012-02-17 Defect inspection device, defect inspection method, and program

Publications (1)

Publication Number Publication Date
JP2013167596A true JP2013167596A (en) 2013-08-29

Family

ID=49178095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012032336A Pending JP2013167596A (en) 2012-02-17 2012-02-17 Defect inspection device, defect inspection method, and program

Country Status (1)

Country Link
JP (1) JP2013167596A (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016142739A (en) * 2015-02-05 2016-08-08 東友ファインケム株式会社Dongwoo Fine−Chem Co., Ltd. Method for inspecting film
JP2017054331A (en) * 2015-09-10 2017-03-16 株式会社Screenホールディングス Image sorting method, method for configuring sorter, and image sorting device
JP2017096853A (en) * 2015-11-26 2017-06-01 株式会社リコー Information processing device, defect detection method and program
JP6358351B1 (en) * 2017-03-21 2018-07-18 Jfeスチール株式会社 Surface defect inspection method and surface defect inspection apparatus
JP2019066267A (en) * 2017-09-29 2019-04-25 清水建設株式会社 Crack detector, crack detection method, and computer program
JP2019078640A (en) * 2017-10-25 2019-05-23 Jfeスチール株式会社 Surface defect detection method and surface defect detector
KR20190128111A (en) * 2018-05-07 2019-11-15 제네럴 일렉트릭 컴퍼니 Quality monitoring system and quality monitoring method for fuel cell manufacturing line and quality monitoring system for manufacturing line
JP2020016514A (en) * 2018-07-25 2020-01-30 シーシーエス株式会社 Assisting device for optical inspection systems
JP2020085546A (en) * 2018-11-19 2020-06-04 国立研究開発法人産業技術総合研究所 System for supporting inspection and repair of structure
WO2020137222A1 (en) * 2018-12-28 2020-07-02 オムロン株式会社 Defect inspecting device, defect inspecting method, and program for same
JP2020107008A (en) * 2018-12-27 2020-07-09 東洋製罐グループホールディングス株式会社 Image processing system, and image processing program
WO2020175666A1 (en) * 2019-02-28 2020-09-03 大日本印刷株式会社 Color filter inspection device, inspection device, color filter inspection method, and inspection method
CN112577978A (en) * 2019-09-30 2021-03-30 本田技研工业株式会社 Electrode structure inspection method
CN112782190A (en) * 2019-11-07 2021-05-11 三星显示有限公司 Defect inspection device
JP2021110629A (en) * 2020-01-09 2021-08-02 株式会社小糸製作所 Inspection device and method for inspection
KR20210097623A (en) * 2020-01-30 2021-08-09 한국전자통신연구원 Method and apparatus for detecting dimension error
WO2021185404A1 (en) * 2020-03-20 2021-09-23 Schaeffler Technologies AG & Co. KG Method and test facility for testing a bipolar plate of an electrochemical cell, in particular of a fuel cell
JPWO2022074746A1 (en) * 2020-10-06 2022-04-14
KR20230081910A (en) * 2021-11-30 2023-06-08 (주)자비스 Method, apparatus and system for ensemble non-constructing inspection of object based on artificial intelligence
CN116699428A (en) * 2023-08-08 2023-09-05 深圳市杰成镍钴新能源科技有限公司 Defect detection method and device for retired battery
CN116990229A (en) * 2023-09-26 2023-11-03 南通赛可特电子有限公司 Defect detection method and system for copper plating layer surface of product
CN117250208A (en) * 2023-11-20 2023-12-19 青岛天仁微纳科技有限责任公司 Machine vision-based nano-imprint wafer defect accurate detection system and method
JP7531200B1 (en) 2023-12-18 2024-08-09 株式会社日立パワーソリューションズ Wind turbine blade repair support device and wind turbine blade repair support method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006098151A (en) * 2004-09-29 2006-04-13 Dainippon Screen Mfg Co Ltd Pattern inspection device and pattern inspection method
JP2010038723A (en) * 2008-08-05 2010-02-18 Hitachi Chem Co Ltd Flaw inspecting method
JP2010151655A (en) * 2008-12-25 2010-07-08 Hitachi High-Technologies Corp Defect inspection method and apparatus therefore
JP2011058940A (en) * 2009-09-09 2011-03-24 Panasonic Electric Works Co Ltd Apparatus and method for visual inspection
JP2011516374A (en) * 2008-03-31 2011-05-26 ビーティー イメージング ピーティーワイ リミテッド Wafer imaging and processing method and apparatus
JP2011237302A (en) * 2010-05-11 2011-11-24 Sumco Corp Device and method for wafer defect inspection

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006098151A (en) * 2004-09-29 2006-04-13 Dainippon Screen Mfg Co Ltd Pattern inspection device and pattern inspection method
JP2011516374A (en) * 2008-03-31 2011-05-26 ビーティー イメージング ピーティーワイ リミテッド Wafer imaging and processing method and apparatus
JP2010038723A (en) * 2008-08-05 2010-02-18 Hitachi Chem Co Ltd Flaw inspecting method
JP2010151655A (en) * 2008-12-25 2010-07-08 Hitachi High-Technologies Corp Defect inspection method and apparatus therefore
JP2011058940A (en) * 2009-09-09 2011-03-24 Panasonic Electric Works Co Ltd Apparatus and method for visual inspection
JP2011237302A (en) * 2010-05-11 2011-11-24 Sumco Corp Device and method for wafer defect inspection

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI679611B (en) * 2015-02-05 2019-12-11 南韓商東友精細化工有限公司 Method for inspecting film
KR20160096461A (en) * 2015-02-05 2016-08-16 동우 화인켐 주식회사 Method for inspecting film
CN105869143A (en) * 2015-02-05 2016-08-17 东友精细化工有限公司 Method for inspecting film
KR101694337B1 (en) * 2015-02-05 2017-01-09 동우 화인켐 주식회사 Method for inspecting film
JP2016142739A (en) * 2015-02-05 2016-08-08 東友ファインケム株式会社Dongwoo Fine−Chem Co., Ltd. Method for inspecting film
CN105869143B (en) * 2015-02-05 2020-06-05 东友精细化工有限公司 Film inspection method
JP2017054331A (en) * 2015-09-10 2017-03-16 株式会社Screenホールディングス Image sorting method, method for configuring sorter, and image sorting device
JP2017096853A (en) * 2015-11-26 2017-06-01 株式会社リコー Information processing device, defect detection method and program
US10859507B2 (en) 2017-03-21 2020-12-08 Jfe Steel Corporation Surface defect inspection method and surface defect inspection apparatus
JP2018155690A (en) * 2017-03-21 2018-10-04 Jfeスチール株式会社 Surface defect inspection method and surface defect inspection device
WO2018173660A1 (en) * 2017-03-21 2018-09-27 Jfeスチール株式会社 Surface defect inspection method and surface defect inspection device
JP6358351B1 (en) * 2017-03-21 2018-07-18 Jfeスチール株式会社 Surface defect inspection method and surface defect inspection apparatus
JP2019066267A (en) * 2017-09-29 2019-04-25 清水建設株式会社 Crack detector, crack detection method, and computer program
JP2019078640A (en) * 2017-10-25 2019-05-23 Jfeスチール株式会社 Surface defect detection method and surface defect detector
KR102507661B1 (en) * 2018-05-07 2023-03-07 제네럴 일렉트릭 컴퍼니 Quality monitoring system and quality monitoring method for fuel cell manufacturing line and quality monitoring system for manufacturing line
KR20190128111A (en) * 2018-05-07 2019-11-15 제네럴 일렉트릭 컴퍼니 Quality monitoring system and quality monitoring method for fuel cell manufacturing line and quality monitoring system for manufacturing line
JP2020016514A (en) * 2018-07-25 2020-01-30 シーシーエス株式会社 Assisting device for optical inspection systems
JP7257750B2 (en) 2018-07-25 2023-04-14 シーシーエス株式会社 Support device for optical inspection system
JP2020085546A (en) * 2018-11-19 2020-06-04 国立研究開発法人産業技術総合研究所 System for supporting inspection and repair of structure
JP7517641B2 (en) 2018-11-19 2024-07-17 国立研究開発法人産業技術総合研究所 Structure inspection and repair support system
JP2020107008A (en) * 2018-12-27 2020-07-09 東洋製罐グループホールディングス株式会社 Image processing system, and image processing program
JP2020106467A (en) * 2018-12-28 2020-07-09 オムロン株式会社 Defect inspection device, defect inspection method, and program therefor
US11830174B2 (en) 2018-12-28 2023-11-28 Omron Corporation Defect inspecting device, defect inspecting method, and storage medium
WO2020137222A1 (en) * 2018-12-28 2020-07-02 オムロン株式会社 Defect inspecting device, defect inspecting method, and program for same
WO2020175666A1 (en) * 2019-02-28 2020-09-03 大日本印刷株式会社 Color filter inspection device, inspection device, color filter inspection method, and inspection method
JPWO2020175666A1 (en) * 2019-02-28 2020-09-03
JP7415286B2 (en) 2019-02-28 2024-01-17 大日本印刷株式会社 Color filter inspection equipment, inspection equipment, color filter inspection method and inspection method
TWI822968B (en) * 2019-02-28 2023-11-21 日商大日本印刷股份有限公司 Color filter inspection device, inspection device, color filter inspection method, and inspection method
CN112577978A (en) * 2019-09-30 2021-03-30 本田技研工业株式会社 Electrode structure inspection method
CN112782190A (en) * 2019-11-07 2021-05-11 三星显示有限公司 Defect inspection device
JP2021110629A (en) * 2020-01-09 2021-08-02 株式会社小糸製作所 Inspection device and method for inspection
JP7546356B2 (en) 2020-01-09 2024-09-06 株式会社小糸製作所 Inspection device and inspection method
KR20210097623A (en) * 2020-01-30 2021-08-09 한국전자통신연구원 Method and apparatus for detecting dimension error
KR102700755B1 (en) * 2020-01-30 2024-08-30 한국전자통신연구원 Method and apparatus for detecting dimension error
CN115088125A (en) * 2020-03-20 2022-09-20 舍弗勒技术股份两合公司 Method and inspection device for inspecting bipolar plates of electrochemical cells, in particular fuel cells
WO2021185404A1 (en) * 2020-03-20 2021-09-23 Schaeffler Technologies AG & Co. KG Method and test facility for testing a bipolar plate of an electrochemical cell, in particular of a fuel cell
JP2023514753A (en) * 2020-03-20 2023-04-07 シェフラー テクノロジーズ アー・ゲー ウント コー. カー・ゲー Method and apparatus for testing bipolar plates of electrochemical cells, in particular fuel cells
JP7438382B2 (en) 2020-03-20 2024-02-26 シェフラー テクノロジーズ アー・ゲー ウント コー. カー・ゲー Method and testing device for testing bipolar plates of electrochemical cells, especially fuel cells
JP7410442B2 (en) 2020-10-06 2024-01-10 日本電信電話株式会社 Deterioration detection device, deterioration detection method, and program
WO2022074746A1 (en) * 2020-10-06 2022-04-14 日本電信電話株式会社 Deterioration detection apparatus, deterioration detection method, and program
JPWO2022074746A1 (en) * 2020-10-06 2022-04-14
WO2023101374A1 (en) * 2021-11-30 2023-06-08 (주)자비스 Artificial intelligence-based non-destructive ensemble testing method, device, and system for object
KR102597081B1 (en) * 2021-11-30 2023-11-02 (주)자비스 Method, apparatus and system for ensemble non-constructing inspection of object based on artificial intelligence
KR20230081910A (en) * 2021-11-30 2023-06-08 (주)자비스 Method, apparatus and system for ensemble non-constructing inspection of object based on artificial intelligence
CN116699428B (en) * 2023-08-08 2023-10-10 深圳市杰成镍钴新能源科技有限公司 Defect detection method and device for retired battery
CN116699428A (en) * 2023-08-08 2023-09-05 深圳市杰成镍钴新能源科技有限公司 Defect detection method and device for retired battery
CN116990229B (en) * 2023-09-26 2023-12-08 南通赛可特电子有限公司 Defect detection method and system for copper plating layer surface of product
CN116990229A (en) * 2023-09-26 2023-11-03 南通赛可特电子有限公司 Defect detection method and system for copper plating layer surface of product
CN117250208B (en) * 2023-11-20 2024-02-06 青岛天仁微纳科技有限责任公司 Machine vision-based nano-imprint wafer defect accurate detection system and method
CN117250208A (en) * 2023-11-20 2023-12-19 青岛天仁微纳科技有限责任公司 Machine vision-based nano-imprint wafer defect accurate detection system and method
JP7531200B1 (en) 2023-12-18 2024-08-09 株式会社日立パワーソリューションズ Wind turbine blade repair support device and wind turbine blade repair support method

Similar Documents

Publication Publication Date Title
JP2013167596A (en) Defect inspection device, defect inspection method, and program
JP5546317B2 (en) Visual inspection device, visual inspection discriminator generation device, visual inspection discriminator generation method, and visual inspection discriminator generation computer program
CN111179251B (en) Defect detection system and method based on twin neural network and by utilizing template comparison
JP6061713B2 (en) Inspection apparatus, inspection method and program
CN113592845A (en) Defect detection method and device for battery coating and storage medium
CN111292305A (en) Improved YOLO-V3 metal processing surface defect detection method
WO2014087689A1 (en) Image processing device, image processing system, and program
JP2019061484A (en) Image processing device and control method thereof and program
CN114092387A (en) Generating training data usable for examining a semiconductor sample
CN116012291A (en) Industrial part image defect detection method and system, electronic equipment and storage medium
CN109462999B (en) Visual inspection method based on learning through data balance and visual inspection device using same
CN111814852B (en) Image detection method, image detection device, electronic equipment and computer readable storage medium
CN107016394B (en) Cross fiber feature point matching method
CN116152242B (en) Visual detection system of natural leather defect for basketball
CN117798087B (en) Visual sorting system and terminal for lithium battery based on appearance defect detection
CN113516619B (en) Product surface flaw identification method based on image processing technology
Ghosh et al. Counterfeit IC detection by image texture analysis
CN114049316A (en) Steel wire rope defect detection method based on metallic luster area
KR101929669B1 (en) The method and apparatus for analyzing an image using an entropy
JP2023523426A (en) Abnormal wafer image classification
CN114170168A (en) Display module defect detection method, system and computer readable storage medium
CN113822836B (en) Method for marking an image
CN118038454A (en) Wafer defect root cause analysis method and device based on proprietary large model
CN117036314A (en) Method for detecting oxidation area of high-density flexible IC substrate
CN116188445A (en) Product surface defect detection and positioning method and device and terminal equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160329

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160620