JP7533263B2 - Image inspection device, image inspection method, and trained model generation device - Google Patents
Image inspection device, image inspection method, and trained model generation device Download PDFInfo
- Publication number
- JP7533263B2 JP7533263B2 JP2021020384A JP2021020384A JP7533263B2 JP 7533263 B2 JP7533263 B2 JP 7533263B2 JP 2021020384 A JP2021020384 A JP 2021020384A JP 2021020384 A JP2021020384 A JP 2021020384A JP 7533263 B2 JP7533263 B2 JP 7533263B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- inspection
- good
- split
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007689 inspection Methods 0.000 title claims description 433
- 238000000034 method Methods 0.000 title description 36
- 239000013598 vector Substances 0.000 claims description 229
- 230000007547 defect Effects 0.000 claims description 119
- 230000002950 deficient Effects 0.000 claims description 84
- 238000000605 extraction Methods 0.000 claims description 20
- 238000003384 imaging method Methods 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 11
- 238000004891 communication Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 26
- 238000012545 processing Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 238000005286 illumination Methods 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- General Health & Medical Sciences (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、画像検査装置、画像検査方法、及び学習済みモデル生成装置に関する。 The present invention relates to an image inspection device, an image inspection method, and a trained model generation device.
従来、対象物を撮影した画像に基づいて、当該対象物の検査を行う画像検査装置が知られている。 Conventionally, image inspection devices are known that inspect an object based on an image of the object.
例えば、特許文献1には、入力される判定対象画像データに基づいて異常を判定する異常判定を行う異常判定装置において、正常画像データ群から抽出される特徴量から正常画像データを再構成するための再構成用パラメータを用いて、判定対象画像データの特徴量から再構成画像データを生成し、生成した再構成画像データと該判定対象画像データとの差異情報に基づいて異常判定を行うための異常判定処理を実行する処理実行手段を有するものが記載されている。特許文献1の異常判定装置は、判定対象画像データが複数チャネルの画像データを含む場合、再構成用パラメータを用いて各チャネルの画像データの特徴量から再構成画像データをチャネルごとに生成し、生成した各再構成画像データと該判定対象画像データの各チャネルの画像データとの差異情報に基づいて異常判定を行っている。 For example, Patent Document 1 describes an anomaly determination device that performs anomaly determination based on input image data to be determined, which has a process execution means that generates reconstructed image data from the features of the image data to be determined using reconstruction parameters for reconstructing normal image data from features extracted from a group of normal image data, and executes anomaly determination processing to perform anomaly determination based on difference information between the generated reconstructed image data and the image data to be determined. When the image data to be determined includes image data of multiple channels, the anomaly determination device of Patent Document 1 generates reconstructed image data for each channel from the features of the image data of each channel using reconstruction parameters, and performs anomaly determination based on difference information between each generated reconstructed image data and the image data of each channel of the image data to be determined.
ここで、従来、良品の対象物の良品画像を小さいサイズに分割して入力し、当該良品画像の特徴量を出力するように学習させた学習済みモデルを用い、特徴空間において、検査画像から抽出した特徴ベクトルと良品画像の特徴ベクトルとに基づいて、検査画像の欠陥を検出する方法があった。 Here, in the past, there was a method in which a good-quality image of a good target object was divided into smaller pieces and input, and a trained model was used that was trained to output the feature quantities of the good-quality image, and defects in the inspection image were detected in the feature space based on the feature vector extracted from the inspection image and the feature vector of the good-quality image.
しかしながら、良品画像に局所的に特殊パターンが存在する場合、この特殊パターンを含む良品画像の特徴ベクトルは、特徴空間において、他の良品画像の特徴ベクトルから離れた位置にプロットされてしまい、特殊パターンを含む対象物を不良品として検出してしまうことがあった。 However, when a special pattern is present locally in a good product image, the feature vector of the good product image containing this special pattern is plotted at a position in the feature space away from the feature vectors of other good product images, which can result in the object containing the special pattern being detected as a defective product.
また、別の良品画像が、ある位置では良品である一方、別の位置では不良品であるパターンを含む場合、このようなパターンを当該別の位置に含む検査画像の特徴ベクトルは、特徴空間において、良品画像の特徴ベクトルの近くにプロットされることになり、不良品を見逃してしまうことがあった。 In addition, if another good product image contains a pattern that is good in one location but defective in another location, the feature vector of the inspection image that contains such a pattern in the other location will be plotted close to the feature vector of the good product image in feature space, which can cause the defective product to be overlooked.
本発明は、このような事情に鑑みてなされたものであり、良品画像の特徴ベクトルに対し、特殊パターンを含む良品画像の特徴ベクトルを近くにプロットするとともに、不良品の検査画像の特徴ベクトルを遠くにプロットすることのできる画像検査装置、画像検査方法、及び学習済みモデル生成装置を提供することを目的の1つとする。 The present invention has been made in consideration of these circumstances, and one of its objectives is to provide an image inspection device, an image inspection method, and a trained model generation device that can plot the feature vectors of good product images that include special patterns close to the feature vectors of good product images, and plot the feature vectors of defective product inspection images farther away.
本開示の一態様に係る画像検査装置は、良品の検査対象物の分割画像である良品分割画像と該良品分割画像の周囲の画像に基づく良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデルに、検査対象物の分割画像である検査分割画像と該検査分割画像の周囲の画像に基づく検査周囲含有画像とを入力し、該検査分割画像に対する特徴量を成分とする特徴ベクトルをそれぞれ抽出する抽出部と、抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得する取得部と、欠陥度合いに基づいて、検査対象物を検査する検査部と、を備える。 An image inspection device according to one aspect of the present disclosure includes an extraction unit that inputs an inspection split image, which is a split image of an inspection object of a good product, and an inspection surroundings-containing image, which is based on an image surrounding the inspection split image, to a trained model that has been trained to output features using as input a good product split image, which is a split image of an inspection object of a good product, and a good product surroundings-containing image, which is based on an image surrounding the inspection split image, and extracts feature vectors whose components are the feature amounts for the inspection split image, an acquisition unit that acquires a defect degree indicating the degree of defect in the inspection split image corresponding to the feature vector, based on a point indicated by the feature vector and a set formed by multiple feature vectors for multiple good product split images, in a feature space represented by the extracted feature vector, and an inspection unit that inspects the inspection object based on the defect degree.
この態様によれば、良品分割画像と良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデルに、検査分割画像と検査周囲含有画像とを入力し、当該検査分割画像に対する特徴ベクトルを抽出する。これにより、良品分割画像のみを用いて学習させ、特殊パターンを含む良品分割画像の特徴ベクトルが示す点が他のパターンを含む良品分割画像の特徴ベクトルが示す点から遠い位置にプロットされる場合と比較して、学習済みモデルは、位置により特徴量が大きく変化する良品周囲含有画像も用いて学習することで、同じ位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を近くに、異なる位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を遠くにプロットすることが可能になるので、良品分割画像に特有のパターンを正確に学習することができ、特徴空間において、検査分割画像に対する特徴ベクトルが示す点は、対応する良品分割画像に対する特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像に対する特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像に対する特徴ベクトルが形成する集合の近くにプロットすることができ、欠陥の程度が小さい欠陥度合いを取得して良品と判定することができる。また、学習済みモデルは、良品周囲含有画像によって、良品の検査対象物の良品画像における位置、部分に応じて異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置に応じて異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像に対する特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像に対する複数の特徴ベクトルが形成する集合に対して遠くにプロットすることができ、欠陥の程度が大きい欠陥度合いを取得して不良品の見逃しを抑制することができる。従って、特徴空間における、検査分割画像に対する特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、検査分割画像の欠陥度合いを取得し、この欠陥度合いに基づいて、検査対象物を検査することにより、検査対象物の検査精度を高めることができる。 According to this aspect, the inspection split image and the inspection surroundings-containing image are input to a trained model that has been trained to output features using a good-product split image and a good-product surroundings-containing image as inputs, and a feature vector for the inspection split image is extracted. As a result, compared to a case where a trained model is trained using only good-product split images and a point indicated by a feature vector of a good-product split image containing a special pattern is plotted at a position far from a point indicated by a feature vector of a good-product split image containing another pattern, the trained model trains using a good-product surroundings-containing image in which the feature amount changes greatly depending on the position, so that the distance between points indicated by feature vectors for good-product split images at the same position can be plotted close to each other, and the distance between points indicated by feature vectors for good-product split images at different positions can be plotted far from each other, so that a pattern specific to a good-product split image can be accurately learned, and in the feature space, a point indicated by a feature vector for an inspection split image is plotted close to a set formed by the feature vector for the corresponding good-product split image. Therefore, in the feature space, a point indicated by a feature vector for an inspection split image including a special pattern can be plotted near a set formed by feature vectors for multiple good split images corresponding to the inspection split image, and a defect degree with a small degree of defect can be obtained to determine that the product is good. In addition, the trained model can learn different judgment criteria according to the position and part in the good product image of the inspection target of a good product by using the image containing the good product surroundings, and in the feature space, the points indicated by the feature vector for each inspection split image are collected in different ranges and regions according to the position of the inspection split image in the inspection image. Therefore, in the feature space, a point indicated by a feature vector for an inspection split image at another position including a pattern that is good at one position but defective at another position can be plotted far away from the set formed by multiple feature vectors for multiple good split images at the other position, and a defect degree with a large degree of defect can be obtained to suppress overlooking of defective products. Therefore, the degree of defect in the inspection split image is obtained based on the point indicated by the feature vector for the inspection split image in the feature space and the set formed by multiple feature vectors for multiple good product split images, and the inspection object is inspected based on this degree of defect, thereby improving the inspection accuracy of the inspection object.
前述した態様において、検査周囲含有画像は、検査分割画像の周囲の画像を縮小した画像を含んでもよい。 In the above-mentioned aspect, the inspection surroundings-containing image may include an image that is a reduced image of the surroundings of the inspection division image.
この態様によれば、検査周囲含有画像は、検査分割画像の周囲の画像を縮小した画像を含む。これにより、学習済みモデルによる特徴量の出力において、検査周囲含有画像の影響が大きくなるのを抑制することができ、検査分割画像に対する特徴ベクトルを高精度に抽出することが可能となる。 According to this aspect, the inspection surroundings-containing image includes an image that is a reduced image of the surroundings of the inspection divided image. This makes it possible to suppress the influence of the inspection surroundings-containing image from becoming too large in the output of features by the trained model, and makes it possible to extract feature vectors for the inspection divided image with high accuracy.
前述した態様において、取得部は、抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と集合との間の距離に基づいて、該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得してもよい。 In the above-mentioned aspect, the acquisition unit may acquire the degree of defect of the inspection segmentation image corresponding to the extracted feature vector based on the distance between a point indicated by the feature vector and a set in a feature space represented by the feature vector.
この態様によれば、特徴ベクトルに対応する検査分割画像の欠陥度合いは、特徴空間における、特徴ベクトルが示す点と複数の良品分割画像の複数の特徴ベクトルによって形成される集合との間の距離に基づいて取得される。これにより、検査分割画像の欠陥の程度を容易に示すことができる。 According to this aspect, the degree of defect in the inspection split image corresponding to the feature vector is obtained based on the distance in the feature space between the point indicated by the feature vector and a set formed by multiple feature vectors of multiple good product split images. This makes it easy to indicate the degree of defect in the inspection split image.
前述した態様において、取得部は、抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と複数の良品分割画像の複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて、該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得してもよい。 In the above-mentioned aspect, the acquisition unit may acquire the degree of defect of the inspection segmented image corresponding to the extracted feature vector based on the distance between a point indicated by the feature vector and a point indicated by one of the multiple feature vectors of the multiple good segmented images in a feature space represented by the feature vector.
この態様によれば、特徴ベクトルに対応する検査分割画像の欠陥度合いは、特徴空間における、特徴ベクトルが示す点と複数の良品分割画像の複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて取得される。これにより、検査分割画像の欠陥の程度を容易に示すことができる。 According to this aspect, the degree of defect of the inspection split image corresponding to the feature vector is obtained based on the distance in the feature space between a point indicated by the feature vector and a point indicated by one of the multiple feature vectors of the multiple good product split images. This makes it easy to indicate the degree of defect in the inspection split image.
前述した態様において、欠陥度合いは、検査分割画像の欠陥の程度を示す値であってもよい。 In the above-mentioned aspect, the degree of defect may be a value indicating the degree of defect in the inspection division image.
この態様によれば、検査分割画像の欠陥の程度を定量的に示すことができる。 According to this embodiment, the degree of defects in the inspection division image can be quantitatively indicated.
前述した態様において、検査部は、複数の欠陥度合いに基づいて欠陥度合い画像を生成し、該欠陥度合い画像に基づいて検査対象物を検査してもよい。 In the above-mentioned aspect, the inspection unit may generate a defect degree image based on multiple defect degrees and inspect the inspection object based on the defect degree image.
この態様によれば、検査対象物が良品であるか不良品であるかを容易に判定することができ、検査精度の高い検査を容易に実現することができる。 According to this aspect, it is easy to determine whether the object being inspected is a good or bad item, and inspection with high inspection accuracy can be easily achieved.
前述した態様において、検査対象物の検査画像を複数の検査分割画像に分割する分割部をさらに備えてもよい。 In the above-mentioned aspect, a division unit may be further provided that divides the inspection image of the inspection object into a plurality of inspection divided images.
この態様によれば、検査対象物の検査画像を複数の検査分割画像に分割する分割部をさらに備える。これにより、検査分割画像を容易に得ることができる。 According to this aspect, a division unit that divides the inspection image of the inspection object into a plurality of inspection divided images is further provided. This makes it possible to easily obtain the inspection divided images.
前述した態様において、検査対象物の検査画像を取得するための撮像部をさらに備えてもよい。 In the above-mentioned aspect, an imaging unit may be further provided for acquiring an inspection image of the object to be inspected.
この態様によれば、検査対象物の検査画像を取得するための撮像部をさらに備える。これにより、検査画像を容易に得ることができる。 According to this aspect, an imaging unit is further provided for acquiring an inspection image of the object to be inspected. This makes it easy to obtain the inspection image.
本開示の他の態様に係る画像検査方法は、良品の検査対象物の分割画像である良品分割画像と該良品分割画像の周囲の画像に基づく良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデルに、検査対象物の分割画像である検査分割画像と該検査分割画像の周囲の画像に基づく検査周囲含有画像とを入力し、該検査分割画像に対する特徴量を成分とする特徴ベクトルをそれぞれ抽出するステップと、抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得するステップと、欠陥度合いに基づいて、検査対象物を検査するステップと、を含む。 An image inspection method according to another aspect of the present disclosure includes the steps of: inputting an inspection split image, which is a split image of an inspection object, and an inspection surroundings-containing image, which is based on an image surrounding the inspection split image, into a trained model that has been trained to output features using as input a good-item split image, which is a split image of an inspection object that is a good item, and a good-item surroundings-containing image, which is based on an image surrounding the good-item split image, and extracting feature vectors whose components are the features for the inspection split image; acquiring a defect degree indicating the degree of defect in the inspection split image corresponding to the feature vector, based on a point indicated by the feature vector and a set formed by multiple feature vectors for multiple good-item split images, in a feature space represented by the extracted feature vector; and inspecting the inspection object based on the defect degree.
この態様によれば、良品分割画像と良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデルに、検査分割画像と検査周囲含有画像とを入力し、当該検査分割画像に対する特徴ベクトルを抽出する。これにより、良品分割画像のみを用いて学習させ、特殊パターンを含む良品分割画像の特徴ベクトルが示す点が他のパターンを含む良品分割画像の特徴ベクトルが示す点から遠い位置にプロットされる場合と比較して、学習済みモデルは、位置により特徴量が大きく変化する良品周囲含有画像も用いて学習することで、同じ位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を近くに、異なる位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を遠くにプロットすることが可能になるので、良品分割画像に特有のパターンを正確に学習することができ、特徴空間において、検査分割画像に対する特徴ベクトルが示す点は、対応する良品分割画像に対する特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像に対する特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像に対する特徴ベクトルが形成する集合の近くにプロットすることができ、欠陥の程度が小さい欠陥度合いを取得して良品と判定することができる。また、学習済みモデルは、良品周囲含有画像によって、良品の検査対象物の良品画像における位置、部分に応じて異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置に応じて異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像に対する特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像に対する複数の特徴ベクトルが形成する集合に対して遠くにプロットすることができ、欠陥の程度が大きい欠陥度合いを取得して不良品の見逃しを抑制することができる。従って、特徴空間における、検査分割画像に対する特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、検査分割画像の欠陥度合いを取得し、この欠陥度合いに基づいて、検査対象物を検査することにより、検査対象物の検査精度を高めることができる。 According to this aspect, the inspection split image and the inspection surroundings-containing image are input to a trained model that has been trained to output features using a good-product split image and a good-product surroundings-containing image as inputs, and a feature vector for the inspection split image is extracted. As a result, compared to a case where a trained model is trained using only good-product split images and a point indicated by a feature vector of a good-product split image containing a special pattern is plotted at a position far from a point indicated by a feature vector of a good-product split image containing another pattern, the trained model trains using a good-product surroundings-containing image in which the feature amount changes greatly depending on the position, so that the distance between points indicated by feature vectors for good-product split images at the same position can be plotted close to each other, and the distance between points indicated by feature vectors for good-product split images at different positions can be plotted far from each other, so that a pattern specific to a good-product split image can be accurately learned, and in the feature space, a point indicated by a feature vector for an inspection split image is plotted close to a set formed by the feature vector for the corresponding good-product split image. Therefore, in the feature space, a point indicated by a feature vector for an inspection split image including a special pattern can be plotted near a set formed by feature vectors for multiple good split images corresponding to the inspection split image, and a defect degree with a small degree of defect can be obtained to determine that the product is good. In addition, the trained model can learn different judgment criteria according to the position and part in the good product image of the inspection target of a good product by using the image containing the good product surroundings, and in the feature space, the points indicated by the feature vector for each inspection split image are collected in different ranges and regions according to the position of the inspection split image in the inspection image. Therefore, in the feature space, a point indicated by a feature vector for an inspection split image at another position including a pattern that is good at one position but defective at another position can be plotted far away from the set formed by multiple feature vectors for multiple good split images at the other position, and a defect degree with a large degree of defect can be obtained to suppress overlooking of defective products. Therefore, the degree of defect in the inspection split image is obtained based on the point indicated by the feature vector for the inspection split image in the feature space and the set formed by multiple feature vectors for multiple good product split images, and the inspection object is inspected based on this degree of defect, thereby improving the inspection accuracy of the inspection object.
本開示の他の態様に係る学習済みモデル生成装置は、良品の検査対象物の分割画像である良品分割画像と該良品分割画像の周囲の画像に基づく良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデルを生成するモデル生成部を備える。 A trained model generating device according to another aspect of the present disclosure includes a model generating unit that generates a trained model trained to output features using as input a non-defective divided image, which is a divided image of a non-defective inspection object, and a non-defective surroundings-containing image based on an image surrounding the non-defective divided image.
この態様によれば、良品分割画像と良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデルを生成する。これにより、良品分割画像のみを用いて学習させ、特殊パターンを含む良品分割画像の特徴ベクトルが示す点が他のパターンを含む良品分割画像の特徴ベクトルが示す点から遠い位置にプロットされる場合と比較して、学習済みモデルは、位置により特徴量が大きく変化する良品周囲含有画像も用いて学習することで、同じ位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を近くに、異なる位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を遠くにプロットすることが可能になるので、良品分割画像に特有のパターンを正確に学習することができ、特徴空間において、特殊パターンを含む検査分割画像に対する特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像に対する特徴ベクトルが形成する集合の近くにプロットすることができる。また、学習済みモデルは、良品周囲含有画像によって、良品の検査対象物の良品画像における位置、部分に応じて異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置に応じて異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像に対する特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像に対する複数の特徴ベクトルが形成する集合に対して遠くにプロットすることができる。 According to this aspect, a trained model is generated that is trained to output features using a good-product divided image and an image containing the surroundings of a good product as input. As a result, compared to a case where a trained model is trained using only good-product divided images and a point indicated by a feature vector of a good-product divided image containing a special pattern is plotted at a position far from a point indicated by a feature vector of a good-product divided image containing another pattern, the trained model trains using images containing the surroundings of a good product, in which the feature amount varies greatly depending on the position, so that the distance between points indicated by feature vectors for good-product divided images at the same position can be plotted close to each other and the distance between points indicated by feature vectors for good-product divided images at different positions can be plotted far from each other. This makes it possible to accurately learn patterns specific to good-product divided images, and in the feature space, a point indicated by a feature vector for an inspection divided image containing a special pattern can be plotted close to a set formed by feature vectors for multiple good-product divided images corresponding to the inspection divided image. In addition, the trained model can learn different judgment criteria depending on the position and part in the good product image of the inspection target object of good product by using the image containing the surroundings of the good product, and in the feature space, the points indicated by the feature vector for each inspection split image are collected in different ranges and regions depending on the position of the inspection split image in the inspection image. Therefore, in the feature space, a point indicated by the feature vector for an inspection split image at another position, which includes a pattern that is good at one position but defective at another position, can be plotted far away from the set formed by the multiple feature vectors for the multiple good product split images at the other position.
本発明によれば、良品画像の特徴ベクトルに対し、特殊パターンを含む良品画像の特徴ベクトルを近くにプロットするとともに、不良品の検査画像の特徴ベクトルを遠くにプロットすることができる。 According to the present invention, the feature vectors of good product images that contain special patterns can be plotted close to the feature vectors of good product images, and the feature vectors of defective product inspection images can be plotted farther away.
以下に本発明の実施形態を説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号で表している。但し、図面は模式的なものである。従って、具体的な寸法等は以下の説明を照らし合わせて判断するべきものである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。さらに、本発明の技術的範囲は、当該実施形態に限定して解するべきではない。 The following describes an embodiment of the present invention. In the following description of the drawings, identical or similar parts are denoted by identical or similar reference symbols. However, the drawings are schematic. Therefore, specific dimensions, etc. should be determined in light of the following description. Furthermore, the drawings include parts with different dimensional relationships and ratios. Furthermore, the technical scope of the present invention should not be interpreted as being limited to the embodiment.
まず、図1を参照しつつ、一実施形態に従う画像検査システムの構成について説明する。図1は、一実施形態における画像検査システム1の概略構成を例示する構成図である。 First, the configuration of an image inspection system according to one embodiment will be described with reference to FIG. 1. FIG. 1 is a configuration diagram illustrating the schematic configuration of an image inspection system 1 according to one embodiment.
図1に示すように、画像検査システム1は、画像検査装置20及び照明ILを含む。画像検査装置20は、通信ネットワークNWを介して、学習済みモデル生成装置10に接続されている。照明ILは、検査対象物TAに光Lを照射する。画像検査装置20は、反射光Rを撮影し、検査対象物TAの画像(以下、「検査画像」ともいう)に基づいて、検査対象物TAの検査を行う。学習済みモデル生成装置10は、画像検査装置20が検査を行うために用いる学習済みモデルを生成する。
As shown in FIG. 1, the image inspection system 1 includes an
次に、図2を参照しつつ、一実施形態に従う学習済みモデル生成装置及び画像検査装置の物理的構成について説明する。図2は、一実施形態における学習済みモデル生成装置10及び画像検査装置20の物理的構成を示す構成図である。
Next, the physical configuration of a trained model generation device and an image inspection device according to one embodiment will be described with reference to FIG. 2. FIG. 2 is a configuration diagram showing the physical configuration of a trained
図2に示すように、学習済みモデル生成装置10及び画像検査装置20は、それぞれ、プロセッサ31と、メモリ32と、記憶装置33と、通信装置34と、入力装置35と、出力装置36と、を備える。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。
As shown in FIG. 2, the trained
なお、図2に示す例では、学習済みモデル生成装置10及び画像検査装置20が、それぞれ、一台のコンピュータで構成される場合について説明するが、これに限定されるものではない。学習済みモデル生成装置10及び画像検査装置20は、それぞれ、複数のコンピュータが組み合わされて実現されてもよい。また、図2で示す構成は一例であり、学習済みモデル生成装置10及び画像検査装置20は、それぞれ、これら以外の構成を備えてもよいし、これらの構成のうち一部を備えなくてもよい。
In the example shown in FIG. 2, the trained
プロセッサ31は、学習済みモデル生成装置10及び画像検査装置20の各部の動作を制御するように構成されている。プロセッサ31は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array))、SoC(Sysmtem-on-a-Chip)等の集積回路を含んで構成される。
The
メモリ32及び記憶装置33は、それぞれ、プログラムやデータ等を記憶するように構成されている。メモリ32は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)及び/又はRAM(Random Access Memory)等から構成される。記憶装置33は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)及び/又はeMMC(embedded Multi Media Card)等のストレージから構成される。
The
通信装置34は、有線及び無線の少なくとも一方のネットワークを介して通信を行うように構成されている。通信装置34は、例えば、ネットワークカード、通信モジュール、他の機器に接続するインターフェース等を含んで構成される。
The
入力装置35は、ユーザの操作により情報を入力できるように構成されている。入力装置35は、例えば、キーボード、タッチパネル、マウス、ポインティングデバイス、及び/又はマイク等を含んで構成される。
The
出力装置36は、情報を出力するように構成されている。出力装置36は、例えば液晶ディスプレイ、EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ、LCD(Liquid Crystal Display)等の表示装置、及び/又はスピーカ等を含んで構成される。
The
次に、図3から図6を参照しつつ、一実施形態に従う学習済みモデル生成装置の機能ブロックについて説明する。図3は、一実施形態における学習済みモデル生成装置10の機能ブロックの構成を示す構成図である。図4は、図3に示す学習用画像データセット生成部131による良品分割画像及び良品周囲含有画像の生成を説明するための概念図である。図5は、図3に示すモデル生成部135が使用する第1例の学習モデル51を説明するための概念図である。図6は、図3に示すモデル生成部135が使用する第2例の学習モデル52を説明するための概念図である。
Next, functional blocks of a trained model generating device according to one embodiment will be described with reference to Figures 3 to 6. Figure 3 is a configuration diagram showing the configuration of functional blocks of a trained
図3に示すように、学習済みモデル生成装置10は、通信部110と、記憶部120と、学習部130と、を備える。
As shown in FIG. 3, the trained
通信部110は、各種の情報を送信及び受信可能に構成されている。通信部110は、例えば、通信ネットワークNWを介して、後述する学習済みモデル55を画像検査装置20に送信する。また、通信部110は、例えば、通信ネットワークNWを介して、他の装置から良品画像を受信する。すなわち、通信部110は、良品と判定された検査対象物TAの画像である良品画像を取得する。通信部110によって取得された複数の良品画像(以下、それぞれを区別しない場合にその1つを「良品画像40」ともいう)は、記憶部120に書き込まれて記憶される。
The
記憶部120は、各種の情報を記憶するように構成されている。記憶部120は、例えば、良品画像40と、複数の学習用画像データセット(以下、それぞれを区別しない場合にその1つを「学習用画像データセット124」ともいう)と、学習済みモデル55と、複数の特徴ベクトル(以下、それぞれを区別しない場合にその1つを「特徴ベクトル129」ともいう)と、を記憶する。
The
学習部130は、学習モデルを学習させて学習済みモデルを生成するためのものである。学習部130は、例えば、学習用画像データセット生成部131及びモデル生成部135を含む。
The
学習用画像データセット生成部131は、学習用画像データセット124を生成するように構成されている。学習用画像データセット124は、学習済みモデル55を生成するために用いられる画像データのセットである。
The training image
より詳細には、学習用画像データセット生成部131は、記憶部120に記憶された複数の良品画像40を読み出し、それぞれについて、当該良品画像40を複数に分割した画像(以下「良品分割画像」という)を生成する。
More specifically, the learning image
図4に示すように、学習用画像データセット生成部131は、1つの良品画像40を、例えば縦方向及び横方向にそれぞれ5分割することで、合計25個の良品分割画像を生成する。なお、良品画像40は、2から24個の良品分割画像に分割されてもよいし、26個以上の良品分割画像に分割されてもよい。また、良品分割画像の形状は矩形に限定されるものではなく、いかなる形状であってよい。
As shown in FIG. 4, the learning image
また、学習用画像データセット生成部131は、良品分割画像について、当該良品分割画像の周囲に配置された画像に基づいて、良品周囲含有画像を生成する。例えば、学習用画像データセット生成部131は、良品画像40に含まれる25個の良品分割画像のうち、縁に配置されている16個の良品分割画像を除いた9個の良品分割画像のそれぞれについて、良品周囲含有画像を生成する。なお、縁に配置されている16個の良品分割画像について、それぞれ、検査画像からはみ出した領域の画素値を生成することで、良品周囲含有画像を生成してもよい。この場合、はみ出した領域の画素値は、ユーザが決めた特定の値を用いて生成してもよいし、当該良品分割画像に最も近い画像端の画素値をコピーして生成してもよい。
The learning image
そして、学習用画像データセット生成部131は、良品分割画像と当該良品分割画像の良品周囲含有画像とを含んで構成される学習用画像データセット124を生成する。
Then, the learning image
例えば、学習用画像データセット生成部131は、良品画像40において、左から2番目、上から2番目に位置する第1良品分割画像400について、その周囲の良品分割画像を含む第1良品周囲含有画像404を生成する。第1良品分割画像400及び第1良品周囲含有画像404は、1つの学習用画像データセット124を構成する。同様に、学習用画像データセット生成部131は、良品画像40において、左から3番目、上から2番目に位置する第2良品分割画像402について第2良品周囲含有画像406を生成し、第2良品分割画像402及び第2良品周囲含有画像406を含んで構成される学習用画像データセット124を生成する。このようにして、9個の良品分割画像のそれぞれについて、学習用画像データセット124を生成する。生成された複数の学習用画像データセット124は、記憶部120に書き込まれて記憶される。
For example, the learning image
図4に示す例では、第1良品周囲含有画像404は、第1良品分割画像400の周囲に位置する8個の良品分割画像を良品周囲画像として含んでいるが、良品周囲含有画像は、この例に限定されるものではない。良品周囲含有画像は、例えば第1良品分割画像400の周囲の8個の良品分割画像のうちの一部を含まなくてよい。また、良品周囲含有画像は、良品分割画像の単位で構成されている場合に限定されず、いかなる単位で構成されていてもよい。すなわち、良品周囲含有画像は、良品分割画像よりも小さい単位で構成されていてもよいし、良品分割画像よりも大きい単位で構成されていてもよい。
In the example shown in FIG. 4, the first good product
なお、良品分割画像の解像度と良品周囲含有画像の解像度とが同じである場合、良品周囲画像の画素数の方が良品分割画像の画素数よりも多くなると、良品周囲含有画像の方が良品分割画像よりも学習処理への寄与度が大きくなる。このため、使用する学習モデルの表現能力が低いと、後述する良品分割画像の特徴量を十分な精度で得ることができない場合がある。 When the resolution of the good product divided image and the good product surroundings containing image are the same, if the number of pixels in the good product surroundings containing image is greater than the number of pixels in the good product divided image, the good product surroundings containing image will contribute more to the learning process than the good product divided image. For this reason, if the expressive ability of the learning model used is low, it may not be possible to obtain the feature quantities of the good product divided image described below with sufficient accuracy.
以上の理由により、良品周囲含有画像の学習処理への寄与度は、良品分割画像の学習処理への寄与度よりも小さいことが好ましい。よって、良品周囲含有画像に含まれる、良品分割画像の周囲の画像は、縮小されていることが好ましい。より具体的には、縮小された良品周囲画像のサイズ、つまり画素数が良品分割画像のサイズ、つまり画素数よりも小さくなるように、良品分割画像の周囲の画像が縮小されていることが好ましい。この縮小は、例えば、学習用画像データセット生成部131によって行われる。このとき、学習用画像データセット生成部131は、良品分割画像の周囲の画像のみを縮小してもよいし、良品分割画像の周囲の画像とともに、良品周囲含有画像に含まれる残りの画像、例えば良品分割画像を縮小してもよい。
For the above reasons, it is preferable that the contribution of the good product surroundings-containing image to the learning process is smaller than the contribution of the good product divided image to the learning process. Therefore, it is preferable that the image around the good product divided image included in the good product surroundings-containing image is reduced. More specifically, it is preferable that the image around the good product divided image is reduced so that the size of the reduced good product surroundings image, i.e., the number of pixels, is smaller than the size of the good product divided image, i.e., the number of pixels. This reduction is performed, for example, by the learning image
モデル生成部135は、学習モデルに複数の学習用画像データセット124を学習させる学習処理を実施し、学習済みモデル55を生成するように構成されている。学習済みモデル55は、良品分割画像及び良品周囲含有画像を入力とし、特徴量を出力するモデルである。
The
図5に示すように、モデル生成部135が学習済みモデル55を生成するために用いる学習モデル51は、例えば、ニューラルネットワークの1つであって、教師なし機械学習の手法の1つでもあるオートエンコーダが用いられ、オートエンコーダは、入力層511と、出力層517と、入力層511と出力層517との間に配置されている中間層515と、を含んでいる。
As shown in FIG. 5, the
なお、学習モデル51は、オートエンコーダを用いる場合に限定されるものではない。学習モデル51は、例えば、PCA(Principal Component Analysis)を用いてもよい。また、中間層515は、1層である場合に限定されず、2層以上であってもよい。
The
入力層511及び出力層517は、それぞれ、2つのチャネルを有している。具体的には、入力層511は第1入力チャネル512及び第2入力チャネル513を有し、出力層517は、第1出力チャネル518及び第2出力チャネル519を有する。良品分割画像と対応する良品周囲含有画像とは、それぞれ、異なるチャネルに入力される。例えば、第1入力チャネル512に良品分割画像が入力され、第2入力チャネル513に良品周囲含有画像が入力される。入力層511に入力された良品分割画像及び良品周囲含有画像は、中間層515において画像の次元が削減され、出力層517において次元が戻されて出力される。具体的には、第1出力チャネル518から良品分割画像に対応する出力良品分割画像が出力され、第2出力チャネル519から良品周囲含有画像に対応する出力良品周囲含有画像が出力される。オートエンコーダは、良品分割画像と出力良品分割画像との間の差分(以下、「第1差分」ともいう)及び良品周囲含有画像と出力良品周囲含有画像との間の差分(以下、「第2差分」ともいう)の合計が最小となるように、重み(係数ともいう)を学習する。より詳細には、円形状で表される各ノードは、線で表される各エッジにおいて固有の重み付けを行い、重み付けされた値が次の層のノードに入力される。この重み付けにおける重みを学習することで、第1差分と第2差分との合計が最小になる。この学習によって、中間層515から特徴量を出力することが可能となる。
The
ここで、特徴量は、求めたい事物の特徴を定量的に表した変数である。中間層515から出力される特徴量は、例えば良品分割画像であることを特徴づけるものであり、具体的には良品分割画像が有する濃淡の配列、良品分割画像における輝度、赤単体、緑単体、青単体、又は赤・緑・青(RGB)のヒストグラム等が挙げられる。一般的に、良品分割画像は、1種類の特徴量だけで良品の分割画像であることを認識可能である場合は少なく、複数種類の特徴量を用いて良品の分割画像であることを認識できる場合が多い。前述したように、良品周囲含有画像の学習処理への寄与度を小さく、言い換えれば、良品分割画像の学習処理への寄与度を大きくすることで、学習済みモデル55は、良品周囲含有画像を考慮した良品分割画像に対する特徴量を出力する。
Here, the feature is a variable that quantitatively represents the feature of the object to be found. The feature output from the
この1つ又は複数の特徴量を成分としてベクトル形式で表現したものが特徴ベクトルである。特徴量の数(個数)は、当該特徴ベクトルの次元(次元数)を表す。特徴ベクトルで表現される空間、別の言い方をすれば、特徴ベクトルによって張られる空間は、特徴空間と呼ばれ、特徴ベクトルは特徴空間上の1点として表される。例えば出力層505がd個(dは正の整数)の特徴量を出力するように学習された場合、学習済みモデル55によって、入力された画像からd次元ベクトルの特徴ベクトル129を抽出することができ、抽出された特徴ベクトル129は、d次元空間の特徴空間における1点で表すことができる。
A feature vector is a vector representation of one or more features as components. The number of features represents the dimension of the feature vector. The space represented by the feature vectors, or in other words, the space spanned by the feature vectors, is called the feature space, and the feature vector is represented as a point in the feature space. For example, if the output layer 505 is trained to output d features (d is a positive integer), the trained
また、図6に示すように、モデル生成部135が学習済みモデル55を生成するために用いる学習モデル52は、例えば、図5に示す学習モデル51と同様に、オートエンコーダが用いられ、オートエンコーダは、入力層521と、出力層527と、入力層521と出力層527との間に配置されている中間層525と、を含んでいる。なお、学習モデル52は、例えばPCAを用いてもよく、また、中間層525は、2層以上であってもよい。
As shown in FIG. 6, the
入力層521及び出力層527は、それぞれ、1つのチャネルを有している。良品分割画像と対応する良品周囲含有画像とは、結合されて結合画像が生成される。入力層521に結合画像が入力されると、中間層525において結合画像の次元が削減される。そして、出力層527において次元を戻して結合画像に対応する出力結合画像が出力される。オートエンコーダは、結合画像と出力結合画像との間の差分が最小となるように、重みを学習する。より詳細には、円形状で表される各ノードは、線で表される各エッジにおいて固有の重み付けを行い、重み付けされた値が次の層のノードに入力される。この重み付けにおける重みを学習することで、結合画像と出力結合画像との間の差分が最小になる。この学習によって、中間層525から特徴量を出力することが可能となる。
The
また、モデル生成部135は、学習済みモデル55を生成する過程で、各良品分割画像に対する特徴ベクトル129を抽出する。抽出された複数の特徴ベクトル129は、記憶部120に書き込まれて記憶される。例えば、j個の良品画像のそれぞれについて25個の良品分割画像に分割し、そのうちのk個の良品分割画像のそれぞれについて学習用画像データセット124を生成する場合、抽出され、記憶される特徴ベクトル129の数は、例えばj×k個である。なお、複数の特徴ベクトル129のそれぞれの次元dは、同じであってもよいし、互いに異なっていてもよい。
In addition, the
このように、良品分割画像と良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデル55を生成することにより、詳細は後述するように、良品分割画像のみを用いて学習させ、特殊パターンを含む良品分割画像の特徴ベクトルが示す点が他のパターンを含む良品分割画像の特徴ベクトルが示す点から遠い位置にプロットされる場合と比較して、学習済みモデル55は、位置により特徴量が大きく変化する良品周囲含有画像も用いて学習することで、同じ位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を近くに、異なる位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を遠くにプロットすることが可能になるので、良品分割画像に特有のパターンを正確に学習することができ、特徴空間において、特殊パターンを含む検査分割画像に対する特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像に対する特徴ベクトルが形成する集合の近くにプロットすることができる。また、学習済みモデル55は、良品周囲含有画像によって、良品の検査対象物TAの良品画像における位置、部分に応じて異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置に応じて異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像に対する特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像に対する複数の特徴ベクトルが形成する集合に対して遠くにプロットすることができる。
In this way, by generating a trained
なお、学習用画像データセット生成部131及びモデル生成部135の少なくとも一方は、プロセッサ31が、記憶装置33に記憶されたプログラムを実行することにより実現されてもよい。プログラムを実行する場合、当該プログラムは、記憶媒体に格納されていてもよい。当該プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体(Non-Transitory computer readable medium)であってもよい。非一時的な記憶媒体は、特に限定されないが、例えば、USBメモリ、又はCD-ROM(Compact Disc ROM)等の記憶媒体であってもよい。
At least one of the learning image
次に、図7から図13を参照しつつ、一実施形態に従う画像検査装置の機能ブロックについて説明する。図7は、一実施形態における画像検査装置20の機能ブロックの構成を示す構成図である。図8は、欠陥度合いを取得する方法の一例を説明するための概念図である。図9は、欠陥度合いを取得する方法の他の例を説明するための概念図である。図10は、図7に示す、分割部240、検査用画像データセット生成部250、抽出部260、及び取得部270による処理を説明するための概念図である。図11は、検査画像60の一例を示す図である。図12は、図7に示す検査部280による処理を説明するための概念図である。図13は、欠陥度合い画像70の一例を示す図である。
Next, functional blocks of an image inspection device according to one embodiment will be described with reference to Figs. 7 to 13. Fig. 7 is a configuration diagram showing the configuration of functional blocks of an
図7に示すように、画像検査装置20は、通信部210と、記憶部220と、撮像部230と、分割部240と、検査用画像データセット生成部250と、抽出部260と、取得部270と、検査部280と、を備える。
As shown in FIG. 7, the
通信部210は、各種の情報を送信及び受信可能に構成されている。通信部210は、例えば、通信ネットワークNWを介して、学習済みモデル生成装置10から学習済みモデル55及び複数の特徴ベクトル129を受信する。受信された学習済みモデル55、及び複数の特徴ベクトル129は、記憶部220に書き込まれて記憶される。
The
記憶部220は、各種の情報を記憶するように構成されている。記憶部220は、例えば、学習済みモデル55と、複数の特徴ベクトル129とを記憶する。このように、複数の学習済みモデル55を記憶する記憶部220を備えることにより、学習済みモデルを容易に読み出すことができる。
The
撮像部230は、検査対象物TAの検査画像を取得するためのものである。撮像部230は、例えばカメラ等の撮像装置を含んで構成される。本実施形態の撮像部230は、検査対象物TAからの反射光Rを受光し、検査画像を取得する。そして、撮像部230は、取得した検査画像を分割部240に出力する。このように、検査対象物TAの検査画像を取得することにより、検査画像を容易に得ることができる。
The
分割部240は、検査対象物TAの検査画像を複数の検査分割画像に分割するように構成されている。より詳細には、分割部240は、学習済みモデル生成装置10における良品画像の分割と同様の方法によって、検査画像を分割する。具体的には、分割部240は、検査対象物TAの検査画像を、縦方向及び横方向にそれぞれ5分割して、25個の検査分割画像を生成する。そして、分割部240は、生成した検査分割画像を検査用画像データセット生成部250に出力する。このように、検査対象物TAの検査画像を複数の検査分割画像に分割することにより、検査分割画像を容易に得ることができる。
The
検査用画像データセット生成部250は、検査分割画像について、当該検査分割画像の周囲に配置された画像に基づいて、検査周囲含有画像を生成するように構成されている。検査周囲含有画像は、検査分割画像の周囲の画像のうちの少なくとも一部に基づく画像である。検査用画像データセット生成部250は、予め指定されたアルゴリズムに基づいて検査周囲含有画像を生成してもよいし、ユーザの操作に基づいて検査周囲含有画像を生成してもよい。
The inspection image
また、検査用画像データセット生成部250は、検査分割画像と生成された検査周囲含有画像とを含んで構成される検査用画像データセットを生成するように構成されている。
The inspection image
より詳細には、検査用画像データセット生成部250は、複数の検査分割画像のそれぞれについて、検査周囲含有画像を生成して複数の検査用画像データセットを生成する。本実施形態では、検査用画像データセット生成部250は、分割部240により生成された25個の検査分割画像のうちの縁の検査分割画像を除く9個の検査分割画像について、検査周囲含有画像を生成する。ここで、前述したように、学習処理の際に良品周囲含有画像が縮小されている場合、検査用画像データセット生成部250は、良品周囲含有画像の縮小に合わせて、検査分割画像の周囲の画像を縮小し、検査周囲含有画像は、この縮小された画像を含むことが好ましい。検査用画像データセット生成部250は、生成した検査用画像データセットを抽出部260に出力する。
More specifically, the inspection image
抽出部260は、学習済みモデル55に検査用画像データセットを入力し、当該検査用画像データセットに含まれる検査分割画像に対する特徴量を成分とする特徴ベクトルを抽出するように構成されている。具体的には、抽出部260は、記憶部220に記憶された学習済みモデル55を読み出し、学習済みモデル55に、複数の検査用画像データセットのそれぞれを順次入力する。前述したように、学習済みモデル55は入力された画像の特徴量を出力するように学習されているので、抽出部260は、入力の検査分割画像に対する1つ又は複数の特徴量を、学習済みモデル55から得ることができる。これにより、1つ又は複数の特徴量を成分とする特徴ベクトルが抽出される。そして、抽出部260は、抽出した複数の特徴ベクトルを取得部270に出力する。なお、抽出部260が抽出する検査分割画像の特徴ベクトルは、良品分割画像に対する特徴ベクトル129と同じd次元ベクトルである。
The
取得部270は、抽出された複数の特徴ベクトルのそれぞれについて、当該特徴ベクトルで表現される特徴空間における、当該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、当該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得するように構成されている。欠陥度合いは、例えば、レベル、ステップ、クラス、級(等級)、層(階層)等のように離散的に程度を表すものを用いてもよいし、例えば数等のように連続的に程度を表すものを用いてもよい。
The
具体的には、取得部270は、記憶部220に記憶された複数の特徴ベクトル129を読み出し、d次元空間である特徴空間に、各特徴ベクトル129が示す点をプロットする。これにより、図8に示すように、例えば2次元の特徴空間において、各特徴ベクトル129が示す黒丸の点によって、破線で示す集合S1が形成される。この集合は、例えば良品画像40における位置に応じて形成される。なお、取得部270は、複数の特徴ベクトル129に基づいて特徴空間における集合S1をあらかじめ形成しておき、当該集合S1に関する情報を記憶部220に書き込んで記憶していてもよい。
Specifically, the
次に、取得部270は、抽出部260から入力された複数の特徴ベクトルのうち、集合S1に対応する位置の検査分割画像に対する特徴ベクトルが示す点を、特徴空間にプロットする。図10では、対応する位置の検査分割画像に対する特徴ベクトルは、白丸の点P1で示されている。そして、取得部270は、この検査分割画像に対する特徴ベクトルが示す点P1と集合S1とに基づいて、当該検査分割画像の欠陥度合いを取得する。
Next, the
より詳細には、取得部270は、抽出された複数の特徴ベクトルのそれぞれについて、特徴空間における、当該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合との間の距離に基づいて、当該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得するように構成されている。
More specifically, the
図8に示す例では、第1特徴量及び第2特徴量を成分とする特徴ベクトルで表現される特徴空間において、取得部270は、ある検査分割画像に対する特徴ベクトルが示す点P1と、当該検査分割画像に対応する複数の良品分割画像に対する複数の特徴ベクトルの集合S1との間の距離に基づいて、当該検査分割画像の欠陥度合いを取得する。この欠陥度合いは、例えば距離に応じた値である。このように、特徴ベクトルに対応する検査分割画像の欠陥度合いが、特徴空間における、特徴ベクトルが示す点P1と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合S1との間の距離に基づいて取得されることにより、検査分割画像の欠陥の程度を容易に示すことができる。
In the example shown in FIG. 8, in a feature space represented by a feature vector whose components are the first feature amount and the second feature amount, the
あるいは、取得部270は、抽出された複数の特徴ベクトルのそれぞれについて、特徴空間における、当該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて、当該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得するように構成されていてもよい。
Alternatively, the
例えば、図9に示すように、第1特徴量及び第2特徴量を成分とする特徴ベクトルで表現される特徴空間において、取得部270は、ある検査分割画像の特徴ベクトルが示す点P2と、当該検査分割画像に対応する複数の良品分割画像に対する複数の特徴ベクトルの集合S2に含まれる点との間の距離に基づいて、当該検査分割画像の欠陥度合いを取得する。この欠陥度合いは、例えば距離に応じた値である。また、集合S2に含まれる点は、集合S2に含まれる複数の点のうち、例えば点P2に最も近い点である。取得部270は、集合S2に含まれる複数の点のそれぞれについて点P2との間の距離を算出し、点P2に最も近い点を決定することができる。このように、特徴ベクトルに対応する検査分割画像の欠陥度合いが、特徴空間における、特徴ベクトルが示す点P2と複数の良品分割画像に対する複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて取得されることにより、検査分割画像の欠陥の程度を容易に示すことができる。
For example, as shown in FIG. 9, in a feature space represented by a feature vector having the first feature amount and the second feature amount as components, the
取得部270は、抽出部260により抽出された複数の特徴ベクトルのそれぞれについて、以上の手順を繰り返し行い、複数の検査分割画像のそれぞれの欠陥度合いを取得する。そして、取得部270は、取得した複数の欠陥度合いを検査部280に出力する。
The
図10に示すように、撮像部230が取得した検査対象物TAの検査画像42は、分割部240によって縦方向及び横方向にそれぞれ5分割され、25個の検査分割画像が生成される。生成された25個の検査分割画像のうちの縁の検査分割画像を除く9個の検査分割画像のそれぞれについて、検査用画像データセット生成部250によって検査周囲含有画像が生成される。例えば、第1検査分割画像420について第1検査周囲含有画像424が生成され、第2検査分割画像422について第2検査周囲含有画像426が生成される。検査分割画像と検査周囲含有画像との組みが検査用画像データセットとなる。
As shown in FIG. 10, the
抽出部260は、生成された9個の検査用画像データセットのぞれぞれを、学習済みモデルに入力する。9個の検査分割画像に対するぞれぞれの特徴量が学習済みモデルから出力され、抽出部260は、9個の検査用画像データセットに対してそれぞれ出力された特徴量を成分とする9個の特徴ベクトルを抽出する。例えば、第1特徴ベクトル440は第1検査分割画像420及び第1検査周囲含有画像424に基づいて抽出され、第2特徴ベクトル442は第2検査分割画像422及び第2検査周囲含有画像426に基づいて抽出される。
The
取得部270は、抽出された9個の特徴ベクトルのそれぞれについて、当該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルの集合とに基づいて、当該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得する。これにより、9個の検査分割画像のそれぞれの欠陥度合いが取得される。例えば、第1欠陥度合い460は第1特徴ベクトル440に基づいて取得され、第2欠陥度合い462は第2特徴ベクトル442に基づき取得される。
For each of the nine extracted feature vectors, the
ここで、図11に示すように、良品であることがあらかじめ分かっている検査対象物TAの検査画像60は、例えば、6個の検査分割画像600,602,604,606,608,及び610に分割される。これら6個の検査分割画像のうち、検査分割画像602,606,及び608は互いに類似するパターンを含んでいる。また、検査分割画像604は、他の検査分割画像と異なる特殊パターンを含んでいる。
As shown in FIG. 11, an
本実施形態の学習済みモデル55とは異なり、仮に、良品周囲含有画像を用いずに、これら6個の検査分割画像を用いて学習済みモデルを生成する場合、当該学習済みモデルは、検査分割画像602,604又は608のパターンの特徴量を抽出して出力し得るものの、学習済みモデルの表現能力次第では、検査分割画像604に含まれる特殊パターンの特徴量が十分に抽出されない可能性がある。この場合、特徴空間において、特殊パターンを含む検査分割画像604の特徴ベクトルが示す点は、他の検査分割画像600,602,606,608,及び610の特徴ベクトルが形成する集合から離れた位置にプロットされることがある。その結果、当該検査分割画像604の欠陥度合いは大きくなり、良品である検査対象物TAが不良品と判定されてしまうことがあった。
Unlike the trained
これに対し、本実施形態の画像検査装置20は、良品分割画像に加え、良品周囲含有画像を入力として特徴量を出力するように学習させた学習済みモデル55に、検査分割画像600,602,604,606,608,及び610と、検査周囲含有画像とを入力し、当該検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルを抽出する。これにより、良品分割画像のみを用いて学習させ、特殊パターンを含む良品分割画像の特徴ベクトルが示す点が他のパターンを含む良品分割画像の特徴ベクトルが示す点から遠い位置にプロットされる場合と比較して、学習済みモデル55は、位置により特徴量が大きく変化する良品周囲含有画像も用いて学習することで、同じ位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を近くに、異なる位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を遠くにプロットすることが可能になるので、良品分割画像に特有のパターンを正確に学習することができ、特徴空間において、各検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像に対する特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像604に対する特徴ベクトルが示す点を、当該検査分割画像604に対応する複数の良品分割画像に対する特徴ベクトルが形成する集合の近くにプロットすることができ、欠陥の程度が小さい欠陥度合いを取得して良品と判定することができる。
In contrast, the
また、良品であることがあらかじめ分かっている別の検査対象物TAの検査画像において、ある位置で良品であるが別の位置では不良品であるパターンを含む検査分割画像を用いて1つの学習済みモデルを生成する場合、特徴空間において、このようなパターンを含む検査分割画像の特徴ベクトルが示す点は、他の検査分割画像の特徴ベクトルが形成する集合の近くにプロットされることがある。そのため、当該別の位置にこのようなパターンを含む検査分割画像の欠陥度合いは小さくなり、本来は不良品である検査分割画像を含む検査画像の検査対象物TAは良品として判定され、不良品を見逃してしまうことがあった。 Furthermore, when generating a trained model using an inspection split image that includes a pattern that is good in one position but defective in another position in an inspection image of another inspection object TA that is known in advance to be a good product, the point indicated by the feature vector of the inspection split image that includes such a pattern may be plotted in the feature space near the set formed by the feature vector of the other inspection split image. As a result, the degree of defect of the inspection split image that includes such a pattern in the other position becomes smaller, and the inspection object TA of the inspection image that includes the inspection split image that is actually defective may be judged as a good product, and the defective product may be overlooked.
このような場合にも、本実施形態の画像検査装置20では、学習済みモデル55は、良品周囲含有画像によって、良品の検査対象物TAの良品画像における位置、部分に応じて異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置に応じて異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像に対する特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像に対する複数の特徴ベクトルが形成する集合に対して遠くにプロットすることができ、欠陥の程度が大きい欠陥度合いを取得して不良品の見逃しを抑制することができる。
Even in such a case, in the
また、本実施形態の検査周囲含有画像は、検査分割画像の周囲の画像を縮小した画像を含む。これにより、学習済みモデル55による特徴量の出力において、検査周囲含有画像の影響が大きくなるのを抑制することができ、検査分割画像に対する特徴ベクトルを高精度に抽出することが可能となる。
In addition, the inspection periphery-containing image in this embodiment includes a reduced image of the image surrounding the inspection split image. This makes it possible to suppress the influence of the inspection periphery-containing image from becoming too large in the output of features by the trained
図7の説明に戻り、検査部280は、欠陥度合いに基づいて検査対象物TAの検査するように構成されている。このように、特徴空間における、検査分割画像に対する特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、検査分割画像の欠陥度合いを取得し、この欠陥度合いに基づいて、検査対象物TAを検査することにより、検査対象物TAの検査精度を高めることができる。
Returning to the explanation of FIG. 7, the
また、前述した欠陥度合いは、検査分割画像の欠陥の程度を示す値であることが好ましい。これにより、検査分割画像の欠陥の程度を定量的に示すことができる。 The aforementioned degree of defect is preferably a value indicating the degree of defect in the inspection split image. This makes it possible to quantitatively indicate the degree of defect in the inspection split image.
この場合、検査部280は、取得部270によって取得された複数の欠陥度合いに基づいて欠陥度合い画像を生成し、当該欠陥度合い画像に基づいて検査対象物TAを検査するように構成されている。これにより、検査対象物が良品であるか不良品であるかを容易に判定することができ、検査精度の高い検査を容易に実現することができる。
In this case, the
具体的には、図12に示すように、検査部280は、取得部270によって取得された複数の欠陥度合い460,462、464,・・・を、それぞれの値に基づいて画像化することで、複数の部分画像480,482,484,・・・を生成する。複数の部分画像480,482,484,・・・のそれぞれは、例えば、欠陥度合いの値を、白黒の階調に変換したグレースケール画像や、RGBの階調に変換したカラー画像等である。検査部280は、生成された複数の部分画像480,482,484,・・・を統合することで、欠陥度合い画像48を生成する。なお、欠陥度合い画像48の縦及び横のサイズ(画素数)は、検査画像42と同じであってもよいし、異なっていてもよい。そして、検査部280は、当該欠陥度合い画像48に基づいて検査対象物TAが良品であるか否かを判定する。
Specifically, as shown in FIG. 12, the
図13に示すように、欠陥度合い画像70は、例えば2つの欠陥部分画像700,702を含んでいる。欠陥部分画像700は欠陥度合いが相対的に低い部分画像であり、欠陥部分画像702は欠陥度合いが相対的に高い部分画像である。 As shown in FIG. 13, the defect degree image 70 includes, for example, two defect portion images 700 and 702. The defect portion image 700 is a partial image with a relatively low degree of defect, and the defect portion image 702 is a partial image with a relatively high degree of defect.
検査部280は、例えば、欠陥度合い画像70における欠陥部分画像700,702の占める割合が、所定の閾値以下である場合に検査対象物TAが良品であると判定し、所定の閾値を超える場合に検査対象物TAが良品ではない、つまり、不良品であると判定する。
For example, the
あるいは、検査部280は、欠陥度合い画像70に含まれる欠陥部分画像700,702の有無に基づいて、検査対象物TAの欠陥を検出してもよい。
Alternatively, the
なお、分割部240、検査用画像データセット生成部250、抽出部260、取得部270、及び検査部280のうちの少なくとも1つは、プロセッサ31が、記憶装置33に記憶されたプログラムを実行することにより実現されてもよい。プログラムを実行する場合、当該プログラムは、記憶媒体に格納されていてもよい。当該プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体であってもよい。非一時的な記憶媒体は、特に限定されないが、例えば、USBメモリ、又はCD-ROM等の記憶媒体であってもよい。
At least one of the
次に、図14を参照しつつ、一実施形態に従う学習済みモデル生成装置が行う処理手順について説明する。図14は、一実施形態における学習済みモデル生成装置10が行う学習済みモデル生成処理S100の一例を説明するためのフローチャートである。
Next, a processing procedure performed by a trained model generation device according to one embodiment will be described with reference to FIG. 14. FIG. 14 is a flowchart for explaining an example of a trained model generation process S100 performed by the trained
図14に示すように、まず、通信部110は、通信ネットワークNWを介して、複数の良品画像40を取得する(ステップS101)。取得された複数の良品画像40は、記憶部120に記憶される。
As shown in FIG. 14, first, the
次に、学習用画像データセット生成部131は、記憶部120から複数の良品画像40を読み出し、当該複数の良品画像40に基づいて、複数の学習用画像データセット124を生成する(ステップS102)。学習用画像データセット124は、前述したように、良品分割画像と良品周囲含油画像とを含んでいる。
Next, the learning image
次に、モデル生成部135は、ステップS102において生成された複数の学習用画像データセット124を入力とし、特徴量を出力するように学習させた学習済みモデル55を生成する。(ステップS103)。生成された学習済みモデル55と、学習済みモデル55の生成過程で抽出される複数の特徴ベクトル129とは、記憶部120に記憶される。
Next, the
次に、通信部110は、ステップS103において生成された学習済みモデル55と、生成過程で抽出される複数の特徴ベクトル129とを、通信ネットワークNWを介して、画像検査装置20に送信する(ステップS104)。これにより、画像検査装置20は、学習済みモデル生成装置10によって生成された学習済みモデルを使用可能になる。
Next, the
ステップS104の後、学習済みモデル生成装置10は、学習済みモデル生成処理S100を終了する。
After step S104, the trained
次に、図15を参照しつつ、一実施形態に従う画像検査装置が行う処理手順について説明する。図15は、一実施形態における画像検査装置20が行う画像検査処理S200の一例を説明するためのフローチャートである。
Next, the processing procedure performed by the image inspection device according to one embodiment will be described with reference to FIG. 15. FIG. 15 is a flowchart for explaining an example of the image inspection process S200 performed by the
なお、以下の例では、通信部210が学習済みモデル生成装置10から学習済みモデル55及び複数の特徴ベクトル129を受信し、記憶部220に当該学習済みモデル55及び複数の特徴ベクトル129が記憶されているものとして、説明する。
In the following example, it is assumed that the
図15に示すように、まず、撮像部230が、検査対象物TAの検査画像を取得する(ステップS201)。取得された検査画像は、分割部240に出力される。
As shown in FIG. 15, first, the
次に、分割部240はステップS201において取得された検査画像を分割し、検査用画像データセット生成部250は、分割された複数の検査分割画像のそれぞれについて、検査周囲含有画像を生成して複数の検査用画像データセットを生成する(ステップS202)。検査用画像データセットは、前述したように、検査分割画像と検査周囲含有画像とを含んでいる。生成された複数の検査用画像データセットは、抽出部260に出力される。
Next, the
次に、抽出部260は、記憶部220にあらかじめ記憶された学習済みモデル55を読み出し、ステップS207において生成された複数の検査用画像データセットのそれぞれを学習済みモデル55にそれぞれ入力し、複数の特徴ベクトルを抽出する(ステップS203)。生成された複数の特徴ベクトルは、取得部270に出力される。
Next, the
次に、取得部270は、記憶部220にあらかじめ記憶された複数の複数の特徴ベクトル129を読み出し、ステップS207において抽出された複数の特徴ベクトルのそれぞれについて、特徴空間において、特徴ベクトルが示す点と対応する複数の良品分割画像に対する複数の特徴ベクトル129によって形成される集合とに基づいて、複数の検査分割画像の欠陥度合いを取得する(ステップS204)。得られた複数の欠陥度合いは、検査部280に出力される。
Next, the
次に、検査部280は、ステップS204において得られた複数の欠陥度合いのそれぞれの値をから複数の部分画像を生成し、生成された各部分画像を統合して欠陥度合い画像を生成する(ステップS205)。
Next, the
次に、検査部280は、ステップS205において生成された欠陥度合い画像に基づいて、検査対象物TAを検査する(ステップS206)。
Next, the
ステップS206の後、画像検査装置20は、画像検査処理S200を終了する。
After step S206, the
なお、本実施形態で説明したシーケンス及びフローチャートは、処理に矛盾が生じない限り、順序を入れ替えてもよい。 The sequence and flow chart described in this embodiment may be rearranged as long as no inconsistencies occur in the processing.
以上、本発明の例示的な実施形態について説明した。本実施形態における画像検査装置20及び画像検査方法によれば、良品分割画像と良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデル55に、検査分割画像600,602,604,606,608,及び610と、検査周囲含有画像とを入力し、当該検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルを抽出する。これにより、良品分割画像のみを用いて学習させ、特殊パターンを含む良品分割画像の特徴ベクトルが示す点が他のパターンを含む良品分割画像の特徴ベクトルが示す点から遠い位置にプロットされる場合と比較して、学習済みモデル55は、位置により特徴量が大きく変化する良品周囲含有画像も用いて学習することで、同じ位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を近くに、異なる位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を遠くにプロットすることが可能になるので、良品分割画像に特有のパターンを正確に学習することができ、特徴空間において、各検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像に対する特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像604に対する特徴ベクトルが示す点を、当該検査分割画像604に対応する複数の良品分割画像に対する特徴ベクトルが形成する集合の近くにプロットすることができ、欠陥の程度が小さい欠陥度合いを取得して良品と判定することができる。また、学習済みモデル55は、良品周囲含有画像によって、良品の検査対象物TAの良品画像における位置、部分に応じて異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置に応じて異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像に対する特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像に対する複数の特徴ベクトルが形成する集合に対して遠くにプロットすることができ、欠陥の程度が大きい欠陥度合いを取得して不良品の見逃しを抑制することができる。従って、特徴空間における、検査分割画像に対する特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、検査分割画像の欠陥度合いを取得し、この欠陥度合いに基づいて、検査対象物TAを検査することにより、検査対象物TAの検査精度を高めることができる。
The above describes an exemplary embodiment of the present invention. According to the
また、本実施形態における学習済みモデル生成装置10によれば、良品分割画像と良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデル55を生成する。これにより、良品分割画像のみを用いて学習させ、特殊パターンを含む良品分割画像の特徴ベクトルが示す点が他のパターンを含む良品分割画像の特徴ベクトルが示す点から遠い位置にプロットされる場合と比較して、学習済みモデル55は、位置により特徴量が大きく変化する良品周囲含有画像も用いて学習することで、同じ位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を近くに、異なる位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を遠くにプロットすることが可能になるので、良品分割画像に特有のパターンを正確に学習することができ、特徴空間において、特殊パターンを含む検査分割画像に対する特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像に対する特徴ベクトルが形成する集合の近くにプロットすることができる。また、学習済みモデル55は、良品周囲含有画像によって、良品の検査対象物TAの良品画像における位置、部分に応じて異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置に応じて異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像に対する特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像に対する複数の特徴ベクトルが形成する集合に対して遠くにプロットすることができる。
In addition, according to the trained
なお、以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更/改良され得るとともに、本発明にはその等価物も含まれる。すなわち、実施形態に当業者が適宜設計変更を加えたものも、本発明の特徴を備えている限り、本発明の範囲に包含される。例えば、実施形態が備える各要素及びその配置、材料、条件、形状、サイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、実施形態は例示であり、異なる実施形態で示した構成の部分的な置換又は組み合わせが可能であることは言うまでもなく、これらも本発明の特徴を含む限り本発明の範囲に包含される。 The above-described embodiments are intended to facilitate understanding of the present invention, and are not intended to limit the present invention. The present invention may be modified or improved without departing from the spirit of the present invention, and equivalents are also included in the present invention. In other words, designs modified by a person skilled in the art as appropriate are also included within the scope of the present invention as long as they include the characteristics of the present invention. For example, the elements of the embodiments and their arrangements, materials, conditions, shapes, sizes, etc. are not limited to those exemplified, and can be modified as appropriate. Furthermore, the embodiments are merely examples, and it goes without saying that partial substitution or combination of the configurations shown in different embodiments is possible, and these are also included within the scope of the present invention as long as they include the characteristics of the present invention.
[付記1]
良品の検査対象物(TA)の分割画像である良品分割画像と該良品分割画像の周囲の画像に基づく良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデル(55)に、検査対象物(TA)の分割画像である検査分割画像と該検査分割画像の周囲の画像に基づく検査周囲含有画像とを入力し、該検査分割画像に対する特徴量を成分とする特徴ベクトルをそれぞれ抽出する抽出部(260)と、
抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトル(129)によって形成される集合とに基づいて、該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得する取得部(270)と、
欠陥度合いに基づいて、検査対象物(TA)を検査する検査部(280)と、を備える、
画像検査装置(20)。
[付記9]
良品の検査対象物(TA)の分割画像である良品分割画像と該良品分割画像の周囲の画像に基づく良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデル(55)に、検査対象物(TA)の分割画像である検査分割画像と該検査分割画像の周囲の画像に基づく検査周囲含有画像とを入力し、該検査分割画像に対する特徴量を成分とする特徴ベクトルをそれぞれ抽出するステップと、
抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトル(129)によって形成される集合とに基づいて、該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得するステップと、
欠陥度合いに基づいて、検査対象物(TA)を検査するステップと、を含む、
画像検査方法。
[付記10]
良品の検査対象物(TA)の分割画像である良品分割画像と該良品分割画像の周囲の画像に基づく良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデル(55)を生成するモデル生成部(135)を備える、
学習済みモデル生成装置(10)。
[Appendix 1]
an extraction unit (260) that inputs an inspection split image, which is a split image of an inspection object (TA) that is a non-defective item, and an inspection periphery-containing image, which is based on an image surrounding the inspection split image, into a trained model (55) that has been trained to output features using as input a non-defective item split image, which is a split image of an inspection object (TA) that is a non-defective item, and a non-defective item surroundings-containing image, which is based on an image surrounding the inspection split image, and extracts feature vectors each having features for the inspection split image as components;
an acquisition unit (270) that acquires a defect degree indicating the degree of defect of the inspection division image corresponding to the extracted feature vector based on a point indicated by the feature vector and a set formed by a plurality of feature vectors (129) for a plurality of non-defective division images in a feature space represented by the extracted feature vector;
An inspection unit (280) that inspects an inspection target (TA) based on a defect degree.
An image inspection device (20).
[Appendix 9]
A trained model (55) is trained to output features by inputting a good-quality divided image, which is a divided image of a good-quality inspection object (TA), and a good-quality surroundings-containing image, which is based on an image surrounding the good-quality divided image, into the trained model (55), and a step of inputting an inspection divided image, which is a divided image of the inspection object (TA), and an inspection surroundings-containing image, which is based on an image surrounding the inspection divided image, into the trained model (55), and extracting feature vectors each having features for the inspection divided image as components;
A step of acquiring a defect degree indicating the degree of defect of the inspection division image corresponding to the extracted feature vector based on a point indicated by the feature vector and a set formed by a plurality of feature vectors (129) for a plurality of non-defective division images in a feature space represented by the extracted feature vector;
Inspecting the inspection object (TA) based on the defect degree.
Imaging methods.
[Appendix 10]
A model generating unit (135) is provided for generating a trained model (55) trained to output features using a non-defective divided image, which is a divided image of a non-defective inspection target (TA), and a non-defective surroundings-containing image based on an image surrounding the non-defective divided image as input.
A trained model generating device (10).
1…画像検査システム、10…モデル生成装置、20…画像検査装置、31…プロセッサ、32…メモリ、33…記憶装置、34…通信装置、35…入力装置、36…出力装置、40…良品画像、42…検査画像、48…欠陥度合い画像、51…学習モデル、52…学習モデル、55…学習済みモデル、60…検査画像、70…欠陥度合い画像、110…通信部、120…記憶部、124…学習用画像データセット、129…特徴ベクトル、130…学習部、131…学習用画像データセット生成部、135…モデル生成部、210…通信部、220…記憶部、230…撮像部、240…分割部、250…検査用画像データセット生成部、260…抽出部、270…取得部、280…検査部、400…第1良品分割画像、402…第2良品分割画像、404…第1良品周囲含有画像、406…第2良品周囲含有画像、420…第1検査分割画像、422…第2検査分割画像、424…第1検査周囲含有画像、426…第2検査周囲含有画像、440…第1特徴ベクトル、442…第2特徴ベクトル、480…部分画像、482…部分画像、484…部分画像、511…入力層、512…第1入力チャネル、513…第2入力チャネル、515…中間層、517…出力層、518…第1出力チャネル、519…第2出力チャネル、521…入力層、525…中間層、527…出力層、600…検査分割画像、602…検査分割画像、604…検査分割画像、606…検査分割画像、608…検査分割画像、700…欠陥部分画像、702…欠陥部分画像、IL…照明、L…光、NW…通信ネットワーク、P1…点、P2…点、R…反射光、S1…集合、S2…集合、S100…モデル生成処理、S200…画像検査処理、TA…検査対象物。 1...Image inspection system, 10...Model generation device, 20...Image inspection device, 31...Processor, 32...Memory, 33...Storage device, 34...Communication device, 35...Input device, 36...Output device, 40...Good product image, 42...Inspection image, 48...Defect degree image, 51...Learning model, 52...Learning model, 55...Learning model, 60...Inspection image, 70...Defect degree image, 110...Communication unit, 120...Storage unit, 124...Learning image data sensor , 129... feature vector, 130... learning unit, 131... learning image data set generation unit, 135... model generation unit, 210... communication unit, 220... storage unit, 230... imaging unit, 240... division unit, 250... inspection image data set generation unit, 260... extraction unit, 270... acquisition unit, 280... inspection unit, 400... first non-defective divided image, 402... second non-defective divided image, 404... first non-defective surroundings-containing image, 406... second non-defective surroundings-containing image, 42 0...first inspection divided image, 422...second inspection divided image, 424...first inspection periphery-containing image, 426...second inspection periphery-containing image, 440...first feature vector, 442...second feature vector, 480...partial image, 482...partial image, 484...partial image, 511...input layer, 512...first input channel, 513...second input channel, 515...intermediate layer, 517...output layer, 518...first output channel, 519...second output channel, 5 21...input layer, 525...intermediate layer, 527...output layer, 600...inspection split image, 602...inspection split image, 604...inspection split image, 606...inspection split image, 608...inspection split image, 700...defective part image, 702...defective part image, IL...illumination, L...light, NW...communication network, P1...point, P2...point, R...reflected light, S1...set, S2...set, S100...model generation process, S200...image inspection process, TA...inspection object.
Claims (10)
前記抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と複数の前記良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する前記検査分割画像の欠陥の程度を示す欠陥度合いを取得する取得部と、
前記欠陥度合いに基づいて、前記検査対象物を検査する検査部と、を備える、
画像検査装置。 an extraction unit that inputs an inspection split image, which is a split image of an inspection object, and an inspection periphery-containing image, which is based on an image surrounding the inspection split image, to a trained model that has been trained to output features using a good-item split image, which is a split image of an inspection object of a good item, and a good-item surroundings-containing image, which is based on an image surrounding the inspection split image, and extracts feature vectors each having the feature amount for the inspection split image as components;
an acquisition unit that acquires a defect degree indicating the degree of defect of the inspection divided image corresponding to the feature vector based on a point indicated by the extracted feature vector in a feature space represented by the feature vector and a set formed by a plurality of feature vectors for a plurality of the non-defective divided images;
and an inspection unit that inspects the inspection object based on the defect degree.
Image inspection equipment.
請求項1に記載の画像検査装置。 The inspection surroundings-containing image includes an image obtained by reducing an image surrounding the inspection divided image.
The image inspection device according to claim 1 .
請求項1又は2に記載の画像検査装置。 the acquiring unit acquires the defect degree of the inspection divided image corresponding to the extracted feature vector based on a distance between a point indicated by the feature vector and the set in a feature space represented by the extracted feature vector.
3. An image inspection device according to claim 1 or 2.
請求項1又は2に記載の画像検査装置。 the acquiring unit acquires the defect degree of the inspection divided image corresponding to the extracted feature vector based on a distance between a point indicated by the feature vector and a point indicated by one of the plurality of feature vectors for the plurality of non-defective divided images in a feature space represented by the extracted feature vector;
3. An image inspection device according to claim 1 or 2.
請求項1から4のいずれか一項に記載の画像検査装置。 The defect degree is a value indicating the degree of a defect in the inspection divided image.
5. An image inspection device according to claim 1.
請求項5に記載の画像検査装置。 the inspection unit generates a defect degree image based on the plurality of defect degrees, and inspects the inspection object based on the defect degree image.
6. An image inspection device according to claim 5.
請求項1から6のいずれか一項に記載の画像検査装置。 A division unit that divides an inspection image of an inspection object into a plurality of the inspection divided images.
7. An image inspection device according to claim 1.
請求項1から7のいずれか一項に記載の画像検査装置。 Further comprising an imaging unit for acquiring an inspection image of the inspection object.
An image inspection device according to any one of claims 1 to 7.
前記抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と複数の前記良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する前記検査分割画像の欠陥の程度を示す欠陥度合いを取得するステップと、
前記欠陥度合いに基づいて、前記検査対象物を検査するステップと、を含む、
画像検査方法。 a step of inputting an inspection split image, which is a split image of an inspection object, and an inspection periphery-containing image, which is based on an image surrounding the inspection split image, into a trained model that has been trained to output features using a good-item split image, which is a split image of an inspection object of a good item, and a good-item surroundings-containing image, which is based on an image surrounding the inspection split image, and extracting feature vectors each having the feature amounts for the inspection split image as components;
acquiring a defect degree indicating the degree of defect of the inspection divided image corresponding to the extracted feature vector based on a point indicated by the feature vector and a set formed by a plurality of feature vectors for a plurality of the non-defective divided images in a feature space represented by the extracted feature vector;
and inspecting the inspection object based on the defect degree.
Imaging methods.
学習済みモデル生成装置。 A model generating unit is provided which generates a trained model which is trained to output a feature amount by inputting a non-defective divided image which is a divided image of an inspection target of a non-defective product and a non-defective surroundings-containing image based on an image surrounding the non-defective divided image.
A trained model generator.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021020384A JP7533263B2 (en) | 2021-02-12 | 2021-02-12 | Image inspection device, image inspection method, and trained model generation device |
PCT/JP2021/009991 WO2022172475A1 (en) | 2021-02-12 | 2021-03-12 | Image inspection device, image inspection method, and trained model generation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021020384A JP7533263B2 (en) | 2021-02-12 | 2021-02-12 | Image inspection device, image inspection method, and trained model generation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022123218A JP2022123218A (en) | 2022-08-24 |
JP7533263B2 true JP7533263B2 (en) | 2024-08-14 |
Family
ID=82837644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021020384A Active JP7533263B2 (en) | 2021-02-12 | 2021-02-12 | Image inspection device, image inspection method, and trained model generation device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7533263B2 (en) |
WO (1) | WO2022172475A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6664574B1 (en) | 2019-09-06 | 2020-03-13 | 三菱電機株式会社 | Image processing system and image processing method |
US20200160083A1 (en) | 2018-11-15 | 2020-05-21 | International Business Machines Corporation | Efficient defect localization/segmentation for surface defect inspection |
JP6818961B1 (en) | 2020-04-08 | 2021-01-27 | 三菱電機株式会社 | Learning device, learning method, and inference device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020052520A (en) * | 2018-09-25 | 2020-04-02 | エヌ・ティ・ティ・コムウェア株式会社 | Determination device, determination method, and program |
-
2021
- 2021-02-12 JP JP2021020384A patent/JP7533263B2/en active Active
- 2021-03-12 WO PCT/JP2021/009991 patent/WO2022172475A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200160083A1 (en) | 2018-11-15 | 2020-05-21 | International Business Machines Corporation | Efficient defect localization/segmentation for surface defect inspection |
JP6664574B1 (en) | 2019-09-06 | 2020-03-13 | 三菱電機株式会社 | Image processing system and image processing method |
JP6818961B1 (en) | 2020-04-08 | 2021-01-27 | 三菱電機株式会社 | Learning device, learning method, and inference device |
Also Published As
Publication number | Publication date |
---|---|
WO2022172475A1 (en) | 2022-08-18 |
JP2022123218A (en) | 2022-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110060237B (en) | Fault detection method, device, equipment and system | |
JP6792842B2 (en) | Visual inspection equipment, conversion data generation equipment, and programs | |
WO2019117065A1 (en) | Data generation device, data generation method and data generation program | |
CN106503724A (en) | Grader generating means, defective/zero defect determining device and method | |
JP2017211259A (en) | Inspection device, inspection method and program | |
JP2016115331A (en) | Identifier generator, identifier generation method, quality determination apparatus, quality determination method and program | |
KR20210141060A (en) | Machine learning based image anomaly detection system | |
CN114742799B (en) | Industrial scene unknown type defect segmentation method based on self-supervision heterogeneous network | |
US11410300B2 (en) | Defect inspection device, defect inspection method, and storage medium | |
KR102437115B1 (en) | Apparatus and method of defect inspection using structure prediction based on deep learning | |
JP2020135051A (en) | Fault inspection device, fault inspection method, fault inspection program, learning device and learned model | |
CN115222649A (en) | System, apparatus and method for detecting and classifying patterns of heatmaps | |
CN114894801A (en) | Inspection system, inspection method, and inspection program | |
JP7533263B2 (en) | Image inspection device, image inspection method, and trained model generation device | |
WO2022172469A1 (en) | Image inspection device, image inspection method, and trained model generation device | |
WO2016092783A1 (en) | Information processing apparatus, method for processing information, discriminator generating apparatus, method for generating discriminator, and program | |
CN117037052A (en) | Water surface dead fish detection method based on multi-scale feature fusion and attention mechanism | |
JP7465446B2 (en) | Image inspection device, image inspection method, and trained model generation device | |
Hu et al. | Hybrid Pixel‐Level Crack Segmentation for Ballastless Track Slab Using Digital Twin Model and Weakly Supervised Style Transfer | |
JP7475901B2 (en) | Method and system for detecting defects on a test piece | |
WO2022172470A1 (en) | Image inspection device, image inspection method, and trained model generation device | |
JP6961319B2 (en) | Evaluation method and evaluation device | |
JP7505256B2 (en) | Image inspection device, image inspection method, and trained model generation device | |
CN118609127B (en) | Display panel defect detection model training method, defect detection method and device | |
WO2024090054A1 (en) | Image processing method, program, and image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240715 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7533263 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |