Nothing Special   »   [go: up one dir, main page]

JP7533263B2 - Image inspection device, image inspection method, and trained model generation device - Google Patents

Image inspection device, image inspection method, and trained model generation device Download PDF

Info

Publication number
JP7533263B2
JP7533263B2 JP2021020384A JP2021020384A JP7533263B2 JP 7533263 B2 JP7533263 B2 JP 7533263B2 JP 2021020384 A JP2021020384 A JP 2021020384A JP 2021020384 A JP2021020384 A JP 2021020384A JP 7533263 B2 JP7533263 B2 JP 7533263B2
Authority
JP
Japan
Prior art keywords
image
inspection
good
split
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021020384A
Other languages
Japanese (ja)
Other versions
JP2022123218A (en
Inventor
泰之 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2021020384A priority Critical patent/JP7533263B2/en
Priority to PCT/JP2021/009991 priority patent/WO2022172475A1/en
Publication of JP2022123218A publication Critical patent/JP2022123218A/en
Application granted granted Critical
Publication of JP7533263B2 publication Critical patent/JP7533263B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像検査装置、画像検査方法、及び学習済みモデル生成装置に関する。 The present invention relates to an image inspection device, an image inspection method, and a trained model generation device.

従来、対象物を撮影した画像に基づいて、当該対象物の検査を行う画像検査装置が知られている。 Conventionally, image inspection devices are known that inspect an object based on an image of the object.

例えば、特許文献1には、入力される判定対象画像データに基づいて異常を判定する異常判定を行う異常判定装置において、正常画像データ群から抽出される特徴量から正常画像データを再構成するための再構成用パラメータを用いて、判定対象画像データの特徴量から再構成画像データを生成し、生成した再構成画像データと該判定対象画像データとの差異情報に基づいて異常判定を行うための異常判定処理を実行する処理実行手段を有するものが記載されている。特許文献1の異常判定装置は、判定対象画像データが複数チャネルの画像データを含む場合、再構成用パラメータを用いて各チャネルの画像データの特徴量から再構成画像データをチャネルごとに生成し、生成した各再構成画像データと該判定対象画像データの各チャネルの画像データとの差異情報に基づいて異常判定を行っている。 For example, Patent Document 1 describes an anomaly determination device that performs anomaly determination based on input image data to be determined, which has a process execution means that generates reconstructed image data from the features of the image data to be determined using reconstruction parameters for reconstructing normal image data from features extracted from a group of normal image data, and executes anomaly determination processing to perform anomaly determination based on difference information between the generated reconstructed image data and the image data to be determined. When the image data to be determined includes image data of multiple channels, the anomaly determination device of Patent Document 1 generates reconstructed image data for each channel from the features of the image data of each channel using reconstruction parameters, and performs anomaly determination based on difference information between each generated reconstructed image data and the image data of each channel of the image data to be determined.

特開2018-5773号公報JP 2018-5773 A

ここで、従来、良品の対象物の良品画像を小さいサイズに分割して入力し、当該良品画像の特徴量を出力するように学習させた学習済みモデルを用い、特徴空間において、検査画像から抽出した特徴ベクトルと良品画像の特徴ベクトルとに基づいて、検査画像の欠陥を検出する方法があった。 Here, in the past, there was a method in which a good-quality image of a good target object was divided into smaller pieces and input, and a trained model was used that was trained to output the feature quantities of the good-quality image, and defects in the inspection image were detected in the feature space based on the feature vector extracted from the inspection image and the feature vector of the good-quality image.

しかしながら、良品画像に局所的に特殊パターンが存在する場合、この特殊パターンを含む良品画像の特徴ベクトルは、特徴空間において、他の良品画像の特徴ベクトルから離れた位置にプロットされてしまい、特殊パターンを含む対象物を不良品として検出してしまうことがあった。 However, when a special pattern is present locally in a good product image, the feature vector of the good product image containing this special pattern is plotted at a position in the feature space away from the feature vectors of other good product images, which can result in the object containing the special pattern being detected as a defective product.

また、別の良品画像が、ある位置では良品である一方、別の位置では不良品であるパターンを含む場合、このようなパターンを当該別の位置に含む検査画像の特徴ベクトルは、特徴空間において、良品画像の特徴ベクトルの近くにプロットされることになり、不良品を見逃してしまうことがあった。 In addition, if another good product image contains a pattern that is good in one location but defective in another location, the feature vector of the inspection image that contains such a pattern in the other location will be plotted close to the feature vector of the good product image in feature space, which can cause the defective product to be overlooked.

本発明は、このような事情に鑑みてなされたものであり、良品画像の特徴ベクトルに対し、特殊パターンを含む良品画像の特徴ベクトルを近くにプロットするとともに、不良品の検査画像の特徴ベクトルを遠くにプロットすることのできる画像検査装置、画像検査方法、及び学習済みモデル生成装置を提供することを目的の1つとする。 The present invention has been made in consideration of these circumstances, and one of its objectives is to provide an image inspection device, an image inspection method, and a trained model generation device that can plot the feature vectors of good product images that include special patterns close to the feature vectors of good product images, and plot the feature vectors of defective product inspection images farther away.

本開示の一態様に係る画像検査装置は、良品の検査対象物の分割画像である良品分割画像と該良品分割画像の周囲の画像に基づく良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデルに、検査対象物の分割画像である検査分割画像と該検査分割画像の周囲の画像に基づく検査周囲含有画像とを入力し、該検査分割画像に対する特徴量を成分とする特徴ベクトルをそれぞれ抽出する抽出部と、抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得する取得部と、欠陥度合いに基づいて、検査対象物を検査する検査部と、を備える。 An image inspection device according to one aspect of the present disclosure includes an extraction unit that inputs an inspection split image, which is a split image of an inspection object of a good product, and an inspection surroundings-containing image, which is based on an image surrounding the inspection split image, to a trained model that has been trained to output features using as input a good product split image, which is a split image of an inspection object of a good product, and a good product surroundings-containing image, which is based on an image surrounding the inspection split image, and extracts feature vectors whose components are the feature amounts for the inspection split image, an acquisition unit that acquires a defect degree indicating the degree of defect in the inspection split image corresponding to the feature vector, based on a point indicated by the feature vector and a set formed by multiple feature vectors for multiple good product split images, in a feature space represented by the extracted feature vector, and an inspection unit that inspects the inspection object based on the defect degree.

この態様によれば、良品分割画像と良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデルに、検査分割画像と検査周囲含有画像とを入力し、当該検査分割画像に対する特徴ベクトルを抽出する。これにより、良品分割画像のみを用いて学習させ、特殊パターンを含む良品分割画像の特徴ベクトルが示す点が他のパターンを含む良品分割画像の特徴ベクトルが示す点から遠い位置にプロットされる場合と比較して、学習済みモデルは、位置により特徴量が大きく変化する良品周囲含有画像も用いて学習することで、同じ位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を近くに、異なる位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を遠くにプロットすることが可能になるので、良品分割画像に特有のパターンを正確に学習することができ、特徴空間において、検査分割画像に対する特徴ベクトルが示す点は、対応する良品分割画像に対する特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像に対する特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像に対する特徴ベクトルが形成する集合の近くにプロットすることができ、欠陥の程度が小さい欠陥度合いを取得して良品と判定することができる。また、学習済みモデルは、良品周囲含有画像によって、良品の検査対象物の良品画像における位置、部分に応じて異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置に応じて異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像に対する特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像に対する複数の特徴ベクトルが形成する集合に対して遠くにプロットすることができ、欠陥の程度が大きい欠陥度合いを取得して不良品の見逃しを抑制することができる。従って、特徴空間における、検査分割画像に対する特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、検査分割画像の欠陥度合いを取得し、この欠陥度合いに基づいて、検査対象物を検査することにより、検査対象物の検査精度を高めることができる。 According to this aspect, the inspection split image and the inspection surroundings-containing image are input to a trained model that has been trained to output features using a good-product split image and a good-product surroundings-containing image as inputs, and a feature vector for the inspection split image is extracted. As a result, compared to a case where a trained model is trained using only good-product split images and a point indicated by a feature vector of a good-product split image containing a special pattern is plotted at a position far from a point indicated by a feature vector of a good-product split image containing another pattern, the trained model trains using a good-product surroundings-containing image in which the feature amount changes greatly depending on the position, so that the distance between points indicated by feature vectors for good-product split images at the same position can be plotted close to each other, and the distance between points indicated by feature vectors for good-product split images at different positions can be plotted far from each other, so that a pattern specific to a good-product split image can be accurately learned, and in the feature space, a point indicated by a feature vector for an inspection split image is plotted close to a set formed by the feature vector for the corresponding good-product split image. Therefore, in the feature space, a point indicated by a feature vector for an inspection split image including a special pattern can be plotted near a set formed by feature vectors for multiple good split images corresponding to the inspection split image, and a defect degree with a small degree of defect can be obtained to determine that the product is good. In addition, the trained model can learn different judgment criteria according to the position and part in the good product image of the inspection target of a good product by using the image containing the good product surroundings, and in the feature space, the points indicated by the feature vector for each inspection split image are collected in different ranges and regions according to the position of the inspection split image in the inspection image. Therefore, in the feature space, a point indicated by a feature vector for an inspection split image at another position including a pattern that is good at one position but defective at another position can be plotted far away from the set formed by multiple feature vectors for multiple good split images at the other position, and a defect degree with a large degree of defect can be obtained to suppress overlooking of defective products. Therefore, the degree of defect in the inspection split image is obtained based on the point indicated by the feature vector for the inspection split image in the feature space and the set formed by multiple feature vectors for multiple good product split images, and the inspection object is inspected based on this degree of defect, thereby improving the inspection accuracy of the inspection object.

前述した態様において、検査周囲含有画像は、検査分割画像の周囲の画像を縮小した画像を含んでもよい。 In the above-mentioned aspect, the inspection surroundings-containing image may include an image that is a reduced image of the surroundings of the inspection division image.

この態様によれば、検査周囲含有画像は、検査分割画像の周囲の画像を縮小した画像を含む。これにより、学習済みモデルによる特徴量の出力において、検査周囲含有画像の影響が大きくなるのを抑制することができ、検査分割画像に対する特徴ベクトルを高精度に抽出することが可能となる。 According to this aspect, the inspection surroundings-containing image includes an image that is a reduced image of the surroundings of the inspection divided image. This makes it possible to suppress the influence of the inspection surroundings-containing image from becoming too large in the output of features by the trained model, and makes it possible to extract feature vectors for the inspection divided image with high accuracy.

前述した態様において、取得部は、抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と集合との間の距離に基づいて、該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得してもよい。 In the above-mentioned aspect, the acquisition unit may acquire the degree of defect of the inspection segmentation image corresponding to the extracted feature vector based on the distance between a point indicated by the feature vector and a set in a feature space represented by the feature vector.

この態様によれば、特徴ベクトルに対応する検査分割画像の欠陥度合いは、特徴空間における、特徴ベクトルが示す点と複数の良品分割画像の複数の特徴ベクトルによって形成される集合との間の距離に基づいて取得される。これにより、検査分割画像の欠陥の程度を容易に示すことができる。 According to this aspect, the degree of defect in the inspection split image corresponding to the feature vector is obtained based on the distance in the feature space between the point indicated by the feature vector and a set formed by multiple feature vectors of multiple good product split images. This makes it easy to indicate the degree of defect in the inspection split image.

前述した態様において、取得部は、抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と複数の良品分割画像の複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて、該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得してもよい。 In the above-mentioned aspect, the acquisition unit may acquire the degree of defect of the inspection segmented image corresponding to the extracted feature vector based on the distance between a point indicated by the feature vector and a point indicated by one of the multiple feature vectors of the multiple good segmented images in a feature space represented by the feature vector.

この態様によれば、特徴ベクトルに対応する検査分割画像の欠陥度合いは、特徴空間における、特徴ベクトルが示す点と複数の良品分割画像の複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて取得される。これにより、検査分割画像の欠陥の程度を容易に示すことができる。 According to this aspect, the degree of defect of the inspection split image corresponding to the feature vector is obtained based on the distance in the feature space between a point indicated by the feature vector and a point indicated by one of the multiple feature vectors of the multiple good product split images. This makes it easy to indicate the degree of defect in the inspection split image.

前述した態様において、欠陥度合いは、検査分割画像の欠陥の程度を示す値であってもよい。 In the above-mentioned aspect, the degree of defect may be a value indicating the degree of defect in the inspection division image.

この態様によれば、検査分割画像の欠陥の程度を定量的に示すことができる。 According to this embodiment, the degree of defects in the inspection division image can be quantitatively indicated.

前述した態様において、検査部は、複数の欠陥度合いに基づいて欠陥度合い画像を生成し、該欠陥度合い画像に基づいて検査対象物を検査してもよい。 In the above-mentioned aspect, the inspection unit may generate a defect degree image based on multiple defect degrees and inspect the inspection object based on the defect degree image.

この態様によれば、検査対象物が良品であるか不良品であるかを容易に判定することができ、検査精度の高い検査を容易に実現することができる。 According to this aspect, it is easy to determine whether the object being inspected is a good or bad item, and inspection with high inspection accuracy can be easily achieved.

前述した態様において、検査対象物の検査画像を複数の検査分割画像に分割する分割部をさらに備えてもよい。 In the above-mentioned aspect, a division unit may be further provided that divides the inspection image of the inspection object into a plurality of inspection divided images.

この態様によれば、検査対象物の検査画像を複数の検査分割画像に分割する分割部をさらに備える。これにより、検査分割画像を容易に得ることができる。 According to this aspect, a division unit that divides the inspection image of the inspection object into a plurality of inspection divided images is further provided. This makes it possible to easily obtain the inspection divided images.

前述した態様において、検査対象物の検査画像を取得するための撮像部をさらに備えてもよい。 In the above-mentioned aspect, an imaging unit may be further provided for acquiring an inspection image of the object to be inspected.

この態様によれば、検査対象物の検査画像を取得するための撮像部をさらに備える。これにより、検査画像を容易に得ることができる。 According to this aspect, an imaging unit is further provided for acquiring an inspection image of the object to be inspected. This makes it easy to obtain the inspection image.

本開示の他の態様に係る画像検査方法は、良品の検査対象物の分割画像である良品分割画像と該良品分割画像の周囲の画像に基づく良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデルに、検査対象物の分割画像である検査分割画像と該検査分割画像の周囲の画像に基づく検査周囲含有画像とを入力し、該検査分割画像に対する特徴量を成分とする特徴ベクトルをそれぞれ抽出するステップと、抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得するステップと、欠陥度合いに基づいて、検査対象物を検査するステップと、を含む。 An image inspection method according to another aspect of the present disclosure includes the steps of: inputting an inspection split image, which is a split image of an inspection object, and an inspection surroundings-containing image, which is based on an image surrounding the inspection split image, into a trained model that has been trained to output features using as input a good-item split image, which is a split image of an inspection object that is a good item, and a good-item surroundings-containing image, which is based on an image surrounding the good-item split image, and extracting feature vectors whose components are the features for the inspection split image; acquiring a defect degree indicating the degree of defect in the inspection split image corresponding to the feature vector, based on a point indicated by the feature vector and a set formed by multiple feature vectors for multiple good-item split images, in a feature space represented by the extracted feature vector; and inspecting the inspection object based on the defect degree.

この態様によれば、良品分割画像と良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデルに、検査分割画像と検査周囲含有画像とを入力し、当該検査分割画像に対する特徴ベクトルを抽出する。これにより、良品分割画像のみを用いて学習させ、特殊パターンを含む良品分割画像の特徴ベクトルが示す点が他のパターンを含む良品分割画像の特徴ベクトルが示す点から遠い位置にプロットされる場合と比較して、学習済みモデルは、位置により特徴量が大きく変化する良品周囲含有画像も用いて学習することで、同じ位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を近くに、異なる位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を遠くにプロットすることが可能になるので、良品分割画像に特有のパターンを正確に学習することができ、特徴空間において、検査分割画像に対する特徴ベクトルが示す点は、対応する良品分割画像に対する特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像に対する特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像に対する特徴ベクトルが形成する集合の近くにプロットすることができ、欠陥の程度が小さい欠陥度合いを取得して良品と判定することができる。また、学習済みモデルは、良品周囲含有画像によって、良品の検査対象物の良品画像における位置、部分に応じて異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置に応じて異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像に対する特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像に対する複数の特徴ベクトルが形成する集合に対して遠くにプロットすることができ、欠陥の程度が大きい欠陥度合いを取得して不良品の見逃しを抑制することができる。従って、特徴空間における、検査分割画像に対する特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、検査分割画像の欠陥度合いを取得し、この欠陥度合いに基づいて、検査対象物を検査することにより、検査対象物の検査精度を高めることができる。 According to this aspect, the inspection split image and the inspection surroundings-containing image are input to a trained model that has been trained to output features using a good-product split image and a good-product surroundings-containing image as inputs, and a feature vector for the inspection split image is extracted. As a result, compared to a case where a trained model is trained using only good-product split images and a point indicated by a feature vector of a good-product split image containing a special pattern is plotted at a position far from a point indicated by a feature vector of a good-product split image containing another pattern, the trained model trains using a good-product surroundings-containing image in which the feature amount changes greatly depending on the position, so that the distance between points indicated by feature vectors for good-product split images at the same position can be plotted close to each other, and the distance between points indicated by feature vectors for good-product split images at different positions can be plotted far from each other, so that a pattern specific to a good-product split image can be accurately learned, and in the feature space, a point indicated by a feature vector for an inspection split image is plotted close to a set formed by the feature vector for the corresponding good-product split image. Therefore, in the feature space, a point indicated by a feature vector for an inspection split image including a special pattern can be plotted near a set formed by feature vectors for multiple good split images corresponding to the inspection split image, and a defect degree with a small degree of defect can be obtained to determine that the product is good. In addition, the trained model can learn different judgment criteria according to the position and part in the good product image of the inspection target of a good product by using the image containing the good product surroundings, and in the feature space, the points indicated by the feature vector for each inspection split image are collected in different ranges and regions according to the position of the inspection split image in the inspection image. Therefore, in the feature space, a point indicated by a feature vector for an inspection split image at another position including a pattern that is good at one position but defective at another position can be plotted far away from the set formed by multiple feature vectors for multiple good split images at the other position, and a defect degree with a large degree of defect can be obtained to suppress overlooking of defective products. Therefore, the degree of defect in the inspection split image is obtained based on the point indicated by the feature vector for the inspection split image in the feature space and the set formed by multiple feature vectors for multiple good product split images, and the inspection object is inspected based on this degree of defect, thereby improving the inspection accuracy of the inspection object.

本開示の他の態様に係る学習済みモデル生成装置は、良品の検査対象物の分割画像である良品分割画像と該良品分割画像の周囲の画像に基づく良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデルを生成するモデル生成部を備える。 A trained model generating device according to another aspect of the present disclosure includes a model generating unit that generates a trained model trained to output features using as input a non-defective divided image, which is a divided image of a non-defective inspection object, and a non-defective surroundings-containing image based on an image surrounding the non-defective divided image.

この態様によれば、良品分割画像と良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデルを生成する。これにより、良品分割画像のみを用いて学習させ、特殊パターンを含む良品分割画像の特徴ベクトルが示す点が他のパターンを含む良品分割画像の特徴ベクトルが示す点から遠い位置にプロットされる場合と比較して、学習済みモデルは、位置により特徴量が大きく変化する良品周囲含有画像も用いて学習することで、同じ位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を近くに、異なる位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を遠くにプロットすることが可能になるので、良品分割画像に特有のパターンを正確に学習することができ、特徴空間において、特殊パターンを含む検査分割画像に対する特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像に対する特徴ベクトルが形成する集合の近くにプロットすることができる。また、学習済みモデルは、良品周囲含有画像によって、良品の検査対象物の良品画像における位置、部分に応じて異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置に応じて異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像に対する特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像に対する複数の特徴ベクトルが形成する集合に対して遠くにプロットすることができる。 According to this aspect, a trained model is generated that is trained to output features using a good-product divided image and an image containing the surroundings of a good product as input. As a result, compared to a case where a trained model is trained using only good-product divided images and a point indicated by a feature vector of a good-product divided image containing a special pattern is plotted at a position far from a point indicated by a feature vector of a good-product divided image containing another pattern, the trained model trains using images containing the surroundings of a good product, in which the feature amount varies greatly depending on the position, so that the distance between points indicated by feature vectors for good-product divided images at the same position can be plotted close to each other and the distance between points indicated by feature vectors for good-product divided images at different positions can be plotted far from each other. This makes it possible to accurately learn patterns specific to good-product divided images, and in the feature space, a point indicated by a feature vector for an inspection divided image containing a special pattern can be plotted close to a set formed by feature vectors for multiple good-product divided images corresponding to the inspection divided image. In addition, the trained model can learn different judgment criteria depending on the position and part in the good product image of the inspection target object of good product by using the image containing the surroundings of the good product, and in the feature space, the points indicated by the feature vector for each inspection split image are collected in different ranges and regions depending on the position of the inspection split image in the inspection image. Therefore, in the feature space, a point indicated by the feature vector for an inspection split image at another position, which includes a pattern that is good at one position but defective at another position, can be plotted far away from the set formed by the multiple feature vectors for the multiple good product split images at the other position.

本発明によれば、良品画像の特徴ベクトルに対し、特殊パターンを含む良品画像の特徴ベクトルを近くにプロットするとともに、不良品の検査画像の特徴ベクトルを遠くにプロットすることができる。 According to the present invention, the feature vectors of good product images that contain special patterns can be plotted close to the feature vectors of good product images, and the feature vectors of defective product inspection images can be plotted farther away.

図1は、一実施形態における画像検査システムの概略構成を例示する構成図である。FIG. 1 is a configuration diagram illustrating a schematic configuration of an image inspection system according to an embodiment. 図2は、一実施形態における学習済みモデル生成装置及び画像検査装置の物理的構成を示す構成図である。FIG. 2 is a configuration diagram showing the physical configuration of a trained model generation device and an image inspection device in one embodiment. 図3は、一実施形態における学習済みモデル生成装置の機能ブロックの構成を示す構成図である。FIG. 3 is a configuration diagram showing a functional block configuration of a trained model generation device in one embodiment. 図4は、図3に示す学習用画像データセット生成部による良品分割画像及び良品周囲含有画像の生成を説明するための概念図である。FIG. 4 is a conceptual diagram for explaining generation of a non-defective divided image and a non-defective surroundings-containing image by the learning image data set generation unit shown in FIG. 図5は、図3に示すモデル生成部が使用する第1例の学習モデルを説明するための概念図である。FIG. 5 is a conceptual diagram for explaining a first example of a learning model used by the model generating unit shown in FIG. 図6は、図3に示すモデル生成部が使用する第2例の学習モデルを説明するための概念図である。FIG. 6 is a conceptual diagram for explaining a second example of a learning model used by the model generating unit shown in FIG. 図7は、一実施形態における画像検査装置の機能ブロックの構成を示す構成図である。FIG. 7 is a configuration diagram showing the configuration of functional blocks of an image inspection device according to an embodiment. 図8は、欠陥度合いを取得する方法の一例を説明するための概念図である。FIG. 8 is a conceptual diagram for explaining an example of a method for acquiring the defect degree. 図9は、欠陥度合いを取得する方法の他の例を説明するための概念図である。FIG. 9 is a conceptual diagram for explaining another example of a method for acquiring the defect degree. 図10は、図7に示す、分割部、学習用画像データセット生成部、抽出部、及び取得部による処理を説明するための概念図である。FIG. 10 is a conceptual diagram for explaining the processes performed by the division unit, the learning image dataset generation unit, the extraction unit, and the acquisition unit shown in FIG. 図11は、検査画像の一例を示す図である。FIG. 11 is a diagram showing an example of an inspection image. 図12は、図7に示す検査部による処理を説明するための概念図である。FIG. 12 is a conceptual diagram for explaining the process performed by the inspection unit shown in FIG. 図13は、欠陥度合い画像の一例を示す図である。FIG. 13 is a diagram showing an example of a defect degree image. 図14は、一実施形態における学習済みモデル生成装置が行う学習済みモデル生成処理の一例を説明するためのフローチャートである。FIG. 14 is a flowchart illustrating an example of a trained model generation process performed by a trained model generation device in one embodiment. 図15は、一実施形態における画像検査装置が行う画像検査処理の一例を説明するためのフローチャートである。FIG. 15 is a flowchart for explaining an example of an image inspection process performed by an image inspection device in one embodiment.

以下に本発明の実施形態を説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号で表している。但し、図面は模式的なものである。従って、具体的な寸法等は以下の説明を照らし合わせて判断するべきものである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。さらに、本発明の技術的範囲は、当該実施形態に限定して解するべきではない。 The following describes an embodiment of the present invention. In the following description of the drawings, identical or similar parts are denoted by identical or similar reference symbols. However, the drawings are schematic. Therefore, specific dimensions, etc. should be determined in light of the following description. Furthermore, the drawings include parts with different dimensional relationships and ratios. Furthermore, the technical scope of the present invention should not be interpreted as being limited to the embodiment.

まず、図1を参照しつつ、一実施形態に従う画像検査システムの構成について説明する。図1は、一実施形態における画像検査システム1の概略構成を例示する構成図である。 First, the configuration of an image inspection system according to one embodiment will be described with reference to FIG. 1. FIG. 1 is a configuration diagram illustrating the schematic configuration of an image inspection system 1 according to one embodiment.

図1に示すように、画像検査システム1は、画像検査装置20及び照明ILを含む。画像検査装置20は、通信ネットワークNWを介して、学習済みモデル生成装置10に接続されている。照明ILは、検査対象物TAに光Lを照射する。画像検査装置20は、反射光Rを撮影し、検査対象物TAの画像(以下、「検査画像」ともいう)に基づいて、検査対象物TAの検査を行う。学習済みモデル生成装置10は、画像検査装置20が検査を行うために用いる学習済みモデルを生成する。 As shown in FIG. 1, the image inspection system 1 includes an image inspection device 20 and illumination IL. The image inspection device 20 is connected to a trained model generation device 10 via a communication network NW. The illumination IL irradiates light L onto an inspection object TA. The image inspection device 20 captures reflected light R and inspects the inspection object TA based on an image of the inspection object TA (hereinafter also referred to as an "inspection image"). The trained model generation device 10 generates a trained model that the image inspection device 20 uses to perform the inspection.

次に、図2を参照しつつ、一実施形態に従う学習済みモデル生成装置及び画像検査装置の物理的構成について説明する。図2は、一実施形態における学習済みモデル生成装置10及び画像検査装置20の物理的構成を示す構成図である。 Next, the physical configuration of a trained model generation device and an image inspection device according to one embodiment will be described with reference to FIG. 2. FIG. 2 is a configuration diagram showing the physical configuration of a trained model generation device 10 and an image inspection device 20 in one embodiment.

図2に示すように、学習済みモデル生成装置10及び画像検査装置20は、それぞれ、プロセッサ31と、メモリ32と、記憶装置33と、通信装置34と、入力装置35と、出力装置36と、を備える。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。 As shown in FIG. 2, the trained model generating device 10 and the image inspection device 20 each include a processor 31, a memory 32, a storage device 33, a communication device 34, an input device 35, and an output device 36. These components are connected to each other via a bus so that they can transmit and receive data.

なお、図2に示す例では、学習済みモデル生成装置10及び画像検査装置20が、それぞれ、一台のコンピュータで構成される場合について説明するが、これに限定されるものではない。学習済みモデル生成装置10及び画像検査装置20は、それぞれ、複数のコンピュータが組み合わされて実現されてもよい。また、図2で示す構成は一例であり、学習済みモデル生成装置10及び画像検査装置20は、それぞれ、これら以外の構成を備えてもよいし、これらの構成のうち一部を備えなくてもよい。 In the example shown in FIG. 2, the trained model generating device 10 and the image inspection device 20 are each configured with a single computer, but this is not limited to the above. The trained model generating device 10 and the image inspection device 20 may each be realized by combining multiple computers. Furthermore, the configuration shown in FIG. 2 is an example, and the trained model generating device 10 and the image inspection device 20 may each have other configurations or may not have some of these configurations.

プロセッサ31は、学習済みモデル生成装置10及び画像検査装置20の各部の動作を制御するように構成されている。プロセッサ31は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array))、SoC(Sysmtem-on-a-Chip)等の集積回路を含んで構成される。 The processor 31 is configured to control the operation of each part of the trained model generating device 10 and the image inspection device 20. The processor 31 is configured to include integrated circuits such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), an FPGA (Field Programmable Gate Array), and a SoC (System-on-a-Chip).

メモリ32及び記憶装置33は、それぞれ、プログラムやデータ等を記憶するように構成されている。メモリ32は、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)及び/又はRAM(Random Access Memory)等から構成される。記憶装置33は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)及び/又はeMMC(embedded Multi Media Card)等のストレージから構成される。 The memory 32 and the storage device 33 are each configured to store programs, data, etc. The memory 32 is composed of, for example, a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and/or a RAM (Random Access Memory), etc. The storage device 33 is composed of, for example, a storage device such as a HDD (Hard Disk Drive), an SSD (Solid State Drive), and/or an eMMC (embedded Multi Media Card).

通信装置34は、有線及び無線の少なくとも一方のネットワークを介して通信を行うように構成されている。通信装置34は、例えば、ネットワークカード、通信モジュール、他の機器に接続するインターフェース等を含んで構成される。 The communication device 34 is configured to communicate via at least one of a wired and wireless network. The communication device 34 includes, for example, a network card, a communication module, an interface for connecting to other devices, etc.

入力装置35は、ユーザの操作により情報を入力できるように構成されている。入力装置35は、例えば、キーボード、タッチパネル、マウス、ポインティングデバイス、及び/又はマイク等を含んで構成される。 The input device 35 is configured to allow information to be input by a user's operation. The input device 35 includes, for example, a keyboard, a touch panel, a mouse, a pointing device, and/or a microphone.

出力装置36は、情報を出力するように構成されている。出力装置36は、例えば液晶ディスプレイ、EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ、LCD(Liquid Crystal Display)等の表示装置、及び/又はスピーカ等を含んで構成される。 The output device 36 is configured to output information. The output device 36 includes a display device such as a liquid crystal display, an EL (Electro Luminescence) display, a plasma display, or an LCD (Liquid Crystal Display), and/or a speaker, etc.

次に、図3から図6を参照しつつ、一実施形態に従う学習済みモデル生成装置の機能ブロックについて説明する。図3は、一実施形態における学習済みモデル生成装置10の機能ブロックの構成を示す構成図である。図4は、図3に示す学習用画像データセット生成部131による良品分割画像及び良品周囲含有画像の生成を説明するための概念図である。図5は、図3に示すモデル生成部135が使用する第1例の学習モデル51を説明するための概念図である。図6は、図3に示すモデル生成部135が使用する第2例の学習モデル52を説明するための概念図である。 Next, functional blocks of a trained model generating device according to one embodiment will be described with reference to Figures 3 to 6. Figure 3 is a configuration diagram showing the configuration of functional blocks of a trained model generating device 10 in one embodiment. Figure 4 is a conceptual diagram for explaining the generation of a good-product segmented image and a good-product surroundings-containing image by the training image dataset generating unit 131 shown in Figure 3. Figure 5 is a conceptual diagram for explaining a first example of a learning model 51 used by the model generating unit 135 shown in Figure 3. Figure 6 is a conceptual diagram for explaining a second example of a learning model 52 used by the model generating unit 135 shown in Figure 3.

図3に示すように、学習済みモデル生成装置10は、通信部110と、記憶部120と、学習部130と、を備える。 As shown in FIG. 3, the trained model generation device 10 includes a communication unit 110, a memory unit 120, and a learning unit 130.

通信部110は、各種の情報を送信及び受信可能に構成されている。通信部110は、例えば、通信ネットワークNWを介して、後述する学習済みモデル55を画像検査装置20に送信する。また、通信部110は、例えば、通信ネットワークNWを介して、他の装置から良品画像を受信する。すなわち、通信部110は、良品と判定された検査対象物TAの画像である良品画像を取得する。通信部110によって取得された複数の良品画像(以下、それぞれを区別しない場合にその1つを「良品画像40」ともいう)は、記憶部120に書き込まれて記憶される。 The communication unit 110 is configured to be able to transmit and receive various types of information. For example, the communication unit 110 transmits a trained model 55 (described later) to the image inspection device 20 via the communication network NW. The communication unit 110 also receives good-quality images from other devices via the communication network NW, for example. That is, the communication unit 110 acquires good-quality images that are images of the inspection object TA that has been determined to be good-quality. The multiple good-quality images acquired by the communication unit 110 (hereinafter, when there is no need to distinguish between them, one of them is also referred to as a "good-quality image 40") are written and stored in the memory unit 120.

記憶部120は、各種の情報を記憶するように構成されている。記憶部120は、例えば、良品画像40と、複数の学習用画像データセット(以下、それぞれを区別しない場合にその1つを「学習用画像データセット124」ともいう)と、学習済みモデル55と、複数の特徴ベクトル(以下、それぞれを区別しない場合にその1つを「特徴ベクトル129」ともいう)と、を記憶する。 The storage unit 120 is configured to store various types of information. For example, the storage unit 120 stores a non-defective product image 40, a plurality of learning image datasets (hereinafter, when there is no need to distinguish between them, one of them is also referred to as a "learning image dataset 124"), a trained model 55, and a plurality of feature vectors (hereinafter, when there is no need to distinguish between them, one of them is also referred to as a "feature vector 129").

学習部130は、学習モデルを学習させて学習済みモデルを生成するためのものである。学習部130は、例えば、学習用画像データセット生成部131及びモデル生成部135を含む。 The learning unit 130 is for training a learning model to generate a trained model. The learning unit 130 includes, for example, a learning image dataset generation unit 131 and a model generation unit 135.

学習用画像データセット生成部131は、学習用画像データセット124を生成するように構成されている。学習用画像データセット124は、学習済みモデル55を生成するために用いられる画像データのセットである。 The training image dataset generation unit 131 is configured to generate the training image dataset 124. The training image dataset 124 is a set of image data used to generate the trained model 55.

より詳細には、学習用画像データセット生成部131は、記憶部120に記憶された複数の良品画像40を読み出し、それぞれについて、当該良品画像40を複数に分割した画像(以下「良品分割画像」という)を生成する。 More specifically, the learning image dataset generation unit 131 reads out a plurality of good-quality images 40 stored in the storage unit 120, and for each of the good-quality images 40, generates a plurality of images (hereinafter referred to as "good-quality divided images") by dividing the good-quality images 40 into a plurality of parts.

図4に示すように、学習用画像データセット生成部131は、1つの良品画像40を、例えば縦方向及び横方向にそれぞれ5分割することで、合計25個の良品分割画像を生成する。なお、良品画像40は、2から24個の良品分割画像に分割されてもよいし、26個以上の良品分割画像に分割されてもよい。また、良品分割画像の形状は矩形に限定されるものではなく、いかなる形状であってよい。 As shown in FIG. 4, the learning image dataset generation unit 131 generates a total of 25 good-quality divided images by dividing one good-quality image 40, for example, vertically and horizontally into five parts. Note that the good-quality image 40 may be divided into 2 to 24 good-quality divided images, or into 26 or more good-quality divided images. In addition, the shape of the good-quality divided images is not limited to a rectangle, and may be any shape.

また、学習用画像データセット生成部131は、良品分割画像について、当該良品分割画像の周囲に配置された画像に基づいて、良品周囲含有画像を生成する。例えば、学習用画像データセット生成部131は、良品画像40に含まれる25個の良品分割画像のうち、縁に配置されている16個の良品分割画像を除いた9個の良品分割画像のそれぞれについて、良品周囲含有画像を生成する。なお、縁に配置されている16個の良品分割画像について、それぞれ、検査画像からはみ出した領域の画素値を生成することで、良品周囲含有画像を生成してもよい。この場合、はみ出した領域の画素値は、ユーザが決めた特定の値を用いて生成してもよいし、当該良品分割画像に最も近い画像端の画素値をコピーして生成してもよい。 The learning image dataset generation unit 131 also generates a good product surroundings-containing image for a good product divided image based on images arranged around the good product divided image. For example, the learning image dataset generation unit 131 generates a good product surroundings-containing image for each of the nine good product divided images, excluding the 16 good product divided images arranged on the edge, out of the 25 good product divided images included in the good product image 40. Note that a good product surroundings-containing image may be generated by generating pixel values of the area protruding from the inspection image for each of the 16 good product divided images arranged on the edge. In this case, the pixel values of the protruding area may be generated using a specific value determined by the user, or may be generated by copying the pixel values of the image edge closest to the good product divided image.

そして、学習用画像データセット生成部131は、良品分割画像と当該良品分割画像の良品周囲含有画像とを含んで構成される学習用画像データセット124を生成する。 Then, the learning image dataset generation unit 131 generates a learning image dataset 124 that includes a non-defective divided image and an image containing the non-defective surroundings of the non-defective divided image.

例えば、学習用画像データセット生成部131は、良品画像40において、左から2番目、上から2番目に位置する第1良品分割画像400について、その周囲の良品分割画像を含む第1良品周囲含有画像404を生成する。第1良品分割画像400及び第1良品周囲含有画像404は、1つの学習用画像データセット124を構成する。同様に、学習用画像データセット生成部131は、良品画像40において、左から3番目、上から2番目に位置する第2良品分割画像402について第2良品周囲含有画像406を生成し、第2良品分割画像402及び第2良品周囲含有画像406を含んで構成される学習用画像データセット124を生成する。このようにして、9個の良品分割画像のそれぞれについて、学習用画像データセット124を生成する。生成された複数の学習用画像データセット124は、記憶部120に書き込まれて記憶される。 For example, the learning image dataset generating unit 131 generates a first good-quality surroundings-containing image 404 including the surrounding good-quality divided images for the first good-quality divided image 400 located second from the left and second from the top in the good-quality image 40. The first good-quality divided image 400 and the first good-quality surroundings-containing image 404 constitute one learning image dataset 124. Similarly, the learning image dataset generating unit 131 generates a second good-quality surroundings-containing image 406 for the second good-quality divided image 402 located third from the left and second from the top in the good-quality image 40, and generates a learning image dataset 124 including the second good-quality divided image 402 and the second good-quality surroundings-containing image 406. In this way, a learning image dataset 124 is generated for each of the nine good-quality divided images. The generated multiple learning image datasets 124 are written and stored in the storage unit 120.

図4に示す例では、第1良品周囲含有画像404は、第1良品分割画像400の周囲に位置する8個の良品分割画像を良品周囲画像として含んでいるが、良品周囲含有画像は、この例に限定されるものではない。良品周囲含有画像は、例えば第1良品分割画像400の周囲の8個の良品分割画像のうちの一部を含まなくてよい。また、良品周囲含有画像は、良品分割画像の単位で構成されている場合に限定されず、いかなる単位で構成されていてもよい。すなわち、良品周囲含有画像は、良品分割画像よりも小さい単位で構成されていてもよいし、良品分割画像よりも大きい単位で構成されていてもよい。 In the example shown in FIG. 4, the first good product surroundings containing image 404 includes eight good product divided images located around the first good product divided image 400 as good product surroundings images, but the good product surroundings containing image is not limited to this example. The good product surroundings containing image may not include, for example, some of the eight good product divided images around the first good product divided image 400. In addition, the good product surroundings containing image is not limited to being composed of units of good product divided images, and may be composed of any units. In other words, the good product surroundings containing image may be composed of units smaller than the good product divided images, or may be composed of units larger than the good product divided images.

なお、良品分割画像の解像度と良品周囲含有画像の解像度とが同じである場合、良品周囲画像の画素数の方が良品分割画像の画素数よりも多くなると、良品周囲含有画像の方が良品分割画像よりも学習処理への寄与度が大きくなる。このため、使用する学習モデルの表現能力が低いと、後述する良品分割画像の特徴量を十分な精度で得ることができない場合がある。 When the resolution of the good product divided image and the good product surroundings containing image are the same, if the number of pixels in the good product surroundings containing image is greater than the number of pixels in the good product divided image, the good product surroundings containing image will contribute more to the learning process than the good product divided image. For this reason, if the expressive ability of the learning model used is low, it may not be possible to obtain the feature quantities of the good product divided image described below with sufficient accuracy.

以上の理由により、良品周囲含有画像の学習処理への寄与度は、良品分割画像の学習処理への寄与度よりも小さいことが好ましい。よって、良品周囲含有画像に含まれる、良品分割画像の周囲の画像は、縮小されていることが好ましい。より具体的には、縮小された良品周囲画像のサイズ、つまり画素数が良品分割画像のサイズ、つまり画素数よりも小さくなるように、良品分割画像の周囲の画像が縮小されていることが好ましい。この縮小は、例えば、学習用画像データセット生成部131によって行われる。このとき、学習用画像データセット生成部131は、良品分割画像の周囲の画像のみを縮小してもよいし、良品分割画像の周囲の画像とともに、良品周囲含有画像に含まれる残りの画像、例えば良品分割画像を縮小してもよい。 For the above reasons, it is preferable that the contribution of the good product surroundings-containing image to the learning process is smaller than the contribution of the good product divided image to the learning process. Therefore, it is preferable that the image around the good product divided image included in the good product surroundings-containing image is reduced. More specifically, it is preferable that the image around the good product divided image is reduced so that the size of the reduced good product surroundings image, i.e., the number of pixels, is smaller than the size of the good product divided image, i.e., the number of pixels. This reduction is performed, for example, by the learning image dataset generation unit 131. At this time, the learning image dataset generation unit 131 may reduce only the image around the good product divided image, or may reduce the remaining image included in the good product surroundings-containing image, for example the good product divided image, together with the image around the good product divided image.

モデル生成部135は、学習モデルに複数の学習用画像データセット124を学習させる学習処理を実施し、学習済みモデル55を生成するように構成されている。学習済みモデル55は、良品分割画像及び良品周囲含有画像を入力とし、特徴量を出力するモデルである。 The model generation unit 135 is configured to perform a learning process in which the learning model learns a plurality of learning image datasets 124, and generate a trained model 55. The trained model 55 is a model that receives a non-defective product segmentation image and a non-defective product surroundings-containing image as input, and outputs feature quantities.

図5に示すように、モデル生成部135が学習済みモデル55を生成するために用いる学習モデル51は、例えば、ニューラルネットワークの1つであって、教師なし機械学習の手法の1つでもあるオートエンコーダが用いられ、オートエンコーダは、入力層511と、出力層517と、入力層511と出力層517との間に配置されている中間層515と、を含んでいる。 As shown in FIG. 5, the learning model 51 used by the model generation unit 135 to generate the trained model 55 is, for example, an autoencoder, which is a type of neural network and also a method of unsupervised machine learning, and the autoencoder includes an input layer 511, an output layer 517, and an intermediate layer 515 arranged between the input layer 511 and the output layer 517.

なお、学習モデル51は、オートエンコーダを用いる場合に限定されるものではない。学習モデル51は、例えば、PCA(Principal Component Analysis)を用いてもよい。また、中間層515は、1層である場合に限定されず、2層以上であってもよい。 The learning model 51 is not limited to using an autoencoder. For example, the learning model 51 may use PCA (Principal Component Analysis). In addition, the intermediate layer 515 is not limited to one layer, and may be two or more layers.

入力層511及び出力層517は、それぞれ、2つのチャネルを有している。具体的には、入力層511は第1入力チャネル512及び第2入力チャネル513を有し、出力層517は、第1出力チャネル518及び第2出力チャネル519を有する。良品分割画像と対応する良品周囲含有画像とは、それぞれ、異なるチャネルに入力される。例えば、第1入力チャネル512に良品分割画像が入力され、第2入力チャネル513に良品周囲含有画像が入力される。入力層511に入力された良品分割画像及び良品周囲含有画像は、中間層515において画像の次元が削減され、出力層517において次元が戻されて出力される。具体的には、第1出力チャネル518から良品分割画像に対応する出力良品分割画像が出力され、第2出力チャネル519から良品周囲含有画像に対応する出力良品周囲含有画像が出力される。オートエンコーダは、良品分割画像と出力良品分割画像との間の差分(以下、「第1差分」ともいう)及び良品周囲含有画像と出力良品周囲含有画像との間の差分(以下、「第2差分」ともいう)の合計が最小となるように、重み(係数ともいう)を学習する。より詳細には、円形状で表される各ノードは、線で表される各エッジにおいて固有の重み付けを行い、重み付けされた値が次の層のノードに入力される。この重み付けにおける重みを学習することで、第1差分と第2差分との合計が最小になる。この学習によって、中間層515から特徴量を出力することが可能となる。 The input layer 511 and the output layer 517 each have two channels. Specifically, the input layer 511 has a first input channel 512 and a second input channel 513, and the output layer 517 has a first output channel 518 and a second output channel 519. The non-defective divided image and the corresponding non-defective surroundings-containing image are input to different channels. For example, the non-defective divided image is input to the first input channel 512, and the non-defective surroundings-containing image is input to the second input channel 513. The non-defective divided image and the non-defective surroundings-containing image input to the input layer 511 have their image dimensions reduced in the intermediate layer 515, and the dimensions are restored in the output layer 517 and output. Specifically, an output non-defective divided image corresponding to the non-defective divided image is output from the first output channel 518, and an output non-defective surroundings-containing image corresponding to the non-defective surroundings-containing image is output from the second output channel 519. The autoencoder learns weights (also called coefficients) so that the sum of the difference between the non-defective segmented image and the output non-defective segmented image (hereinafter also called the "first difference") and the difference between the non-defective surroundings-containing image and the output non-defective surroundings-containing image (hereinafter also called the "second difference") is minimized. More specifically, each node represented by a circle is weighted uniquely at each edge represented by a line, and the weighted value is input to the node in the next layer. By learning the weights in this weighting, the sum of the first difference and the second difference is minimized. This learning makes it possible to output features from the intermediate layer 515.

ここで、特徴量は、求めたい事物の特徴を定量的に表した変数である。中間層515から出力される特徴量は、例えば良品分割画像であることを特徴づけるものであり、具体的には良品分割画像が有する濃淡の配列、良品分割画像における輝度、赤単体、緑単体、青単体、又は赤・緑・青(RGB)のヒストグラム等が挙げられる。一般的に、良品分割画像は、1種類の特徴量だけで良品の分割画像であることを認識可能である場合は少なく、複数種類の特徴量を用いて良品の分割画像であることを認識できる場合が多い。前述したように、良品周囲含有画像の学習処理への寄与度を小さく、言い換えれば、良品分割画像の学習処理への寄与度を大きくすることで、学習済みモデル55は、良品周囲含有画像を考慮した良品分割画像に対する特徴量を出力する。 Here, the feature is a variable that quantitatively represents the feature of the object to be found. The feature output from the intermediate layer 515 characterizes the image as a good-quality divided image, and specifically includes the arrangement of shading in the good-quality divided image, the brightness in the good-quality divided image, red alone, green alone, blue alone, or a histogram of red, green, and blue (RGB). In general, it is rare that a good-quality divided image can be recognized as a good-quality divided image using only one type of feature, and it is often possible to recognize that a good-quality divided image is a good-quality divided image using multiple types of feature. As described above, by reducing the contribution of the good-quality surroundings-containing image to the learning process, in other words, by increasing the contribution of the good-quality divided image to the learning process, the trained model 55 outputs a feature for the good-quality divided image that takes the good-quality surroundings-containing image into consideration.

この1つ又は複数の特徴量を成分としてベクトル形式で表現したものが特徴ベクトルである。特徴量の数(個数)は、当該特徴ベクトルの次元(次元数)を表す。特徴ベクトルで表現される空間、別の言い方をすれば、特徴ベクトルによって張られる空間は、特徴空間と呼ばれ、特徴ベクトルは特徴空間上の1点として表される。例えば出力層505がd個(dは正の整数)の特徴量を出力するように学習された場合、学習済みモデル55によって、入力された画像からd次元ベクトルの特徴ベクトル129を抽出することができ、抽出された特徴ベクトル129は、d次元空間の特徴空間における1点で表すことができる。 A feature vector is a vector representation of one or more features as components. The number of features represents the dimension of the feature vector. The space represented by the feature vectors, or in other words, the space spanned by the feature vectors, is called the feature space, and the feature vector is represented as a point in the feature space. For example, if the output layer 505 is trained to output d features (d is a positive integer), the trained model 55 can extract a d-dimensional vector feature vector 129 from the input image, and the extracted feature vector 129 can be represented as a point in the d-dimensional feature space.

また、図6に示すように、モデル生成部135が学習済みモデル55を生成するために用いる学習モデル52は、例えば、図5に示す学習モデル51と同様に、オートエンコーダが用いられ、オートエンコーダは、入力層521と、出力層527と、入力層521と出力層527との間に配置されている中間層525と、を含んでいる。なお、学習モデル52は、例えばPCAを用いてもよく、また、中間層525は、2層以上であってもよい。 As shown in FIG. 6, the learning model 52 used by the model generation unit 135 to generate the trained model 55 is, for example, an autoencoder, similar to the learning model 51 shown in FIG. 5, and the autoencoder includes an input layer 521, an output layer 527, and an intermediate layer 525 arranged between the input layer 521 and the output layer 527. Note that the learning model 52 may use, for example, PCA, and the intermediate layer 525 may have two or more layers.

入力層521及び出力層527は、それぞれ、1つのチャネルを有している。良品分割画像と対応する良品周囲含有画像とは、結合されて結合画像が生成される。入力層521に結合画像が入力されると、中間層525において結合画像の次元が削減される。そして、出力層527において次元を戻して結合画像に対応する出力結合画像が出力される。オートエンコーダは、結合画像と出力結合画像との間の差分が最小となるように、重みを学習する。より詳細には、円形状で表される各ノードは、線で表される各エッジにおいて固有の重み付けを行い、重み付けされた値が次の層のノードに入力される。この重み付けにおける重みを学習することで、結合画像と出力結合画像との間の差分が最小になる。この学習によって、中間層525から特徴量を出力することが可能となる。 The input layer 521 and the output layer 527 each have one channel. The good-product segmented image and the corresponding good-product surrounding-containing image are combined to generate a combined image. When the combined image is input to the input layer 521, the dimension of the combined image is reduced in the intermediate layer 525. Then, the dimension is returned in the output layer 527 to output an output combined image corresponding to the combined image. The autoencoder learns weights so that the difference between the combined image and the output combined image is minimized. More specifically, each node represented by a circle is uniquely weighted at each edge represented by a line, and the weighted value is input to the node of the next layer. By learning the weights in this weighting, the difference between the combined image and the output combined image is minimized. This learning makes it possible to output features from the intermediate layer 525.

また、モデル生成部135は、学習済みモデル55を生成する過程で、各良品分割画像に対する特徴ベクトル129を抽出する。抽出された複数の特徴ベクトル129は、記憶部120に書き込まれて記憶される。例えば、j個の良品画像のそれぞれについて25個の良品分割画像に分割し、そのうちのk個の良品分割画像のそれぞれについて学習用画像データセット124を生成する場合、抽出され、記憶される特徴ベクトル129の数は、例えばj×k個である。なお、複数の特徴ベクトル129のそれぞれの次元dは、同じであってもよいし、互いに異なっていてもよい。 In addition, the model generation unit 135 extracts feature vectors 129 for each good-quality divided image in the process of generating the trained model 55. The extracted feature vectors 129 are written and stored in the storage unit 120. For example, when each of j good-quality images is divided into 25 good-quality divided images and a learning image dataset 124 is generated for each of the k good-quality divided images, the number of feature vectors 129 extracted and stored is, for example, j×k. Note that the dimension d of each of the multiple feature vectors 129 may be the same or different from each other.

このように、良品分割画像と良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデル55を生成することにより、詳細は後述するように、良品分割画像のみを用いて学習させ、特殊パターンを含む良品分割画像の特徴ベクトルが示す点が他のパターンを含む良品分割画像の特徴ベクトルが示す点から遠い位置にプロットされる場合と比較して、学習済みモデル55は、位置により特徴量が大きく変化する良品周囲含有画像も用いて学習することで、同じ位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を近くに、異なる位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を遠くにプロットすることが可能になるので、良品分割画像に特有のパターンを正確に学習することができ、特徴空間において、特殊パターンを含む検査分割画像に対する特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像に対する特徴ベクトルが形成する集合の近くにプロットすることができる。また、学習済みモデル55は、良品周囲含有画像によって、良品の検査対象物TAの良品画像における位置、部分に応じて異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置に応じて異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像に対する特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像に対する複数の特徴ベクトルが形成する集合に対して遠くにプロットすることができる。 In this way, by generating a trained model 55 that is trained to output features using a good-product split image and an image containing good-product surroundings as input, as described in detail below, compared to a case in which the trained model is trained using only good-product split images and the points indicated by the feature vectors of the good-product split image containing a special pattern are plotted at a position far from the points indicated by the feature vectors of the good-product split images containing other patterns, the trained model 55 also trains using images containing good-product surroundings in which the feature values change significantly depending on the position, making it possible to plot the distance between points indicated by the feature vectors for good-product split images at the same position close to each other and the distance between points indicated by the feature vectors for good-product split images at different positions far from each other, thereby making it possible to accurately learn patterns unique to good-product split images, and in feature space, the points indicated by the feature vectors for an inspection split image containing a special pattern can be plotted near the set formed by the feature vectors for multiple good-product split images corresponding to the inspection split image. Furthermore, the trained model 55 can learn different judgment criteria depending on the position and part in the good product image of the inspection target object TA by using the good product surroundings-containing image, and in the feature space, the points indicated by the feature vector for each inspection split image are collected in different ranges and regions depending on the position of the inspection split image in the inspection image. Therefore, in the feature space, a point indicated by the feature vector for an inspection split image at another position, including a pattern that is good at one position but defective at another position, can be plotted far away from the set formed by the multiple feature vectors for the multiple good product split images at the other positions.

なお、学習用画像データセット生成部131及びモデル生成部135の少なくとも一方は、プロセッサ31が、記憶装置33に記憶されたプログラムを実行することにより実現されてもよい。プログラムを実行する場合、当該プログラムは、記憶媒体に格納されていてもよい。当該プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体(Non-Transitory computer readable medium)であってもよい。非一時的な記憶媒体は、特に限定されないが、例えば、USBメモリ、又はCD-ROM(Compact Disc ROM)等の記憶媒体であってもよい。 At least one of the learning image dataset generation unit 131 and the model generation unit 135 may be realized by the processor 31 executing a program stored in the storage device 33. When executing a program, the program may be stored in a storage medium. The storage medium storing the program may be a non-transitory computer readable medium. The non-transitory storage medium is not particularly limited, and may be, for example, a storage medium such as a USB memory or a CD-ROM (Compact Disc ROM).

次に、図7から図13を参照しつつ、一実施形態に従う画像検査装置の機能ブロックについて説明する。図7は、一実施形態における画像検査装置20の機能ブロックの構成を示す構成図である。図8は、欠陥度合いを取得する方法の一例を説明するための概念図である。図9は、欠陥度合いを取得する方法の他の例を説明するための概念図である。図10は、図7に示す、分割部240、検査用画像データセット生成部250、抽出部260、及び取得部270による処理を説明するための概念図である。図11は、検査画像60の一例を示す図である。図12は、図7に示す検査部280による処理を説明するための概念図である。図13は、欠陥度合い画像70の一例を示す図である。 Next, functional blocks of an image inspection device according to one embodiment will be described with reference to Figs. 7 to 13. Fig. 7 is a configuration diagram showing the configuration of functional blocks of an image inspection device 20 in one embodiment. Fig. 8 is a conceptual diagram for explaining an example of a method for acquiring the degree of defect. Fig. 9 is a conceptual diagram for explaining another example of a method for acquiring the degree of defect. Fig. 10 is a conceptual diagram for explaining processing by the division unit 240, the inspection image data set generation unit 250, the extraction unit 260, and the acquisition unit 270 shown in Fig. 7. Fig. 11 is a diagram showing an example of an inspection image 60. Fig. 12 is a conceptual diagram for explaining processing by the inspection unit 280 shown in Fig. 7. Fig. 13 is a diagram showing an example of a defect degree image 70.

図7に示すように、画像検査装置20は、通信部210と、記憶部220と、撮像部230と、分割部240と、検査用画像データセット生成部250と、抽出部260と、取得部270と、検査部280と、を備える。 As shown in FIG. 7, the image inspection device 20 includes a communication unit 210, a memory unit 220, an imaging unit 230, a division unit 240, an inspection image dataset generation unit 250, an extraction unit 260, an acquisition unit 270, and an inspection unit 280.

通信部210は、各種の情報を送信及び受信可能に構成されている。通信部210は、例えば、通信ネットワークNWを介して、学習済みモデル生成装置10から学習済みモデル55及び複数の特徴ベクトル129を受信する。受信された学習済みモデル55、及び複数の特徴ベクトル129は、記憶部220に書き込まれて記憶される。 The communication unit 210 is configured to be able to transmit and receive various types of information. The communication unit 210 receives the trained model 55 and multiple feature vectors 129 from the trained model generation device 10, for example, via the communication network NW. The received trained model 55 and multiple feature vectors 129 are written and stored in the memory unit 220.

記憶部220は、各種の情報を記憶するように構成されている。記憶部220は、例えば、学習済みモデル55と、複数の特徴ベクトル129とを記憶する。このように、複数の学習済みモデル55を記憶する記憶部220を備えることにより、学習済みモデルを容易に読み出すことができる。 The memory unit 220 is configured to store various types of information. For example, the memory unit 220 stores a trained model 55 and a plurality of feature vectors 129. In this way, by providing the memory unit 220 that stores a plurality of trained models 55, the trained model can be easily read out.

撮像部230は、検査対象物TAの検査画像を取得するためのものである。撮像部230は、例えばカメラ等の撮像装置を含んで構成される。本実施形態の撮像部230は、検査対象物TAからの反射光Rを受光し、検査画像を取得する。そして、撮像部230は、取得した検査画像を分割部240に出力する。このように、検査対象物TAの検査画像を取得することにより、検査画像を容易に得ることができる。 The imaging section 230 is for acquiring an inspection image of the inspection object TA. The imaging section 230 is configured to include an imaging device such as a camera. In this embodiment, the imaging section 230 receives reflected light R from the inspection object TA and acquires the inspection image. The imaging section 230 then outputs the acquired inspection image to the division section 240. In this manner, by acquiring the inspection image of the inspection object TA, the inspection image can be easily obtained.

分割部240は、検査対象物TAの検査画像を複数の検査分割画像に分割するように構成されている。より詳細には、分割部240は、学習済みモデル生成装置10における良品画像の分割と同様の方法によって、検査画像を分割する。具体的には、分割部240は、検査対象物TAの検査画像を、縦方向及び横方向にそれぞれ5分割して、25個の検査分割画像を生成する。そして、分割部240は、生成した検査分割画像を検査用画像データセット生成部250に出力する。このように、検査対象物TAの検査画像を複数の検査分割画像に分割することにより、検査分割画像を容易に得ることができる。 The division unit 240 is configured to divide the inspection image of the inspection object TA into a plurality of inspection split images. More specifically, the division unit 240 divides the inspection image using a method similar to that used to divide a non-defective product image in the trained model generation device 10. Specifically, the division unit 240 divides the inspection image of the inspection object TA into five parts in the vertical and horizontal directions, generating 25 inspection split images. The division unit 240 then outputs the generated inspection split images to the inspection image dataset generation unit 250. In this manner, by dividing the inspection image of the inspection object TA into a plurality of inspection split images, the inspection split images can be easily obtained.

検査用画像データセット生成部250は、検査分割画像について、当該検査分割画像の周囲に配置された画像に基づいて、検査周囲含有画像を生成するように構成されている。検査周囲含有画像は、検査分割画像の周囲の画像のうちの少なくとも一部に基づく画像である。検査用画像データセット生成部250は、予め指定されたアルゴリズムに基づいて検査周囲含有画像を生成してもよいし、ユーザの操作に基づいて検査周囲含有画像を生成してもよい。 The inspection image dataset generating unit 250 is configured to generate an inspection periphery-containing image for an inspection split image based on images arranged around the inspection split image. The inspection periphery-containing image is an image based on at least a portion of the images around the inspection split image. The inspection image dataset generating unit 250 may generate the inspection periphery-containing image based on a pre-specified algorithm, or may generate the inspection periphery-containing image based on a user operation.

また、検査用画像データセット生成部250は、検査分割画像と生成された検査周囲含有画像とを含んで構成される検査用画像データセットを生成するように構成されている。 The inspection image dataset generation unit 250 is also configured to generate an inspection image dataset including the inspection division image and the generated inspection surroundings-containing image.

より詳細には、検査用画像データセット生成部250は、複数の検査分割画像のそれぞれについて、検査周囲含有画像を生成して複数の検査用画像データセットを生成する。本実施形態では、検査用画像データセット生成部250は、分割部240により生成された25個の検査分割画像のうちの縁の検査分割画像を除く9個の検査分割画像について、検査周囲含有画像を生成する。ここで、前述したように、学習処理の際に良品周囲含有画像が縮小されている場合、検査用画像データセット生成部250は、良品周囲含有画像の縮小に合わせて、検査分割画像の周囲の画像を縮小し、検査周囲含有画像は、この縮小された画像を含むことが好ましい。検査用画像データセット生成部250は、生成した検査用画像データセットを抽出部260に出力する。 More specifically, the inspection image dataset generating unit 250 generates an inspection periphery-containing image for each of the multiple inspection split images to generate multiple inspection image datasets. In this embodiment, the inspection image dataset generating unit 250 generates an inspection periphery-containing image for 9 inspection split images, excluding the edge inspection split images, of the 25 inspection split images generated by the splitting unit 240. Here, as described above, if the good product periphery-containing image is reduced during the learning process, it is preferable that the inspection image dataset generating unit 250 reduces the image surrounding the inspection split image in accordance with the reduction of the good product periphery-containing image, and the inspection periphery-containing image includes this reduced image. The inspection image dataset generating unit 250 outputs the generated inspection image dataset to the extraction unit 260.

抽出部260は、学習済みモデル55に検査用画像データセットを入力し、当該検査用画像データセットに含まれる検査分割画像に対する特徴量を成分とする特徴ベクトルを抽出するように構成されている。具体的には、抽出部260は、記憶部220に記憶された学習済みモデル55を読み出し、学習済みモデル55に、複数の検査用画像データセットのそれぞれを順次入力する。前述したように、学習済みモデル55は入力された画像の特徴量を出力するように学習されているので、抽出部260は、入力の検査分割画像に対する1つ又は複数の特徴量を、学習済みモデル55から得ることができる。これにより、1つ又は複数の特徴量を成分とする特徴ベクトルが抽出される。そして、抽出部260は、抽出した複数の特徴ベクトルを取得部270に出力する。なお、抽出部260が抽出する検査分割画像の特徴ベクトルは、良品分割画像に対する特徴ベクトル129と同じd次元ベクトルである。 The extraction unit 260 is configured to input the inspection image data set to the trained model 55 and extract a feature vector having the feature amount for the inspection split image included in the inspection image data set as a component. Specifically, the extraction unit 260 reads out the trained model 55 stored in the storage unit 220 and sequentially inputs each of the multiple inspection image data sets to the trained model 55. As described above, since the trained model 55 is trained to output the feature amount of the input image, the extraction unit 260 can obtain one or more feature amounts for the input inspection split image from the trained model 55. This extracts a feature vector having one or more feature amounts as components. Then, the extraction unit 260 outputs the extracted multiple feature vectors to the acquisition unit 270. Note that the feature vector of the inspection split image extracted by the extraction unit 260 is a d-dimensional vector, the same as the feature vector 129 for the non-defective split image.

取得部270は、抽出された複数の特徴ベクトルのそれぞれについて、当該特徴ベクトルで表現される特徴空間における、当該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、当該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得するように構成されている。欠陥度合いは、例えば、レベル、ステップ、クラス、級(等級)、層(階層)等のように離散的に程度を表すものを用いてもよいし、例えば数等のように連続的に程度を表すものを用いてもよい。 The acquisition unit 270 is configured to acquire, for each of the extracted feature vectors, a defect degree indicating the degree of defect in the inspection split image corresponding to the feature vector, based on a point indicated by the feature vector in a feature space represented by the feature vector and a set formed by the feature vectors for the non-defective split images. The defect degree may be expressed in a discrete manner, such as a level, step, class, grade, layer, etc., or in a continuous manner, such as a number.

具体的には、取得部270は、記憶部220に記憶された複数の特徴ベクトル129を読み出し、d次元空間である特徴空間に、各特徴ベクトル129が示す点をプロットする。これにより、図8に示すように、例えば2次元の特徴空間において、各特徴ベクトル129が示す黒丸の点によって、破線で示す集合S1が形成される。この集合は、例えば良品画像40における位置に応じて形成される。なお、取得部270は、複数の特徴ベクトル129に基づいて特徴空間における集合S1をあらかじめ形成しておき、当該集合S1に関する情報を記憶部220に書き込んで記憶していてもよい。 Specifically, the acquisition unit 270 reads out the multiple feature vectors 129 stored in the storage unit 220, and plots the points indicated by each feature vector 129 in the feature space, which is a d-dimensional space. As a result, as shown in FIG. 8, for example, in the two-dimensional feature space, a set S1 indicated by a dashed line is formed by the black dots indicated by each feature vector 129. This set is formed, for example, according to the position in the non-defective product image 40. Note that the acquisition unit 270 may form the set S1 in the feature space in advance based on the multiple feature vectors 129, and write and store information about the set S1 in the storage unit 220.

次に、取得部270は、抽出部260から入力された複数の特徴ベクトルのうち、集合S1に対応する位置の検査分割画像に対する特徴ベクトルが示す点を、特徴空間にプロットする。図10では、対応する位置の検査分割画像に対する特徴ベクトルは、白丸の点P1で示されている。そして、取得部270は、この検査分割画像に対する特徴ベクトルが示す点P1と集合S1とに基づいて、当該検査分割画像の欠陥度合いを取得する。 Next, the acquisition unit 270 plots in the feature space the point indicated by the feature vector for the inspection split image at the position corresponding to the set S1, among the multiple feature vectors input from the extraction unit 260. In FIG. 10, the feature vector for the inspection split image at the corresponding position is indicated by a white circle point P1. Then, the acquisition unit 270 acquires the degree of defect of the inspection split image based on the point P1 indicated by the feature vector for this inspection split image and the set S1.

より詳細には、取得部270は、抽出された複数の特徴ベクトルのそれぞれについて、特徴空間における、当該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合との間の距離に基づいて、当該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得するように構成されている。 More specifically, the acquisition unit 270 is configured to acquire the degree of defect of the inspection split image corresponding to each of the extracted feature vectors based on the distance in the feature space between the point indicated by the feature vector and a set formed by the feature vectors for the non-defective split images.

図8に示す例では、第1特徴量及び第2特徴量を成分とする特徴ベクトルで表現される特徴空間において、取得部270は、ある検査分割画像に対する特徴ベクトルが示す点P1と、当該検査分割画像に対応する複数の良品分割画像に対する複数の特徴ベクトルの集合S1との間の距離に基づいて、当該検査分割画像の欠陥度合いを取得する。この欠陥度合いは、例えば距離に応じた値である。このように、特徴ベクトルに対応する検査分割画像の欠陥度合いが、特徴空間における、特徴ベクトルが示す点P1と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合S1との間の距離に基づいて取得されることにより、検査分割画像の欠陥の程度を容易に示すことができる。 In the example shown in FIG. 8, in a feature space represented by a feature vector whose components are the first feature amount and the second feature amount, the acquisition unit 270 acquires the degree of defect of an inspection split image based on the distance between point P1 indicated by the feature vector for a certain inspection split image and a set S1 of multiple feature vectors for multiple good product split images corresponding to the inspection split image. This degree of defect is, for example, a value according to the distance. In this way, the degree of defect of the inspection split image corresponding to the feature vector is acquired based on the distance in the feature space between point P1 indicated by the feature vector and a set S1 formed by multiple feature vectors for multiple good product split images, so that the degree of defect of the inspection split image can be easily indicated.

あるいは、取得部270は、抽出された複数の特徴ベクトルのそれぞれについて、特徴空間における、当該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて、当該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得するように構成されていてもよい。 Alternatively, the acquisition unit 270 may be configured to acquire the degree of defect of the inspection split image corresponding to each of the extracted feature vectors based on the distance in the feature space between a point indicated by the feature vector and a point indicated by one of the feature vectors for the non-defective split images.

例えば、図9に示すように、第1特徴量及び第2特徴量を成分とする特徴ベクトルで表現される特徴空間において、取得部270は、ある検査分割画像の特徴ベクトルが示す点P2と、当該検査分割画像に対応する複数の良品分割画像に対する複数の特徴ベクトルの集合S2に含まれる点との間の距離に基づいて、当該検査分割画像の欠陥度合いを取得する。この欠陥度合いは、例えば距離に応じた値である。また、集合S2に含まれる点は、集合S2に含まれる複数の点のうち、例えば点P2に最も近い点である。取得部270は、集合S2に含まれる複数の点のそれぞれについて点P2との間の距離を算出し、点P2に最も近い点を決定することができる。このように、特徴ベクトルに対応する検査分割画像の欠陥度合いが、特徴空間における、特徴ベクトルが示す点P2と複数の良品分割画像に対する複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて取得されることにより、検査分割画像の欠陥の程度を容易に示すことができる。 For example, as shown in FIG. 9, in a feature space represented by a feature vector having the first feature amount and the second feature amount as components, the acquisition unit 270 acquires the degree of defect of an inspection split image based on the distance between point P2 indicated by the feature vector of a certain inspection split image and a point included in a set S2 of multiple feature vectors for multiple good product split images corresponding to the inspection split image. This degree of defect is, for example, a value according to the distance. In addition, the point included in the set S2 is, for example, the point closest to point P2 among the multiple points included in the set S2. The acquisition unit 270 can calculate the distance between each of the multiple points included in the set S2 and point P2 and determine the point closest to point P2. In this way, the degree of defect of the inspection split image corresponding to the feature vector is acquired based on the distance in the feature space between point P2 indicated by the feature vector and one of the multiple feature vectors for the multiple good product split images, so that the degree of defect of the inspection split image can be easily indicated.

取得部270は、抽出部260により抽出された複数の特徴ベクトルのそれぞれについて、以上の手順を繰り返し行い、複数の検査分割画像のそれぞれの欠陥度合いを取得する。そして、取得部270は、取得した複数の欠陥度合いを検査部280に出力する。 The acquisition unit 270 repeats the above procedure for each of the multiple feature vectors extracted by the extraction unit 260 to acquire the defect degree of each of the multiple inspection split images. The acquisition unit 270 then outputs the multiple acquired defect degrees to the inspection unit 280.

図10に示すように、撮像部230が取得した検査対象物TAの検査画像42は、分割部240によって縦方向及び横方向にそれぞれ5分割され、25個の検査分割画像が生成される。生成された25個の検査分割画像のうちの縁の検査分割画像を除く9個の検査分割画像のそれぞれについて、検査用画像データセット生成部250によって検査周囲含有画像が生成される。例えば、第1検査分割画像420について第1検査周囲含有画像424が生成され、第2検査分割画像422について第2検査周囲含有画像426が生成される。検査分割画像と検査周囲含有画像との組みが検査用画像データセットとなる。 As shown in FIG. 10, the inspection image 42 of the inspection object TA acquired by the imaging unit 230 is divided into five parts vertically and horizontally by the division unit 240 to generate 25 inspection split images. For each of the nine inspection split images excluding the edge inspection split images out of the 25 inspection split images generated, an inspection periphery-containing image is generated by the inspection image dataset generation unit 250. For example, a first inspection periphery-containing image 424 is generated for the first inspection split image 420, and a second inspection periphery-containing image 426 is generated for the second inspection split image 422. The pair of the inspection split image and the inspection periphery-containing image becomes the inspection image dataset.

抽出部260は、生成された9個の検査用画像データセットのぞれぞれを、学習済みモデルに入力する。9個の検査分割画像に対するぞれぞれの特徴量が学習済みモデルから出力され、抽出部260は、9個の検査用画像データセットに対してそれぞれ出力された特徴量を成分とする9個の特徴ベクトルを抽出する。例えば、第1特徴ベクトル440は第1検査分割画像420及び第1検査周囲含有画像424に基づいて抽出され、第2特徴ベクトル442は第2検査分割画像422及び第2検査周囲含有画像426に基づいて抽出される。 The extraction unit 260 inputs each of the nine inspection image data sets generated into the trained model. The feature amounts for each of the nine inspection split images are output from the trained model, and the extraction unit 260 extracts nine feature vectors whose components are the feature amounts output for each of the nine inspection image data sets. For example, the first feature vector 440 is extracted based on the first inspection split image 420 and the first inspection surroundings-containing image 424, and the second feature vector 442 is extracted based on the second inspection split image 422 and the second inspection surroundings-containing image 426.

取得部270は、抽出された9個の特徴ベクトルのそれぞれについて、当該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルの集合とに基づいて、当該特徴ベクトルに対応する検査分割画像の欠陥度合いを取得する。これにより、9個の検査分割画像のそれぞれの欠陥度合いが取得される。例えば、第1欠陥度合い460は第1特徴ベクトル440に基づいて取得され、第2欠陥度合い462は第2特徴ベクトル442に基づき取得される。 For each of the nine extracted feature vectors, the acquisition unit 270 acquires the defect degree of the inspection split image corresponding to that feature vector based on the point indicated by that feature vector and a set of multiple feature vectors for multiple good product split images. This allows the defect degree of each of the nine inspection split images to be acquired. For example, the first defect degree 460 is acquired based on the first feature vector 440, and the second defect degree 462 is acquired based on the second feature vector 442.

ここで、図11に示すように、良品であることがあらかじめ分かっている検査対象物TAの検査画像60は、例えば、6個の検査分割画像600,602,604,606,608,及び610に分割される。これら6個の検査分割画像のうち、検査分割画像602,606,及び608は互いに類似するパターンを含んでいる。また、検査分割画像604は、他の検査分割画像と異なる特殊パターンを含んでいる。 As shown in FIG. 11, an inspection image 60 of an inspection object TA, which is known in advance to be a non-defective product, is divided, for example, into six inspection split images 600, 602, 604, 606, 608, and 610. Of these six inspection split images, inspection split images 602, 606, and 608 contain similar patterns. Furthermore, inspection split image 604 contains a special pattern that is different from the other inspection split images.

本実施形態の学習済みモデル55とは異なり、仮に、良品周囲含有画像を用いずに、これら6個の検査分割画像を用いて学習済みモデルを生成する場合、当該学習済みモデルは、検査分割画像602,604又は608のパターンの特徴量を抽出して出力し得るものの、学習済みモデルの表現能力次第では、検査分割画像604に含まれる特殊パターンの特徴量が十分に抽出されない可能性がある。この場合、特徴空間において、特殊パターンを含む検査分割画像604の特徴ベクトルが示す点は、他の検査分割画像600,602,606,608,及び610の特徴ベクトルが形成する集合から離れた位置にプロットされることがある。その結果、当該検査分割画像604の欠陥度合いは大きくなり、良品である検査対象物TAが不良品と判定されてしまうことがあった。 Unlike the trained model 55 of this embodiment, if a trained model is generated using these six inspection split images without using a good product surroundings-containing image, the trained model can extract and output feature quantities of the patterns of the inspection split images 602, 604, or 608, but depending on the expressive ability of the trained model, the feature quantities of the special pattern contained in the inspection split image 604 may not be sufficiently extracted. In this case, in the feature space, the point indicated by the feature vector of the inspection split image 604 containing the special pattern may be plotted at a position away from the set formed by the feature vectors of the other inspection split images 600, 602, 606, 608, and 610. As a result, the degree of defect of the inspection split image 604 becomes large, and the inspection target TA, which is a good product, may be determined to be a defective product.

これに対し、本実施形態の画像検査装置20は、良品分割画像に加え、良品周囲含有画像を入力として特徴量を出力するように学習させた学習済みモデル55に、検査分割画像600,602,604,606,608,及び610と、検査周囲含有画像とを入力し、当該検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルを抽出する。これにより、良品分割画像のみを用いて学習させ、特殊パターンを含む良品分割画像の特徴ベクトルが示す点が他のパターンを含む良品分割画像の特徴ベクトルが示す点から遠い位置にプロットされる場合と比較して、学習済みモデル55は、位置により特徴量が大きく変化する良品周囲含有画像も用いて学習することで、同じ位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を近くに、異なる位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を遠くにプロットすることが可能になるので、良品分割画像に特有のパターンを正確に学習することができ、特徴空間において、各検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像に対する特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像604に対する特徴ベクトルが示す点を、当該検査分割画像604に対応する複数の良品分割画像に対する特徴ベクトルが形成する集合の近くにプロットすることができ、欠陥の程度が小さい欠陥度合いを取得して良品と判定することができる。 In contrast, the image inspection device 20 of this embodiment inputs the inspection split images 600, 602, 604, 606, 608, and 610 and the inspection periphery-containing image into a trained model 55 that has been trained to output features using images containing the good product periphery as input in addition to the good product split images, and extracts feature vectors for the inspection split images 600, 602, 604, 606, 608, and 610. As a result, compared to a case where only good-product divided images are used for learning and points indicated by feature vectors of good-product divided images containing special patterns are plotted far from points indicated by feature vectors of good-product divided images containing other patterns, the learned model 55 learns using images containing good-product surroundings in which the feature amount changes greatly depending on the position, making it possible to plot points indicated by feature vectors for good-product divided images at the same position close to each other and points indicated by feature vectors for good-product divided images at different positions far from each other, so that patterns specific to good-product divided images can be accurately learned, and in the feature space, the points indicated by the feature vectors for each of the inspection divided images 600, 602, 604, 606, 608, and 610 are plotted near the sets formed by the feature vectors for the corresponding good-product divided images. Therefore, in the feature space, the points indicated by the feature vector for the inspection divided image 604 containing a special pattern can be plotted near the sets formed by the feature vectors for the multiple good-product divided images corresponding to the inspection divided image 604, and a defect degree with a small degree of defect can be obtained to determine that the product is good.

また、良品であることがあらかじめ分かっている別の検査対象物TAの検査画像において、ある位置で良品であるが別の位置では不良品であるパターンを含む検査分割画像を用いて1つの学習済みモデルを生成する場合、特徴空間において、このようなパターンを含む検査分割画像の特徴ベクトルが示す点は、他の検査分割画像の特徴ベクトルが形成する集合の近くにプロットされることがある。そのため、当該別の位置にこのようなパターンを含む検査分割画像の欠陥度合いは小さくなり、本来は不良品である検査分割画像を含む検査画像の検査対象物TAは良品として判定され、不良品を見逃してしまうことがあった。 Furthermore, when generating a trained model using an inspection split image that includes a pattern that is good in one position but defective in another position in an inspection image of another inspection object TA that is known in advance to be a good product, the point indicated by the feature vector of the inspection split image that includes such a pattern may be plotted in the feature space near the set formed by the feature vector of the other inspection split image. As a result, the degree of defect of the inspection split image that includes such a pattern in the other position becomes smaller, and the inspection object TA of the inspection image that includes the inspection split image that is actually defective may be judged as a good product, and the defective product may be overlooked.

このような場合にも、本実施形態の画像検査装置20では、学習済みモデル55は、良品周囲含有画像によって、良品の検査対象物TAの良品画像における位置、部分に応じて異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置に応じて異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像に対する特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像に対する複数の特徴ベクトルが形成する集合に対して遠くにプロットすることができ、欠陥の程度が大きい欠陥度合いを取得して不良品の見逃しを抑制することができる。 Even in such a case, in the image inspection device 20 of this embodiment, the trained model 55 can learn different judgment criteria depending on the position and part in the good product image of the inspection target object TA by using the image containing the good product surroundings, and in the feature space, the points indicated by the feature vector for each inspection split image are collected in different ranges and regions depending on the position of the inspection split image in the inspection image. Therefore, in the feature space, a point indicated by the feature vector for the inspection split image at another position, including a pattern that is good at one position but defective at another position, can be plotted far away from the set formed by the multiple feature vectors for the multiple good product split images at the other positions, and the degree of defect of a large degree of defect can be obtained to prevent overlooking defective products.

また、本実施形態の検査周囲含有画像は、検査分割画像の周囲の画像を縮小した画像を含む。これにより、学習済みモデル55による特徴量の出力において、検査周囲含有画像の影響が大きくなるのを抑制することができ、検査分割画像に対する特徴ベクトルを高精度に抽出することが可能となる。 In addition, the inspection periphery-containing image in this embodiment includes a reduced image of the image surrounding the inspection split image. This makes it possible to suppress the influence of the inspection periphery-containing image from becoming too large in the output of features by the trained model 55, and makes it possible to extract feature vectors for the inspection split image with high accuracy.

図7の説明に戻り、検査部280は、欠陥度合いに基づいて検査対象物TAの検査するように構成されている。このように、特徴空間における、検査分割画像に対する特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、検査分割画像の欠陥度合いを取得し、この欠陥度合いに基づいて、検査対象物TAを検査することにより、検査対象物TAの検査精度を高めることができる。 Returning to the explanation of FIG. 7, the inspection unit 280 is configured to inspect the inspection object TA based on the degree of defect. In this way, the degree of defect of the inspection split image is obtained based on the point indicated by the feature vector for the inspection split image in the feature space and a set formed by multiple feature vectors for multiple good product split images, and the inspection object TA is inspected based on this degree of defect, thereby improving the inspection accuracy of the inspection object TA.

また、前述した欠陥度合いは、検査分割画像の欠陥の程度を示す値であることが好ましい。これにより、検査分割画像の欠陥の程度を定量的に示すことができる。 The aforementioned degree of defect is preferably a value indicating the degree of defect in the inspection split image. This makes it possible to quantitatively indicate the degree of defect in the inspection split image.

この場合、検査部280は、取得部270によって取得された複数の欠陥度合いに基づいて欠陥度合い画像を生成し、当該欠陥度合い画像に基づいて検査対象物TAを検査するように構成されている。これにより、検査対象物が良品であるか不良品であるかを容易に判定することができ、検査精度の高い検査を容易に実現することができる。 In this case, the inspection unit 280 is configured to generate a defect degree image based on the multiple defect degrees acquired by the acquisition unit 270, and to inspect the inspection object TA based on the defect degree image. This makes it easy to determine whether the inspection object is a good or defective item, and makes it easy to achieve inspection with high inspection accuracy.

具体的には、図12に示すように、検査部280は、取得部270によって取得された複数の欠陥度合い460,462、464,・・・を、それぞれの値に基づいて画像化することで、複数の部分画像480,482,484,・・・を生成する。複数の部分画像480,482,484,・・・のそれぞれは、例えば、欠陥度合いの値を、白黒の階調に変換したグレースケール画像や、RGBの階調に変換したカラー画像等である。検査部280は、生成された複数の部分画像480,482,484,・・・を統合することで、欠陥度合い画像48を生成する。なお、欠陥度合い画像48の縦及び横のサイズ(画素数)は、検査画像42と同じであってもよいし、異なっていてもよい。そして、検査部280は、当該欠陥度合い画像48に基づいて検査対象物TAが良品であるか否かを判定する。 Specifically, as shown in FIG. 12, the inspection unit 280 generates a plurality of partial images 480, 482, 484, ... by imaging the plurality of defect degrees 460, 462, 464, ... acquired by the acquisition unit 270 based on their respective values. Each of the plurality of partial images 480, 482, 484, ... is, for example, a grayscale image in which the defect degree value is converted into black and white gradation, or a color image in which the defect degree value is converted into RGB gradation. The inspection unit 280 generates a defect degree image 48 by integrating the generated plurality of partial images 480, 482, 484, .... The vertical and horizontal sizes (number of pixels) of the defect degree image 48 may be the same as or different from the inspection image 42. Then, the inspection unit 280 judges whether the inspection target TA is a non-defective product based on the defect degree image 48.

図13に示すように、欠陥度合い画像70は、例えば2つの欠陥部分画像700,702を含んでいる。欠陥部分画像700は欠陥度合いが相対的に低い部分画像であり、欠陥部分画像702は欠陥度合いが相対的に高い部分画像である。 As shown in FIG. 13, the defect degree image 70 includes, for example, two defect portion images 700 and 702. The defect portion image 700 is a partial image with a relatively low degree of defect, and the defect portion image 702 is a partial image with a relatively high degree of defect.

検査部280は、例えば、欠陥度合い画像70における欠陥部分画像700,702の占める割合が、所定の閾値以下である場合に検査対象物TAが良品であると判定し、所定の閾値を超える場合に検査対象物TAが良品ではない、つまり、不良品であると判定する。 For example, the inspection unit 280 determines that the inspection object TA is a good product when the proportion of the defective part images 700, 702 in the defect degree image 70 is equal to or less than a predetermined threshold, and determines that the inspection object TA is not a good product, i.e., a defective product, when the proportion exceeds the predetermined threshold.

あるいは、検査部280は、欠陥度合い画像70に含まれる欠陥部分画像700,702の有無に基づいて、検査対象物TAの欠陥を検出してもよい。 Alternatively, the inspection unit 280 may detect defects in the inspection object TA based on the presence or absence of defective portion images 700, 702 contained in the defect degree image 70.

なお、分割部240、検査用画像データセット生成部250、抽出部260、取得部270、及び検査部280のうちの少なくとも1つは、プロセッサ31が、記憶装置33に記憶されたプログラムを実行することにより実現されてもよい。プログラムを実行する場合、当該プログラムは、記憶媒体に格納されていてもよい。当該プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体であってもよい。非一時的な記憶媒体は、特に限定されないが、例えば、USBメモリ、又はCD-ROM等の記憶媒体であってもよい。 At least one of the division unit 240, the inspection image data set generation unit 250, the extraction unit 260, the acquisition unit 270, and the inspection unit 280 may be realized by the processor 31 executing a program stored in the storage device 33. When executing a program, the program may be stored in a storage medium. The storage medium storing the program may be a computer-readable non-transient storage medium. The non-transient storage medium is not particularly limited, and may be, for example, a storage medium such as a USB memory or a CD-ROM.

次に、図14を参照しつつ、一実施形態に従う学習済みモデル生成装置が行う処理手順について説明する。図14は、一実施形態における学習済みモデル生成装置10が行う学習済みモデル生成処理S100の一例を説明するためのフローチャートである。 Next, a processing procedure performed by a trained model generation device according to one embodiment will be described with reference to FIG. 14. FIG. 14 is a flowchart for explaining an example of a trained model generation process S100 performed by the trained model generation device 10 in one embodiment.

図14に示すように、まず、通信部110は、通信ネットワークNWを介して、複数の良品画像40を取得する(ステップS101)。取得された複数の良品画像40は、記憶部120に記憶される。 As shown in FIG. 14, first, the communication unit 110 acquires a plurality of non-defective product images 40 via the communication network NW (step S101). The acquired non-defective product images 40 are stored in the storage unit 120.

次に、学習用画像データセット生成部131は、記憶部120から複数の良品画像40を読み出し、当該複数の良品画像40に基づいて、複数の学習用画像データセット124を生成する(ステップS102)。学習用画像データセット124は、前述したように、良品分割画像と良品周囲含油画像とを含んでいる。 Next, the learning image dataset generation unit 131 reads out a plurality of good-quality images 40 from the storage unit 120, and generates a plurality of learning image datasets 124 based on the plurality of good-quality images 40 (step S102). As described above, the learning image dataset 124 includes a good-quality divided image and an oil-containing image of the surrounding area of the good-quality product.

次に、モデル生成部135は、ステップS102において生成された複数の学習用画像データセット124を入力とし、特徴量を出力するように学習させた学習済みモデル55を生成する。(ステップS103)。生成された学習済みモデル55と、学習済みモデル55の生成過程で抽出される複数の特徴ベクトル129とは、記憶部120に記憶される。 Next, the model generation unit 135 generates a trained model 55 that is trained to output features using the multiple training image datasets 124 generated in step S102 as input (step S103). The generated trained model 55 and multiple feature vectors 129 extracted during the generation process of the trained model 55 are stored in the storage unit 120.

次に、通信部110は、ステップS103において生成された学習済みモデル55と、生成過程で抽出される複数の特徴ベクトル129とを、通信ネットワークNWを介して、画像検査装置20に送信する(ステップS104)。これにより、画像検査装置20は、学習済みモデル生成装置10によって生成された学習済みモデルを使用可能になる。 Next, the communication unit 110 transmits the trained model 55 generated in step S103 and the multiple feature vectors 129 extracted during the generation process to the image inspection device 20 via the communication network NW (step S104). This allows the image inspection device 20 to use the trained model generated by the trained model generation device 10.

ステップS104の後、学習済みモデル生成装置10は、学習済みモデル生成処理S100を終了する。 After step S104, the trained model generation device 10 terminates the trained model generation process S100.

次に、図15を参照しつつ、一実施形態に従う画像検査装置が行う処理手順について説明する。図15は、一実施形態における画像検査装置20が行う画像検査処理S200の一例を説明するためのフローチャートである。 Next, the processing procedure performed by the image inspection device according to one embodiment will be described with reference to FIG. 15. FIG. 15 is a flowchart for explaining an example of the image inspection process S200 performed by the image inspection device 20 in one embodiment.

なお、以下の例では、通信部210が学習済みモデル生成装置10から学習済みモデル55及び複数の特徴ベクトル129を受信し、記憶部220に当該学習済みモデル55及び複数の特徴ベクトル129が記憶されているものとして、説明する。 In the following example, it is assumed that the communication unit 210 receives the trained model 55 and multiple feature vectors 129 from the trained model generation device 10, and that the trained model 55 and multiple feature vectors 129 are stored in the storage unit 220.

図15に示すように、まず、撮像部230が、検査対象物TAの検査画像を取得する(ステップS201)。取得された検査画像は、分割部240に出力される。 As shown in FIG. 15, first, the imaging unit 230 acquires an inspection image of the inspection object TA (step S201). The acquired inspection image is output to the division unit 240.

次に、分割部240はステップS201において取得された検査画像を分割し、検査用画像データセット生成部250は、分割された複数の検査分割画像のそれぞれについて、検査周囲含有画像を生成して複数の検査用画像データセットを生成する(ステップS202)。検査用画像データセットは、前述したように、検査分割画像と検査周囲含有画像とを含んでいる。生成された複数の検査用画像データセットは、抽出部260に出力される。 Next, the division unit 240 divides the inspection image acquired in step S201, and the inspection image dataset generation unit 250 generates an inspection periphery-containing image for each of the divided inspection divided images to generate multiple inspection image datasets (step S202). As described above, the inspection image dataset includes the inspection divided image and the inspection periphery-containing image. The generated multiple inspection image datasets are output to the extraction unit 260.

次に、抽出部260は、記憶部220にあらかじめ記憶された学習済みモデル55を読み出し、ステップS207において生成された複数の検査用画像データセットのそれぞれを学習済みモデル55にそれぞれ入力し、複数の特徴ベクトルを抽出する(ステップS203)。生成された複数の特徴ベクトルは、取得部270に出力される。 Next, the extraction unit 260 reads out the trained model 55 previously stored in the storage unit 220, inputs each of the multiple test image data sets generated in step S207 into the trained model 55, and extracts multiple feature vectors (step S203). The generated multiple feature vectors are output to the acquisition unit 270.

次に、取得部270は、記憶部220にあらかじめ記憶された複数の複数の特徴ベクトル129を読み出し、ステップS207において抽出された複数の特徴ベクトルのそれぞれについて、特徴空間において、特徴ベクトルが示す点と対応する複数の良品分割画像に対する複数の特徴ベクトル129によって形成される集合とに基づいて、複数の検査分割画像の欠陥度合いを取得する(ステップS204)。得られた複数の欠陥度合いは、検査部280に出力される。 Next, the acquisition unit 270 reads out the multiple feature vectors 129 previously stored in the storage unit 220, and for each of the multiple feature vectors extracted in step S207, acquires the defect degree of the multiple inspection split images based on the point indicated by the feature vector in the feature space and the set formed by the multiple feature vectors 129 for the corresponding multiple non-defective split images (step S204). The multiple defect degrees acquired are output to the inspection unit 280.

次に、検査部280は、ステップS204において得られた複数の欠陥度合いのそれぞれの値をから複数の部分画像を生成し、生成された各部分画像を統合して欠陥度合い画像を生成する(ステップS205)。 Next, the inspection unit 280 generates multiple partial images from each of the multiple defect degree values obtained in step S204, and integrates each of the generated partial images to generate a defect degree image (step S205).

次に、検査部280は、ステップS205において生成された欠陥度合い画像に基づいて、検査対象物TAを検査する(ステップS206)。 Next, the inspection unit 280 inspects the inspection object TA based on the defect degree image generated in step S205 (step S206).

ステップS206の後、画像検査装置20は、画像検査処理S200を終了する。 After step S206, the image inspection device 20 terminates the image inspection process S200.

なお、本実施形態で説明したシーケンス及びフローチャートは、処理に矛盾が生じない限り、順序を入れ替えてもよい。 The sequence and flow chart described in this embodiment may be rearranged as long as no inconsistencies occur in the processing.

以上、本発明の例示的な実施形態について説明した。本実施形態における画像検査装置20及び画像検査方法によれば、良品分割画像と良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデル55に、検査分割画像600,602,604,606,608,及び610と、検査周囲含有画像とを入力し、当該検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルを抽出する。これにより、良品分割画像のみを用いて学習させ、特殊パターンを含む良品分割画像の特徴ベクトルが示す点が他のパターンを含む良品分割画像の特徴ベクトルが示す点から遠い位置にプロットされる場合と比較して、学習済みモデル55は、位置により特徴量が大きく変化する良品周囲含有画像も用いて学習することで、同じ位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を近くに、異なる位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を遠くにプロットすることが可能になるので、良品分割画像に特有のパターンを正確に学習することができ、特徴空間において、各検査分割画像600,602,604,606,608,及び610に対する特徴ベクトルが示す点は、それぞれの対応する良品分割画像に対する特徴ベクトルによって形成される集合の近くにプロットされる。よって、特徴空間において、特殊パターンを含む検査分割画像604に対する特徴ベクトルが示す点を、当該検査分割画像604に対応する複数の良品分割画像に対する特徴ベクトルが形成する集合の近くにプロットすることができ、欠陥の程度が小さい欠陥度合いを取得して良品と判定することができる。また、学習済みモデル55は、良品周囲含有画像によって、良品の検査対象物TAの良品画像における位置、部分に応じて異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置に応じて異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像に対する特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像に対する複数の特徴ベクトルが形成する集合に対して遠くにプロットすることができ、欠陥の程度が大きい欠陥度合いを取得して不良品の見逃しを抑制することができる。従って、特徴空間における、検査分割画像に対する特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、検査分割画像の欠陥度合いを取得し、この欠陥度合いに基づいて、検査対象物TAを検査することにより、検査対象物TAの検査精度を高めることができる。 The above describes an exemplary embodiment of the present invention. According to the image inspection device 20 and image inspection method of this embodiment, the inspection divided images 600, 602, 604, 606, 608, and 610 and the inspection surroundings-containing image are input to the trained model 55, which has been trained to output features using a good-product divided image and a good-product surroundings-containing image as input, and feature vectors for the inspection divided images 600, 602, 604, 606, 608, and 610 are extracted. As a result, compared to a case where only good-product divided images are used for learning and the points indicated by the feature vectors of the good-product divided images including the special pattern are plotted far from the points indicated by the feature vectors of the good-product divided images including other patterns, the learned model 55 learns using images including the good-product surroundings, in which the feature amount changes greatly depending on the position, so that the distance between the points indicated by the feature vectors for the good-product divided images at the same position can be plotted close to each other and the distance between the points indicated by the feature vectors for the good-product divided images at different positions can be plotted far from each other, so that the patterns specific to the good-product divided images can be accurately learned, and in the feature space, the points indicated by the feature vectors for each of the inspection divided images 600, 602, 604, 606, 608, and 610 are plotted close to the sets formed by the feature vectors for the corresponding good-product divided images. Therefore, in the feature space, the points indicated by the feature vectors for the inspection divided image 604 including the special pattern can be plotted close to the sets formed by the feature vectors for the multiple good-product divided images corresponding to the inspection divided image 604, and a defect degree with a small degree of defect can be obtained to determine the product as a good product. In addition, the trained model 55 can learn different judgment criteria depending on the position and part in the good product image of the inspection target TA by using the good product surroundings-containing image, and in the feature space, the points indicated by the feature vectors for each inspection split image are collected in different ranges and regions depending on the position of the inspection split image in the inspection image. Therefore, in the feature space, the points indicated by the feature vectors for the inspection split image at another position, including a pattern that is good at one position but defective at another position, can be plotted far away from the set formed by the multiple feature vectors for the multiple good product split images at the other positions, and the defect degree of the large defect can be obtained to suppress overlooking of defective products. Therefore, the defect degree of the inspection split image can be obtained based on the points indicated by the feature vectors for the inspection split image and the set formed by the multiple feature vectors for the multiple good product split images in the feature space, and the inspection target TA can be inspected based on this defect degree, thereby improving the inspection accuracy of the inspection target TA.

また、本実施形態における学習済みモデル生成装置10によれば、良品分割画像と良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデル55を生成する。これにより、良品分割画像のみを用いて学習させ、特殊パターンを含む良品分割画像の特徴ベクトルが示す点が他のパターンを含む良品分割画像の特徴ベクトルが示す点から遠い位置にプロットされる場合と比較して、学習済みモデル55は、位置により特徴量が大きく変化する良品周囲含有画像も用いて学習することで、同じ位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を近くに、異なる位置の良品分割画像に対する特徴ベクトルが示す点との間の距離を遠くにプロットすることが可能になるので、良品分割画像に特有のパターンを正確に学習することができ、特徴空間において、特殊パターンを含む検査分割画像に対する特徴ベクトルが示す点を、当該検査分割画像に対応する複数の良品分割画像に対する特徴ベクトルが形成する集合の近くにプロットすることができる。また、学習済みモデル55は、良品周囲含有画像によって、良品の検査対象物TAの良品画像における位置、部分に応じて異なる判断基準を学習することができ、特徴空間において、各検査分割画像に対する特徴ベクトルが示す点は、検査画像における当該検査分割画像の位置に応じて異なる範囲、領域に集められる。よって、特徴空間において、ある位置で良品であるが別の位置では不良品であるパターンを含む、当該別の位置の検査分割画像に対する特徴ベクトルが示す点を、当該別の位置における複数の良品分割画像に対する複数の特徴ベクトルが形成する集合に対して遠くにプロットすることができる。 In addition, according to the trained model generating device 10 of this embodiment, a trained model 55 is generated that is trained to output features using a good-product divided image and a good-product surroundings-containing image as inputs. As a result, compared to a case where only good-product divided images are used for training and a point indicated by a feature vector of a good-product divided image including a special pattern is plotted at a position far from a point indicated by a feature vector of a good-product divided image including other patterns, the trained model 55 also uses images including good-product surroundings in which the feature amount changes greatly depending on the position, so that the distance between the points indicated by the feature vectors for good-product divided images at the same position can be plotted close to each other and the distance between the points indicated by the feature vectors for good-product divided images at different positions can be plotted far away, so that a pattern specific to a good-product divided image can be accurately learned, and in the feature space, a point indicated by a feature vector for an inspection divided image including a special pattern can be plotted close to a set formed by the feature vectors for multiple good-product divided images corresponding to the inspection divided image. Furthermore, the trained model 55 can learn different judgment criteria depending on the position and part in the good product image of the inspection target object TA by using the good product surroundings-containing image, and in the feature space, the points indicated by the feature vector for each inspection split image are collected in different ranges and regions depending on the position of the inspection split image in the inspection image. Therefore, in the feature space, a point indicated by the feature vector for an inspection split image at another position, including a pattern that is good at one position but defective at another position, can be plotted far away from the set formed by the multiple feature vectors for the multiple good product split images at the other positions.

なお、以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更/改良され得るとともに、本発明にはその等価物も含まれる。すなわち、実施形態に当業者が適宜設計変更を加えたものも、本発明の特徴を備えている限り、本発明の範囲に包含される。例えば、実施形態が備える各要素及びその配置、材料、条件、形状、サイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、実施形態は例示であり、異なる実施形態で示した構成の部分的な置換又は組み合わせが可能であることは言うまでもなく、これらも本発明の特徴を含む限り本発明の範囲に包含される。 The above-described embodiments are intended to facilitate understanding of the present invention, and are not intended to limit the present invention. The present invention may be modified or improved without departing from the spirit of the present invention, and equivalents are also included in the present invention. In other words, designs modified by a person skilled in the art as appropriate are also included within the scope of the present invention as long as they include the characteristics of the present invention. For example, the elements of the embodiments and their arrangements, materials, conditions, shapes, sizes, etc. are not limited to those exemplified, and can be modified as appropriate. Furthermore, the embodiments are merely examples, and it goes without saying that partial substitution or combination of the configurations shown in different embodiments is possible, and these are also included within the scope of the present invention as long as they include the characteristics of the present invention.

[付記1]
良品の検査対象物(TA)の分割画像である良品分割画像と該良品分割画像の周囲の画像に基づく良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデル(55)に、検査対象物(TA)の分割画像である検査分割画像と該検査分割画像の周囲の画像に基づく検査周囲含有画像とを入力し、該検査分割画像に対する特徴量を成分とする特徴ベクトルをそれぞれ抽出する抽出部(260)と、
抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトル(129)によって形成される集合とに基づいて、該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得する取得部(270)と、
欠陥度合いに基づいて、検査対象物(TA)を検査する検査部(280)と、を備える、
画像検査装置(20)。
[付記9]
良品の検査対象物(TA)の分割画像である良品分割画像と該良品分割画像の周囲の画像に基づく良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデル(55)に、検査対象物(TA)の分割画像である検査分割画像と該検査分割画像の周囲の画像に基づく検査周囲含有画像とを入力し、該検査分割画像に対する特徴量を成分とする特徴ベクトルをそれぞれ抽出するステップと、
抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と複数の良品分割画像に対する複数の特徴ベクトル(129)によって形成される集合とに基づいて、該特徴ベクトルに対応する検査分割画像の欠陥の程度を示す欠陥度合いを取得するステップと、
欠陥度合いに基づいて、検査対象物(TA)を検査するステップと、を含む、
画像検査方法。
[付記10]
良品の検査対象物(TA)の分割画像である良品分割画像と該良品分割画像の周囲の画像に基づく良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデル(55)を生成するモデル生成部(135)を備える、
学習済みモデル生成装置(10)。
[Appendix 1]
an extraction unit (260) that inputs an inspection split image, which is a split image of an inspection object (TA) that is a non-defective item, and an inspection periphery-containing image, which is based on an image surrounding the inspection split image, into a trained model (55) that has been trained to output features using as input a non-defective item split image, which is a split image of an inspection object (TA) that is a non-defective item, and a non-defective item surroundings-containing image, which is based on an image surrounding the inspection split image, and extracts feature vectors each having features for the inspection split image as components;
an acquisition unit (270) that acquires a defect degree indicating the degree of defect of the inspection division image corresponding to the extracted feature vector based on a point indicated by the feature vector and a set formed by a plurality of feature vectors (129) for a plurality of non-defective division images in a feature space represented by the extracted feature vector;
An inspection unit (280) that inspects an inspection target (TA) based on a defect degree.
An image inspection device (20).
[Appendix 9]
A trained model (55) is trained to output features by inputting a good-quality divided image, which is a divided image of a good-quality inspection object (TA), and a good-quality surroundings-containing image, which is based on an image surrounding the good-quality divided image, into the trained model (55), and a step of inputting an inspection divided image, which is a divided image of the inspection object (TA), and an inspection surroundings-containing image, which is based on an image surrounding the inspection divided image, into the trained model (55), and extracting feature vectors each having features for the inspection divided image as components;
A step of acquiring a defect degree indicating the degree of defect of the inspection division image corresponding to the extracted feature vector based on a point indicated by the feature vector and a set formed by a plurality of feature vectors (129) for a plurality of non-defective division images in a feature space represented by the extracted feature vector;
Inspecting the inspection object (TA) based on the defect degree.
Imaging methods.
[Appendix 10]
A model generating unit (135) is provided for generating a trained model (55) trained to output features using a non-defective divided image, which is a divided image of a non-defective inspection target (TA), and a non-defective surroundings-containing image based on an image surrounding the non-defective divided image as input.
A trained model generating device (10).

1…画像検査システム、10…モデル生成装置、20…画像検査装置、31…プロセッサ、32…メモリ、33…記憶装置、34…通信装置、35…入力装置、36…出力装置、40…良品画像、42…検査画像、48…欠陥度合い画像、51…学習モデル、52…学習モデル、55…学習済みモデル、60…検査画像、70…欠陥度合い画像、110…通信部、120…記憶部、124…学習用画像データセット、129…特徴ベクトル、130…学習部、131…学習用画像データセット生成部、135…モデル生成部、210…通信部、220…記憶部、230…撮像部、240…分割部、250…検査用画像データセット生成部、260…抽出部、270…取得部、280…検査部、400…第1良品分割画像、402…第2良品分割画像、404…第1良品周囲含有画像、406…第2良品周囲含有画像、420…第1検査分割画像、422…第2検査分割画像、424…第1検査周囲含有画像、426…第2検査周囲含有画像、440…第1特徴ベクトル、442…第2特徴ベクトル、480…部分画像、482…部分画像、484…部分画像、511…入力層、512…第1入力チャネル、513…第2入力チャネル、515…中間層、517…出力層、518…第1出力チャネル、519…第2出力チャネル、521…入力層、525…中間層、527…出力層、600…検査分割画像、602…検査分割画像、604…検査分割画像、606…検査分割画像、608…検査分割画像、700…欠陥部分画像、702…欠陥部分画像、IL…照明、L…光、NW…通信ネットワーク、P1…点、P2…点、R…反射光、S1…集合、S2…集合、S100…モデル生成処理、S200…画像検査処理、TA…検査対象物。 1...Image inspection system, 10...Model generation device, 20...Image inspection device, 31...Processor, 32...Memory, 33...Storage device, 34...Communication device, 35...Input device, 36...Output device, 40...Good product image, 42...Inspection image, 48...Defect degree image, 51...Learning model, 52...Learning model, 55...Learning model, 60...Inspection image, 70...Defect degree image, 110...Communication unit, 120...Storage unit, 124...Learning image data sensor , 129... feature vector, 130... learning unit, 131... learning image data set generation unit, 135... model generation unit, 210... communication unit, 220... storage unit, 230... imaging unit, 240... division unit, 250... inspection image data set generation unit, 260... extraction unit, 270... acquisition unit, 280... inspection unit, 400... first non-defective divided image, 402... second non-defective divided image, 404... first non-defective surroundings-containing image, 406... second non-defective surroundings-containing image, 42 0...first inspection divided image, 422...second inspection divided image, 424...first inspection periphery-containing image, 426...second inspection periphery-containing image, 440...first feature vector, 442...second feature vector, 480...partial image, 482...partial image, 484...partial image, 511...input layer, 512...first input channel, 513...second input channel, 515...intermediate layer, 517...output layer, 518...first output channel, 519...second output channel, 5 21...input layer, 525...intermediate layer, 527...output layer, 600...inspection split image, 602...inspection split image, 604...inspection split image, 606...inspection split image, 608...inspection split image, 700...defective part image, 702...defective part image, IL...illumination, L...light, NW...communication network, P1...point, P2...point, R...reflected light, S1...set, S2...set, S100...model generation process, S200...image inspection process, TA...inspection object.

Claims (10)

良品の検査対象物の分割画像である良品分割画像と該良品分割画像の周囲の画像に基づく良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデルに、検査対象物の分割画像である検査分割画像と該検査分割画像の周囲の画像に基づく検査周囲含有画像とを入力し、該検査分割画像に対する前記特徴量を成分とする特徴ベクトルをそれぞれ抽出する抽出部と、
前記抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と複数の前記良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する前記検査分割画像の欠陥の程度を示す欠陥度合いを取得する取得部と、
前記欠陥度合いに基づいて、前記検査対象物を検査する検査部と、を備える、
画像検査装置。
an extraction unit that inputs an inspection split image, which is a split image of an inspection object, and an inspection periphery-containing image, which is based on an image surrounding the inspection split image, to a trained model that has been trained to output features using a good-item split image, which is a split image of an inspection object of a good item, and a good-item surroundings-containing image, which is based on an image surrounding the inspection split image, and extracts feature vectors each having the feature amount for the inspection split image as components;
an acquisition unit that acquires a defect degree indicating the degree of defect of the inspection divided image corresponding to the feature vector based on a point indicated by the extracted feature vector in a feature space represented by the feature vector and a set formed by a plurality of feature vectors for a plurality of the non-defective divided images;
and an inspection unit that inspects the inspection object based on the defect degree.
Image inspection equipment.
前記検査周囲含有画像は、前記検査分割画像の周囲の画像を縮小した画像を含む、
請求項1に記載の画像検査装置。
The inspection surroundings-containing image includes an image obtained by reducing an image surrounding the inspection divided image.
The image inspection device according to claim 1 .
前記取得部は、前記抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と前記集合との間の距離に基づいて、該特徴ベクトルに対応する前記検査分割画像の前記欠陥度合いを取得する、
請求項1又は2に記載の画像検査装置。
the acquiring unit acquires the defect degree of the inspection divided image corresponding to the extracted feature vector based on a distance between a point indicated by the feature vector and the set in a feature space represented by the extracted feature vector.
3. An image inspection device according to claim 1 or 2.
前記取得部は、前記抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と前記複数の良品分割画像に対する前記複数の特徴ベクトルのうちの1つが示す点との間の距離に基づいて、該特徴ベクトルに対応する前記検査分割画像の前記欠陥度合いを取得する、
請求項1又は2に記載の画像検査装置。
the acquiring unit acquires the defect degree of the inspection divided image corresponding to the extracted feature vector based on a distance between a point indicated by the feature vector and a point indicated by one of the plurality of feature vectors for the plurality of non-defective divided images in a feature space represented by the extracted feature vector;
3. An image inspection device according to claim 1 or 2.
前記欠陥度合いは、前記検査分割画像の欠陥の程度を示す値である、
請求項1から4のいずれか一項に記載の画像検査装置。
The defect degree is a value indicating the degree of a defect in the inspection divided image.
5. An image inspection device according to claim 1.
前記検査部は、複数の前記欠陥度合いに基づいて欠陥度合い画像を生成し、該欠陥度合い画像に基づいて前記検査対象物を検査する、
請求項5に記載の画像検査装置。
the inspection unit generates a defect degree image based on the plurality of defect degrees, and inspects the inspection object based on the defect degree image.
6. An image inspection device according to claim 5.
検査対象物の検査画像を複数の前記検査分割画像に分割する分割部をさらに備える、
請求項1から6のいずれか一項に記載の画像検査装置。
A division unit that divides an inspection image of an inspection object into a plurality of the inspection divided images.
7. An image inspection device according to claim 1.
検査対象物の検査画像を取得するための撮像部をさらに備える、
請求項1から7のいずれか一項に記載の画像検査装置。
Further comprising an imaging unit for acquiring an inspection image of the inspection object.
An image inspection device according to any one of claims 1 to 7.
良品の検査対象物の分割画像である良品分割画像と該良品分割画像の周囲の画像に基づく良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデルに、検査対象物の分割画像である検査分割画像と該検査分割画像の周囲の画像に基づく検査周囲含有画像とを入力し、該検査分割画像に対する前記特徴量を成分とする特徴ベクトルをそれぞれ抽出するステップと、
前記抽出された特徴ベクトルで表現される特徴空間において、該特徴ベクトルが示す点と複数の前記良品分割画像に対する複数の特徴ベクトルによって形成される集合とに基づいて、該特徴ベクトルに対応する前記検査分割画像の欠陥の程度を示す欠陥度合いを取得するステップと、
前記欠陥度合いに基づいて、前記検査対象物を検査するステップと、を含む、
画像検査方法。
a step of inputting an inspection split image, which is a split image of an inspection object, and an inspection periphery-containing image, which is based on an image surrounding the inspection split image, into a trained model that has been trained to output features using a good-item split image, which is a split image of an inspection object of a good item, and a good-item surroundings-containing image, which is based on an image surrounding the inspection split image, and extracting feature vectors each having the feature amounts for the inspection split image as components;
acquiring a defect degree indicating the degree of defect of the inspection divided image corresponding to the extracted feature vector based on a point indicated by the feature vector and a set formed by a plurality of feature vectors for a plurality of the non-defective divided images in a feature space represented by the extracted feature vector;
and inspecting the inspection object based on the defect degree.
Imaging methods.
良品の検査対象物の分割画像である良品分割画像と該良品分割画像の周囲の画像に基づく良品周囲含有画像とを入力として特徴量を出力するように学習させた学習済みモデルを生成するモデル生成部を備える、
学習済みモデル生成装置。
A model generating unit is provided which generates a trained model which is trained to output a feature amount by inputting a non-defective divided image which is a divided image of an inspection target of a non-defective product and a non-defective surroundings-containing image based on an image surrounding the non-defective divided image.
A trained model generator.
JP2021020384A 2021-02-12 2021-02-12 Image inspection device, image inspection method, and trained model generation device Active JP7533263B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021020384A JP7533263B2 (en) 2021-02-12 2021-02-12 Image inspection device, image inspection method, and trained model generation device
PCT/JP2021/009991 WO2022172475A1 (en) 2021-02-12 2021-03-12 Image inspection device, image inspection method, and trained model generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021020384A JP7533263B2 (en) 2021-02-12 2021-02-12 Image inspection device, image inspection method, and trained model generation device

Publications (2)

Publication Number Publication Date
JP2022123218A JP2022123218A (en) 2022-08-24
JP7533263B2 true JP7533263B2 (en) 2024-08-14

Family

ID=82837644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021020384A Active JP7533263B2 (en) 2021-02-12 2021-02-12 Image inspection device, image inspection method, and trained model generation device

Country Status (2)

Country Link
JP (1) JP7533263B2 (en)
WO (1) WO2022172475A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6664574B1 (en) 2019-09-06 2020-03-13 三菱電機株式会社 Image processing system and image processing method
US20200160083A1 (en) 2018-11-15 2020-05-21 International Business Machines Corporation Efficient defect localization/segmentation for surface defect inspection
JP6818961B1 (en) 2020-04-08 2021-01-27 三菱電機株式会社 Learning device, learning method, and inference device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020052520A (en) * 2018-09-25 2020-04-02 エヌ・ティ・ティ・コムウェア株式会社 Determination device, determination method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200160083A1 (en) 2018-11-15 2020-05-21 International Business Machines Corporation Efficient defect localization/segmentation for surface defect inspection
JP6664574B1 (en) 2019-09-06 2020-03-13 三菱電機株式会社 Image processing system and image processing method
JP6818961B1 (en) 2020-04-08 2021-01-27 三菱電機株式会社 Learning device, learning method, and inference device

Also Published As

Publication number Publication date
WO2022172475A1 (en) 2022-08-18
JP2022123218A (en) 2022-08-24

Similar Documents

Publication Publication Date Title
CN110060237B (en) Fault detection method, device, equipment and system
JP6792842B2 (en) Visual inspection equipment, conversion data generation equipment, and programs
WO2019117065A1 (en) Data generation device, data generation method and data generation program
CN106503724A (en) Grader generating means, defective/zero defect determining device and method
JP2017211259A (en) Inspection device, inspection method and program
JP2016115331A (en) Identifier generator, identifier generation method, quality determination apparatus, quality determination method and program
KR20210141060A (en) Machine learning based image anomaly detection system
CN114742799B (en) Industrial scene unknown type defect segmentation method based on self-supervision heterogeneous network
US11410300B2 (en) Defect inspection device, defect inspection method, and storage medium
KR102437115B1 (en) Apparatus and method of defect inspection using structure prediction based on deep learning
JP2020135051A (en) Fault inspection device, fault inspection method, fault inspection program, learning device and learned model
CN115222649A (en) System, apparatus and method for detecting and classifying patterns of heatmaps
CN114894801A (en) Inspection system, inspection method, and inspection program
JP7533263B2 (en) Image inspection device, image inspection method, and trained model generation device
WO2022172469A1 (en) Image inspection device, image inspection method, and trained model generation device
WO2016092783A1 (en) Information processing apparatus, method for processing information, discriminator generating apparatus, method for generating discriminator, and program
CN117037052A (en) Water surface dead fish detection method based on multi-scale feature fusion and attention mechanism
JP7465446B2 (en) Image inspection device, image inspection method, and trained model generation device
Hu et al. Hybrid Pixel‐Level Crack Segmentation for Ballastless Track Slab Using Digital Twin Model and Weakly Supervised Style Transfer
JP7475901B2 (en) Method and system for detecting defects on a test piece
WO2022172470A1 (en) Image inspection device, image inspection method, and trained model generation device
JP6961319B2 (en) Evaluation method and evaluation device
JP7505256B2 (en) Image inspection device, image inspection method, and trained model generation device
CN118609127B (en) Display panel defect detection model training method, defect detection method and device
WO2024090054A1 (en) Image processing method, program, and image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240715

R150 Certificate of patent or registration of utility model

Ref document number: 7533263

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150