Nothing Special   »   [go: up one dir, main page]

JP2023005682A - Dimension measurement method - Google Patents

Dimension measurement method Download PDF

Info

Publication number
JP2023005682A
JP2023005682A JP2021107753A JP2021107753A JP2023005682A JP 2023005682 A JP2023005682 A JP 2023005682A JP 2021107753 A JP2021107753 A JP 2021107753A JP 2021107753 A JP2021107753 A JP 2021107753A JP 2023005682 A JP2023005682 A JP 2023005682A
Authority
JP
Japan
Prior art keywords
learning
feature amount
dimension
rectangular area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021107753A
Other languages
Japanese (ja)
Inventor
眞 小野
Makoto Ono
和孝 須田
Kazutaka Suda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Proterial Ltd
Original Assignee
Hitachi Metals Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Metals Ltd filed Critical Hitachi Metals Ltd
Priority to JP2021107753A priority Critical patent/JP2023005682A/en
Publication of JP2023005682A publication Critical patent/JP2023005682A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

To provide a method capable of measuring a dimension by calculating a feature amount without being affected by the change in illumination and efficiently learning a regression model necessary for dimension measurement.SOLUTION: A dimension measurement method for a test object according to the present invention comprises: an image capturing step of capturing an image of the test object; a feature amount calculation step of extracting at least two partial region image data including a portion of each of both ends in the dimension measurement direction of the test object from the image and calculating a feature amount by inputting the partial region image data into a feature amount calculation model; a dimension calculation process of obtaining an explanatory variable by coupling the feature amount output from each partial region image data and inputting the explanatory variable to a learned regression model to calculate a distance between both ends; and a dimension outputting step of outputting the calculated distance between both ends.SELECTED DRAWING: Figure 1

Description

本発明は、被検物の寸法を測定する寸法測定方法に関する。 The present invention relates to a dimension measuring method for measuring dimensions of a test object.

塑性加工技術を用いたプレス成形加工は、同じ形状の金属製品を、大量かつ安価に製造できるとても効率的な製造方法である。プレス成形加工は、金型に依存する平面方向の寸法を高精度に加工できるが、上下方向の寸法は、素材の厚み、金型温度、潤滑油量、金型の上下動の機構などの要因でばらついてしまう。 Press molding using plastic working technology is a very efficient manufacturing method that enables the mass production of metal products of the same shape at low cost. In press molding, the dimensions in the plane direction, which depend on the mold, can be processed with high accuracy, but the dimensions in the vertical direction are affected by factors such as material thickness, mold temperature, amount of lubricating oil, and mechanism for vertical movement of the mold. It will fluctuate.

そこで、一般的に、プレス成形加工後の金属製品の寸法は、抜取検査で測定して、品質を管理する。しかし、抜取検査では、不具合の発見が遅れ、大量な不良品を作り込んでしまうので、プレス成形加工の直後に、リアルタイムで寸法を測定して、品質を管理することが望まれている。
ここで、画像処理で物体の寸法を測定する方法として、特許文献1や特許文献2の方法が開示されている。
Therefore, generally, the dimensions of metal products after press forming are measured by sampling inspection to control the quality. However, in the sampling inspection, the discovery of defects is delayed and a large number of defective products are produced. Therefore, it is desired to measure dimensions in real time immediately after press molding to control quality.
Here, as a method of measuring the dimensions of an object by image processing, the methods of Patent Document 1 and Patent Document 2 are disclosed.

特許文献1の方法は、画像に映っている測定部位の特徴点の情報を、事前に登録しておいた特徴点の情報、すなわちテンプレート情報と照合する処理を行う。前記処理を測定部位の両端で行い、特徴点を結ぶ線分の長さを寸法として出力する。特許文献2の方法は、深層学習のセマンティックセグメンテーションと呼ばれる画像中の領域分割方式を用いて、測定対象の領域を抽出し、抽出された領域の端点を結んだ距離を寸法として出力する。 The method of Japanese Patent Laid-Open No. 2002-200303 performs a process of matching information on feature points of a measurement site shown in an image with information on feature points registered in advance, that is, template information. The above processing is performed at both ends of the measurement site, and the length of the line connecting the feature points is output as the dimension. The method of Patent Document 2 uses a region division method in an image called semantic segmentation of deep learning to extract a region to be measured, and outputs the distance connecting the endpoints of the extracted region as a dimension.

WO2019/045089WO2019/045089 特開2020-184295号公報JP 2020-184295 A

特許文献1に開示された方法では、特徴点の情報として、隣り合った画素の輝度の変化を用いて、変化の類似度で特徴点を照合するため、照明の変化の影響で照合を失敗することも多いという課題があった。 In the method disclosed in Japanese Patent Laid-Open No. 2002-200010, the change in brightness of adjacent pixels is used as the feature point information, and the feature points are matched based on the similarity of the change. There was also the issue of many things.

特許文献2では、近年、飛躍的に進歩しているセマンティックセグメンテーションの技術を用いているが、測定対象の領域を抽出する際に数画素ずれることもあり、測定精度に問題があった。また、セマンティックセグメンテーションを高精度に行うためには、領域分割した画像における全ての画素数に対する大量の学習が不可欠であるという課題もあった。 In Patent Document 2, semantic segmentation technology, which has been rapidly progressing in recent years, is used. In addition, in order to perform semantic segmentation with high accuracy, there is also a problem that a large amount of learning for all pixel numbers in the segmented image is indispensable.

そこで、本発明は、照明の変化の影響を受けずに特徴量を計算して寸法測定ができ、寸法測定に必要な回帰モデルの学習も効率的に行うことが可能な方法を提供する。 Accordingly, the present invention provides a method that enables dimension measurement by calculating feature quantities without being affected by changes in illumination, and that enables efficient learning of a regression model necessary for dimension measurement.

本発明に係る寸法測定方法は、被検物の寸法測定方法であって、被検物の画像を撮像する画像撮像工程と、前記画像から、前記被検物の寸法測定方向の両端、それぞれの一部を含む、少なくとも2つの部分領域画像データを抽出し、前記部分領域画像データを特徴量計算モデルに入力して、特徴量を計算する特徴量計算工程と、各々の前記部分領域画像データから出力された前記特徴量を結合して説明変数とし、前記説明変数を学習済み回帰モデルに入力して、前記両端の間の距離を計算する寸法算出工程と、計算された前記両端の間の距離を出力する寸法出力工程を有する。 A dimension measuring method according to the present invention is a method for measuring dimensions of a test object, and comprises an image capturing step of capturing an image of the test object; a feature quantity calculation step of extracting at least two partial region image data including a part, inputting the partial region image data into a feature quantity calculation model, and calculating a feature quantity; A size calculation step of combining the output feature values to form an explanatory variable, inputting the explanatory variable into a learned regression model, and calculating the distance between the two ends, and the calculated distance between the two ends. has a dimension output step of outputting

また、前記画像から、前記部分領域画像データを抽出する位置を変えながら取得した、複数の学習用部分領域画像データを、前記特徴量計算モデルに入力して学習用特徴量を計算し、複数の前記学習用特徴量を結合して学習用説明変数とし、前記部分領域画像データの位置を動かした画素数に応じた学習用目的変数を計算し、前記学習用説明変数と前記学習用目的変数から回帰モデルを学習して前記学習済み回帰モデルとする学習工程をさらに有することが好ましい。 Further, a plurality of learning partial area image data obtained from the image while changing the position for extracting the partial area image data is input to the feature amount calculation model to calculate a learning feature amount, and a plurality of learning feature amounts are calculated. combining the learning feature values to obtain a learning explanatory variable, calculating a learning objective variable according to the number of pixels by which the position of the partial area image data is moved, and calculating the learning explanatory variable and the learning objective variable from the learning explanatory variable and the learning objective variable; It is preferable to further include a learning step of learning a regression model to obtain the learned regression model.

また、前記特徴量計算モデルは、学習済みの畳み込みニューラルネットワークであることが好ましい。 Also, the feature quantity calculation model is preferably a trained convolutional neural network.

また、前記回帰モデルは、決定木に基づくアンサンブル機械学習であることが好ましい。 Also, the regression model is preferably ensemble machine learning based on a decision tree.

本発明によれば、回帰モデルを効率的に学習することができ、照明の変化の影響を受けずに特徴量を計算して寸法測定をすることが出来る。 According to the present invention, the regression model can be learned efficiently, and the feature amount can be calculated to measure dimensions without being affected by changes in illumination.

寸法を測定するコンピュータの構成の例である。It is an example of the configuration of a computer for measuring dimensions. プレス成形加工で製造された製造物の例である。It is an example of a product manufactured by press molding. 製造物を治具で保持した状態の例である。It is an example of a state in which a product is held by a jig. 撮像された画像の例である。It is an example of a captured image. 矩形領域と測定部位の定義の例である。It is an example of definition of a rectangular area and a measurement site. 寸法測定の手順を示すフローチャートの例である。It is an example of the flowchart which shows the procedure of dimension measurement. 回帰モデルの学習手順を示すフローチャートの例である。It is an example of the flowchart which shows the learning procedure of a regression model. 動かした矩形領域の例である。It is an example of a moved rectangular area. 結合した特徴量と学習用の寸法の例である。It is an example of combined features and dimensions for learning. 選択された有効な特徴量と学習用の寸法の例である。It is an example of selected effective feature amounts and dimensions for learning.

以下、本発明の寸法測定方法について、実施形態を用いて詳細に説明する。本実施形態では、プレス成形加工で形成された金属製品の二箇所の寸法を測定する例を説明する。 Hereinafter, the dimension measuring method of the present invention will be described in detail using embodiments. In this embodiment, an example of measuring two dimensions of a metal product formed by press molding will be described.

図1は、寸法を測定するコンピュータの構成の例である。コンピュータ11は、演算装置31、一次記憶装置32、二次記憶装置33がバス35で接続されていて、データや制御信号の送受信がバス35を介して行われる。また、コンピュータ11は、USBなどの国際規格に基づいた入出力ユニット21,22,23,24,25を備え、それらもバス35で接続されていて、データや制御信号の送受信が行われる。入出力ユニットには、外部装置として画像を撮像できるカメラ12、人がコンピュータを操作するためのディスプレイ41、キーボード42、マウス43などが接続されている。また、ネットワークインターフェースカード34を介して、ローカルエリアネットワークに接続され、外部のデータベースシステム等とデータの送受信が行われる。本発明の寸法測定方法は、コンピュータ11の二次記憶装置33に、コンピュータプログラムとして保存され、寸法を測定するときには、バス35を介して、一次記憶装置32にコンピュータプログラムが読みだされて、実行される。また、寸法を測定するための画像は、カメラ12で撮像され、入出力ユニット21から取り込まれる。画像撮像のタイミングは、プレス成形加工装置の動作を制御するプログラマブルロジックコントローラ(PLC)からシリアル信号として、送られてきて、シリアル信号は入出力ユニット22から取り込まれる。 FIG. 1 is an example of the configuration of a computer for measuring dimensions. In the computer 11, an arithmetic device 31, a primary storage device 32, and a secondary storage device 33 are connected by a bus 35, and data and control signals are transmitted and received via the bus 35. FIG. The computer 11 also includes input/output units 21, 22, 23, 24, and 25 based on international standards such as USB, which are also connected by a bus 35 for transmitting and receiving data and control signals. Connected to the input/output unit are a camera 12 capable of capturing an image as an external device, a display 41 for a person to operate the computer, a keyboard 42, a mouse 43, and the like. In addition, it is connected to a local area network via a network interface card 34 to transmit and receive data to and from an external database system or the like. The dimension measuring method of the present invention is stored as a computer program in the secondary storage device 33 of the computer 11. When measuring the dimension, the computer program is read into the primary storage device 32 via the bus 35 and executed. be done. Also, an image for measuring the dimensions is taken by the camera 12 and taken in from the input/output unit 21 . The timing of image pickup is sent as a serial signal from a programmable logic controller (PLC) that controls the operation of the press molding processing apparatus, and the serial signal is taken in from the input/output unit 22 .

図2は、プレス成形加工で形成された金属製品50の例である。図2(a)は製造された金属製品50を横から見た図、図2(b)は上から見た図、図2(c)は下から見た図である。この金属製品50は、円柱部62の上部にフランジ部61が付いている形状をしている。交差が厳しい寸法は、フランジ部61の厚みと、円柱部62の高さであり、本実施形態ではこれら2か所の寸法を測定する。 FIG. 2 is an example of a metal product 50 formed by press molding. 2(a) is a side view of the manufactured metal product 50, FIG. 2(b) is a top view, and FIG. 2(c) is a bottom view. This metal product 50 has a shape in which a flange portion 61 is attached to the upper portion of a cylindrical portion 62 . The critical dimensions are the thickness of the flange portion 61 and the height of the cylindrical portion 62, and in this embodiment, these two dimensions are measured.

図3は、図2で示した金属製品50が、プレス成形加工機の搬出部で、治具71と72で挟み込むように保持された状態を示している。図3(a)は搬出される側、つまり、金属製品50と治具71,72を真横から見た図、図3(b)は上から見た図、図3(c)は下から見た図、図3(d)は、図3(a)の断面図である。図3(d)に示すように、治具71と72には、直径の異なるフランジ部と円柱部に合わせた溝が掘ってあり、治具71の溝と治具72溝の間に金属製品50が挟まれて保持される。 FIG. 3 shows a state in which the metal product 50 shown in FIG. 2 is sandwiched between jigs 71 and 72 at the unloading section of the press molding machine. 3(a) is a side view of the metal product 50 and jigs 71 and 72, that is, the side to be carried out, FIG. 3(b) is a top view, and FIG. 3(c) is a bottom view. FIG. 3(d) is a sectional view of FIG. 3(a). As shown in FIG. 3(d), the jigs 71 and 72 are provided with grooves corresponding to the flange portion and the cylindrical portion having different diameters. 50 is sandwiched and held.

図4は、図3(a)の状態をカメラ12で撮像した画像の例である。ここで、本実施形態では、金属製品50を、金属製品50のフランジ部61の厚みや、円柱部62の高さに対して垂直方向からカメラ12を用いて撮像をしたが、撮像方向はそれに限定されるものではなく、例えば、斜め方向から撮像しても構わない。 FIG. 4 is an example of an image captured by the camera 12 in the state of FIG. 3(a). Here, in the present embodiment, the metal product 50 is imaged using the camera 12 from a direction perpendicular to the thickness of the flange portion 61 and the height of the cylindrical portion 62 of the metal product 50. There is no limitation, and for example, an image may be captured from an oblique direction.

画像80の座標系は、縦軸81、横軸82であり、原点は画像の左上頂点にある。画像中の座標は原点からの画素数で表す。例えば、座標(50,60)は、原点から下に50画素目、右に60画素目を意味する。画像80には、金属製品のフランジ部61、円柱部62、治具71、72及び背景が映っている。 The coordinate system of the image 80 has a vertical axis 81 and a horizontal axis 82, with the origin at the upper left vertex of the image. Coordinates in the image are represented by the number of pixels from the origin. For example, coordinates (50, 60) mean the 50th pixel below the origin and the 60th pixel to the right. The image 80 shows the flange portion 61 of the metal product, the cylindrical portion 62, the jigs 71 and 72, and the background.

本実施形態の寸法測定のために用いる部分領域画像データ(以下、矩形領域データと示す。)が、矩形領域データ91,92,93で示されている。ここで、部分領域画像データの「部分領域」は、被検物の端部全体ではなく、端部の一部を含む部分領域を示している。矩形領域データ91,92,93には、本実施形態の寸法測定対象である、フランジ部61の厚さ方向、及び円柱部62の高さ方向の両端、それぞれの一部を含んでいる。つまり、矩形領域データ91には、フランジ部61の厚さを測定するために必要なフランジ部61の一方の端辺の一部が映っており、矩形領域データ92には、フランジ部61の厚さと、円柱部62の高さを測定するために必要な、フランジ部61と円柱部62の境界の端辺の一部が映っている。さらに、矩形領域93には、円柱部62の高さを測定するために必要な円柱部61のもう一方の端辺の一部が映っている。 Rectangular area data 91, 92, and 93 indicate partial area image data (hereinafter referred to as rectangular area data) used for dimension measurement in this embodiment. Here, the "partial area" of the partial area image data indicates a partial area including a part of the edge of the object, not the entire edge. The rectangular area data 91, 92, 93 include portions of both ends of the flange portion 61 in the thickness direction and the cylindrical portion 62 in the height direction, which are objects of dimension measurement in this embodiment. That is, the rectangular area data 91 shows a part of one end side of the flange part 61 necessary for measuring the thickness of the flange part 61, and the rectangular area data 92 shows the thickness of the flange part 61. In addition, part of the edge of the boundary between the flange portion 61 and the cylindrical portion 62, which is necessary for measuring the height of the cylindrical portion 62, is shown. Furthermore, a part of the other end side of the cylindrical portion 61 necessary for measuring the height of the cylindrical portion 62 is shown in the rectangular area 93 .

矩形領域データ内のそれぞれの画素値を、後述する特徴量計算モデルに入力すると、フランジ部61の厚みや円柱部62の高さをリアルタイムに測定できる。矩形領域データ91,92,93のサイズは、治具に保持される金属製品の位置のばらつきによって決める。本実施形態では画像全体の分解能と、映っている金属製品や治具のサイズから換算して、1画素は10μm×10μmに相当する。例えば、金属製品50を保持する治具により金属製品50の位置のばらつきが2mm以内に納まるならば、矩形領域データ91,92,93のサイズは、200画素×200画素と決めることができる。矩形領域データ91,92,93のサイズが大きいほど、寸法測定の計算時間が長くなるため、適切なサイズに設定することが重要である。 The thickness of the flange portion 61 and the height of the cylindrical portion 62 can be measured in real time by inputting each pixel value in the rectangular area data into a feature amount calculation model, which will be described later. The sizes of the rectangular area data 91, 92, 93 are determined by variations in the positions of the metal products held by the jig. In the present embodiment, one pixel corresponds to 10 μm×10 μm when converted from the resolution of the entire image and the size of the metal product or jig shown. For example, if the positional variation of the metal product 50 is within 2 mm due to the jig that holds the metal product 50, the size of the rectangular area data 91, 92, 93 can be determined to be 200 pixels×200 pixels. The larger the size of the rectangular area data 91, 92, 93, the longer the calculation time for dimension measurement, so it is important to set the size appropriately.

図5は、本実施形態で用いられる定義テキストファイル130の例である。二次記憶装置33に定義テキストファイル130を保存しておき、寸法測定の処理や、回帰モデルの学習処理を実行するときに、定義テキストファイル130を二次記憶装置33から一次記憶装置32に読み出して使う。本実施形態の定義テキストファイル130には、矩形領域データと測定対象の2種類が記されている。 FIG. 5 is an example of the definition text file 130 used in this embodiment. The definition text file 130 is stored in the secondary storage device 33, and the definition text file 130 is read from the secondary storage device 33 to the primary storage device 32 when the dimension measurement process or the regression model learning process is executed. use it. The definition text file 130 of this embodiment describes two types of data: rectangular area data and measurement objects.

矩形領域データの情報としては、カメラ12で撮像した画像を特定する画像ID,画像ID内の矩形を特定する矩形ID、矩形の縦方向の開始座標、矩形の縦方向の終了座標、矩形の横方向の開始座標、矩形の横方向の終了座標などがあり、例えば、定義テキストファイル130の[window]の記述の直下の数字の行列では、カンマ区切りで、1列目が画像ID、2列目が矩形ID、3列目が縦方向の開始座標、4列目が縦方向の終了座標、5列目が横方向の開始座標、6列目が横方向の終了座標が定義されている。
ここで、[window]の記述の直下の1行目に矩形領域データ91、2行目に矩形領域データ92、3行目に矩形領域データ93の情報が夫々記されていることになる。つまり、矩形領域データ91の場合、画像IDが0番、矩形IDが0番、左上頂点の座標が(338,968)、右下頂点の座標が(562,1192)であることが記されている。この定義に従うと、矩形領域データ91、92、93は、画像IDと横方向の座標が同じであるが、矩形IDと縦方向の座標が異なることがわかる。また、矩形領域データ91,92,93は、同じサイズで224画素×224画素の情報をもつ。
図4の図中に描いた矩形領域データ91,92,93は、この情報に基づいて描いた結果である。すなわち、矩形領域データ91は、背景とフランジ部61の境界付近が映る、フランジ部61の端部の位置、矩形領域データ92は、フランジ部61と円柱部62の境界付近が映る、フランジ部61と円柱部62の双方の端部の位置、矩形領域データ93は、円柱部62と背景の境界付近が映る、円柱部62の端部の位置が定義されている。
The information of the rectangular area data includes an image ID that identifies an image captured by the camera 12, a rectangle ID that identifies a rectangle in the image ID, a vertical start coordinate of the rectangle, a vertical end coordinate of the rectangle, and a width of the rectangle. There are the start coordinate of the direction and the end coordinate of the horizontal direction of the rectangle. is the rectangle ID, the third column defines the vertical start coordinates, the fourth column defines the vertical end coordinates, the fifth column defines the horizontal start coordinates, and the sixth column defines the horizontal end coordinates.
Here, information on rectangular area data 91 is described on the first line immediately below the description of [window], information on rectangular area data 92 is described on the second line, and information on rectangular area data 93 is described on the third line. That is, in the case of the rectangular area data 91, the image ID is 0, the rectangle ID is 0, the coordinates of the upper left vertex are (338, 968), and the coordinates of the lower right vertex are (562, 1192). there is According to this definition, the rectangular area data 91, 92, and 93 have the same image ID and horizontal coordinates, but different rectangle IDs and vertical coordinates. Rectangular area data 91, 92 and 93 have the same size and information of 224 pixels×224 pixels.
Rectangular area data 91, 92, and 93 drawn in FIG. 4 are results drawn based on this information. That is, the rectangular area data 91 is the position of the edge of the flange portion 61 where the vicinity of the boundary between the background and the flange portion 61 is captured, and the rectangular area data 92 is the location where the flange portion 61 and the positions of the ends of the cylindrical portion 62, and the rectangular area data 93 defines the positions of the ends of the cylindrical portion 62 where the vicinity of the boundary between the cylindrical portion 62 and the background appears.

次に、測定対象は、定義130テキストファイルの[objective]の記述の直下に記されている。測定対象の情報としては、寸法を測定する部位の名称、画像ID、矩形IDなどがあり、例えば、[objective]の記述の直下では、カンマ区切りで、1列名が部位の名称、2列目が第1の矩形が含まれる画像ID,3列目が第1の矩形ID,4列目が第2の矩形が含まれる画像ID。5列目が第2の矩形IDが記されている。ここで、本実施形態の場合、定義テキストファイル130には、寸法を測定する部位の名称と、その測定のために用いる画像IDと矩形IDが記されている。つまり、「FLANGE」という名称の部位は、画像IDが0番、矩形IDが0番の矩形、すなわち矩形領域データ91と、画像IDが0番、矩形IDが1番の矩形、すなわち矩形領域データ92を用いて、寸法が計算されることが定義されている。また「LEG」という名称の部位は、画像IDが0番、矩形IDが1番の矩形、すなわち矩形領域データ92と、画像IDが0番、矩形IDが2番の矩形、すなわち矩形領域データ93を用いて、寸法が計算されることが定義されている。このように本実施形態では、画像IDが0番の1枚の画像だけの例で説明しているが、例えば、長い金属製品の全長を測りたい場合など、1枚の画像には測りたい部位が収まらない場合には、両端が異なる画像である場合にも対応できるようになっている。 Next, the measurement object is described immediately below the description of [objective] in the definition 130 text file. Information about the object to be measured includes the name of the part whose dimensions are to be measured, the image ID, the rectangle ID, and the like. is the image ID including the first rectangle, the third column is the first rectangle ID, and the fourth column is the image ID including the second rectangle. The fifth column describes the second rectangle ID. Here, in the case of this embodiment, the definition text file 130 describes the name of the part whose dimensions are to be measured, and the image ID and rectangle ID used for the measurement. That is, the part named "FLANGE" is a rectangle with image ID 0 and rectangle ID 0, that is, rectangular region data 91, and a rectangle with image ID 0 and rectangle ID 1, that is, rectangular region data 91. 92 is used to define the dimensions to be calculated. The part named "LEG" is a rectangle with image ID 0 and rectangle ID 1, that is, rectangular region data 92, and a rectangle with image ID 0 and rectangle ID 2, that is, rectangular region data 93. is defined to be used to calculate the dimensions. In this way, in this embodiment, only one image with the image ID of 0 is used as an example. If the image does not fit, it can be handled even if the two ends are different images.

図6は、寸法を測定する手順を示すフローチャートの例であり、本フローチャートに沿って本実施形態に関する寸法測定方法を説明する。
(前準備工程)
まずステップ121で、矩形領域データと測定部位の定義テキストファイル130を、二次記憶装置33から一次記憶装置32に読み込む。
ステップ122では、後述する有効な特徴量の定義を、二次記憶装置33から一次記憶装置32に読み込む。
ステップ123では、特徴量計算モデルと回帰モデルを、二次記憶装置33から一次記憶装置32に読み込む。特徴量計算モデルとは、画像を入力するとその画像を要約した特徴量を抽出する機械学習モデルのことである。特徴量計算モデルとして、インターネット上で広く公開されている学習済みのVGG16やMobileNetなどを使うことができる。VGG16やMobileNetは、猫や犬などが映っている画像を分類できる畳み込みニューラルネットワークであるが、最終的に分類処理を行うニューラルネットワークの全結合層を除いた畳み込み層は、画像から特徴量を抽出する特徴量計算モデルとして使うことができる。本実施形態では、VGG16を用いた。
一方、回帰モデルは、特徴量、すなわち説明変数を入力すると、目的変数として寸法を算出する機械学習モデルである。例えば、回帰モデルとして、重回帰分析、ランダムフォレスト、サポートベクターマシン、ニューラルネットワーク、勾配ブースティングなどが有名であり、いずれの方法を使ってもよい。ただし、発明者らは、勾配ブースティングが最も精度良い寸法を計算できることを確認した。また、ランダムフォレストも、勾配ブースティングとほぼ同じくらいの精度で寸法を計算できることを確認した。そのため、ランダムフォレストないしは勾配ブースティングのどちらも決定木に基づくアンサンブル機械学習の手法であることから、本発明の回帰モデルには、決定木に基づくアンサンブル機械学習を使うとよい。本実施形態では、勾配ブースティングを用いた。
FIG. 6 is an example of a flowchart showing the procedure for measuring dimensions, and the dimension measuring method according to this embodiment will be described along this flowchart.
(preparatory process)
First, in step 121 , the rectangular area data and the definition text file 130 of the measurement site are read from the secondary storage device 33 to the primary storage device 32 .
In step 122 , the definitions of effective feature quantities, which will be described later, are read from the secondary storage device 33 to the primary storage device 32 .
At step 123 , the feature quantity calculation model and the regression model are read from the secondary storage device 33 to the primary storage device 32 . A feature amount calculation model is a machine learning model that extracts feature amounts summarizing an image when an image is input. As a feature amount calculation model, trained VGG16, MobileNet, etc., which are widely open to the public on the Internet, can be used. VGG16 and MobileNet are convolutional neural networks that can classify images containing cats, dogs, etc., but the convolutional layers, excluding the fully connected layers of the neural network that finally perform classification processing, extract feature values from images. It can be used as a feature value calculation model for In this embodiment, VGG16 is used.
On the other hand, the regression model is a machine learning model that calculates dimensions as objective variables when inputting feature amounts, that is, explanatory variables. For example, well-known regression models include multiple regression analysis, random forest, support vector machine, neural network, and gradient boosting, and any method may be used. However, the inventors have determined that gradient boosting can compute the most accurate dimensions. We also confirm that random forests can compute dimensions with almost as much accuracy as gradient boosting. Therefore, since both random forest and gradient boosting are methods of ensemble machine learning based on decision trees, it is preferable to use ensemble machine learning based on decision trees for the regression model of the present invention. Gradient boosting was used in this embodiment.

(画像撮像工程)
画像撮像工程では、被検物である製造物の画像を撮像する。つまり、本実施形態では、金属製品50のフランジ部61の厚みと、円柱部62の高さを含む画像を撮像する。本実施形態では、
ステップ124では、カメラ12で画像80を撮像し、一次記憶装置32に読み込む。画像80は、プレス成形加工機の搬出部で、金属製品50を治具71,72で保持しているときに、プレス成形加工機のプログラマブルロジックコントローラ(PLC)からシリアル信号を入出力ユニット22で受信したタイミングに撮像される。
(Image capturing process)
In the image capturing step, an image of a product, which is an object to be inspected, is captured. That is, in the present embodiment, an image including the thickness of the flange portion 61 and the height of the cylindrical portion 62 of the metal product 50 is captured. In this embodiment,
At step 124 , image 80 is captured by camera 12 and read into primary storage device 32 . An image 80 shows a serial signal from the programmable logic controller (PLC) of the press molding machine to the input/output unit 22 when the metal product 50 is held by the jigs 71 and 72 at the unloading section of the press molding machine. The image is captured at the timing of reception.

(特徴量計算工程)
特徴量計算工程では、画像から、被検物の寸法測定方向の両端、それぞれの一部を含む、少なくとも2つ以上の部分領域画像データを抽出し、部分領域画像データを特徴量計算モデルに入力して、特徴量を計算する
ステップ125では、画像中の矩形領域データを特徴量計算モデル、すなわち学習済みのVGG16の畳み込み層に入力し、特徴量を計算する。本実施形態では、矩形領域データ91,92,93が定義してあるため、3種類の特徴量が計算される。矩形のサイズは、それぞれ224画素×224画素であるため、VGG16は、1つの矩形領域データあたり、25088個の特徴量を出力する。
ステップ126では、定義テキストファイル130に従って、矩形領域データ91のデータを特徴量計算モデルに入れて計算された特徴量と、矩形領域データ92のデータを特徴量計算モデルに入れて計算された特徴量を結合し、有効な特徴量を選択する。特徴量の結合方法と有効な特徴量の選択方法は、回帰モデルの学習方法の説明時に一緒に説明する。また、矩形領域データ92のデータを特徴量計算モデルに入れて計算された特徴量と、矩形領域データ93のデータを特徴量計算モデルに入れて計算された特徴量を結合し、有効な特徴量を選択する。
(Feature amount calculation process)
In the feature amount calculation step, at least two or more partial area image data are extracted from the image including both ends of the object in the dimension measurement direction and a part of each, and the partial area image data are input to the feature amount calculation model. In step 125, the rectangular area data in the image is input to the feature amount calculation model, that is, the learned convolution layer of the VGG 16, and the feature amount is calculated. In this embodiment, since rectangular area data 91, 92, and 93 are defined, three types of feature amounts are calculated. Since the size of each rectangle is 224 pixels×224 pixels, the VGG 16 outputs 25088 feature amounts per rectangular area data.
In step 126, according to the definition text file 130, the feature amount calculated by putting the data of the rectangular area data 91 into the feature amount calculation model and the feature amount calculated by putting the data of the rectangular area data 92 into the feature amount calculation model and select valid features. The method of combining features and the method of selecting effective features will be explained together when explaining the learning method of the regression model. Further, the feature amount calculated by putting the data of the rectangular area data 92 into the feature amount calculation model and the feature amount calculated by putting the data of the rectangular area data 93 into the feature amount calculation model are combined to obtain an effective feature amount. to select.

(寸法算出工程)
寸法算出工程では、各々の部分領域画像データから出力された特徴量を結合して説明変数とし、説明変数を学習済み回帰モデルに入力して、端部の間の距離を計算する。
ステップ127では、定義テキストファイル130に従って、選択された有効な特徴量を回帰モデルに入力して、「FLANGE」と「LEG」の2種類の寸法を計算する。
(Dimension calculation process)
In the dimension calculation step, feature amounts output from each partial area image data are combined to form an explanatory variable, and the explanatory variable is input to a learned regression model to calculate the distance between the ends.
In step 127, according to the definition text file 130, the selected effective feature quantities are input to the regression model, and two dimensions of "FLANGE" and "LEG" are calculated.

(寸法出力工程)
寸法出力工程では、計算された端部の間の距離を出力する。
ステップ128では、計算された2種類の寸法を二次記憶装置33に出力する。
(Dimension output process)
The output dimensions step outputs the distance between the calculated edges.
At step 128 , the calculated two dimensions are output to the secondary storage device 33 .

なお、回帰モデルは、寸法測定精度を向上するために、回帰モデルを学習することが好ましい。そこで、寸法算出工程の前に、回帰モデルを学習する工程(学習工程)を追加することができる。ここで、学習工程は、画像から、部分領域画像データを抽出する位置を変えながら取得した、複数の学習用部分領域画像データを、特徴量計算モデルに入力して学習用特徴量を計算し、複数の学習用特徴量を結合して学習用説明変数とし、部分領域画像データの位置を動かした画素数に応じた学習用目的変数を計算し、学習用説明変数と学習用目的変数から回帰モデルを学習して学習済み回帰モデルとする。特に、画像から、部分領域画像データを抽出する位置を変えながら取得する方法は、部分領域画像データを、寸法測定方向に対して垂直方向、又は寸法測定方向に決められた画素数の分だけ動かした位置で抽出することで行った。
また、複数の画像を用いて回帰モデルを学習するため、様々な照明条件のデータが混じっていることになり、照明条件にロバストな寸法測定が可能となる。
In addition, it is preferable that the regression model learn the regression model in order to improve the dimension measurement accuracy. Therefore, a step of learning a regression model (learning step) can be added before the dimension calculating step. Here, in the learning step, a plurality of learning partial area image data obtained while changing the position for extracting the partial area image data from the image is input to the feature amount calculation model to calculate the learning feature amount, Multiple learning feature values are combined to form a learning explanatory variable, a learning objective variable is calculated according to the number of pixels by which the position of the partial area image data is moved, and a regression model is derived from the learning explanatory variable and the learning objective variable. is learned and used as a trained regression model. In particular, the method of acquiring the partial area image data from the image while changing the extraction position moves the partial area image data by a predetermined number of pixels in the direction perpendicular to the dimension measurement direction or in the dimension measurement direction. It was performed by extracting at the position where
In addition, since the regression model is learned using a plurality of images, the data of various lighting conditions are mixed, and the dimension measurement robust to the lighting conditions becomes possible.

図7は、本実施形態における回帰モデルの学習手順を示すフローチャートの例である。まず、ステップ140で、図6のステップ121と同様に矩形領域データと測定部位の定義テキストファイル130を二次記憶装置33から一次記憶装置32に読み込む。
ステップ141からステップ148の間は、回帰モデルの学習のために実測した製造物の個数だけ繰り返すループ処理である。
ステップ142では、画像と実測した寸法の値を二次記憶装置33から一次記憶装置32に読み込む。
ステップ143からステップ147の間は、矩形領域データの位置を動かしながら学習用部分領域画像データ(以下、学習用矩形領域データと示す。)の取得を繰り返すループ処理である。
ステップ144では、位置を動かした学習用矩形領域データを特徴量計算モデルに入力して、学習用特徴量を計算する。特徴量計算モデルは、図6で用いたモデルと同じものを用いた。すなわち、特徴量計算モデルはVGG16の畳み込み層である。
ステップ145では、定義テキストファイル130に従って、学習用特徴量を結合して学習用説明変数とする。
ステップ146では、学習用矩形領域データの位置を動かした画素数に応じた学習用目的変数を計算する。つまり、学習用矩形領域データの位置を動かした向きと画素数と、実測した寸法から学習用寸法を計算する。具体的には二つの矩形が遠ざかる場合、学習用寸法を下記の式(数1)で短くする。

Figure 2023005682000002
FIG. 7 is an example of a flowchart showing the learning procedure of the regression model in this embodiment. First, in step 140, the rectangular region data and the measurement site definition text file 130 are read from the secondary storage device 33 to the primary storage device 32, as in step 121 of FIG.
From step 141 to step 148, loop processing is repeated for the number of products actually measured for regression model learning.
In step 142 , the image and the measured dimension values are read from the secondary storage device 33 to the primary storage device 32 .
Between steps 143 and 147 is a loop process of repeatedly acquiring learning partial area image data (hereinafter referred to as learning rectangular area data) while moving the position of the rectangular area data.
In step 144, the learning rectangular area data whose position has been moved is input to the feature amount calculation model to calculate the learning feature amount. The same model as that used in FIG. 6 was used as the feature amount calculation model. That is, the feature amount calculation model is a convolution layer of VGG16.
In step 145, the feature values for learning are combined according to the definition text file 130 to obtain explanatory variables for learning.
At step 146, a learning objective variable is calculated according to the number of pixels by which the position of the learning rectangular area data has been moved. That is, the learning dimensions are calculated from the direction in which the position of the learning rectangular area data is moved, the number of pixels, and the actually measured dimensions. Specifically, when the two rectangles move away from each other, the learning dimension is shortened by the following formula (Equation 1).
Figure 2023005682000002

また、二つの矩形が近づく場合、学習用寸法を下記の式(数2)で長くする。

Figure 2023005682000003
Also, when two rectangles are close to each other, the dimension for learning is lengthened by the following formula (Equation 2).
Figure 2023005682000003

ステップ149では、様々な被検物、様々な学習用矩形領域データの位置の組合せ生成された特徴量と学習用寸法のリストから、特徴量のゼロ比率を列ごとに計算し、ゼロ比率が90%以下の学習用特徴量を有効な学習用特徴量として選出し、有効な学習用特徴量を定義し、二次記憶装置33に書き出す。
ステップ150では、有効な学習用特徴量と学習用寸法のリストを用いて、回帰モデル、すなわち勾配ブースティングの各種パラメータを学習し、回帰モデルを二次記憶装置33に書き出す。
In step 149, the zero ratio of the feature quantity is calculated for each column from the list of the feature quantity and the learning dimensions generated by combining the positions of various objects and various learning rectangular area data. % or less is selected as an effective learning feature amount, and the effective learning feature amount is defined and written to the secondary storage device 33 .
In step 150 , a regression model, that is, various parameters of gradient boosting are learned using a list of valid learning features and learning dimensions, and the regression model is written to the secondary storage device 33 .

図8は、回帰モデルの学習手順を示すフローチャートにおいて、ステップ143からステップ147の間での矩形領域データの動かし方を説明する図の例である。矩形領域データ101は、矩形領域データ91を数画素だけ上方に動かした矩形である。矩形領域データ102は矩形データ92を動かさないとした場合、矩形領域データ101と矩形領域データ102は、矩形領域データ91と矩形領域データ92よりも動かした画素数の分だけ遠ざかったことになる。矩形領域データ101は、矩形領域データ91より上方に動いたことで、矩形内に映っていたフランジ部61が下方にずれたように見える。同様に、矩形領域データ103は、矩形領域データ93を数画素だけ上方に動かした矩形である。矩形領域データ102は矩形データ92を動かさないとした場合、矩形領域データ1022と矩形領域データ103は、矩形領域データ92と矩形領域データ93よりも動かした画素数の分だけ近づいたことになる。矩形領域データ103は、矩形領域データ93よりも上方に動いたことで、矩形内に映っていた円柱部62が下方にずれたように見える。
このように矩形内に映っている部位の変化で、回帰モデルが錯覚して、異なる寸法を学習することができる。本実施形態では、矩形領域データ92を動かさない例で説明したが、複数の矩形を様々に動かし、矩形間の距離に応じて、様々な寸法を学習させるデータを作成することができる。
FIG. 8 is an example of a diagram for explaining how to move the rectangular area data between steps 143 to 147 in the flow chart showing the regression model learning procedure. The rectangular area data 101 is a rectangle obtained by moving the rectangular area data 91 upward by several pixels. If the rectangular area data 102 does not move the rectangular area data 92, the rectangular area data 101 and the rectangular area data 102 are separated from the rectangular area data 91 and the rectangular area data 92 by the number of pixels moved. Since the rectangular area data 101 has moved upward from the rectangular area data 91, the flange portion 61 appearing within the rectangle appears to have shifted downward. Similarly, the rectangular area data 103 is a rectangle obtained by moving the rectangular area data 93 upward by several pixels. If the rectangular area data 102 does not move the rectangular area data 92, the rectangular area data 1022 and the rectangular area data 103 are closer than the rectangular area data 92 and the rectangular area data 93 by the number of pixels moved. Since the rectangular area data 103 has moved upward from the rectangular area data 93, the columnar portion 62 appearing within the rectangle appears to have shifted downward.
The change in the part reflected in the rectangle in this way gives the regression model an illusion and allows it to learn different dimensions. In this embodiment, an example in which the rectangular area data 92 is not moved has been described, but it is possible to move a plurality of rectangles in various ways and create data for learning various dimensions according to the distances between the rectangles.

また、矩形領域データ111,112,113は、矩形領域データ91,92,93をそれぞれ寸法測定方向に対して垂直方向に同じ画素数の分だけ動かした矩形である。矩形間の距離を一定に保ったまま、矩形の位置を動かすことで、回帰モデルを学習するための学習用特徴量と寸法のリストを増やすことができる。たとえば、金属製品にマイクロスクラッチが付いている場合や、位置によって微妙に照明の当たり方が違う場合などを様々な状態を学習できる。さらに矩形領域データ111,112,113を寸法測定方向に動かすことで、色々な矩形の位置の組合せで学習量を増やすことができる。 Rectangular area data 111, 112, and 113 are rectangles obtained by moving the rectangular area data 91, 92, and 93 by the same number of pixels in the direction perpendicular to the dimension measurement direction. By moving the positions of the rectangles while keeping the distance between the rectangles constant, it is possible to increase the list of learning features and dimensions for learning the regression model. For example, it can learn various conditions, such as when a metal product has micro-scratches, or when the lighting is subtly different depending on the position. Furthermore, by moving the rectangular area data 111, 112, 113 in the dimension measurement direction, it is possible to increase the amount of learning by combining various rectangular positions.

図9は、ステップ149で有効な学習用特徴量を選出する前の学習用特徴量と寸法のリストの一部を抜粋した例である。前に述べたとおり、224画素×224画素の矩形のデータをVGG16の畳み込み層に入力すると、25088個の学習用特徴量が算出される。列F0から列F25087までは、矩形領域データ91を動かして算出された学習用特徴量、列F25088からF50175までは、矩形領域データ92を動かして算出された学習用特徴量、列FLANGEは、矩形領域データ91と矩形領域データ92を動かして、数1や数2で算出された学習用寸法である。このように、有効な学習用特徴量を選出する前の学習用特徴量である、矩形領域データ91を動かして算出された学習用特徴量と、矩形領域データ92を動かして算出された学習用特徴量は、図9に示されるリストに一緒に記されることによって結合されることになる。 FIG. 9 is an example of an excerpt from the list of learning feature values and dimensions before effective learning feature values are selected in step 149 . As described above, when rectangular data of 224 pixels×224 pixels is input to the convolution layer of the VGG 16, 25088 learning feature values are calculated. Columns F0 to F25087 are learning feature amounts calculated by moving the rectangular area data 91, columns F25088 to F50175 are learning feature amounts calculated by moving the rectangular area data 92, and column FLANGE is a rectangle. It is the learning dimension calculated by Equation 1 or Equation 2 by moving the area data 91 and the rectangular area data 92 . In this way, the learning feature amount calculated by moving the rectangular area data 91, which is the learning feature amount before selecting the effective learning feature amount, and the learning feature amount calculated by moving the rectangular area data 92. The features will be combined by listing them together in the list shown in FIG.

列F0や列F2は、0.000ばかりが縦に並んでいる。VGG16では、活性化関数としてReLuが使われているため、このような現象が生じる。全行に渡って0.000の特徴量は、回帰モデルに入力しても役に立たないばかりか、計算時間を延ばすだけで不要なため、1列の中の9割以上が0.000の列は、不要な学習用特徴量として削除し、残った学習用特徴量が「有効な学習用特徴量」と定義される。 Columns F0 and F2 are arranged vertically with only 0.000. Such a phenomenon occurs in VGG16 because ReLu is used as the activation function. A feature value of 0.000 across all rows is useless even if it is input to the regression model, and it is unnecessary because it only prolongs the calculation time. , are deleted as unnecessary learning features, and the remaining learning features are defined as "effective learning features".

図10は、ステップ149で有効な学習用特徴量と寸法のリストの一部を抜粋した例である。図9と比較すると、列F0や列F2が削除されている。列F12や列50172は、一見、0.000ばかりに見えるが、省略して非表示とした行に0.000以外の値も存在し、有効な学習用特徴量として残っている。ステップ150では、このリストを学習データとして用いて回帰モデルを学習する。また、寸法を測定するときは、ここで選出された列を有効な特徴量として回帰モデルに入力して、寸法を計算する。 FIG. 10 is an example of an excerpt from a list of effective learning features and dimensions in step 149 . As compared with FIG. 9, columns F0 and F2 are deleted. Column F12 and column 50172 seem to have only 0.000 at first glance, but there are values other than 0.000 in rows that are omitted and hidden, and they remain effective feature values for learning. At step 150, the regression model is trained using this list as training data. Also, when measuring the dimensions, the columns selected here are input to the regression model as effective feature quantities to calculate the dimensions.

本発明によれば、被検物の測定したい部位をカメラで撮像し、撮像された画像から複数の矩形領域データを設定し、夫々の矩形領域データを深層学習の畳み込みニューラルネットワークに入力して、測定したい部位の寸法を測定できる。また、設定した矩形領域データの位置を動かすことで、少ない被検物を撮像した少ない画像だけで、回帰モデルを効率的に学習できる。本発明における学習方法は、従来のデータ拡張(データオーグメンテーション)のように画像を回転させたり、サイズを変えたりして、画像を増やす方法とは異なり、矩形領域データの位置を変えることで、目的変数である寸法を変えることができる。そのため、故意に小さな製造物や大きな製造物を製作しなくても、様々な寸法を測定できる回帰モデルを生成できる。 According to the present invention, the site to be measured of the subject is imaged with a camera, a plurality of rectangular area data are set from the imaged image, and each rectangular area data is input to a deep learning convolutional neural network, You can measure the dimensions of the part you want to measure. In addition, by moving the position of the set rectangular area data, the regression model can be learned efficiently with only a small number of images obtained by imaging a small number of subjects. The learning method of the present invention is different from the conventional data augmentation method in which images are rotated or resized to increase the number of images. , can vary in dimension, which is the objective variable. Therefore, a regression model can be generated that can measure various dimensions without intentionally making small or large products.

以上、本発明について、上記実施形態を用いて説明してきたが、本発明は上記実施形態に限定されるものではない。 Although the present invention has been described using the above embodiments, the present invention is not limited to the above embodiments.

11 コンピュータ
12 カメラ
21、22、23、24、25 入出力ユニット
31 演算装置
32 一次記憶装置
33 二次記憶装置
34 ネットワークインターフェースカード
41 ディスプレイ
42 キーボード
43 マウス
50 金属製品
61 フランジ部
62 円柱部
71、72 治具
80 画像
81 縦軸、
82 横軸
91、92、93 矩形領域データ
101、102、103、111、112、113 矩形領域データ
130 定義テキストファイル


11 Computer 12 Cameras 21, 22, 23, 24, 25 Input/output unit 31 Arithmetic device 32 Primary storage device 33 Secondary storage device 34 Network interface card 41 Display 42 Keyboard 43 Mouse 50 Metal product 61 Flange portion 62 Cylindrical portion 71, 72 jig 80 image 81 vertical axis,
82 horizontal axis 91, 92, 93 rectangular area data 101, 102, 103, 111, 112, 113 rectangular area data 130 definition text file


Claims (4)

被検物の寸法測定方法であって、
被検物の画像を撮像する画像撮像工程と、
前記画像から、前記被検物の寸法測定方向の両端、それぞれの一部を含む、少なくとも2つの部分領域画像データを抽出し、前記部分領域画像データを特徴量計算モデルに入力して、特徴量を計算する特徴量計算工程と、
各々の前記部分領域画像データから出力された前記特徴量を結合して説明変数とし、前記説明変数を学習済み回帰モデルに入力して、前記両端の間の距離を計算する寸法算出工程と、
計算された前記両端の間の距離を出力する寸法出力工程と
を有することを特徴とする寸法測定方法。
A method for measuring dimensions of an object,
an image capturing step of capturing an image of the subject;
At least two partial area image data are extracted from the image, including both ends of the object in the dimension measurement direction and a part of each, and the partial area image data are input to a feature amount calculation model to obtain a feature amount. A feature quantity calculation step of calculating
a size calculation step of combining the feature amounts output from the respective partial area image data to form an explanatory variable, inputting the explanatory variable into a learned regression model, and calculating a distance between the two ends;
and a dimension output step of outputting the calculated distance between the two ends.
前記画像から、前記部分領域画像データを抽出する位置を変えながら取得した、複数の学習用部分領域画像データを、前記特徴量計算モデルに入力して学習用特徴量を計算し、複数の前記学習用特徴量を結合して学習用説明変数とし、
前記部分領域画像データの位置を動かした画素数に応じた学習用目的変数を計算し、前記学習用説明変数と前記学習用目的変数から回帰モデルを学習して前記学習済み回帰モデルとする学習工程をさらに有することを特徴とする請求項1に記載の寸法測定方法。
A plurality of learning partial area image data obtained from the image while changing the position for extracting the partial area image data is input to the feature amount calculation model to calculate a learning feature amount, and a plurality of learning feature amounts are calculated. Combine the features for learning as explanatory variables for learning,
A learning step of calculating a learning objective variable corresponding to the number of pixels by which the position of the partial area image data is moved, and learning a regression model from the learning explanatory variable and the learning objective variable to obtain the learned regression model. The dimension measuring method according to claim 1, further comprising:
前記特徴量計算モデルは、学習済みの畳み込みニューラルネットワークであることを特徴とする請求項1または請求項2に記載の寸法測定方法。 3. The dimension measuring method according to claim 1, wherein the feature amount calculation model is a trained convolutional neural network. 前記回帰モデルは、決定木に基づくアンサンブル機械学習であることを特徴とする請求項1から請求項3の少なくとも1項に記載の寸法測定方法。

4. The dimension measuring method according to at least one of claims 1 to 3, wherein the regression model is ensemble machine learning based on a decision tree.

JP2021107753A 2021-06-29 2021-06-29 Dimension measurement method Pending JP2023005682A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021107753A JP2023005682A (en) 2021-06-29 2021-06-29 Dimension measurement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021107753A JP2023005682A (en) 2021-06-29 2021-06-29 Dimension measurement method

Publications (1)

Publication Number Publication Date
JP2023005682A true JP2023005682A (en) 2023-01-18

Family

ID=85108340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021107753A Pending JP2023005682A (en) 2021-06-29 2021-06-29 Dimension measurement method

Country Status (1)

Country Link
JP (1) JP2023005682A (en)

Similar Documents

Publication Publication Date Title
US11982628B2 (en) System and method for detecting defects on imaged items
CN111539908B (en) Method and system for detecting defects of sample
JP5537282B2 (en) Defect inspection apparatus and defect inspection method
CN107230203B (en) Casting defect identification method based on human eye visual attention mechanism
Eshkevari et al. Automatic dimensional defect detection for glass vials based on machine vision: A heuristic segmentation method
CN111080622A (en) Neural network training method, workpiece surface defect classification and detection method and device
CN112233067A (en) Hot rolled steel coil end face quality detection method and system
KR20130108413A (en) Charged particle beam apparatus
CN106355579A (en) Defect detecting method of cigarette carton surface wrinkles
JP2019211288A (en) Food testing system and program
US20220020136A1 (en) Optimizing a set-up stage in an automatic visual inspection process
CN117392097A (en) Additive manufacturing process defect detection method and system based on improved YOLOv8 algorithm
US9972079B2 (en) Wafer appearance inspection apparatus
CN113222913A (en) Circuit board defect detection positioning method and device and storage medium
TW202046246A (en) Image processing program, image processing device and image processing method
JP2009068946A (en) Flaw sorting apparatus, flaw sorting method and program
WO2014013865A1 (en) Wafer appearance inspection device and method for setting sensitivity threshold value for wafer appearance inspection device
JP2023005682A (en) Dimension measurement method
CN108765391A (en) A kind of plate glass foreign matter image analysis methods based on deep learning
CN116843615B (en) Lead frame intelligent total inspection method based on flexible light path
CN117197146A (en) Automatic identification method for internal defects of castings
KR20240039600A (en) Image augmentation for machine learning based defect examination
CN116091506A (en) Machine vision defect quality inspection method based on YOLOV5
CN115937555A (en) Industrial defect detection algorithm based on standardized flow model
TW202321679A (en) Defect detection method and system for wire rod coating