JP2011043998A - Method and apparatus for analyzing image - Google Patents
Method and apparatus for analyzing image Download PDFInfo
- Publication number
- JP2011043998A JP2011043998A JP2009191904A JP2009191904A JP2011043998A JP 2011043998 A JP2011043998 A JP 2011043998A JP 2009191904 A JP2009191904 A JP 2009191904A JP 2009191904 A JP2009191904 A JP 2009191904A JP 2011043998 A JP2011043998 A JP 2011043998A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- feature amount
- unit
- area
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、対象物を識別するための画像解析方法及び画像解析装置に関する。 The present invention relates to an image analysis method and an image analysis apparatus for identifying an object.
撮像画像の各画素について輝度値が定められてなる撮像画像データから、識別対象物の識別を行う方法としては、撮像画像データに基づく輝度勾配情報から識別対象物の輪郭線を得る方法や、画像データに基づく濃淡画像から対象物のエッジ情報を抽出し、エッジ点列による対象物の抽出及び位置検出を行う方法などが知られている(例えば、特許文献1及び2)。
As a method for identifying an identification target object from captured image data in which a luminance value is determined for each pixel of the captured image, a method for obtaining an outline of the identification target object from luminance gradient information based on the captured image data, an image A method is known in which edge information of an object is extracted from a grayscale image based on data, and an object is extracted and a position is detected using an edge point sequence (for example,
しかしながら、上記特許文献1に示す輝度勾配に基づいて輪郭線を取得する方法では、対象物と背景との間に十分な輝度勾配が得られるような輝度差が生じていなければ明瞭な輪郭線を得ることができず、対象物と背景とに十分な明度の差がなければ識別することができないという問題があった。
また、特許文献2に示す先行技術の場合には、対象物からエッジ情報が得られることを前提としており、対象物と背景とに十分な明度の差がなければ十分なエッジ情報が得られず、識別が困難となるという問題があった。
However, in the method of acquiring the contour line based on the luminance gradient shown in
In the case of the prior art shown in
本発明は、安定して対象物の識別を可能とすることをその目的とする。 An object of the present invention is to enable stable identification of an object.
請求項1記載の発明は、表面が特定の模様からなる識別対象とその周囲の背景とを含んだ撮像画像の撮像画像データに基づいて前記識別対象の識別を行う画像解析装置が行う画像解析方法であって、前記撮像画像中の予め指定された前記特定の模様のみからなる模様領域における所定の単位領域について複数の手法により基準となるテクスチャ模様の特徴量を求める基準特徴量取得工程と、前記撮像画像中の少なくとも前記模様領域及びその周囲の背景を含んだ抽出領域を、前記模様領域の単位領域と同じ大きさの単位領域に分割し、当該各単位領域について前記各手法により特徴量を求める比較特徴量取得工程と、前記抽出領域の各単位領域について、前記各手法の特徴量ごとに前記模様領域との一致度を求め、前記各手法の特徴量ごとの一致度を個々に重み付けをして合成した一致度を求める一致度取得工程と、前記合成された一致度の値から前記抽出領域の各単位領域が識別対象か背景かを判定する判定工程と、前記判別工程で識別対象と判別された複数の単位領域から前記抽出領域における識別対象と背景の境界線を求める境界線取得工程と、予め指定された前記撮像画像における実際の境界線上の位置と前記境界線取得工程で取得された境界線との誤差を検出する誤差検出工程と、を備え、前記各手法の特徴量ごとの一致度に対する重み付けのパターンを逐次変更しつつ前記一致度取得工程、判定工程、境界線取得工程及び誤差検出工程を繰り返すことで前記誤差が閾値以下又は最少となる重み付けのパターンを特定し、前記取得された重み付けパターンに従って撮像画像から前記識別対象を識別することを特徴とする。
The invention according to
請求項2記載の発明は、請求項1記載の発明と同様の構成を備えると共に、前記特徴量を求める複数の手法は、同時生起行列の14の特徴量の算出方法の一部又は全部を用いることを特徴とする。
The invention described in
請求項3記載の発明は、表面が特定の模様からなる識別対象とその周囲の背景とを含んだ撮像画像の撮像画像データに基づいて前記識別対象の識別を行う画像解析装置であって、前記撮像画像中の予め指定された前記特定の模様のみからなる模様領域における所定の単位領域について複数の手法により基準となるテクスチャ模様の特徴量を求める基準特徴量取得手段と、前記撮像画像中の少なくとも前記模様領域及びその周囲の背景を含んだ抽出領域を、前記模様領域の単位領域と同じ大きさの単位領域に分割し、当該各単位領域について前記各手法により特徴量を求める比較特徴量取得手段と、前記抽出領域の各単位領域について、前記各手法の特徴量ごとに前記模様領域との一致度を求め、前記各手法の特徴量ごとの一致度を個々に重み付けをして合成した一致度を求める一致度取得手段と、前記合成された一致度の値から前記抽出領域の各単位領域が識別対象か背景かを判定する判定手段と、前記判別手段により識別対象と判別された複数の単位領域から前記抽出領域における識別対象と背景の境界線を求める境界線取得手段と、予め指定された前記撮像画像における実際の境界線上の位置と前記境界線取得手段で取得された境界線との誤差を検出する誤差検出手段と、を備え、前記各手法の特徴量ごとの一致度に対する重み付けのパターンを逐次変更しつつ前記一致度取得手段により一致度の取得、前記判定手段により判定、前記境界線取得手段よる前記境界線の取得及び誤差検出手段による誤差検出を繰り返すことで前記誤差が閾値以下又は最少となる重み付けのパターンを特定し、前記取得された重み付けパターンに従って撮像画像から前記識別対象を識別する。
The invention according to
請求項4記載の発明は、請求項3記載の発明と同様の構成を備えると共に、前記特徴量を求める複数の手法は、同時生起行列の14の特徴量の算出方法の一部又は全部を用いることを特徴とする。
The invention described in
請求項1及び3記載の発明は、撮像画像データ中の識別対象物の模様領域から複数の手法により特徴量を取得し且つ合成し、特徴量が一致する単位領域から識別対象の背景との境界線を求め、実際の境界位置との誤差が小さくなるようにリトライを繰り返すことで特徴量の一致度に関する重み付けパターンを特定する。このため、識別対象の固有の模様に基づく特徴量から対象物を識別することとなり、背景との明度差の有無にかかわらず、効果的に識別対象を識別することが可能となる。
また、テクスチャ模様に関する複数の手法に関する重み付けの好適なパターンを特定するので、手法の識別精度の偏りの影響を排除し、より正確な識別を実現することが可能となる。
According to the first and third aspects of the present invention, a feature amount is obtained and synthesized from a pattern region of an identification target in captured image data by a plurality of methods, and a boundary between the unit region having the matching feature amount and the background of the identification target A line is obtained, and a retry pattern is repeated so that an error from an actual boundary position becomes small, thereby specifying a weighting pattern related to the degree of matching of feature amounts. For this reason, the target object is identified from the feature amount based on the unique pattern of the identification target, and the identification target can be effectively identified regardless of the brightness difference from the background.
In addition, since a suitable weighting pattern for a plurality of methods related to a texture pattern is specified, it is possible to eliminate the influence of bias in the identification accuracy of the method and realize more accurate identification.
請求項2及び4記載の発明は、テクスチャ模様の特徴量を得るための手法として確立されている同時生起行列の14の特徴量の算出方法を用いるので、種々の模様の識別対象をより効果的に識別することが可能となる。
The inventions of
(実施形態の全体構成)
本発明の実施形態について、図1乃至図12に基づいて説明する。本実施形態は、撮像画像内で特定のテクスチャからなる識別対象物を背景と識別するための画像解析装置10が電子部品搭載装置100に適用され、電子部品の搭載位置である半田パターンを識別対象物として識別する目的に利用される場合の例を示している。
(Overall configuration of the embodiment)
An embodiment of the present invention will be described with reference to FIGS. In the present embodiment, an
(電子部品実装装置)
電子部品搭載装置100は、基板に各種の電子部品の搭載を行うものであって、電子部品の搭載手段として、図1に示すように、搭載される電子部品を供給する複数の電子部品フィーダー101と、電子部品フィーダー101を複数並べて保持する電子部品供給部としてのフィーダーバンク102と、一定方向に基板を搬送する基板搬送手段103と、当該基板搬送手段103による基板搬送経路の途中に設けられた基板に対する電子部品搭載作業を行うための搭載作業部104と、電子部品を吸着する吸着ノズル105を保持して電子部品の保持を行う部品保持手段としてのヘッド106と、ヘッド106を所定範囲内の任意の位置に駆動搬送するヘッド移動手段としてのX−Yガントリ107と、ヘッド106に搭載され、基板の撮像を行い、電子部品の搭載を行う半田パターンを識別するための撮像手段としてのCCDカメラ108と、電子部品搭載装置100の各構成に対して制御を行う制御装置120とを備えている。
画像解析装置10は、制御装置120に組み込まれ、電子部品の搭載のためにCCDカメラ108の基板の撮像画像から半田パターンを識別し、正確な位置情報をヘッド106の位置決め動作に反映させるために利用される。
なお、以下の説明において、水平面に沿って互いに直交する一の方向をX軸方向とし、他の方向をY軸方向とし、垂直上下方向をZ軸方向と称することとする。
(Electronic component mounting equipment)
The electronic
The
In the following description, one direction orthogonal to each other along the horizontal plane is referred to as an X-axis direction, the other direction is referred to as a Y-axis direction, and a vertical vertical direction is referred to as a Z-axis direction.
基板搬送手段103は、図示しない搬送ベルトを備えており、その搬送ベルトにより基板をX軸方向に沿って搬送する。
また、前述したように、基板搬送手段103による基板搬送経路の途中には、電子部品を基板へ搭載する搭載作業部104が設けられている。基板搬送手段103は、搭載作業部104まで基板を搬送すると共に停止して、図示しない保持機構により基板の保持を行う。つまり、基板は保持機構により保持された状態で安定した電子部品の搭載作業が行われる。
The
As described above, the
ヘッド106は、その先端部で空気吸引により電子部品を保持する吸着ノズル105と、この吸着ノズル105をZ軸方向に駆動する駆動源であるZ軸モータ111(図2参照)と、吸着ノズル105を介して保持された電子部品をZ軸方向を中心として回転駆動させる回転駆動源である回転モータ112(図2参照)とが設けられている。
また、各吸着ノズル105は負圧発生源に接続され、当該吸着ノズル105の先端部において吸気吸引を行うことにより電子部品の吸着及び保持が行われる。
つまりこれらの構造により、搭載作業時には、吸着ノズル105の先端部で所定の電子部品フィーダー101から電子部品を吸着し、所定位置で基板に向かって吸着ノズル105を下降させると共に吸着ノズル105を回転させて電子部品の向きの調整を行いつつ搭載作業が行われる。
また、前述したCCDカメラ108は、ヘッド106に搭載されており、X−Yガントリ107によりヘッド106が駆動されることで、基板の撮像位置に位置決めされるようになっている。
The
Further, each
That is, with these structures, at the time of mounting, the electronic component is sucked from the predetermined
The above-described
X−Yガントリ107は、X軸方向にヘッド106の移動を案内するX軸ガイドレール107aと、このX軸ガイドレール107aと共にヘッド106をY軸方向に案内する二本のY軸ガイドレール107bと、X軸方向に沿ってヘッド106を移動させる駆動源であるX軸モータ109(図2参照)と、X軸ガイドレール107aを介してヘッド106をY軸方向に移動させる駆動源であるY軸モータ110(図2参照)とを備えている。そして、各モータ109,110の駆動により、ヘッド106を二本のY軸ガイドレール107bの間となる領域のほぼ全体に搬送することを可能としている。
なお、各モータは、ぞれぞれの回転量が制御装置120に認識され、所望の回転量となるように制御されることにより、ヘッド106を介して吸着ノズル105やCCDカメラ108の位置決めを行っている。
また、電子部品の必要上、前記したフィーダーバンク102,搭載作業部104とはいずれもX−Yガントリ107によるヘッド106の搬送可能領域内に配置されている。
The
Each motor recognizes the rotation amount of each motor by the
Further, due to the necessity of electronic components, both the
フィーダーバンク102は、複数のX−Y平面に沿った平坦部を備え、当該平坦部に複数の電子部品フィーダー101がX軸方向に沿って羅列して載置装備される。
CCDカメラ108は、ヘッド106により下方に向けられた状態で保持されており、基板を上方から撮像することで半田パターンを識別する。
The
The
(制御装置)
図2は電子部品搭載装置100の制御系を示すブロック図である。図2に示すように、制御装置120は、主に、X−Yガントリ107のX軸モータ109、Y軸モータ110、ヘッド106において吸着ノズル105の昇降を行うZ軸モータ111、吸着ノズル105の回転を行う回転モータ112、CCDカメラ108の動作制御を行い、所定の制御プログラムに従って各種の処理及び制御を実行するCPU121と、各種の処理及び制御を実行するためのプログラムが格納されたシステムROM122と、各種のデータを格納することで各種の処理の作業領域となるRAM123と、CPU121と各種の機器との接続を図る図示しないI/F(インターフェース)と、各種の設定や操作に要するデータの入力を行うための操作パネル124と、各種の処理及び制御を実行するための設定データが格納されたEEPROM126と、各種設定の内容や後述する検査の結果等を表示する表示モニタ125とを有している。また、前述した各モータ109〜112は、図示しないモータドライバを介して制御装置120に接続されている。
(Control device)
FIG. 2 is a block diagram showing a control system of the electronic
(画像解析装置)
図3は画像解析装置10の機能ブロック図である。画像解析装置10の後述する各機能は、実際には、制御装置120のCPU121が所定のプログラムを実行することにより実現されている。
画像解析装置10は、全体を統括制御する主制御部11と、CCDカメラ108の出力から撮像画像データを取得する画像入力部20と、撮像画像データに基づく矩形の画像領域を分割する画像分割部30と、オペレータが操作パネル124により撮像画像内の半田パターンとその背景との境界線上に指定する複数の点を誤差測定点に設定する誤差測定点入力部40と、半田パターンのテクスチャ(模様)の特徴量を抽出する特徴量抽出部50と、抽出した特徴量を合成するための後述するパラメータを決定して特徴量を合成する特徴量合成部60と、誤差測定点と出力形状との誤差を検出して判定を行う誤差検出部70とを備えている。
これらの構成により、画像解析装置10は、電子部品の搭載動作を行う前に、半田パターンの特徴量を合成するための適正なパラメータを取得するための学習データ作成処理を予め実行し、搭載動作時には、学習データ作成処理で得られたパラメータによりCCDカメラ108の撮像画像から半田パターンを識別する処理を実行する。
(Image analysis device)
FIG. 3 is a functional block diagram of the
The
With these configurations, the
(学習データ作成処理)
次に、上記画像解析装置10が行う半田パターンの模様の学習データ作成処理について図4のフローチャートに示す処理の順番で説明する。
まず、画像入力部20によりCCDカメラ108で半田パターンを含む基板の撮像が行われ、その画像が撮像画像データとして記憶される(ステップS1)。
(Learning data creation process)
Next, the learning data creation process of the solder pattern performed by the
First, the
次に、オペレータによる誤差測定点Gの入力が行われ、誤差測定点入力部40は、その入力操作により指定された画像内の位置を記録する処理を行う(ステップS2)。
図5はCCDカメラ108で撮像された撮像画像を示しており、一番外側の矩形のエリアA1は撮像画像の範囲を示し、Hは撮像された半田パターンを示す。
半田の表面は半田に特有な粒状の模様で一様に覆われているので、電子部品の搭載動作時には、当該模様の特徴量を求めて背景と識別し、半田パターンHと背景との境界線としての輪郭線Rを求めて電子部品を搭載する。この学習データ作成処理では、撮像画像から輪郭線Rを識別するために必要な適正なパラメータ(後述)を取得するために、表示装置125に表示された撮像画像に基づいてオペレータが輪郭線Rを視覚的に認識して、当該輪郭線上の任意の複数箇所(この例では6個)を誤差測定点Gとして操作パネル124から、例えばカーソル操作等により位置指定して入力し、画像解析装置10では、入力された誤差測定点Gの撮像画像エリア内の位置座標をRAM123に記憶する。
Next, the error measurement point G is input by the operator, and the error measurement
FIG. 5 shows a captured image captured by the
Since the surface of the solder is uniformly covered with a granular pattern peculiar to the solder, at the time of mounting an electronic component, the characteristic amount of the pattern is obtained to identify the background, and the boundary line between the solder pattern H and the background The contour line R is obtained and an electronic component is mounted. In this learning data creation process, the operator sets the contour R based on the captured image displayed on the
次に、オペレータによる半田の模様の特徴量を取得するための模様領域A2の入力が行われ、特徴量抽出部50は、その入力操作により指定された領域の位置及び範囲を記録する処理を行う(ステップS3)。
この模様領域A2は、大きさに制限はないが、後述する8×8画素の単位領域A3が少なくとも30個程度得られる範囲とすることがより望ましく、また、模様領域A2の領域内に半田以外の部分が含まれないことが要求される。
即ち、前述した誤差測定点Gの入力と同様に、表示装置125に表示された撮像画像に基づいてオペレータが、操作パネル124から、例えばカーソル操作等により指定範囲の四隅を位置指定して入力することで模様領域A2を指定入力し、画像解析装置10では、入力された模様領域A2の撮像画像エリア内の位置及び範囲を示す座標をRAM123に記憶する。
Next, the pattern area A2 for acquiring the feature quantity of the solder pattern is input by the operator, and the feature
The size of the pattern area A2 is not limited, but it is more preferable that the pattern area A2 has at least about 30 unit areas A3 of 8 × 8 pixels to be described later. Is not included.
That is, similarly to the input of the error measurement point G described above, based on the captured image displayed on the
次に、特徴量抽出部50は、入力された模様領域A2からテクスチャ模様の画像特徴量を取得する処理を行う(ステップS4:基準特徴量取得工程)。この処理では、特徴量抽出部50は「基準特徴量取得手段」として機能することとなる。
テクスチャ模様の画像特徴量の取得には同時生起行列が使用される。同時生起行列とは,テクスチャ特徴量のうち統計的なテクスチャ特徴の計算方法の一つであり,以下に定義される同時生起行列から画像の空間的模様の一つであるコントラストや局所一様性等14種の要素について特徴量を求めることができる。
Next, the feature
A co-occurrence matrix is used to acquire the image feature quantity of the texture pattern. The co-occurrence matrix is one of the statistical texture feature calculation methods among the texture features. Contrast and local uniformity that is one of the spatial patterns of the image from the co-occurrence matrix defined below. The feature amount can be obtained for 14 types of elements.
まず、同時生起行列を生成するために、図6(A)に示すように、前述した模様領域A2を水平方向分割線LHと垂直方向分割線LVで分割し、8×8画素の正方形の単位領域A3を切り出す処理を行う。前述したように、分割により得られる単位領域A3の数は30個程度(図では48個)あれば足りる。後述するが、各単位領域A3に基づく特徴量は平均化され、標準偏差が求められるので、統計学的に十分な数として30個(図では48個)の単位領域A3を用意している。
そして、各単位領域A3について個々に同時生起行列が生成される。
図7(A)に示した8×8の単位画像A3を例にして説明すると、図7(B)に示すように、画像の輝度値i(32階調とする:i=0〜31)の画素から角度θの方向に長さrの変位δ=(r,θ)だけ離れた画素の輝度値がjである確率Pδ(i,j)を要素とする図7(C)に示す行列が同時生起行列である。なお、本実施形態では、i行j列の要素に前述した変位で輝度値iの画素に対して輝度値がjとなる画素の個体数が入力されている。なお、本実施形態では、変位についてr=1で角度θ=0°とθ=180°の双方向について一つの同時生起行列を生成している。また、同様にして、θ=45(225),90(270),135(315)の同時生起行列も生成される。
First, in order to generate a co-occurrence matrix, as shown in FIG. 6A, the pattern area A2 described above is divided by a horizontal direction dividing line LH and a vertical direction dividing line LV, and a square unit of 8 × 8 pixels is obtained. A process of cutting out the area A3 is performed. As described above, the number of unit areas A3 obtained by the division is about 30 (48 in the figure). As will be described later, since the feature quantities based on each unit area A3 are averaged and the standard deviation is obtained, 30 (48 in the figure) unit areas A3 are prepared as statistically sufficient numbers.
Then, a co-occurrence matrix is generated individually for each unit region A3.
The 8 × 8 unit image A3 shown in FIG. 7A will be described as an example. As shown in FIG. 7B, the luminance value i of the image (32 gradations: i = 0 to 31). A matrix shown in FIG. 7C having a probability Pδ (i, j) of a pixel whose luminance value is j, which is separated by a displacement δ = (r, θ) of length r in the direction of angle θ from the pixel of FIG. Is the co-occurrence matrix. In the present embodiment, the number of individual pixels whose luminance value is j with respect to the pixel having the luminance value i with the above-described displacement is input to the element of i rows and j columns. In the present embodiment, one co-occurrence matrix is generated for both directions of displacement r = 1 and angles θ = 0 ° and θ = 180 °. Similarly, co-occurrence matrices of θ = 45 (225), 90 (270), and 135 (315) are also generated.
そして、各単位領域A3の同時生起行列について、次式(1)〜(14)の計算式により14種類の特徴量fi(i=1〜14)が算出される。なお、fi値は実数である。例えばf1=角二次モーメント、f2=コントラスト、f3=エントロピーなどである。fi値がテクスチャ模様を区別する能力を持つことは公知である。これらのテクスチャ特徴量が示す意義については、「新編,画像解析ハンドブック,高木幹雄・下田陽久監修」に詳しく説明されているのでここでは説明書を省略する。 Then, for the co-occurrence matrix of each unit region A3, 14 types of feature quantities fi (i = 1 to 14) are calculated by the following formulas (1) to (14). The fi value is a real number. For example, f1 = angular second moment, f2 = contrast, f3 = entropy, etc. It is well known that the fi value has the ability to distinguish texture patterns. The significance of these texture features is explained in detail in “New Edition, Image Analysis Handbook, Supervised by Mikio Takagi / Yoshihisa Shimoda”, so the description is omitted here.
上記処理により、全ての単位領域A3について特徴量fi値(i=1〜14)が得られると、特徴量の種類ごとに(iの値ごとに)全単位領域A3の平均値μiと標準偏差σiを算出し、これらを模様領域A2の特徴量として学習fi値としてRAM123又はEEPRO126に記憶する。なお、模様領域A2の特徴量fiは一般に図8に示すように正規分布に従うものと考えられる。
When the feature value fi value (i = 1 to 14) is obtained for all the unit regions A3 by the above processing, the average value μi and the standard deviation of all the unit regions A3 for each type of feature value (for each value of i). σ i is calculated and stored in the
次に、特徴量合成部60は、特徴量の合成パラメータを初期化する(ステップS5)。
前述した各式(1)〜(14)ごとの各種の特徴量fiは、後の処理において、模様領域以外の他の画像の単位領域について同様に算出された特徴量との一致度Eが求められることとなり、その際、各種の特徴量ごと(iごと)に求められた一致度Eが個々に重み付けされて合成される。合成パラメータは、各種の特徴量ごとの一致度Eに対して重み付けとして乗じる係数wi(i=1〜14)の組み合わせパターンを示すものである。
合成パラメータは、w1+w2+w3+…+w14=1となるように規定されており、合成パラメータの初期化の際には、w1=1とする。つまり、その他のw2,w3,w4,…についてはいずれも0とする。つまり、特徴量f1に関する一致度Eのみが求められることとなる。
Next, the feature
The various feature quantities fi for each of the formulas (1) to (14) described above are obtained by the degree of coincidence E with the feature quantities calculated in the same way for the unit areas of the image other than the pattern area in the subsequent processing. In this case, the degree of coincidence E obtained for each of various feature amounts (for each i) is individually weighted and synthesized. The synthesis parameter indicates a combination pattern of coefficients wi (i = 1 to 14) for multiplying the matching degree E for each feature amount as a weight.
The synthesis parameter is defined to be w1 + w2 + w3 +... + W14 = 1, and when the synthesis parameter is initialized, w1 = 1. That is, all the other w2, w3, w4,. That is, only the degree of coincidence E regarding the feature amount f1 is obtained.
次に、入力画像5に半田全体を包み込む新たな抽出領域A4を設定する。
特徴量合成部60は、上記合成パラメータに基づいて半田の模様か否かを識別し、半田パターンの輪郭線を形成するために、オペレータによる半田全体を包み込む新たな抽出領域A4の入力が行われ、特徴量合成部60は、その入力操作により指定された領域の位置及び範囲を記録する処理を行う(ステップS6)。
この抽出領域A4は、半田パターンを含む範囲であれば大きさに制限はないが、図5に示すように、前述した全ての誤差測定点Gを含む範囲とすることが要求され、さらには、半田パターンを取り囲むことができる範囲が望ましい。入力方法は前述した模様領域A2の場合と同様である。
Next, a new extraction area A4 that wraps the entire solder in the
The feature
The extraction area A4 is not limited in size as long as it includes a solder pattern, but as shown in FIG. 5, it is required to have a range including all the error measurement points G described above. A range that can surround the solder pattern is desirable. The input method is the same as that in the case of the pattern area A2.
さらに、特徴量合成部60は、図6(B)で示すように、抽出領域A4を模様領域A2の場合と同じ8×8画素の単位領域A5で分割する(ステップS7:比較特徴量取得工程)。
そして、抽出領域A4の各単位領域A5ごとに前述した14の式から求まる特徴量fiを算出する。このとき、合成パラメータの中でwi(i=1〜14)≠0となるものから特徴量を算出する。なお、このとき、特徴量合成部60は、「比較特徴量取得手段」として機能することとなる。
Furthermore, as shown in FIG. 6B, the feature
And the feature-value fi calculated | required from 14 type | formula mentioned above for every unit area | region A5 of extraction area | region A4 is calculated. At this time, the feature amount is calculated from the combination parameters in which wi (i = 1 to 14) ≠ 0. At this time, the feature
次に、特徴量合成部60は、抽出領域A4の各単位領域A5と模様領域A2の領域A3の学習fi値との一致度Eを算出する(ステップS8:一致度取得工程)。
即ち、各単位領域A5ごとに各特徴量fiについて対応する学習fi値の平均値μiとの誤差δiを計算する。そして、各単位領域A5の個々の特徴量fiについて一致度eiを算出する。
各一致度eiの算出については、図9に示す関数evalを用いる。この関数evalは、縦軸が最大値1とする一致度eiであり、横軸が誤差δiである。そして、この関数evalは単調減少であれば足り、その傾きの変化については任意である。つまり、単調減少となる直線でも良いが、ここでは、一致度が0と1に近づくにつれて傾きが0に近くなり、中間で傾きが最大となる曲線を採用している。即ち、eiの値は0≦ei≦1であり、ei=1(δi=0)、ei=0(δi≧βσi)、中間は単調減少である。σiは学習fi値の標準偏差、βは特徴量fi値と学習fi値の平均値μiとの誤差δiを評価する係数であり、βを大きくすればするほど対象模様であるとみなされやすくなる。
本実施例では例えばβ=1.5とする。
これにより、各単位領域A5の各特徴量fiについて一致度eiを算出する。そして、合成パラメータの各係数wiに従って、各eiに乗算し合計して、各単位領域A5ごとに一致度Eを算出する。
なお、このとき、特徴量合成部60は「一致度取得手段」として機能する。
Next, the feature
That is, for each unit area A5, an error δi with respect to the average value μi of the corresponding learning fi values for each feature amount fi is calculated. Then, the degree of coincidence ei is calculated for each feature amount fi of each unit region A5.
For the calculation of the degree of coincidence ei, the function eval shown in FIG. 9 is used. In this function eval, the vertical axis represents the degree of coincidence ei with the
In this embodiment, for example, β = 1.5.
Thereby, the degree of coincidence ei is calculated for each feature amount fi of each unit region A5. Then, according to each coefficient wi of the synthesis parameter, each ei is multiplied and summed, and the degree of coincidence E is calculated for each unit region A5.
At this time, the feature
次に、特徴量合成部60は、抽出領域A4の各単位領域A5の一致度Eに基づいて、当該各単位領域A5が半田か否かを判定する(ステップS9:判定工程)。
かかる判定は、予め一致度の閾値Cを用意しておき、各単位領域の一致度Eが閾値以上か否かで行う。即ち、Eが閾値C以上なら半田とし、そうでなければ背景とする。
なお、閾値Cの値は適当(試験等で求めるなど)で良いが、ここでは例えばC=0.8とする。
なお、このとき、特徴量合成部60は「判定手段」として機能する。
Next, the feature
Such a determination is made based on whether or not the degree of coincidence E of each unit region is equal to or greater than the threshold by preparing a threshold C of the degree of coincidence in advance. That is, if E is greater than or equal to the threshold value C, solder is used.
Note that the value of the threshold C may be appropriate (determined by a test or the like), but here, for example, C = 0.8.
At this time, the feature
上記抽出領域A4の各単位領域A5の一致度Eの判定結果に従って、図10に示すように、単位領域A5をひとつの単位とする半田と背景に識別された‘2値画像’(1=半田、0=背景)を得ることができる(半田である単位領域A5は網掛けで図示)。
これに対して、誤差検出部70は、半田とされた単位領域A5の内で背景とされた単位領域A5に隣接するものの中心を線でつないで半田パターンの輪郭線RAを生成する(ステップS10:境界線取得工程)。
なお、このとき、誤差検出部70は「境界線取得手段」として機能する。
As shown in FIG. 10, according to the determination result of the degree of coincidence E of each unit area A5 of the extraction area A4, as shown in FIG. 10, the “binary image” (1 = solder) identified as the solder and the background having the unit area A5 as one unit. , 0 = background) can be obtained (unit area A5 which is solder is shown by shading).
On the other hand, the
At this time, the
そして、誤差検出部70は、実際の輪郭線Rに対する生成輪郭線RAの誤差Dを検出する(ステップS11:誤差検出工程)。
実際の輪郭線Rと生成輪郭線RAとを重ねて図11に示す。誤差DはステップS2で登録した誤差測定点Gに基づいて算出する。即ち、生成輪郭線RAに対して各誤差測定点Gからの最短距離d(画素距離)を算出する。これにより得られた最短距離をd1,d2,・・・とすると誤差D=max{d1,d2,・・・}により取得する。
なお、このとき、誤差検出部70は「誤差検出手段」として機能する。
Then, the
The actual contour line R and the generated contour line RA are superimposed and shown in FIG. The error D is calculated based on the error measurement point G registered in step S2. That is, the shortest distance d (pixel distance) from each error measurement point G is calculated for the generated contour line RA. Assuming that the shortest distance obtained by this is d1, d2,..., The error D = max {d1, d2,.
At this time, the
次に、誤差検出部70は、誤差Dを予め設定された基準値αと比較し(ステップS12)、基準値αを超えている場合には、現在の合成パラメータの設定が半田を背景と識別するために適正な一致度を導き出すことが可能であるものとして、処理を終了する。このように、基準値αは、合成パラメータの適否を判定するために重要な値であり、これを大きく設定すれば、適正とされる合成パラメータを容易に取得可能となるが、半田パターンの識別精度は低下する。また、基準値αを小さく設定すれば、適正とされる合成パラメータは容易には求まらなくなるが、半田パターンの識別精度は向上する。従って、試験などにより目的に応じて適切な値に設定する必要がある。
Next, the
一方、ステップS12の判定において、誤差Dが基準値α以下の場合には、現在の合成パラメータの設定は適正ではないものとして、合成パラメータの設定を変更する(ステップS13)。
すなわち特徴量fi値に対する一致度の係数wiを、それぞれ独立に変更する。例えば、各特徴量fi値に対する一致度の係数wiを0,0.2,0.4,0.6,0.8,1.0の0.2刻みで6段階に変更する(より細かく分けても良い)。なお、前述したように係数wi全体で正規化しておく。本実施形態ではパラメータは積空間w1×w2×・・・全体で変化させる。
そして、新たな合成パラメータが定まると、ステップS8に処理を戻して、新たに抽出領域A4の各単位領域A5の一致度Eを求めなおし、半田とされる単位領域A5を求め、それらから輪郭線RAを生成し、誤差Dを基準値αと比較する処理をリトライする。
これにより、誤差Dが基準値α以下となる合成パラメータが見つかるまで処理を繰り返すこととなる。
また、ステップS12で誤差Dが基準値α以下となった場合には、そのときの合成パラメータの各係数wiの数値の組み合わせ(例えばw6=0.5、w8=0.5、その他のw=0等のような数値群)を学習データ(学習合成パラメータ)として記録する。
これにより、学習データ作成処理が終了する。
On the other hand, if it is determined in step S12 that the error D is equal to or less than the reference value α, it is determined that the current synthesis parameter setting is not appropriate and the synthesis parameter setting is changed (step S13).
That is, the coefficient of coincidence wi with respect to the feature value fi is changed independently. For example, the coefficient of coincidence wi for each feature value fi is changed in 6 steps in increments of 0.2, 0, 0.2, 0.4, 0.6, 0.8, and 1.0 (may be divided more finely). As described above, the entire coefficient wi is normalized. In the present embodiment, the parameters are changed throughout the product space w1 × w2 ×.
When a new synthesis parameter is determined, the process returns to step S8, the degree of coincidence E of each unit area A5 of the extraction area A4 is newly obtained, the unit area A5 to be soldered is obtained, and the contour line is obtained therefrom. A process of generating RA and comparing the error D with the reference value α is retried.
As a result, the process is repeated until a synthesis parameter in which the error D is equal to or less than the reference value α is found.
Further, when the error D becomes equal to or smaller than the reference value α in step S12, combinations of numerical values of the coefficients wi of the synthesis parameter at that time (for example, w6 = 0.5, w8 = 0.5, other w = 0, etc.) (A numerical value group) is recorded as learning data (learning synthesis parameter).
Thereby, the learning data creation process ends.
(電子部品搭載時の処理)
次に、電子部品の搭載時に行われる処理について説明する。
前述した吸着ノズル106に電子部品が吸着され、ヘッド105が基板の搭載位置近傍まで移動した状態において、CCDカメラ108により基板の搭載位置の撮像が実行され、撮像画像データが取得される。
そして、特徴量合成部60により、撮像画像の一部(例えば中央部)が抽出領域として切り出され、前述したステップS7〜10と同様の処理が実行される。
即ち、撮像画像の抽出領域が単位領域に分割され、一致度eiの係数wi=0ではないiについての特徴量が算出され、学習データ作成処理に取得された合成パラメータに従って各単位領域の半田との一致度が算出される。そして、半田であると判定された単位領域に基づいて輪郭線を算出する。当該輪郭線に囲まれた領域が搭載位置の半田パターンであることから、吸着ノズル106を輪郭線に囲まれた位置に位置決めするようにヘッド105を移動して、電子部品の搭載が実行される。
(Processing when mounting electronic components)
Next, a process performed when the electronic component is mounted will be described.
In a state where the electronic component is sucked by the
Then, the feature
That is, the extracted region of the captured image is divided into unit regions, the feature amount for i that is not the coefficient wi = 0 of the matching degree ei is calculated, and the solder of each unit region is determined according to the synthesis parameter acquired in the learning data creation process. The degree of coincidence of is calculated. Then, a contour line is calculated based on the unit region determined to be solder. Since the area surrounded by the contour line is the solder pattern at the mounting position, the
(実施形態の効果)
上記画像解析装置10では、撮像画像データ中の半田Hの模様領域A2から同時生起行列の14式により特徴量を取得し且つ合成し、特徴量が一致する単位領域A5から半田H識別対象の背景との境界線を求め、実際の境界位置との誤差が小さくなるようにリトライを繰り返すことで特徴量の一致度に関する重み付けパターンを特定する。このため、半田Hの固有の模様に基づく特徴量から当該半田Hを識別することとなり、背景との明度差の有無にかかわらず、効果的に識別対象を識別することが可能となる。
このため、例えば図12に示すように、半田Hと当該半田と模様の異なる基板K、配線パターンN、パッドUが撮像領域A1内に存在する状態でも、半田形状を示す輪郭線RAを的確に識別することができる。
(Effect of embodiment)
In the
For this reason, for example, as shown in FIG. 12, even if the solder H and the substrate K, the wiring pattern N, and the pad U having a different pattern from the solder are present in the imaging region A1, the outline RA indicating the solder shape is accurately obtained. Can be identified.
また、テクスチャ模様に関する同時生起行列の14式に関する好適な合成パラメータを特定するので、各手法の識別精度の偏りの影響を排除し、より正確な識別を実現することが可能となる。
テクスチャ模様の特徴量を得るための手法として確立されている同時生起行列の14の特徴量の算出方法を用いるので、種々の模様の識別対象をより効果的に識別することが可能となる。
In addition, since a suitable synthesis parameter related to the 14 equations of the co-occurrence matrix related to the texture pattern is specified, it is possible to eliminate the influence of the bias in the identification accuracy of each method and realize more accurate identification.
Since the 14 feature quantity calculation method of the co-occurrence matrix established as a technique for obtaining the texture pattern feature quantity is used, it becomes possible to more effectively identify the identification target of various patterns.
(その他)
上述した画像解析装置10では、半田模様の特徴量の算出として同時生起行列由来の手法を使ったが、模様を特徴づけることが可能な他の手法を用いても良いし、同時生起行列の手法と他の手法とを組み合わせて用いても良い。例えば、模様の解析の手法としては、例えば領域画像をフーリエ変換して得られた周波数、濃度ヒストグラム,ランレングス行列,フラクタル次元を用いても良い。
その場合も上記実施形態と同様の効果を得ることが可能である。
(Other)
In the
Even in that case, it is possible to obtain the same effect as the above-described embodiment.
また、上述した画像解析装置10では、学習データ作成処理において、模様領域A2のみを利用し、半田の背景領域の画像情報を使用していないが、使用することも可能である。その場合、例えば誤差測定点ごとに背景から単位領域A6(図5参照)を切り出し、その単位領域A6からfi値を求める。それにより模様領域A2のfi値と比較することにより、例えば、fi値同士の開きが大きいものとそうでないfi値に分けることができる。その結果、重みとなる係数wiの積空間全域で回す必要がなくなり、繰り返し回数を低減し、迅速に適正な合成パラメータを取得することが可能となり得る。
In the
また、上述した画像解析装置10では、学習データ作成処理において、ステップ12のリトライの判定において、誤差Dに対する基準値αとの比較により判定を行って終了条件としたが、誤差Dを表示装置125に表示し、オペレータがリトライを実行するか判断するようにしても良い。その場合も上記実施形態と同様の効果を得ることが可能である。
In the
また、上述した画像解析装置10では、学習データ作成処理において、ステップ12のリトライの判定において、誤差Dが基準値αを下回ることで処理の終了条件としたが、これに限らず、繰り返しに規定回数を設け、規定回数内で誤差が最小となる合成パラメータを学習データとしても良い。その場合も上記実施形態とほぼ同様の効果を得ることが可能であって、さらに、処理の迅速化を図ることが可能である。
In the
また、誤差測定点Gは、前述した6点に限られるものではない。最少で1個でもよく、また、より多くしても良い。その場合も上記実施形態と同様の効果を得ることが可能である。
また、前述の誤差Dの対象として輪郭線RAとRとの最短距離dを使ったが、他のものでも良い。例えば、誤差測定点Gの数をより多く設定して半田領域同士で面積や重心を求めて比較するようにしても良い。その場合も上記実施形態と同様の効果を得ることが可能である。
Further, the error measurement points G are not limited to the six points described above. It may be at least one or more. Even in that case, it is possible to obtain the same effect as the above-described embodiment.
Further, although the shortest distance d between the contour lines RA and R is used as the target of the error D described above, other objects may be used. For example, the number of error measurement points G may be set to be larger, and the areas and centroids may be obtained and compared between the solder regions. Even in that case, it is possible to obtain the same effect as the above-described embodiment.
10 画像解析装置
11 主制御部
20 画像入力部
30 画像分割部
40 誤差測定点入力部
50 特徴量抽出部
60 特徴量合成部
70 誤差検出部
100 電子部品搭載装置
120 制御装置
A1 撮像画像
A2 模様領域
A3 単位領域
A4 抽出領域
A5 単位領域
G 誤差測定点(境界点)
H 半田パターン(識別対象)
DESCRIPTION OF
H Solder pattern (identification target)
Claims (4)
前記撮像画像中の予め指定された前記特定の模様のみからなる模様領域における所定の単位領域について複数の手法により基準となるテクスチャ模様の特徴量を求める基準特徴量取得工程と、
前記撮像画像中の少なくとも前記模様領域及びその周囲の背景を含んだ抽出領域を、前記模様領域の単位領域と同じ大きさの単位領域に分割し、当該各単位領域について前記各手法により特徴量を求める比較特徴量取得工程と、
前記抽出領域の各単位領域について、前記各手法の特徴量ごとに前記模様領域との一致度を求め、前記各手法の特徴量ごとの一致度を個々に重み付けをして合成した一致度を求める一致度取得工程と、
前記合成された一致度の値から前記抽出領域の各単位領域が識別対象か背景かを判定する判定工程と、
前記判別工程で識別対象と判別された複数の単位領域から前記抽出領域における識別対象と背景の境界線を求める境界線取得工程と、
予め指定された前記撮像画像における実際の境界線上の位置と前記境界線取得工程で取得された境界線との誤差を検出する誤差検出工程と、
を備え、
前記各手法の特徴量ごとの一致度に対する重み付けのパターンを逐次変更しつつ前記一致度取得工程、判定工程、境界線取得工程及び誤差検出工程を繰り返すことで前記誤差が閾値以下又は最少となる重み付けのパターンを特定し、
前記取得された重み付けパターンに従って撮像画像から前記識別対象を識別することを特徴とする画像解析方法。 An image analysis method performed by an image analysis apparatus that identifies an identification target based on captured image data of a captured image including an identification target having a specific pattern on a surface and a background around the identification target,
A reference feature amount acquisition step for obtaining a feature amount of a texture pattern as a reference by a plurality of methods for a predetermined unit region in a pattern region including only the specific pattern specified in advance in the captured image;
The extracted area including at least the pattern area and the surrounding background in the captured image is divided into unit areas having the same size as the unit area of the pattern area, and the feature amount is determined for each unit area by the respective methods. A comparison feature amount obtaining step to be obtained;
For each unit area of the extraction area, the degree of coincidence with the pattern area is obtained for each feature amount of each method, and the degree of coincidence obtained by weighting the degree of coincidence for each feature amount of each method is obtained. A matching degree acquisition process;
A determination step of determining whether each unit area of the extraction area is an identification target or a background from the synthesized matching value;
A boundary line acquisition step for obtaining a boundary line between the identification target and the background in the extraction region from the plurality of unit regions determined as the identification target in the determination step;
An error detection step of detecting an error between a position on an actual boundary line in the captured image designated in advance and the boundary line acquired in the boundary line acquisition step;
With
Weighting that makes the error equal to or less than a threshold by repeating the matching degree acquisition step, determination step, boundary line acquisition step, and error detection step while sequentially changing the weighting pattern for the matching degree for each feature amount of each method. Identify patterns of
An image analysis method, wherein the identification target is identified from a captured image in accordance with the acquired weighting pattern.
前記撮像画像中の予め指定された前記特定の模様のみからなる模様領域における所定の単位領域について複数の手法により基準となるテクスチャ模様の特徴量を求める基準特徴量取得手段と、
前記撮像画像中の少なくとも前記模様領域及びその周囲の背景を含んだ抽出領域を、前記模様領域の単位領域と同じ大きさの単位領域に分割し、当該各単位領域について前記各手法により特徴量を求める比較特徴量取得手段と、
前記抽出領域の各単位領域について、前記各手法の特徴量ごとに前記模様領域との一致度を求め、前記各手法の特徴量ごとの一致度を個々に重み付けをして合成した一致度を求める一致度取得手段と、
前記合成された一致度の値から前記抽出領域の各単位領域が識別対象か背景かを判定する判定手段と、
前記判別手段により識別対象と判別された複数の単位領域から前記抽出領域における識別対象と背景の境界線を求める境界線取得手段と、
予め指定された前記撮像画像における実際の境界線上の位置と前記境界線取得手段で取得された境界線との誤差を検出する誤差検出手段と、
を備え、
前記各手法の特徴量ごとの一致度に対する重み付けのパターンを逐次変更しつつ前記一致度取得手段により一致度の取得、前記判定手段により判定、前記境界線取得手段よる前記境界線の取得及び誤差検出手段による誤差検出を繰り返すことで前記誤差が閾値以下又は最少となる重み付けのパターンを特定し、
前記取得された重み付けパターンに従って撮像画像から前記識別対象を識別することを特徴とする画像解析装置。 An image analysis apparatus for identifying the identification target based on captured image data of a captured image including an identification target having a specific pattern on a surface and a background around the identification target,
A reference feature amount obtaining unit for obtaining a feature amount of a texture pattern serving as a reference by a plurality of methods for a predetermined unit region in a pattern region including only the specific pattern specified in advance in the captured image;
The extracted area including at least the pattern area and the surrounding background in the captured image is divided into unit areas having the same size as the unit area of the pattern area, and the feature amount is determined for each unit area by the respective methods. A comparison feature amount obtaining means to be obtained;
For each unit area of the extraction area, the degree of coincidence with the pattern area is obtained for each feature amount of each method, and the degree of coincidence obtained by weighting the degree of coincidence for each feature amount of each method is obtained. A matching degree acquisition means;
A determination means for determining whether each unit area of the extraction area is an identification target or a background from the synthesized matching value;
Boundary line acquisition means for obtaining a boundary line between the identification object and the background in the extraction area from the plurality of unit areas determined as the identification object by the determination means;
Error detection means for detecting an error between a position on an actual boundary line in the captured image designated in advance and the boundary line acquired by the boundary line acquisition means;
With
The matching degree is acquired by the matching degree acquisition unit, the determination is performed by the determination unit, the boundary line is acquired by the boundary line acquisition unit, and the error is detected while sequentially changing the weighting pattern for the matching degree for each feature amount of each method. By repeating the error detection by the means, the weighting pattern in which the error is less than or equal to the threshold value is minimized,
An image analysis apparatus for identifying the identification target from a captured image according to the acquired weighting pattern.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009191904A JP2011043998A (en) | 2009-08-21 | 2009-08-21 | Method and apparatus for analyzing image |
CN2010102631700A CN101996404A (en) | 2009-08-21 | 2010-08-20 | Image analysis method and image analysis device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009191904A JP2011043998A (en) | 2009-08-21 | 2009-08-21 | Method and apparatus for analyzing image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011043998A true JP2011043998A (en) | 2011-03-03 |
Family
ID=43786523
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009191904A Pending JP2011043998A (en) | 2009-08-21 | 2009-08-21 | Method and apparatus for analyzing image |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2011043998A (en) |
CN (1) | CN101996404A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013020600A (en) * | 2011-06-17 | 2013-01-31 | Denso Corp | Image processing apparatus |
JP2016012258A (en) * | 2014-06-30 | 2016-01-21 | 富士ゼロックス株式会社 | Learning program and information processing apparatus |
CN106404802A (en) * | 2015-07-28 | 2017-02-15 | 株式会社岛津制作所 | Detection apparatus and detection method |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103578110B (en) * | 2013-11-12 | 2016-06-08 | 河海大学 | Multiband high-resolution remote sensing image dividing method based on gray level co-occurrence matrixes |
JP7138869B2 (en) * | 2019-06-19 | 2022-09-20 | 国立大学法人信州大学 | Feature quantity extraction device, feature quantity extraction method, identification device, identification method, and program |
-
2009
- 2009-08-21 JP JP2009191904A patent/JP2011043998A/en active Pending
-
2010
- 2010-08-20 CN CN2010102631700A patent/CN101996404A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013020600A (en) * | 2011-06-17 | 2013-01-31 | Denso Corp | Image processing apparatus |
JP2016012258A (en) * | 2014-06-30 | 2016-01-21 | 富士ゼロックス株式会社 | Learning program and information processing apparatus |
CN106404802A (en) * | 2015-07-28 | 2017-02-15 | 株式会社岛津制作所 | Detection apparatus and detection method |
Also Published As
Publication number | Publication date |
---|---|
CN101996404A (en) | 2011-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6748104B1 (en) | Methods and apparatus for machine vision inspection using single and multiple templates or patterns | |
US11972589B2 (en) | Image processing device, work robot, substrate inspection device, and specimen inspection device | |
JP3877501B2 (en) | Component recognition data creation method, creation device, electronic component mounting device, and recording medium | |
JP2003526935A (en) | Election and placement device with improved imaging system | |
TW200821156A (en) | Screen printing equipment, and method for image recognition and alignment | |
JP2014060249A (en) | Die bonder and die position recognition method | |
JP2011043998A (en) | Method and apparatus for analyzing image | |
CN100450338C (en) | Apparatus and method for insepecting cream solder printed on a substrate | |
WO2017081773A1 (en) | Image processing device and image processing method for base plate | |
CN113495073A (en) | Auto-focus function for vision inspection system | |
JP5755935B2 (en) | Component pitch measuring apparatus and component pitch measuring method | |
CN113380661A (en) | Chip mounting device and method for manufacturing semiconductor device | |
JP6466960B2 (en) | Mounting machine and electronic component suction posture inspection method using mounting machine | |
CN1519570A (en) | Measured reault displaying system for printed circuit substrate, and measured result displaying method | |
JP2005353750A (en) | Maintenance and management apparatus for electronic component mounting apparatus | |
JP4308736B2 (en) | Electronic component supply method, apparatus and surface mounter | |
CN110857924A (en) | System for assisting array typesetting circuit board identification and recording defect position | |
US10879096B2 (en) | Die component supply device | |
US20240302816A1 (en) | Intersect command vision locating system and method | |
JP7185761B2 (en) | Arithmetic unit | |
CN118678563A (en) | Method for producing installation data and storage medium storing program | |
US11452251B2 (en) | Information management device | |
JP6884494B2 (en) | Parts transfer device, parts transfer method and component mounting device | |
JP4554190B2 (en) | Printing inspection apparatus and printing inspection method | |
CN118553641A (en) | Semiconductor manufacturing apparatus, edge detection method, and semiconductor device manufacturing method |