Nothing Special   »   [go: up one dir, main page]

JP2011043998A - Method and apparatus for analyzing image - Google Patents

Method and apparatus for analyzing image Download PDF

Info

Publication number
JP2011043998A
JP2011043998A JP2009191904A JP2009191904A JP2011043998A JP 2011043998 A JP2011043998 A JP 2011043998A JP 2009191904 A JP2009191904 A JP 2009191904A JP 2009191904 A JP2009191904 A JP 2009191904A JP 2011043998 A JP2011043998 A JP 2011043998A
Authority
JP
Japan
Prior art keywords
pattern
feature amount
unit
area
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009191904A
Other languages
Japanese (ja)
Inventor
Yoshihiko Yokose
仁彦 横瀬
Takashi Terachi
隆 寺地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2009191904A priority Critical patent/JP2011043998A/en
Priority to CN2010102631700A priority patent/CN101996404A/en
Publication of JP2011043998A publication Critical patent/JP2011043998A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image analysis method and an image analysis apparatus to effectively identify an object. <P>SOLUTION: An identification object is identified from a picked-up image according to a suitably weighted pattern by: finding a feature amount of each unit area A3 of a pattern area A2; finding similarly a feature amount of each unit area A5 of an extracted area A4; finding a degree of matching composed of them by weighting for each method; determining whether each unit area of extracted area is an identification object or a background from a value of the composed degree of matching; finding a border line of the identification object and the background according to the determination concerned; finding an error between a position on an actual border line in a picked-up image and the border line obtained by the determination; and optimizing the pattern of weighting by changing serially so that the error concerned may become sufficiently small. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、対象物を識別するための画像解析方法及び画像解析装置に関する。   The present invention relates to an image analysis method and an image analysis apparatus for identifying an object.

撮像画像の各画素について輝度値が定められてなる撮像画像データから、識別対象物の識別を行う方法としては、撮像画像データに基づく輝度勾配情報から識別対象物の輪郭線を得る方法や、画像データに基づく濃淡画像から対象物のエッジ情報を抽出し、エッジ点列による対象物の抽出及び位置検出を行う方法などが知られている(例えば、特許文献1及び2)。   As a method for identifying an identification target object from captured image data in which a luminance value is determined for each pixel of the captured image, a method for obtaining an outline of the identification target object from luminance gradient information based on the captured image data, an image A method is known in which edge information of an object is extracted from a grayscale image based on data, and an object is extracted and a position is detected using an edge point sequence (for example, Patent Documents 1 and 2).

特開平9−171553号公報Japanese Patent Laid-Open No. 9-171553 特許2981382号公報Japanese Patent No. 2981382

しかしながら、上記特許文献1に示す輝度勾配に基づいて輪郭線を取得する方法では、対象物と背景との間に十分な輝度勾配が得られるような輝度差が生じていなければ明瞭な輪郭線を得ることができず、対象物と背景とに十分な明度の差がなければ識別することができないという問題があった。
また、特許文献2に示す先行技術の場合には、対象物からエッジ情報が得られることを前提としており、対象物と背景とに十分な明度の差がなければ十分なエッジ情報が得られず、識別が困難となるという問題があった。
However, in the method of acquiring the contour line based on the luminance gradient shown in Patent Document 1, a clear contour line is obtained unless there is a luminance difference that provides a sufficient luminance gradient between the object and the background. There is a problem that it cannot be obtained and cannot be identified unless there is a sufficient brightness difference between the object and the background.
In the case of the prior art shown in Patent Document 2, it is assumed that edge information can be obtained from an object, and sufficient edge information cannot be obtained unless there is a sufficient brightness difference between the object and the background. There was a problem that identification was difficult.

本発明は、安定して対象物の識別を可能とすることをその目的とする。   An object of the present invention is to enable stable identification of an object.

請求項1記載の発明は、表面が特定の模様からなる識別対象とその周囲の背景とを含んだ撮像画像の撮像画像データに基づいて前記識別対象の識別を行う画像解析装置が行う画像解析方法であって、前記撮像画像中の予め指定された前記特定の模様のみからなる模様領域における所定の単位領域について複数の手法により基準となるテクスチャ模様の特徴量を求める基準特徴量取得工程と、前記撮像画像中の少なくとも前記模様領域及びその周囲の背景を含んだ抽出領域を、前記模様領域の単位領域と同じ大きさの単位領域に分割し、当該各単位領域について前記各手法により特徴量を求める比較特徴量取得工程と、前記抽出領域の各単位領域について、前記各手法の特徴量ごとに前記模様領域との一致度を求め、前記各手法の特徴量ごとの一致度を個々に重み付けをして合成した一致度を求める一致度取得工程と、前記合成された一致度の値から前記抽出領域の各単位領域が識別対象か背景かを判定する判定工程と、前記判別工程で識別対象と判別された複数の単位領域から前記抽出領域における識別対象と背景の境界線を求める境界線取得工程と、予め指定された前記撮像画像における実際の境界線上の位置と前記境界線取得工程で取得された境界線との誤差を検出する誤差検出工程と、を備え、前記各手法の特徴量ごとの一致度に対する重み付けのパターンを逐次変更しつつ前記一致度取得工程、判定工程、境界線取得工程及び誤差検出工程を繰り返すことで前記誤差が閾値以下又は最少となる重み付けのパターンを特定し、前記取得された重み付けパターンに従って撮像画像から前記識別対象を識別することを特徴とする。   The invention according to claim 1 is an image analysis method performed by an image analysis apparatus that identifies an identification target based on captured image data of a captured image including an identification target having a specific pattern on the surface and a surrounding background. A reference feature amount obtaining step of obtaining a feature amount of a texture pattern serving as a reference by a plurality of methods for a predetermined unit region in a pattern region including only the specific pattern specified in advance in the captured image; The extracted region including at least the pattern region and the surrounding background in the captured image is divided into unit regions having the same size as the unit region of the pattern region, and the feature amount is obtained for each unit region by the respective methods. For each unit area of the comparison feature quantity acquisition step and the extraction area, a degree of coincidence with the pattern area is obtained for each feature quantity of each technique, and for each feature quantity of each technique, A degree of coincidence obtaining step for obtaining a degree of coincidence obtained by weighting the degree of match individually, and a step of determining whether each unit area of the extraction region is an identification target or a background from the value of the degree of coincidence, A boundary line obtaining step for obtaining a boundary line between the identification target and the background in the extraction region from the plurality of unit regions determined as the identification target in the determination step, a position on the actual boundary line in the captured image specified in advance, and the An error detection step for detecting an error from the boundary line acquired in the boundary line acquisition step, and the matching degree acquisition step and determination while sequentially changing the weighting pattern for the matching degree for each feature amount of each method By repeating the steps, the boundary line acquisition step and the error detection step, a weighting pattern in which the error is less than or equal to a threshold is specified, and a captured image is obtained according to the acquired weighting pattern. Characterized by identifying the identification target from.

請求項2記載の発明は、請求項1記載の発明と同様の構成を備えると共に、前記特徴量を求める複数の手法は、同時生起行列の14の特徴量の算出方法の一部又は全部を用いることを特徴とする。   The invention described in claim 2 has the same configuration as that of the invention described in claim 1, and the plurality of methods for obtaining the feature values use a part or all of the 14 feature value calculation methods of the co-occurrence matrix. It is characterized by that.

請求項3記載の発明は、表面が特定の模様からなる識別対象とその周囲の背景とを含んだ撮像画像の撮像画像データに基づいて前記識別対象の識別を行う画像解析装置であって、前記撮像画像中の予め指定された前記特定の模様のみからなる模様領域における所定の単位領域について複数の手法により基準となるテクスチャ模様の特徴量を求める基準特徴量取得手段と、前記撮像画像中の少なくとも前記模様領域及びその周囲の背景を含んだ抽出領域を、前記模様領域の単位領域と同じ大きさの単位領域に分割し、当該各単位領域について前記各手法により特徴量を求める比較特徴量取得手段と、前記抽出領域の各単位領域について、前記各手法の特徴量ごとに前記模様領域との一致度を求め、前記各手法の特徴量ごとの一致度を個々に重み付けをして合成した一致度を求める一致度取得手段と、前記合成された一致度の値から前記抽出領域の各単位領域が識別対象か背景かを判定する判定手段と、前記判別手段により識別対象と判別された複数の単位領域から前記抽出領域における識別対象と背景の境界線を求める境界線取得手段と、予め指定された前記撮像画像における実際の境界線上の位置と前記境界線取得手段で取得された境界線との誤差を検出する誤差検出手段と、を備え、前記各手法の特徴量ごとの一致度に対する重み付けのパターンを逐次変更しつつ前記一致度取得手段により一致度の取得、前記判定手段により判定、前記境界線取得手段よる前記境界線の取得及び誤差検出手段による誤差検出を繰り返すことで前記誤差が閾値以下又は最少となる重み付けのパターンを特定し、前記取得された重み付けパターンに従って撮像画像から前記識別対象を識別する。   The invention according to claim 3 is an image analysis apparatus for identifying the identification target based on captured image data of a captured image including an identification target having a specific pattern on the surface and a surrounding background. A reference feature amount acquisition means for obtaining a feature amount of a texture pattern serving as a reference by a plurality of methods for a predetermined unit region in a pattern region including only the specific pattern specified in advance in the captured image; and at least in the captured image A comparison feature amount acquisition unit that divides the extraction region including the pattern region and the surrounding background into unit regions having the same size as the unit region of the pattern region, and obtains the feature amount for each unit region by the respective methods. For each unit area of the extraction area, the degree of coincidence with the pattern area is obtained for each feature amount of each method, and the degree of coincidence for each feature amount of each method is individually weighted A degree of coincidence obtaining means for obtaining a degree of coincidence obtained by combining the image, a determination means for determining whether each unit area of the extraction area is an identification target or a background from the value of the degree of coincidence synthesized, and identification by the determination means A boundary line acquisition means for obtaining a boundary line between the identification target and the background in the extraction area from a plurality of unit areas determined to be targets, and a position on the actual boundary line in the captured image specified in advance and the boundary line acquisition means An error detecting means for detecting an error with the acquired boundary line, and obtaining the degree of coincidence by the coincidence degree obtaining means while sequentially changing the weighting pattern for the degree of coincidence for each feature amount of each method, A weighting pattern in which the error is equal to or less than a threshold value by repeating determination by the determination unit, acquisition of the boundary line by the boundary line acquisition unit, and error detection by the error detection unit. Identify, identifying the identification object from the captured image in accordance with the acquired weighting pattern.

請求項4記載の発明は、請求項3記載の発明と同様の構成を備えると共に、前記特徴量を求める複数の手法は、同時生起行列の14の特徴量の算出方法の一部又は全部を用いることを特徴とする。   The invention described in claim 4 has the same configuration as that of the invention described in claim 3, and the plurality of methods for obtaining the feature values use a part or all of the 14 feature value calculation methods of the co-occurrence matrix. It is characterized by that.

請求項1及び3記載の発明は、撮像画像データ中の識別対象物の模様領域から複数の手法により特徴量を取得し且つ合成し、特徴量が一致する単位領域から識別対象の背景との境界線を求め、実際の境界位置との誤差が小さくなるようにリトライを繰り返すことで特徴量の一致度に関する重み付けパターンを特定する。このため、識別対象の固有の模様に基づく特徴量から対象物を識別することとなり、背景との明度差の有無にかかわらず、効果的に識別対象を識別することが可能となる。
また、テクスチャ模様に関する複数の手法に関する重み付けの好適なパターンを特定するので、手法の識別精度の偏りの影響を排除し、より正確な識別を実現することが可能となる。
According to the first and third aspects of the present invention, a feature amount is obtained and synthesized from a pattern region of an identification target in captured image data by a plurality of methods, and a boundary between the unit region having the matching feature amount and the background of the identification target A line is obtained, and a retry pattern is repeated so that an error from an actual boundary position becomes small, thereby specifying a weighting pattern related to the degree of matching of feature amounts. For this reason, the target object is identified from the feature amount based on the unique pattern of the identification target, and the identification target can be effectively identified regardless of the brightness difference from the background.
In addition, since a suitable weighting pattern for a plurality of methods related to a texture pattern is specified, it is possible to eliminate the influence of bias in the identification accuracy of the method and realize more accurate identification.

請求項2及び4記載の発明は、テクスチャ模様の特徴量を得るための手法として確立されている同時生起行列の14の特徴量の算出方法を用いるので、種々の模様の識別対象をより効果的に識別することが可能となる。   The inventions of claims 2 and 4 use the 14 feature quantity calculation method of the co-occurrence matrix established as a technique for obtaining the feature quantity of the texture pattern, so that the identification target of various patterns is more effective. Can be identified.

本実施の形態に係る電子部品実装装置の全体を示す平面図である。It is a top view which shows the whole electronic component mounting apparatus which concerns on this Embodiment. 電子部品実装装置の制御系を示すブロック図である。It is a block diagram which shows the control system of an electronic component mounting apparatus. 画像解析装置の機能ブロック図である。It is a functional block diagram of an image analysis device. 学習データ作成処理のフローチャートである。It is a flowchart of learning data creation processing. 撮像画像データの撮像画像内に設定される各種の領域を示す説明図である。It is explanatory drawing which shows the various area | regions set in the captured image of captured image data. 図6(A)は模様領域と単位領域との関係を示す説明図、図6(B)は抽出領域と単位領域との関係を示す説明図である。FIG. 6A is an explanatory diagram illustrating the relationship between the pattern region and the unit region, and FIG. 6B is an explanatory diagram illustrating the relationship between the extraction region and the unit region. 図7(A)は単位領域の各画素における輝度値の例を示した説明図、図7(B)は同時生起行列における変位の概念を示す説明図、図7(C)は同時生起行列を示す説明図である。FIG. 7A is an explanatory diagram showing an example of the luminance value in each pixel of the unit area, FIG. 7B is an explanatory diagram showing a concept of displacement in the co-occurrence matrix, and FIG. 7C is a co-occurrence matrix. It is explanatory drawing shown. 模様領域の特徴量の正規分布を示す線図である。It is a diagram which shows the normal distribution of the feature-value of a pattern area | region. 特徴量の誤差と一致度との関係を示す線図である。It is a diagram which shows the relationship between the difference | error of a feature-value, and a matching degree. 各単位領域が半田か否かを示した説明図である。It is explanatory drawing which showed whether each unit area | region is a solder. 実際の輪郭線と生成輪郭線とを重ねて図示した説明図である。It is explanatory drawing which overlapped and illustrated the actual outline and the production | generation outline. 実際の搭載動作時の撮像画像の例を示す説明図である。It is explanatory drawing which shows the example of the captured image at the time of actual mounting operation.

(実施形態の全体構成)
本発明の実施形態について、図1乃至図12に基づいて説明する。本実施形態は、撮像画像内で特定のテクスチャからなる識別対象物を背景と識別するための画像解析装置10が電子部品搭載装置100に適用され、電子部品の搭載位置である半田パターンを識別対象物として識別する目的に利用される場合の例を示している。
(Overall configuration of the embodiment)
An embodiment of the present invention will be described with reference to FIGS. In the present embodiment, an image analysis apparatus 10 for identifying an identification object having a specific texture in a captured image as a background is applied to the electronic component mounting apparatus 100, and a solder pattern that is the mounting position of the electronic component is identified. An example in the case of being used for the purpose of identifying as an object is shown.

(電子部品実装装置)
電子部品搭載装置100は、基板に各種の電子部品の搭載を行うものであって、電子部品の搭載手段として、図1に示すように、搭載される電子部品を供給する複数の電子部品フィーダー101と、電子部品フィーダー101を複数並べて保持する電子部品供給部としてのフィーダーバンク102と、一定方向に基板を搬送する基板搬送手段103と、当該基板搬送手段103による基板搬送経路の途中に設けられた基板に対する電子部品搭載作業を行うための搭載作業部104と、電子部品を吸着する吸着ノズル105を保持して電子部品の保持を行う部品保持手段としてのヘッド106と、ヘッド106を所定範囲内の任意の位置に駆動搬送するヘッド移動手段としてのX−Yガントリ107と、ヘッド106に搭載され、基板の撮像を行い、電子部品の搭載を行う半田パターンを識別するための撮像手段としてのCCDカメラ108と、電子部品搭載装置100の各構成に対して制御を行う制御装置120とを備えている。
画像解析装置10は、制御装置120に組み込まれ、電子部品の搭載のためにCCDカメラ108の基板の撮像画像から半田パターンを識別し、正確な位置情報をヘッド106の位置決め動作に反映させるために利用される。
なお、以下の説明において、水平面に沿って互いに直交する一の方向をX軸方向とし、他の方向をY軸方向とし、垂直上下方向をZ軸方向と称することとする。
(Electronic component mounting equipment)
The electronic component mounting apparatus 100 mounts various electronic components on a substrate. As shown in FIG. 1, a plurality of electronic component feeders 101 that supply electronic components to be mounted as electronic component mounting means. A feeder bank 102 as an electronic component supply unit that holds a plurality of electronic component feeders 101 side by side, a substrate transport unit 103 that transports a substrate in a certain direction, and a substrate transport path by the substrate transport unit 103. A mounting operation unit 104 for performing an electronic component mounting operation on a substrate, a head 106 as a component holding means for holding an electronic component by holding a suction nozzle 105 that sucks the electronic component, and a head 106 within a predetermined range. An XY gantry 107 serving as a head moving means for driving and transporting to an arbitrary position and a head 106 are mounted to image a substrate. There is provided with a CCD camera 108 as an imaging means for identifying the solder pattern that performs mounting of an electronic component, and a control unit 120 for controlling the respective configuration of the electronic component mounting apparatus 100.
The image analysis device 10 is incorporated in the control device 120 to identify the solder pattern from the captured image of the substrate of the CCD camera 108 for mounting electronic components, and to reflect accurate position information in the positioning operation of the head 106. Used.
In the following description, one direction orthogonal to each other along the horizontal plane is referred to as an X-axis direction, the other direction is referred to as a Y-axis direction, and a vertical vertical direction is referred to as a Z-axis direction.

基板搬送手段103は、図示しない搬送ベルトを備えており、その搬送ベルトにより基板をX軸方向に沿って搬送する。
また、前述したように、基板搬送手段103による基板搬送経路の途中には、電子部品を基板へ搭載する搭載作業部104が設けられている。基板搬送手段103は、搭載作業部104まで基板を搬送すると共に停止して、図示しない保持機構により基板の保持を行う。つまり、基板は保持機構により保持された状態で安定した電子部品の搭載作業が行われる。
The substrate transport unit 103 includes a transport belt (not shown), and transports the substrate along the X-axis direction by the transport belt.
As described above, the mounting operation unit 104 for mounting electronic components on the substrate is provided in the middle of the substrate transfer path by the substrate transfer means 103. The substrate transport unit 103 transports the substrate to the mounting work unit 104 and stops, and holds the substrate by a holding mechanism (not shown). That is, a stable electronic component mounting operation is performed while the substrate is held by the holding mechanism.

ヘッド106は、その先端部で空気吸引により電子部品を保持する吸着ノズル105と、この吸着ノズル105をZ軸方向に駆動する駆動源であるZ軸モータ111(図2参照)と、吸着ノズル105を介して保持された電子部品をZ軸方向を中心として回転駆動させる回転駆動源である回転モータ112(図2参照)とが設けられている。
また、各吸着ノズル105は負圧発生源に接続され、当該吸着ノズル105の先端部において吸気吸引を行うことにより電子部品の吸着及び保持が行われる。
つまりこれらの構造により、搭載作業時には、吸着ノズル105の先端部で所定の電子部品フィーダー101から電子部品を吸着し、所定位置で基板に向かって吸着ノズル105を下降させると共に吸着ノズル105を回転させて電子部品の向きの調整を行いつつ搭載作業が行われる。
また、前述したCCDカメラ108は、ヘッド106に搭載されており、X−Yガントリ107によりヘッド106が駆動されることで、基板の撮像位置に位置決めされるようになっている。
The head 106 includes a suction nozzle 105 that holds electronic components by air suction at the tip, a Z-axis motor 111 (see FIG. 2) that is a drive source that drives the suction nozzle 105 in the Z-axis direction, and a suction nozzle 105. And a rotation motor 112 (see FIG. 2), which is a rotation drive source for rotating the electronic component held via the rotation centering around the Z-axis direction.
Further, each suction nozzle 105 is connected to a negative pressure generation source, and suction and suction of electronic components are performed by performing suction suction at the tip of the suction nozzle 105.
That is, with these structures, at the time of mounting, the electronic component is sucked from the predetermined electronic component feeder 101 at the tip of the suction nozzle 105, and the suction nozzle 105 is lowered toward the substrate and rotated at the predetermined position. The mounting work is performed while adjusting the orientation of the electronic components.
The above-described CCD camera 108 is mounted on the head 106, and the head 106 is driven by the XY gantry 107 so as to be positioned at the imaging position of the substrate.

X−Yガントリ107は、X軸方向にヘッド106の移動を案内するX軸ガイドレール107aと、このX軸ガイドレール107aと共にヘッド106をY軸方向に案内する二本のY軸ガイドレール107bと、X軸方向に沿ってヘッド106を移動させる駆動源であるX軸モータ109(図2参照)と、X軸ガイドレール107aを介してヘッド106をY軸方向に移動させる駆動源であるY軸モータ110(図2参照)とを備えている。そして、各モータ109,110の駆動により、ヘッド106を二本のY軸ガイドレール107bの間となる領域のほぼ全体に搬送することを可能としている。
なお、各モータは、ぞれぞれの回転量が制御装置120に認識され、所望の回転量となるように制御されることにより、ヘッド106を介して吸着ノズル105やCCDカメラ108の位置決めを行っている。
また、電子部品の必要上、前記したフィーダーバンク102,搭載作業部104とはいずれもX−Yガントリ107によるヘッド106の搬送可能領域内に配置されている。
The XY gantry 107 includes an X-axis guide rail 107a that guides the movement of the head 106 in the X-axis direction, and two Y-axis guide rails 107b that guide the head 106 in the Y-axis direction together with the X-axis guide rail 107a. , An X-axis motor 109 (see FIG. 2) that is a drive source that moves the head 106 along the X-axis direction, and a Y-axis that is a drive source that moves the head 106 in the Y-axis direction via the X-axis guide rail 107a And a motor 110 (see FIG. 2). Then, by driving each of the motors 109 and 110, the head 106 can be conveyed to almost the entire region between the two Y-axis guide rails 107b.
Each motor recognizes the rotation amount of each motor by the control device 120 and is controlled so as to obtain a desired rotation amount, thereby positioning the suction nozzle 105 and the CCD camera 108 via the head 106. Is going.
Further, due to the necessity of electronic components, both the feeder bank 102 and the mounting work unit 104 are arranged in a region where the head 106 can be transported by the XY gantry 107.

フィーダーバンク102は、複数のX−Y平面に沿った平坦部を備え、当該平坦部に複数の電子部品フィーダー101がX軸方向に沿って羅列して載置装備される。
CCDカメラ108は、ヘッド106により下方に向けられた状態で保持されており、基板を上方から撮像することで半田パターンを識別する。
The feeder bank 102 includes a plurality of flat portions along a plurality of XY planes, and a plurality of electronic component feeders 101 are arranged and mounted on the flat portions along the X-axis direction.
The CCD camera 108 is held in a state of being directed downward by the head 106, and the solder pattern is identified by imaging the substrate from above.

(制御装置)
図2は電子部品搭載装置100の制御系を示すブロック図である。図2に示すように、制御装置120は、主に、X−Yガントリ107のX軸モータ109、Y軸モータ110、ヘッド106において吸着ノズル105の昇降を行うZ軸モータ111、吸着ノズル105の回転を行う回転モータ112、CCDカメラ108の動作制御を行い、所定の制御プログラムに従って各種の処理及び制御を実行するCPU121と、各種の処理及び制御を実行するためのプログラムが格納されたシステムROM122と、各種のデータを格納することで各種の処理の作業領域となるRAM123と、CPU121と各種の機器との接続を図る図示しないI/F(インターフェース)と、各種の設定や操作に要するデータの入力を行うための操作パネル124と、各種の処理及び制御を実行するための設定データが格納されたEEPROM126と、各種設定の内容や後述する検査の結果等を表示する表示モニタ125とを有している。また、前述した各モータ109〜112は、図示しないモータドライバを介して制御装置120に接続されている。
(Control device)
FIG. 2 is a block diagram showing a control system of the electronic component mounting apparatus 100. As shown in FIG. 2, the control device 120 mainly includes an X-axis motor 109, a Y-axis motor 110 of the XY gantry 107, a Z-axis motor 111 that moves the suction nozzle 105 up and down in the head 106, and the suction nozzle 105. A CPU 121 that performs operation control of the rotary motor 112 that performs rotation and the CCD camera 108, executes various processes and controls according to a predetermined control program, and a system ROM 122 that stores programs for executing various processes and controls , RAM 123 serving as a work area for various processes by storing various data, I / F (interface) (not shown) for connecting the CPU 121 and various devices, and input of data required for various settings and operations An operation panel 124 for performing various operations and setting data for executing various processes and controls are stored. And EEPROM126 that, and a display monitor 125 for displaying the results of tests that contents and later in various settings. Moreover, each motor 109-112 mentioned above is connected to the control apparatus 120 via the motor driver which is not shown in figure.

(画像解析装置)
図3は画像解析装置10の機能ブロック図である。画像解析装置10の後述する各機能は、実際には、制御装置120のCPU121が所定のプログラムを実行することにより実現されている。
画像解析装置10は、全体を統括制御する主制御部11と、CCDカメラ108の出力から撮像画像データを取得する画像入力部20と、撮像画像データに基づく矩形の画像領域を分割する画像分割部30と、オペレータが操作パネル124により撮像画像内の半田パターンとその背景との境界線上に指定する複数の点を誤差測定点に設定する誤差測定点入力部40と、半田パターンのテクスチャ(模様)の特徴量を抽出する特徴量抽出部50と、抽出した特徴量を合成するための後述するパラメータを決定して特徴量を合成する特徴量合成部60と、誤差測定点と出力形状との誤差を検出して判定を行う誤差検出部70とを備えている。
これらの構成により、画像解析装置10は、電子部品の搭載動作を行う前に、半田パターンの特徴量を合成するための適正なパラメータを取得するための学習データ作成処理を予め実行し、搭載動作時には、学習データ作成処理で得られたパラメータによりCCDカメラ108の撮像画像から半田パターンを識別する処理を実行する。
(Image analysis device)
FIG. 3 is a functional block diagram of the image analysis apparatus 10. Each function to be described later of the image analysis device 10 is actually realized by the CPU 121 of the control device 120 executing a predetermined program.
The image analysis apparatus 10 includes a main control unit 11 that performs overall control, an image input unit 20 that acquires captured image data from the output of the CCD camera 108, and an image dividing unit that divides a rectangular image region based on the captured image data. 30, an error measurement point input unit 40 for setting a plurality of points designated on the boundary line between the solder pattern in the captured image and its background by the operation panel 124 as an error measurement point, and a texture (pattern) of the solder pattern The feature quantity extracting unit 50 for extracting the feature quantity, the feature quantity synthesizing section 60 for synthesizing the feature quantity by determining parameters to be described later for synthesizing the extracted feature quantities, and the error between the error measurement point and the output shape And an error detection unit 70 for making a determination.
With these configurations, the image analysis apparatus 10 performs in advance a learning data creation process for acquiring appropriate parameters for synthesizing the feature amount of the solder pattern before performing the mounting operation of the electronic component. Sometimes, a process for identifying a solder pattern from an image captured by the CCD camera 108 is executed based on parameters obtained by the learning data creation process.

(学習データ作成処理)
次に、上記画像解析装置10が行う半田パターンの模様の学習データ作成処理について図4のフローチャートに示す処理の順番で説明する。
まず、画像入力部20によりCCDカメラ108で半田パターンを含む基板の撮像が行われ、その画像が撮像画像データとして記憶される(ステップS1)。
(Learning data creation process)
Next, the learning data creation process of the solder pattern performed by the image analysis apparatus 10 will be described in the order of the processes shown in the flowchart of FIG.
First, the image input unit 20 captures an image of a board including a solder pattern with the CCD camera 108, and the image is stored as captured image data (step S1).

次に、オペレータによる誤差測定点Gの入力が行われ、誤差測定点入力部40は、その入力操作により指定された画像内の位置を記録する処理を行う(ステップS2)。
図5はCCDカメラ108で撮像された撮像画像を示しており、一番外側の矩形のエリアA1は撮像画像の範囲を示し、Hは撮像された半田パターンを示す。
半田の表面は半田に特有な粒状の模様で一様に覆われているので、電子部品の搭載動作時には、当該模様の特徴量を求めて背景と識別し、半田パターンHと背景との境界線としての輪郭線Rを求めて電子部品を搭載する。この学習データ作成処理では、撮像画像から輪郭線Rを識別するために必要な適正なパラメータ(後述)を取得するために、表示装置125に表示された撮像画像に基づいてオペレータが輪郭線Rを視覚的に認識して、当該輪郭線上の任意の複数箇所(この例では6個)を誤差測定点Gとして操作パネル124から、例えばカーソル操作等により位置指定して入力し、画像解析装置10では、入力された誤差測定点Gの撮像画像エリア内の位置座標をRAM123に記憶する。
Next, the error measurement point G is input by the operator, and the error measurement point input unit 40 performs a process of recording the position in the image designated by the input operation (step S2).
FIG. 5 shows a captured image captured by the CCD camera 108. An outermost rectangular area A1 indicates the range of the captured image, and H indicates a captured solder pattern.
Since the surface of the solder is uniformly covered with a granular pattern peculiar to the solder, at the time of mounting an electronic component, the characteristic amount of the pattern is obtained to identify the background, and the boundary line between the solder pattern H and the background The contour line R is obtained and an electronic component is mounted. In this learning data creation process, the operator sets the contour R based on the captured image displayed on the display device 125 in order to acquire appropriate parameters (described later) necessary for identifying the contour R from the captured image. By visually recognizing and inputting a plurality of arbitrary locations (six in this example) on the contour line as error measurement points G from the operation panel 124 by, for example, specifying a position by a cursor operation or the like, the image analysis apparatus 10 The position coordinates in the captured image area of the input error measurement point G are stored in the RAM 123.

次に、オペレータによる半田の模様の特徴量を取得するための模様領域A2の入力が行われ、特徴量抽出部50は、その入力操作により指定された領域の位置及び範囲を記録する処理を行う(ステップS3)。
この模様領域A2は、大きさに制限はないが、後述する8×8画素の単位領域A3が少なくとも30個程度得られる範囲とすることがより望ましく、また、模様領域A2の領域内に半田以外の部分が含まれないことが要求される。
即ち、前述した誤差測定点Gの入力と同様に、表示装置125に表示された撮像画像に基づいてオペレータが、操作パネル124から、例えばカーソル操作等により指定範囲の四隅を位置指定して入力することで模様領域A2を指定入力し、画像解析装置10では、入力された模様領域A2の撮像画像エリア内の位置及び範囲を示す座標をRAM123に記憶する。
Next, the pattern area A2 for acquiring the feature quantity of the solder pattern is input by the operator, and the feature quantity extraction unit 50 performs a process of recording the position and range of the area designated by the input operation. (Step S3).
The size of the pattern area A2 is not limited, but it is more preferable that the pattern area A2 has at least about 30 unit areas A3 of 8 × 8 pixels to be described later. Is not included.
That is, similarly to the input of the error measurement point G described above, based on the captured image displayed on the display device 125, the operator specifies and inputs the four corners of the specified range from the operation panel 124 by, for example, a cursor operation or the like. Thus, the pattern area A2 is designated and input, and the image analysis apparatus 10 stores the coordinates indicating the position and range of the input pattern area A2 in the captured image area in the RAM 123.

次に、特徴量抽出部50は、入力された模様領域A2からテクスチャ模様の画像特徴量を取得する処理を行う(ステップS4:基準特徴量取得工程)。この処理では、特徴量抽出部50は「基準特徴量取得手段」として機能することとなる。
テクスチャ模様の画像特徴量の取得には同時生起行列が使用される。同時生起行列とは,テクスチャ特徴量のうち統計的なテクスチャ特徴の計算方法の一つであり,以下に定義される同時生起行列から画像の空間的模様の一つであるコントラストや局所一様性等14種の要素について特徴量を求めることができる。
Next, the feature amount extraction unit 50 performs a process of acquiring the image feature amount of the texture pattern from the input pattern region A2 (step S4: reference feature amount acquisition step). In this process, the feature quantity extraction unit 50 functions as a “reference feature quantity acquisition unit”.
A co-occurrence matrix is used to acquire the image feature quantity of the texture pattern. The co-occurrence matrix is one of the statistical texture feature calculation methods among the texture features. Contrast and local uniformity that is one of the spatial patterns of the image from the co-occurrence matrix defined below. The feature amount can be obtained for 14 types of elements.

まず、同時生起行列を生成するために、図6(A)に示すように、前述した模様領域A2を水平方向分割線LHと垂直方向分割線LVで分割し、8×8画素の正方形の単位領域A3を切り出す処理を行う。前述したように、分割により得られる単位領域A3の数は30個程度(図では48個)あれば足りる。後述するが、各単位領域A3に基づく特徴量は平均化され、標準偏差が求められるので、統計学的に十分な数として30個(図では48個)の単位領域A3を用意している。
そして、各単位領域A3について個々に同時生起行列が生成される。
図7(A)に示した8×8の単位画像A3を例にして説明すると、図7(B)に示すように、画像の輝度値i(32階調とする:i=0〜31)の画素から角度θの方向に長さrの変位δ=(r,θ)だけ離れた画素の輝度値がjである確率Pδ(i,j)を要素とする図7(C)に示す行列が同時生起行列である。なお、本実施形態では、i行j列の要素に前述した変位で輝度値iの画素に対して輝度値がjとなる画素の個体数が入力されている。なお、本実施形態では、変位についてr=1で角度θ=0°とθ=180°の双方向について一つの同時生起行列を生成している。また、同様にして、θ=45(225),90(270),135(315)の同時生起行列も生成される。
First, in order to generate a co-occurrence matrix, as shown in FIG. 6A, the pattern area A2 described above is divided by a horizontal direction dividing line LH and a vertical direction dividing line LV, and a square unit of 8 × 8 pixels is obtained. A process of cutting out the area A3 is performed. As described above, the number of unit areas A3 obtained by the division is about 30 (48 in the figure). As will be described later, since the feature quantities based on each unit area A3 are averaged and the standard deviation is obtained, 30 (48 in the figure) unit areas A3 are prepared as statistically sufficient numbers.
Then, a co-occurrence matrix is generated individually for each unit region A3.
The 8 × 8 unit image A3 shown in FIG. 7A will be described as an example. As shown in FIG. 7B, the luminance value i of the image (32 gradations: i = 0 to 31). A matrix shown in FIG. 7C having a probability Pδ (i, j) of a pixel whose luminance value is j, which is separated by a displacement δ = (r, θ) of length r in the direction of angle θ from the pixel of FIG. Is the co-occurrence matrix. In the present embodiment, the number of individual pixels whose luminance value is j with respect to the pixel having the luminance value i with the above-described displacement is input to the element of i rows and j columns. In the present embodiment, one co-occurrence matrix is generated for both directions of displacement r = 1 and angles θ = 0 ° and θ = 180 °. Similarly, co-occurrence matrices of θ = 45 (225), 90 (270), and 135 (315) are also generated.

そして、各単位領域A3の同時生起行列について、次式(1)〜(14)の計算式により14種類の特徴量fi(i=1〜14)が算出される。なお、fi値は実数である。例えばf1=角二次モーメント、f2=コントラスト、f3=エントロピーなどである。fi値がテクスチャ模様を区別する能力を持つことは公知である。これらのテクスチャ特徴量が示す意義については、「新編,画像解析ハンドブック,高木幹雄・下田陽久監修」に詳しく説明されているのでここでは説明書を省略する。   Then, for the co-occurrence matrix of each unit region A3, 14 types of feature quantities fi (i = 1 to 14) are calculated by the following formulas (1) to (14). The fi value is a real number. For example, f1 = angular second moment, f2 = contrast, f3 = entropy, etc. It is well known that the fi value has the ability to distinguish texture patterns. The significance of these texture features is explained in detail in “New Edition, Image Analysis Handbook, Supervised by Mikio Takagi / Yoshihisa Shimoda”, so the description is omitted here.

Figure 2011043998
Figure 2011043998
なお、各式において、n=31(最大輝度値)であり、また、次式(15)〜(18)の通り定義されるものとする。
Figure 2011043998
Figure 2011043998
Figure 2011043998
In each equation, n = 31 (maximum luminance value) and is defined as the following equations (15) to (18).
Figure 2011043998

上記処理により、全ての単位領域A3について特徴量fi値(i=1〜14)が得られると、特徴量の種類ごとに(iの値ごとに)全単位領域A3の平均値μiと標準偏差σiを算出し、これらを模様領域A2の特徴量として学習fi値としてRAM123又はEEPRO126に記憶する。なお、模様領域A2の特徴量fiは一般に図8に示すように正規分布に従うものと考えられる。   When the feature value fi value (i = 1 to 14) is obtained for all the unit regions A3 by the above processing, the average value μi and the standard deviation of all the unit regions A3 for each type of feature value (for each value of i). σ i is calculated and stored in the RAM 123 or the EEPROM 126 as a learning fi value as a feature amount of the pattern area A2. The feature amount fi of the pattern area A2 is generally considered to follow a normal distribution as shown in FIG.

次に、特徴量合成部60は、特徴量の合成パラメータを初期化する(ステップS5)。
前述した各式(1)〜(14)ごとの各種の特徴量fiは、後の処理において、模様領域以外の他の画像の単位領域について同様に算出された特徴量との一致度Eが求められることとなり、その際、各種の特徴量ごと(iごと)に求められた一致度Eが個々に重み付けされて合成される。合成パラメータは、各種の特徴量ごとの一致度Eに対して重み付けとして乗じる係数wi(i=1〜14)の組み合わせパターンを示すものである。
合成パラメータは、w1+w2+w3+…+w14=1となるように規定されており、合成パラメータの初期化の際には、w1=1とする。つまり、その他のw2,w3,w4,…についてはいずれも0とする。つまり、特徴量f1に関する一致度Eのみが求められることとなる。
Next, the feature quantity synthesis unit 60 initializes a synthesis parameter for the feature quantity (step S5).
The various feature quantities fi for each of the formulas (1) to (14) described above are obtained by the degree of coincidence E with the feature quantities calculated in the same way for the unit areas of the image other than the pattern area in the subsequent processing. In this case, the degree of coincidence E obtained for each of various feature amounts (for each i) is individually weighted and synthesized. The synthesis parameter indicates a combination pattern of coefficients wi (i = 1 to 14) for multiplying the matching degree E for each feature amount as a weight.
The synthesis parameter is defined to be w1 + w2 + w3 +... + W14 = 1, and when the synthesis parameter is initialized, w1 = 1. That is, all the other w2, w3, w4,. That is, only the degree of coincidence E regarding the feature amount f1 is obtained.

次に、入力画像5に半田全体を包み込む新たな抽出領域A4を設定する。
特徴量合成部60は、上記合成パラメータに基づいて半田の模様か否かを識別し、半田パターンの輪郭線を形成するために、オペレータによる半田全体を包み込む新たな抽出領域A4の入力が行われ、特徴量合成部60は、その入力操作により指定された領域の位置及び範囲を記録する処理を行う(ステップS6)。
この抽出領域A4は、半田パターンを含む範囲であれば大きさに制限はないが、図5に示すように、前述した全ての誤差測定点Gを含む範囲とすることが要求され、さらには、半田パターンを取り囲むことができる範囲が望ましい。入力方法は前述した模様領域A2の場合と同様である。
Next, a new extraction area A4 that wraps the entire solder in the input image 5 is set.
The feature amount synthesizing unit 60 identifies whether or not the pattern is a solder pattern based on the above synthesis parameter, and in order to form the outline of the solder pattern, the operator inputs a new extraction area A4 that wraps the entire solder. The feature amount synthesis unit 60 performs processing for recording the position and range of the region designated by the input operation (step S6).
The extraction area A4 is not limited in size as long as it includes a solder pattern, but as shown in FIG. 5, it is required to have a range including all the error measurement points G described above. A range that can surround the solder pattern is desirable. The input method is the same as that in the case of the pattern area A2.

さらに、特徴量合成部60は、図6(B)で示すように、抽出領域A4を模様領域A2の場合と同じ8×8画素の単位領域A5で分割する(ステップS7:比較特徴量取得工程)。
そして、抽出領域A4の各単位領域A5ごとに前述した14の式から求まる特徴量fiを算出する。このとき、合成パラメータの中でwi(i=1〜14)≠0となるものから特徴量を算出する。なお、このとき、特徴量合成部60は、「比較特徴量取得手段」として機能することとなる。
Furthermore, as shown in FIG. 6B, the feature amount synthesis unit 60 divides the extraction region A4 into the same 8 × 8 pixel unit region A5 as in the case of the pattern region A2 (step S7: comparison feature amount acquisition step). ).
And the feature-value fi calculated | required from 14 type | formula mentioned above for every unit area | region A5 of extraction area | region A4 is calculated. At this time, the feature amount is calculated from the combination parameters in which wi (i = 1 to 14) ≠ 0. At this time, the feature quantity synthesis unit 60 functions as a “comparison feature quantity acquisition unit”.

次に、特徴量合成部60は、抽出領域A4の各単位領域A5と模様領域A2の領域A3の学習fi値との一致度Eを算出する(ステップS8:一致度取得工程)。
即ち、各単位領域A5ごとに各特徴量fiについて対応する学習fi値の平均値μiとの誤差δiを計算する。そして、各単位領域A5の個々の特徴量fiについて一致度eiを算出する。
各一致度eiの算出については、図9に示す関数evalを用いる。この関数evalは、縦軸が最大値1とする一致度eiであり、横軸が誤差δiである。そして、この関数evalは単調減少であれば足り、その傾きの変化については任意である。つまり、単調減少となる直線でも良いが、ここでは、一致度が0と1に近づくにつれて傾きが0に近くなり、中間で傾きが最大となる曲線を採用している。即ち、eiの値は0≦ei≦1であり、ei=1(δi=0)、ei=0(δi≧βσi)、中間は単調減少である。σiは学習fi値の標準偏差、βは特徴量fi値と学習fi値の平均値μiとの誤差δiを評価する係数であり、βを大きくすればするほど対象模様であるとみなされやすくなる。
本実施例では例えばβ=1.5とする。
これにより、各単位領域A5の各特徴量fiについて一致度eiを算出する。そして、合成パラメータの各係数wiに従って、各eiに乗算し合計して、各単位領域A5ごとに一致度Eを算出する。
なお、このとき、特徴量合成部60は「一致度取得手段」として機能する。
Next, the feature amount synthesizing unit 60 calculates the degree of coincidence E between each unit area A5 of the extraction area A4 and the learning fi value of the area A3 of the pattern area A2 (step S8: coincidence degree acquisition step).
That is, for each unit area A5, an error δi with respect to the average value μi of the corresponding learning fi values for each feature amount fi is calculated. Then, the degree of coincidence ei is calculated for each feature amount fi of each unit region A5.
For the calculation of the degree of coincidence ei, the function eval shown in FIG. 9 is used. In this function eval, the vertical axis represents the degree of coincidence ei with the maximum value 1, and the horizontal axis represents the error δi. The function eval only needs to be monotonously decreased, and the change in the slope is arbitrary. In other words, a straight line that decreases monotonously may be used, but here, a curve is adopted in which the slope approaches 0 and the slope becomes maximum in the middle as the degree of coincidence approaches 0 and 1. That is, the value of ei is 0 ≦ ei ≦ 1, ei = 1 (δi = 0), ei = 0 (δi ≧ βσi), and the middle is monotonously decreasing. .sigma.i is a standard deviation of the learning fi value, .beta. is a coefficient for evaluating an error .delta.i between the feature value fi value and the average value .mu.i of the learning fi value, and the larger .beta. .
In this embodiment, for example, β = 1.5.
Thereby, the degree of coincidence ei is calculated for each feature amount fi of each unit region A5. Then, according to each coefficient wi of the synthesis parameter, each ei is multiplied and summed, and the degree of coincidence E is calculated for each unit region A5.
At this time, the feature amount synthesis unit 60 functions as a “matching degree acquisition unit”.

次に、特徴量合成部60は、抽出領域A4の各単位領域A5の一致度Eに基づいて、当該各単位領域A5が半田か否かを判定する(ステップS9:判定工程)。
かかる判定は、予め一致度の閾値Cを用意しておき、各単位領域の一致度Eが閾値以上か否かで行う。即ち、Eが閾値C以上なら半田とし、そうでなければ背景とする。
なお、閾値Cの値は適当(試験等で求めるなど)で良いが、ここでは例えばC=0.8とする。
なお、このとき、特徴量合成部60は「判定手段」として機能する。
Next, the feature amount synthesis unit 60 determines whether or not each unit region A5 is solder based on the matching degree E of each unit region A5 of the extraction region A4 (step S9: determination step).
Such a determination is made based on whether or not the degree of coincidence E of each unit region is equal to or greater than the threshold by preparing a threshold C of the degree of coincidence in advance. That is, if E is greater than or equal to the threshold value C, solder is used.
Note that the value of the threshold C may be appropriate (determined by a test or the like), but here, for example, C = 0.8.
At this time, the feature amount combining unit 60 functions as a “determination unit”.

上記抽出領域A4の各単位領域A5の一致度Eの判定結果に従って、図10に示すように、単位領域A5をひとつの単位とする半田と背景に識別された‘2値画像’(1=半田、0=背景)を得ることができる(半田である単位領域A5は網掛けで図示)。
これに対して、誤差検出部70は、半田とされた単位領域A5の内で背景とされた単位領域A5に隣接するものの中心を線でつないで半田パターンの輪郭線RAを生成する(ステップS10:境界線取得工程)。
なお、このとき、誤差検出部70は「境界線取得手段」として機能する。
As shown in FIG. 10, according to the determination result of the degree of coincidence E of each unit area A5 of the extraction area A4, as shown in FIG. 10, the “binary image” (1 = solder) identified as the solder and the background having the unit area A5 as one unit. , 0 = background) can be obtained (unit area A5 which is solder is shown by shading).
On the other hand, the error detection unit 70 generates a solder pattern outline RA by connecting the centers of the unit areas A5 that are the background and adjacent to the unit area A5 that is the solder (step S10). : Boundary line acquisition step).
At this time, the error detection unit 70 functions as “boundary line acquisition means”.

そして、誤差検出部70は、実際の輪郭線Rに対する生成輪郭線RAの誤差Dを検出する(ステップS11:誤差検出工程)。
実際の輪郭線Rと生成輪郭線RAとを重ねて図11に示す。誤差DはステップS2で登録した誤差測定点Gに基づいて算出する。即ち、生成輪郭線RAに対して各誤差測定点Gからの最短距離d(画素距離)を算出する。これにより得られた最短距離をd1,d2,・・・とすると誤差D=max{d1,d2,・・・}により取得する。
なお、このとき、誤差検出部70は「誤差検出手段」として機能する。
Then, the error detection unit 70 detects the error D of the generated contour RA with respect to the actual contour R (step S11: error detection step).
The actual contour line R and the generated contour line RA are superimposed and shown in FIG. The error D is calculated based on the error measurement point G registered in step S2. That is, the shortest distance d (pixel distance) from each error measurement point G is calculated for the generated contour line RA. Assuming that the shortest distance obtained by this is d1, d2,..., The error D = max {d1, d2,.
At this time, the error detection unit 70 functions as “error detection means”.

次に、誤差検出部70は、誤差Dを予め設定された基準値αと比較し(ステップS12)、基準値αを超えている場合には、現在の合成パラメータの設定が半田を背景と識別するために適正な一致度を導き出すことが可能であるものとして、処理を終了する。このように、基準値αは、合成パラメータの適否を判定するために重要な値であり、これを大きく設定すれば、適正とされる合成パラメータを容易に取得可能となるが、半田パターンの識別精度は低下する。また、基準値αを小さく設定すれば、適正とされる合成パラメータは容易には求まらなくなるが、半田パターンの識別精度は向上する。従って、試験などにより目的に応じて適切な値に設定する必要がある。   Next, the error detection unit 70 compares the error D with a preset reference value α (step S12). If the error detection unit 70 exceeds the reference value α, the current synthesis parameter setting identifies the solder as the background. Therefore, it is assumed that an appropriate degree of coincidence can be derived. As described above, the reference value α is an important value for determining the suitability of the synthesis parameter. If this value is set to a large value, the appropriate synthesis parameter can be easily obtained. Accuracy is reduced. If the reference value α is set to a small value, an appropriate synthesis parameter cannot be easily obtained, but the solder pattern identification accuracy is improved. Therefore, it is necessary to set an appropriate value according to the purpose by a test or the like.

一方、ステップS12の判定において、誤差Dが基準値α以下の場合には、現在の合成パラメータの設定は適正ではないものとして、合成パラメータの設定を変更する(ステップS13)。
すなわち特徴量fi値に対する一致度の係数wiを、それぞれ独立に変更する。例えば、各特徴量fi値に対する一致度の係数wiを0,0.2,0.4,0.6,0.8,1.0の0.2刻みで6段階に変更する(より細かく分けても良い)。なお、前述したように係数wi全体で正規化しておく。本実施形態ではパラメータは積空間w1×w2×・・・全体で変化させる。
そして、新たな合成パラメータが定まると、ステップS8に処理を戻して、新たに抽出領域A4の各単位領域A5の一致度Eを求めなおし、半田とされる単位領域A5を求め、それらから輪郭線RAを生成し、誤差Dを基準値αと比較する処理をリトライする。
これにより、誤差Dが基準値α以下となる合成パラメータが見つかるまで処理を繰り返すこととなる。
また、ステップS12で誤差Dが基準値α以下となった場合には、そのときの合成パラメータの各係数wiの数値の組み合わせ(例えばw6=0.5、w8=0.5、その他のw=0等のような数値群)を学習データ(学習合成パラメータ)として記録する。
これにより、学習データ作成処理が終了する。
On the other hand, if it is determined in step S12 that the error D is equal to or less than the reference value α, it is determined that the current synthesis parameter setting is not appropriate and the synthesis parameter setting is changed (step S13).
That is, the coefficient of coincidence wi with respect to the feature value fi is changed independently. For example, the coefficient of coincidence wi for each feature value fi is changed in 6 steps in increments of 0.2, 0, 0.2, 0.4, 0.6, 0.8, and 1.0 (may be divided more finely). As described above, the entire coefficient wi is normalized. In the present embodiment, the parameters are changed throughout the product space w1 × w2 ×.
When a new synthesis parameter is determined, the process returns to step S8, the degree of coincidence E of each unit area A5 of the extraction area A4 is newly obtained, the unit area A5 to be soldered is obtained, and the contour line is obtained therefrom. A process of generating RA and comparing the error D with the reference value α is retried.
As a result, the process is repeated until a synthesis parameter in which the error D is equal to or less than the reference value α is found.
Further, when the error D becomes equal to or smaller than the reference value α in step S12, combinations of numerical values of the coefficients wi of the synthesis parameter at that time (for example, w6 = 0.5, w8 = 0.5, other w = 0, etc.) (A numerical value group) is recorded as learning data (learning synthesis parameter).
Thereby, the learning data creation process ends.

(電子部品搭載時の処理)
次に、電子部品の搭載時に行われる処理について説明する。
前述した吸着ノズル106に電子部品が吸着され、ヘッド105が基板の搭載位置近傍まで移動した状態において、CCDカメラ108により基板の搭載位置の撮像が実行され、撮像画像データが取得される。
そして、特徴量合成部60により、撮像画像の一部(例えば中央部)が抽出領域として切り出され、前述したステップS7〜10と同様の処理が実行される。
即ち、撮像画像の抽出領域が単位領域に分割され、一致度eiの係数wi=0ではないiについての特徴量が算出され、学習データ作成処理に取得された合成パラメータに従って各単位領域の半田との一致度が算出される。そして、半田であると判定された単位領域に基づいて輪郭線を算出する。当該輪郭線に囲まれた領域が搭載位置の半田パターンであることから、吸着ノズル106を輪郭線に囲まれた位置に位置決めするようにヘッド105を移動して、電子部品の搭載が実行される。
(Processing when mounting electronic components)
Next, a process performed when the electronic component is mounted will be described.
In a state where the electronic component is sucked by the suction nozzle 106 described above and the head 105 is moved to the vicinity of the substrate mounting position, the CCD camera 108 performs imaging of the substrate mounting position, and acquires captured image data.
Then, the feature amount synthesizing unit 60 cuts out a part of the captured image (for example, the central part) as an extraction region, and executes the same processing as in steps S7 to S10 described above.
That is, the extracted region of the captured image is divided into unit regions, the feature amount for i that is not the coefficient wi = 0 of the matching degree ei is calculated, and the solder of each unit region is determined according to the synthesis parameter acquired in the learning data creation process. The degree of coincidence of is calculated. Then, a contour line is calculated based on the unit region determined to be solder. Since the area surrounded by the contour line is the solder pattern at the mounting position, the head 105 is moved so as to position the suction nozzle 106 at the position surrounded by the contour line, and mounting of the electronic component is executed. .

(実施形態の効果)
上記画像解析装置10では、撮像画像データ中の半田Hの模様領域A2から同時生起行列の14式により特徴量を取得し且つ合成し、特徴量が一致する単位領域A5から半田H識別対象の背景との境界線を求め、実際の境界位置との誤差が小さくなるようにリトライを繰り返すことで特徴量の一致度に関する重み付けパターンを特定する。このため、半田Hの固有の模様に基づく特徴量から当該半田Hを識別することとなり、背景との明度差の有無にかかわらず、効果的に識別対象を識別することが可能となる。
このため、例えば図12に示すように、半田Hと当該半田と模様の異なる基板K、配線パターンN、パッドUが撮像領域A1内に存在する状態でも、半田形状を示す輪郭線RAを的確に識別することができる。
(Effect of embodiment)
In the image analysis apparatus 10, the feature amount is acquired and synthesized from the pattern region A2 of the solder H in the captured image data by the equation 14 of the co-occurrence matrix, and the background of the solder H identification target from the unit region A5 having the matching feature amount. And a retry pattern is repeated so as to reduce the error from the actual boundary position, thereby specifying a weighting pattern related to the matching degree of the feature amount. For this reason, the solder H is identified from the feature amount based on the unique pattern of the solder H, and the identification target can be effectively identified regardless of the presence or absence of the brightness difference from the background.
For this reason, for example, as shown in FIG. 12, even if the solder H and the substrate K, the wiring pattern N, and the pad U having a different pattern from the solder are present in the imaging region A1, the outline RA indicating the solder shape is accurately obtained. Can be identified.

また、テクスチャ模様に関する同時生起行列の14式に関する好適な合成パラメータを特定するので、各手法の識別精度の偏りの影響を排除し、より正確な識別を実現することが可能となる。
テクスチャ模様の特徴量を得るための手法として確立されている同時生起行列の14の特徴量の算出方法を用いるので、種々の模様の識別対象をより効果的に識別することが可能となる。
In addition, since a suitable synthesis parameter related to the 14 equations of the co-occurrence matrix related to the texture pattern is specified, it is possible to eliminate the influence of the bias in the identification accuracy of each method and realize more accurate identification.
Since the 14 feature quantity calculation method of the co-occurrence matrix established as a technique for obtaining the texture pattern feature quantity is used, it becomes possible to more effectively identify the identification target of various patterns.

(その他)
上述した画像解析装置10では、半田模様の特徴量の算出として同時生起行列由来の手法を使ったが、模様を特徴づけることが可能な他の手法を用いても良いし、同時生起行列の手法と他の手法とを組み合わせて用いても良い。例えば、模様の解析の手法としては、例えば領域画像をフーリエ変換して得られた周波数、濃度ヒストグラム,ランレングス行列,フラクタル次元を用いても良い。
その場合も上記実施形態と同様の効果を得ることが可能である。
(Other)
In the image analysis apparatus 10 described above, the method derived from the co-occurrence matrix is used for calculating the feature amount of the solder pattern. However, another method capable of characterizing the pattern may be used, or the method of the co-occurrence matrix. And other methods may be used in combination. For example, as a pattern analysis technique, for example, a frequency, density histogram, run length matrix, and fractal dimension obtained by Fourier transform of an area image may be used.
Even in that case, it is possible to obtain the same effect as the above-described embodiment.

また、上述した画像解析装置10では、学習データ作成処理において、模様領域A2のみを利用し、半田の背景領域の画像情報を使用していないが、使用することも可能である。その場合、例えば誤差測定点ごとに背景から単位領域A6(図5参照)を切り出し、その単位領域A6からfi値を求める。それにより模様領域A2のfi値と比較することにより、例えば、fi値同士の開きが大きいものとそうでないfi値に分けることができる。その結果、重みとなる係数wiの積空間全域で回す必要がなくなり、繰り返し回数を低減し、迅速に適正な合成パラメータを取得することが可能となり得る。   In the image analysis apparatus 10 described above, only the pattern area A2 is used in the learning data creation process, and the image information of the solder background area is not used, but it is also possible to use it. In that case, for example, the unit area A6 (see FIG. 5) is cut out from the background for each error measurement point, and the fi value is obtained from the unit area A6. Accordingly, by comparing with the fi value of the pattern area A2, for example, the fi values can be divided into those having a large opening and those not having so. As a result, it is not necessary to rotate the entire product space of the coefficient wi serving as a weight, and it is possible to reduce the number of repetitions and quickly acquire an appropriate synthesis parameter.

また、上述した画像解析装置10では、学習データ作成処理において、ステップ12のリトライの判定において、誤差Dに対する基準値αとの比較により判定を行って終了条件としたが、誤差Dを表示装置125に表示し、オペレータがリトライを実行するか判断するようにしても良い。その場合も上記実施形態と同様の効果を得ることが可能である。   In the image analysis device 10 described above, in the learning data creation process, in the retry determination in step 12, the end condition is determined by comparing the error D with the reference value α, but the error D is displayed on the display device 125. And the operator may determine whether to retry. Even in that case, it is possible to obtain the same effect as the above-described embodiment.

また、上述した画像解析装置10では、学習データ作成処理において、ステップ12のリトライの判定において、誤差Dが基準値αを下回ることで処理の終了条件としたが、これに限らず、繰り返しに規定回数を設け、規定回数内で誤差が最小となる合成パラメータを学習データとしても良い。その場合も上記実施形態とほぼ同様の効果を得ることが可能であって、さらに、処理の迅速化を図ることが可能である。   In the image analysis apparatus 10 described above, in the learning data creation process, the retry condition in step 12 is set as the process termination condition when the error D falls below the reference value α. The number of times may be set, and the synthesis parameter that minimizes the error within the specified number may be used as the learning data. Even in this case, it is possible to obtain substantially the same effect as in the above-described embodiment, and it is possible to further speed up the processing.

また、誤差測定点Gは、前述した6点に限られるものではない。最少で1個でもよく、また、より多くしても良い。その場合も上記実施形態と同様の効果を得ることが可能である。
また、前述の誤差Dの対象として輪郭線RAとRとの最短距離dを使ったが、他のものでも良い。例えば、誤差測定点Gの数をより多く設定して半田領域同士で面積や重心を求めて比較するようにしても良い。その場合も上記実施形態と同様の効果を得ることが可能である。
Further, the error measurement points G are not limited to the six points described above. It may be at least one or more. Even in that case, it is possible to obtain the same effect as the above-described embodiment.
Further, although the shortest distance d between the contour lines RA and R is used as the target of the error D described above, other objects may be used. For example, the number of error measurement points G may be set to be larger, and the areas and centroids may be obtained and compared between the solder regions. Even in that case, it is possible to obtain the same effect as the above-described embodiment.

10 画像解析装置
11 主制御部
20 画像入力部
30 画像分割部
40 誤差測定点入力部
50 特徴量抽出部
60 特徴量合成部
70 誤差検出部
100 電子部品搭載装置
120 制御装置
A1 撮像画像
A2 模様領域
A3 単位領域
A4 抽出領域
A5 単位領域
G 誤差測定点(境界点)
H 半田パターン(識別対象)
DESCRIPTION OF SYMBOLS 10 Image analysis apparatus 11 Main control part 20 Image input part 30 Image division part 40 Error measurement point input part 50 Feature quantity extraction part 60 Feature quantity synthetic | combination part 70 Error detection part 100 Electronic component mounting apparatus 120 Control apparatus A1 Captured image A2 Pattern area | region A3 Unit area A4 Extraction area A5 Unit area G Error measurement point (boundary point)
H Solder pattern (identification target)

Claims (4)

表面が特定の模様からなる識別対象とその周囲の背景とを含んだ撮像画像の撮像画像データに基づいて前記識別対象の識別を行う画像解析装置が行う画像解析方法であって、
前記撮像画像中の予め指定された前記特定の模様のみからなる模様領域における所定の単位領域について複数の手法により基準となるテクスチャ模様の特徴量を求める基準特徴量取得工程と、
前記撮像画像中の少なくとも前記模様領域及びその周囲の背景を含んだ抽出領域を、前記模様領域の単位領域と同じ大きさの単位領域に分割し、当該各単位領域について前記各手法により特徴量を求める比較特徴量取得工程と、
前記抽出領域の各単位領域について、前記各手法の特徴量ごとに前記模様領域との一致度を求め、前記各手法の特徴量ごとの一致度を個々に重み付けをして合成した一致度を求める一致度取得工程と、
前記合成された一致度の値から前記抽出領域の各単位領域が識別対象か背景かを判定する判定工程と、
前記判別工程で識別対象と判別された複数の単位領域から前記抽出領域における識別対象と背景の境界線を求める境界線取得工程と、
予め指定された前記撮像画像における実際の境界線上の位置と前記境界線取得工程で取得された境界線との誤差を検出する誤差検出工程と、
を備え、
前記各手法の特徴量ごとの一致度に対する重み付けのパターンを逐次変更しつつ前記一致度取得工程、判定工程、境界線取得工程及び誤差検出工程を繰り返すことで前記誤差が閾値以下又は最少となる重み付けのパターンを特定し、
前記取得された重み付けパターンに従って撮像画像から前記識別対象を識別することを特徴とする画像解析方法。
An image analysis method performed by an image analysis apparatus that identifies an identification target based on captured image data of a captured image including an identification target having a specific pattern on a surface and a background around the identification target,
A reference feature amount acquisition step for obtaining a feature amount of a texture pattern as a reference by a plurality of methods for a predetermined unit region in a pattern region including only the specific pattern specified in advance in the captured image;
The extracted area including at least the pattern area and the surrounding background in the captured image is divided into unit areas having the same size as the unit area of the pattern area, and the feature amount is determined for each unit area by the respective methods. A comparison feature amount obtaining step to be obtained;
For each unit area of the extraction area, the degree of coincidence with the pattern area is obtained for each feature amount of each method, and the degree of coincidence obtained by weighting the degree of coincidence for each feature amount of each method is obtained. A matching degree acquisition process;
A determination step of determining whether each unit area of the extraction area is an identification target or a background from the synthesized matching value;
A boundary line acquisition step for obtaining a boundary line between the identification target and the background in the extraction region from the plurality of unit regions determined as the identification target in the determination step;
An error detection step of detecting an error between a position on an actual boundary line in the captured image designated in advance and the boundary line acquired in the boundary line acquisition step;
With
Weighting that makes the error equal to or less than a threshold by repeating the matching degree acquisition step, determination step, boundary line acquisition step, and error detection step while sequentially changing the weighting pattern for the matching degree for each feature amount of each method. Identify patterns of
An image analysis method, wherein the identification target is identified from a captured image in accordance with the acquired weighting pattern.
前記特徴量を求める複数の手法は、同時生起行列の14の特徴量の算出方法の一部又は全部を用いることを特徴とする請求項1記載の画像解析方法。   The image analysis method according to claim 1, wherein the plurality of methods for obtaining the feature amount use a part or all of the 14 feature amount calculation methods of the co-occurrence matrix. 表面が特定の模様からなる識別対象とその周囲の背景とを含んだ撮像画像の撮像画像データに基づいて前記識別対象の識別を行う画像解析装置であって、
前記撮像画像中の予め指定された前記特定の模様のみからなる模様領域における所定の単位領域について複数の手法により基準となるテクスチャ模様の特徴量を求める基準特徴量取得手段と、
前記撮像画像中の少なくとも前記模様領域及びその周囲の背景を含んだ抽出領域を、前記模様領域の単位領域と同じ大きさの単位領域に分割し、当該各単位領域について前記各手法により特徴量を求める比較特徴量取得手段と、
前記抽出領域の各単位領域について、前記各手法の特徴量ごとに前記模様領域との一致度を求め、前記各手法の特徴量ごとの一致度を個々に重み付けをして合成した一致度を求める一致度取得手段と、
前記合成された一致度の値から前記抽出領域の各単位領域が識別対象か背景かを判定する判定手段と、
前記判別手段により識別対象と判別された複数の単位領域から前記抽出領域における識別対象と背景の境界線を求める境界線取得手段と、
予め指定された前記撮像画像における実際の境界線上の位置と前記境界線取得手段で取得された境界線との誤差を検出する誤差検出手段と、
を備え、
前記各手法の特徴量ごとの一致度に対する重み付けのパターンを逐次変更しつつ前記一致度取得手段により一致度の取得、前記判定手段により判定、前記境界線取得手段よる前記境界線の取得及び誤差検出手段による誤差検出を繰り返すことで前記誤差が閾値以下又は最少となる重み付けのパターンを特定し、
前記取得された重み付けパターンに従って撮像画像から前記識別対象を識別することを特徴とする画像解析装置。
An image analysis apparatus for identifying the identification target based on captured image data of a captured image including an identification target having a specific pattern on a surface and a background around the identification target,
A reference feature amount obtaining unit for obtaining a feature amount of a texture pattern serving as a reference by a plurality of methods for a predetermined unit region in a pattern region including only the specific pattern specified in advance in the captured image;
The extracted area including at least the pattern area and the surrounding background in the captured image is divided into unit areas having the same size as the unit area of the pattern area, and the feature amount is determined for each unit area by the respective methods. A comparison feature amount obtaining means to be obtained;
For each unit area of the extraction area, the degree of coincidence with the pattern area is obtained for each feature amount of each method, and the degree of coincidence obtained by weighting the degree of coincidence for each feature amount of each method is obtained. A matching degree acquisition means;
A determination means for determining whether each unit area of the extraction area is an identification target or a background from the synthesized matching value;
Boundary line acquisition means for obtaining a boundary line between the identification object and the background in the extraction area from the plurality of unit areas determined as the identification object by the determination means;
Error detection means for detecting an error between a position on an actual boundary line in the captured image designated in advance and the boundary line acquired by the boundary line acquisition means;
With
The matching degree is acquired by the matching degree acquisition unit, the determination is performed by the determination unit, the boundary line is acquired by the boundary line acquisition unit, and the error is detected while sequentially changing the weighting pattern for the matching degree for each feature amount of each method. By repeating the error detection by the means, the weighting pattern in which the error is less than or equal to the threshold value is minimized,
An image analysis apparatus for identifying the identification target from a captured image according to the acquired weighting pattern.
前記特徴量を求める複数の手法は、同時生起行列の14の特徴量の算出方法の一部又は全部を用いることを特徴とする請求項3記載の画像解析装置。   The image analysis apparatus according to claim 3, wherein the plurality of methods for obtaining the feature amount use a part or all of the 14 feature amount calculation methods of the co-occurrence matrix.
JP2009191904A 2009-08-21 2009-08-21 Method and apparatus for analyzing image Pending JP2011043998A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009191904A JP2011043998A (en) 2009-08-21 2009-08-21 Method and apparatus for analyzing image
CN2010102631700A CN101996404A (en) 2009-08-21 2010-08-20 Image analysis method and image analysis device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009191904A JP2011043998A (en) 2009-08-21 2009-08-21 Method and apparatus for analyzing image

Publications (1)

Publication Number Publication Date
JP2011043998A true JP2011043998A (en) 2011-03-03

Family

ID=43786523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009191904A Pending JP2011043998A (en) 2009-08-21 2009-08-21 Method and apparatus for analyzing image

Country Status (2)

Country Link
JP (1) JP2011043998A (en)
CN (1) CN101996404A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013020600A (en) * 2011-06-17 2013-01-31 Denso Corp Image processing apparatus
JP2016012258A (en) * 2014-06-30 2016-01-21 富士ゼロックス株式会社 Learning program and information processing apparatus
CN106404802A (en) * 2015-07-28 2017-02-15 株式会社岛津制作所 Detection apparatus and detection method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103578110B (en) * 2013-11-12 2016-06-08 河海大学 Multiband high-resolution remote sensing image dividing method based on gray level co-occurrence matrixes
JP7138869B2 (en) * 2019-06-19 2022-09-20 国立大学法人信州大学 Feature quantity extraction device, feature quantity extraction method, identification device, identification method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013020600A (en) * 2011-06-17 2013-01-31 Denso Corp Image processing apparatus
JP2016012258A (en) * 2014-06-30 2016-01-21 富士ゼロックス株式会社 Learning program and information processing apparatus
CN106404802A (en) * 2015-07-28 2017-02-15 株式会社岛津制作所 Detection apparatus and detection method

Also Published As

Publication number Publication date
CN101996404A (en) 2011-03-30

Similar Documents

Publication Publication Date Title
US6748104B1 (en) Methods and apparatus for machine vision inspection using single and multiple templates or patterns
US11972589B2 (en) Image processing device, work robot, substrate inspection device, and specimen inspection device
JP3877501B2 (en) Component recognition data creation method, creation device, electronic component mounting device, and recording medium
JP2003526935A (en) Election and placement device with improved imaging system
TW200821156A (en) Screen printing equipment, and method for image recognition and alignment
JP2014060249A (en) Die bonder and die position recognition method
JP2011043998A (en) Method and apparatus for analyzing image
CN100450338C (en) Apparatus and method for insepecting cream solder printed on a substrate
WO2017081773A1 (en) Image processing device and image processing method for base plate
CN113495073A (en) Auto-focus function for vision inspection system
JP5755935B2 (en) Component pitch measuring apparatus and component pitch measuring method
CN113380661A (en) Chip mounting device and method for manufacturing semiconductor device
JP6466960B2 (en) Mounting machine and electronic component suction posture inspection method using mounting machine
CN1519570A (en) Measured reault displaying system for printed circuit substrate, and measured result displaying method
JP2005353750A (en) Maintenance and management apparatus for electronic component mounting apparatus
JP4308736B2 (en) Electronic component supply method, apparatus and surface mounter
CN110857924A (en) System for assisting array typesetting circuit board identification and recording defect position
US10879096B2 (en) Die component supply device
US20240302816A1 (en) Intersect command vision locating system and method
JP7185761B2 (en) Arithmetic unit
CN118678563A (en) Method for producing installation data and storage medium storing program
US11452251B2 (en) Information management device
JP6884494B2 (en) Parts transfer device, parts transfer method and component mounting device
JP4554190B2 (en) Printing inspection apparatus and printing inspection method
CN118553641A (en) Semiconductor manufacturing apparatus, edge detection method, and semiconductor device manufacturing method