JP6824398B2 - Image processing equipment, multiplex communication system and image processing method - Google Patents
Image processing equipment, multiplex communication system and image processing method Download PDFInfo
- Publication number
- JP6824398B2 JP6824398B2 JP2019519818A JP2019519818A JP6824398B2 JP 6824398 B2 JP6824398 B2 JP 6824398B2 JP 2019519818 A JP2019519818 A JP 2019519818A JP 2019519818 A JP2019519818 A JP 2019519818A JP 6824398 B2 JP6824398 B2 JP 6824398B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- information
- machine learning
- machine
- classification information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 77
- 238000004891 communication Methods 0.000 title claims description 66
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000010801 machine learning Methods 0.000 claims description 79
- 238000003384 imaging method Methods 0.000 claims description 40
- 230000010365 information processing Effects 0.000 claims description 17
- 238000000034 method Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 8
- 238000007689 inspection Methods 0.000 description 10
- 238000004519 manufacturing process Methods 0.000 description 5
- 239000013307 optical fiber Substances 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000059 patterning Methods 0.000 description 1
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05K—PRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
- H05K13/00—Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
- H05K13/08—Monitoring manufacture of assemblages
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Operations Research (AREA)
- Manufacturing & Machinery (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Supply And Installment Of Electrical Components (AREA)
- Image Analysis (AREA)
Description
本発明は、作業機の作業状態を撮像した画像データを処理する画像処理装置、多重通信システム、及び画像処理方法に関するものである。 The present invention relates to an image processing apparatus for processing image data obtained by capturing an image of the working state of a working machine, a multiplex communication system, and an image processing method.
作業機、例えば、電子部品を回路基板に装着する部品装着機では、製造ラインを搬送される回路基板に表記されたマークやコードを認識したり、回路基板や電子部品の状態を検査したりするためにカメラを備えている。この種のカメラに係わる技術として、例えば、撮像領域の中に関心領域(ROI:Region Of Interest)を設定して画像データを出力する技術がある(例えば、特許文献1など)。特許文献1に開示される撮像装置は、撮像領域の中に複数の関心領域を設定し、各関心領域に対して読出しアドレスを付与することで、各領域からの画像データの読み出しが可能となっている。
A work machine, for example, a component mounting machine that mounts electronic components on a circuit board, recognizes marks and codes written on the circuit board transported on the production line, and inspects the state of the circuit board and electronic components. Equipped with a camera for. As a technique related to this type of camera, for example, there is a technique of setting a region of interest (ROI) in an imaging region and outputting image data (for example, Patent Document 1). The image pickup apparatus disclosed in
ところで、例えば、上記した部品装着機では、回路基板に電子部品を実装する実装作業中において、撮像動作や移動動作など複雑な動作を繰り返し行う。このため、部品装着機は、実装作業中の各工程において複数の画像を撮像する。そこで、実装作業中に撮像した複数の画像データを分析などして画像処理の精度の向上を図ることが望まれている。 By the way, for example, in the above-mentioned component mounting machine, complicated operations such as an imaging operation and a moving operation are repeatedly performed during a mounting operation for mounting an electronic component on a circuit board. Therefore, the component mounting machine captures a plurality of images in each step during the mounting work. Therefore, it is desired to improve the accuracy of image processing by analyzing a plurality of image data captured during the mounting work.
本発明は、上記の課題に鑑みてなされたものであり、作業機の作業状態を撮像した画像データに機械学習用分類情報を付加することで、画像処理の精度を向上できる画像処理装置、多重通信システム、及び画像処理方法を提供することを目的とする。 The present invention has been made in view of the above problems, and is an image processing apparatus capable of improving the accuracy of image processing by adding classification information for machine learning to image data obtained by capturing the working state of a working machine. An object of the present invention is to provide a communication system and an image processing method.
上記課題を解決するために、本明細書は、ワークに対する作業を行う作業機の作業状態を撮像する撮像装置と、前記撮像装置によって撮像された画像データに対し、前記画像データを撮像した際の前記作業機の状態を示す機械学習用分類情報を付加して出力する機械学習用分類情報付加部と、前記機械学習用分類情報付加部から前記機械学習用分類情報を付加した前記画像データを入力し、前記機械学習用分類情報に基づいて前記画像データに対する処理を行う機械学習用分類情報処理部と、を備ええ、前記機械学習用分類情報処理部は、前記機械学習用分類情報に加え、前記作業機において発生したエラーの履歴を示すエラー履歴情報に基づいて前記画像データを分類し、分類した前記画像データを機械学習の教師データとして用いて機械学習のアルゴリズムを適用する、画像処理装置を開示する。
また、本明細書は、画像処理装置を備える多重通信システム、及び画像処理方法を開示する。
In order to solve the above problems, the present specification describes an imaging device that captures the working state of a work machine that performs work on a work, and when the image data is captured with respect to the image data captured by the imaging device. Input the machine learning classification information addition unit that adds and outputs machine learning classification information indicating the state of the working machine, and the image data to which the machine learning classification information is added from the machine learning classification information addition unit. and, the example includes a machine learning classification information processing unit based on the machine learning classification information performs processing on the image data, wherein the machine learning classification information processing unit, in addition to the machine learning classification information, An image processing device that classifies the image data based on the error history information indicating the history of errors that have occurred in the working machine, and applies the machine learning algorithm by using the classified image data as teacher data for machine learning. Disclose.
Further, the present specification discloses a multiplex communication system including an image processing device and an image processing method.
本開示によれば、機械学習用分類情報処理部は、撮像装置によって作業状態を撮像した複数の画像データに対し、機械学習用分類情報に基づいて、分類、関連付けなどを実施できる。その結果、例えば、分類や関連付けした画像データごとに分析し、画像データの画像処理の条件などに分析結果をフィードバック(適用)することで、フィードバック後の画像処理の精度を向上できる。 According to the present disclosure, the machine learning classification information processing unit can classify, associate, and the like with respect to a plurality of image data obtained by capturing a working state by an imaging device based on the machine learning classification information. As a result, for example, by analyzing each classification or associated image data and feeding back (applying) the analysis result to the image processing conditions of the image data, the accuracy of the image processing after the feedback can be improved.
以下、本願の画像処理装置を具体化した一実施形態である対基板作業システム10について、図を参照しつつ詳しく説明する。
Hereinafter, the substrate-to-
(1.対基板作業システム10の構成)
図1は、本実施形態の対基板作業システム10の構成を示している。本実施形態の対基板作業システム10は、複数の部品装着機11と、検査装置12と、ホストコンピュータ13と、学習用PC14と、を備えている。複数の部品装着機11は、例えば、並列に配置して互いに連結されており、回路基板に電子部品を実装する生産ラインを構成している。検査装置12は、複数の部品装着機11によって電子部品を実装された回路基板の実装状態を検査する。(1. Configuration of board work system 10)
FIG. 1 shows the configuration of the board-to-
ホストコンピュータ13は、複数の部品装着機11及び検査装置12と接続されており、部品装着機11等を統括して制御する装置である。ホストコンピュータ13は、例えば、部品装着機11や検査装置12の動作を制御するための制御プログラム(所謂、レシピ)の作成や管理を行う。学習用PC14は、例えば、CPU、RAM等を備えたコンピュータを主体として構成され、記憶装置14Aを備えている。記憶装置14Aは、例えば、ハードディスクや不揮発性メモリー等を備えている。学習用PC14は、複数の部品装着機11及び検査装置12と接続されている。学習用PC14は、部品装着機11の各々からヘッダ情報付きの画像データを受信し、受信した画像データを記憶装置14Aに蓄積して機械学習を行う。部品装着機11の各々と接続するための学習用PC14のインタフェースは、特に限定されない。インタフェースとしては、例えば、イーサネット(登録商標)規格、USB規格、Thunderbolt(登録商標)規格等の装置を用いることができる。また、部品装着機11及び検査装置12は、エラーに関する情報(エラー履歴情報ER)を学習用PC14へ送信する。
The
(2.部品装着機11の構成)
次に、部品装着機11の構成について説明する。図2は、部品装着機11の構成を示すブロックである。図2に示すように、部品装着機11は、装置本体21、装着ヘッド22、X軸スライダ23、Y軸スライダ24等を備えている。部品装着機11は、例えば、装置本体21の装着制御用ボード32の制御に基づいて、生産ラインを搬送される回路基板に対し、装着ヘッド22の吸着ノズルに保持された電子部品を装着する作業を実施する。(2. Configuration of component mounting machine 11)
Next, the configuration of the
装置本体21は、本体側の多重通信装置25及びY軸スライダ24に接続されている。本体側の多重通信装置25は、装着ヘッド22側の多重通信装置26と、X軸スライダ23側の多重通信装置27とに接続されている。多重通信装置25は、多重通信装置26,27の各々と、例えば、光ファイバケーブル28を介して接続され多重化通信を行う。なお、光ファイバケーブル28は、耐屈曲性の高いものが好ましい。また、多重通信装置25,26,27を相互に接続する有線は、光ファイバケーブルに限らず、例えば、Gigabit Ethernet(登録商標)の通信規格に準拠したLANケーブルや、USB(Universal Serial Bus)3.0の通信規格に準拠したUSBケーブルでもよい。また、多重通信装置25は、有線に限らず、無線通信により多重通信装置26,27の各々と多重化通信を実施してもよい。
The device
多重通信装置25〜27は、光ファイバケーブル28を介して、画像データGD1、I/O情報IO、エンコーダ情報ED、トリガ信号TRG等を送受信する。多重通信装置25〜27は、例えば、時分割多重(TDM)方式の多重化通信により、画像データGD1等を多重化して送受信する。なお、多重通信装置25〜27による通信方式は、時分割多重方式に限らず他の多重方式(周波数分割など)でもよい。
The
装置本体21は、上記した装着制御用ボード32の他に、画像処理ボード31、アンプ基板33を備えている。画像処理ボード31は、装着制御用ボード32からの撮像指示に基づいて、装着ヘッド22のIPSカメラ41やX軸スライダ23のマークカメラ51に対してトリガ信号TRGを送信する。トリガ信号TRGは、多重化通信を介してIPSカメラ41等に送信される。例えば、IPSカメラ41は、トリガ信号TRGの受信に応じて撮像を行う。
The apparatus
アンプ基板33は、装着ヘッド22のサーボモータ43やX軸スライダ23のサーボモータ53に取り付けられたエンコーダからエンコーダ情報EDを受信する。アンプ基板33は、装着ヘッド22等から多重化通信を介してエンコーダ情報EDを受信する。アンプ基板33は、受信したエンコーダ情報EDを装着制御用ボード32に送信する。装着制御用ボード32は、エンコーダ情報EDに基づいて、例えば、装着ヘッド22を移動させる位置等を決定する。装着制御用ボード32は、位置の変更等の情報をアンプ基板33に送信する。アンプ基板33は、装着制御用ボード32から受信した情報に基づいて、サーボモータ53等に供給する電力を変更することで、サーボモータ53等を制御し、装着ヘッド22の位置・移動速度などを制御する。
The
装着ヘッド22は、ヘッド側の多重通信装置26に接続されている。装着ヘッド22は、IPSカメラ41、各種のI/O素子42、各軸用のサーボモータ43,44,45を備えている。装着ヘッド22は、X軸スライダ23に取り付けられている。装着ヘッド22は、例えば、X軸スライダ23によって装置本体21の上部においてX軸方向に移動させられ、Y軸スライダ24によってY軸方向に移動させられる。
The mounting
IPSカメラ41は、例えば、カメラリンク(登録商標)規格に対応するマシンビジョンカメラである。IPSカメラ41は、装着ヘッド22の吸着ノズルで吸着した電子部品を側方から撮像するカメラである。画像処理ボード31は、多重化通信を介して装着ヘッド22のIPSカメラ41から画像データGD1を受信し、画像データGD1から吸着状態の電子部品を検出する。装着制御用ボード32は、画像処理ボード31による検出情報に基づいて、吸着姿勢の良否や吸着エラーの有無等を判定する。なお、IPSカメラ41等は、カメラリンク(登録商標)規格に限らず、他の規格、例えば、GigE Vision(登録商標)やCoaXpress(登録商標)の規格に対応するカメラでもよい。
The
I/O素子42は、装着ヘッド22の吸着ノズルの位置、部品の吸着状況、吸着ノズルと回路基板との離隔状況等を検出するセンサやリレー素子である。I/O素子42は、検出結果等のI/O情報IOを、多重化通信を介して装着制御用ボード32へ送信する。
The I /
サーボモータ43は、例えば、装着ヘッド22に設けられた複数の吸着ノズルを保持する回転ヘッド(ロータリヘッド)を回転させることで、複数の吸着ノズルをまとめて鉛直軸線回り(R軸方向)に回動させるための駆動源として機能する。サーボモータ44は、例えば、個々の吸着ノズルを鉛直方向(Z軸方向)に移動させるための駆動源として機能する。また、サーボモータ45は、個々の吸着ノズルを鉛直軸線回り(θ軸方向)に回動させるための駆動源として機能する。サーボモータ43〜45の各々には、回転位置等を検出するエンコーダが取り付けられている。装置本体21のアンプ基板33は、サーボモータ43〜45のエンコーダのエンコーダ情報EDを、多重化通信を介して受信する。アンプ基板33は、受信したエンコーダ情報EDに基づいてサーボモータ43〜45に供給する電力を制御し、吸着ノズルの位置を制御する。
The
X軸スライダ23は、装着ヘッド22の位置をX軸方向に移動させるスライダ装置である。X軸スライダ23は、マークカメラ51と、各種のI/O素子52と、サーボモータ53とを備えている。マークカメラ51は、回路基板を上方から撮像する装置であり、回路基板に表記された識別情報(マークなど)を撮像する。画像処理ボード31は、多重化通信を介してX軸スライダ23のマークカメラ51から画像データGD1を受信し、画像データGD1から識別情報を検出する。装着制御用ボード32は、画像処理ボード31の検出結果に基づいて、作業内容等を決定する。
The
I/O素子52は、例えば、X軸スライダ23の位置に応じた信号を出力する位置センサである。I/O素子52は、検出結果等を示すI/O情報IOを、多重化通信を介して装着制御用ボード32へ送信する。
The I /
サーボモータ53は、装着ヘッド22をX軸方向に移動させるための駆動源として機能する。装置本体21のアンプ基板33は、サーボモータ53に取り付けられたエンコーダから多重化通信を介してエンコーダ情報EDを受信する。アンプ基板33は、受信したエンコーダ情報EDに基づいてサーボモータ53に供給する電力を制御し、サーボモータ53の回転位置や回転速度を制御する。これにより、アンプ基板33は、X軸方向における装着ヘッド22の位置を制御できる。
The
Y軸スライダ24は、X軸スライダ23の位置をY軸方向に移動させるスライダ装置である。Y軸スライダ24は、駆動源としてサーボモータ29を備えている。アンプ基板33は、Y軸スライダ24と多重化通信を介さずに接続されている。アンプ基板33は、サーボモータ29のエンコーダから受信したエンコーダ情報EDに基づいてサーボモータ29に供給する電力を制御する。そして、上記したように、装着ヘッド22は、X軸スライダ23に取り付けられている。このため、装着ヘッド22は、X軸スライダ23及びY軸スライダ24の駆動に応じて、回路基板の上方においてX軸方向及びY軸方向に移動可能となっている。
The Y-
図3は、部品装着機11を上方から見た状態を模式的に示している。例えば、装着制御用ボード32は、図3中の矢印71で示すように、回路基板72を搬送するコンベアを有する搬送装置74を駆動し、上流側の部品装着機11から回路基板72を搬入する。装着制御用ボード32は、搬入した回路基板72を装着位置(図3に示す位置)で固定的に保持する。装着制御用ボード32は、回路基板72を保持した後に装着作業を開始する。
FIG. 3 schematically shows a state in which the
部品装着機11は、電子部品75を供給する装置として、例えば、複数のテープフィーダ77を備えている。テープフィーダ77の各々は、装着制御用ボード32の制御に基づいて、供給位置77Aに電子部品75を順次送り出す。装着制御用ボード32は、装着作業を開始すると、多重化通信を介してX軸スライダ23及びY軸スライダ24を駆動し、電子部品75の供給位置77Aまで装着ヘッド22を移動させる。装着ヘッド22は、複数の吸着ノズル78(図3においては1つのみ図示)のうち、1つの吸着ノズル78を駆動して電子部品75を吸着保持する。
The
装着ヘッド22は、吸着ノズル78によって電子部品75を吸着した後、X軸スライダ23及びY軸スライダ24の駆動に応じて、回路基板72の上方まで移動する(矢印79参照)。装着制御用ボード32は、装着ヘッド22のサーボモータ43〜45を駆動して吸着ノズル78の位置を変更し、回路基板72に電子部品75を実装する。
After sucking the
装着ヘッド22は、装着作業を完了させると、次の電子部品75を取得するために供給位置77Aまで移動する(矢印81参照)。装着ヘッド22は、このような装着作業を同一の回路基板72に対して繰り返し実行する。装着制御用ボード32は、すべての電子部品75の装着作業を完了させると、回路基板72を下流側の部品装着機11へと搬出する(矢印82参照)。
When the mounting operation is completed, the mounting
一方で、装着制御用ボード32は、上記した一連の作業中においてIPSカメラ41やマークカメラ51によって複数の画像データGD1を撮像する。例えば、装着制御用ボード32は、供給位置77Aから回路基板72まで移動する一定の撮像領域84において、電子部品75を吸着保持した吸着ノズル78をIPSカメラ41によって撮像する。また、例えば、装着制御用ボード32は、回路基板72の上方の一定の撮像領域85において、装着後の吸着ノズル78、即ち、電子部品75を保持していない吸着ノズル78をIPSカメラ41によって撮像する。そして、図2に示すように、本実施形態の多重通信装置25は、装置本体21へ送信する画像データGD1とは別に、画像データGD1にヘッダ情報HDを付加した画像データGD2を学習用PC14に向けて送信する。
On the other hand, the mounting
(3.学習用の画像データGD2について)
上記したように、多重通信装置25は、画像データGD1にヘッダ情報HDを付加した画像データGD2を、学習用PC14に向けて送信する。図4は、ヘッダ情報HD付きの画像データGD2の一例として、IPSカメラ41の画像データGD1にヘッダ情報HDを付加したデータ構成を示している。図4に示すように、画像データGD2には、幅情報61等の各種情報がヘッダ情報HDとして付加されている。本実施形態のヘッダ情報HDは、例えば、幅情報61、高さ情報62、カメラ番号(カメラNo)64、トリガカウント情報65、I/O情報IO、誤り検出符号(チェックサムなど)68、及びエンコーダ情報ED1,ED2,ED3,ED4,ED5である。(3. About image data GD2 for learning)
As described above, the multiplexing
本実施形態の多重通信装置25は、例えば、画像データGD1の撮像ごとに画像データGD2を生成して学習用PC14へ送信する。なお、多重通信装置25は、複数の画像データGD2をまとめて学習用PC14へ送信してもよい。また、ヘッダ情報HDを画像データGD1に付加する装置は、多重通信装置25に限らず、他の装置、例えば、多重通信装置26でもよい。この場合、多重通信装置26は、多重化処理を実施する前に、ヘッダ情報HDを画像データGD1に付加してもよい。
The
図4に示す幅情報61は、画像データGD1の幅Wに係わる情報であり、例えば、画像データGD1の水平方向の画素数を示す情報である。また、高さ情報62は、画像データGD1の高さHに係わる情報であり、例えば、画像データGD1の垂直方向の画素数を示す情報である。画像データGD1は、例えば、1024(高さ)×1024(幅)ピクセルの画素数を有している。また、画像データGD1は、例えば、白黒の画像データであり、各色を8ビット(256階調)で表し、1画素あたり2バイトのデータ量を有している。
The
なお、画像データGD1は、IPSカメラ41で撮像した画像データそのもの(全体画像)でもよく、あるいは撮像領域の中に設定した関心領域(ROI:Region Of Interest)のデータ(画像データの一部)でもよい。関心領域を設定した場合、例えば、高さ情報62は、関心領域の高さ(画素数)を示す情報となる。
The image data GD1 may be the image data itself (whole image) captured by the
カメラ番号64は、複数のカメラ(IPSカメラ41、マークカメラ51など)を互いに識別するための装置固有の番号である。トリガカウント情報65は、IPSカメラ41等へ撮像指示を行った順番を識別する情報である。より具体的には、例えば、多重通信装置25は、画像処理ボード31からIPSカメラ41へトリガ信号TRG(撮像指示)を送信した回数をカウントしている。多重通信装置25は、例えば、トリガ信号TRGの立ち上がりエッジを検出してカウントアップ処理を行う。多重通信装置25は、IPSカメラ41による撮像が行われると、その時点のカウント値をトリガカウント情報65として画像データGD1に付加する。
The
また、多重通信装置25は、例えば、装着制御用ボード32の制御に基づいてカウント値をリセット可能となっている。装着制御用ボード32は、例えば、1時間毎に多重通信装置25のカウント値をリセットする。これにより、学習用PC14は、例えば、画像データGD2の保存時間(取得時間)だけでなく、トリガカウント情報65に基づいて後述する装置本体21のエラー履歴情報ERとの照合が可能となる。
Further, the
I/O情報IOは、例えば、I/O素子42の検出情報などである。誤り検出符号68は、ヘッダ情報HDや画像データGD1の誤りを検出するためのデータであり、例えば、チェックサム、CRC(巡回冗長検査)などのデータである。学習用PC14は、例えば、検出符号68に基づいて、受信した画像データGD2のヘッダ情報HDの誤りを検出すると、多重通信装置25に対して画像データGD2の再送を要求する。
The I / O information IO is, for example, detection information of the I /
エンコーダ情報ED1は、サーボモータ43(R軸方向)のエンコーダ情報EDである。エンコーダ情報ED2は、サーボモータ44(Z軸方向)のエンコーダ情報EDである。エンコーダ情報ED3は、サーボモータ45(θ軸方向)のエンコーダ情報EDである。多重通信装置25は、例えば、多重通信装置26から受信した多重化データを分離して取得したサーボモータ43等のエンコーダ情報ED1〜ED3をヘッダ情報HDとして画像データGD1に付加する。
The encoder information ED1 is the encoder information ED of the servomotor 43 (R-axis direction). The encoder information ED2 is the encoder information ED of the servomotor 44 (Z-axis direction). The encoder information ED3 is the encoder information ED of the servomotor 45 (in the θ-axis direction). For example, the multiplexing
また、エンコーダ情報ED4は、X軸スライダ23のサーボモータ53(X軸方向)のエンコーダ情報EDである。多重通信装置25は、例えば、多重通信装置27から受信した多重化データを分離して取得したサーボモータ53(X軸スライダ23)のエンコーダ情報ED4をヘッダ情報HDとして画像データGD1に付加する。また、エンコーダ情報ED5は、Y軸スライダ24のサーボモータ29(Y軸方向)のエンコーダ情報EDである。多重通信装置25は、例えば、Y軸スライダ24やアンプ基板33からサーボモータ29のエンコーダ情報ED5を入力してヘッダ情報HDとして画像データGD1に付加する。
Further, the encoder information ED4 is the encoder information ED of the servomotor 53 (X-axis direction) of the
多重通信装置25は、例えば、画像データGD1を撮像した際のエンコーダ情報ED1〜ED5をヘッダ情報HDとして画像データGD1に付加する。より具体的には、エンコーダ情報ED1〜ED5は、例えば、IPSカメラ41によって画像データGD1を撮像した際の装着ヘッド22や吸着ノズルの位置情報(作業機の状態を示す機械学習用分類情報)である。これにより、学習用PC14においてエンコーダ情報ED1〜ED5に基づいて画像データGD2の分類及び機械学習が可能となる。
The multiplexing
なお、図4に示すヘッダ情報HDは、一例であり、他のヘッダ情報HDを付加してもよい。また、多重通信装置25は、装置本体21に対しても画像データGD2と同一、又は異なるヘッダ情報HDを付加した画像データGD2を、画像データGD1の代わりに送信してもよい。これにより、装置本体21は、ヘッダ情報HDに基づいた処理(分類等)が可能となる。また、多重通信装置25は、X軸スライダ23のマークカメラ51の画像データGD1に対しても、上記した処理と同様に、ヘッダ情報HDを付加し学習用PC14へ送信する。
The header information HD shown in FIG. 4 is an example, and other header information HD may be added. Further, the
(4.学習用PC14による画像データGD2の機械学習)
(4−1.装着前後の自動分類)
次に、学習用PC14による画像データGD2の処理について説明する。図5及び図6は、画像データGD2の分類処理のフローを示している。まず、図5のステップ(以下、単に「S」と表記する)11において、学習用PC14は、生産ラインに配置された複数の多重通信装置25(部品装着機11)から受信した画像データGD2を記憶装置14Aに蓄積する。(4. Machine learning of image data GD2 by learning PC14)
(4-1. Automatic classification before and after mounting)
Next, the processing of the image data GD2 by the learning
次に、学習用PC14は、記憶装置14Aから画像データGD2を読み出し、読み出した画像データGD2に付加されたヘッダ情報HDを解読する。学習用PC14は、解読したヘッダ情報HDに基づいて、機械学習用のデータとして用いるために、画像データGD2の自動分類を実行する(S12)。
Next, the learning
学習用PC14は、例えば、エンコーダ情報ED1(R軸方向)、エンコーダ情報ED2(Z軸方向)、エンコーダ情報ED3(θ軸方向)に基づいて、装着ヘッド22に設けられた複数の吸着ノズル78の位置を検出する。学習用PC14は、検出した吸着ノズル78の位置に基づいて、画像データGD2中に撮像された吸着ノズル78、即ち、撮像対象の吸着ノズル78がどの吸着ノズル78であるのかを判定する。なお、学習用PC14は、エンコーダ情報ED1〜ED3に限らず、他の情報、例えば、I/O情報IOに基づいて撮像対象の吸着ノズル78を判定してもよい。
The learning
装着ヘッド22には、例えば、23個の吸着ノズル78が装着されているとする。また、記憶装置14Aには、吸着ノズル78の数に合わせて、吸着ノズル78ごとに装着前又は装着後の画像データGD2を保存(分類)するための記憶領域(データフォルダなど)が確保されている。学習用PC14は、ヘッダ情報HDに基づいて、画像データGD2の撮像対象となっている吸着ノズル78の種類・識別番号等を判定し、判定結果の吸着ノズル78に応じたデータフォルダ(図5中のノズル1〜ノズル23)に画像データGD2を保存する(S13)。なお、図5に示すデータフォルダの種類は、一例であり、例えば、電子部品75の種類に応じてデータフォルダの数を増やしてもよい。
It is assumed that the mounting
また、学習用PC14は、例えば、エンコーダ情報ED4(X軸方向)及びエンコーダ情報ED5(Y軸方向)に基づいて、装着ヘッド22(吸着ノズル78)の位置を検出する。学習用PC14は、例えば、エンコーダ情報ED4,ED5に基づいて、電子部品75(図3参照)を装着する前の画像データGD2であるのか、あるいは装着後の画像データGD2であるのかを判定する。図3に示すように、本実施形態の部品装着機11では、電子部品75を吸着した吸着ノズル78を撮像する撮像領域84と、電子部品75を吸着していない吸着ノズル78を撮像する撮像領域84とが設定されている。撮像領域84,85は、X軸方向及びY軸方向における位置(座標)が異なっている。このため、学習用PC14は、エンコーダ情報ED4,ED5に基づいて、XY座標の値を判定し、撮像領域84,85のいずれの領域内で撮像した画像データGD2であるのかを判定する。これにより、学習用PC14は、装着前(撮像領域84)の画像データGD2であるのか、あるいは装着後(撮像領域85)の画像データGD2であるのかを判定することが可能となる。
Further, the learning
なお、上記した画像データGD2を装着の前後で分類する方法は、一例である。例えば、学習用PC14は、I/O情報IOに基づいて、装着の前後を判定してもよい。学習用PC14は、電子部品75をI/O素子42が検出している場合、装着前の画像データGD2であると判定する。学習用PC14は、電子部品75をI/O素子42が検出できない場合、装着後の画像データGD2であると判定してもよい。また、学習用PC14は、エンコーダ情報ED2(Z軸方向)に基づいて、装着の前後を判定してもよい。例えば、学習用PC14は、吸着ノズル78の位置をZ軸方向の上端まで上昇させていることを示すエンコーダ情報ED2である場合、装着前であると判定してもよい。また、学習用PC14は、Z軸方向において吸着ノズル78の位置を下げていることを示すエンコーダ情報ED2である場合、装着後であると判定してもよい。この場合、装着制御用ボード32は、電子部品75を回路基板72に装着した直後の吸着ノズル78を、Z軸方向の上端まで移動する前にIPSカメラ41によって撮像する。
The method of classifying the above-mentioned image data GD2 before and after mounting is an example. For example, the learning
(4−2.エラーの有無による自動分類)
次に、エラー履歴情報ERに基づいて画像データGD2を分類する処理について説明する。学習用PC14は、上記したS13の処理により分類した画像データGD2について、撮像時にエラーが発生していたか否かの基準に基づいて、さらに詳細に分類する。図1に示すように、部品装着機11(装着制御用ボード32)の各々は、作業中に発生したエラーについての情報であるエラー履歴情報ERを学習用PC14へ送信する。また、検査装置12は、実装後の回路基板72の検査において不良であると判定した情報(実装不良の電子部品75の位置情報など)をエラー履歴情報ERとして学習用PC14へ送信する。学習用PC14は、受信したエラー履歴情報ERを記憶装置14Aに保存する(図6のS15)。(4-2. Automatic classification based on the presence or absence of errors)
Next, a process of classifying the image data GD2 based on the error history information ER will be described. The learning
図7は、部品装着機11から受信したエラー履歴情報ERの一例を示している。図7に示すように、エラー履歴情報ERは、時間、トリガカウント情報、カメラ番号(No)、エラー内容の情報を有している。学習用PC14は、S13で記憶装置14Aのデータフォルダごとに保存した画像データGD2を読み出す。また、学習用PC14は、記憶装置14Aに保存したエラー履歴情報ERを読み出す。
FIG. 7 shows an example of the error history information ER received from the
学習用PC14は、例えば、記憶装置14Aから読み出した画像データGD2の保存時間、トリガカウント情報65(図4参照)、カメラ番号64を、エラー履歴情報ERの時間等と照合する(図6のS15)。より具体的には、学習用PC14は、画像データGD2の撮像(保存)時間と一致する時間がないかを、エラー履歴情報ERの時間情報(図7の左から1列目に示す時間)の中から検索する。また、学習用PC14は、エラー履歴情報ERから検索し検出した対象データのトリガカウント情報(図7の左から2列目に示す撮像回数)と、画像データGD2のトリガカウント情報65(図4参照)の撮像回数とが一致するかを判定する。さらに、学習用PC14は、画像データGD2のカメラ番号64と、エラー履歴情報ERのカメラ番号(図7の左から3列目に示すNo)とが一致するかを判定する。このようにして、学習用PC14は、エラー履歴情報ERの中から画像データGD2のヘッダ情報HDと一致するエラー情報を検索する(S15)。これにより、学習用PC14は、画像データGD2の撮像時にエラーが発生していたか否かを判定できる。また、例えば、多重通信装置25と学習用PC14とのシステム時間がずれていた場合であっても、時間以外の他の情報(トリガカウント情報65など)に基づいて、画像データGD2に対応するエラー情報を検出できる。なお、学習用PC14は、検査装置12のエラー履歴情報ER(実装不良の電子部品75の位置情報など)に基づいて画像データGD2を分類してもよい。
The learning
また、図6に示すように、例えば、記憶装置14Aには、装着前及び装着後の各々の記憶領域(データフォルダなど)について、さらにエラーの有無で分類するための記憶領域(サブフォルダなど)が確保されている。学習用PC14は、ヘッダ情報HD及びエラー履歴情報ERに基づいて画像データGD2をエラー有無で分類し、各データフォルダに保存する(S16)。なお、上記した分類処理において、分類が困難な画像データGD2がある場合、学習用PC14は、分類エラーをユーザに通知してもよい。これにより、分類の困難な一部の画像データGD2についてはユーザの手動による分類を実施できる。
Further, as shown in FIG. 6, for example, in the
そして、学習用PC14は、S16で分類した画像データGD2に基づいて機械学習を行う。ここでいう機械学習とは、例えば、人間の学習能力と同様の機能をコンピュータで実現する技術である。より具体的には、例えば、発生した複数の事象(画像データ)である教師データを学習することで、教師データの特徴の分析、特徴の重み付け、パターン化などを実施し、その学習結果を用いて画像処理の精度(エラーの検出精度など)を向上させる処理を行う。機械学習は、例えば、深層学習(ディープラーニング)やサポートベクタである。学習用PC14は、例えば、分類した画像データGD2を教師データとして深層学習のアルゴリズムを適用する。
Then, the learning
図6に示すように、分類した結果、本実施形態の画像データGD2は、1つの吸着ノズル78につき4つのデータフォルダに分類される。1つ目は、例えば、装着前の吸着ノズル78を撮像したものであり、電子部品75を吸着した正常状態の画像データGD2である。2つ目は、例えば、装着前の吸着ノズル78を撮像したものであり、テープフィーダ77(図3参照)の供給位置77Aから電子部品75を吸着できなかった吸着ノズル78を撮像したエラーの画像データGD2である。あるいは、電子部品75を吸着しているもののエラーが発生している画像データGD2である。この場合のエラーとしては、例えば、吸着ノズル78が電子部品75を不適切な状態(リードが横向いて電子部品75が立った状態、あるいは電子部品75が傾いた状態など)で吸着したため、回路基板72の装着に失敗した場合が考えられる。
As shown in FIG. 6, as a result of classification, the image data GD2 of the present embodiment is classified into four data folders for one
また、3つ目は、例えば、装着後の吸着ノズル78を撮像したものであり、電子部品75を吸着していない(装着を完了させた)正常状態の画像データGD2である。4つ目は、例えば、装着後の吸着ノズル78を撮像したものであり、電子部品75を吸着しているエラー状態の画像データGD2である。この場合のエラーとしては、例えば、回路基板72の装着位置において、吸着ノズル78から回路基板72へ電子部品75を離脱するのに失敗した場合が考えられる。装着ヘッド22は、装着できていない電子部品75を吸着ノズル78に吸着したまま次の供給位置77Aへ向かう際に、吸着ノズル78を撮像領域85(図3参照)で撮像することとなる。
The third is, for example, an image of the
学習用PC14は、例えば、これらの装着前(正常)、装着前(エラー)、装着後(正常)、装着後(エラー)のタグ(情報)の付加された画像データGD2(教師データ)を読み込み、自動的に画像データGD2の特徴点を抽出等する。これにより、例えば、ユーザが何に着目してエラーの発生を判定すべきかを設定することなく、学習用PC14が複数の画像データGD2(ビックデータ)から機械学習によってエラーの発生を判定するための画像データGD2の特徴点(電子部品75の傾きの程度など)を自動で抽出することができる。より具体的には、装着前に吸着ノズル78に対してどの程度だけ電子部品75が傾いているとエラーが発生するのかなどを自動で学習することができる。また、装着制御用ボード32や画像処理ボード31の画像処理によってエラーが検出されなかったにも係わらず、実際にはエラーが発生した場合、画像データGD2を機械学習し、その特徴点をフィードバックすれば、装着制御用ボード32等の画像処理の精度を高めることができる。
The learning
また、上記したように、学習用PC14(機械学習用分類情報処理部)は、画像データGD1をヘッダ情報HDに基づいて分類し、分類した画像データGD1を機械学習の教師データとして用いて機械学習のアルゴリズムを適用する。これによれば、例えば、部品装着機11(作業機)の作業状態を撮像した画像データGD2を、ヘッダ情報HD(機械学習用分類情報)に基づいて分類し、機械学習の教師データとして用いて学習することで、学習結果に基づいて、画像データGD1に対する画像処理の精度を向上できる。 Further, as described above, the learning PC 14 (classification information processing unit for machine learning) classifies the image data GD1 based on the header information HD, and uses the classified image data GD1 as the teacher data for machine learning for machine learning. Apply the algorithm of. According to this, for example, the image data GD2 that captures the working state of the component mounting machine 11 (working machine) is classified based on the header information HD (classification information for machine learning) and used as teacher data for machine learning. By learning, the accuracy of image processing for the image data GD1 can be improved based on the learning result.
また、ヘッダ情報HD(機械学習用分類情報)は、部品装着機11(作業機)の駆動源として機能するモータ(サーボモータ43等)のエンコーダ情報ED、IPSカメラ41等へ撮像指示を行った順番を識別するトリガカウント情報65(トリガ情報)、及び部品装着機11(作業機)が備える検出装置(I/O素子42,52)のI/O情報IOのうち、少なくとも1つの情報である。
Further, the header information HD (classification information for machine learning) gives an imaging instruction to the encoder information ED of the motor (
エンコーダ情報EDは、例えば、部品装着機11(作業機)の可動部分(装着ヘッド22)の動作状態(位置など)を示す情報である。部品装着機11であれば、例えば、電子部品75を回路基板72に装着する前、装着後、電子部品75の吸着動作中などにおける装着ヘッド22や吸着ノズル78の位置を示す情報である。これにより、エンコーダ情報EDに基づいて、複数の画像データGD2を部品装着機11の動作状態ごとに分類できる。
The encoder information ED is, for example, information indicating an operating state (position, etc.) of a movable portion (mounting head 22) of the component mounting machine 11 (working machine). In the case of the
また、例えば、装着制御用ボード32からIPSカメラ41等へ撮像指示を送る場合、装着制御用ボード32において撮像指示をカウントした回数とエラー情報を関連付けしておき、画像データGD2に付加したトリガカウント情報65と照合すれば、いつどのような状態で撮像した画像データGD1であるか(エラーが発生していたか)を後からでも判定できる。これにより、例えば、トリガカウント情報65に基づいて、複数の画像データGD2を、エラー発生の有無ごとに分類できる。
Further, for example, when an imaging instruction is sent from the mounting
また、I/O情報IOは、例えば、装着ヘッド22の吸着ノズル78に電子部品75が吸着されているか否かを示すI/O素子42(センサ)の出力情報である。これにより、I/O情報IOに基づいて、複数の画像データGD2を、電子部品75の吸着の有無ごとに分類できる。
Further, the I / O information IO is, for example, output information of the I / O element 42 (sensor) indicating whether or not the
また、ヘッダ情報HD(機械学習用分類情報)は、部品装着機11(作業機)の駆動源として機能する複数のモータ(サーボモータ53など)のエンコーダ情報EDを含む。学習用PC14(機械学習用分類情報処理部)は、IPSカメラ41(撮像装置)の撮像位置(装着の前後など)に関連する情報として複数のモータ(サーボモータ53、サーボモータ29など)のエンコーダ情報EDに基づいて画像データGD1を分類する。これによれば、学習用PC14は、エンコーダ情報EDに基づいて画像データGD1を分類することで、画像データGD1を撮像位置ごとに分類できる。なお、学習用PC14は、エンコーダ情報EDに限らず、例えば、IPSカメラ41の照明の点灯の有無に基づいて画像データGD1を分類してもよい。学習用PC14は、例えば、ヘッダ情報HDのI/O情報IOに基づいてIPSカメラ41の照明が点灯していることを検出した場合に、IPSカメラ41(装着ヘッド22)が所定の撮像位置に配置されているとして画像データGD1を分類してもよい。
Further, the header information HD (classification information for machine learning) includes encoder information ED of a plurality of motors (
また、部品装着機11は、回路基板72に対する作業を行う装着ヘッド22(可動部)と、画像データGD1を入力し画像データGD1に対する画像処理を行う画像処理ボード31(画像処理部)と、画像処理ボード31の画像処理の結果に基づいて装着ヘッド22を制御する装着制御用ボード32(制御部)と、を備える。画像処理ボード31は、学習用PC14(機械学習用分類情報処理部)とは別に設けられる。
Further, the
これによれば、ヘッダ情報HDを付加した画像データGD2を処理する学習用PC14と、ヘッダ情報HDを付加していない画像データGD1を処理する画像処理ボード31(画像処理部)とを別々に設ける。部品装着機11は、例えば、IPSカメラ41等で撮像した画像データGD1に基づいて所定の作業をリアルタイムで次々と実行する必要がある。このため、画像処理ボード31と、学習用PC14とを別々に設けることで、学習用PC14における処理の遅れ、学習用PC14の不具合を改修するためのアップデート作業などにともなって、画像処理ボード31の処理、即ち、部品装着機11の処理が遅延(生産ラインが停止等)するのを防止することが可能となる。
According to this, a learning
また、対基板作業システム10(画像処理装置)は、学習用PC14によって処理された画像データGD2を保存する記憶装置14Aを、さらに備える。これによれば、学習用PC14によって処理された(分類等された)画像データGD2を、記憶装置14Aに保存(蓄積)する。これにより、例えば、記憶装置14Aに蓄積した複数の画像データGD2をまとめて分析できる。また、例えば、部品装着機11とは別に記憶装置14Aを設けることで、部品装着機11との通信を切断した状態(オフライン)で画像データGD2を分析等できる。
Further, the substrate working system 10 (image processing device) further includes a
また、学習用PC14は、ヘッダ情報HD(機械学習用分類情報)に加え、部品装着機11において発生したエラーの履歴を示すエラー履歴情報ERに基づいて画像データGD2を分類し、分類した画像データGD2を機械学習の教師データとして用いて機械学習のアルゴリズムを適用する。これによれば、学習用PC14は、部品装着機11の状態を示すヘッダ情報HDに加え、部品装着機11のエラー履歴情報ERに基づいて画像データGD2をより詳細に分類等して機械学習の教師データとして活用する。これにより、学習結果をフィードバックすれば画像処理の精度をより確実に向上させることができる。
Further, the learning
また、部品装着機11は、多重通信装置25,26,27等で構成される多重通信システムを備える。部品装着機11は、画像データGD1を他の作業データ(エンコーダ情報EDやI/O情報IO)と多重化して伝送する。これによれば、部品装着機11は、複数のデータを多重化し同一の伝送路で伝送させ、省配線化を図ることができる。
Further, the
因みに、対基板作業システム10は、画像処理装置及び多重通信システムの一例である。部品装着機11は、作業機の一例である。学習用PC14は、機械学習用分類情報処理部の一例である。装着ヘッド22は、駆動部及び可動部の一例である。多重通信装置25は、機械学習用分類情報付加部の一例である。サーボモータ29,43〜45,53は、モータの一例である。画像処理ボード31は、画像処理部の一例である。装着制御用ボード32は、制御部の一例である。IPSカメラ41及びマークカメラ51は、撮像装置の一例である。トリガカウント情報65は、トリガ情報の一例である。回路基板72は、ワークの一例である。I/O素子42,52は、検出装置の一例である。ヘッダ情報HDは、機械学習用分類情報の一例である。
Incidentally, the board-to-
(5.効果)
以上、詳細に説明した上記実施形態によれば以下の効果を奏する。
本実施形態の画像処理装置(対基板作業システム10)は、回路基板72(ワーク)に対する作業を行う部品装着機11(作業機)の作業状態を撮像する撮像装置(IPSカメラ41、マークカメラ51)と、IPSカメラ41等によって撮像された画像データGD1に対し、画像データGD1を撮像した際の部品装着機11(作業機)の状態を示すヘッダ情報HD(機械学習用分類情報)を付加して出力する多重通信装置25(機械学習用分類情報付加部)と、多重通信装置25からヘッダ情報HDを付加した画像データGD2を入力し、ヘッダ情報HDに基づいて画像データGD2に対する処理を行う学習用PC14(機械学習用分類情報処理部)と、を備える。(5. Effect)
According to the above-described embodiment described in detail above, the following effects are obtained.
The image processing device (working system for board 10) of the present embodiment is an imaging device (
これによれば、学習用PC14(機械学習用分類情報処理部)は、IPSカメラ41等(撮像装置)によって作業状態を撮像した複数の画像データGD1に対し、ヘッダ情報HD(機械学習用分類情報)に基づいて、分類、関連付けなどを実施できる。その結果、例えば、分類や関連付けした画像データGD2ごとに分析し、画像データGD1(画像データGD2)の画像処理の条件などに分析結果をフィードバック(適用)することで、フィードバック後の画像処理の精度を向上できる。
According to this, the learning PC 14 (machine learning classification information processing unit) has header information HD (machine learning classification information) for a plurality of image data GD1s whose work state is captured by an
(6.変形態様)
なお、本願は、上記実施形態に限定されるものではなく、当業者の知識に基づいて種々の変更、改良を施した形態で実施することが可能である。
例えば、上記実施形態では、分類した画像データGD2を用いて学習用PC14による機械学習を行い、画像処理の精度を向上させたが、これに限らない。例えば、ユーザが、自動で分類された画像データGD2を確認し、装置本体21による画像処理の設定(特徴点の抽出など)を手動で変更してもよい。この場合、予め自動で分類がなされているため、ユーザの作業負担を軽減できる。
また、本願の機械学習用分類情報処理部(学習用PC14)による処理は、機械学習用分類情報(ヘッダ情報HD)に基づいた画像データGD2の分類処理に限らない。例えば、学習用PC14は、エンコーダ情報EDに基づいて、吸着ノズル78の位置の誤差を検出して吸着ノズル78の位置ずれを補正してもよい。結果として、吸着ノズル78の位置ずれが抑制されることで、画像処理の精度を向上させることができる。
また、上記実施形態では、機械学習を実施する学習用PC14を、装置本体21とは別に設けたが、これに限らない。例えば、装着制御用ボード32が、装着作業の統括に加えて機械学習を実施してもよい。
また、本願における駆動部の位置情報は、部品装着機11(作業機)の駆動源として機能するモータ(サーボモータ43など)のエンコーダ情報EDに限らず、例えば、部品装着機11の各部位を駆動するアクチュエーター(駆動部)の出力軸の位置情報でもよい。
また、本願における機械学習用分類情報は、ヘッダ情報HDに限らず、例えば、画像データGD1のフッタに付け加えた情報でもよい。
また、本願におけるトリガ情報は、撮像回数を示すトリガカウント情報65に限らず、例えば、画像データGD1を特定できる他のトリガ情報(撮像を開始する際の作業工程名、吸着ノズル78や電子部品75ごとの撮像の順番を示す情報)でもよい。
また、上記実施形態では、機械学習用分類情報に基づく画像処理を行う対象の作業機として部品装着機11を採用したが、これに限らない。例えば、作業後の回路基板に対する検査を行う検査装置12を画像処理の対象の作業機として採用してもよい。また、例えば、FA分野で使用される他の作業用ロボットを画像処理の対象の作業機として採用してもよい。(6. Deformation mode)
The present application is not limited to the above embodiment, and can be implemented in a form in which various modifications and improvements have been made based on the knowledge of those skilled in the art.
For example, in the above embodiment, machine learning is performed by the learning
Further, the processing by the machine learning classification information processing unit (learning PC14) of the present application is not limited to the classification processing of the image data GD2 based on the machine learning classification information (header information HD). For example, the learning
Further, in the above embodiment, the learning
Further, the position information of the drive unit in the present application is not limited to the encoder information ED of the motor (
Further, the classification information for machine learning in the present application is not limited to the header information HD, and may be, for example, information added to the footer of the image data GD1.
Further, the trigger information in the present application is not limited to the
Further, in the above embodiment, the
10 対基板作業システム(画像処理装置、多重通信システム)、11 部品装着機(作業機)、14 学習用PC(機械学習用分類情報処理部)、14A 記憶装置、22 装着ヘッド(駆動部、可動部)、25 多重通信装置(機械学習用分類情報付加部)、29,43〜45,53 サーボモータ(モータ)、31 画像処理ボード(画像処理部)、32 装着制御用ボード(制御部)、41 IPSカメラ(撮像装置)、42,52 I/O素子(検出装置)、51 マークカメラ(撮像装置)、65 トリガカウント情報(トリガ情報)、72 回路基板(ワーク)、ED,ED1〜ED5 エンコーダ情報、ER エラー履歴情報、HD ヘッダ情報(機械学習用分類情報)、IO I/O情報、GD1,GD2 画像データ。 10 anti-board work system (image processing device, multiplex communication system), 11 component mounting machine (working machine), 14 learning PC (classification information processing unit for machine learning), 14A storage device, 22 mounting head (drive unit, movable) Unit), 25 Multiplex communication device (classification information addition unit for machine learning), 29,43 to 45,53 Servo motor (motor), 31 Image processing board (image processing unit), 32 Mounting control board (control unit), 41 IPS camera (imaging device), 42, 52 I / O element (detecting device), 51 mark camera (imaging device), 65 trigger count information (trigger information), 72 circuit board (work), ED, ED1 to ED5 encoder Information, ER error history information, HD header information (classification information for machine learning), IO I / O information, GD1, GD2 image data.
Claims (9)
前記撮像装置によって撮像された画像データに対し、前記画像データを撮像した際の前記作業機の状態を示す機械学習用分類情報を付加して出力する機械学習用分類情報付加部と、
前記機械学習用分類情報付加部から前記機械学習用分類情報を付加した前記画像データを入力し、前記機械学習用分類情報に基づいて前記画像データに対する処理を行う機械学習用分類情報処理部と、
を備え、
前記機械学習用分類情報処理部は、前記機械学習用分類情報に加え、前記作業機において発生したエラーの履歴を示すエラー履歴情報に基づいて前記画像データを分類し、分類した前記画像データを機械学習の教師データとして用いて機械学習のアルゴリズムを適用する、画像処理装置。 An imaging device that captures the working state of the work equipment that performs work on the work,
A machine learning classification information addition unit that adds and outputs machine learning classification information indicating the state of the working machine when the image data is imaged to the image data captured by the image pickup device.
A machine learning classification information processing unit that inputs the image data to which the machine learning classification information is added from the machine learning classification information addition unit and processes the image data based on the machine learning classification information.
Bei to give a,
The machine learning classification information processing unit classifies the image data based on the error history information indicating the history of errors that have occurred in the work machine in addition to the machine learning classification information, and the classified image data is machined. An image processing device that applies machine learning algorithms by using it as learning teacher data.
前記機械学習用分類情報処理部は、前記撮像装置の撮像位置に関連する情報として前記複数のモータの前記エンコーダ情報に基づいて前記画像データを分類する、請求項1又は2に記載の画像処理装置。 The machine learning classification information includes encoder information of a plurality of motors that function as a drive source for the work machine.
The image processing apparatus according to claim 1 or 2, wherein the machine learning classification information processing unit classifies the image data based on the encoder information of the plurality of motors as information related to the imaging position of the imaging device. ..
前記画像処理部は、前記機械学習用分類情報処理部とは別に設けられる、請求項1乃至5の何れかに記載の画像処理装置。 The working machine has a movable unit that performs work on the work, an image processing unit that inputs the image data and performs image processing on the image data, and the movable unit based on the result of image processing of the image processing unit. Equipped with a control unit to control
The image processing device according to any one of claims 1 to 5, wherein the image processing unit is provided separately from the machine learning classification information processing unit.
前記画像データを他の作業データと多重化して伝送する、多重通信システム。 The image processing apparatus according to any one of claims 1 to 7 is provided.
A multiplex communication system that multiplexes and transmits the image data with other work data.
撮像された画像データに対し、前記画像データを撮像した際の前記作業機の状態を示す機械学習用分類情報を付加して出力するステップと、
前記機械学習用分類情報を付加した前記画像データを入力し、前記機械学習用分類情報に基づいて前記画像データに対する処理を行うステップと、
を含み、
前記機械学習用分類情報に基づいて前記画像データに対する処理を行うステップにおいて、前記機械学習用分類情報に加え、前記作業機において発生したエラーの履歴を示すエラー履歴情報に基づいて前記画像データを分類し、分類した前記画像データを機械学習の教師データとして用いて機械学習のアルゴリズムを適用する、画像処理方法。 Steps to image the working state of the work machine that performs work on the work,
A step of adding and outputting classification information for machine learning indicating the state of the working machine when the image data is captured to the captured image data.
A step of inputting the image data to which the machine learning classification information is added and performing processing on the image data based on the machine learning classification information.
Only including,
In the step of processing the image data based on the machine learning classification information, the image data is classified based on the error history information indicating the history of errors that have occurred in the working machine in addition to the machine learning classification information. An image processing method in which a machine learning algorithm is applied by using the classified image data as machine learning teacher data .
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/019049 WO2018216075A1 (en) | 2017-05-22 | 2017-05-22 | Image processing device, multiplex communication system, and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018216075A1 JPWO2018216075A1 (en) | 2019-12-12 |
JP6824398B2 true JP6824398B2 (en) | 2021-02-03 |
Family
ID=64395350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019519818A Active JP6824398B2 (en) | 2017-05-22 | 2017-05-22 | Image processing equipment, multiplex communication system and image processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6824398B2 (en) |
WO (1) | WO2018216075A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7503370B2 (en) | 2019-07-01 | 2024-06-20 | 株式会社小松製作所 | Method for producing trained task classification estimation model, computer-implemented method, and system including work machine |
EP3996482B1 (en) * | 2019-07-04 | 2024-08-07 | Fuji Corporation | Component mounting system |
WO2023195173A1 (en) * | 2022-04-08 | 2023-10-12 | 株式会社Fuji | Component mounting system and image classification method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04139592A (en) * | 1990-10-01 | 1992-05-13 | Fujitsu Ltd | Automatic teaching system for neurocomputer |
JP4514230B2 (en) * | 2006-11-22 | 2010-07-28 | 富士機械製造株式会社 | Component suction posture discrimination method and component suction posture discrimination system |
JP5427054B2 (en) * | 2010-01-29 | 2014-02-26 | 株式会社日立ハイテクインスツルメンツ | Component mounting device with anomaly detection device |
JP2012212323A (en) * | 2011-03-31 | 2012-11-01 | Sony Corp | Information processing device, information processing method, and program |
-
2017
- 2017-05-22 WO PCT/JP2017/019049 patent/WO2018216075A1/en active Application Filing
- 2017-05-22 JP JP2019519818A patent/JP6824398B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2018216075A1 (en) | 2018-11-29 |
JPWO2018216075A1 (en) | 2019-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111656883B (en) | Learning completion model generation system and method for component image recognition | |
US11972589B2 (en) | Image processing device, work robot, substrate inspection device, and specimen inspection device | |
JP6824398B2 (en) | Image processing equipment, multiplex communication system and image processing method | |
JP2014060249A (en) | Die bonder and die position recognition method | |
CN108142000B (en) | Substrate working system and component mounting apparatus | |
WO2015136669A1 (en) | Image processing device and substrate production system | |
JP2012234488A (en) | Reference mark model template creating method | |
JP6956272B2 (en) | Trace support device | |
JP7153855B2 (en) | Mounting system, abnormality determination device, and abnormality determination method | |
US20190254201A1 (en) | Component mounter | |
JPWO2018158888A1 (en) | Backup pin recognition method and component mounting apparatus | |
US11330751B2 (en) | Board work machine | |
JP7473735B2 (en) | Foreign object detection device and foreign object detection method | |
JP2009164231A (en) | Method of mounting electronic components in electronic component mounter | |
JP6131315B2 (en) | Communication system and electronic component mounting apparatus | |
JP7153127B2 (en) | Pass/Fail Judgment Device and Pass/Fail Judgment Method | |
US12082345B2 (en) | Component mounting machine | |
JP6407433B2 (en) | Model data creation device, model data creation method, mounting reference point determination device, mounting reference point determination method | |
JP4437607B2 (en) | Surface mount machine | |
WO2024024008A1 (en) | Display system | |
JP2005257566A (en) | Transfer equipment, surface mount device, ic handler, illumination level determination method, and threshold determination method | |
WO2023037410A1 (en) | Component mounting system | |
US11751371B2 (en) | Component mounting device | |
JP7142169B2 (en) | Image data management device and image data management method | |
CN111386028B (en) | Substrate processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200923 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6824398 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |