JP4413291B2 - Bin picking device with position data calibration function - Google Patents
Bin picking device with position data calibration function Download PDFInfo
- Publication number
- JP4413291B2 JP4413291B2 JP23146698A JP23146698A JP4413291B2 JP 4413291 B2 JP4413291 B2 JP 4413291B2 JP 23146698 A JP23146698 A JP 23146698A JP 23146698 A JP23146698 A JP 23146698A JP 4413291 B2 JP4413291 B2 JP 4413291B2
- Authority
- JP
- Japan
- Prior art keywords
- vision system
- coordinate
- coordinate transformation
- data
- sigma
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、位置データ較正機能付きビンピッキング装置に関する。詳しくは、ビンピッキングシステムに必要な各装置の位置関係及び部品検出に必要な位置データを較正する手段を提供するものである。
【0002】
【従来の技術】
ビンピッキングシステムは箱に投入された対象部品の位置姿勢を画像計測装置で検出し、その情報を元にロボットアームで対象部品をハンドリングするシステムである。
また、画像計測装置としては、入力画像から得られる対象物体の輪郭、凹凸、模様等の特徴を直線、円弧等で近似したデータであるとともにステレオ計測等で得た三次元位置データを有する特徴データと、対象物体のモデルの三次元位置データを有する特徴データとのマッチングをとることで対象物体の三次元位置姿勢を得るものがある。
【0003】
対象部品の位置検出方法としてモデルベーストマッチング法があり、部品のモデル作製方法としても種々の提案がある。
ハンドリングの際必要な、ロボットアーム装置と画像計測装置との相対関係を求める方法として従来より様々な提案がある。
【0004】
【発明が解決しようとする課題】
ビンピッキングシステムを正しく動作させるためには、対象部品の位置検出やハンドリングデータを計算するために必要な各装置の位置関係が既知であり、またその位置関係が正しく保たれていなければならない。
【0005】
しかしながら、カメラの故障や寿命、事故によるカメラの破損等でカメラを交換する場合は、カメラの位置やそれに伴う画像計測装置の座標系が変わるため、今までのデータを全て新しく作り直す必要がある。
またカメラ取付部の経年変化によりカメラの位置姿勢にズレが生じた場合、対象部品の検出位置姿勢が実体の位置姿勢と異なるため、システムの動作に不具合が生じる。
【0006】
【課題を解決するための手段】
本発明の請求項1に係る位置データ較正機能付きビンピッキング装置は、カメラの視野内に存在するベルトコンベア或いは作業台等の位置が変化しない背景物体を基に基準物体モデルが設定された、前記カメラを寿命又は破損等で交換する前の今までの座標系である旧ビジョン系ΣVから前記カメラを交換した後の新しく設定した座標系である新ビジョン系ΣV'への座標変換TVV'を、新ビジョン系ΣV'において前記旧ビジョン系で設定された前記基準物体モデルを用いて前記背景物体に対するモデルマッチングを行うことにより、新ビジョン系Σ V' を基にする前記背景物体の位置姿勢TV'Oの逆変換TV'O -1として下式(1)により求め、
T VV' =T V'O -1 …(1)
前記座標変換TVV'を使用して旧ビジョン系ΣVから新ビジョン系ΣV'への位置データ較正を行う位置データ較正部を備え、
前記位置データ較正部は、
前記座標変換データT VV' 及びロボットアーム装置の座標系であるロボット系Σ R から前記旧ビジョン系Σ V への座標変換T RV に基づいて、前記ロボット系Σ R から前記新ビジョン系Σ V' への座標変換T RV' を下式(2)により求め、
T RV' =T RV T VV' …(2)
また、前記座標変換データT VV' の逆変換T VV' -1 及び前記旧ビジョン系Σ V からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系Σ H への座標変換T VH に基づいて、前記新ビジョン系Σ V' から前記ハンド系Σ H への座標変換T V'H を下式(3)により求め、
T V'H =T VV' -1 T VH …(3)
更に、前記座標変換データT VV' の逆変換T VV' -1 に基づき、前記旧ビジョン系Σ V を基準にした部品モデルデータの点p V を前記新ビジョン系Σ V' を基準にした部品モデルデータの点p V' への変換を下式(4)により求めることにより、前記位置データ較正を行った後、
p V' =T VV' -1 p V …(4)
通常のビンピッキングを行うことを特徴とする。
【0007】
本発明の請求項2に係る位置データ較正機能付きビンピッキング装置は、カメラ視野内に固定した識別の容易なマーク物体を基に基準物体モデルが設定された、前記カメラを寿命又は破損等で交換する前の今までの座標系である旧ビジョン系ΣVから前記カメラを交換した後の新しく設定した座標系である新ビジョン系ΣV'への座標変換TVV'を、新ビジョン系ΣV'において前記旧ビジョン系で設定された前記基準物体モデルを用いて前記背景物体に対するモデルマッチングを行うことにより、新ビジョン系Σ V' を基にする前記背景物体の位置姿勢TV'Oの逆変換TV'O -1として下式(1)により求め、
T VV' =T V'O -1 …(1)
前記座標変換TVV'を使用して旧ビジョン系ΣVから新ビジョン系ΣV'への位置データ較正を行う位置データ較正部を備え、
前記位置データ較正部は、
前記座標変換データT VV' 及びロボットアーム装置の座標系であるロボット系Σ R から前記旧ビジョン系Σ V への座標変換T RV に基づいて、前記ロボット系Σ R から前記新ビジョン系Σ V' への座標変換T RV' を下式(2)により求め、
T RV' =T RV T VV' …(2)
また、前記座標変換データT VV' の逆変換T VV' -1 及び前記旧ビジョン系Σ V からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系Σ H への座標変換T VH に基づいて、前記新ビジョン系Σ V' から前記ハンド系Σ H への座標変換T V'H を下式(3)により求め、
T V'H =T VV' -1 T VH …(3)
更に、前記座標変換データT VV' の逆変換T VV' -1 に基づき、前記旧ビジョン系Σ V を基準にした部品モデルデータの点p V を前記新ビジョン系Σ V' を基準にした部品モデルデータの点p V' への変換を下式(4)により求めることにより、前記位置データ較正を行った後、
p V' =T VV' -1 p V …(4)
通常のビンピッキングを行うことを特徴とする。
【0008】
本発明の請求項3に係る位置データ較正機能付きビンピッキング装置は、用意しておいたジグによってマーク物体をカメラ視野内に基準物体モデルとして位置精度良く取り付けた、前記カメラを寿命又は破損等で交換する前の今までの座標系である旧ビジョン系ΣVから前記カメラを交換した後の新しく設定した座標系である新ビジョン系ΣV'への座標変換TVV'を、新ビジョン系ΣV'において前記旧ビジョン系で設定された前記基準物体モデルを用いて前記背景物体に対するモデルマッチングを行うことにより、新ビジョン系Σ V' を基にする前記背景物体の位置姿勢TV'Oの逆変換TV'O -1として下式(1)により求め、
T VV' =T V'O -1 …(1)
前記座標変換TVV'を使用して旧ビジョン系ΣVから新ビジョン系ΣV'への位置データ較正を行う位置データ較正部を備え、
前記位置データ較正部は、
前記座標変換データT VV' 及びロボットアーム装置の座標系であるロボット系Σ R から前記旧ビジョン系Σ V への座標変換T RV に基づいて、前記ロボット系Σ R から前記新ビジョン系Σ V' への座標変換T RV' を下式(2)により求め、
T RV' =T RV T VV' …(2)
また、前記座標変換データT VV' の逆変換T VV' -1 及び前記旧ビジョン系Σ V からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系Σ H への座標変換T VH に基づいて、前記新ビジョン系Σ V' から前記ハンド系Σ H への座標変換T V'H を下式(3)により求め、
T V'H =T VV' -1 T VH …(3)
更に、前記座標変換データT VV' の逆変換T VV' -1 に基づき、前記旧ビジョン系Σ V を基準にした部品モデルデータの点p V を前記新ビジョン系Σ V' を基準にした部品モデルデータの点p V' への変換を下式(4)により求めることにより、前記位置データ較正を行った後、
p V' =T VV' -1 p V …(4)
通常のビンピッキングを行うことを特徴とする。
【0010】
本発明の請求項4に係る位置データ較正機能付きビンピッキング装置は、基準物体モデルを設定するための基準部品を作業者側で適切に設置した、前記カメラを寿命又は破損等で交換する前の今までの座標系である旧ビジョン系ΣVから前記カメラを交換した後の新しく設定した座標系である新ビジョン系ΣV'への座標変換TVV'を、新ビジョン系ΣV'において前記旧ビジョン系で設定された前記基準物体モデルを用いて前記背景物体に対するモデルマッチングを行うことにより、新ビジョン系Σ V' を基にする前記背景物体の位置姿勢TV'Oの逆変換TV'O -1として下式(1)により求め、
T VV' =T V'O -1 …(1)
前記座標変換TVV'を使用して旧ビジョン系ΣVから新ビジョン系ΣV'への位置データ較正を行う位置データ較正部を備え、
前記位置データ較正部は、
前記座標変換データT VV' 及びロボットアーム装置の座標系であるロボット系Σ R から前記旧ビジョン系Σ V への座標変換T RV に基づいて、前記ロボット系Σ R から前記新ビジョン系Σ V' への座標変換T RV' を下式(2)により求め、
T RV' =T RV T VV' …(2)
また、前記座標変換データT VV' の逆変換T VV' -1 及び前記旧ビジョン系Σ V からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系Σ H への座標変換T VH に基づいて、前記新ビジョン系Σ V' から前記ハンド系Σ H への座標変換T V'H を下式(3)により求め、
T V'H =T VV' -1 T VH …(3)
更に、前記座標変換データT VV' の逆変換T VV' -1 に基づき、前記旧ビジョン系Σ V を基準にした部品モデルデータの点p V を前記新ビジョン系Σ V' を基準にした部品モデルデータの点p V' への変換を下式(4)により求めることにより、前記位置データ較正を行った後、
p V' =T VV' -1 p V …(4)
通常のビンピッキングを行うことを特徴とする。
【0011】
〔作用〕
本発明は、カメラの交換やカメラ取付部の経年変化によりカメラの位置姿勢が変化した場合でも、ビンピッキング作業前にデータ較正を行うことにより、ビンピッキングシステムの動作に必要な位置関係データや部品データを全て新しく作り直すことなく、ビンピッキング装置を正常に動作させることができる。
【0012】
【発明の実施の形態】
(1)基本的な考え方
初期設定において求めておいた各装置の位置関係および各部品についてメモリに登録してある部品検出に必要な部品データを、必要に応じて較正する機能を持つビンピッキング装置を用いることで、カメラの交換やカメラ取付部の経年変化によりカメラの位置姿勢が変化した場合でも、ビンピッキングシステムの動作に必要な位置関係データや部品データを全て新しく作り直すことなく、ビンピッキング装置を正常に動作させることができる。
【0013】
(2)位置データ較正機能付きビンピッキング装置
本発明による位置データ較正機能付きビンピッキング装置の例を図1に示す。
この装置は、画像計測部1、ロボットコントローラ2、コントロール部3、位置データ較正部4とからなり、箱に投入された対象部品の位置姿勢をカメラ(画像計測装置)5で検出し、その情報を元にロボットアーム6で対象部品をハンドリングするビンピッキング作業の前に必要に応じて位置データ較正を行い、位置データ較正後、通常のビンピッキング動作を繰り返すものである。
【0014】
(2.1)画像計測部
画像計測部1では、カメラ5からの入力画像を基に部品の検出や位置計測を行う。
ビンピッキング作業では、コントロール部3からカメラ5の位置データ、カメラ5の座標系データ、対象部品の部品データを受け取り、カメラ5からの入力画像を基に対象部品の位置姿勢を検出する。
位置データ較正作業では、カメラ5の新しい座標系データを基に、位置データ較正に必要なデータを計測し、コントロール部3の指令に従って、その計測データを位置データ較正部4へ送る。
【0015】
(2.2)ロボットコントローラ
ロボットコントローラ2ではロボットアーム6の動作全般を制御する。
ビンピッキング作業では、コントロール部3からハンドリング位置姿勢データを受け取り、対象部品のハンドリング動作を行い、決められた動作計画に従って部品を所定の場所へ設置する。
【0016】
(2.3)コントロール部
コントロール部3では装置全体の制御を行う。
ビンピッキング作業では、画像計測部1にカメラ5の位置データ、カメラ5の座標系データ、対象部品の部品データを送り、カメラ5から部品の位置姿勢データを受け取る。
さらに部品の位置姿勢データと装置の位置関係データからハンドリング位置姿勢を計算し、そのデータをロボットコントローラ2に送ってハンドリングの指令を出す。
【0017】
位置データ較正作業では、画像計測部1の計測データを基にカメラ5の新しい座標系を設定し、その座標系データおよび計測に必要なデータを画像計測部1へ送って位置データ較正用の計測データを位置データ較正部4へ送るように指令する。
さらに各装置の位置関係データと登録してある部品の部品データを位置データ較正部4へ送ってデータ較正の指令を出す。
その後位置データ較正部4で較正された各種データを受け取り、メモリに保存する。
【0018】
(2.4)位置データ較正部
位置データ較正部4では、画像計測部1から得た計測データとコントロール部3に保存してある装置の位置関係データを基にカメラ5の従来の座標系と新しく設定した座標系との位置関係を求め、その位置関係データを用いてコントロール部3に保存してある装置の位置関係データと部品データをカメラ5の新しい座標系へ対応するように以下のように較正する(特願平10−196965号参照)。
【0019】
(2.4.1)各装置の座標系と相対関係
図13の様に各座標系を設定する。
ここで各座標系は次のものである。
ΣV:旧ビジョン系(カメラ5の今までの座標系)
ΣV':新ビジョン系(カメラ5の新しく設定した座標系)
ΣR:ロボット系(ロボットアーム6の座標系)
ΣH:ハンド系(ハンドの対象物体ハンドリング時の座標系)
【0020】
各装置間の位置関係はその装置の座標系から別の装置の座標系への座標変換データとして求められる。
TRV:ロボット系ΣRから旧ビジョン系ΣVへの座標変換
TVH:旧ビジョン系ΣVからハンド系ΣHへの座標変換
TRV':ロボット系ΣRから新ビジョン系ΣV'への座標変換
TV'H:新ビジョン系ΣV'からハンド系ΣHへの座標変換
TVV':旧ビジョン系ΣVから新ビジョン系ΣV'への座標変換
【0021】
(2.4.2)較正座標変換データの計算
データ較正に必要な、変換データは旧ビジョン系ΣVから新ビジョン系ΣV'への座標変換データTVV'である。これをモデルマッチングによって求める。
旧ビジョン系ΣVにおいて基準物体の部品モデルを作っておき、基準物体をモデル作製位置に設置して、新ビジョン系ΣV'において同一のモデルを用いてモデルマッチングを行うと、新ビジョン系ΣV'を基にする基準物体の位置姿勢TV'Oを検出できる。
【0022】
この時基準物体は旧ビジョン系ΣVにおいて全く動かない位置姿勢にあるため、先ほど新ビジョン系ΣV'において検出した基準物体の位置姿勢TV'Oは、新ビジョン系ΣV'から旧ビジョン系ΣVへの座標変換TV'Vを示す。
よって、データ較正に必要な座標変換データは旧ビジョン系ΣVから新ビジョン系ΣV'への座標変換データTVV'として次のように求められる。
TVV'=TV'O -1 …(1)
【0023】
(2.4.3)装置位置関係の較正
ロボット系ΣRと新ビジョン系ΣV'の位置関係は較正座標変換データと今までの位置関係より次のように計算できる。
TRV'=TRVTVV' …(2)
新ビジョン系ΣV'とハンド系ΣHの位置関係は較正座標変換データと今までの位置関係より次のように計算できる。
TV'H=TVV' -1TVH …(3)
【0024】
(2.4.4)部品モデルデータの較正
部品の三次元形状モデルは三次元的な直線特徴や曲線特徴で構成され、それらの三次元データはビジョン系を基にした特徴上の点の三次元位置データである。
そこで部品の三次元形状モデルの較正は、モデルを構成する点位置データの旧ビジョン系ΣV から新ビジョン系ΣV'への座標変換で行うことができる。
旧ビジョン系ΣVを基準にした点pVは新ビジョン系ΣV'を基準にした点pV'へ次のように変換される。
【0025】
pV'=TVV' -1pV …(4)
こうして変換した三次元形状モデルの点を再構成することで、部品の三次元形状モデルの較正を行うことができる。
新ビジョン系ΣV'を基にした三次元形状モデルが計算されれば、カメラの新しい位置姿勢においての見え方モデルであるイメージ上の二次元形状モデルは、三次元形状モデルのカメラのイメージ平面への透視変換によって較正することができる。
【0026】
(2.4.5)基準物体モデルの設定
(2.4.5.1)背景物体による基準物体モデルの設定
カメラの視野内にベルトコンベアや作業台といった位置が変化しない物体が存在する場合は図2のように背景物体を基準物体とし、基準物体モデルを設定することができる。
【0027】
(2.4.5.2)固定マーク物体による基準物体モデルの設定
カメラ視野内に位置が変化しない固定マーク物体を設置できる場合は、図3のように固定マーク物体を基準物体とし、基準物体モデルを設定することができる。
【0028】
(2.4.5.3)取付マーク物体による基準物体モデルの設定
装置に常時取り付けてはいないが、較正作業の際何らかのジグによって取付マークを設置できる場合は、図4のように取付マーク物体を基準物体とし、基準物体モデルを設定することができる。
【0029】
(2.4.5.4)ロボットアームに取り付けたマーク物体による基準物体モデルの設定
ロボットアームにマーク物体を取り付けることができる場合は、図5のようにそのマーク物体を基準物体とし、基準物体モデルを設定することができる。
【0030】
(2.4.5.5)基準部品による基準物体モデルの設定
較正作業用に基準部品として選んだ部品を、ロボットアーム等を用いて同一の位置に設置できる場合は、図6のようにその基準部品を基準物体とし、基準物体モデルを設定することができる。
【0031】
(2.4.6)位置データ較正方法
(2.4.6.1)背景物体による位置データ較正方法
カメラの位置姿勢が変化した場合、図7に示すフローチャートに従い、次の手順でビンピッキングシステムの位置データを較正する。
▲1▼カメラ5の新ビジョン系の設定を行う。
▲2▼背景物体モデルによりモデルマッチングを行う。
▲3▼マッチング結果より較正座標変換データTVV'を計算する。
▲4▼較正座標変換データと今までの装置位置関係データを用いて装置位置関係データを較正する。
▲5▼較正座標変換データと今までの部品モデルデータを用いて部品モデルデータを較正する。
【0032】
(2.4.6.2)固定マーク物体による位置データ較正方法
カメラの位置姿勢が変化した場合、図8に示すフローチャートに従い、次の手順でビンピッキングシステムの位置データを較正する。
▲1▼カメラ5の新ビジョン系の設定を行う。
▲2▼固定マーク物体モデルによりモデルマッチングを行う。
▲3▼マッチング結果より較正座標変換データTVV'を計算する。
▲4▼較正座標変換データと今までの装置位置関係データを用いて装置位置関係データを較正する。
▲5▼較正座標変換データと今までの部品モデルデータを用いて部品モデルデータを較正する。
【0033】
(2.4.6.3)取付マーク物体による位置データ較正方法
カメラの位置姿勢が変化した場合、図9に示すフローチャートに従い、次の手順でビンピッキングシステムの位置データを較正する。
▲1▼カメラ5の新ビジョン系の設定を行う。
▲2▼取付マーク物体モデルによりモデルマッチングを行う。
▲3▼マッチング結果より較正座標変換データTVV'を計算する。
▲4▼較正座標変換データと今までの装置位置関係データを用いて装置位置関係データを較正する。
▲5▼較正座標変換データと今までの部品モデルデータを用いて部品モデルデータを較正する。
【0034】
(2.4.6.4)ロボットアームに取り付けたマーク物体による位置データ較正方法
カメラの位置姿勢が変化した場合、図10に示すフローチャートに従い、次の手順でビンピッキングシステムの位置データを較正する。
▲1▼カメラ5の新ビジョン系の設定を行う。
▲2▼ロボットアーム6に取り付けたマーク物体モデルによりモデルマッチングを行う。
▲3▼マッチング結果より較正座標変換データTVV'を計算する。
▲4▼較正座標変換データと今までの装置位置関係データを用いて装置位置関係データを較正する。
▲5▼較正座標変換データと今までの部品モデルデータを用いて部品モデルデータを較正する。
【0035】
(2.4.6.5)基準部品による位置データ較正方法
カメラの位置姿勢が変化した場合、図11に示すフローチャートに従い、次の手順でビンピッキングシステムの位置データを較正する。
▲1▼カメラ5の新ビジョン系の設定を行う。
▲2▼基準部品モデルによりモデルマッチングを行う。
▲3▼マッチング結果より較正座標変換データTVV'を計算する。
▲4▼較正座標変換データと今までの装置位置関係データを用いて装置位置関係データを較正する。
▲5▼較正座標変換データと今までの部品モデルデータを用いて部品モデルデータを較正する。
【0036】
(3)位置データ較正機能付きビンピッキング装置の動作手順
本発明では、図12に示すフローチャートに従い、必要に応じて以下のように位置データ較正をビンピッキング作業の前に行う。
▲1▼先ず、カメラ5の新しい座標系を設定する。
▲2▼次に、(2.4.1)〜(2.4.6)に示すように位置データ較正を行い、位置関係データ、部品データを新しい座標系に対応したデータヘ更新する。
このような位置データ較正手順の後、図12に示すフローチャートに従い、通常のビンピッキング動作を行う。
【0037】
▲3▼部品データを基に画像計測によって対象部品の位置姿勢を検出する。
▲4▼位置関係データと▲3▼で得られた部品の位置姿勢からハンドリング位置姿勢を計算する。
▲5▼ロボットコントローラ2によってハンドリング位置姿勢ヘロボットアーム6のハンドを動作させる。
▲6▼対象部品をハンドリングする。
▲7▼ロボットアーム6を動作させ、ハンドリングした対象部品を所定の場所へ設置する。
通常の動作では▲3▼〜▲7▼を作業終了まで繰り返す。
【0038】
【発明の効果】
以上、実施例に基づいて具体的に説明したように、本発明によれば、カメラの故障や寿命、事故によるカメラの破損等でカメラを交換する場合でも、ビンピッキングシステムに必要な位置データを較正できるため、以下の効果を奏する。
(1)今までのデータを全て新しく作り直す必要がない。
(2)カメラ交換に伴う作業による作業時間を大幅に短縮できる。
(3)大量の部品モデルデータを扱い易く、多品種を扱う工程に容易に対応できる。
(4)過去に作った大量の部品モデルデータのデータベースを効率よく扱うことができる。
(5)カメラ交換に伴う作業コストを小さくすることができる。
(6)カメラ交換に伴う作業者の負担を軽減できる。
(7)カメラ交換作業を容易に行うことができる。
(8)定期的に位置データ較正を行うことにより、カメラ取付部の経年変化によってカメラの位置姿勢に多少のズレが生じた場合でも、システムを正常に動作させ続けることができる。
(9)定期的に位置データ較正を行うことによって、システムの信頼性が向上する。
【図面の簡単な説明】
【図1】本発明の一実施例に係る位置データ較正機能付ビンピッキング装置を示す構成図である。
【図2】背景物体による基準物体モデルを示す説明図である。
【図3】固定マーク物体による基準物体モデルを示す説明図である。
【図4】取付マーク物体による基準物体モデルを示す説明図である。
【図5】ロボットアームに取り付けたマーク物体による基準物体モデルを示す説明図である。
【図6】基準部品による基準物体モデルを示す説明図である。
【図7】背景物体による位置データ較正方法を示すフローチャートである。
【図8】固定マーク物体による位置データ較正方法を示すフローチャートである。
【図9】取付マーク物体による位置データ較正方法を示すフローチャートである。
【図10】ロボットアームに取り付けたマーク物体による位置データ較正方法を示すフローチャートである。
【図11】基準部品による位置データ較正方法を示すフローチャートである。
【図12】本発明の一実施例に係る位置データ較正機能付きビンピッキング処理を示すフローチャートである。
【図13】位置データ較正に用いる座標系を示す説明図である。
【符号の説明】
1 画像系側部
2 ロボットコントローラ
3 コントロール部
4 位置データ較正部
5 カメラ(画像計測装置)
6 ロボットアーム[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a position data calibration function bin picking equipment. Specifically, the present invention provides means for calibrating the positional relationship of each device necessary for the bin picking system and the positional data necessary for component detection.
[0002]
[Prior art]
The bin picking system is a system in which the position and orientation of a target part put in a box is detected by an image measuring device, and the target part is handled by a robot arm based on the information.
In addition, as an image measuring device, feature data having three-dimensional position data obtained by stereo measurement or the like as well as data that approximates features such as contours, unevenness, and patterns of a target object obtained from an input image with straight lines, arcs, etc. And obtaining the three-dimensional position and orientation of the target object by matching with the feature data having the three-dimensional position data of the model of the target object.
[0003]
There is a model-based matching method as a method for detecting the position of a target component, and various proposals are also made as a method for producing a model of a component.
Conventionally, various proposals have been made as a method for obtaining a relative relationship between a robot arm device and an image measuring device, which is necessary for handling.
[0004]
[Problems to be solved by the invention]
In order for the bin picking system to operate correctly, the positional relationship of each device necessary for detecting the position of the target component and calculating the handling data must be known and the positional relationship must be maintained correctly.
[0005]
However, when a camera is replaced due to a camera failure, a life span, or a camera damage due to an accident, the position of the camera and the coordinate system of the image measuring apparatus associated therewith change, so that all of the existing data needs to be recreated.
In addition, when the camera position and orientation are deviated due to the secular change of the camera mounting portion, the detected position and orientation of the target component is different from the actual position and orientation, resulting in a malfunction of the system operation.
[0006]
[Means for Solving the Problems]
Position data calibration function bin picking device according to claim 1 of the present invention, reference object model is set based on the background object position of the belt conveyor or a work bench or the like existing in the camera field of view does not change, the Coordinate transformation T VV from old vision system Σ V, which is the previous coordinate system before replacing the camera due to life or damage, etc., to new vision system Σ V ′ , which is a newly set coordinate system after replacing the camera 'the new vision system sigma V' wherein by performing model matching for the background object using the reference object model that is set in the former vision system in, the background object on which to base the new vision system sigma V ' Obtained by the following formula (1) as the inverse transformation T V'O -1 of the position and orientation T V'O
T VV ′ = T V′O −1 (1)
A position data calibration unit that performs position data calibration from the old vision system Σ V to the new vision system Σ V ′ using the coordinate transformation T VV ′ ;
The position data calibration unit includes:
Based on the coordinate transformation data T VV ′ and the coordinate transformation T RV from the robot system Σ R which is the coordinate system of the robot arm device to the old vision system Σ V , the robot system Σ R to the new vision system Σ V ′. The coordinate transformation T RV ′ to is calculated by the following equation (2):
T RV ′ = T RV T VV ′ (2)
Further, the coordinate transformation T VH to -1 and the hand system is a coordinate system of the object to be handled by the robotic arm mechanism from the old vision system sigma V sigma H 'inverse transform T VV' of the coordinate transformation data T VV Based on the following equation (3) , a coordinate transformation T V′H from the new vision system Σ V ′ to the hand system Σ H is obtained,
T V′H = T VV ′ −1 T VH (3)
Furthermore, components based on said -1 'inverse transform T VV' of the coordinate transformation data T VV, and the point p V component model data relative to the old vision system sigma V based on the new vision system sigma V ' After performing the position data calibration by obtaining the transformation of the model data to the point p V ′ by the following equation (4) ,
p V ′ = T VV ′ −1 p V (4)
It is characterized by performing normal bin picking.
[0007]
Position data calibration function bin picking device according to
T VV ′ = T V′O −1 (1)
A position data calibration unit that performs position data calibration from the old vision system Σ V to the new vision system Σ V ′ using the coordinate transformation T VV ′ ;
The position data calibration unit includes:
Based on the coordinate transformation data T VV ′ and the coordinate transformation T RV from the robot system Σ R which is the coordinate system of the robot arm device to the old vision system Σ V , the robot system Σ R to the new vision system Σ V ′. The coordinate transformation T RV ′ to is calculated by the following equation (2):
T RV ′ = T RV T VV ′ (2)
Further, the coordinate transformation T VH to -1 and the hand system is a coordinate system of the object to be handled by the robotic arm mechanism from the old vision system sigma V sigma H 'inverse transform T VV' of the coordinate transformation data T VV Based on the following equation (3) , a coordinate transformation T V′H from the new vision system Σ V ′ to the hand system Σ H is obtained,
T V′H = T VV ′ −1 T VH (3)
Furthermore, components based on said -1 'inverse transform T VV' of the coordinate transformation data T VV, and the point p V component model data relative to the old vision system sigma V based on the new vision system sigma V ' After performing the position data calibration by obtaining the transformation of the model data to the point p V ′ by the following equation (4) ,
p V ′ = T VV ′ −1 p V (4)
It is characterized by performing normal bin picking.
[0008]
Position data calibration function bin picking device according to claim 3 of the present invention, the mark object by a jig which had been prepared was mounted high positional accuracy as the reference object model in the camera view, the camera in life or damage The coordinate system T VV ′ from the old vision system Σ V, which is the previous coordinate system before replacement, to the new vision system Σ V ′ , which is the newly set coordinate system after replacing the camera , is converted into the new vision system Σ. 'by performing model matching for the background object using the reference object model the set in the former vision system in the new vision system sigma V' V of the position and orientation T V'O of the background object that based on The inverse transformation T V′O −1 is obtained by the following formula (1) ,
T VV ′ = T V′O −1 (1)
A position data calibration unit that performs position data calibration from the old vision system Σ V to the new vision system Σ V ′ using the coordinate transformation T VV ′ ;
The position data calibration unit includes:
Based on the coordinate transformation data T VV ′ and the coordinate transformation T RV from the robot system Σ R which is the coordinate system of the robot arm device to the old vision system Σ V , the robot system Σ R to the new vision system Σ V ′. The coordinate transformation T RV ′ to is calculated by the following equation (2):
T RV ′ = T RV T VV ′ (2)
Further, the coordinate transformation T VH to -1 and the hand system is a coordinate system of the object to be handled by the robotic arm mechanism from the old vision system sigma V sigma H 'inverse transform T VV' of the coordinate transformation data T VV Based on the following equation (3) , a coordinate transformation T V′H from the new vision system Σ V ′ to the hand system Σ H is obtained,
T V′H = T VV ′ −1 T VH (3)
Furthermore, components based on said -1 'inverse transform T VV' of the coordinate transformation data T VV, and the point p V component model data relative to the old vision system sigma V based on the new vision system sigma V ' After performing the position data calibration by obtaining the transformation of the model data to the point p V ′ by the following equation (4) ,
p V ′ = T VV ′ −1 p V (4)
It is characterized by performing normal bin picking.
[0010]
A bin picking device with a position data calibration function according to a fourth aspect of the present invention is configured such that a reference part for setting a reference object model is appropriately installed on an operator side, and the camera is replaced with a product with a life or damage. the 'coordinate transformation T VV to' up from the old vision system Σ V is a coordinate system wherein the camera is a newly set coordinate system after replacing the new vision system Σ V of now, said in the new vision system Σ V ' By performing model matching on the background object using the reference object model set in the old vision system, the inverse transformation T V of the position and orientation T V′O of the background object based on the new vision system Σ V ′ 'O -1 is obtained by the following formula (1) ,
T VV ′ = T V′O −1 (1)
Comprising a position data calibration unit that performs position data calibration using 'from the old vision system ΣV new vision system sigma V' the coordinate transformation T VV to,
The position data calibration unit includes:
Based on the coordinate transformation data T VV ′ and the coordinate transformation T RV from the robot system Σ R which is the coordinate system of the robot arm device to the old vision system Σ V , the robot system Σ R to the new vision system Σ V ′. The coordinate transformation T RV ′ to is calculated by the following equation (2):
T RV ′ = T RV T VV ′ (2)
Further, the coordinate transformation T VH to -1 and the hand system is a coordinate system of the object to be handled by the robotic arm mechanism from the old vision system sigma V sigma H 'inverse transform T VV' of the coordinate transformation data T VV Based on the following equation (3) , a coordinate transformation T V′H from the new vision system Σ V ′ to the hand system Σ H is obtained,
T V′H = T VV ′ −1 T VH (3)
Furthermore, components based on said -1 'inverse transform T VV' of the coordinate transformation data T VV, and the point p V component model data relative to the old vision system sigma V based on the new vision system sigma V ' After performing the position data calibration by obtaining the transformation of the model data to the point p V ′ by the following equation (4) ,
p V ′ = T VV ′ −1 p V (4)
It is characterized by performing normal bin picking.
[0011]
[Action]
The present invention provides positional data and components necessary for the operation of the bin picking system by performing data calibration before bin picking work even when the position and orientation of the camera change due to camera replacement and camera aging. The bin picking apparatus can be operated normally without recreating all the data.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
(1) Basic concept Bin picking device having a function of calibrating as needed the component data necessary for component detection registered in the memory with respect to the positional relationship of each device obtained in the initial setting The bin picking device can be used without recreating all the positional relationship data and parts data necessary for the operation of the bin picking system even when the camera position and orientation change due to camera replacement or camera aging. Can be operated normally.
[0013]
(2) Bin Picking Device with Position Data Calibration Function FIG. 1 shows an example of a bin picking device with position data calibration function according to the present invention.
This apparatus comprises an image measurement unit 1, a
[0014]
(2.1) Image Measurement Unit The image measurement unit 1 performs component detection and position measurement based on an input image from the camera 5.
In the bin picking work, the position data of the camera 5, the coordinate system data of the camera 5, and the parts data of the target part are received from the control unit 3, and the position and orientation of the target part are detected based on the input image from the camera 5.
In the position data calibration operation, data necessary for position data calibration is measured based on the new coordinate system data of the camera 5, and the measurement data is sent to the position data calibration unit 4 in accordance with a command from the control unit 3.
[0015]
(2.2) Robot controller The
In the bin picking work, the handling position / posture data is received from the control unit 3, the handling operation of the target component is performed, and the component is installed at a predetermined place according to the determined operation plan.
[0016]
(2.3) Control unit The control unit 3 controls the entire apparatus.
In the bin picking operation, the camera 5 position data, the camera 5 coordinate system data, and the target part data are sent to the image measuring unit 1, and the parts position and orientation data are received from the camera 5.
Further, a handling position / orientation is calculated from the position / orientation data of the part and the positional relationship data of the apparatus, and the data is sent to the
[0017]
In the position data calibration work, a new coordinate system of the camera 5 is set based on the measurement data of the image measurement unit 1, and the coordinate system data and data necessary for measurement are sent to the image measurement unit 1 to perform measurement for position data calibration. Commands the data to be sent to the position data calibration unit 4.
Further, the positional relationship data of each device and the part data of the registered parts are sent to the position data calibration unit 4 to issue a data calibration command.
Thereafter, various data calibrated by the position data calibration unit 4 are received and stored in the memory.
[0018]
(2.4) Position Data Calibration Unit In the position data calibration unit 4, the conventional coordinate system of the camera 5 is based on the measurement data obtained from the image measurement unit 1 and the positional relationship data of the device stored in the control unit 3. The positional relationship with the newly set coordinate system is obtained, and the positional relationship data and the component data stored in the control unit 3 using the positional relationship data are associated with the new coordinate system of the camera 5 as follows. (See Japanese Patent Application No. 10-196965).
[0019]
(2.4.1) Coordinate system of each device and relative relationship Each coordinate system is set as shown in FIG.
Here, each coordinate system is as follows.
Σ V : Old vision system (previous coordinate system of camera 5)
Σ V ' : New vision system (Camera 5's newly set coordinate system)
Σ R : Robot system (coordinate system of robot arm 6)
Σ H : Hand system (coordinate system when handling the target object of the hand)
[0020]
The positional relationship between each device is obtained as coordinate conversion data from the coordinate system of the device to the coordinate system of another device.
T RV : Coordinate transformation from robot system Σ R to old vision system Σ V T VH : Coordinate transformation from old vision system Σ V to hand system Σ H T RV ' : From robot system Σ R to new vision system Σ V' Coordinate transformation T V′H : coordinate transformation from new vision system Σ V ′ to hand system Σ H T VV ′ : coordinate transformation from old vision system Σ V to new vision system Σ V ′
(2.4.2) Calculation Data of Calibration Coordinate Conversion Data The conversion data necessary for calibration is the coordinate conversion data T VV ′ from the old vision system Σ V to the new vision system Σ V ′ . This is obtained by model matching.
When a reference object part model is created in the old vision system Σ V , the reference object is placed at the model production position, and model matching is performed using the same model in the new vision system Σ V ′ , the new vision system Σ The position and orientation T V′O of the reference object based on V ′ can be detected.
[0022]
At this time the reference object is in a position and orientation that does not move at all in the old vision system sigma V, just the new vision system sigma V 'pose T V'O reference object detected in the new vision system sigma V' old vision from The coordinate transformation T V′V to the system Σ V is shown.
Therefore, the coordinate conversion data necessary for data calibration is obtained as follows as the coordinate conversion data T VV ′ from the old vision system Σ V to the new vision system Σ V ′ .
T VV ′ = T V′O −1 (1)
[0023]
(2.4.3) The positional relationship between the calibration robot system Σ R and the new vision system Σ V ′ in the apparatus positional relationship can be calculated as follows from the calibration coordinate conversion data and the previous positional relationship.
T RV ′ = T RV T VV ′ (2)
The positional relationship between the new vision system Σ V ′ and the hand system Σ H can be calculated from the calibration coordinate conversion data and the previous positional relationship as follows.
T V′H = T VV ′ −1 T VH (3)
[0024]
(2.4.4) Calibration of part model data The three-dimensional shape model of a part is composed of three-dimensional linear features and curved features, and these three-dimensional data are the tertiary of points on the features based on the vision system. Original position data.
Therefore, the calibration of the three-dimensional shape model of the part can be performed by coordinate conversion of the point position data constituting the model from the old vision system Σ V to the new vision system Σ V ′ .
The point p V based on the old vision system Σ V is converted to the point p V ′ based on the new vision system Σ V ′ as follows.
[0025]
p V ′ = T VV ′ −1 p V (4)
By reconstructing the points of the three-dimensional shape model thus converted, the three-dimensional shape model of the part can be calibrated.
If a 3D shape model based on the new vision system Σ V ′ is calculated, the 2D shape model on the image, which is the appearance model at the new position and orientation of the camera, is the image plane of the 3D shape model camera. Can be calibrated by perspective transformation into
[0026]
(2.4.5) Setting of reference object model (2.4.5.1) Setting of reference object model by background object When there is an object whose position does not change in the field of view of the camera, such as a belt conveyor or a workbench As shown in FIG. 2, a background object can be used as a reference object, and a reference object model can be set.
[0027]
(2.4.5.2) Setting of reference object model by fixed mark object When a fixed mark object whose position does not change in the camera field of view can be set, the fixed mark object is used as the reference object as shown in FIG. A model can be set.
[0028]
(2.4.5.3) Although the reference mark is not always attached to the setting device of the reference object model by the attachment mark object, if the attachment mark can be set by some jig during the calibration work, the attachment mark object is as shown in FIG. And a reference object model can be set.
[0029]
(2.4.5.4) Setting of reference object model by mark object attached to robot arm When mark object can be attached to robot arm, the mark object is set as the reference object as shown in FIG. A model can be set.
[0030]
(2.4.5.5) Setting of reference object model with reference parts When parts selected as reference parts for calibration work can be installed at the same position using a robot arm or the like, as shown in FIG. A reference object model can be set using a reference part as a reference object.
[0031]
(2.4.6) Position Data Calibration Method (2.4.6.1) Position Data Calibration Method Using Background Object When the position and orientation of the camera changes, the bin picking system is performed according to the following procedure according to the flowchart shown in FIG. Calibrate the position data.
(1) Set a new vision system for the camera 5.
(2) Model matching is performed using the background object model.
(3) Calculate the calibration coordinate conversion data TVV ' from the matching result.
{Circle around (4)} The apparatus positional relationship data is calibrated using the calibration coordinate conversion data and the previous apparatus positional relationship data.
(5) The part model data is calibrated using the calibration coordinate conversion data and the part model data so far.
[0032]
(2.4.6.2) Position Data Calibration Method Using Fixed Mark Object When the position and orientation of the camera change, the position data of the bin picking system is calibrated according to the following procedure according to the flowchart shown in FIG.
(1) Set a new vision system for the camera 5.
(2) Model matching is performed using a fixed mark object model.
(3) Calculate the calibration coordinate conversion data TVV ' from the matching result.
{Circle around (4)} The apparatus positional relationship data is calibrated using the calibration coordinate conversion data and the previous apparatus positional relationship data.
(5) The part model data is calibrated using the calibration coordinate conversion data and the part model data so far.
[0033]
(2.4.6.3) Position Data Calibration Method Using Attachment Mark Object When the position and orientation of the camera changes, the position data of the bin picking system is calibrated according to the following procedure according to the flowchart shown in FIG.
(1) Set a new vision system for the camera 5.
(2) Model matching is performed using the mounting mark object model.
(3) Calculate the calibration coordinate conversion data TVV ' from the matching result.
{Circle around (4)} The apparatus positional relationship data is calibrated using the calibration coordinate conversion data and the previous apparatus positional relationship data.
(5) The part model data is calibrated using the calibration coordinate conversion data and the part model data so far.
[0034]
(2.4.6.4) Position Data Calibration Method Using Mark Object Attached to Robot Arm When the position and orientation of the camera changes, the position data of the bin picking system is calibrated according to the following procedure according to the flowchart shown in FIG. .
(1) Set a new vision system for the camera 5.
(2) Model matching is performed using a mark object model attached to the robot arm 6.
(3) Calculate the calibration coordinate conversion data TVV ' from the matching result.
{Circle around (4)} The apparatus positional relationship data is calibrated using the calibration coordinate conversion data and the previous apparatus positional relationship data.
(5) The part model data is calibrated using the calibration coordinate conversion data and the part model data so far.
[0035]
(2.4.6.5) Position Data Calibration Method Using Reference Parts When the position and orientation of the camera changes, the position data of the bin picking system is calibrated according to the following procedure according to the flowchart shown in FIG.
(1) Set a new vision system for the camera 5.
(2) Model matching is performed using a reference part model.
(3) Calculate the calibration coordinate conversion data TVV ' from the matching result.
{Circle around (4)} The apparatus positional relationship data is calibrated using the calibration coordinate conversion data and the previous apparatus positional relationship data.
(5) The part model data is calibrated using the calibration coordinate conversion data and the part model data so far.
[0036]
(3) Operation Procedure of Bin Picking Device with Position Data Calibration Function In the present invention, according to the flowchart shown in FIG. 12, position data calibration is performed as follows before bin picking work as necessary.
(1) First, a new coordinate system of the camera 5 is set.
(2) Next, position data calibration is performed as shown in (2.4.1) to (2.4.6), and the positional relationship data and component data are updated to data corresponding to the new coordinate system.
After such a position data calibration procedure, a normal bin picking operation is performed according to the flowchart shown in FIG.
[0037]
(3) The position and orientation of the target part is detected by image measurement based on the part data.
(4) The handling position and orientation are calculated from the positional relationship data and the position and orientation of the part obtained in (3).
(5) The
(6) Handle the target part.
(7) The robot arm 6 is operated to place the handled target part at a predetermined location.
In normal operation, steps (3) to (7) are repeated until the work is completed.
[0038]
【The invention's effect】
As described above in detail based on the embodiments, according to the present invention, the position data necessary for the bin picking system can be obtained even when the camera is replaced due to a camera failure, a life span, a camera damage due to an accident, or the like. Since it can be calibrated, it has the following effects.
(1) It is not necessary to recreate all the data so far.
(2) The working time due to work associated with camera replacement can be greatly reduced.
(3) It is easy to handle a large amount of part model data, and can easily cope with a process that handles a variety of products.
(4) A database of a large amount of part model data created in the past can be handled efficiently.
(5) The work cost associated with camera replacement can be reduced.
(6) It is possible to reduce the burden on the operator due to camera replacement.
(7) Camera replacement work can be easily performed.
(8) By periodically calibrating the position data, the system can continue to operate normally even if there is a slight shift in the position and orientation of the camera due to aging of the camera mounting portion.
(9) Periodic position data calibration improves system reliability.
[Brief description of the drawings]
FIG. 1 is a configuration diagram illustrating a bin picking device with a position data calibration function according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram showing a reference object model based on a background object.
FIG. 3 is an explanatory diagram showing a reference object model using a fixed mark object.
FIG. 4 is an explanatory diagram showing a reference object model based on an attachment mark object.
FIG. 5 is an explanatory diagram showing a reference object model based on a mark object attached to a robot arm.
FIG. 6 is an explanatory diagram showing a reference object model based on reference parts.
FIG. 7 is a flowchart showing a position data calibration method using a background object.
FIG. 8 is a flowchart showing a position data calibration method using a fixed mark object.
FIG. 9 is a flowchart illustrating a position data calibration method using an attachment mark object.
FIG. 10 is a flowchart illustrating a position data calibration method using a mark object attached to a robot arm.
FIG. 11 is a flowchart showing a position data calibration method using a reference part.
FIG. 12 is a flowchart illustrating a bin picking process with a position data calibration function according to an embodiment of the present invention.
FIG. 13 is an explanatory diagram showing a coordinate system used for position data calibration.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Image
6 Robotic arm
Claims (4)
T VV' =T V'O -1 …(1)
前記座標変換TVV'を使用して旧ビジョン系ΣVから新ビジョン系ΣV'への位置データ較正を行う位置データ較正部を備え、
前記位置データ較正部は、
前記座標変換データT VV' 及びロボットアーム装置の座標系であるロボット系Σ R から前記旧ビジョン系Σ V への座標変換T RV に基づいて、前記ロボット系Σ R から前記新ビジョン系Σ V' への座標変換T RV' を下式(2)により求め、
T RV' =T RV T VV' …(2)
また、前記座標変換データT VV' の逆変換T VV' -1 及び前記旧ビジョン系Σ V からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系Σ H への座標変換T VH に基づいて、前記新ビジョン系Σ V' から前記ハンド系Σ H への座標変換T V'H を下式(3)により求め、
T V'H =T VV' -1 T VH …(3)
更に、前記座標変換データT VV' の逆変換T VV' -1 に基づき、前記旧ビジョン系Σ V を基準にした部品モデルデータの点p V を前記新ビジョン系Σ V' を基準にした部品モデルデータの点p V' への変換を下式(4)により求めることにより、前記位置データ較正を行った後、
p V' =T VV' -1 p V …(4)
通常のビンピッキングを行うことを特徴とする位置データ較正機能付きビンピッキング装置。This is a conventional coordinate system in which a reference object model is set based on a background object that does not change the position of a belt conveyor or workbench that exists in the field of view of the camera, and before the camera is replaced due to life or damage. The coordinate transformation T VV ′ from the old vision system Σ V to the new vision system Σ V ′ , which is a newly set coordinate system after replacing the camera, is set in the new vision system Σ V ′ in the old vision system By performing model matching with respect to the background object using the reference object model, the following formula is obtained as an inverse transformation T V′O −1 of the position and orientation T V′O of the background object based on the new vision system Σ V ′. Obtained by (1)
T VV ′ = T V′O −1 (1)
A position data calibration unit that performs position data calibration from the old vision system Σ V to the new vision system Σ V ′ using the coordinate transformation T VV ′ ;
The position data calibration unit includes:
Based on the coordinate transformation data T VV ′ and the coordinate transformation T RV from the robot system Σ R which is the coordinate system of the robot arm device to the old vision system Σ V , the robot system Σ R to the new vision system Σ V ′. The coordinate transformation T RV ′ to is calculated by the following equation (2):
T RV ′ = T RV T VV ′ (2)
Further, the coordinate transformation T VH to -1 and the hand system is a coordinate system of the object to be handled by the robotic arm mechanism from the old vision system sigma V sigma H 'inverse transform T VV' of the coordinate transformation data T VV Based on the following equation (3) , a coordinate transformation T V′H from the new vision system Σ V ′ to the hand system Σ H is obtained,
T V′H = T VV ′ −1 T VH (3)
Furthermore, components based on said -1 'inverse transform T VV' of the coordinate transformation data T VV, and the point p V component model data relative to the old vision system sigma V based on the new vision system sigma V ' After performing the position data calibration by obtaining the transformation of the model data to the point p V ′ by the following equation (4) ,
p V ′ = T VV ′ −1 p V (4)
A bin picking device with a position data calibration function, wherein normal bin picking is performed.
T VV' =T V'O -1 …(1)
前記座標変換TVV'を使用して旧ビジョン系ΣVから新ビジョン系ΣV'への位置データ較正を行う位置データ較正部を備え、
前記位置データ較正部は、
前記座標変換データT VV' 及びロボットアーム装置の座標系であるロボット系Σ R から前記旧ビジョン系Σ V への座標変換T RV に基づいて、前記ロボット系Σ R から前記新ビジョン系Σ V' への座標変換T RV' を下式(2)により求め、
T RV' =T RV T VV' …(2)
また、前記座標変換データT VV' の逆変換T VV' -1 及び前記旧ビジョン系Σ V からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系Σ H への座標変換T VH に基づいて、前記新ビジョン系Σ V' から前記ハンド系Σ H への座標変換T V'H を下式(3)により求め、
T V'H =T VV' -1 T VH …(3)
更に、前記座標変換データT VV' の逆変換T VV' -1 に基づき、前記旧ビジョン系Σ V を基準にした部品モデルデータの点p V を前記新ビジョン系Σ V' を基準にした部品モデルデータの点p V' への変換を下式(4)により求めることにより、前記位置データ較正を行った後、
p V' =T VV' -1 p V …(4)
通常のビンピッキングを行うことを特徴とする位置データ較正機能付きビンピッキング装置。Reference object model based on an easy mark objects identified fixed in the camera field of view is set, the camera from the old vision system sigma V is a coordinate system of ever before replacing the camera with life or damage Using the reference object model set in the old vision system in the new vision system Σ V ′ , the coordinate transformation T VV ′ to the new vision system Σ V ′ , which is a newly set coordinate system after replacing the by performing model matching for background objects, determined by the following equation (1) as the inverse transformation T V'O -1 of the position and orientation T V'O of the background objects backed by a new vision system sigma V ',
T VV ′ = T V′O −1 (1)
A position data calibration unit that performs position data calibration from the old vision system Σ V to the new vision system Σ V ′ using the coordinate transformation T VV ′ ;
The position data calibration unit includes:
Based on the coordinate transformation data T VV ′ and the coordinate transformation T RV from the robot system Σ R which is the coordinate system of the robot arm device to the old vision system Σ V , the robot system Σ R to the new vision system Σ V ′. The coordinate transformation T RV ′ to is calculated by the following equation (2):
T RV ′ = T RV T VV ′ (2)
Further, the coordinate transformation T VH to -1 and the hand system is a coordinate system of the object to be handled by the robotic arm mechanism from the old vision system sigma V sigma H 'inverse transform T VV' of the coordinate transformation data T VV Based on the following equation (3) , a coordinate transformation T V′H from the new vision system Σ V ′ to the hand system Σ H is obtained,
T V′H = T VV ′ −1 T VH (3)
Furthermore, components based on said -1 'inverse transform T VV' of the coordinate transformation data T VV, and the point p V component model data relative to the old vision system sigma V based on the new vision system sigma V ' After performing the position data calibration by obtaining the transformation of the model data to the point p V ′ by the following equation (4) ,
p V ′ = T VV ′ −1 p V (4)
A bin picking device with a position data calibration function, wherein normal bin picking is performed.
T VV' =T V'O -1 …(1)
前記座標変換TVV'を使用して旧ビジョン系ΣVから新ビジョン系ΣV'への位置データ較正を行う位置データ較正部を備え、
前記位置データ較正部は、
前記座標変換データT VV' 及びロボットアーム装置の座標系であるロボット系Σ R から前記旧ビジョン系Σ V への座標変換T RV に基づいて、前記ロボット系Σ R から前記新ビジョン系Σ V' への座標変換T RV' を下式(2)により求め、
T RV' =T RV T VV' …(2)
また、前記座標変換データT VV' の逆変換T VV' -1 及び前記旧ビジョン系Σ V からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系Σ H への座標変換T VH に基づいて、前記新ビジョン系Σ V' から前記ハンド系Σ H への座標変換T V'H を下式(3)により求め、
T V'H =T VV' -1 T VH …(3)
更に、前記座標変換データT VV' の逆変換T VV' -1 に基づき、前記旧ビジョン系Σ V を基準にした部品モデルデータの点p V を前記新ビジョン系Σ V' を基準にした部品モデルデータの点p V' への変換を下式(4)により求めることにより、前記位置データ較正を行った後、
p V' =T VV' -1 p V …(4)
通常のビンピッキングを行うことを特徴とする位置データ較正機能付きビンピッキング装置。 Wherein the mark object by prepared in advance jig mounted high positional accuracy as the reference object model in the camera field of view, from the old vision system sigma V is a coordinate system before the now replacing the camera with life or damage Using the reference object model set in the old vision system in the new vision system Σ V ′ , the coordinate transformation T VV ′ to the new vision system Σ V ′ , which is a newly set coordinate system after the camera is replaced. wherein by performing model matching for background objects, determined by the following equation (1) as the inverse transformation T V'O -1 of the position and orientation T V'O of the background objects backed by a new vision system sigma V ',
T VV ′ = T V′O −1 (1)
A position data calibration unit that performs position data calibration from the old vision system Σ V to the new vision system Σ V ′ using the coordinate transformation T VV ′ ;
The position data calibration unit includes:
Based on the coordinate transformation data T VV ′ and the coordinate transformation T RV from the robot system Σ R which is the coordinate system of the robot arm device to the old vision system Σ V , the robot system Σ R to the new vision system Σ V ′. The coordinate transformation T RV ′ to is calculated by the following equation (2):
T RV ′ = T RV T VV ′ (2)
Further, the coordinate transformation T VH to -1 and the hand system is a coordinate system of the object to be handled by the robotic arm mechanism from the old vision system sigma V sigma H 'inverse transform T VV' of the coordinate transformation data T VV Based on the following equation (3) , a coordinate transformation T V′H from the new vision system Σ V ′ to the hand system Σ H is obtained,
T V′H = T VV ′ −1 T VH (3)
Furthermore, components based on said -1 'inverse transform T VV' of the coordinate transformation data T VV, and the point p V component model data relative to the old vision system sigma V based on the new vision system sigma V ' After performing the position data calibration by obtaining the transformation of the model data to the point p V ′ by the following equation (4) ,
p V ′ = T VV ′ −1 p V (4)
A bin picking device with a position data calibration function, wherein normal bin picking is performed.
T VV' =T V'O -1 …(1)
前記座標変換TVV'を使用して旧ビジョン系ΣVから新ビジョン系ΣV'への位置データ較正を行う位置データ較正部を備え、
前記位置データ較正部は、
前記座標変換データT VV' 及びロボットアーム装置の座標系であるロボット系Σ R から前記旧ビジョン系Σ V への座標変換T RV に基づいて、前記ロボット系Σ R から前記新ビジョン系Σ V' への座標変換T RV' を下式(2)により求め、
T RV' =T RV T VV' …(2)
また、前記座標変換データT VV' の逆変換T VV' -1 及び前記旧ビジョン系Σ V からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系Σ H への座標変換T VH に基づいて、前記新ビジョン系Σ V' から前記ハンド系Σ H への座標変換T V'H を下式(3)により求め、
T V'H =T VV' -1 T VH …(3)
更に、前記座標変換データT VV' の逆変換T VV' -1 に基づき、前記旧ビジョン系Σ V を基準にした部品モデルデータの点p V を前記新ビジョン系Σ V' を基準にした部品モデルデータの点p V' への変換を下式(4)により求めることにより、前記位置データ較正を行った後、
p V' =T VV' -1 p V …(4)
通常のビンピッキングを行うことを特徴とする位置データ較正機能付きビンピッキング装置。The camera was replaced from the old vision system Σ V , which was the previous coordinate system in which the reference parts for setting the reference object model were properly installed on the operator side, and the camera was replaced before its lifetime or damage . with respect to the background object using the reference object model to a newly set coordinate system 'coordinate transformation T VV' to the new vision system sigma V, set by the old vision system in the new vision system sigma V 'after By performing model matching , the inverse transformation T V′O −1 of the position and orientation T V′O of the background object based on the new vision system Σ V ′ is obtained by the following equation (1) :
T VV ′ = T V′O −1 (1)
Comprising a position data calibration unit that performs position data calibration using 'from the old vision system ΣV new vision system sigma V' the coordinate transformation T VV to,
The position data calibration unit includes:
Based on the coordinate transformation data T VV ′ and the coordinate transformation T RV from the robot system Σ R which is the coordinate system of the robot arm device to the old vision system Σ V , the robot system Σ R to the new vision system Σ V ′. The coordinate transformation T RV ′ to is calculated by the following equation (2):
T RV ′ = T RV T VV ′ (2)
Further, the coordinate transformation T VH to -1 and the hand system is a coordinate system of the object to be handled by the robotic arm mechanism from the old vision system sigma V sigma H 'inverse transform T VV' of the coordinate transformation data T VV Based on the following equation (3) , a coordinate transformation T V′H from the new vision system Σ V ′ to the hand system Σ H is obtained,
T V′H = T VV ′ −1 T VH (3)
Furthermore, components based on said -1 'inverse transform T VV' of the coordinate transformation data T VV, and the point p V component model data relative to the old vision system sigma V based on the new vision system sigma V ' After performing the position data calibration by obtaining the transformation of the model data to the point p V ′ by the following equation (4) ,
p V ′ = T VV ′ −1 p V (4)
A bin picking device with a position data calibration function, wherein normal bin picking is performed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23146698A JP4413291B2 (en) | 1998-08-18 | 1998-08-18 | Bin picking device with position data calibration function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23146698A JP4413291B2 (en) | 1998-08-18 | 1998-08-18 | Bin picking device with position data calibration function |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000067238A JP2000067238A (en) | 2000-03-03 |
JP4413291B2 true JP4413291B2 (en) | 2010-02-10 |
Family
ID=16923953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23146698A Expired - Lifetime JP4413291B2 (en) | 1998-08-18 | 1998-08-18 | Bin picking device with position data calibration function |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4413291B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105606041A (en) * | 2016-01-28 | 2016-05-25 | 南昌航空大学 | Rotor pyramidal angle airborne measurement apparatus and method based on PC/104 embedded system |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4794011B2 (en) * | 2008-04-03 | 2011-10-12 | 関東自動車工業株式会社 | Image processing apparatus and robot control system |
DE102012015056A1 (en) * | 2012-07-28 | 2014-02-13 | Bsautomatisierung Gmbh | Robot control device |
CN105823414B (en) * | 2015-01-07 | 2018-11-02 | 中国核工业华兴建设有限公司 | A kind of embedded part position inspecting method based on spatial digitizer technology |
JP2025094572A (en) * | 2023-12-13 | 2025-06-25 | 株式会社日立ハイテク | Imaging method, imaging device, automatic analyzer, and position adjustment method for automatic analyzer |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH089151B2 (en) * | 1986-11-06 | 1996-01-31 | 神鋼電機株式会社 | Position correction method for robot equipped with automatic guided vehicle |
JP2660744B2 (en) * | 1989-03-31 | 1997-10-08 | 株式会社ダイフク | Mobile vehicle stop position detection device |
JPH0448304A (en) * | 1990-06-18 | 1992-02-18 | Hitachi Ltd | Self-propelled robot position correction method and device |
JP2682763B2 (en) * | 1991-06-29 | 1997-11-26 | ファナック株式会社 | Automatic measurement method of operation error of robot body |
KR940006570B1 (en) * | 1992-01-14 | 1994-07-22 | 한국과학기술원연구원 | Calibration system for robot arm length correction by temperature change |
JPH06278064A (en) * | 1993-03-31 | 1994-10-04 | Citizen Watch Co Ltd | Method for converting coordinate of visual sensor |
JPH0755427A (en) * | 1993-08-12 | 1995-03-03 | Nec Corp | Lead position detector |
JP3665353B2 (en) * | 1993-09-14 | 2005-06-29 | ファナック株式会社 | 3D position correction amount acquisition method of robot teaching position data and robot system |
JP4387476B2 (en) * | 1998-07-13 | 2009-12-16 | 株式会社明電舎 | Bin picking position data calibration device |
-
1998
- 1998-08-18 JP JP23146698A patent/JP4413291B2/en not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105606041A (en) * | 2016-01-28 | 2016-05-25 | 南昌航空大学 | Rotor pyramidal angle airborne measurement apparatus and method based on PC/104 embedded system |
Also Published As
Publication number | Publication date |
---|---|
JP2000067238A (en) | 2000-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100465833C (en) | offline programming device | |
US20070071310A1 (en) | Robot simulation device | |
US20060212171A1 (en) | Off-line teaching device | |
EP3542969A1 (en) | Working-position correcting method and working robot | |
JP4464318B2 (en) | Calibration method for parallel mechanism machine | |
KR20160010868A (en) | Automated machining head with vision and procedure | |
CN111002304B (en) | Device for acquiring position and location of end effector of manipulator | |
US11707842B2 (en) | Robot system and coordinate conversion method | |
KR20080088165A (en) | Robot calibration method | |
EP2122422A2 (en) | A method and an apparatus for compensating for geometrical errors between work objects and a holding device | |
JP4387476B2 (en) | Bin picking position data calibration device | |
JP4413291B2 (en) | Bin picking device with position data calibration function | |
WO2021172271A1 (en) | Robot system | |
JP6928015B2 (en) | Robot system and coordinate conversion method | |
JP2773917B2 (en) | Work positioning device for bending equipment | |
JP4096415B2 (en) | Position data calibration device | |
JP2004261881A (en) | Work welding system, work welding method, and work welding program | |
JPH08118272A (en) | Calibration of robot | |
JP7477633B2 (en) | Robot System | |
JPH05329786A (en) | Industrial robot device | |
KR100214675B1 (en) | Reference posture and position correction device and method for industrial robot | |
JPH04340605A (en) | Method and device for off-line teaching of robot | |
JPH012104A (en) | Robot positioning error correction method | |
KR100336459B1 (en) | Method for off-line control of robot | |
JP2021186929A (en) | Multi-axis robot control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070514 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071004 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20071011 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20071116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091023 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091118 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121127 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131127 Year of fee payment: 4 |
|
EXPY | Cancellation because of completion of term |