Nothing Special   »   [go: up one dir, main page]

JP4413291B2 - Bin picking device with position data calibration function - Google Patents

Bin picking device with position data calibration function Download PDF

Info

Publication number
JP4413291B2
JP4413291B2 JP23146698A JP23146698A JP4413291B2 JP 4413291 B2 JP4413291 B2 JP 4413291B2 JP 23146698 A JP23146698 A JP 23146698A JP 23146698 A JP23146698 A JP 23146698A JP 4413291 B2 JP4413291 B2 JP 4413291B2
Authority
JP
Japan
Prior art keywords
vision system
coordinate
coordinate transformation
data
sigma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP23146698A
Other languages
Japanese (ja)
Other versions
JP2000067238A (en
Inventor
伸行 藤原
寿和 恩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP23146698A priority Critical patent/JP4413291B2/en
Publication of JP2000067238A publication Critical patent/JP2000067238A/en
Application granted granted Critical
Publication of JP4413291B2 publication Critical patent/JP4413291B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、位置データ較正機能付きビンピッキング置に関する。詳しくは、ビンピッキングシステムに必要な各装置の位置関係及び部品検出に必要な位置データを較正する手段を提供するものである。
【0002】
【従来の技術】
ビンピッキングシステムは箱に投入された対象部品の位置姿勢を画像計測装置で検出し、その情報を元にロボットアームで対象部品をハンドリングするシステムである。
また、画像計測装置としては、入力画像から得られる対象物体の輪郭、凹凸、模様等の特徴を直線、円弧等で近似したデータであるとともにステレオ計測等で得た三次元位置データを有する特徴データと、対象物体のモデルの三次元位置データを有する特徴データとのマッチングをとることで対象物体の三次元位置姿勢を得るものがある。
【0003】
対象部品の位置検出方法としてモデルベーストマッチング法があり、部品のモデル作製方法としても種々の提案がある。
ハンドリングの際必要な、ロボットアーム装置と画像計測装置との相対関係を求める方法として従来より様々な提案がある。
【0004】
【発明が解決しようとする課題】
ビンピッキングシステムを正しく動作させるためには、対象部品の位置検出やハンドリングデータを計算するために必要な各装置の位置関係が既知であり、またその位置関係が正しく保たれていなければならない。
【0005】
しかしながら、カメラの故障や寿命、事故によるカメラの破損等でカメラを交換する場合は、カメラの位置やそれに伴う画像計測装置の座標系が変わるため、今までのデータを全て新しく作り直す必要がある。
またカメラ取付部の経年変化によりカメラの位置姿勢にズレが生じた場合、対象部品の検出位置姿勢が実体の位置姿勢と異なるため、システムの動作に不具合が生じる。
【0006】
【課題を解決するための手段】
本発明の請求項1に係る位置データ較正機能付きビンピッキング装置は、カメラの視野内に存在するベルトコンベア或いは作業台等の位置が変化しない背景物体を基に基準物体モデル設定された、前記カメラを寿命又は破損等で交換する前の今までの座標系である旧ビジョン系ΣVから前記カメラを交換した後の新しく設定した座標系である新ビジョン系ΣV'への座標変換TVV'を、新ビジョン系ΣV'において前記旧ビジョン系で設定された前記基準物体モデルを用いて前記背景物体に対するモデルマッチングを行うことにより、新ビジョン系Σ V' を基にする前記背景物体の位置姿勢TV'Oの逆変換TV'O -1として下式(1)により求め、
VV' =T V'O -1 …(1)
前記座標変換TVV'を使用して旧ビジョン系ΣVから新ビジョン系ΣV'への位置データ較正を行う位置データ較正部を備え、
前記位置データ較正部は、
前記座標変換データT VV' 及びロボットアーム装置の座標系であるロボット系Σ R から前記旧ビジョン系Σ V への座標変換T RV に基づいて、前記ロボット系Σ R から前記新ビジョン系Σ V' への座標変換T RV' を下式(2)により求め、
RV' =T RV VV' …(2)
また、前記座標変換データT VV' の逆変換T VV' -1 及び前記旧ビジョン系Σ V からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系Σ H への座標変換T VH に基づいて、前記新ビジョン系Σ V' から前記ハンド系Σ H への座標変換T V'H を下式(3)により求め、
V'H =T VV' -1 VH …(3)
更に、前記座標変換データT VV' の逆変換T VV' -1 に基づき、前記旧ビジョン系Σ V を基準にした部品モデルデータの点p V を前記新ビジョン系Σ V' を基準にした部品モデルデータの点p V' への変換を下式(4)により求めることにより、前記位置データ較正を行った後、
V' =T VV' -1 V …(4)
通常のビンピッキングを行うことを特徴とする。
【0007】
本発明の請求項2に係る位置データ較正機能付きビンピッキング装置は、カメラ視野内に固定した識別の容易なマーク物体を基に基準物体モデル設定された、前記カメラを寿命又は破損等で交換する前の今までの座標系である旧ビジョン系ΣVから前記カメラを交換した後の新しく設定した座標系である新ビジョン系ΣV'への座標変換TVV'を、新ビジョン系ΣV'において前記旧ビジョン系で設定された前記基準物体モデルを用いて前記背景物体に対するモデルマッチングを行うことにより、新ビジョン系Σ V' を基にする前記背景物体の位置姿勢TV'Oの逆変換TV'O -1として下式(1)により求め、
VV' =T V'O -1 …(1)
前記座標変換TVV'を使用して旧ビジョン系ΣVから新ビジョン系ΣV'への位置データ較正を行う位置データ較正部を備え、
前記位置データ較正部は、
前記座標変換データT VV' 及びロボットアーム装置の座標系であるロボット系Σ R から前記旧ビジョン系Σ V への座標変換T RV に基づいて、前記ロボット系Σ R から前記新ビジョン系Σ V' への座標変換T RV' を下式(2)により求め、
RV' =T RV VV' …(2)
また、前記座標変換データT VV' の逆変換T VV' -1 及び前記旧ビジョン系Σ V からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系Σ H への座標変換T VH に基づいて、前記新ビジョン系Σ V' から前記ハンド系Σ H への座標変換T V'H を下式(3)により求め、
V'H =T VV' -1 VH …(3)
更に、前記座標変換データT VV' の逆変換T VV' -1 に基づき、前記旧ビジョン系Σ V を基準にした部品モデルデータの点p V を前記新ビジョン系Σ V' を基準にした部品モデルデータの点p V' への変換を下式(4)により求めることにより、前記位置データ較正を行った後、
V' =T VV' -1 V …(4)
通常のビンピッキングを行うことを特徴とする。
【0008】
本発明の請求項3に係る位置データ較正機能付きビンピッキング装置は、用意しておいたジグによってマーク物体をカメラ視野内に基準物体モデルとして位置精度良く取り付けた、前記カメラを寿命又は破損等で交換する前の今までの座標系である旧ビジョン系ΣVから前記カメラを交換した後の新しく設定した座標系である新ビジョン系ΣV'への座標変換TVV'を、新ビジョン系ΣV'において前記旧ビジョン系で設定された前記基準物体モデルを用いて前記背景物体に対するモデルマッチングを行うことにより、新ビジョン系Σ V' を基にする前記背景物体の位置姿勢TV'Oの逆変換TV'O -1として下式(1)により求め、
VV' =T V'O -1 …(1)
前記座標変換TVV'を使用して旧ビジョン系ΣVから新ビジョン系ΣV'への位置データ較正を行う位置データ較正部を備え、
前記位置データ較正部は、
前記座標変換データT VV' 及びロボットアーム装置の座標系であるロボット系Σ R から前記旧ビジョン系Σ V への座標変換T RV に基づいて、前記ロボット系Σ R から前記新ビジョン系Σ V' への座標変換T RV' を下式(2)により求め、
RV' =T RV VV' …(2)
また、前記座標変換データT VV' の逆変換T VV' -1 及び前記旧ビジョン系Σ V からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系Σ H への座標変換T VH に基づいて、前記新ビジョン系Σ V' から前記ハンド系Σ H への座標変換T V'H を下式(3)により求め、
V'H =T VV' -1 VH …(3)
更に、前記座標変換データT VV' の逆変換T VV' -1 に基づき、前記旧ビジョン系Σ V を基準にした部品モデルデータの点p V を前記新ビジョン系Σ V' を基準にした部品モデルデータの点p V' への変換を下式(4)により求めることにより、前記位置データ較正を行った後、
V' =T VV' -1 V …(4)
通常のビンピッキングを行うことを特徴とする。
【0010】
本発明の請求項4に係る位置データ較正機能付きビンピッキング装置は、基準物体モデルを設定するための基準部品を作業者側で適切に設置した、前記カメラを寿命又は破損等で交換する前の今までの座標系である旧ビジョン系ΣVから前記カメラを交換した後の新しく設定した座標系である新ビジョン系ΣV'への座標変換TVV'を、新ビジョン系ΣV'において前記旧ビジョン系で設定された前記基準物体モデルを用いて前記背景物体に対するモデルマッチングを行うことにより、新ビジョン系Σ V' を基にする前記背景物体の位置姿勢TV'Oの逆変換TV'O -1として下式(1)により求め、
VV' =T V'O -1 …(1)
前記座標変換TVV'を使用して旧ビジョン系ΣVから新ビジョン系ΣV'への位置データ較正を行う位置データ較正部を備え、
前記位置データ較正部は、
前記座標変換データT VV' 及びロボットアーム装置の座標系であるロボット系Σ R から前記旧ビジョン系Σ V への座標変換T RV に基づいて、前記ロボット系Σ R から前記新ビジョン系Σ V' への座標変換T RV' を下式(2)により求め、
RV' =T RV VV' …(2)
また、前記座標変換データT VV' の逆変換T VV' -1 及び前記旧ビジョン系Σ V からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系Σ H への座標変換T VH に基づいて、前記新ビジョン系Σ V' から前記ハンド系Σ H への座標変換T V'H を下式(3)により求め、
V'H =T VV' -1 VH …(3)
更に、前記座標変換データT VV' の逆変換T VV' -1 に基づき、前記旧ビジョン系Σ V を基準にした部品モデルデータの点p V を前記新ビジョン系Σ V' を基準にした部品モデルデータの点p V' への変換を下式(4)により求めることにより、前記位置データ較正を行った後、
V' =T VV' -1 V …(4)
通常のビンピッキングを行うことを特徴とする。
【0011】
〔作用〕
本発明は、カメラの交換やカメラ取付部の経年変化によりカメラの位置姿勢が変化した場合でも、ビンピッキング作業前にデータ較正を行うことにより、ビンピッキングシステムの動作に必要な位置関係データや部品データを全て新しく作り直すことなく、ビンピッキング装置を正常に動作させることができる。
【0012】
【発明の実施の形態】
(1)基本的な考え方
初期設定において求めておいた各装置の位置関係および各部品についてメモリに登録してある部品検出に必要な部品データを、必要に応じて較正する機能を持つビンピッキング装置を用いることで、カメラの交換やカメラ取付部の経年変化によりカメラの位置姿勢が変化した場合でも、ビンピッキングシステムの動作に必要な位置関係データや部品データを全て新しく作り直すことなく、ビンピッキング装置を正常に動作させることができる。
【0013】
(2)位置データ較正機能付きビンピッキング装置
本発明による位置データ較正機能付きビンピッキング装置の例を図1に示す。
この装置は、画像計測部1、ロボットコントローラ2、コントロール部3、位置データ較正部4とからなり、箱に投入された対象部品の位置姿勢をカメラ(画像計測装置)5で検出し、その情報を元にロボットアーム6で対象部品をハンドリングするビンピッキング作業の前に必要に応じて位置データ較正を行い、位置データ較正後、通常のビンピッキング動作を繰り返すものである。
【0014】
(2.1)画像計測部
画像計測部1では、カメラ5からの入力画像を基に部品の検出や位置計測を行う。
ビンピッキング作業では、コントロール部3からカメラ5の位置データ、カメラ5の座標系データ、対象部品の部品データを受け取り、カメラ5からの入力画像を基に対象部品の位置姿勢を検出する。
位置データ較正作業では、カメラ5の新しい座標系データを基に、位置データ較正に必要なデータを計測し、コントロール部3の指令に従って、その計測データを位置データ較正部4へ送る。
【0015】
(2.2)ロボットコントローラ
ロボットコントローラ2ではロボットアーム6の動作全般を制御する。
ビンピッキング作業では、コントロール部3からハンドリング位置姿勢データを受け取り、対象部品のハンドリング動作を行い、決められた動作計画に従って部品を所定の場所へ設置する。
【0016】
(2.3)コントロール部
コントロール部3では装置全体の制御を行う。
ビンピッキング作業では、画像計測部1にカメラ5の位置データ、カメラ5の座標系データ、対象部品の部品データを送り、カメラ5から部品の位置姿勢データを受け取る。
さらに部品の位置姿勢データと装置の位置関係データからハンドリング位置姿勢を計算し、そのデータをロボットコントローラ2に送ってハンドリングの指令を出す。
【0017】
位置データ較正作業では、画像計測部1の計測データを基にカメラ5の新しい座標系を設定し、その座標系データおよび計測に必要なデータを画像計測部1へ送って位置データ較正用の計測データを位置データ較正部4へ送るように指令する。
さらに各装置の位置関係データと登録してある部品の部品データを位置データ較正部4へ送ってデータ較正の指令を出す。
その後位置データ較正部4で較正された各種データを受け取り、メモリに保存する。
【0018】
(2.4)位置データ較正部
位置データ較正部4では、画像計測部1から得た計測データとコントロール部3に保存してある装置の位置関係データを基にカメラ5の従来の座標系と新しく設定した座標系との位置関係を求め、その位置関係データを用いてコントロール部3に保存してある装置の位置関係データと部品データをカメラ5の新しい座標系へ対応するように以下のように較正する(特願平10−196965号参照)。
【0019】
(2.4.1)各装置の座標系と相対関係
図13の様に各座標系を設定する。
ここで各座標系は次のものである。
ΣV:旧ビジョン系(カメラ5の今までの座標系)
ΣV':新ビジョン系(カメラ5の新しく設定した座標系)
ΣR:ロボット系(ロボットアーム6の座標系)
ΣH:ハンド系(ハンドの対象物体ハンドリング時の座標系)
【0020】
各装置間の位置関係はその装置の座標系から別の装置の座標系への座標変換データとして求められる。
RV:ロボット系ΣRから旧ビジョン系ΣVへの座標変換
VH:旧ビジョン系ΣVからハンド系ΣHへの座標変換
RV':ロボット系ΣRから新ビジョン系ΣV'への座標変換
V'H:新ビジョン系ΣV'からハンド系ΣHへの座標変換
VV':旧ビジョン系ΣVから新ビジョン系ΣV'への座標変換
【0021】
(2.4.2)較正座標変換データの計算
データ較正に必要な、変換データは旧ビジョン系ΣVから新ビジョン系ΣV'への座標変換データTVV'である。これをモデルマッチングによって求める。
旧ビジョン系ΣVにおいて基準物体の部品モデルを作っておき、基準物体をモデル作製位置に設置して、新ビジョン系ΣV'において同一のモデルを用いてモデルマッチングを行うと、新ビジョン系ΣV'を基にする基準物体の位置姿勢TV'Oを検出できる。
【0022】
この時基準物体は旧ビジョン系ΣVにおいて全く動かない位置姿勢にあるため、先ほど新ビジョン系ΣV'において検出した基準物体の位置姿勢TV'Oは、新ビジョン系ΣV'から旧ビジョン系ΣVへの座標変換TV'Vを示す。
よって、データ較正に必要な座標変換データは旧ビジョン系ΣVから新ビジョン系ΣV'への座標変換データTVV'として次のように求められる。
VV'=TV'O -1 …(1)
【0023】
(2.4.3)装置位置関係の較正
ロボット系ΣRと新ビジョン系ΣV'の位置関係は較正座標変換データと今までの位置関係より次のように計算できる。
RV'=TRVVV' …(2)
新ビジョン系ΣV'とハンド系ΣHの位置関係は較正座標変換データと今までの位置関係より次のように計算できる。
V'H=TVV' -1VH …(3)
【0024】
(2.4.4)部品モデルデータの較正
部品の三次元形状モデルは三次元的な直線特徴や曲線特徴で構成され、それらの三次元データはビジョン系を基にした特徴上の点の三次元位置データである。
そこで部品の三次元形状モデルの較正は、モデルを構成する点位置データの旧ビジョン系ΣV から新ビジョン系ΣV'への座標変換で行うことができる。
旧ビジョン系ΣVを基準にした点pVは新ビジョン系ΣV'を基準にした点pV'へ次のように変換される。
【0025】
V'=TVV' -1V …(4)
こうして変換した三次元形状モデルの点を再構成することで、部品の三次元形状モデルの較正を行うことができる。
新ビジョン系ΣV'を基にした三次元形状モデルが計算されれば、カメラの新しい位置姿勢においての見え方モデルであるイメージ上の二次元形状モデルは、三次元形状モデルのカメラのイメージ平面への透視変換によって較正することができる。
【0026】
(2.4.5)基準物体モデルの設定
(2.4.5.1)背景物体による基準物体モデルの設定
カメラの視野内にベルトコンベアや作業台といった位置が変化しない物体が存在する場合は図2のように背景物体を基準物体とし、基準物体モデルを設定することができる。
【0027】
(2.4.5.2)固定マーク物体による基準物体モデルの設定
カメラ視野内に位置が変化しない固定マーク物体を設置できる場合は、図3のように固定マーク物体を基準物体とし、基準物体モデルを設定することができる。
【0028】
(2.4.5.3)取付マーク物体による基準物体モデルの設定
装置に常時取り付けてはいないが、較正作業の際何らかのジグによって取付マークを設置できる場合は、図4のように取付マーク物体を基準物体とし、基準物体モデルを設定することができる。
【0029】
(2.4.5.4)ロボットアームに取り付けたマーク物体による基準物体モデルの設定
ロボットアームにマーク物体を取り付けることができる場合は、図5のようにそのマーク物体を基準物体とし、基準物体モデルを設定することができる。
【0030】
(2.4.5.5)基準部品による基準物体モデルの設定
較正作業用に基準部品として選んだ部品を、ロボットアーム等を用いて同一の位置に設置できる場合は、図6のようにその基準部品を基準物体とし、基準物体モデルを設定することができる。
【0031】
(2.4.6)位置データ較正方法
(2.4.6.1)背景物体による位置データ較正方法
カメラの位置姿勢が変化した場合、図7に示すフローチャートに従い、次の手順でビンピッキングシステムの位置データを較正する。
▲1▼カメラ5の新ビジョン系の設定を行う。
▲2▼背景物体モデルによりモデルマッチングを行う。
▲3▼マッチング結果より較正座標変換データTVV'を計算する。
▲4▼較正座標変換データと今までの装置位置関係データを用いて装置位置関係データを較正する。
▲5▼較正座標変換データと今までの部品モデルデータを用いて部品モデルデータを較正する。
【0032】
(2.4.6.2)固定マーク物体による位置データ較正方法
カメラの位置姿勢が変化した場合、図8に示すフローチャートに従い、次の手順でビンピッキングシステムの位置データを較正する。
▲1▼カメラ5の新ビジョン系の設定を行う。
▲2▼固定マーク物体モデルによりモデルマッチングを行う。
▲3▼マッチング結果より較正座標変換データTVV'を計算する。
▲4▼較正座標変換データと今までの装置位置関係データを用いて装置位置関係データを較正する。
▲5▼較正座標変換データと今までの部品モデルデータを用いて部品モデルデータを較正する。
【0033】
(2.4.6.3)取付マーク物体による位置データ較正方法
カメラの位置姿勢が変化した場合、図9に示すフローチャートに従い、次の手順でビンピッキングシステムの位置データを較正する。
▲1▼カメラ5の新ビジョン系の設定を行う。
▲2▼取付マーク物体モデルによりモデルマッチングを行う。
▲3▼マッチング結果より較正座標変換データTVV'を計算する。
▲4▼較正座標変換データと今までの装置位置関係データを用いて装置位置関係データを較正する。
▲5▼較正座標変換データと今までの部品モデルデータを用いて部品モデルデータを較正する。
【0034】
(2.4.6.4)ロボットアームに取り付けたマーク物体による位置データ較正方法
カメラの位置姿勢が変化した場合、図10に示すフローチャートに従い、次の手順でビンピッキングシステムの位置データを較正する。
▲1▼カメラ5の新ビジョン系の設定を行う。
▲2▼ロボットアーム6に取り付けたマーク物体モデルによりモデルマッチングを行う。
▲3▼マッチング結果より較正座標変換データTVV'を計算する。
▲4▼較正座標変換データと今までの装置位置関係データを用いて装置位置関係データを較正する。
▲5▼較正座標変換データと今までの部品モデルデータを用いて部品モデルデータを較正する。
【0035】
(2.4.6.5)基準部品による位置データ較正方法
カメラの位置姿勢が変化した場合、図11に示すフローチャートに従い、次の手順でビンピッキングシステムの位置データを較正する。
▲1▼カメラ5の新ビジョン系の設定を行う。
▲2▼基準部品モデルによりモデルマッチングを行う。
▲3▼マッチング結果より較正座標変換データTVV'を計算する。
▲4▼較正座標変換データと今までの装置位置関係データを用いて装置位置関係データを較正する。
▲5▼較正座標変換データと今までの部品モデルデータを用いて部品モデルデータを較正する。
【0036】
(3)位置データ較正機能付きビンピッキング装置の動作手順
本発明では、図12に示すフローチャートに従い、必要に応じて以下のように位置データ較正をビンピッキング作業の前に行う。
▲1▼先ず、カメラ5の新しい座標系を設定する。
▲2▼次に、(2.4.1)〜(2.4.6)に示すように位置データ較正を行い、位置関係データ、部品データを新しい座標系に対応したデータヘ更新する。
このような位置データ較正手順の後、図12に示すフローチャートに従い、通常のビンピッキング動作を行う。
【0037】
▲3▼部品データを基に画像計測によって対象部品の位置姿勢を検出する。
▲4▼位置関係データと▲3▼で得られた部品の位置姿勢からハンドリング位置姿勢を計算する。
▲5▼ロボットコントローラ2によってハンドリング位置姿勢ヘロボットアーム6のハンドを動作させる。
▲6▼対象部品をハンドリングする。
▲7▼ロボットアーム6を動作させ、ハンドリングした対象部品を所定の場所へ設置する。
通常の動作では▲3▼〜▲7▼を作業終了まで繰り返す。
【0038】
【発明の効果】
以上、実施例に基づいて具体的に説明したように、本発明によれば、カメラの故障や寿命、事故によるカメラの破損等でカメラを交換する場合でも、ビンピッキングシステムに必要な位置データを較正できるため、以下の効果を奏する。
(1)今までのデータを全て新しく作り直す必要がない。
(2)カメラ交換に伴う作業による作業時間を大幅に短縮できる。
(3)大量の部品モデルデータを扱い易く、多品種を扱う工程に容易に対応できる。
(4)過去に作った大量の部品モデルデータのデータベースを効率よく扱うことができる。
(5)カメラ交換に伴う作業コストを小さくすることができる。
(6)カメラ交換に伴う作業者の負担を軽減できる。
(7)カメラ交換作業を容易に行うことができる。
(8)定期的に位置データ較正を行うことにより、カメラ取付部の経年変化によってカメラの位置姿勢に多少のズレが生じた場合でも、システムを正常に動作させ続けることができる。
(9)定期的に位置データ較正を行うことによって、システムの信頼性が向上する。
【図面の簡単な説明】
【図1】本発明の一実施例に係る位置データ較正機能付ビンピッキング装置を示す構成図である。
【図2】背景物体による基準物体モデルを示す説明図である。
【図3】固定マーク物体による基準物体モデルを示す説明図である。
【図4】取付マーク物体による基準物体モデルを示す説明図である。
【図5】ロボットアームに取り付けたマーク物体による基準物体モデルを示す説明図である。
【図6】基準部品による基準物体モデルを示す説明図である。
【図7】背景物体による位置データ較正方法を示すフローチャートである。
【図8】固定マーク物体による位置データ較正方法を示すフローチャートである。
【図9】取付マーク物体による位置データ較正方法を示すフローチャートである。
【図10】ロボットアームに取り付けたマーク物体による位置データ較正方法を示すフローチャートである。
【図11】基準部品による位置データ較正方法を示すフローチャートである。
【図12】本発明の一実施例に係る位置データ較正機能付きビンピッキング処理を示すフローチャートである。
【図13】位置データ較正に用いる座標系を示す説明図である。
【符号の説明】
1 画像系側部
2 ロボットコントローラ
3 コントロール部
4 位置データ較正部
5 カメラ(画像計測装置)
6 ロボットアーム
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a position data calibration function bin picking equipment. Specifically, the present invention provides means for calibrating the positional relationship of each device necessary for the bin picking system and the positional data necessary for component detection.
[0002]
[Prior art]
The bin picking system is a system in which the position and orientation of a target part put in a box is detected by an image measuring device, and the target part is handled by a robot arm based on the information.
In addition, as an image measuring device, feature data having three-dimensional position data obtained by stereo measurement or the like as well as data that approximates features such as contours, unevenness, and patterns of a target object obtained from an input image with straight lines, arcs, etc. And obtaining the three-dimensional position and orientation of the target object by matching with the feature data having the three-dimensional position data of the model of the target object.
[0003]
There is a model-based matching method as a method for detecting the position of a target component, and various proposals are also made as a method for producing a model of a component.
Conventionally, various proposals have been made as a method for obtaining a relative relationship between a robot arm device and an image measuring device, which is necessary for handling.
[0004]
[Problems to be solved by the invention]
In order for the bin picking system to operate correctly, the positional relationship of each device necessary for detecting the position of the target component and calculating the handling data must be known and the positional relationship must be maintained correctly.
[0005]
However, when a camera is replaced due to a camera failure, a life span, or a camera damage due to an accident, the position of the camera and the coordinate system of the image measuring apparatus associated therewith change, so that all of the existing data needs to be recreated.
In addition, when the camera position and orientation are deviated due to the secular change of the camera mounting portion, the detected position and orientation of the target component is different from the actual position and orientation, resulting in a malfunction of the system operation.
[0006]
[Means for Solving the Problems]
Position data calibration function bin picking device according to claim 1 of the present invention, reference object model is set based on the background object position of the belt conveyor or a work bench or the like existing in the camera field of view does not change, the Coordinate transformation T VV from old vision system Σ V, which is the previous coordinate system before replacing the camera due to life or damage, etc., to new vision system Σ V ′ , which is a newly set coordinate system after replacing the camera 'the new vision system sigma V' wherein by performing model matching for the background object using the reference object model that is set in the former vision system in, the background object on which to base the new vision system sigma V ' Obtained by the following formula (1) as the inverse transformation T V'O -1 of the position and orientation T V'O
T VV ′ = T V′O −1 (1)
A position data calibration unit that performs position data calibration from the old vision system Σ V to the new vision system Σ V ′ using the coordinate transformation T VV ′ ;
The position data calibration unit includes:
Based on the coordinate transformation data T VV ′ and the coordinate transformation T RV from the robot system Σ R which is the coordinate system of the robot arm device to the old vision system Σ V , the robot system Σ R to the new vision system Σ V ′. The coordinate transformation T RV ′ to is calculated by the following equation (2):
T RV ′ = T RV T VV ′ (2)
Further, the coordinate transformation T VH to -1 and the hand system is a coordinate system of the object to be handled by the robotic arm mechanism from the old vision system sigma V sigma H 'inverse transform T VV' of the coordinate transformation data T VV Based on the following equation (3) , a coordinate transformation T V′H from the new vision system Σ V ′ to the hand system Σ H is obtained,
T V′H = T VV ′ −1 T VH (3)
Furthermore, components based on said -1 'inverse transform T VV' of the coordinate transformation data T VV, and the point p V component model data relative to the old vision system sigma V based on the new vision system sigma V ' After performing the position data calibration by obtaining the transformation of the model data to the point p V ′ by the following equation (4) ,
p V ′ = T VV ′ −1 p V (4)
It is characterized by performing normal bin picking.
[0007]
Position data calibration function bin picking device according to claim 2 of the present invention, the reference object model based on an easy mark objects identified fixed in the camera field of view is set, replace the camera in life or damage the 'coordinate transformation T VV' to the front of the now until the coordinate system in which the old vision system Σ new vision system, which is a newly set coordinate system after replacing the camera from V Σ V of that, new vision system Σ V By performing model matching on the background object using the reference object model set in the old vision system in ' , the inverse of the position and orientation T V'O of the background object based on the new vision system Σ V' The conversion T V′O −1 is obtained by the following equation (1) ,
T VV ′ = T V′O −1 (1)
A position data calibration unit that performs position data calibration from the old vision system Σ V to the new vision system Σ V ′ using the coordinate transformation T VV ′ ;
The position data calibration unit includes:
Based on the coordinate transformation data T VV ′ and the coordinate transformation T RV from the robot system Σ R which is the coordinate system of the robot arm device to the old vision system Σ V , the robot system Σ R to the new vision system Σ V ′. The coordinate transformation T RV ′ to is calculated by the following equation (2):
T RV ′ = T RV T VV ′ (2)
Further, the coordinate transformation T VH to -1 and the hand system is a coordinate system of the object to be handled by the robotic arm mechanism from the old vision system sigma V sigma H 'inverse transform T VV' of the coordinate transformation data T VV Based on the following equation (3) , a coordinate transformation T V′H from the new vision system Σ V ′ to the hand system Σ H is obtained,
T V′H = T VV ′ −1 T VH (3)
Furthermore, components based on said -1 'inverse transform T VV' of the coordinate transformation data T VV, and the point p V component model data relative to the old vision system sigma V based on the new vision system sigma V ' After performing the position data calibration by obtaining the transformation of the model data to the point p V ′ by the following equation (4) ,
p V ′ = T VV ′ −1 p V (4)
It is characterized by performing normal bin picking.
[0008]
Position data calibration function bin picking device according to claim 3 of the present invention, the mark object by a jig which had been prepared was mounted high positional accuracy as the reference object model in the camera view, the camera in life or damage The coordinate system T VV ′ from the old vision system Σ V, which is the previous coordinate system before replacement, to the new vision system Σ V ′ , which is the newly set coordinate system after replacing the camera , is converted into the new vision system Σ. 'by performing model matching for the background object using the reference object model the set in the former vision system in the new vision system sigma V' V of the position and orientation T V'O of the background object that based on The inverse transformation T V′O −1 is obtained by the following formula (1) ,
T VV ′ = T V′O −1 (1)
A position data calibration unit that performs position data calibration from the old vision system Σ V to the new vision system Σ V ′ using the coordinate transformation T VV ′ ;
The position data calibration unit includes:
Based on the coordinate transformation data T VV ′ and the coordinate transformation T RV from the robot system Σ R which is the coordinate system of the robot arm device to the old vision system Σ V , the robot system Σ R to the new vision system Σ V ′. The coordinate transformation T RV ′ to is calculated by the following equation (2):
T RV ′ = T RV T VV ′ (2)
Further, the coordinate transformation T VH to -1 and the hand system is a coordinate system of the object to be handled by the robotic arm mechanism from the old vision system sigma V sigma H 'inverse transform T VV' of the coordinate transformation data T VV Based on the following equation (3) , a coordinate transformation T V′H from the new vision system Σ V ′ to the hand system Σ H is obtained,
T V′H = T VV ′ −1 T VH (3)
Furthermore, components based on said -1 'inverse transform T VV' of the coordinate transformation data T VV, and the point p V component model data relative to the old vision system sigma V based on the new vision system sigma V ' After performing the position data calibration by obtaining the transformation of the model data to the point p V ′ by the following equation (4) ,
p V ′ = T VV ′ −1 p V (4)
It is characterized by performing normal bin picking.
[0010]
A bin picking device with a position data calibration function according to a fourth aspect of the present invention is configured such that a reference part for setting a reference object model is appropriately installed on an operator side, and the camera is replaced with a product with a life or damage. the 'coordinate transformation T VV to' up from the old vision system Σ V is a coordinate system wherein the camera is a newly set coordinate system after replacing the new vision system Σ V of now, said in the new vision system Σ V ' By performing model matching on the background object using the reference object model set in the old vision system, the inverse transformation T V of the position and orientation T V′O of the background object based on the new vision system Σ V ′ 'O -1 is obtained by the following formula (1) ,
T VV ′ = T V′O −1 (1)
Comprising a position data calibration unit that performs position data calibration using 'from the old vision system ΣV new vision system sigma V' the coordinate transformation T VV to,
The position data calibration unit includes:
Based on the coordinate transformation data T VV ′ and the coordinate transformation T RV from the robot system Σ R which is the coordinate system of the robot arm device to the old vision system Σ V , the robot system Σ R to the new vision system Σ V ′. The coordinate transformation T RV ′ to is calculated by the following equation (2):
T RV ′ = T RV T VV ′ (2)
Further, the coordinate transformation T VH to -1 and the hand system is a coordinate system of the object to be handled by the robotic arm mechanism from the old vision system sigma V sigma H 'inverse transform T VV' of the coordinate transformation data T VV Based on the following equation (3) , a coordinate transformation T V′H from the new vision system Σ V ′ to the hand system Σ H is obtained,
T V′H = T VV ′ −1 T VH (3)
Furthermore, components based on said -1 'inverse transform T VV' of the coordinate transformation data T VV, and the point p V component model data relative to the old vision system sigma V based on the new vision system sigma V ' After performing the position data calibration by obtaining the transformation of the model data to the point p V ′ by the following equation (4) ,
p V ′ = T VV ′ −1 p V (4)
It is characterized by performing normal bin picking.
[0011]
[Action]
The present invention provides positional data and components necessary for the operation of the bin picking system by performing data calibration before bin picking work even when the position and orientation of the camera change due to camera replacement and camera aging. The bin picking apparatus can be operated normally without recreating all the data.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
(1) Basic concept Bin picking device having a function of calibrating as needed the component data necessary for component detection registered in the memory with respect to the positional relationship of each device obtained in the initial setting The bin picking device can be used without recreating all the positional relationship data and parts data necessary for the operation of the bin picking system even when the camera position and orientation change due to camera replacement or camera aging. Can be operated normally.
[0013]
(2) Bin Picking Device with Position Data Calibration Function FIG. 1 shows an example of a bin picking device with position data calibration function according to the present invention.
This apparatus comprises an image measurement unit 1, a robot controller 2, a control unit 3, and a position data calibration unit 4. The camera (image measurement device) 5 detects the position and orientation of a target part put in the box, and the information Based on the above, position data calibration is performed as necessary before the bin picking operation for handling the target part by the robot arm 6, and after the position data calibration, a normal bin picking operation is repeated.
[0014]
(2.1) Image Measurement Unit The image measurement unit 1 performs component detection and position measurement based on an input image from the camera 5.
In the bin picking work, the position data of the camera 5, the coordinate system data of the camera 5, and the parts data of the target part are received from the control unit 3, and the position and orientation of the target part are detected based on the input image from the camera 5.
In the position data calibration operation, data necessary for position data calibration is measured based on the new coordinate system data of the camera 5, and the measurement data is sent to the position data calibration unit 4 in accordance with a command from the control unit 3.
[0015]
(2.2) Robot controller The robot controller 2 controls the overall operation of the robot arm 6.
In the bin picking work, the handling position / posture data is received from the control unit 3, the handling operation of the target component is performed, and the component is installed at a predetermined place according to the determined operation plan.
[0016]
(2.3) Control unit The control unit 3 controls the entire apparatus.
In the bin picking operation, the camera 5 position data, the camera 5 coordinate system data, and the target part data are sent to the image measuring unit 1, and the parts position and orientation data are received from the camera 5.
Further, a handling position / orientation is calculated from the position / orientation data of the part and the positional relationship data of the apparatus, and the data is sent to the robot controller 2 to issue a handling command.
[0017]
In the position data calibration work, a new coordinate system of the camera 5 is set based on the measurement data of the image measurement unit 1, and the coordinate system data and data necessary for measurement are sent to the image measurement unit 1 to perform measurement for position data calibration. Commands the data to be sent to the position data calibration unit 4.
Further, the positional relationship data of each device and the part data of the registered parts are sent to the position data calibration unit 4 to issue a data calibration command.
Thereafter, various data calibrated by the position data calibration unit 4 are received and stored in the memory.
[0018]
(2.4) Position Data Calibration Unit In the position data calibration unit 4, the conventional coordinate system of the camera 5 is based on the measurement data obtained from the image measurement unit 1 and the positional relationship data of the device stored in the control unit 3. The positional relationship with the newly set coordinate system is obtained, and the positional relationship data and the component data stored in the control unit 3 using the positional relationship data are associated with the new coordinate system of the camera 5 as follows. (See Japanese Patent Application No. 10-196965).
[0019]
(2.4.1) Coordinate system of each device and relative relationship Each coordinate system is set as shown in FIG.
Here, each coordinate system is as follows.
Σ V : Old vision system (previous coordinate system of camera 5)
Σ V ' : New vision system (Camera 5's newly set coordinate system)
Σ R : Robot system (coordinate system of robot arm 6)
Σ H : Hand system (coordinate system when handling the target object of the hand)
[0020]
The positional relationship between each device is obtained as coordinate conversion data from the coordinate system of the device to the coordinate system of another device.
T RV : Coordinate transformation from robot system Σ R to old vision system Σ V T VH : Coordinate transformation from old vision system Σ V to hand system Σ H T RV ' : From robot system Σ R to new vision system Σ V' Coordinate transformation T V′H : coordinate transformation from new vision system Σ V ′ to hand system Σ H T VV ′ : coordinate transformation from old vision system Σ V to new vision system Σ V ′
(2.4.2) Calculation Data of Calibration Coordinate Conversion Data The conversion data necessary for calibration is the coordinate conversion data T VV ′ from the old vision system Σ V to the new vision system Σ V ′ . This is obtained by model matching.
When a reference object part model is created in the old vision system Σ V , the reference object is placed at the model production position, and model matching is performed using the same model in the new vision system Σ V ′ , the new vision system Σ The position and orientation T V′O of the reference object based on V ′ can be detected.
[0022]
At this time the reference object is in a position and orientation that does not move at all in the old vision system sigma V, just the new vision system sigma V 'pose T V'O reference object detected in the new vision system sigma V' old vision from The coordinate transformation T V′V to the system Σ V is shown.
Therefore, the coordinate conversion data necessary for data calibration is obtained as follows as the coordinate conversion data T VV ′ from the old vision system Σ V to the new vision system Σ V ′ .
T VV ′ = T V′O −1 (1)
[0023]
(2.4.3) The positional relationship between the calibration robot system Σ R and the new vision system Σ V ′ in the apparatus positional relationship can be calculated as follows from the calibration coordinate conversion data and the previous positional relationship.
T RV ′ = T RV T VV ′ (2)
The positional relationship between the new vision system Σ V ′ and the hand system Σ H can be calculated from the calibration coordinate conversion data and the previous positional relationship as follows.
T V′H = T VV ′ −1 T VH (3)
[0024]
(2.4.4) Calibration of part model data The three-dimensional shape model of a part is composed of three-dimensional linear features and curved features, and these three-dimensional data are the tertiary of points on the features based on the vision system. Original position data.
Therefore, the calibration of the three-dimensional shape model of the part can be performed by coordinate conversion of the point position data constituting the model from the old vision system Σ V to the new vision system Σ V ′ .
The point p V based on the old vision system Σ V is converted to the point p V ′ based on the new vision system Σ V ′ as follows.
[0025]
p V ′ = T VV ′ −1 p V (4)
By reconstructing the points of the three-dimensional shape model thus converted, the three-dimensional shape model of the part can be calibrated.
If a 3D shape model based on the new vision system Σ V ′ is calculated, the 2D shape model on the image, which is the appearance model at the new position and orientation of the camera, is the image plane of the 3D shape model camera. Can be calibrated by perspective transformation into
[0026]
(2.4.5) Setting of reference object model (2.4.5.1) Setting of reference object model by background object When there is an object whose position does not change in the field of view of the camera, such as a belt conveyor or a workbench As shown in FIG. 2, a background object can be used as a reference object, and a reference object model can be set.
[0027]
(2.4.5.2) Setting of reference object model by fixed mark object When a fixed mark object whose position does not change in the camera field of view can be set, the fixed mark object is used as the reference object as shown in FIG. A model can be set.
[0028]
(2.4.5.3) Although the reference mark is not always attached to the setting device of the reference object model by the attachment mark object, if the attachment mark can be set by some jig during the calibration work, the attachment mark object is as shown in FIG. And a reference object model can be set.
[0029]
(2.4.5.4) Setting of reference object model by mark object attached to robot arm When mark object can be attached to robot arm, the mark object is set as the reference object as shown in FIG. A model can be set.
[0030]
(2.4.5.5) Setting of reference object model with reference parts When parts selected as reference parts for calibration work can be installed at the same position using a robot arm or the like, as shown in FIG. A reference object model can be set using a reference part as a reference object.
[0031]
(2.4.6) Position Data Calibration Method (2.4.6.1) Position Data Calibration Method Using Background Object When the position and orientation of the camera changes, the bin picking system is performed according to the following procedure according to the flowchart shown in FIG. Calibrate the position data.
(1) Set a new vision system for the camera 5.
(2) Model matching is performed using the background object model.
(3) Calculate the calibration coordinate conversion data TVV ' from the matching result.
{Circle around (4)} The apparatus positional relationship data is calibrated using the calibration coordinate conversion data and the previous apparatus positional relationship data.
(5) The part model data is calibrated using the calibration coordinate conversion data and the part model data so far.
[0032]
(2.4.6.2) Position Data Calibration Method Using Fixed Mark Object When the position and orientation of the camera change, the position data of the bin picking system is calibrated according to the following procedure according to the flowchart shown in FIG.
(1) Set a new vision system for the camera 5.
(2) Model matching is performed using a fixed mark object model.
(3) Calculate the calibration coordinate conversion data TVV ' from the matching result.
{Circle around (4)} The apparatus positional relationship data is calibrated using the calibration coordinate conversion data and the previous apparatus positional relationship data.
(5) The part model data is calibrated using the calibration coordinate conversion data and the part model data so far.
[0033]
(2.4.6.3) Position Data Calibration Method Using Attachment Mark Object When the position and orientation of the camera changes, the position data of the bin picking system is calibrated according to the following procedure according to the flowchart shown in FIG.
(1) Set a new vision system for the camera 5.
(2) Model matching is performed using the mounting mark object model.
(3) Calculate the calibration coordinate conversion data TVV ' from the matching result.
{Circle around (4)} The apparatus positional relationship data is calibrated using the calibration coordinate conversion data and the previous apparatus positional relationship data.
(5) The part model data is calibrated using the calibration coordinate conversion data and the part model data so far.
[0034]
(2.4.6.4) Position Data Calibration Method Using Mark Object Attached to Robot Arm When the position and orientation of the camera changes, the position data of the bin picking system is calibrated according to the following procedure according to the flowchart shown in FIG. .
(1) Set a new vision system for the camera 5.
(2) Model matching is performed using a mark object model attached to the robot arm 6.
(3) Calculate the calibration coordinate conversion data TVV ' from the matching result.
{Circle around (4)} The apparatus positional relationship data is calibrated using the calibration coordinate conversion data and the previous apparatus positional relationship data.
(5) The part model data is calibrated using the calibration coordinate conversion data and the part model data so far.
[0035]
(2.4.6.5) Position Data Calibration Method Using Reference Parts When the position and orientation of the camera changes, the position data of the bin picking system is calibrated according to the following procedure according to the flowchart shown in FIG.
(1) Set a new vision system for the camera 5.
(2) Model matching is performed using a reference part model.
(3) Calculate the calibration coordinate conversion data TVV ' from the matching result.
{Circle around (4)} The apparatus positional relationship data is calibrated using the calibration coordinate conversion data and the previous apparatus positional relationship data.
(5) The part model data is calibrated using the calibration coordinate conversion data and the part model data so far.
[0036]
(3) Operation Procedure of Bin Picking Device with Position Data Calibration Function In the present invention, according to the flowchart shown in FIG. 12, position data calibration is performed as follows before bin picking work as necessary.
(1) First, a new coordinate system of the camera 5 is set.
(2) Next, position data calibration is performed as shown in (2.4.1) to (2.4.6), and the positional relationship data and component data are updated to data corresponding to the new coordinate system.
After such a position data calibration procedure, a normal bin picking operation is performed according to the flowchart shown in FIG.
[0037]
(3) The position and orientation of the target part is detected by image measurement based on the part data.
(4) The handling position and orientation are calculated from the positional relationship data and the position and orientation of the part obtained in (3).
(5) The robot controller 2 moves the hand of the robot arm 6 to the handling position / posture.
(6) Handle the target part.
(7) The robot arm 6 is operated to place the handled target part at a predetermined location.
In normal operation, steps (3) to (7) are repeated until the work is completed.
[0038]
【The invention's effect】
As described above in detail based on the embodiments, according to the present invention, the position data necessary for the bin picking system can be obtained even when the camera is replaced due to a camera failure, a life span, a camera damage due to an accident, or the like. Since it can be calibrated, it has the following effects.
(1) It is not necessary to recreate all the data so far.
(2) The working time due to work associated with camera replacement can be greatly reduced.
(3) It is easy to handle a large amount of part model data, and can easily cope with a process that handles a variety of products.
(4) A database of a large amount of part model data created in the past can be handled efficiently.
(5) The work cost associated with camera replacement can be reduced.
(6) It is possible to reduce the burden on the operator due to camera replacement.
(7) Camera replacement work can be easily performed.
(8) By periodically calibrating the position data, the system can continue to operate normally even if there is a slight shift in the position and orientation of the camera due to aging of the camera mounting portion.
(9) Periodic position data calibration improves system reliability.
[Brief description of the drawings]
FIG. 1 is a configuration diagram illustrating a bin picking device with a position data calibration function according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram showing a reference object model based on a background object.
FIG. 3 is an explanatory diagram showing a reference object model using a fixed mark object.
FIG. 4 is an explanatory diagram showing a reference object model based on an attachment mark object.
FIG. 5 is an explanatory diagram showing a reference object model based on a mark object attached to a robot arm.
FIG. 6 is an explanatory diagram showing a reference object model based on reference parts.
FIG. 7 is a flowchart showing a position data calibration method using a background object.
FIG. 8 is a flowchart showing a position data calibration method using a fixed mark object.
FIG. 9 is a flowchart illustrating a position data calibration method using an attachment mark object.
FIG. 10 is a flowchart illustrating a position data calibration method using a mark object attached to a robot arm.
FIG. 11 is a flowchart showing a position data calibration method using a reference part.
FIG. 12 is a flowchart illustrating a bin picking process with a position data calibration function according to an embodiment of the present invention.
FIG. 13 is an explanatory diagram showing a coordinate system used for position data calibration.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Image system side part 2 Robot controller 3 Control part 4 Position data calibration part 5 Camera (image measuring device)
6 Robotic arm

Claims (4)

カメラの視野内に存在するベルトコンベア或いは作業台等の位置が変化しない背景物体を基に基準物体モデル設定された、前記カメラを寿命又は破損等で交換する前の今までの座標系である旧ビジョン系ΣVから前記カメラを交換した後の新しく設定した座標系である新ビジョン系ΣV'への座標変換TVV'を、新ビジョン系ΣV'において前記旧ビジョン系で設定された前記基準物体モデルを用いて前記背景物体に対するモデルマッチングを行うことにより、新ビジョン系Σ V' を基にする前記背景物体の位置姿勢TV'Oの逆変換TV'O -1として下式(1)により求め、
VV' =T V'O -1 …(1)
前記座標変換TVV'を使用して旧ビジョン系ΣVから新ビジョン系ΣV'への位置データ較正を行う位置データ較正部を備え、
前記位置データ較正部は、
前記座標変換データT VV' 及びロボットアーム装置の座標系であるロボット系Σ R から前記旧ビジョン系Σ V への座標変換T RV に基づいて、前記ロボット系Σ R から前記新ビジョン系Σ V' への座標変換T RV' を下式(2)により求め、
RV' =T RV VV' …(2)
また、前記座標変換データT VV' の逆変換T VV' -1 及び前記旧ビジョン系Σ V からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系Σ H への座標変換T VH に基づいて、前記新ビジョン系Σ V' から前記ハンド系Σ H への座標変換T V'H を下式(3)により求め、
V'H =T VV' -1 VH …(3)
更に、前記座標変換データT VV' の逆変換T VV' -1 に基づき、前記旧ビジョン系Σ V を基準にした部品モデルデータの点p V を前記新ビジョン系Σ V' を基準にした部品モデルデータの点p V' への変換を下式(4)により求めることにより、前記位置データ較正を行った後、
V' =T VV' -1 V …(4)
通常のビンピッキングを行うことを特徴とする位置データ較正機能付きビンピッキング装置。
This is a conventional coordinate system in which a reference object model is set based on a background object that does not change the position of a belt conveyor or workbench that exists in the field of view of the camera, and before the camera is replaced due to life or damage. The coordinate transformation T VV ′ from the old vision system Σ V to the new vision system Σ V ′ , which is a newly set coordinate system after replacing the camera, is set in the new vision system Σ V ′ in the old vision system By performing model matching with respect to the background object using the reference object model, the following formula is obtained as an inverse transformation T V′O −1 of the position and orientation T V′O of the background object based on the new vision system Σ V ′. Obtained by (1)
T VV ′ = T V′O −1 (1)
A position data calibration unit that performs position data calibration from the old vision system Σ V to the new vision system Σ V ′ using the coordinate transformation T VV ′ ;
The position data calibration unit includes:
Based on the coordinate transformation data T VV ′ and the coordinate transformation T RV from the robot system Σ R which is the coordinate system of the robot arm device to the old vision system Σ V , the robot system Σ R to the new vision system Σ V ′. The coordinate transformation T RV ′ to is calculated by the following equation (2):
T RV ′ = T RV T VV ′ (2)
Further, the coordinate transformation T VH to -1 and the hand system is a coordinate system of the object to be handled by the robotic arm mechanism from the old vision system sigma V sigma H 'inverse transform T VV' of the coordinate transformation data T VV Based on the following equation (3) , a coordinate transformation T V′H from the new vision system Σ V ′ to the hand system Σ H is obtained,
T V′H = T VV ′ −1 T VH (3)
Furthermore, components based on said -1 'inverse transform T VV' of the coordinate transformation data T VV, and the point p V component model data relative to the old vision system sigma V based on the new vision system sigma V ' After performing the position data calibration by obtaining the transformation of the model data to the point p V ′ by the following equation (4) ,
p V ′ = T VV ′ −1 p V (4)
A bin picking device with a position data calibration function, wherein normal bin picking is performed.
カメラ視野内に固定した識別の容易なマーク物体を基に基準物体モデル設定された、前記カメラを寿命又は破損等で交換する前の今までの座標系である旧ビジョン系ΣVから前記カメラを交換した後の新しく設定した座標系である新ビジョン系ΣV'への座標変換TVV'を、新ビジョン系ΣV'において前記旧ビジョン系で設定された前記基準物体モデルを用いて前記背景物体に対するモデルマッチングを行うことにより、新ビジョン系Σ V' を基にする前記背景物体の位置姿勢TV'Oの逆変換TV'O -1として下式(1)により求め、
VV' =T V'O -1 …(1)
前記座標変換TVV'を使用して旧ビジョン系ΣVから新ビジョン系ΣV'への位置データ較正を行う位置データ較正部を備え、
前記位置データ較正部は、
前記座標変換データT VV' 及びロボットアーム装置の座標系であるロボット系Σ R から前記旧ビジョン系Σ V への座標変換T RV に基づいて、前記ロボット系Σ R から前記新ビジョン系Σ V' への座標変換T RV' を下式(2)により求め、
RV' =T RV VV' …(2)
また、前記座標変換データT VV' の逆変換T VV' -1 及び前記旧ビジョン系Σ V からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系Σ H への座標変換T VH に基づいて、前記新ビジョン系Σ V' から前記ハンド系Σ H への座標変換T V'H を下式(3)により求め、
V'H =T VV' -1 VH …(3)
更に、前記座標変換データT VV' の逆変換T VV' -1 に基づき、前記旧ビジョン系Σ V を基準にした部品モデルデータの点p V を前記新ビジョン系Σ V' を基準にした部品モデルデータの点p V' への変換を下式(4)により求めることにより、前記位置データ較正を行った後、
V' =T VV' -1 V …(4)
通常のビンピッキングを行うことを特徴とする位置データ較正機能付きビンピッキング装置。
Reference object model based on an easy mark objects identified fixed in the camera field of view is set, the camera from the old vision system sigma V is a coordinate system of ever before replacing the camera with life or damage Using the reference object model set in the old vision system in the new vision system Σ V ′ , the coordinate transformation T VV ′ to the new vision system Σ V ′ , which is a newly set coordinate system after replacing the by performing model matching for background objects, determined by the following equation (1) as the inverse transformation T V'O -1 of the position and orientation T V'O of the background objects backed by a new vision system sigma V ',
T VV ′ = T V′O −1 (1)
A position data calibration unit that performs position data calibration from the old vision system Σ V to the new vision system Σ V ′ using the coordinate transformation T VV ′ ;
The position data calibration unit includes:
Based on the coordinate transformation data T VV ′ and the coordinate transformation T RV from the robot system Σ R which is the coordinate system of the robot arm device to the old vision system Σ V , the robot system Σ R to the new vision system Σ V ′. The coordinate transformation T RV ′ to is calculated by the following equation (2):
T RV ′ = T RV T VV ′ (2)
Further, the coordinate transformation T VH to -1 and the hand system is a coordinate system of the object to be handled by the robotic arm mechanism from the old vision system sigma V sigma H 'inverse transform T VV' of the coordinate transformation data T VV Based on the following equation (3) , a coordinate transformation T V′H from the new vision system Σ V ′ to the hand system Σ H is obtained,
T V′H = T VV ′ −1 T VH (3)
Furthermore, components based on said -1 'inverse transform T VV' of the coordinate transformation data T VV, and the point p V component model data relative to the old vision system sigma V based on the new vision system sigma V ' After performing the position data calibration by obtaining the transformation of the model data to the point p V ′ by the following equation (4) ,
p V ′ = T VV ′ −1 p V (4)
A bin picking device with a position data calibration function, wherein normal bin picking is performed.
用意しておいたジグによってマーク物体をカメラ視野内に基準物体モデルとして位置精度良く取り付けた、前記カメラを寿命又は破損等で交換する前の今までの座標系である旧ビジョン系ΣVから前記カメラを交換した後の新しく設定した座標系である新ビジョン系ΣV'への座標変換TVV'を、新ビジョン系ΣV'において前記旧ビジョン系で設定された前記基準物体モデルを用いて前記背景物体に対するモデルマッチングを行うことにより、新ビジョン系Σ V' を基にする前記背景物体の位置姿勢TV'Oの逆変換TV'O -1として下式(1)により求め、
VV' =T V'O -1 …(1)
前記座標変換TVV'を使用して旧ビジョン系ΣVから新ビジョン系ΣV'への位置データ較正を行う位置データ較正部を備え、
前記位置データ較正部は、
前記座標変換データT VV' 及びロボットアーム装置の座標系であるロボット系Σ R から前記旧ビジョン系Σ V への座標変換T RV に基づいて、前記ロボット系Σ R から前記新ビジョン系Σ V' への座標変換T RV' を下式(2)により求め、
RV' =T RV VV' …(2)
また、前記座標変換データT VV' の逆変換T VV' -1 及び前記旧ビジョン系Σ V からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系Σ H への座標変換T VH に基づいて、前記新ビジョン系Σ V' から前記ハンド系Σ H への座標変換T V'H を下式(3)により求め、
V'H =T VV' -1 VH …(3)
更に、前記座標変換データT VV' の逆変換T VV' -1 に基づき、前記旧ビジョン系Σ V を基準にした部品モデルデータの点p V を前記新ビジョン系Σ V' を基準にした部品モデルデータの点p V' への変換を下式(4)により求めることにより、前記位置データ較正を行った後、
V' =T VV' -1 V …(4)
通常のビンピッキングを行うことを特徴とする位置データ較正機能付きビンピッキング装置。
Wherein the mark object by prepared in advance jig mounted high positional accuracy as the reference object model in the camera field of view, from the old vision system sigma V is a coordinate system before the now replacing the camera with life or damage Using the reference object model set in the old vision system in the new vision system Σ V ′ , the coordinate transformation T VV ′ to the new vision system Σ V ′ , which is a newly set coordinate system after the camera is replaced. wherein by performing model matching for background objects, determined by the following equation (1) as the inverse transformation T V'O -1 of the position and orientation T V'O of the background objects backed by a new vision system sigma V ',
T VV ′ = T V′O −1 (1)
A position data calibration unit that performs position data calibration from the old vision system Σ V to the new vision system Σ V ′ using the coordinate transformation T VV ′ ;
The position data calibration unit includes:
Based on the coordinate transformation data T VV ′ and the coordinate transformation T RV from the robot system Σ R which is the coordinate system of the robot arm device to the old vision system Σ V , the robot system Σ R to the new vision system Σ V ′. The coordinate transformation T RV ′ to is calculated by the following equation (2):
T RV ′ = T RV T VV ′ (2)
Further, the coordinate transformation T VH to -1 and the hand system is a coordinate system of the object to be handled by the robotic arm mechanism from the old vision system sigma V sigma H 'inverse transform T VV' of the coordinate transformation data T VV Based on the following equation (3) , a coordinate transformation T V′H from the new vision system Σ V ′ to the hand system Σ H is obtained,
T V′H = T VV ′ −1 T VH (3)
Furthermore, components based on said -1 'inverse transform T VV' of the coordinate transformation data T VV, and the point p V component model data relative to the old vision system sigma V based on the new vision system sigma V ' After performing the position data calibration by obtaining the transformation of the model data to the point p V ′ by the following equation (4) ,
p V ′ = T VV ′ −1 p V (4)
A bin picking device with a position data calibration function, wherein normal bin picking is performed.
基準物体モデルを設定するための基準部品を作業者側で適切に設置した、前記カメラを寿命又は破損等で交換する前の今までの座標系である旧ビジョン系ΣVから前記カメラを交換した後の新しく設定した座標系である新ビジョン系ΣV'への座標変換TVV'を、新ビジョン系ΣV'において前記旧ビジョン系で設定された前記基準物体モデルを用いて前記背景物体に対するモデルマッチングを行うことにより、新ビジョン系Σ V' を基にする前記背景物体の位置姿勢TV'Oの逆変換TV'O -1として下式(1)により求め、
VV' =T V'O -1 …(1)
前記座標変換TVV'を使用して旧ビジョン系ΣVから新ビジョン系ΣV'への位置データ較正を行う位置データ較正部を備え、
前記位置データ較正部は、
前記座標変換データT VV' 及びロボットアーム装置の座標系であるロボット系Σ R から前記旧ビジョン系Σ V への座標変換T RV に基づいて、前記ロボット系Σ R から前記新ビジョン系Σ V' への座標変換T RV' を下式(2)により求め、
RV' =T RV VV' …(2)
また、前記座標変換データT VV' の逆変換T VV' -1 及び前記旧ビジョン系Σ V からロボットアーム装置でハンドリングされる対象物体の座標系であるハンド系Σ H への座標変換T VH に基づいて、前記新ビジョン系Σ V' から前記ハンド系Σ H への座標変換T V'H を下式(3)により求め、
V'H =T VV' -1 VH …(3)
更に、前記座標変換データT VV' の逆変換T VV' -1 に基づき、前記旧ビジョン系Σ V を基準にした部品モデルデータの点p V を前記新ビジョン系Σ V' を基準にした部品モデルデータの点p V' への変換を下式(4)により求めることにより、前記位置データ較正を行った後、
V' =T VV' -1 V …(4)
通常のビンピッキングを行うことを特徴とする位置データ較正機能付きビンピッキング装置。
The camera was replaced from the old vision system Σ V , which was the previous coordinate system in which the reference parts for setting the reference object model were properly installed on the operator side, and the camera was replaced before its lifetime or damage . with respect to the background object using the reference object model to a newly set coordinate system 'coordinate transformation T VV' to the new vision system sigma V, set by the old vision system in the new vision system sigma V 'after By performing model matching , the inverse transformation T V′O −1 of the position and orientation T V′O of the background object based on the new vision system Σ V ′ is obtained by the following equation (1) :
T VV ′ = T V′O −1 (1)
Comprising a position data calibration unit that performs position data calibration using 'from the old vision system ΣV new vision system sigma V' the coordinate transformation T VV to,
The position data calibration unit includes:
Based on the coordinate transformation data T VV ′ and the coordinate transformation T RV from the robot system Σ R which is the coordinate system of the robot arm device to the old vision system Σ V , the robot system Σ R to the new vision system Σ V ′. The coordinate transformation T RV ′ to is calculated by the following equation (2):
T RV ′ = T RV T VV ′ (2)
Further, the coordinate transformation T VH to -1 and the hand system is a coordinate system of the object to be handled by the robotic arm mechanism from the old vision system sigma V sigma H 'inverse transform T VV' of the coordinate transformation data T VV Based on the following equation (3) , a coordinate transformation T V′H from the new vision system Σ V ′ to the hand system Σ H is obtained,
T V′H = T VV ′ −1 T VH (3)
Furthermore, components based on said -1 'inverse transform T VV' of the coordinate transformation data T VV, and the point p V component model data relative to the old vision system sigma V based on the new vision system sigma V ' After performing the position data calibration by obtaining the transformation of the model data to the point p V ′ by the following equation (4) ,
p V ′ = T VV ′ −1 p V (4)
A bin picking device with a position data calibration function, wherein normal bin picking is performed.
JP23146698A 1998-08-18 1998-08-18 Bin picking device with position data calibration function Expired - Lifetime JP4413291B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23146698A JP4413291B2 (en) 1998-08-18 1998-08-18 Bin picking device with position data calibration function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23146698A JP4413291B2 (en) 1998-08-18 1998-08-18 Bin picking device with position data calibration function

Publications (2)

Publication Number Publication Date
JP2000067238A JP2000067238A (en) 2000-03-03
JP4413291B2 true JP4413291B2 (en) 2010-02-10

Family

ID=16923953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23146698A Expired - Lifetime JP4413291B2 (en) 1998-08-18 1998-08-18 Bin picking device with position data calibration function

Country Status (1)

Country Link
JP (1) JP4413291B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105606041A (en) * 2016-01-28 2016-05-25 南昌航空大学 Rotor pyramidal angle airborne measurement apparatus and method based on PC/104 embedded system

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4794011B2 (en) * 2008-04-03 2011-10-12 関東自動車工業株式会社 Image processing apparatus and robot control system
DE102012015056A1 (en) * 2012-07-28 2014-02-13 Bsautomatisierung Gmbh Robot control device
CN105823414B (en) * 2015-01-07 2018-11-02 中国核工业华兴建设有限公司 A kind of embedded part position inspecting method based on spatial digitizer technology
JP2025094572A (en) * 2023-12-13 2025-06-25 株式会社日立ハイテク Imaging method, imaging device, automatic analyzer, and position adjustment method for automatic analyzer

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089151B2 (en) * 1986-11-06 1996-01-31 神鋼電機株式会社 Position correction method for robot equipped with automatic guided vehicle
JP2660744B2 (en) * 1989-03-31 1997-10-08 株式会社ダイフク Mobile vehicle stop position detection device
JPH0448304A (en) * 1990-06-18 1992-02-18 Hitachi Ltd Self-propelled robot position correction method and device
JP2682763B2 (en) * 1991-06-29 1997-11-26 ファナック株式会社 Automatic measurement method of operation error of robot body
KR940006570B1 (en) * 1992-01-14 1994-07-22 한국과학기술원연구원 Calibration system for robot arm length correction by temperature change
JPH06278064A (en) * 1993-03-31 1994-10-04 Citizen Watch Co Ltd Method for converting coordinate of visual sensor
JPH0755427A (en) * 1993-08-12 1995-03-03 Nec Corp Lead position detector
JP3665353B2 (en) * 1993-09-14 2005-06-29 ファナック株式会社 3D position correction amount acquisition method of robot teaching position data and robot system
JP4387476B2 (en) * 1998-07-13 2009-12-16 株式会社明電舎 Bin picking position data calibration device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105606041A (en) * 2016-01-28 2016-05-25 南昌航空大学 Rotor pyramidal angle airborne measurement apparatus and method based on PC/104 embedded system

Also Published As

Publication number Publication date
JP2000067238A (en) 2000-03-03

Similar Documents

Publication Publication Date Title
CN100465833C (en) offline programming device
US20070071310A1 (en) Robot simulation device
US20060212171A1 (en) Off-line teaching device
EP3542969A1 (en) Working-position correcting method and working robot
JP4464318B2 (en) Calibration method for parallel mechanism machine
KR20160010868A (en) Automated machining head with vision and procedure
CN111002304B (en) Device for acquiring position and location of end effector of manipulator
US11707842B2 (en) Robot system and coordinate conversion method
KR20080088165A (en) Robot calibration method
EP2122422A2 (en) A method and an apparatus for compensating for geometrical errors between work objects and a holding device
JP4387476B2 (en) Bin picking position data calibration device
JP4413291B2 (en) Bin picking device with position data calibration function
WO2021172271A1 (en) Robot system
JP6928015B2 (en) Robot system and coordinate conversion method
JP2773917B2 (en) Work positioning device for bending equipment
JP4096415B2 (en) Position data calibration device
JP2004261881A (en) Work welding system, work welding method, and work welding program
JPH08118272A (en) Calibration of robot
JP7477633B2 (en) Robot System
JPH05329786A (en) Industrial robot device
KR100214675B1 (en) Reference posture and position correction device and method for industrial robot
JPH04340605A (en) Method and device for off-line teaching of robot
JPH012104A (en) Robot positioning error correction method
KR100336459B1 (en) Method for off-line control of robot
JP2021186929A (en) Multi-axis robot control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070514

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071004

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20071011

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20071116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091023

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091118

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131127

Year of fee payment: 4

EXPY Cancellation because of completion of term