JP4284765B2 - Robot hand position measuring device - Google Patents
Robot hand position measuring device Download PDFInfo
- Publication number
- JP4284765B2 JP4284765B2 JP21226699A JP21226699A JP4284765B2 JP 4284765 B2 JP4284765 B2 JP 4284765B2 JP 21226699 A JP21226699 A JP 21226699A JP 21226699 A JP21226699 A JP 21226699A JP 4284765 B2 JP4284765 B2 JP 4284765B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- light source
- imaging
- robot hand
- axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
Description
【0001】
【発明の属する技術分野】
本発明はロボットハンド位置計測装置に係り、特に、ロボットハンドの基準部位の3次元座標を計測するロボットハンド位置計測装置に関する。
【0002】
【従来の技術】
工場の生産ライン等で多数用いられているロボットハンドは、先端部に設けられたハンドにより、例えばワークを吸着又は把持して保持したり、切削、ねじ締め、溶接等の様々な作業を実行可能とされている。ハンドはアームによって3次元的に移動可能とされており、ロボットハンド設置位置にワークが搬送されてくる毎に、作業空間内の予め複数定められた移動目標位置へハンドが順次移動するようにアームが駆動される。これにより、順次搬送されてくるワークに対して搬送、組立、加工等の所期の作業が行われる。
【0003】
ところで、ロボットハンドは、移動目標位置をロボットハンド固有の3次元座標系(ロボットハンド座標系)における座標値として記憶しているが、先端部を移動目標位置へ精度良く移動させるためには、作業空間内の一定位置を原点とする絶対座標系を定め、ロボットハンドの先端部が移動可能範囲内の各位置(例えば移動目標位置)に位置している状態での先端部の絶対座標系における座標値を計測し、絶対座標系とロボットハンド座標系とのずれを検知する必要がある。
【0004】
上記に関連して特許第2682763号公報には、ロボット機体の最先端リンクに装着した撮像装置によりロボットのベース近傍の固定被写点(点光源(32))を撮影し、撮像装置の2次元画像上における固定被写点の撮影による像の位置と計算によって得られる理論上の像の位置とのずれに基づいて、ロボット機体の各リンク要素間の相対位置関係における理論値と実際値との誤差を求めるようにしたロボット機体の作動誤差の自動測定方法が開示されている。
【0005】
また、特開平4−291111号公報には、移動物体を同時に撮像する2台のビデオカメラを、パン角及びチルト角が可変の2台の雲台にそれぞれ取付け、両カメラの撮影画面上での移動物体の目標点が画面中央に引き込まれるように両雲台のパン角及びチルト角を制御し、三角測量法の演算によって移動物体の位置を3次元座標値で検出する技術が開示されている。
【0006】
【発明が解決しようとする課題】
しかしながら、特許第2682763号公報に記載の技術は、単一の撮像装置による撮像によって得られた2次元画像を用いているので、各リンク要素間の相対位置関係の誤差を求めることはできても、ロボットハンド先端部の絶対座標系における3次元座標値を計測することはできず、絶対座標系とロボットハンド座標系とのずれを検知することは不可能である。従って、例えばロボット機体のベース(12)及び点光源(32)の設置位置が所期の位置に対してずれている等によりロボットハンド座標系が絶対座標系に対してずれていた場合、ロボットハンドの先端部を、絶対座標系の座標値で与えられた移動目標位置へ精度良く移動させることは困難である。
【0007】
ロボットハンド先端部の絶対座標系における座標値は、例えば先の特開平4−291111号公報に記載の技術等を利用し、絶対座標系における座標値が既知の所定位置にカメラ等の撮像手段を設置すれば計測可能である。この場合、撮像手段の撮像方向をロボットハンド先端部の存在する方向に一致させるための駆動機構(例えば特開平4−291111号公報に記載の雲台のパン角及びチルト角を変化させる駆動機構)の駆動源としては、回転軸の回転角度を精密かつ簡易に制御可能なステッピングモータが好適である。
【0008】
しかしながら、ステッピングモータは、回転軸を微小な一定角度ずつステップ回転させる構成であるので、撮像手段の撮像方向がロボットハンド先端部の方向に正確には一致しないことも多く、撮像方向がロボットハンド先端部の方向と若干ずれた状態で計測を行った場合、絶対座標系におけるロボットハンド先端部の正確な座標値が得られないという問題があった。
【0009】
本発明は上記事実を考慮して成されたもので、ロボットハンドの位置計測精度の向上を実現できるロボットハンド位置計測装置を得ることが目的である。
【0010】
【課題を解決するための手段】
上記目的を達成するために請求項1記載の発明に係るロボットハンド位置計測装置は、姿勢角、又は位置、又は姿勢角と位置に関する少なくとも2種類のパラメータの値を変更可能で、前記パラメータの値を変更することで指向方向が変化すると共に、ズームレンズを介して前記指向方向を撮像する撮像素子を備えた指向手段と、前記指向手段の前記撮像素子による撮像によって得られる画像上での前記ズームレンズの光学中心に対応する撮像中心位置を、前記ズームレンズのズーム値毎に記憶する記憶手段と、前記指向方向がロボットハンドの基準部位の存在する方向に略一致した状態で、前記指向手段の指向方向と前記基準部位の存在する方向との偏差として、前記指向手段の前記撮像素子による撮像によって得られる画像上での、前記ズームレンズの現在のズーム値に対応する前記撮像中心位置と、前記基準部位の像の重心位置との偏差を検出する第1検出手段と、指向手段の前記少なくとも2種類のパラメータの値を所定の3次元座標系を基準にして検出する第2検出手段と、前記指向方向が前記基準部位の存在する方向に略一致した状態で、前記第1検出手段によって検出された前記偏差、及び前記第2検出手段によって検出された前記パラメータの値に基づいて、前記指向方向が前記基準部位の存在する方向に一致した状態での前記パラメータの値を演算し、演算したパラメータの値を用いて前記所定の3次元座標系における前記基準部位の座標を演算する演算手段と、を含んで構成されている。
【0011】
請求項1の発明では、姿勢角、又は位置、又は姿勢角と位置に関する少なくとも2種類のパラメータの値を変更可能で、前記パラメータの値を変更することで指向方向が変化すると共に、ズームレンズを介して指向方向を撮像する撮像素子を備えた指向手段が設けられている。なお、姿勢角に関する2種類のパラメータとしては、例えば請求項2に記載した方位角と仰角を用いることができ、姿勢角と位置に関する2種類のパラメータとしては、例えば請求項3に記載した仰角と単一の水平方向(水平面内の任意の1方向)に沿った位置を用いることができ、位置に関する2種類のパラメータとしては、例えば請求項4に記載した各々水平でかつ互いに交差する2方向(互いに交差する水平面内の任意の2方向)に沿った位置を用いることができる。
【0012】
上記のパラメータの値を変更して指向手段の指向方向を変化させることで、指向手段の指向方向を、ロボットハンドの基準部位(例えばロボットハンド先端やその近傍)の存在する方向に一致(又は略一致)させることが可能となる。なお、前記パラメータの値を変更するための駆動源としてはステッピングモータを用いてもよいし(この場合、指向手段の前記パラメータの値及び指向方向は段階的に変化する)、前記パラメータの値及び指向方向を連続的に変更可能な他の駆動源を用いてもよい。
【0013】
また請求項1の発明は、指向手段の撮像素子による撮像によって得られる画像上でのズームレンズの光学中心に対応する撮像中心位置が、ズームレンズのズーム値毎に記憶手段に記憶されており、第1検出手段は、指向方向がロボットハンドの基準部位の存在する方向に略一致した状態で、指向手段の指向方向とロボットハンドの基準部位の存在する方向との偏差として、指向手段の撮像素子による撮像によって得られる画像上での、ズームレンズの現在のズーム値に対応する撮像中心位置と、基準部位の像の重心位置との偏差を検出する。第1検出手段による偏差の検出を考慮すると、ロボットハンドの基準部位は他の部位との識別が容易であることが望ましく、例えばロボットハンドの基準部位に光源を取付けることが好ましい。基準部位に光源を取付ける態様において、指向手段の指向方向とロボットハンドの基準部位の存在する方向(すなわち前記光源が存在する方向)との偏差は、例えば基準部位に取付けられた光源からの光の受光位置を検出し、指向方向が光源の存在する方向に一致していた場合の光源からの光の受光位置に対し、検出した受光位置のずれに基づいて検出することができる。これにより、ロボットハンドに光を照射して基準部位で反射された光を検出する場合と比較して、検出光量が基準部位の光反射率の影響を受けたり基準部位の反射面の向きに応じて変化することが抑制される。
【0014】
また、上記のように基準部位に光源を取付けることに代えて、例えば基準部位を特定の色に塗装したり、或いは基準部位に特定のパターンを記録する等によっても、ロボットハンドの基準部位を他の部位と光学的に容易に識別することができる。基準部位を光学的に識別する態様(例えば基準部位に光源を取付ける等の態様)において、第1の検出手段としては、例えば撮像方向が指向手段の指向方向と一致するように指向手段に取付けられた撮像手段や、複数の光センサから成り光検出方向が指向手段の指向方向と一致するように指向手段に取付けられた光検出手段で構成することができる。
【0015】
また請求項1の発明は、指向手段の前記少なくとも2種類のパラメータの値を所定の3次元座標系を基準にして検出する第2検出手段を備えている。第2検出手段は、前記少なくとも2種類のパラメータの各々の種類に応じて、例えばロータリーエンコーダ等の姿勢角検出手段やリニアエンコーダ等の位置検出手段を含んで構成することができる。
【0016】
また、請求項1の発明に係る演算手段は、指向方向がロボットハンドの基準部位の存在する方向に略一致した状態で、第1検出手段によって検出された偏差、及び第2検出手段によって検出された前記パラメータの値に基づいて、指向方向が前記基準部位の存在する方向に一致した状態での前記パラメータの値を演算する。なお、指向方向が基準部位の存在する方向に一致した状態でのパラメータの値は、具体的には、例えば指向手段の指向方向と基準部位の存在する方向との偏差が各々所定値未満でかつ前記パラメータの値が互いに異なる複数の状態において、第1検出手段によって各々検出された偏差と第2検出手段によって各々検出された前記パラメータの値に基づき補間演算(内挿でも外挿でもよい)によって求めることができる。
【0017】
これにより、例えば指向方向を連続的に変化させることができない(段階的に変化する)等の理由で、指向手段の指向方向を基準部位の存在する方向に正確に一致させることができない場合、或いは計測時間の短縮等を目的として指向手段の指向方向が基準部位の存在する方向に正確には一致していない状態で計測(前記パラメータの値の検出)を行った等の場合にも、指向方向が基準部位の存在する方向に一致したときの指向手段の前記パラメータの値を得ることができる。
【0018】
そして演算手段は、上記の演算によって求めた、指向方向が基準部位の存在する方向に一致した状態での前記パラメータの値を用いて所定の3次元座標系における基準部位の座標を演算するので、指向手段の指向方向が基準部位の存在する方向に正確には一致していない状態で計測を行ったことに起因する誤差を排除することができる。また、第1検出手段は、指向手段の指向方向とロボットハンドの基準部位の存在する方向との偏差として、指向手段の撮像素子による撮像によって得られる画像上での、ズームレンズの現在のズーム値に対応する撮像中心位置と、基準部位の像の重心位置との偏差を検出するので、ズームレンズのズーム値の変更に伴ってズームレンズの光軸中心がずれることが、第1検出手段による偏差検出の精度に悪影響を与え、ロボットハンドの位置計測精度の低下を招くことも防止することができる。従って、請求項1の発明によれば、ロボットハンドの位置計測精度の向上を実現できる。
【0019】
ところで、ロボットハンドの基準部位の3次元座標を求めるためには、単一の指向手段の指向方向が基準部位の存在する方向に一致した状態での少なくとも2種類のパラメータの値を計測する以外に、基準部位の3次元座標に関連する少なくとも一種類の別の物理量も計測する必要がある。
【0020】
このため、請求項2記載の発明は、請求項1の発明において、前記指向手段は複数設けられ、各指向手段はロボットハンドの移動可能範囲近傍の互いに異なる一定の位置に各々設置され、前記姿勢角に関する2種類のパラメータとして方位角及び仰角を各々変更可能とされており、前記演算手段は、各指向手段の指向方向が前記基準部位の存在する方向に略一致した状態での各指向手段の方位角及び仰角を用いて前記基準部位の座標を演算することを特徴としている。
【0021】
請求項2の発明では、ロボットハンドの移動可能範囲近傍の互いに異なる一定の位置に、姿勢角に関する2種類のパラメータとして方位角及び仰角を各々変更可能な複数の指向手段が各々設置されており、各指向手段の指向方向が基準部位の存在する方向に略一致した状態での各指向手段の方位角及び仰角を用いてロボットハンドの基準部位の座標が演算される。これにより、ロボットハンドの基準部位の3次元座標を高精度に計測することができる。また、請求項2の発明では、複数の指向手段が互いに異なる一定の位置に設置されている(すなわち各指向手段の水平面内における位置が変化しない)ので、本発明に係るロボットハンド位置計測装置の設置に必要なスペースを削減することができる。
【0022】
また、請求項3記載の発明は、請求項1の発明において、前記指向手段は複数設けられ、各指向手段は、前記姿勢角と位置に関する2種類のパラメータとして仰角及び各々水平でかつ互いに交差する2方向のうちの互いに異なる単一の方向に沿った位置を各々変更可能とされており、前記演算手段は、各指向手段の指向方向が前記基準部位の存在する方向に略一致した状態での各指向手段の仰角及び前記単一の方向に沿った位置を用いて前記基準部位の座標を演算することを特徴としている。
【0023】
請求項3記載の発明では、姿勢角と位置に関する2種類のパラメータとして仰角及び各々水平でかつ互いに交差する2方向のうちの互いに異なる単一の方向に沿った位置を各々変更可能な複数の指向手段が設けられており、各指向手段の指向方向が基準部位の存在する方向に略一致した状態での各指向手段の仰角及び前記単一の方向に沿った位置を用いてロボットハンドの基準部位の座標が演算される。これにより、ロボットハンドの基準部位の3次元座標を高精度に計測することができる。
【0024】
また、請求項3の発明において、複数の指向手段として、双方の指向手段が互いに直交する方向に沿った位置を変更可能な一対の指向手段を設ける場合、指向手段の位置を変更させるための機構として安価なXYステージを利用することが可能となるので、ロボットハンド位置計測装置を安価に構成することができる。
【0025】
また、請求項4記載の発明は、請求項1の発明において、前記指向手段は、前記位置に関する2種類のパラメータとして、各々水平でかつ互いに交差する2方向に沿った位置を各々変更可能とされており、鉛直方向に沿ったロボットハンドの基準部位の高さを検出する第3検出手段を更に備え、前記演算手段は、前記指向手段の指向方向が前記基準部位の存在する方向に略一致した状態での指向手段の前記2方向に沿った位置と、前記第3検出手段によって検出されたロボットハンドの基準部位の高さと、を用いて前記基準部位の座標を演算することを特徴としている。
【0026】
請求項4記載の発明では、位置に関する2種類のパラメータとして各々、水平でかつ互いに交差する2方向に沿った位置を各々変更可能な指向手段が設けられていると共に、鉛直方向に沿ったロボットハンドの基準部位の高さを検出する第3検出手段が設けられており、指向方向が基準部位の存在する方向に略一致した状態での指向手段の前記2方向に沿った位置と、第3検出手段によって検出されたロボットハンドの基準部位の高さと、を用いてロボットハンドの基準部位の座標が演算される。これにより、ロボットハンドの基準部位の3次元座標を高精度に計測することができる。なお第3検出手段は、例えば三角測量の原理を利用して基準部位の高さを検出するものであってもよいし、基準部位に接触することで基準部位の高さを検出するものであってもよいし、基準部位との距離を測定することで基準部位の高さを検出するものであってもよい。
【0027】
なお、請求項1〜請求項4の何れかの発明において、請求項5に記載したように、前記指向手段の指向方向を変化させる駆動手段と、前記ズームレンズのズーム値が前記撮像中心位置が既知の第1のズーム値となっている状態で、前記指向手段の前記撮像素子による撮像によって得られる画像上での前記基準部位の像の重心位置が前記第1のズーム値に対応する前記撮像中心位置に一致するように、前記駆動手段によって前記指向手段の指向方向を制御した後に、前記ズームレンズのズーム値を前記撮像中心位置が未知の第2のズーム値へ変化させ、前記指向手段の前記撮像素子による撮像によって得られる画像上での、前記第1のズーム値に対応する前記撮像中心位置と、前記基準部位の像の重心位置とのずれ量を検出し、前記第1のズーム値に対応する前記撮像中心位置に対して前記検出したずれ量だけずれた位置を、前記第2のズーム値に対応する撮像中心位置として前記記憶手段に記憶させる撮像中心位置取得手段と、を更に設けることが好ましい。これにより、撮像中心位置が未知のズーム値についても、当該ズーム値に対応する撮像中心位置を得ることができる。
【0028】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態の一例を詳細に説明する。
【0029】
〔第1実施形態〕
図1には、本第1実施形態に係るロボットハンド位置計測装置10が示されている。ロボットハンド位置計測装置10は、CPUと、ROM・RAM・入出力ポート等の周辺回路とを含んで構成された制御部12を備えている。制御部12には、各種の情報を入力するための情報入力手段としてのキーボード14、及び各種の情報を表示するための表示手段としてのディスプレイ16が接続されている。なお、ディスプレイ16としては、LCDやCRTディスプレイ等の各種のディスプレイを適用可能である。また、キーボード14に加えてポインティングデバイス(例えばマウス等)の他の情報入力手段も設けてもよい。
【0030】
また、制御部12はロボットハンド駆動部18に接続されている。ロボットハンド駆動部18は、一例として図2に示すロボットハンド20を駆動する。図2に示したロボットハンド20は、基準水平面30に対して旋回可能とされた基部22と、回動可能に基部22に軸支された第1アーム24と、第1アーム24の先端部に回動可能に軸支された第2アーム26と、第2アーム26の先端部に取付けられたハンド28と、から構成されている。ロボットハンド駆動部18はマイクロコンピュータ等を含んで構成され、例えばステッピングモータ等から成る駆動源を複数備えている。ロボットハンド駆動部18は、前記複数の駆動源の駆動力によって基部22を旋回させたり第1アーム24や第2アーム26を回動させることが可能とされている。
【0031】
ロボットハンド20のハンド28の先端部の移動目標位置はロボットハンド20に固有の3次元座標系における座標値として与えられ、ロボットハンド駆動部18は、移動目標位置を表す座標値を、基部22の旋回方向及び角度・第1アーム24の回動方向及び角度・第2アーム26の回動方向及び角度に変換し、ハンド28の先端部が移動目標位置へ移動するように基部22の旋回・第1アーム24及び第2アーム26の回動を制御する。
【0032】
なお、図2に示したロボットハンドの構成は単なる一例であり、本発明が適用可能なロボットハンドは、図2に示した構成のロボットハンド20に限定されるものではなく、上記で説明したロボットハンド駆動部18の構成も、駆動対象のロボットハンドの構成に応じて変更されることは言うまでもない。
【0033】
ロボットハンド20及びロボットハンド駆動部18は一定の位置に固定的に設置されているが、本実施形態に係るロボットハンド位置計測装置は設置位置を移動可能とされており、後述する座標設定処理や位置計測処理を行うときにロボットハンド20の設置位置の近傍に移動され、制御部12がコネクタを介してロボットハンド駆動部18と接続される。
【0034】
また、制御部12には第1の読取望遠鏡40及び第2の読取望遠鏡42が各々接続されている。図2に示すように、ロボットハンド20のハンド28の移動可能空間近傍の基準水平面30上には、読取望遠鏡40、42(又は後述する座標設定用点光源54)を設置可能なステージ32A、32B、32Cが互いに異なる位置に設けられている。なお図2には、ステージ32Aに第1の読取望遠鏡40が設置され、ステージ32Bに第2の読取望遠鏡42が設置され、ステージ32Cに座標設定用点光源54が設置された状態が示されている。
【0035】
ステージ32A、32B、32Cは互いに同一の構成とされており、図3に示すように、ステージ32は円形状の上面34が基準水平面30と面一となるように基準水平面30に取付けられており、上面34の中央には鉛直方向に沿って円溝(ノック穴)36が穿設されている。また、ステージ32Aとステージ32Bは、ステージ32Aの中央(ノック穴36の軸線位置)とステージ32Bの中央の間隔が予め定められた距離Lに一致するように取付位置が調整されている(図2も参照)。
【0036】
また、第1の読取望遠鏡40と第2の読取望遠鏡42も同一の構成であり、以下では第1の読取望遠鏡40を例に、その構成を説明する。図3に示すように、第1の読取望遠鏡40は円筒状の基部40Aを備え、基部40Aの軸線方向に沿った一端部には、外径寸法が基部40Aよりも小さくされた(ノック穴36の内径寸法と略同径とされた)円筒状の挿入部40Bが、基部40Aと同軸に形成されている。図3に想像線で示すように、第1の読取望遠鏡40は挿入部40Bがステージ32のノック穴36に挿入されることでステージ32に設置される。この状態で基部40A及び挿入部40Bの軸線は鉛直方向に一致し、第1の読取望遠鏡40は鉛直方向に沿った軸周り(方位角θ方向)に回動可能となる。
【0037】
このように、本実施形態ではステージ32のノック穴36に読取望遠鏡の挿入部を挿入することで、基準水平面30上の一定の位置に読取望遠鏡を設置することができると共に、設置した読取望遠鏡を方位角方向に回動可能とすることができるので、読取望遠鏡の設置を極めて容易に行うことができる。また、読取望遠鏡の設置位置の精度についても、単にノック穴36の内径及び挿入部の外径の寸法精度を高く(公差を小さく)することで確保することができる。また、ステージ32の設置位置が後述するXYZ絶対座標系の基準となるので、座標系の基準となる物体を別に設ける必要もない。
【0038】
図1に示すように、第1の読取望遠鏡40は、第1の読取望遠鏡40を方位角方向に回動させる方位角方向駆動部44と、第1の読取望遠鏡40の方位角方向の回動角度を検出する方位角検出部46を有している。
【0039】
方位角方向駆動部44は図示しないステッピングモータを備えており、制御部12からの指示に応じたステップ数だけステッピングモータの回転軸が回転するようにステッピングモータを駆動する。ステッピングモータの回転軸の回転は図示しない駆動伝達機構を介して伝達され、第1の読取望遠鏡40は回転軸の回転量に比例した回動量だけ方位角方向に回転される。
【0040】
また、方位角検出部46は制御部12から方位角方向駆動部44に指示されたステップ数に基づいて第1の読取望遠鏡40の方位角方向の回動角度を算出する。これにより、方位角検出部46を低コストで構成できると共に、読取望遠鏡の方位角方向の回動角度を高分解能で算出(検出)できる。方位角検出部46によって算出された第1の読取望遠鏡40の方位角方向の回動角度は制御部12に入力される。なお、方位角方向駆動部44及び方位角検出部46は、基準水平面30側に配置される構成、及び第1の読取望遠鏡40側に配置される構成の何れを採用してもよい。
【0041】
また、第1の読取望遠鏡40の基部40Aの軸線方向に沿った他端部には、軸線方向が基部40Aの軸線方向と直交するように配置された円筒状の旋回部40Cが配置されている。旋回部40Cは図示しない軸支機構を介し、旋回部40Cの軸線周り(仰角φ方向)に回動可能に基部40Aに軸支されている。図1に示すように、第1の読取望遠鏡40は、旋回部40Cを仰角方向に回動させる仰角方向駆動部48と、旋回部40Cの仰角方向の回動角度を検出する仰角検出部50を有している。
【0042】
仰角方向駆動部48は、方位角方向駆動部44と同様に、図示しないステッピングモータを備えており、制御部12からの指示に応じたステップ数だけステッピングモータの回転軸が回転するようにステッピングモータを駆動する。ステッピングモータの回転軸の回転は図示しない駆動伝達機構を介して伝達され、旋回部40Cは回転軸の回転量に比例した回動量だけ仰角方向に回転される。
【0043】
また、仰角検出部50は制御部12から仰角方向駆動部48に指示されたステップ数に基づいて第1の読取望遠鏡40の仰角方向の回動角度を算出する。これにより、仰角検出部50を低コストで構成できると共に、読取望遠鏡の仰角方向の回動角度を高分解能で算出(検出)できる。仰角検出部50によって算出された旋回部40Cの仰角方向の回動角度は制御部12に入力される。なお、仰角方向駆動部48及び仰角検出部50についても、基部40A側に配置される構成、及び旋回部40C側に配置される構成の何れを採用してもよい。
【0044】
また、第1の読取望遠鏡40は撮像部52を備えている。撮像部52は、旋回部40Cの内部に配置されたレンズ及びエリアCCD等の撮像素子と、撮像素子から出力された画像信号に対して増幅やデジタルの画像データへの変換等の処理を行う信号処理部とを含んで構成されている。第1の読取望遠鏡40の撮像部52から出力された画像データは制御部12に入力される。なお、撮像部52は本発明の第1検出手段に対応している。
【0045】
第1の読取望遠鏡40がステージ32に設置されている状態で、撮像部52の撮像素子による撮像方向は、第1の読取望遠鏡40の方位角方向の回動、及び旋回部40Cの仰角方向の回動に応じて変化するが、撮像素子は、第1の読取望遠鏡40の方位角方向の回動中心軸と旋回部40Cの仰角方向の回動中心軸の交点に受光面の中心が位置するように旋回部40C内に取付けられている。これにより、第1の読取望遠鏡40の方位角方向の回動、及び旋回部40Cの仰角方向の回動に拘わらず、撮像素子の受光面の中心は一定の位置に保持される。
【0046】
なお、第1の読取望遠鏡40及び第2の読取望遠鏡42の基部、挿入部、旋回部、方位角方向駆動部44及び仰角方向駆動部48は本発明の指向手段(詳しくは請求項2に記載の指向手段)に対応しており、方位角検出部46及び仰角検出部48は本発明の第2検出手段に対応している。
【0047】
また制御部12には、後述する座標設定処理を行うときに使用される座標設定用点光源54、及び後述する位置計測処理を行うときにロボットハンド20のハンド28の先端部に取付けられるターゲット点光源58(図2も参照)が接続されている。
【0048】
図2に示すように、座標設定用点光源54は基台56に取付けられている。基台56は、第1の読取望遠鏡40と同様に、ステージ32に挿入するための挿入部(図示省略)が設けられており、ステージ32に設置された状態で、座標設定用点光源54がステージ32の中央を通る鉛直線上に位置し、かつ座標設定用点光源54の高さ(鉛直方向に沿った基準水平面30との距離)が、第1の読取望遠鏡40(又は第2の読取望遠鏡42)がステージ32に設置された状態での撮像部52の撮像素子の受光面の中心の高さと等しくなるように、形状及び座標設定用点光源54の取付位置が調整されている。
【0049】
また、基準水平面30上には予め3次元直交座標系(本発明に係る所定の3次元座標系に相当:以下、XYZ絶対座標系と称する)が設定されている。第1実施形態では、上記のXYZ絶対座標系として、ステージ32Aに第1の読取望遠鏡40(又は第2の読取望遠鏡42)が設置された状態で該読取望遠鏡の撮像素子の受光面の中心に相当する位置を原点とし、この原点と、ステージ32Bに第2の読取望遠鏡42(又は第1の読取望遠鏡40)が設置された状態での該読取望遠鏡の撮像素子の受光面の中心とを通る軸をX軸、基準水平面30と平行でX軸と直交する軸をY軸、鉛直方向に沿いX軸及びY軸と各々直交する軸をZ軸とするXYZ座標系を用いている。
【0050】
次に本第1実施形態の作用として、ロボットハンド20固有の座標系をXYZ絶対座標系と対応させるための作業及び処理について説明する。この作業及び処理は、ロボットハンド20の設置時や、ロボットハンド20の故障や異物との衝突によって前記座標系の対応がずれた等の場合に実施され、まずロボットハンド位置計測装置10がロボットハンド20設置位置の近傍に移動され、制御部12がコネクタ等を介してロボットハンド駆動部18と電気的に接続される。
【0051】
次に制御部12に対して座標設定処理の実行が指示される。座標設定処理はロボットハンド位置計測装置10の方位角検出値及び仰角検出値をXYZ絶対座標系に対応させるための処理であり、前記指示に従って制御部12のCPUで実行される。以下、この座標設定処理について、図4のフローチャートを参照して説明する。
【0052】
ステップ100では、ステージ32A(以下、便宜的に位置Aという)に座標設定用点光源54を設置すると共に、ステージ32C(以下、便宜的に位置Cという)に第1の読取望遠鏡40(第2の読取望遠鏡42でもよい)に設置することをオペレータに要請するメッセージをディスプレイ16に表示する。上記の要請に従い、オペレータによって座標設定用点光源54及び第1の読取望遠鏡40が設置されると、次のステップ102において、位置Aに設置されている座標設定用点光源54を捕捉対象の点光源、位置Cに設置されている第1の読取望遠鏡40を制御対象の読取望遠鏡として点光源捕捉制御処理を行う。この点光源捕捉制御処理について、図5のフローチャートを参照して説明する。
【0053】
ステップ150では、捕捉対象の点光源と制御対象の読取望遠鏡との位置関係(位置Aと位置Cの位置関係)に基づき、制御対象の読取望遠鏡の撮像部52の撮像素子の受光面内に捕捉対象の点光源像が結像されるように、制御対象の読取望遠鏡の方位角及び仰角を方位角方向駆動部44及び仰角方向駆動部48によって制御する。上記の制御により、捕捉対象の点光源が存在している方向に対する制御対象の読取望遠鏡の撮像方向の偏差が一定値以下とされ、撮像部52からは点光源に相当する領域(点光源領域という)が存在している画像(例として図6(A)を参照)を表す画像データが入力される。
【0054】
次のステップ152以降では、捕捉対象の点光源が存在している方向(点光源の方向)に対する制御対象の読取望遠鏡の撮像方向の方位角方向に沿った偏差が0のときの方位角値θを求める。すなわち、ステップ152では制御対象の読取望遠鏡の方位角検出部46から方位角の検出値を取り込む。ステップ154では制御対象の読取望遠鏡の撮像部52から入力された画像データを取り込み、ステップ156では、取り込んだ画像データが表す画像中の点光源領域を抽出し、抽出した点光源領域の重心位置を演算する。画像中の点光源領域は他の領域と比較して明らかに高輝度であるので、点光源領域の抽出は二値化等の処理によって容易に実現できる。
【0055】
ところで、本実施形態では、点光源領域の重心位置が画像の中心に一致している状態を、撮像方向が点光源の方向に一致している状態と定義しており、点光源の方向に対して撮像方向が方位角方向にずれていた場合、点光源領域の重心位置は画像の中心に対して図6(A)に示す方位角方向に沿って偏倚し、点光源の方向に対して撮像方向が仰角方向にずれていた場合、点光源領域の重心位置は画像中心に対して図6(A)に示す仰角方向(方位角方向に直交する方向)に沿って偏倚する。
【0056】
このためステップ158では、先に取り込んだ画像データが表す画像に対し、画像の中心を原点とし、方位角方向に平行な第1座標軸と仰角方向に平行な第2座標軸とが原点で直交する直交座標系を設定し(図6(A)では各座標軸を一点鎖線で示す)、ステップ156で求めた点光源領域の重心位置を上記の直交座標系における座標値に変換し、得られた座標値から方位角方向に沿った位置に相当する座標値を抽出することで、制御対象の読取望遠鏡の撮像方向が点光源の方向に一致しているときの点光源領域の重心位置に対する、現在の点光源領域の重心位置の方位角方向に沿った偏差(方位角偏差)を求める。
【0057】
ステップ160ではステップ158で求めた方位角偏差が0か否か判定する。判定が否定された場合にはステップ162で方位角偏差の符号を判定する。そして、次のステップ164では今回の周期で演算した方位角偏差の符号が前回の周期で演算した方位角偏差の符号に対して変化したか否か判定する。今回の周期で初めて方位角偏差を演算した場合には上記判定は無条件に否定され、ステップ166へ移行する。
【0058】
ステップ166では、制御対象の読取望遠鏡の方位角方向駆動部44のステッピングモータの回転軸を1ステップ回転させ、制御対象の読取望遠鏡の方位角を1ステップ分変更する。なお、このときの方位角の変更方向は、先のステップ158で演算した方位角偏差の符号と逆の方向(方位角偏差の絶対値が減少する方向)である。ステップ166の処理を行うとステップ152に戻り、ステップ160又はステップ164の判定が肯定される迄ステップ152〜166を繰り返し、制御対象の読取望遠鏡の方位角を1ステップ分ずつ順次変更する。
【0059】
本実施形態では方位角方向駆動部44及び仰角方向駆動部48の駆動源がステッピングモータであるので、駆動部44又は駆動部48によって読取望遠鏡の方位角又は仰角を変更した場合、読取望遠鏡の方位角又は仰角は段階的に(とびとびに)変化する。このため、ステップ152〜166を繰り返しても、例として図6(A)に示すように、nステップ目では点光源領域の重心位置が方位角方向に沿って画像中心の左側に位置し、n+1ステップ目では点光源領域の重心位置が方位角方向に沿って画像中心の右側に位置する等のように、方位角偏差が0の状態が生じないことが多い。
【0060】
上記のような場合には、ステップ160の判定が肯定されずにステップ164の判定が肯定されてステップ168へ移行し、前回及び今回の周期で演算した方位角偏差、前回及び今回の周期での方位角検出値に基づいて、方位角偏差が0のときの方位角値θを補間演算によって求める。一例として、前回の周期での方位角偏差をdn、今回の周期での方位角偏差をdn+1、前回の周期での方位角検出値をθn、今回の周期での方位角検出値をθn+1とすると、方位角値θは次式によって求めることができる。
θ=θn+dn/(dn+dn+1)・(θn+1−θn)
上記により、例として図6(B)にも示すように方位角偏差が0のときの方位角値θを得ることができる。
【0061】
なお上記の演算では、図6(B)からも明らかなように、点光源領域の重心位置の変化に対する方位角値の変化を線形近似して方位角値θを求めているが、本発明はこれに限定されるものではなく、例えば最小自乗法等を適用し非線形近似によって方位角偏差が0のときの方位角値θを求めるようにしてもよい。
【0062】
なお、ステップ152〜166を繰り返して方位角偏差が0の状態が生じた場合には、ステップ160の判定が肯定されてステップ170へ移行し、ステップ152で取り込んだ方位角検出値を、方位角偏差が0のときの方位角値θとして設定する。
【0063】
次のステップ172以降では、上述したステップ152〜170と同様にして点光源の方向に対する撮像方向の仰角方向に沿った偏差(仰角偏差)が0のときの仰角値φを求める。すなわち、ステップ172では仰角検出部50から仰角検出値を取り込む。ステップ174では撮像部52から入力された画像データを取り込み、ステップ176では、取り込んだ画像データが表す画像中の点光源領域の重心位置を演算する。
【0064】
次のステップ178では、撮像方向が点光源の方向に一致しているときの点光源領域の重心位置に対する、現在の点光源領域の重心位置の仰角方向に沿った偏差(仰角偏差)を求める。ステップ180では仰角偏差が0か否か判定する。判定が否定された場合には、ステップ182で仰角偏差の符号を判定し、次のステップ184において、今回の周期で演算した仰角偏差の符号が前回の周期で演算した仰角偏差の符号に対して変化したか否か判定する。
【0065】
ステップ184の判定が否定された場合にはステップ186へ移行し、仰角方向駆動部48のステッピングモータの回転軸を1ステップ回転させ、制御対象の読取望遠鏡の仰角を仰角偏差の符号と逆の方向へ1ステップ分変更した後にステップ172に戻り、ステップ180又はステップ184の判定が肯定される迄ステップ172〜186を繰り返し、制御対象の読取望遠鏡の仰角を1ステップ分ずつ順次変更する。
【0066】
ステップ172〜186を繰り返しても仰角偏差が0の状態が生じなかった場合には、ステップ184の判定が肯定されてステップ188へ移行し、先のステップ168と同様に、前回及び今回の周期で演算した仰角偏差、前回及び今回の周期での仰角検出値に基づいて、仰角偏差が0のときの仰角値φを補間演算によって求める。一方、仰角偏差が0の状態が生じた場合には、ステップ180の判定が肯定されてステップ190へ移行し、ステップ172で取り込んだ仰角検出値を、仰角偏差が0のときの仰角値φとして設定する。
【0067】
上記の点光源捕捉制御処理により、捕捉対象の点光源を制御対象の読取望遠鏡で捕捉したときに、撮像方向が点光源の方向に一致した状態(方向方位角偏差が0かつ仰角偏差が0の状態)における方位角値θ及び仰角値φが得られることになる。
【0068】
点光源捕捉制御処理を終了すると図4のフローチャートのステップ104へ移行し、ステップ102の点光源捕捉制御処理によって得られた、位置Aの座標設定用点光源54を位置Cの第1の読取望遠鏡40で捕捉して方位角偏差が0となったときの方位角値θを取り込む。ステップ106では、位置Aに設置されている座標設定用点光源54を、ステージ32B(以下、便宜的に位置Bという)に設置(移動)することをオペレータに要請するメッセージをディスプレイ16に表示する。
【0069】
上記の要請に従い、オペレータによって座標設定用点光源54の設置位置が移動されると、次のステップ108において、位置Bに設置されている座標設定用点光源54を捕捉対象の点光源、位置Cに設置されている第1の読取望遠鏡40を制御対象の読取望遠鏡として点光源捕捉制御処理を行う。点光源捕捉制御処理が終了すると、ステップ110では、ステップ108の点光源捕捉制御処理によって得られた方位角値θ(位置Bの座標設定用点光源54を位置Cの第1の読取望遠鏡40で捕捉して方位角偏差が0となったときの方位角値θ)を取り込み、この方位角値θと先のステップ104で取り込んだ方位角値θとに基づいて角度∠ACBを演算し、演算結果をRAM等に記憶する。
【0070】
次のステップ112では、第1の読取望遠鏡40を位置A(第1の読取望遠鏡40の本来の設置位置)に設置することをオペレータに要請するメッセージをディスプレイ16に表示する。上記の要請に従い、オペレータによって第1の読取望遠鏡40が設置されると、次のステップ114において、位置Bに設置されている座標設定用点光源54を捕捉対象の点光源、位置Aに設置されている第1の読取望遠鏡40を制御対象の読取望遠鏡として点光源捕捉制御処理を行う。
【0071】
点光源捕捉制御処理が終了すると、次のステップ116では、ステップ114の点光源捕捉制御処理によって得られた方位角値θ(位置Bの座標設定用点光源54を位置Aの第1の読取望遠鏡40で捕捉して方位角偏差が0となったときの方位角値θ)を取り込む。そして次のステップ118では、取り込んだ方位角値θを、第1の読取望遠鏡40の方位角0°に対応する方位角値としてRAM等に記憶する。従って第1の望遠鏡40は、撮像方向が位置Bの方向に一致したときの方位角が方位角0°とされることになる。
【0072】
次のステップ120では、ステップ114の点光源捕捉制御処理によって得られた仰角値φ(位置Bの座標設定用点光源54を位置Aの第1の読取望遠鏡40で捕捉して仰角偏差が0となったときの仰角値φ)を取り込む。そしてステップ122では、取り込んだ仰角値φを、第1の読取望遠鏡40の仰角0°に対応する仰角値としてRAM等に記憶する。座標設定用点光源54の高さは第1の読取望遠鏡40及び第2の読取望遠鏡42の撮像部52の撮像素子の受光面の中心の高さと等しくされているので、第1の望遠鏡40は撮像方向が水平のときの仰角が仰角0°とされることになる。
【0073】
ステップ124では、位置Bに設置されている座標設定用点光源54を位置Cに設置(移動)することをオペレータに要請するメッセージをディスプレイ16に表示する。上記の要請に従い、オペレータによって座標設定用点光源54の設置位置が移動されると、次のステップ126において、位置Cに設置されている座標設定用点光源54を捕捉対象の点光源、位置Aに設置されている第1の読取望遠鏡40を制御対象の読取望遠鏡として点光源捕捉制御処理を行う。
【0074】
点光源捕捉制御処理が終了すると、次のステップ128では、ステップ126の点光源捕捉制御処理によって得られた方位角値θ(位置Cの座標設定用点光源54を位置Aの第1の読取望遠鏡40で捕捉して方位角偏差が0となったときの方位角値θ)を取り込み、この方位角値θと先のステップ116で取り込んだ方位角値θとに基づいて角度∠CABを演算し、演算結果をRAM等に記憶する。そしてステップ130では、ステップ128で演算した角度∠CABとステップ110で演算した角度∠ACBとに基づいて角度∠CBAを演算し、演算結果をRAM等に記憶する。
【0075】
続いてステップ132では、第2の読取望遠鏡42を位置Bに設置することをオペレータに要請するメッセージをディスプレイ16に表示する。上記の要請に従い、オペレータによって第2の読取望遠鏡42が設置されると(これにより図2に示した状態になる)、次のステップ134において、位置Cに設置されている座標設定用点光源54を捕捉対象の点光源、位置Bに設置されている第2の読取望遠鏡42を制御対象の読取望遠鏡として点光源捕捉制御処理を行う。
【0076】
点光源捕捉制御処理が終了すると、次のステップ136では、ステップ134の点光源捕捉制御処理によって得られた方位角値θ(位置Cの座標設定用点光源54を位置Bの第2の読取望遠鏡42で捕捉して方位角偏差が0となったときの方位角値θ)を取り込む。そして次のステップ138では、取り込んだ方位角値θから角度∠CBAを減算した値を、第2の読取望遠鏡42の方位角0°に対応する方位角値としてRAM等に記憶する。従って第2の読取望遠鏡40は、撮像方向が位置Aの方向に一致したときの方位角が方位角0°とされることになる。
【0077】
ステップ140では、ステップ134の点光源捕捉制御処理によって得られた仰角値φを取り込む。そしてステップ142では、取り込んだ仰角値φを、第2の読取望遠鏡42の仰角0°に対応する仰角値としてRAM等に記憶する。これにより、第2の読取望遠鏡42についても、撮像方向が水平のときの仰角が仰角0°とされることになる。
【0078】
次のステップ144では、位置Cから座標設定用点光源54を除去すると共に、ロボットハンド20のハンド28の先端部にターゲット点光源58を取り付けることをオペレータに要請するメッセージをディスプレイ16に表示し、座標設定処理を終了する。
【0079】
上記の座標設定処理が終了し、位置Cから座標設定用点光源54が除去されると共に、ロボットハンド20のハンド28の先端部(本発明に係る基準部位に相当)にターゲット点光源58が取り付けられると、制御部12のCPUにおいて、ロボットハンド20固有の座標系をXYZ絶対座標系と対応させるための位置計測処理が行われる。以下、この位置計測処理について、図7のフローチャートを参照して説明する。
【0080】
ステップ200ではロボットハンド駆動部18に対し、ロボットハンド20のハンド28の先端部の移動目標位置として所定の計測位置の座標値(ロボットハンド20固有の座標系における座標値)を入力し、ロボットハンド20のハンド28の先端部(ターゲット点光源58)を所定の計測位置へ移動させる。
【0081】
次のステップ202では、ターゲット点光源58を捕捉対象の点光源、位置Aに設置されている第1の読取望遠鏡40を制御対象の読取望遠鏡として点光源捕捉制御処理を行う。なお、このときの点光源捕捉制御処理におけるステップ150では、移動目標位置としてロボットハンド駆動部18に入力した所定の計測位置の座標値に基づいて第1の読取望遠鏡40の方位角及び仰角が制御される。また、位置計測処理時に行われる点光源捕捉制御処理(ステップ202及び後述するステップ208)は本発明の演算手段に対応している。
【0082】
この点光源捕捉制御処理により、第1の読取望遠鏡40の撮像方向がターゲット点光源58の方向(すなわち基準部位が存在する方向)に正確に一致(方位角偏差が0かつ仰角偏差が0)したときの方位角値θ及び仰角値φが得られる。点光源捕捉制御処理が終了すると、次のステップ204では、ステップ202の点光源捕捉制御処理によって得られた方位角偏差が0のときの方位角値θを方位角θ1(図2も参照)としてRAMに記憶すると共に、仰角偏差が0のときの仰角値φを仰角φ1(図2も参照)としてRAMに記憶する。
【0083】
次のステップ208では、ターゲット点光源58を捕捉対象の点光源、位置Bに設置されている第2の読取望遠鏡42を制御対象の読取望遠鏡として点光源捕捉制御処理を行う。この点光源捕捉制御処理により、第2の読取望遠鏡42の撮像方向がターゲット点光源58の方向に正確に一致(方位角偏差が0かつ仰角偏差が0)したときの方位角値θ及び仰角値φが得られる。点光源捕捉制御処理が終了すると、次のステップ208では、ステップ206の点光源捕捉制御処理によって得られた方位角偏差が0のときの方位角値θを方位角θ2(図2も参照)としてRAMに記憶すると共に、仰角偏差が0のときの仰角値φを仰角φ2(図2も参照)としてRAMに記憶する。
【0084】
そしてステップ210では、上記処理によって得られた方位角θ1,θ2、仰角φ1,φ2、位置Aと位置Bとの距離Lに基づいて、XYZ絶対座標系におけるターゲット点光源58(所定の計測位置)の座標値(X,Y,Z)を次式に従って演算する。
X=(L・tanθ2)/(tanθ1+tanθ2)
Y=X・tanθ1 Z=√(X2+Y2)・tanφ1
上記により、所定の計測位置のXYZ絶対座標系における座標値(X,Y,Z)を高精度に求めることができる。所定の計測位置のロボットハンド20固有の座標系における座標値は既知であるので、所定の計測位置におけるロボットハンド20固有の座標系とXYZ絶対座標系との対応がとれることになる。
【0085】
所定の計測位置は予め複数定められており、次のステップ212では、全ての計測位置について上記の処理を行ったか否か判定する。判定が否定された場合にはステップ200に戻り、ステップ200以降を繰り返す。全ての計測位置に対してステップ200〜210の処理を行うと、ステップ212の判定が肯定されて位置計測処理を終了する。
【0086】
上述した作業・処理により、ロボットハンド20のハンド28の移動可能空間内の複数の計測位置において、ロボットハンド20固有の座標系とXYZ絶対座標系との対応が各々とれることになり、ハンド28の移動目標位置をXYZ絶対座標系における座標値として与えれば、該座標値によって表される位置へハンド28が精度良く移動されることになる。
【0087】
また、本第1実施形態では、第1の読取望遠鏡40、第2の読取望遠鏡42がステージ32A、32Bに設置された状態で方位角方向や仰角方向に回動することでターゲット点光源58を捕捉することができるので、読取望遠鏡の移動範囲が小さく、読取望遠鏡40、42を含むロボットハンド位置計測装置10を設置するために必要なスペースを小さくすることができる。
【0088】
また、読取望遠鏡40、42を含むロボットハンド位置計測装置10は、位置計測処理が終了すればロボットハンド20の設置位置近傍から除去することができるので、例えば複数台のロボットハンド20が設置されている等の状況において、個々のロボットハンド20に対応してステージ32のみを設けておけば、単一のロボットハンド位置計測装置10を複数台のロボットハンド20で共有することも可能となる。
【0089】
なお、上記では距離Lの値を一定値として記憶していたが、熱膨張等によって距離Lが変動することによる影響が無視できない程大きい等の場合には、例えば第1の読取望遠鏡40及び第2の読取望遠鏡に相互の距離(距離L)を測定する機構を設けてもよい。
【0090】
また、本第1実施形態において、点光源捕捉制御処理(図5)における点光源捕捉精度を向上させる(これに伴って位置計測処理における位置計測精度も向上する)ためには、点光源像の画素分解能を或る値以上とする(画像中の点光源領域の大きさ(点光源領域の画素数)を所定値以上とする)ために、撮像される画面範囲の大きさと撮像される点光源像の大きさを調整することが望ましい。ロボットハンド20のハンド28の先端部の全ての移動範囲で上記のような条件を満たして点光源像を結像させる1つの方法として、撮像部52のレンズをズームレンズで構成し、点光源捕捉制御処理のステップ150において、画像中の点光源領域の大きさが所定値以上になるように、捕捉対象の点光源の奥行距離(読取望遠鏡から見た奥行方向に沿った距離)に応じてズームレンズのズーム値(ズーム倍率)を変更することが考えられる。
【0091】
しかしながら、ズームレンズのズーム値を変更すると、レンズの光軸中心がずれることで撮像素子の受光面内における点光源像の結像位置がずれ、例として図8(A)に示すように画像中の点光源領域の重心位置が変化するので、計測精度の低下に繋がる。このため、以下の手順でズームレンズの光軸ずれを補正することが望ましい。
【0092】
すなわち、まずロボットハンド20のハンド28の先端部の移動範囲に基づいて、読取望遠鏡によって撮像すべき空間(撮像空間)の範囲を求め、求めた撮像空間を、読取望遠鏡から見た奥行方向に沿って所定距離毎に複数の範囲に区画する。複数の範囲への区画は、単一の範囲の奥行方向に沿った距離範囲(前記所定距離に相当)が、単一の範囲内の各位置を或る一定のズーム値で撮像したときに、前記各位置で点光源像の重心演算が可能な程度の結像が得られる値となるように行われる。これにより、各撮像範囲毎にズーム値が決定される。そして、各撮像範囲毎に、決定した各ズーム値においてレンズの光軸中心に対応する撮像面内位置(撮像中心)を調べ、調べた撮像中心を各撮像範囲毎に記憶しておく。
【0093】
そして、点光源捕捉制御処理においては、ステップ150で捕捉対象の点光源の奥行距離に応じてズームレンズのズーム値を変更した後に、変更後のズーム値に対応する撮像中心に点光源像の重心位置が一致した状態を方位角偏差及び仰角偏差が0の状態とし、方位角偏差が0のときの方位角値θ及び仰角偏差が0のときの仰角値φを求める。これにより、ズームレンズの光軸のずれを補正することができる。
【0094】
また、予め単一のズーム値についてのみ撮像中心を調べておき、図8(B)に示す撮像中心演算処理を行うことで、各ズーム値における撮像中心を求めてもよい。この方法では、予め単一のズーム値についてのみ撮像中心を調べておき、そのズーム値を設定し(ステップ250)、設定した現在のズーム値に対応する撮像範囲内へロボットハンド20(のハンド28の先端部)を移動させる(ステップ252)。続いて、点光源捕捉制御処理と同様に、撮像によって得られた画像の点光源領域の重心が現在のズーム値における撮像中心に一致するように読取望遠鏡の方位角及び仰角を制御して、方位角偏差が0のときの方位角値θ及び仰角偏差が0のときの仰角値φを求める(ステップ254)。
【0095】
次に、点光源の位置を固定したままでズーム値を変更する(ステップ256)。このときのズーム値の変更量は、ボケによる影響がある場合にも点光源像の重心演算が可能な程度の大きさとする。そして撮像によって得られた画像中の点光源像の重心位置を演算し(ステップ258)、点光源像の重心位置と前回のズーム値における点光源像の重心位置とのずれ量を計測する(ステップ260)。このずれ量は、ステップ258におけるズーム値の変更に伴うズームレンズの光軸位置のずれ量に相当するので、次のステップ262において、前回のズーム値における撮像中心に対し計測したずれ量だけずれた位置を、現在のズーム値における撮像中心として記憶する。
【0096】
他のズーム値における撮像中心を求める場合(ステップ264の判定が否定された場合)にはステップ252に戻り、ステップ256で変更した現在のズーム値に対応する撮像範囲内へロボットハンドを移動させ、ステップ254以降の処理を繰り返す。上記の撮像中心演算処理を行うことで、各ズーム値における撮像中心が各々求まることになる。
【0097】
〔第2実施形態〕
次に本発明の第2実施形態について説明する。なお、第1実施形態と同一の部分には同一の符号を付し、説明を省略する。図9に示すように、本第2実施形態に係るロボットハンド位置計測装置60は、第1実施形態で説明した読取望遠鏡40、42に代えて、X軸撮像装置62、Y軸撮像装置64、X軸ステージ66及びY軸ステージ68が設けられており、これらは各々制御部12に接続されている。
【0098】
図10(B)に示すように、X軸撮像装置62は円筒状の旋回部62Aを備えており、旋回部62Aの軸線周り(仰角φ方向)に回動可能に基部62Bに軸支されている。X軸撮像装置62は、第1実施形態で説明した読取望遠鏡40、42と同様に、旋回部62Aを仰角方向に回動させる仰角方向駆動部48と、旋回部62Aの仰角方向の回動角度を検出する仰角検出部50と、エリアCCD等の撮像素子を備えた撮像装置52と、を有している。なお、Y軸撮像装置64はX軸撮像装置62と同一の構成であるので説明を省略する。
【0099】
図10(A)に示すように、X軸ステージ66及びY軸ステージ68は、各々一定方向に沿って延設されたレールを備えており、互いのレールの延設方向が直交している状態で一体化されている。X軸ステージ66及びY軸ステージ68は、底部の複数箇所に脚部70が取付けられており、基準水平面30には、該脚部70に対応してステージ32が複数設けられている。X軸ステージ66及びY軸ステージ68は、複数の脚部70の先端部がステージ32のノック穴36に各々挿入されることにより、基準水平面30上の一定位置に設置される。
【0100】
X軸ステージ66には、旋回部62Aの軸線方向がレールの延設方向(X軸ステージ66及びY軸ステージ68が基準水平面30上の一定位置に設置された状態でのX軸方向)と平行になるようにX軸撮像装置62が取付けられており、X軸撮像装置62はレールの延設方向に沿って移動可能とされている。図9に示すように、X軸ステージ66は、X軸撮像装置62をレールに沿って移動させるX軸方向駆動部72と、レールの延設方向に沿ったX軸撮像装置62の位置(X軸方向位置)を検出するX軸位置検出部74を備えている。
【0101】
X軸方向駆動部72は、第1実施形態で説明した方位角方向駆動部44及び仰角方向駆動部48と同様にステッピングモータを駆動源とし、ステッピングモータの回転軸の回転を図示しない駆動伝達機構を介して伝達することで、X軸撮像装置62を回転軸の回転量に比例した移動量だけ移動させる。また、X軸位置検出部74はリニアエンコーダ等で構成され、X軸撮像装置62の位置として、X軸ステージ66のレールの延設方向とY軸ステージ68のレールの延設方向との交差位置からの距離(詳しくは前記交差位置とX軸撮像装置62の撮像素子の受光面の中心との水平方向に沿った距離)を検出する。
【0102】
またY軸ステージ68には、レールの延設方向に沿って移動可能にY軸撮像装置64が取付けられている。図9に示すように、Y軸ステージ68は、Y軸撮像装置64をレールに沿って移動させるY軸方向駆動部76と、レールの延設方向に沿ったY軸撮像装置64の位置(Y軸方向位置)を検出するY軸位置検出部78を備えている。なお、Y軸方向駆動部76はX軸方向駆動部72と同様の構成であり、Y軸位置検出部78はX軸位置検出部74と同様の構成であるので、詳細な説明は省略する。
【0103】
なお、X軸撮像装置62及びY軸撮像装置64の旋回部、基部及び仰角方向駆動部48と、X軸ステージ66及びY軸ステージ68は本発明の指向手段(詳しくは請求項3に記載の指向手段)に対応しており、仰角検出部50、X軸位置検出部74及びY軸位置検出部78は本発明の第2検出手段に対応している。
【0104】
本第2実施形態では、XYZ絶対座標系として、X軸ステージ66及びY軸ステージ68が基準水平面30上の一定位置に設置された状態で、X軸ステージ66のレールの延設方向とY軸ステージ68のレールの延設方向との交差位置を通る鉛直線上で、X軸撮像装置62及びY軸撮像装置64の撮像素子の受光面の中心に相当する高さの位置を原点とし、原点を通りX軸ステージ66のレールの延設方向に平行な軸をX軸、原点を通りY軸ステージ68のレールの延設方向に平行な軸をY軸、原点を通り鉛直方向に沿った軸をZ軸とするXYZ座標系を用いている。
【0105】
次に本第2実施形態の作用を説明する。本第2実施形態では、XYZ絶対座標系の原点、X軸及びY軸を規定するX軸ステージ66、Y軸ステージ68、X軸撮像装置62及びY軸撮像装置64が予め一体に組付けられているので、X軸位置検出部74によって検出されるX軸方向位置及びY軸位置検出部78によって検出されるY軸方向位置をXYZ絶対座標系に対応させる処理を組付け時に行っておくことで、座標設定処理では上記の処理を省略可能であり、仰角検出部50によって検出される仰角検出値をXYZ絶対座標系に対応させるための処理のみを第1実施形態と同様にして行えばよい。
【0106】
また、X軸撮像装置62は撮像方向をX軸方向及び仰角方向に変更可能とされており、Y軸撮像装置64は撮像方向をY軸方向及び仰角方向に変更可能とされているので、本第2実施形態に係る点光源捕捉制御処理では、第1実施形態のように方位角偏差が0のときの方位角値θを求めることに代えて、X軸方向偏差(又はY軸方向偏差)が0のときのX軸方向位置x(又はY軸方向位置y)を求めればよい。
【0107】
すなわち、X軸撮像装置62(又はY軸撮像装置64)の撮像方向が点光源(座標設定用点光源54又はターゲット点光源58)の方向に一致しているときの点光源領域の重心位置に対する、現在の点光源領域の重心位置のX軸方向(又はY軸方向)に沿った偏差を求めることを、X軸撮像装置62(又はY軸撮像装置64)のX軸方向位置(又はY軸方向位置)を1ステップ分ずつ順次変更しながら繰り返す。
【0108】
このとき、X軸撮像装置62(又はY軸撮像装置64)のX軸方向位置(又はY軸方向位置)は段階的に(とびとびに)変化するので、X軸方向偏差(又はY軸方向偏差)が0の状態が生じなかった場合には、X軸方向偏差(又はY軸方向偏差)が0のときのX軸方向位置x(又はY軸方向位置y)を、第1実施形態と同様にして補間演算によって求める。なお、仰角偏差が0のときの仰角値φについては第1実施形態と同様の処理によって求めることができる。
【0109】
また、位置計測処理においては、ターゲット点光源58を捕捉対象の点光源、X軸撮像装置62を制御対象の撮像装置として点光源捕捉制御処理を行い、得られたX軸方向位置x及び仰角φを記憶すると共に、ターゲット点光源58を捕捉対象の点光源、Y軸撮像装置64を制御対象の撮像装置として点光源捕捉制御処理を行い、得られたY軸方向位置yを記憶し、XYZ絶対座標系におけるターゲット点光源58の座標値(X,Y,Z)を次式に従って演算する。
X=x Y=y Z=Y・tanφ
上記により、所定の計測位置のXYZ絶対座標系における座標値(X,Y,Z)を高精度に求めることができる。
【0110】
〔第3実施形態〕
次に本発明の第3実施形態について説明する。なお、第1実施形態及び第2実施形態と同一の部分には同一の符号を付し、説明を省略する。図11に示すように、本第3実施形態に係るロボットハンド位置計測装置82は、第2実施形態で説明したX軸ステージ66及びY軸ステージ68に代えてXYステージ84が設けられている。
【0111】
図12(A)に示すように、XYステージ84は互いに直交するように配置された第1シャフト86及び第2シャフト88を備えている。第1シャフト86の両端部は、第1シャフト86の長手方向と直交する方向(図12に示すX軸方向)に沿って延設された一対のレール(図示省略)に各々支持されており、第1シャフト86はX軸方向に沿ってスライド移動可能とされている。また、第2シャフト88の両端部も、第2シャフト88の長手方向と直交する方向(図12に示すY軸方向)に沿って延設された一対のレール(図示省略)に各々支持されており、第2シャフト88はY軸方向に沿ってスライド移動可能とされている。
【0112】
図11に示すように、XYステージ84は、ステッピングモータを駆動源として第1シャフト86をX軸方向に沿って移動させるX軸方向駆動部72と、X軸方向に沿った第1シャフト86の位置を検出するX軸位置検出部74と、ステッピングモータを駆動源として第2シャフト88をY軸方向に沿って移動させるY軸方向駆動部76と、Y軸方向に沿った第2シャフト88の位置を検出するY軸位置検出部78と、を備えている。
【0113】
また、第1シャフト86と第2シャフト88の交差位置には、第1シャフト86のX軸方向に沿った移動に追従して移動すると共に、第2シャフト88のY軸方向に沿った移動に追従して移動するプレート90が設けられている。図示は省略するが、第1シャフト86を支持するレール及び第2シャフト88を支持するレールは一体化されていると共に、第2実施形態で説明した脚部70と同様の脚部が複数取付けられており、各脚部の先端部が、各脚部に対応して基準水平面30に複数設けられているステージ32のノック穴36に各々挿入されることにより、XYステージ84は基準水平面30上の一定位置に設置される。
【0114】
また、本第3実施形態では、第1実施形態で説明した読取望遠鏡40、42、第2実施形態で説明した撮像装置62、64に代えて、点光源検出装置92が設けられている。点光源検出装置92は撮像部52と、ターゲット点光源58の高さ(Z軸方向距離)を検出するZ軸距離検出部94から構成されている。撮像部52とZ軸距離検出部94はプレート90上に一定距離隔てて配置されている。Z軸距離検出部94としては種々の構成を採用可能であるが、例えば図12(A)に示す三角測量用TVカメラ94Aを含んでZ軸距離検出部94を構成することができる。
【0115】
なお、XYステージ84及びプレート90は本発明の指向手段(詳しくは請求項4に記載の指向手段)に対応しており、X軸位置検出部74及びY軸位置検出部78は本発明の第2検出手段に対応している。また、Z軸距離検出部94は請求項4に記載の第3検出手段に対応している。
【0116】
次に本第3実施形態の作用を説明する。本第3実施形態では、XYステージ84及び点光源検出装置92が予め一体に組付けられているので、X軸位置検出部74によって検出されるX軸方向位置、Y軸位置検出部78によって検出されるY軸方向位置、及びZ軸距離検出部94によって検出されるZ軸方向距離をXYZ絶対座標系に各々対応させる処理を組付け時に行っておくことで、ロボットハンド20固有の座標系をXYZ絶対座標系と対応させるための作業及び処理を行うに際して座標設定処理の実行を省略可能である。
【0117】
また、位置計測処理においては、ターゲット点光源58を捕捉対象の点光源、撮像装置52を制御対象の撮像装置として点光源捕捉制御処理を行う。すなわち、まず撮像装置52の撮像方向がターゲット点光源58の方向に一致しているときの点光源領域の重心位置(画像の中心位置)に対する、現在の点光源領域の重心位置のX軸方向に沿った偏差を求めることを、撮像装置52のX軸方向位置をX軸方向駆動部72によって1ステップ分ずつ順次変更しながら繰り返す。このとき、撮像装置52のX軸方向位置は段階的に(とびとびに)変化するので、X軸方向偏差が0の状態が生じなかった場合には、X軸方向偏差が0のときのX軸方向位置xを補間演算によって求める。
【0118】
続いて、現在の点光源領域の重心位置の画像の中心位置に対するY軸方向に沿った偏差を求めることを、撮像装置52のY軸方向位置をY軸方向駆動部76によって1ステップ分ずつ順次変更しながら繰り返す。このとき、撮像装置52のY軸方向位置は段階的に(とびとびに)変化するので、Y軸方向偏差が0の状態が生じなかった場合には、Y軸方向偏差が0のときのY軸方向位置yを補間演算によって求める。
【0119】
上記により、撮像方向がターゲット点光源58の方向に正確に一致(X軸方向偏差が0かつY軸方向偏差が0)したときのX軸方向位置x及びY軸方向位置y(すなわちXYZ絶対座標系におけるX座標値及びY座標値)が得られると共に、図12(A)に示すように、撮像部52はターゲット点光源58の略鉛直下に位置される。
【0120】
次にターゲット点光源58のZ軸方向距離をZ軸距離検出部94によって検出する。三角測量用TVカメラ94Aを含んでZ軸距離検出部94を構成した場合、撮像部52がターゲット点光源58の略鉛直下に位置している状態でZ軸方向距離(すなわちXYZ絶対座標系におけるZ座標値)の検出を行う。
【0121】
図12(A)に示すように、三角測量用TVカメラ94Aは上記の状態でターゲット点光源58が撮像範囲内に入るように撮像方向が調整されており、前記状態で三角測量用TVカメラ94Aによる撮像によって得られる画像中には、ターゲット点光源58に対応する点光源領域が存在している。三角測量用TVカメラ94Aと撮像部52との距離は既知であるので、ターゲット点光源58のZ軸方向距離は、三角測量の原理により、前記画像上での点光源領域のZ方向に対応する方向に沿った位置(詳しくは重心位置)から一意に定まる。
【0122】
このため、例えば三角測量用TVカメラ94Aによる撮像によって得られる画像から点光源領域を抽出し、抽出した点光源領域の重心位置を算出し、画像上でのZ方向に対応する方向に沿った位置をターゲット点光源58のZ軸方向距離と対応させて記憶することを、ターゲット点光源58のZ軸方向距離を変化させながら繰り返すことで、ターゲット点光源58のZ軸方向距離と、画像中の点光源領域のZ方向に対応する方向に沿った重心位置と、の関係を予め求めておくことで、三角測量用TVカメラ94Aによる撮像によって得られる画像からターゲット点光源58のZ軸方向距離を求めることができる。これにより、所定の計測位置のXYZ絶対座標系における座標値(X,Y,Z)を高精度に求めることができる。
【0123】
なお、上記構成において、図12(B)に示すように三角測量用TVカメラ94Aを複数設け、それぞれのカメラ94Aの撮像範囲がZ軸方向に沿って互いに異なりかつ一部重複している範囲となるように撮像範囲を調整すれば、Z軸方向距離の検出可能範囲に比して個々のカメラの撮像範囲を小さくすることができ、Z軸方向距離の検出精度を向上させることができる。
【0124】
また、例として図13に示すように、Z軸距離検出部94は磁気式のリニアスケール(接触式測距装置)95を含んで構成することも可能である。リニアスケール95は三角測量用TVカメラ94Aと同様にプレート90上に設置することができる。この場合、撮像部52の撮像方向がターゲット点光源58の方向に一致している状態でのX軸方向位置x及びY軸方向位置yを求めた後に、求めたX軸方向位置x及びY軸方向位置yに基づいてリニアスケール95がターゲット点光源58の鉛直下に位置するようにプレート90を移動させ、続いてリニアスケール95のアームがターゲット点光源58に接触する迄アームを伸長させ、ターゲット点光源58に接触したときのアームの伸長量からZ軸方向距離を求めることができる。これにより、所定の計測位置のXYZ絶対座標系における座標値(X,Y,Z)を高精度に求めることができる。
【0125】
また、例として図14(A)に示すように、Z軸距離検出部94は光レーダ装置98を含んで構成することも可能である。この場合、プレート90上には光レーダ装置98の投受光器98Aのみを設置することが望ましい。また位置計測処理の実施に際しては、ハンド28の先端部にターゲット点光源58及び反射ミラー96を取付ける。この態様におけるZ軸方向距離の検出は、前述のようにX軸方向位置x及びY軸方向位置yを求めた後に、求めたX軸方向位置x及びY軸方向位置yに基づいて投受光器98Aがターゲット点光源58の鉛直下に位置するようにプレート90を移動させた状態で行う。
【0126】
図14(B)に示すように、光レーダ装置98は、発振器から出力される一定周波数の信号によって光源から射出された光の強度を変調し、強度変調した光を投受光器98Aから鉛直方向に沿って射出させると共に、電気信号に変換して参照光信号として位相差検出器に入射させる。投受光器98Aから射出された光はハンド28の先端部に取付けられた反射ミラー96で反射され、投受光器98Aに内蔵されている光検出器によって検出される。位相差検出器では参照光信号と光検出器から出力された反射光信号との位相差を検出し、検出した位相差に基づいて反射ミラー96との距離、すなわちハンド28の先端部のZ軸方向距離を検出する。これにより、所定の計測位置のXYZ絶対座標系における座標値(X,Y,Z)を高精度に求めることができる。
【0127】
なお、上記では本発明に係る第1検出手段として、撮像素子を含んで構成された撮像部52を用いた例を説明したが、これに限定されるものではなく、例えば受光面を複数の領域(例えば図6(A)において、2本の一点鎖線で区分されて成る4個の領域)に分割し、各領域に設けた各光センサによる検出光量を比較することで、点光源が存在している方向に対する指向方向の偏差を検出することも可能である。
【0128】
以上、本発明の実施形態について説明したが、上記の実施形態は、特許請求の範囲に記載した事項の実施態様以外に、以下に記載した事項の実施態様を含んでいる。
【0129】
(1)ロボットハンドの移動可能空間の近傍に前記指向手段を着脱自在に支持するための支持部が複数設けられており、前記指向手段は、前記支持部に装着されることで前記移動可能空間内の近傍の一定の位置に設置されることを特徴とする請求項1記載のロボットハンド位置計測装置。
【0130】
(2)方位角及び仰角を変更可能で、ロボットハンドの移動可能空間の近傍に設けられた支持部に着脱自在かつ方位角を変更可能に支持され、方位角及び仰角の少なくとも一方を変更することで指向方向が変化する複数の指向手段と、前記各指向手段の指向方向とロボットハンドの基準部位に取付けられた光源の存在する方向との偏差を各々検出する第1検出手段と、各指向手段の方位角及び仰角を所定の3次元座標系を基準にして各々検出する第2検出手段と、各指向手段の指向方向が前記光源の存在する方向に略一致した状態で、前記第2検出手段によって検出された方位角及び仰角に基づいて、前記所定の3次元座標系における前記基準部位の座標を演算する演算手段と、を含むロボットハンド位置計測装置。
【0131】
【発明の効果】
以上説明したように本発明は、姿勢角、又は位置、又は姿勢角と位置に関する少なくとも2種類のパラメータの値を変更可能で、前記パラメータの値を変更することで指向方向が変化すると共に、ズームレンズを介して指向方向を撮像する撮像素子を備えた指向手段を設け、指向手段の指向方向がロボットハンドの基準部位の存在する方向に略一致した状態で、指向方向と基準部位の存在する方向との偏差として、指向手段の撮像素子による撮像によって得られる画像上での、ズームレンズの現在のズーム値に対応する撮像中心位置と、基準部位の像の重心位置との偏差を検出すると共に、前記2種類のパラメータの値を所定の3次元座標系を基準にして検出し、検出した偏差及び前記2種類のパラメータの値に基づいて、指向方向が基準部位の存在する方向に一致した状態での前記パラメータの値を演算し、該パラメータの値を用いて所定の3次元座標系における基準部位の座標を演算するので、ロボットハンドの位置計測精度の向上を実現できる、という優れた効果を有する。
【図面の簡単な説明】
【図1】 第1実施形態に係るロボットハンド位置計測装置の概略構成を示すブロック図である。
【図2】 ロボットアーム、読取望遠鏡、座標設定用点光源を各々示す斜視図である。
【図3】 読取望遠鏡及びステージの詳細を示す斜視図である。
【図4】 座標設定処理の内容を示すフローチャートである。
【図5】 点光源捕捉制御処理の内容を示すフローチャートである。
【図6】 (A)は方位角偏差が0のときの方位角値の補間演算に用いる一対の画像の一例を示すイメージ図、(B)は補間演算の一例を示す線図である。
【図7】 位置計測処理の内容を示すフローチャートである。
【図8】 撮像部のレンズをズームレンズで構成した場合の、(A)はズーム値の変更に伴う画像中の点光源領域の重心位置の変化の一例を示すイメージ図、(B)は撮像中心演算処理の内容を示すフローチャートである。
【図9】 第2実施形態に係るロボットハンド位置計測装置の概略構成を示すブロック図である。
【図10】 (A)はX軸ステージ、Y軸ステージ、X軸撮像装置、Y軸撮像装置を各々示す斜視図、(B)は撮像装置の斜視図である。
【図11】 第3実施形態に係るロボットハンド位置計測装置の概略構成を示すブロック図である。
【図12】 (A)及び(B)は三角測量用TVカメラを含んでZ軸距離検出部を構成した場合の、XYステージ、撮像装置、三角測量用TVカメラを各々示す斜視図である。
【図13】 リニアスケールを含んでZ軸距離検出部を構成した場合の、XYステージ、撮像装置、リニアスケールを各々示す斜視図である。
【図14】 (A)は光レーダを含んでZ軸距離検出部を構成した場合の、XYステージ、撮像装置、光レーダを各々示す斜視図、(B)は光レーダによるZ軸距離の検出の原理を説明するための概略ブロック図である。
【符号の説明】
10 ロボットハンド位置計測装置
12 制御部
20 ロボットハンド
40 第1の読取望遠鏡
42 第2の読取望遠鏡
52 撮像部
64 Y軸撮像装置
58 ターゲット点光源
60 ロボットハンド位置計測装置
62 X軸撮像装置
64 Y軸撮像装置
82 ロボットハンド位置計測装置
92 点光源検出装置
94 Z軸距離検出部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a robot hand position measuring apparatus, and more particularly to a robot hand position measuring apparatus that measures three-dimensional coordinates of a reference part of a robot hand.
[0002]
[Prior art]
Robot hands that are used in large numbers in factory production lines, etc. can perform various operations such as cutting, screwing, welding, etc. by holding or holding a workpiece, for example, by a hand provided at the tip. It is said that. The hand can be moved three-dimensionally by the arm, and each time the workpiece is transferred to the robot hand installation position, the arm moves sequentially to a plurality of predetermined movement target positions in the work space. Is driven. As a result, intended operations such as conveyance, assembly, and processing are performed on the workpieces that are sequentially conveyed.
[0003]
By the way, the robot hand stores the movement target position as a coordinate value in a robot hand-specific three-dimensional coordinate system (robot hand coordinate system). In order to move the tip to the movement target position with high accuracy, Define an absolute coordinate system with a fixed position in the origin as the origin, and the coordinates of the tip of the robot hand in the absolute coordinate system when the tip of the robot hand is located at each position within the movable range (for example, the movement target position) It is necessary to measure the value and detect the deviation between the absolute coordinate system and the robot hand coordinate system.
[0004]
In relation to the above, Japanese Patent No. 2668263 discloses a two-dimensional image of the imaging device by photographing a fixed object point (point light source (32)) in the vicinity of the base of the robot with an imaging device attached to the most advanced link of the robot body. Based on the difference between the position of the image obtained by shooting a fixed object point on the image and the position of the theoretical image obtained by calculation, the theoretical value and the actual value in the relative positional relationship between each link element of the robot body An automatic measuring method of an operation error of a robot body that is designed to obtain an error is disclosed.
[0005]
In Japanese Patent Laid-Open No. 4-291111, two video cameras for simultaneously capturing moving objects are attached to two pan heads with variable pan and tilt angles, respectively, on the shooting screens of both cameras. A technique is disclosed in which the pan angle and tilt angle of both pan heads are controlled so that the target point of the moving object is drawn into the center of the screen, and the position of the moving object is detected with a three-dimensional coordinate value by calculation of the triangulation method. .
[0006]
[Problems to be solved by the invention]
However, since the technique described in Japanese Patent No. 2668263 uses a two-dimensional image obtained by imaging with a single imaging device, an error in the relative positional relationship between each link element can be obtained. The three-dimensional coordinate value in the absolute coordinate system of the tip of the robot hand cannot be measured, and it is impossible to detect the deviation between the absolute coordinate system and the robot hand coordinate system. Therefore, if the robot hand coordinate system is deviated from the absolute coordinate system due to, for example, the installation position of the base (12) of the robot body and the point light source (32) being deviated from the intended position, the robot hand It is difficult to accurately move the leading end portion to the movement target position given by the coordinate value of the absolute coordinate system.
[0007]
The coordinate value in the absolute coordinate system of the tip of the robot hand is obtained by using an imaging means such as a camera at a predetermined position where the coordinate value in the absolute coordinate system is known, for example, using the technique described in JP-A-4-291111. If installed, measurement is possible. In this case, a driving mechanism for making the imaging direction of the imaging means coincide with the direction in which the tip portion of the robot hand is present (for example, a driving mechanism for changing the pan angle and tilt angle of the pan head described in JP-A-4-291111). As the driving source, a stepping motor capable of precisely and easily controlling the rotation angle of the rotating shaft is suitable.
[0008]
However, since the stepping motor is configured to rotate the rotation axis by a small fixed angle step by step, the imaging direction of the imaging means often does not exactly match the direction of the tip of the robot hand, and the imaging direction is often the tip of the robot hand. When the measurement is performed in a state slightly deviated from the direction of the part, there is a problem that an accurate coordinate value of the tip part of the robot hand in the absolute coordinate system cannot be obtained.
[0009]
The present invention has been made in consideration of the above facts, and an object of the present invention is to obtain a robot hand position measuring apparatus capable of improving the position measuring accuracy of the robot hand.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, the robot hand position measuring device according to the first aspect of the present invention is capable of changing at least two kinds of parameter values relating to the posture angle, the position, or the posture angle and the position, The directional direction is changed by changing the directional means, and the directional means including an imaging device that images the directional direction via a zoom lens, and the zoom on the image obtained by imaging by the imaging device of the directional means Storage means for storing an imaging center position corresponding to the optical center of the lens for each zoom value of the zoom lens; andRobot handIn a state that substantially matches the direction in which the reference portion exists,AboveAs the deviation from the direction in which the reference part exists, the imaging center position corresponding to the current zoom value of the zoom lens on the image obtained by imaging by the imaging element of the directing means, and the image of the reference part First detection means for detecting a deviation from the center of gravity position, second detection means for detecting values of the at least two types of parameters of the directing means with reference to a predetermined three-dimensional coordinate system, and Based on the deviation detected by the first detection means and the value of the parameter detected by the second detection means in a state that substantially matches the direction in which the reference part exists, the pointing direction is determined by the reference part. The value of the parameter in a state matching the direction in which the object exists is calculated, and the coordinate of the reference part in the predetermined three-dimensional coordinate system is calculated using the calculated parameter value. Calculating means for, it is configured to include a.
[0011]
According to the first aspect of the present invention, it is possible to change the value of at least two kinds of parameters related to the posture angle, or the position, or the posture angle and the position, and the pointing direction changes by changing the value of the parameter.In addition, an image pickup device for picking up an image in the directivity direction through the zoom lensDirecting means are provided. As the two types of parameters related to the posture angle, for example, the azimuth angle and the elevation angle described in
[0012]
By changing the value of the above-mentioned parameter to change the pointing direction of the pointing means, the pointing direction of the pointing means is made coincident with the direction in which the reference part of the robot hand (for example, the tip of the robot hand or its vicinity) exists (or substantially). Match). In addition, a stepping motor may be used as a drive source for changing the parameter value (in this case, the parameter value and the pointing direction of the pointing means change stepwise), the parameter value and Other drive sources capable of continuously changing the directivity direction may be used.
[0013]
According to the first aspect of the present invention, the imaging center position corresponding to the optical center of the zoom lens on the image obtained by imaging with the imaging device of the directing means is stored in the storage means for each zoom value of the zoom lens, The first detection means has a pointing directionRobot handA zoom lens on an image obtained by imaging with the imaging element of the directing means as a deviation between the pointing direction of the directing means and the direction of the reference part of the robot hand in a state substantially matching the direction in which the reference part exists The deviation between the imaging center position corresponding to the current zoom value and the barycentric position of the image of the reference part is detected. Considering the detection of deviation by the first detection means, it is desirable that the reference part of the robot hand is easily distinguishable from other parts. For example, it is preferable to attach a light source to the reference part of the robot hand. In the aspect in which the light source is attached to the reference portion, the deviation between the pointing direction of the pointing means and the direction in which the reference portion of the robot hand exists (that is, the direction in which the light source exists) is, for example, the light from the light source attached to the reference portion. The light receiving position is detected, and the light receiving position of the light from the light source when the pointing direction matches the direction in which the light source exists can be detected based on the detected shift of the light receiving position. As a result, compared to the case where the light reflected on the reference part is detected by irradiating the robot hand with light, the detected light amount is affected by the light reflectance of the reference part or the direction of the reflecting surface of the reference part. Change is suppressed.
[0014]
Also, instead of attaching the light source to the reference part as described above, the reference part of the robot hand may be changed by, for example, painting the reference part in a specific color or recording a specific pattern on the reference part. It can be easily discriminated optically. In an aspect for optically identifying the reference part (for example, an aspect in which a light source is attached to the reference part), the first detection means is, for example, attached to the directing means so that the imaging direction matches the directivity direction of the directing means. The image pickup means and the light detection means that is composed of a plurality of optical sensors and is attached to the directing means so that the light detection direction matches the directivity direction of the directivity means.
[0015]
The invention of
[0016]
Further, the computing means according to the invention of
[0017]
Thereby, for example, the directing direction of the directing means cannot be accurately matched with the direction in which the reference part exists, for example, because the directing direction cannot be changed continuously (changes stepwise), or Directional direction even when measurement (detection of the value of the parameter) is performed in a state where the directing direction of the directing means does not exactly match the direction in which the reference part exists for the purpose of shortening the measurement time, etc. It is possible to obtain the value of the parameter of the directing means when is coincident with the direction in which the reference portion exists.
[0018]
And the computing means computes the coordinates of the reference part in a predetermined three-dimensional coordinate system using the value of the parameter in the state where the directing direction coincides with the direction in which the reference part exists, obtained by the above calculation. It is possible to eliminate errors caused by measurement when the pointing direction of the pointing device does not exactly match the direction in which the reference part exists.The Further, the first detection means is a current zoom value of the zoom lens on an image obtained by imaging with the imaging element of the pointing means as a deviation between the pointing direction of the pointing means and the direction in which the reference part of the robot hand exists. The deviation of the optical axis center of the zoom lens due to the change in the zoom value of the zoom lens is detected by the first detection means. It is possible to prevent the detection accuracy from being adversely affected and the position measurement accuracy of the robot hand from being lowered. Therefore, according to the invention of
[0019]
By the way, in order to obtain the three-dimensional coordinates of the reference part of the robot hand, in addition to measuring the values of at least two types of parameters in a state where the pointing direction of the single pointing means coincides with the direction in which the reference part exists. It is also necessary to measure at least one other physical quantity related to the three-dimensional coordinates of the reference part.
[0020]
For this reason, the invention according to
[0021]
In the invention of
[0022]
The invention according to claim 3 is the invention according to
[0023]
In the invention according to claim 3, as the two kinds of parameters relating to the posture angle and the position, the elevation angle and a plurality of directivity capable of changing each of the positions along a single different direction among the two directions that are horizontal and intersect each other. A reference part of the robot hand using the elevation angle of each directing means and the position along the single direction in a state in which the directing direction of each directing means substantially coincides with the direction in which the reference part exists Is calculated. Thereby, the three-dimensional coordinates of the reference part of the robot hand can be measured with high accuracy.
[0024]
Further, in the invention of claim 3, when a pair of directing means capable of changing the position along the direction perpendicular to each other is provided as the plurality of directing means, a mechanism for changing the position of the directing means Since an inexpensive XY stage can be used, the robot hand position measuring device can be configured at low cost.
[0025]
According to a fourth aspect of the present invention, in the first aspect of the present invention, the directing means can change the positions along two directions that are horizontal and intersect each other as two types of parameters relating to the position. And further comprising third detecting means for detecting the height of the reference part of the robot hand along the vertical direction, wherein the calculation means substantially matches the direction of the pointing means with the direction in which the reference part exists. The coordinates of the reference part are calculated using the position of the pointing means along the two directions in the state and the height of the reference part of the robot hand detected by the third detection means.
[0026]
According to the fourth aspect of the present invention, there are provided pointing means capable of changing the positions along two directions that are horizontal and intersect each other as two kinds of parameters relating to the position, and the robot hand along the vertical direction. A third detecting means for detecting the height of the reference part, a position along the two directions of the directing means in a state where the pointing direction substantially coincides with the direction in which the reference part exists, and a third detection The coordinates of the reference part of the robot hand are calculated using the height of the reference part of the robot hand detected by the means. Thereby, the three-dimensional coordinates of the reference part of the robot hand can be measured with high accuracy.The third detection means may be one that detects the height of the reference portion using, for example, the principle of triangulation, or detects the height of the reference portion by contacting the reference portion. Alternatively, the height of the reference part may be detected by measuring the distance from the reference part.
[0027]
In any one of the first to fourth aspects of the present invention, as described in the fifth aspect, the driving unit that changes the directing direction of the directing unit, and the zoom value of the zoom lens is the center position of the imaging. The imaging in which the center of gravity position of the image of the reference portion on the image obtained by imaging by the imaging element of the directing means corresponds to the first zoom value in a state where the first zoom value is known After controlling the directing direction of the directing means by the driving means so as to coincide with the center position, the zoom value of the zoom lens is changed to a second zoom value whose imaging center position is unknown, and Detecting an amount of deviation between the imaging center position corresponding to the first zoom value and the center-of-gravity position of the image of the reference part on an image obtained by imaging by the imaging element;AboveImaging center position acquisition means for storing, in the storage means, a position shifted by the detected shift amount with respect to the imaging center position corresponding to the first zoom value as an imaging center position corresponding to the second zoom value. Are preferably further provided. Thereby, even for a zoom value whose imaging center position is unknown, an imaging center position corresponding to the zoom value can be obtained.
[0028]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings.
[0029]
[First Embodiment]
FIG. 1 shows a robot hand
[0030]
The
[0031]
The movement target position of the tip of the
[0032]
The configuration of the robot hand shown in FIG. 2 is merely an example, and the robot hand to which the present invention can be applied is not limited to the
[0033]
The
[0034]
Further, a
[0035]
The
[0036]
Also, the
[0037]
Thus, in this embodiment, by inserting the insertion portion of the reading telescope into the
[0038]
As shown in FIG. 1, the
[0039]
The azimuth
[0040]
The azimuth
[0041]
In addition, a cylindrical swivel portion 40C is disposed at the other end portion along the axial direction of the
[0042]
Like the azimuth
[0043]
Further, the elevation
[0044]
Further, the
[0045]
In the state where the
[0046]
In addition, the base part, insertion part, turning part, azimuth angle
[0047]
In addition, the
[0048]
As shown in FIG. 2, the coordinate setting point
[0049]
A three-dimensional orthogonal coordinate system (corresponding to a predetermined three-dimensional coordinate system according to the present invention: hereinafter referred to as an XYZ absolute coordinate system) is set on the reference
[0050]
Next, as an operation of the first embodiment, operations and processes for associating the coordinate system unique to the
[0051]
Next, the
[0052]
In step 100, the coordinate setting point
[0053]
In step 150, capture is performed within the light receiving surface of the imaging element of the
[0054]
In the next step 152 and subsequent steps, the azimuth value θ when the deviation along the azimuth direction of the imaging direction of the reading telescope to be controlled with respect to the direction in which the point light source to be captured exists (point light source direction) is zero. Ask for. That is, in step 152, the detected value of the azimuth is taken from the
[0055]
By the way, in this embodiment, the state where the center of gravity of the point light source region matches the center of the image is defined as the state where the imaging direction matches the direction of the point light source, and the direction of the point light source When the imaging direction is shifted in the azimuth angle direction, the center of gravity of the point light source region is deviated from the center of the image along the azimuth angle direction shown in FIG. When the direction is shifted in the elevation angle direction, the gravity center position of the point light source region is deviated from the image center along the elevation angle direction (direction orthogonal to the azimuth angle direction) shown in FIG.
[0056]
For this reason, in step 158, with respect to the image represented by the previously captured image data, the center of the image is the origin, and the first coordinate axis parallel to the azimuth direction and the second coordinate axis parallel to the elevation direction are orthogonal to each other at the origin. A coordinate system is set (in FIG. 6A, each coordinate axis is indicated by a one-dot chain line), the position of the center of gravity of the point light source area obtained in step 156 is converted into the coordinate value in the orthogonal coordinate system, and the obtained coordinate value By extracting the coordinate value corresponding to the position along the azimuth direction from the current point, the current point relative to the barycentric position of the point light source region when the imaging direction of the reading telescope to be controlled matches the direction of the point light source A deviation (azimuth angle deviation) along the azimuth angle direction of the gravity center position of the light source region is obtained.
[0057]
In
[0058]
In
[0059]
In this embodiment, the driving source of the azimuth
[0060]
In such a case, the determination in
θ = θn+ Dn/ (Dn+ Dn + 1) ・ (Θn + 1−θn)
As described above, as shown in FIG. 6B as an example, the azimuth value θ when the azimuth deviation is 0 can be obtained.
[0061]
In the above calculation, as is apparent from FIG. 6B, the azimuth value θ is obtained by linearly approximating the change in the azimuth value with respect to the change in the center of gravity of the point light source region. However, the present invention is not limited to this. For example, the azimuth angle value θ when the azimuth angle deviation is 0 may be obtained by applying a least square method or the like by nonlinear approximation.
[0062]
If steps 152 to 166 are repeated and an azimuth deviation is zero, the determination at
[0063]
In the next step 172 and thereafter, similarly to steps 152 to 170 described above, the elevation angle value φ when the deviation (elevation angle deviation) along the elevation direction of the imaging direction with respect to the direction of the point light source is 0 is obtained. That is, in step 172, the elevation angle detection value is fetched from the elevation
[0064]
In the next step 178, a deviation (elevation angle deviation) along the elevation direction of the center of gravity of the current point light source region with respect to the center of gravity of the point light source region when the imaging direction coincides with the direction of the point light source is obtained. In
[0065]
If the determination in
[0066]
If the elevation angle deviation is not zero after repeating steps 172 to 186, the determination in
[0067]
When the point light source to be captured is captured by the reading telescope to be controlled by the above point light source capture control process, the imaging direction coincides with the direction of the point light source (the direction azimuth deviation is 0 and the elevation angle deviation is 0) Azimuth angle value θ and elevation angle value φ in the state) are obtained.
[0068]
When the point light source capture control process ends, the process proceeds to step 104 in the flowchart of FIG. 4, and the coordinate setting point
[0069]
When the installation position of the coordinate setting point
[0070]
In the next step 112, a message requesting the operator to install the
[0071]
When the point light source capture control process is completed, in the next step 116, the azimuth angle value θ obtained by the point light source capture control process in step 114 (the point setting point
[0072]
In the
[0073]
In step 124, a message for requesting the operator to install (move) the coordinate setting point
[0074]
When the point light source capture control process is completed, in the
[0075]
Subsequently, at step 132, a message for requesting the operator to install the
[0076]
When the point light source capture control process ends, in the next step 136, the azimuth angle value θ obtained by the point light source capture control process in step 134 (the coordinate setting point
[0077]
In
[0078]
In the
[0079]
After the above coordinate setting process is completed, the coordinate setting point
[0080]
In
[0081]
In the
[0082]
As a result of this point light source capture control processing, the imaging direction of the
[0083]
In the
[0084]
Then, in
X = (L · tan θ2) / (Tanθ1+ Tan θ2)
Y = X · tanθ1 Z = √ (X2+ Y2) ・ Tanφ1
As described above, the coordinate value (X, Y, Z) in the XYZ absolute coordinate system at the predetermined measurement position can be obtained with high accuracy. Since the coordinate value in the coordinate system unique to the
[0085]
A plurality of predetermined measurement positions are determined in advance, and in the
[0086]
Through the above-described operations and processing, the correspondence between the coordinate system unique to the
[0087]
Further, in the first embodiment, the target point
[0088]
Further, the robot hand
[0089]
In the above description, the value of the distance L is stored as a constant value. However, if the influence of the fluctuation of the distance L due to thermal expansion or the like is so large that it cannot be ignored, for example, the
[0090]
Further, in the first embodiment, in order to improve the point light source capture accuracy in the point light source capture control process (FIG. 5) (and accordingly improve the position measurement accuracy in the position measurement process), In order to set the pixel resolution to a certain value or more (the size of the point light source region in the image (the number of pixels in the point light source region) is set to a predetermined value or more), the size of the screen range to be imaged and the point light source to be imaged It is desirable to adjust the size of the image. As one method of forming a point light source image by satisfying the above-mentioned conditions in the entire movement range of the tip of the
[0091]
However, when the zoom value of the zoom lens is changed, the center of the optical axis of the lens shifts, so that the position of the point light source image in the light receiving surface of the image sensor shifts. For example, as shown in FIG. Since the position of the center of gravity of the point light source region changes, it leads to a decrease in measurement accuracy. For this reason, it is desirable to correct the optical axis shift of the zoom lens by the following procedure.
[0092]
That is, first, the range of the space (imaging space) to be imaged by the reading telescope is obtained based on the movement range of the tip of the
[0093]
In the point light source capture control process, after changing the zoom value of the zoom lens in accordance with the depth distance of the point light source to be captured in step 150, the center of gravity of the point light source image is set to the imaging center corresponding to the changed zoom value. An azimuth angle deviation and an elevation angle deviation are set to 0 when the positions coincide with each other, and an azimuth angle value θ when the azimuth angle deviation is 0 and an elevation angle value φ when the elevation angle deviation is 0 are obtained. Thereby, it is possible to correct the shift of the optical axis of the zoom lens.
[0094]
Alternatively, the imaging center may be obtained only for a single zoom value in advance, and the imaging center at each zoom value may be obtained by performing the imaging center calculation process shown in FIG. In this method, the imaging center is checked in advance only for a single zoom value, the zoom value is set (step 250), and the robot hand 20 (hand 28) is moved into the imaging range corresponding to the set current zoom value. Is moved (step 252). Subsequently, as in the point light source capture control process, the azimuth and elevation angles of the reading telescope are controlled so that the center of gravity of the point light source region of the image obtained by imaging coincides with the imaging center at the current zoom value. An azimuth value θ when the angular deviation is 0 and an elevation angle value φ when the elevation deviation is 0 are obtained (step 254).
[0095]
Next, the zoom value is changed while the position of the point light source is fixed (step 256). The amount of change of the zoom value at this time is set to such a size that the gravity center calculation of the point light source image can be performed even when there is an influence of blur. Then, the center of gravity of the point light source image in the image obtained by imaging is calculated (step 258), and the amount of deviation between the center of gravity of the point light source image and the center of gravity of the point light source image at the previous zoom value is measured (step). 260). This shift amount corresponds to the shift amount of the optical axis position of the zoom lens accompanying the change of the zoom value in step 258. Therefore, in the next step 262, the shift amount is shifted by the measured shift amount with respect to the imaging center at the previous zoom value. The position is stored as the imaging center at the current zoom value.
[0096]
When obtaining the imaging center at another zoom value (when the determination at
[0097]
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected to the part same as 1st Embodiment, and description is abbreviate | omitted. As shown in FIG. 9, the robot hand
[0098]
As shown in FIG. 10B, the
[0099]
As shown in FIG. 10A, the
[0100]
In the
[0101]
The X-axis
[0102]
A Y-
[0103]
Note that the turning unit, base unit, and elevation
[0104]
In the second embodiment, as the XYZ absolute coordinate system, the
[0105]
Next, the operation of the second embodiment will be described. In the second embodiment, the
[0106]
The
[0107]
That is, with respect to the position of the center of gravity of the point light source region when the imaging direction of the X-axis imaging device 62 (or Y-axis imaging device 64) matches the direction of the point light source (coordinate setting point
[0108]
At this time, the X-axis direction position (or Y-axis direction position) of the X-axis image pickup device 62 (or Y-axis image pickup device 64) changes stepwise (stepwise), so the X-axis direction deviation (or Y-axis direction deviation). ) Is not 0, the X-axis direction position x (or Y-axis direction position y) when the X-axis direction deviation (or Y-axis direction deviation) is 0 is the same as in the first embodiment. And obtained by interpolation calculation. The elevation angle value φ when the elevation angle deviation is 0 can be obtained by the same processing as in the first embodiment.
[0109]
Further, in the position measurement process, the point light source capture control process is performed with the target point
X = x Y = y Z = Y · tanφ
As described above, the coordinate value (X, Y, Z) in the XYZ absolute coordinate system at the predetermined measurement position can be obtained with high accuracy.
[0110]
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected to the part same as 1st Embodiment and 2nd Embodiment, and description is abbreviate | omitted. As shown in FIG. 11, the robot hand
[0111]
As shown in FIG. 12A, the
[0112]
As shown in FIG. 11, the
[0113]
In addition, the
[0114]
In the third embodiment, a point light
[0115]
The
[0116]
Next, the operation of the third embodiment will be described. In the third embodiment, since the
[0117]
In the position measurement process, the point light source capture control process is performed using the target point
[0118]
Subsequently, the deviation along the Y-axis direction with respect to the center position of the image at the center of gravity of the current point light source region is obtained, and the Y-axis
[0119]
As described above, the X-axis direction position x and the Y-axis direction position y (that is, XYZ absolute coordinates) when the imaging direction exactly matches the direction of the target point light source 58 (X-axis direction deviation is 0 and Y-axis direction deviation is 0). X coordinate value and Y coordinate value in the system) are obtained, and the
[0120]
Next, the Z-axis direction distance of the target point
[0121]
As shown in FIG. 12A, the
[0122]
For this reason, for example, a point light source region is extracted from an image obtained by imaging by the
[0123]
In the above configuration, as shown in FIG. 12B, a plurality of
[0124]
As an example, as shown in FIG. 13, the Z-axis
[0125]
Further, as an example, as shown in FIG. 14A, the Z-axis
[0126]
As shown in FIG. 14B, the
[0127]
In addition, although the example using the
[0128]
As mentioned above, although embodiment of this invention was described, said embodiment contains the embodiment of the matter described below other than the embodiment of the matter described in the claim.
[0129]
(1) A plurality of support portions for detachably supporting the directing means are provided in the vicinity of the movable space of the robot hand, and the directing means is attached to the support portion so that the movable space is provided. The robot hand position measuring apparatus according to
[0130]
(2) The azimuth angle and elevation angle can be changed, and the support portion provided in the vicinity of the movable space of the robot hand is supported so as to be detachable and the azimuth angle can be changed, and at least one of the azimuth angle and elevation angle is changed. A plurality of directing means whose directing directions change, a first detecting means for detecting a deviation between the directing direction of each directing means and the direction in which the light source attached to the reference part of the robot hand exists, and each directing means Second detection means for detecting the azimuth angle and elevation angle of the light source with reference to a predetermined three-dimensional coordinate system, and the second detection means in a state in which the directing direction of each directing means substantially coincides with the direction in which the light source exists. A robot hand position measuring device, comprising: a calculating means for calculating the coordinates of the reference portion in the predetermined three-dimensional coordinate system based on the azimuth angle and the elevation angle detected by.
[0131]
【The invention's effect】
As described above, according to the present invention, it is possible to change the value of at least two kinds of parameters related to the posture angle, the position, or the posture angle and the position, and the pointing direction is changed by changing the value of the parameter.In addition, an image pickup device for picking up an image in the directivity direction through the zoom lensA state in which the pointing means is provided and the pointing direction of the pointing means substantially matches the direction in which the reference part of the robot hand existsThus, as the deviation between the pointing direction and the direction in which the reference part exists, the imaging center position corresponding to the current zoom value of the zoom lens on the image obtained by imaging with the imaging device of the pointing means, and the image of the reference part And detecting the deviation of the two kinds of parameters with reference to a predetermined three-dimensional coordinate system,Based on the values of the two types of parameters, the value of the parameter is calculated in a state in which the directing direction matches the direction in which the reference part exists, and the reference part in a predetermined three-dimensional coordinate system is calculated using the parameter value This is advantageous in that the position accuracy of the robot hand can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a robot hand position measuring apparatus according to a first embodiment.
FIG. 2 is a perspective view showing a robot arm, a reading telescope, and a coordinate setting point light source.
FIG. 3 is a perspective view showing details of a reading telescope and a stage.
FIG. 4 is a flowchart showing the contents of a coordinate setting process.
FIG. 5 is a flowchart showing the contents of a point light source capture control process.
6A is an image diagram showing an example of a pair of images used for an azimuth angle interpolation calculation when the azimuth deviation is 0, and FIG. 6B is a diagram showing an example of an interpolation calculation.
FIG. 7 is a flowchart showing the contents of position measurement processing.
8A is an image diagram showing an example of a change in barycentric position of a point light source region in an image accompanying a change in zoom value when the lens of the imaging unit is a zoom lens, and FIG. 8B is an imaging center. It is a flowchart which shows the content of the arithmetic processing.
FIG. 9 is a block diagram showing a schematic configuration of a robot hand position measuring apparatus according to a second embodiment.
10A is a perspective view showing an X-axis stage, a Y-axis stage, an X-axis imaging device, and a Y-axis imaging device, and FIG. 10B is a perspective view of the imaging device.
FIG. 11 is a block diagram showing a schematic configuration of a robot hand position measuring apparatus according to a third embodiment.
FIGS. 12A and 12B are perspective views showing an XY stage, an imaging apparatus, and a triangulation TV camera, respectively, when a Z-axis distance detection unit is configured including the triangulation TV camera.
FIG. 13 is a perspective view showing an XY stage, an imaging apparatus, and a linear scale when a Z-axis distance detection unit is configured including the linear scale.
14A is a perspective view showing an XY stage, an imaging device, and an optical radar when a Z-axis distance detection unit is configured including an optical radar, and FIG. 14B is a Z-axis distance detection by the optical radar. It is a schematic block diagram for demonstrating the principle of.
[Explanation of symbols]
10 Robot hand position measuring device
12 Control unit
20 Robot hand
40 First reading telescope
42 Second reading telescope
52 Imaging unit
64 Y-axis imaging device
58 Target point light source
60 Robot hand position measuring device
62 X-axis imaging device
64 Y-axis imaging device
82 Robot hand position measuring device
92 Point light source detector
94 Z-axis distance detector
Claims (5)
前記指向手段の前記撮像素子による撮像によって得られる画像上での前記ズームレンズの光学中心に対応する撮像中心位置を、前記ズームレンズのズーム値毎に記憶する記憶手段と、
前記指向方向がロボットハンドの基準部位の存在する方向に略一致した状態で、前記指向手段の指向方向と前記基準部位の存在する方向との偏差として、前記指向手段の前記撮像素子による撮像によって得られる画像上での、前記ズームレンズの現在のズーム値に対応する前記撮像中心位置と、前記基準部位の像の重心位置との偏差を検出する第1検出手段と、
指向手段の前記少なくとも2種類のパラメータの値を所定の3次元座標系を基準にして検出する第2検出手段と、
前記指向方向が前記基準部位の存在する方向に略一致した状態で、前記第1検出手段によって検出された前記偏差、及び前記第2検出手段によって検出された前記パラメータの値に基づいて、前記指向方向が前記基準部位の存在する方向に一致した状態での前記パラメータの値を演算し、演算したパラメータの値を用いて前記所定の3次元座標系における前記基準部位の座標を演算する演算手段と、
を含むロボットハンド位置計測装置。It is possible to change the value of at least two types of parameters related to the posture angle, or the position, or the posture angle and the position. Changing the value of the parameter changes the directivity direction, and images the directivity direction via the zoom lens. Directing means comprising an image sensor to
Storage means for storing, for each zoom value of the zoom lens, an imaging center position corresponding to the optical center of the zoom lens on an image obtained by imaging by the imaging element of the directing means;
In a state in which the directivity direction are substantially the same in the direction of presence of the reference part of the robot hand, as the difference between the present direction of the reference site and the orientation direction of the directing means, obtained by imaging by the imaging device of the directing means First detection means for detecting a deviation between the imaging center position corresponding to the current zoom value of the zoom lens and the barycentric position of the image of the reference portion on the obtained image;
Second detection means for detecting values of the at least two types of parameters of the directing means with reference to a predetermined three-dimensional coordinate system;
Based on the deviation detected by the first detection means and the value of the parameter detected by the second detection means in a state where the directivity direction substantially coincides with the direction in which the reference site exists, the directivity Calculating means for calculating the value of the parameter in a state in which the direction coincides with the direction in which the reference portion exists, and calculating the coordinates of the reference portion in the predetermined three-dimensional coordinate system using the calculated parameter value; ,
Robot hand position measuring device including
前記演算手段は、各指向手段の指向方向が前記基準部位の存在する方向に略一致した状態での各指向手段の方位角及び仰角を用いて前記基準部位の座標を演算する
ことを特徴とする請求項1記載のロボットハンド位置計測装置。A plurality of directing means are provided, each directing means is installed at a different fixed position near the movable range of the robot hand, and the azimuth angle and elevation angle can be changed as two types of parameters related to the posture angle. And
The calculation means calculates the coordinates of the reference part using the azimuth and elevation angle of each directing means in a state where the directing direction of each directing means substantially coincides with the direction in which the reference part exists. The robot hand position measuring apparatus according to claim 1.
前記演算手段は、各指向手段の指向方向が前記基準部位の存在する方向に略一致した状態での各指向手段の仰角及び前記単一の方向に沿った位置を用いて前記基準部位の座標を演算する
ことを特徴とする請求項1記載のロボットハンド位置計測装置。A plurality of the directing means are provided, and each directing means has an elevation angle and a position along a single different direction from two directions that are horizontal and intersect each other as two types of parameters relating to the posture angle and the position, respectively. Can be changed,
The arithmetic means calculates the coordinates of the reference part using the elevation angle of each directing means and the position along the single direction in a state where the directing direction of each directing means substantially coincides with the direction in which the reference part exists. The robot hand position measuring apparatus according to claim 1, wherein the position is calculated.
鉛直方向に沿ったロボットハンドの基準部位の高さを検出する第3検出手段を更に備え、
前記演算手段は、前記指向手段の指向方向が前記基準部位の存在する方向に略一致した状態での指向手段の前記2方向に沿った位置と、前記第3検出手段によって検出されたロボットハンドの基準部位の高さと、を用いて前記基準部位の座標を演算する
ことを特徴とする請求項1記載のロボットハンド位置計測装置。The directing means can change the positions along two directions that are horizontal and intersect each other as two types of parameters related to the position,
Further comprising third detection means for detecting the height of the reference portion of the robot hand along the vertical direction;
The calculation means includes a position along the two directions of the pointing means in a state where the pointing direction of the pointing means substantially coincides with the direction in which the reference portion exists, and the robot hand detected by the third detecting means. The robot hand position measuring apparatus according to claim 1, wherein the coordinates of the reference part are calculated using the height of the reference part.
前記ズームレンズのズーム値が前記撮像中心位置が既知の第1のズーム値となっている状態で、前記指向手段の前記撮像素子による撮像によって得られる画像上での前記基準部位の像の重心位置が前記第1のズーム値に対応する前記撮像中心位置に一致するように、前記駆動手段によって前記指向手段の指向方向を制御した後に、前記ズームレンズのズーム値を前記撮像中心位置が未知の第2のズーム値へ変化させ、前記指向手段の前記撮像素子による撮像によって得られる画像上での、前記第1のズーム値に対応する前記撮像中心位置と、前記基準部位の像の重心位置とのずれ量を検出し、前記第1のズーム値に対応する前記撮像中心位置に対して前記検出したずれ量だけずれた位置を、前記第2のズーム値に対応する撮像中心位置として前記記憶手段に記憶させる撮像中心位置取得手段と、
を更に備えたことを特徴とする請求項1〜請求項4の何れか1項記載のロボットハンド位置計測装置。Driving means for changing the directing direction of the directing means;
The position of the center of gravity of the image of the reference portion on the image obtained by imaging with the imaging element of the directing means in a state where the zoom value of the zoom lens is the first zoom value at which the imaging center position is known After controlling the directivity direction of the directing means by the driving means so that the image pickup central position corresponding to the first zoom value corresponds to the zoom value of the zoom lens, The zoom center position is changed to a zoom value of 2, and the image pickup center position corresponding to the first zoom value and the barycentric position of the image of the reference portion on an image obtained by image pickup by the image pickup device of the directing means detecting a shift amount, a position shifted by the detected shift amount to the image pickup center position corresponding to the first zoom value, as image pickup center position corresponding to the second zoom value An imaging center position obtaining means to be stored in the serial storage means,
The robot hand position measuring device according to any one of claims 1 to 4, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21226699A JP4284765B2 (en) | 1999-07-27 | 1999-07-27 | Robot hand position measuring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21226699A JP4284765B2 (en) | 1999-07-27 | 1999-07-27 | Robot hand position measuring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001041709A JP2001041709A (en) | 2001-02-16 |
JP4284765B2 true JP4284765B2 (en) | 2009-06-24 |
Family
ID=16619746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP21226699A Expired - Fee Related JP4284765B2 (en) | 1999-07-27 | 1999-07-27 | Robot hand position measuring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4284765B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006289588A (en) | 2005-04-14 | 2006-10-26 | Matsushita Electric Ind Co Ltd | Origin adjusting method of industrial robot |
JP2007120993A (en) * | 2005-10-25 | 2007-05-17 | Tokyo Institute Of Technology | Object shape measuring device |
US8930025B2 (en) | 2006-05-25 | 2015-01-06 | Takehiro Ishizaki | Work robot |
JP2011227073A (en) * | 2010-03-31 | 2011-11-10 | Saxa Inc | Three-dimensional position measuring device |
EP2722136A1 (en) * | 2012-10-19 | 2014-04-23 | inos Automationssoftware GmbH | Method for in-line calibration of an industrial robot, calibration system for performing such a method and industrial robot comprising such a calibration system |
CN105526906B (en) * | 2015-11-30 | 2018-02-09 | 上海卫星工程研究所 | Wide-angle dynamic high precision laser angular measurement method |
WO2019151238A1 (en) * | 2018-02-02 | 2019-08-08 | 株式会社Ihi | Coordinate system integration method, and device provided with columnar body |
CN108469831B (en) * | 2018-03-19 | 2024-03-15 | 中国计量大学 | Attitude control device and control method of mirror surface cleanliness detection equipment |
CN112665476B (en) * | 2020-12-29 | 2022-11-01 | 东风模具冲压技术有限公司 | Precision detection device for gripper of welding robot |
-
1999
- 1999-07-27 JP JP21226699A patent/JP4284765B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001041709A (en) | 2001-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2132523B1 (en) | Method and device for exact measurement of objects | |
JP3511450B2 (en) | Position calibration method for optical measuring device | |
CN109115126A (en) | The calibration of triangular measuring transducer | |
JP3837431B2 (en) | Pipe inner surface shape measuring device | |
US20110317879A1 (en) | Measurement of Positional Information for a Robot Arm | |
JP2000207028A (en) | Polar coordinate stage for compensating stage turn, device using continuous image turn, and measuring method by device | |
EP1091186A2 (en) | Method and apparatus for calibrating a non-contact gauging sensor with respect to an external coordinate system | |
JP2004050356A (en) | Position and attitude sensor of movable structure | |
JP4284765B2 (en) | Robot hand position measuring device | |
JP3579396B2 (en) | Method and apparatus for calibrating a first coordinate system of an indexing means in a second coordinate system of a sensing means | |
JPS6332306A (en) | Non-contact three-dimensional automatic dimension measuring method | |
JP3666108B2 (en) | Appearance inspection device | |
US11940274B2 (en) | Tilt detecting device and surveying instrument | |
JPH07260444A (en) | Method and apparatus for measuring object three-dimensionally by light section method | |
JPH05126521A (en) | Position-measuring device for remote-controlled manipulator | |
JPH0755439A (en) | Three-dimensional shape measuring equipment | |
JPH04365586A (en) | Optical axis aligning method and orthogonal axis aligning method for hand eye | |
JP3893191B2 (en) | Calibration value measurement method for measurement imaging device | |
JPH1011146A (en) | Device for correcting stop posture of mobile object | |
JP2000326082A (en) | Laser beam machine | |
JPH0545117A (en) | Optical method for measuring three-dimensional position | |
JP3195850B2 (en) | Method and apparatus for measuring three-dimensional position on curved surface | |
JPH0854234A (en) | Three-dimensional coordinate position measuring method | |
JP2012013593A (en) | Calibration method for three-dimensional shape measuring machine, and three-dimensional shape measuring machine | |
US8885051B2 (en) | Camera calibration method and camera calibration apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060322 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080401 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080701 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081202 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090303 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090316 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120403 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120403 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120403 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130403 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130403 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140403 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |