JP4167954B2 - ロボット及びロボット移動方法 - Google Patents
ロボット及びロボット移動方法 Download PDFInfo
- Publication number
- JP4167954B2 JP4167954B2 JP2003310409A JP2003310409A JP4167954B2 JP 4167954 B2 JP4167954 B2 JP 4167954B2 JP 2003310409 A JP2003310409 A JP 2003310409A JP 2003310409 A JP2003310409 A JP 2003310409A JP 4167954 B2 JP4167954 B2 JP 4167954B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- movement
- moving
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36431—Tv camera in place of tool, on display operator marks points, crosshair
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40003—Move end effector so that image center is shifted to desired position
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Description
そこで、本発明の目的は、任意の目標とする位置に自動的に移動するロボット及びその移動方法を提供することにある。
対象物5上の任意の1標的Qに対応する画像上の1点Rが指定されると、画面中心からの画素数をNとして次の3式、4式が導かれる。
このようにして求めた移動ベクトルq分だけカメラ2aを移動させれば、カメラ2aは標的をカメラ中心に捉えた状態に位置づけることができる。
上述した第2の実施形態では、カメラ2aを最初に移動させる移動量を(8)式の演算を行って求めたが、この移動量を予め決められた量にしてもよい。
図8(a)、(b)は、この予め決められた量L2移動させるときの第3の実施形態の説明図である。図8(a)において、標的Qに対応する画像上の位置R1を指定する。R1の画面中心からの画素数をN1とすると、レンズ中心から距離L0のところにおける長さW1が次のようにして求められる。
上述した第1〜第3の実施形態においては、最初にカメラ2aを対象物5の面と平行(受光素子)に平行に移動させたが、この移動を光軸方向に移動させるようにしてもよい。
Tf : Σf を基準にΣf' を表す同次変換行列
Tc : Σf を基準にΣc を表す同次変換行列
Tt : Σf' を基準にΣt を表す同次変換行列
と表すものとする。すると、図11(a)に示すカメラの到達目標位置をU として、図11(b)に示す溶接トーチ1cの到達目標位置U’は次のようにして算出することができる。
この第2の実施形態においては、最初、カメラ2aは、対象物に対して撮像できる任意の位置に位置決めされる。それ以後は、図12に示したステップ101〜105と同一の処理を実施する(ステップ200〜204)。そして、ステップ204で求められた位置(距離)W1だけ、カメラ2aの光軸が対象物5と交差する点と標的Qを結ぶ線に平行な方向に移動するようロボット制御装置1aに指令し、ロボット制御装置1aはカメラ2aを距離W1だけ標的Q方向に対象物5の面に対して平行移動させ位置決めする(ステップ205)。そして再び撮像し、撮像画面をモニタ2bに表示し、標的が選択指定されたか判断し(ステップ206〜208)、選択されると、その選択点の画素数N2を求める(ステップ209)。求められた画素数N1,N2、キャリブレーションにより予め求められている変換係数C0、距離L0に基づいて、(12)式の演算を行い移動ベクトルqを求め、ロボット制御装置1aに送信する(ステップ210)。ロボット制御装置1aは、送られてきた移動ベクトルqのデータに基づいてロボット1の移動位置を求めその位置に移動させてカメラ2aが標的Qに距離L0だけ離れて対向する位置(カメラ光軸上に標的Qがある位置)に位置決めする(ステップ211)。さらに、ツールによる加工を行う場合には、(28)式の演算を行って、ツールの先端が標的Qに位置決めされるようにロボットを移動させる(ステップ212)。
この第3の実施形態にいてステップ300〜303までの処理は、図13で示した第2の実施形態のステップ200〜203までの処理と同一である。この第3の実施形態では、画素数N1を求めたあと、カメラ2aの光軸方向に垂直方向(対象物の面と平行な方向)で、標的Qがある方向に予め設定された距離L2だけロボット1を駆動してカメラ2aを移動させる(ステップ304)。そして、対象物を撮像し、標的Qが指定されるとその画素数N2を求める(ステップ305〜308)。
この第4の実施形態の処理は、第3の実施形態でステップ304で光軸と垂直方向にカメラ2aを移動させたステップ304の処理が、光軸方向であるZ軸方向にカメラ2aを予め決められた距離L2だけ移動させるステップ404の処理に代わるだけで、ステップ400〜ステップ408までの処理は第3の実施形態のステップ300〜ステップ308の処理と同一である。そして、この第4の実施形態では、求められた画素数N1,N2、キャリブレーションにより予め求められている変換係数C0、距離L0及び予め決められた距離L2によって、(23)式の演算を行い移動ベクトルqを求め、ロボット制御装置1aに送信する(ステップ409)。ロボット制御装置1aは、送られてきた移動ベクトルqのデータに基づいてロボットの移動位置を求めその位置に移動させてカメラ2aが標的Qに距離L0だけ離れて対向する位置に位置決めする(ステップ410)。さらに、ツールによる加工を行う場合には、(28)式の演算を行って、ツールの先端が標的Qに位置決めされるようにロボットを移動させる(ステップ411)。
この第5の実施形態では、標的Qの画像モデルを教示しておき、ステップ502で、撮像した画像から標的Qの画像モデルを検出すること、そして、ステップ503で検出された標的QのサイズS1を求めることと、ステップ507で標的Qの画像モデルを検出するステップ508で、標的Qの位置の画素数N2とサイズS2を求める点を除けば、図15に示した処理フローチャートのステップ400〜408と同一のステップ500〜508の処理を実施するものである。
1a ロボット制御装置
1b ロボットアーム
1c 溶接トーチ
2 画像処理装置
2a CCDカメラ
2b モニタ
3 レンズ
4 受光素子
18 教示操作盤
Claims (20)
- 手先部にカメラを装着したロボットにおいて、
前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する手段と、
前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する手段と、
前記指定された点の前記画像上での第1の位置情報を取得する手段と、
前記カメラの光軸と直交し前記指定された点への方向の第1の移動方向及び前記第1の位置情報と前記キャリブレーションデータを元に該第1の移動方向への移動量を決定する手段と、
前記決定された第1の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
前記移動後、前記指定された点と同一の点を新たに撮像された画像中で再指定する手段と、
前記再指定された点の前記新たに撮像された画像上での第2の位置情報を取得する手段と、
前記所定距離と、前記第1の位置情報と、前記第2の位置情報および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
を備えたことを特徴とするロボット。 - 手先部にカメラを装着したロボットにおいて、
前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する手段と、
前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する手段と、
前記指定された点の前記画像上での第1の位置情報を取得する手段と、
前記カメラの光軸と直交し前記指定された点への方向の前記カメラの第1の移動方向を決定する手段と、
前記決定された第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、
前記移動後、前記指定された点と同一の点を新たに撮像された画像中で再指定する手段と、
前記再指定された点の前記新たに撮像された画像上での第2の位置情報を取得する手段と、
前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
を備えたことを特徴とするロボット。 - 手先部にカメラを装着したロボットにおいて、
前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する手段と、
前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する手段と、
前記指定された点の前記画像上での第1の位置情報を取得する手段と、
前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、
前記移動後、前記指定された点と同一の点を新たに撮像された画像中で再指定する手段と、
前記再指定された点の前記新たに撮像された画像上での第2の位置情報を取得する手段と、
前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
を備えたことを特徴とするロボット。 - 手先部にカメラを装着したロボットにおいて、
前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する手段と、
前記画像取得手段により撮像された画像中で予め指定された対象物を検出する手段と、
前記検出された対象物の前記画像上での第1の位置情報を取得する手段と、
前記カメラの光軸と直交し前記指定された対象物への方向の第1の移動方向及び前記第1の位置情報と前記キャリブレーションデータを元に該第1の移動方向への移動量を決定する手段と、
前記決定された第1の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
前記移動後、前記検出された対象物と同一の対象物を新たに撮像された画像中で再検出する手段と、
前記再検出された対象物の前記新たに撮像された画像上での第2の位置情報を取得する手段と、
前記所定距離と、前記第1の位置情報と、前記第2の位置情報および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
を備えたことを特徴とするロボット。 - 手先部にカメラを装着したロボットにおいて、
前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する手段と、
前記画像取得手段により撮像された画像中で予め指定された対象物を検出する手段と、
前記検出された対象物の前記画像上での第1の位置情報を取得する手段と、
前記カメラの光軸と直交し前記指定された対象物への方向の前記カメラの第1の移動方向を決定する手段と、
前記決定された第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、
前記移動後、前記検出された対象物と同一の対象物を新たに撮像された画像中で再検出する手段と、
前記再検出された対象物の前記新たに撮像された画像上での第2の位置情報を取得する手段と、
前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
を備えたことを特徴とするロボット。 - 手先部にカメラを装着したロボットにおいて、
前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する手段と、
前記画像取得手段により撮像された画像中で予め指定された対象物を検出する手段と、
前記検出された対象物の前記画像上での第1の位置情報を取得する手段と、
前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、
前記移動後、前記検出された対象物と同一の対象物を新たに撮像された画像中で再検出する手段と、
前記再検出された対象物の前記新たに撮像された画像上での第2の位置情報を取得する手段と、
前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
を備えたことを特徴とするロボット。 - 手先部にカメラを装着したロボットにおいて、
前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する手段と、
前記画像取得手段により撮像された画像中で予め指定された対象物を検出する手段と、
前記検出された対象物の前記画像上での第1のサイズ情報を取得する手段と、
前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、
前記移動後、前記検出された対象物と同一の対象物を新たに撮像された画像中で再検出する手段と、
前記再検出された対象物の前記新たに撮像された画像上での第2のサイズ情報および位置情報を取得する手段と、
前記所定距離と、前記第1のサイズ情報と、前記第2のサイズ情報と、前記位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
を備えたことを特徴とするロボット。 - 手先部にカメラを装着したロボットにおいて、
前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する手段と、
前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する手段と、
前記指定された点の前記画像上での第1の位置情報を取得する手段と、
前記指定された点の前記画像上での近傍領域から画像モデルを生成する手段と、
前記カメラの光軸と直交し前記指定された点への方向の第1の移動方向及び前記第1の位置情報と前記キャリブレーションデータを元に該第1の移動方向への移動量を決定する手段と、
前記決定された第1の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
前記移動後、前記指定された点と同一の点を前記画像モデルを用いて前記新たに撮像された画像中から検出する手段と、
前記検出された点の前記新たに撮像された画像上での第2の位置情報を取得する手段と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
を備えたことを特徴とするロボット。 - 手先部にカメラを装着したロボットにおいて、
前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する手段と、
前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する手段と、
前記指定された点の前記画像上での第1の位置情報を取得する手段と、
前記指定された点の前記画像上での近傍領域から画像モデルを生成する手段と、
前記カメラの光軸と直交し前記指定された点への方向の前記カメラの第1の移動方向を決定する手段と、
前記決定された第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、
前記移動後、前記指定された点と同一の点を前記画像モデルを用いて前記新たに撮像された画像中から検出する手段と、
前記検出された点の前記新たに撮像された画像上での第2の位置情報を取得する手段と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
を備えたことを特徴とするロボット。 - 手先部にカメラを装着したロボットにおいて、
前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する手段と、
前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する手段と、
前記指定された点の前記画像上での第1の位置情報を取得する手段と、
前記指定された点の前記画像上での近傍領域から画像モデルを生成する手段と、
前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる手段と、
前記移動後、前記指定された点と同一の点を前記画像モデルを用いて前記新たに撮像された画像中から検出する手段と、
前記検出された点の前記新たに撮像された画像上での第2の位置情報を取得する手段と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する手段と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる手段と、
を備えたことを特徴とするロボット。 - 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する段階と、
前記取得された画像中で対象物上の任意の点を指定する段階と、
前記指定された点の前記画像上での第1の位置情報を取得する段階と、
前記カメラの光軸と直交し前記指定された点への方向の第1の移動方向及び前記第1の位置情報と前記キャリブレーションデータを元に該第1の移動方向への移動量を決定する段階と、
前記決定された第1の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
前記新たに取得された画像上で前記指定された点と同一の点を再指定する段階と、
前記再指定された点の前記新たに取得された画像上での第2の位置情報を取得する段階と、
前記所定距離と、前記第1の位置情報と、前記第2の位置情報および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
を含むロボットの移動方法。 - 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する段階と、
前記画像取得手段により撮像された画像中で対象物上の任意の点を指定する段階と、
前記指定された点の前記画像上での第1の位置情報を取得する段階と、
前記カメラの光軸と直交し前記指定された点への方向の前記カメラの第1の移動方向を決定する段階と、
前記決定された第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる段階と、
前記移動後、前記指定された点と同一の点を新たに撮像された画像中で再指定する段階と、
前記再指定された点の前記新たに撮像された画像上での第2の位置情報を取得する段階と、
前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
を含むロボットの移動方法。 - 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する段階と、
前記取得された画像中で対象物上の任意の点を指定する段階と、
前記指定された点の前記画像上での第1の位置情報を取得する段階と、
前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる段階と、
前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
前記新たに取得された画像上で前記指定された点と同一の点を再指定する段階と、
前記再指定された点の前記新たに取得された画像上での第2の位置情報を取得する段階と、
前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
を含むロボットの移動方法。 - 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する段階と、
前記取得された画像中で予め指定された対象物を検出する段階と、
前記検出された対象物の前記画像上での第1の位置情報を取得する段階と、
前記カメラの光軸と直交し前記指定された対象物への方向の第1の移動方向及び前記第1の位置情報と前記キャリブレーションデータを元に該第1の移動方向への移動量を決定する段階と、
前記決定された第1の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
前記新たに取得された画像上で前記検出された対象物と同一の対象物を再検出する段階と、
前記再検出された対象物の前記新たに撮像された画像上での第2の位置情報を取得する段階と、
前記所定距離と、前記第1の位置情報と、前記第2の位置情報および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
を含むロボットの移動方法。 - 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する段階と、
前記取得された画像中で予め指定された対象物を検出する段階と、
前記検出された対象物の前記画像上での第1の位置情報を取得する段階と、
前記カメラの光軸と直交し前記指定された対象物への方向の前記カメラの第1の移動方向を決定する段階と、
前記決定された第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる段階と、
前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
前記新たに取得された画像上で前記検出された対象物と同一の対象物を再検出する段階と、
前記再検出された対象物の前記新たに撮像された画像上での第2の位置情報を取得する段階と、
前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
を含むロボットの移動方法。 - 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する段階と、
前記取得された画像中で予め指定された対象物を検出する段階と、
前記検出された対象物の前記画像上での第1の位置情報を取得する段階と、
前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる段階と、
前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
前記新たに取得された画像上で前記検出された対象物と同一の対象物を再検出する段階と、
前記再検出された対象物の前記新たに撮像された画像上での第2の位置情報を取得する段階と、
前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
を含むロボットの移動方法。 - 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する段階と、
前記取得された画像中で予め指定された対象物を検出する段階と、
前記検出された対象物の前記画像上での第1のサイズ情報を取得する段階と、
前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる段階と、
前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
前記新たに取得された画像上で前記検出された対象物と同一の対象物を再検出する段階と、
前記再検出された対象物の前記新たに撮像された画像上での第2のサイズ情報および位置情報を取得する段階と、
前記所定距離と、前記第1のサイズ情報と、前記第2のサイズ情報と、前記位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
を含むロボットの移動方法。 - 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する段階と、
前記取得された画像中で対象物上の任意の点を指定する段階と、
前記指定された点の前記画像上での第1の位置情報を取得する段階と、
前記指定された点の前記画像上での近傍領域から画像モデルを生成する段階と、
前記カメラの光軸と直交し前記指定された点への方向の第1の移動方向及び前記第1の位置情報と前記キャリブレーションデータを元に該第1の移動方向への移動量を決定する段階と、
前記決定された第1の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
前記指定された点と同一の点を前記画像モデルを用いて前記新たに撮像された画像中から検出する段階と、
前記検出された点の前記新たに撮像された画像上での第2の位置情報を取得する段階と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
を含むロボットの移動方法。 - 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する段階と、
前記取得された画像中で対象物上の任意の点を指定する段階と、
前記指定された点の前記画像上での第1の位置情報を取得する段階と、
前記指定された点の前記画像上での近傍領域から画像モデルを生成する段階と、
前記カメラの光軸と直交し前記指定された点への方向の前記カメラの第1の移動方向を決定する段階と、
前記決定された第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる段階と、
前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
前記指定された点と同一の点を前記画像モデルを用いて前記新たに撮像された画像中から検出する段階と、
前記検出された点の前記新たに撮像された画像上での第2の位置情報を取得する段階と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
を含むロボットの移動方法。 - 手先部にカメラを装着したロボットの移動方法であり、前記カメラは、該カメラと所定距離離れた物体における画像上の距離と空間上の距離が対応させられたキャリブレーションデータが予め求められたものであって、
前記カメラで撮像した画像を取得する段階と、
前記取得された画像中で対象物上の任意の点を指定する段階と、
前記指定された点の前記画像上での第1の位置情報を取得する段階と、
前記指定された点の前記画像上での近傍領域から画像モデルを生成する段階と、
前記カメラの受光素子に垂直で前記対象物に近づく予め指定された前記カメラの第1の移動方向および予め指定された第1の移動量にもとづいて前記ロボットを移動させる段階と、
前記移動後、前記カメラで新たに撮像した画像を取得する段階と、
前記指定された点と同一の点を前記画像モデルを用いて前記新たに撮像された画像中から検出する段階と、
前記検出された点の前記新たに撮像された画像上での第2の位置情報を取得する段階と、前記所定距離と、前記第1の位置情報と、前記第2の位置情報、前記第1の移動量および前記キャリブレーションデータを元に、前記カメラが前記指定した点の実際の位置に対して前記所定距離離れて対向するように前記カメラの第2の移動方向および移動量を決定する段階と、
前記決定された第2の移動方向および移動量にもとづいて前記ロボットを移動させる段階と、
を含むロボットの移動方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003310409A JP4167954B2 (ja) | 2003-09-02 | 2003-09-02 | ロボット及びロボット移動方法 |
EP04255297A EP1512499A3 (en) | 2003-09-02 | 2004-09-01 | Robot having a camera mounted at the distal end of its arm and method for operating such a robot |
US10/930,850 US20050065653A1 (en) | 2003-09-02 | 2004-09-01 | Robot and robot operating method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003310409A JP4167954B2 (ja) | 2003-09-02 | 2003-09-02 | ロボット及びロボット移動方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005074600A JP2005074600A (ja) | 2005-03-24 |
JP4167954B2 true JP4167954B2 (ja) | 2008-10-22 |
Family
ID=34131821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003310409A Expired - Fee Related JP4167954B2 (ja) | 2003-09-02 | 2003-09-02 | ロボット及びロボット移動方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20050065653A1 (ja) |
EP (1) | EP1512499A3 (ja) |
JP (1) | JP4167954B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9727053B2 (en) | 2011-08-26 | 2017-08-08 | Canon Kabushiki Kaisha | Information processing apparatus, control method for information processing apparatus, and recording medium |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3961408B2 (ja) * | 2002-11-21 | 2007-08-22 | ファナック株式会社 | 組立て方法及び装置 |
JP2005108144A (ja) * | 2003-10-02 | 2005-04-21 | Fanuc Ltd | ロボットの補正データ確認装置 |
EP1728600B1 (en) * | 2005-05-31 | 2008-03-12 | Honda Research Institute Europe GmbH | Controlling the trajectory of an effector |
DE102005040714B4 (de) * | 2005-08-27 | 2015-06-18 | Abb Research Ltd. | Verfahren und System zur Erstellung eines Bewegungsablaufes für einen Roboter |
JP4221014B2 (ja) * | 2006-06-20 | 2009-02-12 | ファナック株式会社 | ロボット制御装置 |
WO2008036354A1 (en) | 2006-09-19 | 2008-03-27 | Braintech Canada, Inc. | System and method of determining object pose |
US20080181485A1 (en) * | 2006-12-15 | 2008-07-31 | Beis Jeffrey S | System and method of identifying objects |
JP2009269134A (ja) * | 2008-05-08 | 2009-11-19 | Denso Wave Inc | 視覚検査装置のシミュレーション装置 |
US20100017033A1 (en) * | 2008-07-18 | 2010-01-21 | Remus Boca | Robotic systems with user operable robot control terminals |
US8559699B2 (en) * | 2008-10-10 | 2013-10-15 | Roboticvisiontech Llc | Methods and apparatus to facilitate operations in image based systems |
US8457791B2 (en) * | 2009-03-10 | 2013-06-04 | GM Global Technology Operations LLC | Method for dynamically controlling a robotic arm |
US8730314B2 (en) * | 2010-04-13 | 2014-05-20 | Varian Medical Systems, Inc. | Systems and methods for monitoring radiation treatment |
TW201247373A (en) * | 2011-05-23 | 2012-12-01 | Hon Hai Prec Ind Co Ltd | System and method for adjusting mechanical arm |
EP2729850A4 (en) * | 2011-08-11 | 2015-07-08 | Siemens Healthcare Diagnostics | METHOD AND DEVICE FOR CALIBRATING AN ALIGNMENT OF A ROBOT GRIPPER AND A CAMERA |
US9505130B2 (en) * | 2012-07-13 | 2016-11-29 | General Electric Company | System and method for performing remote welding operations on an apparatus |
US9025856B2 (en) | 2012-09-05 | 2015-05-05 | Qualcomm Incorporated | Robot control information |
JP5664629B2 (ja) * | 2012-10-19 | 2015-02-04 | 株式会社安川電機 | ロボットシステムおよび加工品の製造方法 |
US9498625B2 (en) * | 2012-12-19 | 2016-11-22 | Viscardia, Inc. | Hemodynamic performance enhancement through asymptomatic diaphragm stimulation |
JP2014176922A (ja) * | 2013-03-14 | 2014-09-25 | Yaskawa Electric Corp | ロボットシステムおよび被加工物の製造方法 |
JP2014180720A (ja) * | 2013-03-19 | 2014-09-29 | Yaskawa Electric Corp | ロボットシステム及びキャリブレーション方法 |
JP6188440B2 (ja) * | 2013-06-17 | 2017-08-30 | キヤノン株式会社 | ロボット装置及びロボット制御方法 |
JP6309476B2 (ja) * | 2015-03-18 | 2018-04-11 | 美津濃株式会社 | ウッド型ゴルフクラブヘッドおよびウッド型ゴルフクラブ |
JP2016221645A (ja) * | 2015-06-02 | 2016-12-28 | セイコーエプソン株式会社 | ロボット、ロボット制御装置およびロボットシステム |
JP6605611B2 (ja) | 2015-09-03 | 2019-11-13 | 株式会社Fuji | ロボットシステム |
US9855661B2 (en) * | 2016-03-29 | 2018-01-02 | The Boeing Company | Collision prevention in robotic manufacturing environments |
GB201614989D0 (en) * | 2016-09-05 | 2016-10-19 | Rolls Royce Plc | Welding process |
CN110582733B (zh) | 2017-03-27 | 2023-03-07 | Abb瑞士股份有限公司 | 用于估计工业机器人的调试工具的系统误差的方法和装置 |
JP2018176334A (ja) * | 2017-04-10 | 2018-11-15 | キヤノン株式会社 | 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法 |
US10828716B2 (en) | 2017-06-19 | 2020-11-10 | Lincoln Global, Inc. | Systems and methods for real time, long distance, remote welding |
JP6795471B2 (ja) * | 2017-08-25 | 2020-12-02 | ファナック株式会社 | ロボットシステム |
US11358290B2 (en) * | 2017-10-19 | 2022-06-14 | Canon Kabushiki Kaisha | Control apparatus, robot system, method for operating control apparatus, and storage medium |
CN111971529A (zh) | 2018-09-03 | 2020-11-20 | Abb瑞士股份有限公司 | 用于管理机器人系统的方法和装置 |
CN110026980A (zh) * | 2019-04-04 | 2019-07-19 | 飞依诺科技(苏州)有限公司 | 一种机械臂控制终端的控制方法 |
TWI782709B (zh) * | 2021-09-16 | 2022-11-01 | 財團法人金屬工業研究發展中心 | 手術機械臂控制系統以及手術機械臂控制方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4891767A (en) * | 1988-06-02 | 1990-01-02 | Combustion Engineering, Inc. | Machine vision system for position sensing |
US5606627A (en) * | 1995-01-24 | 1997-02-25 | Eotek Inc. | Automated analytic stereo comparator |
IT1303239B1 (it) | 1998-08-07 | 2000-11-02 | Brown & Sharpe Dea Spa | Dispositivo e metodo per il posizionamento di una testa di misura inuna macchina per la misura tridimensionale senza contatto. |
US6659939B2 (en) * | 1998-11-20 | 2003-12-09 | Intuitive Surgical, Inc. | Cooperative minimally invasive telesurgical system |
US6788018B1 (en) * | 1999-08-03 | 2004-09-07 | Intuitive Surgical, Inc. | Ceiling and floor mounted surgical robot set-up arms |
US6194860B1 (en) * | 1999-11-01 | 2001-02-27 | Yoder Software, Inc. | Mobile camera-space manipulation |
WO2003064116A2 (en) | 2002-01-31 | 2003-08-07 | Braintech Canada, Inc. | Method and apparatus for single camera 3d vision guided robotics |
US6925357B2 (en) * | 2002-07-25 | 2005-08-02 | Intouch Health, Inc. | Medical tele-robotic system |
US7262573B2 (en) * | 2003-03-06 | 2007-08-28 | Intouch Technologies, Inc. | Medical tele-robotic system with a head worn device |
US7127101B2 (en) * | 2003-03-10 | 2006-10-24 | Cranul Technologies, Inc. | Automatic selection of cranial remodeling device trim lines |
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
-
2003
- 2003-09-02 JP JP2003310409A patent/JP4167954B2/ja not_active Expired - Fee Related
-
2004
- 2004-09-01 EP EP04255297A patent/EP1512499A3/en not_active Withdrawn
- 2004-09-01 US US10/930,850 patent/US20050065653A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9727053B2 (en) | 2011-08-26 | 2017-08-08 | Canon Kabushiki Kaisha | Information processing apparatus, control method for information processing apparatus, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
US20050065653A1 (en) | 2005-03-24 |
JP2005074600A (ja) | 2005-03-24 |
EP1512499A2 (en) | 2005-03-09 |
EP1512499A3 (en) | 2008-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4167954B2 (ja) | ロボット及びロボット移動方法 | |
JP4021413B2 (ja) | 計測装置 | |
JP4844453B2 (ja) | ロボットの教示装置及び教示方法 | |
US8964001B2 (en) | Method for displaying measurement effective area in three-dimensional visual sensor and three-dimensional visual sensor | |
US10052765B2 (en) | Robot system having augmented reality-compatible display | |
JP3946711B2 (ja) | ロボットシステム | |
US9679385B2 (en) | Three-dimensional measurement apparatus and robot system | |
JP4508252B2 (ja) | ロボット教示装置 | |
EP1584426A1 (en) | Tool center point calibration system | |
JP6445092B2 (ja) | ロボットの教示のための情報を表示するロボットシステム | |
WO2018043525A1 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
EP3421930A1 (en) | Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method | |
US11446822B2 (en) | Simulation device that simulates operation of robot | |
JP2001060108A (ja) | ロボット動作教示装置および動作教示方法 | |
US12128571B2 (en) | 3D computer-vision system with variable spatial resolution | |
JP5428639B2 (ja) | ロボットの制御装置及びロボットのティーチング方法 | |
CN116761979A (zh) | 根据由视觉传感器取得的三维的位置信息生成截面图像的处理装置以及处理方法 | |
JP4558682B2 (ja) | 移動型ロボットシステムにおけるマニピュレータ遠隔操作方法 | |
US12036663B2 (en) | Method and control arrangement for determining a relation between a robot coordinate system and a movable apparatus coordinate system | |
WO2023013740A1 (ja) | ロボット制御装置、ロボット制御システム、及びロボット制御方法 | |
CN113084827B (zh) | 一种摄像装置光心位置标定方法及装置 | |
JP2005205519A (ja) | ロボットハンド装置 | |
CN110900606B (zh) | 一种基于小型机械臂手眼联动系统及其控制方法 | |
CN118510633A (zh) | 具备三维传感器的机器人装置以及机器人装置的控制方法 | |
JP2001191285A (ja) | ロボットシステムおよびその利用方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061002 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070306 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070502 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20070511 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20070629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080613 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080804 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110808 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110808 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120808 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120808 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130808 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |