JPH0421105A - マニピユレータの立体教示装置 - Google Patents
マニピユレータの立体教示装置Info
- Publication number
- JPH0421105A JPH0421105A JP12411290A JP12411290A JPH0421105A JP H0421105 A JPH0421105 A JP H0421105A JP 12411290 A JP12411290 A JP 12411290A JP 12411290 A JP12411290 A JP 12411290A JP H0421105 A JPH0421105 A JP H0421105A
- Authority
- JP
- Japan
- Prior art keywords
- stereoscopic
- manipulator
- teaching
- image
- controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims description 12
- 230000000007 visual effect Effects 0.000 abstract description 3
- 238000000034 method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000005389 magnetism Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 241001494479 Pecora Species 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000001035 drying Methods 0.000 description 1
- 239000011888 foil Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明はマニピュレータの教示装置に係り、特に、視覚
を用いた教示装置に関する。
を用いた教示装置に関する。
ロボットに作業を行わせるには作業対象物の位置や腕の
先端の運動軌跡を何らかの方法で教示することが必要で
ある。従来、このティーチング作業は実際にロボットを
インチング操縦により目標点に誘導し、その位置での各
関節の角度あるいは位置を覚えるという方法をとるのが
一般的で、産業用ロボットに広く用いられている。
先端の運動軌跡を何らかの方法で教示することが必要で
ある。従来、このティーチング作業は実際にロボットを
インチング操縦により目標点に誘導し、その位置での各
関節の角度あるいは位置を覚えるという方法をとるのが
一般的で、産業用ロボットに広く用いられている。
ロボットを用いて、直接、教示する上記の方法ではロボ
ットが生産活動を行っている間は教示が行えず、また教
示を行っている間は生産活動を停止しなければならない
ため、生産の能率が低下する。このため、ロボットを用
いず教示を行うオフラインティーチングが行われる。こ
の場合には計算機の中に作業対象物やロボットのモデル
を持ち、二数をCRT画面上に表示して教示を行う。こ
のようなオフラインティーチングは日本ロボット学会誌
第3巻2号の第59頁から第73頁において論じられて
いる。しかし、この場合には計算機の中のモデルとロボ
ットの位置関係と、実際の作業対象物とロボットの位置
関係に微妙な差があり、作業実行前に位置誤差を修正す
るための調整を行う必要がある。
ットが生産活動を行っている間は教示が行えず、また教
示を行っている間は生産活動を停止しなければならない
ため、生産の能率が低下する。このため、ロボットを用
いず教示を行うオフラインティーチングが行われる。こ
の場合には計算機の中に作業対象物やロボットのモデル
を持ち、二数をCRT画面上に表示して教示を行う。こ
のようなオフラインティーチングは日本ロボット学会誌
第3巻2号の第59頁から第73頁において論じられて
いる。しかし、この場合には計算機の中のモデルとロボ
ットの位置関係と、実際の作業対象物とロボットの位置
関係に微妙な差があり、作業実行前に位置誤差を修正す
るための調整を行う必要がある。
一方、特殊な環境の作業を遠隔操作で行うために用いる
マスタ・スレーブマニピュレータは人間が操縦して動か
すので、教示は必要なかったが、最近、このようなマニ
ピュレータでは操縦の負担が大きいため、これに計算機
制御を導入して知能化し、自律的に作業を行わせる知能
型マニピュレータが開発されている。このようなものの
−例が、計測自動制御学会論文集、第20巻第1号、第
78頁から第85頁に論じられている。このようなマニ
ピュレータでは、一般に、作業場所には人が立入ること
ができない場合が多く、マニピュレータを用いて、直接
、教示することは困難である。
マスタ・スレーブマニピュレータは人間が操縦して動か
すので、教示は必要なかったが、最近、このようなマニ
ピュレータでは操縦の負担が大きいため、これに計算機
制御を導入して知能化し、自律的に作業を行わせる知能
型マニピュレータが開発されている。このようなものの
−例が、計測自動制御学会論文集、第20巻第1号、第
78頁から第85頁に論じられている。このようなマニ
ピュレータでは、一般に、作業場所には人が立入ること
ができない場合が多く、マニピュレータを用いて、直接
、教示することは困難である。
また、マニピュレータは未知の環境に持込まれ、その場
で作業を行うことが要求される。このため、作業場所の
情景を写し比すテレビ映像を見ながら、その場で環境や
作業対象物のモデルを作成し、自律作業を行わせるため
のマニピュレータの動作を教示することが必要になる。
で作業を行うことが要求される。このため、作業場所の
情景を写し比すテレビ映像を見ながら、その場で環境や
作業対象物のモデルを作成し、自律作業を行わせるため
のマニピュレータの動作を教示することが必要になる。
この場合、平面のテレビ画面を用いた場合は、奥行き情
報が無いため、三次元の位置を同定することは容易では
無い。従来の方法は、すでに計算機の中に保有している
モデルを用いて、これを実際の環境と合わせる調整を行
う方法は示されているが、この方法は未知の環境で使わ
れる場合は適用できない。また、レーザレンジファイン
ダを用いる方法や、レーザスポットの位置をテレビカメ
ラで見る方法がある。
報が無いため、三次元の位置を同定することは容易では
無い。従来の方法は、すでに計算機の中に保有している
モデルを用いて、これを実際の環境と合わせる調整を行
う方法は示されているが、この方法は未知の環境で使わ
れる場合は適用できない。また、レーザレンジファイン
ダを用いる方法や、レーザスポットの位置をテレビカメ
ラで見る方法がある。
一方、−台のモニタで奥行感覚が得られる立体視システ
ムが開発されている。これは、第2図に示すように、映
像信号が同期した二台のテレビカメラ1,2を用い、こ
の映像信号をフレーム毎、または、フィールド毎に交互
にはめ込んだ合成映像を立体視コントローラ3により作
成して一台のモニタ4に表示すると、モニタ4には二台
のテレビカメラの映像が交互に映るが、これと同期して
電子シャッタ眼鏡5の電子シャッタを交互に切換えれば
、観察者の眼には二台のテレビカメラ1゜2の映像が右
眼と左眼に分離して見える。従って、二台のテレビカメ
ラ1,2を並列に配置すると、視差のある映像を観察す
ることができ、視差に基づく立体感覚を得ることができ
る。また、コンピュータグラフィクス装W6によりアニ
メーション画像をリアルタイムで作成し、ビデオフレー
ムメモリを用いてテレビカメラでとらえた実画像とコン
ピュータで作成したアニメーションを合成してモニタに
立体視表示することもできる。立体視技術についてはS
、1.D、の会議録、第19巻2号(1978)の第1
頁から第5頁(Proceeding ofthe S
、 I 、D、、 Vof219/ 2 5econd
Quarter(1978)pp、1−5に記載され
ている。この立体視システムをマニピュレータの教示に
用いたものは無かった。
ムが開発されている。これは、第2図に示すように、映
像信号が同期した二台のテレビカメラ1,2を用い、こ
の映像信号をフレーム毎、または、フィールド毎に交互
にはめ込んだ合成映像を立体視コントローラ3により作
成して一台のモニタ4に表示すると、モニタ4には二台
のテレビカメラの映像が交互に映るが、これと同期して
電子シャッタ眼鏡5の電子シャッタを交互に切換えれば
、観察者の眼には二台のテレビカメラ1゜2の映像が右
眼と左眼に分離して見える。従って、二台のテレビカメ
ラ1,2を並列に配置すると、視差のある映像を観察す
ることができ、視差に基づく立体感覚を得ることができ
る。また、コンピュータグラフィクス装W6によりアニ
メーション画像をリアルタイムで作成し、ビデオフレー
ムメモリを用いてテレビカメラでとらえた実画像とコン
ピュータで作成したアニメーションを合成してモニタに
立体視表示することもできる。立体視技術についてはS
、1.D、の会議録、第19巻2号(1978)の第1
頁から第5頁(Proceeding ofthe S
、 I 、D、、 Vof219/ 2 5econd
Quarter(1978)pp、1−5に記載され
ている。この立体視システムをマニピュレータの教示に
用いたものは無かった。
三次元立体位置を非接触で検出するセンサとして、人工
磁場と検出コイルを組合せたものが開発されている。こ
れは第3図に示すように、人工磁場9を発生させるソー
ス7と磁気を検出するセンサ8とソースのドライズ回路
10とセンサの検出回路11と、コンピュータ12で構
成され、ソースを励磁することによってセンサが磁気を
検出するもので、磁力の強さと方向によりセンサの空間
位置を計算で求めることができる。
磁場と検出コイルを組合せたものが開発されている。こ
れは第3図に示すように、人工磁場9を発生させるソー
ス7と磁気を検出するセンサ8とソースのドライズ回路
10とセンサの検出回路11と、コンピュータ12で構
成され、ソースを励磁することによってセンサが磁気を
検出するもので、磁力の強さと方向によりセンサの空間
位置を計算で求めることができる。
上記従来技術のうち、ロボットを用いて、直接、教示を
行う方法は、ロボットの動作領域に人が立入ることにな
るので、安全上望ましくない。一方、平面のテレビ映像
を用いて教示を行う方法では、画像が平面であるため、
立体位置を検出することは困難である。
行う方法は、ロボットの動作領域に人が立入ることにな
るので、安全上望ましくない。一方、平面のテレビ映像
を用いて教示を行う方法では、画像が平面であるため、
立体位置を検出することは困難である。
レーザレンジファインダを用いる方法や、レーザスポッ
トの位置をテレビカメラで見る方法の場合は環境の全体
をスキャンする必要があり、データ量が増えて処理時間
がかかる他、作業の対象物を背景と分離して特定するこ
とが困難である。
トの位置をテレビカメラで見る方法の場合は環境の全体
をスキャンする必要があり、データ量が増えて処理時間
がかかる他、作業の対象物を背景と分離して特定するこ
とが困難である。
マニピュレータの作業では教示の手続きが複雑であった
り、処理時間が長くかかる場合は自律化する利点が損わ
れ、マスタスレーブ方式で、逐一作業を行った方が能率
が良いことになる。従って、未知の環境に置かれた状態
でいかにすばやく、簡単、かつ、容易に教示が行えるか
がマニピュレータを自律化する利点が生じるか否かの分
れ目となる。
り、処理時間が長くかかる場合は自律化する利点が損わ
れ、マスタスレーブ方式で、逐一作業を行った方が能率
が良いことになる。従って、未知の環境に置かれた状態
でいかにすばやく、簡単、かつ、容易に教示が行えるか
がマニピュレータを自律化する利点が生じるか否かの分
れ目となる。
本発明は視覚システムを用いて短時間に教示が行える教
示方法を提供することにある。
示方法を提供することにある。
上記目的を達成するために、コンピュータグラフィクス
による立体視アニメーションと二台のテレビカメラでと
らえた立体視実画像を合成表示する視覚表示システムと
、空間位置を検出する空間位置センサと、マニピュレー
タ、及び、マニピュレータ制御システムで構成され、空
間位置センサの出力情報が立体視アニメーション作成用
コンピュータ及びマニピュレータ制御装置に伝達される
ように構成したものである。
による立体視アニメーションと二台のテレビカメラでと
らえた立体視実画像を合成表示する視覚表示システムと
、空間位置を検出する空間位置センサと、マニピュレー
タ、及び、マニピュレータ制御システムで構成され、空
間位置センサの出力情報が立体視アニメーション作成用
コンピュータ及びマニピュレータ制御装置に伝達される
ように構成したものである。
アニメーション作成用コンピュータは空間位置を表現す
るため視差をもつ二枚の空間ポインタ用映像を作成し、
これを立体視表示システムにより観察者に提示する。一
方、観察者は空間位置センサを持ち、これを動かすと、
その位置変化に対応した空間位置情報の変化を示す圧力
信号が得られる。この信号はアニメーション作画用コン
ピュータに送られる。コンピュータはこの空間位置情報
に基づき空間ポインタの立体像の位置が変化するように
アニメーションを変化させる。従って、観察者は上記の
空間位置センサを用いて空間ポインタの位置を任意に変
えることができる。また、マニピュレータ制御装置も同
じく空間位置情報を受けとり、教示点として記憶する。
るため視差をもつ二枚の空間ポインタ用映像を作成し、
これを立体視表示システムにより観察者に提示する。一
方、観察者は空間位置センサを持ち、これを動かすと、
その位置変化に対応した空間位置情報の変化を示す圧力
信号が得られる。この信号はアニメーション作画用コン
ピュータに送られる。コンピュータはこの空間位置情報
に基づき空間ポインタの立体像の位置が変化するように
アニメーションを変化させる。従って、観察者は上記の
空間位置センサを用いて空間ポインタの位置を任意に変
えることができる。また、マニピュレータ制御装置も同
じく空間位置情報を受けとり、教示点として記憶する。
従って、I!察者は空間位置センサを用いてマニピュレ
ータの教示を行うことができる。キャリブレーション等
によって立体像の上の空間位置と実際の作業空間での空
間位置が正しく対応するように各要素が調整されていれ
ば、観察者は立体視映像上の対象物を見ながら立体ポイ
ンタを対象物の特徴を表す点に一致させ、そのときの空
間位置データを用いて対象物のモデルをマニピュレータ
制御装置に教示することができ、また、作業場所に至る
空間経路を空間ポインタを用いて教示することもできる
。
ータの教示を行うことができる。キャリブレーション等
によって立体像の上の空間位置と実際の作業空間での空
間位置が正しく対応するように各要素が調整されていれ
ば、観察者は立体視映像上の対象物を見ながら立体ポイ
ンタを対象物の特徴を表す点に一致させ、そのときの空
間位置データを用いて対象物のモデルをマニピュレータ
制御装置に教示することができ、また、作業場所に至る
空間経路を空間ポインタを用いて教示することもできる
。
以下、本発明の一実施例の構成と動作の説明を第1図に
示す。作業場所には二台のテレビカメラ1.2が略平行
に配置されており、立体コントローラ3を介して立体モ
ニタ4に立体視映像が表示される。観察者は電子シャッ
タ眼[5を装着してこの立体像を観察する。立体コント
ローラ3には高速作画装置6が結合されており、この高
速作画装置6が作成した立体視用アニメーションは立体
視コントローラ3の内部でテレビカメラ1,2で撮影し
た映像と合成され、立体モニタ4に表示される。さらに
、高速作画装置6には磁気センサを用いた空間位置測定
システムが接続されている。
示す。作業場所には二台のテレビカメラ1.2が略平行
に配置されており、立体コントローラ3を介して立体モ
ニタ4に立体視映像が表示される。観察者は電子シャッ
タ眼[5を装着してこの立体像を観察する。立体コント
ローラ3には高速作画装置6が結合されており、この高
速作画装置6が作成した立体視用アニメーションは立体
視コントローラ3の内部でテレビカメラ1,2で撮影し
た映像と合成され、立体モニタ4に表示される。さらに
、高速作画装置6には磁気センサを用いた空間位置測定
システムが接続されている。
この位置測定システムは、第3図に示すように、人工磁
場をつくるソース7と磁気検出コイル8とソースインタ
フェース装置10と磁気検出コイルインタフェース装置
11と計算機12で構成され、計算機12は磁気検出コ
イル8の信号より磁気検出コイルの立体位置と方向を求
め、第1図に示すようにその情報を高速作画装置6に送
る。高速作画装置はこの立体位置情報を基に、後述の立
体ポインタの立体視映像を作画し、立体視コントローラ
3を介して立体モニタ4に表示する。I!察者が磁気検
出コイル8を持ち、これを動かすと、その位置の変化に
応じて立体モニタ4に表示されている立体ポインタの立
体像の位置が変化する。従って、磁気検出コイル4を用
いて立体ポインタの位置と方向を任意に変えることがで
きる。また、この磁気検出コイル4の位置情報、または
、立体ポインタの空間位置情報は計算機12.または、
高速作画装置6よりマニピュレータコントローラ13に
送られ、マニピュレータ13はこの情報を基に設定され
た軌道に沿って動かされる。
場をつくるソース7と磁気検出コイル8とソースインタ
フェース装置10と磁気検出コイルインタフェース装置
11と計算機12で構成され、計算機12は磁気検出コ
イル8の信号より磁気検出コイルの立体位置と方向を求
め、第1図に示すようにその情報を高速作画装置6に送
る。高速作画装置はこの立体位置情報を基に、後述の立
体ポインタの立体視映像を作画し、立体視コントローラ
3を介して立体モニタ4に表示する。I!察者が磁気検
出コイル8を持ち、これを動かすと、その位置の変化に
応じて立体モニタ4に表示されている立体ポインタの立
体像の位置が変化する。従って、磁気検出コイル4を用
いて立体ポインタの位置と方向を任意に変えることがで
きる。また、この磁気検出コイル4の位置情報、または
、立体ポインタの空間位置情報は計算機12.または、
高速作画装置6よりマニピュレータコントローラ13に
送られ、マニピュレータ13はこの情報を基に設定され
た軌道に沿って動かされる。
第4図は立体モニタ4の表示例を示す。画面上には作業
の対象物15と、作業には、直接、関係のない背景物体
16が映っている。ただし、本図では立体視の表現が不
可能なので1通常の平面像として描かれているが、立体
モニタ上の図は全て立体視表現されているものとする。
の対象物15と、作業には、直接、関係のない背景物体
16が映っている。ただし、本図では立体視の表現が不
可能なので1通常の平面像として描かれているが、立体
モニタ上の図は全て立体視表現されているものとする。
ここで、作業対象物15に取付けられているボルト17
を緩める作業をマニピュレータが自動的に行うように教
示するものと仮定する。観察者は磁気検出コイルを持ち
、立体ポインタ18を動かす。ここでは立体ポインタ1
8は傘の形をしており、その先端で空間位置を、柄の向
きで方向を表すものとする。
を緩める作業をマニピュレータが自動的に行うように教
示するものと仮定する。観察者は磁気検出コイルを持ち
、立体ポインタ18を動かす。ここでは立体ポインタ1
8は傘の形をしており、その先端で空間位置を、柄の向
きで方向を表すものとする。
am者は磁気検出コイルを把持し、立体ポインタ18を
動かして作業対象物の教示しようとする場所に立体ポイ
ンタ18の先端を合せ、高速作画装置6に付属のキーボ
ード等から教示信号を送ると、立体ポインタ18の先端
の位置に立体教示点19がマークされる。教示点の間は
直線や円弧やスプライン曲線等の接続線20で連結する
。このようにして、作業に必要な部分のみ環境モデルを
作成していく。次に、マニピュレータ14の先端の運動
軌跡を教示する。目標とするボルト17に至るまでの通
過点21を立体ポインタ18を用いて教示し、その間を
線22で結ぶ。これにより、マニピュレータの先端の運
動軌跡を立体的に教示することができる。
動かして作業対象物の教示しようとする場所に立体ポイ
ンタ18の先端を合せ、高速作画装置6に付属のキーボ
ード等から教示信号を送ると、立体ポインタ18の先端
の位置に立体教示点19がマークされる。教示点の間は
直線や円弧やスプライン曲線等の接続線20で連結する
。このようにして、作業に必要な部分のみ環境モデルを
作成していく。次に、マニピュレータ14の先端の運動
軌跡を教示する。目標とするボルト17に至るまでの通
過点21を立体ポインタ18を用いて教示し、その間を
線22で結ぶ。これにより、マニピュレータの先端の運
動軌跡を立体的に教示することができる。
第5図に教示の手順を示す、まず、教示しようと思う教
示点に立体ポインタを合せ、キーボードより教示を示す
キーを入力する。アニメーション作画用コンピュータは
立体ポインタの先端の位置に教示点マーク(第4図では
黒丸)を立体視表示する。作業対象物、及び、マニピュ
レータ先端の運動軌跡に対して必要な教示点を教示した
後、直線補間の場合は二点、曲線補間の場合は三点の教
示点を立体ポインタで指定し、その間を直線又は曲線で
結んで立体視表示する。教示すべき点がまだ残されてい
る間、この作業を繰返し、教示終了後、教示及び補間デ
ータをマニピュレータコントローラへ転送する。マニピ
ュレータコントローラはこの教示データを基に自律作業
を行う。全ての作業が完了するまで、この手順を繰返す
。ここで、教示データの転送はまとめて行わず、各点を
教示する度に教示データをマニピュレータコントローラ
へ転送しても良い。また、教示点を結ぶ線は教示点の教
示を行った直後に緩和曲線等で前の教示点と結んでも良
い。
示点に立体ポインタを合せ、キーボードより教示を示す
キーを入力する。アニメーション作画用コンピュータは
立体ポインタの先端の位置に教示点マーク(第4図では
黒丸)を立体視表示する。作業対象物、及び、マニピュ
レータ先端の運動軌跡に対して必要な教示点を教示した
後、直線補間の場合は二点、曲線補間の場合は三点の教
示点を立体ポインタで指定し、その間を直線又は曲線で
結んで立体視表示する。教示すべき点がまだ残されてい
る間、この作業を繰返し、教示終了後、教示及び補間デ
ータをマニピュレータコントローラへ転送する。マニピ
ュレータコントローラはこの教示データを基に自律作業
を行う。全ての作業が完了するまで、この手順を繰返す
。ここで、教示データの転送はまとめて行わず、各点を
教示する度に教示データをマニピュレータコントローラ
へ転送しても良い。また、教示点を結ぶ線は教示点の教
示を行った直後に緩和曲線等で前の教示点と結んでも良
い。
第6図には他の実施例を示す。この実施例では、空間位
置を検出し、立体ポインタ18の位置を移動する手段と
して、磁気センサではなく、操縦アーム23を用いる。
置を検出し、立体ポインタ18の位置を移動する手段と
して、磁気センサではなく、操縦アーム23を用いる。
この操縦アーム23はマニピュレータ14の操縦に兼用
しても良い。操縦アームの各関節には関節角を検出する
角度センサ24が備えられており、操縦アームコントロ
ーラ25は各関節の角度を、随時、読み取ることができ
る。
しても良い。操縦アームの各関節には関節角を検出する
角度センサ24が備えられており、操縦アームコントロ
ーラ25は各関節の角度を、随時、読み取ることができ
る。
操縦アームコントローラ25は演算処理機能を備えてお
り、産業用ロボットで行われているように、操縦アーム
23を構成している各リンクの寸法と関節角からアーム
先端部の位置と姿勢を計算し、これを立体ポインタ18
の位置と姿勢を決めるデータとして高速作画袋W6、お
よび、マニピュレータコントローラ13に送る。他は第
1図に示す実施例と同様である。この場合は操縦アーム
23を立体ポインタ18とマニピュレータ14の操縦に
共用できる利点がある他、操縦アームが各関節にモータ
をもち、力を発生できるものであれば作業対象物との接
触を反力として提示できる利点がある。例えば、作業対
象物の輪郭を教示した後、その輪郭の内部を立体ポイン
タ18の侵入禁止領域とする。立体ポインタ18がこの
禁止領域に入っていないことを常に確認しておき、禁止
領域への侵入が発生したら、侵入直前の位置に戻るよう
に操縦アームの位置を制御する。従って、操縦者が操縦
アームに力を加えても反力が発生し、立体ポインタ18
はこの輪郭で囲まれた領域より内側へは侵入できない。
り、産業用ロボットで行われているように、操縦アーム
23を構成している各リンクの寸法と関節角からアーム
先端部の位置と姿勢を計算し、これを立体ポインタ18
の位置と姿勢を決めるデータとして高速作画袋W6、お
よび、マニピュレータコントローラ13に送る。他は第
1図に示す実施例と同様である。この場合は操縦アーム
23を立体ポインタ18とマニピュレータ14の操縦に
共用できる利点がある他、操縦アームが各関節にモータ
をもち、力を発生できるものであれば作業対象物との接
触を反力として提示できる利点がある。例えば、作業対
象物の輪郭を教示した後、その輪郭の内部を立体ポイン
タ18の侵入禁止領域とする。立体ポインタ18がこの
禁止領域に入っていないことを常に確認しておき、禁止
領域への侵入が発生したら、侵入直前の位置に戻るよう
に操縦アームの位置を制御する。従って、操縦者が操縦
アームに力を加えても反力が発生し、立体ポインタ18
はこの輪郭で囲まれた領域より内側へは侵入できない。
このため、作業教示はより容易になる。
第7図は立体ポインタの表示例である。立体ポインタ2
6は矢印を立体化したもので、先端で位置を示し、矢の
方向で向きを示す。立体ポインタ27は円の中の十字線
の交点で位置を示し、円の形と十字線の方向で向きを示
す。立体ポインタ28はハンドを模式図として表したも
のである。
6は矢印を立体化したもので、先端で位置を示し、矢の
方向で向きを示す。立体ポインタ27は円の中の十字線
の交点で位置を示し、円の形と十字線の方向で向きを示
す。立体ポインタ28はハンドを模式図として表したも
のである。
本発明によれば、未知の環境でも直感的に、かつ、迅速
に計算機内に環境または作業対象物の環境モデルをつく
ることができ、かつ、マニピュレ−タの移動軌跡を教示
することができるので、マニピュレータに自律的に作業
を行わせることが可能になる。また、教示を直感的に行
えるので、教示作業による疲労を軽減することができ、
また、教示に要する時間が短いので、逐一、操縦する場
合に対し大幅に作業時間が増加することは無く、自律化
の有用性を高めることができる。
に計算機内に環境または作業対象物の環境モデルをつく
ることができ、かつ、マニピュレ−タの移動軌跡を教示
することができるので、マニピュレータに自律的に作業
を行わせることが可能になる。また、教示を直感的に行
えるので、教示作業による疲労を軽減することができ、
また、教示に要する時間が短いので、逐一、操縦する場
合に対し大幅に作業時間が増加することは無く、自律化
の有用性を高めることができる。
第1図は本発明の一実施例を示すブロック図、第2図は
従来の立体視システムのブロック図、第3図は従来の磁
気センサを示すブロック図、第4図は本発明の立体視表
示例を示す正面図、第5図は本発明の手順を示す作業フ
ローチャート、第6図は本発明の他の実施例を示すブロ
ック図、第7図は本発明の立体ポインタの表示例を示す
説明図である。 1.2・・・テレビカメラ、3・・・立体コントローラ
、4・・・モニタ、5・・・シャッタ眼鏡、6・・・高
速作画装置、8・・・磁気センサ、12・・・計算機、
13・・・マニピュレータコントローラ、14・・・マ
ニピュレータ。 18・・・立体ポインタ、19・・・立体教示点、20
・・接続線、21・・・通過線、23・・・操縦アーム
、24・・・角センサ、25・・・操縦アームコントロ
ーラ、第 区 華 第 凶 拓 カ 31J 羊 図 箔 乙 菌
従来の立体視システムのブロック図、第3図は従来の磁
気センサを示すブロック図、第4図は本発明の立体視表
示例を示す正面図、第5図は本発明の手順を示す作業フ
ローチャート、第6図は本発明の他の実施例を示すブロ
ック図、第7図は本発明の立体ポインタの表示例を示す
説明図である。 1.2・・・テレビカメラ、3・・・立体コントローラ
、4・・・モニタ、5・・・シャッタ眼鏡、6・・・高
速作画装置、8・・・磁気センサ、12・・・計算機、
13・・・マニピュレータコントローラ、14・・・マ
ニピュレータ。 18・・・立体ポインタ、19・・・立体教示点、20
・・接続線、21・・・通過線、23・・・操縦アーム
、24・・・角センサ、25・・・操縦アームコントロ
ーラ、第 区 華 第 凶 拓 カ 31J 羊 図 箔 乙 菌
Claims (1)
- 1、マニピュレータと、マニピュレータ制御システムと
、前記マニピュレータの作業状況を映し出す立体視映像
表示システムと、コンピュータアニメーションを作成し
立体視映像に重ねて表示する高速作画システムと、三次
元位置を検出するセンサシステムを備え、センサシステ
ムの検出データに基づいて立体位置を表示する立体ポイ
ンタを前記高速作画システムで作画し、前記立体視映像
システムにより表示し、また、前記センサシステムの検
出データに基づき前記マニピュレータの運動および作業
対象物の位置や形状を教示することを特徴とするマニピ
ュレータの立体教示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12411290A JPH0421105A (ja) | 1990-05-16 | 1990-05-16 | マニピユレータの立体教示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12411290A JPH0421105A (ja) | 1990-05-16 | 1990-05-16 | マニピユレータの立体教示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0421105A true JPH0421105A (ja) | 1992-01-24 |
Family
ID=14877221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP12411290A Pending JPH0421105A (ja) | 1990-05-16 | 1990-05-16 | マニピユレータの立体教示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0421105A (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001216015A (ja) * | 2000-01-31 | 2001-08-10 | Iwate Prefecture | ロボットの動作教示装置 |
KR100483790B1 (ko) * | 2002-03-22 | 2005-04-20 | 한국과학기술연구원 | 마이크로 조립용 다자유도 원격조종 로봇 시스템 |
JP2006260271A (ja) * | 2005-03-17 | 2006-09-28 | Fanuc Ltd | オフライン教示装置 |
US7601119B2 (en) | 2006-04-25 | 2009-10-13 | Hrayr Kamig Shahinian | Remote manipulator with eyeballs |
JP2013111728A (ja) * | 2011-11-30 | 2013-06-10 | Ihi Corp | 把持動作設定方法、装置、およびプログラム |
US9713419B2 (en) | 2011-09-27 | 2017-07-25 | California Institute Of Technology | Programmable spectral source and design tool for 3D imaging using complementary bandpass filters |
US9861261B2 (en) | 2014-03-14 | 2018-01-09 | Hrayr Karnig Shahinian | Endoscope system and method of operation thereof |
US10278568B2 (en) | 2007-12-18 | 2019-05-07 | Harish M. MANOHARA | Endoscope and system and method of operation thereof |
JP2020037145A (ja) * | 2018-09-03 | 2020-03-12 | 川崎重工業株式会社 | ロボットシステム |
JP2020075325A (ja) * | 2018-11-08 | 2020-05-21 | 株式会社Ihi | ツールセンターポイントの設定方法及び設定装置 |
WO2021137276A1 (ja) * | 2019-12-30 | 2021-07-08 | 公立大学法人公立諏訪東京理科大学 | 穿孔装置、穿孔方法及び固定機構 |
US11375884B2 (en) | 2011-09-27 | 2022-07-05 | California Institute Of Technology | Multi-angle rear-viewing endoscope and method of operation thereof |
US11529042B2 (en) | 2009-11-13 | 2022-12-20 | Hrayr Karnig Shahinian | Stereo imaging miniature endoscope with single imaging and conjugated multi-bandpass filters |
-
1990
- 1990-05-16 JP JP12411290A patent/JPH0421105A/ja active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001216015A (ja) * | 2000-01-31 | 2001-08-10 | Iwate Prefecture | ロボットの動作教示装置 |
KR100483790B1 (ko) * | 2002-03-22 | 2005-04-20 | 한국과학기술연구원 | 마이크로 조립용 다자유도 원격조종 로봇 시스템 |
JP2006260271A (ja) * | 2005-03-17 | 2006-09-28 | Fanuc Ltd | オフライン教示装置 |
US7601119B2 (en) | 2006-04-25 | 2009-10-13 | Hrayr Kamig Shahinian | Remote manipulator with eyeballs |
US10278568B2 (en) | 2007-12-18 | 2019-05-07 | Harish M. MANOHARA | Endoscope and system and method of operation thereof |
US11529042B2 (en) | 2009-11-13 | 2022-12-20 | Hrayr Karnig Shahinian | Stereo imaging miniature endoscope with single imaging and conjugated multi-bandpass filters |
US11375884B2 (en) | 2011-09-27 | 2022-07-05 | California Institute Of Technology | Multi-angle rear-viewing endoscope and method of operation thereof |
US9713419B2 (en) | 2011-09-27 | 2017-07-25 | California Institute Of Technology | Programmable spectral source and design tool for 3D imaging using complementary bandpass filters |
JP2013111728A (ja) * | 2011-11-30 | 2013-06-10 | Ihi Corp | 把持動作設定方法、装置、およびプログラム |
US9861261B2 (en) | 2014-03-14 | 2018-01-09 | Hrayr Karnig Shahinian | Endoscope system and method of operation thereof |
WO2020050179A1 (ja) * | 2018-09-03 | 2020-03-12 | 川崎重工業株式会社 | ロボットシステム |
JP2020037145A (ja) * | 2018-09-03 | 2020-03-12 | 川崎重工業株式会社 | ロボットシステム |
JP2020075325A (ja) * | 2018-11-08 | 2020-05-21 | 株式会社Ihi | ツールセンターポイントの設定方法及び設定装置 |
WO2021137276A1 (ja) * | 2019-12-30 | 2021-07-08 | 公立大学法人公立諏訪東京理科大学 | 穿孔装置、穿孔方法及び固定機構 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kim et al. | Visual enhancements in pick-and-place tasks: Human operators controlling a simulated cylindrical manipulator | |
US7714895B2 (en) | Interactive and shared augmented reality system and method having local and remote access | |
JP4167954B2 (ja) | ロボット及びロボット移動方法 | |
JPH0421105A (ja) | マニピユレータの立体教示装置 | |
JP6589604B2 (ja) | ティーチング結果表示システム | |
Buss et al. | Development of a multi-modal multi-user telepresence and teleaction system | |
Drascic | Stereoscopic video and augmented reality | |
Zhai et al. | Telerobotic virtual control system | |
Lawson et al. | Augmented reality as a tool to aid the telerobotic exploration and characterization of remote environments | |
JPH06131442A (ja) | 3次元虚像造形装置 | |
JP3482228B2 (ja) | 視線検出によるマニピュレータ制御システム | |
Mallem et al. | Computer-assisted visual perception in teleoperated robotics | |
Makita et al. | Offline direct teaching for a robotic manipulator in the computational space | |
JP2837393B2 (ja) | 物体の加工方法および装置 | |
JPS5916912B2 (ja) | イドウホウコウキヨウジソウチ | |
Rezeck et al. | An Immersion Enhancing Robotic Head-Like Device for Teleoperation. | |
Tachi et al. | Tele-existence visual display for remote manipulation with a real-time sensation of presence | |
JPS6133878A (ja) | マニプレ−タの制御装置 | |
JP2533590B2 (ja) | マニピュレ―タ操作ガイダンス立体表示装置 | |
Yamada et al. | Construction Tele-Robotic System with Virtual Reality (CG presentation of virtual robot and task object using stereo vision system) | |
US20230010302A1 (en) | Generation of image for robot operation | |
Liu et al. | Visual factors affecting human operator performance with a helmet-mounted display | |
JPS60126985A (ja) | 遠隔操作における作業状況表示装置 | |
Grodski et al. | Real and virtual world stereoscopic displays for teleoperation | |
WO2020203819A1 (ja) | 遠隔操作装置 |