Nothing Special   »   [go: up one dir, main page]

JP7364285B1 - ロボット操作システムの動作方法 - Google Patents

ロボット操作システムの動作方法 Download PDF

Info

Publication number
JP7364285B1
JP7364285B1 JP2022180752A JP2022180752A JP7364285B1 JP 7364285 B1 JP7364285 B1 JP 7364285B1 JP 2022180752 A JP2022180752 A JP 2022180752A JP 2022180752 A JP2022180752 A JP 2022180752A JP 7364285 B1 JP7364285 B1 JP 7364285B1
Authority
JP
Japan
Prior art keywords
robot
dimensional model
operating
camera
predetermined position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022180752A
Other languages
English (en)
Other versions
JP2024070336A (ja
Inventor
正 ▲高▼丸
泰幸 ▲高▼丸
Original Assignee
高丸工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 高丸工業株式会社 filed Critical 高丸工業株式会社
Priority to JP2022180752A priority Critical patent/JP7364285B1/ja
Application granted granted Critical
Publication of JP7364285B1 publication Critical patent/JP7364285B1/ja
Publication of JP2024070336A publication Critical patent/JP2024070336A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】ロボット操作に発生する手間や工数を低減させることができるロボット操作システムの動作方法を提供することを目的としている。【解決手段】表示部(8)に表示された3次元モデル(9)を、操作手段(61)を用いて所定位置に移動させると、それに応じて該3次元モデル(9)が所定位置に移動するステップと、3次元モデル(9)が所定位置に移動したとしても、操作手段(61)を用いて、許可動作を行わない限り、制御手段(60)にてロボット(2)を所定位置に移動させず、操作手段(61)を用いて、許可動作が行われると、制御手段(60)にてロボット(2)を所定位置に移動させるステップと、を含んでなることを特徴とする。【選択図】図2

Description

本発明は、ロボット操作システムの動作方法に関する。
従来から、ワークに対して溶接等の作業を行う産業用ロボットを使用するにあたっては、前準備として、目的地へ移動するための動作をロボットに予め記憶させるティーチングが行われる。
ティーチング方法は、一般に、ティーチペンダント(特許文献1の図1参照)を用いたオンラインティーチング方法と、オフラインティーチング方法(特許文献2)という2つの方法が知られている。
オンラインティーチング方法とは、作業現場でワークを直接見ながら、ティーチペンダントを用いてロボットに動作を教示する方法である。
一方、オフラインティーチング方法とは、コンピュータにインストールされているオフラインティーチングソフトを使用して、ワーク、ロボット、周辺の設備のCAD(computer-aided design)データを作成し、画面上に疑似的なワーク、ロボット、周辺の設備の画像を描画した上で、キーボードやマウス等によって作業者に座標位置等のデータを入力させることで、上記ロボットに動作を教示する方法である。
特開2013-132728号公報 特開平9-179624号公報
ところで、前準備としてのティーチングを行うことなく、直接ロボットを動作させたい要請がある(例えば、形状の異なる製品を少数ずつ製造する場合)。しかし、ロボットを直接動作させるにあたり、オンラインティーチング方法のように作業現場でワークを直接見ながら、ティーチペンダントを用いてロボットを動作させることにも、オフラインティーチング方法のようにオフラインティーチングソフトを使用することにも、各々に欠点がある。
まず、オンラインティーチング方法は、難易度の高い作業をおこないつつ、同時に、安全性に配慮する必要があるという欠点がある。
すなわち、まず、ティーチペンダントには、非常に多くのボタンが設けられており、ロボットを移動させたい方向が、所定の3次元座標上のどの方向であるか、また、ロボットをどの速さで移動させるか、等に注意しながら、この複数のボタンを使い分ける必要がある。そのため、ティーチペンダントの操作は、熟練の技術を要する難易度の高い作業である。しかも、このようなティーチペンダントの操作と同時に、ロボットが周辺の設備と干渉しないかについても注意する必要がある。このように、ティーチペンダントを用いたオンラインティーチングは、難易度が高いティーチペンダントの操作と、安全にロボットを移動させるための干渉の有無の確認、という作業を同時にこなす必要がある、という欠点がある。
一方、オフラインティーチング方法は、ティーチペンダントは使用しないものの、コンピュータ上のロボットのCADデータを動かすだけであるから、ロボットを動作させるためのプログラムを生成することはできるが、直接にロボットを動作させることができない。また、当該方法は、ワークや設備のレイアウトに変更があった場合、その変更をオフラインティーチングソフトのCADデータに反映する必要がある、という欠点がある。
そこで、本発明は、上記の問題に鑑み、容易な操作により、ロボットを動作させることができるロボット操作システムの動作方法を提供することを目的としている。
上記本発明の目的は、以下の手段によって達成される。なお、括弧内は、後述する実施形態の参照符号を付したものであるが、本発明はこれに限定されるものではない。
請求項1に記載のロボット操作システムの動作方法は、
ワーク(例えば図2に示すワークW)に対して所定の加工作業を行うロボット(例えば図2に示すロボット2)と、
前記ロボット(例えば図2に示すロボット2)および前記ワーク(例えば図2に示すワークW)を撮像可能な第1カメラ(例えば図2に示す第1カメラ31~39)と、
前記ロボット(例えば図2に示すロボット2)の3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)を格納する3次元モデル格納部(例えば図2に示すROM62)と、
前記第1カメラ(例えば図2に示す第1カメラ31~39)が撮像する前記ロボット(例えば図2に示すロボット2)の画像(例えば図4~6に示す作業現場の画像P1~P3)と3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)とを重ね合わせて表示させる表示部(例えば図2に示す表示部8)と、
前記3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)を操作する操作手段(例えば図2に示す操作端末6の入力部61)と、
前記ロボット(例えば図2に示すロボット2)を制御する制御手段(例えば図2に示すCPU60)と、
を備えたロボット操作システムの動作方法であって、
前記表示部(例えば図2に示す表示部8)に前記ロボット(例えば図4に示すロボット2)と前記3次元モデル(例えば図4に示す3次元モデル9)とが重ね合わさった状態で表示されている該3次元モデル(例えば図4に示す3次元モデル9)を、前記操作手段(例えば図2に示す操作端末6の入力部61)を用いて所定位置に移動させると、それに応じて該3次元モデル(例えば図4に示す3次元モデル9)を所定位置に移動させるものの、前記ロボットは移動せず(例えば図5に示すロボット2)、その移動していない前記ロボット(例えば図5に示すロボット2)と、前記所定位置に移動させた3次元モデル(例えば図5に示す3次元モデル9A)とを前記表示部(例えば図2に示す表示部8)に重ね合わせて表示するステップ(例えば図3に示すステップS4)と、
前記ロボット(例えば図5に示すロボット2)を前記所定位置に移動してよいか判断させるために、作業者に、前記表示部(例えば図2に示す表示部8)の表示を確認させるステップと、
前記3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)が所定位置に移動したとしても、前記操作手段(例えば図2に示す操作端末6の入力部61)を用いて、許可動作(例えば図3に示すステップS6:Y)を行わない限り、前記制御手段(例えば図2に示すCPU60)にて前記ロボット(例えば図2に示すロボット2)を前記所定位置に移動させず、前記操作手段(例えば図2に示す操作端末6の入力部61)を用いて、前記許可動作(例えば図3に示すステップS6:Y)が行われると、前記制御手段(例えば図2に示すCPU60)にて前記ロボット(例えば図2に示すロボット2)を前記所定位置に移動させるステップ(例えば図3に示すステップS7)と、を含んでなることを特徴とする。
請求項2に記載のロボット操作システムの動作方法は、
前記ロボット(例えば図2に示すロボット2)のアーム(例えば図2に示すアーム22)に設けられた作業ツール(例えば図7に示す作業ツール24)の先端部を撮像可能な第2カメラ(例えば図8に示す第2カメラ28)と、
前記ロボット(例えば図2に示すロボット2)が前記ワーク(例えば図2に示すワークW)に対して前記所定の加工作業を行っている際、前記第2カメラ(例えば図8に示す第2カメラ28)を保護する保護部材(例えば図8に示すカメラ筐体28a、遮蔽板28d)と、をさらに備えてなることを特徴とする。
請求項3に記載のロボット操作システムの動作方法は、
前記表示部(例えば図2に示す表示部8)に表示させる画像(例えば図4~6に示す作業現場の画像P1~P3)を制御する表示制御手段(例えば図2に示す撮像処理端末5のCPU50)をさらに備え、
前記第1カメラ(例えば図2に示す第1カメラ31~39)は複数の第1カメラ(例えば図2に示す第1カメラ31~39)であって、
前記表示部(例えば図2に示す表示部8)に表示される前記3次元モデル(例えば図5に示す移動後の3次元モデル9A)の位置情報に基づき、前記表示制御手段(例えば図2に示す撮像処理端末5のCPU50)にて、前記複数の第1カメラ(例えば図2に示す第1カメラ31~39)から1つを選択するステップ(例えば図3に示すステップS103)と、
前記選択された第1カメラ(例えば図2に示す第1カメラ31)によって撮像された画像(例えば図5に示す作業現場の画像P2)を、前記表示制御手段(例えば図2に示す撮像処理端末5のCPU50)にて、前記表示部(例えば図2に示す表示部8)に表示させるステップ(例えば図3に示すステップS104)と、をさらに備えてなることを特徴とする。
請求項4に記載のロボット操作システムの動作方法は、
前記3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)は、前記ロボットのアームに対応する部分(例えば図6に示すロボット2のアーム22に相当する部分の3次元モデル9b)を透過させて、前記表示部(例えば図2に示す表示部8)に表示されてなることを特徴とする。
次に、本発明の効果について、図面の参照符号を付して説明する。なお、括弧内は、後述する実施形態の参照符号を付したものであるが、本発明はこれに限定されるものではない。
請求項1に係る発明によれば、作業者は、ロボット(例えば図2に示すロボット2)を所定位置に移動させるに先立ち、表示部(例えば図2に示す表示部8)にロボット(例えば図2に示すロボット2)と重ね合わさった状態で表示されている3次元モデル(例えば図4に示す3次元モデル9)を所定位置に移動させる。これにより、作業者は、ロボット(例えば図2に示すロボット2)を所定位置に移動させるには3次元モデル(例えば図4に示す3次元モデル9)を所定位置に移動させればよく、難易度が高いティーチペンダントを使用することなく、ロボットを動作することができる。
また、請求項1に係る発明によれば、上記のように移動された、移動後の3次元モデル(例えば図5に示す移動後の3次元モデル9A)は、第1カメラ(例えば図2に示す第1カメラ31~39)が撮像する移動前のロボット(例えば図に示すロボット2)やワーク(例えば図2に示すワークW)、およびその周辺の設備の画像(例えば図5に示す作業現場の画像P2)と重ね合わせて表示される。よって、作業者は、上記のように、3次元モデル(例えば図4に示す3次元モデル9)を所定位置に移動させる操作を完了させてから、移動後の3次元モデル(例えば図5に示す移動後の3次元モデル9A)と重ね合わせで表示される実際のワーク(例えば図2に示すワークW)や周辺の設備を表示部8で目視確認しながら、移動前のロボット(例えば図5に示すロボット2)を移動後の3次元モデル(例えば図5に示す移動後の3次元モデル9A)のように移動させたときに周辺の設備と干渉を生じさせないか等を確認することができる。すなわち、移動の操作と確認作業を同時に行う必要がなく、これら作業を分けて行うことができるから、操作の難易度を下げつつ、安全性を強化することができる。
また、重ね合わせで表示されるのは第1カメラ(例えば図2に示す第1カメラ31~39)が撮像する実際のワーク(例えば図2に示すワークW)や周辺の設備であるから、ワークや周辺の設備のレイアウトに変更があった場合も、従来のオフラインティーチングソフトでは必要であったCADデータの修正等の特別な対応が不要である。
さらに、請求項1に係る発明によれば、作業者が所定位置への移動に問題がないと判断し許可動作(例えば図3に示すステップS6:Y)を行わない限り、制御手段(例えば図2に示すCPU60)は、ロボット(例えば図5に示すロボット2)を移動させない。このため、作業者は、ロボット(例えば図5に示すロボット2)は移動させないまま、3次元モデル(例えば図5に示す移動後の3次元モデル9A)だけを移動する操作をやり直しながら、最適な移動方法を見つけることができる。このとき、ロボット(例えば図5に示すロボット2)は移動させていないから、ロボット(例えば図5に示すロボット2)を一旦元の位置に戻し、移動をやり直す、という手間や工数が発生しない。
もって、請求項1に係る発明によれば、容易な操作により、ロボットを動作させることができるロボット操作システムの動作方法を提供することができる。
請求項2にかかる発明によれば、作業者は、作業ツールの先端部(例えば図7に示す先端部24a)および先端部付近の画像を確認しながら、作業ツールの先端部(例えば図7に示す先端部24a)が、ワーク(例えば図2に示すワークW)を加工作業するのに最適な位置にくるように、アーム(例えば図2に示すアーム22)を移動させることができる。さらに、保護部材(例えば図8に示すカメラ筐体28a、遮蔽板28d)により、溶接のスパッタやアーク光、ドリルの切粉、その他の加工作業の飛散物等から第2カメラ(例えば図8に示す第2カメラ28)を保護することができる。
請求項3にかかる発明によれば、3次元モデル(例えば図5に示す移動後の3次元モデル9A)の位置情報に基づき、第1カメラ(例えば図2に示す第1カメラ31)が選択され、画像(例えば図5に示す作業現場の画像P2)が表示部(例えば図2に示す表示部8)に表示されるから、3次元モデル(例えば図5に示す移動後の3次元モデル9A)の位置情報に対応した作業現場の画像(例えば図5に示す作業現場の画像P2)が表示される。
請求項4にかかる発明によれば、表示部(例えば図2に示す表示部8)に表示される3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)を所定位置に移動させるにあたり、作業ツールの先端部に相当する部分の3次元モデル(例えば図6に示す先端部24aに相当する部分の3次元モデル9a)が、ロボットのアームに対応する部分の3次元モデル(例えば図6に示すアーム22に相当する部分の3次元モデル9b)に隠れてしまい、表示部(例えば図2に示す表示部8)で確認できない、ということが起きない。
本発明の一実施形態に係るロボット操作システムの全体図である。 同実施形態に係るロボット操作システムの全体概略図である。 同実施形態に係るロボット操作システムの動作内容を示すフローチャート図である。 3次元モデルとロボットとが重ね合わさった状態を表示する表示部を示す図である。 3次元モデルを所定位置に移動した状態を表示する表示部を示す図である。 3次元モデルを所定位置に移動した後、作業者が許可動作を行ったことに伴い、ロボットが所定位置に移動した状態を表示する表示部を示す図である。 ロボットアームの先端部にカメラ筐体が取り付けられた状態を示す斜視図である。 (a)はカメラ筐体の縦断面図、(b)はカメラ筐体の遮蔽板が上方に回動した状態を示す縦断面図である。
以下、本発明に係るロボット操作システムの動作方法によるロボット操作システムの一実施形態を、図面を参照して具体的に説明する。なお、以下の説明において、上下左右の方向を示す場合は、図示正面から見た場合の上下左右をいうものとする。
<ロボット操作システムの概要説明>
まず、本実施形態におけるロボット操作システム1の概要を説明する。本実施形態におけるロボット操作システム1は、図1に示すように、ワークW(図2参照)が載置されるターンテーブルTと、溶接や研磨等の所定の加工作業をワークWに行うロボット2が、複数の第1カメラ31~39により撮像される。そして、作業者が、操作端末6(図2参照)を用いて、第1カメラ31~39により撮像されるロボット2やワークW及び周囲の状況を見ながら、ロボット2を操作するものである。
図2を用いて、より具体的に、本実施形態におけるロボット操作システム1の構成について説明する。まず、図2に示すように、ロボット2は、ネットワークNにより、プログラマブルロジックコントローラ(以下、PLC29と呼ぶ)を介して操作端末6と接続されている。一方、第1カメラ31~39は、ネットワークNにより、撮像処理端末5と接続されている。さらに、撮像処理端末5と操作端末6も、ネットワークNにより接続されている。
さらに、撮像処理端末5は投影装置70と、操作端末6は投影装置71と、各々ネットワークNにより接続されている。また、投影装置70からの画像(第1カメラ31~39の撮像画像)と、投影装置71からの画像(操作端末6の表示部64の表示)とが、重ね合わせて表示される表示部8を備える。
ここで、上記のような構成のロボット操作システム1によりロボット2を移動する方法を簡単に説明する。作業者は、まず操作端末6を用いて、操作端末6の表示部64に表示されるロボット2の3次元モデル9(図4参照)を、ドラッグ等の操作により移動させる。これにより、ロボット2やワークW及び周囲の状況と移動後の3次元モデル9Aが表示部8に重ね合わせて表示される(図5参照)。作業者は、表示部8の表示を確認し、ロボット2を移動後の3次元モデル9Aの位置姿勢に移動すると干渉等の問題が生じると判断したら、図示しないキャンセルボタンを押下する。そうすると、ロボット2を移動させないまま、作業者は3次元モデル9の移動をやり直すことができる。一方、ロボット2を移動後の3次元モデル9Aの位置姿勢に移動して問題ないと判断したら、作業者は図示しないOKボタンを押下する。これにより、ロボット2が移動後の3次元モデル9Aの位置まで移動する(図6参照)。
本実施形態におけるロボット操作システムの概要は以上のとおりである。次に、図2の各部について詳細に説明する。
<ロボットの説明>
ロボット2は、6自由度の多関節汎用ロボットである。より詳しく説明すると、このロボット2は、作業場の床等に固定される基台20と、基台20に対して基端が回転可能に連結されているアーム22と、アーム22の先端部22aに取り付けられ、ターンテーブルT上に載置されたワークWに対し、溶接やシーリング、あるいは塗装、切断、研磨、ハンドリング等の作業を行う作業ツール24を備える。なお、本実施形態において、ロボット1は、6軸の多関節汎用ロボットを例示したが、これに限らずどのようなロボットを用いてもよい。
<第1カメラの説明>
第1カメラ31~39は、色彩画像とともに視差画像を撮ることのできるデジタルカメラである。第1カメラ31~39を作業現場に設置するにあたって、本実施形態では、図1に示すように、ロボット2やターンテーブルTが設置される安全柵D内に、カメラ設置枠30を設置している。カメラ設置枠30は、図示右側から第1枠30b、第2枠30c、第3枠30dと、第1枠30b、第2枠30c、第3枠30dを連結する共通横材30aとからなる。第1枠30b、第2枠30c、第3枠30dは、各々、左右1対の縦材と、両縦材の上端間を連結する横材とからなる。共通横材30aは、第1枠30b、第2枠30c、第3枠30dの各横材の中央を連結するように設けられている。
そして、第1枠30bの図示左側の縦材に、第1カメラ31、32が上下に間隔を隔てて設置され、図示右側の縦材に、第1カメラ33、34が上下に間隔を隔てて設置されている。また、第2枠30cの図示左側の縦材に、第1カメラ36が設置され、図示右側の縦材に、第1カメラ37が設置されている。さらに、第2枠30cの左右1対の縦材には、図示左側に向かって延びる部材30c1、30c2が設けられており、その先端部分に第1カメラ38、39が設置されている。
<第2カメラの説明>
アーム22の先端部22aには、図2には表れていないが、図8に示す第2カメラ28が設けられる。より詳しくは、図7に示すように、アーム22の先端部22aに、作業ツール24を取り付けるための取付ブラケット26が設けられる。この取付ブラケット26を横方向に延長させた部分に、カメラ筐体28aがビスなどで取り付け固定されている。このカメラ筐体28aは、図8(a)に示すように、中空状に形成されると共に、断面視弾頭状に形成されている。そして、このようなカメラ筐体28aの前部(図示左部)には、図8(b)に示すように、開口部28bが形成されている。この開口部28bは、図8に示すように、カメラ筐体28aの前部(図示左部)に設けられている回転軸28cを基点として回転可能に取り付けられている遮蔽板28dにて、開閉できるようになっている。なお、この回転軸28cは、図示はしないが、ソレノイドなどで駆動できるようなっている。
かくして、このようなカメラ筐体28a内には、図8に示すように第2カメラ28が設置固定されており、作業ツール24の先端部24aを撮像できるようになっている。
なお、図示しないが、この第2カメラ28は操作端末6(図2参照)と通信可能に接続されている。
<撮像処理端末の説明>
撮像処理端末5は、例えばPC(Personal Computer)で構成される、情報処理装置である。具体的には、図2に示すように、CPU50と、マウスやキーボード、タッチパネル、或いは、USBコネクタ、Lightningコネクタ等を用いて外部から所定データを撮像処理端末5に入力することができる入力部51と、所定のアプリケーションプログラム等を格納した書込み可能なフラッシュROM等からなるROM52と、作業領域やバッファメモリ等として機能するRAM53と、種々の画像を表示可能な表示部54と、無線LAN,有線LAN,ダイヤルアップ等の通信手段でネットワークNに接続が可能な通信部55と、で構成されている。
<操作端末の説明>
操作端末6は、例えばPC(Personal Computer)で構成される、情報処理装置である。具体的には、撮像処理端末5と同様の構成を備え、図2に示すように、CPU60、入力部61、ROM62と、RAM63、表示部64、通信部65と、で構成されている。なお、ROM62には、本実施形態により作業者がロボット2を移動するのに使用するロボット操作用プログラム、及び、そのプログラムにおいて使用される3次元モデル9(図4参照)が格納される。
<表示部の説明>
表示部8は、一つのスクリーンからなる。表示部8には、撮像処理端末5が第1カメラ31~39のうち選択した1つの第1カメラ31~39から受信した画像と、操作端末6において作業者により起動されたロボット操作用プログラムが表示部64に表示された画面とが、投影装置70と投影装置71とにより、各々表示部8上に投影され、重ね合わせて表示される。
<ロボット操作システムの使用例の説明>
上記のように構成される、ロボット操作システム1の動作方法の使用例について、図3を参照して具体的に説明する。なお、以下の内容はあくまで一例であり、これに限定されるものではない。
図2に示す撮像処理端末5のCPU50(以下、撮像処理端末5と省略することがある)は、入力部51を介して作業者から指示を受け、図2に示す第1カメラ31~39の画像の受信を開始する(ステップS101)。
次に、撮像処理端末5は、図2に示す第1カメラ31~39から受信した画像のうち、所定の1つの第1カメラの画像を投影装置70に送信し、図2に示す表示部8に表示させる(ステップS102)。なお、最初にいずれの第1カメラの画像を表示部8に表示させるかは、撮像処理端末5のROM52に予め記憶しておけばよい。ここでは、第1カメラ31が撮像する画像P1(図4参照)を表示部8に表示させるものとする。
一方、図2に示す操作端末6のCPU60(以下、操作端末6と省略することがある)は、ROM62に格納されるロボット操作用プログラムを起動する(ステップS1)。
次に、操作端末6は、操作端末6のROM62に格納される3次元モデル9(図4参照)を読み出す(ステップS2)。
次に、操作端末6は、図4に示すように、ROM62から読みだした3次元モデル9を、表示部8に表示し、撮像処理端末5により表示部8に表示される画像P1のロボット2に重ね合わせる(ステップS3)。具体的には、操作端末6は、ロボット2やワークWが配置される作業現場に対応する仮想空間を、3次元座標空間として生成し、ステップS2にて読みだした3次元モデル9を、仮想空間内に配置する。そして、操作端末6は、仮想空間内の、第1カメラ31に対応する位置から見た3次元モデル9を描写し、表示部8(あるいは操作端末6の表示部64)に表示させる。
次に、操作端末6は、作業者の操作に従い、3次元モデル9(図4参照)を移動させる(ステップS4)。具体的には、作業者は、表示部8を見ながら、ロボット2と重ね合わされた状態の3次元モデル9(図4参照)を、入力部61を用いた所定の操作(例えばマウスによるドラッグ・アンド・ドロップ)により、3次元モデル9を所望の位置姿勢になるよう、移動する操作を行う。操作端末6は、この作業者の操作に従い、3次元モデル9を移動させる。その結果、3次元モデル9は、図5に示す移動後の3次元モデル9Aのように、作業現場の画像P2のロボット2とは異なる位置姿勢を取った状態が、表示部8に表示される。
次に、操作端末6は、表示部8に表示される3次元モデル9の位置情報(仮想空間内のどの位置から見た3次元モデル9を描写し、表示部8(あるいは操作端末6の表示部64)に表示させているか)を、撮像処理端末5に送信する(ステップS5)。
この点について詳しく説明すると、操作端末6は、仮想空間内の任意の位置からから見た3次元モデル9を描写し、表示部8(あるいは操作端末6の表示部64)に表示させることができる。このため、作業者は、ステップS4において3次元モデル9を移動させるにあたり、側面側から見た3次元モデル9(図4参照)だけでなく、上や斜め下から見た3次元モデル9(図示せず)を表示部8(あるいは操作端末6の表示部64)に表示させ、確認することができる。
ステップS5では、この、仮想空間内のどの位置から見た3次元モデル9を描写し、表示部8(あるいは操作端末6の表示部64)に表示させているかの位置情報(例えば3次元座標)を、操作端末6が撮像処理端末5に送信するものである。
次に、撮像処理端末5(図2参照)は、受信した位置情報に基づき、表示部8(図2参照)に表示させる画像の受信元となる第1カメラを、第1カメラ31~39(図2参照)から1つ選択する(ステップS103)。具体的には、操作端末6は、例えば、位置情報がしきい値A以上B未満の場合は第1カメラ31、しきい値B以上C未満の場合は第1カメラ32、・・・というように、予め、操作端末6から受信する位置情報と、第1カメラ31~39を対応付けて記憶する。そして、受信した位置情報に対応する第1カメラを第1カメラ31~39から選択する。ここでは、第1カメラ31が選択されたものとする。
撮像処理端末5は、上記のようにして選択した第1カメラ31の画像を受信し、投影装置70を介して表示部8に表示する。
次に、操作端末6は、OKボタン(図示せず)が押下されるかどうかを検出する(ステップS6)。具体的には、作業者は、図5に示すように、表示部8に表示される移動後の3次元モデル9A、および、作業現場の画像P2のロボット2、ワークW、及び周囲の状況を確認する。そして、作業者は、移動後の3次元モデル9Aの通りロボット2を移動させたときに、作業現場の周辺の設備との干渉を生じさせないかを確認する。
さらに、作業者は、ロボット2が取ることができる位置姿勢となっているかも確認する。なお、操作端末6は、ロボット2の取ることができる位置姿勢の範囲を予めROM62に記憶しておいてもよい。そして、作業者がこの範囲を越える位置姿勢を取るよう3次元モデル9を移動させた場合、ロボット2が取ることができない位置姿勢となっていると判断し、操作端末6は3次元モデル9の色を所定の色(例えば赤色)に変色させ、作業者への注意喚起や操作の取り消し等を行ってもよい。
次に、操作端末6は、作業者がキャンセルボタン(図示せず)を押下した場合(ステップS6:N)、ステップS4に戻る。具体的には、作業者は、ロボット2を移動後の図5に示す3次元モデル9Aの位置姿勢に移動させないと判断したため、キャンセルボタン(図示せず)を押下する。これを受け、操作端末6は、ロボット2は移動後の3次元モデル9Aの位置に移動させずステップS4に戻り、再度、作業者の操作に従い3次元モデル9を移動させる。
一方、操作端末6は、作業者によりOKボタン(図示せず)が押下されたことを検出した場合(ステップS6:Y)、ロボット2を移動させる(ステップS7)。具体的には、操作端末6は、図5に示す移動後の3次元モデル9Aの位置姿勢を示すパラメータをPLC29に送信し、OKボタン(図示せず)の押下が続いている間(長押しされている間)、ロボット2を移動後の3次元モデル9Aの位置姿勢に移動するよう制御する。その結果、図6に示すように、ロボット2が移動後の3次元モデル9Aに重なる位置姿勢となる。
なお、作業者は、ロボット2が移動中に周囲の装置等と干渉しそうになったら、長押ししているOKボタン(図示せず)を離すことで、干渉を回避することができる。
次に、操作端末6は、図7に示す第2カメラ28の画像を受信し、表示させる(ステップS8)。すなわち、作業者は、第1カメラ31の画像(図6参照)では、作業ツール24の先端部24aとワークWとの位置関係が詳細に確認できない場合がある。そのため、操作端末6は、第2カメラ28に作業ツール24の先端部24aやワークWを撮像させ、撮像した画像を第2カメラ28から受信し、表示部8(あるいは操作端末6の表示部64)に表示させる(図示せず)。これにより、作業者は、作業ツール24の先端部24aとワークWの位置をより詳細に確認し、より正確に、先端部24aをワークWの所定位置に移動させることができる。なお、この際、PLC29は、図8に示す回転軸28cを回転させて、カメラ筐体28aの遮蔽板28dを回動させ、図8(b)に示すように、開口部28bを開放するようにしている。
次に、操作端末6は、ロボット2に対し溶接等の加工作業を指示する(ステップS9)。具体的には、操作端末6は、ロボット操作プログラムあるいはその他の所定のプログラムにより、ロボット2に溶接等の加工作業を指示する。この際、PLC29は、図8に示す回転軸28cを回転させて、カメラ筐体28aの遮蔽板28dを回動させ、図8(a)に示すように、開口部28bを閉止するようにしている。これにより、加工作業の間、溶接のスパッタやアーク光、ドリルの切粉、その他の加工作業の飛散物等から第2カメラ28を保護することができる。
所定の加工作業が終了したら、撮像処理端末5および操作端末6は処理を終了する。
なお、この後、異なる形状のワークWに対し処理を行う場合、作業者は、その異なる形状のワークWをターンテーブルTに載置すればよい。図2に示す第1カメラ31~39がそのワークWを撮像するから、作業者は表示部8にてそのワークWを確認しながら、上述の動作方法にてロボット2を動作させることができる。
したがって、以上説明してきた本実施形態によれば、容易な操作により、ロボットを動作させることができるロボット操作システムの動作方法を提供することができる。
すなわち、従来から、作業現場でワークを直接見ながら、ティーチペンダントを用いてロボットを動作させることは可能であったが、難易度が高いティーチペンダントの操作と、安全にロボットを移動させるための干渉の有無の確認、という作業を同時にこなす必要がある。一方、オフラインティーチングソフトはティーチペンダントを使用しないものの、コンピュータ上のロボットのCADデータを動かすだけであるから、実際にロボットを移動させることができない。また、ワークや設備のレイアウトに変更があった場合、その変更をオフラインティーチングソフトのCADデータに反映する必要がある。
しかし、本実施形態によれば、表示部8に表示される3次元モデル9を、マウスなどの入力部61で操作することによりロボットを所定位置に移動させる事ができるから、ティーチペンダントを操作することなく、オフラインティーチングソフトのような容易な操作により、ロボットを動作させることができる。
また、本実施形態によれば、3次元モデル9と、第1カメラ31~39が撮像する作業現場の画像P2と重ね合わせて表示される。このため、3次元モデル9を移動させてから、その3次元モデル9と、実際のワークWや周辺の設備を目視確認しながら、周辺の設備と干渉を生じさせないか等を確認することができる。すなわち、移動の操作と確認作業を同時に行う必要がなく、これら作業を分けて行うことができる。なお、ワークWや周辺の設備のレイアウトに変更があった場合、作業現場の画像P2にて即時にその変更が確認でき、アプリケーションにてCADデータを修正する等の必要はない。
さらに、本実施形態によれば、移動した3次元モデル9と、実際のワークWや周辺の設備を目視確認した結果、周辺の設備と干渉しそう等の好ましくない状態になることがわかった場合、キャンセルボタンを押下し、3次元モデル9の移動をやり直す事ができる。このように、ロボット2は移動させないまま、3次元モデル9Aだけを移動する操作をやり直しながら、最適な移動方法を見つけることができる。このとき、ロボット2は移動させていないから、ロボット2を一旦元の位置に戻し、移動をやり直す、という手間や工数が発生しない。
以上のことより、本実施形態によれば、オンラインティーチング方法、オフラインティーチング方法それぞれの欠点を克服し、なおかつ利点を利用し、容易な操作によりロボットを動作させることができるロボット操作システムの動作方法とすることができる。
<変形例の説明>
なお、本実施形態において示したロボット操作システム1の動作方法はあくまで一例であり、特許請求の範囲に記載された本発明の要旨の範囲内において種々の変形・変更が可能である。例えば、本実施形態においては、遮蔽板28dを例示したが、それに限らず、遮光板を用いても良い。このようにすれば、溶接のスパッタやアーク光、ドリルの切粉、その他の加工作業の飛散物等からカメラ28を保護しつつ、カメラ28にて、その加工作業を撮像することもできる。
また、本実施形態において例示したカメラ筐体28aは、あくまで一例であり、どのような形状でも良く。要は、溶接のスパッタやアーク光、ドリルの切粉、その他の加工作業の際に生じる飛散物等からカメラ28を保護できれば良い。
また、本実施形態においては、3次元モデル9は全体が単色にて表されるが、操作端末6は、図6に示すロボット2のアーム22に対応する部分の3次元モデル9bを透過させて、表示部8(あるいは操作端末6の表示部64)に表示させても良い。このようにすれば、図6に示す作業ツール24の先端部24aに相当する部分の3次元モデル9aが、ロボット2のアーム22に相当する部分の3次元モデル9bに隠れて見えない、ということがない。
また、本実施形態においては、撮像処理端末5と操作端末6は2台の情報処理装置である。このように2台に分けた場合、処理速度が速いという利点がある。しかし、撮像処理端末5と操作端末6の両方の処理を1台の情報処理装置で行っても良い。
上記のように撮像処理端末5と操作端末6の両方の処理を1台の情報処理装置で行うにあたっては、第1カメラ31~39が撮像した画像をその情報処理装置に受信させ、受信した画像に3次元モデル9をその情報処理装置内で重ね合わせたものを、操作端末6の表示部64あるいは表示部8に表示させても良い。
また、本実施形態においては、表示部8は、一つのスクリーンとしたが、一つのモニターとしても良い。その場合、撮像処理端末5とモニターをモニターケーブル(図示せず)で接続し、撮像処理端末5の画像をモニターに表示させても良い。そして、操作端末6において作業者により起動されたロボット操作用プログラムが表示部64に表示された画面を、投影装置71により表示部8上に投影し、モニターに表示される画像に重ね合わせてもよい。
また、本実施形態においては、ステップS103において、撮像処理端末5が表示部8に表示する画像の受信元となる第1カメラを、第1カメラ31~39から1つ選択したが、自由視点画像を生成し、表示部8に表示させても良い。
撮像処理端末5が自由視点画像を生成するには、例えば次のように行う。
まず、撮像処理端末5は、仮想空間内のどの位置から見た3次元モデル9を描写し、表示部8(あるいは操作端末6の表示部64)に表示させているかの位置情報(例えば3次元座標)を操作端末6から受信する(ステップS5参照)。
次に、撮像処理端末5は、受信した位置情報が、作業現場のどの位置に相当するかを算出し、この算出した位置から見た画像となるよう、第1カメラ31~39から受信する画像をキャリブレーションする。なお、仮想空間内の位置を示す位置情報を、作業現場の位置に変換するにあたっては、例えば透視投影行列を利用した方法など、公知の変換方法を利用して算出すれば良い。
最後に、撮像処理端末5は、上記のようにして得られた各画像を合成した画像(自由視点画像)を、表示部8に表示させる。
上記のようにして、自由視点画像を生成し、表示部8に表示させても良い。
さらに、自由視点画像を生成するのではなく、第1カメラ31~39を移動させるようにしてもよい。
具体的には、ステップS5において撮像処理端末5が操作端末6から受信した位置情報が、作業現場のどの位置に相当するかを算出し、この算出した位置に移動できる第1カメラを第1カメラ31~39から選択し、選択した第1カメラ31~39を算出した位置に移動させ、画像を表示部8に表示させる。
上記のようにして、第1カメラ31~39のうち任意の1つの第1カメラを移動させて、表示部8に表示させても良い。なお、本実施形態においては、ターンテーブルTを例示したが、それに限らず、2軸ポジショナなど、どのようなものにも適用可能である。
2 ロボット
22 アーム
24 作業ツール
28 第2カメラ
28a カメラ筐体28(保護部材)
28d 遮蔽板(保護部材)
31~39 第1カメラ
50 撮像処理端末5のCPU(表示制御手段)
60 操作端末6のCPU(制御手段)
61 操作端末6の入力部(操作手段)
62 操作端末6のROM(3次元モデル格納部)
8 表示部
9、9A 3次元モデル
9b アーム22に相当する部分の3次元モデル
W ワーク
P1~P3 作業現場の画像

Claims (4)

  1. ワークに対して所定の加工作業を行うロボットと、
    前記ロボットおよび前記ワークを撮像可能な第1カメラと、
    前記ロボットの3次元モデルを格納する3次元モデル格納部と、
    前記第1カメラが撮像する前記ロボットの画像と3次元モデルとを重ね合わせて表示させる表示部と、
    前記3次元モデルを操作する操作手段と、
    前記ロボットを制御する制御手段と、
    を備えたロボット操作システムの動作方法であって、
    前記表示部に前記ロボットと前記3次元モデルとが重ね合わさった状態で表示されている該3次元モデルを、前記操作手段を用いて所定位置に移動させると、それに応じて該3次元モデルが所定位置に移動するステップと、
    前記表示部に表示された前記3次元モデルを、前記操作手段を用いて所定位置に移動させると、それに応じて該3次元モデル所定位置に移動させるものの、前記ロボットは移動せず、その移動していない前記ロボットと、前記所定位置に移動させた3次元モデルとを前記表示部に重ね合わせて表示するステップと、
    前記ロボットを前記所定位置に移動してよいか判断させるために、作業者に、前記表示部の表示を確認させるステップと、
    前記3次元モデルが所定位置に移動したとしても、前記操作手段を用いて、許可動作を行わない限り、前記制御手段にて前記ロボットを前記所定位置に移動させず、前記操作手段を用いて、前記許可動作が行われると、前記制御手段にて前記ロボットを前記所定位置に移動させるステップと、を含んでなるロボット操作システムの動作方法。
  2. 前記ロボットのアームに設けられた作業ツールの先端部を撮像可能な第2カメラと、
    前記ロボットが前記ワークに対して前記所定の加工作業を行っている際、前記第2カメラを保護する保護部材と、をさらに備えてなる、請求項1に記載のロボット操作システムの動作方法。
  3. 前記表示部に表示させる画像を制御する表示制御手段をさらに備え、
    前記第1カメラは複数の第1カメラであって、
    前記表示部に表示される前記3次元モデルの位置情報に基づき、前記表示制御手段にて、前記複数の第1カメラから1つを選択するステップと、
    前記選択された第1カメラによって撮像された画像を、前記表示制御手段にて、前記表示部に表示させるステップと、をさらに備えてなる、請求項1に記載のロボット操作システムの動作方法。
  4. 前記3次元モデルは、前記ロボットのアームに対応する部分を透過させて、前記表示部に表示されてなる、請求項1に記載のロボット操作システムの動作方法。
JP2022180752A 2022-11-11 2022-11-11 ロボット操作システムの動作方法 Active JP7364285B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022180752A JP7364285B1 (ja) 2022-11-11 2022-11-11 ロボット操作システムの動作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022180752A JP7364285B1 (ja) 2022-11-11 2022-11-11 ロボット操作システムの動作方法

Publications (2)

Publication Number Publication Date
JP7364285B1 true JP7364285B1 (ja) 2023-10-18
JP2024070336A JP2024070336A (ja) 2024-05-23

Family

ID=88328402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022180752A Active JP7364285B1 (ja) 2022-11-11 2022-11-11 ロボット操作システムの動作方法

Country Status (1)

Country Link
JP (1) JP7364285B1 (ja)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003127078A (ja) 2001-10-19 2003-05-08 Komatsu Ltd 作業ロボットの教示装置および教示方法。
JP2009241247A (ja) 2008-03-10 2009-10-22 Kyokko Denki Kk ステレオ画像型検出移動装置
JP2011251395A (ja) 2010-06-04 2011-12-15 Takamaru Kogyo Kk ロボット教示システム
JP2013132728A (ja) 2011-12-27 2013-07-08 Kawasaki Heavy Ind Ltd ティーチペンダント
JP2016159369A (ja) 2015-02-26 2016-09-05 三菱重工業株式会社 加工システム及び工具装着方法
JP2018183845A (ja) 2017-04-26 2018-11-22 ファナック株式会社 ロボットを操作するための操作装置、ロボットシステム、および操作方法
JP2020043497A (ja) 2018-09-11 2020-03-19 キヤノン株式会社 撮像装置
JP2020055075A (ja) 2018-10-02 2020-04-09 ファナック株式会社 拡張現実と複合現実を用いたロボット制御装置及び表示装置
JP2020075354A (ja) 2018-11-01 2020-05-21 キヤノン株式会社 外部入力装置、ロボットシステム、ロボットシステムの制御方法、制御プログラム、及び記録媒体
JP2020516475A (ja) 2017-04-13 2020-06-11 バテル・メモリアル・インスティテュートBattelle Memorial Institute 産業ロボットマニピュレータのための教示モード衝突回避システムおよび方法
WO2020116041A1 (ja) 2018-12-05 2020-06-11 ミツミ電機株式会社 撮像デバイス、撮像システム、および産業用ロボット
JP2021000678A (ja) 2019-06-20 2021-01-07 オムロン株式会社 制御システムおよび制御方法
JP2021084192A (ja) 2019-11-28 2021-06-03 セイコーエプソン株式会社 ロボット

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3158032B2 (ja) * 1995-12-27 2001-04-23 本田技研工業株式会社 オフラインティーチングシステム

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003127078A (ja) 2001-10-19 2003-05-08 Komatsu Ltd 作業ロボットの教示装置および教示方法。
JP2009241247A (ja) 2008-03-10 2009-10-22 Kyokko Denki Kk ステレオ画像型検出移動装置
JP2011251395A (ja) 2010-06-04 2011-12-15 Takamaru Kogyo Kk ロボット教示システム
JP2013132728A (ja) 2011-12-27 2013-07-08 Kawasaki Heavy Ind Ltd ティーチペンダント
JP2016159369A (ja) 2015-02-26 2016-09-05 三菱重工業株式会社 加工システム及び工具装着方法
JP2020516475A (ja) 2017-04-13 2020-06-11 バテル・メモリアル・インスティテュートBattelle Memorial Institute 産業ロボットマニピュレータのための教示モード衝突回避システムおよび方法
JP2018183845A (ja) 2017-04-26 2018-11-22 ファナック株式会社 ロボットを操作するための操作装置、ロボットシステム、および操作方法
JP2020043497A (ja) 2018-09-11 2020-03-19 キヤノン株式会社 撮像装置
JP2020055075A (ja) 2018-10-02 2020-04-09 ファナック株式会社 拡張現実と複合現実を用いたロボット制御装置及び表示装置
JP2020075354A (ja) 2018-11-01 2020-05-21 キヤノン株式会社 外部入力装置、ロボットシステム、ロボットシステムの制御方法、制御プログラム、及び記録媒体
WO2020116041A1 (ja) 2018-12-05 2020-06-11 ミツミ電機株式会社 撮像デバイス、撮像システム、および産業用ロボット
JP2021000678A (ja) 2019-06-20 2021-01-07 オムロン株式会社 制御システムおよび制御方法
JP2021084192A (ja) 2019-11-28 2021-06-03 セイコーエプソン株式会社 ロボット

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
浅見 瞭 Ryo ASAMI,視触覚融合提示システムを用いたクローラ型レスキューロボットの移動操作 Visual-haptic Fusion System for Moving Operation of Tracked Rescue Robot,ロボティクスメカトロニクス講演会2016講演会論文集 ,日本,一般社団法人日本機械学会,2016年06月08日

Also Published As

Publication number Publication date
JP2024070336A (ja) 2024-05-23

Similar Documents

Publication Publication Date Title
JP6725727B2 (ja) 3次元ロボットワークセルデータの表示システム、表示方法及び表示装置
JP7490349B2 (ja) 入力装置、入力装置の制御方法、ロボットシステム、ロボットシステムを用いた物品の製造方法、制御プログラム及び記録媒体
US10737396B2 (en) Method and apparatus for robot path teaching
JP6787966B2 (ja) 拡張現実と複合現実を用いたロボット制御装置及び表示装置
US10980606B2 (en) Remote-control manipulator system and method of operating the same
EP1462896B1 (en) Robot teaching device
JP4167940B2 (ja) ロボットシステム
EP1512499A2 (en) Robot having a camera mounted at the distal end of its arm and method for operating such a robot
US11731283B2 (en) Method for checking a safety area of a robot
US20150298318A1 (en) Teleoperation Of Machines Having At Least One Actuated Mechanism
JP2008254150A (ja) ロボットの教示装置及び教示方法
JP2019042843A (ja) ロボットシステム及びその運転方法
US20240269857A1 (en) Robot system, control apparatus of robot system, control method of robot system, imaging apparatus, and storage medium
JP7364285B1 (ja) ロボット操作システムの動作方法
JP6905651B1 (ja) ロボットシステム及びワークの3次元モデルの形成方法
JP6917551B2 (ja) ロボット制御方法およびロボット
JPS6334093A (ja) 視覚装置
JP6990340B2 (ja) ロボットシステム
JP7493816B2 (ja) ロボット、システム、方法及びプログラム
JPH1177568A (ja) 教示支援方法及び装置
WO2022004774A1 (ja) 表示システム及びロボットシステム
US20220226982A1 (en) Method Of Creating Control Program For Robot, System Executing Processing Of Creating Control Program For Robot, And Non-Transitory Computer-Readable Storage Medium
US20220214685A1 (en) Remote operating device
JP2024083061A (ja) 教示データ蓄積装置
JPH05245791A (ja) ロボットの制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230928

R150 Certificate of patent or registration of utility model

Ref document number: 7364285

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150