JP7364285B1 - How the robot handling system works - Google Patents
How the robot handling system works Download PDFInfo
- Publication number
- JP7364285B1 JP7364285B1 JP2022180752A JP2022180752A JP7364285B1 JP 7364285 B1 JP7364285 B1 JP 7364285B1 JP 2022180752 A JP2022180752 A JP 2022180752A JP 2022180752 A JP2022180752 A JP 2022180752A JP 7364285 B1 JP7364285 B1 JP 7364285B1
- Authority
- JP
- Japan
- Prior art keywords
- robot
- dimensional model
- operating
- camera
- predetermined position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011017 operating method Methods 0.000 claims abstract description 6
- 238000012545 processing Methods 0.000 claims description 47
- 238000000034 method Methods 0.000 claims description 33
- 238000003754 machining Methods 0.000 claims description 3
- 238000003860 storage Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 6
- 238000003384 imaging method Methods 0.000 description 31
- 230000033001 locomotion Effects 0.000 description 21
- 238000003466 welding Methods 0.000 description 9
- 238000011960 computer-aided design Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000010365 information processing Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005498 polishing Methods 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 230000001681 protective effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000005553 drilling Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】ロボット操作に発生する手間や工数を低減させることができるロボット操作システムの動作方法を提供することを目的としている。【解決手段】表示部(8)に表示された3次元モデル(9)を、操作手段(61)を用いて所定位置に移動させると、それに応じて該3次元モデル(9)が所定位置に移動するステップと、3次元モデル(9)が所定位置に移動したとしても、操作手段(61)を用いて、許可動作を行わない限り、制御手段(60)にてロボット(2)を所定位置に移動させず、操作手段(61)を用いて、許可動作が行われると、制御手段(60)にてロボット(2)を所定位置に移動させるステップと、を含んでなることを特徴とする。【選択図】図2An object of the present invention is to provide an operating method for a robot operation system that can reduce the effort and man-hours required for robot operation. [Solution] When a three-dimensional model (9) displayed on a display section (8) is moved to a predetermined position using an operating means (61), the three-dimensional model (9) is moved to a predetermined position accordingly. Even if the moving step and the three-dimensional model (9) move to a predetermined position, the control means (60) will keep the robot (2) at the predetermined position unless a permission operation is performed using the operating means (61). The robot (2) is moved to a predetermined position by the control means (60) when a permission operation is performed using the operation means (61) without moving the robot (2) to the robot (2). . [Selection diagram] Figure 2
Description
本発明は、ロボット操作システムの動作方法に関する。 The present invention relates to a method of operating a robot operating system.
従来から、ワークに対して溶接等の作業を行う産業用ロボットを使用するにあたっては、前準備として、目的地へ移動するための動作をロボットに予め記憶させるティーチングが行われる。 BACKGROUND OF THE INVENTION Conventionally, before using an industrial robot that performs work such as welding on a workpiece, teaching is performed to make the robot memorize the motions for moving to a destination in advance as a preparation.
ティーチング方法は、一般に、ティーチペンダント(特許文献1の図1参照)を用いたオンラインティーチング方法と、オフラインティーチング方法(特許文献2)という2つの方法が知られている。 Generally, two teaching methods are known: an online teaching method using a teach pendant (see FIG. 1 of Patent Document 1) and an offline teaching method (Patent Document 2).
オンラインティーチング方法とは、作業現場でワークを直接見ながら、ティーチペンダントを用いてロボットに動作を教示する方法である。 The online teaching method is a method in which a robot is taught operations using a teach pendant while directly viewing the workpiece at the work site.
一方、オフラインティーチング方法とは、コンピュータにインストールされているオフラインティーチングソフトを使用して、ワーク、ロボット、周辺の設備のCAD(computer-aided design)データを作成し、画面上に疑似的なワーク、ロボット、周辺の設備の画像を描画した上で、キーボードやマウス等によって作業者に座標位置等のデータを入力させることで、上記ロボットに動作を教示する方法である。 On the other hand, the offline teaching method uses offline teaching software installed on a computer to create CAD (computer-aided design) data of the workpiece, robot, and surrounding equipment, and displays a pseudo-workpiece on the screen. This is a method of teaching the robot how to operate by drawing an image of the robot and surrounding equipment and having the worker input data such as coordinate positions using a keyboard, mouse, etc.
ところで、前準備としてのティーチングを行うことなく、直接ロボットを動作させたい要請がある(例えば、形状の異なる製品を少数ずつ製造する場合)。しかし、ロボットを直接動作させるにあたり、オンラインティーチング方法のように作業現場でワークを直接見ながら、ティーチペンダントを用いてロボットを動作させることにも、オフラインティーチング方法のようにオフラインティーチングソフトを使用することにも、各々に欠点がある。 By the way, there is a demand for directly operating a robot without performing preparatory teaching (for example, when manufacturing a small number of products with different shapes). However, when operating the robot directly, there are two methods: the online teaching method, in which the robot is directly viewed at the work site and a teach pendant, and the offline teaching method, in which the robot is operated using a teach pendant. There are also drawbacks to each.
まず、オンラインティーチング方法は、難易度の高い作業をおこないつつ、同時に、安全性に配慮する必要があるという欠点がある。 First, the online teaching method has the disadvantage that it requires consideration of safety while performing highly difficult tasks.
すなわち、まず、ティーチペンダントには、非常に多くのボタンが設けられており、ロボットを移動させたい方向が、所定の3次元座標上のどの方向であるか、また、ロボットをどの速さで移動させるか、等に注意しながら、この複数のボタンを使い分ける必要がある。そのため、ティーチペンダントの操作は、熟練の技術を要する難易度の高い作業である。しかも、このようなティーチペンダントの操作と同時に、ロボットが周辺の設備と干渉しないかについても注意する必要がある。このように、ティーチペンダントを用いたオンラインティーチングは、難易度が高いティーチペンダントの操作と、安全にロボットを移動させるための干渉の有無の確認、という作業を同時にこなす必要がある、という欠点がある。 First of all, the teach pendant is equipped with a large number of buttons that let you know which direction you want the robot to move in on the predetermined three-dimensional coordinates, and how fast you want the robot to move. You need to use these multiple buttons properly, paying attention to whether or not to Therefore, operating the teach pendant is a highly difficult task that requires skill. Furthermore, while operating the teach pendant, care must also be taken to ensure that the robot does not interfere with surrounding equipment. In this way, online teaching using a teach pendant has the disadvantage that it is necessary to simultaneously operate the teach pendant, which is highly difficult, and check for interference in order to move the robot safely. .
一方、オフラインティーチング方法は、ティーチペンダントは使用しないものの、コンピュータ上のロボットのCADデータを動かすだけであるから、ロボットを動作させるためのプログラムを生成することはできるが、直接にロボットを動作させることができない。また、当該方法は、ワークや設備のレイアウトに変更があった場合、その変更をオフラインティーチングソフトのCADデータに反映する必要がある、という欠点がある。 On the other hand, the offline teaching method does not use a teach pendant, but only moves the robot's CAD data on the computer, so it is possible to generate a program to operate the robot, but it is not possible to directly operate the robot. I can't. Furthermore, this method has a drawback in that if there is a change in the layout of the workpiece or equipment, the change needs to be reflected in the CAD data of the offline teaching software.
そこで、本発明は、上記の問題に鑑み、容易な操作により、ロボットを動作させることができるロボット操作システムの動作方法を提供することを目的としている。 SUMMARY OF THE INVENTION In view of the above problems, it is an object of the present invention to provide a method for operating a robot operating system that allows a robot to operate with easy operation.
上記本発明の目的は、以下の手段によって達成される。なお、括弧内は、後述する実施形態の参照符号を付したものであるが、本発明はこれに限定されるものではない。 The above object of the present invention is achieved by the following means. Note that reference numerals of embodiments to be described later are given in parentheses, but the present invention is not limited thereto.
請求項1に記載のロボット操作システムの動作方法は、
ワーク(例えば図2に示すワークW)に対して所定の加工作業を行うロボット(例えば図2に示すロボット2)と、
前記ロボット(例えば図2に示すロボット2)および前記ワーク(例えば図2に示すワークW)を撮像可能な第1カメラ(例えば図2に示す第1カメラ31~39)と、
前記ロボット(例えば図2に示すロボット2)の3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)を格納する3次元モデル格納部(例えば図2に示すROM62)と、
前記第1カメラ(例えば図2に示す第1カメラ31~39)が撮像する前記ロボット(例えば図2に示すロボット2)の画像(例えば図4~6に示す作業現場の画像P1~P3)と3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)とを重ね合わせて表示させる表示部(例えば図2に示す表示部8)と、
前記3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)を操作する操作手段(例えば図2に示す操作端末6の入力部61)と、
前記ロボット(例えば図2に示すロボット2)を制御する制御手段(例えば図2に示すCPU60)と、
を備えたロボット操作システムの動作方法であって、
前記表示部(例えば図2に示す表示部8)に前記ロボット(例えば図4に示すロボット2)と前記3次元モデル(例えば図4に示す3次元モデル9)とが重ね合わさった状態で表示されている該3次元モデル(例えば図4に示す3次元モデル9)を、前記操作手段(例えば図2に示す操作端末6の入力部61)を用いて所定位置に移動させると、それに応じて該3次元モデル(例えば図4に示す3次元モデル9)を所定位置に移動させるものの、前記ロボットは移動せず(例えば図5に示すロボット2)、その移動していない前記ロボット(例えば図5に示すロボット2)と、前記所定位置に移動させた3次元モデル(例えば図5に示す3次元モデル9A)とを前記表示部(例えば図2に示す表示部8)に重ね合わせて表示するステップ(例えば図3に示すステップS4)と、
前記ロボット(例えば図5に示すロボット2)を前記所定位置に移動してよいか判断させるために、作業者に、前記表示部(例えば図2に示す表示部8)の表示を確認させるステップと、
前記3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)が所定位置に移動したとしても、前記操作手段(例えば図2に示す操作端末6の入力部61)を用いて、許可動作(例えば図3に示すステップS6:Y)を行わない限り、前記制御手段(例えば図2に示すCPU60)にて前記ロボット(例えば図2に示すロボット2)を前記所定位置に移動させず、前記操作手段(例えば図2に示す操作端末6の入力部61)を用いて、前記許可動作(例えば図3に示すステップS6:Y)が行われると、前記制御手段(例えば図2に示すCPU60)にて前記ロボット(例えば図2に示すロボット2)を前記所定位置に移動させるステップ(例えば図3に示すステップS7)と、を含んでなることを特徴とする。
The method for operating the robot operating system according to claim 1 includes:
A robot (for example,
a first camera (for example,
A three-dimensional model storage unit (for example, the three-
Images of the robot (for example,
an operating means (for example, the
A control means (for example, the
A method of operating a robot operation system comprising:
The robot (for example, the
having a worker check the display on the display section (for example, the
Even if the three-dimensional model (for example, the three-
請求項2に記載のロボット操作システムの動作方法は、
前記ロボット(例えば図2に示すロボット2)のアーム(例えば図2に示すアーム22)に設けられた作業ツール(例えば図7に示す作業ツール24)の先端部を撮像可能な第2カメラ(例えば図8に示す第2カメラ28)と、
前記ロボット(例えば図2に示すロボット2)が前記ワーク(例えば図2に示すワークW)に対して前記所定の加工作業を行っている際、前記第2カメラ(例えば図8に示す第2カメラ28)を保護する保護部材(例えば図8に示すカメラ筐体28a、遮蔽板28d)と、をさらに備えてなることを特徴とする。
The method for operating the robot operating system according to
a second camera (for example, A second camera 28) shown in FIG.
When the robot (for example, the
請求項3に記載のロボット操作システムの動作方法は、
前記表示部(例えば図2に示す表示部8)に表示させる画像(例えば図4~6に示す作業現場の画像P1~P3)を制御する表示制御手段(例えば図2に示す撮像処理端末5のCPU50)をさらに備え、
前記第1カメラ(例えば図2に示す第1カメラ31~39)は複数の第1カメラ(例えば図2に示す第1カメラ31~39)であって、
前記表示部(例えば図2に示す表示部8)に表示される前記3次元モデル(例えば図5に示す移動後の3次元モデル9A)の位置情報に基づき、前記表示制御手段(例えば図2に示す撮像処理端末5のCPU50)にて、前記複数の第1カメラ(例えば図2に示す第1カメラ31~39)から1つを選択するステップ(例えば図3に示すステップS103)と、
前記選択された第1カメラ(例えば図2に示す第1カメラ31)によって撮像された画像(例えば図5に示す作業現場の画像P2)を、前記表示制御手段(例えば図2に示す撮像処理端末5のCPU50)にて、前記表示部(例えば図2に示す表示部8)に表示させるステップ(例えば図3に示すステップS104)と、をさらに備えてなることを特徴とする。
The method for operating the robot operation system according to claim 3 includes:
Display control means (for example, of the
The first camera (for example, the
Based on the position information of the three-dimensional model (for example, the moved three-
The image (for example, the image P2 of the work site shown in FIG. 5) captured by the selected first camera (for example, the
請求項4に記載のロボット操作システムの動作方法は、
前記3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)は、前記ロボットのアームに対応する部分(例えば図6に示すロボット2のアーム22に相当する部分の3次元モデル9b)を透過させて、前記表示部(例えば図2に示す表示部8)に表示されてなることを特徴とする。
The method for operating the robot operating system according to claim 4 includes:
The three-dimensional model (for example, the three-
次に、本発明の効果について、図面の参照符号を付して説明する。なお、括弧内は、後述する実施形態の参照符号を付したものであるが、本発明はこれに限定されるものではない。 Next, the effects of the present invention will be explained with reference numerals in the drawings. Note that reference numerals of embodiments to be described later are given in parentheses, but the present invention is not limited thereto.
請求項1に係る発明によれば、作業者は、ロボット(例えば図2に示すロボット2)を所定位置に移動させるに先立ち、表示部(例えば図2に示す表示部8)にロボット(例えば図2に示すロボット2)と重ね合わさった状態で表示されている3次元モデル(例えば図4に示す3次元モデル9)を所定位置に移動させる。これにより、作業者は、ロボット(例えば図2に示すロボット2)を所定位置に移動させるには3次元モデル(例えば図4に示す3次元モデル9)を所定位置に移動させればよく、難易度が高いティーチペンダントを使用することなく、ロボットを動作することができる。
According to the invention according to claim 1, before moving the robot (for example, the
また、請求項1に係る発明によれば、上記のように移動された、移動後の3次元モデル(例えば図5に示す移動後の3次元モデル9A)は、第1カメラ(例えば図2に示す第1カメラ31~39)が撮像する移動前のロボット(例えば図5に示すロボット2)やワーク(例えば図2に示すワークW)、およびその周辺の設備の画像(例えば図5に示す作業現場の画像P2)と重ね合わせて表示される。よって、作業者は、上記のように、3次元モデル(例えば図4に示す3次元モデル9)を所定位置に移動させる操作を完了させてから、移動後の3次元モデル(例えば図5に示す移動後の3次元モデル9A)と重ね合わせで表示される実際のワーク(例えば図2に示すワークW)や周辺の設備を表示部8で目視確認しながら、移動前のロボット(例えば図5に示すロボット2)を移動後の3次元モデル(例えば図5に示す移動後の3次元モデル9A)のように移動させたときに周辺の設備と干渉を生じさせないか等を確認することができる。すなわち、移動の操作と確認作業を同時に行う必要がなく、これら作業を分けて行うことができるから、操作の難易度を下げつつ、安全性を強化することができる。
Further, according to the invention according to claim 1, the 3D model after movement (for example, the 3D model after
また、重ね合わせで表示されるのは第1カメラ(例えば図2に示す第1カメラ31~39)が撮像する実際のワーク(例えば図2に示すワークW)や周辺の設備であるから、ワークや周辺の設備のレイアウトに変更があった場合も、従来のオフラインティーチングソフトでは必要であったCADデータの修正等の特別な対応が不要である。
Moreover, what is displayed in superimposition is the actual workpiece (for example, the workpiece W shown in FIG. 2) imaged by the first camera (for example, the
さらに、請求項1に係る発明によれば、作業者が所定位置への移動に問題がないと判断し許可動作(例えば図3に示すステップS6:Y)を行わない限り、制御手段(例えば図2に示すCPU60)は、ロボット(例えば図5に示すロボット2)を移動させない。このため、作業者は、ロボット(例えば図5に示すロボット2)は移動させないまま、3次元モデル(例えば図5に示す移動後の3次元モデル9A)だけを移動する操作をやり直しながら、最適な移動方法を見つけることができる。このとき、ロボット(例えば図5に示すロボット2)は移動させていないから、ロボット(例えば図5に示すロボット2)を一旦元の位置に戻し、移動をやり直す、という手間や工数が発生しない。
Furthermore, according to the invention according to claim 1, unless the operator determines that there is no problem in moving to the predetermined position and performs the permission operation (for example, step S6: Y shown in FIG. 3), the control means (for example, the The
もって、請求項1に係る発明によれば、容易な操作により、ロボットを動作させることができるロボット操作システムの動作方法を提供することができる。 Therefore, according to the invention according to claim 1, it is possible to provide a method for operating a robot operation system that allows a robot to operate with easy operation.
請求項2にかかる発明によれば、作業者は、作業ツールの先端部(例えば図7に示す先端部24a)および先端部付近の画像を確認しながら、作業ツールの先端部(例えば図7に示す先端部24a)が、ワーク(例えば図2に示すワークW)を加工作業するのに最適な位置にくるように、アーム(例えば図2に示すアーム22)を移動させることができる。さらに、保護部材(例えば図8に示すカメラ筐体28a、遮蔽板28d)により、溶接のスパッタやアーク光、ドリルの切粉、その他の加工作業の飛散物等から第2カメラ(例えば図8に示す第2カメラ28)を保護することができる。
According to the invention as claimed in
請求項3にかかる発明によれば、3次元モデル(例えば図5に示す移動後の3次元モデル9A)の位置情報に基づき、第1カメラ(例えば図2に示す第1カメラ31)が選択され、画像(例えば図5に示す作業現場の画像P2)が表示部(例えば図2に示す表示部8)に表示されるから、3次元モデル(例えば図5に示す移動後の3次元モデル9A)の位置情報に対応した作業現場の画像(例えば図5に示す作業現場の画像P2)が表示される。
According to the invention according to claim 3, the first camera (for example, the
請求項4にかかる発明によれば、表示部(例えば図2に示す表示部8)に表示される3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)を所定位置に移動させるにあたり、作業ツールの先端部に相当する部分の3次元モデル(例えば図6に示す先端部24aに相当する部分の3次元モデル9a)が、ロボットのアームに対応する部分の3次元モデル(例えば図6に示すアーム22に相当する部分の3次元モデル9b)に隠れてしまい、表示部(例えば図2に示す表示部8)で確認できない、ということが起きない。
According to the invention according to claim 4, the three-dimensional model (for example, the three-
以下、本発明に係るロボット操作システムの動作方法によるロボット操作システムの一実施形態を、図面を参照して具体的に説明する。なお、以下の説明において、上下左右の方向を示す場合は、図示正面から見た場合の上下左右をいうものとする。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, one embodiment of a robot operation system using a method of operating a robot operation system according to the present invention will be specifically described with reference to the drawings. In the following description, when referring to directions such as up, down, left, and right, the directions are meant to be up, down, left, and right when viewed from the front in the drawing.
<ロボット操作システムの概要説明>
まず、本実施形態におけるロボット操作システム1の概要を説明する。本実施形態におけるロボット操作システム1は、図1に示すように、ワークW(図2参照)が載置されるターンテーブルTと、溶接や研磨等の所定の加工作業をワークWに行うロボット2が、複数の第1カメラ31~39により撮像される。そして、作業者が、操作端末6(図2参照)を用いて、第1カメラ31~39により撮像されるロボット2やワークW及び周囲の状況を見ながら、ロボット2を操作するものである。
<Overview of robot operation system>
First, an overview of the robot operation system 1 in this embodiment will be explained. As shown in FIG. 1, the robot operation system 1 in this embodiment includes a turntable T on which a workpiece W (see FIG. 2) is placed, and a
図2を用いて、より具体的に、本実施形態におけるロボット操作システム1の構成について説明する。まず、図2に示すように、ロボット2は、ネットワークNにより、プログラマブルロジックコントローラ(以下、PLC29と呼ぶ)を介して操作端末6と接続されている。一方、第1カメラ31~39は、ネットワークNにより、撮像処理端末5と接続されている。さらに、撮像処理端末5と操作端末6も、ネットワークNにより接続されている。
The configuration of the robot operation system 1 in this embodiment will be described in more detail using FIG. 2. First, as shown in FIG. 2, the
さらに、撮像処理端末5は投影装置70と、操作端末6は投影装置71と、各々ネットワークNにより接続されている。また、投影装置70からの画像(第1カメラ31~39の撮像画像)と、投影装置71からの画像(操作端末6の表示部64の表示)とが、重ね合わせて表示される表示部8を備える。
Further, the
ここで、上記のような構成のロボット操作システム1によりロボット2を移動する方法を簡単に説明する。作業者は、まず操作端末6を用いて、操作端末6の表示部64に表示されるロボット2の3次元モデル9(図4参照)を、ドラッグ等の操作により移動させる。これにより、ロボット2やワークW及び周囲の状況と移動後の3次元モデル9Aが表示部8に重ね合わせて表示される(図5参照)。作業者は、表示部8の表示を確認し、ロボット2を移動後の3次元モデル9Aの位置姿勢に移動すると干渉等の問題が生じると判断したら、図示しないキャンセルボタンを押下する。そうすると、ロボット2を移動させないまま、作業者は3次元モデル9の移動をやり直すことができる。一方、ロボット2を移動後の3次元モデル9Aの位置姿勢に移動して問題ないと判断したら、作業者は図示しないOKボタンを押下する。これにより、ロボット2が移動後の3次元モデル9Aの位置まで移動する(図6参照)。
Here, a method for moving the
本実施形態におけるロボット操作システムの概要は以上のとおりである。次に、図2の各部について詳細に説明する。 The outline of the robot operation system in this embodiment is as described above. Next, each part of FIG. 2 will be explained in detail.
<ロボットの説明>
ロボット2は、6自由度の多関節汎用ロボットである。より詳しく説明すると、このロボット2は、作業場の床等に固定される基台20と、基台20に対して基端が回転可能に連結されているアーム22と、アーム22の先端部22aに取り付けられ、ターンテーブルT上に載置されたワークWに対し、溶接やシーリング、あるいは塗装、切断、研磨、ハンドリング等の作業を行う作業ツール24を備える。なお、本実施形態において、ロボット1は、6軸の多関節汎用ロボットを例示したが、これに限らずどのようなロボットを用いてもよい。
<Robot description>
The
<第1カメラの説明>
第1カメラ31~39は、色彩画像とともに視差画像を撮ることのできるデジタルカメラである。第1カメラ31~39を作業現場に設置するにあたって、本実施形態では、図1に示すように、ロボット2やターンテーブルTが設置される安全柵D内に、カメラ設置枠30を設置している。カメラ設置枠30は、図示右側から第1枠30b、第2枠30c、第3枠30dと、第1枠30b、第2枠30c、第3枠30dを連結する共通横材30aとからなる。第1枠30b、第2枠30c、第3枠30dは、各々、左右1対の縦材と、両縦材の上端間を連結する横材とからなる。共通横材30aは、第1枠30b、第2枠30c、第3枠30dの各横材の中央を連結するように設けられている。
<Description of the first camera>
The
そして、第1枠30bの図示左側の縦材に、第1カメラ31、32が上下に間隔を隔てて設置され、図示右側の縦材に、第1カメラ33、34が上下に間隔を隔てて設置されている。また、第2枠30cの図示左側の縦材に、第1カメラ36が設置され、図示右側の縦材に、第1カメラ37が設置されている。さらに、第2枠30cの左右1対の縦材には、図示左側に向かって延びる部材30c1、30c2が設けられており、その先端部分に第1カメラ38、39が設置されている。
<第2カメラの説明>
アーム22の先端部22aには、図2には表れていないが、図8に示す第2カメラ28が設けられる。より詳しくは、図7に示すように、アーム22の先端部22aに、作業ツール24を取り付けるための取付ブラケット26が設けられる。この取付ブラケット26を横方向に延長させた部分に、カメラ筐体28aがビスなどで取り付け固定されている。このカメラ筐体28aは、図8(a)に示すように、中空状に形成されると共に、断面視弾頭状に形成されている。そして、このようなカメラ筐体28aの前部(図示左部)には、図8(b)に示すように、開口部28bが形成されている。この開口部28bは、図8に示すように、カメラ筐体28aの前部(図示左部)に設けられている回転軸28cを基点として回転可能に取り付けられている遮蔽板28dにて、開閉できるようになっている。なお、この回転軸28cは、図示はしないが、ソレノイドなどで駆動できるようなっている。
<Description of the second camera>
Although not shown in FIG. 2, a
かくして、このようなカメラ筐体28a内には、図8に示すように第2カメラ28が設置固定されており、作業ツール24の先端部24aを撮像できるようになっている。
As shown in FIG. 8, the
なお、図示しないが、この第2カメラ28は操作端末6(図2参照)と通信可能に接続されている。
Although not shown, the
<撮像処理端末の説明>
撮像処理端末5は、例えばPC(Personal Computer)で構成される、情報処理装置である。具体的には、図2に示すように、CPU50と、マウスやキーボード、タッチパネル、或いは、USBコネクタ、Lightningコネクタ等を用いて外部から所定データを撮像処理端末5に入力することができる入力部51と、所定のアプリケーションプログラム等を格納した書込み可能なフラッシュROM等からなるROM52と、作業領域やバッファメモリ等として機能するRAM53と、種々の画像を表示可能な表示部54と、無線LAN,有線LAN,ダイヤルアップ等の通信手段でネットワークNに接続が可能な通信部55と、で構成されている。
<Description of the imaging processing terminal>
The
<操作端末の説明>
操作端末6は、例えばPC(Personal Computer)で構成される、情報処理装置である。具体的には、撮像処理端末5と同様の構成を備え、図2に示すように、CPU60、入力部61、ROM62と、RAM63、表示部64、通信部65と、で構成されている。なお、ROM62には、本実施形態により作業者がロボット2を移動するのに使用するロボット操作用プログラム、及び、そのプログラムにおいて使用される3次元モデル9(図4参照)が格納される。
<Description of the operating terminal>
The
<表示部の説明>
表示部8は、一つのスクリーンからなる。表示部8には、撮像処理端末5が第1カメラ31~39のうち選択した1つの第1カメラ31~39から受信した画像と、操作端末6において作業者により起動されたロボット操作用プログラムが表示部64に表示された画面とが、投影装置70と投影装置71とにより、各々表示部8上に投影され、重ね合わせて表示される。
<Display section description>
The
<ロボット操作システムの使用例の説明>
上記のように構成される、ロボット操作システム1の動作方法の使用例について、図3を参照して具体的に説明する。なお、以下の内容はあくまで一例であり、これに限定されるものではない。
<Explanation of usage examples of robot operation system>
A usage example of the operating method of the robot operation system 1 configured as described above will be specifically described with reference to FIG. 3. Note that the following content is just an example and is not limited thereto.
図2に示す撮像処理端末5のCPU50(以下、撮像処理端末5と省略することがある)は、入力部51を介して作業者から指示を受け、図2に示す第1カメラ31~39の画像の受信を開始する(ステップS101)。
The CPU 50 (hereinafter sometimes abbreviated as the imaging processing terminal 5) of the
次に、撮像処理端末5は、図2に示す第1カメラ31~39から受信した画像のうち、所定の1つの第1カメラの画像を投影装置70に送信し、図2に示す表示部8に表示させる(ステップS102)。なお、最初にいずれの第1カメラの画像を表示部8に表示させるかは、撮像処理端末5のROM52に予め記憶しておけばよい。ここでは、第1カメラ31が撮像する画像P1(図4参照)を表示部8に表示させるものとする。
Next, the
一方、図2に示す操作端末6のCPU60(以下、操作端末6と省略することがある)は、ROM62に格納されるロボット操作用プログラムを起動する(ステップS1)。
On the other hand, the
次に、操作端末6は、操作端末6のROM62に格納される3次元モデル9(図4参照)を読み出す(ステップS2)。
Next, the operating
次に、操作端末6は、図4に示すように、ROM62から読みだした3次元モデル9を、表示部8に表示し、撮像処理端末5により表示部8に表示される画像P1のロボット2に重ね合わせる(ステップS3)。具体的には、操作端末6は、ロボット2やワークWが配置される作業現場に対応する仮想空間を、3次元座標空間として生成し、ステップS2にて読みだした3次元モデル9を、仮想空間内に配置する。そして、操作端末6は、仮想空間内の、第1カメラ31に対応する位置から見た3次元モデル9を描写し、表示部8(あるいは操作端末6の表示部64)に表示させる。
Next, as shown in FIG. (step S3). Specifically, the operating
次に、操作端末6は、作業者の操作に従い、3次元モデル9(図4参照)を移動させる(ステップS4)。具体的には、作業者は、表示部8を見ながら、ロボット2と重ね合わされた状態の3次元モデル9(図4参照)を、入力部61を用いた所定の操作(例えばマウスによるドラッグ・アンド・ドロップ)により、3次元モデル9を所望の位置姿勢になるよう、移動する操作を行う。操作端末6は、この作業者の操作に従い、3次元モデル9を移動させる。その結果、3次元モデル9は、図5に示す移動後の3次元モデル9Aのように、作業現場の画像P2のロボット2とは異なる位置姿勢を取った状態が、表示部8に表示される。
Next, the
次に、操作端末6は、表示部8に表示される3次元モデル9の位置情報(仮想空間内のどの位置から見た3次元モデル9を描写し、表示部8(あるいは操作端末6の表示部64)に表示させているか)を、撮像処理端末5に送信する(ステップS5)。
Next, the
この点について詳しく説明すると、操作端末6は、仮想空間内の任意の位置からから見た3次元モデル9を描写し、表示部8(あるいは操作端末6の表示部64)に表示させることができる。このため、作業者は、ステップS4において3次元モデル9を移動させるにあたり、側面側から見た3次元モデル9(図4参照)だけでなく、上や斜め下から見た3次元モデル9(図示せず)を表示部8(あるいは操作端末6の表示部64)に表示させ、確認することができる。
To explain this point in detail, the operating
ステップS5では、この、仮想空間内のどの位置から見た3次元モデル9を描写し、表示部8(あるいは操作端末6の表示部64)に表示させているかの位置情報(例えば3次元座標)を、操作端末6が撮像処理端末5に送信するものである。
In step S5, positional information (for example, three-dimensional coordinates) from which position in the virtual space the three-
次に、撮像処理端末5(図2参照)は、受信した位置情報に基づき、表示部8(図2参照)に表示させる画像の受信元となる第1カメラを、第1カメラ31~39(図2参照)から1つ選択する(ステップS103)。具体的には、操作端末6は、例えば、位置情報がしきい値A以上B未満の場合は第1カメラ31、しきい値B以上C未満の場合は第1カメラ32、・・・というように、予め、操作端末6から受信する位置情報と、第1カメラ31~39を対応付けて記憶する。そして、受信した位置情報に対応する第1カメラを第1カメラ31~39から選択する。ここでは、第1カメラ31が選択されたものとする。
Next, based on the received position information, the imaging processing terminal 5 (see FIG. 2) selects the
撮像処理端末5は、上記のようにして選択した第1カメラ31の画像を受信し、投影装置70を介して表示部8に表示する。
The
次に、操作端末6は、OKボタン(図示せず)が押下されるかどうかを検出する(ステップS6)。具体的には、作業者は、図5に示すように、表示部8に表示される移動後の3次元モデル9A、および、作業現場の画像P2のロボット2、ワークW、及び周囲の状況を確認する。そして、作業者は、移動後の3次元モデル9Aの通りロボット2を移動させたときに、作業現場の周辺の設備との干渉を生じさせないかを確認する。
Next, the operating
さらに、作業者は、ロボット2が取ることができる位置姿勢となっているかも確認する。なお、操作端末6は、ロボット2の取ることができる位置姿勢の範囲を予めROM62に記憶しておいてもよい。そして、作業者がこの範囲を越える位置姿勢を取るよう3次元モデル9を移動させた場合、ロボット2が取ることができない位置姿勢となっていると判断し、操作端末6は3次元モデル9の色を所定の色(例えば赤色)に変色させ、作業者への注意喚起や操作の取り消し等を行ってもよい。
Furthermore, the worker also confirms whether the
次に、操作端末6は、作業者がキャンセルボタン(図示せず)を押下した場合(ステップS6:N)、ステップS4に戻る。具体的には、作業者は、ロボット2を移動後の図5に示す3次元モデル9Aの位置姿勢に移動させないと判断したため、キャンセルボタン(図示せず)を押下する。これを受け、操作端末6は、ロボット2は移動後の3次元モデル9Aの位置に移動させずステップS4に戻り、再度、作業者の操作に従い3次元モデル9を移動させる。
Next, when the operator presses a cancel button (not shown) (step S6: N), the
一方、操作端末6は、作業者によりOKボタン(図示せず)が押下されたことを検出した場合(ステップS6:Y)、ロボット2を移動させる(ステップS7)。具体的には、操作端末6は、図5に示す移動後の3次元モデル9Aの位置姿勢を示すパラメータをPLC29に送信し、OKボタン(図示せず)の押下が続いている間(長押しされている間)、ロボット2を移動後の3次元モデル9Aの位置姿勢に移動するよう制御する。その結果、図6に示すように、ロボット2が移動後の3次元モデル9Aに重なる位置姿勢となる。
On the other hand, when the operating
なお、作業者は、ロボット2が移動中に周囲の装置等と干渉しそうになったら、長押ししているOKボタン(図示せず)を離すことで、干渉を回避することができる。
Note that if the
次に、操作端末6は、図7に示す第2カメラ28の画像を受信し、表示させる(ステップS8)。すなわち、作業者は、第1カメラ31の画像(図6参照)では、作業ツール24の先端部24aとワークWとの位置関係が詳細に確認できない場合がある。そのため、操作端末6は、第2カメラ28に作業ツール24の先端部24aやワークWを撮像させ、撮像した画像を第2カメラ28から受信し、表示部8(あるいは操作端末6の表示部64)に表示させる(図示せず)。これにより、作業者は、作業ツール24の先端部24aとワークWの位置をより詳細に確認し、より正確に、先端部24aをワークWの所定位置に移動させることができる。なお、この際、PLC29は、図8に示す回転軸28cを回転させて、カメラ筐体28aの遮蔽板28dを回動させ、図8(b)に示すように、開口部28bを開放するようにしている。
Next, the operating
次に、操作端末6は、ロボット2に対し溶接等の加工作業を指示する(ステップS9)。具体的には、操作端末6は、ロボット操作プログラムあるいはその他の所定のプログラムにより、ロボット2に溶接等の加工作業を指示する。この際、PLC29は、図8に示す回転軸28cを回転させて、カメラ筐体28aの遮蔽板28dを回動させ、図8(a)に示すように、開口部28bを閉止するようにしている。これにより、加工作業の間、溶接のスパッタやアーク光、ドリルの切粉、その他の加工作業の飛散物等から第2カメラ28を保護することができる。
Next, the operating
所定の加工作業が終了したら、撮像処理端末5および操作端末6は処理を終了する。
When the predetermined processing work is completed, the
なお、この後、異なる形状のワークWに対し処理を行う場合、作業者は、その異なる形状のワークWをターンテーブルTに載置すればよい。図2に示す第1カメラ31~39がそのワークWを撮像するから、作業者は表示部8にてそのワークWを確認しながら、上述の動作方法にてロボット2を動作させることができる。
Note that, after this, when processing a workpiece W of a different shape, the operator only has to place the workpiece W of a different shape on the turntable T. Since the
したがって、以上説明してきた本実施形態によれば、容易な操作により、ロボットを動作させることができるロボット操作システムの動作方法を提供することができる。 Therefore, according to the present embodiment described above, it is possible to provide a method for operating a robot operation system that allows a robot to operate with easy operation.
すなわち、従来から、作業現場でワークを直接見ながら、ティーチペンダントを用いてロボットを動作させることは可能であったが、難易度が高いティーチペンダントの操作と、安全にロボットを移動させるための干渉の有無の確認、という作業を同時にこなす必要がある。一方、オフラインティーチングソフトはティーチペンダントを使用しないものの、コンピュータ上のロボットのCADデータを動かすだけであるから、実際にロボットを移動させることができない。また、ワークや設備のレイアウトに変更があった場合、その変更をオフラインティーチングソフトのCADデータに反映する必要がある。 In other words, it has traditionally been possible to operate the robot using a teach pendant while directly viewing the workpiece at the work site, but operating the teach pendant is highly difficult and requires interference to move the robot safely. It is necessary to simultaneously check the presence or absence of On the other hand, offline teaching software does not use a teach pendant, but only moves the robot's CAD data on the computer, so it cannot actually move the robot. Furthermore, if there is a change in the layout of the work or equipment, it is necessary to reflect the change in the CAD data of the offline teaching software.
しかし、本実施形態によれば、表示部8に表示される3次元モデル9を、マウスなどの入力部61で操作することによりロボットを所定位置に移動させる事ができるから、ティーチペンダントを操作することなく、オフラインティーチングソフトのような容易な操作により、ロボットを動作させることができる。
However, according to the present embodiment, the robot can be moved to a predetermined position by operating the three-
また、本実施形態によれば、3次元モデル9と、第1カメラ31~39が撮像する作業現場の画像P2と重ね合わせて表示される。このため、3次元モデル9を移動させてから、その3次元モデル9と、実際のワークWや周辺の設備を目視確認しながら、周辺の設備と干渉を生じさせないか等を確認することができる。すなわち、移動の操作と確認作業を同時に行う必要がなく、これら作業を分けて行うことができる。なお、ワークWや周辺の設備のレイアウトに変更があった場合、作業現場の画像P2にて即時にその変更が確認でき、アプリケーションにてCADデータを修正する等の必要はない。
Furthermore, according to the present embodiment, the three-
さらに、本実施形態によれば、移動した3次元モデル9と、実際のワークWや周辺の設備を目視確認した結果、周辺の設備と干渉しそう等の好ましくない状態になることがわかった場合、キャンセルボタンを押下し、3次元モデル9の移動をやり直す事ができる。このように、ロボット2は移動させないまま、3次元モデル9Aだけを移動する操作をやり直しながら、最適な移動方法を見つけることができる。このとき、ロボット2は移動させていないから、ロボット2を一旦元の位置に戻し、移動をやり直す、という手間や工数が発生しない。
Furthermore, according to the present embodiment, when it is found as a result of visually checking the moved three-
以上のことより、本実施形態によれば、オンラインティーチング方法、オフラインティーチング方法それぞれの欠点を克服し、なおかつ利点を利用し、容易な操作によりロボットを動作させることができるロボット操作システムの動作方法とすることができる。 From the above, according to the present embodiment, there is provided an operating method for a robot operating system that overcomes the drawbacks of the online teaching method and the offline teaching method, takes advantage of their advantages, and allows the robot to operate with easy operation. can do.
<変形例の説明>
なお、本実施形態において示したロボット操作システム1の動作方法はあくまで一例であり、特許請求の範囲に記載された本発明の要旨の範囲内において種々の変形・変更が可能である。例えば、本実施形態においては、遮蔽板28dを例示したが、それに限らず、遮光板を用いても良い。このようにすれば、溶接のスパッタやアーク光、ドリルの切粉、その他の加工作業の飛散物等からカメラ28を保護しつつ、カメラ28にて、その加工作業を撮像することもできる。
<Explanation of modification example>
Note that the operating method of the robot operating system 1 shown in this embodiment is merely an example, and various modifications and changes are possible within the scope of the gist of the present invention as set forth in the claims. For example, in this embodiment, although the shielding plate 28d is illustrated, the present invention is not limited thereto, and a light shielding plate may be used. In this way, it is possible to protect the
また、本実施形態において例示したカメラ筐体28aは、あくまで一例であり、どのような形状でも良く。要は、溶接のスパッタやアーク光、ドリルの切粉、その他の加工作業の際に生じる飛散物等からカメラ28を保護できれば良い。
Moreover, the camera housing 28a illustrated in this embodiment is just an example, and may have any shape. In short, it is sufficient to protect the
また、本実施形態においては、3次元モデル9は全体が単色にて表されるが、操作端末6は、図6に示すロボット2のアーム22に対応する部分の3次元モデル9bを透過させて、表示部8(あるいは操作端末6の表示部64)に表示させても良い。このようにすれば、図6に示す作業ツール24の先端部24aに相当する部分の3次元モデル9aが、ロボット2のアーム22に相当する部分の3次元モデル9bに隠れて見えない、ということがない。
Further, in this embodiment, the entire three-
また、本実施形態においては、撮像処理端末5と操作端末6は2台の情報処理装置である。このように2台に分けた場合、処理速度が速いという利点がある。しかし、撮像処理端末5と操作端末6の両方の処理を1台の情報処理装置で行っても良い。
Further, in this embodiment, the
上記のように撮像処理端末5と操作端末6の両方の処理を1台の情報処理装置で行うにあたっては、第1カメラ31~39が撮像した画像をその情報処理装置に受信させ、受信した画像に3次元モデル9をその情報処理装置内で重ね合わせたものを、操作端末6の表示部64あるいは表示部8に表示させても良い。
When processing both the
また、本実施形態においては、表示部8は、一つのスクリーンとしたが、一つのモニターとしても良い。その場合、撮像処理端末5とモニターをモニターケーブル(図示せず)で接続し、撮像処理端末5の画像をモニターに表示させても良い。そして、操作端末6において作業者により起動されたロボット操作用プログラムが表示部64に表示された画面を、投影装置71により表示部8上に投影し、モニターに表示される画像に重ね合わせてもよい。
Further, in this embodiment, the
また、本実施形態においては、ステップS103において、撮像処理端末5が表示部8に表示する画像の受信元となる第1カメラを、第1カメラ31~39から1つ選択したが、自由視点画像を生成し、表示部8に表示させても良い。
In addition, in the present embodiment, in step S103, the
撮像処理端末5が自由視点画像を生成するには、例えば次のように行う。
For example, the
まず、撮像処理端末5は、仮想空間内のどの位置から見た3次元モデル9を描写し、表示部8(あるいは操作端末6の表示部64)に表示させているかの位置情報(例えば3次元座標)を操作端末6から受信する(ステップS5参照)。
First, the
次に、撮像処理端末5は、受信した位置情報が、作業現場のどの位置に相当するかを算出し、この算出した位置から見た画像となるよう、第1カメラ31~39から受信する画像をキャリブレーションする。なお、仮想空間内の位置を示す位置情報を、作業現場の位置に変換するにあたっては、例えば透視投影行列を利用した方法など、公知の変換方法を利用して算出すれば良い。
Next, the
最後に、撮像処理端末5は、上記のようにして得られた各画像を合成した画像(自由視点画像)を、表示部8に表示させる。
Finally, the
上記のようにして、自由視点画像を生成し、表示部8に表示させても良い。
A free viewpoint image may be generated and displayed on the
さらに、自由視点画像を生成するのではなく、第1カメラ31~39を移動させるようにしてもよい。
Furthermore, instead of generating free viewpoint images, the
具体的には、ステップS5において撮像処理端末5が操作端末6から受信した位置情報が、作業現場のどの位置に相当するかを算出し、この算出した位置に移動できる第1カメラを第1カメラ31~39から選択し、選択した第1カメラ31~39を算出した位置に移動させ、画像を表示部8に表示させる。
Specifically, in step S5, the
上記のようにして、第1カメラ31~39のうち任意の1つの第1カメラを移動させて、表示部8に表示させても良い。なお、本実施形態においては、ターンテーブルTを例示したが、それに限らず、2軸ポジショナなど、どのようなものにも適用可能である。
As described above, any one of the
2 ロボット
22 アーム
24 作業ツール
28 第2カメラ
28a カメラ筐体28(保護部材)
28d 遮蔽板(保護部材)
31~39 第1カメラ
50 撮像処理端末5のCPU(表示制御手段)
60 操作端末6のCPU(制御手段)
61 操作端末6の入力部(操作手段)
62 操作端末6のROM(3次元モデル格納部)
8 表示部
9、9A 3次元モデル
9b アーム22に相当する部分の3次元モデル
W ワーク
P1~P3 作業現場の画像
2
28d Shielding plate (protective member)
31 to 39
60 CPU (control means) of
61 Input section of operation terminal 6 (operation means)
62 ROM of operation terminal 6 (3D model storage unit)
8
Claims (4)
前記ロボットおよび前記ワークを撮像可能な第1カメラと、
前記ロボットの3次元モデルを格納する3次元モデル格納部と、
前記第1カメラが撮像する前記ロボットの画像と3次元モデルとを重ね合わせて表示させる表示部と、
前記3次元モデルを操作する操作手段と、
前記ロボットを制御する制御手段と、
を備えたロボット操作システムの動作方法であって、
前記表示部に前記ロボットと前記3次元モデルとが重ね合わさった状態で表示されている該3次元モデルを、前記操作手段を用いて所定位置に移動させると、それに応じて該3次元モデルが所定位置に移動するステップと、
前記表示部に表示された前記3次元モデルを、前記操作手段を用いて所定位置に移動させると、それに応じて該3次元モデルを所定位置に移動させるものの、前記ロボットは移動せず、その移動していない前記ロボットと、前記所定位置に移動させた3次元モデルとを前記表示部に重ね合わせて表示するステップと、
前記ロボットを前記所定位置に移動してよいか判断させるために、作業者に、前記表示部の表示を確認させるステップと、
前記3次元モデルが所定位置に移動したとしても、前記操作手段を用いて、許可動作を行わない限り、前記制御手段にて前記ロボットを前記所定位置に移動させず、前記操作手段を用いて、前記許可動作が行われると、前記制御手段にて前記ロボットを前記所定位置に移動させるステップと、を含んでなるロボット操作システムの動作方法。 A robot that performs predetermined machining work on a workpiece,
a first camera capable of capturing images of the robot and the work;
a three-dimensional model storage unit that stores a three-dimensional model of the robot;
a display unit that superimposes and displays an image of the robot captured by the first camera and a three-dimensional model;
operating means for operating the three-dimensional model;
control means for controlling the robot;
A method of operating a robot operation system comprising:
When the three-dimensional model, which is displayed on the display section with the robot and the three-dimensional model superimposed , is moved to a predetermined position using the operating means, the three-dimensional model is moved to a predetermined position accordingly. a step of moving to a position;
When the three-dimensional model displayed on the display section is moved to a predetermined position using the operating means, the three-dimensional model is moved to the predetermined position accordingly, but the robot does not move. displaying the robot that has not been moved and the three-dimensional model that has been moved to the predetermined position in a superimposed manner on the display unit ;
having a worker check the display on the display unit in order to determine whether or not to move the robot to the predetermined position;
Even if the three-dimensional model moves to a predetermined position, the control means does not move the robot to the predetermined position unless a permission operation is performed using the operating means; An operating method for a robot operating system, comprising the step of causing the control means to move the robot to the predetermined position when the permission operation is performed.
前記ロボットが前記ワークに対して前記所定の加工作業を行っている際、前記第2カメラを保護する保護部材と、をさらに備えてなる、請求項1に記載のロボット操作システムの動作方法。 a second camera capable of capturing an image of a tip of a work tool provided on the arm of the robot;
The method of operating a robot operating system according to claim 1, further comprising: a protection member that protects the second camera when the robot performs the predetermined processing operation on the workpiece.
前記第1カメラは複数の第1カメラであって、
前記表示部に表示される前記3次元モデルの位置情報に基づき、前記表示制御手段にて、前記複数の第1カメラから1つを選択するステップと、
前記選択された第1カメラによって撮像された画像を、前記表示制御手段にて、前記表示部に表示させるステップと、をさらに備えてなる、請求項1に記載のロボット操作システムの動作方法。 further comprising display control means for controlling an image to be displayed on the display section,
The first camera is a plurality of first cameras,
selecting one of the plurality of first cameras by the display control means based on position information of the three-dimensional model displayed on the display unit;
2. The method of operating a robot operating system according to claim 1, further comprising the step of causing the display control unit to display an image captured by the selected first camera on the display unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022180752A JP7364285B1 (en) | 2022-11-11 | 2022-11-11 | How the robot handling system works |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022180752A JP7364285B1 (en) | 2022-11-11 | 2022-11-11 | How the robot handling system works |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7364285B1 true JP7364285B1 (en) | 2023-10-18 |
JP2024070336A JP2024070336A (en) | 2024-05-23 |
Family
ID=88328402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022180752A Active JP7364285B1 (en) | 2022-11-11 | 2022-11-11 | How the robot handling system works |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7364285B1 (en) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003127078A (en) | 2001-10-19 | 2003-05-08 | Komatsu Ltd | Teaching device and teaching method for working robot |
JP2009241247A (en) | 2008-03-10 | 2009-10-22 | Kyokko Denki Kk | Stereo-image type detection movement device |
JP2011251395A (en) | 2010-06-04 | 2011-12-15 | Takamaru Kogyo Kk | Robot teaching system |
JP2013132728A (en) | 2011-12-27 | 2013-07-08 | Kawasaki Heavy Ind Ltd | Teach pendant |
JP2016159369A (en) | 2015-02-26 | 2016-09-05 | 三菱重工業株式会社 | Processing system and tool fitting method |
JP2018183845A (en) | 2017-04-26 | 2018-11-22 | ファナック株式会社 | Operation device, robot system, and operation method, for operating robot |
JP2020043497A (en) | 2018-09-11 | 2020-03-19 | キヤノン株式会社 | Imaging apparatus |
JP2020055075A (en) | 2018-10-02 | 2020-04-09 | ファナック株式会社 | Robot control device using augmented reality and composite reality and display device |
JP2020075354A (en) | 2018-11-01 | 2020-05-21 | キヤノン株式会社 | External input device, robot system, control method for robot system, control program, and recording medium |
WO2020116041A1 (en) | 2018-12-05 | 2020-06-11 | ミツミ電機株式会社 | Imaging device, imaging system, and industrial robot |
JP2020516475A (en) | 2017-04-13 | 2020-06-11 | バテル・メモリアル・インスティテュートBattelle Memorial Institute | Teaching Mode Collision Avoidance System and Method for Industrial Robot Manipulators |
JP2021000678A (en) | 2019-06-20 | 2021-01-07 | オムロン株式会社 | Control system and control method |
JP2021084192A (en) | 2019-11-28 | 2021-06-03 | セイコーエプソン株式会社 | robot |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3158032B2 (en) * | 1995-12-27 | 2001-04-23 | 本田技研工業株式会社 | Offline teaching system |
-
2022
- 2022-11-11 JP JP2022180752A patent/JP7364285B1/en active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003127078A (en) | 2001-10-19 | 2003-05-08 | Komatsu Ltd | Teaching device and teaching method for working robot |
JP2009241247A (en) | 2008-03-10 | 2009-10-22 | Kyokko Denki Kk | Stereo-image type detection movement device |
JP2011251395A (en) | 2010-06-04 | 2011-12-15 | Takamaru Kogyo Kk | Robot teaching system |
JP2013132728A (en) | 2011-12-27 | 2013-07-08 | Kawasaki Heavy Ind Ltd | Teach pendant |
JP2016159369A (en) | 2015-02-26 | 2016-09-05 | 三菱重工業株式会社 | Processing system and tool fitting method |
JP2020516475A (en) | 2017-04-13 | 2020-06-11 | バテル・メモリアル・インスティテュートBattelle Memorial Institute | Teaching Mode Collision Avoidance System and Method for Industrial Robot Manipulators |
JP2018183845A (en) | 2017-04-26 | 2018-11-22 | ファナック株式会社 | Operation device, robot system, and operation method, for operating robot |
JP2020043497A (en) | 2018-09-11 | 2020-03-19 | キヤノン株式会社 | Imaging apparatus |
JP2020055075A (en) | 2018-10-02 | 2020-04-09 | ファナック株式会社 | Robot control device using augmented reality and composite reality and display device |
JP2020075354A (en) | 2018-11-01 | 2020-05-21 | キヤノン株式会社 | External input device, robot system, control method for robot system, control program, and recording medium |
WO2020116041A1 (en) | 2018-12-05 | 2020-06-11 | ミツミ電機株式会社 | Imaging device, imaging system, and industrial robot |
JP2021000678A (en) | 2019-06-20 | 2021-01-07 | オムロン株式会社 | Control system and control method |
JP2021084192A (en) | 2019-11-28 | 2021-06-03 | セイコーエプソン株式会社 | robot |
Non-Patent Citations (1)
Title |
---|
浅見 瞭 Ryo ASAMI,視触覚融合提示システムを用いたクローラ型レスキューロボットの移動操作 Visual-haptic Fusion System for Moving Operation of Tracked Rescue Robot,ロボティクスメカトロニクス講演会2016講演会論文集 ,日本,一般社団法人日本機械学会,2016年06月08日 |
Also Published As
Publication number | Publication date |
---|---|
JP2024070336A (en) | 2024-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6725727B2 (en) | Three-dimensional robot work cell data display system, display method, and display device | |
JP7490349B2 (en) | Input device, control method for input device, robot system, method for manufacturing article using robot system, control program and recording medium | |
US10737396B2 (en) | Method and apparatus for robot path teaching | |
JP6787966B2 (en) | Robot control device and display device using augmented reality and mixed reality | |
US10882189B2 (en) | Control device and robot system | |
US10980606B2 (en) | Remote-control manipulator system and method of operating the same | |
EP1462896B1 (en) | Robot teaching device | |
EP1749621B1 (en) | Robot programming device | |
JP4167940B2 (en) | Robot system | |
EP1512499A2 (en) | Robot having a camera mounted at the distal end of its arm and method for operating such a robot | |
US11731283B2 (en) | Method for checking a safety area of a robot | |
US20150298318A1 (en) | Teleoperation Of Machines Having At Least One Actuated Mechanism | |
JP2008254150A (en) | Teaching method and teaching device of robot | |
US20240269857A1 (en) | Robot system, control apparatus of robot system, control method of robot system, imaging apparatus, and storage medium | |
JP7364285B1 (en) | How the robot handling system works | |
JP6905651B1 (en) | How to form a 3D model of a robot system and work | |
JP6917551B2 (en) | Robot control method and robot | |
JPS6334093A (en) | Visual device | |
JP6990340B2 (en) | Robot system | |
JP7462046B2 (en) | Robot System | |
JPH1177568A (en) | Teaching assisting method and device | |
US20220226982A1 (en) | Method Of Creating Control Program For Robot, System Executing Processing Of Creating Control Program For Robot, And Non-Transitory Computer-Readable Storage Medium | |
JP2003127078A (en) | Teaching device and teaching method for working robot | |
US20220214685A1 (en) | Remote operating device | |
JP2024083061A (en) | Teaching data accumulation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230823 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230928 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7364285 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |