Nothing Special   »   [go: up one dir, main page]

JP7364285B1 - How the robot handling system works - Google Patents

How the robot handling system works Download PDF

Info

Publication number
JP7364285B1
JP7364285B1 JP2022180752A JP2022180752A JP7364285B1 JP 7364285 B1 JP7364285 B1 JP 7364285B1 JP 2022180752 A JP2022180752 A JP 2022180752A JP 2022180752 A JP2022180752 A JP 2022180752A JP 7364285 B1 JP7364285 B1 JP 7364285B1
Authority
JP
Japan
Prior art keywords
robot
dimensional model
operating
camera
predetermined position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022180752A
Other languages
Japanese (ja)
Other versions
JP2024070336A (en
Inventor
正 ▲高▼丸
泰幸 ▲高▼丸
Original Assignee
高丸工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 高丸工業株式会社 filed Critical 高丸工業株式会社
Priority to JP2022180752A priority Critical patent/JP7364285B1/en
Application granted granted Critical
Publication of JP7364285B1 publication Critical patent/JP7364285B1/en
Publication of JP2024070336A publication Critical patent/JP2024070336A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】ロボット操作に発生する手間や工数を低減させることができるロボット操作システムの動作方法を提供することを目的としている。【解決手段】表示部(8)に表示された3次元モデル(9)を、操作手段(61)を用いて所定位置に移動させると、それに応じて該3次元モデル(9)が所定位置に移動するステップと、3次元モデル(9)が所定位置に移動したとしても、操作手段(61)を用いて、許可動作を行わない限り、制御手段(60)にてロボット(2)を所定位置に移動させず、操作手段(61)を用いて、許可動作が行われると、制御手段(60)にてロボット(2)を所定位置に移動させるステップと、を含んでなることを特徴とする。【選択図】図2An object of the present invention is to provide an operating method for a robot operation system that can reduce the effort and man-hours required for robot operation. [Solution] When a three-dimensional model (9) displayed on a display section (8) is moved to a predetermined position using an operating means (61), the three-dimensional model (9) is moved to a predetermined position accordingly. Even if the moving step and the three-dimensional model (9) move to a predetermined position, the control means (60) will keep the robot (2) at the predetermined position unless a permission operation is performed using the operating means (61). The robot (2) is moved to a predetermined position by the control means (60) when a permission operation is performed using the operation means (61) without moving the robot (2) to the robot (2). . [Selection diagram] Figure 2

Description

本発明は、ロボット操作システムの動作方法に関する。 The present invention relates to a method of operating a robot operating system.

従来から、ワークに対して溶接等の作業を行う産業用ロボットを使用するにあたっては、前準備として、目的地へ移動するための動作をロボットに予め記憶させるティーチングが行われる。 BACKGROUND OF THE INVENTION Conventionally, before using an industrial robot that performs work such as welding on a workpiece, teaching is performed to make the robot memorize the motions for moving to a destination in advance as a preparation.

ティーチング方法は、一般に、ティーチペンダント(特許文献1の図1参照)を用いたオンラインティーチング方法と、オフラインティーチング方法(特許文献2)という2つの方法が知られている。 Generally, two teaching methods are known: an online teaching method using a teach pendant (see FIG. 1 of Patent Document 1) and an offline teaching method (Patent Document 2).

オンラインティーチング方法とは、作業現場でワークを直接見ながら、ティーチペンダントを用いてロボットに動作を教示する方法である。 The online teaching method is a method in which a robot is taught operations using a teach pendant while directly viewing the workpiece at the work site.

一方、オフラインティーチング方法とは、コンピュータにインストールされているオフラインティーチングソフトを使用して、ワーク、ロボット、周辺の設備のCAD(computer-aided design)データを作成し、画面上に疑似的なワーク、ロボット、周辺の設備の画像を描画した上で、キーボードやマウス等によって作業者に座標位置等のデータを入力させることで、上記ロボットに動作を教示する方法である。 On the other hand, the offline teaching method uses offline teaching software installed on a computer to create CAD (computer-aided design) data of the workpiece, robot, and surrounding equipment, and displays a pseudo-workpiece on the screen. This is a method of teaching the robot how to operate by drawing an image of the robot and surrounding equipment and having the worker input data such as coordinate positions using a keyboard, mouse, etc.

特開2013-132728号公報Japanese Patent Application Publication No. 2013-132728 特開平9-179624号公報Japanese Patent Application Publication No. 9-179624

ところで、前準備としてのティーチングを行うことなく、直接ロボットを動作させたい要請がある(例えば、形状の異なる製品を少数ずつ製造する場合)。しかし、ロボットを直接動作させるにあたり、オンラインティーチング方法のように作業現場でワークを直接見ながら、ティーチペンダントを用いてロボットを動作させることにも、オフラインティーチング方法のようにオフラインティーチングソフトを使用することにも、各々に欠点がある。 By the way, there is a demand for directly operating a robot without performing preparatory teaching (for example, when manufacturing a small number of products with different shapes). However, when operating the robot directly, there are two methods: the online teaching method, in which the robot is directly viewed at the work site and a teach pendant, and the offline teaching method, in which the robot is operated using a teach pendant. There are also drawbacks to each.

まず、オンラインティーチング方法は、難易度の高い作業をおこないつつ、同時に、安全性に配慮する必要があるという欠点がある。 First, the online teaching method has the disadvantage that it requires consideration of safety while performing highly difficult tasks.

すなわち、まず、ティーチペンダントには、非常に多くのボタンが設けられており、ロボットを移動させたい方向が、所定の3次元座標上のどの方向であるか、また、ロボットをどの速さで移動させるか、等に注意しながら、この複数のボタンを使い分ける必要がある。そのため、ティーチペンダントの操作は、熟練の技術を要する難易度の高い作業である。しかも、このようなティーチペンダントの操作と同時に、ロボットが周辺の設備と干渉しないかについても注意する必要がある。このように、ティーチペンダントを用いたオンラインティーチングは、難易度が高いティーチペンダントの操作と、安全にロボットを移動させるための干渉の有無の確認、という作業を同時にこなす必要がある、という欠点がある。 First of all, the teach pendant is equipped with a large number of buttons that let you know which direction you want the robot to move in on the predetermined three-dimensional coordinates, and how fast you want the robot to move. You need to use these multiple buttons properly, paying attention to whether or not to Therefore, operating the teach pendant is a highly difficult task that requires skill. Furthermore, while operating the teach pendant, care must also be taken to ensure that the robot does not interfere with surrounding equipment. In this way, online teaching using a teach pendant has the disadvantage that it is necessary to simultaneously operate the teach pendant, which is highly difficult, and check for interference in order to move the robot safely. .

一方、オフラインティーチング方法は、ティーチペンダントは使用しないものの、コンピュータ上のロボットのCADデータを動かすだけであるから、ロボットを動作させるためのプログラムを生成することはできるが、直接にロボットを動作させることができない。また、当該方法は、ワークや設備のレイアウトに変更があった場合、その変更をオフラインティーチングソフトのCADデータに反映する必要がある、という欠点がある。 On the other hand, the offline teaching method does not use a teach pendant, but only moves the robot's CAD data on the computer, so it is possible to generate a program to operate the robot, but it is not possible to directly operate the robot. I can't. Furthermore, this method has a drawback in that if there is a change in the layout of the workpiece or equipment, the change needs to be reflected in the CAD data of the offline teaching software.

そこで、本発明は、上記の問題に鑑み、容易な操作により、ロボットを動作させることができるロボット操作システムの動作方法を提供することを目的としている。 SUMMARY OF THE INVENTION In view of the above problems, it is an object of the present invention to provide a method for operating a robot operating system that allows a robot to operate with easy operation.

上記本発明の目的は、以下の手段によって達成される。なお、括弧内は、後述する実施形態の参照符号を付したものであるが、本発明はこれに限定されるものではない。 The above object of the present invention is achieved by the following means. Note that reference numerals of embodiments to be described later are given in parentheses, but the present invention is not limited thereto.

請求項1に記載のロボット操作システムの動作方法は、
ワーク(例えば図2に示すワークW)に対して所定の加工作業を行うロボット(例えば図2に示すロボット2)と、
前記ロボット(例えば図2に示すロボット2)および前記ワーク(例えば図2に示すワークW)を撮像可能な第1カメラ(例えば図2に示す第1カメラ31~39)と、
前記ロボット(例えば図2に示すロボット2)の3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)を格納する3次元モデル格納部(例えば図2に示すROM62)と、
前記第1カメラ(例えば図2に示す第1カメラ31~39)が撮像する前記ロボット(例えば図2に示すロボット2)の画像(例えば図4~6に示す作業現場の画像P1~P3)と3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)とを重ね合わせて表示させる表示部(例えば図2に示す表示部8)と、
前記3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)を操作する操作手段(例えば図2に示す操作端末6の入力部61)と、
前記ロボット(例えば図2に示すロボット2)を制御する制御手段(例えば図2に示すCPU60)と、
を備えたロボット操作システムの動作方法であって、
前記表示部(例えば図2に示す表示部8)に前記ロボット(例えば図4に示すロボット2)と前記3次元モデル(例えば図4に示す3次元モデル9)とが重ね合わさった状態で表示されている該3次元モデル(例えば図4に示す3次元モデル9)を、前記操作手段(例えば図2に示す操作端末6の入力部61)を用いて所定位置に移動させると、それに応じて該3次元モデル(例えば図4に示す3次元モデル9)を所定位置に移動させるものの、前記ロボットは移動せず(例えば図5に示すロボット2)、その移動していない前記ロボット(例えば図5に示すロボット2)と、前記所定位置に移動させた3次元モデル(例えば図5に示す3次元モデル9A)とを前記表示部(例えば図2に示す表示部8)に重ね合わせて表示するステップ(例えば図3に示すステップS4)と、
前記ロボット(例えば図5に示すロボット2)を前記所定位置に移動してよいか判断させるために、作業者に、前記表示部(例えば図2に示す表示部8)の表示を確認させるステップと、
前記3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)が所定位置に移動したとしても、前記操作手段(例えば図2に示す操作端末6の入力部61)を用いて、許可動作(例えば図3に示すステップS6:Y)を行わない限り、前記制御手段(例えば図2に示すCPU60)にて前記ロボット(例えば図2に示すロボット2)を前記所定位置に移動させず、前記操作手段(例えば図2に示す操作端末6の入力部61)を用いて、前記許可動作(例えば図3に示すステップS6:Y)が行われると、前記制御手段(例えば図2に示すCPU60)にて前記ロボット(例えば図2に示すロボット2)を前記所定位置に移動させるステップ(例えば図3に示すステップS7)と、を含んでなることを特徴とする。
The method for operating the robot operating system according to claim 1 includes:
A robot (for example, robot 2 shown in FIG. 2) that performs a predetermined processing operation on a workpiece (for example, workpiece W shown in FIG. 2),
a first camera (for example, first cameras 31 to 39 shown in FIG. 2) that can image the robot (for example, the robot 2 shown in FIG. 2) and the workpiece (for example, the workpiece W shown in FIG. 2);
A three-dimensional model storage unit (for example, the three-dimensional model 9 shown in FIG. 4, the three-dimensional model 9A after movement shown in FIGS. 5 and 6) of the robot (for example, the robot 2 shown in FIG. 2). ROM62) shown in FIG.
Images of the robot (for example, robot 2 shown in FIG. 2) captured by the first camera (for example, first cameras 31 to 39 shown in FIG. 2) (for example, images P1 to P3 of the work site shown in FIGS. 4 to 6); and A display section (for example, the display section 8 shown in FIG. 2) that displays a three-dimensional model (for example, the three-dimensional model 9 shown in FIG. 4, the moved three-dimensional model 9A shown in FIGS. 5 and 6) in an overlapping manner;
an operating means (for example, the input unit 61 of the operating terminal 6 shown in FIG. 2) for operating the three-dimensional model (for example, the three-dimensional model 9 shown in FIG. 4, the moved three-dimensional model 9A shown in FIGS. 5 and 6);
A control means (for example, the CPU 60 shown in FIG. 2) that controls the robot (for example, the robot 2 shown in FIG. 2);
A method of operating a robot operation system comprising:
The robot (for example, the robot 2 shown in FIG. 4) and the three-dimensional model (for example, the three-dimensional model 9 shown in FIG. 4) are displayed on the display section (for example, the display section 8 shown in FIG. 2) in a superimposed state. When the three-dimensional model (for example, the three-dimensional model 9 shown in FIG. 4) is moved to a predetermined position using the operating means (for example, the input section 61 of the operating terminal 6 shown in FIG. 2), the corresponding three-dimensional model is moved to a predetermined position. Although a three-dimensional model (for example, the three-dimensional model 9 shown in FIG. 4) is moved to a predetermined position, the robot does not move (for example, the robot 2 shown in FIG. 5), and the robot that is not moving (for example, the robot 2 shown in FIG. A step of superimposing and displaying the robot 2 shown in FIG. For example, step S4) shown in FIG.
having a worker check the display on the display section (for example, the display section 8 shown in FIG. 2) in order to determine whether the robot (for example, the robot 2 shown in FIG. 5) may be moved to the predetermined position; ,
Even if the three-dimensional model (for example, the three-dimensional model 9 shown in FIG. 4, the three-dimensional model 9A after movement shown in FIGS. 5 and 6) moves to a predetermined position, the operating means (for example, the operating terminal 6 shown in FIG. 2) moves to a predetermined position. The control means (for example, the CPU 60 shown in FIG. 2) controls the robot (for example, the robot 2 shown in FIG. ) is not moved to the predetermined position, and the permission operation (for example, step S6: Y shown in FIG. 3) is performed using the operation means (for example, the input unit 61 of the operation terminal 6 shown in FIG. 2), A step of moving the robot (for example, the robot 2 shown in FIG. 2) to the predetermined position by the control means (for example, the CPU 60 shown in FIG. 2) (for example, step S7 shown in FIG. 3). shall be.

請求項2に記載のロボット操作システムの動作方法は、
前記ロボット(例えば図2に示すロボット2)のアーム(例えば図2に示すアーム22)に設けられた作業ツール(例えば図7に示す作業ツール24)の先端部を撮像可能な第2カメラ(例えば図8に示す第2カメラ28)と、
前記ロボット(例えば図2に示すロボット2)が前記ワーク(例えば図2に示すワークW)に対して前記所定の加工作業を行っている際、前記第2カメラ(例えば図8に示す第2カメラ28)を保護する保護部材(例えば図8に示すカメラ筐体28a、遮蔽板28d)と、をさらに備えてなることを特徴とする。
The method for operating the robot operating system according to claim 2 includes:
a second camera (for example, A second camera 28) shown in FIG.
When the robot (for example, the robot 2 shown in FIG. 2) is performing the predetermined processing operation on the workpiece (for example, the workpiece W shown in FIG. 2), the second camera (for example, the second camera shown in FIG. 8) 28) (for example, a camera housing 28a and a shielding plate 28d shown in FIG. 8).

請求項3に記載のロボット操作システムの動作方法は、
前記表示部(例えば図2に示す表示部8)に表示させる画像(例えば図4~6に示す作業現場の画像P1~P3)を制御する表示制御手段(例えば図2に示す撮像処理端末5のCPU50)をさらに備え、
前記第1カメラ(例えば図2に示す第1カメラ31~39)は複数の第1カメラ(例えば図2に示す第1カメラ31~39)であって、
前記表示部(例えば図2に示す表示部8)に表示される前記3次元モデル(例えば図5に示す移動後の3次元モデル9A)の位置情報に基づき、前記表示制御手段(例えば図2に示す撮像処理端末5のCPU50)にて、前記複数の第1カメラ(例えば図2に示す第1カメラ31~39)から1つを選択するステップ(例えば図3に示すステップS103)と、
前記選択された第1カメラ(例えば図2に示す第1カメラ31)によって撮像された画像(例えば図5に示す作業現場の画像P2)を、前記表示制御手段(例えば図2に示す撮像処理端末5のCPU50)にて、前記表示部(例えば図2に示す表示部8)に表示させるステップ(例えば図3に示すステップS104)と、をさらに備えてなることを特徴とする。
The method for operating the robot operation system according to claim 3 includes:
Display control means (for example, of the imaging processing terminal 5 shown in FIG. 2) that controls images (for example, images P1 to P3 of the work site shown in FIGS. 4 to 6) to be displayed on the display section (for example, the display section 8 shown in FIG. 2) further equipped with CPU50),
The first camera (for example, the first cameras 31 to 39 shown in FIG. 2) is a plurality of first cameras (for example, the first cameras 31 to 39 shown in FIG. 2),
Based on the position information of the three-dimensional model (for example, the moved three-dimensional model 9A shown in FIG. 5) displayed on the display section (for example, the display section 8 shown in FIG. 2), the display control means (for example, the display section 8 shown in FIG. 2) a step (for example, step S103 shown in FIG. 3) of selecting one of the plurality of first cameras (for example, first cameras 31 to 39 shown in FIG. 2) by the CPU 50 of the imaging processing terminal 5 shown in FIG.
The image (for example, the image P2 of the work site shown in FIG. 5) captured by the selected first camera (for example, the first camera 31 shown in FIG. 2) is displayed on the display control means (for example, the image capture processing terminal shown in FIG. 2). The present invention is characterized by further comprising a step (for example, step S104 shown in FIG. 3) of displaying the information on the display section (for example, the display section 8 shown in FIG. 2) by the CPU 50 of No. 5 (for example, the display section 8 shown in FIG. 2).

請求項4に記載のロボット操作システムの動作方法は、
前記3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)は、前記ロボットのアームに対応する部分(例えば図6に示すロボット2のアーム22に相当する部分の3次元モデル9b)を透過させて、前記表示部(例えば図2に示す表示部8)に表示されてなることを特徴とする。
The method for operating the robot operating system according to claim 4 includes:
The three-dimensional model (for example, the three-dimensional model 9 shown in FIG. 4, the three-dimensional model 9A after movement shown in FIGS. 5 and 6) has a portion corresponding to the arm of the robot (for example, the arm 22 of the robot 2 shown in FIG. 6). It is characterized in that the three-dimensional model 9b) of the portion corresponding to the image is transmitted through and displayed on the display section (for example, the display section 8 shown in FIG. 2).

次に、本発明の効果について、図面の参照符号を付して説明する。なお、括弧内は、後述する実施形態の参照符号を付したものであるが、本発明はこれに限定されるものではない。 Next, the effects of the present invention will be explained with reference numerals in the drawings. Note that reference numerals of embodiments to be described later are given in parentheses, but the present invention is not limited thereto.

請求項1に係る発明によれば、作業者は、ロボット(例えば図2に示すロボット2)を所定位置に移動させるに先立ち、表示部(例えば図2に示す表示部8)にロボット(例えば図2に示すロボット2)と重ね合わさった状態で表示されている3次元モデル(例えば図4に示す3次元モデル9)を所定位置に移動させる。これにより、作業者は、ロボット(例えば図2に示すロボット2)を所定位置に移動させるには3次元モデル(例えば図4に示す3次元モデル9)を所定位置に移動させればよく、難易度が高いティーチペンダントを使用することなく、ロボットを動作することができる。 According to the invention according to claim 1, before moving the robot (for example, the robot 2 shown in FIG. 2) to a predetermined position, the worker displays the robot (for example, the The three-dimensional model (for example, the three-dimensional model 9 shown in FIG. 4) that is displayed superimposed on the robot 2) shown in FIG. 2 is moved to a predetermined position. As a result, in order to move a robot (for example, robot 2 shown in FIG. 2) to a predetermined position, the operator only has to move the 3D model (for example, 3D model 9 shown in FIG. 4) to a predetermined position, which is difficult. The robot can be operated without using a highly sophisticated teach pendant.

また、請求項1に係る発明によれば、上記のように移動された、移動後の3次元モデル(例えば図5に示す移動後の3次元モデル9A)は、第1カメラ(例えば図2に示す第1カメラ31~39)が撮像する移動前のロボット(例えば図に示すロボット2)やワーク(例えば図2に示すワークW)、およびその周辺の設備の画像(例えば図5に示す作業現場の画像P2)と重ね合わせて表示される。よって、作業者は、上記のように、3次元モデル(例えば図4に示す3次元モデル9)を所定位置に移動させる操作を完了させてから、移動後の3次元モデル(例えば図5に示す移動後の3次元モデル9A)と重ね合わせで表示される実際のワーク(例えば図2に示すワークW)や周辺の設備を表示部8で目視確認しながら、移動前のロボット(例えば図5に示すロボット2)を移動後の3次元モデル(例えば図5に示す移動後の3次元モデル9A)のように移動させたときに周辺の設備と干渉を生じさせないか等を確認することができる。すなわち、移動の操作と確認作業を同時に行う必要がなく、これら作業を分けて行うことができるから、操作の難易度を下げつつ、安全性を強化することができる。 Further, according to the invention according to claim 1, the 3D model after movement (for example, the 3D model after movement 9A shown in FIG. 5) that has been moved as described above is Images of the robot (for example, robot 2 shown in FIG. 5 ) and workpieces (for example, workpiece W shown in FIG. 2) and surrounding equipment (for example, the work shown in FIG. 5) before movement are captured by the first cameras 31 to 39 shown in FIG. It is displayed superimposed on the image P2) of the scene. Therefore, as described above, the operator completes the operation of moving the three-dimensional model (for example, the three-dimensional model 9 shown in FIG. 4) to a predetermined position, and then moves the three-dimensional model (for example, the three-dimensional model 9 shown in FIG. 5) after the movement. While visually checking the actual workpiece (for example, the workpiece W shown in FIG. 2) and surrounding equipment that are superimposed with the 3D model 9A after the movement on the display unit 8 , the robot before the movement (for example, the workpiece shown in FIG. 5) It is possible to check whether or not interference will occur with surrounding equipment when the robot 2) shown in FIG. In other words, it is not necessary to perform the movement operation and the confirmation work at the same time, and these tasks can be performed separately, so that safety can be enhanced while reducing the difficulty of the operation.

また、重ね合わせで表示されるのは第1カメラ(例えば図2に示す第1カメラ31~39)が撮像する実際のワーク(例えば図2に示すワークW)や周辺の設備であるから、ワークや周辺の設備のレイアウトに変更があった場合も、従来のオフラインティーチングソフトでは必要であったCADデータの修正等の特別な対応が不要である。 Moreover, what is displayed in superimposition is the actual workpiece (for example, the workpiece W shown in FIG. 2) imaged by the first camera (for example, the first cameras 31 to 39 shown in FIG. 2) and surrounding equipment, so the workpiece Even if there is a change in the layout of the computer or surrounding equipment, there is no need to take special measures such as modifying CAD data, which was required with conventional offline teaching software.

さらに、請求項1に係る発明によれば、作業者が所定位置への移動に問題がないと判断し許可動作(例えば図3に示すステップS6:Y)を行わない限り、制御手段(例えば図2に示すCPU60)は、ロボット(例えば図5に示すロボット2)を移動させない。このため、作業者は、ロボット(例えば図5に示すロボット2)は移動させないまま、3次元モデル(例えば図5に示す移動後の3次元モデル9A)だけを移動する操作をやり直しながら、最適な移動方法を見つけることができる。このとき、ロボット(例えば図5に示すロボット2)は移動させていないから、ロボット(例えば図5に示すロボット2)を一旦元の位置に戻し、移動をやり直す、という手間や工数が発生しない。 Furthermore, according to the invention according to claim 1, unless the operator determines that there is no problem in moving to the predetermined position and performs the permission operation (for example, step S6: Y shown in FIG. 3), the control means (for example, the The CPU 60 shown in FIG. 2 does not move the robot (for example, the robot 2 shown in FIG. 5). Therefore, the operator must redo the operation of moving only the 3D model (for example, the 3D model 9A after movement shown in FIG. 5) without moving the robot (for example, the robot 2 shown in FIG. 5) to find the optimal You can find a way to move. At this time, since the robot (for example, robot 2 shown in FIG. 5) is not being moved, the time and effort of returning the robot (for example, robot 2 shown in FIG. 5) to its original position and redoing the movement is not required.

もって、請求項1に係る発明によれば、容易な操作により、ロボットを動作させることができるロボット操作システムの動作方法を提供することができる。 Therefore, according to the invention according to claim 1, it is possible to provide a method for operating a robot operation system that allows a robot to operate with easy operation.

請求項2にかかる発明によれば、作業者は、作業ツールの先端部(例えば図7に示す先端部24a)および先端部付近の画像を確認しながら、作業ツールの先端部(例えば図7に示す先端部24a)が、ワーク(例えば図2に示すワークW)を加工作業するのに最適な位置にくるように、アーム(例えば図2に示すアーム22)を移動させることができる。さらに、保護部材(例えば図8に示すカメラ筐体28a、遮蔽板28d)により、溶接のスパッタやアーク光、ドリルの切粉、その他の加工作業の飛散物等から第2カメラ(例えば図8に示す第2カメラ28)を保護することができる。 According to the invention as claimed in claim 2, the worker moves the tip of the work tool (for example, the tip 24a shown in FIG. 7) while checking the image of the tip of the work tool (for example, the tip 24a shown in FIG. 7) and the vicinity of the tip. The arm (for example, the arm 22 shown in FIG. 2) can be moved so that the tip end 24a) shown in FIG. Furthermore, protection members (for example, the camera housing 28a and shielding plate 28d shown in FIG. 8) protect the second camera (for example, the camera housing 28a and shielding plate 28d shown in FIG. 8) from welding spatter, arc light, drill chips, and other flying debris from processing operations. The second camera 28) shown in FIG.

請求項3にかかる発明によれば、3次元モデル(例えば図5に示す移動後の3次元モデル9A)の位置情報に基づき、第1カメラ(例えば図2に示す第1カメラ31)が選択され、画像(例えば図5に示す作業現場の画像P2)が表示部(例えば図2に示す表示部8)に表示されるから、3次元モデル(例えば図5に示す移動後の3次元モデル9A)の位置情報に対応した作業現場の画像(例えば図5に示す作業現場の画像P2)が表示される。 According to the invention according to claim 3, the first camera (for example, the first camera 31 shown in FIG. 2) is selected based on the position information of the three-dimensional model (for example, the moved three-dimensional model 9A shown in FIG. 5). , since the image (for example, the image P2 of the work site shown in FIG. 5) is displayed on the display section (for example, the display section 8 shown in FIG. 2), the 3D model (for example, the 3D model 9A after movement shown in FIG. 5) is displayed. An image of the work site corresponding to the position information (for example, image P2 of the work site shown in FIG. 5) is displayed.

請求項4にかかる発明によれば、表示部(例えば図2に示す表示部8)に表示される3次元モデル(例えば図4に示す3次元モデル9、図5~6に示す移動後の3次元モデル9A)を所定位置に移動させるにあたり、作業ツールの先端部に相当する部分の3次元モデル(例えば図6に示す先端部24aに相当する部分の3次元モデル9a)が、ロボットのアームに対応する部分の3次元モデル(例えば図6に示すアーム22に相当する部分の3次元モデル9b)に隠れてしまい、表示部(例えば図2に示す表示部8)で確認できない、ということが起きない。 According to the invention according to claim 4, the three-dimensional model (for example, the three-dimensional model 9 shown in FIG. 4, the three-dimensional model after movement shown in FIGS. 5 and 6) displayed on the display section (for example, the display section 8 shown in FIG. 2), In order to move the dimensional model 9A) to a predetermined position, the 3D model of the part corresponding to the tip of the work tool (for example, the 3D model 9a of the part corresponding to the tip 24a shown in FIG. 6) is moved to the arm of the robot. It may happen that it is hidden by the 3D model of the corresponding part (for example, the 3D model 9b of the part corresponding to the arm 22 shown in FIG. 6) and cannot be confirmed on the display section (for example, the display section 8 shown in FIG. 2). do not have.

本発明の一実施形態に係るロボット操作システムの全体図である。1 is an overall diagram of a robot operation system according to an embodiment of the present invention. 同実施形態に係るロボット操作システムの全体概略図である。FIG. 1 is an overall schematic diagram of a robot operation system according to the same embodiment. 同実施形態に係るロボット操作システムの動作内容を示すフローチャート図である。It is a flowchart figure showing the operation contents of the robot operation system concerning the same embodiment. 3次元モデルとロボットとが重ね合わさった状態を表示する表示部を示す図である。FIG. 3 is a diagram showing a display section that displays a state in which a three-dimensional model and a robot are superimposed. 3次元モデルを所定位置に移動した状態を表示する表示部を示す図である。FIG. 3 is a diagram showing a display section that displays a state in which a three-dimensional model has been moved to a predetermined position. 3次元モデルを所定位置に移動した後、作業者が許可動作を行ったことに伴い、ロボットが所定位置に移動した状態を表示する表示部を示す図である。FIG. 6 is a diagram showing a display section that displays a state in which the robot has moved to a predetermined position in response to the operator performing a permission operation after moving the three-dimensional model to a predetermined position. ロボットアームの先端部にカメラ筐体が取り付けられた状態を示す斜視図である。FIG. 2 is a perspective view showing a state in which a camera housing is attached to the tip of a robot arm. (a)はカメラ筐体の縦断面図、(b)はカメラ筐体の遮蔽板が上方に回動した状態を示す縦断面図である。(a) is a vertical cross-sectional view of the camera housing, and (b) is a vertical cross-sectional view showing a state in which a shielding plate of the camera housing is rotated upward.

以下、本発明に係るロボット操作システムの動作方法によるロボット操作システムの一実施形態を、図面を参照して具体的に説明する。なお、以下の説明において、上下左右の方向を示す場合は、図示正面から見た場合の上下左右をいうものとする。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, one embodiment of a robot operation system using a method of operating a robot operation system according to the present invention will be specifically described with reference to the drawings. In the following description, when referring to directions such as up, down, left, and right, the directions are meant to be up, down, left, and right when viewed from the front in the drawing.

<ロボット操作システムの概要説明>
まず、本実施形態におけるロボット操作システム1の概要を説明する。本実施形態におけるロボット操作システム1は、図1に示すように、ワークW(図2参照)が載置されるターンテーブルTと、溶接や研磨等の所定の加工作業をワークWに行うロボット2が、複数の第1カメラ31~39により撮像される。そして、作業者が、操作端末6(図2参照)を用いて、第1カメラ31~39により撮像されるロボット2やワークW及び周囲の状況を見ながら、ロボット2を操作するものである。
<Overview of robot operation system>
First, an overview of the robot operation system 1 in this embodiment will be explained. As shown in FIG. 1, the robot operation system 1 in this embodiment includes a turntable T on which a workpiece W (see FIG. 2) is placed, and a robot 2 that performs predetermined processing operations such as welding and polishing on the workpiece W. is imaged by a plurality of first cameras 31-39. Then, the worker operates the robot 2 using the operating terminal 6 (see FIG. 2) while viewing the robot 2, the workpiece W, and the surrounding situation captured by the first cameras 31 to 39.

図2を用いて、より具体的に、本実施形態におけるロボット操作システム1の構成について説明する。まず、図2に示すように、ロボット2は、ネットワークNにより、プログラマブルロジックコントローラ(以下、PLC29と呼ぶ)を介して操作端末6と接続されている。一方、第1カメラ31~39は、ネットワークNにより、撮像処理端末5と接続されている。さらに、撮像処理端末5と操作端末6も、ネットワークNにより接続されている。 The configuration of the robot operation system 1 in this embodiment will be described in more detail using FIG. 2. First, as shown in FIG. 2, the robot 2 is connected to the operation terminal 6 via a programmable logic controller (hereinafter referred to as PLC 29) via a network N. On the other hand, the first cameras 31 to 39 are connected to the imaging processing terminal 5 via a network N. Furthermore, the imaging processing terminal 5 and the operation terminal 6 are also connected via a network N.

さらに、撮像処理端末5は投影装置70と、操作端末6は投影装置71と、各々ネットワークNにより接続されている。また、投影装置70からの画像(第1カメラ31~39の撮像画像)と、投影装置71からの画像(操作端末6の表示部64の表示)とが、重ね合わせて表示される表示部8を備える。 Further, the imaging processing terminal 5 is connected to a projection device 70, and the operation terminal 6 is connected to a projection device 71 through a network N. Also, a display section 8 on which an image from the projection device 70 (images captured by the first cameras 31 to 39) and an image from the projection device 71 (displayed on the display section 64 of the operating terminal 6) are displayed in a superimposed manner. Equipped with

ここで、上記のような構成のロボット操作システム1によりロボット2を移動する方法を簡単に説明する。作業者は、まず操作端末6を用いて、操作端末6の表示部64に表示されるロボット2の3次元モデル9(図4参照)を、ドラッグ等の操作により移動させる。これにより、ロボット2やワークW及び周囲の状況と移動後の3次元モデル9Aが表示部8に重ね合わせて表示される(図5参照)。作業者は、表示部8の表示を確認し、ロボット2を移動後の3次元モデル9Aの位置姿勢に移動すると干渉等の問題が生じると判断したら、図示しないキャンセルボタンを押下する。そうすると、ロボット2を移動させないまま、作業者は3次元モデル9の移動をやり直すことができる。一方、ロボット2を移動後の3次元モデル9Aの位置姿勢に移動して問題ないと判断したら、作業者は図示しないOKボタンを押下する。これにより、ロボット2が移動後の3次元モデル9Aの位置まで移動する(図6参照)。 Here, a method for moving the robot 2 using the robot operating system 1 configured as described above will be briefly described. The operator first uses the operating terminal 6 to move the three-dimensional model 9 (see FIG. 4) of the robot 2 displayed on the display unit 64 of the operating terminal 6 by dragging or the like. As a result, the robot 2, the workpiece W, the surrounding situation, and the moved three-dimensional model 9A are displayed on the display unit 8 in a superimposed manner (see FIG. 5). The operator checks the display on the display unit 8, and if he or she determines that a problem such as interference will occur if the robot 2 is moved to the position and orientation of the moved three-dimensional model 9A, the operator presses a cancel button (not shown). Then, the operator can move the three-dimensional model 9 again without moving the robot 2. On the other hand, if the operator determines that there is no problem in moving the robot 2 to the position and orientation of the moved three-dimensional model 9A, the operator presses an OK button (not shown). As a result, the robot 2 moves to the position of the moved three-dimensional model 9A (see FIG. 6).

本実施形態におけるロボット操作システムの概要は以上のとおりである。次に、図2の各部について詳細に説明する。 The outline of the robot operation system in this embodiment is as described above. Next, each part of FIG. 2 will be explained in detail.

<ロボットの説明>
ロボット2は、6自由度の多関節汎用ロボットである。より詳しく説明すると、このロボット2は、作業場の床等に固定される基台20と、基台20に対して基端が回転可能に連結されているアーム22と、アーム22の先端部22aに取り付けられ、ターンテーブルT上に載置されたワークWに対し、溶接やシーリング、あるいは塗装、切断、研磨、ハンドリング等の作業を行う作業ツール24を備える。なお、本実施形態において、ロボット1は、6軸の多関節汎用ロボットを例示したが、これに限らずどのようなロボットを用いてもよい。
<Robot description>
The robot 2 is an articulated general-purpose robot with six degrees of freedom. To explain in more detail, this robot 2 includes a base 20 fixed to the floor of a workplace, an arm 22 whose base end is rotatably connected to the base 20, and a distal end 22a of the arm 22. A work tool 24 is provided for performing work such as welding, sealing, painting, cutting, polishing, handling, etc. on the work W mounted on the turntable T. In this embodiment, the robot 1 is a six-axis multi-joint general-purpose robot, but the robot 1 is not limited to this, and any robot may be used.

<第1カメラの説明>
第1カメラ31~39は、色彩画像とともに視差画像を撮ることのできるデジタルカメラである。第1カメラ31~39を作業現場に設置するにあたって、本実施形態では、図1に示すように、ロボット2やターンテーブルTが設置される安全柵D内に、カメラ設置枠30を設置している。カメラ設置枠30は、図示右側から第1枠30b、第2枠30c、第3枠30dと、第1枠30b、第2枠30c、第3枠30dを連結する共通横材30aとからなる。第1枠30b、第2枠30c、第3枠30dは、各々、左右1対の縦材と、両縦材の上端間を連結する横材とからなる。共通横材30aは、第1枠30b、第2枠30c、第3枠30dの各横材の中央を連結するように設けられている。
<Description of the first camera>
The first cameras 31 to 39 are digital cameras that can take parallax images as well as color images. To install the first cameras 31 to 39 at the work site, in this embodiment, as shown in FIG. 1, the camera installation frame 30 is installed inside the safety fence D where the robot 2 and turntable T are installed. There is. The camera installation frame 30 consists of a first frame 30b, a second frame 30c, a third frame 30d, and a common horizontal member 30a that connects the first frame 30b, second frame 30c, and third frame 30d from the right side in the figure. The first frame 30b, the second frame 30c, and the third frame 30d each include a pair of left and right vertical members and a horizontal member that connects the upper ends of both vertical members. The common horizontal member 30a is provided so as to connect the centers of the respective horizontal members of the first frame 30b, the second frame 30c, and the third frame 30d.

そして、第1枠30bの図示左側の縦材に、第1カメラ31、32が上下に間隔を隔てて設置され、図示右側の縦材に、第1カメラ33、34が上下に間隔を隔てて設置されている。また、第2枠30cの図示左側の縦材に、第1カメラ36が設置され、図示右側の縦材に、第1カメラ37が設置されている。さらに、第2枠30cの左右1対の縦材には、図示左側に向かって延びる部材30c1、30c2が設けられており、その先端部分に第1カメラ38、39が設置されている。 First cameras 31 and 32 are installed vertically at intervals on the vertical member on the left side of the first frame 30b in the figure, and first cameras 33 and 34 are installed at vertical intervals on the vertical member on the right side in the figure. is set up. Further, a first camera 36 is installed on the vertical member on the left side of the second frame 30c in the drawing, and a first camera 37 is installed on the vertical member on the right side in the drawing. Further, a pair of left and right vertical members of the second frame 30c are provided with members 30c1 and 30c2 extending toward the left side in the drawing, and first cameras 38 and 39 are installed at the tip portions of the members 30c1 and 30c2.

<第2カメラの説明>
アーム22の先端部22aには、図2には表れていないが、図8に示す第2カメラ28が設けられる。より詳しくは、図7に示すように、アーム22の先端部22aに、作業ツール24を取り付けるための取付ブラケット26が設けられる。この取付ブラケット26を横方向に延長させた部分に、カメラ筐体28aがビスなどで取り付け固定されている。このカメラ筐体28aは、図8(a)に示すように、中空状に形成されると共に、断面視弾頭状に形成されている。そして、このようなカメラ筐体28aの前部(図示左部)には、図8(b)に示すように、開口部28bが形成されている。この開口部28bは、図8に示すように、カメラ筐体28aの前部(図示左部)に設けられている回転軸28cを基点として回転可能に取り付けられている遮蔽板28dにて、開閉できるようになっている。なお、この回転軸28cは、図示はしないが、ソレノイドなどで駆動できるようなっている。
<Description of the second camera>
Although not shown in FIG. 2, a second camera 28 shown in FIG. 8 is provided at the tip 22a of the arm 22. More specifically, as shown in FIG. 7, a mounting bracket 26 for mounting the working tool 24 is provided at the tip 22a of the arm 22. A camera housing 28a is attached and fixed to the horizontally extended portion of the mounting bracket 26 using screws or the like. As shown in FIG. 8(a), the camera housing 28a is formed in a hollow shape and shaped like a warhead in cross section. As shown in FIG. 8(b), an opening 28b is formed in the front part (left part in the figure) of the camera housing 28a. As shown in FIG. 8, the opening 28b is opened and closed by a shielding plate 28d rotatably attached to a rotation axis 28c provided at the front part (left part in the figure) of the camera housing 28a. It is now possible to do so. Although not shown, the rotation shaft 28c can be driven by a solenoid or the like.

かくして、このようなカメラ筐体28a内には、図8に示すように第2カメラ28が設置固定されており、作業ツール24の先端部24aを撮像できるようになっている。 As shown in FIG. 8, the second camera 28 is installed and fixed in the camera housing 28a, and is capable of capturing an image of the tip 24a of the working tool 24.

なお、図示しないが、この第2カメラ28は操作端末6(図2参照)と通信可能に接続されている。 Although not shown, the second camera 28 is communicably connected to the operation terminal 6 (see FIG. 2).

<撮像処理端末の説明>
撮像処理端末5は、例えばPC(Personal Computer)で構成される、情報処理装置である。具体的には、図2に示すように、CPU50と、マウスやキーボード、タッチパネル、或いは、USBコネクタ、Lightningコネクタ等を用いて外部から所定データを撮像処理端末5に入力することができる入力部51と、所定のアプリケーションプログラム等を格納した書込み可能なフラッシュROM等からなるROM52と、作業領域やバッファメモリ等として機能するRAM53と、種々の画像を表示可能な表示部54と、無線LAN,有線LAN,ダイヤルアップ等の通信手段でネットワークNに接続が可能な通信部55と、で構成されている。
<Description of the imaging processing terminal>
The imaging processing terminal 5 is an information processing device configured with, for example, a PC (Personal Computer). Specifically, as shown in FIG. 2, a CPU 50 and an input unit 51 that can input predetermined data into the imaging processing terminal 5 from the outside using a mouse, a keyboard, a touch panel, a USB connector, a Lightning connector, etc. , a ROM 52 consisting of a writable flash ROM or the like that stores a predetermined application program, etc., a RAM 53 that functions as a work area, a buffer memory, etc., a display section 54 that can display various images, and a wireless LAN and wired LAN. , and a communication unit 55 that can be connected to the network N by communication means such as dial-up.

<操作端末の説明>
操作端末6は、例えばPC(Personal Computer)で構成される、情報処理装置である。具体的には、撮像処理端末5と同様の構成を備え、図2に示すように、CPU60、入力部61、ROM62と、RAM63、表示部64、通信部65と、で構成されている。なお、ROM62には、本実施形態により作業者がロボット2を移動するのに使用するロボット操作用プログラム、及び、そのプログラムにおいて使用される3次元モデル9(図4参照)が格納される。
<Description of the operating terminal>
The operation terminal 6 is an information processing device configured with, for example, a PC (Personal Computer). Specifically, it has the same configuration as the imaging processing terminal 5, and is composed of a CPU 60, an input section 61, a ROM 62, a RAM 63, a display section 64, and a communication section 65, as shown in FIG. Note that the ROM 62 stores a robot operation program used by the operator to move the robot 2 according to this embodiment, and a three-dimensional model 9 (see FIG. 4) used in the program.

<表示部の説明>
表示部8は、一つのスクリーンからなる。表示部8には、撮像処理端末5が第1カメラ31~39のうち選択した1つの第1カメラ31~39から受信した画像と、操作端末6において作業者により起動されたロボット操作用プログラムが表示部64に表示された画面とが、投影装置70と投影装置71とにより、各々表示部8上に投影され、重ね合わせて表示される。
<Display section description>
The display section 8 consists of one screen. The display unit 8 displays the image received by the imaging processing terminal 5 from one of the first cameras 31 to 39 selected from among the first cameras 31 to 39, and the robot operation program started by the operator on the operation terminal 6. The screen displayed on the display section 64 is projected onto the display section 8 by the projection device 70 and the projection device 71, respectively, and displayed in a superimposed manner.

<ロボット操作システムの使用例の説明>
上記のように構成される、ロボット操作システム1の動作方法の使用例について、図3を参照して具体的に説明する。なお、以下の内容はあくまで一例であり、これに限定されるものではない。
<Explanation of usage examples of robot operation system>
A usage example of the operating method of the robot operation system 1 configured as described above will be specifically described with reference to FIG. 3. Note that the following content is just an example and is not limited thereto.

図2に示す撮像処理端末5のCPU50(以下、撮像処理端末5と省略することがある)は、入力部51を介して作業者から指示を受け、図2に示す第1カメラ31~39の画像の受信を開始する(ステップS101)。 The CPU 50 (hereinafter sometimes abbreviated as the imaging processing terminal 5) of the imaging processing terminal 5 shown in FIG. Image reception is started (step S101).

次に、撮像処理端末5は、図2に示す第1カメラ31~39から受信した画像のうち、所定の1つの第1カメラの画像を投影装置70に送信し、図2に示す表示部8に表示させる(ステップS102)。なお、最初にいずれの第1カメラの画像を表示部8に表示させるかは、撮像処理端末5のROM52に予め記憶しておけばよい。ここでは、第1カメラ31が撮像する画像P1(図4参照)を表示部8に表示させるものとする。 Next, the imaging processing terminal 5 transmits an image of a predetermined one first camera among the images received from the first cameras 31 to 39 shown in FIG. (Step S102). Note that which first camera image is to be displayed on the display unit 8 first may be stored in advance in the ROM 52 of the imaging processing terminal 5. Here, it is assumed that the image P1 (see FIG. 4) captured by the first camera 31 is displayed on the display unit 8.

一方、図2に示す操作端末6のCPU60(以下、操作端末6と省略することがある)は、ROM62に格納されるロボット操作用プログラムを起動する(ステップS1)。 On the other hand, the CPU 60 of the operation terminal 6 shown in FIG. 2 (hereinafter sometimes abbreviated as the operation terminal 6) starts a robot operation program stored in the ROM 62 (step S1).

次に、操作端末6は、操作端末6のROM62に格納される3次元モデル9(図4参照)を読み出す(ステップS2)。 Next, the operating terminal 6 reads out the three-dimensional model 9 (see FIG. 4) stored in the ROM 62 of the operating terminal 6 (step S2).

次に、操作端末6は、図4に示すように、ROM62から読みだした3次元モデル9を、表示部8に表示し、撮像処理端末5により表示部8に表示される画像P1のロボット2に重ね合わせる(ステップS3)。具体的には、操作端末6は、ロボット2やワークWが配置される作業現場に対応する仮想空間を、3次元座標空間として生成し、ステップS2にて読みだした3次元モデル9を、仮想空間内に配置する。そして、操作端末6は、仮想空間内の、第1カメラ31に対応する位置から見た3次元モデル9を描写し、表示部8(あるいは操作端末6の表示部64)に表示させる。 Next, as shown in FIG. (step S3). Specifically, the operating terminal 6 generates a virtual space corresponding to the work site where the robot 2 and the workpiece W are placed as a three-dimensional coordinate space, and converts the three-dimensional model 9 read out in step S2 into a virtual space. Place in space. Then, the operating terminal 6 depicts the three-dimensional model 9 seen from the position corresponding to the first camera 31 in the virtual space, and displays it on the display section 8 (or the display section 64 of the operating terminal 6).

次に、操作端末6は、作業者の操作に従い、3次元モデル9(図4参照)を移動させる(ステップS4)。具体的には、作業者は、表示部8を見ながら、ロボット2と重ね合わされた状態の3次元モデル9(図4参照)を、入力部61を用いた所定の操作(例えばマウスによるドラッグ・アンド・ドロップ)により、3次元モデル9を所望の位置姿勢になるよう、移動する操作を行う。操作端末6は、この作業者の操作に従い、3次元モデル9を移動させる。その結果、3次元モデル9は、図5に示す移動後の3次元モデル9Aのように、作業現場の画像P2のロボット2とは異なる位置姿勢を取った状態が、表示部8に表示される。 Next, the operation terminal 6 moves the three-dimensional model 9 (see FIG. 4) according to the operator's operation (step S4). Specifically, while looking at the display unit 8, the worker performs a predetermined operation using the input unit 61 (for example, dragging or (and drop) to move the three-dimensional model 9 to a desired position and orientation. The operation terminal 6 moves the three-dimensional model 9 according to the operator's operation. As a result, the three-dimensional model 9 is displayed on the display unit 8 in a state in which it assumes a position and orientation different from that of the robot 2 in the work site image P2, like the three-dimensional model 9A after movement shown in FIG. .

次に、操作端末6は、表示部8に表示される3次元モデル9の位置情報(仮想空間内のどの位置から見た3次元モデル9を描写し、表示部8(あるいは操作端末6の表示部64)に表示させているか)を、撮像処理端末5に送信する(ステップS5)。 Next, the operation terminal 6 displays the position information of the three-dimensional model 9 displayed on the display unit 8 (depicts the three-dimensional model 9 from which position in the virtual space) and displays the position information on the display unit 8 (or 64) is transmitted to the imaging processing terminal 5 (step S5).

この点について詳しく説明すると、操作端末6は、仮想空間内の任意の位置からから見た3次元モデル9を描写し、表示部8(あるいは操作端末6の表示部64)に表示させることができる。このため、作業者は、ステップS4において3次元モデル9を移動させるにあたり、側面側から見た3次元モデル9(図4参照)だけでなく、上や斜め下から見た3次元モデル9(図示せず)を表示部8(あるいは操作端末6の表示部64)に表示させ、確認することができる。 To explain this point in detail, the operating terminal 6 can depict the three-dimensional model 9 seen from any position in the virtual space and display it on the display unit 8 (or the display unit 64 of the operating terminal 6). . Therefore, when moving the three-dimensional model 9 in step S4, the operator must move the three-dimensional model 9 not only as seen from the side (see FIG. 4) but also as seen from above or diagonally below (see FIG. (not shown) can be displayed on the display section 8 (or the display section 64 of the operating terminal 6) for confirmation.

ステップS5では、この、仮想空間内のどの位置から見た3次元モデル9を描写し、表示部8(あるいは操作端末6の表示部64)に表示させているかの位置情報(例えば3次元座標)を、操作端末6が撮像処理端末5に送信するものである。 In step S5, positional information (for example, three-dimensional coordinates) from which position in the virtual space the three-dimensional model 9 is depicted and displayed on the display unit 8 (or the display unit 64 of the operating terminal 6) is transmitted by the operating terminal 6 to the imaging processing terminal 5.

次に、撮像処理端末5(図2参照)は、受信した位置情報に基づき、表示部8(図2参照)に表示させる画像の受信元となる第1カメラを、第1カメラ31~39(図2参照)から1つ選択する(ステップS103)。具体的には、操作端末6は、例えば、位置情報がしきい値A以上B未満の場合は第1カメラ31、しきい値B以上C未満の場合は第1カメラ32、・・・というように、予め、操作端末6から受信する位置情報と、第1カメラ31~39を対応付けて記憶する。そして、受信した位置情報に対応する第1カメラを第1カメラ31~39から選択する。ここでは、第1カメラ31が選択されたものとする。 Next, based on the received position information, the imaging processing terminal 5 (see FIG. 2) selects the first camera 31 to 39 ( (see FIG. 2) (step S103). Specifically, the operation terminal 6 uses the first camera 31 when the position information is greater than or equal to the threshold value A and less than B, and the first camera 32 when it is greater than or equal to the threshold value B and less than C, for example. The position information received from the operation terminal 6 and the first cameras 31 to 39 are stored in advance in association with each other. Then, the first camera corresponding to the received position information is selected from the first cameras 31 to 39. Here, it is assumed that the first camera 31 is selected.

撮像処理端末5は、上記のようにして選択した第1カメラ31の画像を受信し、投影装置70を介して表示部8に表示する。 The imaging processing terminal 5 receives the image of the first camera 31 selected as described above, and displays it on the display section 8 via the projection device 70.

次に、操作端末6は、OKボタン(図示せず)が押下されるかどうかを検出する(ステップS6)。具体的には、作業者は、図5に示すように、表示部8に表示される移動後の3次元モデル9A、および、作業現場の画像P2のロボット2、ワークW、及び周囲の状況を確認する。そして、作業者は、移動後の3次元モデル9Aの通りロボット2を移動させたときに、作業現場の周辺の設備との干渉を生じさせないかを確認する。 Next, the operating terminal 6 detects whether an OK button (not shown) is pressed (step S6). Specifically, as shown in FIG. 5, the worker views the moved three-dimensional model 9A displayed on the display unit 8, and the robot 2, workpiece W, and surrounding situation in the image P2 of the work site. confirm. Then, the worker checks whether or not interference will occur with surrounding equipment at the work site when the robot 2 is moved according to the moved three-dimensional model 9A.

さらに、作業者は、ロボット2が取ることができる位置姿勢となっているかも確認する。なお、操作端末6は、ロボット2の取ることができる位置姿勢の範囲を予めROM62に記憶しておいてもよい。そして、作業者がこの範囲を越える位置姿勢を取るよう3次元モデル9を移動させた場合、ロボット2が取ることができない位置姿勢となっていると判断し、操作端末6は3次元モデル9の色を所定の色(例えば赤色)に変色させ、作業者への注意喚起や操作の取り消し等を行ってもよい。 Furthermore, the worker also confirms whether the robot 2 is in a position and posture that it can take. Note that the operating terminal 6 may store in the ROM 62 in advance the range of positions and postures that the robot 2 can take. If the worker moves the 3D model 9 to take a position/orientation that exceeds this range, the robot 2 determines that the position/orientation is not possible, and the operating terminal 6 moves the 3D model 9 The color may be changed to a predetermined color (for example, red) to alert the operator or cancel the operation.

次に、操作端末6は、作業者がキャンセルボタン(図示せず)を押下した場合(ステップS6:N)、ステップS4に戻る。具体的には、作業者は、ロボット2を移動後の図5に示す3次元モデル9Aの位置姿勢に移動させないと判断したため、キャンセルボタン(図示せず)を押下する。これを受け、操作端末6は、ロボット2は移動後の3次元モデル9Aの位置に移動させずステップS4に戻り、再度、作業者の操作に従い3次元モデル9を移動させる。 Next, when the operator presses a cancel button (not shown) (step S6: N), the operation terminal 6 returns to step S4. Specifically, since the operator has determined that the robot 2 should not be moved to the position and orientation of the three-dimensional model 9A shown in FIG. 5 after movement, the operator presses a cancel button (not shown). In response to this, the operating terminal 6 returns to step S4 without moving the robot 2 to the position of the moved three-dimensional model 9A, and moves the three-dimensional model 9 again according to the operator's operation.

一方、操作端末6は、作業者によりOKボタン(図示せず)が押下されたことを検出した場合(ステップS6:Y)、ロボット2を移動させる(ステップS7)。具体的には、操作端末6は、図5に示す移動後の3次元モデル9Aの位置姿勢を示すパラメータをPLC29に送信し、OKボタン(図示せず)の押下が続いている間(長押しされている間)、ロボット2を移動後の3次元モデル9Aの位置姿勢に移動するよう制御する。その結果、図6に示すように、ロボット2が移動後の3次元モデル9Aに重なる位置姿勢となる。 On the other hand, when the operating terminal 6 detects that the OK button (not shown) has been pressed by the worker (step S6: Y), the operating terminal 6 moves the robot 2 (step S7). Specifically, the operating terminal 6 transmits parameters indicating the position and orientation of the three-dimensional model 9A after movement shown in FIG. (while the robot 2 is moving), the robot 2 is controlled to move to the position and orientation of the moved three-dimensional model 9A. As a result, as shown in FIG. 6, the robot 2 assumes a position and orientation that overlaps the moved three-dimensional model 9A.

なお、作業者は、ロボット2が移動中に周囲の装置等と干渉しそうになったら、長押ししているOKボタン(図示せず)を離すことで、干渉を回避することができる。 Note that if the robot 2 is likely to interfere with surrounding devices while moving, the operator can avoid the interference by releasing the long-pressed OK button (not shown).

次に、操作端末6は、図7に示す第2カメラ28の画像を受信し、表示させる(ステップS8)。すなわち、作業者は、第1カメラ31の画像(図6参照)では、作業ツール24の先端部24aとワークWとの位置関係が詳細に確認できない場合がある。そのため、操作端末6は、第2カメラ28に作業ツール24の先端部24aやワークWを撮像させ、撮像した画像を第2カメラ28から受信し、表示部8(あるいは操作端末6の表示部64)に表示させる(図示せず)。これにより、作業者は、作業ツール24の先端部24aとワークWの位置をより詳細に確認し、より正確に、先端部24aをワークWの所定位置に移動させることができる。なお、この際、PLC29は、図8に示す回転軸28cを回転させて、カメラ筐体28aの遮蔽板28dを回動させ、図8(b)に示すように、開口部28bを開放するようにしている。 Next, the operating terminal 6 receives and displays the image of the second camera 28 shown in FIG. 7 (step S8). That is, the operator may not be able to confirm the detailed positional relationship between the tip 24a of the work tool 24 and the workpiece W using the image taken by the first camera 31 (see FIG. 6). Therefore, the operation terminal 6 causes the second camera 28 to take an image of the tip 24a of the work tool 24 and the workpiece W, receives the taken image from the second camera 28, and displays the image on the display section 8 (or the display section 6 of the operation terminal 6). ) (not shown). Thereby, the operator can confirm the position of the tip 24a of the work tool 24 and the workpiece W in more detail, and move the tip 24a to a predetermined position on the workpiece W more accurately. At this time, the PLC 29 rotates the rotation shaft 28c shown in FIG. 8, rotates the shielding plate 28d of the camera housing 28a, and opens the opening 28b as shown in FIG. 8(b). I have to.

次に、操作端末6は、ロボット2に対し溶接等の加工作業を指示する(ステップS9)。具体的には、操作端末6は、ロボット操作プログラムあるいはその他の所定のプログラムにより、ロボット2に溶接等の加工作業を指示する。この際、PLC29は、図8に示す回転軸28cを回転させて、カメラ筐体28aの遮蔽板28dを回動させ、図8(a)に示すように、開口部28bを閉止するようにしている。これにより、加工作業の間、溶接のスパッタやアーク光、ドリルの切粉、その他の加工作業の飛散物等から第2カメラ28を保護することができる。 Next, the operating terminal 6 instructs the robot 2 to perform processing operations such as welding (step S9). Specifically, the operating terminal 6 instructs the robot 2 to perform processing operations such as welding using a robot operating program or other predetermined program. At this time, the PLC 29 rotates the rotation shaft 28c shown in FIG. 8, rotates the shielding plate 28d of the camera housing 28a, and closes the opening 28b as shown in FIG. 8(a). There is. This makes it possible to protect the second camera 28 from welding spatter, arc light, drill chips, and other flying objects during the processing operation.

所定の加工作業が終了したら、撮像処理端末5および操作端末6は処理を終了する。 When the predetermined processing work is completed, the imaging processing terminal 5 and the operation terminal 6 end the processing.

なお、この後、異なる形状のワークWに対し処理を行う場合、作業者は、その異なる形状のワークWをターンテーブルTに載置すればよい。図2に示す第1カメラ31~39がそのワークWを撮像するから、作業者は表示部8にてそのワークWを確認しながら、上述の動作方法にてロボット2を動作させることができる。 Note that, after this, when processing a workpiece W of a different shape, the operator only has to place the workpiece W of a different shape on the turntable T. Since the first cameras 31 to 39 shown in FIG. 2 take images of the workpiece W, the operator can operate the robot 2 in the above-described operating method while checking the workpiece W on the display unit 8.

したがって、以上説明してきた本実施形態によれば、容易な操作により、ロボットを動作させることができるロボット操作システムの動作方法を提供することができる。 Therefore, according to the present embodiment described above, it is possible to provide a method for operating a robot operation system that allows a robot to operate with easy operation.

すなわち、従来から、作業現場でワークを直接見ながら、ティーチペンダントを用いてロボットを動作させることは可能であったが、難易度が高いティーチペンダントの操作と、安全にロボットを移動させるための干渉の有無の確認、という作業を同時にこなす必要がある。一方、オフラインティーチングソフトはティーチペンダントを使用しないものの、コンピュータ上のロボットのCADデータを動かすだけであるから、実際にロボットを移動させることができない。また、ワークや設備のレイアウトに変更があった場合、その変更をオフラインティーチングソフトのCADデータに反映する必要がある。 In other words, it has traditionally been possible to operate the robot using a teach pendant while directly viewing the workpiece at the work site, but operating the teach pendant is highly difficult and requires interference to move the robot safely. It is necessary to simultaneously check the presence or absence of On the other hand, offline teaching software does not use a teach pendant, but only moves the robot's CAD data on the computer, so it cannot actually move the robot. Furthermore, if there is a change in the layout of the work or equipment, it is necessary to reflect the change in the CAD data of the offline teaching software.

しかし、本実施形態によれば、表示部8に表示される3次元モデル9を、マウスなどの入力部61で操作することによりロボットを所定位置に移動させる事ができるから、ティーチペンダントを操作することなく、オフラインティーチングソフトのような容易な操作により、ロボットを動作させることができる。 However, according to the present embodiment, the robot can be moved to a predetermined position by operating the three-dimensional model 9 displayed on the display unit 8 using the input unit 61 such as a mouse, so the teach pendant cannot be operated. The robot can be operated using simple operations like offline teaching software without having to worry about it.

また、本実施形態によれば、3次元モデル9と、第1カメラ31~39が撮像する作業現場の画像P2と重ね合わせて表示される。このため、3次元モデル9を移動させてから、その3次元モデル9と、実際のワークWや周辺の設備を目視確認しながら、周辺の設備と干渉を生じさせないか等を確認することができる。すなわち、移動の操作と確認作業を同時に行う必要がなく、これら作業を分けて行うことができる。なお、ワークWや周辺の設備のレイアウトに変更があった場合、作業現場の画像P2にて即時にその変更が確認でき、アプリケーションにてCADデータを修正する等の必要はない。 Furthermore, according to the present embodiment, the three-dimensional model 9 is displayed superimposed on the image P2 of the work site captured by the first cameras 31 to 39. Therefore, after moving the 3D model 9, it is possible to visually check the 3D model 9, the actual workpiece W, and surrounding equipment to check whether there will be any interference with the surrounding equipment. . That is, it is not necessary to perform the movement operation and the confirmation work at the same time, and these tasks can be performed separately. Note that if there is a change in the layout of the workpiece W or surrounding equipment, the change can be immediately confirmed on the work site image P2, and there is no need to modify the CAD data using the application.

さらに、本実施形態によれば、移動した3次元モデル9と、実際のワークWや周辺の設備を目視確認した結果、周辺の設備と干渉しそう等の好ましくない状態になることがわかった場合、キャンセルボタンを押下し、3次元モデル9の移動をやり直す事ができる。このように、ロボット2は移動させないまま、3次元モデル9Aだけを移動する操作をやり直しながら、最適な移動方法を見つけることができる。このとき、ロボット2は移動させていないから、ロボット2を一旦元の位置に戻し、移動をやり直す、という手間や工数が発生しない。 Furthermore, according to the present embodiment, when it is found as a result of visually checking the moved three-dimensional model 9, the actual workpiece W, and surrounding equipment that it is likely to be in an unfavorable state such as likely to interfere with surrounding equipment, By pressing the cancel button, the three-dimensional model 9 can be moved again. In this way, the optimal movement method can be found while redoing the operation of moving only the three-dimensional model 9A without moving the robot 2. At this time, since the robot 2 is not being moved, the time and effort of returning the robot 2 to its original position and redoing the movement is not required.

以上のことより、本実施形態によれば、オンラインティーチング方法、オフラインティーチング方法それぞれの欠点を克服し、なおかつ利点を利用し、容易な操作によりロボットを動作させることができるロボット操作システムの動作方法とすることができる。 From the above, according to the present embodiment, there is provided an operating method for a robot operating system that overcomes the drawbacks of the online teaching method and the offline teaching method, takes advantage of their advantages, and allows the robot to operate with easy operation. can do.

<変形例の説明>
なお、本実施形態において示したロボット操作システム1の動作方法はあくまで一例であり、特許請求の範囲に記載された本発明の要旨の範囲内において種々の変形・変更が可能である。例えば、本実施形態においては、遮蔽板28dを例示したが、それに限らず、遮光板を用いても良い。このようにすれば、溶接のスパッタやアーク光、ドリルの切粉、その他の加工作業の飛散物等からカメラ28を保護しつつ、カメラ28にて、その加工作業を撮像することもできる。
<Explanation of modification example>
Note that the operating method of the robot operating system 1 shown in this embodiment is merely an example, and various modifications and changes are possible within the scope of the gist of the present invention as set forth in the claims. For example, in this embodiment, although the shielding plate 28d is illustrated, the present invention is not limited thereto, and a light shielding plate may be used. In this way, it is possible to protect the camera 28 from welding spatter, arc light, drill chips, and other flying debris from the machining work, while still allowing the camera 28 to take an image of the machining work.

また、本実施形態において例示したカメラ筐体28aは、あくまで一例であり、どのような形状でも良く。要は、溶接のスパッタやアーク光、ドリルの切粉、その他の加工作業の際に生じる飛散物等からカメラ28を保護できれば良い。 Moreover, the camera housing 28a illustrated in this embodiment is just an example, and may have any shape. In short, it is sufficient to protect the camera 28 from welding spatter, arc light, drilling chips, and other flying objects generated during processing operations.

また、本実施形態においては、3次元モデル9は全体が単色にて表されるが、操作端末6は、図6に示すロボット2のアーム22に対応する部分の3次元モデル9bを透過させて、表示部8(あるいは操作端末6の表示部64)に表示させても良い。このようにすれば、図6に示す作業ツール24の先端部24aに相当する部分の3次元モデル9aが、ロボット2のアーム22に相当する部分の3次元モデル9bに隠れて見えない、ということがない。 Further, in this embodiment, the entire three-dimensional model 9 is represented in a single color, but the operating terminal 6 allows the three-dimensional model 9b of the portion corresponding to the arm 22 of the robot 2 shown in FIG. 6 to be transparent. , may be displayed on the display section 8 (or the display section 64 of the operating terminal 6). In this way, the 3D model 9a of the portion corresponding to the tip 24a of the work tool 24 shown in FIG. 6 is hidden by the 3D model 9b of the portion corresponding to the arm 22 of the robot 2 and cannot be seen. There is no.

また、本実施形態においては、撮像処理端末5と操作端末6は2台の情報処理装置である。このように2台に分けた場合、処理速度が速いという利点がある。しかし、撮像処理端末5と操作端末6の両方の処理を1台の情報処理装置で行っても良い。 Further, in this embodiment, the imaging processing terminal 5 and the operation terminal 6 are two information processing devices. Dividing into two devices in this way has the advantage of faster processing speed. However, the processing of both the imaging processing terminal 5 and the operation terminal 6 may be performed by one information processing device.

上記のように撮像処理端末5と操作端末6の両方の処理を1台の情報処理装置で行うにあたっては、第1カメラ31~39が撮像した画像をその情報処理装置に受信させ、受信した画像に3次元モデル9をその情報処理装置内で重ね合わせたものを、操作端末6の表示部64あるいは表示部8に表示させても良い。 When processing both the imaging processing terminal 5 and the operation terminal 6 as described above with one information processing device, the information processing device receives the images captured by the first cameras 31 to 39, and the received images The three-dimensional model 9 may be superimposed within the information processing device and displayed on the display section 64 or the display section 8 of the operation terminal 6.

また、本実施形態においては、表示部8は、一つのスクリーンとしたが、一つのモニターとしても良い。その場合、撮像処理端末5とモニターをモニターケーブル(図示せず)で接続し、撮像処理端末5の画像をモニターに表示させても良い。そして、操作端末6において作業者により起動されたロボット操作用プログラムが表示部64に表示された画面を、投影装置71により表示部8上に投影し、モニターに表示される画像に重ね合わせてもよい。 Further, in this embodiment, the display unit 8 is one screen, but it may be one monitor. In that case, the imaging processing terminal 5 and the monitor may be connected with a monitor cable (not shown), and the image of the imaging processing terminal 5 may be displayed on the monitor. Then, the screen on which the robot operation program started by the operator on the operation terminal 6 is displayed on the display section 64 is projected onto the display section 8 by the projection device 71 and superimposed on the image displayed on the monitor. good.

また、本実施形態においては、ステップS103において、撮像処理端末5が表示部8に表示する画像の受信元となる第1カメラを、第1カメラ31~39から1つ選択したが、自由視点画像を生成し、表示部8に表示させても良い。 In addition, in the present embodiment, in step S103, the imaging processing terminal 5 selects one of the first cameras 31 to 39 as the receiving source of the image displayed on the display unit 8, but the free viewpoint image may be generated and displayed on the display unit 8.

撮像処理端末5が自由視点画像を生成するには、例えば次のように行う。 For example, the imaging processing terminal 5 generates a free viewpoint image as follows.

まず、撮像処理端末5は、仮想空間内のどの位置から見た3次元モデル9を描写し、表示部8(あるいは操作端末6の表示部64)に表示させているかの位置情報(例えば3次元座標)を操作端末6から受信する(ステップS5参照)。 First, the imaging processing terminal 5 depicts the three-dimensional model 9 from which position in the virtual space it is viewed and displays the positional information (for example, the three-dimensional coordinates) from the operating terminal 6 (see step S5).

次に、撮像処理端末5は、受信した位置情報が、作業現場のどの位置に相当するかを算出し、この算出した位置から見た画像となるよう、第1カメラ31~39から受信する画像をキャリブレーションする。なお、仮想空間内の位置を示す位置情報を、作業現場の位置に変換するにあたっては、例えば透視投影行列を利用した方法など、公知の変換方法を利用して算出すれば良い。 Next, the imaging processing terminal 5 calculates which position on the work site the received positional information corresponds to, and displays the images received from the first cameras 31 to 39 so that the images are viewed from the calculated position. calibrate. Note that in converting the position information indicating the position in the virtual space to the position of the work site, calculation may be performed using a known conversion method such as a method using a perspective projection matrix.

最後に、撮像処理端末5は、上記のようにして得られた各画像を合成した画像(自由視点画像)を、表示部8に表示させる。 Finally, the imaging processing terminal 5 causes the display unit 8 to display an image (free viewpoint image) obtained by combining the images obtained as described above.

上記のようにして、自由視点画像を生成し、表示部8に表示させても良い。 A free viewpoint image may be generated and displayed on the display unit 8 as described above.

さらに、自由視点画像を生成するのではなく、第1カメラ31~39を移動させるようにしてもよい。 Furthermore, instead of generating free viewpoint images, the first cameras 31 to 39 may be moved.

具体的には、ステップS5において撮像処理端末5が操作端末6から受信した位置情報が、作業現場のどの位置に相当するかを算出し、この算出した位置に移動できる第1カメラを第1カメラ31~39から選択し、選択した第1カメラ31~39を算出した位置に移動させ、画像を表示部8に表示させる。 Specifically, in step S5, the imaging processing terminal 5 calculates which position in the work site the position information received from the operation terminal 6 corresponds to, and selects the first camera that can move to the calculated position as the first camera. 31 to 39, the selected first camera 31 to 39 is moved to the calculated position, and the image is displayed on the display unit 8.

上記のようにして、第1カメラ31~39のうち任意の1つの第1カメラを移動させて、表示部8に表示させても良い。なお、本実施形態においては、ターンテーブルTを例示したが、それに限らず、2軸ポジショナなど、どのようなものにも適用可能である。 As described above, any one of the first cameras 31 to 39 may be moved and displayed on the display unit 8. In addition, in this embodiment, although the turntable T was illustrated, it is applicable not only to this but to any thing, such as a two-axis positioner.

2 ロボット
22 アーム
24 作業ツール
28 第2カメラ
28a カメラ筐体28(保護部材)
28d 遮蔽板(保護部材)
31~39 第1カメラ
50 撮像処理端末5のCPU(表示制御手段)
60 操作端末6のCPU(制御手段)
61 操作端末6の入力部(操作手段)
62 操作端末6のROM(3次元モデル格納部)
8 表示部
9、9A 3次元モデル
9b アーム22に相当する部分の3次元モデル
W ワーク
P1~P3 作業現場の画像
2 Robot 22 Arm 24 Work tool 28 Second camera 28a Camera housing 28 (protective member)
28d Shielding plate (protective member)
31 to 39 First camera 50 CPU (display control means) of the imaging processing terminal 5
60 CPU (control means) of operation terminal 6
61 Input section of operation terminal 6 (operation means)
62 ROM of operation terminal 6 (3D model storage unit)
8 Display parts 9, 9A 3D model 9b 3D model W of the part corresponding to the arm 22 Works P1 to P3 Images of the work site

Claims (4)

ワークに対して所定の加工作業を行うロボットと、
前記ロボットおよび前記ワークを撮像可能な第1カメラと、
前記ロボットの3次元モデルを格納する3次元モデル格納部と、
前記第1カメラが撮像する前記ロボットの画像と3次元モデルとを重ね合わせて表示させる表示部と、
前記3次元モデルを操作する操作手段と、
前記ロボットを制御する制御手段と、
を備えたロボット操作システムの動作方法であって、
前記表示部に前記ロボットと前記3次元モデルとが重ね合わさった状態で表示されている該3次元モデルを、前記操作手段を用いて所定位置に移動させると、それに応じて該3次元モデルが所定位置に移動するステップと、
前記表示部に表示された前記3次元モデルを、前記操作手段を用いて所定位置に移動させると、それに応じて該3次元モデル所定位置に移動させるものの、前記ロボットは移動せず、その移動していない前記ロボットと、前記所定位置に移動させた3次元モデルとを前記表示部に重ね合わせて表示するステップと、
前記ロボットを前記所定位置に移動してよいか判断させるために、作業者に、前記表示部の表示を確認させるステップと、
前記3次元モデルが所定位置に移動したとしても、前記操作手段を用いて、許可動作を行わない限り、前記制御手段にて前記ロボットを前記所定位置に移動させず、前記操作手段を用いて、前記許可動作が行われると、前記制御手段にて前記ロボットを前記所定位置に移動させるステップと、を含んでなるロボット操作システムの動作方法。
A robot that performs predetermined machining work on a workpiece,
a first camera capable of capturing images of the robot and the work;
a three-dimensional model storage unit that stores a three-dimensional model of the robot;
a display unit that superimposes and displays an image of the robot captured by the first camera and a three-dimensional model;
operating means for operating the three-dimensional model;
control means for controlling the robot;
A method of operating a robot operation system comprising:
When the three-dimensional model, which is displayed on the display section with the robot and the three-dimensional model superimposed , is moved to a predetermined position using the operating means, the three-dimensional model is moved to a predetermined position accordingly. a step of moving to a position;
When the three-dimensional model displayed on the display section is moved to a predetermined position using the operating means, the three-dimensional model is moved to the predetermined position accordingly, but the robot does not move. displaying the robot that has not been moved and the three-dimensional model that has been moved to the predetermined position in a superimposed manner on the display unit ;
having a worker check the display on the display unit in order to determine whether or not to move the robot to the predetermined position;
Even if the three-dimensional model moves to a predetermined position, the control means does not move the robot to the predetermined position unless a permission operation is performed using the operating means; An operating method for a robot operating system, comprising the step of causing the control means to move the robot to the predetermined position when the permission operation is performed.
前記ロボットのアームに設けられた作業ツールの先端部を撮像可能な第2カメラと、
前記ロボットが前記ワークに対して前記所定の加工作業を行っている際、前記第2カメラを保護する保護部材と、をさらに備えてなる、請求項1に記載のロボット操作システムの動作方法。
a second camera capable of capturing an image of a tip of a work tool provided on the arm of the robot;
The method of operating a robot operating system according to claim 1, further comprising: a protection member that protects the second camera when the robot performs the predetermined processing operation on the workpiece.
前記表示部に表示させる画像を制御する表示制御手段をさらに備え、
前記第1カメラは複数の第1カメラであって、
前記表示部に表示される前記3次元モデルの位置情報に基づき、前記表示制御手段にて、前記複数の第1カメラから1つを選択するステップと、
前記選択された第1カメラによって撮像された画像を、前記表示制御手段にて、前記表示部に表示させるステップと、をさらに備えてなる、請求項1に記載のロボット操作システムの動作方法。
further comprising display control means for controlling an image to be displayed on the display section,
The first camera is a plurality of first cameras,
selecting one of the plurality of first cameras by the display control means based on position information of the three-dimensional model displayed on the display unit;
2. The method of operating a robot operating system according to claim 1, further comprising the step of causing the display control unit to display an image captured by the selected first camera on the display unit.
前記3次元モデルは、前記ロボットのアームに対応する部分を透過させて、前記表示部に表示されてなる、請求項1に記載のロボット操作システムの動作方法。 2. The method of operating a robot operating system according to claim 1, wherein the three-dimensional model is displayed on the display section with a portion corresponding to the arm of the robot being transparent.
JP2022180752A 2022-11-11 2022-11-11 How the robot handling system works Active JP7364285B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022180752A JP7364285B1 (en) 2022-11-11 2022-11-11 How the robot handling system works

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022180752A JP7364285B1 (en) 2022-11-11 2022-11-11 How the robot handling system works

Publications (2)

Publication Number Publication Date
JP7364285B1 true JP7364285B1 (en) 2023-10-18
JP2024070336A JP2024070336A (en) 2024-05-23

Family

ID=88328402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022180752A Active JP7364285B1 (en) 2022-11-11 2022-11-11 How the robot handling system works

Country Status (1)

Country Link
JP (1) JP7364285B1 (en)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003127078A (en) 2001-10-19 2003-05-08 Komatsu Ltd Teaching device and teaching method for working robot
JP2009241247A (en) 2008-03-10 2009-10-22 Kyokko Denki Kk Stereo-image type detection movement device
JP2011251395A (en) 2010-06-04 2011-12-15 Takamaru Kogyo Kk Robot teaching system
JP2013132728A (en) 2011-12-27 2013-07-08 Kawasaki Heavy Ind Ltd Teach pendant
JP2016159369A (en) 2015-02-26 2016-09-05 三菱重工業株式会社 Processing system and tool fitting method
JP2018183845A (en) 2017-04-26 2018-11-22 ファナック株式会社 Operation device, robot system, and operation method, for operating robot
JP2020043497A (en) 2018-09-11 2020-03-19 キヤノン株式会社 Imaging apparatus
JP2020055075A (en) 2018-10-02 2020-04-09 ファナック株式会社 Robot control device using augmented reality and composite reality and display device
JP2020075354A (en) 2018-11-01 2020-05-21 キヤノン株式会社 External input device, robot system, control method for robot system, control program, and recording medium
WO2020116041A1 (en) 2018-12-05 2020-06-11 ミツミ電機株式会社 Imaging device, imaging system, and industrial robot
JP2020516475A (en) 2017-04-13 2020-06-11 バテル・メモリアル・インスティテュートBattelle Memorial Institute Teaching Mode Collision Avoidance System and Method for Industrial Robot Manipulators
JP2021000678A (en) 2019-06-20 2021-01-07 オムロン株式会社 Control system and control method
JP2021084192A (en) 2019-11-28 2021-06-03 セイコーエプソン株式会社 robot

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3158032B2 (en) * 1995-12-27 2001-04-23 本田技研工業株式会社 Offline teaching system

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003127078A (en) 2001-10-19 2003-05-08 Komatsu Ltd Teaching device and teaching method for working robot
JP2009241247A (en) 2008-03-10 2009-10-22 Kyokko Denki Kk Stereo-image type detection movement device
JP2011251395A (en) 2010-06-04 2011-12-15 Takamaru Kogyo Kk Robot teaching system
JP2013132728A (en) 2011-12-27 2013-07-08 Kawasaki Heavy Ind Ltd Teach pendant
JP2016159369A (en) 2015-02-26 2016-09-05 三菱重工業株式会社 Processing system and tool fitting method
JP2020516475A (en) 2017-04-13 2020-06-11 バテル・メモリアル・インスティテュートBattelle Memorial Institute Teaching Mode Collision Avoidance System and Method for Industrial Robot Manipulators
JP2018183845A (en) 2017-04-26 2018-11-22 ファナック株式会社 Operation device, robot system, and operation method, for operating robot
JP2020043497A (en) 2018-09-11 2020-03-19 キヤノン株式会社 Imaging apparatus
JP2020055075A (en) 2018-10-02 2020-04-09 ファナック株式会社 Robot control device using augmented reality and composite reality and display device
JP2020075354A (en) 2018-11-01 2020-05-21 キヤノン株式会社 External input device, robot system, control method for robot system, control program, and recording medium
WO2020116041A1 (en) 2018-12-05 2020-06-11 ミツミ電機株式会社 Imaging device, imaging system, and industrial robot
JP2021000678A (en) 2019-06-20 2021-01-07 オムロン株式会社 Control system and control method
JP2021084192A (en) 2019-11-28 2021-06-03 セイコーエプソン株式会社 robot

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
浅見 瞭 Ryo ASAMI,視触覚融合提示システムを用いたクローラ型レスキューロボットの移動操作 Visual-haptic Fusion System for Moving Operation of Tracked Rescue Robot,ロボティクスメカトロニクス講演会2016講演会論文集 ,日本,一般社団法人日本機械学会,2016年06月08日

Also Published As

Publication number Publication date
JP2024070336A (en) 2024-05-23

Similar Documents

Publication Publication Date Title
JP6725727B2 (en) Three-dimensional robot work cell data display system, display method, and display device
JP7490349B2 (en) Input device, control method for input device, robot system, method for manufacturing article using robot system, control program and recording medium
US10737396B2 (en) Method and apparatus for robot path teaching
JP6787966B2 (en) Robot control device and display device using augmented reality and mixed reality
US10882189B2 (en) Control device and robot system
US10980606B2 (en) Remote-control manipulator system and method of operating the same
EP1462896B1 (en) Robot teaching device
EP1749621B1 (en) Robot programming device
JP4167940B2 (en) Robot system
EP1512499A2 (en) Robot having a camera mounted at the distal end of its arm and method for operating such a robot
US11731283B2 (en) Method for checking a safety area of a robot
US20150298318A1 (en) Teleoperation Of Machines Having At Least One Actuated Mechanism
JP2008254150A (en) Teaching method and teaching device of robot
US20240269857A1 (en) Robot system, control apparatus of robot system, control method of robot system, imaging apparatus, and storage medium
JP7364285B1 (en) How the robot handling system works
JP6905651B1 (en) How to form a 3D model of a robot system and work
JP6917551B2 (en) Robot control method and robot
JPS6334093A (en) Visual device
JP6990340B2 (en) Robot system
JP7462046B2 (en) Robot System
JPH1177568A (en) Teaching assisting method and device
US20220226982A1 (en) Method Of Creating Control Program For Robot, System Executing Processing Of Creating Control Program For Robot, And Non-Transitory Computer-Readable Storage Medium
JP2003127078A (en) Teaching device and teaching method for working robot
US20220214685A1 (en) Remote operating device
JP2024083061A (en) Teaching data accumulation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230928

R150 Certificate of patent or registration of utility model

Ref document number: 7364285

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150