Nothing Special   »   [go: up one dir, main page]

JP2018144166A - Image processing device, image processing method, image processing program and recording medium readable by computer as well as equipment with the same recorded - Google Patents

Image processing device, image processing method, image processing program and recording medium readable by computer as well as equipment with the same recorded Download PDF

Info

Publication number
JP2018144166A
JP2018144166A JP2017040981A JP2017040981A JP2018144166A JP 2018144166 A JP2018144166 A JP 2018144166A JP 2017040981 A JP2017040981 A JP 2017040981A JP 2017040981 A JP2017040981 A JP 2017040981A JP 2018144166 A JP2018144166 A JP 2018144166A
Authority
JP
Japan
Prior art keywords
model
end effector
gripping
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017040981A
Other languages
Japanese (ja)
Other versions
JP6877192B2 (en
Inventor
直輝 ▲高▼山
直輝 ▲高▼山
Naoki Takayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2017040981A priority Critical patent/JP6877192B2/en
Publication of JP2018144166A publication Critical patent/JP2018144166A/en
Priority to JP2021074635A priority patent/JP7128933B2/en
Application granted granted Critical
Publication of JP6877192B2 publication Critical patent/JP6877192B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow interference of an end effector to be easily determined.SOLUTION: The image processing device comprises: an end effector model registration part 8u for registering an end effector model, three-dimensional CAD data, which virtually expresses a three-dimensional shape of an end effector; an additional model preparation part 8v for preparing an additional model in which an additional region expressed by one or more prescribed three-dimensional graphics is added to a surface of the end effector model; and an interference determination part 8m for performing interference determination by which presence and absence of interference of the effector with other objects that may interfere operation of the end effector is determined when operating the effector by the additional model prepared by the additional model preparation part 8v.SELECTED DRAWING: Figure 31

Description

本発明は、画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器に関し、例えば作業空間に積み上げられたピッキングの対象である複数のワークの三次元形状をセンサ部により測定し、ロボットのアーム部の先端に設けたエンドエフェクタで把持して順次取り出すバラ積みピッキング動作を行うロボットを制御するための画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器に関する。   The present invention relates to an image processing apparatus, an image processing method, an image processing program, a computer-readable recording medium, and a recorded device. For example, the present invention relates to a sensor for detecting a three-dimensional shape of a plurality of workpieces stacked in a work space. Image processing device, image processing method, image processing program, and computer readable for controlling a robot that performs a bulk picking operation that is measured by a head and gripped by an end effector provided at the tip of a robot arm and sequentially taken out The present invention relates to a recording medium and recorded equipment.

マニピュレータにロボットビジョンを組み合わせて、対象となるワークをロボットビジョンで撮像して高さ情報を取得した上で、適切な位置を把持(ピック)して、所望の位置に載置(プレース又はプレースメント)可能なロボット装置が開発されている。このようなロボット装置を用いて、バラ積みピッキングと呼ばれる、通い箱に入れられた多数のワークを、ロボットビジョンを構成するカメラやセンサ部で撮像して姿勢を把握し、適切な把持位置を把握した上で、この把持位置までロボットのアームを移動させ、アームの先端に設けられたハンド部等のエンドエフェクタで把持して、通い箱の外の、決められた位置に載置することが行われている。   The robot vision is combined with the manipulator, the target work is imaged with the robot vision, height information is acquired, the appropriate position is gripped (pick), and placed at the desired position (place or placement) ) Possible robotic devices have been developed. Using such a robotic device, a large number of workpieces placed in a returnable box, called bulk picking, are imaged with the cameras and sensors that make up the robot vision to determine the posture and the appropriate gripping position. After that, the robot arm is moved to this gripping position, gripped by an end effector such as a hand provided at the tip of the arm, and placed at a predetermined position outside the return box. It has been broken.

このようなロボットビジョンを用いたバラ積みピッキングでは、設定時においてワークを掴むときのワークとロボットとの位置関係を把持位置として登録しておき、実運用時にはロボットビジョンで検出したワークに対するロボットの把持位置を計算し、計算された位置にロボットを移動させてピッキングする。   In such picking using robot vision, the positional relationship between the workpiece and the robot when the workpiece is gripped is registered as a gripping position at the time of setting, and the robot grips the workpiece detected by the robot vision during actual operation The position is calculated, and the robot is moved to the calculated position and picked.

このようなバラ積みピッキングでは、ワークを把持する時にエンドエフェクタが他のワークや箱など、周囲に存在する障害物と干渉してしまうことがある。これを避けるために、把持位置でのエンドエフェクタの位置を計算して周囲の物体との干渉判定を行い、干渉しない解を有効な解として出力することが考えられる。ここで、周囲の物体としては、センサ部で計測して得られた三次元点群や、事前に登録した箱や床などがある。   In such bulk picking, the end effector may interfere with other obstacles such as other works and boxes when gripping the work. In order to avoid this, it is conceivable to calculate the position of the end effector at the gripping position, determine interference with surrounding objects, and output a solution that does not interfere as an effective solution. Here, the surrounding objects include a three-dimensional point group obtained by measurement with a sensor unit, a box or a floor registered in advance.

このようなエンドエフェクタの干渉判定モデルを作成する場合、エンドエフェクタの三次元CADデータを読み込む方法が最も手間が少ないと考えられる。例えば、三次元CADデータを読み込んで干渉判定を行う方法が提案されている(特許文献1)。この方法では、エンドエフェクタの三次元CADデータを読み込み、そのエンドエフェクタモデルを用いて干渉判定を行っている。しかしながら、干渉領域を追加したい場合は、三次元CADプログラムなどを用いて三次元CADデータを編集して、干渉領域の形状を作成して追加する必要があり、繁雑な作業を要するという問題があった。   When creating such an end effector interference determination model, it is considered that the method of reading the end effector's three-dimensional CAD data is the least laborious. For example, a method has been proposed in which three-dimensional CAD data is read to perform interference determination (Patent Document 1). In this method, three-dimensional CAD data of an end effector is read, and interference determination is performed using the end effector model. However, when it is desired to add an interference area, it is necessary to edit the 3D CAD data using a 3D CAD program or the like to create and add the shape of the interference area, which requires a complicated operation. It was.

また、エンドエフェクタモデルを直方体で作成して代用する方法も提案されている(特許文献2)。この方法では、エンドエフェクタを模倣するため、直方体を組み合わせてエンドエフェクタ代用モデルを作成している。しかしながら、直方体の組み合わせのみでは、実物のエンドエフェクタに近いモデルを作成するのは容易でなく、再現性の点で問題があった。   In addition, a method of creating and substituting an end effector model with a rectangular parallelepiped has been proposed (Patent Document 2). In this method, in order to imitate the end effector, an end effector substitute model is created by combining rectangular parallelepipeds. However, it is not easy to create a model close to a real end effector only by combining cuboids, and there is a problem in terms of reproducibility.

特開2015−9314号公報Japanese Patent Laying-Open No. 2015-9314 特許3782679号公報Japanese Patent No. 3786679

本発明は、このような事情に鑑みてなされたものであり、その目的の一は、エンドエフェクタの干渉判定を容易に行えるようにした画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器を提供することにある。   The present invention has been made in view of such circumstances, and one object of the present invention is to read an image processing apparatus, an image processing method, an image processing program, and a computer that can easily determine the interference of an end effector. An object is to provide a possible recording medium and a recorded device.

課題を解決するための手段及び発明の効果Means for Solving the Problems and Effects of the Invention

本発明の第1の形態に係る画像処理装置によれば、作業空間に積み上げられた複数のワークの三次元形状をセンサ部により測定し、ロボットのアーム部の先端に設けたエンドエフェクタで保持するピッキング動作を行うロボットを制御するための画像処理装置であって、ワークの三次元形状を示すワークモデルを登録するためのワークモデル登録部と、エンドエフェクタの三次元形状を仮想的に表現する、三次元CADデータであるエンドエフェクタモデルを登録するためのエンドエフェクタモデル登録部と、前記エンドエフェクタモデル登録部により登録されたエンドエフェクタにより、前記ワークモデル登録部により登録されたワークモデルを把持する際の前記エンドエフェクタの位置及び姿勢と、前記ワークモデルの把持位置を設定するための把持位置特定部と、予め規定された一以上の立体的な図形で表現した追加領域を、前記エンドエフェクタモデルの表面に追加した追加モデルを作成するための追加モデル作成部と、前記把持位置特定部により設定された前記ワークモデルの把持位置を、前記把持位置特定部により設定されたエンドエフェクタの位置及び姿勢にて把持する際に、前記エンドエフェクタモデル登録部で登録されたエンドエフェクタモデルと前記追加モデル作成部で作成された追加モデルが、該把持動作を妨げる可能性のある他の物体と干渉するか否かを判定する干渉判定を行うための干渉判定部とを備えることができる。上記構成により、三次元CADデータを編集することなく、エンドエフェクタモデルに対して直方体や円柱などの単純形状で干渉判定領域を追加して、それぞれの領域に応じた干渉判定を行うことにより、簡便に干渉判定を行えるようになる。   According to the image processing apparatus of the first embodiment of the present invention, the three-dimensional shape of a plurality of workpieces stacked in the work space is measured by the sensor unit and held by the end effector provided at the tip of the robot arm unit. An image processing apparatus for controlling a robot that performs a picking operation, and virtually represents a three-dimensional shape of a work model registration unit for registering a work model indicating a three-dimensional shape of a work, and an end effector. When the work model registered by the work model registration unit is gripped by an end effector model registration unit for registering an end effector model which is three-dimensional CAD data and the end effector registered by the end effector model registration unit Set the position and orientation of the end effector and the gripping position of the work model. A gripping position specifying unit, an additional model creating unit for creating an additional model in which an additional region expressed by one or more predefined three-dimensional figures is added to the surface of the end effector model, and the gripping The end effector model registered by the end effector model registration unit when the gripping position of the work model set by the position specifying unit is held at the position and posture of the end effector set by the holding position specifying unit. And an interference determination unit for performing interference determination to determine whether the additional model created by the additional model creation unit interferes with other objects that may interfere with the gripping operation. . With the above configuration, it is easy to add an interference determination area with a simple shape such as a rectangular parallelepiped or a cylinder to the end effector model without editing the 3D CAD data, and perform interference determination according to each area. Interference determination can be performed.

また、第2の形態に係る画像処理装置によれば、上記構成に加えて、前記追加モデル作成部は、予め規定された図形として、直方体又は円柱を選択可能に構成することができる。上記構成により、単純な形状で追加領域を作成しワークモデルに追加できるので、ユーザは干渉判定を行う追加モデルを容易に作成できる。   Moreover, according to the image processing apparatus which concerns on a 2nd form, in addition to the said structure, the said additional model creation part can be comprised so that a rectangular parallelepiped or a cylinder can be selected as a figure prescribed | regulated previously. With the above configuration, an additional region can be created with a simple shape and added to the work model, so that the user can easily create an additional model for performing interference determination.

さらに、第3の形態に係る画像処理装置によれば、上記何れかの構成に加えて、前記追加モデル作成部は、予め規定された図形を複数組み合わせて追加領域を構成可能とできる。上記構成により、図形の組み合わせにより表現可能な形状のバリエーションを増やすことができる。   Furthermore, according to the image processing apparatus according to the third embodiment, in addition to any of the above-described configurations, the additional model creation unit can configure an additional region by combining a plurality of predefined figures. With the above configuration, it is possible to increase variations of shapes that can be expressed by combinations of figures.

さらにまた、第4の形態に係る画像処理装置によれば、上記何れかの構成に加えて、前記追加モデル作成部は、前記追加領域を、アーム部の先端のフランジ面とエンドエフェクタモデルとの間に挿入可能に構成できる。   Furthermore, according to the image processing device according to the fourth aspect, in addition to any of the above-described configurations, the additional model creation unit may include the additional region between the flange surface at the tip of the arm unit and the end effector model. It can be configured to be insertable between them.

さらにまた、第5の形態に係る画像処理装置によれば、上記何れかの構成に加えて、前記追加モデル作成部は、前記追加領域を、一方向に延長した円柱状又は角柱状で構成可能とできる。上記構成により、エンドエフェクタモデルやアーム部に付属するケーブルやハーネスを模した追加領域を容易に構成できる利点が得られる。   Furthermore, according to the image processing apparatus according to the fifth aspect, in addition to any of the above-described configurations, the additional model creation unit can be configured to have the additional region formed in a columnar shape or a prismatic shape extending in one direction. And can. With the above configuration, an advantage that an additional region imitating a cable or a harness attached to the end effector model or the arm portion can be easily configured is obtained.

さらにまた、第6の形態に係る画像処理装置によれば、上記何れかの構成に加えて、さらに、センサ部で測定された複数のワーク及びその周囲の物体を含む画像から三次元形状を有する入力画像を取得する入力画像取得部を備え、前記干渉判定部は、前記入力画像取得部で取得された入力画像に含まれる複数のワークの何れかを把持しようとしてエンドエフェクタを当該位置に移動させる際に、該ワークの周囲の物体がエンドエフェクタと干渉するか否かを判定するために、入力画像の内で該ワークの周囲の物体を構成する画像に対して、干渉判定を実行するよう構成できる。上記構成により、エンドエフェクタモデルを入力画像と対比して干渉判定することができる。   Furthermore, according to the image processing device according to the sixth aspect, in addition to any of the above-described configurations, the image processing device further has a three-dimensional shape from an image including a plurality of workpieces measured by the sensor unit and surrounding objects. An input image acquisition unit that acquires an input image is provided, and the interference determination unit moves the end effector to the position so as to grip any of a plurality of workpieces included in the input image acquired by the input image acquisition unit. In order to determine whether or not an object around the workpiece interferes with the end effector, an interference determination is performed on an image constituting the object around the workpiece in the input image. it can. With the above configuration, it is possible to determine the interference by comparing the end effector model with the input image.

さらにまた、第7の形態に係る画像処理装置によれば、上記何れかの構成に加えて、さらに、前記入力画像取得部で取得された入力画像に含まれる複数のワーク群に対して、各ワークの姿勢と位置を特定する三次元サーチを行う際に用いる、ワークの三次元形状を仮想的に表現したサーチモデルを登録するためのサーチモデル登録部と、前記入力画像取得部で取得された入力画像中から、前記サーチモデル登録部で登録されたサーチモデルを用いて、各ワークの位置及び姿勢に対応する画像領域を特定する三次元サーチを行うための三次元サーチ部とを備え、前記干渉判定部が、前記三次元サーチ部で入力画像中からサーチされた各ワークの位置及び姿勢に対応するサーチ結果に対して、該ワークを把持するために前記把持位置特定部で特定された把持位置にエンドエフェクタモデルを配置する場合に、該ワークの周囲に存在する物体との干渉の有無を判定するよう構成できる。   Furthermore, according to the image processing device according to the seventh aspect, in addition to any of the above configurations, each of the plurality of work groups included in the input image acquired by the input image acquisition unit A search model registration unit for registering a search model that virtually represents the three-dimensional shape of the workpiece, which is used when performing a three-dimensional search for specifying the posture and position of the workpiece, and acquired by the input image acquisition unit A three-dimensional search unit for performing a three-dimensional search for specifying an image region corresponding to the position and orientation of each workpiece using the search model registered in the search model registration unit from the input image, The interference determination unit specifies the gripping position specifying unit to grip the workpiece with respect to the search result corresponding to the position and posture of each workpiece searched from the input image by the three-dimensional search unit. When placing the end effector model the gripping position, it can be configured to determine the presence or absence of interference between an object existing around the workpiece.

さらにまた、第8の形態に係る画像処理装置によれば、上記何れかの構成に加えて、前記エンドエフェクタモデルがSTLデータで構成できる。   Furthermore, according to the image processing device of the eighth aspect, in addition to any of the above-described configurations, the end effector model can be configured with STL data.

さらにまた、第9の形態に係る画像処理装置によれば、上記何れかの構成に加えて、前記入力画像を、三次元点群データの集合で構成することができる。   Furthermore, according to the image processing device of the ninth aspect, in addition to any of the above-described configurations, the input image can be configured with a set of three-dimensional point cloud data.

さらにまた、第10の形態に係る画像処理方法によれば、作業空間に積み上げられた複数のワークの三次元形状をセンサ部により測定し、ロボットのアーム部の先端に設けたエンドエフェクタで把持するピッキング動作を行うロボットを制御する画像処理方法であって、エンドエフェクタの三次元形状を仮想的に表現する、三次元CADデータであるエンドエフェクタモデルを登録する工程と、前記登録されたエンドエフェクタにより、ワークの三次元形状を示すワークモデルを把持する際の、エンドエフェクタの位置及び姿勢と、ワークモデルの把持位置を設定すると共に、予め規定された一以上の立体的な図形で表現した追加領域を、前記エンドエフェクタモデルの表面に追加した追加モデルを作成する工程と、前記設定されたワークモデルの把持位置を、前記設定されたエンドエフェクタの位置及び姿勢にて把持する際に、前記登録されたエンドエフェクタモデルと前記作成された追加モデルが、該把持動作を妨げる可能性のある他の物体と干渉するか否かを判定する工程とを含むことができる。これにより、三次元CADデータを編集することなく、エンドエフェクタモデルに対して直方体や円柱などの単純形状で干渉判定領域を追加して、それぞれの領域に応じた干渉判定を行うことにより、簡便に干渉判定を行えるようになる。   Furthermore, according to the image processing method according to the tenth embodiment, the three-dimensional shape of a plurality of workpieces stacked in the work space is measured by the sensor unit, and is gripped by the end effector provided at the tip of the robot arm unit. An image processing method for controlling a robot that performs a picking operation, the step of registering an end effector model, which is three-dimensional CAD data that virtually represents a three-dimensional shape of an end effector, and the registered end effector In addition to setting the position and orientation of the end effector and the gripping position of the work model when gripping a work model that shows the three-dimensional shape of the work, an additional area expressed by one or more predefined three-dimensional figures Creating an additional model added to the surface of the end effector model, and the set work module. When the gripping position of the robot is gripped at the set end effector position and posture, the registered end effector model and the created additional model may interfere with the gripping operation. Determining whether to interfere with the object. This makes it easy to add an interference determination area with a simple shape such as a rectangular parallelepiped or a cylinder to the end effector model without editing the 3D CAD data, and perform interference determination according to each area. Interference determination can be performed.

さらにまた、第11の形態に係る画像処理プログラムによれば、作業空間に積み上げられた複数のワークの三次元形状をセンサ部により測定し、ロボットのアーム部の先端に設けたエンドエフェクタで把持するピッキング動作を行うロボットを制御するための画像処理プログラムであって、ワークの三次元形状を示すワークモデルを登録する機能と、エンドエフェクタの三次元形状を仮想的に表現する、三次元CADデータであるエンドエフェクタモデルを登録する機能と、前記登録されたエンドエフェクタにより、ワークの三次元形状を示すワークモデルを把持する際の、エンドエフェクタの位置及び姿勢と、ワークモデルの把持位置を設定する機能と、予め規定された一以上の立体的な図形で表現した追加領域を、前記エンドエフェクタモデルの表面に追加した追加モデルを作成する機能と、前記設定されたワークモデルの把持位置を、前記設定されたエンドエフェクタの位置及び姿勢にて把持する際に、前記登録されたエンドエフェクタモデルと前記作成された追加モデルが、該把持動作を妨げる可能性のある他の物体と干渉するか否かを判定する機能とをコンピュータに実現させることができる。上記構成により、三次元CADデータを編集することなく、エンドエフェクタモデルに対して直方体や円柱などの単純形状で干渉判定領域を追加して、それぞれの領域に応じた干渉判定を行うことにより、簡便に干渉判定を行えるようになる。   Furthermore, according to the image processing program according to the eleventh embodiment, the three-dimensional shape of a plurality of workpieces stacked in the work space is measured by the sensor unit, and is gripped by the end effector provided at the tip of the arm unit of the robot. An image processing program for controlling a robot that performs a picking operation, including a function for registering a work model indicating a three-dimensional shape of a work, and three-dimensional CAD data that virtually represents the three-dimensional shape of an end effector. A function for registering an end effector model, and a function for setting the position and orientation of the end effector and the gripping position of the work model when gripping a work model showing the three-dimensional shape of the work by the registered end effector. And an additional area expressed by one or more predefined three-dimensional figures, the end effector A function of creating an additional model added to the surface of the Dell, and when the gripping position of the set work model is gripped by the set position and posture of the end effector, the registered end effector model The computer can realize a function of determining whether or not the created additional model interferes with another object that may interfere with the gripping operation. With the above configuration, it is easy to add an interference determination area with a simple shape such as a rectangular parallelepiped or a cylinder to the end effector model without editing the 3D CAD data, and perform interference determination according to each area. Interference determination can be performed.

さらにまた、第12の形態に係るコンピュータで読み取り可能な記録媒体または記憶した機器は、上記画像処理プログラムを格納するものである。記録媒体には、CD−ROM、CD−R、CD−RWやフレキシブルディスク、磁気テープ、MO、DVD−ROM、DVD−RAM、DVD−R、DVD+R、DVD−RW、DVD+RW、Blu−ray、HD DVD(AOD)等の磁気ディスク、光ディスク、光磁気ディスク、半導体メモリその他のプログラムを格納可能な媒体が含まれる。またプログラムには、上記記録媒体に格納されて配布されるものの他、インターネット等のネットワーク回線を通じてダウンロードによって配布される形態のものも含まれる。さらに記憶した機器には、上記プログラムがソフトウェアやファームウェア等の形態で実行可能な状態に実装された汎用もしくは専用機器を含む。さらにまたプログラムに含まれる各処理や機能は、コンピュータで実行可能なプログラムソフトウエアにより実行してもよいし、各部の処理を所定のゲートアレイ(FPGA、ASIC)等のハードウエア、又はプログラムソフトウエアとハードウェアの一部の要素を実現する部分的ハードウエアモジュールとが混在する形式で実現してもよい。   Furthermore, a computer-readable recording medium or a stored device according to the twelfth embodiment stores the image processing program. Recording media include CD-ROM, CD-R, CD-RW, flexible disk, magnetic tape, MO, DVD-ROM, DVD-RAM, DVD-R, DVD + R, DVD-RW, DVD + RW, Blu-ray, HD A medium that can store a program such as a magnetic disk such as a DVD (AOD), an optical disk, a magneto-optical disk, a semiconductor memory, or the like is included. The program includes a program distributed in a download manner through a network line such as the Internet, in addition to a program stored and distributed in the recording medium. Furthermore, the stored devices include general-purpose or dedicated devices in which the program is implemented in a state where it can be executed in the form of software, firmware, or the like. Furthermore, each process and function included in the program may be executed by computer-executable program software, or each part of the process or hardware may be executed by hardware such as a predetermined gate array (FPGA, ASIC), or program software. And a partial hardware module that realizes a part of hardware elements may be mixed.

ロボットシステムを用いてバラ積みピッキング動作を行う様子を示す模式図である。It is a schematic diagram which shows a mode that the bulk picking operation | movement is performed using a robot system. ロボットシステムのブロック図である。It is a block diagram of a robot system. センサ部の一例を示す斜視図である。It is a perspective view which shows an example of a sensor part. 図4Aは収納容器にワークを無作為に投入して積み上げた例を示す模式断面図、図4Bはワークを床面上に積み上げた例を示す模式断面図、図4Cはワークを一定姿勢でトレイ上に配列した状態を示す斜視図である。4A is a schematic cross-sectional view showing an example in which workpieces are randomly placed in a storage container and stacked, FIG. 4B is a schematic cross-sectional view showing an example in which workpieces are stacked on a floor surface, and FIG. It is a perspective view which shows the state arranged on the top. 図5Aはエンドエフェクタでワークを把持する例を示す模式図、図5Bは空洞を有するワークを内面から把持する例を示す模式図、図5Cは板状のワークを吸引して把持する例を示す模式図である。5A is a schematic diagram showing an example of gripping a workpiece with an end effector, FIG. 5B is a schematic diagram showing an example of gripping a workpiece having a cavity from the inner surface, and FIG. 5C shows an example of sucking and gripping a plate-like workpiece. It is a schematic diagram. 実施形態1に係るロボットシステムを示すブロック図である。1 is a block diagram illustrating a robot system according to a first embodiment. 三次元CADデータで構築されたワークモデルを示す斜視図である。It is a perspective view which shows the work model constructed | assembled by three-dimensional CAD data. 図7のワークモデルに対してサーチモデルの原点を設定する状態を示すイメージ図である。It is an image figure which shows the state which sets the origin of a search model with respect to the work model of FIG. 図9Aは図7のワークモデルをX軸の正方向から見た基本方向画像、図9BはY軸の正方向から見た基本方向画像、図9CはZ軸の正方向から見た基本方向画像、図9DはZ軸の負方向から見た基本方向画像である。9A is a basic direction image when the work model of FIG. 7 is viewed from the positive direction of the X axis, FIG. 9B is a basic direction image when viewed from the positive direction of the Y axis, and FIG. 9C is a basic direction image when viewed from the positive direction of the Z axis. FIG. 9D is a basic direction image viewed from the negative direction of the Z-axis. 三次元サーチのサーチモデルとして基本方向画像を登録するサーチモデル登録画面を示すイメージ図である。It is an image figure which shows the search model registration screen which registers a basic direction image as a search model of a three-dimensional search. 図7のワークモデルに対応するワークをX軸の正方向から撮像した実測データを示すイメージ図である。It is an image figure which shows the measurement data which imaged the workpiece | work corresponding to the workpiece | work model of FIG. 7 from the positive direction of the X-axis. 図12Aは、図9AのX軸方向から見た画像に特徴点を抽出した状態を示すイメージ図であり、図12Bは、図12Aの画像を三次元表示させた状態を示すイメージ図である。12A is an image diagram showing a state where feature points are extracted from the image viewed from the X-axis direction of FIG. 9A, and FIG. 12B is an image diagram showing a state where the image of FIG. 12A is displayed in three dimensions. 図13Aはワーク群を二次元表示させた入力画像、図13Bは図13Aを三次元表示させた入力画像、図13Cは図13Aに対して三次元サーチを行った結果、図13Dは図13Cを三次元表示させた状態を、それぞれ示すイメージ図である。13A is an input image in which a work group is displayed in two dimensions, FIG. 13B is an input image in which FIG. 13A is displayed in three dimensions, FIG. 13C is a result of performing a three-dimensional search on FIG. 13A, and FIG. It is an image figure which each shows the state made to display three-dimensionally. 把持登録画面を示すユーザインターフェース画面のイメージ図である。It is an image figure of the user interface screen which shows a grip registration screen. 把持姿勢追加画面を示すイメージ図である。It is an image figure which shows a holding | grip posture addition screen. 図16Aは立方体状のワークを複数バラ積みした状態、図16Bはこのワークモデルをサーチモデルに登録した状態、図16Cは図16Bのワークモデルに対して把持姿勢を登録した状態を、それぞれ示すイメージ図である。16A is a state in which a plurality of cubic workpieces are stacked, FIG. 16B is a state in which this work model is registered in the search model, and FIG. 16C is a conceptual diagram showing a state in which a gripping posture is registered in the work model in FIG. It is. 実施形態2に係るロボットシステムを示す機能ブロック図である。It is a functional block diagram which shows the robot system which concerns on Embodiment 2. Z−Y−X系オイラー角に従ってエンドエフェクタモデルを回転させる前の状態を示すイメージ図である。It is an image figure which shows the state before rotating an end effector model according to a ZYX system Euler angle. 図18からZ軸回りに90°回転させた状態を示すイメージ図である。It is an image figure which shows the state rotated 90 degrees around the Z-axis from FIG. 図19からY軸回りに90°回転させた状態を示すイメージ図である。It is an image figure which shows the state rotated 90 degrees around the Y-axis from FIG. 図20からX軸回りに90°回転させた状態を示すイメージ図である。It is an image figure which shows the state rotated 90 degrees around the X-axis from FIG. 図21の状態でRYやRZの回転軸を示すイメージ図である。It is a schematic diagram showing a rotation shaft of R Y and R Z in the state of FIG. 21. 図22の状態で、RZの補正回転軸を表示する状態を示すイメージ図である。In the state of FIG. 22 is an image diagram showing a state of displaying the corrected rotational shaft of R Z. 図22の状態で、RYの補正回転軸を表示する状態を示すイメージ図である。It is an image figure which shows the state which displays the correction | amendment rotating shaft of RY in the state of FIG. 図22の状態で、RXの補正回転軸を表示する状態を示すイメージ図である。In the state of FIG. 22 is an image diagram showing a state of displaying the corrected rotational shaft of R X. 実施形態3に係るロボットシステムを示すブロック図である。It is a block diagram which shows the robot system which concerns on Embodiment 3. FIG. 実運用の前に行うティーチング作業の手順を示すフローチャートである。It is a flowchart which shows the procedure of the teaching work performed before actual operation. 三次元CADデータをサーチモデルとして登録する手順を示すフローチャートである。It is a flowchart which shows the procedure which registers 3D CAD data as a search model. エンドエフェクタモデルを登録する手順を示すフローチャートである。It is a flowchart which shows the procedure which registers an end effector model. 追加領域を付加したエンドエフェクタモデルの登録の手順を示すフローチャートである。It is a flowchart which shows the procedure of registration of the end effector model which added the additional area | region. 実施形態4に係るロボットシステムを示すブロック図である。It is a block diagram which shows the robot system which concerns on Embodiment 4. 追加領域設定画面を示すイメージ図である。It is an image figure which shows an additional area | region setting screen. 基本図形編集画面を示すイメージ図である。It is an image figure which shows a basic figure edit screen. エンドエフェクタでワークを把持する把持位置及び姿勢を登録する手順を示すフローチャートである。It is a flowchart which shows the procedure which registers the holding position and attitude | position which hold | grip a workpiece | work with an end effector. 図35Aは三次元CADデータで構成されたワークモデルのイメージ図、図35BはX−Y指定画面を示すイメージ図である。FIG. 35A is an image diagram of a work model composed of three-dimensional CAD data, and FIG. 35B is an image diagram showing an XY designation screen. Z−RZ指定画面を示すイメージ図である。It is an image figure which shows a ZRZ designation | designated screen. Y指定画面を示すイメージ図である。It is an image figure which shows a RY designation | designated screen. X指定画面を示すイメージ図である。It is a schematic diagram showing the R X designation screen. 位置パラメータ指定画面を示すイメージ図である。It is an image figure which shows a position parameter designation | designated screen. X−Y−Z指定画面を示すイメージ図である。It is an image figure which shows a XYZ designation | designated screen. 図35Bのワークモデルを斜め方向から投影させた状態で把持位置を指定させる様子を示すイメージ図である。It is an image figure which shows a mode that a gripping position is designated in the state which projected the work model of FIG. 35B from the diagonal direction. 三次元画像ビューワ上での把持位置を指定させる様子を示すイメージ図である。It is an image figure which shows a mode that the holding position on a three-dimensional image viewer is designated. 平板状のワークを示すイメージ図である。It is an image figure which shows a flat workpiece. 図44Aは図43のワークを表すワークモデルの平面図、図44Bは底面図、図44Cは正面図、図44Dは背面図、図44Eは右側面図、図44Fは左側面図をそれぞれ示す。44A is a plan view of a work model representing the work of FIG. 43, FIG. 44B is a bottom view, FIG. 44C is a front view, FIG. 44D is a rear view, FIG. 44E is a right side view, and FIG. 図43のワークを複数個バラ積みしたワーク群を撮像した点群データに対して三次元サーチを行った結果を示すイメージ図である。FIG. 44 is an image diagram showing a result of performing a three-dimensional search on point cloud data obtained by imaging a workpiece group in which a plurality of workpieces in FIG. 43 are stacked. Z−Y−Z系のオイラー角を用いてワークの姿勢を表現する例を示す模式図である。It is a schematic diagram which shows the example which represents the attitude | position of a workpiece | work using the Euler angle of a ZYZ type | system | group. サーチモデル登録画面を示すイメージ図である。It is an image figure which shows a search model registration screen. 姿勢制限を設けたサーチモデルの登録手順を示すフローチャートである。It is a flowchart which shows the registration procedure of the search model which provided attitude | position restriction | limiting. 傾斜角度・回転角度設定画面を示すイメージ図である。It is an image figure which shows the inclination angle and rotation angle setting screen. 図50Aは登録時のワークの姿勢、図50Bは入力画像の姿勢、図50Cは傾斜角度を示すイメージ図である。50A is a posture of a workpiece at the time of registration, FIG. 50B is a posture of an input image, and FIG. 50C is an image diagram showing an inclination angle. 図51Aは登録時のワークの姿勢、図51Bは入力画像の姿勢、図51Cは回転角度を示すイメージ図である。51A is a workpiece posture at the time of registration, FIG. 51B is a posture of an input image, and FIG. 51C is an image diagram showing a rotation angle. 三次元姿勢から傾斜角度と回転角度を求める手順を示すフローチャートである。It is a flowchart which shows the procedure which calculates | requires an inclination angle and a rotation angle from a three-dimensional attitude | position. 図53Aはサーチモデル登録時のワークの姿勢、図53Bは入力画像の姿勢、図53Cは傾斜角度を求める状態を示すイメージ図である。53A is a workpiece posture at the time of registration of a search model, FIG. 53B is a posture of an input image, and FIG. 53C is an image diagram showing a state of obtaining an inclination angle. 図54Aは図53Cのサーチモデルに回転軸を示した状態、図54Bは図54AのZ’軸をZ軸に一致させるように三次元的に回転させた状態を示すイメージ図である。54A is a view showing a state in which a rotation axis is shown in the search model of FIG. 53C, and FIG. 54B is an image view showing a state in which the Z′-axis in FIG. 54A is three-dimensionally rotated so as to coincide with the Z-axis. 図55Aは登録時のワークの姿勢、図55Bは図54Bの傾斜を除いた状態、図55Cは図55BのZ鉛直方向から見た時の回転角を回転角度として求める様子を示すイメージ図である。55A is a posture of the workpiece at the time of registration, FIG. 55B is a state in which the inclination of FIG. 54B is removed, and FIG. 55C is a conceptual diagram showing how the rotation angle when viewed from the Z vertical direction of FIG. エンドエフェクタ取付位置設定画面を示すイメージ図である。It is an image figure which shows an end effector attachment position setting screen. 把持位置指定画面を示すイメージ図である。It is an image figure which shows a holding | grip position designation | designated screen. 複数把持位置選択画面を示すイメージ図である。It is an image figure which shows a multiple holding position selection screen. エンドエフェクタ取付位置較正画面を示すイメージ図である。It is an image figure which shows an end effector attachment position calibration screen. エンドエフェクタ取付位置を自動で較正する手順を示すフローチャートである。It is a flowchart which shows the procedure which calibrates an end effector attachment position automatically. エンドエフェクタ撮像画面を示すイメージ図である。It is an image figure which shows an end effector imaging screen. 実測データをサーチモデルとして登録する手順を示すフローチャートである。It is a flowchart which shows the procedure which registers actual measurement data as a search model. 実運用時に各ワークの把持解の有無を判定する手順を示すフローチャートである。It is a flowchart which shows the procedure which determines the presence or absence of the grasping solution of each workpiece | work at the time of actual operation. 図48の手順でサーチモデルを登録した状態でピッキング動作を行う実運用時の手順を示すフローチャートである。49 is a flowchart showing a procedure in actual operation in which a picking operation is performed in a state where a search model is registered in the procedure of FIG. 48. 断面モデルを用いた干渉判定の手順を示すフローチャートである。It is a flowchart which shows the procedure of the interference determination using a cross-sectional model. エンドエフェクタモデル及びその基本軸と断面位置を示すイメージ図である。It is an image figure which shows an end effector model, its basic axis, and a cross-sectional position. 図67Aは図66の断面SS1、図67Bは断面SS2、図67Bは断面SS3、図67Dは断面SS4、図67Eは断面SS5を、それぞれ示すイメージ図である。67A is a cross-sectional SS1 of FIG. 66, FIG. 67B is a cross-sectional SS2, FIG. 67B is a cross-sectional SS3, FIG. 67D is a cross-sectional SS4, and FIG. 図68Aは三次元点と図66のエンドエフェクタモデルの基本軸を示すイメージ図、図68Bは図68Aの三次元点の投影点が断面SS3と干渉していない状態、図68Cは断面SS3と干渉している状態をそれぞれ示すイメージ図である。68A is an image diagram showing the three-dimensional point and the basic axis of the end effector model of FIG. 66, FIG. 68B is a state in which the projection point of the three-dimensional point of FIG. 68A does not interfere with the section SS3, and FIG. It is an image figure which shows each state. 追加モデルを用いた干渉判定の手順を示すフローチャートである。It is a flowchart which shows the procedure of the interference determination using an additional model. 実施形態7に係るロボットシステムを示すブロック図である。FIG. 10 is a block diagram illustrating a robot system according to a seventh embodiment. 実施形態7に係る実運用時に各ワークの把持解の有無を判定する手順を示すフローチャートである。18 is a flowchart illustrating a procedure for determining whether or not each workpiece has a gripping solution during actual operation according to the seventh embodiment. ワークの一例を示す斜視図である。It is a perspective view which shows an example of a workpiece | work. 図73Aは図72のワークをZ軸の正方向側から見た高さ画像A、図73BはZ軸の負方向側から見た高さ画像B、図73CはX軸の正方向側から見た高さ画像C、図73DはX軸の負方向側から見た高さ画像D、図73EはY軸の正方向側から見た高さ画像E、図73FはY軸の負方向側から見た高さ画像Fを、それぞれ示すイメージ図である。73A is a height image A when the workpiece of FIG. 72 is viewed from the positive direction side of the Z axis, FIG. 73B is a height image B when viewed from the negative direction side of the Z axis, and FIG. 73D is a height image D as viewed from the negative direction side of the X axis, FIG. 73E is a height image E as viewed from the positive direction side of the Y axis, and FIG. 73F is from a negative direction side of the Y axis. It is an image figure which shows the seen height image F, respectively. ワーク選択画面を示すイメージ図である。It is an image figure which shows a workpiece | work selection screen. 把持OKを選択した把持解候補表示画面を示すイメージ図である。It is an image figure which shows the grip solution candidate display screen which selected the grip OK. 把持NGを選択した把持解候補表示画面を示すイメージ図である。It is an image figure which shows the grip solution candidate display screen which selected grip NG. 把持NGを選択した把持解候補表示画面のさらに他の例を示すイメージ図である。It is an image figure which shows the further another example of the grip solution candidate display screen which selected the grip NG. サーチモデルCに対する把持解候補表示画面の例を示すイメージ図である。It is an image figure which shows the example of the grip solution candidate display screen with respect to the search model C. 図78で他の把持位置候補を選択した把持解候補表示画面の例を示すイメージ図である。FIG. 79 is an image diagram showing an example of a gripping solution candidate display screen in which another gripping position candidate is selected in FIG. 78. 把持位置を追加して把持OKとなった把持解候補表示画面の例を示すイメージ図である。It is an image figure which shows the example of the grip solution candidate display screen which added the grip position and became grip OK. 実施形態8に係るロボットシステムを示すブロック図である。FIG. 10 is a block diagram illustrating a robot system according to an eighth embodiment. 実施形態8に係るサーチモデルの登録手順を示すを示すフローチャートである。10 is a flowchart illustrating a search model registration procedure according to an eighth embodiment. 図83Aは図73Aの基本方向画像に把持姿勢を登録する状態、図83Bは図73Bの基本方向画像に把持姿勢を登録する状態、図83Cは図73Cの基本方向画像に把持姿勢を登録する状態、図83Dは図73Dの基本方向画像に把持姿勢を登録する状態、図83Eは図73Eの基本方向画像に把持姿勢を登録する状態、図83Fは図73Fの基本方向画像に把持姿勢を登録する状態をそれぞれ示すイメージ図である。83A is a state in which the gripping posture is registered in the basic direction image in FIG. 73A, FIG. 83B is a state in which the gripping posture is registered in the basic direction image in FIG. 73B, and FIG. 83C is a state in which the gripping posture is registered in the basic direction image in FIG. 83D is a state in which the gripping posture is registered in the basic direction image of FIG. 73D, FIG. 83E is a state in which the gripping posture is registered in the basic direction image of FIG. 73E, and FIG. 83F is a state in which the gripping posture is registered in the basic direction image of FIG. It is an image figure which shows a state, respectively. ワーク選択画面を示すイメージ図である。It is an image figure which shows a workpiece | work selection screen. 把持姿勢C−000を選択した把持解候補表示画面を示すイメージ図である。It is an image figure which shows the holding | grip solution candidate display screen which selected the holding | grip attitude | position C-000. 把持姿勢A−000を選択した把持解候補表示画面を示すイメージ図である。It is an image figure which shows the grip solution candidate display screen which selected grip posture A-000. 実施形態8に係る実運用時に三次元サーチと把持可否判定を行う手順を示すフローチャートである。16 is a flowchart illustrating a procedure for performing a three-dimensional search and a gripping possibility determination during actual operation according to the eighth embodiment. 実施形態9に係るロボットシステムを示すブロック図である。FIG. 10 is a block diagram illustrating a robot system according to a ninth embodiment. 機能選択画面を示すイメージ図である。It is an image figure which shows a function selection screen. サーチモデル登録方法選択画面を示すイメージ図である。It is an image figure which shows a search model registration method selection screen. 実測データ撮像画面を示すイメージ図である。It is an image figure which shows the measurement data imaging screen. サーチモデル除外領域設定画面を示すイメージ図である。It is an image figure which shows a search model exclusion area | region setting screen. 回転対称性設定画面を示すイメージ図である。It is an image figure which shows a rotational symmetry setting screen. サーチモデル登録画面を示すイメージ図である。It is an image figure which shows a search model registration screen. サーチモデルを追加したサーチモデル登録画面を示すイメージ図である。It is an image figure which shows the search model registration screen which added the search model. サーチ領域設定画面を示すイメージ図である。It is an image figure which shows a search area | region setting screen. 床面指定ダイヤログを表示したサーチ領域設定画面を示すイメージ図である。It is an image figure which shows the search area | region setting screen which displayed the floor surface designation | designated dialog. 床面情報を表示させたサーチ領域設定画面を示すイメージ図である。It is an image figure which shows the search area | region setting screen which displayed the floor surface information. サーチパラメータ設定画面を示すイメージ図である。It is an image figure which shows a search parameter setting screen. 検出詳細条件設定ダイヤログを表示させたサーチパラメータ設定画面を示すイメージ図である。It is an image figure which shows the search parameter setting screen which displayed the detailed detection condition setting dialog. サーチモデル毎に指定するサーチパラメータ設定画面を示すイメージ図である。It is an image figure which shows the search parameter setting screen designated for every search model. サーチモデル登録方法選択画面を示すイメージ図である。It is an image figure which shows a search model registration method selection screen. CADデータ読み込み画面を示すイメージ図である。It is an image figure which shows a CAD data reading screen. 三次元CADデータに基づくサーチモデル登録画面を示すイメージ図である。It is an image figure which shows the search model registration screen based on three-dimensional CAD data. 回転対称指定ダイヤログを表示させたサーチモデル登録画面を示すイメージ図である。It is an image figure which shows the search model registration screen which displayed the rotational symmetry designation | designated dialog. モデル一覧表示画面を示すイメージ図である。It is an image figure which shows a model list display screen. サーチ結果表示画面を示すイメージ図である。It is an image figure which shows a search result display screen. サーチ結果表示画面を示すイメージ図である。It is an image figure which shows a search result display screen. サーチ結果表示画面を示すイメージ図である。It is an image figure which shows a search result display screen. サーチ結果表示画面を示すイメージ図である。It is an image figure which shows a search result display screen. サーチ結果表示画面を示すイメージ図である。It is an image figure which shows a search result display screen. サーチ結果表示画面を示すイメージ図である。It is an image figure which shows a search result display screen. サーチ結果表示画面を示すイメージ図である。It is an image figure which shows a search result display screen. モデル編集画面を示すイメージ図である。It is an image figure which shows a model edit screen. モデル領域詳細設定画面を示すイメージ図である。It is an image figure which shows a model area detailed setting screen. 特徴詳細設定画面を示すイメージ図である。It is an image figure which shows the feature detailed setting screen. 三次元ピック初期設定画面を示すイメージ図である。It is an image figure which shows a three-dimensional pick initial setting screen. エンドエフェクタモデル設定画面を示すイメージ図である。It is an image figure which shows an end effector model setting screen. エンドエフェクタモデル編集画面を示すイメージ図である。It is an image figure which shows an end effector model edit screen. パーツ追加画面を示すイメージ図である。It is an image figure which shows a parts addition screen. CAD位置姿勢設定画面を示すイメージ図である。It is an image figure which shows a CAD position and orientation setting screen. CAD位置姿勢設定画面を示すイメージ図である。It is an image figure which shows a CAD position and orientation setting screen. CAD位置姿勢設定画面を示すイメージ図である。It is an image figure which shows a CAD position and orientation setting screen. エンドエフェクタモデル編集画面を示すイメージ図である。It is an image figure which shows an end effector model edit screen. 追加領域位置姿勢設定画面を示すイメージ図である。It is an image figure which shows an additional area position and orientation setting screen. エンドエフェクタモデル編集画面を示すイメージ図である。It is an image figure which shows an end effector model edit screen. エンドエフェクタモデル編集画面を示すイメージ図である。It is an image figure which shows an end effector model edit screen. エンドエフェクタモデル編集画面を示すイメージ図である。It is an image figure which shows an end effector model edit screen. エンドエフェクタモデル編集画面を示すイメージ図である。It is an image figure which shows an end effector model edit screen. エンドエフェクタモデル編集画面を示すイメージ図である。It is an image figure which shows an end effector model edit screen. 把持登録画面を示すイメージ図である。It is an image figure which shows a grip registration screen. 把持設定ダイヤログを示すイメージ図である。It is an image figure which shows a holding | grip setting dialog. 設定方法選択ダイヤログを示すイメージ図である。It is an image figure which shows a setting method selection dialog. X−Y指定画面を示すイメージ図である。It is an image figure which shows an XY designation | designated screen. Z−RZ指定画面を示すイメージ図である。It is an image figure which shows a ZRZ designation | designated screen. Z−RZ指定画面を示すイメージ図である。It is an image figure which shows a ZRZ designation | designated screen. Z−RZ指定画面を示すイメージ図である。It is an image figure which shows a ZRZ designation | designated screen. Y指定画面を示すイメージ図である。It is an image figure which shows a RY designation | designated screen. Y指定画面を示すイメージ図である。It is an image figure which shows a RY designation | designated screen. X指定画面を示すイメージ図である。It is a schematic diagram showing the R X designation screen. X指定画面を示すイメージ図である。It is a schematic diagram showing the R X designation screen. 把持登録画面を示すイメージ図である。It is an image figure which shows a grip registration screen. 把持登録画面を示すイメージ図である。It is an image figure which shows a grip registration screen. 条件検証画面を示すイメージ図である。It is an image figure which shows a condition verification screen. 検証ダイヤログを示すイメージ図である。It is an image figure which shows a verification dialog. 検出結果表示ダイヤログを示すイメージ図である。It is an image figure which shows a detection result display dialog. 検出結果表示ダイヤログを示すイメージ図である。It is an image figure which shows a detection result display dialog. 検出条件詳細設定画面を示すイメージ図である。It is an image figure which shows a detection condition detailed setting screen. プレース設定画面を示すイメージ図である。It is an image figure which shows a place setting screen. ずれ補正を手動で行う手順を示すフローチャートである。It is a flowchart which shows the procedure which performs deviation | shift correction | amendment manually. 無視できないずれが存在する場合のずれ補正画面の例を示すイメージ図である。It is an image figure showing an example of a shift amendment screen when there is a shift which cannot be ignored. ずれが無視できる場合のずれ補正画面の例を示すイメージ図である。It is an image figure which shows the example of the deviation correction screen in case a deviation can be disregarded. ずれの手動補正と自動補正機能とを備えるずれ補正画面の例を示すイメージ図である。It is an image figure which shows the example of the deviation correction screen provided with the manual correction and automatic correction function of deviation.

以下、本発明の実施形態を図面に基づいて説明する。ただし、以下に示す実施形態は、本発明の技術思想を具体化するための例示であって、本発明は以下のものに特定されない。また、本明細書は特許請求の範囲に示される部材を、実施形態の部材に特定するものでは決してない。特に実施形態に記載されている構成部品の寸法、材質、形状、その相対的配置等は特に特定的な記載がない限りは、本発明の範囲をそれのみに限定する趣旨ではなく、単なる説明例にすぎない。なお、各図面が示す部材の大きさや位置関係等は、説明を明確にするため誇張していることがある。さらに以下の説明において、同一の名称、符号については同一若しくは同質の部材を示しており、詳細説明を適宜省略する。さらに、本発明を構成する各要素は、複数の要素を同一の部材で構成して一の部材で複数の要素を兼用する態様としてもよいし、逆に一の部材の機能を複数の部材で分担して実現することもできる。
(実施形態1)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the embodiment described below is an example for embodying the technical idea of the present invention, and the present invention is not limited to the following. Moreover, this specification does not specify the member shown by the claim as the member of embodiment. In particular, the dimensions, materials, shapes, relative arrangements, and the like of the component parts described in the embodiments are not intended to limit the scope of the present invention only to specific examples unless otherwise specifically described. Only. Note that the size, positional relationship, and the like of the members shown in each drawing may be exaggerated for clarity of explanation. Furthermore, in the following description, the same name and reference sign indicate the same or the same members, and detailed description will be omitted as appropriate. Furthermore, each element constituting the present invention may be configured such that a plurality of elements are configured by the same member and the plurality of elements are shared by one member. It can also be realized by sharing.
(Embodiment 1)

実施形態1として、ピッキング対象のワークのピッキングを行うためのロボットシステム1000の構成例を図1に示す。この例では、作業空間に積み上げられた複数のワークWKを、ロボットRBTを用いて順次取り出し、所定の位置に配置するバラ積みピッキングを行う例について示している。ロボットRBTはマニピュレータ等とも呼ばれ、アーム部ARMと、アーム部ARMの先端に設けられたエンドエフェクタHNDを備える。アーム部ARMは複数の可動部を備えており、2本のアームが互いになす角度やアーム支点の回転により、エンドエフェクタEETを所望の位置へ移動させる。エンドエフェクタEETはワークWKを把持又は解放可能としている。   FIG. 1 shows a configuration example of a robot system 1000 for picking a workpiece to be picked as a first embodiment. This example shows an example in which a plurality of workpieces WK stacked in the work space are sequentially picked up using a robot RBT and placed in a predetermined position for bulk stacking picking. The robot RBT is also called a manipulator or the like, and includes an arm part ARM and an end effector HND provided at the tip of the arm part ARM. The arm part ARM includes a plurality of movable parts, and moves the end effector EET to a desired position by the angle formed by the two arms and the rotation of the arm fulcrum. The end effector EET can grip or release the workpiece WK.

このロボットRBTは、ロボットコントローラ6で動作を制御される。ロボットコントローラ6はアーム部ARMの可動やエンドエフェクタEETの開閉動作を制御する。またロボットコントローラ6は画像処理装置100から、ロボットRBTの制御に必要な情報を取得する。例えば、収納容器BXに無作為に投入された多数の部品であるワークWKを、三次元カメラや照明等のセンサ部2で三次元形状を取得し、画像処理装置100の演算部10でワークの位置や姿勢を検出して、情報をロボットコントローラ6に送る。ロボットコントローラ6は、ワークWKを一つづつ、ロボットRBTのアーム部ARMの先端に設けられたエンドエフェクタEETでもって把持し、ステージSTG上の所定の位置、例えばコンベアベルト上に並べていく。   The operation of the robot RBT is controlled by the robot controller 6. The robot controller 6 controls the movement of the arm part ARM and the opening / closing operation of the end effector EET. Also, the robot controller 6 acquires information necessary for controlling the robot RBT from the image processing apparatus 100. For example, a workpiece WK, which is a large number of parts randomly placed in the storage container BX, is acquired by a sensor unit 2 such as a three-dimensional camera or illumination, and the calculation unit 10 of the image processing apparatus 100 calculates the workpiece. The position and orientation are detected and information is sent to the robot controller 6. The robot controller 6 grips the workpieces WK one by one with the end effector EET provided at the tip of the arm part ARM of the robot RBT, and arranges them on a predetermined position on the stage STG, for example, on the conveyor belt.

ロボットシステム1000の機能ブロック図を図2に示す。この図に示すロボットシステム1000は、画像処理装置100と、センサ部2と、表示部3と、操作部4と、ロボット本体5と、ロボットコントローラ6と、ロボット操作具7とを備える。   A functional block diagram of the robot system 1000 is shown in FIG. A robot system 1000 shown in this figure includes an image processing apparatus 100, a sensor unit 2, a display unit 3, an operation unit 4, a robot body 5, a robot controller 6, and a robot operation tool 7.

操作部4では、画像処理に関する設定を行う。またセンサ部2で、ワークを撮像しての三次元形状を取得する。さらに表示部3で、設定や動作状態の確認を行う。さらにまた演算部10で、三次元サーチや干渉判定、把持解の算出等を行う。一方、ロボットコントローラ6は演算部10の結果に従い、ロボットの制御を行う。またロボット操作具7は、ロボットの動作設定を行う。なお、図2の例では操作部4とロボット操作具7を別個の部材としているが、これらを共通の部材としてもよい。   The operation unit 4 performs settings related to image processing. The sensor unit 2 acquires a three-dimensional shape obtained by imaging the workpiece. Furthermore, the setting and the operation state are confirmed on the display unit 3. Further, the calculation unit 10 performs a three-dimensional search, interference determination, grip solution calculation, and the like. On the other hand, the robot controller 6 controls the robot according to the result of the calculation unit 10. The robot operation tool 7 performs operation settings for the robot. In the example of FIG. 2, the operation unit 4 and the robot operation tool 7 are separate members, but they may be common members.

センサ部2は、ロボットビジョンなどと呼ばれる、作業空間やワークを撮像する部材である。センサ部2で撮像された画像から、バラ積みされたワークの三次元形状を示す三次元形状データが取得される。なお三次元形状を取得する方法は、パターン投影法、ステレオ法、レンズ焦点法、光切断法、光レーダ法、干渉法、TOF方式などがある。本実施形態においては、パターン投影法の内、位相シフト法を用いている。   The sensor unit 2 is a member called a robot vision or the like that images a work space or a workpiece. Three-dimensional shape data indicating the three-dimensional shape of the stacked workpieces is acquired from the image captured by the sensor unit 2. Note that methods for obtaining a three-dimensional shape include a pattern projection method, a stereo method, a lens focus method, a light cutting method, an optical radar method, an interference method, and a TOF method. In this embodiment, the phase shift method is used in the pattern projection method.

センサ部2の構成は、三次元形状の計測技術に応じて決定される。このセンサ部2は、カメラ、照明又はプロジェクタ等を備える。例えば位相シフト法でワークの三次元形状を計測する場合は、センサ部2として図3に示すように、プロジェクタPRJと複数のカメラCME1、CME2、CME3、CME4を備える。なおセンサ部は、カメラやプロジェクタといった複数の部材で構成する他、これらを一体的に構成してもよい。例えばカメラやプロジェクタを統合してヘッド状とした3D撮像ヘッドを、センサ部とすることができる。   The configuration of the sensor unit 2 is determined according to a three-dimensional shape measurement technique. The sensor unit 2 includes a camera, an illumination, a projector, or the like. For example, when measuring the three-dimensional shape of the workpiece by the phase shift method, the sensor unit 2 includes a projector PRJ and a plurality of cameras CME1, CME2, CME3, and CME4 as shown in FIG. In addition, the sensor unit may be configured by a plurality of members such as a camera and a projector, or may be configured integrally. For example, a 3D imaging head that is formed into a head shape by integrating a camera and a projector can be used as the sensor unit.

また三次元形状データの生成自体を、センサ部側で行うこともできる。この場合、センサ部側に三次元形状データの生成機能を実現する画像処理IC等を設ける。あるいは、三次元形状データの生成を、画像処理装置側で行わず、センサ部で撮像した生画像を、画像処理装置側で画像処理して三次元画像等の三次元形状データを生成する構成としてもよい。   Also, the generation itself of the three-dimensional shape data can be performed on the sensor unit side. In this case, an image processing IC or the like that realizes a three-dimensional shape data generation function is provided on the sensor unit side. Alternatively, the generation of 3D shape data is not performed on the image processing device side, and the raw image captured by the sensor unit is processed on the image processing device side to generate 3D shape data such as a 3D image. Also good.

さらに、センサ部2で撮像された画像に基づいて、後述するキャリブレーションを実行することにより、実際のワークWKの位置座標(エンドエフェクタEETの移動位置の座標)と、表示部3上に表示された画像上の位置座標とをリンクさせることができる。   Furthermore, based on the image captured by the sensor unit 2, calibration described later is executed, and the actual position coordinates of the workpiece WK (coordinates of the movement position of the end effector EET) and the display unit 3 are displayed. Can be linked to the position coordinates on the image.

画像処理装置100は、このようにして得られたワークの三次元形状データに基づいて、三次元サーチ、干渉判定、把持解算出等を行う。この画像処理装置100は、専用の画像処理プログラムをインストールした汎用のコンピュータや、専用に設計された画像処理コントローラ、ロボットビジョン装置等が利用できる。なお図2の例では、センサ部2やロボットコントローラ6等を画像処理装置100とは別個の部材で構成する例を示しているが、本発明はこの構成に限られず、例えばセンサ部と画像処理装置を一体化したり、あるいはロボットコントローラを画像処理装置に組み込むこともできる。このように、図2に示す部材の区分けは一例であって、複数の部材を統合させることもできる。例えば画像処理装置100を操作する操作部4と、ロボットコントローラ6を操作するロボット操作具7とを、共通の部材としてもよい。   The image processing apparatus 100 performs a three-dimensional search, interference determination, gripping solution calculation, and the like based on the three-dimensional shape data of the workpiece obtained in this way. The image processing apparatus 100 can use a general-purpose computer in which a dedicated image processing program is installed, a dedicated image processing controller, a robot vision apparatus, or the like. 2 illustrates an example in which the sensor unit 2, the robot controller 6, and the like are configured by members separate from the image processing apparatus 100. However, the present invention is not limited to this configuration. For example, the sensor unit and the image processing unit The apparatus can be integrated, or a robot controller can be incorporated in the image processing apparatus. Thus, the division of the members shown in FIG. 2 is an example, and a plurality of members can be integrated. For example, the operation unit 4 that operates the image processing apparatus 100 and the robot operation tool 7 that operates the robot controller 6 may be a common member.

ただし、センサ部2はロボット本体5と別体とする。すなわち、本願発明はセンサ部2をロボット本体5のアーム部ARMに設けない、オフハンド形式と呼ばれる形態を対象としている。いいかえると、センサ部をエンドエフェクタに設ける、オンハンド形式等と呼ばれる態様は、本願発明に含まれない。   However, the sensor unit 2 is separated from the robot body 5. That is, the present invention is directed to a form called an off-hand type in which the sensor unit 2 is not provided in the arm unit ARM of the robot body 5. In other words, an aspect called an on-hand type in which the sensor unit is provided in the end effector is not included in the present invention.

表示部3は、画像処理装置100で取得されたワークの三次元形状を表示させたり、各種設定や動作状態の確認を行うための部材であり、液晶モニタや有機ELディスプレイ、CRT等が利用できる。操作部4は、画像処理等の各種設定を行うための部材であり、キーボードやマウス等の入力デバイスが利用できる。また表示部3をタッチパネルとすることで、操作部と表示部を一体化することもできる。   The display unit 3 is a member for displaying the three-dimensional shape of the workpiece acquired by the image processing apparatus 100 and for confirming various settings and operation states. A liquid crystal monitor, an organic EL display, a CRT, or the like can be used. . The operation unit 4 is a member for performing various settings such as image processing, and an input device such as a keyboard or a mouse can be used. Further, by using the display unit 3 as a touch panel, the operation unit and the display unit can be integrated.

例えば画像処理装置100を、画像処理プログラムをインストールしたコンピュータで構成した場合、表示部3上には画像処理プログラムのグラフィカルユーザインターフェース(GUI)画面が表示される。表示部3上に表示されたGUI上から各種の設定を行うことができ、またシミュレーション結果等の処理結果を表示させることができる。この場合、表示部3を各種の設定を行うための設定部として利用できる。   For example, when the image processing apparatus 100 is configured by a computer in which an image processing program is installed, a graphical user interface (GUI) screen of the image processing program is displayed on the display unit 3. Various settings can be performed from the GUI displayed on the display unit 3, and processing results such as simulation results can be displayed. In this case, the display unit 3 can be used as a setting unit for performing various settings.

ロボットコントローラ6は、センサ部2で撮像した情報に基づいてロボットの動作を制御する。またロボット操作具7は、ロボット本体5の動作設定を行うための部材であり、ペンダントなどが利用できる。   The robot controller 6 controls the operation of the robot based on information captured by the sensor unit 2. The robot operation tool 7 is a member for setting the operation of the robot body 5, and a pendant or the like can be used.

ロボット本体5は、可動式のアーム部ARMと、アーム部ARMの先端に固定されたエンドエフェクタEETを備える。このロボット本体5はロボットコントローラ6に駆動されて、アーム部ARMを動作させ、一個のワークWKをピッキングして、これを所望の位置に移動させて載置した後、リリースする。このためアーム部ARMの先端には、ワークWKを把持するためのエンドエフェクタEETを備えている。またワークWKを載置する載置位置は、例えばトレイ上やコンベア上等が挙げられる。   The robot body 5 includes a movable arm part ARM and an end effector EET fixed to the tip of the arm part ARM. The robot body 5 is driven by the robot controller 6 to operate the arm part ARM, pick one workpiece WK, move it to a desired position, place it, and release it. Therefore, an end effector EET for gripping the workpiece WK is provided at the tip of the arm part ARM. Examples of the placement position for placing the workpiece WK include a tray and a conveyor.

ワークWKは、図1に示すように複数個が通い箱等の収容容器BXに無作為に収納されている。このような作業空間の上方には、センサ部2が配置されている。センサ部2はカメラや照明を備えており、このセンサ部2で、ワークWKの三次元形状を計測することができる。ロボットコントローラ6は、センサ部2で計測されたワークWKの三次元形状に基づいて、複数のワークの内から、把持対象のワークWKを特定して、このワークWKを把持するよう、ロボットを制御する。そして、ワークWKを把持したまま、アーム部ARMを動作させて予め定められた載置位置、例えばステージSTG上まで移動させ、所定の姿勢でワークWKを載置する。いいかえると、ロボットコントローラ6は、センサ部2でピッキング対象のワークWKを特定し、このワークWKをエンドエフェクタEETで把持して、把持したワークWKを所定の基準姿勢にて、載置する位置である載置位置に載置してエンドエフェクタEETを開放するようにロボットの動作を制御する。   As shown in FIG. 1, a plurality of workpieces WK are randomly stored in a storage container BX such as a return box. The sensor unit 2 is disposed above the work space. The sensor unit 2 includes a camera and illumination, and the sensor unit 2 can measure the three-dimensional shape of the workpiece WK. Based on the three-dimensional shape of the workpiece WK measured by the sensor unit 2, the robot controller 6 identifies the workpiece WK to be gripped from a plurality of workpieces, and controls the robot to grip the workpiece WK. To do. Then, while holding the workpiece WK, the arm unit ARM is operated to move to a predetermined placement position, for example, on the stage STG, and the workpiece WK is placed in a predetermined posture. In other words, the robot controller 6 identifies the workpiece WK to be picked by the sensor unit 2, grips this workpiece WK with the end effector EET, and places the gripped workpiece WK in a predetermined reference posture. The operation of the robot is controlled so that the end effector EET is opened at a certain mounting position.

ここで本明細書においてバラ積みピッキングとは、図4Aに示すような収納容器BXに入れられて無作為に積み上げられたワークWKを、ロボットで把持して、所定の位置に載置する他、図4Bに示すような収納容器を用いずに所定の領域に積み上げられたワークWKに対して把持、載置を行う例、あるいは図4Cに示すような所定の姿勢で並べられて積み上げられたワークWKを順次把持、載置する例も含む意味で使用する。また、必ずしもワーク同士が積み重ねられている状態であることは要さず、ワーク同士の重なりがない状態で平面上にランダムに置かれたワークについても、本明細書においてはバラ積みと呼ぶ(順次ピッキングされていき、ピッキングの終盤でワーク同士の重なりがない状態となった場合でも依然としてバラ積みピッキングと呼ばれるのと同じ理由である)。なお、本発明はバラ積みピッキングに必ずしも限定するものでなく、バラ積みされていないワークをピックアップする用途にも適用できる。   Here, in the present specification, bulk picking means that the work WK randomly placed in a storage container BX as shown in FIG. 4A is gripped by a robot and placed at a predetermined position. An example of gripping and placing the workpiece WK stacked in a predetermined area without using a storage container as shown in FIG. 4B, or a workpiece stacked and arranged in a predetermined posture as shown in FIG. 4C It is also used to include an example of sequentially holding and placing WK. Further, it is not always necessary that the workpieces are stacked, and workpieces placed randomly on a plane without overlapping workpieces are also referred to as loose stacking in this specification (sequentially). This is the same reason that picking is done and there is no overlap between the workpieces at the end of picking. Note that the present invention is not necessarily limited to bulk picking, and can be applied to picking up workpieces that are not bulk stacked.

また、図1の例ではセンサ部2を作業空間の上方に固定しているが、作業空間を撮像できる位置であれば足り、例えば斜めや側方、下方など、任意の定位置に配置できる。ただし、アーム部ARM上のような、可動する不定位置にセンサ部を配置する態様は除かれる。さらにセンサ部2が有するカメラや照明の数も、一個に限らず複数個としてもよい。さらにまたセンサ部2やロボット、ロボットコントローラ6との接続は、有線接続に限られず、無線接続としてもよい。   In the example of FIG. 1, the sensor unit 2 is fixed above the work space. However, any position where the work space can be imaged is sufficient. However, the aspect which arrange | positions a sensor part in the indefinite position which moves like the arm part ARM is excluded. Further, the number of cameras and illuminations included in the sensor unit 2 is not limited to one and may be plural. Furthermore, the connection with the sensor unit 2, the robot, and the robot controller 6 is not limited to a wired connection, and may be a wireless connection.

またワークの把持とは、図5Aに示すようにワークWKの外側を挟み込む他、図5Bに示すような、空洞を有するワークWK2の内部にエンドエフェクタEET2の爪部を挿入して拡開させることによって保持する例や、図5Cに示すような板状のワークWK3を吸引して保持するエンドエフェクタEET3の例を含む意味で使用する。以下では、ワークの把持の例としてワークの外側面を両側から掴む態様について説明する。またワークは、図1に示すように収納容器BXに多数個が収納されて無作為に積み上げられた状態で、このような複数のワークWKに対して一つづつ、エンドエフェクタEETで把持して、載置位置に載置する作業を繰り返すバラ積みピッキング動作における把持位置の設定(ティーチング作業)について、以下説明する。   In addition to gripping the workpiece, the outside of the workpiece WK is sandwiched as shown in FIG. 5A, and the claw portion of the end effector EET2 is inserted and expanded inside the workpiece WK2 having a cavity as shown in FIG. 5B. It is used in the meaning including an example of holding by a step and an example of an end effector EET3 for sucking and holding a plate-like workpiece WK3 as shown in FIG. 5C. Below, the aspect which grips the outer surface of a workpiece | work from both sides as an example of a workpiece | work holding is demonstrated. In addition, as shown in FIG. 1, a plurality of workpieces are stored in a storage container BX and are randomly stacked, and are gripped by the end effector EET one by one with respect to the plurality of workpieces WK. The setting of the gripping position (teaching work) in the bulk picking operation that repeats the work of placing on the placement position will be described below.

ロボットシステム1000でバラ積みピッキング動作を行うにあたり、予めバラ積みピッキング動作を行わせるための設定を含めたティーチングを行う。具体的には、ワークのどの部位を、エンドエフェクタがどのような姿勢で把持するのか、把持位置などの登録を行う。このような設定は、ペンダント等のロボット操作具7で行う。
(ティーチング作業)
When performing the bulk picking operation in the robot system 1000, teaching including setting for performing the bulk picking operation is performed in advance. Specifically, registration is made such as which part of the workpiece is gripped by the end effector and in what posture. Such setting is performed by the robot operation tool 7 such as a pendant.
(Teaching work)

上述した把持位置をティーチングする機能を実現する画像処理装置を含むロボットシステムの機能ブロック図を、図6に示す。この図に示すロボットシステム1000は、画像処理装置100と、表示部3と、操作部4と、センサ部2と、ロボットRBTを備える。   FIG. 6 shows a functional block diagram of a robot system including an image processing apparatus that implements the function of teaching the gripping position described above. A robot system 1000 shown in this figure includes an image processing apparatus 100, a display unit 3, an operation unit 4, a sensor unit 2, and a robot RBT.

センサ部2は、作業位置に配置されたワークの三次元形状を三次元計測する。このセンサ部2は、センサ制御部2bにより制御される。なお、この例ではセンサ制御部2bをセンサ部2と一体に構成しているが、これらを個別に設けてもよい。ロボット部は、アーム部ARMとエンドエフェクタEETを備える。このロボットは、画像処理装置100に制御されて、ワークを把持位置で把持して、把持位置に把持する。ここでは、基準姿勢でワークを把持して、基準姿勢で載置する状態を、センサ部2で撮像して登録していく。ここで基準姿勢には、ワークの位置と姿勢が含まれる。
(表示部3)
The sensor unit 2 measures the three-dimensional shape of the workpiece placed at the work position in three dimensions. The sensor unit 2 is controlled by a sensor control unit 2b. In this example, the sensor control unit 2b is integrated with the sensor unit 2, but these may be provided separately. The robot part includes an arm part ARM and an end effector EET. This robot is controlled by the image processing apparatus 100 to grip the workpiece at the gripping position and grip it at the gripping position. Here, the state in which the workpiece is gripped in the reference posture and placed in the reference posture is imaged and registered by the sensor unit 2. Here, the reference posture includes the position and posture of the workpiece.
(Display unit 3)

表示部3は、ワークの三次元形状を仮想的に表現するワークモデルや、エンドエフェクタの三次元形状を仮想的に表現する、三次元CADデータで構成されたエンドエフェクタモデルを、仮想的な三次元空間上でそれぞれ三次元状に表示させる。なお高さ画像は、高さ情報を有する画像であって、距離画像等とも呼ばれる。さらにこの表示部3は、ワークモデルの基本方向画像を六面図として表示させる六面図表示領域3aを有している。これにより、ワークモデルの各姿勢を六面図で表示させて、把持位置を設定し易い基本方向画像に対して把持位置の設定作業を行えるようになり、従来面倒であった把持位置の設定作業を容易に行えるようになる。   The display unit 3 displays a virtual model of a work model that virtually represents the three-dimensional shape of the work and an end effector model that is configured of three-dimensional CAD data that virtually represents the three-dimensional shape of the end effector. Each is displayed in three dimensions on the original space. The height image is an image having height information and is also called a distance image. Furthermore, the display unit 3 has a six-view drawing display area 3a for displaying a basic direction image of the work model as a six-view drawing. As a result, each posture of the work model can be displayed as a six-sided view, and the gripping position setting work can be performed for the basic direction image in which the gripping position can be easily set. Can be easily performed.

操作部4は、画像処理等の各種設定を行うための部材であり、キーボードやマウス等の入力デバイスが利用できる。また表示部3をタッチパネルとすることで、操作部と表示部を一体化することもできる。
(画像処理装置100)
The operation unit 4 is a member for performing various settings such as image processing, and an input device such as a keyboard or a mouse can be used. Further, by using the display unit 3 as a touch panel, the operation unit and the display unit can be integrated.
(Image processing apparatus 100)

図6の画像処理装置100は、入力画像取得部2cと、記憶部9と、演算部10と、入出力インターフェース4bと、表示インターフェース3fと、ロボットインターフェース6bを備える。   The image processing apparatus 100 of FIG. 6 includes an input image acquisition unit 2c, a storage unit 9, a calculation unit 10, an input / output interface 4b, a display interface 3f, and a robot interface 6b.

入力画像取得部2cは、センサ部2で測定された複数のワーク及びその周囲の物体を含む画像から三次元形状を有する入力画像を取得する。なお、三次元形状を有する入力画像は、センサ部やセンサ制御部側で構築してもよいし、あるいは画像処理装置側(例えば入力画像取得部)で構築してもよい。また図6の例では、センサ部2で取得された三次元形状を示す入力画像を、画像処理装置100が取得するための入力インターフェースを構成している。ただ、この構成に限らず、予め撮像されて記録媒体等の記憶部に把持された入力画像を読み出して取得する構成としてもよい。   The input image acquisition unit 2c acquires an input image having a three-dimensional shape from an image including a plurality of workpieces measured by the sensor unit 2 and surrounding objects. The input image having a three-dimensional shape may be constructed on the sensor unit or sensor control unit side, or may be constructed on the image processing apparatus side (for example, the input image acquisition unit). In the example of FIG. 6, an input interface for the image processing apparatus 100 to acquire an input image indicating a three-dimensional shape acquired by the sensor unit 2 is configured. However, the present invention is not limited to this configuration, and an input image captured in advance and held in a storage unit such as a recording medium may be read and acquired.

記憶部9は、各種設定を把持するための部材であり、不揮発性メモリやハードディスク、記憶媒体等が利用できる。この記憶部9は、ワークモデルやエンドエフェクタモデルの把持位置を保存するための把持位置保存部として機能する。   The storage unit 9 is a member for holding various settings, and a nonvolatile memory, a hard disk, a storage medium, or the like can be used. The storage unit 9 functions as a gripping position storage unit for storing the gripping positions of the work model and the end effector model.

入出力インターフェース4bは、キーボードやマウス等の入力デバイスと接続され、データの入力を受け付ける。   The input / output interface 4b is connected to an input device such as a keyboard and a mouse, and accepts data input.

表示インターフェース3fは、表示部との出力インターフェースを構成し、演算部10で構築された表示部に表示する画像データを表示するよう制御する。   The display interface 3 f constitutes an output interface with the display unit, and controls to display image data to be displayed on the display unit constructed by the calculation unit 10.

ロボットインターフェース6bは、ロボットコントローラ6との通信インターフェースを構成する。
(演算部10)
The robot interface 6b constitutes a communication interface with the robot controller 6.
(Calculation unit 10)

演算部10は、位置決め部8cと、基本方向画像生成部8e’と、基本方向画像選択部8eと、サーチモデル選択部8iと、ワークモデル登録部8tと、サーチモデル登録部8gと、エンドエフェクタモデル登録部8uと、把持位置特定部8dと、エンドエフェクタ取付面設定部8fと、回転角度制限部8hと、三次元サーチ部8kと、三次元ピック判定部8lとを備える。   The calculation unit 10 includes a positioning unit 8c, a basic direction image generation unit 8e ′, a basic direction image selection unit 8e, a search model selection unit 8i, a work model registration unit 8t, a search model registration unit 8g, an end effector. A model registration unit 8u, a gripping position specifying unit 8d, an end effector mounting surface setting unit 8f, a rotation angle limiting unit 8h, a three-dimensional search unit 8k, and a three-dimensional pick determination unit 8l are provided.

位置決め部8cは、表示部3に表示されたワークモデルの位置及び姿勢を、仮想三次元空間上で調整するための部材である。   The positioning unit 8c is a member for adjusting the position and orientation of the work model displayed on the display unit 3 in the virtual three-dimensional space.

基本方向画像生成部8e’は、位置決め部8cで仮想三次元空間上において位置決めされたワークモデルに対して、この仮想三次元空間上で互いに直交する三軸の各軸方向からそれぞれ見た、少なくとも三つの高さ画像を基本方向画像として生成するための部材である。このように基本方向画像を自動的に生成させることで、ユーザは手動でワークの方向を変えて個別に基本方向画像を取得する必要がなくなり、把持位置の登録作業を省力化できる利点が得られる。   The basic direction image generation unit 8e ′ has at least the workpiece model positioned in the virtual three-dimensional space by the positioning unit 8c, as viewed from each of the three axial directions orthogonal to each other in the virtual three-dimensional space. This is a member for generating three height images as basic direction images. By automatically generating the basic direction image in this way, the user does not need to manually change the direction of the work and individually acquire the basic direction image, and there is an advantage that the work of registering the gripping position can be saved. .

基本方向画像選択部8eは、表示部3に表示された少なくとも三つの基本方向画像に対して、見え方が他の基本方向画像と異なる複数の基本方向画像の中からいずれかを選択するための部材である。このように、見え方が共通する面を削除することで、不要な基本方向画像の表示等を排除して、設定作業をより簡素化できる。例えば円柱状のワークの天面と底面のように、見た目が同じ基本方向画像については一方を削除する。基本方向画像選択部8eは、表示部3に少なくとも三つの基本方向画像を表示させた状態で、ユーザに手動で選択させるように構成することができる。あるいは、基本方向画像選択部が、少なくとも三つの基本方向画像の内、見え方が共通する基本方向画像を自動で抽出して選択するよう構成してもよい。   The basic direction image selection unit 8e is for selecting any of a plurality of basic direction images that are different in appearance from other basic direction images with respect to at least three basic direction images displayed on the display unit 3. It is a member. In this way, by deleting the surface with the common view, it is possible to eliminate unnecessary display of the basic direction image and the like, thereby further simplifying the setting operation. For example, one of the basic direction images that look the same, such as the top and bottom surfaces of a cylindrical workpiece, is deleted. The basic direction image selection unit 8e can be configured to allow the user to manually select in a state where at least three basic direction images are displayed on the display unit 3. Alternatively, the basic direction image selection unit may be configured to automatically extract and select a basic direction image having a common appearance from at least three basic direction images.

サーチモデル選択部8iは、サーチモデルとして登録する基本方向画像を選択するための部材である。なお後述する通り、三次元サーチに用いるサーチモデルと、把持位置を特定するモデルとを共通化することで、サーチモデル選択部8iと基本方向画像選択部8eと共通の画像選択部8jで構成できる。   The search model selection unit 8i is a member for selecting a basic direction image to be registered as a search model. As will be described later, the search model used for the three-dimensional search and the model for specifying the gripping position are made common so that the search model selection unit 8i, the basic direction image selection unit 8e, and the common image selection unit 8j can be configured. .

ワークモデル登録部8tは、ワークの三次元形状を仮想的に表現するワークモデルを登録するための部材である。ここでは、例えば、ワークモデル登録部8tは、実際のワークを撮像した三次元点群データをワークモデルとする。この場合は、センサ部2や入力画像取得部2cで取得された三次元点群データを、ワークモデル登録部8tでワークモデルとして登録する。あるいは、別途作成したワークの形状を表す三次元CADデータを読み込んでワークモデルとして登録する。この場合は、入出力インターフェース4bを介して入力された三次元CADデータをワークモデル登録部8tでワークモデルとして登録する。あるいはまた、ワークを模した三次元CADデータを作成して登録してもよい。この場合はワークモデル登録部8tが、簡易的な三次元CADの機能を実現する。
(サーチモデル登録部8g)
The work model registration unit 8t is a member for registering a work model that virtually represents a three-dimensional shape of a work. Here, for example, the work model registration unit 8t uses, as a work model, 3D point cloud data obtained by imaging an actual work. In this case, the three-dimensional point cloud data acquired by the sensor unit 2 or the input image acquisition unit 2c is registered as a work model by the work model registration unit 8t. Alternatively, three-dimensional CAD data representing the shape of a work created separately is read and registered as a work model. In this case, the 3D CAD data input via the input / output interface 4b is registered as a work model by the work model registration unit 8t. Alternatively, three-dimensional CAD data imitating a workpiece may be created and registered. In this case, the work model registration unit 8t realizes a simple three-dimensional CAD function.
(Search model registration unit 8g)

サーチモデル登録部8gは、入力画像取得部2cで取得された入力画像に含まれる複数のワーク群に対して、各ワークの姿勢と位置を特定する三次元サーチを行う際に用いる、ワークの三次元形状を仮想的に表現したサーチモデルを登録するための部材である。このようにサーチモデル登録部8gを設けたことで、三次元サーチを行うサーチモデルを、ワークモデルの把持位置を指定する基本方向画像と共通として登録することで、ユーザは設定作業を省力化できる。また実運用時においても、把持できるワークをサーチする基本方向画像毎に、ワークの把持位置を登録することで、把持位置のない基本方向画像をサーチするような無駄を無くし、逆にサーチされた基本方向画像に対して、この基本方向画像に設定された把持位置で把持可能かどうかを検討できるため、効率良く処理を行うことが可能となる。   The search model registration unit 8g uses a third order of workpieces used when performing a three-dimensional search for specifying the posture and position of each workpiece for a plurality of workpiece groups included in the input image acquired by the input image acquisition unit 2c. This is a member for registering a search model that virtually represents the original shape. By providing the search model registration unit 8g in this way, the user can save the setting work by registering the search model for performing the three-dimensional search as common with the basic direction image for designating the grip position of the work model. . Also, even in actual operation, by registering the gripping position of the workpiece for each basic direction image that searches for a workpiece that can be gripped, searching for a basic direction image without a gripping position is eliminated, and the search is performed in reverse. Since it is possible to examine whether or not the basic direction image can be gripped at the gripping position set in the basic direction image, the processing can be performed efficiently.

またサーチモデル登録部8gは、基本方向画像選択部8eで選択された基本方向画像に対して、三次元サーチ用のサーチモデルとして使用するか否かの選択を行うよう構成することが好ましい。これにより、基本方向画像に対して三次元サーチ用のサーチモデルとして使用するか否かを選択でき、いいかえると不要な基本方向画像を三次元サーチの対象から排除できるので、例えば板状のワークを側面から見た画像と誤検出する可能性がある基本方向画像を排除することで、板状のワークが直立した状態を三次元サーチしないように設定でき、実質的にワークモデルの姿勢に対する制限を簡単に設定することが可能となる。   The search model registration unit 8g is preferably configured to select whether or not to use the basic direction image selected by the basic direction image selection unit 8e as a search model for a three-dimensional search. As a result, it is possible to select whether or not to use the basic direction image as a search model for a three-dimensional search. In other words, unnecessary basic direction images can be excluded from the target of the three-dimensional search. By excluding the basic direction image that may be erroneously detected from the image seen from the side, it is possible to set so that the plate-like workpiece is upright and not to perform a three-dimensional search, effectively limiting the posture of the workpiece model It can be set easily.

なおサーチモデル登録部8gと、ワークモデル登録部8tは、個別に設ける他、これらを統合することもできる。例えば図6のロボットシステム1000においては、サーチモデル登録部8gとワークモデル登録部8tを、共通のモデル登録部8g’として統合している。これにより、一のワークに関するモデルを登録することで、把持位置の登録と三次元サーチ用のサーチモデルの登録に共用することが可能となり、設定を簡素化できる利点が得られる。   Note that the search model registration unit 8g and the work model registration unit 8t can be provided separately or integrated. For example, in the robot system 1000 of FIG. 6, the search model registration unit 8g and the work model registration unit 8t are integrated as a common model registration unit 8g '. Thus, by registering a model related to one workpiece, it is possible to share it for registering a gripping position and registering a search model for a three-dimensional search, thereby obtaining an advantage that the setting can be simplified.

エンドエフェクタモデル登録部8uは、エンドエフェクタの三次元形状を三次元CADデータで仮想的に表現したエンドエフェクタモデルを登録するための部材である。   The end effector model registration unit 8u is a member for registering an end effector model in which the three-dimensional shape of the end effector is virtually represented by three-dimensional CAD data.

エンドエフェクタ取付面設定部8fは、表示部3にエンドエフェクタモデルと、このエンドエフェクタモデルをロボットのアーム部の先端に取り付ける取付面を表示させると共に、この取付面を表示部3に表示させた状態で、この取付面に対するエンドエフェクタモデルの姿勢を規定するための部材である。   The end effector mounting surface setting unit 8f causes the display unit 3 to display the end effector model and the mounting surface to which the end effector model is mounted on the tip of the robot arm, and also displays the mounting surface on the display unit 3. Thus, it is a member for defining the posture of the end effector model with respect to the mounting surface.

回転角度制限部8hは、基本方向画像のいずれかを、バラ積みされた複数のワーク群に対して、各ワークの姿勢と位置を特定する三次元サーチを行うためのサーチモデルとして登録するためのサーチモデル登録部8gと、選択された各サーチモデル毎に、該ワークモデルの回転に対して個別に、許容される回転角度の範囲を設定するための部材である。
(把持位置特定部8d)
The rotation angle limiting unit 8h is for registering any one of the basic direction images as a search model for performing a three-dimensional search for specifying the posture and position of each workpiece with respect to a plurality of stacked workpieces. The search model registration unit 8g is a member for setting an allowable rotation angle range for each selected search model individually with respect to the rotation of the work model.
(Gripping position specifying part 8d)

把持位置特定部8dは、位置決め部8cで仮想三次元空間上において位置決めされたワークモデルに対して、この仮想三次元空間上で互いに直交する三軸の各軸方向からそれぞれ見た、少なくとも三つの基本方向画像を表示部3に表示させた状態で、少なくとも何れかの高さ画像に対して、このワークモデルをエンドエフェクタで把持する把持位置を特定するための部材である。この把持位置特定部8dは、ワーク側把持箇所指定部8d1と、エンドエフェクタ側把持設定部8d2と、相対位置設定部8d5を備える。   The gripping position specifying unit 8d has at least three workpiece models positioned in the virtual three-dimensional space by the positioning unit 8c as viewed from the three axial directions orthogonal to each other in the virtual three-dimensional space. This is a member for specifying a gripping position at which the work model is gripped by the end effector with respect to at least one of the height images in a state where the basic direction image is displayed on the display unit 3. The gripping position specifying unit 8d includes a workpiece-side gripping location specifying unit 8d1, an end effector-side gripping setting unit 8d2, and a relative position setting unit 8d5.

ワーク側把持箇所指定部8d1は、基本方向画像選択部8eで選択された複数の基本方向画像を表示部3に表示させた状態で、いずれかの基本方向画像に対して、該基本方向画像が示すワークモデルをエンドエフェクタモデルで把持する際の把持位置を指定するための部材である。このワーク側把持箇所指定部8d1は、複数の基本方向画像のそれぞれに対して、複数の把持位置を登録可能に構成している。
(エンドエフェクタ側把持設定部8d2)
The workpiece-side gripping location specifying unit 8d1 displays a plurality of basic direction images selected by the basic direction image selecting unit 8e on the display unit 3, and the basic direction image is displayed for any of the basic direction images. It is a member for designating the gripping position when gripping the workpiece model shown by the end effector model. The workpiece-side gripping location specifying unit 8d1 is configured to be able to register a plurality of gripping positions for each of a plurality of basic direction images.
(End effector side gripping setting section 8d2)

エンドエフェクタ側把持設定部8d2は、エンドエフェクタモデルに対して、ワークモデルの把持に関する設定を行う部材である。エンドエフェクタ側把持設定部8d2は、把持基準点設定部8d3と、把持方向設定部8d4を含むことができる。把持基準点設定部8d3は、エンドエフェクタモデルに対して、ワークモデルを把持する位置に対応した把持基準点を規定する。一方把持方向設定部8d4は、エンドエフェクタモデルでワークモデルを把持する把持方向を規定する。これら把持基準点設定部8d3、把持方向設定部8d4は、共通の部材としてもよいし、個別に構成することもできる。また把持基準点設定部8d3、把持方向設定部8d4は、それぞれ把持基準点や把持方向を予め設定された所定値とすることができる。例えば、把持基準点を、エンドエフェクタモデルの先端に設けられた、ワークを挟み込む爪部同士の間の中心とする。また把持方向は、エンドエフェクタモデルを規定するツール座標軸を構成する何れかの座標軸とする。例えばZ軸方向とすることで、Z軸方向すなわち高さ方向に沿ってエンドエフェクタモデルを移動させて、ワークモデルを把持するために接近させる動作に近付け、ユーザにおいて感覚的に把握し易くできる。あるいは、把持基準点設定部8d3、把持方向設定部8d4は、把持基準点や把持方向を、ユーザにより調整可能としてもよい。
(相対位置設定部8d5)
The end effector side gripping setting unit 8d2 is a member that performs settings related to gripping of the work model with respect to the end effector model. The end effector side gripping setting unit 8d2 can include a gripping reference point setting unit 8d3 and a gripping direction setting unit 8d4. The gripping reference point setting unit 8d3 defines a gripping reference point corresponding to the position where the workpiece model is gripped with respect to the end effector model. On the other hand, the gripping direction setting unit 8d4 defines a gripping direction in which the work model is gripped by the end effector model. The gripping reference point setting unit 8d3 and the gripping direction setting unit 8d4 may be a common member or may be configured separately. The gripping reference point setting unit 8d3 and the gripping direction setting unit 8d4 can set the gripping reference point and the gripping direction to predetermined values that are set in advance. For example, the gripping reference point is set as the center between the claw portions that are provided at the end of the end effector model and sandwich the workpiece. The gripping direction is any coordinate axis that constitutes the tool coordinate axis that defines the end effector model. For example, by setting the Z-axis direction, it is possible to move the end effector model along the Z-axis direction, that is, the height direction, to approach the workpiece model so as to grasp it, and the user can easily grasp it sensuously. Alternatively, the gripping reference point setting unit 8d3 and the gripping direction setting unit 8d4 may allow the user to adjust the gripping reference point and the gripping direction.
(Relative position setting unit 8d5)

相対位置設定部8d5は、表示部3に表示されたエンドエフェクタモデルを、ワークモデルに干渉するまで移動させ、干渉位置に至った位置から所定分だけ離間させた姿勢にて把持状態を自動的に規定するための部材である。これにより、ユーザが手動でエンドエフェクタモデルを移動させてワークに接触させることなく、自動でエンドエフェクタモデルを移動させてワークに接触させて、把持位置を示すことが可能となり、ユーザ側に必要な作業を大幅に省力化できる利点が得られる。
(把持位置の登録)
The relative position setting unit 8d5 moves the end effector model displayed on the display unit 3 until it interferes with the work model, and automatically holds the gripping state in a posture separated from the position reaching the interference position by a predetermined amount. It is a member for prescribing. As a result, the user can move the end effector model automatically to contact the workpiece without manually moving the end effector model to bring it into contact with the workpiece. The advantage that work can be saved greatly
(Register grip position)

ティーチング作業においては、ワークを把持するときのワークとエンドエフェクタとの位置関係を把持位置として登録することが行われる。以下では、把持の代表例として、エンドエフェクタとしてハンド部を用いて、ハンド部でワークを把持する例について説明する。把持位置を登録した状態で、ロボットビジョンを用いたロボットピッキングの実運用時には、複数のワークがバラ積みされたワーク群の中から、ロボットビジョンで各ワークを検出し、検出されたワークの位置や姿勢に対して、エンドエフェクタ側の把持位置を計算して、計算された位置にエンドエフェクタが位置するようにロボットを動作させて、ピッキングする。ここで、把持位置の登録方法としては、実際にロボットを動作させて登録する方法や、三次元CADを用いた仮想三次元空間上でエンドエフェクタモデルを動作させて登録する方法がある。しかしながら、実際にロボットを動作させて把持位置を登録する方法では、実際にロボットを動かせながら手間のかかる登録作業が必要となり、大掛かりな検証環境を要したり、試行錯誤に時間がかかるといった問題があった。一方、三次元CADの空間上でロボットを仮想的に動作させて登録する方法では、ロボット不要で登録できる利点があるものの、仮想的なワークモデルの三次元的な姿勢に対し、仮想的なエンドエフェクタモデルの三次元的な姿勢を正確に合致させる必要があり、三次元の座標の位置合わせといった設定が難解であった。またこの方法ではワークとエンドエフェクタの三次元CADデータを必須とするため、三次元CADデータが手元にない状態では設定できなかった。   In teaching work, the positional relationship between the workpiece and the end effector when the workpiece is gripped is registered as a gripping position. Below, the example which grips a workpiece | work with a hand part as a typical example of a grip using a hand part as an end effector is demonstrated. During actual operation of robot picking using robot vision with the gripping position registered, each workpiece is detected by robot vision from a group of workpieces stacked in multiple pieces, and the position of the detected workpiece or The gripping position on the end effector side is calculated with respect to the posture, and the robot is operated so that the end effector is positioned at the calculated position to perform picking. Here, as a method of registering the gripping position, there are a method of actually registering by operating a robot, and a method of registering by operating an end effector model in a virtual three-dimensional space using three-dimensional CAD. However, the method of registering the gripping position by actually operating the robot requires troublesome registration work while actually moving the robot, which requires a large verification environment and takes time for trial and error. there were. On the other hand, the method of registering by virtually operating the robot in the space of 3D CAD has the advantage of being able to register without the need for a robot, but it is a virtual end for the 3D posture of the virtual work model. It is necessary to accurately match the three-dimensional posture of the effector model, and it is difficult to set three-dimensional coordinates. In addition, since this method requires 3D CAD data of the workpiece and the end effector, it cannot be set without 3D CAD data at hand.

そこで本実施形態においては、三次元CADモデルの各軸方向から見た高さ画像を基本方向画像として複数表示させ、この中から、ユーザの所望する基本方向画像を選択させて、選択された基本方向画像に対して把持位置を設定することで、仮想三次元空間上での把持登録を容易に行えるようにしている。この結果、ワークを模した三次元CADデータのワークモデルを配置した仮想三次元空間上でエンドエフェクタモデルを動作させて登録する際に、仮想三次元空間を規定する各軸方向から見た基本方向画像を選択して把持登録を行うことで、各基本方向画像に対して略垂直方向から見たエンドエフェクタモデルの姿勢を基準に登録することができるため、把持の設定が簡単に行えるようになる。またこの方法によれば、三次元CADデータがない場合でも、実際のワークを三次元計測して得られるデータを基本方向画像として用いることができる。このため、三次元CADデータがない場合でも、同様の手順で仮想三次元空間上で簡単に把持登録を行うことができる。
(三次元ピック判定部8l)
Therefore, in the present embodiment, a plurality of height images viewed from the respective axial directions of the three-dimensional CAD model are displayed as basic direction images, and a basic direction image desired by the user is selected from among them, and the selected basic image is selected. By setting the grip position for the direction image, grip registration in the virtual three-dimensional space can be easily performed. As a result, when the end effector model is operated and registered in the virtual three-dimensional space in which the work model of the three-dimensional CAD data imitating the work is arranged, the basic direction viewed from each axis direction defining the virtual three-dimensional space By selecting and registering an image for gripping, it is possible to register with reference to the posture of the end effector model viewed from a substantially vertical direction with respect to each basic direction image. . Further, according to this method, even when there is no 3D CAD data, data obtained by 3D measurement of an actual workpiece can be used as the basic direction image. For this reason, even when there is no 3D CAD data, grip registration can be easily performed in the virtual 3D space by the same procedure.
(Three-dimensional pick determination unit 8l)

三次元ピック判定部8lは、把持方向設定部8d4で規定した把持方向が、画像表示領域に表示されたワークモデルの姿勢を表すワーク平面に対して直交し、かつこの把持方向に沿うように把持基準点と把持位置を位置させるよう、エンドエフェクタモデルとワークモデルの相対位置を調整するための部材である。これにより、ワークをエンドエフェクタで把持する把持状態をシミュレーションする際、エンドエフェクタモデルでワークモデルを把持する位置の設定作業を容易に行える利点が得られる。特に、把持方向がワーク平面に直交し、かつ把持方向の軸上に把持基準点と把持位置を位置させることで、後はエンドエフェクタモデルを把持方向に沿ってワークモデルに近付けるだけで把持位置を調整できるようになるので、ユーザ側の作業負担が大幅に軽減される利点が得られる。従来はユーザが手動でエンドエフェクタを移動させながら、目視でワークを把持する姿勢に合わせ込む作業を行っており、エンドエフェクタの位置や姿勢をどのように調整するのか、パラメータが多く自由度が大きいことから、極めて繁雑な作業となっていた。これに対して、予めエンドエフェクタモデル側に把持基準位置と把持方向を規定し、把持方向がワーク平面と直交し、かつ把持方向の軸上に、エンドエフェクタモデルの把持基準点とワークの把持位置とが位置するように設定することで、エンドエフェクタモデルの移動方向が規定され、ユーザはエンドエフェクタモデルとワークモデルとの距離のみを調整することで把持状態を得ることができるようになる。この結果、従来極めて煩雑であったエンドエフェクタモデルとワークモデルとの把持位置の摺り合わせ作業の大幅な省力化が期待できる。   The three-dimensional pick determination unit 8l grips the gripping direction specified by the gripping direction setting unit 8d4 so that the gripping direction is orthogonal to the work plane representing the posture of the work model displayed in the image display area and along the gripping direction. It is a member for adjusting the relative position of the end effector model and the work model so as to position the reference point and the gripping position. Thereby, when simulating the gripping state in which the workpiece is gripped by the end effector, there is an advantage that the position setting operation for gripping the workpiece model by the end effector model can be easily performed. In particular, the gripping direction is perpendicular to the workpiece plane, and the gripping reference point and the gripping position are positioned on the gripping direction axis, so that the end effector model can be simply moved closer to the workpiece model along the gripping direction. Since the adjustment becomes possible, there is an advantage that the work burden on the user side is greatly reduced. Conventionally, the user manually moves the end effector and manually adjusts it to the posture for gripping the workpiece. There are many parameters and how to adjust the position and posture of the end effector with a large degree of freedom. Therefore, it was an extremely complicated task. In contrast, the gripping reference position and gripping direction are defined in advance on the end effector model side, the gripping direction is orthogonal to the workpiece plane, and the gripping reference point of the end effector model and the gripping position of the workpiece are on the gripping direction axis. Is set so that the movement direction of the end effector model is defined, and the user can obtain a gripping state by adjusting only the distance between the end effector model and the work model. As a result, significant labor savings can be expected in the gripping operation of the gripping position between the end effector model and the work model, which has been extremely complicated in the past.

このようなエンドエフェクタモデルとワークモデルの相対位置を、把持方向がワーク平面に直交し、かつ把持方向の軸上に把持基準点と把持位置を位置させるよう調整する作業は、三次元ピック判定部8lにより自動で行わせることが好ましい。これにより、予めエンドエフェクタモデル側に把持基準位置と把持方向を規定し、把持方向がワーク平面と直交し、かつ把持方向の軸上に、エンドエフェクタモデルの把持基準点とワークの把持位置とが位置するように自動調整することで、エンドエフェクタモデルの移動方向が規定され、ユーザはエンドエフェクタモデルとワークモデルとの距離のみを調整することで把持状態を得ることができるようになる。この結果、従来極めて煩雑であったエンドエフェクタモデルとワークモデルとの把持位置の摺り合わせ作業の大幅な省力化が期待できる。   The operation of adjusting the relative position between the end effector model and the work model so that the gripping direction is orthogonal to the work plane and the gripping reference point and the gripping position are positioned on the gripping direction axis is a three-dimensional pick determination unit. It is preferable to carry out automatically by 8 l. As a result, the gripping reference position and gripping direction are defined in advance on the end effector model side, the gripping direction is orthogonal to the workpiece plane, and the gripping reference point of the end effector model and the gripping position of the workpiece are on the gripping direction axis. By automatically adjusting the position to be positioned, the moving direction of the end effector model is defined, and the user can obtain a gripping state by adjusting only the distance between the end effector model and the work model. As a result, significant labor savings can be expected in the gripping operation of the gripping position between the end effector model and the work model, which has been extremely complicated in the past.

ただ、必ずしも三次元ピック判定部による自動調整に限らず、例えば位置決め部8cでもってユーザが手動で把持方向をワーク平面と直交させ、かつ把持方向の軸上にエンドエフェクタモデルの把持基準点とワークの把持位置とを位置させる調整を行う際に、三次元ピック判定部がこのような調整作業を支援するように構成してもよい。例えば、第一段階としてワーク平面と把持方向を画像表示領域に表示させた状態で、これらが直交するように補助線をユーザに示したり、文字や画像でもって「ワーク平面に把持方向が直交するように、エンドエフェクタモデルを調整してください。」等と表示させて、ユーザに調整作業を促すように構成してもよい。さらに第二段階として、把持方向の軸上にエンドエフェクタモデルの把持基準点とワークの把持位置とを位置させるよう、把持方向の延長線を画像表示領域に表示させ、「把持方向の軸上にエンドエフェクタモデルの把持基準点とワークの把持位置とを位置させるよう、調整してください。」等のメッセージを表示させて、設定を促すように三次元ピック判定部が誘導することもできる。   However, it is not necessarily limited to automatic adjustment by the three-dimensional pick determination unit. For example, with the positioning unit 8c, the user manually makes the gripping direction orthogonal to the workpiece plane, and the gripping reference point of the end effector model and the workpiece on the axis in the gripping direction. The three-dimensional pick determination unit may be configured to support such adjustment work when performing the adjustment to position the holding position. For example, in the state where the work plane and the gripping direction are displayed in the image display area as the first step, an auxiliary line is shown to the user so that they are orthogonal to each other, or “the gripping direction is orthogonal to the work plane” with characters or images. Please adjust the end effector model as described above. ”May be displayed to prompt the user to perform adjustment work. Further, as a second step, an extension line in the gripping direction is displayed in the image display area so that the gripping reference point of the end effector model and the gripping position of the workpiece are positioned on the gripping direction axis. The 3D pick determination unit can also guide the user to display a message such as “Adjust so that the gripping reference point of the end effector model and the gripping position of the workpiece are positioned.”

また三次元ピック判定部8lでもって、フィット機能を実現することもできる。例えば三次元ピック判定部8lが、エンドエフェクタモデルとワークモデルの相対位置を、把持方向がワーク平面に直交し、かつ把持方向の軸上に把持基準点と把持位置を位置させた状態で、エンドエフェクタモデルを把持方向に沿ってワークモデルに干渉するまで移動させ、干渉位置に至った位置から所定分だけ離間させた姿勢にて把持状態を自動的に規定するよう構成できる。これにより、エンドエフェクタモデルでワークモデルを把持する位置及び姿勢に自動で調整することが可能となり、ユーザ側の作業負担を一層軽減できる利点が得られる。
(三次元サーチ部)
The fit function can also be realized by the three-dimensional pick determination unit 8l. For example, the three-dimensional pick determination unit 8l sets the relative position between the end effector model and the work model in a state where the gripping direction is orthogonal to the work plane and the gripping reference point and the gripping position are positioned on the gripping direction axis. The effector model can be moved along the gripping direction until it interferes with the work model, and the gripping state can be automatically defined in a posture separated from the position reaching the interference position by a predetermined amount. As a result, it is possible to automatically adjust the position and posture at which the work model is gripped by the end effector model, and it is possible to obtain the advantage of further reducing the work burden on the user side.
(3D search part)

三次元サーチ部は、入力画像中から、サーチモデル登録部で登録されたサーチモデルを用いて、各ワークの姿勢と位置を特定する三次元サーチを行うための部材である。三次元サーチに先立ち、サーチモデル登録部でもって、複数のワーク群をバラ積みした状態を示す入力画像中から、この入力画像に含まれる各ワークの姿勢と位置を特定する三次元サーチを行う際に用いる、ワークの三次元形状を仮想的に表現したサーチモデルを予め登録しておく。この状態で三次元ピック判定部8lが、三次元サーチ部でサーチされた入力画像中のサーチ結果に対して、ワーク側把持箇所指定部でこのワークに対して指定された把持位置において、エンドエフェクタで把持可能か否かを判定する。例えば入力画像取得部で、センサ部で測定された複数のワーク群の画像から三次元形状を有する入力画像を取得し、この入力画像中から、三次元サーチ部で、サーチモデル登録部で登録されたサーチモデルを用いて、各ワークの姿勢と位置を特定する三次元サーチを行う。これにより、実際にワークを撮像して取得した入力画像に対して、三次元サーチを行うことが可能となり、より実情に即した把持判定を行えるようになる。
(サーチモデル)
The three-dimensional search unit is a member for performing a three-dimensional search for specifying the posture and position of each workpiece using the search model registered in the search model registration unit from the input image. Prior to the three-dimensional search, the search model registration unit performs a three-dimensional search for identifying the posture and position of each workpiece included in the input image from the input image indicating a state where a plurality of workpiece groups are stacked. A search model that virtually represents the three-dimensional shape of the workpiece is registered in advance. In this state, the three-dimensional pick determination unit 8l determines the end effector at the gripping position designated for the workpiece by the workpiece-side gripping location designation unit with respect to the search result in the input image searched by the three-dimensional search unit. To determine whether or not gripping is possible. For example, an input image acquisition unit acquires an input image having a three-dimensional shape from images of a plurality of workpieces measured by a sensor unit, and is registered in a search model registration unit by a three-dimensional search unit from the input image. A three-dimensional search that identifies the posture and position of each workpiece is performed using the search model. As a result, a three-dimensional search can be performed on an input image obtained by actually capturing a workpiece, and gripping determination can be performed in accordance with the actual situation.
(Search model)

バラ積みピッキングにおいては、バラ積みされた複数のワーク群の中から、把持可能なワークを決定するために、まずワーク単位で抽出する必要がある。ここでは、センサ部で得られた高さ情報を有するワーク群の形状に対して、予め検索対象のワークの形状をワークモデルとして登録しておき、このワークモデルで三次元サーチを行い、ワーク毎に位置及び姿勢を検出する。
(基本方向画像)
In bulk picking, in order to determine a work that can be gripped from a plurality of work pieces stacked in bulk, it is necessary to first extract each work piece. Here, with respect to the shape of the workpiece group having the height information obtained by the sensor unit, the shape of the workpiece to be searched is registered in advance as a workpiece model, and a three-dimensional search is performed using this workpiece model. The position and orientation are detected.
(Basic direction image)

ワークを三次元サーチするためのサーチモデルは、ワークを特定の方向から見たときの高さ画像を用いて作成する。サーチモデルとして用いる高さ画像は、ワークを三次元的に表現したワークモデルである三次元CADデータや、センサ部で実際にワークを撮像した実測データが利用できる。ここでは、三次元CADデータをサーチモデルとして登録する例について説明する。例えば、図7のような三次元CADデータで構築されたワークモデルCWMを、サーチモデルとして使用する場合を考える。このワークモデルCWMから、仮想三次元空間上で互いに直交する三軸(例えばX軸、Y軸、Z軸)の各軸方向の正方向、負方向からそれぞれ見た6枚の高さ画像、すなわち六面図を、基本方向画像として取得する。例えば図6の基本方向画像生成部8e’が、6枚の基本方向画像を生成して、表示部3の六面図表示領域3aに表示させる。6枚の基本方向画像は、例えばワークモデルCWMの「上」、「下」、「左」、「右」、「前」、「後」、すなわち平面図、底面図、左側面図、右側面図、正面図、背面図となるように、基本方向画像生成部8e’が自動的にワークモデルCWMの原点(詳しくは後述)やワークモデルCWMを構成する面から演算する。ここで「上」はZ軸の正方向(+側)から見た高さ画像、「下」はZ軸の負方向(−側)から見た高さ画像、「左」はX軸の負方向から見た高さ画像、「右」はX軸の正方向から見た高さ画像、「前」はY軸の負方向から見た高さ画像、「後」はY軸の正方向から見た高さ画像を、それぞれ示している。ただ、これらは一例であって、異なる座標系を用いてもよいし、X−Y平面におけるX=Yの直線を軸として、この軸と互いに直交する座標系に基づいて、各軸の正負方向から見た高さ画像を用いてもよい。また、三次元CADデータから、高さ画像を生成する際、必ずしもCADの軸に直交した方向(「上」、「下」、「左」、「右」、「前」、「後」)から見た高さ画像である必要はなく、例えばワークモデルの姿勢(視点)を任意に変えて、変えた状態の視点から高さ画像を生成するようにしても良い。
(ワークモデルの原点)
A search model for three-dimensional search of a workpiece is created using a height image when the workpiece is viewed from a specific direction. As the height image used as the search model, three-dimensional CAD data that is a work model expressing the work three-dimensionally, or actual measurement data obtained by actually imaging the work with the sensor unit can be used. Here, an example in which three-dimensional CAD data is registered as a search model will be described. For example, consider a case where a work model CWM constructed with three-dimensional CAD data as shown in FIG. 7 is used as a search model. From this work model CWM, six height images viewed from the positive and negative directions of the three axes orthogonal to each other in the virtual three-dimensional space (for example, the X axis, the Y axis, and the Z axis), that is, A hexahedral view is acquired as a basic direction image. For example, the basic direction image generation unit 8e ′ shown in FIG. 6 generates six basic direction images and displays them in the six-view drawing display area 3a of the display unit 3. The six basic direction images are, for example, “up”, “down”, “left”, “right”, “front”, “back” of the work model CWM, that is, a plan view, a bottom view, a left side view, and a right side view. The basic direction image generation unit 8e ′ automatically calculates from the origin (details will be described later) of the work model CWM and the surfaces constituting the work model CWM so as to be a figure, a front view, and a rear view. Here, “upper” is a height image viewed from the positive direction (+ side) of the Z axis, “lower” is a height image viewed from the negative direction (−side) of the Z axis, and “left” is a negative image of the X axis. Height image viewed from the direction, “Right” is the height image viewed from the positive direction of the X axis, “Front” is a height image viewed from the negative direction of the Y axis, and “Back” is from the positive direction of the Y axis Each viewed height image is shown. However, these are only examples, and different coordinate systems may be used, and the positive and negative directions of each axis are based on a coordinate system orthogonal to this axis with the X = Y line in the XY plane as the axis. You may use the height image seen from. Also, when generating a height image from three-dimensional CAD data, it is not necessarily from the direction orthogonal to the CAD axis ("up", "down", "left", "right", "front", "back"). It is not necessary to be the viewed height image. For example, the posture (viewpoint) of the work model may be arbitrarily changed, and the height image may be generated from the changed viewpoint.
(Work model origin)

ここでワークモデルの原点は、三次元CADデータが有する座標情報から、画像処理装置が自動的に決定する。例えば図7のワークモデルCWMの三次元CADデータに対して、図8において破線で示すように、ワークモデルCWMに外接する仮想直方体IBXを規定し、この仮想直方体IBXの重心をワークモデルの原点Oとして設定する。
(基本方向画像選択部8e)
Here, the origin of the work model is automatically determined by the image processing apparatus from the coordinate information of the three-dimensional CAD data. For example, for the three-dimensional CAD data of the work model CWM in FIG. 7, a virtual cuboid IBX circumscribing the work model CWM is defined as shown by a broken line in FIG. 8, and the center of gravity of the virtual cuboid IBX is defined as the origin O of the work model. Set as.
(Basic direction image selection unit 8e)

なお基本方向画像は必ずしも6枚とする必要はなく、少なくとも複数枚あれば足りる。例えば、直方体のように対向する面が同じ形状であれば、いずれか一方の面から見た基本方向画像で足りる。いいかえると、同じ形状になる基本方向画像を排除して、三次元サーチの処理負荷を低減できる。このような、見え方がいずれかの基本方向画像と共通する基本方向画像を削除する機能は、基本方向画像選択部8eにより実現される。一例として、図7のワークモデルCWMから取得した基本方向画像を図9A〜図9Dに示す.これらの図において、図9Aは図7のワークモデルCWMをX軸の正方向から見た高さ画像であり、図9BはY軸の正方向から見た高さ画像であり、図9CはZ軸の正方向から見た高さ画像であり、図9DはZ軸の負方向から見た高さ画像である。ここでは高さ画像として、高さが高い点ほど明るく、低い点ほど暗くなるように、高さ情報を輝度値として表現した高さ画像を用いている。   Note that the number of basic direction images is not necessarily six, and at least a plurality of basic direction images are sufficient. For example, if the opposing surfaces have the same shape, such as a rectangular parallelepiped, a basic direction image viewed from one of the surfaces is sufficient. In other words, it is possible to reduce the processing load of the three-dimensional search by eliminating the basic direction image having the same shape. Such a function of deleting a basic direction image that is common to any of the basic direction images is realized by the basic direction image selection unit 8e. As an example, the basic direction images acquired from the work model CWM of FIG. 7 are shown in FIGS. 9A to 9D. In these drawings, FIG. 9A is a height image when the work model CWM of FIG. 7 is viewed from the positive direction of the X axis, FIG. 9B is a height image when viewed from the positive direction of the Y axis, and FIG. 9D is a height image viewed from the positive direction of the axis, and FIG. 9D is a height image viewed from the negative direction of the Z axis. Here, as the height image, a height image in which height information is expressed as a luminance value is used so that a higher point is brighter and a lower point is darker.

ここで、見え方の一致/不一致は、ワークの上下(Z軸の±方向)、前後(Y軸の±方向)、左右(X軸の±方向)から見た、計六面の高さ画像を生成し、一致確認を行うことで確認する。ここでは90°の刻み角度で回転一致を確認し、他の面と一致する見え方となる面は、サーチモデルの登録対象から除外する。図7のワークモデルCWMにおいては、X軸の負方向から見た高さ画像と、Y軸の負方向から見た高さ画像は、見え方がそれぞれ図9A、図9Bと一致する状態になるため、サーチモデル生成の対象から除外される。このようにして、見え方が異なる面数分、サーチモデルが生成される。このようにして不要な高さ画像を除外した基本方向画像を、六面図表示領域3aに表示させる。なお六面図表示領域とは、その名称に限らず、必ずしもワークモデルの六面すべてを表示させる必要はなく、上述の通り見え方の共通する高さ画像を不要画像として排除し、五面以下で表示させる態様も含めて本明細書では六面図表示領域と呼ぶ。
(サーチモデル登録画面130)
Here, the matching / non-coincidence of the appearance is the height image of a total of six faces as seen from the top and bottom (Z axis ± direction), front and back (Y axis ± direction), and left and right (X axis ± direction). And confirm by matching. Here, the rotation coincidence is confirmed at a step angle of 90 °, and the surface that appears to match the other surface is excluded from the registration target of the search model. In the work model CWM of FIG. 7, the height image viewed from the negative direction of the X axis and the height image viewed from the negative direction of the Y axis are in a state where the appearance matches that of FIGS. 9A and 9B, respectively. Therefore, it is excluded from the search model generation target. In this way, search models are generated for the number of faces that look different. In this way, the basic direction image excluding the unnecessary height image is displayed in the six-view drawing display area 3a. Note that the six-face drawing display area is not limited to its name, and it is not always necessary to display all six faces of the work model. In the present specification, including the mode of display, is referred to as a hexahedral display area.
(Search model registration screen 130)

また、このような除外は、ユーザが手動で行うこともできるし、画像処理装置側で自動で行わせてもよいし、あるいはこれらを組み合わせてもよい。   Further, such exclusion can be performed manually by the user, automatically by the image processing apparatus, or a combination thereof.

例えば、図10に示す三次元サーチのサーチモデルとして基本方向画像BDIを登録するサーチモデル登録画面130において、基本方向画像生成部8e’が自動的に六面図に相当する基本方向画像BDIを生成し、表示部3の六面図表示領域3aに表示させる。この際、共通する基本方向画像が存在する場合は、サーチモデルの登録対象から排除するようユーザに促す。ここでは、サーチモデルの登録可否を設定するサーチモデル選択部8iとして、サーチモデルの候補となる基本方向画像BDIに対して、それぞれ「登録対象」チェックボックス131を設けている。ユーザは「登録対象」チェックボックス131をONにすると、この基本方向画像BDIをサーチモデルとして登録し、「登録対象」チェックボックス131をOFFにすると、この基本方向画像をサーチモデルから除外することができる。   For example, in the search model registration screen 130 for registering the basic direction image BDI as the search model of the three-dimensional search shown in FIG. 10, the basic direction image generation unit 8e ′ automatically generates a basic direction image BDI corresponding to a hexahedral view. Then, it is displayed on the six-sided view display area 3a of the display unit 3. At this time, if a common basic direction image exists, the user is prompted to exclude it from the search model registration target. Here, as a search model selection unit 8i that sets whether or not a search model can be registered, a “registration target” check box 131 is provided for each basic direction image BDI that is a candidate for the search model. When the “registration target” check box 131 is turned ON, the basic direction image BDI is registered as a search model, and when the “registration target” check box 131 is OFF, the basic direction image is excluded from the search model. it can.

この際、見え方が共通する基本方向画像については、基本方向画像選択部8eによって、予め「登録対象」チェックボックス131をOFFにした状態でユーザにサーチモデル登録画面130を表示させる。ユーザは、初期状態としてサーチモデルに登録すべき基本方向画像BDI、及びサーチモデルから排除すべき基本方向画像が正しく選択されていることを確認した上で、この選択を承認したり、必要に応じて修正や入れ替えを行うことができる。このように、デフォルトで三次元サーチのサーチモデルとして登録すべき基本方向画像を選択し、かつ登録から排除すべき基本方向画像の候補を提示させることで、ユーザによるサーチモデルの登録作業を省力化できる。
(実測データMWM)
At this time, for the basic direction image having a common appearance, the basic model image selection unit 8e causes the user to display the search model registration screen 130 with the “registration target” check box 131 turned off in advance. The user confirms that the basic direction image BDI to be registered in the search model as an initial state and the basic direction image to be excluded from the search model are correctly selected, and approves this selection, or if necessary. Can be corrected and replaced. In this way, by selecting a basic direction image that should be registered as a search model for a 3D search by default and by presenting candidates for basic direction images that should be excluded from registration, the user can save search model registration work. it can.
(Actual measurement data MWM)

以上は、三次元サーチのサーチモデルとして三次元CADデータを用いる例を説明した。ただ本発明は上述の通り、サーチモデルを必ずしも三次元CADデータに限定せず、例えば複数の二次元CADデータを解析して三次元データ化したものを用いたり、あるいはセンサ部で実際にワークを撮像した実測データを、サーチモデルとして利用することもできる。一例として、図7のワークモデルCWMに対応するワークをX軸の正方向から撮像した実測データMWMを、図11に示す。このように、ワークのCADデータがない場合は、実ワークを三次元計測したデータを用いることも可能である。図10で示したように、三次元サーチに必要な数の実測データMWMを撮像して登録していく。   The above describes an example in which 3D CAD data is used as a search model for 3D search. However, as described above, the present invention does not necessarily limit the search model to three-dimensional CAD data. For example, a plurality of two-dimensional CAD data is analyzed and converted into three-dimensional data, or the workpiece is actually processed by the sensor unit. The actually measured data captured can also be used as a search model. As an example, FIG. 11 shows actual measurement data MWM obtained by imaging a workpiece corresponding to the workpiece model CWM in FIG. 7 from the positive direction of the X axis. Thus, when there is no CAD data of a workpiece, it is also possible to use data obtained by three-dimensional measurement of an actual workpiece. As shown in FIG. 10, the number of actual measurement data MWM necessary for the three-dimensional search is imaged and registered.

なお、実ワークを登録する場合は、ワークを置いた底面の情報(例えばワーク周辺の床の形状)も三次元計測されることになる。そこで、例えば底面から一定以上の高さの箇所のみをしきい値処理で切り出す等して、不要な底面の情報を除外することが好ましい。これによって、三次元サーチに必要な形状部分のみを登録することが可能となる。
(特徴点の抽出)
When registering an actual workpiece, information on the bottom surface on which the workpiece is placed (for example, the shape of the floor around the workpiece) is also measured three-dimensionally. Therefore, it is preferable to exclude unnecessary bottom surface information, for example, by cutting out only a portion having a certain height from the bottom surface by threshold processing. This makes it possible to register only the shape part necessary for the three-dimensional search.
(Extraction of feature points)

次に、このようにしてサーチモデルの対象となるワークの各面に相当する高さ画像を登録した状態で、登録された面のサーチモデルを生成する。ここでは、登録された各面毎に、三次元サーチに必要な特徴点を抽出する。ここでは特徴点として、形状の輪郭を現す特徴点(輪郭上の特徴点)と、表面形状を表す特徴点(表面上の特徴点)の、2種類の特徴点を用いる例を説明する。図12Aに、X軸方向から見た高さ画像(図9Aに相当)のサーチモデルSMに対して、2種類の特徴点を抽出した状態を示す。またこのサーチモデルSMを斜視図で表示した状態を図12Bに示す。ここで表面上の特徴点SCPと輪郭上の特徴点OCPは、表示態様を変えて表示させることが好ましい。例えば表面上の特徴点SCPを白色で、輪郭上の特徴点OCPを水色で表示させる。あるいは、表面上の特徴点の白と、より区別がつきやすいように紫色で表示する等、他の配色としても良い。このように色を変えて特徴点を表示させることで、ユーザは各特徴点の意味合いを視覚的に区別することが容易となる。   Next, a search model of the registered surface is generated in a state where height images corresponding to each surface of the workpiece to be the search model are registered in this way. Here, feature points necessary for the three-dimensional search are extracted for each registered surface. Here, an example will be described in which two types of feature points are used as feature points: a feature point representing a contour of a shape (a feature point on the contour) and a feature point representing a surface shape (a feature point on the surface). FIG. 12A shows a state where two types of feature points are extracted from the search model SM of the height image (corresponding to FIG. 9A) viewed from the X-axis direction. FIG. 12B shows a state where the search model SM is displayed in a perspective view. Here, it is preferable that the feature point SCP on the surface and the feature point OCP on the contour are displayed in different display modes. For example, the feature point SCP on the surface is displayed in white, and the feature point OCP on the contour is displayed in light blue. Alternatively, other color schemes may be used, such as displaying the feature point on the surface white and purple so that it can be more easily distinguished. By displaying the feature points by changing the color in this way, it becomes easy for the user to visually distinguish the meaning of each feature point.

表面上の特徴点SCPは、例えばワークモデルの表面を一定間隔で抽出する。一方、輪郭上の特徴点OCPは、例えば高さが変化する箇所等のエッジ抽出を行って、さらに細線化処理した箇所を、一定間隔で特徴点として抽出する。このように、各特徴点は、面の三次元的な形状を表す特徴となっている。
(三次元サーチ方法)
As the feature points SCP on the surface, for example, the surface of the work model is extracted at regular intervals. On the other hand, the feature points OCP on the contour are extracted as feature points at regular intervals, for example, by performing edge extraction such as locations where the height changes, and further thinning processing. Thus, each feature point is a feature representing the three-dimensional shape of the surface.
(Three-dimensional search method)

このようにして特徴点を抽出したサーチモデルを用いて、三次元サーチを行う。ここで、入力画像として、図13Aや図13Bに示すように複数のワークをバラ積みしたワーク群を撮像して三次元形状を取得した状態から、ワーク別に抽出するために三次元サーチを行う方法について説明する。まずサーチモデルの各特徴点が、最も一致する状態の、位置及び姿勢(X、Y、Z、RX、RY、RZ)を、入力画像の中から探索する。ここでRX、RY、RZは、それぞれX軸に対する回転角、Y軸に対する回転角、Z軸に対する回転角を表す。このような回転角度の表現方法は種々提案されているところ、ここではZ−Y−X系オイラー角を用いる(詳細は後述)。また一致する位置及び姿勢は、各サーチモデルに対して、一つである必要はなく、一定以上一致する位置及び姿勢を、複数検出しても良い。 A three-dimensional search is performed using the search model from which feature points are extracted in this way. Here, as an input image, as shown in FIG. 13A and FIG. 13B, a method of performing a three-dimensional search for extracting a work group from a state in which a plurality of works are stacked and a three-dimensional shape is acquired. Will be described. Each characteristic point of first search models, the best match state, the position and orientation (X, Y, Z, R X, R Y, R Z) , and searches from the input image. Here, R X , R Y , and R Z represent a rotation angle with respect to the X axis, a rotation angle with respect to the Y axis, and a rotation angle with respect to the Z axis, respectively. Various methods for expressing such a rotation angle have been proposed. Here, a ZYX Euler angle is used (details will be described later). Further, the matching positions and orientations do not have to be one for each search model, and a plurality of matching positions and orientations may be detected.

ここでは入力画像として、図13Aのような二次元表示、あるいはこれを三次元表示させた図13Bのようなワーク群に対して、三次元サーチを行い、入力画像全体を探索する。この結果、図13Cのような二次元表示、あるいはこれを三次元表示させた図13Dに示すようなサーチ済み画像が三次元サーチ結果として得られる。図13C、図13Dに示すように、サーチモデルの特徴点が入力画像中から検索されて、サーチモデルと対応するワークが検出されていることが判る。図13Dにおいては、サーチモデルAとサーチモデルBのサーチ結果が得られている様子を示している。これらサーチモデルA、サーチモデルBは、後述する図14のサーチモデル選択欄で表示されたサーチモデルA、Bと対応している。なお図13Dの右側のワークWKについては、同じワークでサーチモデルA、Bの2つのサーチ結果が得られている。よって、各サーチモデルに登録された把持位置での把持が可能であれば、複数の把持位置がこのワークでは得られていることになる。   Here, as an input image, a two-dimensional display as shown in FIG. 13A or a work group as shown in FIG. As a result, a two-dimensional display as shown in FIG. 13C or a searched image as shown in FIG. 13D in which this is displayed in three dimensions is obtained as a three-dimensional search result. As shown in FIGS. 13C and 13D, it can be seen that the feature points of the search model are searched from the input image, and the workpiece corresponding to the search model is detected. FIG. 13D shows a state where search results of search model A and search model B are obtained. These search model A and search model B correspond to search models A and B displayed in a search model selection column in FIG. For the work WK on the right side of FIG. 13D, two search results of search models A and B are obtained with the same work. Therefore, if gripping at the gripping position registered in each search model is possible, a plurality of gripping positions are obtained in this work.

このように三次元サーチに用いるサーチモデルとして、ワークを六面図のように、面ごとに見た画像を用いることで、斜視図などを用いる場合と比べ、三次元サーチの演算処理を簡素化でき、処理を軽負荷、高速化できる利点が得られる。また、サーチモデルの登録作業に際しても表示された状態が見易くなり、ユーザにも視覚的に判り易くできる。
(三次元サーチ結果の評価指標)
As a search model used for 3D search in this way, the 3D search calculation process is simplified compared to the perspective view, etc., by using an image of the work as seen on each side, such as a hexagonal view. It is possible to obtain an advantage that the processing can be lightly loaded and speeded up. In addition, the displayed state is easy to see even when the search model is registered, and the user can easily understand it visually.
(Evaluation index of 3D search results)

さらに、三次元サーチ結果の評価指標を設定することもできる。例えば図13Cや図13Dに示す例において、対応する特徴点が、入力画像中に対してどの程度存在したか(例えばサーチ結果に対し、一定の距離以下の誤差で対応した特徴点の点数割合や、規定の計算式により特徴点の誤差量をペナルティとして減点した値などによって、三次元サーチ結果をスコア付けする。この方法では、三次元計測できなかった無効データ(無効画素)が多い状態では、スコアが低くなる。このようにスコアを、三次元サーチ結果の信頼性を表す指標として用いることができる。例えば、スコアが高い順に、優先的にワークを把持するように設定できる。また、一定のスコア以下の三次元サーチ結果は、誤検出している可能性が高いと判断して、ワークの把持対象から外すように設定してもよい。例えば図6の画像処理装置100において演算部10に評価指標演算部8qを設け、所定の基準に基づいてサーチ結果に対して評価指標を演算する。これにより、評価指標の高いサーチ結果から順に優先順位を設定し、この優先順位に従いワークを把持するように設定することができる。例えば、一定のスコア以上の結果の中で、Z方向の位置が最も高いものから優先的に把持するように設定することができる。Z方向の位置が高いものほど、他のワークと干渉しにくい特性があるため、Z方向の位置が最も高いものから優先的に把持するように設定することで、干渉判定の処理負荷を下げる効果を得られる。   Furthermore, an evaluation index for a three-dimensional search result can be set. For example, in the examples shown in FIGS. 13C and 13D, how much the corresponding feature points exist in the input image (for example, the ratio of the number of feature points corresponding to the search result with an error of a certain distance or less, , Scoring the 3D search result by a value obtained by deducting the feature point error amount as a penalty according to the prescribed calculation formula, etc. With this method, there are many invalid data (invalid pixels) that could not be measured in 3D, In this way, the score can be used as an index representing the reliability of the three-dimensional search result, for example, the workpiece can be set to be gripped preferentially in descending order of the score. The three-dimensional search result below the score may be determined to be erroneously detected and may be set so as to be excluded from the workpiece gripping target, for example, the image processing in FIG. In the apparatus 100, an evaluation index calculation unit 8q is provided in the calculation unit 10, and the evaluation index is calculated with respect to the search result based on a predetermined reference, whereby priority is set in order from the search result having the highest evaluation index. For example, it can be set so that the workpiece is gripped preferentially from the highest position in the Z direction among the results of a certain score or higher. The higher the position in the direction, the more difficult it is to interfere with other workpieces. Therefore, setting the gripping with priority from the one with the highest position in the Z direction has the effect of reducing the processing load for interference determination. can get.

このようにしてバラ積みされたワーク群から、ワーク毎に検出することで、把持対象のワークを画像処理装置側で認識できるようになる。次に、ワークをエンドエフェクタで把持するためには、ワーク毎に、ワークのどの位置をどのような姿勢で把持するかを認識させる必要がある。このため、ワークの把持位置を登録する。なお本明細書では、「把持位置」、「把持姿勢」の登録というとき、ワークを把持する位置と、そのときの姿勢を含む意味で使用する。ワークの把持位置は、ワークに対して一箇所以上を登録できる。また、把持位置の登録は、ワークの面単位で行うことで、把持登録の作業の容易性や把持位置の認識の点で好ましい。すなわちワークの姿勢を、特定の面を上面とした姿勢に規定した上で、把持位置を登録する。
(把持登録画面140)
By detecting each workpiece from the workpiece group stacked in this manner, the workpiece to be grasped can be recognized on the image processing apparatus side. Next, in order to grip the workpiece with the end effector, it is necessary to recognize for each workpiece which position of the workpiece is to be gripped and in which posture. Therefore, the workpiece gripping position is registered. In the present specification, the registration of “grip position” and “grip posture” is used to include the position where the workpiece is gripped and the posture at that time. One or more workpiece gripping positions can be registered for the workpiece. Further, the registration of the gripping position is preferably performed in units of workpiece surfaces, from the viewpoint of ease of gripping registration work and recognition of the gripping position. That is, the gripping position is registered after the posture of the work is defined as a posture with a specific surface as the upper surface.
(Grip registration screen 140)

ここで、エンドエフェクタモデルがワークモデルを把持する把持位置を登録する把持登録を行うユーザインターフェース画面の例を、図14、図15に示す。把持登録画面140では、ワークモデルの登録する面を指定し、各面に対し、把持姿勢を登録する。図14の例では、4種類の面(サーチモデルの各面)を指定して、把持姿勢を登録するユーザインターフェース画面を示している。ここではA〜Dのサーチモデルの内、サーチモデル「C」を選択しており、このサーチモデルCには3つの把持姿勢が表示されている。   Here, FIG. 14 and FIG. 15 show examples of user interface screens for performing grip registration for registering grip positions where the end effector model grips the work model. On the grip registration screen 140, a surface to be registered in the work model is designated, and a grip posture is registered for each surface. The example of FIG. 14 shows a user interface screen for specifying four types of surfaces (each surface of the search model) and registering a gripping posture. Here, the search model “C” is selected from the search models A to D, and three gripping postures are displayed in the search model C.

図14の把持登録画面140では、左側に画像を表示させるための画像表示欄141、右側に各種の操作を行うための操作欄142を設けている。画像表示欄141には、ワークモデルCWMとエンドエフェクタモデルEEMが表示される。画像表示欄141の画面をドラッグすることで、視点を変更できる。このように、表示領域に表示されたワークモデルの位置や姿勢を、仮想三次元空間上で調整する位置決め部8cとして機能する。また画像表示欄141の表示態様を、二次元的な表示や三次元的な表示に切り替えることもできる。現在の表示態様を判り易く示すため、画像表示欄141には三次元の基準座標軸BAXを重ねて表示している。図14の例では、画像表示欄141には、操作欄142で選択されている把持姿勢001に登録された把持姿勢、すなわちワークモデルCWMの一部をエンドエフェクタモデルEEMで把持する様子が表示されている。なお、この例ではエンドエフェクタモデルEEMの全体を表示させているが、把持登録に際しては必ずしもエンドエフェクタモデルの全体を表示させる必要はなく、少なくともワークモデルCWMを把持する部位、例えば爪部を表示させれば足りる。   In the grip registration screen 140 of FIG. 14, an image display column 141 for displaying an image on the left side and an operation column 142 for performing various operations on the right side are provided. In the image display column 141, the work model CWM and the end effector model EEM are displayed. The viewpoint can be changed by dragging the screen of the image display column 141. In this way, it functions as a positioning unit 8c that adjusts the position and orientation of the work model displayed in the display area in the virtual three-dimensional space. Further, the display mode of the image display column 141 can be switched to two-dimensional display or three-dimensional display. In order to show the current display mode in an easy-to-understand manner, a three-dimensional reference coordinate axis BAX is displayed in an overlapping manner in the image display field 141. In the example of FIG. 14, the image display column 141 displays the gripping posture registered in the gripping posture 001 selected in the operation column 142, that is, how a part of the work model CWM is gripped by the end effector model EEM. ing. In this example, the entire end effector model EEM is displayed, but it is not always necessary to display the entire end effector model at the time of grip registration, and at least a part for gripping the work model CWM, for example, a claw portion is displayed. If it is enough.

また操作欄142には、サーチモデルを選択するためのサーチモデル選択欄143、及びサーチモデル選択欄143で選択されたサーチモデルに対して登録されている把持姿勢を示す把持姿勢表示欄144が設けられている。サーチモデル選択欄143で一覧表示された把持姿勢を選択すると、これに対応する登録済みの把持姿勢が、画像表示欄141に表示される。また、編集ボタン145を押下すると、登録済みの把持姿勢を修正することが可能となる。さらに操作欄142には、把持姿勢を追加する追加ボタン146や、登録済みの把持姿勢を削除する削除ボタン147が設けられている。削除ボタン147を押すと、選択されている把持姿勢が削除される。
(把持姿勢追加画面150)
Further, the operation column 142 includes a search model selection column 143 for selecting a search model, and a gripping posture display column 144 indicating a gripping posture registered for the search model selected in the search model selection column 143. It has been. When a gripping posture displayed as a list in the search model selection column 143 is selected, a registered gripping posture corresponding to this is displayed in the image display column 141. When the edit button 145 is pressed, the registered gripping posture can be corrected. Further, the operation field 142 is provided with an add button 146 for adding a gripping posture and a delete button 147 for deleting a registered gripping posture. When the delete button 147 is pressed, the selected gripping posture is deleted.
(Grip posture addition screen 150)

把持姿勢を新たに追加したい場合は、追加ボタン146を押す。これによって図15に示すように把持姿勢追加画面150が表示され、把持姿勢を追加することが可能となる。画像表示欄141にはエンドエフェクタモデルEEMとワークモデルCWMが表示される。また操作欄142には、把持姿勢を規定する把持姿勢座標情報153が表示される。ここで、把持姿勢座標情報153として表示される位置パラメータであるX、Y、Z、RX、RY、RZは、サーチモデルの原点に対する、エンドエフェクタモデルEEMの位置及び姿勢のデータを表している。なおサーチモデルの原点は、上述の通りワークモデルCWMの重心や、CADデータの中心座標などとできる。 To add a new gripping posture, the add button 146 is pressed. As a result, a gripping posture addition screen 150 is displayed as shown in FIG. 15, and a gripping posture can be added. In the image display column 141, an end effector model EEM and a work model CWM are displayed. In the operation column 142, gripping posture coordinate information 153 that defines the gripping posture is displayed. Here, the position parameters X, Y, Z, R X , R Y , and R Z displayed as the gripping posture coordinate information 153 represent the position and posture data of the end effector model EEM with respect to the origin of the search model. ing. As described above, the origin of the search model can be the center of gravity of the work model CWM, the center coordinates of CAD data, or the like.

把持姿勢座標情報153のX、Y、Z、RX、RY、RZの値を変更すると、画像表示欄141で三次元的に表示されているエンドエフェクタモデルEEMの位置及び姿勢がこれに応じて更新される。逆に、画像表示欄141のエンドエフェクタモデルEEMをドラッグして移動させることで、操作欄142における把持姿勢座標情報153の表示内容が移動後の把持姿勢座標に更新される。これにより、ユーザは画像表示欄141のエンドエフェクタモデルEEMと、操作欄142の把持姿勢座標情報153を確認しながら、把持位置及び姿勢を登録することができる。また画像表示欄141には、三次元の基準座標軸BAXを重ねて表示することができる。 When the X, Y, Z, R X , R Y , and R Z values of the gripping posture coordinate information 153 are changed, the position and posture of the end effector model EEM displayed three-dimensionally in the image display field 141 are changed to this. Will be updated accordingly. Conversely, by dragging and moving the end effector model EEM in the image display column 141, the display content of the gripping posture coordinate information 153 in the operation column 142 is updated to the gripping posture coordinates after movement. Thus, the user can register the grip position and posture while confirming the end effector model EEM in the image display column 141 and the grip posture coordinate information 153 in the operation column 142. In the image display column 141, a three-dimensional reference coordinate axis BAX can be displayed in an overlapping manner.

把持位置の登録に際して、画像表示欄141に表示されるエンドエフェクタモデルEEMに対して、ワークモデルCWMを把持する位置に対応した把持基準点と、エンドエフェクタモデルEEMでワークモデルCWMを把持する把持方向を規定する。これら把持基準点と把持方向は、画像処理装置100側でデフォルト値として設定しておくことが好ましい。そして、図15の把持姿勢追加画面150において、把持方向が、ワークモデルCWMの姿勢を表すワーク平面に対して直交するように、ワークモデルCWMの位置及び姿勢に応じて、エンドエフェクタモデルEEMの位置及び姿勢を自動的に調整する。この調整は、例えば三次元ピック判定部8lに行わせることができる。あるいは、ユーザが位置決め部8cを用いて、エンドエフェクタモデルEEMの把持方向が、ワークモデルCWMのワーク平面と直交するように、エンドエフェクタモデルEEMの位置及び姿勢を手動で調整するように構成してもよい。   When registering the gripping position, with respect to the end effector model EEM displayed in the image display field 141, the gripping reference point corresponding to the position where the work model CWM is gripped, and the gripping direction in which the end effector model EEM grips the work model CWM Is specified. These gripping reference points and gripping directions are preferably set as default values on the image processing apparatus 100 side. Then, on the gripping posture addition screen 150 in FIG. 15, the position of the end effector model EEM according to the position and posture of the work model CWM so that the gripping direction is orthogonal to the work plane representing the posture of the work model CWM. And adjust the posture automatically. This adjustment can be performed, for example, by the three-dimensional pick determination unit 8l. Alternatively, the configuration is such that the user manually adjusts the position and orientation of the end effector model EEM so that the gripping direction of the end effector model EEM is orthogonal to the workpiece plane of the workpiece model CWM using the positioning unit 8c. Also good.

さらに把持位置の登録に際して、図15の把持姿勢追加画面150を開いた初期状態において、エンドエフェクタモデルEEMの位置及び姿勢は、エンドエフェクタモデルEEMを下向きの姿勢として、ワークモデルCWMがエンドエフェクタモデルEEMの下方に位置する状態を初期値としている。このようにすれば、エンドエフェクタモデルEEMを降下させてワークモデルCWMに接触させるようにすれば把持姿勢が決まるため、ユーザ側の操作を直感的に行うことができ、従来、三次元での位置合わせが面倒であった問題を低減できる。すなわち、基本的にエンドエフェクタモデルEEMのX、Y、Z方向の位置合わせと、Z軸に対する回転を設定するのみで、簡単に把持姿勢を登録できる。   Further, when the gripping position is registered, in the initial state where the gripping posture addition screen 150 of FIG. 15 is opened, the position and posture of the end effector model EEM are set so that the end effector model EEM is a downward posture and the work model CWM is the end effector model EEM. The state located below is the initial value. In this way, if the end effector model EEM is lowered and brought into contact with the work model CWM, the gripping posture is determined, so that the user side operation can be performed intuitively, and conventionally, the position in three dimensions Problems that are difficult to align can be reduced. That is, the gripping posture can be simply registered simply by setting the alignment of the end effector model EEM in the X, Y, and Z directions and the rotation with respect to the Z axis.

さらにまた、ワークモデルCWMに対して、エンドエフェクタモデルEEMで把持する把持位置を設定することで、この把持位置が把持方向を延長した軸上に位置するよう、エンドエフェクタモデルEEMの位置を自動的に調整するよう構成することもできる。   Furthermore, by setting the gripping position to be gripped by the end effector model EEM for the work model CWM, the position of the end effector model EEM is automatically set so that the gripping position is positioned on the axis extending the gripping direction. It can also be configured to adjust to.

なお、把持姿勢の登録は、ワークの画像を基準に行う。このため、必ずしもCADデータを用いる必要はなく、ワークを実際に撮像して得られた実測データに対し、把持姿勢を登録することもできることは上述の通りである。
(フィット機能)
The gripping posture is registered based on the workpiece image. For this reason, it is not always necessary to use CAD data, and as described above, the gripping posture can be registered for the actual measurement data obtained by actually imaging the workpiece.
(Fit function)

さらに、把持位置を指定する際、エンドエフェクタモデルをワークモデルの把持位置に移動させる作業をユーザが手動で行うのみならず、これを自動的に行うフィット機能を設けることもできる。従来、エンドエフェクタモデルでワークモデルを把持する把持位置X、Y、Zや把持姿勢RX、RY、RZを指定する際、例えば図15の画像表示欄141において、エンドエフェクタモデルをドラッグしてワークモデルに接触するまで移動させたり、操作欄142において高さ方向のZに数値を入力したりして設定していた。しかしながら、ユーザが目視によりエンドエフェクタモデルを移動させてワークモデルを把持する姿勢に合わせ込む作業は面倒であり、また位置パラメータの数値を指定するのも、6つの位置パラメータをどのように調整すればよいのかが判り難い。そこで、エンドエフェクタモデルをワークモデルの把持位置に位置させる作業を自動的に行うフィット機能を設けている。 Furthermore, when the gripping position is designated, not only can the user manually perform the operation of moving the end effector model to the gripping position of the work model, but a fitting function for automatically performing this operation can be provided. Conventionally, when specifying the gripping positions X, Y, Z and gripping postures R X , R Y , R Z for gripping the workpiece model with the end effector model, for example, the end effector model is dragged in the image display field 141 of FIG. In the operation field 142, a numerical value is input in the height direction Z, and the work model is set. However, it is troublesome for the user to visually move the end effector model and adjust it to the posture of gripping the work model, and the numerical values of the position parameters can be specified by how to adjust the six position parameters. It ’s hard to tell if it ’s good. Therefore, a fitting function is provided that automatically performs an operation of positioning the end effector model at the gripping position of the work model.

ここで、ワークモデルやエンドエフェクタモデルが三次元CADデータのように高さ情報を有している場合は、ワークモデル上の把持させたい位置をマウスのクリック等により指定し、この位置の高さ方向、すなわちZ座標を取得し、そのZ座標にオフセットを加味した位置を、エンドエフェクタモデルの移動後のZ座標として設定する。これによって、把持位置までエンドエフェクタモデルをユーザが手動で移動させたり、Z座標などの位置パラメータを手動で入力させる手間を省き、しかも正確に把持位置を指定することができる。このようなフィット機能の一例として、図15の把持姿勢追加画面150に示す操作欄142には、相対位置設定部8d5の一態様である「フィット」ボタン154を配置している。「フィット」ボタン154を押下すると、エンドエフェクタモデルEEMがZ方向に仮想的に移動されて、ワークモデルCWMに接触する位置で停止され、この干渉位置から逆方向に、オフセット量だけ戻した位置を、把持位置とする。オフセット量は、エンドエフェクタモデルEEMの先端がワークモデルCWMと接触して干渉したり傷付けることを避けるため、若干離間させるための数値であり、例えば1mmなど、ワークや用途に応じて規定できる。   If the work model or end effector model has height information such as 3D CAD data, the position to be gripped on the work model is specified by clicking the mouse, and the height of this position is specified. A direction, that is, a Z coordinate is acquired, and a position obtained by adding an offset to the Z coordinate is set as the Z coordinate after the end effector model is moved. As a result, the user can manually move the end effector model to the gripping position or manually input position parameters such as the Z coordinate, and the gripping position can be specified accurately. As an example of such a fit function, a “fit” button 154, which is an aspect of the relative position setting unit 8d5, is arranged in the operation column 142 shown in the gripping posture addition screen 150 in FIG. When the “fit” button 154 is pressed, the end effector model EEM is virtually moved in the Z direction and stopped at a position where it comes into contact with the work model CWM, and a position returned by an offset amount in the opposite direction from this interference position. The gripping position is assumed. The offset amount is a numerical value for slightly separating the end effector model EEM so that the tip of the end effector model EEM contacts and interferes with the workpiece model CWM, and can be defined according to the workpiece and application, for example, 1 mm.

以上の例では、三次元サーチを行うための三次元サーチモデル生成の際に用いた高さ画像を用いて、把持登録を行う方法を説明した。このようにワークを抽出するためのサーチモデルと、把持位置を登録するモデルとを共通化することで、ユーザは共通のワークに対して三次元サーチや把持位置の設定を行うことができ、操作に統一感が得られ感覚的にも理解し易くなる。ただ、本発明は必ずしも、三次元サーチのサーチモデルと把持登録の対象となるモデルとを一致させることを要しない。三次元サーチモデルと、把持登録に用いるモデルとの対応関係が判っておれば、必ずしもサーチモデルとして用いたモデルを把持登録に用いる必要はない。   In the above example, the method for performing grip registration using the height image used when generating the three-dimensional search model for performing the three-dimensional search has been described. By sharing the search model for extracting the workpiece and the model for registering the grip position in this way, the user can perform a three-dimensional search and set the grip position for the common workpiece. A sense of unity is obtained and it becomes easy to understand sensuously. However, the present invention does not necessarily require that the search model for the three-dimensional search and the model to be grasped and registered be matched. If the correspondence between the three-dimensional search model and the model used for grip registration is known, it is not always necessary to use the model used as the search model for grip registration.

また、三次元CADデータから高さ画像を生成した後の、見え方の一致確認は、各軸の正負方向同士の確認のみに限定する必要はない。例えば、立方体等のワークは、X軸の±方向、Y軸の±方向、Z軸の±方向の、どの方向から見ても見え方が一致するため、1つの面のみ、サーチモデルを生成すれば良い。同様に、把持位置の登録も、1つの面に対して把持を指定するだけで足りる。これだけで、全ての面(X軸の±方向、Y軸の±方向、Z軸の±方向)に対して、把持できる状態になる。例えば、図16Aに示すような立方体状のワークWKCのバラ積みに対しては、立方体の1面を、図16Bのようにモデル登録し、この面を真上から掴む把持姿勢を1つ登録するだけで、図16Cに示すように六面全ての面に対する三次元サーチ及びエンドエフェクタモデルEEMによる把持が可能となる。
(キャリブレーション)
Further, it is not necessary to confirm the matching of the appearance after generating the height image from the three-dimensional CAD data only to confirm the positive and negative directions of each axis. For example, a work such as a cube has the same appearance when viewed from any of the ± direction of the X axis, the ± direction of the Y axis, and the ± direction of the Z axis. It ’s fine. Similarly, it is only necessary to register gripping positions for one surface by specifying gripping. With this alone, all surfaces (X axis ± direction, Y axis ± direction, Z axis ± direction) can be gripped. For example, for loose stacking of cube-shaped workpieces WKC as shown in FIG. 16A, one model of the cube is registered as a model as shown in FIG. As a result, as shown in FIG. 16C, the three-dimensional search and the end effector model EEM can be performed for all six surfaces.
(Calibration)

上述した把持登録画面140では、サーチモデルの原点に対して、ワークを把持する際のエンドエフェクタモデルEEMの相対的な位置及び姿勢を登録している。一方、実際のエンドエフェクタでワークをピッキングする際には、センサ部でワークを撮像した三次元空間(ビジョン空間)の座標であるビジョン座標から、ロボットコントローラ6がロボットを実際に駆動させる際に用いるロボット座標に変換する必要がある。具体的には、三次元サーチの結果得られるワークの位置及び姿勢は、ビジョン空間における、位置(X、Y、Z)と姿勢(RX、RY、RZ)で求められる(なお姿勢(RX、RY、RZ)は、後述するZ−Y−X系オイラー角で表現された姿勢を示している)。また、これを把持するエンドエフェクタの姿勢についても、同様に画像処理装置の仮想三次元空間における位置(X、Y、Z)と姿勢(RX、RY、RZ)として求められる。このようなビジョン空間における位置及び姿勢に基づいて、ロボットコントローラ6がロボットを駆動させるには、これらをロボット空間における位置(X’、Y’、Z’)と姿勢(RX’、RY’、RZ’)に変換する必要がある。このような画像処理装置で表示される座標系で算出された位置及び姿勢を、ロボットコントローラがエンドエフェクタを動作させる座標系の位置及び姿勢に座標変換するための変換式を算出する処理は、キャリブレーションと呼ばれる。
(実施形態2)
In the grip registration screen 140 described above, the relative position and orientation of the end effector model EEM when gripping the workpiece are registered with respect to the origin of the search model. On the other hand, when picking a workpiece with an actual end effector, the robot controller 6 is used when the robot controller 6 actually drives the robot from the vision coordinates which are the coordinates of the three-dimensional space (vision space) obtained by imaging the workpiece with the sensor unit. Need to convert to robot coordinates. Specifically, the position and posture of the workpiece obtained as a result of the three-dimensional search are obtained by the position (X, Y, Z) and posture (R X , R Y , R Z ) in the vision space (note that posture ( R X , R Y , and R Z ) indicate postures expressed by ZYX Euler angles described later). Similarly, the posture of the end effector that holds this is also obtained as the position (X, Y, Z) and posture (R X , R Y , R Z ) in the virtual three-dimensional space of the image processing apparatus. In order for the robot controller 6 to drive the robot on the basis of the position and orientation in such a vision space, these are determined based on the position (X ′, Y ′, Z ′) and orientation (R X ′, R Y ′) in the robot space. , R Z ′). The process of calculating a conversion formula for converting the position and orientation calculated in the coordinate system displayed by such an image processing apparatus into the position and orientation of the coordinate system in which the robot controller operates the end effector is performed by calibration. Called
(Embodiment 2)

このような画像処理装置(マシンビジョン装置)とロボット間のキャリブレーション機能を備えるロボットシステムの例を、実施形態2として図17の機能ブロック図に示す。この図に示すロボットシステム2000は、画像処理装置200と、表示部3と、操作部4と、センサ部2と、ロボットコントローラ6と、ロボットRBTを備える。なおこの図に示すロボットシステムにおいて、上述した図6等と共通する部材については、同じ符号を付して詳細説明を適宜省略する。
(画像処理装置200)
An example of a robot system having a calibration function between such an image processing apparatus (machine vision apparatus) and a robot is shown in a functional block diagram of FIG. 17 as a second embodiment. A robot system 2000 shown in this figure includes an image processing device 200, a display unit 3, an operation unit 4, a sensor unit 2, a robot controller 6, and a robot RBT. In the robot system shown in this figure, members common to those in FIG. 6 and the like described above are denoted by the same reference numerals, and detailed description thereof is omitted as appropriate.
(Image processing apparatus 200)

画像処理装置200は、入力画像取得部2cと、記憶部9と、演算部10と、入出力インターフェース4bと、表示インターフェース3fと、ロボットインターフェース6bを備える。   The image processing apparatus 200 includes an input image acquisition unit 2c, a storage unit 9, a calculation unit 10, an input / output interface 4b, a display interface 3f, and a robot interface 6b.

入力画像取得部2cは、センサ部で測定されたエンドエフェクタを含む画像から三次元形状を有する入力画像を取得する。この入力画像取得部2cで、エンドエフェクタの入力画像を取得する際、ロボットのアーム部の先端のフランジ面に取り付けた取付位置を含むように撮像することが好ましい。また、エンドエフェクタの面積が大きくなる姿勢で入力画像を撮像する。例えば、エンドエフェクタを水平姿勢として横向きの姿勢から入力画像を撮像するよう、ユーザはロボットを操作する。   The input image acquisition unit 2c acquires an input image having a three-dimensional shape from an image including an end effector measured by the sensor unit. When the input image of the end effector is acquired by the input image acquisition unit 2c, it is preferable to take an image so as to include the attachment position attached to the flange surface at the tip of the arm portion of the robot. In addition, the input image is captured in a posture that increases the area of the end effector. For example, the user operates the robot so as to capture an input image from a horizontal posture with the end effector as a horizontal posture.

演算部10は、エンドエフェクタモデル登録部8uと、ワークモデル登録部8tと、キャリブレーション部8wと、サーチモデル登録部8gと、三次元サーチ部8kと、変換部8xと、エンドエフェクタ取付位置較正部8yと、把持位置特定部8dとを備える。   The calculation unit 10 includes an end effector model registration unit 8u, a work model registration unit 8t, a calibration unit 8w, a search model registration unit 8g, a three-dimensional search unit 8k, a conversion unit 8x, and an end effector attachment position calibration. A unit 8y and a gripping position specifying unit 8d.

エンドエフェクタモデル登録部8uは、エンドエフェクタの三次元形状を仮想的に表現する、三次元CADデータであるエンドエフェクタモデルを登録するための部材である。例えばエンドエフェクタモデル登録部8uは、別途作成したエンドエフェクタの形状を表す三次元CADデータを読み込んでエンドエフェクタモデルとして登録する。この場合は、入出力インターフェース4bを介して入力された三次元CADデータを、エンドエフェクタモデル登録部8uでエンドエフェクタモデルとして登録する。あるいは、実際のエンドエフェクタを撮像した三次元点群データをエンドエフェクタモデルとすることもできる。この場合は、センサ部2や入力画像取得部2cで取得された三次元点群データを、エンドエフェクタモデル登録部8uでエンドエフェクタモデルとして登録する。あるいはまた、エンドエフェクタを模した三次元CADデータを作成して登録してもよい。この場合はエンドエフェクタモデル登録部8uが、簡易的な三次元CADの機能を実現する。   The end effector model registration unit 8u is a member for registering an end effector model that is three-dimensional CAD data that virtually represents the three-dimensional shape of the end effector. For example, the end effector model registration unit 8u reads three-dimensional CAD data representing the shape of the end effector created separately and registers it as an end effector model. In this case, the three-dimensional CAD data input via the input / output interface 4b is registered as an end effector model by the end effector model registration unit 8u. Alternatively, three-dimensional point cloud data obtained by imaging an actual end effector can be used as an end effector model. In this case, the three-dimensional point cloud data acquired by the sensor unit 2 or the input image acquisition unit 2c is registered as an end effector model by the end effector model registration unit 8u. Alternatively, three-dimensional CAD data imitating an end effector may be created and registered. In this case, the end effector model registration unit 8u realizes a simple three-dimensional CAD function.

キャリブレーション部8wは、表示部上で表示される仮想的な三次元空間であるビジョン空間の座標系で算出された位置及び姿勢を、ロボットコントローラがエンドエフェクタを動作させるロボット空間の座標系の位置及び姿勢に座標変換するキャリブレーション情報を取得するための部材である。   The calibration unit 8w uses the position and orientation calculated in the coordinate system of the vision space, which is a virtual three-dimensional space displayed on the display unit, as the position of the coordinate system in the robot space where the robot controller operates the end effector. And a member for acquiring calibration information for coordinate conversion into a posture.

キャリブレーション部8wは、複数の位置座標について、ロボットのエンドエフェクタEETの実際の位置座標と、画像処理装置に表示されている画像上の位置座標との間の変換式を算出する。なお座標変換の方法は、特に限定されるものではなく、例えば三次元アフィン変換等、既知の方法を適宜利用できる。   The calibration unit 8w calculates, for a plurality of position coordinates, a conversion formula between the actual position coordinates of the end effector EET of the robot and the position coordinates on the image displayed on the image processing apparatus. The coordinate conversion method is not particularly limited, and a known method such as three-dimensional affine transformation can be used as appropriate.

記憶部9は、キャリブレーション部8wによるキャリブレーション情報を保存する。   The storage unit 9 stores calibration information from the calibration unit 8w.

三次元サーチ部8kは、入力画像取得部2cで取得された入力画像中から、エンドエフェクタモデルをサーチモデルとして、エンドエフェクタの位置及び姿勢に対応する画像領域を特定する三次元サーチを行うための部材である。   The three-dimensional search unit 8k uses the end effector model as a search model from the input image acquired by the input image acquisition unit 2c to perform a three-dimensional search for specifying an image region corresponding to the position and orientation of the end effector. It is a member.

変換部8xは、キャリブレーション部8wで得られたキャリブレーション情報に基づいて、ビジョン座標をロボット座標に変換する。この変換部8xは、記憶部9に保存されたキャリブレーション情報を読み出す。   The conversion unit 8x converts the vision coordinates into robot coordinates based on the calibration information obtained by the calibration unit 8w. The conversion unit 8x reads the calibration information stored in the storage unit 9.

エンドエフェクタ取付位置較正部8yは、三次元サーチ部でサーチされたビジョン空間上のエンドエフェクタの位置及び姿勢を、変換部8xでロボット空間上の位置及び姿勢に変換して得られた情報でもって、エンドエフェクタのビジョン空間上の位置及び姿勢とロボット空間上の位置及び姿勢との誤差を較正する。これにより、エンドエフェクタモデルを用いて三次元サーチすることで、仮想的なエンドエフェクタモデルを実際のエンドエフェクタの取付状態に即して誤差を補正することが可能となり、より正確な設定作業を行えるようになる。   The end effector mounting position calibration unit 8y uses the information obtained by converting the position and posture of the end effector in the vision space searched by the three-dimensional search unit into the position and posture in the robot space by the conversion unit 8x. The error between the position and posture of the end effector in the vision space and the position and posture in the robot space is calibrated. As a result, by performing a three-dimensional search using the end effector model, it becomes possible to correct the error in the virtual end effector model according to the actual end effector mounting state, thereby enabling more accurate setting work. It becomes like this.

把持位置特定部8dは、ワークモデル登録部8tで登録されたワークモデルに対して、該ワークモデルをエンドエフェクタモデルで把持する把持位置を一以上、特定する。
(Z−Y−X系オイラー角)
The gripping position specifying unit 8d specifies one or more gripping positions at which the work model is gripped by the end effector model with respect to the work model registered by the work model registration unit 8t.
(ZYX Euler angle)

ここで、Z−Y−X系オイラー角について説明する。従来より、ワークをエンドエフェクタで把持する把持位置を規定するために、三次元CADデータをワークモデルやエンドエフェクタモデルの姿勢の位置決めにZ−Y−X系オイラー角が用いられている。この場合、ワークモデルに対するエンドエフェクタモデルの位置及び姿勢は6つの位置パラメータ(X,Y,Z,RX,RY,RZ)で表現される。ここでX、Y、Zは三次元空間を規定する直交座標軸であり、RX、RY、RZはそれぞれX軸、Y軸、Z軸を中心として回転させる回転角度を示している。 Here, the ZYX system Euler angle will be described. Conventionally, in order to define a gripping position for gripping a workpiece with an end effector, a ZY-X system Euler angle is used to position the posture of the workpiece model or the end effector model using three-dimensional CAD data. In this case, the position and orientation of the end effector model with respect to the work model are expressed by six position parameters (X, Y, Z, R X , R Y , R Z ). Here, X, Y, and Z are orthogonal coordinate axes that define a three-dimensional space, and R X , R Y , and R Z indicate rotation angles for rotation about the X, Y, and Z axes, respectively.

ここで、Z−Y−X系オイラー角に従ってエンドエフェクタモデルを回転させる例を、図18〜図21に基づいて説明する。まず図18に、表示部3の画像表示領域にエンドエフェクタモデルEEMとワークモデルWM11を表示させた状態を示す。この例では、説明を判り易くするため、仮想三次元空間を規定する基準座標軸BAX(XYZ)と、回転させる回転対象物(ここではエンドエフェクタモデルEEM)が回転した後の三次元空間座標軸である回転済み座標軸RAX(XYZ)を、それぞれ表示させている。   Here, an example in which the end effector model is rotated in accordance with the ZYX system Euler angle will be described with reference to FIGS. First, FIG. 18 shows a state in which the end effector model EEM and the work model WM11 are displayed in the image display area of the display unit 3. In this example, for easy understanding, a reference coordinate axis BAX (XYZ) that defines a virtual three-dimensional space and a three-dimensional space coordinate axis after a rotating object to be rotated (here, an end effector model EEM) is rotated. The rotated coordinate axes RAX (XYZ) are respectively displayed.

図18の例では、ワークモデルWM11側を静止させ、エンドエフェクタモデルEEM側を回転させているため、基準座標軸BAXはワークモデルWM11の位置及び姿勢を、回転済み座標軸RAXはエンドエフェクタモデルEEMの位置及び姿勢を、それぞれ示している。なお、エンドエフェクタモデルEEM側の回転済み座標軸RAXは、その原点をエンドエフェクタモデルEEMの把持位置となる把持基準点HBPと一致させている(詳細は後述)。   In the example of FIG. 18, since the work model WM11 side is stationary and the end effector model EEM side is rotated, the reference coordinate axis BAX is the position and orientation of the work model WM11, and the rotated coordinate axis RAX is the position of the end effector model EEM. And the posture are shown respectively. The rotated coordinate axis RAX on the end effector model EEM side has its origin coincided with a gripping reference point HBP that is a gripping position of the end effector model EEM (details will be described later).

さらに回転前の状態では、XYZ軸の回転角度RX、RY、RZはそれぞれRX=0°、RY=0°、RZ=0°であり、基準座標軸BAXと回転済み座標軸RAXは一致している。この状態で、エンドエフェクタモデルEEMをZ軸を中心として反時計回りに90°回転させると、図19に示すようになる。図19の状態では、回転角度RX、RY、RZはそれぞれRX=0°、RY=0°、RZ=90°となり、これに応じて画像表示領域に表示される回転済み座標軸RAXは、回転後の姿勢に更新される。さらに図19の状態から、Y軸を中心として時計回りに90°回転させると、図20のようになる。この状態では、回転角度RX、RY、RZはそれぞれRX=0°、RY=90°、RZ=90°となり、これに応じて回転済み座標軸RAXも同様に回転後の姿勢に更新される。さらに図20の状態から、X軸を中心として時計回りに90°回転させると、図21の状態となり、回転角度RX、RY、RZはそれぞれRX=90°RY=90°RZ=90°となる。 Further, in the state before rotation, the rotation angles R X , R Y , R Z of the XYZ axes are R X = 0 °, R Y = 0 °, R Z = 0 °, respectively, and the reference coordinate axis BAX and the rotated coordinate axis RAX Are consistent. In this state, when the end effector model EEM is rotated 90 ° counterclockwise about the Z axis, the result is as shown in FIG. In the state of FIG. 19, the rotation angles R X , R Y , and R Z are R X = 0 °, R Y = 0 °, and R Z = 90 °, respectively, and have been rotated and displayed in the image display area accordingly. The coordinate axis RAX is updated to the post-rotation posture. Further, from the state of FIG. 19, when it is rotated 90 ° clockwise around the Y axis, it becomes as shown in FIG. In this state, the rotation angles R X , R Y , and R Z are R X = 0 °, R Y = 90 °, and R Z = 90 °, respectively, and the rotated coordinate axis RAX is similarly rotated after that. Updated to Further, from the state of FIG. 20, when rotated 90 ° clockwise around the X axis, the state of FIG. 21 is obtained, and the rotation angles R X , R Y , R Z are R X = 90 ° R Y = 90 ° R, respectively. Z = 90 °.

従来は、このようなZ−Y−X系オイラー角を用いて、ワークモデルやエンドエフェクタモデルの生成や位置を表現していた。しかしながら、操作可能な位置パラメータの数が6個と多いため、これらの位置パラメータを調整してユーザが想定している位置や姿勢に調整する作業は容易でなかった。また姿勢を維持したまま位置を移動させる際に用いるXYZ軸と、回転で用いるRX、RY、RZ軸とが異なるため、この位置パラメータを変化させると、どのように変化するのかが直感的に判り難いという問題があった。この様子を図22に基づいて説明する。 Conventionally, the generation and position of a work model and an end effector model have been expressed using such a ZY-X system Euler angle. However, since there are as many as six position parameters that can be operated, it is not easy to adjust these position parameters to the position and posture assumed by the user. In addition, since the XYZ axes used for moving the position while maintaining the posture are different from the R X , R Y , and R Z axes used for rotation, it is intuitive how the position parameters change. There was a problem that it was difficult to understand. This will be described with reference to FIG.

今、図21の状態で、画像表示領域には、回転角度RX=90、RY=90、RZ=90の回転後の直交座標軸である回転済み座標軸RAXが表示されている。この状態からRYやRZを変更すると、表示されている回転済み座標軸RAXとは異なる軸を中心に回転することになる。例えばRYの回転は、図22の回転済み座標軸RAXで示すY軸ではなく、図22に破線で示すように、RX回転前のY軸(図19の回転済み座標軸RAXで示すY軸)を中心に回転することになる。またRZも、図22の回転済み座標軸RAXで示すZ軸を中心に回転するでなく、破線で示すRX,RY回転前のZ軸(図18の回転済み座標軸RAXで示すZ軸)を中心に回転することになる。 Now, in the state shown in FIG. 21, the rotated coordinate axis RAX, which is the orthogonal coordinate axis after the rotation angles R X = 90, R Y = 90, and R Z = 90, is displayed in the image display area. If RY and RZ are changed from this state, the image is rotated around an axis different from the displayed rotated coordinate axis RAX. For example, the rotation of R Y is not the Y axis indicated by the rotated coordinate axis RAX in FIG. 22, but the Y axis before the R X rotation (Y axis indicated by the rotated coordinate axis RAX in FIG. 19), as indicated by a broken line in FIG. Will rotate around. Also, R Z does not rotate around the Z axis indicated by the rotated coordinate axis RAX in FIG. 22, but the Z axis before R X and R Y rotation indicated by the broken line (Z axis indicated by the rotated coordinate axis RAX in FIG. 18). Will rotate around.

これは、Z−Y−X系オイラー角が、Z軸、Y軸、X軸の順に回転させることを前提に規定されていることによる。Z−Y−X系オイラー角によれば、Z軸が基準であり、Z軸回りのRZの回転によってRX、RYの回転軸がそれぞれ回転する。ここでZ軸回りの回転軸は動かない一方、RX、RYは、Z軸回りの回転RZによって回転軸自体が回転する。これに従って決定されたY軸回りにRYだけ回転させると、これに応じてX軸も回転される。ここでY軸回りの回転軸は、Z軸回りの回転RZによって決まっているため、X軸回りにRXだけ回転させても、Y軸回りの回転軸もZ軸回りの回転軸も変化しない。いいかえると、Z−Y−X系オイラー角では、RZが独立した回転軸を有し、RYはRZに従属した回転軸を有し、RXはRYに従属した回転軸を有するということができる。 This is because the Z-Y-X system Euler angle is defined on the assumption that the Z-axis, the Y-axis, and the X-axis are rotated in this order. According to the ZY-X system Euler angle, the Z axis is a reference, and the rotation axes of R X and R Y are rotated by the rotation of R Z around the Z axis. Here, while the rotation axis around the Z axis does not move, R X and R Y rotate by the rotation R Z around the Z axis. When the R Y is rotated around the Y axis determined according to this, the X axis is also rotated accordingly. Here, since the rotation axis around the Y axis is determined by the rotation R Z around the Z axis, both the rotation axis around the Y axis and the rotation axis around the Z axis change even if the rotation around the X axis is R X. do not do. In other words, in the ZYX Euler angle, R Z has an independent rotation axis, R Y has a rotation axis dependent on R Z , and R X has a rotation axis dependent on R Y. It can be said.

このように、従来よりロボットの制御で一般的に用いられているZ−Y−X系オイラー角では、3つの回転軸が相互に関連して、他の回転軸回りの回転後の軸でもって回転するため、ユーザにとってはどの軸が回転軸になるのかが極めて把握し難くなり、意図通りの方向に回転させることが容易でなかった。
(補正回転軸の表示)
In this way, in the ZY-X system Euler angle that is generally used in the control of robots in the past, the three rotation axes are related to each other with the axes after rotation around the other rotation axes. Since it rotates, it is very difficult for the user to know which axis is the rotation axis, and it is not easy to rotate it in the intended direction.
(Display of correction rotation axis)

これに対して本実施形態に係る方法では、RX、RY、RZの回転軸を、それぞれ実際の回転軸を基準として表示するようにしている。この軸は、従来のZ−Y−X系オイラー角を用いた三次元空間の表示で行われていたもの(図18〜図21)とは異なり、あくまでも他の回転軸回りの回転後の状態を考慮して補正した、現実の回転軸を補正回転軸として表示させるものである。例えば図22の状態で、RZの補正回転軸を表示する例を考える。この場合は図23に示すように、RX,RYを0°として計算したときのZ軸が、補正回転軸となる。ここで表示される補正回転Z軸AXZは、RX=0°、RY=0°、RZ=90°のときのZ軸である。 On the other hand, in the method according to the present embodiment, the rotation axes of R X , R Y , and R Z are displayed with reference to the actual rotation axis. This axis is different from the conventional display in the three-dimensional space using the ZY-X system Euler angles (FIGS. 18 to 21), and the state after rotation around the other rotation axis The actual rotation axis corrected in consideration of the above is displayed as the corrected rotation axis. For example in the state of FIG. 22, consider the example of displaying the corrected rotational shaft of R Z. In this case, as shown in FIG. 23, the Z axis when R X and R Y are calculated as 0 ° is the corrected rotation axis. The corrected rotation Z axis AXZ displayed here is the Z axis when R X = 0 °, R Y = 0 °, and R Z = 90 °.

一方、図22の状態でRYの補正回転軸を表示するには、図24に示すように、RXを0°として計算したときのY軸が、現実の回転軸となる。ここで表示される補正回転Y軸AXYは、RX=0°、RY=90°、RZ=90のときのY軸である。 On the other hand, in order to display the corrected rotation axis of R Y in the state of FIG. 22, as shown in FIG. 24, the Y axis when R X is calculated as 0 ° becomes the actual rotation axis. The corrected rotation Y axis AXY displayed here is the Y axis when R X = 0 °, R Y = 90 °, and R Z = 90.

さらに図22の状態でRXの補正回転軸を表示するには、そのままX軸を表示すればよい。補正回転軸として補正回転X軸を表示させた例を図25に示す。ここで表示される補正回転X軸AXXは、RX=90°、RY=90°、RZ=90°のときのX軸である。 Furthermore, in order to display the corrected rotation axis of R X in the state of FIG. 22, the X axis may be displayed as it is. FIG. 25 shows an example in which the corrected rotation X axis is displayed as the corrected rotation axis. The corrected rotation X axis AXX displayed here is the X axis when R X = 90 °, R Y = 90 °, and R Z = 90 °.

なお、これらの補正回転軸の始点は、エンドエフェクタモデルの回転の中心とすることが好ましい。例えば、エンドエフェクタモデルEEMの把持位置である一対の爪部の中間位置とする。
(X−Y−Zオイラー角)
Note that the starting point of these correction rotation axes is preferably the center of rotation of the end effector model. For example, the intermediate position between the pair of claws, which is the gripping position of the end effector model EEM.
(XYZ Euler angle)

この補正回転軸は、回転させる順番を変更した場合であっても、同様の考え方で回転軸を表示できる。例えば上述した図23〜図25の例では、Z−Y−X系オイラー角を採用したため、RZ、RY、RXの順で回転させている。一方、X−Y−Zオイラー角を採用すると、RX、RY、RZの順で回転させることから、0°として計算する軸がZ−Y−X系オイラー角とは異なる。例えばX−Y−Zオイラー角で補正回転軸を得るために、図18〜図21と同様にRX、RY、RZの順で回転させたと仮定すると、補正回転軸としてZ軸を表示するには、そのまま回転後のZ軸を表示させる。また補正回転軸としてY軸を表示するには、RZを0°として計算したときのY軸を表示させる。さらに補正回転軸としてX軸を表示させるには、RZとRYを0°として計算したときのX軸を表示させる。 Even when the rotation order of the correction rotation axis is changed, the rotation axis can be displayed in the same way. For example, in the example of FIGS. 23 to 25 described above, since the ZYX system Euler angles are employed, the rotation is performed in the order of R Z , R Y , and R X. On the other hand, when the X-Y-Z Euler angle is adopted, rotation is performed in the order of R X , R Y , R Z , and therefore the axis calculated as 0 ° is different from the ZY-X system Euler angle. For example, assuming that the rotation axis is rotated in the order of R X , R Y and R Z in order to obtain the correction rotation axis at the XYZ Euler angle, the Z axis is displayed as the correction rotation axis. To do this, the Z axis after rotation is displayed as it is. In order to display the Y axis as the correction rotation axis, the Y axis when R Z is calculated as 0 ° is displayed. Further, in order to display the X-axis as the correction rotation axis, the X-axis when calculated with R Z and R Y being 0 ° is displayed.

このようにして、オイラー角を用いて把持位置や姿勢の設定をユーザが行うに際して、回転軸を判り易く表示させることができ、複雑なオイラー角の概念を理解せずとも感覚的に操作し易くできる。
(実施形態3)
In this way, when the user sets the grip position and posture using the Euler angle, the rotation axis can be displayed in an easy-to-understand manner, and it is easy to operate intuitively without understanding the complicated Euler angle concept. it can.
(Embodiment 3)

オイラー角のような、複数の位置パラメータで規定されるエンドエフェクタやワークの位置や姿勢を、ユーザが設定することは容易でない。そこで、複数の位置パラメータの内、指定可能な位置パラメータを制限してユーザに指定させるよう、位置パラメータの設定手順を誘導して、誘導に従い順次必要な位置パラメータを設定させることもできる。このような例を実施形態3に係るロボットシステム3000として、図26に示す。この図に示すロボットシステム3000は、画像処理装置300と、表示部3Bと、操作部4と、センサ部2と、ロボットコントローラ6と、ロボットRBTを備える。なおこの図に示すロボットシステムにおいて、図6等と共通する部材については、同じ符号を付して詳細説明を適宜省略する。
(画像処理装置300)
It is not easy for the user to set the position and posture of the end effector and workpiece defined by a plurality of position parameters such as Euler angles. Therefore, it is also possible to guide the position parameter setting procedure so that the user can specify the position parameters that can be specified from among the plurality of position parameters, and sequentially set the necessary position parameters according to the guidance. Such an example is shown in FIG. 26 as a robot system 3000 according to the third embodiment. A robot system 3000 shown in this figure includes an image processing device 300, a display unit 3B, an operation unit 4, a sensor unit 2, a robot controller 6, and a robot RBT. In the robot system shown in this figure, members that are the same as in FIG.
(Image processing apparatus 300)

画像処理装置300は、入力画像取得部2cと、演算部10と、記憶部9と、入出力インターフェース4bと、表示インターフェース3fと、ロボットインターフェース6bを備える。記憶部9は、把持位置保存部9bを有する。把持位置保存部9bは、把持位置特定部8dで指定されたワークモデル又はエンドエフェクタモデルの把持位置を、保存するための部材である。   The image processing apparatus 300 includes an input image acquisition unit 2c, a calculation unit 10, a storage unit 9, an input / output interface 4b, a display interface 3f, and a robot interface 6b. The storage unit 9 includes a gripping position storage unit 9b. The gripping position storage unit 9b is a member for storing the gripping position of the work model or the end effector model specified by the gripping position specifying unit 8d.

演算部10は、把持位置特定部8dと、把持位置コピー部8d8と、相対位置設定部8d5と、サーチモデル登録部8gと、三次元サーチ部8kと、三次元ピック判定部8lと、断面モデル生成部8sとを備える。   The calculation unit 10 includes a gripping position specifying unit 8d, a gripping position copying unit 8d8, a relative position setting unit 8d5, a search model registration unit 8g, a three-dimensional search unit 8k, a three-dimensional pick determination unit 8l, a cross-sectional model. A generator 8s.

把持位置特定部8dは、表示部上の仮想三次元空間上に表示されたワークモデル又はエンドエフェクタモデルの何れか又は両方の、位置及び姿勢を特定する、X軸、Y軸、Z軸上の座標位置であるX座標、Y座標、Z座標、及びX軸、Y軸、Z軸を中心とする回転角度であるRX回転角、RY回転角、RZ回転角の6つの位置パラメータを、それぞれ指定するための部材である。 The gripping position specifying unit 8d specifies the position and orientation of either or both of the work model and the end effector model displayed on the virtual three-dimensional space on the display unit, on the X axis, the Y axis, and the Z axis. X-coordinate is a coordinate position, Y-coordinate, Z coordinate, and the X-axis, Y-axis, R X rotation angle is a rotation angle about the Z axis, R Y rotation angle, the six positional parameters of R Z rotation angle Are members for designating each.

把持位置コピー部8d8は、把持位置保存部9bに保存されたワークモデル又はエンドエフェクタモデルの把持位置を読み出して、該把持位置を変更して新たな把持位置として登録するための部材である。これにより、複数の把持位置を登録する際、既に登録された把持位置を読み出して、これをベースにして把持位置を変更し、新たな把持位置として登録可能とすることで、一から把持位置を登録する場合に比べ、より簡単に把持位置を追加でき、登録作業の省力化が図られる。   The gripping position copy unit 8d8 is a member for reading the gripping position of the work model or the end effector model stored in the gripping position storage unit 9b, changing the gripping position, and registering it as a new gripping position. As a result, when registering a plurality of gripping positions, the gripping positions that have already been registered are read out, the gripping position is changed based on this, and the gripping position can be registered as a new gripping position. Compared with the case of registration, a gripping position can be added more easily, and the labor of registration work can be saved.

三次元ピック判定部8lは、三次元サーチ部8kでサーチされた各サーチ結果に対して、把持位置特定部8dでワークモデルに対して指定された把持位置にて、エンドエフェクタで把持可能か否かを判定するための部材である。   The three-dimensional pick determination unit 8l determines whether or not the end effector can grip each search result searched by the three-dimensional search unit 8k at the gripping position specified for the work model by the gripping position specifying unit 8d. It is a member for determining.

断面モデル生成部8sは、エンドエフェクタモデルに対して一方向に設定された直線状の基本軸に沿って、この基本軸と直交する平面でエンドエフェクタモデルを切断した断面と、各断面を含む直交平面が基本軸と交差する点を断面位置として、複数の断面と断面位置との組で構成された断面モデルを生成する。この断面モデルを作成するためのエンドエフェクタモデルには、ポリゴンデータ等が用いられる。
(把持位置特定部8d)
The cross-section model generation unit 8s includes a cross section obtained by cutting the end effector model along a plane that is orthogonal to the basic axis along a linear basic axis set in one direction with respect to the end effector model, and an orthogonal including each cross section. A cross-section model composed of a set of a plurality of cross-sections and cross-section positions is generated with a point where the plane intersects the basic axis as a cross-section position. Polygon data or the like is used as an end effector model for creating this cross-sectional model.
(Gripping position specifying part 8d)

図26に示す把持位置特定部8dは、第一指定部8d9と、第二指定部8d6と、第三指定部8d7を含む。第一指定部8d9は、X座標、Y座標、Z座標の少なくともいずれかを指定可能で、かつ他の位置パラメータは指定不可能な部材である。第二指定部8d6は、第一指定部8d9で一部の位置パラメータが指定された状態のワークモデル又はエンドエフェクタモデルに対して、RX回転角、RY回転角、RZ回転角の少なくともいずれかを指定可能で、かつ他の位置パラメータは指定不可能な部材である。第三指定部8d7は、第一指定部8d9及び第二指定部8d6で一部の位置パラメータが指定された状態のワークモデル又はエンドエフェクタモデルに対して、RX回転角、RY回転角、RZ回転角の少なくともいずれかの内、第二指定部8d6で指定されていない位置パラメータを指定可能で、かつ他の位置パラメータは指定不可能とした部材である。 26 includes a first designation unit 8d9, a second designation unit 8d6, and a third designation unit 8d7. The first designation unit 8d9 is a member that can designate at least one of the X coordinate, the Y coordinate, and the Z coordinate, and cannot designate other positional parameters. The second designation unit 8d6 has at least one of the R X rotation angle, the R Y rotation angle, and the R Z rotation angle with respect to the work model or the end effector model in which some position parameters are designated by the first designation unit 8d9. Any member can be specified, and other position parameters cannot be specified. The third designation unit 8d7 is configured to perform an R X rotation angle, an R Y rotation angle, a work model or an end effector model in which some position parameters are designated by the first designation unit 8d9 and the second designation unit 8d6. This is a member that can designate a position parameter that is not designated by the second designation unit 8d6 and that cannot designate other position parameters, out of at least one of the R Z rotation angles.

これにより、把持位置の指定を、6つの位置パラメータのすべてを一つの画面上で指定させるのでなく、指定可能なパラメータをそれぞれ限定した複数の指定部に分けて、それぞれで位置パラメータを個別に指定させることで、複数の位置パラメータが相互に絡み合って位置や姿勢の把握がし難くなる事態を避け、さらに順次位置パラメータを着ていさせることで、位置及び姿勢の特定に必要な情報を設定させることが可能となる。特に、第一指定部8d9で把持位置の初期位置を、表示部に平面状に表示させたワークモデル上の何れかの部位を、マウスのクリック等で指定させる構成としたことで、見易い姿勢としたワークモデル上を直接指定するという視覚的に判り易い方法でユーザに指定させることが可能となり、従来のような姿勢の確定や数値の規定といった複雑で面倒な作業と比べて遙かに簡単化できる。なお、第一指定部8d9では必ずしもワークモデルを二次元状に表示させる態様に限られず、三次元状に表示させてもよい。
(設定作成時の手順)
As a result, instead of having all six position parameters specified on a single screen, the gripping position can be specified by dividing the specified parameters into a plurality of specified parts and specifying the position parameters individually. By doing so, it is possible to avoid the situation where multiple position parameters are entangled with each other and it is difficult to grasp the position and posture, and by sequentially wearing the position parameters, information necessary for specifying the position and posture is set. Is possible. In particular, the first designation unit 8d9 has a configuration in which the initial position of the gripping position is designated by clicking a mouse or the like on any part of the work model that is displayed on the display unit in a planar shape. It is possible to let the user specify in a visually easy way to specify directly on the work model, which is much simpler than the complicated and cumbersome work of traditional posture determination and numerical specification it can. Note that the first designation unit 8d9 is not necessarily limited to the mode in which the work model is displayed in a two-dimensional form, and may be displayed in a three-dimensional form.
(Procedure for creating settings)

ここで、ロボットシステムを動作させるための設定作業を、実運用の前に行うティーチング作業の手順を図27のフローチャートに基づいて説明する。   Here, the procedure of teaching work for setting work for operating the robot system before actual operation will be described based on the flowchart of FIG.

まずステップS2701において、ワークを三次元サーチするためのサーチモデルの登録を行う。ここでサーチモデルは、上述の通りワークモデル、ここでは三次元のCADデータを登録することができる。あるいは、センサ部で実際にワークを撮像した実測データをサーチモデルとして登録してもよい。   First, in step S2701, a search model for performing a three-dimensional search for a workpiece is registered. Here, as described above, a work model, here, three-dimensional CAD data can be registered as the search model. Alternatively, actual measurement data obtained by actually imaging the workpiece by the sensor unit may be registered as a search model.

次にステップS2702において、ロボットのエンドエフェクタモデルを登録する。ここでも、エンドエフェクタモデルとして、三次元CADデータを登録することができる。次にステップS2703において、把持するワークモデルの面を、高さ画像中から選択する。次にステップS2704において、選択した面に対する把持するときのロボットの位置及び姿勢を登録する。次にステップS2705において、必要数の位置及び姿勢を登録できたか否かを判定し、未だの場合はステップS2703に戻って上記処理を繰り返す。そして必要数の登録ができた場合は、処理を終了する。
(三次元CADデータをサーチモデルに登録する手順)
In step S2702, the robot end effector model is registered. Again, three-dimensional CAD data can be registered as an end effector model. Next, in step S2703, the surface of the work model to be grasped is selected from the height image. Next, in step S2704, the position and posture of the robot when gripping the selected surface are registered. In step S2705, it is determined whether the necessary number of positions and postures have been registered. If not, the process returns to step S2703 to repeat the above processing. If the necessary number of registrations are completed, the process is terminated.
(Procedure for registering 3D CAD data in the search model)

ここで、ステップS2701において、サーチモデルとして三次元CADデータを用いる場合の、ワークのサーチモデルを登録する手順の例を、図28のフローチャートに基づいて説明する。まずステップS2801において、ワークの三次元CADデータモデルを読み込む。次にステップS2802において、三次元CADデータモデルの外接直方体の中心を、三次元CADデータの原点に補正する。さらにステップS2803において、「上」「下」「左」「右」「前」「後」の各方向から見た高さ画像を生成する。ここで、三次元CADデータから高さ画像を生成する際は、CADの原点が高さ画像の中心になるように生成する。   Here, an example of a procedure for registering a workpiece search model when three-dimensional CAD data is used as a search model in step S2701 will be described based on the flowchart of FIG. First, in step S2801, a three-dimensional CAD data model of a work is read. In step S2802, the center of the circumscribed cuboid of the three-dimensional CAD data model is corrected to the origin of the three-dimensional CAD data. Further, in step S2803, a height image viewed from each direction of “up”, “down”, “left”, “right”, “front”, and “rear” is generated. Here, when the height image is generated from the three-dimensional CAD data, the height image is generated so that the origin of the CAD becomes the center of the height image.

次にステップS2804において、生成した高さ画像の中で、同じ見え方になる高さ画像を削除する。最後にステップS2805において、生成された高さ画像を用いてサーチモデルを登録する。   Next, in step S2804, the height image that looks the same is deleted from the generated height image. Finally, in step S2805, a search model is registered using the generated height image.

このようにして、三次元サーチに用いるサーチモデルを、ユーザはガイダンスに沿って登録することができる。
(エンドエフェクタモデルの登録)
In this way, the user can register the search model used for the three-dimensional search according to the guidance.
(Register end effector model)

次に、図27のステップS2702でエンドエフェクタモデルを登録する手順の詳細を、図29のフローチャートに基づいて説明する。ここでは、エンドエフェクタモデルを構成する三次元CADデータが、ポリゴンデータで構成されているものとする。   Next, details of the procedure for registering the end effector model in step S2702 of FIG. 27 will be described based on the flowchart of FIG. Here, it is assumed that the three-dimensional CAD data constituting the end effector model is composed of polygon data.

まず、ステップS2901において、エンドエフェクタモデルのポリゴンデータを読み込む。次にステップS2902において、断面を作成する方向を決定する。さらにステップS2903において、断面モデルを作成する。断面モデルは、図26の断面モデル生成部8sで作成される。断面モデルの作成の詳細については、後述する。このようにして、エンドエフェクタモデルが記憶部9に登録される。
(追加領域)
First, in step S2901, polygon data of the end effector model is read. Next, in step S2902, the direction in which the cross section is created is determined. In step S2903, a cross-sectional model is created. The cross-section model is created by the cross-section model generation unit 8s in FIG. Details of creation of the cross-sectional model will be described later. In this way, the end effector model is registered in the storage unit 9.
(Additional area)

また、エンドエフェクタモデルの登録に際して、元のエンドエフェクタモデルに追加領域を付加することもできる。このような手順を、図30のフローチャートに基づいて説明する。まずステップS3001において、エンドエフェクタモデルを登録する。例えばSTLデータ等の三次元CADデータで構成されたエンドエフェクタモデルを読み込む。   In addition, when registering the end effector model, an additional region can be added to the original end effector model. Such a procedure will be described based on the flowchart of FIG. First, in step S3001, an end effector model is registered. For example, an end effector model composed of three-dimensional CAD data such as STL data is read.

次にステップS3002において、追加領域を設定する。追加領域は、例えば干渉判定(詳細は後述)に際して、実際のエンドエフェクタの形状や付加されているカバーやハーネス類等を模した形状を、エンドエフェクタモデルの表面に追加するものであり、これによって干渉判定の精度を向上させることができる。
(実施形態4)
In step S3002, an additional area is set. For example, in the case of interference determination (details will be described later), the additional area is for adding an actual end effector shape or a shape simulating the attached cover or harness to the surface of the end effector model. The accuracy of interference determination can be improved.
(Embodiment 4)

このような追加領域の設定には、追加モデル作成機能を用いる。追加モデルの作成機能を付加したロボットシステムの例を、実施形態4として、図31のブロック図に示す。この図に示すロボットシステム4000は、画像処理装置400と、表示部3と、操作部4と、センサ部2と、ロボットコントローラ6と、ロボットRBTを備える。なおこの図に示すロボットシステムにおいて、図6等と共通する部材については、同じ符号を付して詳細説明を適宜省略する。
(画像処理装置400)
An additional model creation function is used to set such an additional area. An example of a robot system to which an additional model creation function is added is shown in the block diagram of FIG. A robot system 4000 shown in this figure includes an image processing device 400, a display unit 3, an operation unit 4, a sensor unit 2, a robot controller 6, and a robot RBT. In the robot system shown in this figure, members that are the same as in FIG.
(Image processing apparatus 400)

画像処理装置400は、入力画像取得部2cと、演算部10と、記憶部9と、入出力インターフェース4bと、表示インターフェース3fと、ロボットインターフェース6bを備える。   The image processing apparatus 400 includes an input image acquisition unit 2c, a calculation unit 10, a storage unit 9, an input / output interface 4b, a display interface 3f, and a robot interface 6b.

演算部10は、ワークモデル登録部8tと、エンドエフェクタモデル登録部8uと、追加モデル作成部8vと、把持位置特定部8dと、サーチモデル登録部8gと、三次元サーチ部8kと、干渉判定部8mと、断面モデル生成部8sとを備える。   The calculation unit 10 includes a work model registration unit 8t, an end effector model registration unit 8u, an additional model creation unit 8v, a gripping position specifying unit 8d, a search model registration unit 8g, a three-dimensional search unit 8k, and interference determination. 8m and a cross-sectional model generation unit 8s.

追加モデル作成部8vは、予め規定された一以上の立体的な図形で表現した追加領域を、エンドエフェクタモデルの表面に追加した追加モデルを作成するための部材である。これにより、三次元CADデータを編集することなく、エンドエフェクタモデルに対して直方体や円柱などの単純形状で干渉判定領域を追加して、それぞれの領域に応じた干渉判定を行うことにより、簡便に干渉判定を行えるようになる。なお、立体的な図形には、予め画像処理装置側で用意されている基本的な図形の他、ユーザが自由に設計可能な図形も含まれる。   The additional model creation unit 8v is a member for creating an additional model in which an additional region expressed by one or more three-dimensional figures defined in advance is added to the surface of the end effector model. This makes it easy to add an interference determination area with a simple shape such as a rectangular parallelepiped or a cylinder to the end effector model without editing the 3D CAD data, and perform interference determination according to each area. Interference determination can be performed. The three-dimensional figure includes a figure that can be freely designed by the user in addition to the basic figure prepared in advance on the image processing apparatus side.

把持位置特定部8dは、ワークモデル登録部8tで登録されたワークモデルに対して、このワークモデルをエンドエフェクタモデルで把持する把持位置を一以上、特定するための部材である。   The gripping position specifying unit 8d is a member for specifying one or more gripping positions at which the work model is gripped by the end effector model with respect to the work model registered by the work model registration unit 8t.

三次元サーチ部8kは、入力画像取得部2cで取得された入力画像中から、サーチモデル登録部8gで登録されたサーチモデルを用いて、各ワークの位置及び姿勢に対応する画像領域を特定する三次元サーチを行うための部材である。   The three-dimensional search unit 8k specifies an image region corresponding to the position and orientation of each workpiece using the search model registered by the search model registration unit 8g from the input image acquired by the input image acquisition unit 2c. This is a member for performing a three-dimensional search.

干渉判定部8mは、追加モデル作成部8vで作成された追加モデルでもって、エンドエフェクタを動作させた際に、該動作を妨げる可能性のある他の物体との干渉の有無を判定する干渉判定を行うための部材である。この干渉判定部8mは、入力画像取得部2cで取得された入力画像に含まれる複数のワークの何れかを把持しようとしてエンドエフェクタを当該位置に移動させる際に、このワークの周囲の物体がエンドエフェクタと干渉するか否かを判定するために、入力画像の内でこのワークの周囲の物体を構成する画像に対して、干渉判定を実行する。これにより、エンドエフェクタモデルを入力画像と対比して干渉判定することができる。干渉判定部8mは例えば、三次元サーチ部8kで入力画像中からサーチされた各ワークの位置及び姿勢に対応するサーチ結果に対して、このワークを把持するために把持位置特定部8dで特定された把持位置にエンドエフェクタモデルを配置する場合に、このワークの周囲に存在する物体との干渉の有無を判定する。
(追加領域設定画面310)
The interference determination unit 8m is an additional model created by the additional model creation unit 8v. When the end effector is operated, the interference determination unit determines whether there is interference with another object that may interfere with the operation. It is a member for performing. When the interference determination unit 8m moves the end effector to the position in an attempt to grip any of the plurality of workpieces included in the input image acquired by the input image acquisition unit 2c, In order to determine whether or not to interfere with the effector, interference determination is performed on an image constituting an object around the work in the input image. Thereby, interference can be determined by comparing the end effector model with the input image. For example, the interference determination unit 8m is specified by the gripping position specifying unit 8d for gripping the workpiece with respect to the search result corresponding to the position and posture of each workpiece searched from the input image by the three-dimensional search unit 8k. When the end effector model is placed at the gripping position, it is determined whether there is interference with an object existing around the workpiece.
(Additional area setting screen 310)

追加領域は、三次元CADデータで構成されたエンドエフェクタモデルに付加される。ここで、追加モデル作成部8vの一態様として、エンドエフェクタモデルに追加領域を追加する追加領域設定画面310を、図32に示す。この追加領域設定画面310は、エンドエフェクタの三次元CADデータであるエンドエフェクタモデルEEMを読み込んで、これに図形を付加することができる。追加領域設定画面310は、画像表示欄141と操作欄142を備えている。画像表示欄141には、読み込まれたエンドエフェクタモデルEEMの三次元CADデータが表示されている。また操作欄142には、基本図形表示欄311が設けられている。基本図形表示欄311には、選択可能な基本図形が一覧表示されている。基本図形には、直方体や円柱、円錐や三角錐、六角柱等が挙げられる。ユーザは所望の基本図形を、基本図形表示欄311から選択して、「追加」ボタン312を押すことで、エンドエフェクタモデルEEM上の指定した位置に基本図形を追加することができる。また基本図形表示欄311で一覧表示された各行には、「編集」ボタン313が設けられており、このボタンを押下すると、選択した基本図形の設定を変更できる。例えば底面の一辺の長さや半径、高さ等の基本図形パラメータを調整できる。   The additional area is added to the end effector model composed of three-dimensional CAD data. Here, as one aspect of the additional model creation unit 8v, an additional region setting screen 310 for adding an additional region to the end effector model is shown in FIG. The additional area setting screen 310 can read an end effector model EEM, which is three-dimensional CAD data of an end effector, and add a figure to the end effector model EEM. The additional area setting screen 310 includes an image display field 141 and an operation field 142. In the image display column 141, the three-dimensional CAD data of the read end effector model EEM is displayed. In the operation field 142, a basic graphic display field 311 is provided. The basic figure display field 311 displays a list of selectable basic figures. Basic figures include a rectangular parallelepiped, a cylinder, a cone, a triangular pyramid, a hexagonal column, and the like. The user can add a basic figure to a specified position on the end effector model EEM by selecting a desired basic figure from the basic figure display field 311 and pressing an “add” button 312. Each line displayed as a list in the basic graphic display field 311 is provided with an “edit” button 313. When this button is pressed, the setting of the selected basic graphic can be changed. For example, basic graphic parameters such as the length, radius and height of one side of the bottom surface can be adjusted.

図32の例では追加したい基本図形として直方体が選択されており、基本図形表示欄311でハイライト表示されている。この状態で「編集」ボタン313を押下すると、図33の基本図形編集画面320が表示される。基本図形編集画面320の操作欄142には、基本画像パラメータ調整欄321が設けられており、ここから基本図形のサイズや、エンドエフェクタの基準位置に対する位置や姿勢を変更できる。なお基本画像パラメータ調整欄321から基本図形パラメータを調整すると、これに応じて画像表示欄141の表示内容も更新される。   In the example of FIG. 32, a rectangular parallelepiped is selected as a basic figure to be added, and is highlighted in the basic figure display field 311. When the “edit” button 313 is pressed in this state, a basic graphic editing screen 320 shown in FIG. 33 is displayed. The operation field 142 of the basic figure editing screen 320 is provided with a basic image parameter adjustment field 321 from which the size of the basic figure and the position and orientation of the end effector with respect to the reference position can be changed. When the basic graphic parameter is adjusted from the basic image parameter adjustment field 321, the display content of the image display field 141 is also updated accordingly.

図32の例では、追加領域ADAを、アーム部の先端のフランジ面FLSとエンドエフェクタモデルEEMとの間に挿入している。これにより、アーム部とエンドエフェクタとの間に取付治具等が介在された状態を再現できる。また、アーム部先端のフランジ面が、画像処理装置側で演算用に設定された面とずれがある場合に、このずれ量をオフセットさせるために使用することもできる。   In the example of FIG. 32, the additional area ADA is inserted between the flange surface FLS at the tip of the arm portion and the end effector model EEM. Thereby, the state where the attachment jig etc. were interposed between the arm part and the end effector can be reproduced. Further, when the flange surface at the tip of the arm portion is displaced from the surface set for calculation on the image processing apparatus side, it can also be used to offset this displacement amount.

さらに図形は、複数を追加できる。図32の例では、基本図形表示欄311から所望の基本図形を選択して「追加」ボタン312を押すことで、様々な基本図形を追加できる。これによって、複数の基本図形を組み合わせて、様々な形状を表現することが可能となる。   In addition, multiple figures can be added. In the example of FIG. 32, various basic figures can be added by selecting a desired basic figure from the basic figure display field 311 and pressing the “Add” button 312. Thus, various shapes can be expressed by combining a plurality of basic figures.

このように、エンドエフェクタモデルに対して追加領域を設定する機能を備えることで、従来のように三次元CADデータの形状を直接編集する等して形状を変更することなく、予め用意された基本図形を追加するだけで、容易に形状を付加することが可能となる。この結果、エンドエフェクタをワークを把持する把持位置に配置した際に、ワークの周囲の物体と干渉するかどうかを予め確認する干渉判定において、エンドエフェクタモデルに含まれていないが、実際には存在する部材が存在する場合、これらを模した形状として判定結果の精度を向上させることができる。例えば、エンドエフェクタを、アーム部の先端にジョイントを介して接続している際、エンドエフェクタ全体がオフセットされ、先端が若干突出した状態となることがある。また、エンドエフェクタの外側に、接触防止用のカバーを被せたり、あるいはエンドエフェクタからの延びるケーブルといった、付加的な要素が存在することがある。このような付加的な要素は、エンドエフェクタモデルの三次元CADデータに含まれていないことが多く、また別途CADデータが用意されていることも少ない。かといって、エンドエフェクタモデルの三次元CADデータを加工して、これらの付加的な要素に応じた形状に変更するよう編集するのは、手間がかかる。また複雑な形状をCADデータで表現できたとしても、このような複雑な形状の三次元CADデータを干渉判定に用いると、演算処理が複雑となって処理時間も長くなってしまう。   In this way, by providing a function for setting an additional area for the end effector model, the basics prepared in advance can be used without changing the shape by directly editing the shape of the three-dimensional CAD data as in the past. A shape can be easily added only by adding a figure. As a result, when the end effector is placed at the gripping position for gripping the workpiece, it is not included in the end effector model in the interference judgment to confirm in advance whether or not it interferes with objects around the workpiece, but it actually exists When there is a member to be performed, the accuracy of the determination result can be improved as a shape imitating these. For example, when the end effector is connected to the tip of the arm part via a joint, the entire end effector may be offset and the tip may protrude slightly. Further, there may be an additional element such as a cover for preventing contact on the outside of the end effector or a cable extending from the end effector. Such additional elements are often not included in the three-dimensional CAD data of the end effector model, and CAD data is rarely prepared separately. However, it is troublesome to process the three-dimensional CAD data of the end effector model and edit it so as to change the shape according to these additional elements. Even if a complicated shape can be expressed by CAD data, if such a complicated shape of three-dimensional CAD data is used for interference determination, the arithmetic processing becomes complicated and the processing time becomes long.

そこで、このような付加的な要素を、図形で表現することで、面倒な編集作業を経ることなく、簡単な追加領域で実情に近付けた形態のエンドエフェクタモデルを得ることができ、実態に即した形状を容易に表現できるようになる。また、この方法であればCADデータの形は変えずに干渉判定領域を追加しているため、処理時間の増加量を抑えられる。
(把持位置の設定手順)
Therefore, by expressing such additional elements as graphics, it is possible to obtain an end effector model that is close to the actual situation in a simple additional area without complicated editing work. It becomes possible to easily express the shape. In addition, with this method, since the interference determination area is added without changing the shape of the CAD data, an increase in processing time can be suppressed.
(Grip position setting procedure)

次に、図27のステップS2704において、エンドエフェクタでワークを把持する把持位置及び姿勢を登録する手順について、図34のフローチャート及び図35A〜図38に基づいて説明する。ここでは、三次元CADデータで構成されたワークモデルWM11及びエンドエフェクタモデルEEMを用いて、ワークモデルWM11を固定したまま、このワークモデルWM11を把持する際の、ワークモデルWM11に対するエンドエフェクタモデルEEMの位置及び姿勢(以下、これらを纏めて「把持位置」と呼ぶ。)を規定する6つの位置パラメータ、すなわち把持位置X,Y,Zと把持姿勢RX,RY,RZを、図34のフローチャートに示す手順で順に設定していく。
(X−Y指定部)
Next, the procedure for registering the gripping position and posture for gripping the workpiece with the end effector in step S2704 in FIG. 27 will be described based on the flowchart in FIG. 34 and FIGS. 35A to 38. Here, when the work model WM11 is held with the work model WM11 being fixed using the work model WM11 and the end effector model EEM composed of the three-dimensional CAD data, the end effector model EEM of the work model WM11 is grasped. The six position parameters that define the position and posture (hereinafter collectively referred to as “grip position”), that is, the grip positions X, Y, Z and the grip postures R X , R Y , R Z are shown in FIG. Setting is performed in the order shown in the flowchart.
(XY designation part)

まずステップS3401において、把持位置のX座標及びY座標を指定する。ここでは、X−Y指定部でもってワークをある平面に投影した二次元状の平面画像を表示させて、この平面画像上で把持位置を指定する。このようなX−Y指定部の一形態として、X−Y指定画面230を図35Bに示す。この図に示すX−Y指定画面230は、図35Aに示すワークの三次元CADデータを、画像表示欄141で平面図状に表示させている。この状態でユーザに、平面図状に表示されたワークモデルWM11Fのどの位置をエンドエフェクタモデルで把持させたいかを指定させる。図35Bのように平面図上で把持位置をマウス等のポインティングデバイスで選択させることで、姿勢や回転角などを意識することなく、判り易い態様で所望の位置を指定させることができる。特に、平面図状に表示されたワークモデルWM11F上で把持する位置をクリックで指定することで、数値を入力して位置を調整するのに比べて、容易に指定できる利点が得られる。そして、ユーザが手動で指定した位置と画像の縮尺から、把持位置のX、Y座標を決定できる。なお、X、Y座標を数値で表示させるX、Y座標表示欄をX−Y指定画面に設けてもよい。
(Z−RZ指定部)
First, in step S3401, the X and Y coordinates of the grip position are designated. Here, a two-dimensional planar image obtained by projecting the workpiece onto a certain plane is displayed by the XY designation unit, and the gripping position is designated on the planar image. FIG. 35B shows an XY designation screen 230 as an example of such an XY designation unit. The XY designation screen 230 shown in this figure displays the three-dimensional CAD data of the workpiece shown in FIG. 35A in a plan view in the image display column 141. In this state, the user is allowed to specify which position of the work model WM11F displayed in a plan view is to be gripped by the end effector model. As shown in FIG. 35B, by selecting a gripping position on a plan view with a pointing device such as a mouse, a desired position can be designated in an easily understandable manner without being conscious of the posture and the rotation angle. In particular, by clicking and specifying a position to be gripped on the work model WM11F displayed in a plan view, an advantage that it can be easily specified is obtained as compared to inputting a numerical value and adjusting the position. The X and Y coordinates of the grip position can be determined from the position manually designated by the user and the scale of the image. Note that an X and Y coordinate display field for displaying X and Y coordinates as numerical values may be provided on the XY designation screen.
(Z-R Z designation part)

次にステップS3402において、把持位置Z及び把持姿勢RZをZ−RZ指定部から指定する。Z−RZ指定部の一形態として、Z−RZ指定画面240を図36に示す。この図に示すZ−RZ指定画面240は、画像表示欄141と、操作欄142を備える。操作欄142には、把持位置のZ座標を指定するためのZ座標指定欄241と、把持姿勢のRZ回転角を指定するためのRZ回転角指定欄242が設けられる。この段階では、X、Y座標はステップS3401において既に決定されているので、Z軸のみを表示すれば足りる。このためエンドエフェクタモデルEEMとワークモデルWM11を画像表示欄に表示させた状態で、補正回転軸として補正回転Z軸AXZのみを重ねて表示させている。これにより、ユーザは回転角度を変更した際に、画像表示欄141で表示されるエンドエフェクタモデルEEMがどのように回転されるかをイメージし易くなり、エンドエフェクタモデルEEMの位置調整作業を容易にできる利点が得られる。特に、他の回転軸を表示させないことで、ユーザは混乱することなく、回転方向を視覚的に把握できる。さらにZ座標とRZ回転角以外の他の位置パラメータは指定不能としたことで、誤って他の位置パラメータを変更するといったことも排除され、ユーザは指定可能な位置パラメータのみに集中して設定することができ、誤解や誤設定といった混乱を排除した状態で必要な設定のみに専念できる。 In step S3402, it specifies the gripping position Z and the grasping posture R Z from Z-R Z designation unit. FIG. 36 shows a Z-R Z designation screen 240 as one form of the Z-R Z designation unit. The Z- RZ designation screen 240 shown in this figure includes an image display field 141 and an operation field 142. The operation field 142 includes a Z coordinate designation field 241 for designating the Z coordinate of the gripping position and an R Z rotation angle designation field 242 for designating the R Z rotation angle of the gripping posture. At this stage, since the X and Y coordinates have already been determined in step S3401, it is sufficient to display only the Z axis. Therefore, with the end effector model EEM and the work model WM11 displayed in the image display field, only the corrected rotation Z axis AXZ is displayed as a correction rotation axis in an overlapping manner. This makes it easier for the user to visualize how the end effector model EEM displayed in the image display field 141 is rotated when the rotation angle is changed, and the position adjustment work of the end effector model EEM can be easily performed. Benefits that can be obtained. In particular, by not displaying other rotation axes, the user can visually grasp the rotation direction without being confused. Furthermore, since other position parameters other than the Z coordinate and R Z rotation angle cannot be specified, it is also possible to change other position parameters by mistake, and the user concentrates on only the position parameters that can be specified. It is possible to concentrate on only the necessary settings while eliminating confusion such as misunderstandings and misconfigurations.

エンドエフェクタモデルEEMの回転は、RZ回転角指定欄242で数値を入力すると、これに応じて画像表示欄141におけるエンドエフェクタモデルEEMが自動的に回転されて表示される。また、画像表示欄141で表示されるエンドエフェクタモデルEEMをドラッグして回転させると、これに応じてRZ回転角指定欄242で表示されるRZ回転角の値も変更される。
(RY指定部)
Rotation of the end effector model EEM, upon inputting a value R Z rotation angle designation column 242, end effector model EEM in the image display field 141 is displayed automatically rotated accordingly. When the end effector model EEM displayed in the image display column 141 is dragged and rotated, the value of the R Z rotation angle displayed in the R Z rotation angle designation column 242 is changed accordingly.
(R Y designation part)

さらにステップS3403において、把持姿勢RYを指定する。ここでは、図37に示すRY指定画面250を用いて、RY回転角をRY回転角指定欄251から指定する。この例では、エンドエフェクタモデルEEMやワークモデルWM11の姿勢をZ−Y−X系オイラー角で表現している。そのためステップS3402で指定したRZの値を用いることで、RYの回転軸の方向を補正できる。計算された補正回転軸である補正回転Y軸AXYは、上記と同様に画像表示欄141に表示される。このように回転軸を表示させることで、RY回転角を調整するとエンドエフェクタモデルEEMがどのように変化するのかをユーザが想像し易くなリ、設定のし易さに?がる。
(RX指定部)
In step S3403, a gripping posture RY is designated. Here, with R Y designation screen 250 shown in FIG. 37 designates the R Y rotation angle from R Y rotation angle designation column 251. In this example, the postures of the end effector model EEM and the work model WM11 are expressed by ZYX system Euler angles. Therefore, the direction of the rotation axis of R Y can be corrected by using the value of R Z specified in step S3402. The corrected rotation Y axis AXY that is the calculated correction rotation axis is displayed in the image display field 141 in the same manner as described above. Displaying the rotation axis in this way makes it easy for the user to imagine how the end effector model EEM changes when the RY rotation angle is adjusted, and makes it easier to set.
(R X designation part)

最後にステップS3404において、把持姿勢RXを指定する。ここでは、図38に示すRX指定画面260を用いて、RX回転角をRX回転角指定欄261から指定する。ここでも同様に、RXの回転軸の方向を示す補正回転X軸AXXを、画像表示欄141に表示させる。 Finally, in step S3404, it specifies the gripping posture R X. Here, with R X designation screen 260 shown in FIG. 38 designates the R X rotation angle from R X rotation angle designation column 261. Similarly, the corrected rotation X axis AXX indicating the direction of the rotation axis of R X is also displayed in the image display column 141.

このようにして、エンドエフェクタでワークを把持する把持位置として、X,Y,Z、RX,RY,RZの6つの位置パラメータをユーザが指定できる。特に、調整可能な位置パラメータを画面毎に制限し、また表示させる回転軸も、指定に係る位置パラメータに関する回転軸のみの表示に限定することで、ユーザはこのようなガイダンスに従って設定していくことで、必要な位置パラメータを順次規定することができる。この結果、従来難解であった、三次元の位置及び姿勢を指定した把持位置の指定作業をスムーズに行わせることができる。また、オイラー角のRX、RY、RZ回転角を設定する際に、その回転軸を計算して、補正回転軸として画像表示欄141に表示させることで、ユーザが設定中の位置パラメータの変更により、どう動くのかが容易に想像できるようになる。 In this way, the user can designate six position parameters X, Y, Z, R X , R Y , and R Z as gripping positions for gripping the workpiece with the end effector. In particular, the position parameters that can be adjusted are limited for each screen, and the rotation axis to be displayed is limited to the display of only the rotation axis related to the specified position parameter, so that the user can set according to such guidance. Thus, the necessary position parameters can be defined sequentially. As a result, it is possible to smoothly perform the grip position designation work in which the three-dimensional position and posture are designated, which has been difficult in the past. Also, when setting the Euler angles R X , R Y , R Z rotation angles, the rotation axis is calculated and displayed as a correction rotation axis in the image display column 141, so that the position parameter being set by the user is displayed. With this change, you can easily imagine how it works.

さらに、把持位置の登録を複数のステップに分けて、各ステップで調整できる位置パラメータを限定することで、その位置パラメータを動かすとどう動くのかが容易に想像できるようになる。特に、各ステップ毎に指定画面を設けて、異なる指定画面で異なる位置パラメータを登録させることで、混乱無くユーザに設定すべき位置パラメータを提示でき、設定作業を誘導することが可能となる。なお、図36〜図38の例では、異なる指定画面を設ける例を説明したが、この例に限られない。例えば図39の位置パラメータ指定画面270に示すように、複数の位置パラメータを指定する共通の指定画面を用いつつ、ステップ毎に、指定可能な位置パラメータを制限することもできる。図39の例では、X、Y座標のみX、Y座標指定欄271から指定可能で、他の位置パラメータについては指定できないようにグレーアウトさせて選択不能としている。そしてX、Y座標を指定し終えると、「次へ」ボタン272を押下させることで、次のステップとして別の位置パラメータ、例えばZ座標とRZ回転角のみをZ座標、RZ回転角指定欄273から指定可能として、これ以外の位置パラメータについては、指定済みのX、Y座標も含め、すべてグレーアウトさせたり、非表示とする等して、選択不能とする。そしてZ座標とRZ回転角の指定後に再度「次へ」ボタン272を押下させることで、次のステップとしてさらに別の位置パラメータ、例えばRX、RY回転角のみをRX、RY回転角指定欄274から指定可能とし、他の位置パラメータは選択不能とする。このような構成でも、ユーザに対し、指定可能な位置パラメータを制限して提示し、順次設定させていくガイダンス機能を実現できる。 Furthermore, by dividing the registration of the gripping position into a plurality of steps and limiting the position parameters that can be adjusted in each step, it becomes possible to easily imagine how the position moves when the position parameter is moved. In particular, by providing a designation screen for each step and registering different position parameters on different designation screens, the position parameters to be set can be presented to the user without confusion, and setting work can be guided. In the example of FIGS. 36 to 38, an example in which different designation screens are provided has been described. However, the present invention is not limited to this example. For example, as shown in the position parameter specification screen 270 of FIG. 39, the position parameters that can be specified can be limited for each step while using a common specification screen for specifying a plurality of position parameters. In the example of FIG. 39, only the X and Y coordinates can be designated from the X and Y coordinate designation column 271, and other position parameters are grayed out so that they cannot be designated and cannot be selected. And X, after finishing specifies the Y coordinate, by pressing the "Next" button 272, a different position parameter as a next step, for example, Z coordinates and R Z only the rotation angle Z coordinate, R Z rotation angle specified It is possible to specify from the column 273, and other position parameters including the specified X and Y coordinates are all grayed out or not displayed, for example, not displayed. Then, by pressing the “Next” button 272 again after designating the Z coordinate and the R Z rotation angle, another position parameter, for example, only the R X and R Y rotation angles are rotated by the R X and R Y rotations as the next step. Designation is possible from the corner designation column 274, and other position parameters cannot be selected. Even with such a configuration, it is possible to realize a guidance function that restricts and presents position parameters that can be specified to the user and sequentially sets them.

さらに、位置パラメータを順次規定するステップの数や区分けについても、上述の例に限定されるものでない。例えば、Z座標とRZ回転角は別ステップになっていてもよいし、あるいはRX回転角とRY回転角が同じステップで設定できるようになっていてもよい。例えば、位置のステップを複数のステップに分割する例として、Z−RZ指定部を、Z座標を指定するためのZ指定部と、Z軸を中心としたRZ回転角を指定するためRZ指定部で構成する。あるいは、RX−RY指定部を、X軸を中心としたRX回転角を指定するためのRX指定部と、Y軸を中心としたRY回転角を指定するためのRY指定部で構成することもできる。あるいはまた、図37と図38を統合し、RX回転角とRY回転角を一画面で指定可能なRX−RY指定部としてもよい。 Further, the number and division of steps for sequentially defining the position parameters are not limited to the above example. For example, the Z coordinate and the R Z rotation angle may be separate steps, or the R X rotation angle and the R Y rotation angle may be set in the same step. For example, as an example in which the position step is divided into a plurality of steps, the Z-R Z designation unit is designated as the Z designation unit for designating the Z coordinate, and the R Z rotation angle around the Z axis is designated as R. Consists of the Z designation part. Alternatively, the R X -R Y designation part is designated with an R X designation part for designating an R X rotation angle around the X axis and an R Y designation for designating an R Y rotation angle around the Y axis. It can also consist of parts. Alternatively, FIG. 37 and FIG. 38 may be integrated into an R X -R Y designating unit that can designate the R X rotation angle and the R Y rotation angle on one screen.

なお、以上の例ではワークモデル側を固定した状態で、エンドエフェクタモデルの位置及び姿勢を調整する例を説明したが、これに限らず、エンドエフェクタモデルを固定した状態で、ワークモデル側の位置及び姿勢を調整させてもよい。あるいは、エンドエフェクタモデルとワークモデルの両方の位置及び姿勢を調整するように構成してもよい。   In the above example, the example in which the position and orientation of the end effector model are adjusted with the work model side fixed is described. However, the present invention is not limited to this, and the position on the work model side with the end effector model fixed. And the posture may be adjusted. Or you may comprise so that the position and attitude | position of both an end effector model and a workpiece | work model may be adjusted.

また以上の例では、X,Y,Z、RX,RY,RZの6つの位置パラメータを、X−Y指定部でX、Y座標、Z−RZ指定部でZ座標とRZ回転角、RX−RY指定部でRX、RY回転角を順に規定する例を説明したが、各位置パラメータを規定する順序や組み合わせは、上記構成に限定されない。例えば、X−Y−Z指定部と、RZ指定部と、RX−RY指定部を用意し、X−Y−Z指定部で、エンドエフェクタモデルやワークモデルのX、Y、Z座標を指定し、次にRZ指定部で、Z軸を中心としたRZ回転角を指定し、最後にRX−RY指定部でX軸を中心としたRX回転角と、Y軸を中心としたRY回転角を指定させてもよい。この場合、X−Y−Z指定部は、例えば図40に示すようなX−Y−Z指定画面280が利用でき、三次元的に表示させたエンドエフェクタモデルEEMやワークモデルに対して、X、Y、Z座標をX、Y、Z座標指定欄281から指定することができる。このように、把持位置を最初に指定させるための画像は、図35Bに示したようなXY平面に投影した平面画像に限られず、異なる投影方向が利用でき、例えば図41に示すような、斜め方向から投影させた斜視図WM11Pを用いて指定させることもできる。 In the above example, the six positional parameters X, Y, Z, R X , R Y , and R Z are converted into the X and Y coordinates in the XY designation section, the Z coordinates and R Z in the Z-R Z designation section. Although an example in which R X and R Y rotation angles are defined in order in the rotation angle and R X -R Y designating part has been described, the order and combinations for defining the position parameters are not limited to the above configuration. For example, the X-Y-Z designation unit, and R Z designation unit, R X -R Y specify section was prepared, X-Y-Z at the specified portion, X of the end effector model or the work model, Y, Z-coordinate Next, in the R Z designation part, specify the R Z rotation angle around the Z axis. Finally, in the R X -R Y designation part, the R X rotation angle around the X axis and the Y axis The R Y rotation angle with respect to the center may be designated. In this case, the XYZ designating unit can use, for example, an XYZ designating screen 280 as shown in FIG. 40, and with respect to the end effector model EEM or work model displayed three-dimensionally, , Y, Z coordinates can be designated from the X, Y, Z coordinate designation column 281. As described above, the image for first specifying the gripping position is not limited to the planar image projected on the XY plane as shown in FIG. 35B, and different projection directions can be used. For example, as shown in FIG. It can also be specified using the perspective view WM11P projected from the direction.

さらに、上述した図35Bのように平面に一旦投影させた画像上から把持位置を指定させる方法に限らず、図35Aのような投影しない状態で把持位置を指定させてもよい。例えば図42に示すような三次元画像ビューワ290上でワークモデルWM11を三次元的に表示させた状態で、この画面上から把持位置をマウス等のポインティングデバイスで構成された操作部を用いて指定する。
(変形例)
Furthermore, the gripping position may be specified without being projected as shown in FIG. 35A, not limited to the method of specifying the gripping position from the image once projected onto the plane as shown in FIG. 35B. For example, in a state where the work model WM11 is displayed three-dimensionally on a three-dimensional image viewer 290 as shown in FIG. 42, a gripping position is designated from this screen using an operation unit configured with a pointing device such as a mouse. To do.
(Modification)

さらに、以上の例ではZ−Y−X系オイラー角に従い、X,Y,Z、RX,RY,RZの6つの位置パラメータを指定する手順について説明したが、本発明はこの態様に限定されず、エンドエフェクタやワークの位置及び姿勢を規定する他の態様、例えばX−Y−Z系オイラー角、X−Z−Y系オイラー角、Y−X−Z系オイラー角、Y−Z−X系オイラー角、Z−X−Y系オイラー角、X−Y−X系オイラー角、X−Z−X系オイラー角、Y−X−Y系オイラー角、Y−Z−Y系オイラー角、Z−X−Z系オイラー角、Z−Y−Z系オイラー角、あるいはロール・ピッチ・ヨー角表現、回転軸・回転角表現等に従って、エンドエフェクタ等の位置及び姿勢を規定することもできる。 Further, in the above example, the procedure for specifying the six positional parameters of X, Y, Z, R X , R Y , and R Z according to the ZY-X system Euler angles has been described. Without limitation, other modes that define the position and orientation of the end effector and the workpiece, such as XYZ Euler angle, XZY Euler angle, YXZ Euler angle, YZ -X Euler angle, ZXY Euler angle, XYX Euler angle, XZX Euler angle, YXY Euler angle, YZY Euler angle The position and orientation of the end effector can also be specified according to the Z-X-Z Euler angle, Z-Y-Z Euler angle, roll / pitch / yaw angle expression, rotation axis / rotation angle expression, etc. .

また、以上の例では補正回転軸として、指定しようとする位置パラメータに関する補正回転軸のみを表示させる例について説明したが、他の補正回転軸については、完全に非表示とする構成に限定するものでない。例えば、他の補正回転軸を含めて直交する3軸を表示させつつ、指定しようとする回転角に係る回転軸を、他の補正回転軸よりも強調して表示させても、同様の効果を得ることができる。一例として、回転角を指定中の回転軸を太字で表示させたり、着色や点滅などのハイライト表示させたり、逆に指定不可とされた回転軸をグレーアウトさせたり、細線で表示させるなどして、外観上区別するようにする。特に画像の三次元表示においては、直交する座標軸があると三次元表示中であることをユーザが直感的に把握できるので、三軸の表示を維持しつつも、対象となる回転軸を他と区別することで、ユーザに対し混同を起こさせ難くできる。さらにこのような三軸を表示させる際の原点は、回転の中心とすることが好ましい。例えば、上述したエンドエフェクタモデルEEMの把持位置である一対の爪部の中間位置とする。
(把持位置コピー機能)
In the above example, an example in which only the correction rotation axis related to the position parameter to be specified is displayed as the correction rotation axis has been described. However, the other correction rotation axes are limited to a configuration in which they are completely hidden. Not. For example, the same effect can be obtained by displaying the three orthogonal axes including the other correction rotation axes while displaying the rotation axis related to the rotation angle to be specified with emphasis over the other correction rotation axes. Can be obtained. As an example, the rotation axis for which the rotation angle is specified is displayed in bold, highlighting such as coloring or blinking, conversely the rotation axis that can not be specified is grayed out, or displayed with thin lines , To distinguish on the appearance. Especially in the 3D display of images, if there are orthogonal coordinate axes, the user can intuitively understand that the 3D display is in progress, so the target rotation axis can be set differently while maintaining the 3 axis display. By distinguishing, it is difficult to confuse the user. Furthermore, it is preferable that the origin when displaying such three axes is the center of rotation. For example, the intermediate position between the pair of claws, which is the gripping position of the above-described end effector model EEM.
(Grip position copy function)

さらに、複数の把持位置を登録する際、既に登録された把持位置を読み出して、これをベースにして把持位置を変更し、新たな把持位置として登録可能とする把持位置コピー機能を備えてもよい。一般に、一のワークに対して把持位置を複数登録することが多い。これは、把持位置を複数登録しておけば、複数の把持解の中から最適な解を選ぶことができるため、仮に得られた把持解候補が干渉する場合であっても、他の把持解候補があれば、把持可能と判定される可能性が高まるからである。このような把持解を複数登録する際、その都度把持登録を一から行うと、同様の把持位置を登録する際に手数が多くなり作業が面倒となる。そこで、既に登録済みの把持位置をコピーして、この把持位置で設定された位置パラメータの一部を変更して、新たな把持位置として保存可能とすることで、手間を省いて複数の把持位置を容易に登録できるようになる。また、同様に既存の把持位置の読み出して、位置パラメータを適宜修正して上書き保存することも可能である。
(把持位置コピー部8d8)
Furthermore, when registering a plurality of gripping positions, a gripping position copy function may be provided in which the gripping positions that have already been registered are read out, the gripping positions are changed on the basis thereof, and registration is possible as new gripping positions. . In general, a plurality of gripping positions are often registered for one workpiece. This is because, if a plurality of gripping positions are registered, the optimum solution can be selected from a plurality of gripping solutions. Therefore, even if gripping solution candidates obtained interfere with each other, This is because, if there is a candidate, the possibility that it is determined that it can be gripped increases. When registering a plurality of such gripping solutions, if the grip registration is performed from the beginning each time, the number of steps is increased when registering the same gripping position, and the work becomes troublesome. Therefore, it is possible to save a plurality of gripping positions by copying a gripping position that has already been registered, changing a part of the position parameters set at this gripping position, and saving it as a new gripping position. Can be easily registered. Similarly, it is also possible to read out an existing gripping position, modify the position parameters as appropriate, and overwrite and store them.
(Holding position copy unit 8d8)

このような把持位置コピー機能や把持位置編集機能は、図26で示した把持位置コピー部8d8でもって実現される。把持位置コピー部8d8は、把持位置保存部9bに保存されたワークモデルやエンドエフェクタモデルの把持位置を読み出して、把持位置を構成する位置パラメータを変更して登録する。また、把持位置コピー部8d8で把持位置を変更する際にも、上述したように、ガイダンスに従って順を登録するように構成すると、どのステップでどの位置パラメータを変更すればよいかが判り易くなり、より把持の登録が簡単になる。   Such a gripping position copy function and a gripping position editing function are realized by the gripping position copy unit 8d8 shown in FIG. The gripping position copying unit 8d8 reads the gripping positions of the work model and the end effector model stored in the gripping position storage unit 9b, and changes and registers the position parameters constituting the gripping position. In addition, when the gripping position is changed by the gripping position copy unit 8d8, as described above, if the order is registered according to the guidance, it is easy to understand which position parameter should be changed in which step. Registration of grip becomes easy.

さらに、把持位置を指定する際に、エンドエフェクタモデルをワークモデルの把持位置に自動的に移動させるフィット機能を付加してもよいことは、上述の通りである。例えば図36のZ−RZ指定画面240で操作欄142に「フィット」ボタン154を設けることで、フィット機能を実行させて、Z座標を自動的に設定させることができる。
(実施形態5)
Furthermore, as described above, when specifying the gripping position, a fitting function for automatically moving the end effector model to the gripping position of the work model may be added. For example, by providing a “fit” button 154 in the operation column 142 on the Z- RZ designation screen 240 of FIG. 36, the fit function can be executed to automatically set the Z coordinate.
(Embodiment 5)

さらに、三次元サーチの精度を向上させるために、サーチモデルの取り得る姿勢や角度を制限することもできる。例えば、図43に示すような平板状のワークWK9を複数個バラ積みしたワーク群から三次元サーチでワークの位置及び姿勢を検出することを考える。この場合、図43のワークWK9を三次元CADデータで示したワークモデルWM9の各面は、図44A〜図44Fに示すようになる。すなわち、図44AはワークモデルWM9の平面図、図44Bは底面図、図44Cは正面図、図44Dは背面図、図44Eは右側面図、図44Fは左側面図をそれぞれ示している。これらの基本方向画像の内から、重複する面を除いてサーチモデルとして登録する。ここでは、図44A、図44B、図44C、図44Eの四面を登録したとする。この状態で、バラ積みワーク群を撮像して三次元情報を有する点群データを取得して、三次元サーチを行う。この結果、図45においてXで示すような縦置きの姿勢でワークが存在しているかのように誤検出されることがある。実際には、薄い平板状のワークが直立した姿勢で存在することは考え難いところ、平板状のワークの正面図は図44Cに示すようにほぼ直線状、あるいは矩形状となるため、ワークの表面を構成する他の部位、例えば図44Aや図44Bの一部の形状と共通することがあり、その結果誤検出が生じる。   Furthermore, in order to improve the accuracy of the three-dimensional search, it is possible to limit the postures and angles that the search model can take. For example, consider that the position and orientation of a workpiece are detected by a three-dimensional search from a workpiece group in which a plurality of flat workpieces WK9 as shown in FIG. 43 are stacked. In this case, each surface of the work model WM9 in which the work WK9 in FIG. 43 is represented by three-dimensional CAD data is as shown in FIGS. 44A to 44F. 44A is a plan view of the work model WM9, FIG. 44B is a bottom view, FIG. 44C is a front view, FIG. 44D is a rear view, FIG. 44E is a right side view, and FIG. From these basic direction images, an overlapping surface is removed and registered as a search model. Here, it is assumed that the four surfaces of FIGS. 44A, 44B, 44C, and 44E are registered. In this state, a group of workpieces is picked up to acquire point cloud data having 3D information, and a 3D search is performed. As a result, the workpiece may be erroneously detected as if the workpiece is present in the vertical posture as indicated by X in FIG. Actually, it is difficult to think that a thin flat work exists in an upright posture, but the front view of the flat work is almost linear or rectangular as shown in FIG. 44C. May be common to other parts constituting the structure, for example, the shape of a part of FIGS. 44A and 44B, and as a result, erroneous detection occurs.

これに対して、ワークの取り得る姿勢を制限して三次元サーチを行うことも考えられるが、姿勢制限を行う条件の設定が極めて難解となる。例えば、図46に示すようなZ−Y−Z系のオイラー角を用いて、Z軸、Y軸、Z軸の回転角度範囲を規定することで、ワークのあらゆる姿勢を表現できることが知られているものの、この方法で各軸の回転角度を、ユーザが所望する姿勢範囲となるように規定することは容易ではない。   On the other hand, it is conceivable to perform a three-dimensional search by limiting the postures that can be taken by the workpiece, but setting conditions for posture limitation is extremely difficult. For example, it is known that all postures of a workpiece can be expressed by defining the rotation angle range of the Z axis, the Y axis, and the Z axis by using the Euler angles of the ZYZ system as shown in FIG. However, it is not easy to define the rotation angle of each axis so as to be in the posture range desired by the user by this method.

そこで実施形態5においては、このような面倒な概念を用いずともユーザがワークの取り得る姿勢を容易に設定できるようにした。具体的には、サーチモデルを登録する際に、ばら積みしたときに起こりそうにない姿勢を排除することで、このような面が検出されることがないようにする。このような設定には、図6に示したサーチモデル登録部8gを用いる。サーチモデル登録部8gは、基本方向画像のいずれかの中から、バラ積みされた複数のワーク群に対して、各ワークの位置と姿勢を特定する三次元サーチを行うためのサーチモデルとして登録する基本方向画像を選択する。サーチモデル登録部8gと基本方向画像選択部8eとの違いは、基本方向画像選択部8eが、見え方が同じ基本方向画像に対していずれか一を選択するものである。これに対してサーチモデル登録部8gは、三次元サーチに際してサーチの対象外としたい基本方向画像を、サーチモデルの登録対象から除外するためのものである。好ましくは、基本方向画像選択部8eで見え方が重複する基本方向画像を排除した状態で、さらにサーチモデル登録部8gでもって、不要な基本方向画像をサーチモデルの登録対象から除外する。あるいは、サーチしたい基本方向画像を選択する。これによって、予めサーチモデルの登録の候補となる基本方向画像に絞り込んだ状態でユーザに選択させることで、候補数を少なくしてサーチモデルの登録作業をより行い易くできるようになる。
(サーチモデル登録画面130B)
Therefore, in the fifth embodiment, the posture that the user can take can be easily set without using such a troublesome concept. Specifically, when a search model is registered, such a plane is prevented from being detected by eliminating postures that are unlikely to occur when the search models are stacked. The search model registration unit 8g shown in FIG. 6 is used for such setting. The search model registration unit 8g registers, as a search model for performing a three-dimensional search for specifying the position and orientation of each workpiece, for a plurality of stacked workpieces from any of the basic direction images. Select the basic orientation image. The difference between the search model registration unit 8g and the basic direction image selection unit 8e is that the basic direction image selection unit 8e selects one of the basic direction images with the same appearance. On the other hand, the search model registration unit 8g is for excluding, from the search model registration target, basic direction images that are not to be searched for the three-dimensional search. Preferably, the basic direction image selecting unit 8e excludes the basic direction images whose appearances overlap, and the search model registration unit 8g further excludes unnecessary basic direction images from the search model registration target. Alternatively, the basic direction image to be searched is selected. This allows the user to select the basic direction images that are candidates for search model registration in advance, thereby reducing the number of candidates and facilitating search model registration.
(Search model registration screen 130B)

ここで、上述した図43のワークに対して、サーチモデルを登録するサーチモデル登録画面130Bの例を図47に示す。この図に示すサーチモデル登録画面130Bでは、図43のワークWK9に対応するワークモデルWM9から、基本方向画像生成部8e’で生成された六面図に相当する6枚の基本方向画像に対し、予め基本方向画像選択部8eが、見え方が重複する基本方向画像、図44の例では図44Dと図44Fの2枚を排除した状態で、残りの4枚の基本方向画像を表示部の六面図表示領域3aに表示させている。この状態で、サーチモデルの登録可否を設定するサーチモデル登録部8gの一形態として、サーチモデル登録画面130B中の各基本方向画像に表示された「登録する」との選択チェックボックス131Bを設けている。ユーザが、選択チェックボックス131Bをチェックすれば、この基本方向画像をサーチモデルとして登録され、逆に選択チェックボックス131Bをオフすれば、この基本方向画像をサーチモデルの登録対象から除外する。ユーザは、六面図表示領域3aに表示された各基本方向画像を見ながら、実際のバラ積み状態では起こり難い姿勢を排除することができる。図47の例では、モデルCとモデルDの選択チェックボックス131Bをオフしており、このような側面が見える姿勢、すなわち板状のワークが直立した姿勢を、三次元サーチの対象から除外することができる。これによって、面倒なワークの角度計算や範囲指定といった作業を経ること無く、ユーザはワークの姿勢を示す基本方向画像を見ながら、サーチの必要の無い画像を排除し、あるいは必要な画像のみを選択して、容易に三次元サーチの対象となるワークの姿勢に制限をかけることが可能となる。   Here, FIG. 47 shows an example of a search model registration screen 130B for registering a search model for the work shown in FIG. In the search model registration screen 130B shown in this figure, six basic direction images corresponding to the six-sided view generated by the basic direction image generation unit 8e ′ from the work model WM9 corresponding to the work WK9 of FIG. The basic direction image selection unit 8e preliminarily removes the basic direction images whose appearances are overlapped. In the example of FIG. 44, the remaining four basic direction images are displayed on the display unit in the state where two images of FIGS. 44D and 44F are excluded. It is displayed in the surface view display area 3a. In this state, as one form of the search model registration unit 8g for setting whether or not the search model can be registered, a selection check box 131B for “register” displayed on each basic direction image in the search model registration screen 130B is provided. Yes. If the user checks the selection check box 131B, the basic direction image is registered as a search model. Conversely, if the user turns off the selection check box 131B, the basic direction image is excluded from the search model registration target. The user can eliminate postures that are unlikely to occur in an actual stacking state while viewing each basic direction image displayed in the hexahedral view display area 3a. In the example of FIG. 47, the selection check box 131B for the model C and the model D is turned off, and the posture in which such a side can be seen, that is, the posture in which the plate-like workpiece is upright is excluded from the target of the three-dimensional search. Can do. As a result, the user can eliminate the images that do not need to be searched or select only the necessary images while looking at the basic direction image that shows the posture of the workpiece without going through the troublesome task angle calculation and range specification. As a result, it is possible to easily limit the posture of the workpiece to be subjected to the three-dimensional search.

なお、サーチモデル登録部8gは、ユーザが手動でサーチモデルの登録対象、あるいは排除対象を選択する態様のみに限られず、ワークモデルの形状や重心等を演算して、生じ難い姿勢の基本方向画像を自動で抽出して排除するように構成してもよい。   Note that the search model registration unit 8g is not limited to a mode in which the user manually selects a search model registration target or exclusion target, but calculates a shape, a center of gravity, and the like of the work model, and a basic direction image with a posture that is unlikely to occur. May be automatically extracted and excluded.

あるいは、自動演算と手動選択の組み合わせ、例えば図47に示すように、サーチモデル登録画面130Bで、基本方向画像選択部8eで選択済みの基本方向画像をすべて表示させつつ、演算により生じ難いと判定された基本方向画像については、初期状態として選択チェックボックス131Bをオフして表示させるように構成してもよい。ユーザはサーチモデル登録部8gによる自動判定の結果を参照しながら、手動で必要に応じて選択の修正を行い、OKを押すことで、より確実にサーチモデルの登録を適切に行うことができる。   Alternatively, a combination of automatic calculation and manual selection, for example, as shown in FIG. 47, on the search model registration screen 130B, all basic direction images that have been selected by the basic direction image selection unit 8e are displayed, and it is determined that it is difficult to occur by calculation. The basic direction image may be displayed with the selection check box 131B off as an initial state. By referring to the result of automatic determination by the search model registration unit 8g, the user manually corrects the selection as necessary and presses OK, so that the search model can be properly registered more reliably.

また図47においては、基本方向画像選択部8eによる選択を自動演算とした例を説明したが、基本方向画像選択部による自動判定、あるいは手動選択についても、同様に組み合わせることができる。例えば基本方向画像選択部による判定の結果、見え方が共通する基本方向画像と判定された一方の画像については、グレーアウトさせて六面図表示領域に表示させることで、ユーザに対して基本方向画像選択部による自動判定の結果を確認させることができる。判定結果が誤っている場合は、ユーザが当該基本方向画像を手動で選択して、基本方向画像として残したり、あるいは逆に排除したりすることができる。このように、自動演算の結果を表示させてユーザに確認させることで、より画像の選択の精度を高めることができる。また、自動判定結果に基づいて予め選択/非選択を設定した状態を初期状態とすることで、自動判定による選択の結果が正しければユーザがOKを押してこれを承認することができ、ユーザ側の手間も最小限とすることができる。   In FIG. 47, an example in which selection by the basic direction image selection unit 8e is automatically calculated has been described. However, automatic determination by the basic direction image selection unit or manual selection can be combined in the same manner. For example, as a result of the determination by the basic direction image selection unit, one image determined to be a basic direction image having a common appearance is grayed out and displayed in the six-view drawing display area, so that the basic direction image is displayed to the user. The result of automatic determination by the selection unit can be confirmed. If the determination result is incorrect, the user can manually select the basic direction image and leave it as the basic direction image or conversely eliminate it. Thus, the accuracy of image selection can be further improved by displaying the result of the automatic calculation and allowing the user to confirm the result. In addition, by setting a state in which selection / non-selection is set in advance based on the automatic determination result as an initial state, if the selection result by automatic determination is correct, the user can confirm this by pressing OK. Time and effort can be minimized.

また、不要な面を三次元サーチの対象から除外する目的は、ワークの直立状態以外にも適用できる。例えば完全にランダムにワークを積む態様以外に、特定の面のみが表出するような態様でワーク群が入力画像として与えられる場面においては、表出しない面を排除することで誤検出を回避できる。特に、表裏の形状が似ており、裏面が誤検出し易いようなワークに対しては有効となる。このように、実際には見えることのない裏面のサーチモデルを三次元サーチの対象から外すだけで、ワークの裏面側が検出されないようにワークの姿勢を制限したことと同様の効果を得ることができる。
(サーチモデルを登録する手順)
The purpose of excluding unnecessary surfaces from the target of the three-dimensional search can be applied to other than the upright state of the workpiece. For example, in a case where a work group is given as an input image in a mode in which only a specific surface is exposed in addition to a mode in which workpieces are loaded completely randomly, false detection can be avoided by eliminating the surface that is not exposed. . In particular, it is effective for a workpiece whose front and back have similar shapes and whose back surface is easily misdetected. In this way, the same effect as that in which the posture of the workpiece is limited so that the back side of the workpiece is not detected can be obtained only by removing the search model of the back surface that is not actually seen from the target of the three-dimensional search. .
(Procedure for registering a search model)

上述した、姿勢制限を設けたサーチモデルの登録手順を、図48のフローチャートに基づいて説明する。ここでは、ワークの三次元CADデータをサーチモデルとして登録する手順について説明する。   The above-described search model registration procedure with posture restriction will be described with reference to the flowchart of FIG. Here, a procedure for registering the three-dimensional CAD data of the workpiece as a search model will be described.

まずステップS4801において、ワークの三次元CADデータを読み込む。次にステップS4802において、三次元CADデータモデルの外接直方体の中心を、三次元CADデータの原点に補正する。さらにステップS4803において、「上」「下」「左」「右」「前」「後」の各方向から見た高さ画像を生成する。ここで、三次元CADデータから高さ画像を生成する際は、CADの原点が高さ画像の中心になるように生成する。さらにまたステップS4804において、生成した高さ画像の中で、同じ見え方になる高さ画像を削除する。   First, in step S4801, the three-dimensional CAD data of the workpiece is read. In step S4802, the center of the circumscribed cuboid of the three-dimensional CAD data model is corrected to the origin of the three-dimensional CAD data. In step S4803, a height image viewed from each direction of “up”, “down”, “left”, “right”, “front”, and “rear” is generated. Here, when the height image is generated from the three-dimensional CAD data, the height image is generated so that the origin of the CAD becomes the center of the height image. In step S4804, a height image that looks the same is deleted from the generated height images.

次にステップS4805において、残った高さ画像の中で、三次元サーチに用いるサーチモデルを選択する。ここでは、サーチモデル選択部8iでもって、不要な基本方向画像を排除し、必要な基本方向画像を選択する。   In step S4805, a search model used for the three-dimensional search is selected from the remaining height images. Here, the search model selection unit 8i eliminates unnecessary basic direction images and selects necessary basic direction images.

最後にステップS4806において、選択された高さ画像をサーチモデルとして登録する。ここでは、サーチモデル登録部8gでもってサーチモデルを登録する。このようにして、不要な姿勢の基本方向画像を排除することで、実質的に姿勢制限を設けた状態でサーチモデルを登録することが可能となる。
(実施形態6)
Finally, in step S4806, the selected height image is registered as a search model. Here, the search model registration unit 8g registers the search model. In this way, by eliminating the basic direction images of unnecessary postures, it becomes possible to register the search model in a state in which posture restrictions are substantially provided.
(Embodiment 6)

以上は、数値でなく実際の画像を用いて三次元サーチの対象を制限する例について説明した。ただ、本発明はこの態様に限られず、これに代えて、あるいはこれに加えて、サーチモデルの傾斜角度や回転角度で姿勢を制限することもできる。これによって、ワークの実際の積まれ方に応じて三次元サーチの条件を適切に設定し、サーチの誤検出を減らすことが可能となる。このような傾斜角度及び回転角度による姿勢制限を行う傾斜角度・回転角度設定画面160の例を、実施形態6として図49に示す。この図に示す傾斜角度・回転角度設定画面160は、姿勢制限を行うサーチモデルを選択するための姿勢制限サーチモデル選択欄161、傾斜を許容する角度の上限を指定するための傾斜角度上限設定欄162、回転を許容する角度範囲を規定する回転角度範囲設定欄163を備えている。
(傾斜角度・回転角度設定画面160)
In the above, the example which restrict | limits the object of a three-dimensional search using an actual image instead of a numerical value was demonstrated. However, the present invention is not limited to this mode, and instead of this, or in addition to this, the posture can be limited by the inclination angle or rotation angle of the search model. This makes it possible to appropriately set the three-dimensional search conditions according to how the workpieces are actually stacked, and to reduce erroneous detection of the search. An example of an inclination angle / rotation angle setting screen 160 for performing posture restriction based on such an inclination angle and a rotation angle is shown in FIG. An inclination angle / rotation angle setting screen 160 shown in this figure includes an attitude restriction search model selection field 161 for selecting a search model for attitude restriction, and an inclination angle upper limit setting field for designating an upper limit of an angle allowing inclination. 162, a rotation angle range setting field 163 that defines an angle range in which rotation is allowed is provided.
(Inclination angle / rotation angle setting screen 160)

この傾斜角度・回転角度設定画面160では、ワークに対して三次元的な姿勢、例えば座標軸の回転角度を示すRX、RY、RZで指定するといった難解な方法ではなく、専門的知識がなくても理解が容易なパラメータとして、サーチモデルの登録時の姿勢からの「傾斜角度」、「回転角度」を用いて指定させる。ここでは、サーチモデルとして登録した基本方向画像を登録姿勢として、この状態からの傾斜角度と回転角度を指定していく(詳細は後述)。 The tilt angle / rotation angle setting screen 160 is not a difficult method of specifying a three-dimensional posture with respect to the workpiece, for example, R X , R Y , R Z indicating the rotation angle of the coordinate axes, but has specialized knowledge. As parameters that are easy to understand even if they are not specified, they are designated using “inclination angle” and “rotation angle” from the attitude at the time of registration of the search model. Here, the basic direction image registered as the search model is set as the registered posture, and the tilt angle and the rotation angle from this state are designated (details will be described later).

具体的に、図49の傾斜角度・回転角度設定画面160において、姿勢制限サーチモデル選択欄161では、姿勢制限を加える対象となるサーチモデルを選択する。図49の例では、図47のサーチモデル登録画面130Bで登録されたモデルAのサーチモデルを選択している。   Specifically, in the tilt angle / rotation angle setting screen 160 of FIG. 49, the search model to be subjected to posture restriction is selected in the posture restriction search model selection column 161. In the example of FIG. 49, the search model of model A registered on the search model registration screen 130B of FIG. 47 is selected.

また傾斜角度上限設定欄162では、登録時の姿勢に対して、何度以内の傾斜角度を三次元サーチの結果として出力するかを設定する。   In addition, the tilt angle upper limit setting column 162 sets how many tilt angles are output as a result of the three-dimensional search for the posture at the time of registration.

さらに回転角度範囲設定欄163では、基準角度と角度範囲を設定する。まず基準角度設定欄では、登録時の姿勢に対する回転角度を入力する。ここで設定した回転角度が、回転角度範囲を指定する際の基準角度となる。さらに範囲設定欄では、基準角度設定欄で設定した基準角度に対し、三次元サーチの結果として出力する回転角度範囲を設定する。
(傾斜角度・回転角度による姿勢制限方法)
Further, in the rotation angle range setting field 163, a reference angle and an angle range are set. First, in the reference angle setting field, the rotation angle with respect to the posture at the time of registration is input. The rotation angle set here becomes a reference angle for designating the rotation angle range. Further, in the range setting column, a rotation angle range output as a result of the three-dimensional search is set with respect to the reference angle set in the reference angle setting column.
(Attitude limit method by tilt angle and rotation angle)

ここで、サーチモデルの三次元上の姿勢から、傾斜角度、回転角度を求める方法について説明する。上述した三次元サーチにおいてサーチモデルとして登録する面を限定する方法では、自動的に姿勢制限が加わる形となる。一方で、サーチモデルとして登録した面に対して姿勢制限を加えるには、面で登録していることを利用する。   Here, a method for obtaining the tilt angle and the rotation angle from the three-dimensional posture of the search model will be described. In the above-described method for limiting the surfaces registered as search models in the three-dimensional search, posture restriction is automatically added. On the other hand, in order to apply a posture restriction to a surface registered as a search model, the fact that the surface is registered is used.

ここでは、登録した姿勢に対する「傾斜角度」と、登録した姿勢に対する真上から見た「回転角度」の2つの角度で姿勢制限を行う。この2つの角度であれば、概念としても判り易く、比較的簡単に角度制限を行うことができるようになる。
(傾斜角度)
Here, posture restriction is performed at two angles: an “inclination angle” with respect to the registered posture and a “rotation angle” viewed from directly above the registered posture. With these two angles, it is easy to understand as a concept and the angle can be limited relatively easily.
(Inclination angle)

まず傾斜角度は、図50A〜図50Cに示すように、サーチモデルとしての登録時のワークモデルの姿勢のZ鉛直方向に対する角度で規定される。図50Aはサーチモデル登録時のワークモデルWMRの姿勢及びこのワークモデルの鉛直方向として規定されたZ軸を示している。これに対して、入力画像として得られたワークWKIの姿勢、及びこのワークWKIの鉛直方向として規定されたZ’軸が図50Bに示すような状態であったとする。このような状態で、「傾斜角度」を図50Cに示すように、Z軸とZ’軸の傾斜角度、すなわちワークの鉛直方向の傾きと定義する。これによって、傾斜の方向に関係なく、サーチモデルの登録状態からの傾きという、一つの角度で表すことができる。また、ユーザにとっても概念としても把握し易い利点が得られる。
(回転角度)
First, as shown in FIGS. 50A to 50C, the inclination angle is defined by the angle of the posture of the work model at the time of registration as a search model with respect to the Z vertical direction. FIG. 50A shows the posture of the work model WMR when registering the search model and the Z axis defined as the vertical direction of the work model. In contrast, it is assumed that the posture of the workpiece WKI obtained as an input image and the Z ′ axis defined as the vertical direction of the workpiece WKI are in a state as shown in FIG. 50B. In such a state, as shown in FIG. 50C, the “tilt angle” is defined as the tilt angle between the Z axis and the Z ′ axis, that is, the tilt in the vertical direction of the workpiece. As a result, regardless of the direction of the inclination, it can be expressed by one angle, that is, the inclination from the registered state of the search model. Moreover, the advantage which is easy to grasp | ascertain also as a concept for a user is acquired.
(rotation angle)

一方回転角度は、登録時の鉛直方向すなわちZ軸から見たときの回転角で定義される。ここで回転角度を図51A〜図51Cに基づいて説明する。これらの図において、図51Aはサーチモデル登録時のワークモデルWMR、及びXY平面を規定するY軸を示している。これに対して入力画像として得られたワークWKIの姿勢及びXY平面を規定するY’軸が図51Bに示すような状態であったとする。このような状態で、図51Cに示すように「回転角度」を、鉛直方向すなわちZ軸から見た時の回転角と定義する。この例では、ワークモデルやワークを規定するY軸方向の座標軸を基準に、Z軸方向から見たY軸の角度でもって回転角度としている。このように規定することで、従来の二次元でのパターンサーチにおける角度と同じ概念として、ユーザにおいても把握し易い利点が得られる。   On the other hand, the rotation angle is defined by a vertical angle at the time of registration, that is, a rotation angle when viewed from the Z axis. Here, the rotation angle will be described with reference to FIGS. 51A to 51C. In these drawings, FIG. 51A shows a work model WMR at the time of registering a search model and a Y axis that defines an XY plane. On the other hand, it is assumed that the posture of the workpiece WKI obtained as an input image and the Y ′ axis that defines the XY plane are in a state as shown in FIG. 51B. In this state, as shown in FIG. 51C, the “rotation angle” is defined as the rotation angle when viewed from the vertical direction, that is, the Z axis. In this example, the rotation angle is defined by the angle of the Y axis viewed from the Z axis direction with reference to the coordinate axis in the Y axis direction that defines the workpiece model and the workpiece. By defining in this way, the same concept as the angle in the conventional two-dimensional pattern search has the advantage of being easily grasped by the user.

なお、ワークに対して原点及びXYZ軸を規定する手法は、既知のアルゴリズムが利用できる。例えば、図8で示したようにワークモデルや入力画像が有するワークの形状情報から、ワークに外接する図形、例えば直方体や球を演算し、その重心を演算してこれをワークの原点とし、XYZ軸を規定する。XYZ軸の規定方法は、CADデータを用いる場合、元のCADデータの座標軸の方向をそのまま各XYZ軸の方向として用いれば良い。実際にワークを3D撮像した実測データを用いる場合は、実測データの鉛直方向をZ軸とし、Y軸については実測データの平面視の上方向とし、X軸については実測データの平面視の右方向とすれば良い。原点については、ワークモデルの重心や、CADデータの中心座標を原点としてもよい。
(三次元姿勢から傾斜角度と回転角度を求める手順)
A known algorithm can be used as a method for defining the origin and the XYZ axes with respect to the workpiece. For example, as shown in FIG. 8, a figure circumscribing the workpiece, such as a rectangular parallelepiped or a sphere, is calculated from the workpiece shape information of the workpiece model or the input image, the center of gravity is calculated, and this is used as the workpiece origin, XYZ Define the axis. In the method of defining the XYZ axes, when CAD data is used, the direction of the coordinate axes of the original CAD data may be used as it is as the direction of each XYZ axis. When actually measured data obtained by 3D imaging of the workpiece is used, the vertical direction of the measured data is the Z axis, the Y axis is the upward direction of the measured data in plan view, and the X axis is the right direction of the measured data in plan view. What should I do? As for the origin, the center of gravity of the work model or the center coordinates of the CAD data may be used as the origin.
(Procedure for obtaining the tilt angle and rotation angle from the 3D posture)

ここで、三次元姿勢から傾斜角度と回転角度を求める手順を、図52のフローチャートに基づいて説明する。まずステップS5201において、傾斜角度を求める。例えば図53Aに示すような状態の登録時のワークモデルWMRに対して、入力画像として得られたワークWKIの姿勢が図53Bのようであった場合は、図53Cに示すようにZ軸の鉛直方向の傾きとして傾斜角度を求める。   Here, a procedure for obtaining the tilt angle and the rotation angle from the three-dimensional posture will be described based on the flowchart of FIG. First, in step S5201, an inclination angle is obtained. For example, if the posture of the work WKI obtained as an input image is as shown in FIG. 53B with respect to the work model WMR at the time of registration in the state shown in FIG. 53A, the Z-axis vertical as shown in FIG. 53C The inclination angle is obtained as the inclination of the direction.

次にステップS5202において、Z’軸をZ軸に一致させるように、入力画像を三次元的に回転させる。いいかえると、傾斜を無くす。例えば図53Cの入力画像WKIに対して、図54Aに示すようにZ’軸のベクトルとZ軸のベクトルとの外積ベクトルVPを回転軸として、Z’軸がZ軸と重なるように回転させる。この結果、図54Bのように回転された入力画像WKI’が得られ、傾斜が取り除かれた状態となる。   Next, in step S5202, the input image is three-dimensionally rotated so that the Z ′ axis coincides with the Z axis. In other words, it eliminates the slope. For example, the input image WKI in FIG. 53C is rotated so that the Z′-axis overlaps the Z-axis with the outer product vector VP of the Z′-axis vector and the Z-axis vector as the rotation axis as shown in FIG. 54A. As a result, the rotated input image WKI ′ is obtained as shown in FIG. 54B, and the inclination is removed.

最後にステップS5203において、回転角度を求める。例えば図55Aに示す登録時のワークモデルWMRのY軸と、図55Bに示すように傾斜を除いた状態の入力画像WKI’のY’軸を、それぞれ求める。この状態で、図55Cに示すように、鉛直方向すなわちZ軸から見た時のY軸とY’軸の角度を、回転角度として求める。このようにして、入力画像の三次元姿勢から傾斜角度と回転角度を求めることができる。
(傾斜角度の上限の設定)
Finally, in step S5203, the rotation angle is obtained. For example, the Y axis of the work model WMR at the time of registration shown in FIG. 55A and the Y ′ axis of the input image WKI ′ with the inclination removed as shown in FIG. 55B are obtained. In this state, as shown in FIG. 55C, the angle between the Y axis and the Y ′ axis when viewed from the vertical direction, that is, the Z axis is obtained as the rotation angle. In this way, the tilt angle and the rotation angle can be obtained from the three-dimensional posture of the input image.
(Setting the upper limit of tilt angle)

図49の傾斜角度・回転角度設定画面160で傾斜角度上限を設定する例として、例えば光沢の強い金属ワークの場合は、面が傾斜するにつれて、三次元計測ができない範囲が増えてくる。このような状態で三次元サーチを行うと、三次元サーチが誤検出となるリスクが高まる。そこで、この誤検出のリスクのある一定以上傾き過ぎた姿勢を三次元サーチの対象から除外することで、信頼性の高いサーチ結果のみを残すことが可能となる。例えば、40度以上傾くと、誤検出し易くなるワークに対しては、傾斜角度上限を40度に設定することで、40度以上傾くサーチ結果を除外することができる。
(回転角度範囲の上限の設定)
As an example of setting the upper limit of the tilt angle on the tilt angle / rotation angle setting screen 160 of FIG. 49, for example, in the case of a highly glossy metal workpiece, the range in which three-dimensional measurement cannot be performed increases as the surface tilts. If a three-dimensional search is performed in such a state, the risk that the three-dimensional search is erroneously detected increases. Therefore, by excluding a posture that is tilted more than a certain level with a risk of erroneous detection from the target of the three-dimensional search, it becomes possible to leave only a highly reliable search result. For example, for a workpiece that is easily misdetected when tilted by 40 degrees or more, the search result tilted by 40 degrees or more can be excluded by setting the tilt angle upper limit to 40 degrees.
(Setting the upper limit of the rotation angle range)

一方、図49の傾斜角度・回転角度設定画面160で回転角度範囲を設定する例として、例えば上述した図47のモデルAやモデルBは、180度回転した状態でも、全体の形状特徴が似ている部分が多いため、多重反射等の影響で三次元計測できていない箇所が増えると、回転姿勢を180度誤るケースが生じ得る。また、実際のワークの積まれ方として、一定の向きしか生じない場合には、この姿勢制限を用いることで、逆向きの結果を排除することができる。例えば、回転角度範囲を、基準角度に対し±30度に設定した場合は、この角度範囲内のサーチ結果のみが検出される形になる。
(エンドエフェクタ取付位置設定画面170)
On the other hand, as an example of setting the rotation angle range on the tilt angle / rotation angle setting screen 160 of FIG. 49, for example, the above-described model A and model B of FIG. Since there are many portions, if the number of places where three-dimensional measurement cannot be performed due to the influence of multiple reflection or the like increases, there may occur a case where the rotational posture is erroneous by 180 degrees. Moreover, when only a certain direction occurs as the actual work stacking method, the result of the reverse direction can be eliminated by using this posture restriction. For example, when the rotation angle range is set to ± 30 degrees with respect to the reference angle, only search results within this angle range are detected.
(End effector mounting position setting screen 170)

以上のオイラー角を用いた位置及び姿勢の規定方法は、ワークモデルをエンドエフェクタモデルで把持する位置及び姿勢の規定のみならず、エンドエフェクタをロボットのアーム部先端に取り付ける位置の規定においても利用できる。ここで、エンドエフェクタを、ロボットのアーム部の先端に取り付ける位置を設定する手順について説明する。このようなエンドエフェクタの取り付け位置の設定は、図56に示すようなエンドエフェクタ取付位置設定画面170で行う。この図に示すエンドエフェクタ取付位置設定画面170は、画像表示欄141と、操作欄142を備えている。画像表示欄141には、エンドエフェクタモデルを表示させる。エンドエフェクタモデルは、予め作成された三次元CADデータを読み込む。あるいは、エンドエフェクタを模して直方体や円柱などの基本図形で構成して、表示させてもよい。   The above-described method for defining the position and orientation using the Euler angles can be used not only for defining the position and orientation for gripping the work model with the end effector model, but also for defining the position for attaching the end effector to the tip of the robot arm. . Here, a procedure for setting the position where the end effector is attached to the tip of the arm portion of the robot will be described. Such an end effector mounting position is set on an end effector mounting position setting screen 170 as shown in FIG. The end effector attachment position setting screen 170 shown in this figure includes an image display field 141 and an operation field 142. In the image display column 141, an end effector model is displayed. The end effector model reads three-dimensional CAD data created in advance. Alternatively, it may be configured by displaying a basic figure such as a rectangular parallelepiped or a cylinder by imitating an end effector and displayed.

操作欄142には、アーム部の先端に装着されるエンドエフェクタの取付位置を規定するエンドエフェクタ取付位置設定欄171を設けている。エンドエフェクタ取付位置設定欄171で設定するエンドエフェクタ取付位置パラメータは、エンドエフェクタモデルの取付位置(X,Y,Z)と取付姿勢(RX,RY,RZ)である。例えば、アーム部先端のフランジ面FLSの中心に対して、オイラー角を用いて規定する。 The operation field 142 is provided with an end effector attachment position setting field 171 that defines the attachment position of the end effector attached to the tip of the arm part. The end effector attachment position parameters set in the end effector attachment position setting field 171 are the attachment position (X, Y, Z) and the attachment posture (R X , R Y , R Z ) of the end effector model. For example, the Euler angle is defined with respect to the center of the flange surface FLS at the tip of the arm portion.

なお、上述した図14等で示したワークモデルの把持位置の登録画面では、ワークモデルを把持するエンドエフェクタモデルの部位(例えば先端に設けられた一対の爪部)と、把持するワークとの位置関係を登録している。これに対し、エンドエフェクタ取付位置設定画面170では、エンドエフェクタモデルをアーム部の先端に装着する取付位置を登録している。よって、ワークモデル等の表示は不要で、画像表示欄141には、エンドエフェクタモデルとフランジ面FLSが表示される。
(把持位置指定画面180)
In the work model gripping position registration screen shown in FIG. 14 and the like described above, the position of the end effector model part gripping the work model (for example, a pair of claws provided at the tip) and the work gripping position. The relationship is registered. On the other hand, on the end effector attachment position setting screen 170, the attachment position at which the end effector model is attached to the tip of the arm part is registered. Therefore, the display of the work model or the like is not necessary, and the end effector model and the flange surface FLS are displayed in the image display column 141.
(Gripping position designation screen 180)

これに対して、ワークモデルの把持位置を指定する把持位置指定画面180では、図57に示すように、エンドエフェクタモデルとワークモデルを表示させて、ワークモデルを把持する箇所を指定する。この図に示す把持位置指定画面180は、画像表示欄141と操作欄142を設けており、画像表示欄141には、把持対象のワークを選択して、このワークを把持する面を上面に向けた姿勢で三次元状に画像を描画して表示させる。さらにエンドエフェクタモデルを表示させて、ワークモデルを把持する位置及び姿勢に調整する。操作欄142には、把持位置を指定する把持位置指定欄181が設けられる。ユーザはワークモデルとエンドエフェクタモデルとの相対関係が正しくなるよう、把持位置指定欄181から位置パラメータを調整する。あるいは、画像表示欄141で表示されるエンドエフェクタモデルやワークモデルをドラッグするなどして、画面上で位置や姿勢を調整する。画面上で調整された位置パラメータは、把持位置指定欄181に反映される。この把持位置指定欄181での位置パラメータの表記も、上述したオイラー角を用いることができる。(複数把持位置選択画面190)   On the other hand, on the gripping position designation screen 180 for designating the gripping position of the work model, the end effector model and the work model are displayed as shown in FIG. The gripping position designation screen 180 shown in this figure is provided with an image display field 141 and an operation field 142. In the image display field 141, a workpiece to be gripped is selected and the surface for gripping the workpiece is directed upward. The image is drawn and displayed in a three-dimensional shape with the selected posture. Further, the end effector model is displayed and adjusted to the position and posture for gripping the work model. The operation field 142 is provided with a grip position designation field 181 for designating a grip position. The user adjusts the position parameter from the gripping position designation column 181 so that the relative relationship between the work model and the end effector model is correct. Alternatively, the position and orientation are adjusted on the screen by dragging the end effector model or work model displayed in the image display field 141. The position parameter adjusted on the screen is reflected in the gripping position designation field 181. The Euler angles described above can also be used for the position parameter notation in the gripping position designation field 181. (Multiple gripping position selection screen 190)

さらに、把持位置の登録は一のワークの一の面(例えば基本方向画像)に対して一箇所に限られず、上述の通り複数箇所を指定することができる。また、複数箇所で登録された把持位置を、画像で確認することもできる。例えば図58に、複数把持位置選択画面190の一例を示す。この複数把持位置選択画面190も、画像表示欄141と、操作欄142を備えている。操作欄142には、把持位置を規定したワークモデルの面を選択する面選択欄191と、面選択欄191で選択された面に設定された把持位置を一覧表示する把持位置一覧表示192が設けられる。この例では、面選択欄191で面Cが選択され、この面Cに設定された把持位置として把持1〜3が、把持位置一覧表示192に一覧表示されている。この内、把持2を選択すると、これに応じて画像表示欄141において、把持2で登録された把持位置、姿勢で、エンドエフェクタモデルがワークモデルを把持する様子が表示される。このようにしてユーザは、登録済みの複数の把持位置を選択して確認することができる。また、必要に応じて登録済みの把持位置を修正して、更新することもできる。ここでも、上述したオイラー角を用いて把持姿勢を表示させることができる。このようにして、オイラー角を用いた登録を行いつつも、ユーザ側においては、難解なオイラー角の概念を詳細に理解せずとも、視覚的に判り易く表示させ、かつ回転軸も補正して表示させ、さらにガイダンス機能により調整可能なパラメータを制限することで、混乱を少なくして設定作業を進めることが可能となる。
(エンドエフェクタ取付位置の較正機能)
Furthermore, the registration of the gripping position is not limited to one place with respect to one surface (for example, the basic direction image) of one work, and a plurality of places can be designated as described above. Also, the gripping positions registered at a plurality of locations can be confirmed with images. For example, FIG. 58 shows an example of the multiple gripping position selection screen 190. The multiple gripping position selection screen 190 also includes an image display field 141 and an operation field 142. The operation field 142 is provided with a surface selection field 191 for selecting a surface of the work model defining the gripping position, and a gripping position list display 192 for displaying a list of gripping positions set on the surface selected in the surface selection field 191. It is done. In this example, the surface C is selected in the surface selection field 191, and grips 1 to 3 are displayed as a list in the gripping position list display 192 as gripping positions set for the surface C. When grip 2 is selected, a state in which the end effector model grips the work model at the grip position and posture registered by grip 2 is displayed in the image display field 141 accordingly. In this way, the user can select and confirm a plurality of registered gripping positions. Further, the registered gripping position can be corrected and updated as necessary. Again, the gripping posture can be displayed using the Euler angles described above. In this way, while performing registration using the Euler angle, the user side can visually display and correct the rotation axis without having to understand the concept of the difficult Euler angle in detail. By limiting the parameters that can be displayed and adjusted by the guidance function, the setting operation can be performed with less confusion.
(End effector mounting position calibration function)

上述の通り、エンドエフェクタは、ロボットのアーム部の先端に取り付けられる。一方、上述した把持位置の登録(ティーチング)や、登録された位置及び姿勢でエンドエフェクタモデルがワークモデルを把持できるかどうかの把持判定(シミュレーション)等は、実際のエンドエフェクタでなく、画像処理装置側(ロボットビジョン側)の仮想三次元空間上で行われている。そして仮想三次元空間であるビジョン空間の座標位置から、実空間であるロボット空間の座標位置への変換は、図17のキャリブレーション部8wで得られたキャリブレーション情報に基づいて、変換部8xによって行われている。   As described above, the end effector is attached to the tip of the arm portion of the robot. On the other hand, the above-described registration (teaching) of the gripping position, gripping determination (simulation) of whether or not the end effector model can grip the workpiece model at the registered position and orientation, and the like are not actual end effectors but image processing apparatuses. On the virtual three-dimensional space on the side (robot vision side). Then, the conversion from the coordinate position of the vision space, which is a virtual three-dimensional space, to the coordinate position of the robot space, which is a real space, is performed by the conversion unit 8x based on the calibration information obtained by the calibration unit 8w of FIG. Has been done.

しかしながら、画像処理装置側で仮想的に設定しているエンドエフェクタモデルの取付状態と、実際のロボットRBTのエンドエフェクタEETの取付状態が異なると、キャリブレーション情報で規定されたビジョン空間とロボット空間との対応関係が維持されなくなり、実際のロボットRBTを使ってワークを把持しようとする際に、ずれが生じてしまう。   However, if the attachment state of the end effector model virtually set on the image processing apparatus side is different from the attachment state of the actual end effector EET of the robot RBT, the vision space and the robot space defined by the calibration information Is not maintained, and a shift occurs when an actual robot RBT is used to grip a workpiece.

ここで、エンドエフェクタモデルとフランジ面FLSの位置関係を図59に示す。この図において、ロボットのアーム部の先端のフランジ面FLSの原点OFと、エンドエフェクタモデルEEMの位置として、エンドエフェクタモデルEEMの中心OEを、それぞれ示している。このエンドエフェクタモデルEEMの位置は、画像処理装置側では、ロボットのアーム部先端のフランジ面FLSに対する、位置(X,Y,Z)、姿勢(RX,RY,RZ)として設定されている。すなわち、図59の例ではフランジ面FLSの原点OFから見た、エンドエフェクタモデルEEMの中心OEの、位置(X,Y,Z)と姿勢(RX,RY,RZ)が設定されている。ここで、エンドエフェクタの実際の取付状態に誤差が生じると、フランジ面FLSの原点に対するエンドエフェクタモデルEEMの位置にずれが生じ得る。この結果、エンドエフェクタの取付状態に起因して、画像処理装置側とロボット側とで、ずれた位置で把持を行ってしまうことになる。 Here, FIG. 59 shows the positional relationship between the end effector model and the flange surface FLS. In this figure, the origin O F flange face FLS of the tip of the arm of the robot, as the position of the end effector model EEM, the center O E of the end effector model EEM, respectively show. The position of the end effector model EEM is set as a position (X, Y, Z) and posture (R X , R Y , R Z ) with respect to the flange surface FLS at the tip of the robot arm on the image processing apparatus side. Yes. That is, in the example of FIG. 59 as viewed from the origin O F flange face FLS, the center O E of the end effector model EEM, position (X, Y, Z) and attitude (R X, R Y, R Z) is set Has been. Here, if an error occurs in the actual mounting state of the end effector, the position of the end effector model EEM with respect to the origin of the flange surface FLS may be displaced. As a result, due to the attachment state of the end effector, the image processing apparatus side and the robot side are gripped at the shifted positions.

そこで本実施形態においては、このようなずれや誤差が生じないように、実際のエンドエフェクタの取付状態を、画像処理装置側に反映させるエンドエフェクタ取付位置の較正機能を備えている。エンドエフェクタ取付位置の較正機能は、図17に示したエンドエフェクタ取付位置較正部8yで行われる。具体的には、ワークの把持位置の登録や、エンドエフェクタを配置したときの干渉判定に用いたエンドエフェクタモデルである、エンドエフェクタの三次元形状を仮想的に表現した三次元CADデータを使って、実際のエンドエフェクタを撮像して三次元計測した実測データに対し、三次元サーチを行い、実際の取付位置の位置及び姿勢を取得することで、このような誤差を検出して、画像処理装置側のエンドエフェクタの取付位置の設定を較正する。このように、実際のエンドエフェクタを三次元計測した点群と、画像処理装置側で仮想三次元空間上で規定したエンドエフェクタモデルの取付状態とのずれを、ユーザが表示部の画像表示領域上で確認しながら手動で調整することができる。
(ずれの自動補正の手順)
Therefore, in the present embodiment, an end effector attachment position calibration function for reflecting the actual attachment state of the end effector on the image processing apparatus side is provided so that such deviation and error do not occur. The end effector mounting position calibration function is performed by the end effector mounting position calibration unit 8y shown in FIG. Specifically, using 3D CAD data that virtually represents the 3D shape of the end effector, which is the end effector model used for registering the gripping position of the workpiece and determining the interference when the end effector is placed. The image processing apparatus detects such an error by performing a three-dimensional search on actual measurement data obtained by imaging an actual end effector and performing three-dimensional measurement, and acquiring the position and orientation of the actual mounting position. Calibrate the side end effector mounting position setting. As described above, the deviation between the point group obtained by measuring the actual end effector three-dimensionally and the attachment state of the end effector model defined in the virtual three-dimensional space on the image processing apparatus side is displayed on the image display area of the display unit. You can adjust manually while checking.
(Automatic correction procedure)

ここで、実際のエンドエフェクタと、三次元CADデータ等で構成されたエンドエフェクタモデルとの誤差を自動で補正する較正機能について、図60のフローチャートに基づいて説明する。なお、予め仮想空間であるビジョン空間の座標位置を、実空間であるロボット空間の座標位置に変換するキャリブレーションを、図17に示したキャリブレーション部8wで実行し、キャリブレーション情報を記憶部9に把持しているものとする。さらに、エンドエフェクタモデルも三次元CADデータとして用意されているものとする。
(エンドエフェクタ撮像画面330)
Here, a calibration function for automatically correcting an error between an actual end effector and an end effector model constituted by three-dimensional CAD data or the like will be described based on the flowchart of FIG. Note that calibration for converting the coordinate position of the vision space, which is the virtual space, into the coordinate position of the robot space, which is the real space, is executed in advance by the calibration unit 8w shown in FIG. 17, and the calibration information is stored in the storage unit 9 It is assumed that Furthermore, it is assumed that an end effector model is also prepared as three-dimensional CAD data.
(End effector imaging screen 330)

まずステップS6001において、センサ部で実際のエンドエフェクタを撮像するための準備を行う。具体的には、センサ部の一形態である三次元カメラにエンドエフェクタが映るように、ロボットを操作してエンドエフェクタを移動させる。次にステップS6002において、エンドエフェクタに対し三次元計測を実施する。   First, in step S6001, preparation for imaging an actual end effector by the sensor unit is performed. Specifically, the end effector is moved by operating the robot so that the end effector is reflected in a three-dimensional camera that is a form of the sensor unit. Next, in step S6002, three-dimensional measurement is performed on the end effector.

このような、センサ部で実際のエンドエフェクタを撮像するためのエンドエフェクタ撮像部の一態様として、例えば、図61に示すエンドエフェクタ撮像画面330を利用する。このエンドエフェクタ撮像画面330は、画像表示欄141と、操作欄142を設けている。画像表示欄141にはセンサ部2で撮像されたアーム部ARM先端のフランジ部に取り付けられたエンドエフェクタEETがリアルタイムで表示される。また操作欄142には、エンドエフェクタEETの位置及び姿勢を示すエンドエフェクタ位置指定欄331が設けられる。このエンドエフェクタ撮像画面330から、センサ部を構成するカメラにロボットのエンドエフェクタEETが映るように、ユーザが手動でロボットを操作する。このとき、撮像の対象となるのはワークを把持するエンドエフェクタEETの爪部でなく、アーム部との取付状態である。よってエンドエフェクタEETの面積が大きくなるように撮像することが望ましい。好ましくは、エンドエフェクタEETを、通常のワークを把持し易い下向きの姿勢から、横向きの姿勢として、全体像がカメラに映るようにする。このようにして、ユーザはエンドエフェクタEETの姿勢を位置決めした後、「撮像」ボタン332を押下する。これにより、エンドエフェクタの三次元撮像画像が取得される。いいかえると、エンドエフェクタに対し三次元計測が実施される。   For example, an end effector imaging screen 330 illustrated in FIG. 61 is used as one aspect of the end effector imaging unit for imaging an actual end effector with the sensor unit. The end effector imaging screen 330 is provided with an image display field 141 and an operation field 142. In the image display field 141, the end effector EET attached to the flange part at the tip of the arm part ARM imaged by the sensor part 2 is displayed in real time. The operation field 142 is provided with an end effector position designation field 331 indicating the position and posture of the end effector EET. From this end effector imaging screen 330, the user manually operates the robot so that the end effector EET of the robot is reflected on the camera constituting the sensor unit. At this time, what is to be imaged is not the claw portion of the end effector EET that holds the workpiece but the attachment state with the arm portion. Therefore, it is desirable to image so that the area of the end effector EET is large. Preferably, the end effector EET is changed from a downward posture in which a normal workpiece is easily gripped to a horizontal posture so that the whole image is reflected on the camera. In this way, after positioning the posture of the end effector EET, the user presses the “imaging” button 332. Thereby, the three-dimensional captured image of the end effector is acquired. In other words, three-dimensional measurement is performed on the end effector.

次にステップS6003において、ロボット座標系のフランジ部の位置姿勢Aを取得する。ここでロボット座標系の位置姿勢Aは、例えば撮像したエンドエフェクタが取り付けられているフランジ部FLSの、ロボット座標系の位置及び姿勢とする。なお、ステップS6003とステップS6002の工程の順序は、入れ替えてもよい。   Next, in step S6003, the position / orientation A of the flange portion of the robot coordinate system is acquired. Here, the position and orientation A in the robot coordinate system is, for example, the position and orientation in the robot coordinate system of the flange portion FLS to which the captured end effector is attached. Note that the order of steps S6003 and S6002 may be interchanged.

さらにステップS6004において、ロボット座標系のフランジ部の位置姿勢Aをビジョン空間上の位置姿勢Bに変換する。ここでは、予めキャリブレーションを実行して得られたロボット空間とビジョン空間との座標変換を行うキャリブレーション情報に基づいて、図17の変換部8xが実空間と仮想空間との変換を行う。   In step S6004, the position and orientation A of the flange portion of the robot coordinate system is converted into a position and orientation B in the vision space. Here, based on the calibration information for performing coordinate conversion between the robot space and the vision space obtained by executing calibration in advance, the conversion unit 8x in FIG. 17 performs conversion between the real space and the virtual space.

さらにステップS6005において、三次元サーチを実施し、ビジョン空間上のエンドエフェクタの位置姿勢Cを検出する。ここでは、エンドエフェクタモデルに使用したCADデータをサーチモデルとして、ステップS6002で得た三次元計測データに対して三次元サーチを実施する。三次元サーチの方法は、既知のアルゴリズムを適宜利用できる。これにより、ビジョン空間上のエンドエフェクタの位置及び姿勢が検出される。   In step S6005, a three-dimensional search is performed to detect the position and orientation C of the end effector in the vision space. Here, the CAD data used for the end effector model is used as a search model, and the three-dimensional search is performed on the three-dimensional measurement data obtained in step S6002. As the three-dimensional search method, a known algorithm can be used as appropriate. Thereby, the position and posture of the end effector in the vision space are detected.

さらにステップS6006において、ビジョン空間上のフランジ部FLSの位置姿勢Bに対するエンドエフェクタの位置姿勢Cの相対的な位置姿勢を算出する。ここで得られた座標位置が、フランジ部FLSに対する正確な、いいかえると位置ずれ等を考慮したエンドエフェクタモデルの位置及び姿勢となる。   In step S6006, the relative position and orientation of the end effector position and orientation C with respect to the position and orientation B of the flange portion FLS in the vision space are calculated. The coordinate position obtained here becomes the position and posture of the end effector model with respect to the flange portion FLS, in other words, taking into account the positional deviation and the like.

最後にステップS6007において、得られた位置及び姿勢をビジョン側のエンドエフェクタ設定に反映する。すなわち、ビジョン側のエンドエフェクタモデルの位置及び姿勢の設定に反映する。このようにして、実際のエンドエフェクタの取付状態を、ビジョン側に自動反映することができる。
(ずれの手動補正の手順)
Finally, in step S6007, the obtained position and orientation are reflected in the end effector settings on the vision side. That is, it is reflected in the setting of the position and orientation of the vision-side end effector model. In this way, the actual end effector mounting state can be automatically reflected on the vision side.
(Procedure for manual correction of displacement)

以上は、ロボット空間とビジョン空間のずれを自動で補正する手順について説明した。ただ、本発明はずれの補正を自動で行う構成に限られず、手動で行わせることもできる。次に、手動でずれ補正を行う手順について、図150のフローチャートに基づいて説明する。ここで、ステップS1501〜ステップS1504においては、上述した自動補正に係る図60のステップS6001〜S6004の手順と同じであり、詳細説明を省略する。すなわち、ステップS1501において、三次元カメラにロボットのエンドエフェクタが映るようロボットを操作し、ステップS1502において、エンドエフェクタに対し三次元計測の実施し、ステップS1503において、ロボット座標系のフランジ部の位置姿勢Aを取得し、ステップS1504において、ロボット座標系のフランジ部の位置姿勢Aをビジョン空間上の位置姿勢Bに変換する。   The procedure for automatically correcting the deviation between the robot space and the vision space has been described above. However, the present invention is not limited to the configuration in which the shift correction is automatically performed, and can be manually performed. Next, the procedure for manually performing the correction of deviation will be described based on the flowchart of FIG. Here, steps S1501 to S1504 are the same as the steps S6001 to S6004 of FIG. 60 relating to the automatic correction described above, and detailed description thereof is omitted. That is, in step S1501, the robot is operated so that the end effector of the robot is reflected on the three-dimensional camera. In step S1502, three-dimensional measurement is performed on the end effector. In step S1503, the position and orientation of the flange portion of the robot coordinate system are measured. A is acquired, and in step S1504, the position and orientation A of the flange portion of the robot coordinate system is converted into a position and orientation B in the vision space.

次にステップS1505において、ビジョン空間上のフランジ部の位置姿勢Bから、エンドエフェクタ設定に基づいてエンドエフェクタの位置姿勢Dを算出する。ここでは、ビジョン空間上のロボットの先端であるフランジ部の位置姿勢Bと、エンドエフェクタ設定に設定されたフランジ部に対するエンドエフェクタの位置姿勢の情報から、エンドエフェクタの位置姿勢Dを求める。   In step S1505, the position and orientation D of the end effector are calculated from the position and orientation B of the flange portion in the vision space based on the end effector settings. Here, the position / posture D of the end effector is obtained from the position / posture B of the flange that is the tip of the robot in the vision space and the position / posture of the end effector with respect to the flange set in the end effector setting.

次にステップS1506において、三次元計測された点群と、エンドエフェクタの位置姿勢DのCAD表示を重畳表示させる。ここでは、ステップS1505で求めたエンドエフェクタの位置姿勢Dの位置に、エンドエフェクタの三次元CADデータであるエンドエフェクタモデルEEMを表示させると共に、実際のエンドエフェクタについて三次元計測して得られた点群PCを重畳表示させる。このような重畳表示をさせた、ずれ補正画面の例を、図151及び図152に示す。   In step S1506, the CAD display of the point group measured in three dimensions and the position and orientation D of the end effector are displayed in a superimposed manner. Here, the end effector model EEM, which is the three-dimensional CAD data of the end effector, is displayed at the position of the position and orientation D of the end effector obtained in step S1505, and the points obtained by three-dimensional measurement of the actual end effector The group PC is displayed in a superimposed manner. 151 and 152 show examples of deviation correction screens that are displayed in such a superimposed manner.

そしてステップS1507において、点群とCAD表示との間に、無視できないずれがあるか否かを判定する。無視できないずれがある場合は、ステップS1508に進み、ずれを補正するようにエンドエフェクタ設定を変更して、ステップS1505に戻って上述した処理を繰り返す。このエンドエフェクタ設定は、フランジ部に対するエンドエフェクタの位置及び姿勢を含む。一方、ずれがない場合は、処理を終了する。
(ずれ補正部)
In step S1507, it is determined whether there is a non-negligible shift between the point cloud and the CAD display. If there is a deviation that cannot be ignored, the process proceeds to step S1508, the end effector setting is changed so as to correct the deviation, and the process returns to step S1505 to repeat the above-described processing. This end effector setting includes the position and posture of the end effector with respect to the flange portion. On the other hand, if there is no deviation, the process is terminated.
(Deviation correction part)

このようなずれ補正を行うずれ補正部の一態様として、ずれ補正画面の例を図151及びcに示す。これらの図において、図151は、無視できないずれが存在する場合を示している。この図に示すずれ補正画面840は、画像表示欄141に、エンドエフェクタモデルEEMに点群PCを重畳表示させている。この図に示すように、白点で示す、実際にエンドエフェクタを三次元計測した点群PCが、エンドエフェクタモデルEEMよりも左斜め下方向にずれている状態が確認できる。   As an example of a deviation correction unit that performs such deviation correction, examples of a deviation correction screen are shown in FIGS. 151 and c. In these figures, FIG. 151 shows a case where there is a shift that cannot be ignored. In the deviation correction screen 840 shown in this figure, the point cloud PC is superimposed and displayed on the end effector model EEM in the image display field 141. As shown in this figure, it can be confirmed that the point group PC, which is indicated by a white dot and actually measured in three dimensions with the end effector, is shifted in the diagonally lower left direction from the end effector model EEM.

また操作欄142には、エンドエフェクタ設定欄841が設けられており、フランジ部に対するエンドエフェクタの位置(X、Y、Z)と姿勢(RX、RY、RZ)を規定する。ここでは、図において右側に示す長い方のXYZの座標軸が、ロボット先端であるフランジ部FLSの原点OFを示している。また左側に示す短い方のXYZの座標軸が、ロボット先端(フランジ部)に対する、エンドエフェクタモデルEEMの三次元CADデータの原点OEを表している。ユーザは、画像表示欄141に表示されたエンドエフェクタモデルEEMと点群PCを確認しながら、エンドエフェクタモデルEEMの位置及び姿勢を調整する。例えば操作欄142のエンドエフェクタ設定欄841で、エンドエフェクタモデルEEMの位置姿勢を数値で指定したり、画像表示欄141上でエンドエフェクタモデルEEMをドラッグして移動させる等して、エンドエフェクタモデルEEMが点群PCと重なるように調整する。 The operation field 142 is provided with an end effector setting field 841 that defines the position (X, Y, Z) and posture (R X , R Y , R Z ) of the end effector with respect to the flange portion. Here, the coordinate axis of the longer XYZ shown on the right in figure shows the origin O F of the flange portion FLS is robot tip. The coordinate axes of the shorter XYZ shown in the left side, represents with respect to the robot distal (flange portion), the origin O E of the three-dimensional CAD data of the end effector model EEM. The user adjusts the position and orientation of the end effector model EEM while confirming the end effector model EEM and the point cloud PC displayed in the image display field 141. For example, the end effector model EEM is designated by numerically specifying the position and orientation of the end effector model EEM in the operation field 142 or by dragging and moving the end effector model EEM on the image display field 141. Is adjusted to overlap with the point cloud PC.

このようにしてエンドエフェクタモデルEEMを点群PCと合致させた例を、図152に示す。この例では、エンドエフェクタ設定欄841において、Z方向の位置を90mmに設定して、Z方向にエンドエフェクタモデルEEMをオフセットさせることで合致させている。エンドエフェクタモデルの位置及び姿勢が調整された後、「OK」ボタン842を押下すると、エンドエフェクタ設定が更新される。これにより、実際のエンドエフェクタの取付状態に応じて、ビジョン側の位置姿勢を調整できる。   FIG. 152 shows an example in which the end effector model EEM is matched with the point group PC in this way. In this example, in the end effector setting field 841, the position in the Z direction is set to 90 mm, and the end effector model EEM is offset in the Z direction to match. When the “OK” button 842 is pressed after the position and orientation of the end effector model are adjusted, the end effector settings are updated. Thereby, the position and orientation on the vision side can be adjusted according to the actual attachment state of the end effector.

さらに、上述したずれの手動補正を、自動補正と組み合わせて行うことも可能である。このような例を図153のずれ補正画面850に基づいて説明する。この図に示すずれ補正画面850は、操作欄142に、手動でエンドエフェクタモデルEEMの位置姿勢を調整するためのエンドエフェクタ設定欄841を設けると共に、下段に「自動補正」ボタン843を設けている。この「自動補正」ボタン843を押下すると、内部的に三次元サーチが実行されて、自動でエンドエフェクタモデルEEMの位置姿勢が点群PCと一致するように補正される。例えば、画像表示欄141で重畳表示させたエンドエフェクタモデルEEMと点群PCの状態を確認しながら、ずれの自動補正を実行したり、自動補正結果を手動で微調整することができる。特に、エンドエフェクタに光沢の強い金属を使っており、反射光によって点群PCが正確に検出されないことなどから自動補正がうまく機能できない場合、例えば三次元サーチに失敗する場合などには、手動による調整で対応できる。このようにして、ユーザが手動で、ロボット空間とビジョン空間のずれを補正することが可能となる。   Furthermore, the above-described manual correction of deviation can be performed in combination with automatic correction. Such an example will be described based on the deviation correction screen 850 of FIG. In the deviation correction screen 850 shown in this figure, an end effector setting field 841 for manually adjusting the position and orientation of the end effector model EEM is provided in the operation field 142, and an “automatic correction” button 843 is provided in the lower stage. . When this “automatic correction” button 843 is pressed, a three-dimensional search is executed internally, and the position and orientation of the end effector model EEM are automatically corrected to coincide with the point group PC. For example, while confirming the state of the end effector model EEM and the point cloud PC superimposed and displayed in the image display column 141, automatic deviation correction can be executed, or the automatic correction result can be finely adjusted manually. In particular, when the end effector is made of a highly glossy metal and the point cloud PC cannot be accurately detected by reflected light, etc., and automatic correction cannot be performed well, for example, when a three-dimensional search fails, manual Can be accommodated by adjustment. In this way, the user can manually correct the deviation between the robot space and the vision space.

従来、フランジ部とエンドエフェクタの取付部分に、例えば実際にはコネクタのような取り付け用の部材が組み付けられているにもかかわらず、ビジョン側でそのオフセット分を設定し忘れているような場合に、位置や姿勢がずれてしまう問題が生じていた。このような場合に、ずれを確認する機能や、ずれを補正する機能がないと、実運用時にロボットで把持させる際に、うまく把持できなかったり、衝突等の問題が生じることがあった。このような誤差が発生する要因は様々であり、従来は原因追究やデバッグに非常に時間や労力がかかってしまっていた。これに対して本実施形態によれば、このようなずれを手動や自動で補正することが可能となり、実際のエンドエフェクタの取付状態に応じた柔軟な調整を容易に行うことができる。   Conventionally, when a mounting member such as a connector is actually attached to the mounting part of the flange and end effector, for example, you have forgotten to set the offset on the vision side. There has been a problem that the position and posture are shifted. In such a case, if there is no function for confirming the deviation or the function for correcting the deviation, there is a case where the robot cannot be gripped well or a problem such as a collision occurs when the robot is gripped in actual operation. There are various factors that cause such errors, and in the past, investigating the cause and debugging have been extremely time consuming and labor intensive. On the other hand, according to the present embodiment, such a shift can be corrected manually or automatically, and flexible adjustment according to the actual attachment state of the end effector can be easily performed.

なお、図59の例では、エンドエフェクタモデルEEMの位置を、三次元CADデータの中心位置としているが、この例に限らず、他の位置を規定することもできる。例えば図59では、三次元CADデータに外接する直方体の中心としたが、外接直方体の端部分や、入力元の三次元CADデータの原点を基準にしても良い。
(実測データをサーチモデルに登録する手順)
In the example of FIG. 59, the position of the end effector model EEM is the center position of the three-dimensional CAD data. However, the position is not limited to this example, and other positions can be defined. For example, in FIG. 59, the center of the rectangular parallelepiped circumscribing the three-dimensional CAD data is used, but the end of the circumscribed rectangular parallelepiped or the origin of the input three-dimensional CAD data may be used as a reference.
(Procedure for registering actual measurement data in the search model)

以上は、三次元CADデータをサーチモデルとして登録する場合の手順について説明した。ただ本発明は上述の通り、サーチモデルとして三次元CADデータに限らず、例えばセンサ部で実際にワークを撮像した実測データをサーチモデルとして登録することもできる。ここで、図27のステップS2701において、このような実測データをサーチモデルとして登録する手順を、図62のフローチャートに基づいて説明する。   The procedure for registering three-dimensional CAD data as a search model has been described above. However, in the present invention, as described above, the search model is not limited to the three-dimensional CAD data, and for example, actual measurement data obtained by actually imaging the workpiece by the sensor unit can be registered as the search model. Here, the procedure for registering such measured data as a search model in step S2701 of FIG. 27 will be described based on the flowchart of FIG.

まずステップS6201において、ワークの登録したい面を上向きにして、ワークを平面上に載置して、センサ部で三次元計測を行う。   First, in step S6201, the workpiece is placed on a plane with the surface to be registered of facing upward, and the sensor unit performs three-dimensional measurement.

次にステップS6202において、得られた実測データをサーチモデルとして登録する。   In step S6202, the obtained actual measurement data is registered as a search model.

最後にステップS6203において、三次元サーチに必要な分のサーチモデルを登録し終えたか否かを判定し、未だの場合はステップS6201に戻って上記の処理を繰り返し、必要数を登録し終えた場合は処理を終了する。これらの手順の詳細は、図102〜図106を参照しながら後述する。
(実運用時の手順その1)
Finally, in step S6203, it is determined whether or not the search models necessary for the three-dimensional search have been registered. Ends the process. Details of these procedures will be described later with reference to FIGS.
(Procedure 1 during actual operation)

以上のようにして必要な設定作業が終了した状態で、実際にバラ積みされたワーク群に対して、ピッキング動作を行う。ここで、図28の手順でサーチモデルが登録された状態で、実運用時に、ワークの把持可能かどうか、すなわち検出された各ワークに対して把持解があるか否かを判定する手順を、図63のフローチャートに基づいて説明する。ここでは、図6の演算部10が把持解の有無を判定する。   In the state where the necessary setting work is completed as described above, the picking operation is performed on the work group actually stacked. Here, in the state where the search model is registered in the procedure of FIG. 28, a procedure for determining whether or not a workpiece can be gripped during actual operation, that is, whether or not there is a gripping solution for each detected workpiece, This will be described based on the flowchart of FIG. Here, the calculation unit 10 in FIG. 6 determines whether there is a gripping solution.

まずステップS6301において、バラ積みワークに対して三次元計測を開始する。ここでは、センサ部でバラ積みされたワーク群を撮像して三次元計測を行い、高さ情報を有する三次元形状を取得する。   First, in step S6301, three-dimensional measurement is started for a bulk workpiece. Here, a group of workpieces stacked in bulk by the sensor unit is imaged and three-dimensional measurement is performed to obtain a three-dimensional shape having height information.

次にステップS6302において、得られたワーク群の三次元形状に対して、ワークモデルを用いて三次元サーチを実施し、各ワークの位置及び姿勢を検出する。   Next, in step S6302, a three-dimensional search is performed on the obtained three-dimensional shape of the workpiece group using a workpiece model to detect the position and orientation of each workpiece.

次にステップS6303において、検出された一のワークに対して、このワークの位置と、設定時に登録したワークの把持姿勢に基づいて、エンドエフェクタを配置すべき位置と姿勢を計算する。   Next, in step S6303, the position and posture where the end effector is to be arranged are calculated based on the position of the detected workpiece and the gripping posture of the workpiece registered at the time of setting.

次にステップS6304において、計算された位置において、エンドエフェクタが周囲の物体と干渉しないかどうかを、エンドエフェクタモデルを用いて干渉判定を実施する。   Next, in step S6304, whether or not the end effector interferes with surrounding objects at the calculated position is determined using the end effector model.

そしてステップS6305において、エンドエフェクタが干渉するか否かを判定し、干渉していない場合は、このワークに対して把持解ありとして処理を終了する。   In step S6305, it is determined whether or not the end effector interferes. If there is no interference, the processing is terminated with a gripping solution for the workpiece.

一方、干渉していると判定された場合は、ステップS6306に進み、このワークに対して登録された別の把持位置があるか否かを判定する。別の把持位置が登録されている場合は、ステップS6303に戻って、この把持位置に対して上記処理を繰り返す。   On the other hand, if it is determined that there is interference, the process advances to step S6306 to determine whether there is another gripping position registered for the work. If another gripping position is registered, the process returns to step S6303 and the above processing is repeated for this gripping position.

一方、別の把持位置が登録されていない場合は、ステップS6307に進み、検出された別のワークがあるか否かを判定する。別のワークがある場合は、ステップS6303に戻って、ワークを代えて上記処理を繰り返す。別のワークが無い場合は、把持解なしとして処理を終了する。   On the other hand, if another gripping position is not registered, the process advances to step S6307 to determine whether there is another detected workpiece. If there is another work, the process returns to step S6303 and the above process is repeated with the work replaced. If there is no other workpiece, the process ends with no gripping solution.

このようにして、図6の演算部10がワークを把持可能な把持解の有無を判定する。そして把持解が得られた場合は、そのワークに対して、エンドエフェクタでもって決定された把持位置にてピックするよう、ロボットコントローラ6に指示を送る。これに従いロボットコントローラ6は、指示されたワークをピックするようにエンドエフェクタを制御する。   In this way, the calculation unit 10 in FIG. 6 determines whether there is a gripping solution that can grip the workpiece. If a gripping solution is obtained, an instruction is sent to the robot controller 6 to pick the workpiece at the gripping position determined by the end effector. Accordingly, the robot controller 6 controls the end effector so as to pick the instructed work.

以上の手順では、いずれかのワークで把持解が得られると、その時点で把持位置を検討する処理を終了して、得られた把持解に該当する把持位置でワークを把持するように制御している。ただ、この方法に限らず、例えば把持可能なすべての把持位置を把持位置候補として求めた上で、いずれの把持位置候補を選択するかを決定するように構成してもよい。例えば各把持位置候補の評価指標として評価指標演算部8qでスコアを算出して、得られたスコアの最も高いものを把持位置として選択する。また、ワークの置かれた高さ情報に注目し、ワークが置かれた高さが高いもの、いいかえると、バラ積みされたワーク群の内で、より上方に位置するものを把持位置として選択することもできる。好ましくは、スコアと高さ情報の両方を考慮して、演算部10が複数の把持解の中から選択していく。このようにすることで、より適切なピッキングを行うことが可能となる。
(実運用時の手順2)
In the above procedure, when a gripping solution is obtained for any workpiece, the processing for examining the gripping position is terminated at that point, and control is performed so that the workpiece is gripped at the gripping position corresponding to the obtained gripping solution. ing. However, the present invention is not limited to this method, and for example, it may be configured to determine which gripping position candidate is selected after obtaining all gripping positions that can be gripped as gripping position candidates. For example, the evaluation index calculation unit 8q calculates a score as an evaluation index for each gripping position candidate, and the one having the highest score is selected as the gripping position. In addition, paying attention to the height information of the work, select the one with the high height where the work is placed, in other words, the one located in the upper part of the group of works stacked in bulk. You can also. Preferably, the calculation unit 10 selects from a plurality of gripping solutions in consideration of both the score and the height information. In this way, more appropriate picking can be performed.
(Procedure 2 during actual operation)

以上は、図28の手順でサーチモデルが登録された状態で、実運用時の手順を説明した。サーチモデルの登録に際しては、図48で示したとおり、サーチモデルの姿勢に制限を加えた状態で登録することもできる。ここで、図48の手順でサーチモデルを登録した状態で、実際にバラ積みされたワーク群に対して、ピッキング動作を行う実運用時の手順を、図64のフローチャートに基づいて説明する。まずステップS6401において、バラ積みワークに対して三次元計測を開始する。ここでは、センサ部でバラ積みされたワーク群を撮像して三次元計測を行い、高さ情報を有する三次元形状を取得する。   In the above, the procedure at the time of actual operation was explained with the search model registered in the procedure of FIG. When registering the search model, as shown in FIG. 48, the search model can be registered in a state in which the posture of the search model is limited. Here, the procedure at the time of actual operation for performing the picking operation on the work group actually stacked in a state where the search model is registered by the procedure of FIG. 48 will be described based on the flowchart of FIG. First, in step S6401, three-dimensional measurement is started for a bulk workpiece. Here, a group of workpieces stacked in bulk by the sensor unit is imaged and three-dimensional measurement is performed to obtain a three-dimensional shape having height information.

次にステップS6402において、得られたワーク群の三次元形状に対して、ワークモデルを用いて三次元サーチを実施し、各ワークの位置及び姿勢を検出する。   Next, in step S6402, a three-dimensional search is performed on the obtained three-dimensional shape of the workpiece group using a workpiece model to detect the position and orientation of each workpiece.

次にステップS6403において、傾斜角度、回転角度の範囲設定から範囲外の姿勢を除外する。   In step S6403, out-of-range postures are excluded from the tilt angle and rotation angle range settings.

次にステップS6404において、検出された一のワークに対して、このワークの位置と、設定時に登録したワークの把持姿勢に基づいて、エンドエフェクタを配置すべき位置と姿勢を計算する。   Next, in step S6404, the position and posture where the end effector should be placed are calculated based on the position of the detected workpiece and the gripping posture of the workpiece registered at the time of setting.

次にステップS6405において、計算された位置において、エンドエフェクタが周囲の物体と干渉しないかどうかを、エンドエフェクタモデルを用いて干渉判定を実施する。   Next, in step S6405, whether or not the end effector interferes with surrounding objects at the calculated position is determined using the end effector model.

そしてステップS6406において、エンドエフェクタが干渉するか否かを判定し、干渉していない場合は、このワークに対して把持解ありとして処理を終了する。   In step S 6406, it is determined whether or not the end effector interferes. If there is no interference, the processing is terminated with the gripping solution being present for the workpiece.

一方、干渉していると判定された場合は、ステップS6407に進み、このワークに対して登録された別の把持位置があるか否かを判定する。別の把持位置が登録されている場合は、ステップS6404に戻って、この把持位置に対して上記処理を繰り返す。   On the other hand, if it is determined that there is interference, the process proceeds to step S6407, where it is determined whether there is another gripping position registered for the workpiece. If another gripping position is registered, the process returns to step S6404 and the above processing is repeated for this gripping position.

一方、別の把持位置が登録されていない場合は、ステップS6408に進み、検出された別のワークがあるか否かを判定する。別のワークがある場合は、ステップS6404に戻って、ワークを代えて上記処理を繰り返す。別のワークが無い場合は、把持解なしとして処理を終了する。
(干渉判定)
On the other hand, if another gripping position is not registered, the process advances to step S6408 to determine whether there is another detected workpiece. If there is another work, the process returns to step S6404 and the above process is repeated with the work replaced. If there is no other workpiece, the process ends with no gripping solution.
(Interference judgment)

ここで、上述した図63のステップS6304や図64のステップS6405における、エンドエフェクタモデルを用いた干渉判定の方法について説明する。ワークをエンドエフェクタで把持する際に、エンドエフェクタが他のワークや収納容器など、周囲の障害物と干渉してしまうと、把持を正しく行うことができない。そこで、予め把持位置候補でエンドエフェクタモデルがワークモデルを把持する際の、エンドエフェクタの位置や姿勢を図31の干渉判定部8mで演算することで、周囲の部材との干渉判定を行う。この際、周囲の部材としては、実際にセンサ部2で実測して得られたバラ積みされたワーク群や収納容器の三次元点群が用いられる。また、事前に収納容器などの位置を登録しておき、エンドエフェクタモデルと干渉判定を行うこともできる。一方、エンドエフェクタの三次元CADデータは一般にポリゴンデータで構成される。例えば三次元CADデータとして多用されるSTLデータは、ポリゴンと呼ばれる微小な三角形の集合体で表現されている。   Here, the interference determination method using the end effector model in step S6304 of FIG. 63 and step S6405 of FIG. 64 will be described. When gripping a workpiece with an end effector, if the end effector interferes with surrounding obstacles such as other workpieces or storage containers, gripping cannot be performed correctly. Accordingly, the position and orientation of the end effector when the end effector model grips the workpiece model with gripping position candidates in advance are calculated by the interference determination unit 8m in FIG. 31, thereby performing interference determination with surrounding members. At this time, as surrounding members, a group of workpieces and a three-dimensional point group of storage containers obtained by actually measuring with the sensor unit 2 are used. It is also possible to register the position of the storage container or the like in advance and perform interference determination with the end effector model. On the other hand, the three-dimensional CAD data of the end effector is generally composed of polygon data. For example, STL data frequently used as three-dimensional CAD data is expressed by a collection of minute triangles called polygons.

このようなポリゴンデータと三次元点群データとで干渉判定を行うには、従来、三次元点群データを構成する各三次元点が、エンドエフェクタモデルの内側にあるか外側にあるを調べ、内側にある場合は干渉、外側にある場合は干渉しないと判定していた。しかしながらこの方法では、各点毎に演算や対比を行う必要があり、データが大きくなると演算量が膨大になってしまう。
(断面モデルを用いた干渉判定の手順)
In order to perform interference determination between such polygon data and 3D point cloud data, conventionally, it is examined whether each 3D point constituting the 3D point cloud data is inside or outside the end effector model, It was determined that there was interference when inside and no interference when outside. However, in this method, it is necessary to perform calculation and comparison for each point, and the amount of calculation becomes enormous as the data becomes large.
(Interference judgment procedure using a cross-sectional model)

そこで本発明の各実施形態においては、エンドエフェクタモデルのポリゴンデータから断面モデルを作成し、三次元点群データの各点を断面モデルに投影して、内外を判定することにより、干渉を判定している。このような干渉判定は、図31の干渉判定部8mにて行われる。ここで、干渉判定を行う手順を図65のフローチャートに基づいて説明する。   Therefore, in each embodiment of the present invention, a cross-section model is created from polygon data of the end effector model, each point of the three-dimensional point cloud data is projected onto the cross-section model, and the inside / outside is determined to determine interference. ing. Such interference determination is performed by the interference determination unit 8m in FIG. Here, the procedure for performing the interference determination will be described based on the flowchart of FIG.

まず、ステップS6501において、エンドエフェクタのポリゴンデータを読み込む。次にステップS6502において、エンドエフェクタのポリゴンデータから断面モデルを作成する。断面モデルは、図26の断面モデル生成部8sでもって生成する。ここで、断面モデル生成部8sが断面モデルを作成する方法を、図66〜図67Eに基づいて説明する。まず、図66に示すエンドエフェクタモデルEEMのポリゴンデータに対して、基本軸BSLを設定する。好ましくは、基本軸BSLはエンドエフェクタモデルEEMの長手方向に沿って設定される。さらに、この基本軸BSLに直交する直交平面でエンドエフェクタモデルを切断して、断面を複数作成する。ここで、断面を作成する位置は、例えばポリゴンデータの頂点位置とする。あるいは、基本軸に沿って一定距離ごとに断面を複数作成した上で、得られた断面の内、形状に応じて整理してもよい。例えば、同じ形状の断面は排除する。断面の作成は、必要な断面の総数が少なくなるように、基本軸BSLを設定することが好ましい。例えば断面モデル生成部が、断面の数が少なくなるような基本軸BSLの方向を自動的演算するように構成してもよい。また、設定された基本軸BSLにおいて断面を取得する断面位置の指定は、例えば変化の大きい断面を自動的に抽出するように指定することもできる。   First, in step S6501, the end effector polygon data is read. In step S6502, a cross-sectional model is created from polygon data of the end effector. The cross-section model is generated by the cross-section model generation unit 8s shown in FIG. Here, a method by which the cross-section model generation unit 8s creates a cross-section model will be described with reference to FIGS. 66 to 67E. First, the basic axis BSL is set for the polygon data of the end effector model EEM shown in FIG. Preferably, the basic axis BSL is set along the longitudinal direction of the end effector model EEM. Further, the end effector model is cut along an orthogonal plane orthogonal to the basic axis BSL to create a plurality of cross sections. Here, the position for creating the cross section is, for example, the vertex position of the polygon data. Alternatively, a plurality of cross sections may be created along a basic axis at a certain distance, and the obtained cross sections may be arranged according to the shape. For example, cross sections having the same shape are excluded. In creating the cross section, it is preferable to set the basic axis BSL so that the total number of necessary cross sections is reduced. For example, the cross section model generation unit may be configured to automatically calculate the direction of the basic axis BSL so that the number of cross sections is reduced. In addition, the designation of the cross-sectional position at which a cross-section is acquired on the set basic axis BSL can be designated so as to automatically extract a cross-section having a large change, for example.

このようにして、エンドエフェクタモデルEEMの基本軸BSLに沿った各断面の形状と、各断面と対応する基本軸BSL上の断面位置を持った断面モデルが作成できる。例えば図66の例では、基本軸BSL上に沿った断面位置SP1〜SP5の5つの位置で、それぞれ、図67A〜図67Eに示す形状の断面SS1〜断面SS5が得られる。このようにして得られた断面モデルを用いて、エンドエフェクタモデルが三次元点群と干渉するか否かを判定する。   In this way, a cross-sectional model having the cross-sectional shape along the basic axis BSL of the end effector model EEM and the cross-sectional position on the basic axis BSL corresponding to each cross-section can be created. For example, in the example of FIG. 66, the cross sections SS1 to SS5 having the shapes shown in FIGS. 67A to 67E are obtained at five positions of the cross sectional positions SP1 to SP5 along the basic axis BSL. Using the cross-sectional model obtained in this manner, it is determined whether or not the end effector model interferes with the three-dimensional point group.

具体的には、ステップS6503において、三次元点群を構成する内、干渉判定の対象となる三次元点を選び、この点の基本軸BSL方向における位置から、断面モデルが有する複数の断面の内、どの断面と干渉判定するかを選択する。この選択には、各断面に設定された断面位置を用いる。例えば三次元点の内、図68Aに示す三次元点TDPに対して、エンドエフェクタモデルEEMとの干渉判定を行う場合を考える。三次元点TDPは、基本軸BSLに沿う方向において、断面位置SP3とSP4の間に位置する。よってこの間の断面形状を示す断面SS3でもって、三次元点TDPとの干渉判定を行う。   Specifically, in step S6503, among the three-dimensional point group, a three-dimensional point to be subjected to interference determination is selected, and the position of the point in the basic axis BSL direction is selected from a plurality of cross-sections of the cross-sectional model. Select which cross section to determine interference. For this selection, the cross-sectional position set for each cross-section is used. For example, let us consider a case where the interference with the end effector model EEM is determined for the three-dimensional point TDP shown in FIG. 68A among the three-dimensional points. The three-dimensional point TDP is located between the cross-sectional positions SP3 and SP4 in the direction along the basic axis BSL. Therefore, the interference with the three-dimensional point TDP is determined with the cross section SS3 indicating the cross-sectional shape between them.

具体的には、ステップS6504において、三次元点TDPから断面SS3を含む直交平面上に投影した投影点PP3を演算する。そしてステップS6505において干渉判定を行う。ここでは、三次元点の投影点PP3の位置が、図68Bに示すように断面SS3の外側であれば干渉していないと判定する。一方、図68Cのように断面SS3の内側であれば、干渉していると判定する。最後にステップS6506において、他の三次元点があるか否かを判定し、未処理の三次元点が残っている場合はステップS6503に戻って上記処理を繰り返す。そしてすべての三次元点で干渉判定を終えると、処理を終了する。   Specifically, in step S6504, a projection point PP3 projected from the three-dimensional point TDP onto the orthogonal plane including the cross section SS3 is calculated. In step S6505, interference determination is performed. Here, if the position of the projection point PP3 of the three-dimensional point is outside the cross section SS3 as shown in FIG. 68B, it is determined that there is no interference. On the other hand, if it is inside the cross section SS3 as shown in FIG. 68C, it is determined that there is interference. Finally, in step S6506, it is determined whether or not there is another three-dimensional point. If an unprocessed three-dimensional point remains, the process returns to step S6503 and the above processing is repeated. When the interference determination is completed at all three-dimensional points, the process is terminated.

このようにして、計測した三次元点群とエンドエフェクタモデルとの干渉判定を行うことができる。また、以上では三次元点群データとの干渉判定について説明したが、本発明は干渉判定の対象を三次元点に限らず、他の物体、例えば線や面についても、同様の手順でも干渉判定を実施できる。   In this way, it is possible to determine the interference between the measured three-dimensional point group and the end effector model. Further, the interference determination with the three-dimensional point cloud data has been described above. However, the present invention is not limited to the target of the interference determination, and the interference determination is performed not only for the three-dimensional point but also for other objects such as lines and surfaces in the same procedure. Can be implemented.

さらに、以上の例ではエンドエフェクタのCADデータがポリゴンデータの例について説明したが、エンドエフェクタの断面形状が計算できる形式であれば、ポリゴンデータに限らず、他のCADデータ形式でも同様に干渉判定を行える。さらに以上の例では、断面形状を二次元状の平面図で表現する場合について説明したが、断面形状のデータの持ち方もこの形態に限られず、例えば輪郭線の集合のような形式のデータで持っていてもよい。
(追加領域を加えた追加モデルでの干渉判定)
Furthermore, in the above example, the CAD data of the end effector has been described as an example of polygon data. However, as long as the cross-sectional shape of the end effector can be calculated, not only polygon data but also other CAD data formats are similarly used for interference determination. Can be done. Furthermore, in the above example, the case where the cross-sectional shape is expressed by a two-dimensional plan view has been described. You may have it.
(Interference judgment with an additional model with additional areas added)

またエンドエフェクタモデルの干渉判定において、エンドエフェクタモデルに立体的な基本図形で表現した追加領域を追加した追加モデルを用いて干渉判定を行うこともできる。このような追加モデルを用いた干渉判定の手順を、図69のフローチャートに基づいて説明する。ここでは、基本図形として直方体と円柱を組み合わせた追加領域を、三次元CADモデルに追加した追加モデルに対して干渉判定を行う例を説明する。   Further, in the interference determination of the end effector model, the interference determination can be performed using an additional model obtained by adding an additional region expressed by a three-dimensional basic figure to the end effector model. The procedure of interference determination using such an additional model will be described based on the flowchart of FIG. Here, an example will be described in which interference determination is performed on an additional model obtained by adding an additional region obtained by combining a rectangular parallelepiped and a cylinder as a basic figure to a three-dimensional CAD model.

まず、ステップS6901において、追加領域を構成する基本図形の内、直方体の領域について干渉判定を実行する。この結果に応じて、ステップS6902において、干渉ありと判定された場合は、干渉判定の処理を中止し、干渉ありと出力して処理を終了する。   First, in step S6901, interference determination is performed for a rectangular parallelepiped region among the basic figures constituting the additional region. Depending on this result, if it is determined in step S6902 that there is interference, the interference determination process is stopped, and it is output that there is interference, and the process ends.

一方、干渉なしと判定された場合は、ステップS6903に進み、追加領域を構成する基本図形の内、他の図形である円柱との干渉判定を行う。この結果、ステップS6904において、干渉ありと判定されれば、干渉判定の処理を中止し、干渉ありと出力して処理を終了する。   On the other hand, if it is determined that there is no interference, the process advances to step S6903 to perform interference determination with a cylinder that is another graphic among the basic graphics forming the additional region. As a result, if it is determined in step S6904 that there is interference, the interference determination process is stopped, the presence of interference is output, and the process ends.

一方、干渉なしと判定された場合は、ステップS6905に進み、三次元CADデータとの干渉判定を行う。この結果、ステップS6906において、干渉ありと判定されれば、干渉判定の処理を中止し、干渉ありと出力して処理を終了する。   On the other hand, if it is determined that there is no interference, the process proceeds to step S6905, where interference with the three-dimensional CAD data is determined. As a result, if it is determined in step S6906 that there is interference, the interference determination processing is stopped, the presence of interference is output, and the processing ends.

一方、干渉なしと判定された場合は、干渉なしとして処理を終了する。   On the other hand, if it is determined that there is no interference, the process is terminated as no interference.

このように、基本図形毎、あるいは三次元CADデータ単位で干渉判定を順次行い、いずれで干渉ありと判定されると、その時点で干渉判定処理を中止して干渉判定ありと出力する。なお、以上は追加領域が直方体と円柱の2つの基本図形で構成された例について説明したが、基本図形が多くなっても手順は同じで、基本図形毎に干渉判定を順次行い、その都度、干渉ありと判定されれば処理を中止する。
(実施形態7)
(把持可否判定検証機能)
As described above, the interference determination is sequentially performed for each basic figure or for each three-dimensional CAD data unit, and when it is determined that there is interference, the interference determination process is stopped at that time and an interference determination is output. In addition, although the above demonstrated the example in which the additional area | region was comprised with two basic figures, a rectangular parallelepiped and a cylinder, even if a basic figure increases, a procedure is the same, performs interference judgment for every basic figure one by one, If it is determined that there is interference, the process is stopped.
(Embodiment 7)
(Holding availability verification function)

以上は、実運用時に干渉判定の結果、把持解の有無を判別する手順について説明した。ただ本発明は、把持解の有無を判別するのみならず、把持解が得られなかった把持位置の候補について、どのような理由で把持解が得られなかったのかを検証する把持可否判定検証機能を設けてもよい。例えば、把持解候補を一覧表示させ、干渉判定の結果、把持解ありと判定された把持位置はOK、把持解なしと判定された把持位置候補はNGと表示させる。この状態で、NGと判定された把持位置を選択して、どのような理由で把持解なしと判定されたかを表示させることで、ユーザはこの情報を参考にして、どのような把持位置であれば把持解として選択されうるかを検討し、把持位置を修正したり、新たな把持位置を追加できるようになる。このような例を実施形態7に係るロボットシステム7000として、図70のブロック図に示す。この図に示すロボットシステム7000は、画像処理装置700と、表示部3Bと、操作部4と、センサ部2と、ロボットコントローラ6と、ロボットRBTを備える。なお、図6と同じ部材については、同じ符号を付して詳細説明を適宜省略する。
(表示部3B)
The procedure for determining the presence / absence of a gripping solution as a result of interference determination during actual operation has been described above. However, the present invention not only determines the presence / absence of a gripping solution, but also grasps whether or not the gripping solution is obtained for a gripping position candidate for which a gripping solution is not obtained. May be provided. For example, a list of gripping solution candidates is displayed, and a gripping position determined as having a gripping solution as a result of interference determination is displayed as OK, and a gripping position candidate determined as having no gripping solution is displayed as NG. In this state, by selecting the gripping position determined to be NG and displaying the reason why it is determined that there is no gripping solution, the user can refer to this information to determine what gripping position. Thus, it becomes possible to correct the gripping position and add a new gripping position. Such an example is shown in the block diagram of FIG. 70 as a robot system 7000 according to the seventh embodiment. A robot system 7000 shown in this figure includes an image processing device 700, a display unit 3B, an operation unit 4, a sensor unit 2, a robot controller 6, and a robot RBT. In addition, about the same member as FIG. 6, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted suitably.
(Display unit 3B)

表示部3Bは、画像表示領域3bと、把持解候補表示領域3cを備える。把持解候補表示領域3cは、ワーク把持可否表示領域3dと、ワーク把持不能要因表示領域3eを含む。   The display unit 3B includes an image display area 3b and a gripping solution candidate display area 3c. The gripping solution candidate display area 3c includes a work gripping possibility display area 3d and a work gripping inability factor display area 3e.

画像表示領域3bは、エンドエフェクタの三次元形状を仮想的に表現する、三次元CADデータで構成されたエンドエフェクタモデルを、仮想的な三次元空間上で三次元状に表示させるための部材である。   The image display area 3b is a member for displaying an end effector model composed of three-dimensional CAD data that virtually represents the three-dimensional shape of the end effector in a three-dimensional shape in a virtual three-dimensional space. is there.

把持解候補表示領域3cは、三次元サーチ部8kでサーチされた一以上のワークのサーチ結果の任意の一に対して、設定されている把持位置を全て列挙して表示させるための部材である。   The gripping solution candidate display area 3c is a member for enumerating and displaying all set gripping positions for any one of the search results of one or more workpieces searched by the three-dimensional search unit 8k. .

ワーク把持可否表示領域3dは、三次元ピック判定部8lによる、各ワークに対して指定された把持位置における把持の可否の判定結果を表示させるための部材である。   The workpiece gripping availability display area 3d is a member for displaying a judgment result of whether gripping is possible or not at a gripping position designated for each workpiece by the three-dimensional pick determination unit 8l.

ワーク把持不能要因表示領域3eは、三次元ピック判定部8lによる、各ワークに対して指定された把持位置における把持が不能と判定された把持位置に対して、該把持不能とされた要因を表示させるための部材である。
(画像処理装置700)
The work grip impossibility factor display area 3e displays the cause of the gripping failure for the gripping position determined by the three-dimensional pick determination unit 8l that the gripping position specified for each work is not possible. It is a member for making it.
(Image processing apparatus 700)

画像処理装置700は、入力画像取得部2cと、演算部10と、記憶部9と、入出力インターフェース4bと、表示インターフェース3fと、ロボットインターフェース6bを備える。演算部10は、エンドエフェクタモデル登録部8uと、ワークモデル登録部8tと、把持位置特定部8dと、サーチモデル登録部8gと、三次元サーチ部8kと、三次元ピック判定部8lと、傾斜角度設定部8nとを備える。   The image processing apparatus 700 includes an input image acquisition unit 2c, a calculation unit 10, a storage unit 9, an input / output interface 4b, a display interface 3f, and a robot interface 6b. The calculation unit 10 includes an end effector model registration unit 8u, a work model registration unit 8t, a gripping position specification unit 8d, a search model registration unit 8g, a three-dimensional search unit 8k, a three-dimensional pick determination unit 8l, An angle setting unit 8n.

この把持位置特定部8dは、ワーク側把持箇所指定部8d1と、エンドエフェクタ側把持設定部8d2を備える。ワーク側把持箇所指定部8d1は、画像表示領域3bにエンドエフェクタモデルを表示させた状態で、ワークの三次元形状を仮想的に表現する、三次元CADデータで構成されたワークモデルをエンドエフェクタモデルで把持する際の把持位置を指定するための部材である。エンドエフェクタ側把持設定部8d2は、画像表示領域3bに表示されるエンドエフェクタモデルに対して、ワークを把持する把持位置を指定するための部材である。   The grip position specifying unit 8d includes a workpiece side grip location specifying unit 8d1 and an end effector side grip setting unit 8d2. The workpiece-side gripping location specifying unit 8d1 displays a workpiece model composed of three-dimensional CAD data that virtually represents the three-dimensional shape of the workpiece in a state where the end effector model is displayed in the image display area 3b. This is a member for designating a gripping position when gripping with. The end effector side gripping setting unit 8d2 is a member for designating a gripping position for gripping a workpiece with respect to the end effector model displayed in the image display area 3b.

サーチモデル登録部8gは、ワークの三次元形状を仮想的に表現する第二ワークモデルを、入力画像に含まれる複数のワーク群に対して、各ワークの姿勢と位置を特定する三次元サーチを行うためのサーチモデルとして登録するための部材である。なおサーチモデルとして登録する第二ワークモデルを、ワーク側把持箇所指定部8d1で把持位置を指定するワークモデルと同じとすることが好ましい。これにより、三次元サーチを行うサーチモデルを、把持位置を指定するワークモデルと共通化することで、ユーザは設定作業を省力化できる。また実運用時においても、把持できるワークをサーチするワークモデルと、把持判定を行うワークモデルと一致させることで、サーチされたワークモデルに対して、このワークモデルに設定された把持位置で把持可能かどうかを検討できるため、効率良く処理を行うことが可能となる。   The search model registration unit 8g performs a three-dimensional search for specifying the posture and position of each workpiece with respect to a plurality of workpiece groups included in the input image as a second workpiece model that virtually represents the three-dimensional shape of the workpiece. It is a member for registering as a search model for performing. The second work model registered as the search model is preferably the same as the work model for which the grip position is designated by the work-side grip location specifying unit 8d1. As a result, the user can save the setting work by sharing the search model for performing the three-dimensional search with the work model for designating the gripping position. In actual operation, by matching the work model that searches for work that can be gripped with the work model that performs gripping judgment, the searched work model can be gripped at the gripping position set in this work model. Therefore, it is possible to perform processing efficiently.

傾斜角度設定部8nは、ワークの姿勢に対し、許容される傾斜角度の範囲を設定するための部材である。   The inclination angle setting unit 8n is a member for setting an allowable inclination angle range for the posture of the workpiece.

三次元ピック判定部8lは、三次元サーチ部8kでサーチされた各ワークのサーチ結果に対して、ワーク側把持箇所指定部8d1で当該ワークに対して指定された把持位置にて、エンドエフェクタで把持可能か否かを判定するための部材である。この三次元ピック判定部8lは、干渉判定部8mと、角度判定部8oとを含む。   The three-dimensional pick determination unit 8l uses the end effector at the gripping position designated for the workpiece by the workpiece-side gripping location designation unit 8d1 with respect to the search result of each workpiece searched by the three-dimensional search unit 8k. It is a member for determining whether or not it can be gripped. The three-dimensional pick determination unit 8l includes an interference determination unit 8m and an angle determination unit 8o.

干渉判定部8mは、三次元サーチ部8kでサーチされた各ワークのサーチ結果に対して、ワーク側把持箇所指定部8d1でこのワークに対して指定された把持位置について、該ワークの周囲に存在する物体との干渉の有無を判定するための部材である。また干渉判定部8mにより干渉ありと判定されたワークに対して、三次元ピック判定部8lが把持不能と判定する。これにより、ワークを把持できない場合の原因が示されることで、ユーザは例えば、どのような把持位置を追加すればよいかを検討しやすくなる等、把持位置の再設定に資することができる。   The interference determination unit 8m exists around the workpiece with respect to the gripping position designated for the workpiece by the workpiece-side gripping location designation unit 8d1 with respect to the search result of each workpiece searched by the three-dimensional search unit 8k. It is a member for determining the presence or absence of interference with the object to be performed. In addition, the three-dimensional pick determination unit 8l determines that the workpiece that is determined to have interference by the interference determination unit 8m cannot be gripped. As a result, the cause in the case where the workpiece cannot be gripped is indicated, which can contribute to resetting the gripping position, for example, by making it easier for the user to consider what gripping position should be added.

角度判定部8oは、三次元サーチ部8kでサーチされたワークのサーチ結果の姿勢が、傾斜角度設定部8nで設定された傾斜角度範囲内か否かを判定するための部材である。   The angle determination unit 8o is a member for determining whether the posture of the search result of the workpiece searched by the three-dimensional search unit 8k is within the tilt angle range set by the tilt angle setting unit 8n.

三次元ピック判定部8lは、角度判定部8oにより、三次元サーチ部8kでサーチされたワークのサーチ結果の姿勢が、傾斜角度設定部8nで設定された傾斜角度範囲内でないと判定された場合に、該ワークを把持不能と判定するよう構成される。これにより、ワークの姿勢が急峻すぎて把持ができない、あるいは三次元測定の精度が期待できない場合に、これを排除することで把持位置の選択や判定の誤判定を回避し、信頼性を高めることができる。
(把持解候補一覧表示機能)
When the angle determination unit 8o determines that the posture of the workpiece search result searched by the three-dimensional search unit 8k is not within the inclination angle range set by the inclination angle setting unit 8n by the angle determination unit 8o. In addition, it is configured to determine that the workpiece cannot be gripped. As a result, when the workpiece posture is too steep and cannot be gripped, or accuracy of 3D measurement cannot be expected, by eliminating this, selection of the gripping position and misjudgment of judgment can be avoided and reliability can be improved. Can do.
(Handling solution candidate list display function)

次に、把持解NGの理由を表示させる手順を、図71のフローチャートに基づいて説明する。なお、設定時の手順、及び実運用時の手順は、上述した図27、図28、図63等と基本的に同様であり、詳細説明を適宜省略する。   Next, the procedure for displaying the reason for the gripping solution NG will be described based on the flowchart of FIG. The procedure at the time of setting and the procedure at the time of actual operation are basically the same as those described above with reference to FIGS. 27, 28, 63, etc., and detailed description thereof will be omitted as appropriate.

まずステップS7101において、対象となるワーク群に対して三次元計測を行う。ここではバラ積みされたワーク群に対して、センサ部を用いて形状の情報を有する実測データを取得し、これを入力画像とする。   First, in step S7101, three-dimensional measurement is performed on a target work group. Here, actual measurement data having shape information is acquired using a sensor unit for a group of workpieces stacked in bulk, and this is used as an input image.

次にステップS7102において、入力画像に対して三次元サーチを実施し、入力画像中における各ワークの位置及び姿勢をそれぞれ検出する。   In step S7102, a three-dimensional search is performed on the input image to detect the position and orientation of each workpiece in the input image.

そしてステップS7103において、検出されたワークの中から、検証対象のワークを一、選択する。   In step S7103, one workpiece to be verified is selected from the detected workpieces.

さらにステップS7104において、選択したワークの検出位置と、このワークに対して予め登録された把持姿勢から、このワークをエンドエフェクタで把持しようとする場合の、エンドエフェクタモデルの位置及び姿勢を計算する。   In step S7104, the position and orientation of the end effector model when the end effector is intended to be gripped are calculated from the detected position of the selected workpiece and the gripping posture registered in advance for the workpiece.

次にステップS7105において、演算されたエンドエフェクタモデルの位置及び姿勢における傾斜角度が、設定された範囲外か否かを判定する。ここで設定範囲外と判定された場合はステップS7106に進み、把持NGと判定とすると共に、NGの要因を「傾斜角度」と設定した上で、ステップS7111にジャンプする。   Next, in step S7105, it is determined whether the calculated inclination angle in the position and orientation of the end effector model is outside the set range. If it is determined that it is out of the setting range, the process proceeds to step S7106, where it is determined as gripping NG, and the factor of NG is set to “inclination angle”, and then the process jumps to step S7111.

一方、ステップS7105において、エンドエフェクタモデルの傾斜角度が設定範囲内と判定された場合はステップS7107に進み、計算した位置においてエンドエフェクタモデルと周囲の物体との干渉判定を実施する。ここで周囲の物体とは、エンドエフェクタモデルの周囲に存在する、収納容器や他のワーク等である。予め周囲の物体を、三次元CADデータ等でモデル化しておき、ワークモデルを把持する位置及び姿勢にエンドエフェクタモデルを移動させた場合、これらとエンドエフェクタモデルとが干渉するか否かを演算により判定する。   On the other hand, if it is determined in step S7105 that the tilt angle of the end effector model is within the set range, the process proceeds to step S7107, and interference between the end effector model and surrounding objects is determined at the calculated position. Here, the surrounding objects are storage containers, other works, etc. existing around the end effector model. When surrounding objects are modeled in advance using 3D CAD data, etc., and the end effector model is moved to the position and orientation where the workpiece model is gripped, it is calculated whether these and the end effector model interfere with each other. judge.

そしてステップS7108において、干渉判定の結果、エンドエフェクタモデルが周囲の物体と干渉していると判定された場合は、ステップS7109において、把持NG判定とし、NGの要因を「点群干渉」と設定した上で、ステップS7111にジャンプする。   If it is determined in step S7108 that the end effector model is interfering with a surrounding object as a result of the interference determination, the gripping NG determination is made in step S7109, and the NG factor is set to “point cloud interference”. Above, the process jumps to step S7111.

一方、ステップS7108において、干渉判定の結果、エンドエフェクタモデルが周囲の物体と干渉していないと判定された場合は、ステップS7110において、把持OK判定とした上で、ステップS7111に進む。   On the other hand, if it is determined in step S7108 that the end effector model does not interfere with surrounding objects as a result of the interference determination, the process proceeds to step S7111 after the gripping OK determination is made in step S7110.

そしてステップS7111において、選択したワークに別の把持姿勢が設定されているか否かを判定し、別の把持姿勢がある場合は、ステップS7104に戻り、上記の処理を繰り返す。一方、把持姿勢がないと判定された場合は、ステップS7112において、全ての把持解の候補について、把持OK/把持NGの判定結果と、把持NGの場合の要因をワーク把持不能要因表示領域3eに表示させる。   In step S7111, it is determined whether another gripping posture is set for the selected workpiece. If there is another gripping posture, the process returns to step S7104 to repeat the above processing. On the other hand, if it is determined that there is no gripping posture, in step S7112, the gripping OK / gripping NG determination result and the factor in the case of gripping NG are displayed in the workpiece gripping disability factor display area 3e for all gripping solution candidates. Display.

このようにして、与えられたワーク群に対して把持が可能かどうかを検証し、さらに把持できない場合の要因をリストアップすることができる。
(把持シミュレーション)
In this way, it is possible to verify whether or not a given workpiece group can be gripped, and to list the factors when gripping is not possible.
(Gripping simulation)

次に、具体的な把持の判定を行う把持シミュレーションの詳細について説明する。ここでは、図72に示すようなワークWK10を用いてバラ積みピッキングを行う場合に、把持が可能かどうかの判定を行う例について説明する。このワークWK10について、基本方向画像生成部8e’で六面図に相当する基本方向画像を生成し、各基本方向画像をサーチモデルとして、サーチモデル登録部8gで登録する。基本方向画像の例を、図73A〜図73Eに示す。これらの図において、図73Aは図72のワークをZ軸の正方向側から見た高さ画像Aであり、図73BはZ軸の負方向側から見た高さ画像Bであり、図73CはX軸の正方向側から見た高さ画像Cであり、図73DはX軸の負方向側から見た高さ画像Dであり、図73EはY軸の正方向側から見た高さ画像Eであり、図73FはY軸の負方向側から見た高さ画像Fを、それぞれ示している。
(ワーク選択画面210)
Next, details of a gripping simulation for performing specific gripping determination will be described. Here, an example will be described in which it is determined whether gripping is possible or not when performing bulk picking using the workpiece WK10 as shown in FIG. For this work WK10, a basic direction image corresponding to a hexahedral view is generated by the basic direction image generation unit 8e ′, and each basic direction image is registered as a search model by the search model registration unit 8g. Examples of basic direction images are shown in FIGS. 73A to 73E. In these drawings, FIG. 73A is a height image A when the workpiece of FIG. 72 is viewed from the positive direction side of the Z axis, and FIG. 73B is a height image B when viewed from the negative direction side of the Z axis. Is a height image C viewed from the positive direction side of the X axis, FIG. 73D is a height image D viewed from the negative direction side of the X axis, and FIG. 73E is a height viewed from the positive direction side of the Y axis. FIG. 73F shows the height image F viewed from the negative direction side of the Y axis.
(Work selection screen 210)

ワークをエンドエフェクタで把持可能かどうかの判定を行うために、バラ積みされたワーク群を撮像した入力画像に対して三次元サーチを行い、ワークを検出した状態において、対象となるワークを選択する(図71のステップS7103)。ワークの選択は、例えば図74に示すワーク選択画面210から行う。この図に示すワーク選択画面210は、画像表示欄141と操作欄142を備える。画像表示欄141には、バラ積みされたワーク群を撮像した実測データである入力画像が表示されている。また入力画像に対し、ワークが検出された位置に重ねてサーチ結果が点群で表示されている。画像表示欄141の画面をドラッグすることで、視点を変更できる。
(ラベル番号、モデル番号)
In order to determine whether or not the workpiece can be gripped by the end effector, a three-dimensional search is performed on an input image obtained by capturing a group of stacked workpieces, and the target workpiece is selected when the workpiece is detected. (Step S7103 of FIG. 71). The workpiece is selected from, for example, a workpiece selection screen 210 shown in FIG. The work selection screen 210 shown in this figure includes an image display field 141 and an operation field 142. In the image display column 141, an input image which is actual measurement data obtained by imaging a group of workpieces stacked is displayed. In addition, search results are displayed as point clouds over the input image at the position where the workpiece is detected. The viewpoint can be changed by dragging the screen of the image display column 141.
(Label number, model number)

操作欄142には、対象となるワークを選択するための対象ワーク選択欄211と、この対象ワークを三次元サーチするために用いたサーチモデルを示す検出サーチモデル表示欄212と、選択されたワークに対する、すべての把持位置候補を一覧表示させるための「把持確認」ボタン213が設けられる。図74の例では、入力画像に対して三次元サーチした結果、ワークが18個存在しており、この中で3番目のワークを選択している状態を示している。ここで検出されたサーチ結果を区別するため、サーチ結果には識別情報が設定される。ここでは識別情報として、通し番号のラベル番号が設定されている。図74の対象ワーク選択欄211には、選択中の対象ワークのラベル番号として「3」が表示されている。また画像表示欄141中では、選択された対象ワークのサーチ結果が、表示されている。具体的には、サーチ結果の様子として、該当するサーチモデルの特徴点が入力画像の点群に重畳表示した形で表示されている。この状態で対象ワークのラベル番号を変更すると、これに応じて画像表示欄141中で選択されているワークも変更される。さらに検出サーチモデル表示欄212には、対象ワークを三次元サーチするために用いたサーチモデルとして、サーチモデルE(図73Eの高さ画像)が表示されている。なお、サーチモデルにも個別の識別情報が付与されており、ここではモデル番号と呼ぶ。図74では検出サーチモデル表示欄212にモデル番号として、通し番号のラベル番号3のワークモデルの「E」が表示されている。
(把持解候補表示画面220)
The operation column 142 includes a target workpiece selection column 211 for selecting a target workpiece, a detection search model display column 212 indicating a search model used for three-dimensional search of the target workpiece, and a selected workpiece. A “check grip” button 213 for displaying a list of all gripping position candidates is provided. In the example of FIG. 74, as a result of performing a three-dimensional search on the input image, there are 18 workpieces, and the third workpiece is selected among them. In order to distinguish the search results detected here, identification information is set in the search results. Here, a serial number label number is set as the identification information. In the target work selection column 211 of FIG. 74, “3” is displayed as the label number of the target work being selected. In the image display column 141, the search result of the selected target work is displayed. Specifically, as the state of the search result, the feature points of the corresponding search model are displayed in a form superimposed on the point group of the input image. When the label number of the target work is changed in this state, the work selected in the image display field 141 is also changed accordingly. Further, in the detection search model display column 212, a search model E (a height image in FIG. 73E) is displayed as a search model used for the three-dimensional search of the target workpiece. Note that individual identification information is also assigned to the search model, and is referred to as a model number here. In FIG. 74, “E” of the work model with the serial number label number 3 is displayed as the model number in the detection search model display field 212.
(Gripping solution candidate display screen 220)

さらに、ワーク毎に設定されている把持位置、すなわち把持解候補を把持解候補表示領域3cに一覧表示させることもできる。図74のワーク選択画面210の例では、「把持確認」ボタン213を押下すると、図75の把持解候補表示画面220が表示部に表示される。把持解候補表示領域3cの一形態である把持解候補表示画面220では、図74の対象ワーク選択欄211で選択された対象ワークに対して設定されたすべての把持位置が把持解候補として把持解候補表示欄221に列挙される。把持解候補表示欄221には、把持解毎に、把持位置のラベル番号を示すワーク把持位置表示欄223と、ワークの把持可否判定結果を示すワーク把持可否表示欄224と、把持不能の場合にその理由を示すワーク把持不能要因表示欄225が設けられる。図75の例では、対象ワーク選択欄211で選択された選択された3番目のサーチ結果の対象ワークに対し、すべて把持候補である5つがリストアップされ、把持OK、NGの判定結果と共に、NGとなった原因が表示される。また把持解候補表示欄221で選択されているワークの把持位置に対応して、画像表示欄141で選択されたワークと、これを把持するエンドエフェクタモデルが、把持位置を把持する姿勢で表示される。そして把持解候補表示欄221で把持位置の選択を変更すると、これに応じて画像表示欄141中のワークも変更され、さらにこのワークを把持するエンドエフェクタモデルの姿勢も更新される。   Furthermore, the gripping position set for each workpiece, that is, gripping solution candidates can be displayed in a list in the gripping solution candidate display area 3c. In the example of the workpiece selection screen 210 in FIG. 74, when the “check grip” button 213 is pressed, a gripping solution candidate display screen 220 in FIG. 75 is displayed on the display unit. In the gripping solution candidate display screen 220, which is one form of the gripping solution candidate display area 3c, all gripping positions set for the target work selected in the target work selection field 211 of FIG. 74 are gripping solutions as gripping solution candidates. They are listed in the candidate display column 221. In the gripping solution candidate display column 221, for each gripping solution, a workpiece gripping position display column 223 indicating the label number of the gripping position, a workpiece gripping availability display column 224 indicating a result of whether or not a workpiece is gripped, and a case where gripping is not possible are displayed. A work grip impossibility factor display field 225 indicating the reason is provided. In the example of FIG. 75, five gripping candidates are listed for the target workpieces of the third search result selected in the target workpiece selection field 211, and NG along with the gripping OK / NG determination results. The cause of the error is displayed. In addition, the workpiece selected in the image display column 141 and the end effector model that grips the workpiece are displayed in a posture for gripping the gripping position corresponding to the gripping position of the workpiece selected in the gripping solution candidate display column 221. The When the selection of the gripping position is changed in the gripping solution candidate display field 221, the work in the image display field 141 is changed accordingly, and the posture of the end effector model that grips the work is also updated.

図75の例では、図73Eのワークをラベル番号3番の把持位置候補で把持する状態を示している。ここでは把持OKの判定結果であるため、ワーク把持不能要因表示欄225には何も表示されない。一方、ワーク把持不能要因表示欄225でラベル番号4番の把持位置候補を選択すると、図76に示すように画像表示欄141中の表示も変更される。ラベル番号4の把持位置候補は把持NGの判定結果であるため、ワーク把持不能要因表示欄225には把持不能と判定された理由が表示される。さらに画像表示欄141中では、これに対応するエンドエフェクタモデルが表示され、実際に把持姿勢がどのような状態となっているかを視覚的に確認することができる。ここでは「点群干渉」と表示され、エンドエフェクタが収納容器の平面と干渉していることが確認できる。この結果、ユーザはこのような姿勢のワークに対し、干渉しない位置や姿勢での把持位置の追加を検討することが可能となる。   The example of FIG. 75 shows a state in which the workpiece of FIG. 73E is gripped by the gripping position candidate of label number 3. In this case, since the determination result is the gripping OK, nothing is displayed in the work gripping inability factor display field 225. On the other hand, when the gripping position candidate with the label number 4 is selected in the work gripping impossibility factor display field 225, the display in the image display field 141 is also changed as shown in FIG. Since the gripping position candidate of label number 4 is a determination result of gripping NG, the reason why it is determined that gripping is not possible is displayed in the work gripping inability factor display field 225. Further, in the image display column 141, an end effector model corresponding to this is displayed, and it is possible to visually confirm what state the gripping posture is actually in. Here, “point cloud interference” is displayed, and it can be confirmed that the end effector interferes with the plane of the storage container. As a result, the user can consider adding a gripping position at a position or posture that does not interfere with the workpiece in such a posture.

同様に、ワーク把持不能要因表示欄225でラベル番号2番の把持位置候補を選択すると、図77に示す把持解候補表示画面220となり、ラベル番号2の把持位置候補が把持NGの判定結果となった理由として、「傾斜角度」とワーク把持不能要因表示欄225に表示される。さらに画像表示欄141中では、これに対応するエンドエフェクタモデルが表示され、エンドエフェクタが急峻な傾斜角度で把持しようとした状態となっており、そもそも干渉判定対象から除外されていることが判る。   Similarly, when a gripping position candidate with label number 2 is selected in the work gripping disability factor display field 225, a gripping solution candidate display screen 220 shown in FIG. 77 is displayed, and the gripping position candidate with label number 2 becomes the determination result of gripping NG. As the reason, “Inclination angle” is displayed in the work grip impossibility factor display field 225. Further, in the image display column 141, an end effector model corresponding to this is displayed, and the end effector is in a state of attempting to grip at a steep inclination angle, and it can be seen that it is excluded from the interference determination target in the first place.

また、判定結果に応じて、画像表示欄141で表示されるエンドエフェクタの表示態様を変更させてもよい。図75の例では、把持OKの場合にエンドエフェクタモデルを白色で表示させ、また図76や図77の例では、把持NGの場合にエンドエフェクタモデルを赤色で表示させている。これによりユーザは視覚的に把持の判定結果を容易に区別できる。また、把持位置を追加する際に、エンドエフェクタモデルの姿勢を調整して、干渉しない状態となった時点で表示態様を変更するように、画像表示欄141における表示を更新させる構成にしてもよい。このように構成することで、ユーザは例えばエンドエフェクタモデルの姿勢を、赤色から白色になるまで変更することができ、姿勢の調整作業を判り易く行える利点が得られる。   Further, the display mode of the end effector displayed in the image display field 141 may be changed according to the determination result. In the example of FIG. 75, the end effector model is displayed in white in the case of gripping OK, and the end effector model is displayed in red in the case of gripping NG in the examples of FIGS. As a result, the user can easily distinguish visually the determination result of gripping. Further, when adding the grip position, the display of the image display column 141 may be updated so that the display mode is changed when the posture of the end effector model is adjusted and no interference occurs. . By configuring in this way, the user can change the posture of the end effector model from red to white, for example, and the advantage that the posture adjustment work can be easily understood is obtained.

このように把持可否判定検証機能を設けることで、把持したいワークが把持不能と判定された場合に、どのように把持を設定すればよいか、例えば新たな把持位置を追加したり、既存の把持位置の設定を変更するなどの作業を検討する際の指針となる。例えば、図78、図79に示す例では、サーチモデルC(図73C)のワークに対して2つの把持位置候補が存在しているものの、いずれも点群干渉が理由で把持不能ととなっている。いずれも、画像表示欄141中に破線の円で示すように、エンドエフェクタモデルの爪の先端が別のワークに干渉していることが原因であることが判る。このことから、現在の把持位置の反対側の箇所を把持するように、新たな把持位置を追加すれば、OKの把持解が得られることが判る。そこで、現在の把持位置の反対側にも新たな把持位置(把持姿勢C−002)を追加するよう把持位置特定部8dで設定すると、図80に示すように、把持OKの判定結果を得られるようになる。このようにして、把持位置や姿勢の調整作業をユーザが行う際、対応策を検討しやすい環境が与えられ、設定が容易なロボットシステムが実現される。   By providing the gripping possibility verification function in this way, how to set gripping when it is determined that the workpiece to be gripped is not grippable, for example, adding a new gripping position or existing gripping This is a guideline when considering work such as changing the position setting. For example, in the examples shown in FIGS. 78 and 79, although there are two gripping position candidates for the workpiece of the search model C (FIG. 73C), both cannot be gripped because of point cloud interference. Yes. In either case, as indicated by a broken-line circle in the image display field 141, it can be seen that the cause is that the tip of the nail of the end effector model interferes with another workpiece. From this, it can be seen that if a new gripping position is added so as to grip a portion on the opposite side of the current gripping position, an OK gripping solution can be obtained. Therefore, if the gripping position specifying unit 8d is set to add a new gripping position (griping posture C-002) also on the opposite side of the current gripping position, a gripping OK determination result can be obtained as shown in FIG. It becomes like this. In this way, when the user performs adjustment work of the gripping position and posture, an environment in which countermeasures can be easily considered is given, and a robot system that is easy to set is realized.

また、エンドエフェクタの傾斜角度のしきい値を、ユーザによる設定で変更することも可能である。例えば、ワークの収納容器として底の深い箱を用いる場合には、エンドエフェクタの傾斜が大きくなると、エンドエフェクタ以外にロボットのアーム部分が収納容器の壁と衝突し易くなるため、角度範囲を狭く設定する。逆に、収納容器として底の浅い箱を用いる場合は、エンドエフェクタさえ干渉しなければ、ロボットのアーム部分が箱に衝突するケースは生じ難いため、角度範囲を広く設定することができる。このように、角度範囲の設定を調整することで、実際の状況に応じて把持の可否判定を柔軟に調整することが可能となる。   It is also possible to change the threshold value of the tilt angle of the end effector by setting by the user. For example, when using a box with a deep bottom as a work storage container, if the inclination of the end effector becomes large, the arm part of the robot will easily collide with the wall of the storage container in addition to the end effector. To do. On the contrary, when a box with a shallow bottom is used as the storage container, a case where the arm part of the robot does not collide with the box is unlikely to occur unless even the end effector interferes, so that the angle range can be set wide. As described above, by adjusting the setting of the angle range, it is possible to flexibly adjust the determination of whether or not the gripping can be performed according to the actual situation.

以上のようにして、選択したワークに対する全ての把持解が一覧表示され、NGだったものについては、そのNG要因が合わせて表示されるため、取れそうなのに、いつまでの把持解の候補とならないワークがあった場合に、それがどういう要因で把持されないのか、原因を特定することが容易になる。また、原因が特定できるため、新たにどのような把持姿勢を追加すれば良いかも判り易くなる。
(実施形態8)
As described above, all gripping solutions for the selected workpiece are displayed in a list. For those that are NG, the NG factor is also displayed, so a workpiece that is not a candidate for a gripping solution until now is likely to be taken. If there is a problem, it becomes easy to identify the cause of why the problem is not grasped. Further, since the cause can be identified, it becomes easy to understand what kind of gripping posture should be newly added.
(Embodiment 8)

以上の例では、三次元サーチに際して、サーチモデル毎に個別にサーチ結果を取得する例について説明した。すなわち、同じワークの異なる面を示す複数の基本方向画像でもって三次元サーチを行い、得られた結果についてもそれぞれ別々のワークとして認識される。いいかえると、同じワークの異なる面についても、それぞれ個別にサーチされる結果、異なるワークとして検出されることが起こり得る。一方、従来の三次元サーチでは、一のワークモデルを示す三次元形状でもってサーチされるため、このようなことは生じず、同じワークの異なる面も、一つのワークとして検出される。ただし、多くの面が存在するワークではサーチが複雑になる上、誤検出の可能性も高くなる。これに対して上述した実施形態に係る方法では、単純な面でサーチすることから、サーチの処理を簡素化でき、低負荷化、高速化等の点で有利となる。反面、面ごとにサーチされる結果、上述の通り得られるサーチ結果が、別個のワークとして捉えられ、同じワークであっても別の面がそれぞれ個別に検出されるという問題があった。   In the above example, an example in which search results are individually acquired for each search model in the three-dimensional search has been described. That is, a three-dimensional search is performed with a plurality of basic direction images showing different surfaces of the same workpiece, and the obtained results are recognized as separate workpieces. In other words, different surfaces of the same workpiece may be detected as different workpieces as a result of individual search. On the other hand, in the conventional three-dimensional search, since a search is performed with a three-dimensional shape representing one work model, such a situation does not occur, and different surfaces of the same work are also detected as one work. However, in a work having many surfaces, the search becomes complicated and the possibility of erroneous detection increases. On the other hand, since the method according to the above-described embodiment performs a simple search, the search process can be simplified, which is advantageous in terms of reduction in load and speed. On the other hand, as a result of searching for each surface, the search result obtained as described above is regarded as a separate work, and there is a problem that different surfaces are detected individually even for the same work.

そこで、得られたサーチ結果を統合し、ワーク毎に纏めたり、ある面のサーチ結果から別の面のサーチ結果を推定することで、三次元サーチでは検出できなかった面や、検出精度が低い面についても、把持解の候補として利用できるようにすることができる。このような例を実施形態8に係るロボットシステムとして、図81のブロック図に示す。この図に示すロボットシステム8000は、画像処理装置800と、表示部3Bと、操作部4と、センサ部2と、ロボットRBTを備える。なお、図6、図70等と同じ部材については、同じ番号を付して詳細説明を適宜省略する。
(画像処理装置800)
Therefore, by integrating the obtained search results for each work and estimating the search result of another surface from the search result of one surface, the surface that could not be detected by the 3D search and the detection accuracy is low The surface can also be used as a gripping solution candidate. FIG. 81 is a block diagram showing such an example as a robot system according to the eighth embodiment. A robot system 8000 shown in this figure includes an image processing apparatus 800, a display unit 3B, an operation unit 4, a sensor unit 2, and a robot RBT. In addition, about the same member as FIG. 6, FIG. 70 etc., the same number is attached | subjected and detailed description is abbreviate | omitted suitably.
(Image processing apparatus 800)

画像処理装置800は、入力画像取得部2cと、演算部10と、記憶部9と、入出力インターフェース4bと、表示インターフェース3fと、ロボットインターフェース6bを備える。演算部10は、基本方向画像生成部8e’と、把持位置特定部8dと、サーチモデル登録部8gと、三次元サーチ部8kと、画像推定部8zと、サーチ結果統合部8pと、三次元ピック判定部8lと、傾斜角度設定部8nとを備える。   The image processing apparatus 800 includes an input image acquisition unit 2c, a calculation unit 10, a storage unit 9, an input / output interface 4b, a display interface 3f, and a robot interface 6b. The calculation unit 10 includes a basic direction image generation unit 8e ′, a gripping position specifying unit 8d, a search model registration unit 8g, a three-dimensional search unit 8k, an image estimation unit 8z, a search result integration unit 8p, a three-dimensional A pick determination unit 8l and an inclination angle setting unit 8n are provided.

基本方向画像生成部8e’は、ワークモデルに対して、仮想三次元空間上で互いに直交する三軸の各軸方向のいずれかから見た複数の高さ画像を、基本方向画像として生成するための部材である。   The basic direction image generation unit 8e ′ generates, as a basic direction image, a plurality of height images viewed from any one of the three axial directions orthogonal to each other in the virtual three-dimensional space with respect to the work model. It is a member.

把持位置特定部8dは、基本方向画像生成部8e’で生成された基本方向画像の一に対して、該基本方向画像が示すワークモデルをエンドエフェクタで把持する把持位置を複数、特定するための部材である。この把持位置特定部8dは、ワーク側把持箇所指定部8d1と、エンドエフェクタ側把持設定部8d2を備える。   The gripping position specifying unit 8d is for specifying a plurality of gripping positions where the end effector grips the work model indicated by the basic direction image with respect to one of the basic direction images generated by the basic direction image generating unit 8e ′. It is a member. The grip position specifying unit 8d includes a workpiece side grip location specifying unit 8d1 and an end effector side grip setting unit 8d2.

ワーク側把持箇所指定部8d1は、画像表示領域3bにエンドエフェクタモデルを表示させた状態で、ワークの三次元形状を仮想的に表現する、三次元CADデータで構成されたワークモデルをエンドエフェクタモデルで把持する際の把持位置を指定するための部材である。   The workpiece-side gripping location specifying unit 8d1 displays a workpiece model composed of three-dimensional CAD data that virtually represents the three-dimensional shape of the workpiece in a state where the end effector model is displayed in the image display area 3b. This is a member for designating a gripping position when gripping with.

エンドエフェクタ側把持設定部8d2は、画像表示領域3bに表示されるエンドエフェクタモデルに対して、ワークを把持する把持位置を指定するための部材である。   The end effector side gripping setting unit 8d2 is a member for designating a gripping position for gripping a workpiece with respect to the end effector model displayed in the image display area 3b.

サーチモデル登録部8gは、基本方向画像生成部8e’で生成された複数の基本方向画像を、入力画像取得部2cで取得された入力画像に含まれる複数のワーク群に対して、各ワークの姿勢と位置を特定する三次元サーチを行う際に用いるサーチモデルとしてそれぞれ登録するための部材である。またサーチモデル登録部8gは、複数登録されるサーチモデル同士の相対位置を関係性情報として登録することもできる(詳細は後述)。   The search model registration unit 8g applies the plurality of basic direction images generated by the basic direction image generation unit 8e ′ to the plurality of work groups included in the input image acquired by the input image acquisition unit 2c. It is a member for registering each as a search model used when performing a three-dimensional search for specifying the posture and position. The search model registration unit 8g can also register the relative positions of a plurality of registered search models as relationship information (details will be described later).

画像推定部8zは、三次元サーチ部8kでサーチされ、入力画像中からサーチモデル単位で抽出された、各サーチ結果に対して、このサーチに用いられた各サーチモデルが、元のワークモデルをどの方向から見た基本方向画像であり、このワークモデルに対して登録されている他のサーチモデルの基本方向画像との相対的な位置関係に基づいて、このサーチ結果が示すワークモデルに対して、三次元サーチ部のサーチ結果に含まれていない未サーチの基本方向画像の位置及び姿勢を推定画像として推定するための部材である。この画像推定部8zは、例えば後述する角度判定部8oにより、三次元サーチ部8kでサーチされたワークのサーチ結果の姿勢が、傾斜角度設定部8nで設定された傾斜角度範囲内にある場合は、このサーチ結果と相対的な位置関係を有する推定画像を推定するよう構成できる。   The image estimation unit 8z is searched by the three-dimensional search unit 8k and extracted for each search model from the input image. For each search result, each search model used for this search uses the original work model. This is the basic direction image seen from which direction, and based on the relative positional relationship with the basic direction image of other search models registered for this work model, This is a member for estimating the position and orientation of an unsearched basic direction image not included in the search result of the three-dimensional search unit as an estimated image. For example, when the posture of the workpiece search result searched by the three-dimensional search unit 8k by the angle determination unit 8o described later is within the tilt angle range set by the tilt angle setting unit 8n, the image estimation unit 8z The estimation image having a relative positional relationship with the search result can be estimated.

サーチ結果統合部8pは、三次元サーチ部8kでサーチされ、入力画像中からサーチモデル単位で抽出された、各サーチ結果に対して、サーチに用いられた各サーチモデルが、元のワークモデルをどの方向から見た基本方向画像であるかの相対的な位置関係に基づいて、複数のサーチ結果の内、隣接するもの同士を共通のワークに関する統合結果として統合するための部材である。   The search result integration unit 8p is searched by the three-dimensional search unit 8k and extracted for each search model from the input image. For each search result, the search model used for the search uses the original work model. This is a member for integrating adjacent search results among a plurality of search results as an integration result related to a common work based on the relative positional relationship of the basic direction image viewed from which direction.

三次元ピック判定部8lは、サーチ結果統合部8pで統合された統合結果、及び三次元サーチ部8kでサーチされた未統合の各サーチ結果に対して、把持位置特定部8dでワークモデルに対して指定された把持位置にて、エンドエフェクタで把持可能か否かを判定するための部材である。この三次元ピック判定部8lは、干渉判定部8mと、角度判定部8oとを備える。   The three-dimensional pick determining unit 8l performs the gripping position specifying unit 8d on the work model with respect to the integrated results integrated by the search result integrating unit 8p and the unintegrated search results searched by the three-dimensional search unit 8k. This is a member for determining whether or not the end effector can grip at the specified gripping position. The three-dimensional pick determination unit 8l includes an interference determination unit 8m and an angle determination unit 8o.

これにより、三次元サーチされたサーチ結果に対して、個別に保持判定を行うのでなく、面同士の関係性情報を用いてワークの位置及び姿勢をより正確に推定できるので、サーチされていない面、あるいはサーチ結果の精度が低い面についても、検出できるようになり、通常であればサーチが困難な面も含めて保持位置候補として検討することが可能となり、保持解が得られる可能性を高めることが可能となる。
(面同士の関係性情報を含めたサーチモデルを登録する手順)
As a result, it is possible to more accurately estimate the position and orientation of the workpiece using the relationship information between the faces, instead of performing individual holding determinations on the search results that are three-dimensionally searched. In addition, it becomes possible to detect even a surface with a low accuracy of the search result, and it is possible to consider it as a holding position candidate including a surface that is difficult to search in a normal state, thereby increasing the possibility of obtaining a holding solution. It becomes possible.
(Procedure for registering a search model including relationship information between faces)

以上の画像処理装置に対して、ワークモデルやエンドエフェクタモデルの登録、把持位置の登録などの設定を行う手順は、例えば図27のフローチャートで示した手順が利用できる。ここで、図27のステップS2701において、サーチモデルとして三次元CADデータを用いると共に、ワークの面同士の関係性情報を含めたサーチモデルを登録する手順を、図82のフローチャートに基づいて説明する。   For example, the procedure shown in the flowchart of FIG. 27 can be used as the procedure for setting the registration of the work model and end effector model, the registration of the gripping position, and the like for the above image processing apparatus. Here, in step S2701 of FIG. 27, the procedure for using the three-dimensional CAD data as the search model and registering the search model including the relationship information between the surfaces of the workpiece will be described based on the flowchart of FIG.

まずステップS8201において、ワークの三次元CADデータモデルを読み込む。   First, in step S8201, a three-dimensional CAD data model of a work is read.

次にステップS8202において、三次元CADデータモデルの外接直方体の中心を、三次元CADデータの原点に補正する。   In step S8202, the center of the circumscribed cuboid of the three-dimensional CAD data model is corrected to the origin of the three-dimensional CAD data.

さらにステップS8203において、「上」「下」「左」「右」「前」「後」の各方向から見た高さ画像を基本方向画像として生成する。基本方向画像は、図81の基本方向画像生成部8e’で行われる。ここで、三次元CADデータから高さ画像を生成する際は、CADの原点が高さ画像の中心になるように生成する。   In step S8203, a height image viewed from each of the “up”, “down”, “left”, “right”, “front”, and “rear” directions is generated as a basic direction image. The basic direction image is performed by the basic direction image generation unit 8e 'of FIG. Here, when the height image is generated from the three-dimensional CAD data, the height image is generated so that the origin of the CAD becomes the center of the height image.

次にステップS8204において、生成した高さ画像の中で、同じ見え方になる高さ画像を削除する。   In step S8204, a height image that looks the same is deleted from the generated height images.

さらにステップS8205において、複数登録されるサーチモデル同士の相対位置を関係性情報として登録する。ここでは、サーチモデル登録部8gが、残った高さ画像と、上下左右前後の各面の関係性情報を保存する。   In step S8205, the relative positions of a plurality of registered search models are registered as relationship information. Here, the search model registration unit 8g stores the remaining height image and the relationship information between the front, back, front, back, left, and back surfaces.

最後にステップS8205において、生成された高さ画像を用いてサーチモデルを登録する。このようにして、ワークの面同士の関係性情報を含めたサーチモデルが登録される。
(面の関係性情報)
Finally, in step S8205, a search model is registered using the generated height image. In this way, the search model including the relationship information between the work surfaces is registered.
(Relationship information of faces)

ここでワークを特定方向から見た面同士の相対位置関係を示す関係性情報について説明する。例えば、図7に示したようなワークの場合、見え方の異なる面は、図9A〜図9Dで示した4面となる。これらの図において、図9Aで示すモデルAは、X軸の正方向から見た高さ画像である。ただ、X軸の負方向から見た画像にも一致する。また図9Bに示すモデルBはY軸の正方向から見た高さ画像であるところ、Y軸の負方向から見た画像にも一致する。一方で図9Cに示すモデルCは、Z軸の正方向から見た画像のみに一致する。また図9Dに示すモデルDは、Z軸の負方向から見た画像のみに一致する。   Here, the relationship information indicating the relative positional relationship between the surfaces when the workpiece is viewed from a specific direction will be described. For example, in the case of the workpiece as shown in FIG. 7, the surfaces with different appearances are the four surfaces shown in FIGS. 9A to 9D. In these drawings, model A shown in FIG. 9A is a height image viewed from the positive direction of the X axis. However, it also matches the image viewed from the negative direction of the X axis. Further, the model B shown in FIG. 9B is a height image viewed from the positive direction of the Y axis, and matches the image viewed from the negative direction of the Y axis. On the other hand, the model C shown in FIG. 9C matches only the image viewed from the positive direction of the Z axis. The model D shown in FIG. 9D matches only the image viewed from the negative direction of the Z axis.

ここで、予め生成された高さ画像であるモデルA、B、C、Dが、図7に示すワークの三次元CADデータを、どの座標軸方向から、どの回転状態で見た画像と一致するかという情報を、面の関係性情報を表す情報とする。このような、面の関係性情報があれば、各モデルのサーチ結果から、元の三次元CADモデルの姿勢を求めることができるようになる。例えば、図9AにおけるモデルAの左右の面には、図9BのモデルBがそれぞれ隣り合って存在する。またモデルAの上面には図9CのモデルCが、下面には図9DのモデルDが、それぞれ隣り合って存在する。この結果、三次元サーチの結果得られたサーチ済み画像において、モデルAとモデルBの検出結果が隣り合っていた場合に、同じワークに対するサーチが行われた結果であることが判る。よってこれらのサーチ結果を、1つのサーチ結果として統合することができる。ここで、統合されたサーチ結果の集合を統合結果と呼ぶ。   Here, models A, B, C, and D, which are height images generated in advance, match the three-dimensional CAD data of the workpiece shown in FIG. Is the information representing the relationship information of the surface. With such surface relationship information, the orientation of the original three-dimensional CAD model can be obtained from the search result of each model. For example, the model B in FIG. 9B is adjacent to the left and right surfaces of the model A in FIG. 9A. Further, the model C in FIG. 9C is adjacent to the upper surface of the model A, and the model D in FIG. 9D is adjacent to the lower surface. As a result, it can be seen that, in the searched images obtained as a result of the three-dimensional search, when the detection results of the model A and the model B are adjacent to each other, the search for the same work is performed. Therefore, these search results can be integrated as one search result. Here, a set of integrated search results is referred to as an integrated result.

またサーチ結果を統合することで、評価指標を更新することもできる。すなわち、精度が高くないサーチ結果であっても、統合結果に精度の高いサーチ結果が得られている場合は、統合結果の評価指数を高くして、把持位置の選択等に際して正しい把持解としてより優先させることができる。
(未サーチ基本方向画像)
Also, the evaluation index can be updated by integrating the search results. In other words, even if the search result is not highly accurate, if a highly accurate search result is obtained in the integrated result, the evaluation index of the integrated result is increased so that a correct gripping solution can be obtained when selecting a gripping position. Can be prioritized.
(Unsearched basic direction image)

さらに、三次元サーチに失敗した場合やサーチ自体が行われなかった場合のように、サーチされない面があっても、統合結果を利用して推定することが可能となる。すなわち、複数のサーチ結果を統合してワークの統合結果を得た際に、このワークを構成する面の内で三次元サーチで検出されなかった面が存在する場合であっても、他の面でサーチ結果が得られていれば、ワーク自体の姿勢や位置を演算できる。この結果、予めワークに対して把持位置を登録したワークモデルや三次元サーチ用のサーチモデルが登録されている場合は、サーチされていない面の情報も、ワークの姿勢から推定できる。よって、このようなサーチの結果として得られたのでない、推定によって得られた面(未サーチ基本方向画像と呼ぶ。)をも、把持位置の候補に利用することで、実際にサーチされなかった面の把持位置をも把持解の候補として検討でき、適切な把持解が得られ易くなる利点が得られる。例えば三次元サーチの結果、図9Bに示すモデルBが得られた場合に、その横には図9Aに示すモデルAの面が存在するものと推定できる。これにより、仮にモデルAがサーチ結果として実際に検出されていなかったとしても、モデルBのサーチ結果から、モデルAの面を推定することができるため、把持解の候補としてモデルAの面に登録された把持姿勢を用いることができるようになり、この結果、把持解の候補が増えてピッキングされ易くなる。
(面の関係性情報を用いた把持解の算出)
Furthermore, even if there is a surface that is not searched, such as when the three-dimensional search fails or when the search itself is not performed, it is possible to estimate using the integration result. That is, when a plurality of search results are integrated to obtain a work integration result, even if there are faces that are not detected by the three-dimensional search among the faces constituting this work, If the search result is obtained, the posture and position of the workpiece itself can be calculated. As a result, when a work model in which the gripping position is registered in advance with respect to the work or a search model for three-dimensional search is registered, information on a surface that has not been searched can also be estimated from the posture of the work. Therefore, a surface (referred to as an unsearched basic direction image) obtained by estimation that is not obtained as a result of such a search was also not actually searched by using it as a gripping position candidate. The gripping position of the surface can also be considered as a gripping solution candidate, and there is an advantage that an appropriate gripping solution can be easily obtained. For example, when the model B shown in FIG. 9B is obtained as a result of the three-dimensional search, it can be estimated that the surface of the model A shown in FIG. As a result, even if model A is not actually detected as a search result, the surface of model A can be estimated from the search result of model B, so that it is registered as a gripping solution candidate in the surface of model A. As a result, the number of gripping solution candidates is increased and picking is easily performed.
(Calculation of gripping solution using surface relationship information)

次に、面の関係性情報を用いた把持解算出の効果について、図72に示したワークWK10を用いて説明する。このワークWK10の三次元CADデータから、図73A〜図73Fに示す基本方向画像を基本方向画像生成部8e’でもって生成し、これらをサーチモデルとしてサーチモデル登録部8gで登録する。これらの図において、図73AはZ軸の正方向から見た高さ画像であり、これをモデルAとする。同様に図73BはZ軸の負方向から見た高さ画像であり、これをモデルBとする。また図73CはX軸の正方向から見た高さ画像であり、モデルCとする。さらに図73DはX軸の負方向から見た高さ画像であってモデルD、図73EはY軸の正方向から見た高さ画像であってモデルE、図73FはY軸の負方向から見た高さ画像であってモデルFを、それぞれ示している。   Next, the effect of gripping solution calculation using the surface relationship information will be described using the workpiece WK10 shown in FIG. 73A to 73F are generated from the three-dimensional CAD data of the workpiece WK10 by the basic direction image generation unit 8e ', and these are registered as search models by the search model registration unit 8g. In these figures, FIG. 73A is a height image viewed from the positive direction of the Z axis, and this is model A. Similarly, FIG. 73B is a height image viewed from the negative direction of the Z axis. FIG. 73C is a height image viewed from the positive direction of the X axis, and is model C. Further, FIG. 73D is a height image viewed from the negative direction of the X axis and is model D, FIG. 73E is a height image viewed from the positive direction of the Y axis and is model E, and FIG. The model F is shown as a height image as seen.

ここで、これらの各基本方向画像に対し、図83A〜図83Fに示すように、ワークモデルWM10をエンドエフェクタモデルEM10で把持する把持姿勢が1つずつ、把持位置特定部8dで登録されているものとする。ここで図83Aは、図73Aの基本方向画像に対して、把持姿勢A−000を登録している状態を示している。また図83Bは、図73Bの基本方向画像に対して、把持姿勢B−000を登録している状態を示している。さらに図83Cは、図73Cの基本方向画像に対して、把持姿勢C−000を登録している状態、図83Dは、図73Dの基本方向画像に対して、把持姿勢D−000を登録している状態、図83Eは、図73Eの基本方向画像に対して、把持姿勢E−000を登録している状態、図83Fは、図73Fの基本方向画像に対して、把持姿勢F−000を登録している状態を、それぞれ示している。この場合に、面の関係性情報を用いた把持解の算出について、図84、図85、図86に基づいて説明する。   Here, for each of these basic direction images, as shown in FIGS. 83A to 83F, one gripping posture for gripping the work model WM10 with the end effector model EM10 is registered in the gripping position specifying unit 8d. Shall. Here, FIG. 83A shows a state in which the gripping posture A-000 is registered with respect to the basic direction image of FIG. 73A. FIG. 83B shows a state where a gripping posture B-000 is registered for the basic direction image of FIG. 73B. Further, FIG. 83C shows a state in which the gripping posture C-000 is registered with respect to the basic direction image in FIG. 73C, and FIG. 83D shows a state in which the gripping posture D-000 is registered with respect to the basic direction image in FIG. 83E is a state where the gripping posture E-000 is registered for the basic direction image of FIG. 73E, and FIG. 83F is a state where the gripping posture F-000 is registered for the basic direction image of FIG. 73F. Each state is shown. In this case, calculation of the gripping solution using the surface relationship information will be described with reference to FIGS. 84, 85, and 86.

図84のワーク選択画面210は、バラ積みされたワーク群を撮像した入力画像に対して三次元サーチを行った結果、12個のワークが検出されている状態を示している。画像表示欄141には、入力画像が表示されている。また操作欄142には、対象となるワークを選択するための対象ワーク選択欄211と、検出サーチモデル表示欄212と、選択されたワークにおける把持位置候補を一覧表示させるための「把持確認」ボタン213が設けられている。図84の例では、三次元サーチされた12個のワークの内、2番目のワークが対象ワーク選択欄211で選択されており、また画像表示欄141中では、選択された2番目の対象ワークのサーチ結果が表示されている。具体的には、サーチ結果の様子として、該当するサーチモデルの特徴点が入力画像の点群に重畳表示した形で表示されている。さらに検出サーチモデル表示欄212には、2番目の対象ワークを検出したサーチモデルとして、サーチモデルC,F,Aが表示されている。この状態で、3種類のサーチモデルC、F、A(図73C、図73F、図73A)が統合されている。   The workpiece selection screen 210 in FIG. 84 shows a state where 12 workpieces are detected as a result of performing a three-dimensional search on an input image obtained by imaging a group of workpieces stacked in bulk. In the image display field 141, an input image is displayed. The operation column 142 includes a target workpiece selection column 211 for selecting a target workpiece, a detection search model display column 212, and a “grip confirmation” button for displaying a list of gripping position candidates for the selected workpiece. 213 is provided. In the example of FIG. 84, the second workpiece is selected in the target workpiece selection column 211 among the twelve workpieces subjected to the three-dimensional search, and the selected second target workpiece is displayed in the image display column 141. Search results for are displayed. Specifically, as the state of the search result, the feature points of the corresponding search model are displayed in a form superimposed on the point group of the input image. Further, in the detected search model display column 212, search models C, F, and A are displayed as search models for detecting the second target workpiece. In this state, three types of search models C, F, and A (FIGS. 73C, 73F, and 73A) are integrated.

ここで、仮にワークの面の関係性情報を用いなかったとすると、モデルFやモデルAは、画像表示欄141に示すように入力画像上で側面の一部しか見えていない状態であるため、サーチ結果としては検出困難であったと思われる。また仮に検出できていたとしても、評価指標が低く、優先度の低い結果となると思われる。これに対し、関係性情報を用いることで、図84のように、サーチモデルCのみならず、サーチモデルFやサーチモデルAも検出され、あるいは推定されて、把持位置候補として利用すること可能となる。   Here, assuming that the relationship information on the surface of the workpiece is not used, the model F and the model A are in a state where only a part of the side surface is visible on the input image as shown in the image display column 141. As a result, it seems that it was difficult to detect. Even if it can be detected, the evaluation index is low, and it seems that the result has a low priority. On the other hand, by using the relationship information, not only the search model C but also the search model F and the search model A can be detected or estimated and used as gripping position candidates as shown in FIG. Become.

図84のワーク選択画面210において、「把持確認」ボタン213を押下すると、図85の把持解候補表示画面220が表示される。この把持解候補表示画面220では、図84の対象ワーク選択欄211で選択された2番目の対象ワークに対して設定された把持位置が把持解候補として把持解候補表示欄221に列挙される。把持解候補表示欄221には、検出サーチモデル表示欄212で表示されたサーチモデルC、F、Aに対し、それぞれ設定された把持位置(図83C、図83F、図83A)に対するワークの把持可否判定結果がワーク把持可否表示欄224に、把持不能の理由がワーク把持不能要因表示欄225に、それぞれ表示されている。まずサーチモデルCについては、判定結果が把持NGであり、その理由が点群データの干渉であることが示されている。また画像表示領域においては、把持位置C−000に対応する姿勢でワークを把持しようとするエンドエフェクタモデルEM10が赤色に表示されており、干渉して把持できない様子を示している。ここで、仮に面の関係性情報を用いなかったとすると、サーチモデルCのみが三次元サーチされる結果、把持解の候補はこのサーチモデルのC−000のみであり、結果として把持解を得られないこととなる。   When the “grip confirmation” button 213 is pressed on the work selection screen 210 in FIG. 84, a gripping solution candidate display screen 220 in FIG. 85 is displayed. In the gripping solution candidate display screen 220, the gripping position set for the second target work selected in the target work selection column 211 in FIG. 84 is listed in the gripping solution candidate display column 221 as gripping solution candidates. In the gripping solution candidate display field 221, whether or not the workpiece can be gripped at the gripping positions (FIGS. 83C, 83F, and 83A) set for the search models C, F, and A displayed in the detection search model display field 212, respectively. The determination result is displayed in the work gripping availability display field 224, and the reason for the inability to grip is displayed in the work gripping disability factor display field 225. First, for the search model C, it is shown that the determination result is gripping NG, and the reason is interference of point cloud data. Further, in the image display area, the end effector model EM10 that is to grip the workpiece in the posture corresponding to the gripping position C-000 is displayed in red, indicating that it cannot be gripped by interference. Here, if the relationship information of the surface is not used, only the search model C is three-dimensionally searched. As a result, the gripping solution candidate is only C-000 of this search model, and the gripping solution can be obtained as a result. It will not be.

これに対して、関係性情報を用いることで、図85、図86に示すようにサーチモデルC以外にサーチモデルF、Aも対象となり、把持位置候補もF−000とA−000が追加されていることが判る。そして追加された把持位置候補の内、サーチモデルFの把持位置候補F−000においては、把持NGの判定結果となっているが、サーチモデルAの把持位置候補A−000においては、把持OKの判定結果が得られており、図86に示すようにエンドエフェクタが白色で表示され、点群データに干渉することなく、無事に把持解が得られている。この結果、関係性情報を用いないと把持解が得られなかった場合でも、関係性情報を用いることで、把持解を得ることが可能となる。すなわち、三次元サーチの設定を変更、例えば照明やカメラの配置を調整したり、サーチのアルゴリズム等を変更することなく、同じサーチ条件のままで、言い換えると三次元サーチの精度を変更することなく、把持解が得られる可能性を高めることが可能となる。このように、面の関係性情報を用いることで、把持解の候補を増やし、ピッキングされ易い結果が得られる。
(実運用時の手順その3)
On the other hand, by using the relationship information, as shown in FIGS. 85 and 86, the search models F and A are also targeted in addition to the search model C, and F-000 and A-000 are added as gripping position candidates. You can see that Among the added gripping position candidates, the gripping position candidate F-000 of the search model F has a gripping NG determination result, but the gripping position candidate A-000 of the search model A has a gripping OK result. The determination result is obtained, and the end effector is displayed in white as shown in FIG. 86, and the gripping solution is obtained safely without interfering with the point cloud data. As a result, even when the gripping solution cannot be obtained without using the relationship information, the gripping solution can be obtained by using the relationship information. In other words, without changing the setting of the 3D search, for example, adjusting the lighting or camera arrangement, changing the search algorithm, etc., while maintaining the same search conditions, in other words, without changing the accuracy of the 3D search The possibility of obtaining a gripping solution can be increased. In this way, by using the surface relationship information, it is possible to increase the number of gripping solution candidates and obtain a result that is easily picked.
(Procedure 3 for actual operation)

ここで、図82の手順でサーチモデルが登録された状態で、実運用時に、三次元サーチと把持可否判定を行う手順を、図87のフローチャートに基づいて説明する。   Here, a procedure for performing a three-dimensional search and a gripping possibility determination in actual operation with the search model registered in the procedure of FIG. 82 will be described based on the flowchart of FIG.

まずステップS8701において、バラ積みワークに対して三次元計測を開始する。ここでは、図81に示すセンサ部2でバラ積みされたワーク群を撮像して三次元計測を行い、高さ情報を有する三次元形状を入力画像として入力画像取得部2cでもって取得する。   First, in step S8701, three-dimensional measurement is started for a bulk workpiece. Here, a group of workpieces stacked by the sensor unit 2 shown in FIG. 81 is imaged to perform three-dimensional measurement, and a three-dimensional shape having height information is acquired as an input image by the input image acquisition unit 2c.

次にステップS8702において、得られたワーク群の三次元形状に対して、ワークモデルを用いて三次元サーチを実施し、各ワークの位置及び姿勢を検出する。三次元サーチは、図81の三次元サーチ部8kで行われる。
(統合結果の生成)
In step S8702, a three-dimensional search is performed on the obtained three-dimensional shape of the workpiece group using a workpiece model, and the position and orientation of each workpiece are detected. The three-dimensional search is performed by the three-dimensional search unit 8k in FIG.
(Generation of integration results)

さらにステップS8703において、三次元サーチのサーチ結果と、各面の関係性情報から、同じワークを示す結果を統合する。ここではサーチ結果統合部8pが、サーチに用いたサーチモデルに登録された関係性情報を利用して、同じワークを撮像したサーチ結果同士を関連付ける。すなわち、サーチ結果をサーチした元となる共通のワークモデルをどの方向から見た基本方向画像であるかの相対的な位置関係に基づいて、複数のサーチ結果の内、隣接するもの同士を、サーチ結果統合部8pで統合する。このようにして得られた統合結果は、同じワークを示すものとして共通に扱う。
(未サーチ基本方向画像の生成)
Further, in step S8703, results indicating the same work are integrated from the search result of the three-dimensional search and the relationship information of each surface. Here, the search result integration unit 8p uses the relationship information registered in the search model used for the search to associate search results obtained by imaging the same workpiece. In other words, based on the relative positional relationship of the basic direction image from which the common work model from which the search results are searched is viewed, the adjacent search results are searched for among the search results. The result is integrated by the result integration unit 8p. The integration results obtained in this way are commonly handled as indicating the same work.
(Generation of unsearched basic direction images)

さらにステップS8704において、三次元サーチ結果と各面の関係性情報から、検出されていない面を推定する。ここでは、統合結果が示すワークの姿勢及び位置に基づいて、このワークに関して三次元サーチの結果には含まれていない未サーチの基本方向画像の位置及び姿勢を推定する。そして、この未サーチ基本方向画像に対して把持位置特定部8dで設定された把持位置を、把持可否判定の対象とする。これにより、三次元サーチの結果、本来サーチされなかったワークの面についても、統合されたサーチ結果が示すワークの姿勢及び位置から推定することで、把持可否判定の対象とすることができ、把持解が得られる可能性をより高めることができる。   In step S8704, a non-detected surface is estimated from the three-dimensional search result and the relationship information of each surface. Here, based on the posture and position of the workpiece indicated by the integration result, the position and posture of the unsearched basic direction image not included in the result of the three-dimensional search for the workpiece are estimated. Then, the gripping position set by the gripping position specifying unit 8d with respect to the unsearched basic direction image is set as a gripping possibility determination target. As a result, the surface of the workpiece that was not originally searched as a result of the three-dimensional search can be estimated from the posture and position of the workpiece indicated by the integrated search result, and can be determined as a gripping possibility determination target. The possibility of obtaining a solution can be further increased.

次にステップS8705において、検出された一のワークに対して、このワークの位置と、設定時に登録したワークの把持姿勢に基づいて、エンドエフェクタを配置すべき位置と姿勢を計算する。   Next, in step S8705, the position and posture where the end effector should be arranged are calculated for the detected one workpiece based on the workpiece position and the gripping posture of the workpiece registered at the time of setting.

次にステップS8706において、計算された位置において、エンドエフェクタが周囲の物体と干渉しないかどうかを、エンドエフェクタモデルを用いて干渉判定を実施する。   Next, in step S8706, whether or not the end effector interferes with surrounding objects at the calculated position is determined using the end effector model.

そしてステップS8707において、エンドエフェクタが干渉するか否かを判定し、干渉していない場合は、このワークに対して把持解ありとして処理を終了する。   In step S8707, it is determined whether or not the end effector interferes. If there is no interference, the processing is terminated with a gripping solution for the workpiece.

一方、干渉していると判定された場合は、ステップS8708に進み、このワークに対して登録された別の把持位置があるか否かを判定する。別の把持位置が登録されている場合は、ステップS8705に戻って、この把持位置に対して上記処理を繰り返す。   On the other hand, if it is determined that there is interference, the process advances to step S8708 to determine whether there is another gripping position registered for the workpiece. If another gripping position is registered, the process returns to step S8705 and the above processing is repeated for this gripping position.

一方、別の把持位置が登録されていない場合は、ステップS8709に進み、検出された別のワークがあるか否かを判定する。別のワークがある場合は、ステップS8705に戻って、ワークを代えて上記処理を繰り返す。別のワークが無い場合は、把持解なしとして処理を終了する。   On the other hand, if another gripping position is not registered, the process advances to step S8709 to determine whether there is another detected workpiece. If there is another work, the process returns to step S8705, and the above process is repeated by replacing the work. If there is no other workpiece, the process ends with no gripping solution.

このようにして、統合結果や未サーチ基本方向画像を用いて、ワークを把持可能な把持解の有無を判定する。そして把持解が得られた場合は、そのワークに対して、エンドエフェクタでもって決定された把持位置にてピックするよう、ロボットコントローラ6を制御する。   In this way, the presence / absence of a gripping solution capable of gripping the workpiece is determined using the integration result and the unsearched basic direction image. When the gripping solution is obtained, the robot controller 6 is controlled so that the workpiece is picked at the gripping position determined by the end effector.

なお、本明細書において画像とは、厳密に連続したデータに限られず、例えば点群データの集合のような離散的なデータの集合も含む意味で使用する。
(実施形態9)
(評価指標の統合)
In this specification, an image is not limited to strictly continuous data, but is used to include a set of discrete data such as a set of point cloud data.
(Embodiment 9)
(Integration of evaluation indicators)

また、以上の手順に加えて、統合結果に対して、優先順位を規定する評価指標を統合することもできる。このような例を実施形態9に係るロボットシステム9000として、図88に示す。この図に示す画像処理装置900は、評価指標演算部8qと、把持優先順位決定部8rを備える。なお、図81等に示す部材と共通の部材については、同じ符号を付して詳細説明を省略する。   Further, in addition to the above procedure, evaluation indexes that define the priority order can be integrated with the integration result. FIG. 88 shows such an example as a robot system 9000 according to the ninth embodiment. The image processing apparatus 900 shown in this figure includes an evaluation index calculation unit 8q and a grip priority order determination unit 8r. In addition, about the member common to the member shown in FIG. 81 etc., the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

評価指標演算部8qは、三次元ピック判定部8lで把持可能と判定された把持位置を把持位置候補として、各把持位置候補について、評価指標を演算するための部材である。   The evaluation index calculation unit 8q is a member for calculating an evaluation index for each gripping position candidate using the gripping position determined to be grippable by the three-dimensional pick determination unit 8l as a gripping position candidate.

また把持優先順位決定部8rは、評価指標演算部8qで演算された評価指標に基づいて、ワークをエンドエフェクタで把持する優先順位を決定するための部材である。   The grip priority order determination unit 8r is a member for determining a priority order for gripping the workpiece with the end effector based on the evaluation index calculated by the evaluation index calculation unit 8q.

この画像処理装置は、評価指標演算部8qでもって、サーチ結果に対してそれぞれ評価指標を演算する。評価指標としては、上述の通り、例えばサーチ結果に含まれる、一定の距離以下の誤差で対応した特徴点の点数割合等が利用できる。   This image processing apparatus calculates an evaluation index for each search result by the evaluation index calculation unit 8q. As the evaluation index, as described above, for example, a score ratio of feature points corresponding to errors within a certain distance included in the search result can be used.

ここで、サーチ結果統合部8pが、統合結果を構成する各サーチ結果に対して評価指標演算部8qで演算された評価指標の内、最も高い評価指標を統合結果に付与する。一般に三次元サーチの評価指標では、サーチの条件やワークの姿勢(例えばワークの傾斜角度が大きく、十分な反射光が得られない場合、逆に光沢のあるワークによって反射光が強すぎる場合)等に左右される。このため、サーチ結果の評価指数が低く演算されることがあり、低い優先順位となったり、あるいはそもそも反射光が得られない等の理由で三次元サーチの対象から除外されることがある。これらは、把持位置の候補として下位になったり、候補に挙がらないことになるが、このようなワークの中には、単に三次元サーチに適切な姿勢で配置されていないというだけで、把持には適した姿勢で配置されていることも考えられる。このような場合であっても、従来であれば三次元サーチの段階で除外されたり低い優先順位となっていたため、把持解として選択される可能性が低く、十分に活用することができなかった。これに対して本実施形態によれば、たとえ三次元サーチの結果としては、評価指数が低いサーチ結果であっても、隣接する他のサーチ結果で高い評価値が得られている場合は、これを利用することで、高い優先順位でもって把持位置の候補として利用することが可能となる。これにより、従来であれば活用されなかった把持位置の候補であっても、利用できるようになり、把持解を得られる可能性を高めることができるようになる。いいかえると、三次元サーチの精度によらず、適切なワークを把持することが可能となる。   Here, the search result integration unit 8p gives the highest evaluation index among the evaluation indexes calculated by the evaluation index calculation unit 8q for each search result constituting the integration result to the integration result. In general, in the evaluation index of the three-dimensional search, search conditions and workpiece posture (for example, when the workpiece tilt angle is large and sufficient reflected light cannot be obtained, or when the reflected light is too strong due to a glossy workpiece), etc. Depends on. For this reason, the evaluation index of the search result may be calculated to be low, and may be excluded from the target of the three-dimensional search due to a low priority or the fact that reflected light cannot be obtained in the first place. These are lower positions as candidates for the gripping position, and will not be listed as candidates. However, in such a workpiece, it is simply not placed in an appropriate posture for 3D search. May be arranged in a suitable posture. Even in such a case, since it was conventionally excluded at the stage of 3D search or had a low priority, it was unlikely to be selected as a gripping solution and could not be fully utilized. . On the other hand, according to the present embodiment, even if the result of the three-dimensional search is a search result with a low evaluation index, a high evaluation value is obtained in other adjacent search results. By using, it becomes possible to use it as a gripping position candidate with high priority. As a result, even gripping position candidates that have not been used in the past can be used, and the possibility of obtaining a gripping solution can be increased. In other words, an appropriate workpiece can be gripped regardless of the accuracy of the three-dimensional search.

以上の方法では、統合結果を構成する各サーチ結果の内で、最も高い評価指標でもって、統合結果全体を評価したり、あるいは各サーチ結果の評価指数を本来の評価値からより高い評価値に書き換える態様について説明した。これは、高い評価指数を得たサーチ結果については、三次元サーチ結果の信頼性が高いとの信頼性に基づくものである。ただ、本発明はこの態様に限らず、他の態様、例えば、統合結果を構成する各サーチ結果の評価指数を平均して、この統合結果の評価指数として扱うようにしてもい。いずれの場合も、元々低い評価指標だったサーチ結果を、他の評価指数の高いサーチ結果を利用して、把持位置等の候補となり得るように元の評価指数よりも高い評価指数でもって評価されるようにすることが、本実施形態の趣旨である。
(画像処理プログラムのGUI)
In the above method, the entire integrated result is evaluated with the highest evaluation index among the search results constituting the integrated result, or the evaluation index of each search result is changed from the original evaluation value to a higher evaluation value. The aspect of rewriting has been described. This is based on the reliability that the search results obtained with a high evaluation index are highly reliable. However, the present invention is not limited to this mode, and other modes, for example, the evaluation index of each search result constituting the integration result may be averaged and handled as the evaluation index of the integration result. In either case, search results that were originally low evaluation indexes are evaluated with a higher evaluation index than the original evaluation index so that they can be candidates for gripping positions, etc., using search results with other high evaluation indexes. This is the purpose of this embodiment.
(Image processing program GUI)

ここで、画像処理プログラムのGUIの一例を図89〜図149に基づいて説明する。図89は各種機能を選択するための機能選択画面340を示しており、利用可能な機能が機能一覧表示欄341にボタン状に一覧表示されている。この状態から「3Dサーチ」ボタン342を押下すると、三次元サーチ機能が実行される。
(三次元サーチ画面)
Here, an example of the GUI of the image processing program will be described based on FIGS. 89 to 149. FIG. 89 shows a function selection screen 340 for selecting various functions, and available functions are listed in a button form in the function list display field 341. When the “3D search” button 342 is pressed from this state, the three-dimensional search function is executed.
(3D search screen)

三次元サーチ機能の実行にあたり、必要な設定を行う必要がある。具体的には、サーチモデルの登録、ワークを載置する床面や収納容器の登録、三次元サーチの条件設定などが挙げられる。これらの設定は、すべての項目をユーザが任意に設定可能とする他、必要な手順をユーザに順次示しながら、項目毎に設定させることもできる。このような設定のガイダンス機能について、図90〜図101の三次元サーチ画面に基づいて説明する。   Necessary settings must be made to execute the 3D search function. Specifically, registration of a search model, registration of a floor surface or a storage container on which a workpiece is placed, setting of conditions for a three-dimensional search, and the like can be given. In addition to making it possible for the user to arbitrarily set all items, these settings can be set for each item while sequentially showing necessary procedures to the user. The guidance function for such setting will be described based on the three-dimensional search screens shown in FIGS.

これらの三次元サーチ画面では、画面左下の画像表示欄141の上段に、設定すべき手順のフローを表示させるフロー表示部351を設けている。フロー表示部351では、各手順の概要をテキストや図柄等で示すと共に、現在設定中の手順がハイライト表示される。図90の例では、「モデル登録」アイコン352が明るい色に表示され、他の「床・箱設定」アイコン353や「サーチ設定」アイコン354は暗い色で表示されており、ユーザに対し現在設定を行っている対象を告知することができる。さらに三次元サーチ画面の右側に設けられた操作欄142には、現在設定中の項目の説明がテキスト等で表示され、ユーザに対して行うべき設定を文字で説明することができる。説明はテキスト情報のみならず、必要に応じて、図柄や動画を適宜組み合わせてもよい。また、設定すべきパラメータの設定欄等も設けられている。
(実測データに基づくサーチモデルの登録)
In these three-dimensional search screens, a flow display unit 351 for displaying a flow of a procedure to be set is provided in the upper part of the image display field 141 at the lower left of the screen. In the flow display section 351, an outline of each procedure is shown by text, symbols, etc., and the currently set procedure is highlighted. In the example of FIG. 90, the “model registration” icon 352 is displayed in a bright color, and the other “floor / box setting” icon 353 and “search setting” icon 354 are displayed in a dark color. You can announce the subject you are doing. Further, in the operation column 142 provided on the right side of the three-dimensional search screen, the description of the item currently being set is displayed in text or the like, and the setting to be made to the user can be described in characters. The description may include not only text information but also a combination of symbols and moving images as needed. In addition, a setting field for parameters to be set is also provided.
(Registering a search model based on measured data)

図90〜図101の三次元サーチ画面では、センサ部でワークの現物を撮像した実測データをサーチモデルとして登録する例を示している。この登録手順は、図27のフローチャートで説明した手順にて行うことができる。これら図90〜図101の三次元サーチ画面では、上述の通りフロー表示部351に、1番目の手順として「モデル登録」アイコン352がハイライト表示されている。   The three-dimensional search screens shown in FIGS. 90 to 101 show an example in which actual measurement data obtained by imaging the actual work is registered as a search model. This registration procedure can be performed according to the procedure described in the flowchart of FIG. In the three-dimensional search screens of FIGS. 90 to 101, as described above, the “model registration” icon 352 is highlighted on the flow display unit 351 as the first procedure.

図90は、サーチモデルとして登録する方法を選択するためのサーチモデル登録方法選択画面350を示している。このサーチモデル登録方法選択画面350の操作欄142には、モデルを登録する方法を選択するためのモデル登録方法選択欄355が設けられている。このモデル登録方法選択欄355では、モデル登録方法として、実際のワークを撮像して登録するか、CADデータから登録するかをラジオボタンで選択できる。図90のサーチモデル登録方法選択画面350の例では、実ワークを撮像して登録することを選択しており、これに応じて操作欄142には、実ワークを撮像して登録する手順の説明が文字と図柄で表示されている。この例では、「カメラから見えるワーク表面の三次元情報をモデル化します。サーチさせたい面の数だけ登録します。本ツールでは、さまざまな姿勢を取るワークに対して、登録した表面モデルをマッチングさせることで、そのワークの位置と姿勢を認識します。」とテキスト情報と図柄でもって、行うべき作業をユーザに示している。これによってユーザは、この画面で行うべき作業を容易に把握できるようになる。図90のサーチモデル登録方法選択画面350で実ワークの登録を選択した上で「OK」ボタン356を押下すると、ワークの撮像に移行する。
(実測データ撮像部)
FIG. 90 shows a search model registration method selection screen 350 for selecting a method for registration as a search model. The operation column 142 of the search model registration method selection screen 350 is provided with a model registration method selection column 355 for selecting a method for registering a model. In the model registration method selection field 355, as a model registration method, it is possible to select with radio buttons whether to capture and register an actual workpiece or register from CAD data. In the example of the search model registration method selection screen 350 in FIG. 90, it is selected that an actual work is imaged and registered, and the operation column 142 correspondingly describes the procedure for imaging and registering an actual work. Is displayed with letters and designs. In this example, “Model the 3D information of the workpiece surface as seen from the camera. Register as many as the number of surfaces you want to search. This tool matches the registered surface models to workpieces that have various postures. By recognizing it, the position and posture of the workpiece are recognized. ”The work to be performed is shown to the user with the text information and the design. As a result, the user can easily grasp the work to be performed on this screen. When selecting the registration of an actual work on the search model registration method selection screen 350 in FIG.
(Measurement data imaging unit)

実際に実ワークを登録する手順は、図91〜図93のようになる。この例では、モデル登録の作業を3つの画面に分けて、ユーザに対して順次説明していく。まず図91の実測データ撮像画面360では、モデル登録の1番目の作業として、ワークを撮像する。この例では、操作欄142に、ユーザが行うべき作業として「1.登録したいワーク表面がカメラに見えるようにワークを平面上に配置して、右下の「計測実行」ボタンを押して下さい。2.左のカメラ画面上でワークを囲むようにモデル領域を配置して下さい。」と説明される。さらに、最適なワークの配置についての詳細な説明を、「?」ボタン364を押下して、別画面で表示させることもできる。これにより、多くの情報を画面上に表示させて画面が見づらくなったりユーザを混乱させる事態を回避できる。このようにしてユーザは、ワークをセンサ部で撮像可能な位置に配置して、画像表示欄141でワークの様子を確認しながら位置決めを行う。そして、「計測実行」ボタン361を押下すると、図91に示すように撮像されたワークが表示される。ここでは三次元状の画像として、得られたワークの高さに応じて色を変えた画像として表示される。なお、カラー表示に限らず、画素の輝度値で高さを表現する高さ画像としてもよい。図91の例では、同じ形状のワークを6個並べて、それぞれ異なる姿勢で配置している。この状態でユーザは、サーチモデルとして登録したいワークの画像を囲むよう、モデル領域362を設定する。モデル領域362の設定を終えると、「次へ」ボタン363を押下する。これによって、図92に示すサーチモデル除外領域設定画面370に切り替わる。
(背景除去設定部)
The procedure for actually registering the actual work is as shown in FIGS. In this example, the model registration work is divided into three screens and explained to the user sequentially. First, on the actual measurement data imaging screen 360 of FIG. 91, a workpiece is imaged as the first work of model registration. In this example, in the operation column 142, as a work to be performed by the user, “1. Place the work on a plane so that the surface of the work to be registered can be seen by the camera, and press the“ Measure ”button at the lower right. 2. Place the model area on the left camera screen to surround the workpiece. Is described. Further, a detailed description of the optimal work placement can be displayed on another screen by pressing the “?” Button 364. As a result, it is possible to avoid a situation in which a lot of information is displayed on the screen and the screen becomes difficult to see or the user is confused. In this way, the user places the workpiece at a position where the sensor unit can capture an image, and performs positioning while checking the state of the workpiece in the image display field 141. When the “Measurement execution” button 361 is pressed, the imaged work is displayed as shown in FIG. Here, the image is displayed as a three-dimensional image in which the color is changed according to the height of the obtained workpiece. In addition, it is good also as a height image which expresses height not only with a color display but with the luminance value of a pixel. In the example of FIG. 91, six workpieces having the same shape are arranged and arranged in different postures. In this state, the user sets the model area 362 so as to surround the image of the workpiece to be registered as a search model. When the setting of the model area 362 is completed, the “Next” button 363 is pressed. Thereby, the screen is switched to the search model exclusion region setting screen 370 shown in FIG.
(Background removal setting part)

図92のサーチモデル除外領域設定画面370においては、モデル登録の2番目の作業として、サーチモデルとして登録する際に除外する除外領域を設定する。サーチモデル除外領域の一例として、実ワークの登録に際して、ワークを載置した床面のような背景を除去する機能が挙げられる。図92のサーチモデル除外領域設定画面370では、モデル登録の2番目の作業として、操作欄142に、「1.登録したいワーク表面だけが残るように背景除去を設定してください。」と説明される。また「?」ボタン371を押下して、背景除去の設定方法の詳細説明を別画面で表示させることもできる。さらに操作欄142の中段には、背景除去設定欄372が設けられ、背景として除去する高さを数値で指定する。この例では1.5mmが指定されており、モデル領域362として指定された範囲の内、高さ0〜1.5mmまでの範囲がサーチモデルの登録対象から除外される。この背景除去設定欄372での設定に応じて、画像表示欄141で表示されるモデル領域362が更新され、サーチモデルの登録対象から除外された領域が黒塗りで表示される。ユーザはこの様子を確認しながら、除外領域の設定が妥当かどうかを判断でき、必要に応じて再設定等を行える。
(マスク領域設定部)
In the search model exclusion area setting screen 370 of FIG. 92, as the second work of model registration, an exclusion area to be excluded when registering as a search model is set. As an example of the search model exclusion region, there is a function of removing a background such as a floor surface on which a workpiece is placed when registering an actual workpiece. On the search model exclusion area setting screen 370 of FIG. 92, “2. Set background removal so that only the workpiece surface to be registered remains” is described in the operation column 142 as the second work of model registration. The In addition, a “?” Button 371 can be pressed to display a detailed description of the background removal setting method on a separate screen. Furthermore, a background removal setting field 372 is provided in the middle of the operation field 142, and designates a height to be removed as a background with a numerical value. In this example, 1.5 mm is designated, and a range of 0 to 1.5 mm in height within the range designated as the model region 362 is excluded from the search model registration targets. In accordance with the setting in the background removal setting field 372, the model area 362 displayed in the image display field 141 is updated, and the area excluded from the registration target of the search model is displayed in black. While confirming this state, the user can determine whether the setting of the exclusion area is appropriate, and can perform resetting or the like as necessary.
(Mask area setting part)

さらに高さ方向のみならず、平面方向においてサーチモデルの登録対象から除外したい範囲を、マスク領域として指定することもできる。図92のサーチモデル除外領域設定画面370の背景除去設定欄372の下には、「2.登録したいワーク表面以外のものが残ってしまう場合はマスク領域を配置してください。」と説明される。同様に「?」ボタン373を押下して、マスク領域の設定方法の詳細説明を別画面で表示させることもできる。「マスク領域」ボタン374を押下すると、モデル領域362として指定された範囲内に、サーチモデルの登録対象から除外する領域としてマスク領域を設定することが可能となる。マスク領域は、矩形状や円形などの規定の図形の他、自由曲線や境界部分の自動検出などによって設定できる。また、マスク領域の設定に応じて、画像表示欄141で表示されるモデル領域362が更新されることも上述の通りである。   Furthermore, not only in the height direction but also in the plane direction, a range that is desired to be excluded from the search model registration target can be designated as a mask region. Under the background removal setting field 372 of the search model exclusion area setting screen 370 in FIG. 92, “2. If there is something other than the workpiece surface to be registered, place a mask area” is explained. . Similarly, the user can press the “?” Button 373 to display a detailed description of the mask area setting method on a separate screen. When the “mask area” button 374 is pressed, a mask area can be set as an area to be excluded from search model registration within the range specified as the model area 362. The mask area can be set by automatically detecting a free curve or a boundary portion in addition to a prescribed figure such as a rectangle or a circle. Further, as described above, the model area 362 displayed in the image display field 141 is updated according to the setting of the mask area.

なお、図92の例では、背景除去設定の後、マスク領域設定を行わせているが、これらの順序を入れ替えてもよい。このようにして、サーチモデルの登録から除外したい領域の設定を終えると、「次へ」ボタン375を押下する。これによって、図93に示す回転対称性設定画面380に切り替わる。
(回転対称性設定部)
In the example of FIG. 92, the mask region setting is performed after the background removal setting. However, the order may be changed. When the setting of the area to be excluded from the search model registration is completed in this way, the “Next” button 375 is pressed. Thereby, the screen is switched to the rotational symmetry setting screen 380 shown in FIG.
(Rotation symmetry setting part)

図93の回転対称性設定画面380においては、モデル登録の3番目の作業として、回転対称性を設定する。この例では、操作欄142に、「1.登録するワーク表面が回転対称性を持つ場合は、該当するものを指定して下さい。」と説明される。同様に「?」ボタン381を押下して、回転対称の設定方法の詳細説明を別画面で表示させることもできる。操作欄142の中段には、回転対称設定欄382が設けられ、回転対称性の候補として、円対称、N回対称、なし等の選択肢から選択することができる。さらに、N回対称を選択した場合は、対称数の数値入力ボックスが表示され、ワーク表面の形状に応じた回転対称数を設定する。例えば、ワーク表面が長方形状であり、ワーク表面を真上か見た軸に対し180度回転した見え方が同一になる場合、回転対称数は2が適切値となる。あるいは、ワーク表面が正方形上で、ワーク表面を真上か見た軸に対し90度毎に回転した見え方が全て同一になる場合、回転対称数は4が適切値となる。あるいはまた、ワーク表面が6角形状で、ワーク表面を真上か見た軸に対し30度毎に回転した見え方が同一になる場合、回転対称数は6が適切値となる。一方、円対称については、球体や円柱状のワークを真上から見た時に、ワーク表面が円形に見える場合など、任意の回転角度の対し、回転した見え方が全て同一になる場合に設定するのが推奨される。回転対称性が設定されると、サーチモデルの登録時に、回転対称性として指定された姿勢にワークがある場合も、同じワークとして認識されるようになる。例えば、回転対称数が2と設定された2回対称のワークの場合、180度回転した姿勢も、回転前の姿勢も、同じワークとして認識されるようになる。   In the rotational symmetry setting screen 380 of FIG. 93, rotational symmetry is set as the third work of model registration. In this example, the operation field 142 is explained as “1. If the workpiece surface to be registered has rotational symmetry, specify the corresponding one”. Similarly, the “?” Button 381 can be pressed to display a detailed description of the rotational symmetry setting method on a separate screen. A rotational symmetry setting field 382 is provided in the middle of the operation field 142, and a candidate for rotational symmetry can be selected from options such as circular symmetry, N-fold symmetry, and none. Further, when N-fold symmetry is selected, a numerical value input box for the symmetry number is displayed, and the rotational symmetry number corresponding to the shape of the workpiece surface is set. For example, when the work surface is rectangular and the appearances of 180 degrees rotated with respect to the axis when the work surface is viewed directly above are the same, 2 is an appropriate value for the rotational symmetry number. Alternatively, when the work surface is a square and all the appearances rotated every 90 degrees with respect to the axis when the work surface is viewed directly above are the same, 4 is an appropriate value for the rotational symmetry number. Alternatively, when the work surface has a hexagonal shape and the appearance of rotation every 30 degrees with respect to the axis viewed from directly above the work surface is the same, 6 is an appropriate value for the rotational symmetry number. On the other hand, circular symmetry is set when the rotated view is all the same for an arbitrary rotation angle, such as when the work surface looks circular when looking at a sphere or columnar workpiece from directly above. Is recommended. When the rotational symmetry is set, even when the workpiece is in the posture designated as the rotational symmetry when the search model is registered, the workpiece is recognized as the same workpiece. For example, in the case of a two-fold symmetrical workpiece with the rotational symmetry number set to 2, the posture rotated 180 degrees and the posture before rotation are recognized as the same workpiece.

このようにして、回転対称性の設定を終えると、「登録」ボタン383を押下する。これによって、設定された条件に従ってサーチモデルが登録される。なお、モデル登録に必要な3つの作業の内、2番目と3番目は入れ替えてもよい。
(サーチモデルの複数登録)
When the setting of the rotational symmetry is completed in this way, the “Register” button 383 is pressed. As a result, the search model is registered according to the set conditions. Of the three tasks required for model registration, the second and third may be interchanged.
(Register multiple search models)

サーチモデルが登録されると、図94に示すサーチモデル登録画面390が表示される。サーチモデル登録画面390の操作欄142には、登録済みのサーチモデルの一覧を表示させるモデル一覧表示欄391が設けられている。ここでは、登録済みのサーチモデルとしてモデル番号0のサーチモデルが、縮小画像と共に表示される。また当該サーチモデルについて、回転対称性の設定が「なし」であることも表示される。   When the search model is registered, a search model registration screen 390 shown in FIG. 94 is displayed. The operation column 142 of the search model registration screen 390 is provided with a model list display column 391 for displaying a list of registered search models. Here, the search model with model number 0 is displayed together with the reduced image as the registered search model. It is also displayed that the rotational symmetry setting for the search model is “none”.

さらに追加のサーチモデルを登録するには、「追加」ボタン392を押下する。これにより、上述したのと同様の手順でサーチモデルを登録できる。なおサーチモデルの登録の方法として、実ワークを撮像して登録するか、あるいは三次元CADデータから登録するかを、モデル登録方法指定欄393で選択できる。ここではモデル登録方法指定欄393で「実ワークで登録」を選択して追加登録する。   In order to register additional search models, an “add” button 392 is pressed. Thereby, the search model can be registered in the same procedure as described above. As a method for registering the search model, it is possible to select in the model registration method designation field 393 whether to capture and register an actual workpiece or register from three-dimensional CAD data. Here, “Register with actual work” is selected in the model registration method designation field 393 to perform additional registration.

このようにしてサーチモデルを追加したサーチモデル登録画面410を図95に示す。この図に示すサーチモデル登録画面410では、新たにサーチモデルとして、画像表示欄141に並べた6個のワークの内、左下に配置されたワークを追加登録している。追加登録されたサーチモデルは、モデル一覧表示欄391にモデル番号1として追加されている。
(簡易三次元サーチ結果の表示)
FIG. 95 shows a search model registration screen 410 to which a search model has been added in this way. In the search model registration screen 410 shown in this figure, among the six works arranged in the image display column 141, a work arranged in the lower left is additionally registered as a new search model. The additionally registered search model is added as model number 1 to the model list display field 391.
(Display of simple 3D search results)

さらに、図94、図95のサーチモデル登録画面では、登録済みのサーチモデルを用いて簡易的に三次元サーチを行った結果を表示させることもできる。例えば図94の例では、モデル番号0のサーチモデルを用いて、画像表示欄141で表示される6つのワークに対して三次元サーチを行った結果、登録に用いた左上のワークがサーチされている。サーチされたワーク上には、サーチモデルに合致した点群が表示されている。この例では、サーチモデルの表面形状の内、面状の点群を白色で、輪郭を示す点群を紫色で、それぞれ表示させている。さらに簡易三次元サーチ結果の評価指標として演算されたスコアを、数値で表示させることもできる。図94の例ではスコア値として96.4が表示されている。なお、サーチモデルとして登録した元のワークに対して、スコアが最高値(この例では99.9)とならないのは、モデル登録時の撮像状態と、三次元サーチ実行時の入力画像とに変動があり、若干スコアが下がった結果となっているためである。スコア値の結果から、おおよそ96%以上、モデル登録時の状態と一致している状態であると捉えることができる。
(サーチ領域設定部)
Furthermore, on the search model registration screen of FIGS. 94 and 95, the result of a simple three-dimensional search using a registered search model can be displayed. For example, in the example of FIG. 94, as a result of performing a three-dimensional search on the six workpieces displayed in the image display column 141 using the search model with model number 0, the upper left workpiece used for registration is searched. Yes. A point cloud that matches the search model is displayed on the searched workpiece. In this example, of the surface shape of the search model, a planar point group is displayed in white, and a point group indicating an outline is displayed in purple. Furthermore, the score calculated as the evaluation index of the simple three-dimensional search result can be displayed numerically. In the example of FIG. 94, 96.4 is displayed as the score value. The score does not reach the highest value (99.9 in this example) with respect to the original work registered as a search model because it varies depending on the imaging state when the model is registered and the input image when the three-dimensional search is executed. This is because the score was slightly lowered. From the result of the score value, it can be understood that the state is approximately 96% or more and the state at the time of model registration.
(Search area setting part)

このようにしてサーチモデルが登録されると、次に三次元サーチ機能の設定として、サーチ領域を設定する。具体的には、図95のサーチモデル登録画面410で、必要なサーチモデルの登録を終えた後、右下の「完了」ボタン411を押下すると、図96のサーチ領域設定画面420に進む。このサーチ領域設定画面420では、三次元サーチを行うサーチ領域を指定する。画面上部のフロー表示部351には、ハイライト表示が「モデル登録」アイコン352から「床・箱設定」アイコン353に移り、モデル登録が終了して現在はワークを載置する床面や収納容器の登録を行う段階であることがユーザに示される。   When the search model is registered in this manner, the search area is set as the setting of the three-dimensional search function. Specifically, when the necessary search model registration is completed on the search model registration screen 410 in FIG. 95 and the “complete” button 411 in the lower right is pressed, the process proceeds to the search area setting screen 420 in FIG. On this search area setting screen 420, a search area for performing a three-dimensional search is designated. In the flow display section 351 at the top of the screen, the highlight display moves from the “model registration” icon 352 to the “floor / box setting” icon 353, and after the model registration is completed, the floor surface or storage container on which the workpiece is placed. It is shown to the user that it is a stage where the registration is performed.

サーチ領域設定画面420の操作欄142には、サーチ領域設定欄421が設けられる。サーチ領域設定欄421には、三次元サーチを行うサーチ領域の指定方法のユーザに説明するための「指定方法選択ナビ」ボタン422と、サーチ領域の指定方法を選択する指定方法選択欄423が設けられる。「指定方法選択ナビ」ボタン422を押下すると、三次元サーチを行うサーチ領域の指定方法をユーザに案内するナビゲーション画面が表示される。一方、指定方法選択欄423では、ドロップボックスから、選択肢として、床指定、箱指定、箱サーチ、指定なしの何れかを選択できる。この内、床指定を選択すると図97のサーチ領域設定画面430となって、床面指定ダイヤログ431が表示され、「床面を算出するための3点をクリックしてください。」との説明がユーザに示される。これに従いユーザが画像表示欄141上から、床面を示す任意の点をマウス等のポインティングデバイスで指定すると、指定された点の空間座標(X,Y,Z)が表示される。また、抽出領域としてゲージが表示される。この抽出領域は、クリックした点におけるZ座標値算出の際に、クリックした位置を中心に、どの範囲まで参照して求めるかを表している。三次元計測された1点1点のデータには誤差も含まれるため、誤差の影響を抑えるために、一定範囲内のデータの平均値や、中央値(メディアン)によって求めた値を用いるのが好ましい。今回のケースでは、抽出領域によって指定される範囲の平均値によって、Z座標値を求めている。このようにして床面が指定されると、床面の情報が演算されて、図98のサーチ領域設定画面440のように、サーチ領域設定欄421において演算された床面情報が床面情報表示欄441に表示される。ここでは床面情報表示欄421において、床面のX傾き、Y傾き、Z切片がそれぞれ数値で床面情報として表示されている。また必要に応じて、オフセット量を設定することもできる。例えば収納容器の床面の厚さの変動などを考慮して、床面からの所定の高さ分をサーチ領域から除去する。図98の例では、床面からのノイズ除去のため、ノイズ除去欄442を設けている。ここでは、指定された床面の高さから、ノイズ除去欄442で指定された高さ1.5mmまでの範囲を、三次元サーチの対象領域から除外する。以上のようにして床面の設定が終了すると、「完了」ボタン443を押下する。これによって図99のサーチパラメータ設定画面450に切り替わる。
(サーチパラメータ設定部)
A search area setting field 421 is provided in the operation field 142 of the search area setting screen 420. The search area setting field 421 is provided with a “designation method selection navigation” button 422 for explaining to a user of a search area designation method for performing a three-dimensional search, and a designation method selection field 423 for selecting a search area designation method. It is done. When the “designation method selection navigation” button 422 is pressed, a navigation screen is displayed that guides the user how to designate a search area for performing a three-dimensional search. On the other hand, in the designation method selection field 423, one of floor designation, box designation, box search, and no designation can be selected from the drop box as an option. Of these, when floor designation is selected, the search area setting screen 430 of FIG. 97 is displayed, and a floor designation dialog 431 is displayed, explaining that “Please click on three points to calculate the floor.” Is shown to the user. Accordingly, when the user designates an arbitrary point indicating the floor surface from the image display field 141 with a pointing device such as a mouse, the spatial coordinates (X, Y, Z) of the designated point are displayed. A gauge is displayed as the extraction area. This extraction area represents a range to be obtained with reference to the clicked position when calculating the Z coordinate value at the clicked point. Since the data of each point measured three-dimensionally includes an error, in order to suppress the influence of the error, the average value of the data within a certain range or the value obtained by the median is used. preferable. In this case, the Z coordinate value is obtained from the average value of the range specified by the extraction area. When the floor surface is designated in this way, the floor surface information is calculated, and the floor surface information calculated in the search region setting field 421 is displayed as the floor surface information display as in the search region setting screen 440 of FIG. It is displayed in the column 441. Here, in the floor surface information display field 421, the X-tilt, Y-tilt, and Z-intercept of the floor surface are respectively displayed as floor surface information as numerical values. Further, an offset amount can be set as necessary. For example, considering a variation in the thickness of the floor surface of the storage container, a predetermined height from the floor surface is removed from the search area. In the example of FIG. 98, a noise removal column 442 is provided to remove noise from the floor surface. Here, the range from the designated floor surface height to the height of 1.5 mm designated in the noise removal column 442 is excluded from the target region of the three-dimensional search. When the setting of the floor surface is completed as described above, the “complete” button 443 is pressed. This switches to the search parameter setting screen 450 of FIG.
(Search parameter setting section)

図99のサーチパラメータ設定画面450では、三次元サーチを実行する条件としてサーチパラメータを設定する。画面上部のフロー表示部351には、ハイライト表示が「床・箱設定」アイコン353から「サーチ設定」アイコン354に移り、サーチ領域設定が終了して現在はサーチ条件を設定する段階に移行していることがユーザに示される。サーチパラメータ設定画面450の操作欄142には、三次元サーチの実行に必要なサーチパラメータをそれぞれ設定するための欄が設けられている。具体的には、検出条件設定欄451と、特徴抽出条件設定欄452と、判定条件設定欄453が設けられている。この内、特徴抽出条件設定欄452は、入力画像中からワークを検出するにあたり、エッジを抽出する閾値(しきいち)であるエッジ抽出閾値を設定する。また判定条件設定欄453では、スコアの計測値に対して上限や下限、あるいは位置のX座標の計測値に対して上限や下限を設定し、サーチ結果として選択するか否かの判定条件を設定する。   In the search parameter setting screen 450 of FIG. 99, search parameters are set as conditions for executing a three-dimensional search. In the flow display section 351 at the top of the screen, the highlight display moves from the “floor / box setting” icon 353 to the “search setting” icon 354, the search area setting is completed, and the process proceeds to the stage of setting the search conditions. Is shown to the user. The operation column 142 of the search parameter setting screen 450 is provided with columns for setting search parameters necessary for executing the three-dimensional search. Specifically, a detection condition setting field 451, a feature extraction condition setting field 452, and a determination condition setting field 453 are provided. Among these, the feature extraction condition setting field 452 sets an edge extraction threshold value that is a threshold value for extracting an edge when detecting a workpiece from the input image. In the determination condition setting field 453, an upper limit and a lower limit are set for the measured value of the score, or an upper limit and a lower limit are set for the measured value of the X coordinate of the position, and a determination condition for whether or not to select the search result is set. To do.

検出条件設定欄451では、ワークを検出する条件を設定する。この例では、ワークを検出する個数の上限を指定する検出個数指定欄454、検出されるワークの傾斜角度の上限を指定する傾斜角度上限指定欄455、評価指標であるスコアの下限を指定するスコア下限指定欄456が設けられている。また、指定は数値で行う他、スライダ等によって連続的に調整することもできる。さらに、詳細設定ボタン457を押下すると、、図100のサーチパラメータ設定画面460に切り替わり、より詳細な検出条件を設定するための検出詳細条件設定ダイヤログ461が表示される。   In the detection condition setting field 451, a condition for detecting a workpiece is set. In this example, a detection number designation field 454 for designating an upper limit of the number of workpieces to be detected, an inclination angle upper limit designation field 455 for designating an upper limit of the tilt angle of the workpiece to be detected, and a score for designating a lower limit of a score as an evaluation index A lower limit designation field 456 is provided. The designation can be performed numerically or can be continuously adjusted by a slider or the like. Further, when the detailed setting button 457 is pressed, the screen is switched to the search parameter setting screen 460 in FIG. 100, and a detection detailed condition setting dialog 461 for setting more detailed detection conditions is displayed.

検出詳細条件設定ダイヤログ461においては、基本設定欄462、検出条件詳細設定欄463、オプション設定欄464が設けられている。基本設定欄462においては、検出個数指定欄454に加えて、三次元サーチの感度を設定するサーチ感度設定欄465、三次元サーチの精度を設定するサーチ精度設定欄466が設けられている。また検出条件詳細設定欄463においては、傾斜角度上限指定欄455、スコア下限指定欄456に加えて、回転角度範囲設定欄163として、基準角度を設定するための基準角度設定欄163a、角度範囲を設定するための範囲設定欄163bを設けている。   In the detailed detection condition setting dialog 461, a basic setting field 462, a detailed detection condition setting field 463, and an option setting field 464 are provided. In the basic setting column 462, in addition to the detection number designation column 454, a search sensitivity setting column 465 for setting the sensitivity of the three-dimensional search and a search accuracy setting column 466 for setting the accuracy of the three-dimensional search are provided. In addition, in the detection condition detail setting field 463, in addition to the inclination angle upper limit designation field 455 and the score lower limit designation field 456, a reference angle setting field 163a for setting a reference angle, an angle range are set as a rotation angle range setting field 163. A range setting field 163b for setting is provided.

加えて、検出条件はサーチモデル共通で設定する他、サーチモデル毎に個別に設定することもできる。図100の例では、サーチモデル個別指定欄467を設けており、このチェックボックスをONすることで、サーチモデル毎に個別に三次元サーチの検出条件を設定することができる。このような例を図101のサーチパラメータ設定画面470に示す。ここでは、サーチモデル個別指定欄467のチェックボックスをONにすると、サーチモデル選択欄467bが表示され、検出条件を設定するサーチモデルを選択できる。この例ではサーチモデルAが選択された状態を示しており、図94等のモデル一覧表示欄391に示されたサーチモデルAに関する検出条件として、傾斜角度上限指定欄455、基準角度設定欄163a、範囲設定欄163b、スコア下限指定欄456をそれぞれ個別に指定することができる。   In addition, the detection condition can be set for each search model as well as for the search model. In the example of FIG. 100, a search model individual designation field 467 is provided. By turning this check box ON, it is possible to individually set a detection condition for a three-dimensional search for each search model. Such an example is shown in the search parameter setting screen 470 of FIG. Here, when the check box of the search model individual designation column 467 is turned ON, a search model selection column 467b is displayed, and a search model for setting detection conditions can be selected. This example shows a state in which search model A is selected. As detection conditions for search model A shown in model list display field 391 in FIG. 94 and the like, inclination angle upper limit designation field 455, reference angle setting field 163a, The range setting field 163b and the score lower limit designation field 456 can be individually designated.

一方、図100等に示すオプション設定欄464においては、サーチ結果を識別するための通し番号として振られるラベル番号に対し、ラベルの順序を規定するラベル順序指定欄468、判定ラベルを指定する判定ラベル指定欄469を設けている。ラベル順序指定欄468では、相関値の降順、昇順やZ方向の高さの降順、昇順などを選択できる。ここでいう相関値とは、上述の「スコア」と同意語である。判定ラベル指定欄469では、特定のサーチ結果に対し、想定と異なる位置や姿勢になっていないか、判定する対象を指定できる。ここではサーチ結果を識別するための通し番号により指定する。例えば、サーチ結果が想定外の位置や、回転角度・傾斜角度になっていないかなど、サーチ結果として信頼性のないデータとなっていないかを判定する必要がある場合に設定を行う。   On the other hand, in the option setting field 464 shown in FIG. 100 and the like, for the label number assigned as a serial number for identifying the search result, the label order designation field 468 that defines the order of the labels, and the judgment label designation that designates the judgment label A column 469 is provided. In the label order designation field 468, a descending order of correlation values, an ascending order, a descending order of height in the Z direction, an ascending order, or the like can be selected. The correlation value here is a synonym for the above-mentioned “score”. In the determination label specification field 469, it is possible to specify a target for determining whether or not the position or posture is different from the expected for a specific search result. Here, it is designated by a serial number for identifying the search result. For example, the setting is performed when it is necessary to determine whether or not the search result is unreliable data, such as whether the search result is an unexpected position, rotation angle, or inclination angle.

このようにして、三次元サーチのサーチ設定を順に終えると、操作欄142の右下に設けられらた「OK」ボタン471を押下して、三次元サーチの条件設定を終了する。
(三次元CADデータに基づくサーチモデルの登録)
When the search settings for the three-dimensional search are completed in this way, the “OK” button 471 provided at the lower right of the operation column 142 is pressed to end the three-dimensional search condition setting.
(Registering a search model based on 3D CAD data)

以上の例では、サーチモデルとして実際のワークを撮像して登録する手順を説明した(図62等に対応)。ただ本発明は上述した図28等で説明した通り、予め作成されたワークの形状を示す三次元CADデータをサーチモデルとして登録することもできる。以下、このような三次元CADデータをワークモデルとして登録する手順を図102〜図106に基づいて説明する。   In the above example, the procedure for capturing and registering an actual workpiece as a search model has been described (corresponding to FIG. 62 and the like). However, according to the present invention, as described with reference to FIG. 28 and the like, three-dimensional CAD data indicating the shape of a work created in advance can be registered as a search model. Hereinafter, a procedure for registering such 3D CAD data as a work model will be described with reference to FIGS.

まず図102のサーチモデル登録方法選択画面480において、モデル登録方法選択欄355から、CADデータ(STL形式)から登録するをラジオボタンで選択する。これに応じて操作欄142には、三次元CADデータをサーチモデルとして登録する手順の説明が文字と図柄で表示されている。この例では、「三次元CADデータ中のXYZ軸の各正負方向(計6方向)から見えるワーク表面の三次元情報をモデル化します。生成されたモデルの中からサーチさせたい面のみ選択します。本ツールでは、さまざまな姿勢を取るワークに対して、登録した表面モデルをマッチングさせることで、そのワークの位置と姿勢を認識します。」とテキスト情報と図柄でもって、行うべき作業をユーザに示している。このようにして102のサーチモデル登録方法選択画面480でCADデータからの登録を選択した上で「OK」ボタン481を押下すると、図103のCADデータの読み込み画面に移行する。具体的には、サーチモデル登録画面490に移行し、CADデータ読み込みダイヤログ491が表示される。
(CADデータ読み込み部)
First, in the search model registration method selection screen 480 in FIG. 102, registration from CAD data (STL format) is selected from the model registration method selection field 355 with a radio button. In response to this, the operation column 142 displays a description of the procedure for registering the three-dimensional CAD data as a search model in characters and symbols. In this example, “Model the 3D information of the workpiece surface that can be seen from the positive and negative directions (total 6 directions) of the XYZ axes in the 3D CAD data. Select only the surface you want to search from the generated model. This tool recognizes the position and posture of the workpiece by matching the registered surface model to the workpiece in various postures. ” It shows. In this manner, when registration from CAD data is selected on the search model registration method selection screen 480 of 102 and the “OK” button 481 is pressed, the screen shifts to the CAD data reading screen of FIG. Specifically, the screen shifts to the search model registration screen 490, and a CAD data reading dialog 491 is displayed.
(CAD data reading section)

図103に示すCADデータ読み込みダイヤログ491では、読み込むCADデータの格納先を指定し、さらにCADデータを選択する。読み込み先は、記憶部9の他、半導体メモリ等の読み取り媒体を選択することもできる。ファイル一覧表示欄492からファイルを選択して「実行」ボタン493を押下すると、三次元CADデータの読み込みが実行される。
(登録モデル選択部)
In the CAD data reading dialog 491 shown in FIG. 103, the storage destination of the CAD data to be read is designated, and further the CAD data is selected. As a reading destination, a reading medium such as a semiconductor memory can be selected in addition to the storage unit 9. When a file is selected from the file list display field 492 and the “execute” button 493 is pressed, reading of the three-dimensional CAD data is executed.
(Registered model selection part)

三次元CADデータが読み込まれると、サーチモデルとして登録する面を選択する。ここでは図104に示すサーチモデル登録画面510が表示されて、ワークモデルの基本方向画像に対応する六面図が登録モデル選択画面511に自動的に表示される。この状態でユーザは、登録したい面を選択できる。ここでは、デフォルトでチェックボックスがONされており、サーチモデルとして登録が不要な面についてはチェックボックスをOFFにすることで、サーチモデルから排除することができる。このようにして登録対象を選択すると、「次へ」ボタン512を押下して図105のサーチモデル登録画面520に進む。
(回転対称指定部)
When the 3D CAD data is read, a surface to be registered as a search model is selected. Here, a search model registration screen 510 shown in FIG. 104 is displayed, and a hexahedral view corresponding to the basic direction image of the work model is automatically displayed on the registration model selection screen 511. In this state, the user can select a face to be registered. Here, a check box is turned on by default, and a surface that does not need to be registered as a search model can be excluded from the search model by turning off the check box. When the registration target is selected in this way, the “next” button 512 is pressed to proceed to the search model registration screen 520 of FIG.
(Rotation symmetry designation part)

図105のサーチモデル登録画面520では、回転対称指定ダイヤログ521が表示されており、ユーザは登録対象として選択した基本方向画像の内、回転対称性を有するものについて、上下や前後、左右など、回転させても対称な形状を有する面を設定できる。このようにして回転対称性の設定を終えると、「登録」ボタンを押下して、サーチモデルの登録を実行する。   In the search model registration screen 520 of FIG. 105, a rotational symmetry designation dialog 521 is displayed, and among the basic direction images selected as registration targets by the user, those having rotational symmetry, such as up and down, front and rear, left and right, Even when rotated, a plane having a symmetrical shape can be set. When the rotational symmetry is set in this way, the “registration” button is pressed to register the search model.

サーチモデルが登録されると、図106のサーチモデル登録画面530のように、モデル一覧表示欄391に登録されたサーチモデルが一覧表示される。なお一のワークに対して、複数のサーチモデルを登録可能であることは上述の通りである。例えば図106の例では、モデル番号0の三次元CADワークモデルに対して、図105等で示したA、B、C、D、E、Fの6つのサーチモデルを登録している。よってモデル一覧表示欄391には、モデル番号0のサーチモデルA〜Fが一覧表示されている。モデル一覧表示欄391において一画面で表示しきれないサーチモデルは、スクロールして表示を切り替えることができる。
(サーチモデル編集部)
When the search model is registered, a list of search models registered in the model list display field 391 is displayed as in the search model registration screen 530 of FIG. As described above, a plurality of search models can be registered for one work. For example, in the example of FIG. 106, six search models A, B, C, D, E, and F shown in FIG. 105 and the like are registered for the three-dimensional CAD work model of model number 0. Therefore, the model list display field 391 displays a list of search models A to F with model number 0. Search models that cannot be displayed on one screen in the model list display field 391 can be scrolled and switched.
(Search model editor)

さらに、登録済みのサーチモデルを編集することもできる。図106の例では、操作欄142の「編集」ボタン531を押下すると、図114に示すモデル編集画面620が表示される。このモデル編集画面620では、画像表示欄141に登録済みのサーチモデルが表示されると共に、操作欄142には、設定済みの項目が表示される。ここでは、モデル領域設定欄621、特徴設定欄622として背景除去設定欄327、回転対称設定欄382、モデル登録欄623としてモデル番号表示欄が設けられる。ユーザは変更したい項目を選択して適宜変更することができる。
(モデル領域詳細設定部)
In addition, registered search models can be edited. In the example of FIG. 106, when the “edit” button 531 in the operation column 142 is pressed, a model edit screen 620 shown in FIG. 114 is displayed. In the model editing screen 620, registered search models are displayed in the image display field 141, and set items are displayed in the operation field 142. Here, a model region setting field 621, a feature setting field 622, a background removal setting field 327, a rotational symmetry setting field 382, and a model registration field 623 are provided with a model number display field. The user can select an item to be changed and change it appropriately.
(Model area detailed setting section)

モデル領域設定欄621に設けられた詳細設定ボタン624を押下すると、図115に示すモデル領域詳細設定画面630が表示される。モデル領域詳細設定画面630は、画像表示欄141に表示されたモデル領域362の範囲内に、サーチモデルの登録対象から除外したい領域としてマスク領域を設定することが可能となる。操作欄142には、モデル領域指定欄621、マスク領域指定欄631、重み付け領域指定欄632が設けられている。マスク領域指定欄631では、複数のマスク領域を設定できる。各マスク領域は、矩形状や円形などの規定の図形の他、自由曲線や境界部分の自動検出などによって設定できる。また各マスク領域とは別に、重み付け領域指定欄632でもって重み付けを設定することができる。   When a detailed setting button 624 provided in the model area setting field 621 is pressed, a model area detailed setting screen 630 shown in FIG. 115 is displayed. The model area detail setting screen 630 can set a mask area as an area to be excluded from search model registration targets within the range of the model area 362 displayed in the image display field 141. In the operation column 142, a model region designation column 621, a mask region designation column 631, and a weighting region designation column 632 are provided. In the mask area designation column 631, a plurality of mask areas can be set. Each mask region can be set by automatically detecting a free curve or a boundary portion in addition to a prescribed figure such as a rectangle or a circle. In addition to the mask areas, weights can be set in the weight area designation column 632.

サーチ結果に対するスコア付けを行う際に、サーチモデルに含まれる他の特徴点よりも重視したい特徴点の箇所があれば、重み付け領域で囲むことでスコア結果を調整することができる。例えば、全体の形状の中で一部の特徴の有無によってサーチモデルの特定に繋がったり、回転方向の姿勢が定まるような形状があった場合に、その重要な特徴に対して重み付け領域を設定することで、サーチの検出能力を向上させることができる。また、他の特徴点に対する重み付け度合を、比率によって指定することもできる。例えば、重み付け度合を「3」と設定した場合には、他の特徴点よりも3倍の影響度でスコア値を算出するように調整できる。
(特徴詳細設定部)
When scoring a search result, if there is a point of a feature point to be emphasized over other feature points included in the search model, the score result can be adjusted by surrounding it with a weighted region. For example, if there is a shape that leads to the identification of the search model depending on the presence or absence of some features in the overall shape or the posture in the rotation direction is determined, a weighting area is set for the important feature As a result, the search detection capability can be improved. Moreover, the weighting degree with respect to another feature point can also be designated by a ratio. For example, when the weighting degree is set to “3”, the score value can be adjusted to be calculated with an influence degree three times that of other feature points.
(Feature details setting section)

さらに、特徴設定欄622に設けられた詳細設定ボタン625を押下すると、図116に示す特徴詳細設定画面640が表示される。特徴詳細設定画面640では、画像表示欄141に表示されたモデル領域362に対して、特徴設定や回転対称の有無を設定する。操作欄142には、特徴詳細設定欄641と回転対象設定欄382が設けられる。特徴詳細設定欄641には、特徴の抽出間隔を指定する特徴抽出間隔指定欄642、背景除去設定欄327、エッジ抽出閾値設定欄643が設けられる。特徴の抽出間隔は、サーチモデル生成時の特徴点の抽出間隔に影響するパラメータであり、「精度優先」と「標準」と「速度優先」が選択できるようになっている。「精度優先」を選択した場合、サーチモデルにおける特徴点の抽出間隔が狭くなり、より細かい特徴まで捉えられて検出精度が上がる反面、データ量が増えて処理時間は遅くなる。一方、「速度優先」を選択した場合、サーチモデルにおける特徴点の抽出間隔が広くなり、細かい特徴が抜けて検出精度が下がる反面、データ量が少なくなり処理時間は速くなる。用いるワークの形状や大きさや、許容される処理時間・検出精度によって、調整することができる。   Further, when a detail setting button 625 provided in the feature setting field 622 is pressed, a feature detail setting screen 640 shown in FIG. 116 is displayed. On the feature detail setting screen 640, feature settings and presence / absence of rotational symmetry are set for the model region 362 displayed in the image display field 141. In the operation column 142, a feature detail setting column 641 and a rotation target setting column 382 are provided. The feature detail setting column 641 is provided with a feature extraction interval specifying column 642 for specifying a feature extraction interval, a background removal setting column 327, and an edge extraction threshold setting column 643. The feature extraction interval is a parameter that affects the feature point extraction interval when the search model is generated, and “precision priority”, “standard”, and “speed priority” can be selected. When “accuracy priority” is selected, the feature point extraction interval in the search model is narrowed, and even finer features are captured to increase detection accuracy, but the data amount increases and processing time is delayed. On the other hand, when “speed priority” is selected, the feature point extraction interval in the search model is widened, and fine features are lost to reduce the detection accuracy, but the data amount is reduced and the processing time is increased. Adjustment can be made according to the shape and size of the workpiece to be used and the allowable processing time and detection accuracy.

このようにしてユーザは、簡易三次元サーチの結果や得られたスコアなどを参照しながら、より適切なサーチ結果が得られるように、必要な項目を調整できる。このようにしてサーチモデルの登録を終えると、これに続く以降の手順(サーチ領域設定、サーチパラメータ設定)は、上述した図96〜図101で説明した、実ワークを撮像してサーチモデルを登録する手順と同様であり、説明を省略する。   In this way, the user can adjust necessary items so that a more appropriate search result can be obtained while referring to the result of the simple three-dimensional search and the obtained score. When registration of the search model is completed in this way, the subsequent steps (search area setting and search parameter setting) are followed by imaging the actual work described in FIGS. 96 to 101 and registering the search model. The procedure is the same as described above, and the description thereof is omitted.

以上のようにして事前にサーチモデルを登録した上で、三次元サーチを行う。三次元サーチは、実運用、すなわちバラ積みされたワーク群をセンサ部で撮像して、把持可能なワークの把持位置を特定するバラ積みピッキングを行う際に用いる他、事前に三次元ピックのシミュレーションを行う場合等にも用いられる。三次元ピックのシミュレーションとは、三次元サーチ部8kでサーチされた各サーチ結果に対して、把持位置特定部8dで予めワークモデルに対して指定された把持位置にて、エンドエフェクタで把持可能か否かを判定する動作である。
(サーチ結果表示部)
A search model is registered in advance as described above, and then a three-dimensional search is performed. 3D search is used for actual operation, that is, when picking up a group of separated workpieces with the sensor unit and performing picking to specify the gripping position of the workpiece that can be gripped. It is also used when performing. In the 3D pick simulation, can each end result be searched by the 3D search unit 8k be gripped by the end effector at the gripping position previously specified for the work model by the gripping position specifying unit 8d? This is an operation for determining whether or not.
(Search result display area)

次に、バラ積みされたワークに対して三次元サーチを行う例を、図107〜図113に基づいて説明する。図107は、バラ積みされたワーク群に対して三次元サーチを実行した結果を示すサーチ結果表示画面540の例を示している。サーチ結果表示画面540には画像表示欄141と操作欄142が設けられ、操作欄142には三次元サーチに用いたサーチモデルの一覧がモデル一覧表示欄391に縦方向に表示される。一方画像表示欄141には、入力画像として得られたバラ積み状態のワークに対して、サーチ結果として得られたワークに重ねて、サーチ結果である点群と、その評価指標であるスコアを表示させている。
(サーチ結果一覧部)
Next, an example in which a three-dimensional search is performed on workpieces stacked in bulk will be described with reference to FIGS. FIG. 107 shows an example of a search result display screen 540 showing a result of executing a three-dimensional search for a group of workpieces stacked in bulk. The search result display screen 540 is provided with an image display column 141 and an operation column 142, and a list of search models used for the three-dimensional search is displayed in the model list display column 391 in the operation column 142 in the vertical direction. On the other hand, the image display column 141 displays a point cloud that is a search result and a score that is an evaluation index of the work in a stacked state obtained as an input image, superimposed on the work obtained as a search result. I am letting.
(Search results list)

また画像表示欄141の上段には、サーチ結果一覧表示欄541が設けられ、サーチされたサーチ結果に対して、用いたサーチモデルとスコアの一覧が表示される。ここでは、サーチされた個数、ワークの有無、総体積/ワークの体積、特定のラベル番号のサーチ結果のモデル番号やスコア、位置(X,Y,Z)などが表示される。総体積/ワークの体積は、床面や通い箱の底面よりも高い位置にある点群の総体積を、登録されているサーチモデルから想定される平均体積で割った値を示しており、入力画像中に、ワークが何個相当分存在するかを示したデータとなる。この数値が一定以上大きい場合、ワークの有無の結果が有り(1)と判定される。サーチされた個数が0個で把持解が得られなかった場合などに、このワーク有無の結果が有りか無しかを確認することで、ワークが実際になくなった状態でピッキングが終了したのか、ワークが残存した状態で終了したのかを確認することができる。   In addition, a search result list display field 541 is provided in the upper part of the image display field 141, and a list of used search models and scores is displayed for the searched search results. Here, the number of searched items, presence / absence of workpiece, total volume / volume of workpiece, model number and score of search result of specific label number, position (X, Y, Z), etc. are displayed. The total volume / workpiece volume is the value obtained by dividing the total volume of the point cloud located higher than the floor or bottom of the return box by the average volume assumed from the registered search model. The data indicates how many workpieces are present in the image. When this numerical value is larger than a certain value, it is determined that there is a result of presence / absence of a workpiece (1). If the number of searched items is 0 and no gripping solution is obtained, check whether the result of presence / absence of this workpiece is present, and whether the picking is finished with the workpiece actually gone, It can be confirmed whether or not the process ended in a state in which it remained.

サーチ結果一覧表示欄541の表示は切り替えることができる。例えば図107に示すサーチ結果表示画面540のサーチ結果一覧表示欄541の右下に、表示内容を切り替える切り替えボタン542が設けられている。切り替えボタン542は左右の矢印で構成されており、さらにその上部に画面数543が表示されている。この例では画面数543として11画面中の1番目であることを示す「1/11」が表示されており、切り替えボタン542を押下して番号を上限させることで、これに応じてサーチ結果一覧表示欄541の表示内容を切り替えることができる。例えば切り替えボタン542を操作して画面数543を「2/11」に変更すると、図108に示すサーチ結果表示画面550に切り替わり、サーチ結果一覧表示欄541には三次元サーチ結果の概要が表示される。ここではサーチされた個数、ワークの有無、総体積/ワークの体積に加え、傾斜角度、回転角度、姿勢(RX,RY,RZ)等が表示される。また画面数543を「3/11」に変更すると、図109に示すサーチ結果表示画面560に切り替わり、サーチ結果一覧表示欄541には三次元サーチ結果の概要として、サーチされた個数、ワークの有無、総体積/ワークの体積に加え、床面の情報としてXYZの傾き等が表示される。 The display of the search result list display field 541 can be switched. For example, a switching button 542 for switching display contents is provided at the lower right of the search result list display field 541 of the search result display screen 540 shown in FIG. The switching button 542 is composed of left and right arrows, and a screen number 543 is further displayed on the top thereof. In this example, “1/11” indicating the first of 11 screens is displayed as the number of screens 543. By pressing the switch button 542 to increase the number, the search result list is displayed accordingly. The display contents of the display field 541 can be switched. For example, when the switching button 542 is operated to change the screen number 543 to “2/11”, the screen is switched to the search result display screen 550 shown in FIG. 108, and an overview of the three-dimensional search results is displayed in the search result list display column 541. The Here, in addition to the searched number, the presence / absence of a workpiece, the total volume / the volume of the workpiece, an inclination angle, a rotation angle, a posture (R X , R Y , R Z ) and the like are displayed. When the screen number 543 is changed to “3/11”, the screen is switched to the search result display screen 560 shown in FIG. 109, and the search result list display field 541 displays the number of searched items and the presence / absence of workpieces as an overview of the three-dimensional search results. In addition to the total volume / workpiece volume, XYZ inclination and the like are displayed as floor surface information.

さらに画面数543を「4/11」に変更すると、図110に示すサーチ結果表示画面570に切り替わり、サーチ結果一覧表示欄541には三次元サーチ結果の概要として、サーチ結果を識別するラベル番号毎に、このサーチ結果の検出に用いたサーチモデルのモデル番号とスコアを横方向に表示している。さらにまた画面数543を「5/11」に変更すると、図111に示すサーチ結果表示画面580に切り替わり、サーチ結果一覧表示欄541には三次元サーチ結果の概要として、サーチ結果を識別するラベル番号毎に、位置(X,Y,Z)が表示される。さらにまた画面数543を「6/11」に変更すると、図112に示すサーチ結果表示画面590に切り替わり、サーチ結果一覧表示欄541には三次元サーチ結果の概要として、サーチ結果を識別するラベル番号毎に傾斜角度及び回転角度が表示される。さらにまた画面数543を「7/11」に変更すると、図113に示すサーチ結果表示画面610に切り替わり、サーチ結果一覧表示欄541には三次元サーチ結果の概要として、サーチ結果を識別するラベル番号毎に姿勢(RX,RY,RZ)が表示される。
(三次元ピック)
Further, when the screen number 543 is changed to “4/11”, the screen is switched to the search result display screen 570 shown in FIG. 110, and the search result list display column 541 displays, for each label number identifying the search result, as an outline of the three-dimensional search result. Further, the model number and the score of the search model used for detecting the search result are displayed in the horizontal direction. Furthermore, when the screen number 543 is changed to “5/11”, the screen is switched to the search result display screen 580 shown in FIG. 111, and the search result list display field 541 has a label number for identifying the search result as an outline of the three-dimensional search result. Each time the position (X, Y, Z) is displayed. Furthermore, when the screen number 543 is changed to “6/11”, the screen is switched to the search result display screen 590 shown in FIG. 112, and the search result list display field 541 has a label number for identifying the search result as an outline of the three-dimensional search result. The tilt angle and the rotation angle are displayed for each time. Furthermore, when the screen number 543 is changed to “7/11”, the screen is switched to the search result display screen 610 shown in FIG. 113, and the search result list display field 541 has a label number for identifying the search result as an outline of the three-dimensional search result. The posture (R X , R Y , R Z ) is displayed every time.
(3D pick)

次に、三次元サーチされた各サーチ結果に対して、エンドエフェクタで把持可能か否かを判定する三次元ピックのシミュレーションを行う手順について、図117〜図149に基づいて説明する。図89の機能選択画面340において、「3Dピック」ボタン343を押下すると、図117の三次元ピック初期設定画面650が表示され、ユーザに対して三次元ピックを行うために必要な設定を順次行うよう、ガイダンス機能が実行される。ここでは、操作欄142の上段に、3Dピックガイダンス欄655が表示され、順次行われる作業がアイコンで表示される。この例では、「初期設定」、「把持登録」、「条件・懸賞」、「プレース設定」の4つの工程が表示されている。
(三次元ピック初期設定画面)
Next, a procedure for performing a three-dimensional pick simulation for determining whether or not each end result can be grasped by an end effector will be described with reference to FIGS. 117 to 149. When the “3D pick” button 343 is pressed on the function selection screen 340 in FIG. 89, the three-dimensional pick initial setting screen 650 in FIG. 117 is displayed, and settings necessary for performing the three-dimensional pick are sequentially performed for the user. The guidance function is executed. Here, a 3D pick guidance field 655 is displayed in the upper part of the operation field 142, and operations to be sequentially performed are displayed as icons. In this example, four steps of “Initial setting”, “Grip registration”, “Condition / Prize”, and “Place setting” are displayed.
(3D pick initial setting screen)

図117の三次元ピック初期設定画面650では、まず三次元ピックを行うための初期設定を行う。操作欄142上段の3Dピックガイダンス欄655では、「初期設定」アイコンがハイライト表示され、ユーザに対してこの段階で行うべき作業が示される。操作欄142には、キャリブレーションデータ選択欄651と、検出ツール設定欄652と、ハンド登録欄653が設けられる。キャリブレーションデータ選択欄651では、予め画像処理装置で表示される座標系を、ロボットコントローラがエンドエフェクタを動作させる座標系に座標変換するために演算されたキャリブレーションデータを呼び出して登録する。検出ツール設定欄652では、ワークを検出するための手段を指定する。この例では、ツール番号100番に設定されたワーク検出用三次元サーチが選択されている。上述した三次元サーチの設定を経て登録されたサーチモデルの設定が読み込まれる。別のツール番号に異なるワークのサーチモデルが予め設定されていた場合、この検出ツールの選択を切り替えることで、三次元ピックの設定対象を切り替えることができる。
(エンドエフェクタモデル設定部)
In the three-dimensional pick initial setting screen 650 of FIG. 117, first, initial setting for performing a three-dimensional pick is performed. In the 3D pick guidance field 655 at the top of the operation field 142, an “initial setting” icon is highlighted, and the work to be performed at this stage is shown to the user. The operation column 142 includes a calibration data selection column 651, a detection tool setting column 652, and a hand registration column 653. In the calibration data selection field 651, calibration data calculated for coordinate conversion of the coordinate system displayed in advance by the image processing apparatus into the coordinate system for operating the end effector is called and registered. In the detection tool setting field 652, a means for detecting a workpiece is designated. In this example, the three-dimensional search for workpiece detection set to the tool number 100 is selected. The search model settings registered through the above-described three-dimensional search settings are read. When search models for different workpieces are set in advance for different tool numbers, the setting target of the three-dimensional pick can be switched by switching the selection of this detection tool.
(End effector model setting part)

ハンド登録欄653では、エンドエフェクタモデルを登録する。ここで「ハンドモデルの作成」ボタン654を押下すると、図118に示すエンドエフェクタモデル設定画面660が表示される。エンドエフェクタモデル設定画面660では、登録済みのエンドエフェクタモデルの一覧が、ハンドモデル一覧表示欄661に表示される。図118の例は未登録のため、画像表示欄141にも、操作欄142のエンドエフェクタモデル一覧表示欄661にも、エンドエフェクタモデルは表示されていない。そこで、「追加」ボタン662を押下して、エンドエフェクタモデルを追加する。なおエンドエフェクタモデル設定画面660の画像表示欄141には、エンドエフェクタモデルを配置するロボットのアーム部先端の基準面としてフランジ面FLSが表示される。さらに、エンドエフェクタモデルEEM側の座標軸を示すツール座標軸TAXも表示される(詳細は後述)。
(エンドエフェクタモデル編集部)
In the hand registration field 653, an end effector model is registered. When the “Create hand model” button 654 is pressed here, an end effector model setting screen 660 shown in FIG. 118 is displayed. On the end effector model setting screen 660, a list of registered end effector models is displayed in the hand model list display field 661. Since the example in FIG. 118 is not registered, no end effector model is displayed in the image display field 141 or the end effector model list display field 661 in the operation field 142. Therefore, an “add” button 662 is pressed to add an end effector model. In the image display field 141 of the end effector model setting screen 660, the flange surface FLS is displayed as a reference surface at the tip of the arm portion of the robot on which the end effector model is arranged. Further, a tool coordinate axis TAX indicating a coordinate axis on the end effector model EEM side is also displayed (details will be described later).
(End effector model editor)

図118で「追加」ボタン662を押下すると、図119に示すエンドエフェクタモデル編集画面670が表示される。エンドエフェクタモデル編集画面670では、エンドエフェクタモデルを構成するパーツを設定する。ここでは、登録済みのパーツがパーツ一覧表示欄671に表示される。図119の例では未だパーツが登録されていないため、パーツ一覧表示欄671には何も表示されていない。この状態で「追加」ボタン672を押下すると、図120に示すパーツ追加ダイヤログが表示され、追加するパーツをCADデータを読み込んで登録するか、直方体モデル、または円柱モデルで新たに作成するかをラジオボタンで選択する。なお、追加パーツは上述した追加領域の一形態であり、直方体や円柱に限らず、角柱状や三角形状、球状等、任意の形状を利用できる。図120の例ではCADデータを選択している。「追加」ボタン681を押下して作成済みの三次元CADデータを選択すると、図121に示すCAD位置姿勢設定画面690となり、三次元CADデータが読み込まれて画像表示欄141にCADで作成されたCADモデルCDMが表示されると共に、操作欄142には、このCADモデルCDMの位置及び姿勢を指定する位置姿勢欄691が表示される。CADモデルCDMの位置及び姿勢は、フランジ面FLSを基準に指定される。ユーザは、位置姿勢欄691から、エンドエフェクタモデルの取付位置や角度を指定する。例えば図121の状態から回転角RXとして20°を指定すると、図122に示すように画像表示欄141で表示されるCADモデルCDMが、X軸を中心として20°回転した姿勢に表示される。あるいは図121の状態からZ方向に50mmを指定すると、図123に示すようにCADモデルCDMがZ方向に50mmオフセットされて表示される。このようにしてCADモデルCDMの位置及び姿勢を調整して、図121の「OK」ボタン692を押下すると、CADデータが登録されて、パーツ一覧表示欄671に表示される。 When the “add” button 662 is pressed in FIG. 118, an end effector model editing screen 670 shown in FIG. 119 is displayed. In the end effector model editing screen 670, the parts constituting the end effector model are set. Here, the registered parts are displayed in the parts list display field 671. In the example of FIG. 119, since no parts are registered yet, nothing is displayed in the parts list display field 671. When the “Add” button 672 is pressed in this state, the part addition dialog shown in FIG. 120 is displayed, and it is determined whether to add a part to be added by reading CAD data, or to create a new part using a rectangular parallelepiped model or a cylindrical model. Select with the radio button. In addition, an additional part is one form of the additional area | region mentioned above, Arbitrary shapes, such as not only a rectangular parallelepiped and a cylinder but prismatic shape, triangular shape, spherical shape, can be utilized. In the example of FIG. 120, CAD data is selected. When the created 3D CAD data is selected by pressing the “Add” button 681, the CAD position / orientation setting screen 690 shown in FIG. 121 is displayed, and the 3D CAD data is read and created in the image display column 141 by CAD. A CAD model CDM is displayed, and a position / posture column 691 for designating the position and posture of the CAD model CDM is displayed in the operation column 142. The position and orientation of the CAD model CDM are specified based on the flange surface FLS. The user designates the attachment position and angle of the end effector model from the position / posture column 691. For example, when 20 ° is designated as the rotation angle R X from the state of FIG. 121, the CAD model CDM displayed in the image display column 141 is displayed in a posture rotated by 20 ° about the X axis as shown in FIG. . Alternatively, if 50 mm is designated in the Z direction from the state of FIG. 121, the CAD model CDM is displayed with an offset of 50 mm in the Z direction as shown in FIG. When the position and orientation of the CAD model CDM are adjusted in this way and the “OK” button 692 in FIG. 121 is pressed, CAD data is registered and displayed in the parts list display field 671.

パーツは複数を追加することができる。例えば図124のエンドエフェクタモデル編集画面から「追加」ボタン682を押下して、図120のパーツ追加ダイヤログ680で円柱モデルを選択して「追加」ボタン681を押下すると、図125の追加領域位置姿勢設定画面となり、画像表示欄141には新たに追加領域ADAとして、円柱状のモデルが表示される。なお、編集中のパーツはハイライト表示される。図125の例では、追加領域ADAが赤色で表示され、CADモデルCDMは灰色やワイヤフレームで表示される。これによってユーザに対し、現在編集中のパーツを視覚的に把握させ易くできる。また同様に、追加される追加領域ADAの位置及び姿勢を位置姿勢欄691から指定する。この例では位置姿勢欄691でZ位置を−50mmに指定しており、フランジ面FLSからCADモデルCDMと逆方向に追加領域ADAが配置されている。また追加領域ADAのサイズとして、円柱状モデルの半径や高さをサイズ指定欄693で指定できる。このようにして追加領域ADAの条件を設定した後、「OK」ボタン692を押下すると、追加領域ADAが登録されて、図126に示すようにエンドエフェクタモデル編集画面のパーツ一覧表示欄671に円柱が追加されて表示される。
(ツール座標指定部)
Multiple parts can be added. For example, when the “add” button 682 is pressed from the end effector model editing screen of FIG. 124, a cylinder model is selected in the part addition dialog 680 of FIG. 120 and the “add” button 681 is pressed, the additional region position of FIG. A posture setting screen is displayed, and a columnar model is newly displayed in the image display field 141 as an additional area ADA. Note that the part being edited is highlighted. In the example of FIG. 125, the additional area ADA is displayed in red, and the CAD model CDM is displayed in gray or a wire frame. This makes it easy for the user to visually grasp the part currently being edited. Similarly, the position and orientation of the additional area ADA to be added are designated from the position / orientation column 691. In this example, the Z position is specified as −50 mm in the position / posture column 691, and the additional area ADA is arranged in the direction opposite to the CAD model CDM from the flange surface FLS. Further, as the size of the additional area ADA, the radius and height of the cylindrical model can be designated in the size designation column 693. After the conditions of the additional area ADA are set in this way, when the “OK” button 692 is pressed, the additional area ADA is registered, and a cylinder is displayed in the parts list display field 671 of the end effector model editing screen as shown in FIG. Is added and displayed.
(Tool coordinate specification part)

また、登録されたパーツの位置及び姿勢を調整することもできる。例えば図126のエンドエフェクタモデル編集画面から、選択されるパーツを追加領域ADAからCADモデルCDMに、画像表示欄141またはパーツ一覧表示欄671から変更すると図127のようになり、この状態でユーザは、ツール座標指定欄673で、位置(X,Y,Z)及び姿勢(RX,RY,RZ)を調整できる。例えば図128に示すように、Z位置を145mmに指定すると、画像表示欄141においてツール座標軸TAXが、指定された距離だけフランジ面FLSからZ方向に移動されて表示される。さらにこの状態で図129に示すように回転RXを20°に指定すると、ツール座標軸TAXがX軸を中心に時計回りに20°回転されて表示される。 It is also possible to adjust the position and orientation of the registered parts. For example, when the selected part is changed from the additional area ADA to the CAD model CDM from the image display column 141 or the parts list display column 671 on the end effector model editing screen of FIG. 126, the result is as shown in FIG. In the tool coordinate designation field 673, the position (X, Y, Z) and the posture (R X , R Y , R Z ) can be adjusted. For example, as shown in FIG. 128, when the Z position is designated as 145 mm, the tool coordinate axis TAX is moved and displayed in the Z direction from the flange surface FLS by the designated distance in the image display field 141. Further, in this state, as shown in FIG. 129, when the rotation R X is designated as 20 °, the tool coordinate axis TAX is rotated 20 ° clockwise around the X axis and displayed.

このようにして複数のパーツを登録していき、これらを組み合わせてエンドエフェクタモデルEEMを構築していく。各パーツの設定が終わると、図128等のエンドエフェクタモデル編集画面で「OK」ボタン674を押下すると、複数のパーツが合成されてエンドエフェクタモデルEEMとして登録され、図130のエンドエフェクタモデル設定画面660に示すように、ハンドモデル一覧表示欄661に「ハンド0」として表示される。また、画像表示欄141には、ばらばらに表示されていたパーツが一体のエンドエフェクタモデルEEMとして表示される。   In this way, a plurality of parts are registered, and an end effector model EEM is constructed by combining these parts. When the setting of each part is completed, when an “OK” button 674 is pressed on the end effector model editing screen of FIG. 128 or the like, a plurality of parts are synthesized and registered as the end effector model EEM, and the end effector model setting screen of FIG. As indicated by 660, “hand 0” is displayed in the hand model list display field 661. In the image display column 141, the parts that have been displayed separately are displayed as an integrated end effector model EEM.

なお、この例ではパーツを組み合わせてエンドエフェクタモデルを構成する例を説明したが、パーツは必ずしもエンドエフェクタモデルやその一部に限定されず、例えばケーブル類などをパーツで表現することもできる。このようにパーツは、エンドエフェクタモデルの一部やその表面に追加した物体、あるいは周辺部材などを表現する追加モデルの一形態をなす。
(把持基準点HBP)
In this example, the example in which the end effector model is configured by combining parts has been described. However, the parts are not necessarily limited to the end effector model or a part thereof, and for example, cables and the like can be expressed by parts. In this way, the parts form one form of an additional model that represents a part of the end effector model, an object added to the surface of the end effector model, or a peripheral member.
(Grip reference point HBP)

さらに、エンドエフェクタモデルEEMの把持基準点HBPが、画像表示欄141に重ねて表示される。把持基準点HBPは、エンドエフェクタモデルEEMでワークを把持する位置を示している。例えば、エンドエフェクタモデルEEMの内、ワークを把持する爪部同士の間の中間を把持基準点HBPとする。なお、把持基準点HBPは、所定の規則に従って決定されるように画像処理装置側で演算する他、ユーザが任意の位置を指定できるように構成してもよい。   Further, the gripping reference point HBP of the end effector model EEM is displayed so as to overlap the image display field 141. The gripping reference point HBP indicates a position where the workpiece is gripped by the end effector model EEM. For example, in the end effector model EEM, the middle between the claws that grip the workpiece is set as the gripping reference point HBP. Note that the gripping reference point HBP may be configured so that the user can specify an arbitrary position in addition to calculation on the image processing apparatus side so as to be determined according to a predetermined rule.

さらに、エンドエフェクタモデルEEMの位置及び姿勢を規定するツール座標軸も、画像表示欄141に重ねて表示させることが好ましい。このツール座標軸は、エンドエフェクタモデルEEMの回転に応じて変化させた回転済み座標軸RAXとすることが好ましい。さらに、回転済み座標軸RAXの原点を、把持基準点HBPと一致させることがより好ましい。これによって、把持位置を設定する際のエンドエフェクタモデルEEMの状態をユーザが視覚的に把握し易くできる。
(把持登録部)
Furthermore, it is preferable that the tool coordinate axes that define the position and orientation of the end effector model EEM are also displayed in an overlapping manner on the image display field 141. The tool coordinate axis is preferably a rotated coordinate axis RAX that is changed according to the rotation of the end effector model EEM. Furthermore, it is more preferable to make the origin of the rotated coordinate axis RAX coincide with the gripping reference point HBP. This makes it easier for the user to visually grasp the state of the end effector model EEM when setting the grip position.
(Grip registration part)

このようにして初期設定としてエンドエフェクタモデルEEMが登録されると、次に把持位置の登録を行う。図131の把持登録画面710では、3Dピックガイダンス欄655でハイライト表示が「初期設定」アイコンから「把持登録」アイコンに移る。操作欄142には、登録済みのサーチモデルを選択するサーチモデル切替欄711と、サーチモデル切替欄712で選択されたサーチモデルに対して、登録された把持位置の一覧を示す把持登録一覧表示欄712が表示されている。なお上述の通り、この例では把持位置を登録するワークモデルを、三次元サーチに用いるサーチモデルと共通にしている。ここでは、サーチモデル切替欄711には、登録済みのサーチモデルとして、図104で登録したモデル番号0のサーチモデルA〜Fの6つが登録されているものとする。また図131の例では、未だ把持位置が登録されていないため、把持登録一覧表示欄712には何も表示されていない。サーチモデル切替欄711ではサーチモデルAが選択されており、画像表示欄141にはAに対応するサーチモデルSMAが表示されている。さらに、サーチモデルSMAの位置姿勢を示す座標軸である基準座標軸BAXが重ねて表示されている。この状態からユーザは、サーチモデルAに対して把持位置を登録していく。具体的には「追加」ボタン713を押下すると、図132の把持登録画面に切り替わり、把持設定ダイヤログ720が表示される。
(把持設定部)
When the end effector model EEM is registered as an initial setting in this way, the gripping position is registered next. In the grip registration screen 710 of FIG. 131, the highlight display in the 3D pick guidance field 655 moves from the “initial setting” icon to the “grip registration” icon. The operation column 142 includes a search model switching column 711 for selecting a registered search model, and a grip registration list display column indicating a list of registered gripping positions for the search model selected in the search model switching column 712. 712 is displayed. As described above, in this example, the work model for registering the gripping position is shared with the search model used for the three-dimensional search. Here, it is assumed that six search models A to F of model number 0 registered in FIG. 104 are registered in the search model switching field 711 as registered search models. In the example of FIG. 131, since the grip position has not been registered yet, nothing is displayed in the grip registration list display field 712. Search model A is selected in search model switching field 711, and search model SMA corresponding to A is displayed in image display field 141. Further, a reference coordinate axis BAX, which is a coordinate axis indicating the position and orientation of the search model SMA, is displayed in an overlapping manner. From this state, the user registers the gripping position for the search model A. Specifically, when an “add” button 713 is pressed, the screen is switched to the grip registration screen shown in FIG. 132, and a grip setting dialog 720 is displayed.
(Grip setting part)

把持設定ダイヤログ720では、操作欄142に、基本設定欄721と、把持位置座標指定欄724と、移動量設定欄727が設けられている。基本設定欄721は、把持ラベル設定欄722とハンド選択欄723を設けている。把持ラベル設定欄722では、把持位置を特定する識別情報である把持ラベルを設定する。ここでは把持ラベルとして、サーチモデルを示す「A」と、把持位置の通し番号「000」を設定している。またハンド選択欄723では、把持ラベル設定欄722で設定された把持位置を把持するエンドエフェクタモデルEEMを選択する。この例ではハンド選択欄723で「ハンド0」が選択されており、これに応じて画像表示欄141には、エンドエフェクタモデルEEMが表示される。このように、把持位置は、エンドエフェクタモデルEEMと紐付けて設定される。   In the grip setting dialog 720, a basic setting field 721, a grip position coordinate designation field 724, and a movement amount setting field 727 are provided in the operation field 142. The basic setting field 721 includes a grip label setting field 722 and a hand selection field 723. In the grip label setting field 722, a grip label that is identification information for specifying a grip position is set. Here, “A” indicating the search model and the serial number “000” of the grip position are set as the grip labels. In the hand selection field 723, the end effector model EEM that grips the gripping position set in the grip label setting field 722 is selected. In this example, “hand 0” is selected in the hand selection field 723, and the end effector model EEM is displayed in the image display field 141 accordingly. Thus, the grip position is set in association with the end effector model EEM.

把持位置座標指定欄724では、把持位置を示す座標位置(X,Y,Z)と姿勢(RX,RY,RZ)を、ユーザが数値で直接指定可能な座標姿勢指定欄725と、把持位置の設定をユーザに案内するガイダンス機能を実行するための「簡単設定ナビ」ボタン726が設けられる。 In the grip position coordinate designation field 724, a coordinate position designation field 725 in which the user can directly designate the coordinate position (X, Y, Z) and posture (R X , R Y , R Z ) indicating the grip position numerically; An “easy setting navigation” button 726 is provided for executing a guidance function for guiding the user to set the grip position.

また移動量設定欄727では、エンドエフェクタモデルEEMを移動させる方向を規定する。ここではエンドエフェクタモデルEEMでサーチモデルSMAを把持するように、エンドエフェクタモデルEEMをサーチモデルSMAに近付けるアプローチ移動量を、X方向、Y方向、Z方向の距離として規定している。図132の例では、Z方向に100mm移動させる例を示している。
(把持位置設定ガイダンス機能)
The movement amount setting field 727 defines the direction in which the end effector model EEM is moved. Here, the approach movement amount that brings the end effector model EEM closer to the search model SMA is defined as the distance in the X direction, the Y direction, and the Z direction so that the end effector model EEM holds the search model SMA. In the example of FIG. 132, an example of moving 100 mm in the Z direction is shown.
(Grip position setting guidance function)

図132の画面から「簡単設定ナビ」ボタン726を押下すると、把持位置設定ガイダンス機能が実行される。具体的には図133に示すように設定方法選択ダイヤログ730が表示され、ユーザに対し、把持位置を三次元ビューワを使って設定するか、あるいはロボットを使って選択するかの何れかを、ラジオボタンで選択させる。この例では、三次元ビューワ上で設定することを選択している。この状態で「OK」ボタン731を押下すると、三次元ビューワ上での登録ガイダンス機能が実行される。
(三次元ビューワ上での登録ガイダンス機能)
When a “simple setting navigation” button 726 is pressed from the screen of FIG. 132, a gripping position setting guidance function is executed. Specifically, as shown in FIG. 133, a setting method selection dialog 730 is displayed, and for the user, whether to set the gripping position using a three-dimensional viewer or to select using a robot, Select with the radio button. In this example, setting on the three-dimensional viewer is selected. When an “OK” button 731 is pressed in this state, a registration guidance function on the 3D viewer is executed.
(Registration guidance function on 3D viewer)

三次元ビューワ上での登録ガイダンス機能では、4つの工程を経て把持位置を登録させる。ここでは、図134〜図141に示す三次元ビューワ登録画面を経て、ユーザに対し把持位置を指定させる。具体的には図133で「OK」ボタン731を押下すると、図134のX−Y指定画面740に切り替わる。
(第一工程:X−Y指定)
In the registration guidance function on the three-dimensional viewer, the grip position is registered through four steps. Here, the user is caused to designate a gripping position via the three-dimensional viewer registration screen shown in FIGS. 134 to 141. Specifically, when the “OK” button 731 is pressed in FIG. 133, the screen is switched to the XY designation screen 740 in FIG.
(First step: XY designation)

図134では、X−Y指定部の一形態としてX−Y指定画面740が表示される。ここでは、把持位置を登録するための第一工程として、サーチモデルSMAを平面図状に表示させた状態で、平面図上から把持位置を指定させる。具体的には、サーチモデルSMAをXY平面における二次元状に画像表示欄141に表示させて、把持するX、Y座標をサーチモデルSMA上で指定させる。操作欄142には、STEP1として、ユーザに対し行うべき作業をテキスト等で説明する。ここでは「把持するXY位置をカメラ画像上で選択してください。」と表示される。また図134の例では、画像表示欄141には、サーチモデルAが高さ画像(サーチモデルSMA)として拡大表示されており、この状態でユーザはマウス等のポインティングデバイスを用いて、把持する部位P1を選択する。この把持指定位置P1に応じて、XY座標がXY座標指定欄741に入力される。また、XY座標指定欄741のX座標、Y座標を調整すると、これに応じて画像表示欄141の把持指定位置P1も更新される。なお、このX−Y指定画面740では、位置パラメータの内、X座標とY座標の指定のみを可能としており、言い換えると他の位置パラメータの指定は不可能としている。このように、従来のような多数の位置パラメータを同時に設定可能としたことでユーザが混乱する事態を避け、設定可能な位置パラメータを制限することで、ユーザは設定可能な位置パラメータを的確に把握して、順次位置パラメータを設定するように案内される。このようにしてXY座標の指定を終えると、「次へ」ボタン742を押下する。これにより、第二工程に移り、図135のZ−RZ指定画面750に切り替わる。
(第二工程:Z−RZ指定)
In FIG. 134, an XY designation screen 740 is displayed as one form of the XY designation unit. Here, as a first step for registering the gripping position, the gripping position is designated from the plan view in a state where the search model SMA is displayed in a plan view. Specifically, the search model SMA is displayed two-dimensionally on the XY plane in the image display column 141, and the X and Y coordinates to be gripped are designated on the search model SMA. In the operation column 142, as STEP1, the work to be performed for the user is described in text or the like. Here, “Please select the XY position to be gripped on the camera image” is displayed. In the example of FIG. 134, the search model A is enlarged and displayed as a height image (search model SMA) in the image display field 141. In this state, the user holds a part to be gripped using a pointing device such as a mouse. Select P1. The XY coordinates are input to the XY coordinate designation column 741 in accordance with the grip designation position P1. When the X and Y coordinates in the XY coordinate designation column 741 are adjusted, the grip designation position P1 in the image display column 141 is also updated accordingly. In the XY designation screen 740, only the X and Y coordinates of the position parameters can be designated. In other words, the designation of other position parameters is impossible. In this way, it is possible to set a large number of position parameters at the same time as in the past, avoiding confusion for the user, and by limiting the position parameters that can be set, the user can accurately grasp the position parameters that can be set. Then, the user is guided to sequentially set the position parameters. When the designation of the XY coordinates is completed in this way, the “Next” button 742 is pressed. Thereby, the process proceeds to the second step, and the screen is switched to the Z- RZ designation screen 750 in FIG.
(Second step: Z-R Z designation)

図135のZ−RZ指定画面750は、Z−RZ指定部の一形態であり、Z座標と姿勢RZをユーザに指定させるための画面である。操作欄142には、第二工程でユーザが行うべき作業をテキストで表示して説明する。ここでは「STEP2 把持するZ位置と、ハンドの姿勢角度RZを指定してください」と表示させている。また操作欄142には、Z−RZ指定欄751として、Z位置を指定するZ指定欄752とRZ姿勢を指定するRZ指定欄753が設けられる。また画像表示欄141には、エンドエフェクタモデルEEMとサーチモデルSMAが三次元状に表示されている。すなわち画像表示欄141は、エンドエフェクタモデルやサーチモデルを三次元状に表示させる三次元ビューワとして機能する。Z指定欄752やRZ指定欄753の数値を変更すると、これに応じて画像表示欄141のエンドエフェクタモデルEEMやサーチモデルSMAの三次元状表示内容が更新される。また、画像表示欄141をドラッグすることで、ユーザは三次元ビューアの視点を変更することができるため、把持の設定状態を詳細に確認することができる。 A Z-R Z designation screen 750 in FIG. 135 is a form of the Z-R Z designation unit, and is a screen for allowing the user to designate the Z coordinate and the posture R Z. In the operation column 142, the work to be performed by the user in the second step is displayed and explained in text. Here, “STEP2 Please specify the Z position to grip and the posture angle R Z of the hand” is displayed. The operation field 142 includes a Z designation field 752 for designating the Z position and an R Z designation field 753 for designating the R Z posture as the Z-R Z designation field 751. In the image display column 141, the end effector model EEM and the search model SMA are displayed in a three-dimensional manner. That is, the image display column 141 functions as a three-dimensional viewer that displays the end effector model and the search model in a three-dimensional manner. When the numerical values in the Z designation column 752 and the R Z designation column 753 are changed, the three-dimensional display contents of the end effector model EEM and the search model SMA in the image display column 141 are updated accordingly. Also, since the user can change the viewpoint of the three-dimensional viewer by dragging the image display column 141, the gripping setting state can be confirmed in detail.

加えて三次元ビューワである画像表示欄141には、座標軸の内、現在設定中の位置パラメータに関する座標軸として、Z軸のみを表示させている。このZ軸は、上述したZ−Y−Xオイラー角で表示した補正後の補正回転Z軸AXZである。このように、現在調整可能な座標軸のみを表示させ、さらに他の位置パラメータの調整をこの画面上では不可能とすることで、ユーザに対して無用な混乱を生じさせず、所定の順序に従い適切な位置パラメータのみを順次設定させるように適切に案内することが実現される。   In addition, in the image display field 141 which is a three-dimensional viewer, only the Z axis is displayed as the coordinate axis related to the currently set position parameter among the coordinate axes. This Z axis is the corrected rotation Z axis AXZ after correction displayed with the ZYX Euler angle described above. In this way, by displaying only the coordinate axes that are currently adjustable, and making it impossible to adjust other position parameters on this screen, the user can properly adjust according to a predetermined order without causing unnecessary confusion. Proper guidance is realized so that only correct position parameters are sequentially set.

また図135等の例では、把持基準点HBPを通って把持方向の軸(ここでは補正回転Z軸AXZ)が延びるように表示させることで、ユーザに対し、エンドエフェクタモデルEEMをワークモデルに近付けるための移動方向を判り易く示すことができる。また、エンドエフェクタモデルの移動方向を矢印で示すように構成してもよい。この際、エンドエフェクタモデルの移動方向は、把持方向の軸上に重ねて表示してもよいし、あるいは別の位置に表示させてもよい。   In the example of FIG. 135 and the like, the end effector model EEM is brought closer to the work model by displaying the axis in the gripping direction (here, the corrected rotation Z axis AXZ) through the gripping reference point HBP. Therefore, it is possible to show the direction of movement for easy understanding. Moreover, you may comprise so that the movement direction of an end effector model may be shown with the arrow. At this time, the moving direction of the end effector model may be displayed on the axis in the gripping direction or may be displayed at another position.

さらにZ−RZ指定画面750は、相対位置設定部の一形態として「フィット」ボタン154を設けている。上述の通り「フィット」ボタン154は、エンドエフェクタモデルをワークモデルの把持位置に自動的に移動させるフィット機能を実現する。「フィット」ボタン154を押下すると、図136に示すようにエンドエフェクタモデルEEMが移動され、サーチモデルSMAに接触された状態に変化する。すなわち、エンドエフェクタモデルEEMの把持基準点HBPが、サーチモデルSMAの把持指定位置P1に向かって移動される。この移動方向がZ軸と一致するように、図135の状態で、エンドエフェクタモデルEEMの表示させる際の初期位置を調整することが好ましい。これによって、エンドエフェクタモデルEEMをZ方向にのみ移動させることで、サーチモデルSMAに接触させることができ、感覚的に判り易く表示させることができる上、ユーザがエンドエフェクタモデルEEMを移動させる作業も簡便に行える。 Further, the Z- RZ designation screen 750 is provided with a “fit” button 154 as one form of the relative position setting unit. As described above, the “fit” button 154 realizes a fitting function for automatically moving the end effector model to the gripping position of the work model. When the “fit” button 154 is pressed, the end effector model EEM is moved as shown in FIG. 136 and changes to a state in which the end effector model EEM is in contact with the search model SMA. That is, the grip reference point HBP of the end effector model EEM is moved toward the grip designation position P1 of the search model SMA. It is preferable to adjust the initial position when displaying the end effector model EEM in the state shown in FIG. 135 so that the moving direction coincides with the Z axis. By moving the end effector model EEM only in the Z direction, the search model SMA can be brought into contact with the end effector model EEM, and the user can move the end effector model EEM. It can be done easily.

また画像表示欄141におけるエンドエフェクタモデルEEMの移動に応じて、操作欄142におけるZ指定欄752のZ位置が変更される。この例では、図135の200mmから50mmに変更されている。ここでは、フィット機能により、図134で指定された把持指定位置P1に向かって、エンドエフェクタモデルEEMを高さ方向すなわちZ軸方向に移動させたとき、サーチモデルSMAに接触する位置を基準として、ここから所定のオフセット量だけ手前に戻した位置に移動される。また、把持指定位置P1を基準として、座標軸の内、現在設定中のZ軸のみを画像表示欄141に表示させている。   Further, according to the movement of the end effector model EEM in the image display column 141, the Z position of the Z designation column 752 in the operation column 142 is changed. In this example, it is changed from 200 mm in FIG. 135 to 50 mm. Here, with the fit function, when the end effector model EEM is moved in the height direction, that is, the Z-axis direction, toward the grip specified position P1 specified in FIG. 134, the position that contacts the search model SMA is used as a reference. From here, it is moved to a position returned to the front by a predetermined offset amount. Further, only the currently set Z-axis among the coordinate axes is displayed in the image display field 141 with the gripping designated position P1 as a reference.

この状態でユーザは、さらに姿勢RZをRZ指定欄753から指定する。図136に示すエンドエフェクタモデルEEMの姿勢では、ハ字状に傾斜されたサーチモデルSMAの側面を把持している状態となっているため、エンドエフェクタモデルEEMをZ軸方向に回転させて、平行な面を把持するように調整する。この際、RZ指定欄753にユーザが直接回転角を入力する他、所定の角度を入力する角度選択ボタン754を設けることで、より簡便にエンドエフェクタモデルEEMの回転を指定することができる。この例では角度選択ボタン754として、0°、90°、180°、−90°の4つの角度ボタンを配置している。ユーザは90°ボタンを押下することで、RZ指定欄753に90°が入力されて、図137に示すようにエンドエフェクタモデルEEMがZ軸方向に90°回転され、サーチモデルSMAを正しく把持できる状態に修正できる。
(第三工程:RY指定)
In this state, the user further designates the posture R Z from the R Z designation column 753. In the posture of the end effector model EEM shown in FIG. 136, since the side surface of the search model SMA tilted in a C shape is gripped, the end effector model EEM is rotated in the Z-axis direction to be parallel. Adjust to grip a smooth surface. At this time, the rotation of the end effector model EEM can be specified more easily by providing the angle selection button 754 for inputting a predetermined angle in addition to the user directly inputting the rotation angle in the R Z designation field 753. In this example, as the angle selection button 754, four angle buttons of 0 °, 90 °, 180 °, and −90 ° are arranged. When the user presses the 90 ° button, 90 ° is entered in the R Z designation field 753, and the end effector model EEM is rotated 90 ° in the Z-axis direction as shown in FIG. 137, and the search model SMA is correctly grasped. It can be corrected to a ready state.
(Third process: R Y designation)

このようにして第二工程のZ−RZ指定を終えると、「次へ」ボタン755を押下して、第三工程のRY指定に進む。具体的には、「次へ」ボタン755を押下すると、図138のRY指定画面760に移行する。RY指定画面760はRY指定部の一形態であり、姿勢RYを指定する。RY指定画面760の操作欄142には、RY指定欄761が表示され、またユーザに対して第三工程で行うべき作業として、「STEP3 ハンドの姿勢角度RYを指定してください」と表示される。さらに画像表示欄141には、座標軸の内、現在設定中のY軸である補正回転Y軸AXYのみを表示させている。この状態からユーザは、サーチモデルSMAを把持するエンドエフェクタモデルEEMの姿勢に応じて、姿勢RYをRY指定画面760から指定する。あるいは三次元ビューワである画像表示欄141上で、エンドエフェクタモデルEEMをドラッグして回転させる。例えば図138の状態で、RY指定画面760から姿勢RYとして90°を指定すると、図139のRY指定画面に切り替わり、エンドエフェクタモデルEEMがY軸を中心に90°回転された姿勢に表示される。このようにして第三工程のRY指定を終えると、「次へ」ボタン762を押下して、第四工程のRY指定に移行する。
(第四工程:RY指定)
When Z-R Z designation for the second process is completed in this way, the “Next” button 755 is pressed to proceed to R Y designation for the third process. Specifically, when the “Next” button 755 is pressed, the screen shifts to the RY designation screen 760 in FIG. 138. The R Y designation screen 760 is a form of the R Y designation unit, and designates the posture R Y. In the operation field 142 of the RY designation screen 760, an RY designation field 761 is displayed, and “STEP3 Please specify the hand posture angle RY ” as the work to be performed in the third step. Is displayed. Further, the image display column 141 displays only the corrected rotation Y axis AXY which is the currently set Y axis among the coordinate axes. From this state, the user designates the orientation RY from the RY designation screen 760 according to the orientation of the end effector model EEM that holds the search model SMA. Alternatively, the end effector model EEM is dragged and rotated on the image display field 141 which is a three-dimensional viewer. For example, in the state of FIG. 138, if 90 ° is designated as the orientation R Y from the R Y designation screen 760, the screen switches to the R Y designation screen of FIG. 139, and the end effector model EEM is rotated to 90 ° around the Y axis. Is displayed. When the RY designation of the third process is finished in this way, the “next” button 762 is pressed to shift to the RY designation of the fourth process.
(Fourth process: R Y designation)

図140は、第四工程のRX指定画面770を示している。RX指定画面770はRX指定部の一形態であり、姿勢RXを指定するためのRX指定欄771を設けている。また画像表示欄141には、エンドエフェクタモデルEEMとサーチモデルSMAに重ねて、座標軸の内でRX指定画面770で設定可能な位置パラメータRXに関するX軸である補正回転X軸AXXが表示される。この状態でユーザは、RX指定欄771から姿勢RXを指定する。あるいは画像表示欄141でエンドエフェクタモデルEEMをドラッグして回転させる。例えば姿勢RXとして、図140の例ではRX指定欄771に、現在の把持位置と対応して180°が入力されているところ、150°を指定すると、図141のように、指定された姿勢RXに応じてエンドエフェクタモデルEEMとサーチモデルSMAの姿勢が三次元ビューワである画像表示欄141において変化する。 Figure 140 shows the R X designation screen 770 of the fourth step. The R X designation screen 770 is one form of the R X designation unit, and is provided with an R X designation column 771 for designating the posture R X. In the image display field 141, the corrected rotation X axis AXX that is the X axis related to the position parameter R X that can be set on the R X designation screen 770 is displayed on the end effector model EEM and the search model SMA. The In this state, the user designates the posture R X from the R X designation column 771. Alternatively, the end effector model EEM is dragged and rotated in the image display field 141. For example, as posture R X , 180 ° is input in the R X designation field 771 in the example of FIG. 140 in correspondence with the current gripping position. When 150 ° is designated, the posture is designated as shown in FIG. orientation of the end effector model EEM and search model SMA is changed in the image display field 141 is a three-dimensional viewer in accordance with the attitude R X.

このようにして姿勢RXの指定を終えると、「完了」ボタン772を押下して、把持位置を登録を終了する。把持位置が登録されると、図142に示すように、把持登録一覧表示欄712に、把持登録A−000が追加される。また把持登録A−000と対応するサーチモデルAが、サーチモデル切替欄711においてハイライト表示される。さらに画像表示欄141には、この把持登録されたエンドエフェクタモデルEEMの位置及び姿勢でサーチモデルSMAを把持する様子が三次元状に表示される。さらに座標軸として、サーチモデルSMA側の基準座標軸BAXが重ねて表示されている。 In this manner, when the finish the designation of attitude R X and, by pressing the "Finish" button 772, to terminate the registration of the gripping position. When the grip position is registered, grip registration A-000 is added to the grip registration list display field 712, as shown in FIG. Also, the search model A corresponding to the grip registration A-000 is highlighted in the search model switching field 711. Further, in the image display column 141, a state in which the search model SMA is gripped by the position and orientation of the end effector model EEM registered for gripping is displayed in a three-dimensional manner. Further, a reference coordinate axis BAX on the search model SMA side is displayed as a coordinate axis.

以下同様にして、サーチモデルAに別の把持位置を登録したり、あるいは他のサーチモデルB〜Fに、把持位置を追加していく。把持位置の追加は、上述の通り把持登録一覧表示欄712に設けられた「追加」ボタン713を押下することで行える。図143の例では、サーチモデルBに対する把持登録B−000を登録した例を示している。
(コピー機能)
Similarly, another gripping position is registered in the search model A, or gripping positions are added to the other search models BF. The grip position can be added by pressing an “add” button 713 provided in the grip registration list display field 712 as described above. The example in FIG. 143 shows an example in which grip registration B-000 for the search model B is registered.
(Copy function)

また、把持位置を追加登録する際に、既に登録した把持位置をコピーするコピー機能を利用できる。図142等の画面で把持登録一覧表示欄712に設けられた「コピー」ボタン714を押下すると、登録済みの把持位置を複製できる。さらにコピーした把持位置をベースにして修正することで、効率的に把持位置の登録作業を行うこともできる。図142等の状態から、「編集」ボタン715を押下すると、把持設定ダイヤログが表示されて、上述の通り把持位置の設定を行うことができる。ここで、上述の通り「簡単設定ナビ」ボタン726を押下して把持位置設定ガイダンス機能を実行し、必要な箇所を修正することもできる。
(条件検証画面780)
Further, when additionally registering the gripping position, a copy function for copying the already registered gripping position can be used. When a “copy” button 714 provided in the grip registration list display field 712 is pressed on the screen of FIG. 142 or the like, the registered grip position can be duplicated. Furthermore, by correcting the copied gripping position as a base, the gripping position registration work can be performed efficiently. When the “edit” button 715 is pressed in the state of FIG. 142 or the like, the grip setting dialog is displayed, and the grip position can be set as described above. Here, as described above, the “simple setting navigation” button 726 is pressed to execute the gripping position setting guidance function, and necessary portions can be corrected.
(Condition verification screen 780)

以上のようにしてサーチモデルA〜Fに把持位置を登録し終えると、図143等の画面で「完了」ボタン716を押下して、把持登録工程を終了し、条件検証工程に移行する。条件検証工程においては、バラ積みされたワーク群に対して、三次元サーチを行いワークを検出して、このワークを指定された把持位置でエンドエフェクタで把持できるかを検証する。ここでは、エンドエフェクタモデルEEMとサーチモデルを用いてシミュレーションを行う。条件検証画面780の例を図144に示す。この条件検証画面780では、3Dピックガイダンス欄655でハイライト表示が「把持登録」アイコンから「条件・検証」アイコンに移る。操作欄142には、三次元サーチ結果を元に把持位置を検出する条件を設定する検出条件設定欄781と、検出されたワークの把持可否を検証するための検証欄785が設けられる。検出条件設定欄781では、検出する把持解の個数の上限を指定する検出個数指定欄782と、エンドエフェクタモデルの傾斜角度の上限を指定するハンド傾斜角度上限指定欄783と、エンドエフェクタモデルが干渉する範囲を拡張するため、収納容器の壁面からのマージンを設定するマージン設定欄784を設けている。マージン設定欄784で指定された距離(図144では5mm)の範囲に、エンドエフェクタモデルEEMが浸入すると、干渉すると判断される。   When the gripping positions are registered in the search models A to F as described above, the “complete” button 716 is pressed on the screen of FIG. 143 or the like to end the gripping registration process and shift to the condition verification process. In the condition verification step, a three-dimensional search is performed on a group of stacked workpieces to detect the workpiece, and it is verified whether the workpiece can be gripped by the end effector at a specified gripping position. Here, the simulation is performed using the end effector model EEM and the search model. An example of the condition verification screen 780 is shown in FIG. In the condition verification screen 780, the highlight display in the 3D pick guidance field 655 moves from the “gripping registration” icon to the “condition / verification” icon. The operation column 142 is provided with a detection condition setting column 781 for setting a condition for detecting a gripping position based on the three-dimensional search result, and a verification column 785 for verifying whether or not the detected workpiece can be gripped. In the detection condition setting field 781, a detection number designation field 782 for designating an upper limit of the number of gripping solutions to be detected, a hand tilt angle upper limit designation field 783 for designating an upper limit of the tilt angle of the end effector model, and an end effector model interfering with each other. In order to extend the range, a margin setting field 784 for setting a margin from the wall surface of the storage container is provided. If the end effector model EEM enters the range of the distance specified in the margin setting field 784 (5 mm in FIG. 144), it is determined that interference occurs.

一方、検証欄785には、三次元サーチのシミュレーションの結果、実際に検出されたサーチ結果の個数を示す検出個数表示欄786と、検出されたサーチ結果の内で検証したいサーチモデルのラベル番号を指定する表示ラベル指定欄787と、ワーク毎に検証を実行するための「ワーク毎の検証」ボタン788を設けている。表示ラベル指定欄787で指定されたラベル番号のサーチ結果が、画像表示欄141に表示される。
(ワーク毎の検証)
On the other hand, in the verification column 785, the detection number display column 786 indicating the number of search results actually detected as a result of the simulation of the three-dimensional search, and the label number of the search model to be verified in the detected search results are displayed. A display label designation field 787 to be designated and a “verification for each work” button 788 for executing verification for each work are provided. The search result of the label number designated in the display label designation column 787 is displayed in the image display column 141.
(Verification for each work)

また「ワーク毎の検証」ボタン788を押下すると、図145に示す検証ダイヤログ790が表示される。検証ダイヤログ790は、図74で説明したワーク選択画面210の一形態である。図145の検証ダイヤログ790では、検出されたワーク毎に、把持可能かどうかを検証する。この例では、検証ダイヤログ790は対象ワーク選択欄791と、検出サーチモデル表示欄792と「把持確認」ボタン793を設けている。「把持確認」ボタン783を押下すると、図146に示す検出結果表示ダイヤログ810が表示される。この検出結果表示ダイヤログ810は、図75等で示した把持解候補表示画面220の一形態である。ここでは、対象ワーク選択欄791で選択したワーク(図145では2番目のワーク)に対して検出された面(サーチ画像及び推定画像)毎に、設定された把持位置での把持可否の判定結果が把持解候補表示欄811に一覧表示される。図146の例では把持ラベルC−000が選択されており、これに応じて画像表示欄141には、対応する把持位置にエンドエフェクタモデルEEMを配置して表示させると共に、判定結果に応じてエンドエフェクタモデルEEMを着色表示させる。この例では、判定結果がNGであるため、エンドエフェクタモデルEEMは赤色に表示される。また把持解候補表示欄811には、把持不能となった原因として、点群干渉エラーと表示される。これにより、ユーザは必要な対策、例えば把持位置の修正や追加等を行う際の指針が与えられる。   When a “verification for each work” button 788 is pressed, a verification dialog 790 shown in FIG. 145 is displayed. The verification dialog 790 is a form of the work selection screen 210 described with reference to FIG. The verification dialog 790 in FIG. 145 verifies whether or not each detected workpiece can be gripped. In this example, the verification dialog 790 is provided with a target work selection field 791, a detection search model display field 792, and a “grip confirmation” button 793. When a “check grasp” button 783 is pressed, a detection result display dialog 810 shown in FIG. 146 is displayed. This detection result display dialog 810 is one form of the gripping solution candidate display screen 220 shown in FIG. Here, for each surface (search image and estimated image) detected for the workpiece selected in the target workpiece selection field 791 (second workpiece in FIG. 145), the determination result of whether or not the gripping is possible at the set gripping position. Are displayed in a list in the gripping solution candidate display field 811. In the example of FIG. 146, the grip label C-000 is selected, and in accordance with this, the end effector model EEM is arranged and displayed at the corresponding grip position in the image display column 141, and the end is displayed according to the determination result. The effector model EEM is displayed in color. In this example, since the determination result is NG, the end effector model EEM is displayed in red. In the gripping solution candidate display field 811, a point cloud interference error is displayed as the cause of the gripping failure. Thereby, the user is provided with a guideline for performing necessary countermeasures such as correction or addition of the gripping position.

また、図147の検出結果表示ダイヤログで、判定OKである把持ラベルA−000を選択すると、これに応じて画像表示欄141には、対応する把持位置で把持するエンドエフェクタモデルEEMが、白色にて表示される。このようにして、把持の可否を判定すると共に、必要に応じて適切な対策を講じることが可能となる。   In addition, when the grip label A-000 that is OK is selected in the detection result display dialog of FIG. 147, the end effector model EEM gripped at the corresponding gripping position is displayed in the image display field 141 accordingly. Is displayed. In this way, it is possible to determine whether or not gripping is possible and to take appropriate measures as necessary.

さらに、図144の条件検証画面780において、検出条件設定欄781に設けられた検出条件詳細設定ボタン789を押下すると、図148の検出条件詳細設定画面820に切り替わる。検出条件詳細設定画面820には、把持位置の検出条件設定欄821と、エンドエフェクタと箱、床との干渉判定設定欄822と、エンドエフェクタと三次元点群との干渉判定設定欄823が設けられている。   Furthermore, on the condition verification screen 780 of FIG. 144, when a detection condition detail setting button 789 provided in the detection condition setting field 781 is pressed, the screen is switched to the detection condition detail setting screen 820 of FIG. The detection condition detail setting screen 820 includes a gripping position detection condition setting field 821, an end effector / box / floor interference determination setting field 822, and an end effector / three-dimensional point group interference determination setting field 823. It has been.

このようにして、条件検証工程を終えると、最後にワークの載置位置を規定するプレース設定工程に移行する。プレース設定画面830の一例を図149に示す。プレース設定画面830の3Dピックガイダンス欄655では、ハイライト表示が「条件・検証」アイコンから「プレース設定」アイコンに移る。操作欄142には、ツール座標設定欄831と、プレース位置登録欄832が設けられている。この画面からユーザは、ワークのプレースに関する設定を行う。   In this way, when the condition verification process is completed, the process finally proceeds to a place setting process for defining the placement position of the workpiece. An example of the place setting screen 830 is shown in FIG. In the 3D pick guidance field 655 of the place setting screen 830, the highlight display shifts from the “condition / verification” icon to the “place setting” icon. In the operation column 142, a tool coordinate setting column 831 and a place position registration column 832 are provided. From this screen, the user makes settings related to the work place.

本発明の画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器は、ロボットのバラ積みピッキングの動作を検証する用途に好適に利用できる。   The image processing apparatus, the image processing method, the image processing program, the computer-readable recording medium, and the recorded device according to the present invention can be suitably used for the purpose of verifying the operation of robot bulk picking.

1000、2000、3000、4000、7000、8000、9000…ロボットシステム
100、200、300、400、700、800、900…画像処理装置
2…センサ部:2b…センサ制御部;2c…入力画像取得部
3、3B…表示部;3a…六面図表示領域;3b…画像表示領域;3c…把持解候補表示領域;3d…ワーク把持可否表示領域;3e…ワーク把持不能要因表示領域;3f…表示インターフェース
4…操作部;4b…入出力インターフェース
5…ロボット本体
6…ロボットコントローラ;6b…ロボットインターフェース
7…ロボット操作具
8c…位置決め部;8d…把持位置特定部;8d1…ワーク側把持箇所指定部;8d2…エンドエフェクタ側把持設定部;8d3…把持基準点設定部;8d4…把持方向設定部;8d5…相対位置設定部;8d6…第二指定部;8d7…第三指定部;8d8…把持位置コピー部;8d9…第一指定部;8e…基本方向画像選択部;8f…エンドエフェクタ取付面設定部;8g…サーチモデル登録部;8g’…モデル登録部;8h…回転角度制限部;8i…サーチモデル選択部;8j…画像選択部;8k…三次元サーチ部;8l…三次元ピック判定部;8m…干渉判定部;8n…傾斜角度設定部;8o…角度判定部;8p…サーチ結果統合部;8q…評価指標演算部;8r…把持優先順位決定部;8s…断面モデル生成部;8t…ワークモデル登録部;8u…エンドエフェクタモデル登録部;8v…追加モデル作成部;8w…キャリブレーション部;8x…変換部;8y…エンドエフェクタ取付位置較正部;8z…画像推定部
9…記憶部;9b…把持位置保存部
10…演算部
8e’…基本方向画像生成部
130、130B…サーチモデル登録画面
131…「登録対象」チェックボックス;131B…選択チェックボックス
140…把持登録画面
141…画像表示欄
142…操作欄
143…サーチモデル選択欄
144…把持姿勢表示欄
145…編集ボタン
146…追加ボタン
147…削除ボタン
150…把持姿勢追加画面
153…把持姿勢座標情報
154…「フィット」ボタン
160…傾斜角度・回転角度設定画面
161…姿勢制限サーチモデル選択欄
162…傾斜角度上限設定欄
163…回転角度範囲設定欄;163a…基準角度設定欄;163b…範囲設定欄
170…エンドエフェクタ取付位置設定画面
171…エンドエフェクタ取付位置設定欄
180…把持位置指定画面
181…把持位置指定欄
190…複数把持位置選択画面
191…面選択欄
192…把持位置一覧表示
210…ワーク選択画面
211…対象ワーク選択欄
212…検出サーチモデル表示欄
213…「把持確認」ボタン
220…把持解候補表示画面
221…把持解候補表示欄
223…ワーク把持位置表示欄
224…ワーク把持可否表示欄
225…ワーク把持不能要因表示欄
230…X−Y指定画面
240…Z−RZ指定画面
241…Z座標指定欄
242…RZ回転角指定欄
250…RY指定画面
251…RY回転角指定欄
260…RX指定画面
261…RX回転角指定欄
270…位置パラメータ指定画面
271…X、Y座標指定欄
272…「次へ」ボタン
273…Z座標、RZ回転角指定欄
274…RX、RY回転角指定欄
280…X−Y−Z指定画面
281…X、Y、Z座標指定欄
290…三次元画像ビューワ
310…追加領域設定画面
311…基本図形表示欄
312…「追加」ボタン
313…「編集」ボタン
320…基本図形編集画面
321…基本画像パラメータ調整欄
327…背景除去設定欄
330…エンドエフェクタ撮像画面
331…エンドエフェクタ位置指定欄
332…「撮像」ボタン
340…機能選択画面
341…機能一覧表示欄
342…「3Dサーチ」ボタン
343…「3Dピック」ボタン
350…サーチモデル登録方法選択画面
351…フロー表示部
352…「モデル登録」アイコン
353…「床・箱設定」アイコン
354…「サーチ設定」アイコン
355…モデル登録方法選択欄
356…「OK」ボタン
360…実測データ撮像画面
361…「計測実行」ボタン
362…モデル領域
363…「次へ」ボタン
364…「?」ボタン
370…サーチモデル除外領域設定画面
371…「?」ボタン
372…背景除去設定欄
373…「?」ボタン
374…「マスク領域」ボタン
375…「次へ」ボタン
380…回転対称性設定画面
381…「?」ボタン
382…回転対称設定欄
383…「登録」ボタン
390…サーチモデル登録画面
391…モデル一覧表示欄
392…「追加」ボタン
393…モデル登録方法指定欄
410…サーチモデル登録画面
411…「完了」ボタン
420…サーチ領域設定画面
421…サーチ領域設定欄
422…「指定方法選択ナビ」ボタン
423…指定方法選択欄
430…サーチ領域設定画面
431…床面指定ダイヤログ
440…サーチ領域設定画面
441…床面情報表示欄
442…ノイズ除去欄
443…「完了」ボタン
450…サーチパラメータ設定画面
451…検出条件設定欄
452…特徴抽出条件設定欄
453…判定条件設定欄
454…検出個数指定欄
455…傾斜角度上限指定欄
456…スコア下限指定欄
457…詳細設定ボタン
460…サーチパラメータ設定画面
461…検出詳細条件設定ダイヤログ
462…基本設定欄
463…検出条件詳細設定欄
464…オプション設定欄
465…サーチ感度設定欄
466…サーチ精度設定欄
467…サーチモデル個別指定欄;467b…サーチモデル選択欄
468…ラベル順序指定欄
469…判定ラベル指定欄
470…サーチパラメータ設定画面
471…「OK」ボタン
480…サーチモデル登録方法選択画面
481…「OK」ボタン
490…サーチモデル登録画面
491…CADデータ読み込みダイヤログ
492…ファイル一覧表示欄
493…「実行」ボタン
510…サーチモデル登録画面
511…登録モデル選択画面
512…「次へ」ボタン
520…サーチモデル登録画面
521…回転対称指定ダイヤログ
522…「登録」ボタン
530…サーチモデル登録画面
531…「編集」ボタン
540…サーチ結果表示画面
541…サーチ結果一覧表示欄
542…切り替えボタン
543…画面数
550…サーチ結果表示画面
560、570、580、590、610…サーチ結果表示画面
620…モデル編集画面
621…モデル領域設定欄
622…特徴設定欄
623…モデル登録欄
624…詳細設定ボタン
625…詳細設定ボタン
630…モデル領域詳細設定画面
631…マスク領域指定欄
632…重み付け領域指定欄
640…特徴詳細設定画面
641…特徴詳細設定欄
642…特徴抽出間隔指定欄
643…エッジ抽出閾値設定欄
650…三次元ピック初期設定画面
651…キャリブレーションデータ選択欄
652…検出ツール設定欄
653…ハンド登録欄
654…「ハンドモデルの作成」ボタン
655…3Dピックガイダンス欄
660…エンドエフェクタモデル設定画面
661…ハンドモデル一覧表示欄
662…「追加」ボタン
670…エンドエフェクタモデル編集画面
671…パーツ一覧表示欄
672…「追加」ボタン
673…ツール座標指定欄
674…「OK」ボタン
680…パーツ追加ダイヤログ
681…「追加」ボタン
690…CAD位置姿勢設定画面
691…位置姿勢欄
692…「OK」ボタン
693…サイズ指定欄
710…把持登録画面
711…サーチモデル切替欄
712…把持登録一覧表示欄
713…「追加」ボタン
714…「コピー」ボタン
715…「編集」ボタン
716…「完了」ボタン
720…把持設定ダイヤログ
721…基本設定欄
722…把持ラベル設定欄
723…ハンド選択欄
724…把持位置座標指定欄
725…座標姿勢指定欄
726…「簡単設定ナビ」ボタン
727…移動量設定欄
730…設定方法選択ダイヤログ
731…「OK」ボタン
740…X−Y指定画面
741…XY座標指定欄
742…「次へ」ボタン
750…Z−RZ指定画面
751…Z−RZ指定欄
752…Z指定欄
753…RZ指定欄
754…角度選択ボタン
755…「次へ」ボタン
760…RY指定画面
761…RY指定欄
762…「次へ」ボタン
770…RX指定画面
771…RX指定欄
772…「完了」ボタン
780…条件検証画面
781…検出条件設定欄
782…検出個数指定欄
783…ハンド傾斜角度上限指定欄
784…マージン設定欄
785…検証欄
786…検出個数表示欄
787…表示ラベル指定欄
788…「ワーク毎の検証」ボタン
789…検出条件詳細設定ボタン
790…検証ダイヤログ
791…対象ワーク選択欄
792…検出サーチモデル表示欄
793…「把持確認」ボタン
810…検出結果表示ダイヤログ
811…把持解候補表示欄
820…検出条件詳細設定画面
821…把持位置の検出条件設定欄
822…エンドエフェクタと箱、床との干渉判定設定欄
823…エンドエフェクタと三次元点群との干渉判定設定欄
830…プレース設定画面
831…ツール座標設定欄
832…プレース位置登録欄
840、850…ずれ補正画面
841…エンドエフェクタ設定欄
842…「OK」ボタン
843…「自動補正」ボタン
TAX…ツール座標軸
BAX…基準座標軸
RAX…回転済み座標軸
HBP…把持基準点
EET、EET2、EET3…エンドエフェクタ
ARM…アーム
WK、WK6、WK7、WK10…ワーク
WK2…空洞を有するワーク
WK3…板状のワーク
WK9…平板状のワーク
WKC…立方体状のワーク
CWM…三次元CADデータのワークモデル
CDM…CADモデル
WM9…平板状のワークモデル
WM10、WM11…ワークモデル
WM11F…平面図状に表示されたワークモデル
WM11P…斜視図状に表示されたワークモデル
WMR…サーチモデル登録時のワークモデル
WKI…入力画像として得られたワーク
ADA…追加領域
FLS…フランジ面
VP…外積ベクトル
WKI’…回転された入力画像
IBX…仮想直方体
MWM…実測データ
BDI…基本方向画像
SM…サーチモデル
SMA…サーチモデル
P1…把持指定位置
SCP…表面上の特徴点
OCP…輪郭上の特徴点
EEM、EM10…エンドエフェクタモデル
PRJ…プロジェクタ
CME1、CME2、CME3、CME4…カメラ
PC…点群
BSL…基本軸
SP1〜SP5…断面位置
SS1〜SS5…断面
TDP…三次元点
PP3…投影点
RBT…ロボット
BX…収納容器
STG…ステージ
AXX…補正回転X軸
AXY…補正回転Y軸
AXZ…補正回転Z軸
1000, 2000, 3000, 4000, 7000, 8000, 9000 ... Robot systems 100, 200, 300, 400, 700, 800, 900 ... Image processing device 2 ... Sensor unit: 2b ... Sensor control unit; 2c ... Input image acquisition unit 3, 3B ... display unit; 3a ... hexagonal display area; 3b ... image display area; 3c ... gripping solution candidate display area; 3d ... work gripping availability display area; 3e ... work gripping inability factor display area; 3f ... display interface DESCRIPTION OF SYMBOLS 4 ... Operation part; 4b ... Input / output interface 5 ... Robot main body 6 ... Robot controller; 6b ... Robot interface 7 ... Robot operation tool 8c ... Positioning part; 8d ... Gripping position specification part; ... End effector side grip setting part; 8d3 ... Grasping reference point setting part; 8d4 ... Grasping direction 8d5 ... Relative position setting unit; 8d6 ... Second designation unit; 8d7 ... Third designation unit; 8d8 ... Gripping position copy unit; 8d9 ... First designation unit; 8e ... Basic direction image selection unit; 8f ... End effector Mounting surface setting unit; 8g ... search model registration unit; 8g '... model registration unit; 8h ... rotation angle limiting unit; 8i ... search model selection unit; 8j ... image selection unit; 8k ... three-dimensional search unit; Pick determination unit; 8m ... interference determination unit; 8n ... inclination angle setting unit; 8o ... angle determination unit; 8p ... search result integration unit; 8q ... evaluation index calculation unit; 8r ... grip priority order determination unit; Unit: 8t ... work model registration unit; 8u ... end effector model registration unit; 8v ... additional model creation unit; 8w ... calibration unit; 8x ... conversion unit; 8y ... end effector mounting position calibration unit; Image estimation unit 9 ... storage unit; 9b ... gripping position storage unit 10 ... calculation unit 8e '... basic direction image generation unit 130, 130B ... search model registration screen 131 ... "registration target" check box; 131B ... selection check box 140 ... Grasping registration screen 141 ... Image display field 142 ... Operation field 143 ... Search model selection field 144 ... Grasping posture display field 145 ... Edit button 146 ... Add button 147 ... Delete button 150 ... Grasping posture addition screen 153 ... Grasping posture coordinate information 154 ... "Fit" button 160 ... Inclination angle / rotation angle setting screen 161 ... Attitude restriction search model selection column 162 ... Inclination angle upper limit setting column 163 ... Rotation angle range setting column; 163a ... Reference angle setting column; 163b ... Range setting column 170 ... End effector mounting position setting screen 171 ... End effector mounting position setting field 180 ... Holding position designation screen 181 ... Gripping position designation field 190 ... Multiple gripping position selection screen 191 ... Surface selection field 192 ... Grasping position list display 210 ... Work selection screen 211 ... Target work selection field 212 ... Detection search model display field 213 ... "Gripping "Confirm" button 220 ... gripping solution candidate display screen 221 ... gripping solution candidate display column 223 ... workpiece gripping position display column 224 ... workpiece gripping availability display column 225 ... workpiece gripping impossibility factor display column 230 ... XY designation screen 240 ... Z- RZ designation screen 241 ... Z coordinate designation column 242 ... RZ rotation angle designation column 250 ... RY designation screen 251 ... RY rotation angle designation column 260 ... RX designation screen 261 ... RX rotation angle designation column 270 ... Position parameters specifying screen 271 ... X, Y coordinate designation column 272 ... "next" button 273 ... Z coordinate, R Z rotation angle designation column 274 ... R X, R Y rotation angle designation column 280 ... X Y-Z designation screen 281 ... X, Y, Z coordinate designation column 290 ... 3D image viewer 310 ... Additional area setting screen 311 ... Basic figure display field 312 ... "Add" button 313 ... "Edit" button 320 ... Basic figure editing Screen 321 ... Basic image parameter adjustment field 327 ... Background removal setting field 330 ... End effector imaging screen 331 ... End effector position designation field 332 ... "Imaging" button 340 ... Function selection screen 341 ... Function list display field 342 ... "3D search" Button 343 ... "3D pick" button 350 ... Search model registration method selection screen 351 ... Flow display section 352 ... "Model registration" icon 353 ... "Floor / box setting" icon 354 ... "Search setting" icon 355 ... Model registration method selection Column 356... "OK" button 360 ... Actual measurement data imaging screen 361 ... "Measurement execution" Tan 362 ... model area 363 ... "Next" button 364 ... "? "Button 370 ... search model exclusion area setting screen 371 ..."? "Button 372 ... background removal setting field 373 ..."? "Button 374 ..." mask area "button 375 ..." next "button 380 ... rotational symmetry setting screen 381 ... "?" Button 382 ... rotational symmetry setting field 383 ... "registration" button 390 ... search model registration screen 391 ... model list display field 392 ... "add" button 393 ... model registration method designation field 410 ... search model registration screen 411 ... "Done" button 420 ... Search area setting screen 421 ... Search area setting field 422 ... "Designation method selection navigation" button 423 ... Designation method selection field 430 ... Search area setting screen 431 ... Floor surface designation dialog 440 ... Search area setting screen 441 ... Floor surface information display field 442 ... Noise removal field 443 ... "Done" button 450 ... Search parameters Setting screen 451 ... detection condition setting field 452 ... feature extraction condition setting field 453 ... determination condition setting field 454 ... detection number designation field 455 ... inclination angle upper limit designation field 456 ... score lower limit designation field 457 ... detail setting button 460 ... search parameter Setting screen 461 ... Detailed detection condition setting dialog 462 ... Basic setting field 463 ... Detailed detection condition setting field 464 ... Option setting field 465 ... Search sensitivity setting field 466 ... Search accuracy setting field 467 ... Search model individual specification field; 467b ... Search Model selection field 468 ... Label order designation field 469 ... Determination label designation field 470 ... Search parameter setting screen 471 ... "OK" button 480 ... Search model registration method selection screen 481 ... "OK" button 490 ... Search model registration screen 491 ... CAD Data reading dialog 492 ... File list Column 493 ... "Execute" button 510 ... Search model registration screen 511 ... Registered model selection screen 512 ... "Next" button 520 ... Search model registration screen 521 ... Rotation symmetry designation dialog 522 ... "Register" button 530 ... Search model registration Screen 531 ... "Edit" button 540 ... Search result display screen 541 ... Search result list display field 542 ... Switch button 543 ... Number of screens 550 ... Search result display screens 560, 570, 580, 590, 610 ... Search result display screen 620 ... Model edit screen 621 ... Model area setting field 622 ... Feature setting field 623 ... Model registration field 624 ... Detailed setting button 625 ... Detailed setting button 630 ... Model area detailed setting screen 631 ... Mask area specifying field 632 ... Weighting area specifying field 640 ... Detailed feature setting screen 641... Detailed feature setting field 642. Feature extraction interval designation field 643 ... Edge extraction threshold value setting field 650 ... Three-dimensional pick initial setting screen 651 ... Calibration data selection field 652 ... Detection tool setting field 653 ... Hand registration field 654 ... "Create hand model" button 655 ... 3D Pick guidance field 660 ... End effector model setting screen 661 ... Hand model list display field 662 ... "Add" button 670 ... End effector model edit screen 671 ... Parts list display field 672 ... "Add" button 673 ... Tool coordinate specification field 674 ... "OK" button 680 ... Add part dialog 681 ... "Add" button 690 ... CAD position / orientation setting screen 691 ... Position / orientation field 692 ... "OK" button 693 ... Size designation field 710 ... Grasping registration screen 711 ... Search model switching field 712 ... Gripping registration list display field 713 ... "Add" button 714 ... "Copy" button 715 ... "Edit" button 716 ... "Done" button 720 ... Grip setting dialog 721 ... Basic setting field 722 ... Grip label setting field 723 ... Hand selection field 724 ... Gripping position coordinate designation field 725 ... Coordinate orientation designation field 726 ... "Easy setting navigation" button 727 ... Movement amount setting field 730 ... Setting method selection dialog 731 ... "OK" button 740 ... XY designation screen 741 ... XY coordinate designation field 742 ... "Next" to "button 750 ... Z-R Z designation screen 751 ... Z-R Z designation column 752 ... Z designation column 753 ... R Z designation column 754 ... angle selection button 755 ..." next "button 760 ... R Y specifying screen 761 ... R Y designation field 762 ... "Next" button 770 ... R X designation screen 771 ... R X designation field 772 ... "Done" button 780 ... Condition verification screen 781 ... Detection condition setting field 782 ... Detection number designation field 783 ... Hand tilt angle upper limit designation field 784 ... Margin setting field 785 ... Verification field 786 ... Detection number display field 787 ... Display label designation field 788 ... "Verification for each workpiece" button 789 ... Detailed detection condition setting Button 790 ... Verification dialog 791 ... Target work selection field 792 ... Detection search model display field 793 ... "Grasping confirmation" button 810 ... Detection result display dialog 811 ... Grasping solution candidate display field 820 ... Detection condition detail setting screen 821 ... Grasping Position detection condition setting field 822 ... End effector / box / floor interference determination setting field 823 ... End effector / three-dimensional point group interference determination setting field 830 ... Place setting screen 831 ... Tool coordinate setting field 832 ... Place position Registration fields 840, 850 ... Deviation correction screen 841 ... End effector setting field 842 ... "OK" Button 843 ... "Automatic correction" button TAX ... Tool coordinate axis BAX ... Reference coordinate axis RAX ... Rotated coordinate axis HBP ... Grip reference point EET, EET2, EET3 ... End effector ARM ... Arm WK, WK6, WK7, WK10 ... Work WK2 ... Cavity Workpiece WK3 ... Plate-like workpiece WK9 ... Flat plate-like workpiece WKC ... Cubic-like workpiece CWM ... Three-dimensional CAD data work model CDM ... CAD model WM9 ... Flat plate-like workpiece model WM10, WM11 ... Work model WM11F ... Plan view Work model WM11P displayed in a shape ... Work model WMR displayed in a perspective view ... Work model WKI when registering a search model ... Work ADA obtained as an input image ... Additional area FLS ... Flange surface VP ... Cross product vector WKI ' ... Rotated input image IBX Virtual rectangular parallelepiped MWM ... Measured data BDI ... Basic direction image SM ... Search model SMA ... Search model P1 ... Grip specified position SCP ... Feature point OCP ... Feature point EEM, EM10 ... End effector model PRJ ... Projector CME1, CME2, CME3, CME4 ... Camera PC ... Point group BSL ... Basic axes SP1-SP5 ... Cross-section positions SS1-SS5 ... Cross-section TDP ... Three-dimensional point PP3 ... Projection point RBT ... Robot BX ... Storage container STG ... Stage AXX ... Correction rotation X Axis AXY ... correction rotation Y-axis AXZ ... correction rotation Z-axis

Claims (12)

作業空間に積み上げられた複数のワークの三次元形状をセンサ部により測定し、ロボットのアーム部の先端に設けたエンドエフェクタで保持するピッキング動作を行うロボットを制御するための画像処理装置であって、
ワークの三次元形状を示すワークモデルを登録するためのワークモデル登録部と、
エンドエフェクタの三次元形状を仮想的に表現する、三次元CADデータであるエンドエフェクタモデルを登録するためのエンドエフェクタモデル登録部と、
前記エンドエフェクタモデル登録部により登録されたエンドエフェクタにより、前記ワークモデル登録部により登録されたワークモデルを把持する際の前記エンドエフェクタの位置及び姿勢と、前記ワークモデルの把持位置を設定するための把持位置特定部と、
予め規定された一以上の立体的な図形で表現した追加領域を、前記エンドエフェクタモデルの表面に追加した追加モデルを作成するための追加モデル作成部と、
前記把持位置特定部により設定された前記ワークモデルの把持位置を、前記把持位置特定部により設定されたエンドエフェクタの位置及び姿勢にて把持する際に、前記エンドエフェクタモデル登録部で登録されたエンドエフェクタモデルと前記追加モデル作成部で作成された追加モデルが、該把持動作を妨げる可能性のある他の物体と干渉するか否かを判定する干渉判定を行うための干渉判定部と、
を備える画像処理装置。
An image processing apparatus for controlling a robot that measures a three-dimensional shape of a plurality of workpieces stacked in a work space by a sensor unit and performs a picking operation held by an end effector provided at a tip of a robot arm unit. ,
A work model registration unit for registering a work model indicating a three-dimensional shape of the work;
An end effector model registration unit for registering an end effector model, which is three-dimensional CAD data, which virtually represents the three-dimensional shape of the end effector;
For setting the position and posture of the end effector and the gripping position of the work model when the work model registered by the work model registration unit is gripped by the end effector registered by the end effector model registration unit. A gripping position specifying part;
An additional model creating unit for creating an additional model in which an additional region expressed by one or more predefined three-dimensional figures is added to the surface of the end effector model;
When the gripping position of the work model set by the gripping position specifying unit is gripped by the position and posture of the end effector set by the gripping position specifying unit, the end registered by the end effector model registration unit An interference determination unit for performing an interference determination to determine whether the effector model and the additional model created by the additional model creation unit interfere with other objects that may interfere with the gripping operation;
An image processing apparatus comprising:
請求項1に記載の画像処理装置であって、
前記追加モデル作成部は、予め規定された図形として、直方体又は円柱を選択可能に構成してなる画像処理装置。
The image processing apparatus according to claim 1,
The additional model creation unit is an image processing apparatus configured so that a rectangular parallelepiped or a cylinder can be selected as a predefined figure.
請求項1又は2に記載の画像処理装置であって、
前記追加モデル作成部は、予め規定された図形を複数組み合わせて追加領域を構成可能としてなる画像処理装置。
The image processing apparatus according to claim 1, wherein:
The additional model creation unit is an image processing apparatus that can configure an additional region by combining a plurality of predefined figures.
請求項1〜3のいずれか一項に記載の画像処理装置であって、
前記追加モデル作成部は、前記追加領域を、アーム部の先端のフランジ面とエンドエフェクタモデルとの間に挿入可能に構成してなる画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
The additional model creation unit is an image processing apparatus configured such that the additional region can be inserted between a flange surface at a tip of an arm unit and an end effector model.
請求項1〜4のいずれか一項に記載の画像処理装置であって、
前記追加モデル作成部は、前記追加領域を、一方向に延長した円柱状又は角柱状で構成可能としてなる画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
The additional model creation unit is an image processing apparatus in which the additional region can be configured in a columnar shape or a prismatic shape extending in one direction.
請求項1〜5のいずれか一項に記載の画像処理装置であって、さらに、
センサ部で測定された複数のワーク及びその周囲の物体を含む画像から三次元形状を有する入力画像を取得する入力画像取得部を備え、
前記干渉判定部は、前記入力画像取得部で取得された入力画像に含まれる複数のワークの何れかを把持しようとしてエンドエフェクタを当該位置に移動させる際に、該ワークの周囲の物体がエンドエフェクタと干渉するか否かを判定するために、入力画像の内で該ワークの周囲の物体を構成する画像に対して、干渉判定を実行するよう構成してなる画像処理装置。
The image processing apparatus according to claim 1, further comprising:
An input image acquisition unit that acquires an input image having a three-dimensional shape from an image including a plurality of workpieces measured by the sensor unit and objects around the workpiece;
When the interference determination unit moves the end effector to the position in an attempt to grip any of the plurality of workpieces included in the input image acquired by the input image acquisition unit, an object around the workpiece is moved to the end effector. In order to determine whether or not to interfere with each other, an image processing apparatus configured to perform interference determination on an image constituting an object around the workpiece in the input image.
請求項6に記載の画像処理装置であって、さらに、
前記入力画像取得部で取得された入力画像に含まれる複数のワーク群に対して、各ワークの姿勢と位置を特定する三次元サーチを行う際に用いる、ワークの三次元形状を仮想的に表現したサーチモデルを登録するためのサーチモデル登録部と、
前記入力画像取得部で取得された入力画像中から、前記サーチモデル登録部で登録されたサーチモデルを用いて、各ワークの位置及び姿勢に対応する画像領域を特定する三次元サーチを行うための三次元サーチ部と、
を備え、
前記干渉判定部が、前記三次元サーチ部で入力画像中からサーチされた各ワークの位置及び姿勢に対応するサーチ結果に対して、該ワークを把持するために前記把持位置特定部で特定された把持位置にエンドエフェクタモデルを配置する場合に、該ワークの周囲に存在する物体との干渉の有無を判定するよう構成してなる画像処理装置。
The image processing apparatus according to claim 6, further comprising:
A virtual representation of the three-dimensional shape of the workpiece used when performing a three-dimensional search for specifying the posture and position of each workpiece for a plurality of workpiece groups included in the input image acquired by the input image acquisition unit. A search model registration unit for registering a search model,
For performing a three-dimensional search for specifying an image region corresponding to the position and orientation of each workpiece using the search model registered in the search model registration unit from the input images acquired in the input image acquisition unit. A three-dimensional search unit;
With
The interference determination unit is specified by the grip position specifying unit to grip the workpiece with respect to a search result corresponding to the position and posture of each workpiece searched from the input image by the three-dimensional search unit. An image processing apparatus configured to determine whether or not there is interference with an object existing around a workpiece when an end effector model is disposed at a gripping position.
請求項1〜7のいずれか一項に記載の画像処理装置であって、
前記エンドエフェクタモデルがSTLデータで構成されてなる画像処理装置。
The image processing apparatus according to any one of claims 1 to 7,
An image processing apparatus in which the end effector model is composed of STL data.
請求項1〜8のいずれか一項に記載の画像処理装置であって、
前記入力画像が、三次元点群データの集合で構成されてなる画像処理装置。
An image processing apparatus according to any one of claims 1 to 8,
An image processing apparatus in which the input image is composed of a set of three-dimensional point cloud data.
作業空間に積み上げられた複数のワークの三次元形状をセンサ部により測定し、ロボットのアーム部の先端に設けたエンドエフェクタで把持するピッキング動作を行うロボットを制御する画像処理方法であって、
エンドエフェクタの三次元形状を仮想的に表現する、三次元CADデータであるエンドエフェクタモデルを登録する工程と、
前記登録されたエンドエフェクタにより、ワークの三次元形状を示すワークモデルを把持する際の、エンドエフェクタの位置及び姿勢と、ワークモデルの把持位置を設定すると共に、予め規定された一以上の立体的な図形で表現した追加領域を、前記エンドエフェクタモデルの表面に追加した追加モデルを作成する工程と、
前記設定されたワークモデルの把持位置を、前記設定されたエンドエフェクタの位置及び姿勢にて把持する際に、前記登録されたエンドエフェクタモデルと前記作成された追加モデルが、該把持動作を妨げる可能性のある他の物体と干渉するか否かを判定する工程と、
を含む画像処理方法。
An image processing method for controlling a robot that measures a three-dimensional shape of a plurality of workpieces stacked in a work space by a sensor unit and performs a picking operation that is gripped by an end effector provided at a tip of a robot arm unit,
Registering an end effector model that is three-dimensional CAD data that virtually represents the three-dimensional shape of the end effector;
The registered end effector sets the position and orientation of the end effector and the gripping position of the workpiece model when gripping the workpiece model indicating the three-dimensional shape of the workpiece, and at least one predetermined three-dimensional shape. Creating an additional model in which an additional area expressed by a simple figure is added to the surface of the end effector model;
When the gripping position of the set work model is gripped by the set position and posture of the end effector, the registered end effector model and the created additional model may interfere with the gripping operation. Determining whether to interfere with other sexual objects;
An image processing method including:
作業空間に積み上げられた複数のワークの三次元形状をセンサ部により測定し、ロボットのアーム部の先端に設けたエンドエフェクタで把持するピッキング動作を行うロボットを制御するための画像処理プログラムであって、
ワークの三次元形状を示すワークモデルを登録する機能と、
エンドエフェクタの三次元形状を仮想的に表現する、三次元CADデータであるエンドエフェクタモデルを登録する機能と、
前記登録されたエンドエフェクタにより、ワークの三次元形状を示すワークモデルを把持する際の、エンドエフェクタの位置及び姿勢と、ワークモデルの把持位置を設定する機能と、
予め規定された一以上の立体的な図形で表現した追加領域を、前記エンドエフェクタモデルの表面に追加した追加モデルを作成する機能と、
前記設定されたワークモデルの把持位置を、前記設定されたエンドエフェクタの位置及び姿勢にて把持する際に、前記登録されたエンドエフェクタモデルと前記作成された追加モデルが、該把持動作を妨げる可能性のある他の物体と干渉するか否かを判定する機能と、
をコンピュータに実現させるための画像処理方法。
An image processing program for controlling a robot that performs a picking operation by measuring a three-dimensional shape of a plurality of workpieces stacked in a work space with an end effector provided at a tip of a robot arm. ,
A function for registering a workpiece model indicating the three-dimensional shape of the workpiece;
A function of registering an end effector model which is three-dimensional CAD data for virtually expressing the three-dimensional shape of the end effector;
A function of setting the position and orientation of the end effector and the gripping position of the work model when gripping the work model indicating the three-dimensional shape of the work by the registered end effector;
A function of creating an additional model in which an additional region expressed by one or more three-dimensional figures defined in advance is added to the surface of the end effector model;
When the gripping position of the set work model is gripped by the set position and posture of the end effector, the registered end effector model and the created additional model may interfere with the gripping operation. A function to determine whether or not to interfere with other objects
Processing method for realizing the above in a computer.
請求項11に記載のプログラムを記録したコンピュータで読み取り可能な記録媒体または記憶した機器。   The computer-readable recording medium which recorded the program of Claim 11, or the apparatus memorize | stored.
JP2017040981A 2017-03-03 2017-03-03 Image processing equipment, image processing methods, image processing programs, computer-readable recording media, and recording equipment Active JP6877192B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017040981A JP6877192B2 (en) 2017-03-03 2017-03-03 Image processing equipment, image processing methods, image processing programs, computer-readable recording media, and recording equipment
JP2021074635A JP7128933B2 (en) 2017-03-03 2021-04-27 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017040981A JP6877192B2 (en) 2017-03-03 2017-03-03 Image processing equipment, image processing methods, image processing programs, computer-readable recording media, and recording equipment

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021074635A Division JP7128933B2 (en) 2017-03-03 2021-04-27 Image processing device

Publications (2)

Publication Number Publication Date
JP2018144166A true JP2018144166A (en) 2018-09-20
JP6877192B2 JP6877192B2 (en) 2021-05-26

Family

ID=63590391

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017040981A Active JP6877192B2 (en) 2017-03-03 2017-03-03 Image processing equipment, image processing methods, image processing programs, computer-readable recording media, and recording equipment
JP2021074635A Active JP7128933B2 (en) 2017-03-03 2021-04-27 Image processing device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021074635A Active JP7128933B2 (en) 2017-03-03 2021-04-27 Image processing device

Country Status (1)

Country Link
JP (2) JP6877192B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020049558A (en) * 2018-09-25 2020-04-02 ファナック株式会社 Article extraction system
KR20200110537A (en) * 2019-03-14 2020-09-24 하이윈 테크놀로지스 코포레이션 System for eliminating interference of randomly stacked workpieces
WO2021070575A1 (en) * 2019-10-11 2021-04-15 パナソニックIpマネジメント株式会社 End effector, end-effector set, and control system
JPWO2020188661A1 (en) * 2019-03-15 2021-10-14 オムロン株式会社 Setting support device, setting support method and program
JP2023518071A (en) * 2020-03-18 2023-04-27 リアルタイム ロボティクス, インコーポレーテッド Digital Representation of Robot Operation Environment Useful for Robot Motion Planning
US11964393B2 (en) 2018-03-21 2024-04-23 Realtime Robotics, Inc. Motion planning of a robot for various environments and tasks and improved operation of same
US11970161B2 (en) 2018-01-12 2024-04-30 Duke University Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects
US12017364B2 (en) 2019-04-17 2024-06-25 Realtime Robotics, Inc. Motion planning graph generation user interface, systems, methods and articles
US12090668B2 (en) 2018-02-06 2024-09-17 Realtime Robotics, Inc. Motion planning of a robot storing a discretized environment on one or more processors and improved operation of same
DE112022005551T5 (en) 2022-01-25 2024-10-02 Fanuc Corporation control device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024189792A1 (en) * 2023-03-14 2024-09-19 ファナック株式会社 Device and method for generating search model, device and method for teaching operation position, and control apparatus

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6243706A (en) * 1985-08-21 1987-02-25 Hitachi Ltd Interference checking method in robot
JPH05345286A (en) * 1992-06-17 1993-12-27 Fanuc Ltd Method for manual feeding of robot
JPH0736519A (en) * 1993-07-23 1995-02-07 Kobe Steel Ltd Nearmiss checking method for robot
JPH07100755A (en) * 1993-10-05 1995-04-18 Hitachi Ltd Automatic instruction for polishing robot
JPH09314303A (en) * 1996-05-28 1997-12-09 Ube Ind Ltd Simple interference checking method of die spray robot
JP2000039911A (en) * 1998-07-22 2000-02-08 Meidensha Corp Robot controller
JP2007272309A (en) * 2006-03-30 2007-10-18 Komatsu Ltd Off-line teaching device for working robot
JP2009274148A (en) * 2008-05-12 2009-11-26 Kanto Auto Works Ltd Simulation device
JP2012040669A (en) * 2010-08-23 2012-03-01 Ihi Corp Bulk picking device and method thereof
JP2015009314A (en) * 2013-06-28 2015-01-19 キヤノン株式会社 Interference determination apparatus, interference determination method, and computer program
WO2015120008A1 (en) * 2014-02-05 2015-08-13 Intuitive Surgical Operations, Inc. System and method for dynamic virtual collision objects
WO2015185049A1 (en) * 2014-06-03 2015-12-10 ArtiMinds Robotics GmbH Method and system for programming a robot

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5295828B2 (en) * 2009-03-11 2013-09-18 本田技研工業株式会社 Object gripping system and interference detection method in the system
JP5382359B2 (en) * 2010-04-28 2014-01-08 株式会社安川電機 Robot system
JP5862611B2 (en) * 2013-04-02 2016-02-16 トヨタ自動車株式会社 Work change device, work change method, and work change program
JP2014205209A (en) * 2013-04-11 2014-10-30 三菱電機株式会社 Robot system and control method of the same
JP6036662B2 (en) * 2013-11-22 2016-11-30 三菱電機株式会社 Robot simulation apparatus, program, recording medium and method
JP5897624B2 (en) * 2014-03-12 2016-03-30 ファナック株式会社 Robot simulation device for simulating workpiece removal process
JP6361213B2 (en) * 2014-03-26 2018-07-25 セイコーエプソン株式会社 Robot control apparatus, robot, robot system, teaching method, and program
JP6424560B2 (en) * 2014-10-17 2018-11-21 株式会社リコー Abnormality cause estimation device, picking device, and abnormality cause estimation method in picking device

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6243706A (en) * 1985-08-21 1987-02-25 Hitachi Ltd Interference checking method in robot
JPH05345286A (en) * 1992-06-17 1993-12-27 Fanuc Ltd Method for manual feeding of robot
JPH0736519A (en) * 1993-07-23 1995-02-07 Kobe Steel Ltd Nearmiss checking method for robot
JPH07100755A (en) * 1993-10-05 1995-04-18 Hitachi Ltd Automatic instruction for polishing robot
JPH09314303A (en) * 1996-05-28 1997-12-09 Ube Ind Ltd Simple interference checking method of die spray robot
JP2000039911A (en) * 1998-07-22 2000-02-08 Meidensha Corp Robot controller
JP2007272309A (en) * 2006-03-30 2007-10-18 Komatsu Ltd Off-line teaching device for working robot
JP2009274148A (en) * 2008-05-12 2009-11-26 Kanto Auto Works Ltd Simulation device
JP2012040669A (en) * 2010-08-23 2012-03-01 Ihi Corp Bulk picking device and method thereof
JP2015009314A (en) * 2013-06-28 2015-01-19 キヤノン株式会社 Interference determination apparatus, interference determination method, and computer program
WO2015120008A1 (en) * 2014-02-05 2015-08-13 Intuitive Surgical Operations, Inc. System and method for dynamic virtual collision objects
WO2015185049A1 (en) * 2014-06-03 2015-12-10 ArtiMinds Robotics GmbH Method and system for programming a robot

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11970161B2 (en) 2018-01-12 2024-04-30 Duke University Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects
US12090668B2 (en) 2018-02-06 2024-09-17 Realtime Robotics, Inc. Motion planning of a robot storing a discretized environment on one or more processors and improved operation of same
US11964393B2 (en) 2018-03-21 2024-04-23 Realtime Robotics, Inc. Motion planning of a robot for various environments and tasks and improved operation of same
US12083682B2 (en) 2018-03-21 2024-09-10 Realtime Robotics, Inc. Motion planning of a robot for various environments and tasks and improved operation of same
JP2020049558A (en) * 2018-09-25 2020-04-02 ファナック株式会社 Article extraction system
KR20200110537A (en) * 2019-03-14 2020-09-24 하이윈 테크놀로지스 코포레이션 System for eliminating interference of randomly stacked workpieces
KR102214434B1 (en) 2019-03-14 2021-02-09 하이윈 테크놀로지스 코포레이션 System for eliminating interference of randomly stacked workpieces
JPWO2020188661A1 (en) * 2019-03-15 2021-10-14 オムロン株式会社 Setting support device, setting support method and program
JP7164012B2 (en) 2019-03-15 2022-11-01 オムロン株式会社 SETTING SUPPORT DEVICE, SETTING SUPPORT METHOD, AND PROGRAM
US12017364B2 (en) 2019-04-17 2024-06-25 Realtime Robotics, Inc. Motion planning graph generation user interface, systems, methods and articles
JP2021062439A (en) * 2019-10-11 2021-04-22 パナソニックIpマネジメント株式会社 End effector, end effector set and control system
JP7417851B2 (en) 2019-10-11 2024-01-19 パナソニックIpマネジメント株式会社 End effectors, sets of end effectors, and control systems
CN114514097A (en) * 2019-10-11 2022-05-17 松下知识产权经营株式会社 End effector, end effector set and control system
WO2021070575A1 (en) * 2019-10-11 2021-04-15 パナソニックIpマネジメント株式会社 End effector, end-effector set, and control system
JP2023518071A (en) * 2020-03-18 2023-04-27 リアルタイム ロボティクス, インコーポレーテッド Digital Representation of Robot Operation Environment Useful for Robot Motion Planning
DE112022005551T5 (en) 2022-01-25 2024-10-02 Fanuc Corporation control device

Also Published As

Publication number Publication date
JP6877192B2 (en) 2021-05-26
JP2021121461A (en) 2021-08-26
JP7128933B2 (en) 2022-08-31

Similar Documents

Publication Publication Date Title
JP6889574B2 (en) Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recording equipment
JP6823502B2 (en) Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recording equipment
JP7128933B2 (en) Image processing device
JP6877191B2 (en) Image processing equipment, image processing methods, image processing programs and computer-readable recording media
JP2018144167A (en) Image processing device, image processing method, image processing program and recording medium readable by computer as well as equipment with the same recorded
JP4309439B2 (en) Object take-out device
US8472703B2 (en) Image capture environment calibration method and information processing apparatus
EP1215017B1 (en) Robot teaching apparatus
US20170173798A1 (en) Information processing apparatus, information processing method, and storage medium
US8964001B2 (en) Method for displaying measurement effective area in three-dimensional visual sensor and three-dimensional visual sensor
JP4492654B2 (en) 3D measuring method and 3D measuring apparatus
US10393515B2 (en) Three-dimensional scanner and measurement assistance processing method for same
EP1434169A2 (en) Calibration apparatus, calibration method, program for calibration, and calibration jig
JP2018144162A (en) Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recorded device
CN106104198A (en) Messaging device, information processing method and program
JP5030953B2 (en) Method and system for determining the relative position of a first object with respect to a second object, a corresponding computer program and a corresponding computer-readable recording medium
Ng et al. Intuitive robot tool path teaching using laser and camera in augmented reality environment
JP2020179441A (en) Control system, information processing device and control method
JP6857052B2 (en) Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recording equipment
JP6785687B2 (en) Robot simulation equipment, robot simulation methods, robot simulation programs, computer-readable recording media, and recording equipment
JP2018144163A (en) Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recorded device
EP3462130A1 (en) Vehicle measurement system with user interface
JP3516668B2 (en) Three-dimensional shape recognition method, apparatus and program
Nowak et al. Point Clouds With Color: A Simple Open Library for Matching RGB and Depth Pixels from an Uncalibrated Stereo Pair
NL2016960B1 (en) System and method for controlling a machine, in particular a robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210427

R150 Certificate of patent or registration of utility model

Ref document number: 6877192

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE

Ref document number: 6877192

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250