Nothing Special   »   [go: up one dir, main page]

JP2008049459A - System, method and program for controlling manipulator - Google Patents

System, method and program for controlling manipulator Download PDF

Info

Publication number
JP2008049459A
JP2008049459A JP2006230483A JP2006230483A JP2008049459A JP 2008049459 A JP2008049459 A JP 2008049459A JP 2006230483 A JP2006230483 A JP 2006230483A JP 2006230483 A JP2006230483 A JP 2006230483A JP 2008049459 A JP2008049459 A JP 2008049459A
Authority
JP
Japan
Prior art keywords
gripping
manipulator
shape
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006230483A
Other languages
Japanese (ja)
Inventor
Kenji Matsuzaki
謙司 松崎
Satoshi Okada
敏 岡田
Katsuhiko Sato
勝彦 佐藤
Mitsuaki Shimamura
光明 島村
Yutaka Togasawa
裕 戸賀沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006230483A priority Critical patent/JP2008049459A/en
Publication of JP2008049459A publication Critical patent/JP2008049459A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To surely hold and move an object to be held while preventing the object to be held from being slipped from a manipulator when the manipulator holds the object to be held having an unknown weight and without being broken even when the object to be held is brittle. <P>SOLUTION: The manipulator operation support system is equipped with a material measured in a noncontact manner with a component analyzer 13 provided on a holding part 10 of the manipulator 11, a three-dimensional data measured in a noncontact manner with a shape measuring sensor 14 provided on the holding part 10, a PC42 for processing a shape measurement which calculates the weight of the object A based on the data of a body information database 43b, and calculates a holding force for holding the object A by the holding part 10 from the weight of the object A to be calculated, and a PC41 for controlling for operating the manipulator 11 with the holding force obtained by the PC 42 for processing the shape measurement. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、把持対象物をマニピュレータで把持および移動するためのマニピュレータ制御システム、マニピュレータ制御方法およびプログラムに関する。   The present invention relates to a manipulator control system, a manipulator control method, and a program for gripping and moving a gripping object with a manipulator.

人が直接手で掴んで作業を行えないような物体を人の代わりに把持して移動や操作を行うために、マニピュレータが利用されている。   Manipulators are used to hold an object that cannot be operated by being directly grasped by a hand, instead of the person, to move or operate the object.

マニピュレータを用いた作業を行う場合、把持対象物は、特定されていることが多く、その物体形状、重量、把持位置、必要把持力、物体設置位置などの情報は既知であるものとして扱われることが多い。   When working with a manipulator, the object to be grasped is often specified, and information such as the object shape, weight, grasping position, necessary grasping force, and object installation position is treated as known. There are many.

把持対象物の設置位置や形状が不明な場合、画像処理システムあるいはそれに代わる計測システムと組み合わせて対象物の設置位置や形状を計測することで、把持位置や姿勢を修正することが可能である。   When the installation position and shape of the gripping object are unknown, the gripping position and posture can be corrected by measuring the installation position and shape of the target object in combination with an image processing system or a measurement system that replaces it.

従来、把持対象物の重量が不明確な場合にマニピュレータの把持力を適切に調整する方法として、例えば把持物体を指内で滑らせることで押付け力と摩擦力より摩擦係数を推定して適切な把持力を決定する方法がある(例えば特許文献1参照)。   Conventionally, as a method of appropriately adjusting the gripping force of the manipulator when the weight of the gripping object is unclear, for example, the friction coefficient is estimated from the pressing force and the frictional force by sliding the gripping object within the finger. There is a method for determining the gripping force (see, for example, Patent Document 1).

また、マニピュレータの指先に貼り付けた曲面弾性体と把持物体との固着状態から物体の滑り量を測定して把持力の調整に活用する方法もある(例えば特許文献2参照)。
特開2005−144573 特開2000−254884
There is also a method of measuring the amount of slip of an object from the fixed state of the curved elastic body attached to the fingertip of the manipulator and the grasped object and utilizing it for adjusting the grasping force (see, for example, Patent Document 2).
JP-A-2005-144573 JP 2000-254884 A

上述した従来のマニピュレータの物体把持力調整方法の場合、把持対象物の固有情報に基づいてマニピュレータ把持力調整を行うため、一般的に既知の対象物に対してしか把持作業が行えない。   In the case of the above-described conventional manipulator object gripping force adjustment method, since the manipulator gripping force adjustment is performed based on the unique information of the gripping object, it is generally possible to perform a gripping operation only on a known object.

これでは、汎用性がなく、様々な物体の把持作業を想定したとき、それぞれの対象物固有の情報を予め設定しておくことは困難であり、マニピュレータが未知の対象物に対しても作業を行えるように柔軟に対応できるようにすることが望ましい。   In this case, it is difficult to set information specific to each object in advance when it is assumed that there is no versatility and gripping work of various objects, and the manipulator can also work on an unknown object. It is desirable to be able to respond flexibly so that it can be done.

そのためには、把持対象物の形状のみならず重量やそれに適した把持位置、把持力などを自動的に判別できるようにする必要がある。
物体の外形(形状)は、カメラによるステレオ視の技術やレーザスキャン計測技術などの従来技術により3次元的に測定することが可能である。
For this purpose, it is necessary to automatically determine not only the shape of the object to be grasped but also the weight, the grasping position suitable for it, the grasping force, and the like.
The outer shape (shape) of an object can be measured three-dimensionally by conventional techniques such as a stereo viewing technique using a camera and a laser scan measurement technique.

しかしながら、形状計測を行うことで未知の形状の対象物を扱う場合、対象物の重量までは分からないため、適切な把持力を決定することができないという問題があった。   However, when an object having an unknown shape is handled by performing shape measurement, there is a problem in that an appropriate gripping force cannot be determined because the weight of the object is unknown.

物体の把持作業においてマニピュレータが過大な把持力で物体を把持すると、対象物を握りつぶしてしまうことになる。また、この逆に把持力が不足した場合は、対象物が滑り落ちたりする恐れがある。このため、把持対象物の重量に応じた適切な把持力を決定することは重要である。   If the manipulator grips an object with an excessive gripping force during the gripping operation of the object, the object will be crushed. On the other hand, if the gripping force is insufficient, the object may slide down. For this reason, it is important to determine an appropriate gripping force according to the weight of the gripping object.

上述した先行技術に見られる手法は、重量が未知の把持対象物に対しても重量を推定して把持力を適切に調整することを可能にしているものの、物体把持後の指内での滑りを検出して重量推定を行っているため、把持対象物に接触したときの初期の推定値に大きな誤差があった場合は、把持力不足によって把持対象物を滑り落としたり、逆に把持力過多のため対象物を握りつぶしたりしてしまう恐れがある。   Although the techniques found in the prior art described above enable the weight to be estimated and the gripping force to be adjusted appropriately even for a gripping target whose weight is unknown, slipping within the finger after gripping the object is possible. Therefore, if there is a large error in the initial estimated value when it comes into contact with the gripping object, the gripping object slips down due to insufficient gripping force, or conversely excessive gripping force. For this reason, the object may be crushed.

本発明はこのような課題を解決するためになされたもので、重量が未知の把持対象物をマニピュレータが把持部で把持する際に、マニピュレータの把持部から把持対象物が滑り落ちることなく、かつ把持対象物がもろい物でも破壊せずに確実に把持・移動することができるマニピュレータ制御システム、マニピュレータ制御方法およびプログラムを提供することを目的とする。   The present invention has been made to solve such problems. When a manipulator grips a gripping object with an unknown weight with the gripping part, the gripping object does not slide down from the gripping part of the manipulator and is gripped. An object of the present invention is to provide a manipulator control system, a manipulator control method, and a program capable of reliably grasping and moving a fragile object without breaking it.

上記した課題を解決するために、本発明のマニピュレータ制御システムは、把持対象物を把持・移動するための把持部を有するマニピュレータと、前記把持部に設けられ、接近した前記把持対象物に対して光または放射線を放射してその材質を非接触で計測する成分分析器と、前記把持部に設けられ、接近した前記把持対象物に対して光または放射線を放射してその立体形状を非接触で測定する形状計測センサと、前記成分分析器により計測された前記把持対象物の材質と前記形状計測センサにより計測された立体形状とから前記把持対象物の体積を算出する体積算出部と、既知の把持対象物の形状、物質の密度情報、把持位置、把持力を含む物体情報を蓄積したデータベースと、前記体積算出部により計算された前記把持対象物の体積と、前記成分分析器により計測された把持対象物の材質をキーに前記データベースから読み出した物質の密度情報とから前記把持対象物の重量を算出する重量算出部と、前記重量算出部により算出された前記把持対象物の重量から前記把持対象物の把持力を算出する把持力算出部と、前記把持力算出部により算出された把持力にて前記マニピュレータを動作させる制御部とを具備することを特徴とする。   In order to solve the above-described problems, a manipulator control system according to the present invention includes a manipulator having a gripping unit for gripping and moving a gripping target, and the gripping target that is provided in the gripping unit and approaches the gripping target A component analyzer that emits light or radiation to measure the material thereof in a non-contact manner, and a three-dimensional shape that is provided in the gripping unit and radiates light or radiation to the gripping object that is approached, without contact. A shape measuring sensor to measure, a volume calculating unit for calculating the volume of the gripping object from the material of the gripping object measured by the component analyzer and the three-dimensional shape measured by the shape measuring sensor, and a known A database in which object information including the shape of the gripping object, substance density information, gripping position, and gripping force is accumulated, and the volume of the gripping object calculated by the volume calculation unit, A weight calculation unit that calculates the weight of the gripping object from the density information of the substance read from the database using the material of the gripping object measured by the component analyzer as a key, and the weight calculation unit that calculates the weight A gripping force calculation unit that calculates a gripping force of the gripping target from the weight of the gripping target, and a control unit that operates the manipulator with the gripping force calculated by the gripping force calculation unit. To do.

本発明のマニピュレータ制御方法は、把持対象物を把持・移動するための把持部を有するマニピュレータを制御して把持対象物を把持・移動するマニピュレータ制御方法において、前記把持部に設けられた成分分析器が、接近した前記把持対象物に対して光または放射線を放射してその材質を非接触で計測するステップと、前記把持部に設けられた形状計測センサが、接近した前記把持対象物に対して光または放射線を放射してその立体形状を非接触で測定するステップと、前記成分分析器により計測された前記把持対象物の材質と前記形状計測センサにより計測された立体形状とからコンピュータが前記把持対象物の体積を算出するステップと、計算した前記把持対象物の体積と、計測した前記把持対象物の材質をキーにデータベースから読み出した物質の密度情報とから前記コンピュータが前記把持対象物の重量を算出するステップと、算出した前記把持対象物の重量から前記コンピュータが、前記把持対象物を前記マニピュレータが把持するための把持力を算出するステップと、算出した把持力にて前記コンピュータが前記マニピュレータを動作させるステップとを有することを特徴とする。   The manipulator control method of the present invention is a manipulator control method for gripping / moving a gripping object by controlling a manipulator having a gripping part for gripping / moving the gripping object, and a component analyzer provided in the gripping part. However, the step of emitting light or radiation to the approaching gripping object and measuring the material thereof in a non-contact manner, and the shape measurement sensor provided in the gripping part is applied to the approaching gripping object. The computer grasps the three-dimensional shape by emitting light or radiation without contact, and the grasping material measured by the component analyzer and the three-dimensional shape measured by the shape measurement sensor. The step of calculating the volume of the object, the calculated volume of the gripping object, and the measured material of the gripping object from the database The computer calculates the weight of the grasped object from the density information of the protruding substance, and the computer grasps the grasped object for the manipulator to grasp the grasped object from the calculated weight of the grasped object. A step of calculating a force; and a step of causing the computer to operate the manipulator with the calculated gripping force.

本発明のプログラムは、把持対象物を把持・移動するための把持部を有するマニピュレータをコンピュータが制御するためのプログラムにおいて、前記コンピュータを、前記把持部に設けられた成分分析器が前記把持対象物に対して光または放射線を放射して非接触で計測した材質と、前記把持部に設けられた形状計測センサが、前記把持対象物に対して光または放射線を放射して非接触で測定した立体形状とから前記把持対象物の体積を算出する体積算出部と、既知の把持対象物の形状、物質の密度情報、把持位置、把持力を含む物体情報を蓄積したデータベースと、前記体積算出部により計算された前記把持対象物の体積と、前記成分分析器により計測された前記把持対象物の材質をキーに前記データベースから読み出した物質の密度情報とから前記把持対象物の重量を算出する重量算出部と、前記重量算出部により算出された前記把持対象物の重量から前記把持対象物の把持力を算出する把持力算出部と、前記把持力算出部により算出された把持力にて前記マニピュレータを動作させる制御部として機能させることを特徴とする。   The program of the present invention is a program for a computer to control a manipulator having a gripping part for gripping / moving a gripping object, wherein the component analyzer provided in the gripping part is the gripping object. The material measured by non-contact by emitting light or radiation to the object and the three-dimensional measurement measured by the shape measuring sensor provided on the gripping unit without emitting light or radiation to the gripping object A volume calculation unit that calculates the volume of the grasped object from the shape, a database that accumulates object information including the shape of the known grasped object, the density information of the substance, the grasping position, and the grasping force, and the volume calculating unit. The density information of the substance read from the database using the calculated volume of the grasped object and the material of the grasped object measured by the component analyzer as keys. A weight calculation unit that calculates the weight of the gripping object from the weight, a gripping force calculation unit that calculates a gripping force of the gripping object from the weight of the gripping object calculated by the weight calculation unit, and the gripping force It is made to function as a control part which operates the said manipulator with the gripping force calculated by the calculation part.

すなわち、本発明では、重量が未知の把持対象物をマニピュレータで把持する際に、把持対象物の形状と質量を光または放射線を放射して非接触で計測し、その計測結果と質量から把持対象物の重量を計算により求め、把持対象物を把持するための適正な把持力を決定してから、マニピュレータで把持対象物を把持する。つまり重量が未知の把持対象物に対して事前にマニピュレータの把持力を適切に調整する。   That is, in the present invention, when a grasping object with an unknown weight is grasped with a manipulator, the shape and mass of the grasping object are measured in a non-contact manner by emitting light or radiation, and the grasping object is determined from the measurement result and the mass. The weight of the object is obtained by calculation, and an appropriate gripping force for gripping the gripping object is determined, and then the gripping object is gripped by the manipulator. That is, the gripping force of the manipulator is appropriately adjusted in advance with respect to the gripping target whose weight is unknown.

本発明によれば、重量が未知の把持対象物をマニピュレータが把持部で把持する際に、マニピュレータの把持部から把持対象物が滑り落ちることなく、かつ把持対象物がもろい物でも破壊せずに確実に把持・移動することができる。   According to the present invention, when a manipulator grips a gripping object whose weight is unknown, the gripping object does not slide down from the gripping part of the manipulator, and even if the gripping object is fragile, it can be reliably destroyed. Can be gripped and moved.

以下、本発明の実施の形態を図面を参照して詳細に説明する。
(第1実施形態)
まず、図1を参照してマニピュレータ制御システムの一つの実施形態であるマニピュレータ作業支援システムについて説明する。図1は第1実施形態のマニピュレータ作業支援システムの構成を示す図である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
First, a manipulator work support system that is one embodiment of a manipulator control system will be described with reference to FIG. FIG. 1 is a diagram illustrating a configuration of a manipulator work support system according to the first embodiment.

この第1実施形態のマニピュレータ作業支援システムは、マニピュレータ11と、このマニピュレータ11と通信ケーブル20を介して接続されたマニピュレータコントローラ30と、このマニピュレータコントローラ30とLAN21などのネットワークを介して接続された複数のコンピュータ(制御用コンピュータ41、形状計測処理用コンピュータ42、物体情報データベース用コンピュータ43、状態表示コンピュータ44)とから構成されている。   The manipulator work support system according to the first embodiment includes a manipulator 11, a manipulator controller 30 connected to the manipulator 11 via a communication cable 20, and a plurality of manipulator controllers 30 connected to the manipulator controller 30 via a network such as a LAN 21. Computer (control computer 41, shape measurement processing computer 42, object information database computer 43, status display computer 44).

以下、コンピュータを「PC」と称す。各PCには、CPU、ROM、RAMなどのメモリ、ハードディスク装置などの記憶装置、マウス、キーボードなどの入力装置、ディスプレイ、外部インターフェースなどの出力装置が備えられている。   Hereinafter, the computer is referred to as “PC”. Each PC includes a CPU, a ROM, a memory such as a RAM, a storage device such as a hard disk device, an input device such as a mouse and a keyboard, and an output device such as a display and an external interface.

ハードディスク装置にはCPUを動作させるためのオペレーティングシステム(以下「OS」と称す)および制御プログラムなどが記憶されている。マウス、キーボードなどは、オペレータによる各種指示操作を受付け、その指示をCPUへ入力する。   The hard disk device stores an operating system (hereinafter referred to as “OS”) for operating the CPU, a control program, and the like. The mouse, keyboard, etc. accept various instruction operations by the operator and input the instructions to the CPU.

マニピュレータ11は、複数の関節11a、11b、11cと、腕部11d,11eと、関節11a、11b、11cを各方向へ駆動する駆動部11fと、腕部11eの先端に設けられた把持部10とを有している。   The manipulator 11 includes a plurality of joints 11a, 11b, and 11c, arm portions 11d and 11e, a drive portion 11f that drives the joints 11a, 11b, and 11c in each direction, and a grip portion 10 provided at the tip of the arm portion 11e. And have.

把持部10の先端には、グリッパ部12が設けられている。グリッパ部12は、把持対象物A(以下「対象物A」と称す。)を把持するために指状の先端部12aを有しており、2つの先端部12aを開閉動作することにより対象物Aを把持または離すことができる。グリッパ部12には、先端部12aの把持力を計測する把持力計測センサ(図示せず)が設けられている。   A gripper portion 12 is provided at the tip of the grip portion 10. The gripper unit 12 has a finger-shaped tip 12a for gripping a gripping target A (hereinafter referred to as "target A"), and opens and closes the two tip 12a. A can be gripped or released. The gripper unit 12 is provided with a gripping force measurement sensor (not shown) that measures the gripping force of the distal end portion 12a.

把持部10には、グリッパ部12の先端、つまり手先に加わる外力(力とモーメント)を計測する6軸力センサ15が備えられている。この6軸力センサ15の上には、グリッパ部12の先端の方向に向けて成分分析装置13と形状計測センサ14とが設けられている。   The grip portion 10 is provided with a six-axis force sensor 15 that measures an external force (force and moment) applied to the tip of the gripper portion 12, that is, the hand. On the six-axis force sensor 15, a component analyzer 13 and a shape measurement sensor 14 are provided toward the tip of the gripper unit 12.

成分分析装置13としては、例えば蛍光X線分析装置や赤外分光光度計測装置などの、放射線または光学系を用い、対象物Aに触れることなく(非接触で)、対象物Aの成分を分析してその構成を同定できる装置を利用する。   As the component analyzer 13, for example, a component of the object A is analyzed without touching the object A (without contact) using a radiation or an optical system such as a fluorescent X-ray analyzer or an infrared spectrophotometer. Then, an apparatus that can identify the configuration is used.

蛍光X線分析装置は、X線管球から発生されたX線を測定対象物Aに照射し、その測定対象物Aから放射された蛍光X線を受けて分析する装置である。この測定対象物Aから放射される蛍光X線のエネルギーは、元素に固有のエネルギー値を持っているため、蛍光X線を測定することで測定対象物に含まれている元素の種類を特定することが可能である。   The X-ray fluorescence analyzer is an apparatus that irradiates a measurement object A with X-rays generated from an X-ray tube and receives and analyzes the fluorescent X-rays emitted from the measurement object A. Since the energy of the fluorescent X-ray emitted from the measurement object A has an energy value specific to the element, the type of the element contained in the measurement object is specified by measuring the fluorescent X-ray. It is possible.

赤外分光光度計測装置は、対象物に赤外光を照射して、対象物からの透過光、反射光、あるいは散乱光を分光し、それぞれ透過スペクトル、反射スペクトルあるいは拡散スペクトルを得ることにより、対象物の物性情報を得る手法である。得られたスペクトルはその物質特有のものであり、これにより構成材料の同定を行うことが可能である。   Infrared spectrophotometry device irradiates an object with infrared light, and separates transmitted light, reflected light, or scattered light from the object, and obtains a transmission spectrum, a reflection spectrum, or a diffusion spectrum, respectively. This is a method for obtaining physical property information of an object. The obtained spectrum is peculiar to the substance, so that the constituent material can be identified.

形状計測センサ14は、例えば2つのCCDカメラを用いたステレオ視の技術またはレーザスキャンの技術を利用して3次元形状(立体形状)の認識を行う。レーザスキャンを行う場合の装置は、測定対象物に対してレーザ光を照射してから、そのレーザ光が測定対象物に反射して戻るまでの時間差により対象物Aとの距離を計測する機構を、直接またはミラーの反射を用いて2次元的に走査することで対象物の3次元形状を測定する。ここではCCDカメラを使用するものとして説明する。   The shape measurement sensor 14 recognizes a three-dimensional shape (three-dimensional shape) by using, for example, a stereo viewing technique using two CCD cameras or a laser scanning technique. An apparatus for performing laser scanning has a mechanism for measuring a distance from the object A based on a time difference from when the measurement object is irradiated with laser light until the laser light is reflected back to the measurement object. The three-dimensional shape of the object is measured by two-dimensional scanning using direct or mirror reflection. Here, description will be made assuming that a CCD camera is used.

なお、成分分析装置13、形状計測センサ14の種類は、ここに例示したものだけに限定されるものではなく、同じ目的であれば他の手段を用いてもよい。また、外力計測用のセンサとして6軸力センサ15を用いたが、これに限らずロードセルを用いるなど、作業・操作内容に応じて代替して使用してもよい。   Note that the types of the component analyzer 13 and the shape measurement sensor 14 are not limited to those exemplified here, and other means may be used for the same purpose. Further, although the 6-axis force sensor 15 is used as an external force measurement sensor, the present invention is not limited to this, and a load cell may be used instead of the 6-axis force sensor 15 depending on the work / operation contents.

マニピュレータコントローラ30には、CPU31、メモリ32、制御用インターフェース34、通信インターフェース35などが備えられている。   The manipulator controller 30 includes a CPU 31, a memory 32, a control interface 34, a communication interface 35, and the like.

マニピュレータコントローラ30のメモリ32には、各関節11a、11b、11cを駆動するモータを制御するためのモータドライバや制御ソフトウェア等が収容されている。   The memory 32 of the manipulator controller 30 stores motor drivers, control software, and the like for controlling the motors that drive the joints 11a, 11b, and 11c.

制御用インターフェース34は、マニピュレータコントローラ30に通信ケーブル20を接続するためのインターフェースであり、マニピュレータ11を動作させるための制御信号を通信ケーブル20を通じてマニピュレータ11へ送信する。   The control interface 34 is an interface for connecting the communication cable 20 to the manipulator controller 30, and transmits a control signal for operating the manipulator 11 to the manipulator 11 through the communication cable 20.

制御用インターフェース34は、マニピュレータ11の成分分析装置13および形状計測センサ14により測定された測定データを通信ケーブル20を通じて受信し、CPU31へ渡す。   The control interface 34 receives the measurement data measured by the component analyzer 13 and the shape measurement sensor 14 of the manipulator 11 through the communication cable 20 and passes them to the CPU 31.

通信インターフェース35は、LAN接続ボードなどであり、マニピュレータコントローラ30をLAN21に接続する。通信インターフェース35は、制御用PC41からの動作指令を受信してCPU31に渡す。   The communication interface 35 is a LAN connection board or the like, and connects the manipulator controller 30 to the LAN 21. The communication interface 35 receives an operation command from the control PC 41 and passes it to the CPU 31.

CPU31は、通信インターフェース35から渡された動作指令をマニピュレータ11用の制御信号にして制御用インターフェース34を通じてマニピュレータ11へ送信する。   The CPU 31 transmits the operation command passed from the communication interface 35 to the manipulator 11 through the control interface 34 as a control signal for the manipulator 11.

また、CPU31は、制御用インターフェース34により受信された測定データを通信インターフェース35からLAN21を通じて各PC(制御用PC41、形状計測処理用PC42、物体情報データベース用PC43、状態表示PC44)へ伝送する。   Further, the CPU 31 transmits the measurement data received by the control interface 34 to each PC (control PC 41, shape measurement processing PC 42, object information database PC 43, status display PC 44) from the communication interface 35 through the LAN 21.

制御用PC41は、マニピュレータ11の動作の決定とマニピュレータコントローラ30に対して各軸の動作指令を与える。制御用PC41は、決定したマニピュレータ11の動作およびマニピュレータコントローラ30に対して各軸の動作指令などをディスプレイ41aに表示する。   The control PC 41 determines the operation of the manipulator 11 and gives an operation command for each axis to the manipulator controller 30. The control PC 41 displays the determined operation of the manipulator 11 and the operation command of each axis for the manipulator controller 30 on the display 41a.

制御用PC41のCPUは、成分分析装置13により計測された対象物Aの材質と形状計測センサ14により計測された対象物Aの3次元形状(立体形状)とから対象物Aの体積を算出する体積算出部として機能する。   The CPU of the control PC 41 calculates the volume of the object A from the material of the object A measured by the component analyzer 13 and the three-dimensional shape (three-dimensional shape) of the object A measured by the shape measurement sensor 14. Functions as a volume calculation unit.

制御用PC41のCPUは、体積算出部により計算された対象物Aの体積と、成分分析装置13により計測された対象物Aの材質をキーに物体情報データベース用PC43の物体情報データベース43bから読み出した物質の密度情報とから対象物Aの重量を算出する重量算出部として機能する。   The CPU of the control PC 41 reads from the object information database 43b of the object information database PC 43 using the volume of the object A calculated by the volume calculation unit and the material of the object A measured by the component analyzer 13 as keys. It functions as a weight calculation unit that calculates the weight of the object A from the density information of the substance.

制御用PC41のCPUは、重量算出部により算出された把持対象物の重量からマニピュレータ11が対象物Aを把持するための把持力を算出する把持力算出部として機能する。   The CPU of the control PC 41 functions as a gripping force calculation unit that calculates a gripping force for the manipulator 11 to grip the target A from the weight of the gripping target calculated by the weight calculation unit.

制御用PC41のCPUは、把持力算出部により算出された把持力にてマニピュレータ11を動作させる制御部として機能する。   The CPU of the control PC 41 functions as a control unit that operates the manipulator 11 with the gripping force calculated by the gripping force calculation unit.

形状計測処理用PC42のCPUは、手先(グリッパ部12)の形状計測センサ14から得られた対象物Aの形状計測結果の情報に基づいて対象物Aの3次元形状のデータを演算(計算)して求め、演算結果(計算結果)の3次元形状のデータをディスプレイ42aに表示する。   The CPU of the shape measurement processing PC 42 calculates (calculates) three-dimensional shape data of the object A based on the information of the shape measurement result of the object A obtained from the shape measurement sensor 14 of the hand (gripper unit 12). The three-dimensional shape data of the calculation result (calculation result) is displayed on the display 42a.

物体情報データベース用PC43は、既知の把持物体固有の情報(3次元の形状データ、物質の密度情報、把持位置、把持力、重量、重心位置、把持可能位置などの物体情報)が登録(蓄積)された物体情報データベース43bを有している。
物体情報データベース43bは、一つのキーワードから関連する情報を検索可能であり、例えば計算された把持対象物の体積と、成分分析器13により計測された把持対象物の材質をキーにして物質の密度情報を読み出し可能である。
The object information database PC 43 registers (accumulates) information specific to a known gripping object (three-dimensional shape data, material density information, gripping position, gripping force, weight, center of gravity position, grippable position, etc.). Has an object information database 43b.
The object information database 43b can search related information from one keyword. For example, the density of a substance is obtained using the calculated volume of the gripping object and the material of the gripping object measured by the component analyzer 13 as keys. Information can be read out.

物体情報データベース用PC43のCPUは、計測された対象物Aの形状データを検索キーとして、物体情報データベース43bから該当対象物A(物体)のデータ(特性データなど)を検索する検索部と、この検索部により検索された対象物Aのデータ(特性データなど)をディスプレイ43aに表示(出力)する出力部として機能する。   The CPU of the object information database PC 43 uses a search unit that searches the object information database 43b for data (characteristic data, etc.) of the target object A using the measured shape data of the target object A as a search key, It functions as an output unit that displays (outputs) the data (characteristic data, etc.) of the object A searched by the search unit on the display 43a.

物体情報データベース用PC43のCPUは、検索部による検索の結果、対象物Aの情報が物体情報データベース43bに存在しない場合、その対象物Aを未知の物体として、計測および計算により求めた情報(形状データ、材質など)を物体情報データベース43bに追加登録する登録部として機能する。   When the information of the target A does not exist in the object information database 43b as a result of the search by the search unit, the CPU of the object information database PC 43 uses the target A as an unknown object to obtain information (shape) Data, material, etc.) function as a registration unit for additionally registering in the object information database 43b.

物体情報データベース用PC43のCPUは、検索部による検索の結果、対象物Aの情報が物体情報データベース43bに存在しない場合、その対象物Aを未知の物体とし、未知の物体について、対象物Aの形状に類似する物体のデータ(特性データなど)を物体情報データベース43bから読み出してそのデータ(特性データなど)を対象物Aのデータとするデータ選出部として機能する。   As a result of the search by the search unit, the CPU of the object information database PC 43 determines that the object A is an unknown object when the information on the object A does not exist in the object information database 43b. It functions as a data selection unit that reads data (such as characteristic data) of an object similar to the shape from the object information database 43b and uses the data (such as characteristic data) as data of the object A.

物体情報データベース用PC43のCPUは、データ選出部により対象物Aのものとされた類似する物体の特性データを基に(キーとして)物体情報データベース43bに予め記憶された把持位置、把持力の中から適切な把持位置、把持力を決定する把持力決定部として機能する。   The CPU of the object information database PC 43 uses the gripping position and the gripping force stored in advance in the object information database 43b (as a key) based on the characteristic data of the similar object that is the object A by the data selection unit. Functions as a gripping force determining unit that determines an appropriate gripping position and gripping force.

状態表示PC44は、形状計測センサ14により計測された対象物Aの形状を基にマニピュレータ11の把持部10が対象物Aを把持する3次元空間上の位置を求める。そして、状態表示PC44は、マニピュレータ11の姿勢やその把持部10と対象物Aとの位置姿勢関係を3次元のコンピュータグラフィック(以下「CG」と称す。)でディスプレイ44aの画面に表示する。   The state display PC 44 obtains a position in the three-dimensional space where the gripping unit 10 of the manipulator 11 grips the object A based on the shape of the object A measured by the shape measurement sensor 14. Then, the state display PC 44 displays the posture of the manipulator 11 and the positional posture relationship between the gripping unit 10 and the object A on the screen of the display 44a in a three-dimensional computer graphic (hereinafter referred to as “CG”).

なお、各PC41〜44は、LAN21に接続されており、互いに情報を送受信することができる。ここでは各処理毎にPCを分けて設置する例を示したが、各PCの処理機能を一つにまとめて1台のPCに集約してもよい。   The PCs 41 to 44 are connected to the LAN 21 and can transmit and receive information to and from each other. Here, an example is shown in which a PC is installed separately for each process, but the processing functions of each PC may be combined into one PC.

続いて、図2を参照してこの第1実施形態のマニピュレータ作業支援システムの動作を説明する。図2はこの第1実施形態のマニピュレータ作業支援システムの処理動作を示すフローチャートである。   Next, the operation of the manipulator work support system according to the first embodiment will be described with reference to FIG. FIG. 2 is a flowchart showing the processing operation of the manipulator work support system of the first embodiment.

この第1実施形態のマニピュレータ作業支援システムの場合、制御用PC41のCPUは、把持部10の先端部12a、つまり手先のCCDカメラから得られた映像を画像処理することによって対象物Aの3次元空間上の位置(座標)を認識し、マニピュレータコントローラ30に対してマニピュレータ11を動作させるための指示を送り、まずマニピュレータ11を動作させて、その先端部12a、つまり手先を対象物Aの近傍まで移動し(図2のステップ101)、対象物Aに接近させる。なお、ステップは処理工程を意味し、以下では、ステップを「S」と称す。   In the case of the manipulator work support system according to the first embodiment, the CPU of the control PC 41 performs three-dimensional image processing on the object A by performing image processing on the image obtained from the distal end portion 12a of the gripping portion 10, that is, the CCD camera at the hand. The position (coordinates) in the space is recognized, an instruction for operating the manipulator 11 is sent to the manipulator controller 30, and the manipulator 11 is first operated to move its tip 12 a, that is, the hand to the vicinity of the object A. It moves (step 101 in FIG. 2) and approaches the object A. Note that a step means a processing step, and hereinafter, the step is referred to as “S”.

このとき、対象物Aの大まかな3次元空間上の位置(座標)は、予め物体情報データベース43bに登録されているものとしても良く、手先のCCDカメラの映像に基づく画像処理によって認識しても良い。   At this time, the position (coordinates) of the object A in the rough three-dimensional space may be registered in advance in the object information database 43b, or may be recognized by image processing based on the image of the hand CCD camera. good.

次に、マニピュレータ11の手先に設けた形状計測センサ14により対象物Aの3次元形状の計測が行われる(S102)。   Next, the three-dimensional shape of the object A is measured by the shape measurement sensor 14 provided at the hand of the manipulator 11 (S102).

形状計測センサ14では、ステレオ視による画像処理やレーザスキャン装置による計測を行う上で、手先位置固定の固定視点からでは対象物Aの一部しか計測できない恐れがある。   The shape measurement sensor 14 may measure only a part of the object A from a fixed viewpoint with a fixed hand position when performing image processing by stereo vision or measurement by a laser scanning device.

このため、制御用PC41のCPUは、対象物Aの周囲を周回するようにマニピュレータ11の先端を移動させる。この移動に伴い形状計測処理用PC42のCPUは、対象物Aの外観を計測した計測結果を合成処理することで、対象物Aの3次元形状データを得る。   For this reason, the CPU of the control PC 41 moves the tip of the manipulator 11 so as to go around the object A. Along with this movement, the CPU of the shape measurement processing PC 42 obtains three-dimensional shape data of the object A by synthesizing the measurement results obtained by measuring the appearance of the object A.

次に、形状計測処理用PC42のCPUは、得られた対象物Aの3次元形状データを用いて対象物Aの体積を算出する(S103)。   Next, the CPU of the shape measurement processing PC 42 calculates the volume of the object A using the obtained three-dimensional shape data of the object A (S103).

このときの形状計測によって得られるデータは、3次元の位置情報を有する計測点群であるので、形状計測処理用PC42のCPUは、これらの点群を表面として構成するソリッドモデルを生成する。ソリッドモデルから体積を算出する手法は、3次元CADなどで広く使用されており、同様の手法を用いるものとする。   Since the data obtained by the shape measurement at this time is a measurement point group having three-dimensional position information, the CPU of the shape measurement processing PC 42 generates a solid model having these point groups as surfaces. The method for calculating the volume from the solid model is widely used in three-dimensional CAD and the like, and the same method is used.

次に、形状計測処理用PC42のCPUは、形状計測センサ14の情報に基づき手先位置と対象物Aまでの距離を計算し、手先を対象物Aに接近させる。   Next, the CPU of the shape measurement processing PC 42 calculates the distance between the hand position and the object A based on the information of the shape measurement sensor 14, and brings the hand closer to the object A.

その後、形状計測処理用PC42のCPUは、成分分析装置により対象物Aの成分を分析する(S104)。   Thereafter, the CPU of the shape measurement processing PC 42 analyzes the component of the object A by the component analyzer (S104).

成分分析には、まず、手先に搭載した蛍光X線分析装置にてX線を照射して対象物Aより放射される蛍光X線の強度を測定する。   In the component analysis, first, the intensity of fluorescent X-rays emitted from the object A is measured by irradiating X-rays with a fluorescent X-ray analyzer mounted on the hand.

次に、形状計測処理用PC42のCPUは、測定した蛍光X線の強度スペクトルの値から物体情報データベース43bを参照することで対象物Aの構成材料を選定し、その材料をキーワードにしてさらに物体情報データベース43bに登録されている物質の密度情報を参照することで、対象物Aの密度を算出する(S105)。   Next, the CPU of the shape measurement processing PC 42 selects the constituent material of the object A by referring to the object information database 43b from the measured intensity spectrum value of the fluorescent X-ray, and further uses the material as a keyword for further object detection. The density of the object A is calculated by referring to the density information of the substance registered in the information database 43b (S105).

また、形状計測処理用PC42のCPUは、その物質によって構成される一般的な物体について物体情報データベース43bを参照することでその物体の摩擦係数の値も読み出す。なお、本実施形態では対象物Aは、均一の材料にて構成されているものとして扱うものとする。   Further, the CPU of the shape measurement processing PC 42 reads out the value of the friction coefficient of the object by referring to the object information database 43b for a general object constituted by the substance. In the present embodiment, the object A is assumed to be composed of a uniform material.

次に、形状計測処理用PC42のCPUは、算出した対象物の体積と密度の情報を用いて重量=体積×密度の関係式より対象物Aの重量を算出する(S106)。   Next, the CPU of the shape measurement processing PC 42 calculates the weight of the object A from the relational expression of weight = volume × density using the calculated volume and density information of the object (S106).

次に、形状計測処理用PC42のCPUは、算出した対象物Aの重量と、物体情報データベース43bの参照により得られた物体の摩擦係数値より、適した把持力を決定し(S107)、決定した把持力をLAN21を通じて制御用PC41へ通知する。   Next, the CPU of the shape measurement processing PC 42 determines a suitable gripping force from the calculated weight of the object A and the friction coefficient value of the object obtained by referring to the object information database 43b (S107). The gripping force thus obtained is notified to the control PC 41 through the LAN 21.

次に、把持力が通知された制御用PC41のCPUは、形状計測センサ14を用いて対象物Aの位置姿勢を確認しながら、グリッパ部12の先端部12aを対象物Aを把持可能位置へ移動し(S108)、先に決定した把持力になるように把持力計測センサ(図示せず)から得られる計測値で把持力を調整しながら先端部12aを閉じてゆき対象物Aを把持する(S109)。   Next, the CPU of the control PC 41 notified of the gripping force confirms the position and orientation of the object A using the shape measurement sensor 14, and moves the tip end portion 12 a of the gripper unit 12 to a position where the object A can be gripped. Move (S108), close the tip 12a while grasping the object A while adjusting the grasping force with the measured value obtained from the grasping force measurement sensor (not shown) so as to obtain the previously determined grasping force. (S109).

最後に、対象物Aを持ち上げた後、グリッパ部12に装着している6軸力センサ15により対象物Aの正確な重量を測定し、その測定結果と計算で求めた重量とを比較して誤差分に相当する把持力を調整(修正)する(S110)。   Finally, after lifting the object A, the accurate weight of the object A is measured by the 6-axis force sensor 15 attached to the gripper unit 12, and the measurement result is compared with the calculated weight. The gripping force corresponding to the error is adjusted (corrected) (S110).

例えば、計算した重量よりも実際の重量が重ければ、把持力を増加させることでグリッパ部12の指部から対象物Aが滑り落ちることを防止する。この逆に指部に滑り触覚センサを搭載しておき、対象物Aの滑りを検出した際に把持力を増加させるといった方法も有効である。   For example, if the actual weight is heavier than the calculated weight, the object A is prevented from sliding off from the finger portion of the gripper portion 12 by increasing the gripping force. On the other hand, it is also effective to mount a sliding tactile sensor on the finger and increase the gripping force when the sliding of the object A is detected.

このようにこの第1実施形態によれば、マニピュレータ11で対象物Aを把持する前に対象物Aの形状の認識と重量の推定(計算)を行うので、始めにグリッパ部12で対象物Aを掴むときから適切な把持力で対象物Aを把持することができ、かつ対象物Aの設置位置の変化に自律的に対応可能であり、対象物Aの把持・移動作業時にマニピュレータ11の把持力が弱すぎて対象物Aが落下したり、マニピュレータ11の把持力が強すぎて対象物Aを握りつぶす(破損)などのミスを極力なくすことができる。   As described above, according to the first embodiment, since the shape of the object A is recognized and the weight is estimated (calculated) before the manipulator 11 holds the object A, the gripper 12 first uses the object A. The object A can be grasped with an appropriate grasping force from when the object A is grasped, and the change of the installation position of the object A can be autonomously handled, and the manipulator 11 can be grasped when the object A is grasped / moved. It is possible to eliminate errors such as the object A falling because the force is too weak or the gripping force of the manipulator 11 being too strong to crush (break) the object A.

(第2実施形態)
次に、図3を参照して第2実施形態について説明する。図3は第2実施形態のマニピュレータ作業支援システムの処理動作を示すフローチャートである。なお以下の実施形態において、第1実施形態と同一の構成および動作工程には同一の符号を付し重複する説明は省略する。
(Second Embodiment)
Next, a second embodiment will be described with reference to FIG. FIG. 3 is a flowchart showing the processing operation of the manipulator work support system of the second embodiment. In the following embodiments, the same configurations and operation steps as those in the first embodiment are denoted by the same reference numerals, and redundant description is omitted.

この第2実施形態は、第1実施形態に示したマニピュレータ作業支援システムの構成において、対象物Aの形状計測を行うことで、把持可能な位置を探索して自動的に設定する動作の一例である。   This second embodiment is an example of an operation of searching for a position where the gripper can be gripped and automatically setting it by measuring the shape of the object A in the configuration of the manipulator work support system shown in the first embodiment. is there.

この第2実施形態のマニピュレータ作業支援システムでは、形状計測処理用PC42のCPUは、上記第1実施形態と同様の処理で重量を推定、つまり計算により求めた後(S101〜S106)、対象物Aより得た3次元形状のデータより対象物Aの重心位置を計算により求める(S207)。   In the manipulator work support system according to the second embodiment, the CPU of the shape measurement processing PC 42 estimates the weight by the same process as in the first embodiment, that is, obtains the weight by calculation (S101 to S106), and then the object A The center-of-gravity position of the object A is obtained by calculation from the obtained three-dimensional shape data (S207).

次に、形状計測処理用PC42のCPUは、求めた対象物Aの重心位置近傍でかつグリッパ部12にて把持可能な位置を特定(決定)する(S208)。重心位置近傍とは、重心からの距離が予め設定された範囲内をいい、この例では例えば数cm以内をいう。   Next, the CPU of the shape measurement processing PC 42 specifies (determines) a position in the vicinity of the obtained gravity center position of the object A and that can be gripped by the gripper unit 12 (S208). The vicinity of the center of gravity refers to a range in which the distance from the center of gravity is set in advance.

把持可能位置は、グリッパ部12の指形状に依存するが、例えば単純な2本指の開閉機構からなるグリッパ部12の場合は、指の開口幅と把持部の接触面積から決定される。   Although the grippable position depends on the finger shape of the gripper unit 12, for example, in the case of the gripper unit 12 including a simple two-finger opening / closing mechanism, it is determined from the opening width of the finger and the contact area of the gripping unit.

重心位置付近位置で把持が不可能な場合は、重心位置を中心にしてなるべくその近傍にて把持可能位置を探索して決定する。   If gripping is impossible at a position near the center of gravity, a grippable position is searched and determined as close to the center of gravity as possible.

次に、形状計測処理用PC42のCPUは、計算により求めた対象物Aの重量から対象物Aに適した把持力を決定する(S209)。このとき、把持位置が重心よりもずれる場合は、その把持位置を持つことによって発生する回転モーメントの値をパラメータの一つとして把持力を決定し、決定した把持力を制御用PC41へ通知する。   Next, the CPU of the shape measurement processing PC 42 determines a gripping force suitable for the object A from the weight of the object A obtained by calculation (S209). At this time, if the gripping position deviates from the center of gravity, the gripping force is determined using the value of the rotational moment generated by having the gripping position as one of the parameters, and the determined gripping force is notified to the control PC 41.

把持力の通知を受けた制御用PC41のCPUは、形状計測センサ14により測定された測定値によって対象物Aの位置姿勢を確認しながらマニピュレータ11を動作させてグリッパ部12(手先)を形状計測処理用PC42により決定された把持可能位置へ移動し(S210)、その位置でグリッパ部12にて対象物Aを把持する(S211)。   The CPU of the control PC 41 that has received the notification of the gripping force operates the manipulator 11 while confirming the position and orientation of the object A based on the measurement values measured by the shape measurement sensor 14, and measures the shape of the gripper unit 12 (hand). It moves to the grippable position determined by the processing PC 42 (S210), and grips the object A by the gripper unit 12 at that position (S211).

このとき制御用PC41のCPUは、把持力計測センサ(図示せず)の把持力測定値が先に決定した力になるようにグリッパ部12の把持力を調整しながらグリッパ部12の先端部12a(手先)を閉じてゆき対象物Aを把持する。   At this time, the CPU of the control PC 41 adjusts the gripping force of the gripper unit 12 so that the gripping force measurement value of a gripping force measurement sensor (not shown) becomes the previously determined force. Close the (hand) and hold the object A.

なお、手先に加わる外力の計測センサとして6軸力センサ15を利用した場合は、力成分のみならずモーメント成分の測定も可能であるため、モーメントの大きさから対象物Aの重心位置を測定することが可能であり、計算で求めた重心位置を補正(修正)する(S212)。   Note that when the 6-axis force sensor 15 is used as a sensor for measuring the external force applied to the hand, not only the force component but also the moment component can be measured, so the center of gravity position of the object A is measured from the magnitude of the moment. It is possible to correct (correct) the position of the center of gravity obtained by calculation (S212).

このようにこの第2実施形態によれば、第1実施形態の機能に加えて、把持位置が不確定な対象物Aについてもその位置を自律的に決定および修正することが可能な物体の把持・移動作業を実現することができる。   As described above, according to the second embodiment, in addition to the function of the first embodiment, it is possible to grip an object that can autonomously determine and correct the position of an object A whose grip position is uncertain.・ Movement work can be realized.

(第3実施形態)
次に、図4を参照して第3実施形態について説明する。図4は第3実施形態のマニピュレータ作業支援システムの処理動作を示すフローチャートである。
この第3実施形態では、第1実施形態に示した物体情報データベース用PC43の物体情報物体情報データベース43bに、把持対象物の特性データを収納しておく。
(Third embodiment)
Next, a third embodiment will be described with reference to FIG. FIG. 4 is a flowchart showing the processing operation of the manipulator work support system of the third embodiment.
In the third embodiment, the characteristic data of the object to be grasped is stored in the object information object information database 43b of the object information database PC 43 shown in the first embodiment.

図4に示すように、物体情報データベース43bに、各々の対象物の正確な形状、重量、重心位置、把持可能位置、把持位置の摩擦係数、適切な把持力など、物体固有の情報を登録しておく。   As shown in FIG. 4, object-specific information such as the accurate shape, weight, center of gravity position, grippable position, friction coefficient of gripping position, and appropriate gripping force of each target object is registered in the object information database 43b. Keep it.

次に、マニピュレータ11による把持作業時に、第1実施形態と同様に、形状計測処理用PC42のCPUは、グリップ部12(手先)の形状計測センサ14により計測された対象物Aの3次元形状計測データを取得し(S302)、この3次元形状データを基に物体情報データベース43bを参照することで、対象物Aの密度を計算する(S303)。   Next, during the gripping operation by the manipulator 11, the CPU of the shape measurement processing PC 42 measures the three-dimensional shape of the object A measured by the shape measurement sensor 14 of the grip unit 12 (hand) as in the first embodiment. Data is acquired (S302), and the density of the object A is calculated by referring to the object information database 43b based on the three-dimensional shape data (S303).

そして、形状計測処理用PC42のCPUは、該当する物体固有の情報を、物体情報データベース43bから検索して取得することで適切な把持力を決定し、制御用PC41のCPUがその決定した把持力でマニピュレータ11を動作させてそのグリップ部12(手先)を対象物Aの位置へ移動し(S304)、対象物Aを把持する(S305)。   Then, the CPU of the shape measurement processing PC 42 determines an appropriate gripping force by searching the object information database 43b and acquiring corresponding object-specific information, and the CPU of the control PC 41 determines the determined gripping force. Then, the manipulator 11 is operated to move the grip portion 12 (hand) to the position of the object A (S304), and the object A is gripped (S305).

対象物Aの3次元形状計測データを用いた検索方法の例としては、3次元空間上で表現される対象物Aの形状の特徴を表す頂点の位置関係やサイズなどの比較によって行う方法がある。   As an example of a search method using the three-dimensional shape measurement data of the object A, there is a method of performing comparison by comparing the positional relationship and size of the vertices representing the shape characteristics of the object A expressed in the three-dimensional space. .

この場合、物体固有の情報を物体情報データベース43bに登録できるので、その把持にかかわる情報だけでなく、例えばその対象物Aの利用方法の情報なども登録しておくことができる。   In this case, information unique to the object can be registered in the object information database 43b, so that not only information related to the gripping but also information on how to use the object A can be registered.

例えば、対象物Aがネジ回しなどの工具であれば、ネジ山に先端を押し付け長手軸方向に回転させるといった、その工具の使用方法の情報を物体情報データベース43bから取得して作業に利用することができる。   For example, if the object A is a tool such as a screwdriver, information on how to use the tool, such as pressing the tip against a screw thread and rotating it in the longitudinal axis direction, is acquired from the object information database 43b and used for work. Can do.

このようにこの第3実施形態によれば、物体情報データベース43bに、既知の把持対象物の正確な形状、重量、重心位置、把持可能位置、把持位置の摩擦係数、適切な把持力などを登録しておくことで、対象物Aについて詳細な情報を得ることができ、正確な把持動作を行うことができる。また、把持動作のみならず対象物Aを把持した状態での作業に応用することが可能である。   As described above, according to the third embodiment, the accurate shape, weight, center of gravity position, grippable position, friction coefficient of the gripping position, appropriate gripping force, etc. of the known gripping target are registered in the object information database 43b. By doing so, detailed information about the object A can be obtained, and an accurate gripping operation can be performed. In addition, the present invention can be applied not only to a gripping operation but also to work in a state where the object A is gripped.

(第4実施形態)
次に、図5を参照して第4実施形態について説明する。図5は第4実施形態のマニピュレータ作業支援システムの処理動作を示すフローチャートである。
(Fourth embodiment)
Next, a fourth embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing the processing operation of the manipulator work support system of the fourth embodiment.

上記第3実施形態では、物体情報データベース43bの情報を予め人の手によって入力および登録する必要があり、既知の対象物Aにしか対応できない。   In the third embodiment, information in the object information database 43b needs to be input and registered in advance by a human hand, and can only deal with a known object A.

そこで、この第4実施形態では、第1実施形態および第2実施形態の機能によって取得した未知の対象物Aの形状や重量、適切な把持力などのデータを物体情報データベース43bに登録することで、対応可能な対象物Aを自動的に追加するものである。   Therefore, in the fourth embodiment, data such as the shape and weight of the unknown object A acquired by the functions of the first embodiment and the second embodiment, an appropriate gripping force, and the like are registered in the object information database 43b. The object A that can be handled is automatically added.

すなわち、この第4実施形態のマニピュレータ作業支援システムでは、形状計測処理用PC42のCPUは、上記第1実施形態と同様の処理で重量を推定した後(S101〜S106)、対象物Aより得た3次元形状のデータより対象物Aの重心位置を計算により求める(S207)。   That is, in the manipulator work support system of the fourth embodiment, the CPU of the shape measurement processing PC 42 estimates the weight by the same processing as in the first embodiment (S101 to S106), and then obtains it from the object A. The center-of-gravity position of the object A is obtained by calculation from the three-dimensional shape data (S207).

次に、形状計測処理用PC42のCPUは、求めた対象物Aの重心位置近傍でかつグリッパ部12にて把持可能な位置を特定(決定)する(S208)。重心位置近傍とは、予め設定された数cm以内をいう。   Next, the CPU of the shape measurement processing PC 42 specifies (determines) a position in the vicinity of the obtained gravity center position of the object A and that can be gripped by the gripper unit 12 (S208). The vicinity of the center of gravity means within a predetermined number of centimeters.

把持可能位置は、グリッパ部12の指形状に依存するが、例えば単純な2本指の開閉機構からなるグリッパ部12の場合は、指の開口幅と把持部の接触面積から決定される。   Although the grippable position depends on the finger shape of the gripper unit 12, for example, in the case of the gripper unit 12 including a simple two-finger opening / closing mechanism, it is determined from the opening width of the finger and the contact area of the gripping unit.

重心位置付近位置で把持が不可能な場合は、重心位置を中心にしてなるべくその近傍にて把持可能位置を探索して決定する。   If gripping is impossible near the position of the center of gravity, the grippable position is searched and determined as close to the center of gravity as possible.

次に、形状計測処理用PC42のCPUは、計算により求めた対象物Aの重量から対象物Aに適した把持力を決定する(S209)。このとき、把持位置が重心よりもずれる場合は、その把持位置を持つことによって発生する回転モーメントの値をパラメータの一つとして把持力を決定し、決定した把持力を制御用PC41へ通知する。   Next, the CPU of the shape measurement processing PC 42 determines a gripping force suitable for the object A from the weight of the object A obtained by calculation (S209). At this time, if the gripping position deviates from the center of gravity, the gripping force is determined using the value of the rotational moment generated by having the gripping position as one of the parameters, and the determined gripping force is notified to the control PC 41.

把持力の通知を受けた制御用PC41のCPUは、形状計測センサ14により測定された測定値によって対象物Aの位置姿勢を確認しながらマニピュレータ11を動作させてグリッパ部12(手先)を形状計測処理用PC42により決定された把持可能位置へ移動し(S210)、その位置でグリッパ部12にて対象物Aを把持する(S211)。   The CPU of the control PC 41 that has received the notification of the gripping force operates the manipulator 11 while confirming the position and orientation of the object A based on the measurement values measured by the shape measurement sensor 14, and measures the shape of the gripper unit 12 (hand). It moves to the grippable position determined by the processing PC 42 (S210), and grips the object A by the gripper unit 12 at that position (S211).

このとき制御用PC41のCPUは、把持力計測センサ(図示せず)の把持力測定値が先に決定した力になるようにグリッパ部12の把持力を調整しながらグリッパ部12の先端部12a(手先)を閉じてゆき対象物Aを把持する。   At this time, the CPU of the control PC 41 adjusts the gripping force of the gripper unit 12 so that the gripping force measurement value of a gripping force measurement sensor (not shown) becomes the previously determined force. Close the (hand) and hold the object A.

なお、手先に加わる外力の計測センサとして6軸力センサ15を利用した場合は、力成分のみならずモーメント成分の測定も可能であるため、モーメントの大きさから対象物Aの重心位置を測定することが可能であり、計算で求めた重心位置を補正(修正)する(S212)。   Note that when the 6-axis force sensor 15 is used as a sensor for measuring the external force applied to the hand, not only the force component but also the moment component can be measured, so the center of gravity position of the object A is measured from the magnitude of the moment. It is possible to correct (correct) the position of the center of gravity obtained by calculation (S212).

最後に、形状計測処理用PC42のCPUは、取得した未知の対象物Aの形状や重量、適切な把持力などのデータを物体情報データベース43bに登録し、物体情報データベース43bの内容を更新する(S413)。   Finally, the CPU of the shape measurement processing PC 42 registers the acquired data such as the shape and weight of the unknown object A, an appropriate gripping force, and the like in the object information database 43b, and updates the contents of the object information database 43b ( S413).

このようにこの第4実施形態によれば、対象物Aの固有情報が既知であるものに加え、未知であるものも計測を行い計算した物体の情報を、物体情報データベース43bに追加登録することで、同じ物体を再度把持するときは物体情報データベース43bを参照することで、人手によるデータベース登録がない物体についても適正な把持力で物体を把持・移動することができる。   As described above, according to the fourth embodiment, in addition to the information specific to the object A being known, the unknown information is measured and calculated, and the object information calculated is additionally registered in the object information database 43b. Thus, when gripping the same object again, the object can be gripped / moved with an appropriate gripping force even with respect to an object that is not manually registered in the database by referring to the object information database 43b.

(第5実施形態)
次に、第5実施形態について説明する。
第5実施形態は、第4実施形態に関連し、対象物Aの形状が物体情報データベース43bに登録されている物体のデータと一致しないものの近似、つまり形状が類似する場合に、その類似した物体のデータに基づいて対象物Aの特性を計算で求めて、マニピュレータ11を制御し対象物Aを把持するものである。
(Fifth embodiment)
Next, a fifth embodiment will be described.
The fifth embodiment relates to the fourth embodiment, and approximates an object whose shape does not match the data of the object registered in the object information database 43b, that is, when the shape is similar, the similar object The characteristics of the object A are obtained by calculation based on the above data, and the manipulator 11 is controlled to hold the object A.

例えばネジ回しなどの工具は大きさが異なる類似した形状のものが多数存在する。また、これら工具は、形が異なっていても工具としての使用方法は同じである。   For example, there are many similar tools of different sizes such as a screwdriver. Moreover, even if these tools differ in shape, the usage method as a tool is the same.

上記第4実施形態で示したように、形状計測の結果、物体情報データベース43bに存在する形状のものとは一致せず、対象物Aが未知形状であるものの、物体情報データベース43bに類似形状のデータが存在する場合、形状計測処理用PC42のCPUは、類似形状のデータを持つ物体の情報から、未知の対象物Aの重量を計算で求め、把持位置や把持力などを推定して決定すると共に、未知の対象物Aについての使用方法を既知の物と同じであるものとして物体情報データベース43bに追加登録する。   As shown in the fourth embodiment, as a result of shape measurement, the object A does not match the shape existing in the object information database 43b, and the object A has an unknown shape, but the object information database 43b has a similar shape. If there is data, the CPU of the shape measurement processing PC 42 calculates the weight of the unknown object A from the information of the object having similar shape data, and estimates and determines the grip position, grip force, etc. At the same time, the usage method for the unknown object A is additionally registered in the object information database 43b as being the same as the known object.

第1実施形態および第2実施形態で示したような対象物Aの特性データの算出も併せて行うことで、特性の推定精度をより向上することができる。   By calculating the characteristic data of the object A as shown in the first embodiment and the second embodiment, the characteristic estimation accuracy can be further improved.

なお、実際に把持作業を実施した後には、その対象物の特性情報を物体情報データベース43bに追加して登録を行い、再活用できるようにする。   In addition, after actually carrying out the gripping work, the characteristic information of the object is added to the object information database 43b and registered so that it can be reused.

このようにこの第5実施形態によれば、対象物Aの固有情報が未知であるものに対しても、物体情報データベース43bに類似する形状の物体情報が存在すれば、その物体情報を基に対象物Aの特性を計算により求めて、把持に係るパラメータを決定することができ、計測だけによる特性推定と併せて推定精度を向上させた物体の把持・移動作業を実現することができる。   As described above, according to the fifth embodiment, if object information having a shape similar to that in the object information database 43b exists even if the unique information of the object A is unknown, based on the object information. The characteristics of the object A can be obtained by calculation to determine parameters related to gripping, and it is possible to realize object gripping / moving work with improved estimation accuracy together with characteristic estimation based only on measurement.

(第6実施形態)
次に、図6を参照して本発明に係る第6実施形態について説明する。図6は第6実施形態のマニピュレータの構成を示す図である。
この第6実施形態では、第1実施形態に示した構成に加えて、マニピュレータ11の手先部(把持部10)に搭載された非接触ICタグのリーダライタ61と、リーダライタ61がデータを書き込んだ非接触ICタグとしての情報タグ60を対象物Aに貼り付けるタグ設置機構62とから構成されている。
(Sixth embodiment)
Next, a sixth embodiment according to the present invention will be described with reference to FIG. FIG. 6 is a diagram showing the configuration of the manipulator of the sixth embodiment.
In the sixth embodiment, in addition to the configuration shown in the first embodiment, the reader / writer 61 of the non-contact IC tag mounted on the hand portion (gripping portion 10) of the manipulator 11 and the reader / writer 61 write data. The information tag 60 as a non-contact IC tag is composed of a tag installation mechanism 62 for attaching the information tag 60 to the object A.

リーダライタ61は、対象物Aの特性データを情報タグ60に記憶する情報書込部として機能する。   The reader / writer 61 functions as an information writing unit that stores the characteristic data of the object A in the information tag 60.

また、リーダライタ61は、対象物Aに取り付けられている情報タグ60から、光または電波による無線通信で対象物Aの特性データを読み込み、把持力決定部である形状計測処理用PC42へ渡す情報読取部として機能する。   Further, the reader / writer 61 reads the characteristic data of the object A from the information tag 60 attached to the object A by wireless communication using light or radio waves and passes it to the shape measurement processing PC 42 which is a gripping force determination unit. It functions as a reading unit.

情報タグ60の片面には、粘着剤が塗布されている。タグ設置機構62は、伸縮可能な筒状部62aを有している。筒状部62aは、吸着ノズルとなっており、その先端に、粘着剤が塗布されていない情報タグ60の他の面が吸引などで吸着されている。   An adhesive is applied to one side of the information tag 60. The tag installation mechanism 62 has a tubular portion 62a that can be expanded and contracted. The cylindrical portion 62a is an adsorption nozzle, and the other surface of the information tag 60 to which no adhesive is applied is adsorbed to the tip thereof by suction or the like.

タグ設置機構62は、リーダライタ61によって特性データが書き込まれた情報タグ60を対象物Aに取り付ける取付部として機能する。   The tag installation mechanism 62 functions as an attachment portion for attaching the information tag 60 in which the characteristic data is written by the reader / writer 61 to the object A.

このタグ設置機構62の場合、情報タグ60を対象物Aに押し付けて吸引を停止することで、情報タグ60を対象物Aに貼り付ける装置である。   In the case of this tag installation mechanism 62, the information tag 60 is affixed to the object A by pressing the information tag 60 against the object A and stopping the suction.

第1実施形態乃至第5実施形態で示した物体情報データベース43bを検索、参照する方式は照合の際に処理時間が発生すると共に、物体情報データベース43bの運用・管理が必要となる。   In the method for searching and referring to the object information database 43b shown in the first to fifth embodiments, processing time is generated at the time of collation, and operation / management of the object information database 43b is required.

そこで、この第6実施形態では、一度推定した対象物の特性データをリーダライタ61が情報タグ60に書き込み、その情報タグ60をタグ設置機構62が把持対象物に貼り付ける。なお、情報タグ60は、貼り付けるだけでなく、磁石などで取り付けても良い。   Therefore, in the sixth embodiment, the reader / writer 61 writes characteristic data of the object once estimated to the information tag 60, and the tag setting mechanism 62 affixes the information tag 60 to the grasped object. The information tag 60 may be attached with a magnet or the like as well as being pasted.

このようにすることで、次回、同じ対象物Aを把持するときには、対象物Aに貼り付けられた情報タグ60に記憶された特性データをリーダライタ61が読み取り(読み込み)、形状計測処理用PC42に入力することで、形状計測処理用PC42のCPUは、当該対象物Aの適切な把持位置や把持力などの把持に係るパラメータを、測定および計算によらずに瞬時に決定することができる。   By doing so, the next time the same object A is gripped, the reader / writer 61 reads (reads) the characteristic data stored in the information tag 60 attached to the object A, and the shape measurement processing PC 42 is read. , The CPU of the shape measurement processing PC 42 can instantaneously determine parameters related to gripping such as an appropriate gripping position and gripping force of the object A without using measurement and calculation.

情報タグ60としては、この例のような電気的に読み書き可能なICタグの他、2次元バーコードをその場で印刷して作成して利用してもよい。なお、2次元バーコードの読み込みは、視覚センサによって行うため、形状計測用カメラを把持部10に搭載するようにする。また、情報タグ60に特性データ自体を書き込むのではなく、物体情報データベース43bの参照先のアドレスやパスを情報タグ60に記憶してもよい。   As the information tag 60, in addition to an electrically readable / writable IC tag as in this example, a two-dimensional barcode may be printed and used on the spot. Since reading of the two-dimensional barcode is performed by a visual sensor, the shape measurement camera is mounted on the gripping unit 10. Further, instead of writing the characteristic data itself into the information tag 60, the address or path of the reference destination of the object information database 43b may be stored in the information tag 60.

このようにこの第6実施形態によれば、一度推定した対象物Aの把持に係る特性データ、つまりパラメータなどを情報タグ60に書き込み対象物Aに貼り付けておくことで、次回の把持作業時に、計測や計算および物体情報データベース43bの参照などを行うことなく、瞬時に物体の特性を取得し、適正な把持力で対象物Aを把持し移動作業を行うことができる。   As described above, according to the sixth embodiment, the characteristic data relating to the grasping of the object A once estimated, that is, the parameters or the like are pasted on the object A to be written on the information tag 60, so that the next grasping operation can be performed. Without performing measurement, calculation, reference to the object information database 43b, and the like, it is possible to acquire the characteristics of the object instantaneously, hold the object A with an appropriate gripping force, and perform a moving operation.

(第7実施形態)
次に、図7を参照して第7実施形態について説明する。図7は第7実施形態の状態表示画面の一例を示す図である。
この第7実施形態は、第1実施形態に示した構成において、マニピュレータ11を操作するオペレータが状態表示PC44のディスプレイ44aに表示された状態表示を確認して操作を行うことで、マニピュレータ11の状態の確認と指示を与えられるようにしたものである。
(Seventh embodiment)
Next, a seventh embodiment will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of a status display screen according to the seventh embodiment.
In the seventh embodiment, in the configuration shown in the first embodiment, the operator who operates the manipulator 11 confirms the state display displayed on the display 44a of the state display PC 44 and performs an operation, whereby the state of the manipulator 11 is Confirmation and instructions can be given.

状態表示PC44のCPUは、マニピュレータ11自身の姿勢やその手先の位置姿勢、また周囲の環境構造物を、視覚的に分かりやすいように3次元グラフィック処理にてディスプレイ44aに表示を行う。   The CPU of the state display PC 44 displays the posture of the manipulator 11 itself, the position and posture of its hand, and the surrounding environmental structure on the display 44a by three-dimensional graphic processing so that it can be easily understood visually.

ディスプレイ44aの状態表示画面71には、対象物Aの外形とその周辺の環境構造物がリアルに表示される。オペレータが状態表示画面71の操作カーソル72を、マウスなどで移動して対象物Aの表示を選択すると、状態表示PC44のCPUは、物体情報表示ウインドウ73をポップアップ表示する。   On the status display screen 71 of the display 44a, the outer shape of the object A and the surrounding environmental structure are displayed realistically. When the operator moves the operation cursor 72 of the state display screen 71 with a mouse or the like and selects the display of the object A, the CPU of the state display PC 44 pops up the object information display window 73.

物体情報表示ウインドウ73には、物体情報データベース43bに登録された対象物Aの材質や重量などの特性データおよび各計測装置により測定された対象物Aの材質や重量などの特性データが表示される。   In the object information display window 73, characteristic data such as material and weight of the object A registered in the object information database 43b and characteristic data such as material and weight of the object A measured by each measuring device are displayed. .

ここで、表示する特性データには、第1実施形態乃至第3実施形態で示した成分分析装置13および形状計測装置14による計測結果と形状計測処理用PC42による算出結果とを用いると共に、物体情報データベース用PC43の物体情報データベース43bに登録されている物体情報を検索により読み出して表示する。   Here, as the characteristic data to be displayed, the measurement results obtained by the component analysis device 13 and the shape measurement device 14 and the calculation results obtained by the shape measurement processing PC 42 shown in the first to third embodiments are used, and object information is displayed. The object information registered in the object information database 43b of the database PC 43 is read out by search and displayed.

また、マウスなどにより、状態表示画面71の対象物Aの表示が選択されたことで、状態表示PC44のCPUは、把持作業開始のトリガ信号をLAN21を通じて制御用PC41へ送信して、トリガ信号を受信した制御用PC41のCPUがマニピュレータコントローラ30に対して把持作業開始の制御指令を出すようにしても良い。   In addition, when the display of the object A on the status display screen 71 is selected by a mouse or the like, the CPU of the status display PC 44 transmits a trigger signal for starting gripping work to the control PC 41 via the LAN 21 and outputs the trigger signal. The received CPU of the control PC 41 may issue a control command for starting a gripping operation to the manipulator controller 30.

このようにこの第7実施形態によれば、オペレータが視覚的にロボットの状態と対象物Aの特性データを把握することが可能であり、画面上に表示されている対象物Aを選択することで、対象物Aの材質や重量などの特性データが表示されるので、オペレータは、これを見ながら物体の把持・移動作業を行うことができる。   As described above, according to the seventh embodiment, the operator can visually grasp the state of the robot and the characteristic data of the object A, and can select the object A displayed on the screen. Thus, since the characteristic data such as the material and weight of the object A is displayed, the operator can grasp and move the object while watching this.

以上説明したように上記実施形態によれば、マニピュレータ11の把持作業の適用範囲を拡大することができ、例えば家庭環境など多種多様な対象物が存在する空間での作業を行うロボットへの応用につなげることが可能である。   As described above, according to the above-described embodiment, the application range of the gripping operation of the manipulator 11 can be expanded. For example, the present invention can be applied to a robot that performs work in a space where various objects such as a home environment exist. It is possible to connect.

なお、本発明は上記実施形態のみに限定されるものではなく、変形が可能である。上記各実施形態では、多軸および多関節のマニピュレータ11を用いたが、本発明は、上記実施形態のみに限定されるものではなく、一軸のもの(関節のないもの)でもよく、物体を把持する機構に広く適用可能である。   In addition, this invention is not limited only to the said embodiment, A deformation | transformation is possible. In each of the above-described embodiments, the multi-axis and multi-joint manipulators 11 are used. However, the present invention is not limited to the above-described embodiment, and may be a single-axis (no joint) and grips an object. It can be widely applied to the mechanism.

また、上記実施形態では、対象物Aの材質や形状を計測する計測器をマニピュレータ11の手先に搭載する例を示したが、計測器の搭載位置は、マニピュレータ11の手先の位置に限定されるものではなくマニピュレータ11の手先以外の部分やマニピュレータ11とは別の位置に設置してもよい。   Moreover, although the example which mounts the measuring device which measures the material and shape of the target object A on the hand of the manipulator 11 was shown in the said embodiment, the mounting position of a measuring device is limited to the position of the hand of the manipulator 11. You may install in the position different from the part other than the hand of the manipulator 11, and the manipulator 11 instead of a thing.

さらに、上述した各実施形態を適宜組み合わせて、本発明の主旨を逸脱しない範囲で種々変形して実施することができる。   Furthermore, various embodiments described above can be combined as appropriate, and various modifications can be made without departing from the spirit of the present invention.

本発明の一つの実施形態のマニピュレータ制御システムの構成を示す図。The figure which shows the structure of the manipulator control system of one Embodiment of this invention. 第1実施形態のマニピュレータ制御システムの処理を示すフローチャート。The flowchart which shows the process of the manipulator control system of 1st Embodiment. 第2実施形態のマニピュレータ制御システムの処理を示すフローチャート。The flowchart which shows the process of the manipulator control system of 2nd Embodiment. 第3実施形態のマニピュレータ制御システムの処理を示すフローチャート。The flowchart which shows the process of the manipulator control system of 3rd Embodiment. 第4実施形態のマニピュレータ制御システムの処理を示すフローチャート。The flowchart which shows the process of the manipulator control system of 4th Embodiment. 第6実施形態のマニピュレータ制御システムの処理を示すフローチャート。The flowchart which shows the process of the manipulator control system of 6th Embodiment. 第7実施形態におけるディスプレイの状態表示画面を示す図。The figure which shows the status display screen of the display in 7th Embodiment.

符号の説明Explanation of symbols

A… 把持対象物
10… 把持部
11… マニピュレータ
12… グリッパ部
13… 成分分析装置
14… 形状計測装置
15… 6軸力センサ
17… 作業台
18… 信号線・動力線
20… 通信線
21… LAN
30… マニピュレータコントローラ
41… 制御用コンピュータ(制御用PC)
42… 形状計測処理用コンピュータ(形状計測処理用PC)
43… 物体情報データベース用コンピュータ(物体情報データベース用PC)
44… 状態表示用コンピュータ(状態表示用PC)
60… 情報タグ
61… リーダライタ
62… タグ設置機構
71… 状態表示画面
72… 操作カーソル
73… 物体情報表示ウインドウ
A ... Object to be grasped 10 ... Gripping part 11 ... Manipulator 12 ... Gripper part 13 ... Component analyzer 14 ... Shape measuring device 15 ... 6-axis force sensor 17 ... Work table 18 ... Signal line / Power line 20 ... Communication line 21 ... LAN
30 ... Manipulator controller 41 ... Control computer (PC for control)
42 ... Computer for shape measurement processing (PC for shape measurement processing)
43 ... Object information database computer (object information database PC)
44 ... Status display computer (status display PC)
60 ... Information tag 61 ... Reader / writer 62 ... Tag installation mechanism 71 ... Status display screen 72 ... Operation cursor 73 ... Object information display window

Claims (10)

把持対象物を把持・移動するための把持部を有するマニピュレータと、
前記把持部に設けられ、接近した前記把持対象物に対して光または放射線を放射してその材質を非接触で計測する成分分析器と、
前記把持部に設けられ、接近した前記把持対象物に対して光または放射線を放射してその立体形状を非接触で測定する形状計測センサと、
前記成分分析器により計測された前記把持対象物の材質と前記形状計測センサにより計測された立体形状とから前記把持対象物の体積を算出する体積算出部と、
既知の把持対象物の形状、物質の密度情報、把持位置、把持力を含む物体情報を蓄積したデータベースと、
前記体積算出部により計算された前記把持対象物の体積と、前記成分分析器により計測された把持対象物の材質をキーに前記データベースから読み出した物質の密度情報とから前記把持対象物の重量を算出する重量算出部と、
前記重量算出部により算出された前記把持対象物の重量から前記把持対象物の把持力を算出する把持力算出部と、
前記把持力算出部により算出された把持力にて前記マニピュレータを動作させる制御部と
を具備することを特徴とするマニピュレータ制御システム。
A manipulator having a gripping part for gripping and moving a gripping object;
A component analyzer that is provided in the gripping unit and that emits light or radiation to the gripping object that is approached to measure the material in a non-contact manner;
A shape measuring sensor that is provided in the grip portion and radiates light or radiation to the gripped object that is approached to measure the solid shape in a non-contact manner;
A volume calculation unit that calculates the volume of the gripping object from the material of the gripping object measured by the component analyzer and the three-dimensional shape measured by the shape measurement sensor;
A database that stores object information including the shape of a known object to be grasped, density information of a substance, grasping position, and grasping force;
The weight of the gripping object is calculated from the volume of the gripping object calculated by the volume calculation unit and the density information of the substance read from the database using the material of the gripping object measured by the component analyzer as a key. A weight calculating unit for calculating;
A gripping force calculator that calculates a gripping force of the gripping object from the weight of the gripping object calculated by the weight calculator;
And a control unit that operates the manipulator with the gripping force calculated by the gripping force calculation unit.
前記形状計測センサにより計測された前記把持対象物の形状を基に前記マニピュレータの把持部が前記把持対象物を把持する3次元空間上の位置を求める手段を具備することを特徴とする請求項1記載のマニピュレータ制御システム。   2. A means for obtaining a position in a three-dimensional space where a gripping part of the manipulator grips the gripping object based on the shape of the gripping object measured by the shape measuring sensor. The described manipulator control system. 計測された前記把持対象物の形状を検索キーとして、前記物体情報データベースから前記把持対象物の特性データを検索する検索部と、
前記検索部により検索された前記把持対象物の特性データを出力する手段と
を具備することを特徴とする請求項1記載のマニピュレータ制御システム。
Using the measured shape of the gripping object as a search key, a search unit that searches for characteristic data of the gripping object from the object information database;
The manipulator control system according to claim 1, further comprising means for outputting characteristic data of the grasped object searched by the search unit.
前記検索部による検索の結果、前記把持対象物の情報が前記データベースに存在しない場合、計測および計算された前記未知の物体の情報を前記データベースに追加登録する登録部を具備することを特徴とする請求項3記載のマニピュレータ制御システム。   As a result of the search by the search unit, if the information on the grasped object does not exist in the database, a registration unit is provided for additionally registering the measured and calculated information on the unknown object in the database. The manipulator control system according to claim 3. 前記検索部による検索の結果、前記把持対象物の情報が前記データベースに存在しない場合、計測および計算された前記未知の物体について、前記把持対象物の形状に類似する物体のデータを前記データベースから読み出してその特性データを前記把持対象物のデータとするデータ選出部と、
前記把持対象物の特性データを基に前記データベースに予め記憶された把持位置、把持力の中から適切な把持位置、把持力を決定する把持力決定部と
を具備することを特徴とする請求項3記載のマニピュレータ制御システム。
If the information of the gripping object does not exist in the database as a result of the search by the search unit, the data of the object similar to the shape of the gripping object is read from the database for the measured and calculated unknown object. And a data selection unit having the characteristic data as data of the gripping object,
A gripping force determining unit that determines an appropriate gripping position and a gripping force from among gripping positions and gripping forces stored in advance in the database on the basis of characteristic data of the gripping object. 3. The manipulator control system according to 3.
前記把持対象物の特性データを情報タグに記憶する情報書込部と、
前記情報書込部により書き込まれた情報タグを前記把持対象物に取り付る取付部と
を具備することを特徴とする請求項1乃至5いずれか1記載のマニピュレータ制御システム。
An information writing unit for storing characteristic data of the gripping object in an information tag;
The manipulator control system according to any one of claims 1 to 5, further comprising an attachment unit that attaches the information tag written by the information writing unit to the grasped object.
前記把持対象物に取り付けられている情報タグから、光または電波による無線通信で前記把持対象物のデータを読み込み、前記把持力決定部へ渡す情報読取部を具備することを特徴とする請求項5記載のマニピュレータ制御システム。   6. An information reading unit that reads data of the gripping object from an information tag attached to the gripping object by wireless communication using light or radio waves and passes the data to the gripping force determination unit. The described manipulator control system. 前記マニピュレータおよび把持対象物の位置および姿勢を立体的に表示する表示手段、
前記把持対象物の形状、重量および特性などの計算値または推定値、あるいは前記データベースより読み出した情報を表示する表示手段の少なくとも一つを備えることを特徴とする請求項1乃至7いずれか1記載のマニピュレータ制御システム。
Display means for three-dimensionally displaying the positions and postures of the manipulator and the gripping object;
8. The apparatus according to claim 1, further comprising at least one of display means for displaying calculated values or estimated values of the shape, weight, and characteristics of the grasped object, or information read from the database. Manipulator control system.
把持対象物を把持・移動するための把持部を有するマニピュレータを制御して前記把持対象物を把持・移動するマニピュレータ制御方法において、
前記把持部に設けられた成分分析器が、接近した前記把持対象物に対して光または放射線を放射してその材質を非接触で計測するステップと、
前記把持部に設けられた形状計測センサが、接近した前記把持対象物に対して光または放射線を放射してその立体形状を非接触で測定するステップと、
前記成分分析器により計測された前記把持対象物の材質と前記形状計測センサにより計測された立体形状とからコンピュータが前記把持対象物の体積を算出するステップと、
計算した前記把持対象物の体積と、計測した前記把持対象物の材質をキーにデータベースから読み出した物質の密度情報とから前記コンピュータが前記把持対象物の重量を算出するステップと、
算出した前記把持対象物の重量から前記コンピュータが、前記把持対象物を前記マニピュレータが把持するための把持力を算出するステップと、
算出した把持力にて前記コンピュータが前記マニピュレータを動作させるステップと
を有することを特徴とするマニピュレータ制御方法。
In a manipulator control method for gripping / moving the gripping object by controlling a manipulator having a gripping part for gripping / moving the gripping object,
A component analyzer provided in the gripping unit emits light or radiation to the gripping object that is approached, and measures the material in a non-contact manner;
A shape measuring sensor provided in the gripping unit radiates light or radiation to the gripping object that is approached, and measures the three-dimensional shape without contact;
A computer calculating a volume of the gripping object from a material of the gripping object measured by the component analyzer and a three-dimensional shape measured by the shape measurement sensor;
The computer calculates the weight of the gripping object from the calculated volume of the gripping object and the density information of the substance read from the database using the measured material of the gripping object as a key;
The computer calculates a gripping force for the manipulator to grip the gripping object from the calculated weight of the gripping object;
And a step of causing the computer to operate the manipulator with the calculated gripping force.
把持対象物を把持・移動するための把持部を有するマニピュレータをコンピュータが制御するためのプログラムにおいて、
前記コンピュータを、
前記把持部に設けられた成分分析器が前記把持対象物に対して光または放射線を放射して非接触で計測した材質と、前記把持部に設けられた形状計測センサが、前記把持対象物に対して光または放射線を放射して非接触で測定した立体形状とから前記把持対象物の体積を算出する体積算出部と、
既知の把持対象物の形状、物質の密度情報、把持位置、把持力を含む物体情報を蓄積したデータベースと、
前記体積算出部により計算された前記把持対象物の体積と、前記成分分析器により計測された前記把持対象物の材質をキーに前記データベースから読み出した物質の密度情報とから前記把持対象物の重量を算出する重量算出部と、
前記重量算出部により算出された前記把持対象物の重量から前記把持対象物の把持力を算出する把持力算出部と、
前記把持力算出部により算出された把持力にて前記マニピュレータを動作させる制御部
として機能させることを特徴とするプログラム。
In a program for a computer to control a manipulator having a gripping part for gripping and moving a gripping object,
The computer,
The component analyzer provided in the gripping part emits light or radiation to the gripping object and measured without contact, and the shape measurement sensor provided in the gripping part includes the gripping object. On the other hand, a volume calculation unit that calculates the volume of the grasped object from a three-dimensional shape that is measured in a non-contact manner by emitting light or radiation;
A database that stores object information including the shape of a known object to be grasped, density information of a substance, grasping position, and grasping force;
The weight of the gripping object based on the volume of the gripping object calculated by the volume calculation unit and the density information of the substance read from the database using the material of the gripping object measured by the component analyzer as a key. A weight calculation unit for calculating
A gripping force calculator that calculates a gripping force of the gripping object from the weight of the gripping object calculated by the weight calculator;
A program that functions as a control unit that operates the manipulator with the gripping force calculated by the gripping force calculation unit.
JP2006230483A 2006-08-28 2006-08-28 System, method and program for controlling manipulator Withdrawn JP2008049459A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006230483A JP2008049459A (en) 2006-08-28 2006-08-28 System, method and program for controlling manipulator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006230483A JP2008049459A (en) 2006-08-28 2006-08-28 System, method and program for controlling manipulator

Publications (1)

Publication Number Publication Date
JP2008049459A true JP2008049459A (en) 2008-03-06

Family

ID=39233969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006230483A Withdrawn JP2008049459A (en) 2006-08-28 2006-08-28 System, method and program for controlling manipulator

Country Status (1)

Country Link
JP (1) JP2008049459A (en)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008055584A (en) * 2006-09-04 2008-03-13 Toyota Motor Corp Robot for holding object and holding method of object by robot
JP2010094777A (en) * 2008-10-16 2010-04-30 Fuji Electric Systems Co Ltd Remote control support device
JP2010172969A (en) * 2009-01-27 2010-08-12 Yaskawa Electric Corp Robot system and method of controlling robot
JP2011516283A (en) * 2009-01-09 2011-05-26 チーユー リン Method for teaching a robot system
JP2011230263A (en) * 2010-04-30 2011-11-17 Seiko Epson Corp Gripping robot and method for gripping
JP2012006097A (en) * 2010-06-23 2012-01-12 Yaskawa Electric Corp Robot device
JP2012066378A (en) * 2010-09-22 2012-04-05 Toyota Motor Engineering & Manufacturing North America Inc Human-robot interface apparatus and method for controlling robot
JP2012139758A (en) * 2010-12-28 2012-07-26 Toyota Motor Corp Gripping device
JP2012179673A (en) * 2011-03-01 2012-09-20 Seiko Epson Corp Device and method for controlling robot, and program
JP2013144355A (en) * 2012-01-13 2013-07-25 Toyota Motor Engineering & Manufacturing North America Inc Method and computer-program product for generating grasp pattern for use by robot
KR101294250B1 (en) * 2012-02-17 2013-08-07 재단법인대구경북과학기술원 Method and apparatus for calculating of gripping force of gripper
WO2016043227A1 (en) * 2014-09-20 2016-03-24 株式会社イシダ Mass measurement device
JP2016209952A (en) * 2015-05-08 2016-12-15 ファナック株式会社 Load parameter setting device and load parameter setting method
JP2017030054A (en) * 2015-07-28 2017-02-09 ファナック株式会社 Electric discharge machine with function to automatically calculate workpiece weight
KR101757855B1 (en) 2016-04-08 2017-07-14 주식회사 에이치에스씨 Robot with finger for weight measuring
JP2017533423A (en) * 2014-10-13 2017-11-09 コリア インスティテュート オブ インダストリアル テクノロジーKorea Institute Of Industrial Technology Excrement shape measuring apparatus and method
JP2018027581A (en) * 2016-08-17 2018-02-22 株式会社安川電機 Picking system
JP2018051652A (en) * 2016-09-27 2018-04-05 株式会社日立製作所 Robot system
KR101902678B1 (en) * 2014-07-16 2018-09-28 엑스 디벨롭먼트 엘엘씨 Real-time determination of object metrics for trajectory planning
JP2018203480A (en) * 2017-06-07 2018-12-27 株式会社東芝 Sorting apparatus and sorting system
JP2019155542A (en) * 2018-03-14 2019-09-19 株式会社東芝 Conveyance device, conveyance system, controller, and conveyance method
JP2020040780A (en) * 2018-09-10 2020-03-19 株式会社東芝 Picking system, and apparatus and program for processing information
JP2020151812A (en) * 2019-03-20 2020-09-24 ファナック株式会社 Device, method and program for estimating weight and position of center of gravity of load using robot
JPWO2020008602A1 (en) * 2018-07-05 2021-06-24 株式会社Fuji Vertical articulated robot and work equipment
JPWO2021141039A1 (en) * 2020-01-09 2021-07-15
WO2022038889A1 (en) * 2020-08-17 2022-02-24 ソニーグループ株式会社 Information processing device and information processing method, and computer program
US11584016B2 (en) 2018-04-24 2023-02-21 Fanuc Corporation Robot controller and system
WO2023066201A1 (en) * 2021-10-18 2023-04-27 达闼机器人股份有限公司 Mechanical arm motion path planning method and apparatus, device, program, and medium
WO2023120728A1 (en) * 2021-12-24 2023-06-29 京セラ株式会社 Robot control device and robot control method
US11701775B2 (en) 2020-06-11 2023-07-18 Seiko Epson Corporation Method of setting target force upper limit and robot system
DE112021005493T5 (en) 2020-10-19 2023-08-31 Mitsubishi Electric Corporation ROBOT CONTROL DEVICE AND ROBOT CONTROL METHOD
CN116766212A (en) * 2023-08-17 2023-09-19 深圳市心流科技有限公司 Bionic hand control method, bionic hand control device, bionic hand control equipment and storage medium
JP7514412B1 (en) 2023-08-30 2024-07-10 ヤマザキマザック株式会社 Machining system, machine tool system, and workpiece machining method

Cited By (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008055584A (en) * 2006-09-04 2008-03-13 Toyota Motor Corp Robot for holding object and holding method of object by robot
JP2010094777A (en) * 2008-10-16 2010-04-30 Fuji Electric Systems Co Ltd Remote control support device
JP2011516283A (en) * 2009-01-09 2011-05-26 チーユー リン Method for teaching a robot system
JP2010172969A (en) * 2009-01-27 2010-08-12 Yaskawa Electric Corp Robot system and method of controlling robot
JP2011230263A (en) * 2010-04-30 2011-11-17 Seiko Epson Corp Gripping robot and method for gripping
JP2012006097A (en) * 2010-06-23 2012-01-12 Yaskawa Electric Corp Robot device
JP2012066378A (en) * 2010-09-22 2012-04-05 Toyota Motor Engineering & Manufacturing North America Inc Human-robot interface apparatus and method for controlling robot
JP2012139758A (en) * 2010-12-28 2012-07-26 Toyota Motor Corp Gripping device
JP2012179673A (en) * 2011-03-01 2012-09-20 Seiko Epson Corp Device and method for controlling robot, and program
JP2013144355A (en) * 2012-01-13 2013-07-25 Toyota Motor Engineering & Manufacturing North America Inc Method and computer-program product for generating grasp pattern for use by robot
KR101294250B1 (en) * 2012-02-17 2013-08-07 재단법인대구경북과학기술원 Method and apparatus for calculating of gripping force of gripper
KR101902678B1 (en) * 2014-07-16 2018-09-28 엑스 디벨롭먼트 엘엘씨 Real-time determination of object metrics for trajectory planning
JP2016061748A (en) * 2014-09-20 2016-04-25 株式会社イシダ Mass measuring device
WO2016043227A1 (en) * 2014-09-20 2016-03-24 株式会社イシダ Mass measurement device
JP2017533423A (en) * 2014-10-13 2017-11-09 コリア インスティテュート オブ インダストリアル テクノロジーKorea Institute Of Industrial Technology Excrement shape measuring apparatus and method
JP2016209952A (en) * 2015-05-08 2016-12-15 ファナック株式会社 Load parameter setting device and load parameter setting method
US10252418B2 (en) 2015-05-08 2019-04-09 Fanuc Corporation Load parameter setting method and load parameter setting device
JP2017030054A (en) * 2015-07-28 2017-02-09 ファナック株式会社 Electric discharge machine with function to automatically calculate workpiece weight
US10180344B2 (en) 2015-07-28 2019-01-15 Fanuc Corporation Electric discharge machine
KR101757855B1 (en) 2016-04-08 2017-07-14 주식회사 에이치에스씨 Robot with finger for weight measuring
JP2018027581A (en) * 2016-08-17 2018-02-22 株式会社安川電機 Picking system
CN107756422A (en) * 2016-08-17 2018-03-06 株式会社安川电机 picking up system
JP2018051652A (en) * 2016-09-27 2018-04-05 株式会社日立製作所 Robot system
US10751759B2 (en) 2017-06-07 2020-08-25 Kabushiki Kaisha Toshiba Sorting apparatus and sorting system
JP2018203480A (en) * 2017-06-07 2018-12-27 株式会社東芝 Sorting apparatus and sorting system
JP2019155542A (en) * 2018-03-14 2019-09-19 株式会社東芝 Conveyance device, conveyance system, controller, and conveyance method
US11584016B2 (en) 2018-04-24 2023-02-21 Fanuc Corporation Robot controller and system
JPWO2020008602A1 (en) * 2018-07-05 2021-06-24 株式会社Fuji Vertical articulated robot and work equipment
JP7108030B2 (en) 2018-07-05 2022-07-27 株式会社Fuji Vertical articulated robots and work equipment
JP2020040780A (en) * 2018-09-10 2020-03-19 株式会社東芝 Picking system, and apparatus and program for processing information
JP7237496B2 (en) 2018-09-10 2023-03-13 株式会社東芝 Picking system, information processing device and information processing program
EP3822202A4 (en) * 2018-09-10 2022-04-06 Kabushiki Kaisha Toshiba Picking system, information processing device, and computer-readable recording medium
US11331810B2 (en) 2019-03-20 2022-05-17 Fanuc Corporation Device, method and program for estimating weight and position of gravity center of load by using robot
JP7136729B2 (en) 2019-03-20 2022-09-13 ファナック株式会社 Apparatus, method, program, controller and robot system for estimating load weight and center-of-gravity position using a robot
CN111721391A (en) * 2019-03-20 2020-09-29 发那科株式会社 Device, method, and program for estimating weight and center of gravity position of load by robot
JP2020151812A (en) * 2019-03-20 2020-09-24 ファナック株式会社 Device, method and program for estimating weight and position of center of gravity of load using robot
CN111721391B (en) * 2019-03-20 2024-04-23 发那科株式会社 Apparatus, method and computer readable recording medium for estimating weight and center of gravity position of load by robot
WO2021141039A1 (en) * 2020-01-09 2021-07-15 ファナック株式会社 Workpiece conveyance system
JPWO2021141039A1 (en) * 2020-01-09 2021-07-15
CN114901439A (en) * 2020-01-09 2022-08-12 发那科株式会社 Workpiece conveying system
US12122616B2 (en) 2020-01-09 2024-10-22 Fanuc Corporation Workpiece transfer system
US11701775B2 (en) 2020-06-11 2023-07-18 Seiko Epson Corporation Method of setting target force upper limit and robot system
WO2022038889A1 (en) * 2020-08-17 2022-02-24 ソニーグループ株式会社 Information processing device and information processing method, and computer program
DE112021005493T5 (en) 2020-10-19 2023-08-31 Mitsubishi Electric Corporation ROBOT CONTROL DEVICE AND ROBOT CONTROL METHOD
DE112021005493B4 (en) 2020-10-19 2024-11-14 Mitsubishi Electric Corporation ROBOT CONTROL DEVICE AND ROBOT CONTROL METHOD
WO2023066201A1 (en) * 2021-10-18 2023-04-27 达闼机器人股份有限公司 Mechanical arm motion path planning method and apparatus, device, program, and medium
WO2023120728A1 (en) * 2021-12-24 2023-06-29 京セラ株式会社 Robot control device and robot control method
CN116766212A (en) * 2023-08-17 2023-09-19 深圳市心流科技有限公司 Bionic hand control method, bionic hand control device, bionic hand control equipment and storage medium
CN116766212B (en) * 2023-08-17 2023-12-19 深圳市心流科技有限公司 Bionic hand control method, bionic hand control device, bionic hand control equipment and storage medium
JP7514412B1 (en) 2023-08-30 2024-07-10 ヤマザキマザック株式会社 Machining system, machine tool system, and workpiece machining method

Similar Documents

Publication Publication Date Title
JP2008049459A (en) System, method and program for controlling manipulator
US10350768B2 (en) Control device, robot, and robot system
CN110977931B (en) Robot control device and display device using augmented reality and mixed reality
JP6880982B2 (en) Control device and robot system
US10551821B2 (en) Robot, robot control apparatus and robot system
US8954195B2 (en) Hybrid gesture control haptic system
CN105598987B (en) Determination of a gripping space for an object by means of a robot
US6157873A (en) Robot programming system and method
JP6450960B2 (en) Robot, robot system and teaching method
US9120233B2 (en) Non-contact optical distance and tactile sensing system and method
US20180029232A1 (en) Control apparatus and robot
US10166673B2 (en) Portable apparatus for controlling robot and method thereof
EP3354418B1 (en) Robot control method and device
JP2014512530A (en) Coordinate positioning device
US20180178388A1 (en) Control apparatus, robot and robot system
CN112512754B (en) Method for programming an industrial robot
US20180178389A1 (en) Control apparatus, robot and robot system
JP6798425B2 (en) Robot control method and robot system
JP6661925B2 (en) Control devices, robots and robot systems
JP6787294B2 (en) Robot systems, control methods, and robots
CN111721391B (en) Apparatus, method and computer readable recording medium for estimating weight and center of gravity position of load by robot
JP6570540B2 (en) Method for handling an object using a manipulator and an input tool
JP2017205819A (en) Robot, control device and robot system
US11085751B2 (en) Ergonomic mobile controller for coordinate measuring machine
US10948370B2 (en) Haptic pin field sensor and manipulator

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20091110