Nothing Special   »   [go: up one dir, main page]

JP3322278B2 - 3D object position and orientation detection method - Google Patents

3D object position and orientation detection method

Info

Publication number
JP3322278B2
JP3322278B2 JP09468493A JP9468493A JP3322278B2 JP 3322278 B2 JP3322278 B2 JP 3322278B2 JP 09468493 A JP09468493 A JP 09468493A JP 9468493 A JP9468493 A JP 9468493A JP 3322278 B2 JP3322278 B2 JP 3322278B2
Authority
JP
Japan
Prior art keywords
point
model
orientation
measurement
advance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP09468493A
Other languages
Japanese (ja)
Other versions
JPH06307821A (en
Inventor
克行 谷水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP09468493A priority Critical patent/JP3322278B2/en
Publication of JPH06307821A publication Critical patent/JPH06307821A/en
Application granted granted Critical
Publication of JP3322278B2 publication Critical patent/JP3322278B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、予めレンジセンサ等の
距離計測により対象物体の3次元形状データを獲得し、
それを基に対象物体が未知の姿勢に置かれた場合を想定
して計測した距離のデータを用いて当該対象物体の現在
置かれた未知なる位置と姿勢を検出する3次元物体位置
姿勢検出法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention obtains three-dimensional shape data of a target object by distance measurement using a range sensor or the like in advance.
A 3D object position and orientation detection method that detects the currently unknown position and orientation of the target object using the distance data measured on the assumption that the target object is placed in an unknown posture. It is about.

【0002】[0002]

【従来の技術】一般に物体の3次元データはスリット光
投影法(長島,坂内,中嶋著「3次元画像データの取得
・蓄積・表示」画像電子学会誌第20巻第4号1991
年pp.508−522)等によって次のように獲得さ
れる。図14(a)に示すよう投影部1から投影された
スリット光2が物体αに照射され、照射された光を受光
部3で撮影し、三角測量の原理でスリット光2の照射さ
れた部分α1の距離が算出される。ここで、回転テーブ
ル4を回転させながら距離データを得ることにより、物
体モデルα′の全3次元形状データが作成される。
2. Description of the Related Art Generally, three-dimensional data of an object is obtained by a slit light projection method (Nagashima, Sakauchi, Nakajima, "Acquisition, accumulation, and display of three-dimensional image data", Journal of the Institute of Image Electronics Engineers, Vol. 20, No. 4, 1991).
Year pp. 508-522) and so on. As shown in FIG. 14A, the slit light 2 projected from the projection unit 1 is irradiated on the object α, the irradiated light is photographed by the light receiving unit 3, and the portion irradiated with the slit light 2 by the principle of triangulation. The distance of α1 is calculated. Here, by obtaining the distance data while rotating the rotary table 4, all the three-dimensional shape data of the object model α 'is created.

【0003】図14(a)のような平面のみによって構
成される物体αの場合、得られた距離データに対して平
面を割付け、図14(b)に示すようS1〜S6の平面
で物体モデルα′を表現する。隣接する平面の関係を示
すと図14(d)のようになる。
In the case of an object α composed only of a plane as shown in FIG. 14A, a plane is allocated to the obtained distance data, and as shown in FIG. express α '. FIG. 14D shows the relationship between adjacent planes.

【0004】次に物体αが未知の姿勢の状態に置かれた
場合に、その物体モデルα″の位置と姿勢を検出する方
法として、前記物体モデルα′のデータ作成時と同様に
して物体モデルα″を表現すると、隣接する平面の関係
は図14(e)に示すようになる。
Next, when the object α is placed in an unknown posture, the position and posture of the object model α ″ can be detected by the same method as that used to create the data of the object model α ′. Expressing α ″, the relationship between adjacent planes is as shown in FIG.

【0005】平面が割付けられれば、その形状や面積に
着目することにより物体モデルα′上の平面と物体モデ
ルα″上の平面との対応関係が得られる。例えば図14
(b)と図14(c)において平面S1と平面P1が対
応し、平面S2と平面P5が対応することが分かったと
すると、図14(d)及び図14(e)から全ての平面
の対応が取れ、未知姿勢の物体モデルα″の距離データ
上に割付けられた平面3次元空間内の位置と向きが明か
となるので、物体αの位置と姿勢が算出される。
When the planes are allocated, the correspondence between the plane on the object model α 'and the plane on the object model α ″ can be obtained by paying attention to the shape and area. For example, FIG.
If it is found that the plane S1 and the plane P1 correspond to each other in FIG. 14B and FIG. 14C, and that the plane S2 and the plane P5 correspond to each other, it can be seen from FIG. 14D and FIG. Then, the position and orientation in the plane three-dimensional space allocated on the distance data of the object model α ″ having the unknown posture become clear, and the position and orientation of the object α are calculated.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、前記従
来の検出方法では、平面の組合わせによる物体αにのみ
しか適用できず、また、物体αの位置姿勢検出に先立
ち、得られた距離データに平面を割付け、未知の姿勢状
態の物体モデルα″の全形状を再構成し、物体モデル
α′の面と再構成された物体モデルα″の面との対応づ
けをしなければならないので、検出に多大な処理時間を
要する等の問題点がある。
However, the conventional detection method can only be applied to an object α by combining planes. Further, prior to the detection of the position and orientation of the object α, the obtained distance data is Must be reconstructed and the entire shape of the object model α ″ in an unknown posture state must be reconstructed, and the surface of the object model α ′ and the surface of the reconstructed object model α ″ must be correlated. There are problems such as a large processing time required.

【0007】更に、手法の制約として、使用できるレン
ジセンサがポイントセンサのみの組合わせやラインセン
サのみに限定される等、ある特定の種類にしか使用でき
ない検出方法であり、様々な形状の物体αの位置姿勢を
検出し得るものではない。ここにおいて、本発明は前記
従来の課題に鑑み、予め対象物体の3次元形状データを
レンジセンサにより計測し、対象物体が未知の姿勢状態
に置かれた場合を想定し、ポイントセンサ、ラインセン
サ、エリアセンサ等の任意の組合わせによる3次元距離
測定装置によって得られる3次元形状データを用いて、
対象物体の表面が平面に限らず任意の形状を有する物体
においても位置及び姿勢の検出が行える3次元物体位置
姿勢検出法を提供せんとするものである。
Further, as a limitation of the method, a detection method that can be used only for a specific type such as a range sensor that can be used is limited to a combination of only a point sensor or only a line sensor. Cannot be detected. Here, in view of the conventional problem, the present invention measures the three-dimensional shape data of the target object in advance by using a range sensor, and assumes that the target object is placed in an unknown posture state. Using three-dimensional shape data obtained by a three-dimensional distance measuring device by an arbitrary combination such as an area sensor,
It is an object of the present invention to provide a three-dimensional object position / posture detection method capable of detecting a position and a posture of an object having an arbitrary shape as well as an object whose surface is not limited to a plane.

【0008】[0008]

【課題を解決するための手段】前記課題の解決は、本発
明が次に列挙する新規な特徴的構成方式を採用すること
により達成される。即ち、本発明の第1の特徴は、物体
の形状である物体モデルに基づいて物体の位置及び姿勢
を検出する方法において、まず、対象物体の形状を予め
計測して前記物体モデルを作成するとともに、当該物体
モデルの各座標軸の符号を反転させることにより得られ
る反転モデルを生成しておき、次いで、未知の位置姿勢
に置かれた当該対象物体に対して、予め位置と計測方向
が決定されている二個以上の任意個数及び任意種別の距
離センサーにより当該対象物体の距離を観測し、引続
き、前記物体あるいは物体モデル上の着目点に対する前
記反転モデル上の点を前記距離センサー観測点に一致さ
せた時の当該反転モデルの表面を当該各距離センサー計
測点について得、全ての共通領域を求めることにより前
記物体モデル上の任意の一点としての着目点の位置及び
方向を定め、前記物体の位置及び姿勢を確定してなる3
次元物体位置姿勢検出法である。
The object of the present invention can be attained by adopting the following novel characteristic configuration of the present invention. That is, a first feature of the present invention is a method of detecting the position and orientation of an object based on an object model that is the shape of the object. First, the shape of the target object is measured in advance to create the object model. In this case, an inverted model obtained by inverting the sign of each coordinate axis of the object model is generated, and then, for the target object placed at an unknown position and orientation, the position and the measurement direction are determined in advance. The distance of the target object is observed by an arbitrary number of two or more and an arbitrary type of distance sensor, and subsequently, a point on the inverted model with respect to a point of interest on the object or the object model is matched with the distance sensor observation point. The surface of the inverted model at that time is obtained for each of the distance sensor measurement points, and all common areas are obtained, so that the surface as an arbitrary point on the object model is obtained. Define the position and direction of the point, so to confirm the position and orientation of the object 3
This is a two-dimensional object position and orientation detection method.

【0009】本発明の第2の特徴は、物体の形状である
物体モデルに基づいて物体の位置及び姿勢を検出する方
法において、まず、対象物体の形状を予め計測して前記
物体モデルを作成するとともに、当該物体モデルの各座
標軸の符号を反転させることにより得られる反転モデル
を生成しておき、次いで、未知の位置姿勢に置かれた当
該対象物体に対して、予め位置と計測方向が決定されて
いる二個以上の任意個数及び任意種別の距離センサーに
より当該対象物体の距離を観測し、引続き、前記物体あ
るいは物体モデル上の着目点に対する前記反転モデル上
の点を前記距離センサー観測点に一致させた時の当該反
転モデルの表面を前記各距離センサー計測点について
得、全ての共通領域を求めることにより前記物体モデル
上の任意の一点としての着目点の位置及び方向を定め、
さらに、前記物体の置かれる作業台あるいは当該物体を
固定するための治具部材の存在位置によって前記物体モ
デル上の任意の一点としての着目点の存在候補領域を限
定することにより、前記物体の位置及び姿勢を確定して
なる3次元物体位置姿勢検出法である。
A second feature of the present invention is a method for detecting the position and orientation of an object based on an object model that is the shape of the object. First, the shape of the target object is measured in advance to create the object model. In addition, an inverted model obtained by inverting the sign of each coordinate axis of the object model is generated in advance, and then, for the target object placed at an unknown position and orientation, the position and the measurement direction are determined in advance. The distance of the target object is observed by two or more arbitrary number and arbitrary types of distance sensors, and subsequently, the point on the inverted model with respect to the point of interest on the object or the object model matches the distance sensor observation point. The surface of the inverted model at this time is obtained for each of the distance sensor measurement points, and all common areas are obtained to obtain any one point on the object model. Define the position and orientation of the interest point,
Furthermore, by restricting the existence candidate area of the point of interest as an arbitrary point on the object model by the existence position of the work table on which the object is placed or the jig member for fixing the object, the position of the object And a three-dimensional object position / posture detection method in which the position and posture are determined.

【0010】本発明の第3の特徴は、物体の形状である
物体モデルに基づいて物体の位置及び姿勢を検出する方
法において、まず、対象物体の形状を予め計測して前記
物体モデルを作成するとともに、当該物体モデルの各座
標軸の符号を反転させることにより得られる反転モデル
を生成しておき、次いで、予め作業台に水平な面で前記
物体を切断した断面輪郭パターンを作業台からの距離に
応じて複数用意しておき、引続き、姿勢検出時は未知の
位置姿勢に置かれた当該対象物体に対して、予め位置と
計測方向が決定されている二個以上の任意個数及び任意
種別の距離センサーにより当該対象物体の距離を観測
し、さらに、1点目の計測点に対する前記断面輪郭パタ
ーン上の各点について、1点目の計測座標に対する座標
変換を施した上で、2点目以降の計測点に対する当該断
面輪郭パターンを参照し、参照したパターンの値が前記
断面輪郭を示す場合に位置姿勢の候補の一つとし、参照
したパターンの値が前記断面輪郭を示さない場合には、
当該点は候補から除外する操作を繰り返すことにより前
記各距離センサー計測点の座標に応じて重ね合わせた前
記断面輪郭パターン共通領域を求めることで前記物体モ
デル上の任意の一点としての着目点の位置及び方向を定
めることにより、前記物体の位置及び姿勢を確定してな
る3次元物体位置姿勢検出法である。
A third feature of the present invention is a method for detecting the position and orientation of an object based on an object model that is the shape of the object. First, the shape of the target object is measured in advance to create the object model. In addition, an inverted model obtained by inverting the sign of each coordinate axis of the object model is generated in advance, and then a cross-sectional contour pattern obtained by cutting the object in advance on a plane horizontal to the worktable is set at a distance from the worktable. In accordance with the above, a plurality of arbitrary numbers and arbitrary types of distances whose positions and measurement directions are determined in advance with respect to the target object placed at an unknown position and orientation at the time of posture detection are continuously determined. After observing the distance of the target object by the sensor, and further performing coordinate transformation on the first measurement coordinate for each point on the cross-sectional contour pattern with respect to the first measurement point, When the cross-sectional contour pattern for the measurement point after the point is referred to, and the value of the referenced pattern indicates the cross-sectional contour, it is regarded as one of position and orientation candidates, and the value of the referred pattern does not indicate the cross-sectional contour. In
The position of the point of interest as an arbitrary point on the object model is obtained by obtaining the cross-sectional contour pattern common area superimposed according to the coordinates of the distance sensor measurement points by repeating the operation of excluding the point from the candidates. The three-dimensional object position and orientation detection method is to determine the position and orientation of the object by determining the position and orientation of the object.

【0011】本発明の第4の特徴は、物体の形状である
物体モデルに基づいて物体の位置及び姿勢を検出する方
法において、まず、対象物体の形状を予め計測して前記
物体モデルを作成するとともに、当該物体モデルの各座
標軸の符号を反転させることにより得られる反転モデル
を生成しておき、次いで、予め作業台に水平な面で前記
物体を切断した断面輪郭パターンを作業台からの距離に
応じて複数用意しておき、引続き、姿勢検出時は未知の
位置姿勢に置かれた当該対象物体に対して、予め位置と
計測方向が決定されている二個以上の任意個数及び任意
種別の距離センサーにより当該対象物体の距離を観測
し、さらに、1点目の計測点に対する前記断面輪郭パタ
ーン上の各点について、1点目の計測座標に対する座標
変換を施した上で、2点目以降の計測点に対する当該断
面輪郭パターンを参照し、参照したパターンの値が前記
断面輪郭を示す場合に位置姿勢の候補の一つとし、参照
したパターンの値が前記断面輪郭を示さない場合には、
当該点は候補から除外する操作を繰り返すことにより前
記各距離センサー計測点の座標に応じて重ね合わせた前
記断面輪郭パターンの共通領域を求めることで前記物体
モデル上の任意の一点としての着目点の位置及び方向を
定め、その上、前記物体の置かれる作業台あるいは前記
物体を固定するための治具部材の存在位置によって前記
物体モデル上の任意の一点としての着目点の存在候補領
域を限定することにより、前記物体の位置及び姿勢を確
定してなる3次元物体位置姿勢検出法である。
A fourth feature of the present invention is a method for detecting the position and orientation of an object based on an object model that is the shape of the object. First, the shape of the target object is measured in advance to create the object model. In addition, an inverted model obtained by inverting the sign of each coordinate axis of the object model is generated in advance, and then a cross-sectional contour pattern obtained by cutting the object in advance on a plane horizontal to the worktable is set at a distance from the worktable. In accordance with the above, a plurality of arbitrary numbers and arbitrary types of distances whose positions and measurement directions are determined in advance with respect to the target object placed at an unknown position and orientation at the time of posture detection are continuously determined. After observing the distance of the target object by the sensor, and further performing coordinate transformation on the first measurement coordinate for each point on the cross-sectional contour pattern with respect to the first measurement point, When the cross-sectional contour pattern for the measurement point after the point is referred to, and the value of the referenced pattern indicates the cross-sectional contour, it is regarded as one of position and orientation candidates, and the value of the referred pattern does not indicate the cross-sectional contour. In
The point is determined as an arbitrary point on the object model by obtaining a common area of the cross-sectional contour pattern superimposed in accordance with the coordinates of each of the distance sensor measurement points by repeating the operation of excluding from the candidates. Determine the position and direction, and further limit the existence candidate area of the point of interest as an arbitrary point on the object model by the existence position of the work table on which the object is placed or the jig member for fixing the object. This is a three-dimensional object position and orientation detection method in which the position and orientation of the object are determined.

【0012】[0012]

【作用】本発明は、前記のような手法を講じたため、本
発明では、モデルに基づく物体の位置及び姿勢を検出す
るにあたり、先ず、対象のモデルを作成するために、回
転台に対象物体を置いて、台を回転させながら距離計測
を行って物体モデルを作成し、続いて、得られた物体モ
デルを用いて、物体の反転モデルおよび断面形状パター
ンを作成する。
According to the present invention, in order to detect the position and orientation of an object based on a model, the object is first placed on a turntable in order to create a target model. An object model is created by performing distance measurement while placing and rotating the table, and then using the obtained object model, an inverted model and a cross-sectional shape pattern of the object are created.

【0013】以上の処理を前処理として行った上で、モ
デルと同一形状の物体が未知の姿勢の状態におかれた場
合の姿勢検出処理を行なう。姿勢検出に用いるセンサー
の個数、種類は任意の組み合わせが可能である。物体の
形状、作業対象箇所に応じて、ポイントセンサー、ライ
ンセンサー等、複数各種センサーの配置を行なう。
After performing the above processing as preprocessing, a posture detection process is performed when an object having the same shape as the model is placed in an unknown posture. The number and type of sensors used for posture detection can be arbitrarily combined. A plurality of various sensors such as a point sensor and a line sensor are arranged according to the shape of the object and the work target location.

【0014】姿勢検出位置及び姿勢が未知の物体に対し
て、各センサーによる計測を行なう。物体自体の位置お
よび姿勢は、物体モデル上の任意の着目点の位置および
方向を定めることにより決定できるので、その着目点の
位置を求めればよい。姿勢検出処理は、任意個数および
任意種別のセンサーにより観測される位置データ、およ
び、物体の置かれる作業台等は物体表面のいずれかの部
分で物体と接触することにより、物体の存在し得る範囲
が限られた範囲内に拘束されるという原理に基づくもの
である。
Measurement is performed by each sensor for an object whose posture detection position and posture are unknown. Since the position and orientation of the object itself can be determined by determining the position and direction of an arbitrary point of interest on the object model, the position of the point of interest may be obtained. Posture detection processing is performed by detecting the position data observed by an arbitrary number and type of sensors, and the range in which the object can be present when the work table or the like on which the object is placed contacts the object at any part of the object surface. Is restricted within a limited range.

【0015】各センサー計測点に対する反転モデルの候
補領域の共通部分、あるいは、断面形状パターンの共通
領域を求める。この処理により、各センサーによる姿勢
候補を統合して、物体の位置・姿勢を得ることができ
る。存在候補の領域を順次狭めたり、回転の刻み幅を徐
々に変えることにより、検出精度を向上させることがで
きる。なお、この処理は、物体の大まかな位置決め処理
として用い、モデルと観測データとの距離の二乗誤差を
最小化する精モードの姿勢検出法としての後処理を設け
ることもできる。
A common part of the candidate area of the inversion model for each sensor measurement point or a common area of the sectional shape pattern is obtained. By this processing, the position / posture of the object can be obtained by integrating the posture candidates by the sensors. The detection accuracy can be improved by sequentially narrowing the region of the existence candidate or gradually changing the step size of rotation. This process may be used as a rough positioning process of the object, and may be provided with a post-process as a fine mode posture detection method for minimizing a square error of a distance between the model and the observation data.

【0016】以上の処理の流れにおいて、本発明の物体
位置姿勢検出方法では、物体の位置姿勢を求める操作
は、物体上の着目点の位置・姿勢を求めることであり、
この操作は、3次元物体の反転モデル上の着目点をセン
サー計測点に位置させた時に、各センサー計測点に対す
る反転モデルの共通領域を求める操作として効率的に、
かつ、物体の形状に依存することなく柔軟に行なうこと
ができる。
In the above process flow, in the object position / posture detection method of the present invention, the operation for obtaining the position / posture of the object is to obtain the position / posture of the point of interest on the object.
This operation is an efficient operation for obtaining a common area of the inverted model for each sensor measurement point when the point of interest on the inverted model of the three-dimensional object is positioned at the sensor measurement point.
In addition, it can be performed flexibly without depending on the shape of the object.

【0017】更に詳しくは、物体モデル上の任意の1点
としての着目点の位置および方向を定めることにより、
物体自体の位置および姿勢が決定できること、さらに、
任意個数および任意種別のセンサーにより観測される位
置データ、および、物体の置かれる作業台、等は物体表
面のいずれかの部分で物体と接触することによって物体
の存在し得る範囲が限られた範囲内に拘束されるという
原理に基づいて、モデルに基づく物体の位置および姿勢
を検出する方法である。
More specifically, by determining the position and direction of a point of interest as an arbitrary point on the object model,
That the position and orientation of the object itself can be determined,
Position data observed by an arbitrary number and type of sensors, and the work table on which the object is placed, etc., are areas where the area where the object can exist by contact with the object at any part of the object surface is limited This is a method for detecting the position and orientation of an object based on a model based on the principle of being confined within.

【0018】即ち、物体モデルの各座標軸の符号を反転
させることにより得られる反転モデルを生成し、物体上
の着目点に対する反転モデル上の点をセンサー観測点に
一致させた時の反転モデルの表面を、各センサー計測点
について得、全ての共通領域を求めることにより、物体
の位置および姿勢を確定する。
That is, an inverted model obtained by inverting the sign of each coordinate axis of the object model is generated, and the surface of the inverted model when a point on the inverted model with respect to a point of interest on the object coincides with the sensor observation point. Is obtained for each sensor measurement point, and the position and orientation of the object are determined by obtaining all common regions.

【0019】並びに、3次元物体の姿勢検出において、
反転モデル上の着目点をセンサー計測点に一致させた時
に、各センサー計測点に対する反転モデルの共通領域を
求めるにあたり、予め作業台に水平な面で物体を切断し
た断面輪郭パターンを、作業台からの距離に応じて複数
用意しておき、姿勢検出時は、各センサー計測点の座標
に応じて重ね合わせた断面輪郭パターンの共通領域を求
めるために、1点目の計測点に対する断面輪郭パターン
上の各点について、1点目の計測座標に対する座標変換
を施した上で、2点目移行の断面輪郭パターンを参照
し、参照したパターンの値が断面輪郭を示す場合に位置
姿勢の候補とし、参照したパターンの値が断面輪郭を
示さない場合には、当該点は候補点から除外する操作を
繰り返すことで、候補領域を限定することにより、物体
の位置姿勢を確定するという、極めてに簡素な構成によ
る。
Further, in detecting the posture of the three-dimensional object,
When the point of interest on the inverted model is matched with the sensor measurement point, in order to find the common area of the inverted model for each sensor measurement point, a cross-sectional contour pattern obtained by cutting the object in advance on the worktable on a horizontal plane Are prepared according to the distance of the sensor, and at the time of posture detection, in order to obtain a common area of the cross-sectional contour pattern superimposed according to the coordinates of each sensor measurement point, the cross-sectional contour pattern for the first measurement point is determined. After performing coordinate transformation on the measurement coordinates of the first point for each point of, the cross-sectional contour pattern of the second point transition is referred to, and when the value of the referred pattern indicates the cross-sectional contour, it is determined as a position and orientation candidate point. If the value of the referenced pattern does not indicate a cross-sectional contour, the operation of excluding the point from the candidate points is repeated to limit the candidate area, thereby determining the position and orientation of the object. That, due to extremely simpler configuration.

【0020】従って、物体形状の違い、センサーの種別
および個数に依存せず、複数のセンサーの計測結果を統
合することにより、物体の位置姿勢検出処理が高速に行
なえ、センサーの個数や観測条件の不足により、位置や
姿勢を限定できない場合でも、物体の位置および姿勢の
候補を領域として示すことができる。
Therefore, by integrating the measurement results of a plurality of sensors without depending on the difference in the shape of the object, the type and the number of the sensors, the position and orientation detection processing of the object can be performed at high speed, and the number of sensors and the observation conditions can be controlled. Even when the position and orientation cannot be limited due to lack, candidates for the position and orientation of the object can be shown as an area.

【0021】[0021]

【実施例】本発明の実施例を図面につき詳説する。ここ
で、本実施例の説明に先立って、その基本原理について
図面を参照しながら説明する。図1(a)(b)(c)
はそれぞれ物体モデル図と複数のセンサーによる物体の
距離計測図と1つのポイントセンサーの計側点に対して
存在し得る着目点の軌跡図、図2(a)(b)はそれぞ
れ反転モデル図と反転モデルを用いた着目点の存在領域
の検出手順を示す図である。図中、βは平面物体、β′
は平面物体モデル、β″は反転平面モデル、5a〜5c
はポイントセンサーである。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. Here, prior to the description of the present embodiment, the basic principle will be described with reference to the drawings. FIG. 1 (a) (b) (c)
Are the object model diagram, the distance measurement diagram of the object by a plurality of sensors, and the trajectory diagram of the point of interest that may exist with respect to the measuring point of one point sensor. FIGS. 2A and 2B are the inverted model diagram, respectively. FIG. 9 is a diagram illustrating a procedure for detecting a region of interest of interest using an inversion model. In the figure, β is a plane object, β '
Is a plane object model, β ″ is an inverted plane model, 5a to 5c
Is a point sensor.

【0022】図1(a)に示すように、円弧β1と3本
の直線β2〜β4によって構成される対象平面物体βを
ポイントセンサー5a〜5cで計測しそれを基に平面物
体モデルβ′を作成する。この平面物体モデルβ′の位
置と姿勢は、2次元平面上での座標と回転の3つの値に
よって表現できる。これは、平面物体モデルβ′上の任
意の1点のx,y座標と回転の3つの値であり、例えば
図1(a)に示す点Aを選んでもよい。
As shown in FIG. 1 (a), an object plane object β constituted by an arc β1 and three straight lines β2 to β4 is measured by point sensors 5a to 5c, and a plane object model β 'is created based on the measured points. create. The position and orientation of the plane object model β ′ can be represented by three values of coordinates and rotation on a two-dimensional plane. These are three values of x, y coordinates and rotation of an arbitrary point on the planar object model β ′, and for example, a point A shown in FIG. 1A may be selected.

【0023】図1(a)に示すように、3個のポイント
センサー5a〜5cにより距離データが得られたとする
(ポイントセンサーは平面物体βに当る1点のみの座標
値を計測する)。平面物体モデルβ′はポイントセンサ
ー5a〜5cにより計測された計測点K1〜K3に必ず
接する。平面物体モデルβ′の回転を図1(a)に示す
向きに固定して考えると、ポイントセンサー5aによっ
て計測され得る平面物体モデルβ′は、図1(c)に示
すように様々な位置を取り得る。
As shown in FIG. 1A, it is assumed that distance data is obtained by three point sensors 5a to 5c (the point sensor measures the coordinate value of only one point corresponding to the plane object β). The plane object model β 'always contacts measurement points K1 to K3 measured by the point sensors 5a to 5c. Assuming that the rotation of the plane object model β ′ is fixed in the direction shown in FIG. 1A, the plane object model β ′ that can be measured by the point sensor 5a has various positions as shown in FIG. I can take it.

【0024】このとき、固定回転された平面物体モデル
β′上の点Aの軌跡として図1(c)における領域Lが
作成される。同様にして、ポイントセンサー5b,5c
についても図示しない点Aの軌跡が作成される。これら
軌跡が点Aの存在範囲の候補領域Lであり、ポイントセ
ンサー5a〜5cまでに関する点Aの軌跡の交点を求め
ることで実際の点Aの位置が確定できる。
At this time, an area L in FIG. 1C is created as a trajectory of the point A on the fixedly rotated plane object model β '. Similarly, the point sensors 5b, 5c
Also, a locus of point A (not shown) is created. These trajectories are the candidate areas L of the existence range of the point A, and the actual position of the point A can be determined by obtaining the intersection of the trajectories of the point A with respect to the point sensors 5a to 5c.

【0025】ポイントセンサー5aに対する平面物体モ
デルβ′上の点Aの候補領域Lを求めるには、ポイント
センサー5aの計測点K1に平面物体モデルβ′を接す
るようにしたのであるから、その平面物体モデルβ′上
の任意の点は、平面物体モデルβ′の表面形状に対し
て、x,y平面上で考えればx方向に−x,y方向に−
yの反転を行なった形状を描く。
In order to obtain the candidate area L of the point A on the plane object model β 'for the point sensor 5a, the plane object model β' is brought into contact with the measurement point K1 of the point sensor 5a. An arbitrary point on the model β ′ is -in the x direction and -x and y direction in the x and y planes with respect to the surface shape of the planar object model β '.
Draw a shape with y inverted.

【0026】例えば2次元対象平面物体βの平面物体モ
デルβ′の表面の形状をy=f(x)(但しこれは原点
を通りf(0)=0)、各ポイントセンサー5a〜5c
により計測された点をP(xp ,yp )とし、平面物体
モデルβ′の表面を点Pに接した場合、平面物体モデル
β′上の原点(0,0)が描く点は(xp −x,yp−
y)となり、これは平面物体モデルβ′を原点を中心に
点対称に反転させ、さらに(xp ,yp )だけ平行移動
させて得られる形状となる。
For example, the shape of the surface of the plane object model β 'of the two-dimensional object plane object β is represented by y = f (x) (however, it passes through the origin and f (0) = 0), and each of the point sensors 5a to 5c
Let P (xp, yp) be the point measured by, and the point of origin (0, 0) on plane object model β ′ is (xp−x) when the surface of plane object model β ′ is in contact with point P. , Yp-
y), which is a shape obtained by inverting the plane object model β 'point-symmetrically around the origin and further translating it by (xp, yp).

【0027】更に一般的に示すと、x,y平面上で、平
面物体モデルβ′がf(x,y)=0で表されるものと
すると、姿勢検出のために着目する点(x A
A とする。なお、点は平面物体モデルβ′上の点
である。ここで未知の位置に置かれた対象平面物体βを
観測した時の各ポイントセンサー5a〜5cの計測点を
P(x p ,y p とする。平面物体モデルβ′の全外形
(外形上の任意の点をX0 とする)を計測点に接した
ときの点の軌跡は次式の通り、(x T ,y T として
示される。
More generally, assuming that a plane object model β ′ is expressed by f (x, y) = 0 on the x, y plane, a point A of interest for posture detection is represented by ( x A ,
y A ) . The point A is a point on the plane object model β ′. Here, the measurement points of the respective point sensors 5a to 5c when observing the target plane object β placed at an unknown position are
Let P (x p , y p ) . Locus of points A when in contact with all the outer shape of the planar object model beta '(any point of the X0 on contour) to the measurement point P is as follows, indicated as (x T, y T).

【0028】[0028]

【数1】 点X0 はf(x0 ,y0 )を満たすので、次式を得る。(Equation 1) Since the point X0 satisfies f (x0, y0), the following equation is obtained.

【数2】 上式は、反転平面モデルβ″上の点A′を計測点まで
平行移動させた時の反転平面モデルβ″の外形を示して
いる。
(Equation 2) The above equation shows the outer shape of the inverted plane model β ″ when the point A ′ on the inverted plane model β ″ is translated to the measurement point P.

【0029】但し、センシング方向の制約により、1つ
のポイントセンサー5aによって計測され得る対象平面
物体βの表面範囲は、対象平面物体β表面の法線ベクト
ルと、ポイントセンサー5a〜5cの方向ベクトルとの
内積が負である範囲である(ポイントセンサー5aの方
向ベクトルは、センサー本体を始点として計測方向を向
くものである)。
However, due to the restriction on the sensing direction, the surface range of the target plane object β that can be measured by one point sensor 5a is determined by the normal vector of the target plane object β surface and the direction vector of the point sensors 5a to 5c. The inner product is in a negative range (the direction vector of the point sensor 5a points in the measurement direction with the sensor body as a starting point).

【0030】ここで、図1(a)における平面物体モデ
ルβ′をx,y方向に反転させ、得られるモデルを図2
(a)に示すように反転平面モデルβ″とすると、図1
(a)における平面物体モデルβ′上の点Aに対する図
2(a)における反転平面モデルβ″上の点は点A′と
なる。以上により、1つのポイントセンサー5a対する
平面物体モデルβ′上の点Aの軌跡を求めるには、ポイ
ントセンサー5aの計測点K1に反転平面モデルβ″の
点A′を一致させ、平面物体モデルβ′の表面の法線方
向ベクトルと、ポイントセンサー5aの方向ベクトルと
の関係に応じて計測され得る表面の部分を描くことによ
り、図1(c)に示す点Aの存在範囲の候補領域として
領域Lが得られる。
Here, the plane object model β 'in FIG. 1A is inverted in the x and y directions, and the obtained model is shown in FIG.
As shown in FIG. 1A, assuming an inverted plane model β ″, FIG.
The point on the inverted plane model β ″ in FIG. 2A with respect to the point A on the plane object model β ′ in (a) is the point A ′. Thus, on the plane object model β ′ for one point sensor 5a. In order to obtain the trajectory of point A, the point A 'of the inverted plane model β "is made coincident with the measurement point K1 of the point sensor 5a, and the normal direction vector of the surface of the plane object model β' and the direction of the point sensor 5a By drawing a portion of the surface that can be measured according to the relationship with the vector, an area L is obtained as a candidate area for the existence range of the point A shown in FIG.

【0031】これを図2(b)に示すよう全てのポイン
トセンサー5a〜5cについて行うことにより、ポイン
トセンサー5a〜5cに対応する点A′の軌跡である領
域L1〜L3が得られ、平面物体モデルβ′上の点Aの
存在範囲の候補となる。実際の点Aの位置はこれらの存
在範囲の候補が一致する点、即ち領域L1,L2,L3
が交わる領域であり図2(b)に示す点C1として平面
物体モデルβ′の点Aの位置が得られる。
By performing this for all the point sensors 5a to 5c as shown in FIG. 2B, areas L1 to L3, which are the trajectories of the points A 'corresponding to the point sensors 5a to 5c, are obtained. It is a candidate for the existence range of the point A on the model β ′. The actual position of the point A is a point where these candidates for the existence range match, that is, the regions L1, L2, L3.
And the position of the point A of the planar object model β 'is obtained as the point C1 shown in FIG.

【0032】次に、平面対象物体βの回転方向の拘束を
外す場合は、反転平面モデルβ″を微小量ずつ回転させ
るごとに、前記の点Aの存在範囲を求める処理を行うこ
とにより、平面物体モデルβ′の姿勢を求めることがで
きる。なお、処理速度を向上させるため、反転平面モデ
ルβ″を回転させる時の回転角度の刻み幅θに応じて次
のような処理を行う。即ち、図2(b)における、1つ
のポイントセンサー5aによって得られる点Aの軌跡で
ある領域L1を図3に示すようポイントセンサー5aの
計測点K1の回りにθだけ回転させて得られる斜線部の
領域が、ポイントセンサー5aに対する候補領域であ
り、他のポイントセンサー5b,5cに対しても同様
に、L2,L3の領域を各々K2,K3の回りにθだけ
回転させて得られる領域が、ポイントセンサー5b,5
cの候補領域となる。このようにして3つのセンサー5
a,5b,5cに対する候補領域に共通範囲が存在すれ
ば、その範囲内で回転の刻み幅θを小さくし、再び共通
存在範囲を求めることにより、平面物体モデルβ′の
位置及び姿勢の検出精度を向上することができる。
Next, in order to remove the constraint in the rotation direction of the plane target object β, every time the inverted plane model β ″ is rotated by a small amount, the above-described processing for obtaining the existence range of the point A is performed. The orientation of the object model β ′ can be determined, and the following processing is performed in accordance with the rotation angle increment θ when rotating the inverted plane model β ″ in order to improve the processing speed. That is, in FIG. 2B, a hatched portion obtained by rotating the area L1 which is the locus of the point A obtained by one point sensor 5a around the measurement point K1 of the point sensor 5a by θ as shown in FIG. of
The area is a candidate area for the point sensor 5a.
The same applies to the other point sensors 5b and 5c.
In addition, the areas of L2 and L3 are respectively rotated around K2 and K3 by θ.
Areas obtained by rotation are point sensors 5b, 5
c is a candidate area. Thus, three sensors 5
If there is a common range in the candidate area for a, 5b, 5c
For example, the accuracy of detecting the position and orientation of the planar object model β ′ can be improved by reducing the rotation step width θ within that range and obtaining the common existence range again.

【0033】しかして、図4(a)に示すよう異種のセ
ンサーを用いて平面物体の未知なる位置及び姿勢を確定
するには、1つのポイントセンサー5aと1つのライン
センサー6a(投影光の平面と平面物体表面との交線上
の点列の座標値を計測する)を用いて、直角三角形DE
Fを平面対象物体γとし、その位置及び姿勢を検出する
場合、始めに図4(a)に示すようにポイントセンサー
5dとラインセンサー6aにより対象平面物体γの距離
計測を行い、計測点K4を端点とした点列t1と、計測
点K5で対象平面物体γと接触するという結果に基づき
平面物体モデルγ′を作成する。ここでは、対象平面物
体γは回転しないものとする。
In order to determine the unknown position and orientation of a plane object using different types of sensors as shown in FIG. 4A, one point sensor 5a and one line sensor 6a (the plane of the projection light) are used. Measure the coordinate values of a series of points on the line of intersection between the object and the planar object surface)
When F is a plane target object γ and its position and orientation are detected, first, as shown in FIG. 4A, distance measurement of the target plane object γ is performed by the point sensor 5d and the line sensor 6a, and the measurement point K4 is determined. The plane object model γ ′ is created based on the result of the point sequence t1 as an end point and the contact with the target plane object γ at the measurement point K5. Here, it is assumed that the target plane object γ does not rotate.

【0034】図4(b)に示すように、平面物体モデル
γ′の点Fに対する反転平面モデルγ″上の点F′を計
測点K4,K5に合わせ、前記で述べたように点Fの存
在範囲の候補領域L4,L5を求めると、ラインセンサ
ー6aによる候補領域L4とする軌跡と、ポイントセン
サー5dによる候補領域L5とする軌跡が得られ、共通
領域L4,L5とする軌跡相互の交点である点C2が対
象平面物体γの点Fの位置となる。但し、ラインセンサ
ー6aに対する点Fの候補領域L4とする軌跡は、実際
の計測領域が点列t1で示す幅を有しているので、反転
平面モデルγ″上の点D′より点列t1の長さ分、E′
方向に変位した点から点E′までの範囲となる。
As shown in FIG. 4B, the point F 'on the inverted plane model γ "with respect to the point F of the plane object model γ' is adjusted to the measurement points K4 and K5, and the point F When the candidate regions L4 and L5 in the existence range are obtained, a trajectory as the candidate region L4 by the line sensor 6a and a trajectory as the candidate region L5 by the point sensor 5d are obtained, and at the intersection of the trajectories as the common regions L4 and L5. A certain point C2 is the position of the point F of the target plane object γ. However, since the locus of the point F with respect to the line sensor 6a as the candidate area L4 has the width indicated by the point sequence t1 in the actual measurement area. E 'from the point D' on the inverted plane model γ "by the length of the point sequence t1.
The range is from the point displaced in the direction to the point E '.

【0035】次に、対象平面物体γが回転し得るものと
し、例えば直角三角形DEFの辺DEが水平となる場
合、平面物体モデルγ′の点Dの位置を確定するものと
して、図4(c)に示すように反転平面モデルγ″の点
D′を計測点K6,K7に一致させ、前記同様にして点
Dの候補領域L6,L7とする軌跡を得、軌跡相互の交
点である点C3が対象平面物体γの点Dの位置として得
られる。これにより得られた平面物体モデルγ′の状態
は図4(c)の破線によって示される。
Next, it is assumed that the target plane object γ can rotate.
And, when, for example, the sides DE of a right triangle DEF becomes horizontal, 'as to determine the position of the point D, point D of the inversion plane model gamma "as shown in FIG. 4 (c)' planar object model gamma to The trajectories corresponding to the measurement points K6 and K7 are obtained as the candidate areas L6 and L7 of the point D in the same manner as described above, and the point C3 which is the intersection of the trajectories is obtained as the position of the point D of the target plane object γ. The state of the planar object model γ ′ obtained by is shown by the broken line in FIG.

【0036】図4(a)(b)で示した2種類のセンサ
ー5d,6aによる計測の結果、角度条件を変えること
により複数の姿勢候補が得られたが、計測点不足により
限定されない複数の物体モデルγ′の姿勢候補を得るこ
とが可能であるということが言える。
As a result of measurement by the two types of sensors 5d and 6a shown in FIGS. 4A and 4B, a plurality of posture candidates were obtained by changing the angle condition. It can be said that it is possible to obtain a posture candidate of the object model γ ′.

【0037】さらに、平面物体γが作業台等の拘束面7
上に置かれた場合につき図面を参照しながら説明する。
図5(a)に示すよう対象平面物体γが拘束面7上に置
かれている。但し、対象平面物体γの辺EFは拘束面7
に接するように置かれているものとする。ポイントセン
サー5e,5fの計測の結果、計測点K8,K9で対象
平面物体γと接することが分かったとする。これにより
平面物体モデルγ′を作成し、前記で述べたように反転
平面モデルγ″により点Fの存在範囲の候補領域を求め
る。
Further, the plane object γ is moved to the constraint surface 7 such as a worktable.
The case placed above will be described with reference to the drawings.
The target plane object γ is placed on the constraint surface 7 as shown in FIG. However, the side EF of the target plane object γ is the constraint surface 7
Shall be placed in contact with It is assumed that as a result of the measurement by the point sensors 5e and 5f, it is found that the point sensors 5e and 5f come into contact with the target plane object γ at the measurement points K8 and K9. Thus, a plane object model γ ′ is created, and as described above, a candidate area of the existing range of the point F is obtained by the inverted plane model γ ″.

【0038】この場合対象平面物体γは拘束面7を横切
ることはあり得ないので、図5(b)に示すよう計測点
K8に対する点Fの候補領域として領域L8を得、計測
点K9に対する点Fの候補領域として領域L9を得る。
平面物体モデルγ′上の点Fの位置は、前記両候補領域
である領域L8と領域L9との共通領域である交点C4
として求められる。
In this case, since the target plane object γ cannot cross the constrained surface 7, an area L8 is obtained as a candidate area of the point F with respect to the measurement point K8 as shown in FIG. An area L9 is obtained as an F candidate area.
The position of the point F on the planar object model γ ′ is determined by the intersection C4, which is a common area between the two candidate areas L8 and L9.
Is required.

【0039】対象平面物体γの辺EFが拘束面7に接し
ていることが分かっているとすれば、点Fは、拘束面7
上にあることになるので、一方向のみの計測点K8又は
計測点9に対する領域L8又は領域L9と拘束面7との
交点を、点C4の位置とすることができる。次に図5
(a)における対象物体γが図5(c)に示すよう18
0度回転した状態にあるとする。但しポイントセンサー
5e,5fによる計測点は同じ点K8,K9とする。
If it is known that the side EF of the target plane object γ is in contact with the constraint surface 7, the point F is
Therefore, the intersection of the region L8 or the region L9 with the measurement point K8 or the measurement point 9 in only one direction and the constraint surface 7 can be set as the position of the point C4. Next, FIG.
As shown in FIG. 5C, the target object γ in FIG.
It is assumed that it is in a state of being rotated by 0 degrees. However, the measurement points by the point sensors 5e and 5f are the same points K8 and K9.

【0040】図5(d)に示すように反転平面モデル
γ″より計測点K8に対する点Fの候補領域として領域
L10と領域L11を得、計測点K9に対する点Fの候
補領域として領域L12を得る。領域L11と領域L1
2は点C5において交わるが、平面物体モデルγ′は拘
束面7から距離d1以上(d1は対象平面物体γの辺D
Fの長さ)離れていなければならないので、点C5は平
面物体モデルγ′の点Fの位置とはならない。
As shown in FIG. 5D, the areas L10 and L11 are obtained as candidate areas of the point F for the measurement point K8 from the inverted plane model γ ″, and the area L12 is obtained as a candidate area of the point F for the measurement point K9. Region L11 and region L1
2 intersect at a point C5, but the plane object model γ ′ is at a distance d1 or more from the constraint surface 7 (d1 is the side D of the target plane object γ).
(Length of F), the point C5 does not become the position of the point F of the plane object model γ ′.

【0041】図6(a)は図5(a)における対象平面
物体γの辺DEが拘束面7にある間隔で平行になるよう
にした状態にあるとした時の平面物体モデルγ′上の点
Dの候補領域を求めるものであり、前記と同様にして図
6(b)に示すように計測点K8,K9に対する平面物
体モデルγ′の点Dの候補領域である領域L13,L1
4の共通領域として点C6が得られる。図6(b)に示
す破線は求められた平面物体モデルγ′の姿勢を示すも
のである。
FIG. 6 (a) shows the plane object model γ 'when the side DE of the target plane object γ in FIG. 5 (a) is in a state of being parallel to the constraint surface 7 at a certain interval. The candidate areas of the point D are obtained, and the areas L13 and L1 which are the candidate areas of the point D of the plane object model γ 'with respect to the measurement points K8 and K9 in the same manner as described above, as shown in FIG.
The point C6 is obtained as a common area of the four. The dashed line shown in FIG. 6B indicates the obtained attitude of the planar object model γ ′.

【0042】[0042]

【外1】 [Outside 1]

【0043】以上の2次元対象平面物体γの未知なる位
置および姿勢の確定手順を踏まえて以下の本発明の3次
元物体位置姿勢検出法に応用した実施例につき説明す
る。
An embodiment applied to the following three-dimensional object position / posture detection method of the present invention based on the procedure for determining the unknown position and posture of the two-dimensional object plane object γ will be described.

【0044】(実施例1) 本発明の第1実施例を図面につき説明する。図7(a)
(b)はそれぞれ本実施例において3次元物体に対しラ
インセンサーとポイントセンサーによる計測斜視図と反
転モデルを用いて着目点の位置を求める手順の説明図で
ある。
Embodiment 1 A first embodiment of the present invention will be described with reference to the drawings. FIG. 7 (a)
(B) is an explanatory view of a measurement perspective view of a three-dimensional object with a line sensor and a point sensor and a procedure of obtaining the position of a point of interest using an inverted model in the present embodiment.

【0045】図中、δは物体、δ′は物体モデル、5g
はポイントセンサー、6bはラインセンサー、8は作業
台である。本実施例は図7(a)に示すような5面体D
EFGHIである3次元の対象物体δの位置姿勢検出を
ポイントセンサー5gとラインセンサー6bを用いて行
う場合を説明する。
In the figure, δ is an object, δ 'is an object model, 5g
Is a point sensor, 6b is a line sensor, and 8 is a workbench. In this embodiment, a pentahedron D as shown in FIG.
A case will be described in which the position and orientation of the three-dimensional target object δ that is EFGHI is detected using the point sensor 5g and the line sensor 6b.

【0046】対象物体δが3次元である場合も前記2次
元の対象平面物体γのときと同様にして行える。図7
(a)に示すように対象物体δが作業台8上に置かれて
いるものとする。これに対してポイントセンサー5gに
よる計測点K17及び、ラインセンサー6bによる計測
点K18を端点とした点列t2が得られたとする。これ
を基に物体モデルδ′を作成する。
When the target object δ is three-dimensional, the same operation can be performed as in the case of the two-dimensional target plane object γ. FIG.
Assume that the target object δ is placed on the worktable 8 as shown in FIG. On the other hand, it is assumed that a point sequence t2 having the measurement point K17 by the point sensor 5g and the measurement point K18 by the line sensor 6b as end points is obtained. Based on this, an object model δ ′ is created.

【0047】物体モデルδ′上の点Dに対する反転モデ
ルδ″上の点D′を図7(b)に示すように、計測点K
17と計測点K18に合わせると、計測点K17に対す
る物体モデルδ′上の点Dの存在範囲の候補領域は、面
DHGに対する反転モデルδ″上の面D′H′G′であ
り、計測点K18に対する物体モデルδ′上の点Dの存
在範囲の候補領域は、面FGHIに対する反転モデル
δ″上の面F′G′H′I′となり、2つの面の交線が
物体モデルδ′上の点Dの候補領域となる。
As shown in FIG. 7B, the point D 'on the inverted model δ "with respect to the point D on the object model δ' is
17 and the measurement point K18, the candidate area of the existence range of the point D on the object model δ 'with respect to the measurement point K17 is the plane D'H'G' on the inversion model δ "with respect to the plane DHG. The candidate area of the existence range of the point D on the object model δ ′ with respect to K18 becomes the plane F′G′H′I ′ on the inverted model δ ″ with respect to the plane FGHI, and the intersection of the two planes is on the object model δ ′. Is a candidate area for the point D.

【0048】しかしながら、対象物体δは作業台8上に
置かれているので、点Dは作業台8上に存在することに
なり、図7(b)に示すように計測点K17に対する候
補領域は領域L19,計測点K18を端点としたセンサ
域t2に対する候補領域は領域L18となり、2つの領
域L18,L19の交点C8が求める物体モデルδ′上
点Dの存在位置となる
However, since the target object δ is placed on the worktable 8, the point D exists on the worktable 8, and as shown in FIG. 7B, the candidate area for the measurement point K17 is The candidate area for the sensor area t2 having the area L19 and the measurement point K18 as end points is the area L18, and the intersection C8 of the two areas L18 and L19 is the position where the upper point D of the object model δ 'is obtained .

【0049】(実施例2)本発明の第2実施例を図面に
ついて説明する。図8(a)(b)(c)はそれぞれ本
実施例において3次元物体が作業台上に置かれた時の2
つのラインセンサーによる計測斜視図と反転モデルを用
いた着目点の位置を求める図と同図(b)を真上から見
た平面図である。図中、δは物体、δ′は物体モデル、
6c,6dはラインセンサー、8は作業台である。
(Embodiment 2) A second embodiment of the present invention will be described with reference to the drawings. FIGS. 8A, 8B, and 8C show two-dimensional objects when the three-dimensional object is placed on the work table in the present embodiment.
3A and 3B are a perspective view of measurement by two line sensors, a view of obtaining a position of a point of interest using an inverted model, and a plan view of FIG. In the figure, δ is an object, δ 'is an object model,
6c and 6d are line sensors, and 8 is a work table.

【0050】本実施例では、2つのラインセンサー6
c,6dを用いて前記3次元の対象物体δを位置姿勢検
出を行う。前記同様、図8(a)に示すように対象物体
δが作業台8上に置かれているものとし、これに対して
2つのラインセンサー6c,6dによる点列t3,t4
が得られたとする。これを基に物体モデルδ′を作成す
る。
In this embodiment, two line sensors 6
The position and orientation of the three-dimensional target object δ are detected using c and 6d. Similarly to the above, the target object δ is assumed to be placed on the worktable 8 as shown in FIG. 8 (a), and the point arrays t3 and t4 by the two line sensors 6c and 6d.
Is obtained. Based on this, an object model δ ′ is created.

【0051】ラインセンサーの計測結果による物体モデ
ル上の着目点の存在領域を得る場合は、次のようにして
もよい。姿勢未知の状態として、図8(a)に示すよう
に、5面体が置かれており、2つのラインセンサー6c
及び6dによって計測された結果、点列t3 及び点列
t4が得られたとする。点列t3の両端点をK19及び
K20とし、各々、作業台8からの高さをh1及びh2
とする。また、点列t4の一方の端点をK21、中間の
一点をK22、終点をK23とし、各々、作業台8から
の高さをh3,h4及びh5とする。ここでは、反転モ
デルδ″を用いて、物体δ上の点Eの位置を求めるもの
とする。
When the region where the point of interest on the object model is present is obtained from the measurement result of the line sensor, the following procedure may be used. As shown in FIG. 8A, a pentahedron is placed in an unknown posture, and two line sensors 6c are used.
It is assumed that the point series t3 and the point series t4 are obtained as a result of the measurement by the steps 6 and 6d. The two end points of the point sequence t3 are K19 and K20, and the height from the worktable 8 is h1 and h2, respectively.
And Also, one end point of the point sequence t4 is K21, one intermediate point is K22, and the end point is K23, and the height from the worktable 8 is h3, h4, and h5, respectively. Here, it is assumed that the position of the point E on the object δ is obtained using the inverted model δ ″.

【0052】点列t3及びt4は文字通り点の集合であ
るので、点列上の各点について、前述のポイントセンサ
ーの計測点に対する存在候補領域獲得の処理と同様の処
理を施すことにより、点列に対する着目点の存在候補領
域を得ることができる。例えば、点列t4上の計測点K
21に反転モデルδ″の点E′を合わせた反転モデル
δ″をδ2″、計測点K22に対するものをδ3″など
のように、反転モデルδ″上の点E′を点列t4に沿っ
てスライドさせる。物体モデルδ′上の面DEIHに対
応する反転モデルδ″上の面も、これに伴ってスライド
するが、スライドした全ての反転モデルδ″上の面の共
通範囲が、求める点Eの存在範囲候補領域となる。
Since the point sequences t3 and t4 are literally a set of points, each point on the point sequence is processed in the same manner as the above-described process of acquiring the existence candidate area for the measurement point of the point sensor.
By applying the process, it is possible to obtain a candidate region where a point of interest exists for the point sequence. For example, the measurement point K on the point sequence t4
A point E ′ on the inverted model δ ″ is set along the point sequence t4, such as δ2 ″ for the inverted model δ ″ obtained by combining the point E ′ of the inverted model δ ″ with 21 and δ3 ″ for the measurement point K22. The surface on the inverted model δ ″ corresponding to the surface DEIH on the object model δ ′ also slides along with this, but the common range of the surfaces on all the slid inverted models δ ″ is the point E to be obtained. Is an existence range candidate area.

【0053】点列t3 についても同様の処理を行な
い、全てのセンサー6c,6dにより得られる反転モデ
ルδ″上の着目点の存在範囲候補領域の共通部分をもと
めることにより、物体モデルδ′の点Eの位置、即ち、
未知姿勢にある物体δの姿勢を定めることができる。な
お、センサー数の制限により、物体δの姿勢が一つの状
態に確定できなくとも、そのセンサー数およびセンサー
配置におけるセンサー計測結果に対して、可能な物体δ
の位置・姿勢の状態を得ることができる。
The same processing is performed for the point sequence t3, and the common part of the candidate range of the point of interest on the inverted model δ ″ obtained by all the sensors 6c and 6d is obtained, thereby obtaining the point of the object model δ ′. The position of E, ie
The posture of the object δ in the unknown posture can be determined. Even if the posture of the object δ cannot be determined to one state due to the limitation of the number of sensors, the possible object
Can be obtained.

【0054】図8(b)に示すように、点列t3,t4
上の各点について、反転モデルδ″を合わせ、対応する
候補領域の共通範囲を求めることにより、候補領域を得
ることができるが、着目する物体δ上の点が、作業台8
上に存在することが分かっていれば、次のように処理を
簡素化して示すことができる。
As shown in FIG. 8B, the point sequences t3 and t4
The candidate area can be obtained by combining the inversion model δ ″ for each of the above points and finding the common range of the corresponding candidate area, but the point on the object δ of interest is
If it is known that it exists above, the processing can be simplified and shown as follows.

【外2】 ンサー6c,6dによる観測点の高さ(作業台からの高
さ)における物体モデル
[Outside 2] Model at the height of the observation point (height from the workbench) by the sensors 6c and 6d

【外3】 [Outside 3]

【0055】また、センサー6c,6dによる計測点K
19,K20,K21,K22,K
The measurement point K by the sensors 6c and 6d
19, K20, K21, K22, K

【外4】 [Outside 4]

【外5】 は、[Outside 5] Is

【数3】 で得られる。(Equation 3) Is obtained.

【0056】式(3)の原理を図8(c)により説明す
る。図8(c)は図8(a)を真上から見た図となって
いる。例として、図8(a)のセンサー計測点K19
に、点Eに対応する反転モデルδ″上の点E′を合わせ
たとき、作業台8と反転モデルδ″との交線は、物体モ
デルδ′をK19の高さの水平面、即ち、高さh1の平
面で切って得られる断面を反転させたものとなる。この
結果、図8(c)に示すように、K19に対応する候補
領域として、長方形J1の上辺が得られ、同様に、K2
0に対応する候補領域として長方形J2の上辺が得られ
る。
The principle of equation (3) will be described with reference to FIG. FIG. 8C is a view of FIG. 8A viewed from directly above. As an example, the sensor measurement point K19 in FIG.
When the point E ′ on the inverted model δ ″ corresponding to the point E is aligned, the intersection line between the work table 8 and the inverted model δ ″ becomes the horizontal plane of the height of K19, ie, the height of the object model δ ′. The cross section obtained by cutting at the plane of h1 is inverted. As a result, as shown in FIG. 8C, the upper side of the rectangle J1 is obtained as a candidate area corresponding to K19.
The upper side of the rectangle J2 is obtained as a candidate area corresponding to 0.

【0057】反転モデルδ″の点E′をセンサー計測点
列t3に添ってスライドさせた時の候補の共通領域とし
て、図8(c)のL20が得られる。一方、センサー計
測点列t4に関しても同様の処理を行なうことにより、
例えば、計測点K21,K22,K23に対する候補領
域として、図8(c)の長方形U1,U2,U3の左辺
が得られ、共通領域としてL21が得られる。L20と
L21との共通点C9が求めるE点の位置となる。
As a candidate common area when the point E 'of the inverted model δ "is slid along the sensor measurement point sequence t3, L20 in FIG. 8C is obtained. By performing the same process,
For example, the left sides of rectangles U1, U2, and U3 in FIG. 8C are obtained as candidate areas for measurement points K21, K22, and K23, and L21 is obtained as a common area. The common point C9 between L20 and L21 is the position of point E to be determined.

【0058】各計測点に対応する着目点の存在領域の広
さは、計測点の違い応じて可変としてもよい。例えば、
センサーの観測方向と、物体面の法線方向との関係に応
じて、観測される距離データの信頼性が異なる場合、信
頼性が高い部分では候補領域を狭くしておき、信頼性が
低い部分では候補領域にさらに幅を持たせるようにして
もよい。
The width of the region where the point of interest corresponding to each measurement point exists may be variable according to the difference between the measurement points. For example,
Depending on the relationship between the sensor observation direction and the normal direction of the object plane, if the reliability of the distance data to be observed is different, the candidate area should be narrowed in high reliability parts and low reliability parts Then, the width of the candidate area may be further increased.

【0059】(実施例3)本発明の第3実施例を図面に
ついて説明する。図9(a)は本実施例において作業平
面と平行な面上の点列による物体モデルの表現図、同図
(b)(c)(d)はそれぞれ断面輪郭パターンの説明
図および交差点座標値表図、図10(a)(b)はそれ
ぞれ本実施例において作業テーブル上で断面輪郭パター
ンの共通領域を求める手順についての説明図および交差
点座標値表図である。
(Embodiment 3) A third embodiment of the present invention will be described with reference to the drawings. FIG. 9A is a representation diagram of an object model using a sequence of points on a plane parallel to the work plane in the present embodiment, and FIGS. 9B, 9C, and 9D are explanatory diagrams of cross-sectional contour patterns and intersection coordinate values, respectively. FIGS. 10 (a) and 10 (b) are an explanatory view and a table of intersection coordinate values, respectively, for a procedure for obtaining a common area of a cross-sectional contour pattern on a work table in this embodiment.

【0060】本実施例の実行手順では、図14(a)に
示すように、テーブル4を回転させながら距離データを
獲得することにより得られた物体モデルα′のデータを
用いて、図9(a)に示すように、水平面に平行な断面
形状によって、モデルを作成し直すことが容易にでき
る。即ち、高さに応じて、H1,H2,…Hi,…のよ
うな点列によって構成される輪郭を得ることができる。
なお、図14(a)で示した操作により得られたデータ
のみでは、回転刻みの粗さのために各水平面の一周分の
輪郭を表現できない場合には、データを補間して、Hi
(i=1,2,…)などの輪郭点列を作成すればよい。
また、水平断面の高さ方向の刻みは任意に設定すればよ
い。
In the execution procedure of this embodiment, as shown in FIG. 14A, the data of the object model α ′ obtained by acquiring the distance data while rotating the table 4 is used, as shown in FIG. As shown in a), the model can be easily re-created by the cross-sectional shape parallel to the horizontal plane. That is, it is possible to obtain a contour constituted by a sequence of points such as H1, H2,... Hi,.
If only the data obtained by the operation shown in FIG. 14A cannot represent the outline of one round of each horizontal plane due to the roughness of the rotation, the data is interpolated to Hi.
(I = 1, 2,...) May be created.
The height of the horizontal section may be set arbitrarily.

【0061】各水平断面の輪郭は、図9(b)に示すパ
ターンとして表現できる。輪郭部の値を1、その他を0
で示している。値が1の点を図9(c)のようなテーブ
ルとして表にしておくこともできる。また、物体のモデ
ルの外形形状の精度に応じて、図9(b)で示す水平断
面の輪郭に厚みを設けてもよい。さらに、値が0または
1の2値に限らず、図9(d)に示すように、輪郭を表
す箇所の値を多値とし、例えば、断面の中央部に高い値
を設定し、周辺部に低い値を設定するようにしてもよ
い。
The outline of each horizontal section can be expressed as a pattern shown in FIG. Contour value is 1 and others are 0
Indicated by. Points having a value of 1 can be tabulated as a table as shown in FIG. 9C. Further, depending on the accuracy of the external shape of the model of the object, a thickness may be provided on the outline of the horizontal cross section shown in FIG. 9B. Further, the value is not limited to two values of 0 or 1, and as shown in FIG. 9D, the value of the portion representing the contour is multi-valued. For example, a high value is set at the center of the cross section, and the peripheral portion is set. May be set to a low value.

【0062】以上の準備の後、図8(c)で示した原理
により、姿勢を検出することができる。図8(c)の長
方形J1,J2,U3,U2,U3等が図9(b)の断
面形状の輪郭に相当するものである。前述したように、
検出原理は、各観測点に応じて得られる、反転モデル
δ″上の候補点の共通部分を求めることである。図9
(b)のパターンを用いれば、図10(a)に示すよう
に、物体上の着目する1点の候補領域として、各観測点
に対してH1,H2,H3の領域ができる。これらの共
通部分が、求める着目点の位置となる。この際の操作
として、まず、初期状態として、全要素の値が0の作業
テーブルに、H1,H2,H3の各領域の値を累積加算
して行き、累積値が候補領域の個数と同じ値(この場合
は3)である領域を得る操作を行えばよい。
After the above preparation, the posture can be detected according to the principle shown in FIG. The rectangles J1, J2, U3, U2, U3, etc. in FIG. 8C correspond to the contour of the cross-sectional shape in FIG. 9B. As previously mentioned,
The detection principle is to find a common part of the candidate points on the inversion model δ ″ obtained according to each observation point.
When the pattern (b) is used, as shown in FIG. 10A, regions H1, H2, and H3 are formed for each observation point as a candidate region of a point of interest on the object. These common portions S are the positions of the points of interest to be obtained. As an operation at this time, first, as an initial state, the values of the respective regions H1, H2, and H3 are cumulatively added to a work table in which the values of all elements are 0, and the cumulative value is the same as the number of candidate regions. An operation of obtaining an area (3 in this case) may be performed.

【0063】断面形状の共通領域を得る処理の高速化の
ために、値が加算累積された領域についてのみ、さらに
断面形状を重ねた際の共通領域存在の判定を行なうよう
にしてもよい。例えば、図10(a)において、H1,
H2の共通領域についてのみ、H3との共通領域が存在
するかどうかのチェックを行なうようにすればよい。
In order to speed up the processing for obtaining the common area of the cross-sectional shape, it is possible to judge the existence of the common area when the cross-sectional shapes are further overlapped only in the area in which the values are added and accumulated. For example, in FIG.
Only for the common area of H2, it may be checked whether or not the common area with H3 exists.

【0064】図10(b)に示す例では、各水平断面形
状の全てが共通領域を有する領域は存在しない。H1と
H2が点1および点2で共通領域を持つとする。図10
(c)に示すように、点1および点2の座標を示す交差
点テーブルを作成することができる。続いて、H3との
共通領域を求める場合は、交差点テーブルに記述された
座標に対してのみ、H3との共通領域が存在するかどう
かのチェックを行なえばよい。共通領域存在のチェック
は次のように、2次元パターン参照操作として実現する
ことができる。
In the example shown in FIG. 10B, there is no region in which all the horizontal cross-sectional shapes have a common region. Assume that H1 and H2 have a common area at point 1 and point 2. FIG.
As shown in (c), an intersection table indicating the coordinates of point 1 and point 2 can be created. Subsequently, when determining the common area with H3, it is sufficient to check whether or not the common area with H3 exists only for the coordinates described in the intersection table. The check of the existence of the common area can be realized as a two-dimensional pattern reference operation as follows.

【0065】[0065]

【外6】 とする。また、観測点1の高さに対する水平断面輪郭を
示すパターン(図9(b)のパターンに相当する)をH
1とし、H1上の点を(XH1,YH1)とする。そ
[Outside 6] And Further, a pattern (corresponding to the pattern in FIG. 9B) indicating the horizontal cross-sectional contour with respect to the height of the observation point 1 is represented by H
1 and the point on H1 is (XH1, YH1). So

【外7】 yj ,zj )とする。また、観測点jの高さに対する水
平断面輪郭を示すパターンHj上の点を(XHj,yHj)
とする。ここで、回転θに対する行列Aθ をつぎの通
り定める。即ち、
[Outside 7] yj, zj). Also, a point on the pattern Hj indicating the horizontal cross-sectional contour with respect to the height of the observation point j is (XHj, yHj)
And Here, a matrix Aθ for the rotation θ is determined as follows. That is,

【数4】 とする。(Equation 4) And

【0066】物体の回転をθとした場合、観測点jの3
次元座標に対して、次式による変換を行なうことによっ
て得られる点(XGj,YGj)における、水平断面輪郭パ
ターンHjの値を参照する。
Assuming that the rotation of the object is θ, 3
Reference is made to the value of the horizontal cross-sectional contour pattern Hj at the point (XGj, YGj) obtained by performing the conversion on the dimensional coordinates by the following equation.

【数5】 (Equation 5)

【0067】即ち、参照した値が、輪郭の存在を示す値
(“1”あるいは“ON”)であれば、共通領域が存在
することがいえる。また、断面輪郭が、図9(d)に示
すような多値で表現される場合は、参照した値の大きさ
により、共通領域が存在する程度を得ることもできる。
参照した値がON(あるいは図9(d)の多値のパター
ンに関して、ある指定した値以上)であった点を、図1
0(c)に示す交差点テーブルに記述する。次回以降の
交差点判定の際には、(5)式における点(XH1,YH
1)として、交差点テーブルに記述された点のみについ
て、判定を行ない、2次元パターン参照操作の結果に従
って、交差点テーブルを更新してゆくようにすればよ
い。
That is, if the value referred to is a value ("1" or "ON") indicating the existence of a contour, it can be said that a common area exists. Further, when the cross-sectional contour is represented by multi-values as shown in FIG. 9D, the extent to which the common region exists can be obtained depending on the magnitude of the value referred to.
The point where the referenced value is ON (or more than a specified value in the multi-value pattern of FIG. 9D)
This is described in the intersection table shown in FIG. At the time of intersection determination after the next time, the point (XH1, YH
As 1), determination may be made only for the points described in the intersection table, and the intersection table may be updated according to the result of the two-dimensional pattern reference operation.

【0068】図9(d)の多値パターンを参照する場
合、交差点テーブルに、座標値と参照値とを共に記述す
るようにしてもよい。この場合、例えば、H1 とH2 と
の共通領域チェックでは参照値が低くても、他の断面形
状輪郭との共通領域チェックにおいて参照値が高けれ
ば、候補から削除しないように処理することができる。
When referring to the multi-value pattern shown in FIG. 9D, both the coordinate value and the reference value may be described in the intersection table. In this case, for example, even if the reference value is low in the common area check between H1 and H2, if the reference value is high in the common area check with another cross-sectional profile, processing can be performed so as not to be deleted from the candidates.

【0069】回転θを微小刻みずつ変化させながら、上
記操作を行なうことにより、物体の位置姿勢を求めるこ
とができる。センサーの観測方向によっては、図3
(b)等で示したように、着目点の存在候補の領域は、
物体の断面輪郭の全部ではなく、一部分のみになるた
め、図9および図10の方法おいても、センサーの観測
方向を考慮した、共通領域存在のチェックを行なうよう
にしてもよい。
By performing the above operation while changing the rotation θ in small increments, the position and orientation of the object can be obtained. Depending on the observation direction of the sensor,
As shown in (b) and the like, the region of the existence candidate of the point of interest is
Since the cross-sectional contour of the object is not the whole but only a part, the method of FIGS. 9 and 10 may be used to check for the existence of the common area in consideration of the observation direction of the sensor.

【0070】以上の前記第1乃至第3実施例において、
物体の姿勢がある範囲まで限定され、計測点が対応する
物体モデル上の範囲が限定されれば、最小二乗法などに
より、物体の姿勢を確定することができる。即ち、前記
第1乃至第3実施例の物体の位置姿勢検出法によって、
図11に示すように、ポイントセンサーとラインセンサ
ーの観測点と、物体モデル上の点との対応関係が、斜線
で示すように、ある程度の局所領域にまで、限定され
る。この場合、さらに精度の高い位置姿勢を算出するた
めに、複数のセンサーによる全ての計測点データを用い
て、物体モデル上の対応位置の点をx,y方向の並進と
回転を施した結果の位置と、センサーによる計測位置と
の差の二乗和が最小となるように、並進量と回転角を決
定すればよい。
In the first to third embodiments described above,
If the orientation of the object is limited to a certain range and the range on the object model to which the measurement points correspond is limited, the orientation of the object can be determined by the least square method or the like. That is, by the position and orientation detection method of the object according to the first to third embodiments,
As shown in FIG. 11, the correspondence between the observation points of the point sensor and the line sensor and the points on the object model is limited to a certain local area as shown by oblique lines. In this case, in order to calculate a position and orientation with higher accuracy, a point at a corresponding position on the object model is translated and rotated in the x and y directions by using all measurement point data from a plurality of sensors. The translation amount and the rotation angle may be determined so that the sum of squares of the difference between the position and the position measured by the sensor is minimized.

【0071】[0071]

【外8】 とした時、[Outside 8] When

【数6】 (Equation 6)

【外9】 上述では、物体として、全形状の分かっているモデルを
用いていたが、作業によって、物体の局所部の位置・姿
勢が分かればよい場合、モデルとして物体の全形状をと
らなくてもよく、局所部のみのデータをモデルとしても
っておくようにしてもよい。
[Outside 9] In the above description, a model whose entire shape is known is used as the object.However, if it is sufficient that the position / posture of the local part of the object is known by the work, it is not necessary to take the entire shape of the object as a model. The data of only the part may be stored as a model.

【0072】また、用いるセンサーはレーザーや超音波
等を用いた非接触式もの、触覚センサーによる接触式の
ものなど、計測の方式には依存しない。3次元の場合、
センサーとしてエリアセンサーを使用することができ
る。また、上述の説明では、ラインセンサーによる観測
点では、1つの平面と物体との交線によって示される3
次元点列が観測されるものとしたが、これに限らず、任
意の点列の組が観測されるものとしてよい。例えば、ポ
イントセンサーの方向を任意の方向に振りながら計測さ
れる点列とすることもできる。
The sensor used does not depend on the measurement method, such as a non-contact sensor using a laser or an ultrasonic wave or a contact sensor using a tactile sensor. In the case of three dimensions,
Area sensors can be used as sensors. Further, in the above description, at the observation point by the line sensor, 3 is indicated by the line of intersection between one plane and the object.
Although the dimensional point sequence is assumed to be observed, the present invention is not limited to this, and an arbitrary set of point sequences may be observed. For example, a point sequence measured while the direction of the point sensor is swung in an arbitrary direction can be used.

【0073】図12により、手法の流れについて説明す
る。先ず、回転台に対象物体をおいて距離計測すること
により、対象の形状を入力する。続いて、得られた距離
データを用いて、物体の反転モデルおよび断面形状パタ
ーンを作成する。物体の形状、作業対象箇所に応じて、
複数各種センサーの配置を行なう。ここまでの処理を、
前処理として行なう。即ち、物体の形状が同じ物につい
ては、以上の処理を一回で行なった上で、未知の姿勢に
置かれた同一値形状の物体に対して、以下の処理を行な
う。
The flow of the method will be described with reference to FIG. First, the shape of the target is input by measuring the distance by placing the target object on the turntable. Subsequently, an inverted model and a sectional shape pattern of the object are created using the obtained distance data. Depending on the shape of the object and the location of the work,
Arrange multiple sensors. Up to this point,
Performed as preprocessing. That is, for an object having the same shape, the above-described processing is performed once, and then the following processing is performed for an object having the same value shape placed in an unknown posture.

【0074】姿勢検出位置及び姿勢が未知の物体に対し
て、各センサーによる計測を行なう。物体の位置・姿勢
は、物体上の一点の位置と向きによって示すことができ
るので、その着目点の位置を求めるために、各センサー
計測点に対する反転モデルの候補領域の共通部分、ある
いは、断面形状パターンの共通領域を求める。この処理
により、各センサーによる姿勢候補を統合して、物体の
位置・姿勢を得ることができる。存在候補の領域を順次
狭めたり、回転の刻み幅を徐々に変えることにより、検
出精度を向上させることができる。この処理のみによ
り、精度の向上も可能であるが、以上の結果を大まかな
位置決め処理として用い、モデルと観測データとの距離
の二乗誤差を最小化するなどの方法により、精モードの
姿勢検出を行なうことができる。
The posture detection position and posture of an object whose unknown position is measured by each sensor. Since the position and orientation of the object can be indicated by the position and orientation of a point on the object, in order to find the position of the point of interest, the common part of the inverted model candidate area for each sensor measurement point or the cross-sectional shape Find the common area of the pattern. By this processing, the position / posture of the object can be obtained by integrating the posture candidates by the sensors. The detection accuracy can be improved by sequentially narrowing the region of the existence candidate or gradually changing the step size of rotation. Accuracy can be improved by this process alone.However, using the above results as a rough positioning process, the posture detection in the fine mode can be performed by a method such as minimizing the square error of the distance between the model and the observation data. Can do it.

【0075】断面パターン同士が共通領域を有するかど
うかのチェックにおいて、2値パターンの参照処理を行
なう方法を示したが、これに限らず、例えば、図13に
示すように、断面輪郭形状を覆う外接矩形枠を、予め階
層的に作成しておき、矩形枠同士の交差判定処理を行な
い、交差していれば、下層の矩形枠について同様な交差
判定を行なうという、たんざく木(strip tree)(文献
参照:Ballard Brown:“コンピュータ・ビジョン”,p
p.307−312,日本コンピュータ協会)を用いる
交差判定を行なうようにしてもよい。
In the method of checking whether or not the cross-sectional patterns have a common area, the method of performing the reference processing of the binary pattern has been described. However, the present invention is not limited to this. For example, as shown in FIG. A circumscribed rectangular frame is created hierarchically in advance, the intersection determination process between the rectangular frames is performed, and if they intersect, a similar intersection determination is performed for the lower-level rectangular frame. (Reference: Ballard Brown: “Computer Vision”, p.
p. 307-312, Japan Computer Association).

【0076】[0076]

【発明の効果】かくして、本発明によれば、極めて簡素
な構成により次の優れた効果が得られる。即ち、物体形
状の違いに依存せず、また、センサーの種別に依存せ
ず、統一した手法で物体の位置姿勢検出が行なえるとと
もに、複数のセンサーの計測結果を統合することにより
姿勢決定が行なえ、しかも、センサーの個数や観測条件
の不足により、位置や姿勢を限定できない場合でも、物
体の位置および姿勢の候補を領域として示すことができ
る。その上、反転モデルあるいは断面形状パターンの共
通領域が存在するかどうかのチェックにより物体の位置
姿勢の候補を得ることができるので、高速処理が可能で
ある。
Thus, according to the present invention, the following excellent effects can be obtained with a very simple configuration. In other words, the position and orientation of the object can be detected by a unified method without depending on the difference in the shape of the object or the type of sensor, and the orientation can be determined by integrating the measurement results of multiple sensors. In addition, even if the position and orientation cannot be limited due to the shortage of the number of sensors and the observation conditions, candidates for the position and orientation of the object can be indicated as regions. In addition, since it is possible to obtain candidates for the position and orientation of the object by checking whether or not there is a common area of the inverted model or the cross-sectional shape pattern, high-speed processing is possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の基本原理の説明図であって、(a)は
ある物体の平面図、(b)は複数のポイントセンサーに
よるある物体の観測図、(c)は一つのポイントセンサ
ーの観測点に対して存在し得る着目点の軌跡図である。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an explanatory view of the basic principle of the present invention, wherein (a) is a plan view of an object, (b) is an observation view of an object by a plurality of point sensors, and (c) is an image of one point sensor. FIG. 4 is a trajectory diagram of a point of interest that can exist with respect to an observation point.

【図2】同上、(a)は反転モデルの平面図、(b)は
反転モデルを用いた着目点の存在領域の検出手順を示す
図である。
FIG. 2A is a plan view of an inverted model, and FIG. 2B is a diagram illustrating a procedure of detecting a region where a point of interest exists using the inverted model;

【図3】同上、回転の刻み幅に応じた着目点の存在候補
の領域の広がりを示す図である。
FIG. 3 is a diagram showing a spread of a region of a candidate for existence of a point of interest according to a rotation step width;

【図4】2次元平面物体を用いた本発明の説明図であっ
て、(a)は直角三角形平面物体をポイントセンサーと
ラインセンサーによる2種類のセンサーでの計測図、
(b)(c)は同・反転平面モデルをそれぞれ用いた姿
勢確定手順の説明図である。
4A and 4B are explanatory diagrams of the present invention using a two-dimensional planar object, wherein FIG. 4A is a measurement diagram of a right-angled triangular planar object by two types of sensors using a point sensor and a line sensor;
(B), (c) is an explanatory view of a posture determination procedure using the same and inverted plane models.

【図5】同上、平面物体の位置を拘束する面が存在する
場合、(a)は直角三角形平面物体を拘束面上に置いた
計測図、(b)(c)(d)は同・反転平面モデルをそ
れぞれ用いた姿勢確定手順の説明図である。
5A and 5B are measurement diagrams in which a plane that restricts the position of a plane object is present when a plane object is placed on the restriction plane, and FIGS. 5B, 5C, and 5D are the same and inverted. It is explanatory drawing of the attitude | position determination procedure which used each plane model.

【図6】同上、(a)は直角三角形平面物体のDE底辺
が拘束面に対し平行に置いた計測図、(b)は同・反転
モデルを用いた姿勢確定手順の説明図、(c)は同・E
F底辺が拘束面に対し30°回転した計測図、(d)は
同・反転モデルを用いた姿勢確定手順の説明図である。
FIG. 6A is a measurement diagram in which the DE base of a right-angled triangular planar object is placed parallel to a constraint surface, FIG. 6B is an explanatory diagram of a posture determination procedure using the same inverted model, and FIG. Is the same
FIG. 9D is a measurement diagram in which the bottom of F is rotated by 30 ° with respect to the constraint surface, and FIG.

【図7】本発明の第1実施例であって、(a)は3次元
物体に対してラインセンサーとポイントセンサーによる
計測斜面図、(b)は同・反転モデルを用いて着目点の
位置を求める手順の説明図である。
FIGS. 7A and 7B show a first embodiment of the present invention, in which FIG. 7A is a perspective view of a three-dimensional object measured by a line sensor and a point sensor, and FIG. FIG. 4 is an explanatory diagram of a procedure for obtaining the.

【図8】本発明の第2実施例であって、(a)は3次元
物体が作業台上に置かれたときの2つのラインセンサー
による計測斜面図、(b)は反転モデルを用いてセンサ
ー観測点の高さに応じた物体断面形状の共通領域を求め
ることにより着目点位置を確定する手順についての説明
図、(c)は(a)の真上から見た図である。
8A and 8B show a second embodiment of the present invention, in which FIG. 8A is a perspective view of measurement using two line sensors when a three-dimensional object is placed on a workbench, and FIG. FIG. 7C is an explanatory diagram of a procedure for determining a point of interest position by obtaining a common area of an object cross-sectional shape according to the height of a sensor observation point, and FIG. 9C is a diagram viewed from directly above FIG.

【図9】本発明の第3実施例であって、(a)は作業平
面と平行な面上の点列による物体モデルの表現図、
(b)(c)(d)は同・それぞれ断面輪郭パターンの
説明図および交差点座標値表図である。
FIG. 9 shows a third embodiment of the present invention, in which (a) is a representation diagram of an object model by a sequence of points on a plane parallel to a work plane;
(B), (c), and (d) are explanatory diagrams of cross-sectional contour patterns and table of intersection coordinate values, respectively.

【図10】同上、(a)(b)は作業テーブル上で断面
輪郭パターンの共通領域を求める手順に付いての説明
図、(c)は交差点座標値表図である。
FIGS. 10A and 10B are explanatory diagrams illustrating a procedure for obtaining a common area of a cross-sectional contour pattern on a work table, and FIG. 10C is a diagram of intersection coordinate values;

【図11】精モードの姿勢算出のために、センサー観測
点とそれぞれ対応する物体モデル上の局所領域を示す図
である。
FIG. 11 is a diagram showing a local region on the object model corresponding to each of the sensor observation points for calculating the posture in the fine mode.

【図12】本発明の実施例における物体モデルの獲得か
ら姿勢検出までの流れ図である。
FIG. 12 is a flowchart from the acquisition of an object model to the detection of a posture in the embodiment of the present invention.

【図13】断面形状輪郭パターンに対して、短冊木を適
用した場合について説明する図である。
FIG. 13 is a diagram illustrating a case where a strip tree is applied to a cross-sectional shape contour pattern.

【図14】(a)はスリット光投影による3次元物体の
距離計測斜面図、(b)(c)(d)(e)は従来の多
面体の姿勢検出手順の説明図である。
14A is a perspective view illustrating a distance measurement slope of a three-dimensional object by slit light projection, and FIGS. 14B, 14C, 14D, and 14E are explanatory diagrams of a conventional polyhedral posture detection procedure.

【符号の説明】[Explanation of symbols]

α,δ,δ2,δ3…物体 α1…部分 α′,α″,δ′…物体モデル α″,δ″…反転モデル β,γ…平面物体 β′,γ′…平面物体モデル β″,γ″…反転平面モデル β1…円弧 β2〜β4…直線 θ…幅 1…3次元物体 2…投影部 3…受光部 4…テーブル 5a〜5g…ポイントセンサー 6a〜6d…ラインセンサー 7…拘束面 8…作業台 A,A′,D,D′,E,E′,F,F′,Q…点 C,C1〜C9…交点 K1〜K23,R,j…計測点 H1〜H3,L,L1〜L21…領域 d1,d2…距離 h1〜hi…高さ t1〜t4…点列 α, δ, δ2, δ3 ... object α1 ... part α ', α ", δ' ... object model α", δ "... inverted model β, γ ... plane object β ', γ' ... plane object model β", γ Inverted plane model β1 Arc β2 to β4 Straight line θ Width 1 3D object 2 Projection unit 3 Light receiving unit 4 Table 5a to 5g Point sensors 6a to 6d Line sensor 7 Constraining surface 8 Work table A, A ', D, D', E, E ', F, F', Q ... Points C, C1 to C9 ... Intersections K1 to K23, R, j ... Measurement points H1 to H3, L, L1 L21 area d1, d2 distance h1 to hi height t1 to t4 point sequence

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】物体の形状である物体モデルに基づいて物
体の位置及び姿勢を検出する方法において、まず、対象
物体の形状を予め計測して前記物体モデルを作成すると
ともに、当該物体モデルの各座標軸の符号を反転させる
ことにより得られる反転モデルを生成しておき、次い
で、未知の位置姿勢に置かれた当該対象物体に対して、
予め位置と計測方向が決定されている二個以上の任意個
数及び任意種別の距離センサーにより当該対象物体の距
離を観測し、引続き、前記物体あるいは物体モデル上の
着目点に対する前記反転モデル上の点を前記距離センサ
ー観測点に一致させた時の当該反転モデルの表面を当該
各距離センサー計測点について得、全ての共通領域を求
めることにより前記物体モデル上の任意の一点としての
着目点の位置及び方向を定め、前記物体の位置及び姿勢
を確定することを特徴とした3次元物体位置姿勢検出
法。
In a method for detecting the position and orientation of an object based on an object model that is the shape of the object, first, the shape of the target object is measured in advance to create the object model, Generate an inversion model obtained by inverting the sign of the coordinate axis, and then, for the target object placed at an unknown position and orientation,
Observe the distance of the target object by a distance sensor of two or more arbitrary types and arbitrary types whose positions and measurement directions are determined in advance, and subsequently, a point on the inverted model with respect to a point of interest on the object or the object model The position of the point of interest as an arbitrary point on the object model by obtaining the surface of the inverted model when matching the distance sensor observation point for each of the distance sensor measurement points, and obtaining all common regions, A three-dimensional object position / posture detection method, wherein a direction is determined and the position and orientation of the object are determined.
【請求項2】物体の形状である物体モデルに基づいて物
体の位置及び姿勢を検出する方法において、まず、対象
物体の形状を予め計測して前記物体モデルを作成すると
ともに、当該物体モデルの各座標軸の符号を反転させる
ことにより得られる反転モデルを生成しておき、次い
で、未知の位置姿勢に置かれた当該対象物体に対して、
予め位置と計測方向が決定されている二個以上の任意個
数及び任意種別の距離センサーにより当該対象物体の距
離を観測し、引続き、前記物体あるいは物体モデル上の
着目点に対する前記反転モデル上の点を前記距離センサ
ー観測点に一致させた時の当該反転モデルの表面を前記
各距離センサー計測点について得、全ての共通領域を求
めることにより前記物体モデル上の任意の一点としての
着目点の位置及び方向を定め、さらに、前記物体の置か
れる作業台あるいは当該物体を固定するための治具部材
の存在位置によって前記物体モデル上の任意の一点とし
ての着目点の存在候補領域を限定することにより、前記
物体の位置及び姿勢を確定することを特徴とした3次元
物体位置姿勢検出法。
2. A method for detecting the position and orientation of an object based on an object model, which is the shape of the object, comprises: measuring the shape of a target object in advance to create the object model; Generate an inversion model obtained by inverting the sign of the coordinate axis, and then, for the target object placed at an unknown position and orientation,
Observe the distance of the target object by a distance sensor of two or more arbitrary types and arbitrary types whose positions and measurement directions are determined in advance, and subsequently, a point on the inverted model with respect to a point of interest on the object or the object model The position of the point of interest as an arbitrary point on the object model by obtaining the surface of the inverted model when matching the distance sensor observation point for each of the distance sensor measurement points, and obtaining all common regions. Determine the direction, further, by limiting the existence candidate area of the point of interest as an arbitrary point on the object model by the existence position of the work table on which the object is placed or a jig member for fixing the object, A three-dimensional object position / posture detection method, characterized in that the position and orientation of the object are determined.
【請求項3】物体の形状である物体モデルに基づいて物
体の位置及び姿勢を検出する方法において、まず、対象
物体の形状を予め計測して前記物体モデルを作成すると
ともに、当該物体モデルの各座標軸の符号を反転させる
ことにより得られる反転モデルを生成しておき、次い
で、予め作業台に水平な面で前記物体を切断した断面輪
郭パターンを作業台からの距離に応じて複数用意してお
き、引続き、姿勢検出時は未知の位置姿勢に置かれた当
該対象物体に対して、予め位置と計測方向が決定されて
いる二個以上の任意個数及び任意種別の距離センサーに
より当該対象物体の距離を観測し、さらに、1点目の計
測点に対する前記断面輪郭パターン上の各点について、
1点目の計測座標に対する座標変換を施した上で、2点
目以降の計測点に対する当該断面輪郭パターンを参照
し、参照したパターンの値が前記断面輪郭を示す場合に
位置姿勢の候補の一つとし、参照したパターンの値が前
記断面輪郭を示さない場合には、当該点は候補から除外
する操作を繰り返すことにより前記各距離センサー計測
点の座標に応じて重ね合わせた前記断面輪郭パターン共
通領域を求めることで前記物体モデル上の任意の一点と
しての着目点の位置及び方向を定めることにより、前記
物体の位置及び姿勢を確定することを特徴とした3次元
物体位置姿勢検出法。
3. A method for detecting the position and orientation of an object based on an object model that is the shape of the object, wherein the object model is created by measuring the shape of a target object in advance, and A reversal model obtained by reversing the sign of the coordinate axis is generated in advance, and then a plurality of cross-sectional contour patterns obtained by cutting the object on a plane horizontal to the work table are prepared in advance according to the distance from the work table. When the posture is detected, the distance between the target object and the target object placed at an unknown position / posture is determined by two or more arbitrary numbers and arbitrary types of distance sensors whose positions and measurement directions are determined in advance. And further, for each point on the cross-sectional contour pattern with respect to the first measurement point,
After performing the coordinate transformation on the first measurement coordinate, the section contour pattern for the second and subsequent measurement points is referred to, and when the value of the referred pattern indicates the section contour, one of the position and orientation candidates is obtained. If the value of the referenced pattern does not indicate the cross-sectional contour, the operation of excluding the point from the candidates is repeated, so that the cross-sectional contour pattern common according to the coordinates of the distance sensor measurement points is common. A three-dimensional object position / posture detection method characterized by determining the position and orientation of a point of interest as an arbitrary point on the object model by obtaining an area, thereby determining the position and orientation of the object.
【請求項4】物体の形状である物体モデルに基づいて物
体の位置及び姿勢を検出する方法において、まず、対象
物体の形状を予め計測して前記物体モデルを作成すると
ともに、当該物体モデルの各座標軸の符号を反転させる
ことにより得られる反転モデルを生成しておき、次い
で、予め作業台に水平な面で前記物体を切断した断面輪
郭パターンを作業台からの距離に応じて複数用意してお
き、引続き、姿勢検出時は未知の位置姿勢に置かれた当
該対象物体に対して、予め位置と計測方向が決定されて
いる二個以上の任意個数及び任意種別の距離センサーに
より当該対象物体の距離を観測し、さらに、1点目の計
測点に対する前記断面輪郭パターン上の各点について、
1点目の計測座標に対する座標変換を施した上で、2点
目以降の計測点に対する当該断面輪郭パターンを参照
し、参照したパターンの値が前記断面輪郭を示す場合に
位置姿勢の候補の一つとし、参照したパターンの値が前
記断面輪郭を示さない場合には、当該点は候補から除外
する操作を繰り返すことにより前記各距離センサー計測
点の座標に応じて重ね合わせた前記断面輪郭パターンの
共通領域を求めることで前記物体モデル上の任意の一点
としての着目点の位置及び方向を定め、その上、前記物
体の置かれる作業台あるいは前記物体を固定するための
治具部材の存在位置によって前記物体モデル上の任意の
一点としての着目点の存在候補領域を限定することによ
り、前記物体の位置及び姿勢を確定することを特徴とし
た3次元物体位置姿勢検出法。
4. A method for detecting a position and a posture of an object based on an object model that is a shape of the object, wherein the shape of the target object is measured in advance and the object model is created. A reversal model obtained by reversing the sign of the coordinate axis is generated in advance, and then a plurality of cross-sectional contour patterns obtained by cutting the object on a plane horizontal to the work table are prepared in advance according to the distance from the work table. When the posture is detected, the distance between the target object and the target object placed at an unknown position / posture is determined by two or more arbitrary numbers and arbitrary types of distance sensors whose positions and measurement directions are determined in advance. And further, for each point on the cross-sectional contour pattern with respect to the first measurement point,
After performing the coordinate transformation on the first measurement coordinate, the section contour pattern for the second and subsequent measurement points is referred to, and when the value of the referred pattern indicates the section contour, one of the position and orientation candidates is obtained. In the case where the value of the referenced pattern does not indicate the cross-sectional contour, the operation of excluding the point from the candidates is repeated to repeat the operation of removing the cross-sectional contour pattern according to the coordinates of the distance sensor measurement points. Determine the position and direction of the point of interest as an arbitrary point on the object model by obtaining a common area, and further, depending on the work table on which the object is placed or the position of the jig member for fixing the object A position and orientation of the object is determined by limiting a candidate area of a point of interest as an arbitrary point on the object model; Detection methods.
JP09468493A 1993-04-21 1993-04-21 3D object position and orientation detection method Expired - Lifetime JP3322278B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP09468493A JP3322278B2 (en) 1993-04-21 1993-04-21 3D object position and orientation detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09468493A JP3322278B2 (en) 1993-04-21 1993-04-21 3D object position and orientation detection method

Publications (2)

Publication Number Publication Date
JPH06307821A JPH06307821A (en) 1994-11-04
JP3322278B2 true JP3322278B2 (en) 2002-09-09

Family

ID=14117039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09468493A Expired - Lifetime JP3322278B2 (en) 1993-04-21 1993-04-21 3D object position and orientation detection method

Country Status (1)

Country Link
JP (1) JP3322278B2 (en)

Also Published As

Publication number Publication date
JPH06307821A (en) 1994-11-04

Similar Documents

Publication Publication Date Title
Ayache et al. Trinocular stereovision for robotics
JPH04500408A (en) Computerized method for measuring strain distribution on the surface of a deformed body
CN111123242B (en) Combined calibration method based on laser radar and camera and computer readable storage medium
Lartigue et al. Digitised point quality in relation with point exploitation
US11421980B2 (en) Method for determining a position and orientation of an object using a profilometer
Martin Estimation of principal curvatures from range data
JP3764773B2 (en) Robust recognition device using gaze points
US6611791B1 (en) Method for combining partially measured data
US6571173B1 (en) Three-dimensional space curve comparison using spatial angle variance metric and applications thereof
US6683977B1 (en) Method of taking three-dimensional measurements of object surfaces
JP2001141441A (en) Method and device for evaluating cylindrical processed article
EP0356727A2 (en) Symmetrie-based target position measurement
JP3322278B2 (en) 3D object position and orientation detection method
US6961459B2 (en) Three-dimensional data processing device, three-dimensional data processing method, and program providing medium
CN112230194B (en) Deblurring method, equipment and storage medium based on translation array
Liu et al. Comparison study of three camera calibration methods considering the calibration board quality and 3D measurement accuracy
Zhang et al. An efficient method for dynamic calibration and 3D reconstruction using homographic transformation
JP2001099641A (en) Surface shape measurement method
Lu et al. Calibration of a 3D vision system using pattern projection
Krishnan et al. Boole: A system to compute boolean combinations of sculptured solids
CN117807875B (en) Three-dimensional data reverse reconstruction and dimension measurement system and method for quartz device
Aichinger et al. Studies on deformation analysis of TLS point clouds using B-splines–A control point based approach (Part I)
Ding et al. Point cloud measurements-uncertainty calculation on spatial-feature based registration
JPH1166324A (en) Method and device for detecting edge
Sánchez et al. Simpler approach to virtual multiaxis machines: Fundamentals

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090628

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090628

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100628

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100628

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110628

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120628

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130628

Year of fee payment: 11

EXPY Cancellation because of completion of term