Nothing Special   »   [go: up one dir, main page]

JP3944091B2 - 3D image data generation method - Google Patents

3D image data generation method Download PDF

Info

Publication number
JP3944091B2
JP3944091B2 JP2003029070A JP2003029070A JP3944091B2 JP 3944091 B2 JP3944091 B2 JP 3944091B2 JP 2003029070 A JP2003029070 A JP 2003029070A JP 2003029070 A JP2003029070 A JP 2003029070A JP 3944091 B2 JP3944091 B2 JP 3944091B2
Authority
JP
Japan
Prior art keywords
dimensional
shape data
measurement
dimensional shape
data group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003029070A
Other languages
Japanese (ja)
Other versions
JP2004239747A (en
Inventor
敏 鈴木
利久 高井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pulstec Industrial Co Ltd
Original Assignee
Pulstec Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pulstec Industrial Co Ltd filed Critical Pulstec Industrial Co Ltd
Priority to JP2003029070A priority Critical patent/JP3944091B2/en
Publication of JP2004239747A publication Critical patent/JP2004239747A/en
Application granted granted Critical
Publication of JP3944091B2 publication Critical patent/JP3944091B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、一つまたは複数の3次元形状測定装置により複数の異なる位置で測定した物体の3次元立体表面形状を用いて、測定対象空間内に位置する物体の3次元画像を任意の方向から見て表示可能な3次元画像データを生成する3次元画像データ生成方法に関する。
【0002】
【従来の技術】
従来から、異なる位置に配置した複数の3次元形状測定装置、または測定位置が移動される3次元形状測定装置により、対象物体の3次元立体形状を複数の異なる位置で測定して各測定位置ごとの立体形状データを合成し、対象物体の立体形状を任意の方向から見て表示できるようにした3次元立体形状測定方法はよく知られている。この測定方法においては、立体形状データを高精度に合成するために、測定対象物の立体形状を測定する前に、特徴点を有する基準物体を測定対象空間に配置する。そして、この基準物体の3次元立体形状を測定し、同測定によって得た立体形状データの中から特徴点の座標値を各測定位置ごとに検出し、この検出した座標値を用いて各測定位置における立体形状データを基準座標に変換するための座標変換パラメータを計算し、この座標変換パラメータにより各測定位置の立体形状データを基準座標に変換することが行われている(特許文献1を参照)。
【0003】
また、測定対象物の立体形状を測定する前に、単純な形状で定まった形状の基準物体を測定対象空間に配置して、この3次元立体形状を測定し、立体形状データを用いて予め基準物体内に設定してある定点の座標値を各測定位置ごとに計算し、この計算した座標値を用いて各測定位置における立体形状データを基準座標に変換するための座標変換パラメータを計算し、この座標変換パラメータにより各測定位置の立体形状データを基準座標に変換することも行われている(特許文献2を参照)。
【0004】
【特許文献1】
特開平9−53914号公報
【特許文献2】
特開2002−328014号公報
【0005】
【発明が解決しようとする課題】
しかし、上記特許文献1に記載の方法では、定点がある程度の大きさをもつために定点座標値を点として正確に求めることができず、また立体形状データの一つ一つにはノイズが含まれているため、そのデータに基づいて検出した特長点の座標値にもノイズが含まれており、座標変換パラメータを精度よく計算することができないという問題がある。
【0006】
また、上記特許文献2に記載の方法では、座標変換パラメータを計算するには3つ以上の定点を設定する必要があるため、1つの基準物体に1つの定点を設定した場合、基準物体の位置を変えて3回以上測定しなければならない。また、1つの基準物体に3つの定点を設定した場合、あるいは1つの定点をもつ3つの基準物体を配置した場合、作業者が各定点の座標を計算するために用いる立体形状データをそれぞれ指定する必要があるため、作業効率が悪くなるという問題がある。さらに、基準物体としては、定まった形状のものしか用いることができず、基準物体を破損、紛失した場合には、代替えを早期に用意することができないという問題もある。また、測定対象物が固定されている場合には、測定対象物の物体の測定領域内に基準物体を配置して測定する必要があるが、測定対象物の形状に適した形状の基準物体を選定できないという問題もある。
【0007】
【発明の概略】
本発明は上記問題に対処するためになされたもので、その目的は、複数の測定位置における立体形状データを合成するための座標変換パラメータを作業効率よくかつ高精度で得ることが可能な3次元画像データ生成方法を提供することにある。また、定点を設定する基準物体として種々の形状を有する物体を選定することが可能な3次元画像データ生成方法を提供することにもある。
【0008】
前記目的を達成するために、本発明の特徴は、一つまたは複数の3次元形状測定装置に測定対象空間内に存在する物体の3次元立体表面形状を複数の異なる位置で測定させ、同物体の3次元表面形状を表す複数組の立体形状データ群を生成する立体形状データ群生成ステップと、前記各立体形状データ群ごとに、物体パラメータにより定義される一部の物体または同物体の一部に対応したサブ立体形状データ群を各立体形状データ群の中から抽出するサブ立体形状データ群抽出ステップと、前記各立体形状データ群ごとに抽出した各サブ立体形状データ群を用いて、前記一部の物体または同物体の一部によって特定される定点であって定点パラメータによって定義される定点を表す複数組の3次元データセットを各サブ立体形状データ群ごとに生成する定点データセット生成ステップと、前記生成した複数組の3次元データセットを用いて、前記複数組の立体形状データ群を1つの基準座標によって表現される立体形状データ群にそれぞれ変換するための座標変換パラメータを計算する座標変換パラメータ計算ステップと、前記座標変換パラメータを用いて前記複数組の立体形状データ群を前記基準座標によって表現される立体形状データ群にそれぞれ変換して、同変換された複数組の立体形状データ群を合成する合成ステップとを含むことにある。
【0009】
この場合、各立体形状データ群は、例えば、物体の表面を微小エリアずつに分割した各分割エリア位置をそれぞれ3次元で表現する多数のデータセットの集合からなる。また、定点を、複数の測定位置での各測定結果に基づいて生成される各立体形状データ群に対して3個以上定めるようにするとよい。また、複数の測定位置で各立体形状を測定するために、3台以上の3次元形状測定装置を異なる位置に配置し、または1台の3次元形状測定装置を3箇所以上の異なる位置に移動させるようにするとよい。
【0010】
このように構成した本発明の特徴においては、物体の特定の形状、大きさなどによって測定対象空間内に存在する一部の物体または同物体の一部を表す物体パラメータを定めておくとともに、一部の物体または同物体の一部内の定点を表す定点パラメータを定めておけば、サブ立体形状データ群注出ステップおよび定点データセット生成ステップにより、複数の異なる位置で測定された物体の3次元立体表面形状を表す複数組の立体形状データ群を用いて、測定対象空間内における定点を表す3次元データセットが同各立体形状データ群ごとに自動的に生成される。そして、座標変換パラメータ計算ステップにより、複数組の3次元データセットを用いて、複数組の立体形状データ群を1つの基準座標によって表現される立体形状データ群にそれぞれ変換するための座標変換パラメータが自動的に計算され、合成ステップにより、座標変換パラメータを用いて複数組の立体形状データ群が基準座標によって表現される立体形状データ群にそれぞれ変換されて、同変換された複数組の立体形状データ群が自動的に合成される。
【0011】
したがって、この本発明の特徴によれば、作業者は測定対象物の立体形状を測定する操作を行うのみで、測定対象空間内に位置する物体の3次元画像を任意の方向から見て表示可能な3次元画像データが自動的に生成されるので、3次元画像データを作成する作業効率が良好となる。また、大きさを有さない定点を指定でき、定点の座標値を多数の立体形状データを用いて計算するので、高精度な座標変換パラメータが得られ、ひいては測定対象物を任意の方向から見て表示可能な3次元画像データの精度が良好になる。さらに、物体パラメータおよび定点パラメータを指定することで、任意の形状の物体における定点を表す3次元データセットを計算できるので、作業者は定点を設定する一部の物体または同物体の一部の形状を任意に定めることができる。
【0012】
また、本発明の他の特徴は、基準物体を測定対象空間内に配置して、一つまたは複数の3次元形状測定装置に同基準物体の3次元立体表面形状を複数の異なる位置で測定させ、同基準物体の3次元表面形状を表す複数組の基準立体形状データ群を生成する基準立体形状データ群生成ステップと、前記各基準立体形状データ群ごとに、物体パラメータにより表される基準物体または同基準物体の一部に対応したサブ立体形状データ群を各基準立体形状データ群の中から抽出するサブ立体形状データ群抽出ステップと、前記各基準立体形状データ群ごとに抽出した各サブ立体形状データ群を用いて、前記基準物体または同基準物体の一部によって特定される定点であって定点パラメータによって定義される定点を表す複数の3次元データセットを各サブ立体形状データ群ごとに生成する定点データセット生成ステップと、前記生成した複数組の3次元データセットを用いて、前記一つまたは複数の3次元形状測定装置による複数の異なる位置での各測定に基づいてそれぞれ生成される複数組の立体形状データ群を1つの基準座標によって表現される立体形状データ群にそれぞれ変換するための座標変換パラメータを計算する座標変換パラメータ計算ステップと、前記一つまたは複数の3次元形状測定装置に前記測定対象空間内に配置された測定対象物の3次元立体表面形状を複数の異なる位置で測定させ、同測定対象物の3次元表面形状を表す複数組の測定立体形状データ群を生成する測定立体形状データ群生成ステップと、前記計算された座標変換パラメータを用いて前記複数組の測定立体形状データ群を前記基準座標によって表現される測定立体形状データ群にそれぞれ変換して、同変換された複数組の測定立体形状データ群を合成する合成ステップとを含むことにある。
【0013】
この場合、例えば、基準物体を球体とし、かつ定点を球体の中心とするとよい。また、この場合も、各立体形状データ群は、例えば、物体の表面を微小エリアずつに分割した各分割エリア位置をそれぞれ3次元で表現する多数のデータセットの集合からなる。また、定点を、複数の測定位置での各測定結果に基づいて生成される各立体形状データ群に対して3個以上定めるようにするとよい。また、複数の測定位置で各立体形状を測定するために、3台以上の3次元形状測定装置を異なる位置に配置し、または1台の3次元形状測定装置を3箇所以上の異なる位置に移動させるようにするとよい。
【0014】
これによれば、特定の形状、大きさなどによって基準物体または同基準物体の一部を表す物体パラメータを定めておくとともに、同基準物体または同基準物体の一部内の定点を表すパラメータを定めておけば、基準立体形状データ群生成ステップ、定点データセット生成ステップおよび座標変換パラメータ計算ステップの処理により、前記本発明の特徴の場合と同様に、基準物体を用いて各測定値における座標変換パラメータが高精度で自動的に計算される。そして、測定立体形状データ群生成ステップおよび合成ステップにより、前記計算された座標変換パラメータを用いて、測定対象物を任意の方向から見た3次元画像データが生成される。
【0015】
したがって、この本発明の他の特徴によれば、測定対象物に定点を設定することが困難な場合、および測定対象物に定点を設定可能な物体を加えて測定することが困難な場合にも、測定対象物を測定する前に、測定対象空間内に基準物体を配置して測定すれば、前記本発明の特徴の場合と同様に、高精度な座標変換パラメータを自動的に得ることができ、測定対象物の3次元画像データを作成する作業効率が良好になるとともに、高精度な3次元画像データを得ることができる。さらに、物体パラメータおよび定点パラメータを指定することで、自動的に生成される任意の形状の基準物体における定点を表す3次元データセットを計算できるので、作業者は定点を設定する物体の形状を任意に定めることができる。
【0016】
また、前記本発明の他の特徴において、基準立体形状データ群生成ステップ、定点データセット生成ステップおよび座標変換パラメータ計算ステップの処理後、測定立体形状データ群生成ステップおよび合成ステップを繰り返し実行して、測定対象物の3次元画像を任意の方向から見て表示可能な3次元画像データを生成するようにするとよい。これによれば、基準物体を用いて座標変換パラメータを計算した後には、測定対象物を次々に換えることにより、多数の測定対象物を任意の方向から見た立体画像を表示可能となる。特に、測定対象空間を通過する種々の物体の外形を把握する場合などには最適であり、自動的に測定対象空間を通過する物体の形状を作業性よく把握できる。
【0017】
さらに、本発明の他の特徴は、物体パラメータおよび定点パラメータを、入力装置を用いて任意に入力可能としておくとよい。これによれば、定点の定められる一部の物体または同物体の一部を自由に選択できるようになり、種々の用途への利用可能性が広がる。
【0018】
【発明の実施の形態】
以下、本発明の一実施形態について図面を用いて説明する。図1は、本発明の3次元画像データ生成方法に利用される3次元画像装置の基本構成を示す概略図である。
【0019】
この3次元画像装置は、異なる位置に配置されて基台10上に形成された測定対象空間に向けた3台の3次元形状測定装置20A,20B,20Cを備えている。これらの3次元形状測定装置20A,20B,20Cは、基台10上に置かれた物体の3次元立体表面形状を測定するもので、同測定結果を表す測定情報を出力する。
【0020】
これらの3次元形状測定装置20A,20B,20Cとしては、物体の3次元表面形状を測定するとともに同測定した3次元表面形状を表す信号を出力するものであれば、いかなる3次元形状測定装置をも利用できる。本実施形態においては、レーザ光を用いて3角測量法に従って物体の3次元表面形状を測定するものを簡単に紹介しておく。
【0021】
この3次元形状測定装置においては、レーザ光源から物体に向けて出射されるレーザ光の進行方向にほぼ垂直な仮想平面を想定するとともに、同仮想平面上にて互いに直交するX軸方向およびY軸方向に沿って分割した多数の微小エリアを想定する。そして、3次元形状測定装置は、前記多数の微小エリアにレーザ光を順次照射し、物体からの反射光によって前記微小エリアが規定する物体表面までの距離をZ軸方向距離として順次検出して、物体の表面を微小エリアずつに分割した各分割エリア位置を表すX,Y,Z座標に関する情報を得て、同3次元形状測定装置に面した物体表面の形状を測定するものである。
【0022】
したがって、この3次元形状測定装置は、出射レーザ光の向きをX軸方向に変化させるX軸方向走査器と、出射レーザ光の向きをY軸方向に変化させるY軸方向走査器と、物体表面にて反射された反射レーザ光を受光して物体表面までの距離を検出する距離検出器とを備えている。X軸方向走査器およびY軸方向走査器としては、レーザ光源からの出射レーザ光の光路をX軸方向およびY軸方向に独立に変化させ得る機構であればよく、例えばレーザ光源自体をX軸方向およびY軸方向の軸線回りに電動モータによって回転させたり、出射レーザ光の光路に設けられてその方向を変更するガルバノミラーをX軸方向およびY軸方向の軸線回りに電動モータによって回転させる機構を利用できる。距離検出器としては、前記出射レーザ光の光路に追従して回転し、物体表面にて反射された反射レーザ光を集光する結像レンズおよび同集光したレーザ光を受光するCCDなどの複数の受光素子を一列に配置させたラインセンサからなり、ラインセンサによる反射レーザ光の受光位置によって物体表面までの距離を検出する機構を利用できる。
【0023】
したがって、このような3次元形状測定装置は、物体の表面を微小エリアずつに分割した各分割エリア位置を表すX,Y,Z座標に関する情報として、X軸方向走査器による出射レーザ光の基準方向に対するX軸方向への傾きθx、Y軸方向走査器による出射レーザ光の基準方向に対するY軸方向への傾きθy、および距離検出器による物体表面までの距離Lzとが、前記仮想したX軸方向およびY軸方向に沿って分割した多数の微小エリアごとに出力される。より具体的には、X軸およびY軸方向への傾きθx,θyは、電動モータの基準位置からの回転角である。また、物体表面までの距離Lzは、ラインセンサにおける反射レーザ光の受光位置である。
【0024】
これらの3次元形状測定装置20A,20B,20Cには、コントローラ31および画像処理装置32が接続されている。コントローラ31は、キーボードからなる入力装置33からの指示にしたがって、3次元形状測定装置20A,20B,20Cの作動を制御する。また、コントローラ31は、入力装置33からの指示にしたがって画像処理装置32の作動を制御するとともに、同入力装置33にて入力されたデータを画像処理装置32に供給する。
【0025】
画像処理装置32は、コンピュータ装置によって構成されて図2の座標変換係数演算プログラムおよび図3の合成立体形状表示プログラムの実行により、3次元形状測定装置20A,20B,20Cからの3次元画像に関する情報を入力して、測定対象空間内に位置する物体の3次元画像を任意の方向から見て表示可能な3次元画像データを生成する。この画像処理装置32には、表示装置34が接続されている。表示装置34は、液晶ディスプレイ、プラズマディスプレイ、CRTディスプレイなどを備えており、画像処理装置32から3次元画像データに基づいて測定対象空間内に位置する物体の3次元画像を表示する。
【0026】
次に、上記のように構成した3次元画像装置の動作について説明する。ユーザは、基準物体としての球体41,42,43を基台10の適当な位置に配置した後、入力装置33を操作して座標変換係数の演算を指示する。なお、球体41,42,43は、予め用意された真球体であって、それらの半径はそれぞれ異なるとともに事前に使用者により認識されている。この座標変換係数の演算の指示は、コントローラ31を介して画像処理装置32に伝達され、画像処理装置32は、図2の座標変換係数演算プログラムの実行をステップS10にて開始して、ステップS12にてユーザによる定点指定用パラメータの入力を待つ。
【0027】
定点とは、3次元形状測定装置20A,20B,20Cの立体表面形状の測定に基づいてそれぞれ生成される3次元画像データの属する座標を共通の基準座標に変換するために用いられる測定対象区間内の特定の位置であり、定点パラメータは定点を特定するためのものである。この定点としては種々のものが考えられるが、本実施形態の説明では、球体41,42,43の各中心とする。したがって、この定点を特定するために、ユーザは、「球体」を表すパラメータ、球体41,42,43を区別するための「半径」を表すパラメータ、および特定の点を指定するための「中心」を表すパラメータを入力する。すなわち、ユーザは球体、半径および中心を表すパラメータを1組として、球体41,42,43に対応した3組の定点指定用パラメータを入力することになる。この定点指定用パラメータは、定点を含む物体または物体の一部を示す物体パラメータ(前記例では、「球体」および「半径」)と、物体パラメータによって指定された物体によって特定される一つの定点を示す定点パラメータとに分類される。
【0028】
このようにして入力された3組の定点指定用パラメータは、ステップS12の処理により、コントローラ31を介して画像処理装置32に入力される。なお、以前に入力された定点が変更されない場合、または固定の定点が予め決められている場合には、この定点指定用パラメータの入力処理は省略される。このステップS12の処理後、画像処理装置32は、ステップS14にて3次元形状測定装置20A,20B,20Cによる測定形状情報の入力を待つ。
【0029】
一方、3次元形状測定装置20A,20B,20Cは、コントローラ31によって制御され、前記ユーザによる座標変換係数の演算の指示時に測定対象空間内の物体の3次元立体表面形状の測定を開始している。そして、これらの測定が終了すると、3次元形状測定装置20A,20B,20Cは、球体41,42,43の各表面形状を表す情報を画像処理装置32にそれぞれ出力する。すなわち、球体41,42,43の表面を微小エリアずつに分割した各分割エリア位置を表すX,Y,Z座標に関する情報(具体的には、傾きθx,θyおよび距離Lz)をそれぞれ出力する。したがって、画像処理装置32は、前記ステップS14にて、3次元形状測定装置20A,20B,20Cから出力された前記X,Y,Z座標に関する情報を入力する。
【0030】
次に、画像処理装置32は、ステップS16にて、前記入力した3次元形状測定装置20A,20B,20CからのX,Y,Z座標に関する情報に基づいて、測定対象空間内に位置する物体の3次元表面形状を表す立体形状データ群を3次元形状測定装置20A,20B,20Cごとにそれぞれ計算する。すなわち、3次元形状測定装置20A,20B,20Cによって規定される3種類の座標A,B,Cでの、球体41,42,43の表面を微小エリアずつに分割した各分割エリア位置をそれぞれ3次元で表現する多数のデータセットの集合を計算し、3組の立体形状データ群Da,Db,Dcを得る。この3組の立体形状データ群Da,Db,Dcは座標A、B,Cにおける各座標値X,Y,Zで表される。具体的には、立体形状データ群Da,Db,Dcを構成する各データセットは、(xa,ya,za),(xb,yb,zb) ,(xc,yc,zc)でそれぞれ表される。
【0031】
次に、ステップS18にて、座標A,B,Cに対応した立体形状データ群Da,Db,Dcのそれぞれに対して、定点の規定されている球体41,42,43をそれぞれ含む最小空間内の3つのサブ立体形状データ群を抽出する。このサブ立体形状データ群の抽出処理は次のサブステップ1〜5の処理からなり、これらのサブステップ1〜7の処理が立体形状データ群Da,Db,Dcごと、かつ球体41,42,43ごとに繰り返し実行されて、9組のサブ立体形状データ群Da1,Da2,Da3,Db1,Db2,Db3,Dc1,Dc2,Dc3が抽出される。
【0032】
サブステップ1:立体形状データ群(座標データ群)の中に出射レーザ光の基準方向に平行に1つの平面を定義し、この平面を同平面に垂直な方向に等間隔で順次移動させ、各平面に含まれる立体形状データ群を抽出する。言い換えれば、平面で切断したときの立体形状の切断面を表すデータを抽出する。なお、基準物体が直方体などの多面体や多角錐、円柱、円錐である場合、平面の方向を変化させながらサブステップ1および後述するサブステップ2を繰り返し行い、基準物体の数だけ抽出されるデータ群がある平面の方向を見つける。これは、基準物体の底面と平行になる平面を見つけることである。ただし、基準物体の底面が基台10と平行になっていれば、上記の処理を行わず、基台10の表面の立体形状データ群を使って、基台10の表面を平面として定義すればよい。
【0033】
サブステップ2:平面に含まれる立体形状データ群の中で連続している立体形状データ群ごとに、データ群が物体パラメータから得られる認識すべき形状の特徴に合致しているものを抽出する。本実施形態の場合、物体パラメータは球体を指定しているので、データ群が円になっているものを抽出する。具体的には、平面に含まれる立体形状データ群を平面の座標によるデータ群に変換し、このデータを円の式(x−a)2+(y−b)2−d2=0の左辺に当てはめ、最小2乗法により円の中心座標であるa,bの値を算出し、データ群の各データと、座標(a,b)よりの距離を検出して、値の偏差が判別以内であれば合致していると判定する。なお、基準物体が円柱、円錐であれば同様にデータ群が円になっているものを抽出し、直方体などの多面体や多角錐であれば、データ群が所定角度(例えば、直方体や4角錐であれば直角)をなす角を構成する2つの直線(2辺)になっているものを抽出すればよい。
【0034】
サブステップ3:抽出した平面に含まれる立体形状データ群より、基準物体が球体、円柱、円錐であれば円の中心の座標、直方体などの多面体や多角錐であれば、角の座標を3次元座標として計算し、各平面ごとに計算した座標が直線状に並んでいるものを抽出する。
【0035】
サブステップ4:サブステップ2で抽出した平面に含まれる立体形状データ群において、直線状に並んでいる中心点または角の座標の両端の座標間距離を計算し、この値が、物体パラメータと平面の間隔より算出される値に合致しているものを抽出する。本実施形態の場合、物体パラメータとして半径の値が与えられているので、この2倍の値(すなわち、球体の直径)をDとし、平面の間隔をBとすると、D>a・B(aは整数)なる不等式を満たす最も大きな値aを計算し、同計算値aと間隔Bとの乗算結果a・Bにほぼ合致している両端の座標間距離のものが抽出される。なお、基準物体が直方体などの多面体や多角錐、円柱、円錐であれば、半径の代わりに物体パラメータとして与えられている高さを上記不等式のDにすればよく、同不等式を満足する両端の座標間距離が最大のものが抽出される。この場合、多角錐のように角の座標の直線状の並びが平面と直交していないときには、座標間距離は平面と直交する成分のものとする。
【0036】
サブステップ5:サブステップ4で抽出した平面に含まれる立体形状データ群より、立体形状データ群がすべて含まれる空間を定め、その空間に含まれる立体形状データ群を抽出する。本実施形態の場合、直線状に並んでいる中心点の両端の座標、および円の半径が最も大きな平面の立体形状データ群を含む球状の空間を設定し、この球状の空間内にある立体形状データ群を抽出する。なお、基準物体が直方体などの多面体や多角錐、円柱、円錐であっても、直線状に並んでいる中心点または角の両端の座標、および各平面における立体形状データ群を含む物体の形状に見合った空間を設定すればよい。
【0037】
このようなサブステップ1〜5からなるステップS18のサブ立体形状データ群(座標データ群)の抽出処理においては、サブステップ1の処理によって、探索する領域を平面に限定し、探索する形状を制限した。そして、サブステップ2〜4の処理により、物体パラメータによって指定された探索物体(物体の部分も含む)に合致するデータ群を、平面における形状に合致するデータ群、立体形状に合致するデータ群、値に合致するデータ群の3段階で抽出するようにしたので、物体の探索を簡単かつ正確にできるとともに、探索処理時間を短縮することができる。そして、サブステップ5の処理により、前記物体の立体形状データ群が含まれる空間が設定され、その空間に含まれる立体形状データ群が抽出されるようにしたので、立体形状データ群の抽出を簡単に行うことができる。
【0038】
なお、前記ステップS18のサブステップ1〜5の繰り返し処理においても、重複する処理については、適宜省略できる。例えば、サブステップ1〜3の平面の定義と物体パラメータによって指定された探索物体の形状に合致するデータ群の抽出処理は、立体形状データ群Da,Db,Dcに対してそれぞれ行えば足り、球体41,42,43ごとに行う必要がないので、立体形状データ群Da,Db,Dcに対してそれぞれ1回ずつ行われる。
【0039】
ふたたび、図2のプログラムの説明に戻ると、前記ステップS18の処理後、画像処理装置32はステップS20にて定点座標の計算処理を実行する。このステップS20の処理は、前記抽出した9組のサブ立体形状データ群Da1,Da2,Da3,Db1,Db2,Db3,Dc1,Dc2,Dc3に対して、次のサブステップ1,2を繰り返し実行することにより、9組の定点を表すデータセットPa1,Pa2,Pa3,Pb1,Pb2,Pb3,Pc1,Pc2,Pc3がそれぞれ計算される。これらの9組のデータセットPa1,Pa2,Pa3,Pb1,Pb2,Pb3,Pc1,Pc2,Pc3は、3次元形状測定装置20A,20B,20Cによって規定される3種類の座標A,B,Cにおいて、球体41,42,43ごとの定点を表すデータセット(X,Y,Z座標値)である。
【0040】
サブステップ1:物体パラメータによって指定される物体または物体の部分の存在位置を特定できる位置(以下、物体位置という)を表す座標値を計算する。具体的には、前記抽出した一組のサブ立体形状データ群に、対応する物体パラメータによって指定される物体の外形を重ね合わせ、各サブ立体形状データ群によって表された各点と物体の外形との偏差の総計が最小となる物体位置を表す座標値を、最小2乗法を用いて計算する。
【0041】
このサブステップ1の処理を具体例を挙げて説明すると、本実施形態のように基準物体として球体を採用した場合、球体の表面は下記数1によって表され、球体41,42,43の表面に関する点群(各点は、座標値x,y,zで表される)は、下記数1を満足するはずである。なお、下記数1において、a,b,cは球体の中心座標を表す未知数であり、dは球体の半径を表す物体パラメータとして入力されている定数である。
【0042】
【数1】
(x−a)2+(y−b)2+(z−c)2−d2=0
【0043】
したがって、このサブステップ1の処理では、前記ステップS18の処理によって抽出した9組のサブ立体形状データ群Da1,Da2,Da3,Db1,Db2,Db3,Dc1,Dc2,Dc3に対して、各サブ立体形状データ群ごとに、同サブ立体形状データ群を構成する点群(xi,yi,zi)(i=1〜n)を上記数1の左辺に代入して、その値の2乗値の和が最小となるa,b,cを最小2乗法を用いて計算する。これにより、この場合には球体41(または球体42,43)の中心位置(物体位置)を表す座標値x,y,zがa,b,cとして計算される。
【0044】
また、直方体などの多面体、多角錐などを基準物体として採用した場合、基準物体の表面は下記数2によって表され、基準物体の表面に関する点群(各点は、座標値x,y,zで表される)は、下記数2の平面に関する式を満足するはずである。
【0045】
【数2】
a・x+b・y+c・z+d=0
【0046】
そして、この場合も、このサブステップ1の処理では、前記ステップS18の処理によって抽出した9組のサブ立体形状データ群Da1,Da2,Da3,Db1,Db2,Db3,Dc1,Dc2,Dc3に対して、各サブ立体形状データ群ごとに、同サブ立体形状データ群を構成する点群(xi,yi,zi)(i=1〜n)を上記数2の左辺に代入して、その値の2乗値の和が最小となるa,b,c,dを最小2乗法を用いて計算する。その後、前記計算された基準物体の各平面を表す値a,b,c,dを用いて、各平面が交差する直線、すなわち辺を表す式(値)を計算する。さらに、前記平面を表す式(値a,b,c,d)と前記辺を表す式(値)とを用いて各頂点の座標値を計算する。この各頂点の座標値が、物体位置を表すことになる。
【0047】
また、円柱、円錐などを基準物体として採用した場合、円柱の上面は前記数2によって表されるとともに、円柱および円錐の底面と、円柱および円錐の側面(底面に水平に切断したときの表面)は下記数3により表される。この場合、円柱においては下記数3のdは物体パラメータにより与えられる上面および底面の半径であり、円錐においては底面の半径と円錐の高さと切断高さにより計算される切断面における円の半径である。ただし、前記数2の値a,b,dと下記数3の値a,b,dとは異なる値である。
【0048】
【数3】
(x−a)2+(y−b)2−d2=0
【0049】
そして、この場合も、このサブステップ1の処理では、前述した場合と同様に、最小2乗法を用いて前記数2の値a,b,c,dと下記数3の値a,bを計算する。また、この場合における側面に関する計算過程においては、底面に垂直な方向に微小間隔ずつ位置をずらしながら同底面に対して平行な面で円柱または円錐を切断して、前記数3を適用する。その後、円柱または円錐の底面に関する前記計算した数3の値a,bと、円柱または円錐の各切断面に関する前記計算した数3の値a,bを用いて、各円形の中心座標を計算して底面の中心に垂直な中心線を特定する。そして、円柱の場合には、前記中心線と、上面に関する前記計算した数2の値a,b,c,dとを用いて、物体位置を表す座標として上面および底面の中心の座標を計算する。また、円錐においては、物体位置を表す座標として底面の中心および頂点の座標を計算する。
【0050】
サブステップ2:定点パラメータによって特定される物体の定点を定義する。前記のように物体パラメータが球体を表していて、物体位置が球体の中心であれば、前記サブステップ1の処理によって球体の中心位置を表す座標は基準物体の位置を表す座標として既に計算済みであるので、サブステップ2の処理は実質的に不要となる。
【0051】
また、基準物体として直方体などの多面体、多角錐などを採用している場合には、定点としていずれかの頂点が指定されていれば、サブステップ1の処理によって計算された複数の頂点うちのいずれかの頂点の座標が定点として選択される。また、基準物体が直方体であって、定点として直方体の重心位置が指定されている場合には、サブステップ1の処理によって計算された8つの頂点の座標(xi,yi,zi)(i=1〜8)を用いて、下記数4の演算によって定点の座標xc,yc,zcを計算する。
【0052】
【数4】

Figure 0003944091
【0053】
さらに、基準物体として円柱が採用されていて、定点として上面または底面の中心点が指定されていれば、サブステップ1の処理によって計算された2つの頂点のうちのいずれか一方の頂点の座標が定点として選択される。また、基準物体として円柱が採用されていて、定点として重心が指定されていれば、前記2つの頂点を結ぶ線の中央位置の座標が定点として計算される。また、基準物体として円錐が採用されていて、定点として頂点または底面の中心点が指定されていれば、サブステップ1の処理によって計算されている頂点および底面の中心点のうちのいずれか一方が定点として選択される。
【0054】
このようなサブステップ1,2の処理により、少ない量のサブ立体形状データ群に基づき、物体パラメータおよび定点パラメータを用いて定点が計算されるので、計算処理速度を高めることが可能である。
【0055】
前記ステップS20の処理後、画像処理装置32は、ステップS22にて座標変換係数(座標変換パラメータ)の計算処理を実行する。この座標変換係数の計算処理は、一つの座標の立体形状データ群を他の座標の立体形状データ群に変換するための変換係数を計算するものである。本実施形態においては、座標A(3次元形状測定装置20Aの座標)を基準座標とし、座標B(3次元形状測定装置20Bの座標)および座標C(3次元形状測定装置20Cの座標)の各座標値を前記基準座標値に変換する。
【0056】
このステップS22による座標変換係数の計算処理の説明に先立ち、座標変換について簡単に説明しておく。X−Y−Z座標からなる第1座標と、同第1座標をX軸、Y軸およびZ軸回りにそれぞれα,β,γだけ回転させるとともに、同第1座標の原点をX軸方向、Y軸方向およびZ軸方向にそれぞれa,b,cだけ移動させた第2座標を想定する。第1座標における一点の座標値を(x,y,z)とし、第2座標における同一点の座標値を(x’,y’,z’)すると、下記数5が成立するとともに、同数5中の行列Mは下記数6によって表される。
【0057】
【数5】
Figure 0003944091
【0058】
【数6】
Figure 0003944091
【0059】
前記ステップS22の座標変換係数の計算は、前記数5および数6中の行列値g11,g12,g13,g21,g22,g23,g31,g32,g33および行列値a,b,cを計算することを意味する。まず、座標B(3次元形状測定装置20Bの座標)における座標値(x,y,z)を、基準座標である座標A(3次元形状測定装置20Aの座標)における座標値(x’,y’,z’)に変換するための座標変換係数を計算する。基準物体としての球体41,42,43の定点(中心)に対応した座標AにおけるデータセットPa1,Pa2,Pa3を(xa1,ya1,za1),(xa2,ya2,za2),(xa3,ya3,za3)とし、同球体41,42,43の定点(中心)に対応した座標BにおけるデータセットPb1,Pb2,Pb3を(xb1,yb1,zb1),(xb2,yb2,zb2),(xb3,yb3,zb3)とすると、下記数7〜9の関係が成立する。
【0060】
【数7】
Figure 0003944091
【0061】
【数8】
Figure 0003944091
【0062】
【数9】
Figure 0003944091
【0063】
前記数7を変形すると、下記数10の連立方程式が成立する。
【0064】
【数10】
Figure 0003944091
【0065】
この数10の連立方程式を解くことにより、行列値g11,g12,g13を計算することができる。また、前記数8および数9に関しても、前記数10の連立方程式のように変形すれば、行列値g21,g22,g23および行列値g31,g32,g33を計算できる。そして、これらの計算した行列値を前記数7〜9に代入すれば、行列値a,b,cを計算できる。これにより、座標Bにおける座標値(x,y,z)を、基準座標である座標Aにおける座標値(x’,y’,z’)に変換するための座標変換係数が計算される。
【0066】
次に、座標C(3次元形状測定装置20Cの座標)における座標値(x,y,z)を、基準座標である座標A(3次元形状測定装置20Aの座標)における座標値(x’,y’,z’)に変換するための座標変換係数を計算する。この場合、基準物体としての球体41,42,43の定点(中心)に対応した座標BにおけるデータセットPb1,Pb2,Pb3をそれぞれ表す前記座標値(xb1,yb1,zb1),(xb2,yb2,zb2),(xb3,yb3,zb3)に代えて、同球体41,42,43の定点(中心)に対応した座標CにおけるデータセットPc1,Pc2,Pc3をそれぞれ表す座標値(xc1,yc1,zc1),(xc2,yc2,zc2),(xc3,yc3,zc3)を用いて、前記数7〜10を用いた計算と同様な計算により、座標Cにおける座標値(x,y,z)を、基準座標である座標Aにおける座標値(x’,y’,z’)に変換するための座標変換係数が計算される。そして、ステップS24にてこの座標変換係数演算プログラムの実行が終了される。
【0067】
この座標変換係数演算プログラムの実行後、ユーザは、球体41,42,43を基台10上から取り除いて、同基台10上に測定対象物50を配置する。そして、入力装置33を操作して測定対象物50の立体表示を指示する。これに応答して、画像処理装置32は、図2の合成立体形状表示プログラムの実行をステップS30にて開始して、ステップS32にて測定対象物50の3次元立体形状を表す測定情報の入力を待つ。一方、3次元形状測定装置20A,20B,20Cは、コントローラ31によって制御され、測定対象物50の3次元立体表面形状の測定を開始する。そして、3次元形状測定装置20A,20B,20Cが測定対象物50の測定を終了すると、測定結果を表す情報を画像処理装置32にそれぞれ出力する。
【0068】
画像処理装置32は、ステップS32にて、上記ステップS14の処理と同様にして画像処理装置32からの測定情報を入力する。そして、ステップS34にて、上記ステップS16の処理と同様にして、3次元形状測定装置20A,20B,20Cごとに、各測定情報に基づいて測定対象物50に関する3組の立体形状データ群Da,Db,Dcを得る。この3組の立体形状データ群Da,Db,Dcも座標A、B,Cに対して独立したX,Y,Z座標値で表されたもので、立体形状データ群Da,Db,Dcを構成する各データセットは、(xa,ya,za),(xb,yb,zb) ,(xc,yc,zc)で表される。
【0069】
次に、ステップS36にて、前記座標変換係数演算プログラムの実行によって計算した座標変換係数(すなわち、2組の行列値g11,g12,g13,g21,g22,g23,g31,g32,g33,a,b,c)を用いて、BおよびC座標の立体形状データ群Db,DcをA座標の立体形状データ群Db’,Dc’にそれぞれ変換する。この場合、上述した数5の演算の実行によって変換は行われる。
【0070】
そして、ステップS38にて、3次元形状測定装置20Aで測定されたA座標の立体形状データ群Daと、3次元形状測定装置20B,20Cでそれぞれ測定されるとともにA座標に変換された立体形状データ群Db’,Dc’を一組の立体形状データ群に合成する。この合成においては、全て立体形状データ群Da,Db’,Dc’が同一座標A上の座標値で表されているので、3次元形状測定装置20A,20B,20Cのそれぞれによって測定されない測定対象物50の部分(3次元形状測定装置20A,20B,20Cに対して裏側に位置する測定対象物50の外表面)を表す立体形状データ群Da,Db’,Dc’が互いに補われ、一組のデータ群とされる。
【0071】
次に、画像処理装置32は、ステップS40にて、前記合成された立体形状データ群を用いて表示装置34を制御して、測定対象物50を表示装置34にて立体表示させる。その後、ステップS42にて合成立体形状表示プログラムの実行を終了する。この測定対象物50の立体表示においては、ユーザは入力装置33を操作することにより測定対象物50の表示方向を指示することができ、コントローラ31および画像処理装置32は表示装置32にて表示される測定対象物50の表示方向を変更する。これにより、測定対象物50を任意の方向から見た画像を表示させることができる。
【0072】
また、新たな測定対象物50を基台10上に置いて、前述のように測定対象物50の表示を指示すれば、前記図3の合成立体形状表示プログラムの実行により、前記場合と同一の座標変換係数を用いて新たな測定対象物50を任意の方向から見た画像を表示装置32に表示させることができる。したがって、基準物体としての球体41,42,43を用いて基台10上の測定対象空間に関する座標変換係数を一度だけ計算しておけば、測定対象物50を次々に換えて表示装置32にて立体表示させることが可能である。
【0073】
上記作動説明からも理解できるとおり、上記実施形態によれば、座標変換係数演算プログラムの実行により、球体41,42,43によって特定される定点が設定され、同定点を用いて3次元形状測定装置20A,20B,20C間の座標変換係数(座標変換パラメータ)が計算される。そして、合成立体形状表示プログラムの実行により、前記座標変換係数を用いて測定対象物50の複数組の立体形状データ群が基準座標によって表現される立体形状データ群にそれぞれ変換されて、同変換された複数組の立体形状データ群が合成される。
【0074】
したがって、上記実施形態によれば、作業者は基準物体として球体41,42,43および測定対象物50の立体形状を測定する操作を行うのみで、測定対象物50の3次元画像を任意の方向から見て表示可能な3次元画像データが自動的に生成されるので、3次元画像データを作成する作業効率が良好となる。また、大きさを有さない定点を指定できるので、高精度な座標変換パラメータが得られ、ひいては測定対象物50を任意の方向から見て表示可能な3次元画像データの精度が良好になる。さらに、物体パラメータおよび定点パラメータを指定することで、自動的に生成される任意の形状の基準物体における定点を表す3次元データセットを計算できるので、作業者は定点を設定する物体の形状を任意に定めることができる。
【0075】
以上、本発明の一実施形態について説明したが、本発明の実施にあたっては、上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変形も可能である。
【0076】
例えば、上記実施形態においては、球体41,42,43を基準物体として用いて3次元形状測定装置20A、20B,20Cに関する座標変換係数を計算した後、基台10上の測定対象物50を次々に置き換えて同対象物50の立体形状を次々に測定するようにした。しかし、本発明を、生産ライン、検査ラインなどの各種ライン上を次々に移動する物体の立体形状を次々に測定するようにした立体形状測定にも適用できる。この場合、3次元形状測定装置20A、20B,20Cをライン上の測定対象空間に向けて配置した後、同測定対象空間であるライン上に基準物体としての球体41,42,43を置いて座標変換係数を計算し、その後にライン上を移動して来て測定対象空間内に入った測定対象物を3次元形状測定装置20A、20B,20Cにより測定し、この測定結果を前記計算した座標変換係数を用いて座標変換するようにするとよい。
【0077】
また、上記実施形態では、基準物体(球体41,42,43)の3次元立体形状の測定に基づいて座標変換係数を計算した後、基台10上に測定対象物50を置いて、測定対象物50の3次元立体形状を測定するようにした。しかし、これに代えて、基台10上に基準物体と測定対象物50とを同時に置くことが可能であれば、基台10上に基準物体と測定対象物50とを同時に置いたまま、基準物体および測定対象物50の3次元立体形状を測定するようにしてもよい。この場合、画像処理装置32は図2の座標変換係数演算プログラムをステップS22まで行い、その後に図3の合成立体形状表示プログラムのステップS36以降の処理を実行するようにすればよい。
【0078】
また、上記実施形態では、定点を測定対象物50とは異なる基準物体としての球体41,42,43により特定するようにしたが、測定対象物50の一部に認識し易い形状がある場合には、基準物体を用いることなく、測定対象物50の特定部分に定点を定義するようにするとよい。例えば、測定対象物50に球状の部分が存在すれば、同球状部分を物体パラメータによって特定し、同球状部分の中心を定点として定めて、上記実施例と同様な処理をすればよい。この場合も、画像処理装置32は、図2の座標変換プログラムをステップS22まで行い、その後に図3の合成立体形状表示プログラムのステップS36以降の処理を行うようにすればよい。
【0079】
また、このような基準物体としての球体41,42,43および測定対象物50の特定部分による定点の指定においては、球状部分でなくても、円形形状の中心、直方体形状の一辺の一端など、認識し易い形状の中の一点を定点指定用パラメータによって指定すればよい。また、この形状に加えて、種々の色彩の施されたものにあっては、形状の特定に色彩の要素を加えてもよい。さらに、複数の物体間の距離、複数の物体の配置関係などにより、定点を特定するようにしてもよい。これらの場合、定点を特定する物体を探索するために物体パラメータによって定義されるブロック内特徴値としては、円形形状の場合には円の外形線の曲率、直方体の場合には所定長さの直線部分、色彩を付加する場合には特定の色、複数物体による場合には所定長さの距離などを採用するとよい。
【0080】
また、定点を特定するための物体パラメータと定点パラメータのうち、定点パラメータに関しては、物体パラメータにより指定される定点を予め定めて記憶しておくようにしてもよい。例えば、物体パラメータによって指定される物体が球体および円形状であれば中心点、同物体が直方体であれば最も短い辺の一端などのように、形状と定点との関係を表す予め定めたデータをテーブルなどに記憶しておき、物体パラメータにより指定される形状に対応させてテーブル内の定点を表す定点パラメータを利用するようにすればよい。
【0081】
また、上記実施形態においては、3台の3次元形状測定装置20A、20B、20Cを設置するともに、座標変換係数の演算において3つの定点を設定した。しかし、3次元形状測定装置の設置台数に関しては4台以上であってもよい。この場合、4台以上の3次元形状測定装置によって測定した4組以上の測定結果のうちで利用し易い3組の測定結果のみを利用してもよいし、立体形状データ群の計算の際に、余分な組(4組目以上の組)の測定結果を最終的な立体形状データ群の補正に利用してもよい。また、定点の数に関しても4つ以上あってもよい。この場合、4つ以上の定点のうちの利用し易い3つの定点に基づいて座標変換係数を計算してもよいし、座標変換係数の計算の際に、余分な(4つ目以上)の定点に関するデータを最終的な座標変換係数の補正に利用してもよい。
【0082】
さらに、上記実施形態においては、3台の3次元形状測定装置20A、20B、20Cを設置し、3次元形状測定装置20A、20B、20Cが、それぞれ基準物体(球体41,42,43)および測定対象物50の3次元立体表面形状を測定するようにした。しかし、これに代えて、1台の3次元形状測定装置の位置を移動させて、複数の位置で基準物体および測定対象物50をそれぞれ測定するようにしてもよい。この場合、基準物体の測定により座標変換係数を計算した後、測定対象物50の3次元立体形状を測定する際には、測定位置を予め設定しておき、常に同じ測定位置で測定を行うようにする。また、この場合も、測定定対象物50内に認識し易い物体または物体の一部が存在して、同物体または物体の一部内に特定の点を定めることが可能であれば、前述のように、基準物体を用いることなく、この特定の点を定点として定め、同定点を物体パラメータおよび定点パラメータを用いて検出するようにしてもよい。
【図面の簡単な説明】
【図1】 本発明の3次元画像データ生成方法に利用される3次元画像装置の概略図である。
【図2】 図1の画像処理装置によって実行される座標変換係数演算プログラムのフローチャートである。
【図3】 図1の画像処理装置によって実行される合成立体形状表示プログラムのフローチャートである。
【符号の説明】
10…基台、20A,20B,20C…3次元形状測定装置、31…コントローラ、32…画像処理装置、33…入力装置、34…表示装置、41〜43…球体。[0001]
BACKGROUND OF THE INVENTION
The present invention uses a three-dimensional solid surface shape of an object measured at a plurality of different positions by one or a plurality of three-dimensional shape measuring apparatuses, and uses a three-dimensional image of the object located in the measurement target space from an arbitrary direction. The present invention relates to a three-dimensional image data generation method for generating three-dimensional image data that can be viewed and displayed.
[0002]
[Prior art]
Conventionally, by measuring a three-dimensional shape of a target object at a plurality of different positions by using a plurality of three-dimensional shape measuring apparatuses arranged at different positions or a three-dimensional shape measuring apparatus to which the measurement position is moved, A three-dimensional three-dimensional shape measuring method is well known in which three-dimensional shape data is synthesized so that the three-dimensional shape of a target object can be viewed and displayed from an arbitrary direction. In this measurement method, in order to synthesize three-dimensional shape data with high accuracy, a reference object having feature points is arranged in the measurement target space before measuring the three-dimensional shape of the measurement target. Then, the three-dimensional solid shape of the reference object is measured, the coordinate value of the feature point is detected for each measurement position from the solid shape data obtained by the measurement, and each measurement position is detected using the detected coordinate value. A coordinate conversion parameter for converting the three-dimensional shape data into reference coordinates is calculated, and the three-dimensional shape data at each measurement position is converted into reference coordinates using this coordinate conversion parameter (see Patent Document 1). .
[0003]
In addition, before measuring the three-dimensional shape of the measurement object, a reference object having a simple shape is placed in the measurement object space, the three-dimensional solid shape is measured, and the reference shape is previously obtained using the three-dimensional shape data. Calculate the coordinate value of the fixed point set in the object for each measurement position, and use this calculated coordinate value to calculate the coordinate conversion parameters for converting the solid shape data at each measurement position to the reference coordinates, Conversion of the three-dimensional shape data at each measurement position into reference coordinates is also performed using this coordinate conversion parameter (see Patent Document 2).
[0004]
[Patent Document 1]
JP-A-9-53914
[Patent Document 2]
JP 2002-328014 A
[0005]
[Problems to be solved by the invention]
However, in the method described in Patent Document 1, since the fixed point has a certain size, the fixed point coordinate value cannot be accurately obtained as a point, and noise is included in each piece of solid shape data. Therefore, the coordinate value of the feature point detected based on the data includes noise, and there is a problem that the coordinate conversion parameter cannot be calculated with high accuracy.
[0006]
Further, in the method described in Patent Document 2, it is necessary to set three or more fixed points in order to calculate the coordinate conversion parameter. Therefore, when one fixed point is set for one reference object, the position of the reference object is determined. Must be measured at least three times with different. In addition, when three fixed points are set for one reference object, or when three reference objects having one fixed point are arranged, the operator designates three-dimensional shape data used to calculate the coordinates of each fixed point. Since it is necessary, there is a problem that work efficiency is deteriorated. Furthermore, only a fixed shape can be used as the reference object. If the reference object is damaged or lost, there is a problem that an alternative cannot be prepared at an early stage. In addition, when the measurement object is fixed, it is necessary to place and measure the reference object in the measurement area of the object of the measurement object, but a reference object having a shape suitable for the shape of the measurement object is required. There is also a problem that it cannot be selected.
[0007]
SUMMARY OF THE INVENTION
The present invention has been made in order to cope with the above-described problem, and an object of the present invention is to obtain a coordinate transformation parameter for synthesizing solid shape data at a plurality of measurement positions with high work efficiency and high accuracy. The object is to provide a method for generating image data. Another object of the present invention is to provide a three-dimensional image data generation method capable of selecting an object having various shapes as a reference object for setting a fixed point.
[0008]
In order to achieve the above object, a feature of the present invention is that one or a plurality of three-dimensional shape measuring devices measure a three-dimensional solid surface shape of an object existing in a measurement target space at a plurality of different positions, and the same object. A three-dimensional shape data group generating step for generating a plurality of sets of three-dimensional shape data groups representing the three-dimensional surface shape of the object, and a part of the object or a part of the object defined by the object parameter for each of the three-dimensional shape data groups Sub solid shape data group extraction step for extracting a sub solid shape data group corresponding to each of the solid shape data groups, and each sub solid shape data group extracted for each of the solid shape data groups. Multiple sets of three-dimensional data sets representing fixed points specified by fixed point parameters, which are fixed points specified by a part of the object or a part of the same object, for each sub solid shape data group Using the fixed point data set generation step to be generated and the generated plural sets of three-dimensional data sets, each of the plural sets of three-dimensional shape data groups is converted into a three-dimensional shape data group represented by one reference coordinate. A coordinate conversion parameter calculation step for calculating a coordinate conversion parameter; and the plurality of sets of three-dimensional shape data groups are converted into three-dimensional shape data groups represented by the reference coordinates using the coordinate conversion parameters, and the conversion is performed. And a synthesis step of synthesizing a plurality of sets of three-dimensional shape data groups.
[0009]
In this case, each three-dimensional shape data group includes, for example, a set of a large number of data sets each representing the position of each divided area obtained by dividing the surface of the object into minute areas in three dimensions. Further, it is preferable that three or more fixed points are determined for each three-dimensional shape data group generated based on each measurement result at a plurality of measurement positions. In order to measure each three-dimensional shape at a plurality of measurement positions, three or more three-dimensional shape measuring devices are arranged at different positions, or one three-dimensional shape measuring device is moved to three or more different positions. It is good to make it.
[0010]
In the feature of the present invention configured as described above, a part of an object existing in the measurement target space or an object parameter representing a part of the object is determined according to a specific shape and size of the object. If a fixed point parameter representing a fixed point in a part of the object or a part of the object is determined, a three-dimensional solid of the object measured at a plurality of different positions by the sub solid shape data group extraction step and the fixed point data set generation step Using a plurality of sets of three-dimensional shape data groups representing the surface shape, a three-dimensional data set representing a fixed point in the measurement target space is automatically generated for each of the three-dimensional shape data groups. Then, coordinate conversion parameters for converting each of the plurality of sets of three-dimensional shape data groups into a three-dimensional shape data group represented by one reference coordinate using the plurality of sets of three-dimensional data sets by the coordinate conversion parameter calculation step. A plurality of sets of three-dimensional shape data that are automatically calculated and converted into a plurality of sets of three-dimensional shape data groups represented by reference coordinates by using the coordinate conversion parameters in the synthesis step. Groups are automatically synthesized.
[0011]
Therefore, according to the feature of the present invention, an operator can display a three-dimensional image of an object located in the measurement target space from any direction only by performing an operation of measuring the three-dimensional shape of the measurement target. Since the three-dimensional image data is automatically generated, the work efficiency for creating the three-dimensional image data is improved. In addition, a fixed point having no size can be specified, and the coordinate value of the fixed point is calculated using a large number of three-dimensional shape data, so that highly accurate coordinate conversion parameters can be obtained, and as a result, the measurement object can be viewed from an arbitrary direction. The accuracy of the three-dimensional image data that can be displayed is improved. Furthermore, by specifying an object parameter and a fixed point parameter, a three-dimensional data set representing a fixed point in an object of an arbitrary shape can be calculated, so that an operator can set a fixed point or a partial shape of the object Can be determined arbitrarily.
[0012]
Another feature of the present invention is that a reference object is arranged in a measurement target space, and one or a plurality of three-dimensional shape measuring devices measure the three-dimensional surface shape of the reference object at a plurality of different positions. A reference solid shape data group generation step for generating a plurality of sets of reference solid shape data groups representing the three-dimensional surface shape of the reference object, and for each reference solid shape data group, a reference object represented by an object parameter or A sub solid shape data group extracting step for extracting a sub solid shape data group corresponding to a part of the reference object from each reference solid shape data group, and each sub solid shape extracted for each reference solid shape data group Using a data group, a plurality of three-dimensional data sets representing fixed points specified by fixed point parameters, which are fixed points specified by the reference object or a part of the reference object, A fixed point data set generation step for each sub-three-dimensional shape data group, and each measurement at a plurality of different positions by the one or a plurality of three-dimensional shape measuring devices using the plurality of generated three-dimensional data sets. A coordinate conversion parameter calculation step for calculating coordinate conversion parameters for respectively converting a plurality of sets of three-dimensional shape data groups respectively generated based on the three-dimensional shape data group represented by one reference coordinate; A plurality of sets of three-dimensional shape measuring apparatuses that measure the three-dimensional surface shape of the measurement object arranged in the measurement object space at a plurality of different positions and represent the three-dimensional surface shape of the measurement object. The measurement three-dimensional shape data group generation step for generating the three-dimensional shape data group, and the plurality of sets of measurement using the calculated coordinate transformation parameter. And respectively converting the three-dimensional shape data group measured three-dimensional shape data group represented by the reference coordinates is to include a synthesizing step for synthesizing the converted plural sets of measured three-dimensional shape data group.
[0013]
In this case, for example, the reference object may be a sphere and the fixed point may be the center of the sphere. Also in this case, each three-dimensional shape data group includes, for example, a set of a large number of data sets each representing three-dimensionally each divided area position obtained by dividing the surface of the object into minute areas. Further, it is preferable that three or more fixed points are determined for each three-dimensional shape data group generated based on each measurement result at a plurality of measurement positions. In order to measure each three-dimensional shape at a plurality of measurement positions, three or more three-dimensional shape measuring devices are arranged at different positions, or one three-dimensional shape measuring device is moved to three or more different positions. It is good to make it.
[0014]
According to this, an object parameter that represents a reference object or a part of the reference object is determined according to a specific shape, size, etc., and a parameter that represents a fixed point within the reference object or a part of the reference object is determined. If this is the case, the coordinate transformation parameter in each measurement value is determined using the reference object by the processing of the reference three-dimensional shape data group generation step, the fixed point data set generation step, and the coordinate conversion parameter calculation step. Calculated automatically with high accuracy. Then, in the measurement three-dimensional shape data group generation step and the synthesis step, three-dimensional image data in which the measurement object is viewed from an arbitrary direction is generated using the calculated coordinate conversion parameter.
[0015]
Therefore, according to another feature of the present invention, when it is difficult to set a fixed point on a measurement object and when it is difficult to perform measurement by adding an object capable of setting a fixed point to the measurement object If the reference object is placed in the measurement object space before measurement, the coordinate transformation parameter with high accuracy can be automatically obtained as in the case of the feature of the present invention. The working efficiency of creating the three-dimensional image data of the measurement object is improved, and highly accurate three-dimensional image data can be obtained. Furthermore, by specifying the object parameter and the fixed point parameter, it is possible to calculate a three-dimensional data set representing a fixed point in a reference object having an arbitrary shape that is automatically generated. Can be determined.
[0016]
In another aspect of the present invention, after the processing of the reference solid shape data group generation step, fixed point data set generation step and coordinate conversion parameter calculation step, the measurement solid shape data group generation step and the synthesis step are repeatedly executed, It is preferable to generate 3D image data that can be displayed by viewing a 3D image of the measurement object from an arbitrary direction. According to this, after calculating the coordinate conversion parameter using the reference object, it is possible to display a stereoscopic image obtained by viewing a large number of measurement objects from arbitrary directions by changing the measurement objects one after another. In particular, it is optimal when grasping the outer shape of various objects passing through the measurement target space, and can automatically grasp the shape of the object passing through the measurement target space with good workability.
[0017]
Furthermore, as another feature of the present invention, the object parameter and the fixed point parameter may be arbitrarily input using an input device. According to this, it becomes possible to freely select a part of a fixed point or a part of the object, thereby expanding the applicability to various applications.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a schematic diagram showing a basic configuration of a three-dimensional image apparatus used in the three-dimensional image data generation method of the present invention.
[0019]
The three-dimensional image apparatus includes three three-dimensional shape measuring apparatuses 20A, 20B, and 20C that are arranged at different positions and are directed to the measurement target space formed on the base 10. These three-dimensional shape measuring apparatuses 20A, 20B, and 20C measure a three-dimensional solid surface shape of an object placed on the base 10, and output measurement information representing the measurement result.
[0020]
As these three-dimensional shape measuring devices 20A, 20B, and 20C, any three-dimensional shape measuring device may be used as long as it measures a three-dimensional surface shape of an object and outputs a signal representing the measured three-dimensional surface shape. Can also be used. In the present embodiment, a brief description will be given of measuring a three-dimensional surface shape of an object according to a triangulation method using laser light.
[0021]
In this three-dimensional shape measuring apparatus, a virtual plane that is substantially perpendicular to the traveling direction of laser light emitted from a laser light source toward an object is assumed, and an X-axis direction and a Y-axis that are orthogonal to each other on the virtual plane. Assume a large number of minute areas divided along the direction. Then, the three-dimensional shape measuring apparatus sequentially irradiates the plurality of minute areas with laser light, sequentially detects the distance to the object surface defined by the minute areas by reflected light from the object as a Z-axis direction distance, Information on X, Y, and Z coordinates representing each divided area position obtained by dividing the surface of the object into minute areas is obtained, and the shape of the object surface facing the three-dimensional shape measuring apparatus is measured.
[0022]
Accordingly, the three-dimensional shape measuring apparatus includes an X-axis direction scanner that changes the direction of the emitted laser light in the X-axis direction, a Y-axis direction scanner that changes the direction of the emitted laser light in the Y-axis direction, and an object surface. And a distance detector for detecting the distance to the object surface by receiving the reflected laser beam reflected by the. The X-axis direction scanner and the Y-axis direction scanner may be any mechanism that can change the optical path of the laser beam emitted from the laser light source independently in the X-axis direction and the Y-axis direction. Rotating around the axis in the direction and the Y-axis direction by an electric motor, or rotating the galvanometer mirror provided in the optical path of the emitted laser light and changing the direction around the axes in the X-axis direction and the Y-axis direction by the electric motor Can be used. As the distance detector, a plurality of imaging lenses such as an imaging lens that condenses the reflected laser light reflected on the object surface and rotates following the optical path of the emitted laser light, and a CCD that receives the condensed laser light are used. It is possible to use a mechanism for detecting the distance to the object surface based on the light receiving position of the reflected laser beam by the line sensor.
[0023]
Therefore, such a three-dimensional shape measuring apparatus uses the reference direction of the laser beam emitted by the X-axis direction scanner as information on the X, Y, and Z coordinates representing the divided area positions obtained by dividing the surface of the object into minute areas. The inclination θx in the X-axis direction with respect to the angle, the inclination θy in the Y-axis direction with respect to the reference direction of the laser beam emitted by the Y-axis direction scanner, and the distance Lz to the object surface by the distance detector are the virtual X-axis direction. And output for each of a large number of minute areas divided along the Y-axis direction. More specifically, the inclinations θx and θy in the X-axis and Y-axis directions are rotation angles from the reference position of the electric motor. Further, the distance Lz to the object surface is the light receiving position of the reflected laser beam in the line sensor.
[0024]
A controller 31 and an image processing device 32 are connected to these three-dimensional shape measuring devices 20A, 20B, and 20C. The controller 31 controls the operation of the three-dimensional shape measuring apparatuses 20A, 20B, and 20C in accordance with instructions from the input device 33 that is a keyboard. Further, the controller 31 controls the operation of the image processing device 32 in accordance with an instruction from the input device 33 and supplies data input by the input device 33 to the image processing device 32.
[0025]
The image processing device 32 is configured by a computer device, and executes information on the three-dimensional images from the three-dimensional shape measuring devices 20A, 20B, and 20C by executing the coordinate transformation coefficient calculation program of FIG. 2 and the combined three-dimensional shape display program of FIG. To generate 3D image data that can be displayed by viewing a 3D image of an object located in the measurement target space from an arbitrary direction. A display device 34 is connected to the image processing device 32. The display device 34 includes a liquid crystal display, a plasma display, a CRT display, and the like, and displays a three-dimensional image of an object located in the measurement target space based on the three-dimensional image data from the image processing device 32.
[0026]
Next, the operation of the three-dimensional image apparatus configured as described above will be described. The user places the spheres 41, 42, 43 as reference objects at appropriate positions on the base 10, and then operates the input device 33 to instruct the calculation of the coordinate conversion coefficient. The spheres 41, 42, and 43 are true spheres prepared in advance, and have different radii and are recognized by the user in advance. The instruction for calculating the coordinate conversion coefficient is transmitted to the image processing apparatus 32 via the controller 31, and the image processing apparatus 32 starts the execution of the coordinate conversion coefficient calculation program of FIG. Wait for the user to input the fixed point specification parameters.
[0027]
The fixed point is within the measurement target section used for converting the coordinates to which the three-dimensional image data respectively generated based on the measurement of the three-dimensional surface shape of the three-dimensional shape measuring apparatuses 20A, 20B, and 20C into common reference coordinates. The fixed point parameter is for specifying a fixed point. Various fixed points can be considered, but in the description of the present embodiment, the center of each of the spheres 41, 42, and 43 is used. Therefore, in order to specify this fixed point, the user sets a parameter representing “sphere”, a parameter representing “radius” for distinguishing the spheres 41, 42, and 43, and “center” for designating a specific point. Enter the parameter that represents. That is, the user inputs three sets of fixed point designating parameters corresponding to the spheres 41, 42, and 43, with the parameters representing the sphere, radius, and center as one set. This fixed point designating parameter includes an object parameter indicating an object or a part of the object including the fixed point (in the above example, “sphere” and “radius”), and one fixed point specified by the object specified by the object parameter. It is classified into the fixed point parameter shown.
[0028]
The three sets of fixed point designating parameters input in this way are input to the image processing device 32 via the controller 31 by the process of step S12. If the previously input fixed point is not changed, or if a fixed fixed point is determined in advance, this fixed point designating parameter input process is omitted. After the processing in step S12, the image processing device 32 waits for input of measurement shape information by the three-dimensional shape measurement devices 20A, 20B, and 20C in step S14.
[0029]
On the other hand, the three-dimensional shape measuring apparatuses 20A, 20B, and 20C are controlled by the controller 31 and start measuring the three-dimensional solid surface shape of the object in the measurement target space when the user instructs the calculation of the coordinate conversion coefficient. . When these measurements are completed, the three-dimensional shape measuring apparatuses 20A, 20B, and 20C output information representing the surface shapes of the spheres 41, 42, and 43 to the image processing apparatus 32, respectively. That is, information (specifically, inclinations θx, θy, and distance Lz) relating to X, Y, and Z coordinates representing the divided area positions obtained by dividing the surfaces of the spheres 41, 42, and 43 into minute areas is output. Therefore, the image processing device 32 inputs the information about the X, Y, and Z coordinates output from the three-dimensional shape measuring devices 20A, 20B, and 20C in the step S14.
[0030]
Next, in step S16, the image processing device 32 determines the object located in the measurement target space based on the input information about the X, Y, and Z coordinates from the three-dimensional shape measurement devices 20A, 20B, and 20C. A three-dimensional shape data group representing a three-dimensional surface shape is calculated for each of the three-dimensional shape measuring apparatuses 20A, 20B, and 20C. That is, each of the divided area positions obtained by dividing the surface of the sphere 41, 42, 43 into minute areas at three kinds of coordinates A, B, C defined by the three-dimensional shape measuring apparatuses 20A, 20B, 20C is 3 respectively. A set of a large number of data sets expressed in dimensions is calculated, and three sets of three-dimensional shape data groups Da, Db, and Dc are obtained. These three sets of three-dimensional shape data groups Da, Db, Dc are represented by coordinate values X, Y, Z at coordinates A, B, C. Specifically, each data set constituting the three-dimensional shape data group Da, Db, Dc is (x a , y a , z a ), (X b , y b , z b ), (X c , y c , z c ) Respectively.
[0031]
Next, in step S18, the three-dimensional shape data groups Da, Db, Dc corresponding to the coordinates A, B, C are respectively included in the minimum space including the spheres 41, 42, 43 having fixed points. The three sub three-dimensional shape data groups are extracted. The sub-three-dimensional shape data group extraction processing includes the following sub-steps 1 to 5, and these sub-steps 1 to 7 are performed for each of the three-dimensional shape data groups Da, Db, and Dc and the spheres 41, 42, and 43. Nine sets of sub-three-dimensional shape data groups Da1, Da2, Da3, Db1, Db2, Db3, Dc1, Dc2, Dc3 are extracted.
[0032]
Substep 1: One plane is defined in the solid shape data group (coordinate data group) parallel to the reference direction of the emitted laser light, and this plane is sequentially moved at equal intervals in the direction perpendicular to the plane. A solid shape data group included in the plane is extracted. In other words, data representing a three-dimensional cut surface when cut along a plane is extracted. When the reference object is a polyhedron such as a rectangular parallelepiped, a polygonal pyramid, a cylinder, or a cone, a sub-step 1 and a sub-step 2 described later are repeated while the plane direction is changed, and a data group is extracted by the number of reference objects. Find the direction of the plane there is. This is to find a plane that is parallel to the bottom surface of the reference object. However, if the bottom surface of the reference object is parallel to the base 10, the above processing is not performed, and the surface of the base 10 is defined as a plane using the solid shape data group of the surface of the base 10. Good.
[0033]
Sub-step 2: For each of the continuous three-dimensional shape data groups included in the plane, a data group that matches the feature of the shape to be recognized obtained from the object parameter is extracted. In the case of this embodiment, since the object parameter designates a sphere, the data group is extracted as a circle. Specifically, the solid shape data group included in the plane is converted into a data group based on the coordinates of the plane, and this data is converted into a circle formula (x-a). 2 + (Y−b) 2 -D 2 = 0, the values of a and b, which are the center coordinates of the circle, are calculated by the method of least squares, the distance between each data in the data group and the coordinates (a, b) is detected, and the value deviation If it is within the discrimination, it is judged that they match. If the reference object is a cylinder or cone, the data group is similarly extracted. If the reference object is a polyhedron such as a rectangular parallelepiped or a polygonal pyramid, the data group is a predetermined angle (for example, a rectangular parallelepiped or a quadrangular pyramid). What is necessary is just to extract the thing which is two straight lines (2 sides) which comprise the angle | corner which makes a right angle if there is.
[0034]
Sub-step 3: If the reference object is a sphere, cylinder, or cone, the coordinates of the center of the circle if the reference object is a sphere, cylinder, or cone. Calculate as coordinates and extract the coordinates calculated for each plane in a straight line.
[0035]
Sub-step 4: In the three-dimensional shape data group included in the plane extracted in sub-step 2, the distance between the coordinates of the center point or the corner coordinate arranged in a straight line is calculated, and this value is the object parameter and the plane. Those that match the value calculated from the interval are extracted. In the case of the present embodiment, since a radius value is given as an object parameter, if a value twice this (ie, the diameter of a sphere) is D and a plane interval is B, then D> a · B (a The largest value a satisfying the inequality () is an integer) is calculated, and the one with the distance between the coordinates at both ends almost matching the multiplication result a · B of the calculated value a and the interval B is extracted. If the reference object is a polyhedron such as a rectangular parallelepiped, a polygonal pyramid, a cylinder, or a cone, the height given as the object parameter instead of the radius may be set to D of the above inequality, and both ends satisfying the inequality The one having the largest coordinate distance is extracted. In this case, when the linear arrangement of the coordinates of the corners is not orthogonal to the plane, such as a polygonal pyramid, the inter-coordinate distance is a component orthogonal to the plane.
[0036]
Sub-step 5: A space including all of the three-dimensional shape data group is determined from the three-dimensional shape data group included in the plane extracted in sub-step 4, and the three-dimensional shape data group included in the space is extracted. In the case of the present embodiment, a spherical space including the coordinates of both ends of the center points arranged in a straight line and the planar solid shape data group having the largest radius of the circle is set, and the solid shape within the spherical space is set. Extract data groups. Even if the reference object is a polyhedron such as a rectangular parallelepiped, a polygonal pyramid, a cylinder, or a cone, the shape of the object including the coordinates of both ends of the center points or corners arranged in a straight line and the solid shape data group in each plane A suitable space can be set.
[0037]
In the extraction process of the sub three-dimensional shape data group (coordinate data group) in step S18 including such sub-steps 1 to 5, the search area is limited to a plane and the search shape is limited by the process of sub-step 1. did. Then, by processing in sub-steps 2 to 4, a data group that matches the search object (including the object part) specified by the object parameter is changed into a data group that matches the shape on the plane, a data group that matches the three-dimensional shape, Since the data group matching the value is extracted in three stages, the object search can be performed easily and accurately, and the search processing time can be shortened. Then, by the processing of sub-step 5, a space including the solid shape data group of the object is set, and the solid shape data group included in the space is extracted. Can be done.
[0038]
In addition, also in the repetition process of the substeps 1-5 of the said step S18, it can abbreviate | omit suitably about the overlapping process. For example, the extraction of data groups that match the shape of the search object specified by the definition of the plane and the object parameters in sub-steps 1 to 3 suffices to be performed on the three-dimensional shape data groups Da, Db, and Dc, respectively. Since it is not necessary to carry out every 41, 42, 43, it is carried out once for each of the three-dimensional shape data groups Da, Db, Dc.
[0039]
Returning to the description of the program in FIG. 2 again, after the process of step S18, the image processing apparatus 32 executes a fixed point coordinate calculation process in step S20. In the process of step S20, the following sub-steps 1 and 2 are repeatedly executed for the nine sets of sub-solid shape data groups Da1, Da2, Da3, Db1, Db2, Db3, Dc1, Dc2, and Dc3. Thus, data sets Pa1, Pa2, Pa3, Pb1, Pb2, Pb3, Pc1, Pc2, and Pc3 representing nine sets of fixed points are respectively calculated. These nine data sets Pa1, Pa2, Pa3, Pb1, Pb2, Pb3, Pc1, Pc2, and Pc3 are represented by three types of coordinates A, B, and C defined by the three-dimensional shape measuring apparatuses 20A, 20B, and 20C. This is a data set (X, Y, Z coordinate values) representing a fixed point for each of the spheres 41, 42, 43.
[0040]
Sub-step 1: Calculate a coordinate value representing a position (hereinafter referred to as an object position) where the position of the object or part of the object specified by the object parameter can be specified. Specifically, the outline of the object specified by the corresponding object parameter is superimposed on the extracted set of sub-three-dimensional shape data groups, and each point represented by each sub-three-dimensional shape data group and the outline of the object A coordinate value representing an object position at which the total deviation is minimized is calculated using the method of least squares.
[0041]
The processing of this sub-step 1 will be described with a specific example. When a sphere is adopted as a reference object as in the present embodiment, the surface of the sphere is represented by the following formula 1, and the surface of the spheres 41, 42, 43 is related to A point group (each point is represented by a coordinate value x, y, z) should satisfy the following equation (1). In the following formula 1, a, b, and c are unknown numbers representing the center coordinates of the sphere, and d is a constant input as an object parameter representing the radius of the sphere.
[0042]
[Expression 1]
(x-a) 2 + (Y−b) 2 + (Z-c) 2 -D 2 = 0
[0043]
Therefore, in the processing of sub-step 1, the nine sub-solid shape data groups Da1, Da2, Da3, Db1, Db2, Db3, Dc1, Dc2, and Dc3 extracted by the processing of step S18 are each sub-solid. For each shape data group, a point group (xi, yi, zi) (i = 1 to n) constituting the same sub three-dimensional shape data group is substituted into the left side of the above equation 1, and the sum of square values of the values is summed. A, b, and c are calculated using the method of least squares. Thereby, in this case, coordinate values x, y, z representing the center position (object position) of the sphere 41 (or spheres 42, 43) are calculated as a, b, c.
[0044]
When a polyhedron such as a rectangular parallelepiped or a polygonal pyramid is adopted as the reference object, the surface of the reference object is represented by the following formula 2, and a point group related to the surface of the reference object (each point is represented by coordinate values x, y, and z). Is to satisfy the following formula for the plane of Equation 2.
[0045]
[Expression 2]
a.x + b.y + c.z + d = 0
[0046]
Also in this case, in the processing of sub-step 1, the nine sets of sub-three-dimensional shape data groups Da1, Da2, Da3, Db1, Db2, Db3, Dc1, Dc2, Dc3, Dc3 extracted by the processing of step S18 are performed. For each sub three-dimensional shape data group, the point group (xi, y i, zi) (i = 1 to n) constituting the sub three-dimensional shape data group is substituted into the left side of the above equation 2, and the value of 2 A, b, c, and d that minimize the sum of the multiplier values are calculated using the method of least squares. Thereafter, using the calculated values a, b, c, d representing the respective planes of the reference object, a straight line intersecting each plane, that is, an expression (value) representing the side is calculated. Further, the coordinate value of each vertex is calculated using an expression (value a, b, c, d) representing the plane and an expression (value) representing the side. The coordinate value of each vertex represents the object position.
[0047]
When a cylinder, a cone, or the like is adopted as the reference object, the upper surface of the cylinder is represented by the above formula 2, and the bottom surface of the cylinder and the cone, and the side surface of the cylinder and the cone (surface when cut horizontally on the bottom surface) Is represented by Equation 3 below. In this case, in the cylinder, d in the following equation 3 is the radius of the top surface and the bottom surface given by the object parameter, and in the case of the cone, it is the radius of the circle at the cutting plane calculated by the radius of the bottom surface, the height of the cone, and the cutting height. is there. However, the values a, b, and d in Equation 2 are different from the values a, b, and d in Equation 3 below.
[0048]
[Equation 3]
(x-a) 2 + (Y−b) 2 -D 2 = 0
[0049]
In this case as well, in the processing of this sub-step 1, as in the case described above, the values a, b, c, d of Equation 2 and the values a, b of Equation 3 below are calculated using the least square method. To do. Further, in the calculation process relating to the side surface in this case, the cylinder 3 or the cone is cut along a plane parallel to the bottom surface while shifting the position by a minute interval in the direction perpendicular to the bottom surface, and Equation 3 is applied. After that, the center coordinates of each circle are calculated using the calculated value 3 and the value a and b of the cylinder or the cone, and the calculated value 3 and a and b of the cut surface of the cylinder or the cone. Identify the center line perpendicular to the center of the bottom. In the case of a cylinder, the coordinates of the center of the top and bottom surfaces are calculated as coordinates representing the object position using the center line and the calculated values a, b, c, and d of the above formula 2. . For the cone, the coordinates of the center and vertex of the bottom surface are calculated as coordinates representing the object position.
[0050]
Sub-step 2: Define a fixed point of the object specified by the fixed point parameter. As described above, if the object parameter represents a sphere and the object position is the center of the sphere, the coordinates representing the center position of the sphere have already been calculated as the coordinates representing the position of the reference object by the processing of the sub-step 1. Therefore, the processing in sub-step 2 is substantially unnecessary.
[0051]
In addition, when a polyhedron such as a rectangular parallelepiped or a polygonal pyramid is adopted as the reference object, if any vertex is designated as the fixed point, any of the vertices calculated by the processing of sub-step 1 is selected. The coordinates of these vertices are selected as fixed points. If the reference object is a rectangular parallelepiped and the center of gravity of the rectangular parallelepiped is designated as a fixed point, the coordinates of the eight vertices (xi, yi, zi) (i = 1) calculated by the processing of sub-step 1 are used. ˜8), the coordinates xc, yc, zc of the fixed point are calculated by the following equation 4.
[0052]
[Expression 4]
Figure 0003944091
[0053]
Further, if a cylinder is adopted as the reference object and the center point of the top surface or the bottom surface is designated as the fixed point, the coordinate of one of the two vertices calculated by the processing of sub-step 1 is Selected as a fixed point. If a cylinder is adopted as the reference object and the center of gravity is designated as a fixed point, the coordinates of the center position of the line connecting the two vertices are calculated as the fixed point. Also, if a cone is adopted as the reference object, and the vertex or bottom center point is designated as the fixed point, one of the vertex and bottom center points calculated by the processing of sub-step 1 is Selected as a fixed point.
[0054]
By such processing of sub-steps 1 and 2, since the fixed point is calculated using the object parameter and the fixed point parameter based on the small amount of the sub three-dimensional shape data group, the calculation processing speed can be increased.
[0055]
After the process of step S20, the image processing device 32 executes a process of calculating coordinate conversion coefficients (coordinate conversion parameters) in step S22. This coordinate conversion coefficient calculation processing calculates a conversion coefficient for converting a solid shape data group of one coordinate to a solid shape data group of another coordinate. In the present embodiment, the coordinate A (the coordinate of the three-dimensional shape measuring apparatus 20A) is used as a reference coordinate, and each of the coordinate B (the coordinate of the three-dimensional shape measuring apparatus 20B) and the coordinate C (the coordinate of the three-dimensional shape measuring apparatus 20C) is used. A coordinate value is converted into the reference coordinate value.
[0056]
Prior to the description of the coordinate conversion coefficient calculation processing in step S22, the coordinate conversion will be briefly described. A first coordinate composed of XYZ coordinates, and the first coordinate are rotated by α, β, γ around the X axis, Y axis, and Z axis, respectively, and the origin of the first coordinate is the X axis direction, Assume a second coordinate moved by a, b, and c in the Y-axis direction and the Z-axis direction, respectively. When the coordinate value of one point in the first coordinate is (x, y, z) and the coordinate value of the same point in the second coordinate is (x ′, y ′, z ′), Number 5 And the same Number 5 The matrix M in the following is In Equation 6 Is represented by
[0057]
[Equation 5]
Figure 0003944091
[0058]
[Formula 6]
Figure 0003944091
[0059]
The calculation of the coordinate transformation coefficient in the step S22 Number 5 and Equation 6 Matrix value in 11 , g 12 , g 13 , g twenty one , g twenty two , g twenty three , g 31 , g 32 , g 33 And calculating matrix values a, b, c. First, coordinate values (x, y, z) at coordinates B (coordinates of the three-dimensional shape measuring apparatus 20B) are converted into coordinate values (x ′, y) at coordinates A (coordinates of the three-dimensional shape measuring apparatus 20A) as reference coordinates. A coordinate conversion coefficient for conversion into ', z') is calculated. Data sets Pa1, Pa2, and Pa3 at coordinates A corresponding to fixed points (centers) of the spheres 41, 42, and 43 as reference objects are represented by (x a1 , y a1 , z a1 ), (X a2 , y a2 , z a2 ), (X a3 , y a3 , z a3 ), And the data sets Pb1, Pb2, and Pb3 at the coordinates B corresponding to the fixed points (centers) of the spheres 41, 42, and 43 are represented by (x b1 , y b1 , z b1 ), (X b2 , y b2 , z b2 ), (X b3 , y b3 , z b3 ) Number 7-9 The relationship is established.
[0060]
[Expression 7]
Figure 0003944091
[0061]
[Equation 8]
Figure 0003944091
[0062]
[Equation 9]
Figure 0003944091
[0063]
Said Number 7 If you transform Number 10 The simultaneous equations are established.
[0064]
[Expression 10]
Figure 0003944091
[0065]
this Number 10 By solving the simultaneous equations, the matrix value g 11 , g 12 , g 13 Can be calculated. Also, the above Number 8 and Number 9 With respect to Number 10 If it is transformed like the simultaneous equations, the matrix value g twenty one , g twenty two , g twenty three And matrix value g 31 , g 32 , g 33 Can be calculated. And these calculated matrix values are Number 7-9 Matrix values a, b, and c can be calculated. Accordingly, a coordinate conversion coefficient for converting the coordinate value (x, y, z) at the coordinate B into the coordinate value (x ′, y ′, z ′) at the coordinate A, which is the reference coordinate, is calculated.
[0066]
Next, the coordinate values (x, y, z) at the coordinates C (coordinates of the three-dimensional shape measuring apparatus 20C) are converted into the coordinate values (x ′, x) at the coordinates A (coordinates of the three-dimensional shape measuring apparatus 20A) as reference coordinates. A coordinate conversion coefficient for conversion into y ′, z ′) is calculated. In this case, the coordinate values (x) representing the data sets Pb1, Pb2, and Pb3 at the coordinates B corresponding to the fixed points (centers) of the spheres 41, 42, and 43 as reference objects, respectively. b1 , y b1 , z b1 ), (X b2 , y b2 , z b2 ), (X b3 , y b3 , z b3 ) Instead of the coordinate values (x representing the data sets Pc1, Pc2, Pc3 at the coordinates C corresponding to the fixed points (centers) of the spheres 41, 42, 43, respectively. c1 , y c1 , z c1 ), (X c2 , y c2 , z c2 ), (X c3 , y c3 , z c3 ) Number 7-10 The coordinate conversion for converting the coordinate value (x, y, z) at the coordinate C to the coordinate value (x ′, y ′, z ′) at the coordinate A, which is the reference coordinate, by the same calculation as that using A coefficient is calculated. In step S24, the execution of the coordinate conversion coefficient calculation program is terminated.
[0067]
After execution of this coordinate conversion coefficient calculation program, the user removes the spheres 41, 42, and 43 from the base 10 and places the measurement object 50 on the base 10. Then, the input device 33 is operated to instruct the stereoscopic display of the measurement object 50. In response to this, the image processing apparatus 32 starts execution of the composite 3D shape display program of FIG. 2 in step S30, and inputs measurement information representing the 3D shape of the measurement object 50 in step S32. Wait for. On the other hand, the three-dimensional shape measuring apparatuses 20A, 20B, and 20C are controlled by the controller 31 and start measuring the three-dimensional solid surface shape of the measuring object 50. When the three-dimensional shape measuring apparatuses 20A, 20B, and 20C complete the measurement of the measurement object 50, the information representing the measurement result is output to the image processing apparatus 32, respectively.
[0068]
In step S32, the image processing device 32 inputs measurement information from the image processing device 32 in the same manner as the processing in step S14. In step S34, three sets of three-dimensional shape data groups Da relating to the measurement object 50 are obtained for each of the three-dimensional shape measuring apparatuses 20A, 20B, and 20C on the basis of the measurement information in the same manner as in step S16. Db and Dc are obtained. These three sets of three-dimensional shape data groups Da, Db, and Dc are also expressed by X, Y, and Z coordinate values independent of the coordinates A, B, and C, and constitute the three-dimensional shape data groups Da, Db, and Dc. Each data set to (x a , y a , z a ), (X b , y b , z b ), (X c , y c , z c ).
[0069]
Next, in step S36, the coordinate transformation coefficients calculated by executing the coordinate transformation coefficient calculation program (that is, two sets of matrix values g) 11 , g 12 , g 13 , g twenty one , g twenty two , g twenty three , g 31 , g 32 , g 33 , a, b, c), the B and C coordinate three-dimensional shape data groups Db and Dc are converted into A coordinate three-dimensional shape data groups Db ′ and Dc ′, respectively. In this case, Number 5 The conversion is performed by executing the above operation.
[0070]
In step S38, the three-dimensional shape data group Da of the A coordinate measured by the three-dimensional shape measuring apparatus 20A, and the three-dimensional shape data measured by the three-dimensional shape measuring apparatuses 20B and 20C and converted into the A coordinate, respectively. The groups Db ′ and Dc ′ are combined into a set of three-dimensional shape data groups. In this synthesis, since the three-dimensional shape data groups Da, Db ′, Dc ′ are all represented by coordinate values on the same coordinate A, the measurement objects that are not measured by the three-dimensional shape measuring apparatuses 20A, 20B, 20C, respectively. Three-dimensional shape data groups Da, Db ′, Dc ′ representing 50 parts (outer surface of the measuring object 50 located on the back side with respect to the three-dimensional shape measuring apparatuses 20A, 20B, 20C) are complemented to each other, and a set Data group.
[0071]
Next, in step S <b> 40, the image processing device 32 controls the display device 34 using the synthesized three-dimensional shape data group, and causes the display device 34 to stereoscopically display the measurement object 50. Thereafter, the execution of the combined 3D shape display program is terminated in step S42. In the stereoscopic display of the measurement object 50, the user can instruct the display direction of the measurement object 50 by operating the input device 33, and the controller 31 and the image processing device 32 are displayed on the display device 32. The display direction of the measurement object 50 is changed. Thereby, the image which looked at the measuring object 50 from arbitrary directions can be displayed.
[0072]
Further, if a new measurement object 50 is placed on the base 10 and the display of the measurement object 50 is indicated as described above, the execution of the composite three-dimensional shape display program of FIG. An image obtained by viewing the new measurement object 50 from an arbitrary direction can be displayed on the display device 32 using the coordinate conversion coefficient. Therefore, if the coordinate transformation coefficient regarding the measurement target space on the base 10 is calculated only once using the spheres 41, 42, and 43 as the reference objects, the measurement target 50 is changed one after another and the display device 32 changes. Three-dimensional display is possible.
[0073]
As can be understood from the above description of operation, according to the above embodiment, a fixed point specified by the spheres 41, 42, and 43 is set by executing the coordinate conversion coefficient calculation program, and the three-dimensional shape measuring apparatus using the identification point is set. A coordinate conversion coefficient (coordinate conversion parameter) between 20A, 20B, and 20C is calculated. Then, by executing the combined three-dimensional shape display program, a plurality of sets of three-dimensional shape data groups of the measurement object 50 are converted into three-dimensional shape data groups represented by reference coordinates by using the coordinate conversion coefficient, and the conversion is performed. A plurality of sets of three-dimensional shape data groups are synthesized.
[0074]
Therefore, according to the above-described embodiment, the operator only performs an operation of measuring the three-dimensional shapes of the spheres 41, 42, 43 and the measurement object 50 as the reference object, and the three-dimensional image of the measurement object 50 is in an arbitrary direction. Since the three-dimensional image data that can be viewed from the viewpoint is automatically generated, the work efficiency of creating the three-dimensional image data is improved. In addition, since a fixed point having no size can be designated, a highly accurate coordinate conversion parameter can be obtained, and as a result, the accuracy of the three-dimensional image data that can be displayed when the measurement object 50 is viewed from any direction is improved. Furthermore, by specifying the object parameter and the fixed point parameter, it is possible to calculate a three-dimensional data set representing a fixed point in a reference object having an arbitrary shape that is automatically generated. Can be determined.
[0075]
Although one embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the object of the present invention.
[0076]
For example, in the above embodiment, after calculating the coordinate conversion coefficients for the three-dimensional shape measuring apparatuses 20A, 20B, and 20C using the spheres 41, 42, and 43 as reference objects, the measurement objects 50 on the base 10 are successively placed. And the three-dimensional shape of the object 50 is measured one after another. However, the present invention can also be applied to a three-dimensional shape measurement in which a three-dimensional shape of an object moving one after another on various lines such as a production line and an inspection line is measured one after another. In this case, after the three-dimensional shape measuring devices 20A, 20B, and 20C are arranged toward the measurement target space on the line, the spheres 41, 42, and 43 as reference objects are placed on the line that is the measurement target space and the coordinates are set. The conversion coefficient is calculated, and then the measurement object that has moved on the line and entered the measurement object space is measured by the three-dimensional shape measuring devices 20A, 20B, and 20C, and the measurement result is converted into the calculated coordinate conversion. It is preferable to perform coordinate conversion using a coefficient.
[0077]
Moreover, in the said embodiment, after calculating a coordinate transformation coefficient based on the measurement of the three-dimensional solid shape of the reference | standard object (sphere 41,42,43), the measuring object 50 is put on the base 10, and a measuring object The three-dimensional solid shape of the object 50 was measured. However, instead of this, if it is possible to place the reference object and the measuring object 50 on the base 10 at the same time, the reference object and the measuring object 50 are placed on the base 10 at the same time. The three-dimensional solid shape of the object and the measurement object 50 may be measured. In this case, the image processing device 32 may execute the coordinate transformation coefficient calculation program of FIG. 2 up to step S22, and then execute the processing after step S36 of the combined three-dimensional shape display program of FIG.
[0078]
In the above embodiment, the fixed point is specified by the spheres 41, 42, and 43 as reference objects different from the measurement object 50. However, when a part of the measurement object 50 has a shape that can be easily recognized. In this case, a fixed point may be defined in a specific part of the measurement object 50 without using a reference object. For example, if a spherical portion exists in the measurement object 50, the same spherical portion is specified by the object parameter, the center of the spherical portion is determined as a fixed point, and the same processing as in the above embodiment may be performed. In this case as well, the image processing device 32 may execute the coordinate conversion program of FIG. 2 up to step S22, and then perform the processing after step S36 of the combined 3D shape display program of FIG.
[0079]
In addition, in the designation of fixed points by the specific parts of the spheres 41, 42, 43 and the measurement object 50 as the reference objects, the center of the circular shape, one end of one side of the rectangular parallelepiped shape, etc. One point in the shape that can be easily recognized may be designated by a fixed point designation parameter. In addition to this shape, in the case of various colors, a color element may be added to specify the shape. Furthermore, the fixed point may be specified based on the distance between the plurality of objects, the arrangement relationship of the plurality of objects, and the like. In these cases, the in-block feature values defined by the object parameters for searching for an object that specifies a fixed point include a curvature of a circle outline in the case of a circular shape, and a straight line of a predetermined length in the case of a rectangular parallelepiped. A specific color may be used when a part or color is added, and a distance of a predetermined length may be used when a plurality of objects are used.
[0080]
Of the object parameters and fixed point parameters for specifying a fixed point, as for the fixed point parameter, a fixed point designated by the object parameter may be determined and stored in advance. For example, if the object specified by the object parameter is a sphere and a circle, the predetermined data representing the relationship between the shape and the fixed point is used, such as a center point if the object is a rectangular parallelepiped, and one end of the shortest side. It may be stored in a table or the like, and a fixed point parameter representing a fixed point in the table may be used in association with the shape specified by the object parameter.
[0081]
In the above embodiment, three three-dimensional shape measuring apparatuses 20A, 20B, and 20C are installed, and three fixed points are set in the calculation of the coordinate conversion coefficient. However, the number of installed three-dimensional shape measuring apparatuses may be four or more. In this case, only three sets of measurement results that are easy to use among the four or more sets of measurement results measured by four or more three-dimensional shape measuring apparatuses may be used, or the three-dimensional shape data group may be calculated. The measurement results of the extra group (fourth or more groups) may be used for the final correction of the three-dimensional shape data group. There may also be four or more fixed points. In this case, the coordinate conversion coefficient may be calculated based on three fixed points that are easy to use among the four or more fixed points, or an extra (fourth or more) fixed points when calculating the coordinate conversion coefficient. May be used for final correction of the coordinate conversion coefficient.
[0082]
Further, in the above-described embodiment, three three-dimensional shape measuring devices 20A, 20B, and 20C are installed, and the three-dimensional shape measuring devices 20A, 20B, and 20C are respectively used as a reference object (spheres 41, 42, and 43) and a measurement. The three-dimensional solid surface shape of the object 50 is measured. However, instead of this, the position of one three-dimensional shape measuring apparatus may be moved to measure the reference object and the measuring object 50 at a plurality of positions. In this case, after calculating the coordinate conversion coefficient by measuring the reference object, when measuring the three-dimensional solid shape of the measurement object 50, the measurement position is set in advance and the measurement is always performed at the same measurement position. To. Also in this case, if there is an easily recognizable object or part of the object in the measurement target 50 and a specific point can be determined in the object or part of the object, as described above. Alternatively, this specific point may be determined as a fixed point without using the reference object, and the identified point may be detected using the object parameter and the fixed point parameter.
[Brief description of the drawings]
FIG. 1 is a schematic view of a three-dimensional image device used in a three-dimensional image data generation method of the present invention.
FIG. 2 is a flowchart of a coordinate transformation coefficient calculation program executed by the image processing apparatus of FIG.
FIG. 3 is a flowchart of a composite 3D shape display program executed by the image processing apparatus of FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Base, 20A, 20B, 20C ... Three-dimensional shape measuring device, 31 ... Controller, 32 ... Image processing device, 33 ... Input device, 34 ... Display device, 41-43 ... Sphere.

Claims (3)

一つまたは複数の3次元形状測定装置により複数の異なる位置で測定した物体の3次元立体表面形状を用いて、測定対象空間内に位置する物体の3次元画像を任意の方向から見て表示可能な3次元画像データを生成する3次元画像データ生成方法において、
前記一つまたは複数の3次元形状測定装置に前記測定対象空間内に存在する物体の3次元立体表面形状を複数の異なる位置で測定させ、同物体の3次元表面形状を表す複数組の立体形状データ群を生成する立体形状データ群生成ステップと、
前記各立体形状データ群ごとに、物体パラメータにより定義される一部の物体または同物体の一部に対応したサブ立体形状データ群を各立体形状データ群の中から抽出するサブ立体形状データ群抽出ステップと、
前記各立体形状データ群ごとに抽出した各サブ立体形状データ群を用いて、前記一部の物体または同物体の一部によって特定される定点であって定点パラメータによって定義される定点を表す複数組の3次元データセットを各サブ立体形状データ群ごとに生成する定点データセット生成ステップと、
前記生成した複数組の3次元データセットを用いて、前記複数組の立体形状データ群を1つの基準座標によって表現される立体形状データ群にそれぞれ変換するための座標変換パラメータを計算する座標変換パラメータ計算ステップと、
前記座標変換パラメータを用いて前記複数組の立体形状データ群を前記基準座標によって表現される立体形状データ群にそれぞれ変換して、同変換された複数組の立体形状データ群を合成する合成ステップと
を含むことを特徴とする3次元画像データ生成方法。
Using 3D surface shapes of objects measured at multiple different positions with one or more 3D shape measurement devices, 3D images of objects located in the measurement target space can be viewed from any direction. In a 3D image data generation method for generating 3D image data,
A plurality of sets of three-dimensional shapes representing the three-dimensional surface shape of the object by causing the one or more three-dimensional shape measuring devices to measure the three-dimensional surface shape of the object existing in the measurement target space at a plurality of different positions. A three-dimensional shape data group generation step for generating a data group;
Sub 3D shape data group extraction for extracting from the 3D shape data group a sub 3D shape data group corresponding to a part of the object defined by the object parameter or a part of the same object for each 3D shape data group Steps,
A plurality of sets representing fixed points defined by fixed point parameters, which are fixed points specified by the partial object or part of the same object, using the sub solid shape data groups extracted for each of the solid shape data groups A fixed point data set generating step for generating a three-dimensional data set for each sub-three-dimensional shape data group;
A coordinate conversion parameter for calculating a coordinate conversion parameter for converting each of the plurality of sets of three-dimensional shape data groups into a three-dimensional shape data group represented by one reference coordinate, using the generated plurality of sets of three-dimensional data sets. A calculation step;
A synthesis step of converting each of the plurality of sets of three-dimensional shape data groups into a three-dimensional shape data group represented by the reference coordinates using the coordinate conversion parameters, and combining the plurality of sets of three-dimensional shape data groups that have been converted; A three-dimensional image data generation method comprising:
一つまたは複数の3次元形状測定装置により複数の異なる位置で測定した物体の3次元立体表面形状を用いて、測定対象空間内に位置する物体の3次元画像を任意の方向から見て表示可能な3次元画像データを生成する3次元画像データ生成方法において、
基準物体を前記測定対象空間内に配置して、前記一つまたは複数の3次元形状測定装置に同基準物体の3次元立体表面形状を複数の異なる位置で測定させ、同基準物体の3次元表面形状を表す複数組の基準立体形状データ群を生成する基準立体形状データ群生成ステップと、
前記各基準立体形状データ群ごとに、物体パラメータにより表される基準物体または同基準物体の一部に対応したサブ立体形状データ群を各基準立体形状データ群の中から抽出するサブ立体形状データ群抽出ステップと、
前記各基準立体形状データ群ごとに抽出した各サブ立体形状データ群を用いて、前記基準物体または同基準物体の一部によって特定される定点であって定点パラメータによって定義される定点を表す複数の3次元データセットを各サブ立体形状データ群ごとに生成する定点データセット生成ステップと、
前記生成した複数組の3次元データセットを用いて、前記一つまたは複数の3次元形状測定装置による複数の異なる位置での各測定に基づいてそれぞれ生成される複数組の立体形状データ群を1つの基準座標によって表現される立体形状データ群にそれぞれ変換するための座標変換パラメータを計算する座標変換パラメータ計算ステップと、
前記一つまたは複数の3次元形状測定装置に前記測定対象空間内に配置された測定対象物の3次元立体表面形状を複数の異なる位置で測定させ、同測定対象物の3次元表面形状を表す複数組の測定立体形状データ群を生成する測定立体形状データ群生成ステップと、
前記計算された座標変換パラメータを用いて前記複数組の測定立体形状データ群を前記基準座標によって表現される測定立体形状データ群にそれぞれ変換して、同変換された複数組の測定立体形状データ群を合成する合成ステップとを含むことを特徴とする3次元画像データ生成方法。
Using 3D surface shapes of objects measured at multiple different positions with one or more 3D shape measurement devices, 3D images of objects located in the measurement target space can be viewed from any direction. In a 3D image data generation method for generating 3D image data,
A reference object is arranged in the measurement object space, and the one or more three-dimensional shape measuring devices are caused to measure the three-dimensional surface shape of the reference object at a plurality of different positions, and the three-dimensional surface of the reference object is measured. A reference solid shape data group generation step for generating a plurality of sets of reference solid shape data groups representing shapes;
For each reference solid shape data group, a sub solid shape data group for extracting a sub solid shape data group corresponding to a reference object represented by an object parameter or a part of the reference object from each reference solid shape data group An extraction step;
A plurality of fixed points defined by fixed point parameters, which are fixed points specified by the reference object or a part of the reference object, using the sub solid shape data groups extracted for each of the reference solid shape data groups. A fixed point data set generation step for generating a three-dimensional data set for each sub-three-dimensional shape data group;
Using the generated plurality of sets of three-dimensional data sets, a plurality of sets of three-dimensional shape data groups respectively generated based on the respective measurements at a plurality of different positions by the one or more three-dimensional shape measuring apparatuses A coordinate conversion parameter calculation step for calculating a coordinate conversion parameter for conversion into a three-dimensional shape data group represented by two reference coordinates,
The one or a plurality of three-dimensional shape measuring devices measure the three-dimensional surface shape of the measurement object arranged in the measurement object space at a plurality of different positions, and represent the three-dimensional surface shape of the measurement object. A measurement solid shape data group generation step for generating a plurality of sets of measurement solid shape data groups;
Using the calculated coordinate conversion parameters, the plurality of sets of measurement solid shape data groups are converted into measurement solid shape data groups represented by the reference coordinates, respectively, and the plurality of sets of measurement solid shape data groups that have been converted are converted. And a synthesizing step of synthesizing the three-dimensional image data.
前記物体パラメータおよび定点パラメータは、入力装置を用いて任意に入力可能である前記請求項1または2に記載した3次元画像データ生成方法。The three-dimensional image data generation method according to claim 1 or 2, wherein the object parameter and the fixed point parameter can be arbitrarily input using an input device.
JP2003029070A 2003-02-06 2003-02-06 3D image data generation method Expired - Fee Related JP3944091B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003029070A JP3944091B2 (en) 2003-02-06 2003-02-06 3D image data generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003029070A JP3944091B2 (en) 2003-02-06 2003-02-06 3D image data generation method

Publications (2)

Publication Number Publication Date
JP2004239747A JP2004239747A (en) 2004-08-26
JP3944091B2 true JP3944091B2 (en) 2007-07-11

Family

ID=32956344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003029070A Expired - Fee Related JP3944091B2 (en) 2003-02-06 2003-02-06 3D image data generation method

Country Status (1)

Country Link
JP (1) JP3944091B2 (en)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4491687B2 (en) * 2005-04-21 2010-06-30 パルステック工業株式会社 Coordinate transformation function correction method
US8111904B2 (en) * 2005-10-07 2012-02-07 Cognex Technology And Investment Corp. Methods and apparatus for practical 3D vision system
JP4956960B2 (en) * 2005-10-28 2012-06-20 横浜ゴム株式会社 3D shape measuring apparatus and 3D shape measuring method
DE102005057733B4 (en) * 2005-12-02 2009-10-22 Specialty Minerals (Michigan) Inc., Bingham Farms Method for measuring the refractory lining of a metallurgical melting vessel
JP2008185511A (en) * 2007-01-31 2008-08-14 Bridgestone Corp Tire rro measurement method and its device
US8126260B2 (en) 2007-05-29 2012-02-28 Cognex Corporation System and method for locating a three-dimensional object using machine vision
KR100926271B1 (en) 2007-11-22 2009-11-12 삼성중공업 주식회사 Modeling method of 3D closed space using 3D measuring tool
KR101009556B1 (en) * 2008-09-29 2011-01-18 삼성중공업 주식회사 Method for modeling closed space
US9734419B1 (en) 2008-12-30 2017-08-15 Cognex Corporation System and method for validating camera calibration in a vision system
US9533418B2 (en) 2009-05-29 2017-01-03 Cognex Corporation Methods and apparatus for practical 3D vision system
US9393694B2 (en) 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
JP5273091B2 (en) * 2010-05-14 2013-08-28 パルステック工業株式会社 3D shape measuring apparatus and 3D shape measuring method
WO2011146964A1 (en) * 2010-05-24 2011-12-01 F.B. Technologies Pty Ltd A system for manipulating objects
US9124873B2 (en) 2010-12-08 2015-09-01 Cognex Corporation System and method for finding correspondence between cameras in a three-dimensional vision system
US9003670B2 (en) 2012-03-08 2015-04-14 United Technologies Corporation System and method for measuring a workpiece relative to a common measurement coordinate system
KR101595067B1 (en) * 2014-08-27 2016-02-18 고려대학교 산학협력단 Device and method for analysizing three dimensional shapes
WO2017156396A1 (en) * 2016-03-11 2017-09-14 Cyberoptics Corporation Field calibration of three-dimensional non-contact scanning system
JP7208061B2 (en) * 2019-02-28 2023-01-18 クモノスコーポレーション株式会社 Spherical marker detection method

Also Published As

Publication number Publication date
JP2004239747A (en) 2004-08-26

Similar Documents

Publication Publication Date Title
JP3944091B2 (en) 3D image data generation method
JP4492654B2 (en) 3D measuring method and 3D measuring apparatus
JP4443497B2 (en) Multi-degree-of-freedom robot positioning error correction apparatus and positioning error correction method
JP4708752B2 (en) Information processing method and apparatus
JP2017118396A (en) Program, device and method for calculating internal parameter of depth camera
US6993179B1 (en) Strapdown system for three-dimensional reconstruction
JP2015057612A (en) Device and method for performing non-contact measurement
JP7486740B2 (en) System and method for efficient 3D reconstruction of an object using a telecentric line scan camera - Patents.com
WO2018201677A1 (en) Bundle adjustment-based calibration method and device for telecentric lens-containing three-dimensional imaging system
McIvor Nonlinear calibration of a laser stripe profiler
JP4291178B2 (en) 3D shape measuring system, measuring method, and 3D shape measuring stage device
Hosseininaveh et al. A low-cost and portable system for 3D reconstruction of texture-less objects
JP5273091B2 (en) 3D shape measuring apparatus and 3D shape measuring method
WO2020075213A1 (en) Measurement apparatus, measurement method, and microscopic system
JP2019207153A (en) Simulation device, simulation method, and program
JP4429135B2 (en) Three-dimensional shape measurement system and measurement method
JP4472432B2 (en) Coordinate transformation coefficient acquisition method, coordinate transformation coefficient acquisition device, and computer program
JP2007122160A (en) Modeling device and calculation method for camera parameter
KR100379948B1 (en) Three-Dimensional Shape Measuring Method
JP3952467B2 (en) 3D data extraction method and 3D data extraction apparatus
CN118097039B (en) Surface structured light three-dimensional point cloud reconstruction method and system based on discrete projection light
JP7439070B2 (en) Modeling of 3D surface topography
Tang et al. 3-step-calibration of 3D vision measurement system based-on structured light
TW202305749A (en) Simulation device
JP2007218596A (en) Acquisition method of coordinate transformation function, and program for acquiring coordinate transformation function

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060502

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070406

R150 Certificate of patent or registration of utility model

Ref document number: 3944091

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100413

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100413

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110413

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110413

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120413

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130413

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130413

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130413

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140413

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees