Nothing Special   »   [go: up one dir, main page]

JP2010537181A - 非接触測定を行う装置および方法 - Google Patents

非接触測定を行う装置および方法 Download PDF

Info

Publication number
JP2010537181A
JP2010537181A JP2010521465A JP2010521465A JP2010537181A JP 2010537181 A JP2010537181 A JP 2010537181A JP 2010521465 A JP2010521465 A JP 2010521465A JP 2010521465 A JP2010521465 A JP 2010521465A JP 2010537181 A JP2010537181 A JP 2010537181A
Authority
JP
Japan
Prior art keywords
target object
image
optical pattern
projector
phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010521465A
Other languages
English (en)
Other versions
JP5943547B2 (ja
Inventor
ジョン ウェストン ニコラス
ルース ハダート イヴォンヌ
ジョン ムーア アンドリュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renishaw PLC
Original Assignee
Renishaw PLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB0716080.7A external-priority patent/GB0716080D0/en
Priority claimed from GBGB0716109.4A external-priority patent/GB0716109D0/en
Priority claimed from GBGB0716088.0A external-priority patent/GB0716088D0/en
Application filed by Renishaw PLC filed Critical Renishaw PLC
Publication of JP2010537181A publication Critical patent/JP2010537181A/ja
Application granted granted Critical
Publication of JP5943547B2 publication Critical patent/JP5943547B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • G01B11/007Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines feeler heads therefor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

対象物体を検査するための非接触法および装置。第1の透視位置から撮った、光学的パターンが投影される前記対象物体の少なくとも1つの第1の画像が得られる。第1の透視位置と異なる第2の透視位置から撮った、光学的パターンが投影される対象物体の少なくとも1つの第2の画像が得られる。次いで、少なくとも1つの第1および第2の画像のそれぞれの中の少なくとも1つの共通の対象物体特徴が、少なくとも1つの第1および第2の画像内に画像化されているような光学的パターンの不規則性に基づいて決定される。

Description

本発明は、対象物体に接触することなく対象物体を測定するための方法および装置に関する。
写真測量法は、異なる透視位置で撮影した写真から、つまり、異なる位置および/または方向から、対象物体上の特定のいくつかの点の配置を決定するための公知の技術である。典型的には、写真測量法は、2つの異なる透視位置から撮影した対象物体の少なくとも2つの画像を得ることを含む。それぞれの画像について、画像上の対象物体の特徴の二次元座標が決定される。次いで、撮像した(複数の)カメラの配置および方向、および特徴が画像上に形成された点に関する情報から、対象物体上の特徴の3つの次元座標を決定することが可能である。このような技術は、例えば、参照により本明細書に組み込まれている特許文献1で開示されている。
写真測量法を実行するために、画像上に配置できる対象物体上の特徴を識別する必要がある。測定用の基準点を形成する対象物体の特徴は、素早く、簡単に、確実に識別できることが重要である。
特徴を識別するための公知技術は、ターゲットを対象物体上の注目する点に付けることを含む。例えば、一組の白黒の同心円状のリングで囲まれた「標的」をコード化し、それぞれの「標的」が透視位置に関して不変な一意的中心点を持つようにして、測定すべき対象物体の特徴上に置くことができる。例えば、スポットまたは標的を対象物体の表面上に投影することによって、対象物体上にターゲット特徴を投影することも知られている。ターゲットの中心を特定し、一意的な識別子が存在する場合にその識別子をさらに復号化するために、自動特徴認識法が使用されうる。このようなターゲットを用いることで、画像の自動解析を行い、「標的」中心の座標を返すようにすることができる。しかし、このような「標的」の使用に関わる不利点として、そのようなターゲットが測定されるそれぞれの点上に置かれるか、または投影されなければならないという事実が挙げられる。この作業には、かなりの時間がかかることがあり、また測定精度も、オペレータがターゲットを置く精度に制限される。さらに、点密度は、使用されているターゲットのサイズによって制限される。
エッジおよびコーナーなどの対象物体上の複数の点を自動的に特定するために、ターゲットを使用する代わりに特徴認識技術を使用することが知られている。このような特徴認識技術としては、直線、円、および楕円を識別するために使用できるハフ変換が挙げられる。この技術は、それよりもさらに複雑な形状を識別するために使用できるが、必要な計算量が多くなり、またその結果は画像内のノイズおよび照明のアーチファクトの影響を受けやすい。
米国特許第5,251,156号明細書 英国特許出願第0716080.7号明細書 英国特許出願第0716088.0号明細書 英国特許出願第0716109.4号明細書 欧州特許第402440号明細書
J. Heikkila and O. Silven, "A four-step camera calibration procedure with implicit image correction", Proceedings of the 1997 Conference in Computer Vision and Pattern Recognition (CVPR '97) J.G Fryer, "Camera Calibration" in K.B. Atkinson (ed.) "Close range photogrammetry and machine vision", Whittles publishing (1996) Creath, K. "Comparison of phase measurement algorithms" Proc. SPIE 680, 19-28 (1986) J.R. Parker, "Algorithms for image processing and computer vision", John Wiley and Sons, Inc (1997) A. Gruen, "Least squares matching: a fundamental measurement algorithm" in K.B. Atkinson (ed.), "Close range photogrammetry and machine vision", Whittles Publishing (2001) M.A.R Cooper with S. Robson, "Theory of close-range-photogrammetry" in K.B. Atkinson (ed.), "Close range photogrammetry and machine vision", Whittles Publishing (2001)
本発明は、対象物体上に投影された光学パターンの不規則性が識別され、ターゲット特徴として使用される写真測量法を使用して対象物体を検査するための方法を提供するものである。
本発明の第1の態様によれば、対象物体を検査するための非接触法が提供され、この方法は、任意の適当な順序で、i)第1の透視位置から撮った、光学的パターンが投影される対象物体の少なくとも1つの第1の画像を得ることと、ii)第1の透視位置と異なる第2の透視位置から撮った、光学的パターンが投影される対象物体の少なくとも1つの第2の画像を得ることと、iii)少なくとも1つの第1および第2の画像内に画像化されているような光学的パターンの不規則性に基づき少なくとも1つの第1および第2の画像のそれぞれの中の少なくとも1つの共通の対象物体特徴を識別することとを含む。
本発明の利点は、対象物体上に置かれているか、または投影されるマーカーを使用せずに、ターゲット特徴を識別できることである。むしろ、これらは、対象物体と光学的パターンとの間の界面によって形成され、対象物体が撮像された光学的パターンを変形させて光学的パターン内に不規則性をもたらす。これにより、対象物体の高精度な測定を迅速に実行することが可能になる。また、高密度の点群をターゲットとし、測定することも可能になる。本発明の方法では、複雑な形状の対象物体上の点を識別するのに必要な処理資源が他の知られている画像処理技術に比べて少なくて済むことも判明している。
ステップi)における光学的パターンの対象物体およびプロジェクタの相対的位置および相対的方向のうちの少なくとも一方は、ステップii)における光学的パターンの対象物体およびプロジェクタとは異なることがある。理解されるように、ステップi)における光学的パターンの対象物体およびプロジェクタの相対的位置および/または方向は、ステップii)における光学的パターンの対象物体およびプロジェクタの相対的位置および/または方向と異なることがあるので、光学的パターンの対象物体およびプロジェクタの間の相対的透視位置は、ステップ間で異なりうる。したがって、この結果、対象物体上の光学的パターンの位置は第1の画像を得るステップと少なくとも第2の画像を得るステップとの間で変化している可能性がある。そのため、対象物体上の光学的パターンの位置は、画像毎に異なりうる。対象物体上の光学的パターンの位置を変えることは、光学的パターンに影が入ったり、遮ったりすることで引き起こされる問題を回避できるため有利であると考えられる。
光学的パターンは、二次元に広がるものとすることができる。投影される光学的パターンにより、対象物体上の光学的パターンの単一像から二次元内の対象物体の表面のトポロジーを決定することができる。光学的パターンは、実質的に全視野である光学的パターンとすることができる。実質的に全視野の光学的パターンは、基準面で第1および第2の画像のうちの少なくとも1つを得るために(以下でさらに詳しく説明される)、パターンが画像センサの視野の少なくとも50%に広がっている、より好ましくは少なくとも75%に広がっている、特に好ましくは少なくとも95%に広がっている、例えば、基準面における画像センサの実質的に視野全体に広がっているパターンとすることができる。基準面は、画像センサから知られている距離だけ離れている平面とすることができる。適宜、基準面は、光学的パターンプロジェクタおよび画像センサの光軸が交わる点を含む平面としてよい。基準面は、画像センサの光軸に対し垂直に伸びるものとしてよい。
好ましくは、少なくとも1つの第1の画像および少なくとも1つの第2の画像内に画像化されるようなパターンが、対象物体の一領域上に投影される。好ましくは、パターンは対象物体のある領域上に広がり、これにより、本発明の方法を使用して少なくとも1つの第1の画像および少なくとも1つの第2の画像からその領域上にある対象物体の複数の点の測定を容易に行える。パターンは、繰り返しパターンでなくてもよい。しかし、好ましくは、パターンは実質的には繰り返しのパターンである。特に好ましい光学的パターンは、実質的に周期的な光学パターンを含む。理解されるように、周期的光学的パターンは、一定の有限な距離の後に繰り返すパターンとすることができる。繰り返しの間の最小距離をパターンの周期とすることができる。好ましくは、光学的パターンは、少なくとも一次元方向に周期的である。適宜、光学的パターンは、少なくとも2つの垂直次元方向に周期的であるものとしてよい。
本発明とともに使用するのに適している光学的パターンとしては、同心円のパターン、様々な色の直線のパターン、陰影、および/または色調が挙げられる。色、陰影、および/または色調は、2つまたはそれ以上の異なる値を交互に取るものとすることも可能であろう。適宜、色、陰影、および/または色調は、複数の離散値の範囲内の値を取るものとすることも可能であろう。好ましくは、色、陰影、および/または色調は、光学的パターン全体にわたって連続的に変化する。好ましくは、光学的パターンは、干渉縞パターンである。例えば、光学的パターンは、一組の正弦波縞模様とすることができる。光学的パターンは、赤外線から紫外線までの範囲内としてよい。好ましくは、光学的パターンは、可視の光学的パターンである。理解されるように、本発明などの方法で使用するための光学的パターンは、通常、構造化光パターンとも称される。
光学的パターンに適したプロジェクタは、プロセッサデバイスから入力された画像を投影するように構成されているデジタル光プロジェクタを含む。このようなプロジェクタを使用することで、投影されるパターンを変更することができる。好適なプロジェクタは、光源および光学的パターンを生成するように配列された1つまたは複数の回折格子を備えることが可能である。(複数の)回折格子は、プロジェクタによって投影されるパターンを変更できるように移動可能であるものとすることも可能である。例えば、(複数の)回折格子を圧電変換器上に取り付けることもできる。適宜、回折格子は、プロジェクタによって投影されるパターンを変更できないように固定することも可能である。適宜、プロジェクタは、光源およびホログラムを備えることが可能である。さらに、プロジェクタは、光源およびパターン形成スライドを備えることが可能である。さらに、プロジェクタは、2つの相互に位相が揃っているコヒーレント光源を備えることが可能である。コヒーレント光源は、プロジェクタによって投影されるパターンを変更できるように移動可能であるものとすることも可能である。例えば、コヒーレント光源を圧電変換器上に取り付けることもできる。適宜、コヒーレント光源は、プロジェクタによって投影されるパターンを変更できないように固定することも可能である。
理解されるように、透視位置は、対象物体の特定の視点であってよい。透視位置は、第1のおよび第2の画像を得る少なくとも1つの撮像デバイスおよび撮像される対象物体の相対的位置および/または方向によって定められうる。好ましくは、第1および第2の透視位置は、互いに関して知られている。特に、好ましくは、互いに関するその位置および方向が知られている。例えば、透視位置同士の間の関係を記述する知られているオフセットベクトルおよび回転行列がありうる。適宜、透視位置を決定するために使用できる位置センサを備えることも可能である。適宜、透視位置を固定することも可能である。さらに、透視位置は、例えば、知られている基準特徴および/または対象物体を探索することによって画像から決定することも可能である。
理解されるように、好ましくは、第1および第2の画像は、対象物体の少なくとも部分的に重なり合うビューを含む。このため、少なくとも1つの共通の対象物体特徴が両方の画像内に存在する。理解されるように、共通の対象物体特徴は、第1および第2の画像内に取り込まれている対象物体上の任意の特徴としてもよい。共通の対象物体特徴は、対象物体上の単一点、例えば、コーナー特徴とすることも可能である。適宜、共通の対象物体特徴は、対象物体上の複数の点とすることも可能である。例えば、共通の対象物体特徴は、対象物体の長いエッジなどの線とすることも可能である。線は、直線でも曲線でもよい。以下でさらに詳しく説明するように、共通の対象物体特徴は、ターゲット特徴として使用することが可能である。特に、共通の対象物体特徴は、写真測量法による測定プロセスにおけるターゲット特徴として使用することが可能である。
理解されるように、対象物体に関して異なる位置および/または方向を有する少なくとも第1および第2の光学的パターンプロジェクタを備えることができる。したがって、第1の画像内に画像化された光学的パターンは、第1の光学的パターンプロジェクタによって投影され、第2の画像内に画像化された光学的パターンは、第2の光学的パターンプロジェクタによって投影されうる。
好ましくは、ステップi)で画像化された光学的パターンのプロジェクタおよびステップii)で画像化された光学的パターンのプロジェクタは、少なくとも1つの光学的パターンプロジェクタを含む共通の光学的パターンプロジェクタユニットによって実現される。したがって、この方法は、ステップi)とii)との間で対象物体と光学的パターンプロジェクタユニットを相対的に移動することを含むことができる。特に、これは、対象物体に相対的に光学的パターンプロジェクタユニットを移動することを含むことができる。光学的パターンプロジェクタユニットは、複数の光学的パターンプロジェクタを備えることが可能である。複数の光学的パターンプロジェクタは、互いに関して固定された空間的関係にあるものとすることが可能である。
より好ましくは、ステップii)で画像化される光学的パターンのプロジェクタは、ステップi)で画像化される光学的パターンのプロジェクタである。したがって、この方法は、単一の光学的パターンプロジェクタのみを使用して実行することができる。したがって、光学的パターンプロジェクタユニットは、単一の光学的パターンプロジェクタのみを備えることができる。これは、複数の光学的パターンプロジェクタを備えることに比べて単純であるといえる。したがって、この方法は、ステップi)とii)との間で対象物体と光学的パターンのプロジェクタとを相対的に移動することをさらに含むことができる。特に、この方法は、対象物体に相対的に光学的パターンのプロジェクタを移動することを含むことができる。
理解されるように、ステップi)で対象物体上に投影される光学的パターンの種類は、ステップii)で投影される光学的パターンの種類と異なる可能性がある。例えば、ステップi)で投影される光学的パターンは、複数の同心円とすることができ、ステップii)で投影される光学的パターンは、複数の直線とすることができる。好ましくは、ステップi)とステップii)で対象物体上に投影される光学的パターンは、同じである。
少なくとも1つの第1の画像および少なくとも1つの第2の画像は、少なくとも1つの好適な撮像デバイスによって得ることができる。好適な撮像デバイスは、少なくとも1つの画像センサを備えることができる。例えば、好適な撮像デバイスは、CCD(電荷結合素子)、CMOS(相補形金属酸化膜半導体)などの光学的EMR(電磁放射線)高感度検出器を備えることができる。好適な撮像デバイスは、像面に集光するように適宜構成されうる。理解されるように、像面は、画像センサによって定められうる。例えば、好適な撮像デバイスは、光学的EMRを像面に集束するように構成された少なくとも1つの光学コンポーネントを備えることができる。適宜、少なくとも1つの光学コンポーネントはレンズを備える。
好適な撮像デバイスは、撮像デバイスの透視中心とも称されうる、ピンホールからなるピンホールカメラモデルに基づくものとしてよく、EMR光線はこのピンホールを通過してから像面と交わると想定される。理解されるように、ピンホールを備えずに、代わりにEMR光線を集束させるレンズを備える撮像デバイスも透視中心を有し、これは、像面と交わるすべてのEMR光線が通過すると想定される点とすることができる。
理解されるように、透視中心は、非特許文献1および非特許文献2で説明されているような較正手順を使用して画像センサに関して見つけることができる。レンズ収差を補正するパラメータなどの補正パラメータを与えることができ、このようなパラメータはよく知られており、例えば、これら2つの文献において説明されている。
好ましくは、少なくとも1つの第1の画像および少なくとも1つの第2の画像は、少なくとも1つの撮像デバイスを備える共通の撮像デバイスユニットによって得られる。したがって、この方法は、第1の透視位置から第2の透視位置へ撮像デバイスユニットと対象物体とを相対的に移動することをさらに含むことができる。対象物体および/または撮像デバイスユニットの移動は、手動でも、自動でも可能である。撮像デバイスユニットは、複数の撮像デバイスを備えることができる。
少なくとも1つの第1の画像および少なくとも1つの第2の画像は、単一の撮像デバイスによって得ることができる。単一の撮像デバイスは、単一の画像センサを備えることができる。したがって、少なくとも1つの第1の画像および少なくとも第2の画像は、単一の画像センサによって得ることができる。したがって、対象物体は、第1および第2の透視位置を得るために少なくとも1つの第1の画像および少なくとも1つの第2の画像を得るステップの間で移動することが可能である。適宜、撮像デバイスは、第1および第2の透視位置を得るために少なくとも1つの第1の画像および少なくとも1つの第2の画像を得るステップの間で移動することが可能である。したがって、この方法は、第1の知られている透視位置から第2の知られている透視位置へ撮像デバイスを移動することを含むことができる。
好ましくは、光学的パターンプロジェクタユニットおよび撮像デバイスユニットは、座標位置決め装置上に取り付けられる。好ましくは、光学的パターンプロジェクタユニットおよび撮像デバイスユニットは、少なくとも直線自由度1で、より好ましくは少なくとも直線自由度2で、特に好ましくは少なくとも直線自由度3で移動できるように座標位置決め装置上に取り付けられる。好ましくは、直線自由度は、互いに垂直である。好ましくは、光学的パターンプロジェクタユニットおよび撮像デバイスユニットは、少なくとも回転自由度1で、より好ましくは少なくとも回転自由度2で、例えば少なくとも回転自由度3で回転できるように座標位置決め装置上に取り付けられる。好ましくは、これら少なくとも回転自由度2および少なくとも回転自由度3は、2本の実質的に垂直な軸を中心とする。回転自由度は、光学的パターンプロジェクタユニットおよび撮像デバイスユニットが取り付けられている関節ヘッドによって与えることができる。自由度3および回転自由度2で移動可能な測定デバイスは、計測業界では「5軸」測定デバイスと一般に称される。しかし、理解されるように、本発明は、このようなシステムに限定されず、それよりもさらに多い自由度で、例えば、3、4、またはそれ以上の回転自由度での移動を容易にするシステムとともに使用することができる。
好ましくは、座標位置決め装置は、コンピュータ制御座標位置決め装置、例えば、コンピュータ数値制御(CNC)座標位置決め装置である。好適な座標位置決め装置は、CMM(三次元座標測定機)および工作機械を含む。
好ましくは、ステップi)およびii)における光学的パターンの少なくとも1つのプロジェクタならびに第1の画像および第2の画像を得るための少なくとも1つの撮像デバイスは、互いに関して固定された空間関係にある。したがって、これらは、単一のユニットとして構成できる。特に、これらは、共通のプローブデバイスとして構成できる。共通プローブデバイスは、座標位置決め装置上に取り付けることができる。これにより、操作および位置判定が簡単に行えるようになる。特に、光学的パターンプロジェクタユニットおよび/または画像センサユニットの複数の知られている位置および方向を素早く定めることができ、したがって、対象物体を測定する精度および速度が向上する。
好ましくは、この方法は、画像解析装置が共通の特徴を測定するため少なくとも1つの第1の画像および第2の画像を使用することをさらに含む。好ましくは、共通の特徴を測定することは、第1の透視位置と第2の透視位置に関して共通の対象物体特徴の位置を決定することを含む。特に、共通の特徴を測定することは、測定容積内の共通の対象物体特徴の位置を決定することを含む。
理解されるように、光学的パターン内の不規則性は、光学的パターン内の不連続と称することもできる。
光学的パターン内の不規則性は、対象物体の不連続の特徴によって引き起こされる光学的パターンの変形とすることができる。光学的パターンのこのような変形は、例えば、対象物体の2つの連続するセクションの間の境界において発生しうる。例えば、境界は、立方体の2つの面が交わる立方体の稜線とすることが可能である。したがって、対象物体上の不連続な特徴は、対象物体の表面の勾配が著しく変化する場所であるとしてよい。光学的パターンプロジェクタに関する表面の勾配が大きければ大きいほど、表面上のその点における光学的パターンの変形度合いは大きくなる。したがって、不規則性は、光学的パターンが所定の閾値を超えて変形される対象物体上の点を識別することによって識別することが可能である。この所定の閾値は、測定される対象物体のサイズおよび形状を含む、多くの因子に依存する。適宜、所定の閾値は、測定される対象物体に関する情報に基づきユーザが操作前に決定し設定できる。
不規則性は、光学的パターンの変化率が所定の閾値変化率より大きい対象物体上の点を画像上で識別することによって識別されうる。例えば、光学的パターンが周期的光学的パターンである実施形態では、不規則性は、周期的光学的パターンの位相の変化率が所定の閾値変化率より大きい対象物体上の点を画像上で識別することによって識別されうる。特に、光学的パターンが干渉縞パターンである実施形態では、不規則性は、干渉縞パターンの位相の変化率が所定の閾値変化率より大きい対象物体上の点を画像上で識別することによって識別されうる。
対象物体上に投影されたときに画像化される光学的パターンの位相の変化率は、画像から位相マップを作成し、次いで、所定の閾値より高い位相マップ内の隣接点の間の位相内の跳躍部を探すことによって識別されうる。理解されるように、位相マップは、画像内の複数のピクセルについて対象物体の表面上に投影される周期的パターンの位相を含むマップである。位相マップは、ラップ位相マップとすることが可能である。位相マップは、アンラップ位相マップとすることが可能である。知られている技術を使用することで、ラップ位相マップをアンラップ処理して、アンラップ位相マップを得ることができる。
位相マップは、光学的パターン対象物体の単一画像から作成することができる。例えば、フーリエ変換技術を使用することで、位相マップを作成することが可能である。
好ましくは、位相マップは、対象物体上の光学的パターンの位置が画像毎に異なる、実質的に同じ透視位置から得られた対象物体の一組の画像から作成される。したがって、位相マップは、位相ステッピング法を使用して作成されうる。これにより、さらに正確な位相マップが得られる。位相ステッピングアルゴリズムが、知られており、例えば、非特許文献3で説明されている。したがって、ステップi)は、第1の知られている透視位置から対象物体上の光学的パターンの一組の第1の画像を得ることを含みうる。ステップii)は、第2の知られている透視位置から対象物体上の光学的パターンの一組の第2の画像を得ることを含みうる。したがって、一組の画像は、与えられた透視位置からの対象物体の複数の画像を含むことができる。好ましくは、一組の画像は、少なくとも2つの画像、より好ましくは少なくとも3つの画像、特に好ましくは少なくとも4つの画像を含む。対象物体上の光学的パターンの位置は、一組の画像に含まれる画像毎に異なりうる。
ステップiii)は、a)一組の第1の画像から少なくとも1つの第1の位相マップを計算することを含むことができる。ステップiii)は、b)一組の第2の画像から少なくとも1つの第2の位相マップを計算することをさらに含むことができる。少なくとも1つの第1の位相マップおよび少なくとも1つの第2の位相マップは、ラップ位相マップとすることができる。適宜、少なくとも1つの第1の位相マップおよび少なくとも1つの第2の位相マップは、アンラップ位相マップとすることができる。ステップiii)は、c)少なくとも1つの第1の位相マップおよび第2の位相マップ内の少なくとも1つの共通の不規則性をターゲット特徴として識別することをさらに含むことができる。
対応する不規則性は、知られているマッチング技術により、また例えば、エピポーラ幾何学を使用することによって決定できる。
ステップa)は、一組の第1の画像から一組の第1の位相マップを計算することを含むことができる。一組の第1の位相マップに含まれるそれぞれの位相マップは、一組の第1の画像の一意的順序を使用して計算することができる。ステップb)は、一組の第2の画像から一組の第2の位相マップを計算することを含むことができる。一組の第2の位相マップに含まれるそれぞれの位相マップは、一組の第2の画像の一意的順序を使用して計算することができる。ステップc)は、少なくとも1つの第1の位相マップからなる一組の位相マップおよび少なくとも第2の位相マップからなる一組の位相マップのそれぞれにおける少なくとも1つの対応する不規則性をターゲット特徴として識別することをさらに含むことができる。
一組の位相マップに含まれるそれぞれの位相マップが対応する一組の画像の一意的順序を使用して計算される複数の組の位相マップを計算する方法は、これにより位相マップ内の実不規則性および偽不規則性を識別できるため有利である。好ましくは、それぞれの組の位相マップは、少なくとも2つの位相マップ、より好ましくは少なくとも3つの位相マップ、特に好ましくは少なくとも4つの位相マップを含む。
ステップc)は、一組の位相マップ内の少なくとも1つの実不規則性を識別することを含むことができる。位相マップが、ラップ位相マップである場合、ラップ位相データのせいで不規則性は誤って識別される。したがって、少なくとも1つの実不規則性を識別することは、一組のマップ内のラップ位相マップのそれぞれを比較して少なくとも2つのラップ位相マップ内で共通に識別されている不規則点を識別することを含むことができる。ラップ位相マップのそれぞれの間の共通でない形で識別されている任意の不規則点は、偽不規則性であるとして破棄することができる。
理解されるように、不規則性は、他の理由により、また例えば、対象物体によって引き起こされる光学的パターン内の影のせいで、誤って識別されることもある。このような偽不規則性は、異なる透視位置から撮られた画像を比較することによって判定され、破棄されうる。特に、このような偽不規則性は、異なる透視位置から撮られた画像の位相マップを比較することによって判定され、破棄されうる。理解されるように、ラップ位相マップが得られる画像(または一組の画像)内にある影によって引き起こされる位相マップ内の不規則性は、異なる透視位置から撮られた異なる画像(または一組の画像)に対してはラップ位相マップ内に存在することはない。したがって、このような不規則性は、偽不規則性であるとして破棄されうる。
上述のように、対象物体上の光学的パターンの位置がラップ位相マップ計算に対するそれぞれの画像内で異なる、与えられた透視位置における対象物体の一組の画像を得ることは有利であると言える。対象物体上の光学的パターンの位置は、光学的パターンプロジェクタによって放出される、光学的パターンを変更することによって変えることが可能である。例えば、光学的パターンプロジェクタによって放出される、干渉縞パターンなどの光学的パターンの位相は、与えられた透視位置について一組の画像内のそれぞれの画像を得る間に変えることが可能である。
適宜、対象物体上の光学的パターンの位置は、対象物体と光学的パターンを投影する光学的パターンプロジェクタとを相対的に移動することによって変えることが可能である。例えば、この方法は、一組の画像内のそれぞれの画像を得る間に対象物体と光学的パターンプロジェクタとを相対的に移動することを含むことが可能である。光学的パターンプロジェクタおよび画像センサが、互いに関して固定されたとき、例えば、単一ユニットとして備えられた場合、画像センサは、対象物体上の光学的パターンの位置の変化を取得した結果として対象物体に相対的に移動する。この場合、一組の画像内の画像のそれぞれによって覆われる共通画像領域を識別することが必要になることがある。そこで、共通画像領域のみを使用して、ラップ位相マップを作成することができる。共通画像領域を識別することは、対象物体と画像センサとの間の相対的移動を補正するように画像座標を調節することを含むことができる。
第1および第2の知られている透視位置は、この方法を運用する前に決定することができる。この場合、少なくとも1つの第1の画像および少なくとも1つの第2の画像を所定の位置および方向で配置されている静止撮像デバイスから取得し、それらの透視位置を求めることができる。適宜、少なくとも1つの撮像デバイスを所定の位置および方向に移動することで、所定の透視位置における画像を得ることが可能である。少なくとも1つの撮像デバイスを、少なくとも1つの撮像デバイスが取り付けられている位置決め装置を操作するユーザが所定の位置および方向に移動させることが可能である。これは、ユーザが少なくとも1つの撮像デバイスを所定の位置および方向に物理的に引っ張ることを伴いうる。適宜、これには、ユーザが少なくとも1つの画像センサを移動するために入力デバイスを介して位置決め装置を制御することが必要になる可能性がある。位置決め装置は、少なくとも1つの撮像デバイスの位置および方向をとるように事前構成され、また少なくとも1つの撮像デバイスを所定の位置および方向に自動的に移動するように構成されうる。
適宜、この方法は、画像の取り出し元の位置および方向を判定することを含むことが可能である。少なくとも1つの撮像デバイスが座標位置決め装置上に取り付けられる実施形態では、位置および方向は、座標位置決め機の位置報告機能から取得することが可能である。例えば、座標位置決め機は、座標位置決め機の相対的に移動可能な部分の位置を判定するためのエンコーダを備えることが可能である。この場合、撮像デバイスの位置および方向は、エンコーダの出力から決定することが可能である。
この方法は、画像解析装置が少なくとも1つの第1の画像および少なくとも1つの第2の画像のそれぞれにおいて複数の共通の対象物体特徴として対象物体上に形成される光学的パターン内の複数の不規則性を識別することを含むことができる。複数の共通の対象物体特徴は、複数のターゲット特徴とすることも可能である。この方法は、少なくとも1つの第1の画像および少なくとも1つの第2の画像から測定空間内の対象物体上の複数のターゲット特徴のうちのそれぞれの特徴の三次元座標を決定することをさらに含むことが可能である。
この方法は、光学的パターンが投影される対象物体の表面に関する凹凸形状データを画像解析装置が決定することをさらに含むことができる。これは、三角測量を介して、および/または例えば、位相解析を介して実行されうる。これは、第1の画像および第2の画像のうちの少なくとも一方によって画像化されている光学的パターンの変形を画像解析装置が処理することによって実行されうる。特に、光学的パターンが周期的光学的パターンである実施形態では、画像解析装置は、表面上の周期的光学的パターンの位相を解析することが可能である。対象物体上に投影される周期的光学的パターンの位相を解析することによって凹凸形状データを決定するための多くの方法が知られている。このような技術は、位相ステッピング使用アルゴリズムを含む。例えば、好適な位相ステッピングアルゴリズムは、非特許文献3で説明されている。理解されるように、このような位相ステッピングアルゴリズムは、対象物体上の周期的光学的パターンの位置がそれぞれの画像内で異なる、実質的に共通の透視位置からの対象物体の複数の画像を必要とする。
このような方法は、位相マップ、特にラップ位相マップを生成するために使用することができ、このマップを処理して凹凸形状高さ情報を得ることができる。
対象物体上の周期的光学的パターンの位置は、プロジェクタによって放出される周期的光学的パターンを変更することによって画像のそれぞれを取得する間で変えることが可能である。例えば、プロジェクタは、レンズ上に入射するレーザビームを備えることができ、このレンズは液晶システム上にビームを発散させて測定される表面上に少なくとも1つの干渉縞パターンを生成する。液晶システムによって生成される干渉縞パターンのピッチおよび位相を制御するために、コンピュータを使用することができる。コンピュータおよび液晶システムは、位相シフト法を用いて、構造化された光パターンの位相を変化させることができる。
適宜、対象物体上の光学的パターンの位置は、対象物体と光学的パターンプロジェクタとを相対的に移動することによって一組の画像内のそれぞれの画像を取得する間に変えることが可能である。このため、さらに、位相マップを位相ステッピングプロセスによって得ることができる。対象物体上の光学的パターンの位置が、対象物体の複数の画像のうちのそれぞれの画像を取得する間に変更され、これらの画像を解析することによって凹凸形状データが得られる方法および装置の詳細は、出願人の参照番号742/WO/0を有し、特許文献2、特許文献3、および特許文献4からの優先権を主張する、「PHASE ANALYSIS MEASUREMENT APPARATUS AND METHOD」という表題を持つ、本出願と同日に出願された同時係属PCT出願において開示されている。
他の知られている技術としては、周期的光学的パターンの画像をフーリエ変換して、位相マップ、特にラップ位相マップを生成し、次いでこれを処理して凹凸形状高さ情報を取得することが挙げられる。
いずれの方法でも、画像解析装置は、ラップ位相マップをアンラップし、そのアンラップされた位相マップから凹凸形状データを決定するように構成されうる。
画像解析装置は、画像全体にわたる凹凸形状データを決定するように構成できる。適宜、画像解析装置は、画像の一部のみにわたる凹凸形状データを決定するように構成できる。特に、画像解析装置は、光学的パターンが投影される対象物体の連続セクションに関する凹凸形状データを決定するように構成することができる。対象物体の連続セクションは、複数のすでに識別されている不規則性によって囲まれている対象物体の一部としてもよい。
理解されるように、凹凸形状データは、対象物体の表面の少なくとも一部の凹凸形状を示すデータとすることができる。凹凸形状データは、対象物体上の少なくとも1つの点、および好ましくは対象物体上の複数の点における、画像センサに相対的な対象物体の表面の高さを示すデータとすることができる。凹凸形状データは、対象物体上の少なくとも1つの点、および好ましくは対象物体上の複数の点における、対象物体の表面の勾配を示すデータとすることができる。
位相解析によって対象物体の表面の凹凸形状データを決定し、さらに対象物体上の共通の特徴の位置を識別し決定するための方法および装置の詳細は、出願人の参照番号743/WO/0を有し、特許文献2、特許文献3、特許文献4からの優先権を主張する、「NON-CONTACT PROBE」という表題を持つ、本出願と同日に出願された同時係属PCT出願において開示されている。その出願において開示されている発明主題は、参照により本出願の明細書に組み込まれている。
この方法は、画像解析装置が複数のターゲット特徴の三次元座標を凹凸形状データと組み合わせて対象物体の三次元モデルデータを取得することをさらに含むことができる。
理解されるように、ターゲット特徴の三次元座標は、三角法によって決定できる。例えば、ターゲット特徴の三次元座標は、写真測量法によって決定できる。したがって、この方法は、画像解析装置が写真測量法を使用して測定空間内の対象物体上のターゲット特徴の三次元座標を決定することを含むことができる。
この方法は、第1および第2の知られている透視位置と異なる少なくとも第3の知られている透視位置から対象物体上の光学的パターンの少なくとも1つの第3の画像を得ることを含むことができる。この場合、この方法は、共通の対象物体特徴として少なくとも1つの第1の画像、第2の画像、および第3の画像のうちのそれぞれの画像内の光学的パターンに含まれる不規則性を識別することを含むことができる。不規則性は、ターゲット特徴として識別することも可能である。この方法は、測定空間内の対象物体上のターゲット特徴の三次元座標を決定することをさらに含むことが可能である。当然のことながら、他の知られている透視位置からの対象物体上の光学的パターンのさらに多くの画像を取得することができる。取得する画像の数を増やすことで、光学的パターン内の不規則性をターゲット特徴として識別し、測定空間内の対象物体上のターゲット特徴の三次元座標を決定するプロセスの精度および信頼度を改善することができる。
本発明の第2の態様によれば、対象物体を検査するための装置が提供され、この装置は、少なくとも第1のプロジェクタ透視位置および第2のプロジェクタ透視位置から光学的パターンを測定される対象物体上に投影するように構成された少なくとも1つのプロジェクタと、第1の画像透視位置から、第1のプロジェクタ透視位置から光学的パターンが投影される対象物体の少なくとも1つの第1の画像を取得するように構成され、第2の画像透視位置から、第2のプロジェクタ透視位置から光学的パターンが投影される対象物体の少なくとも1つの第2の画像を取得するように構成されている少なくとも1つの撮像デバイスと、共通の対象物体特徴として少なくとも1つの第1の画像および第2の画像のうちのそれぞれの画像内の光学的パターンに含まれる不規則性を識別するように構成されている画像解析装置とを備える。
理解されるように、プロジェクタ透視位置は、プロジェクタおよび対象物体の相対的位置を含みうる。プロジェクタ透視位置は、プロジェクタおよび対象物体の相対的方向を含みうる。
装置は、少なくとも1つのプロジェクタを備えるプロジェクタユニットを具備することができる。プロジェクタユニットおよび対象物体は、第1のプロジェクタ透視位置と第2のプロジェクタ透視位置との間で相対的に移動されるように構成されうる。装置は、少なくとも1つの撮像デバイスを備える撮像デバイスユニットを具備することができる。撮像デバイスユニットおよび対象物体は、第1の画像透視位置と第2の画像透視位置との間で相対的に移動されるように構成されうる。プロジェクタユニットおよび撮像デバイスユニットは、固定された空間関係を持つように構成されうる。したがって、プロジェクタユニットおよび撮像デバイスユニットは、単一のユニットとして構成できる。例えば、プロジェクタユニットおよび撮像デバイスユニットは、プローブデバイスとして構成できる。プロジェクタユニットおよび撮像デバイスユニットは、座標位置決め装置の移動可能な部分に取り付けることができる。例えば、これらは、座標位置決め装置のクイール、例えばCMMのクイールに取り付けることも可能である。したがって、例えば、プロジェクタユニットおよび撮像デバイスユニットが、単一プローブとして備えられた場合、プローブは、座標位置決め装置のクイールに取り付けることができる。
理解されるように、装置は、上述の方法に従って構成することができ、この方法に関連して説明されている特徴は、本発明の装置にも等しく適用可能である。
本発明の第3の態様によれば、コンピュータによって実行される方法が提供され、この方法は、第1の透視位置から撮った、光学的パターンが投影される対象物体の少なくとも1つの第1の画像を表す第1の画像データを受け取ることと、第1の透視位置と異なる第2の透視位置から撮った、光学的パターンが投影される対象物体の少なくとも1つの第2の画像を表す第2の画像データを受け取ることと、少なくとも1つの第1および第2の画像内に画像化されているような光学的パターンの不規則性に基づき少なくとも1つの共通の対象物体特徴を識別するために第1および第2の画像データを解析することとを含む。理解されるように、コンピュータによって実行される方法は、上述の方法に従って第1および第2の画像データを解析するように構成されうる。
本発明の第4の態様によれば、プロセッサデバイスによって実行されると、プロセッサデバイスに上述の方法を実行させる命令を含むコンピュータプログラムコードが提供される。したがって、コンピュータプログラムコードは、プロセッサデバイスに上述の方法に従ってプロジェクタ、撮像デバイス、および画像解析装置を制御させることができる。さらに、コンピュータプログラムコードは、プロセッサデバイスに、上述のコンピュータによって実行される方法に従って受け取った画像を処理させることができる。
さらなる態様によれば、上述のようなコンピュータプログラムコードを格納する、コンピュータ可読媒体が提供される。
さらに他の態様によれば、機械コントローラが提供され、これは、プロセッサと、メモリとを備え、プロセッサおよびメモリのうちの少なくとも一方は、上述の方法を実行するように適合される。
したがって、本出願は、対象物体を測定する非接触法を説明するものであり、この方法は、任意の適当な順序で、i)測定空間内に配置されている測定される対象物体上に構造化光パターンを投影するステップと、ii)第1の知られている透視位置から対象物体上の構造化光パターンの少なくとも1つの第1の画像を得るステップと、iii)第1の知られている透視位置と異なる少なくとも1つの第2の知られている透視位置から対象物体上の構造化光パターンの少なくとも1つの第2の画像を得るステップと、iv)少なくとも1つの第1の画像および第2の画像のうちのそれぞれの画像内の構造化光パターンに含まれる不連続性をターゲット特徴として識別するステップと、v)測定空間内の対象物体上のターゲット特徴の三次元座標を決定するステップとを含む。本出願は、測定空間内に配置されている対象物体を測定するための装置を説明するものでもあり、この装置は、構造化光パターンを測定される対象物体上に投影するように構成されているプロジェクタと、第1の知られている透視位置から対象物体上の構造化光パターンの少なくとも1つの第1の画像を、また第1の知られている透視位置と異なる少なくとも1つの第2の知られている透視位置から対象物体上の構造化光パターンの少なくとも1つの第2の画像を得るように構成されている少なくとも1つの画像センサと、少なくとも1つの第1の画像および第2の画像のうちのそれぞれの画像内の構造化光パターン内の不連続性をターゲット特徴として識別し、測定空間内の対象物体上のターゲット特徴の三次元座標を決定するように構成されている画像解析装置とを備える。
次に、本発明の一実施形態について、付属の図を参照しつつ、例としてのみ説明する。
本発明による非接触法を用いて対象物体を測定するためのプローブが取り付けられる三次元座標測定機を示す概略斜視図である。 3つの異なる透視位置からプローブによって得られた図1に示されている対象物体の様々な画像を例示する図である。 3つの異なる透視位置のそれぞれについて複数のラップ位相マップを例示する図である。 図1に示されている装置の高水準動作を例示する流れ図である。 透視画像セットを取り込む方法を例示する図である。 干渉縞シフト画像を得る方法を例示する図である。 画像を解析する方法を例示する図である。 ラップ位相マップを計算する方法を例示する図である。 高さマップを得るための第1の方法を例示する図である。 高さマップを得るための第2の方法を例示する図である。 図1に示されているプローブのコンポーネントの概略図である。 図11に示されているプローブの撮像デバイスとプロジェクタとの位置関係を示す概略図である。 図11に示されているプロジェクタの概略図である。 対象物体上の干渉縞の位置がそれぞれの画像内で異なっている一組の干渉縞シフト画像を例示する図である。 対象物体に相対的に画像センサを移動する効果を例示する図である。 対象物体表面の勾配を位相シフトからどのように決定できるかを例示する図である。 画像センサの透視中心を中心として回転させることによって干渉縞シフト画像を得る方法を例示する図である。 撮像デバイスのスタンドオフ距離と被写界深度を例示する図である。
図1を参照すると、そこには、本発明による測定プローブ4が取り付けられる三次元座標測定機(CMM)2が示されている。
CMM2は、クイール14を保持するフレーム12を支持する基盤10を備える。3本の相互に直交するX、Y、およびZ軸にそってクイール14を移動するために、モータ(図に示されていない)が備えられる。クイール14は、関節ヘッド16を保持する。ヘッド16は、クイール14に取り付けられる基部20、中間部22、およびプローブ保持部24を有する。基部20は、第1の回転軸18を中心として中間部22を回転させるための第1のモータ(図に示されていない)を備える。中間部22は、第1の回転軸に実質的に垂直な第2の回転軸を中心としてプローブ保持部24を回転させるための第2のモータ(図に示されていない)を備える。図に示されていないが、関節ヘッド16の可動部の間にベアリングを備えることもできる。さらに、図に示されていないが、基盤10上に配置されている工作物に関して測定プローブ4の位置を決定できるように基盤10、フレーム12、クイール14、および関節ヘッド16の相対的位置を測定するための測定エンコーダを備えることができる。
プローブ4は、プローブ保持部分24上に取り外し可能なように取り付けられる(例えば、運動学的マウントを使用する)。プローブ4は、プローブ4およびプローブ保持部分24上に、またはプローブ4およびプローブ保持部分24内に備えられた対応する磁石(図に示されていない)を使用することによってプローブ保持部分24によって保持することができる。
ヘッド16では、プローブ4をクイール14に対し自由度2で移動できる。ヘッド16とCMM2の3本の直線(X、Y、Z)並進軸によって与えられる自由度2の組合せで、プローブ4を5本の軸の周りで移動させることができる。
CMM2の動作を制御するためのCMMコントローラ27を含むコントローラ26も備えられており、プローブ4の動作を制御するためのプローブコントローラ29およびプローブ4から得られた画像を解析するための画像解析装置31も備えられる。コントローラ26は、専用電子制御システムとすることができ、および/またはパーソナルコンピュータを含むものであってもよい。
CMMコントローラ27は、使用時に、それぞれのモータが必要なトルクを与えるように第1および第2のモータに適切な駆動電流を供給するように配列構成される。それぞれのモータによって与えられるトルクを使用して、関連する回転軸を中心とする移動を引き起こすか、または特定の回転位置を維持することができる。したがって、使用時にヘッド16のそれぞれのモータに駆動電流を連続的に印加する必要がある、つまり、それぞれのモータは、関連する回転軸を中心とする移動が必要ない場合であっても給電される必要があることがわかる。
図1は、CMM2の上位水準の説明のみを示していることに留意されたい。このような装置のさらに詳しい説明は、別のところでなされているが、例えば、参照により本明細書に組み込まれている特許文献5を参照されたい。
次に図11を参照すると、プローブ4は、処理ユニット42の制御の下で、干渉縞パターンを対象物体28上に投影するためのプロジェクタ40、処理ユニット42の制御の下で、干渉縞パターンが投影される対象物体28の画像を得るための撮像デバイス44を備える。理解されるように、撮像デバイス44は、対象物体28の画像を取り込むのに適した光学系およびセンサを備える。説明されている実施形態では、撮像デバイスは、画像センサ、具体的には像面62を定めるCCDを備える。撮像デバイス44は、像面62に光を集束させるためのレンズ(図に示されていない)も備える。
処理ユニット42は、コントローラユニット26内のプローブコントローラ29および画像解析装置31に、処理ユニット42が通信回線46を介して通信できるように接続される。理解されるように、通信回線46は、有線通信回線または無線通信回線とすることが可能である。プローブ4は、処理ユニット42によって使用される、画像データなどの、データを一時的に格納するためのランダムアクセスメモリ(RAM)デバイス48も備える。
理解されるように、プローブ4は、処理ユニット42および/またはRAM48を必ずしも備えている必要はない。例えば、処理およびデータ格納はすべて、プローブ4に接続されているデバイス、例えば、コントローラ26またはプローブ4とコントローラ26との間に接続されている中間デバイスによって実行することができる。
図12に例示されているように、プロジェクタ40の像面60および撮像デバイス44の像面62は、プロジェクタ40および撮像デバイスの光軸61、63が基準面64で交わる角をなす。使用中、プローブ4は、対象物体の表面上に投影される干渉縞が撮像デバイス44によって明瞭に撮像されうるように位置決めされる。
図13を参照すると、プロジェクタ40は、コヒーレント光源を形成するためのレーザダイオード50、レーザダイオード50から放射される光をコリメートするためのコリメータ52、正弦波状干渉縞群を発生するための格子54、および基準面64に集光して干渉縞を形成するためのレンズ集合体56を備える。理解されるように、他の種類のプロジェクタも、本発明とともに使用するのに適しているであろう。例えば、プロジェクタは、光源およびプロジェクタからパターンで放射された光を選択的にブロックし、伝送するためのマスクを備えることが可能である。
説明されている実施形態では、プロジェクタ40によって投影される周期的光学的パターンは、正弦波状干渉縞群である。しかし、理解されるように、他の形態の構造光、例えば、異なる色もしくは色調を有する一組の平行線(例えば、黒色線と白色線とが交互に並ぶ線、または平行な赤色線、青色線、および緑色線)、または例えば、一組の同心円などであっても、投影することが可能である。
次に、図2から図10を参照しつつ、プローブ4の動作について説明する。
最初に図4を参照すると、オペレータがCMM2をオンにしたときに、ステップ100で動作が開始する。ステップ102で、システムが初期化される。これは、プローブ4を関節ヘッド16に装填すること、測定される対象物体28を基盤10上に位置決めすること、CMM2に関する関節ヘッド16の位置が知られるようにCMMのエンコーダをホームまたは基準位置に送ること、さらにCMM2に関するプローブ4の基準点の位置が知られるようにCMM2およびプローブ4を較正することを含む。
初期化が済み、適切に較正された後、制御は、ステップ104に渡り、その時点で対象物体28の一組の画像がプローブ4によって得られる。このステップは、複数の画像群が得られるように複数回実行され、それぞれの画像群は、対象物体28の異なる透視位置または視点に対応する。説明されている実施例では、3つの異なる透視位置に対応する3組の画像が得られる。一組の画像を得るプロセスについて、図5に関して以下でさらに詳しく説明する。
画像すべてが得られた後、それらの画像は、コントローラ26内の画像解析装置31によってステップ106で解析される。画像解析装置31は、対象物体28の形状を記述するCMM2に関する一組の三次元(「3D」)座標を画像から計算する。画像を解析する方法は、図7に関してさらに詳しく説明される。次いで、ステップ108で3D座標が3D点雲として出力される。理解されるように、3D点雲は、後から使用できるようにメモリデバイス上に格納しておくことができる。3D点雲データを使用することで、対象物体の形状および寸法を決定し、それを所定の閾値データと比較して、対象物体28が所定の許容範囲内で作られた物体であるかどうかを評価することが可能である。適宜、3D点雲を、対象物体28の仮想3Dモデルをユーザに提示するグラフィカルユーザインターフェース上に表示することが可能である。
この動作は、システムがオフにされるとステップ110で終了する。その代わりに、その後の動作は、ステップ104から108までを繰り返すことによって開始することが可能である。例えば、ユーザは、同じ対象物体28について複数組の測定データを取得するか、または異なる対象物体に対する測定データを取得することを望んでいる場合がある。
次に図5を参照しつつ、1つの透視位置に対する画像群を取り込むプロセス104について説明する。このプロセスはステップ200から始まり、その時点で、プローブ4は第1の透視位置に移動される。説明されている実施形態では、ユーザは、クイール14を移動するためにCMM2のモータを制御するジョイスティック(図に示されていない)の制御の下でプローブ4を移動することができる。理解されるように、第1の(およびその後の)透視位置は、予め決定しておくことが可能であり、また測定動作時にプローブ4が所定の透視位置に自動的に移動されるようにCMMコントローラ27にロードすることができる。さらに、異なる位置決め装置上で、ユーザは、プローブ4を透視位置まで物理的に引きずることが可能であり、位置決め装置は、例えば、装置の移動部分に取り付けられたエンコーダを介して、プローブ4の位置を監視する。
プローブ4が、第1の透視位置に位置決めされた後、初期化画像がステップ202で得られる。これは、プローブコントローラ29がプローブ4の処理ユニット42に信号を送信し、これにより撮像デバイス44を操作して対象物体28の画像を取り込むようにすることを伴う。
初期化画像は、画像解析装置31に送り返され、ステップ204で、画質特性に関して画像が解析される。これは、例えば、画像の平均光度およびコントラストを決定すること、およびこれらを所定の閾値レベルと比較して、画質が測定プロセスを実行するのに十分かどうかを判定することとを含みうる。例えば、画像が暗すぎる場合、撮像デバイス44またはプロジェクタ40の特性を変えることで、投影された干渉縞パターンの明度を高め、および/または撮像デバイス44の露光時間または利得を調節することが可能である。初期化画像は、対象物体28に関する測定データを取得するためにその後のプロセスで使用されず、したがって、画像の解像度など、画像のいくつかの側面は、後述のように測定画像についてはそれほど高くなくてよい。さらに、代替実施形態では、撮像デバイスから分離されている、フォトダイオードなどの光センサをプローブ内に実装することで、透視位置での光の量を測定することが可能であり、フォトダイオードのこの出力を使用して、プロジェクタ40および/または撮像デバイス44をセットアップする。
プロジェクタ40および撮像デバイス44がセットアップされた後、ステップ206で第1の測定画像が得られる。測定画像というのは、以下でさらに詳しく説明される「画像を解析する」プロセス106で使用されるものである。第1の測定画像を取得することは、プローブコントローラ29が信号をプローブ4の処理ユニット42に送り、これにより処理ユニット42が対象物体28上に干渉縞パターンが投影されるようにプロジェクタ40を動作させ、また撮像デバイス44が干渉縞パターンが載っている対象物体28の画像を同時に取り込むようにすることを伴う。
第1の測定画像は、画像解析装置31に送り返され、ステップ208で、画質特性に関して第1の測定画像が再び解析される。画質が、後述の「画像を解析する」プロセス106で使用するのに十分である場合に、制御はステップ210に渡り、そうでなければ、制御はステップ204に戻される。
ステップ210で、現在の透視位置について干渉縞シフト画像が得られる。干渉縞シフト画像は、実質的に同じ透視位置からであるが、干渉縞の位置はそれぞれの画像内でわずかに異なる対象物体の複数の画像である。このステップの方法は、図6を参照しつつ以下でさらに詳しく説明される。
干渉縞シフト画像が得られた後、画像はすべて、ステップ212で解析するために画像解析装置31に送り返される。理解されるように、それぞれの画像が得られたときにプローブ4が指している位置および方向に関するデータは、それぞれの画像とともに画像解析装置31に送られ、CMM2に関する対象物体28の3D座標は、以下でさらに詳しく説明されるように取得できる。次いで、このプロセスは、ステップ214で終了する。
上で説明されているように、透視画像群取り込みプロセス104は、複数の異なる透視位置について複数回繰り返される。この説明されている実施例では、透視画像群取り込みプロセスは、第1の透視位置、第2の透視位置、および第3の透視位置について、3回実行される。プローブ4は、上で説明されているようにユーザまたはコントローラの制御の下でそれぞれの透視位置に移動される。
次に、図6を参照しつつ、干渉縞シフト画像を得るためのプロセス210について説明する。対象物体28上に投影された干渉縞は、対象物体28上の干渉縞の位置が前の位置と異なるようにある方向にわずかな距離だけプローブ4を物理的に移動することによってシフトされる。プローブ4がシフトされると、中にあるプロジェクタ40、したがってプロジェクタの光軸61も、対象物体28に相対的にシフトされる。これは、対象物体28の干渉縞の位置の変化を与えるものである。
一実施形態では、プローブ4は、撮像デバイス44の像面に平行で、干渉縞の長さ方向に垂直である方向に移動される。
しかし、これは、対象物体上の干渉縞の位置が移動する限り、必ずしもそうである必要はない。例えば、干渉縞シフトは、プローブ4を回転させることによって実現可能である。例えば、プローブ4は、プロジェクタの像面60に垂直な方向に伸びる軸を中心として回転させることが可能である。適宜、プローブは、撮像デバイス44の像面に垂直な方向に伸びる軸を中心として回転させることが可能である。他の好ましい実施形態では、プローブ4は、撮像デバイス44の透視中心を中心として回転させることができる。これは、これにより異なる画像上で撮像デバイス44によって取り込まれた特徴の透視位置が必ず同じになるので有利である。また、これにより、画像の任意の処理で対象物体と画像センサとの間の距離を知ることなく実行すべき対象物体および画像センサの相対的移動を補正することが可能になる。
例えば、図17を参照すると、プローブ4が、検査される対象物体70に関して第1の位置(参照番号4’で示されている)に配置されている。この場合に、プローブのプロジェクタ40は、対象物体70上に点線の干渉縞マーキング72’によって例示される干渉縞パターンを投影する第1の位置(参照番号40’で示されている)にある。干渉縞マーキング72’を持つ対象物体の画像74は、参照番号44’によって示される第1の位置にある撮像デバイス44によって取り込まれる。
次いで、プローブ4は、撮像デバイスの透視中心の周りで対象物体70に関してプローブ4を回転させることにより、参照番号4”で示される第2の位置に移動される。理解されるように、撮像デバイスの透視中心は、像面と交差するすべての光線が通過すると想定される点である。示されている図において、透視中心は、参照番号76で示されている。
これからわかるように、第2の位置において、参照番号40”で示されている、プロジェクタは、対象物体70上の干渉縞パターンの位置が移動されるように移動した。対象物体70上の干渉縞パターンの新しい位置は、対象物体70上のストライプの干渉縞マーキング72”によって例示される。対象物体の画像74は、第2の位置44”のところで撮像デバイスによって取り込まれる。これからわかるように、撮像デバイス44上の対象物体の画像の位置は、撮像デバイスの第1の位置44’と第2の位置44”との間で変化しているけれども、撮像デバイス44が有する対象物体70の透視位置は、位置と位置との間で変化しない。したがって、例えば、1つの画像内で遮られるせいで隠れている特徴は、第2の画像内でも遮られて隠される。これは、対象物体上の背丈の高い特徴80の撮像デバイス44が有する視点を例示している光線78によって示される。これからわかるように、撮像デバイス44は、透視中心を中心として回転するので、光線78は、両方の位置について同一であり、したがって、撮像デバイス44上の特徴の位置のみが、位置と位置との間で変化し、特徴それ自体の形態では変化しない。
したがって、透視中心を中心として回転することは、対象物体の画像センサの透視位置が変化しないという点で有利とすることができ、これにより、対象物体上の同じ点はそれぞれの位置について可視であることが保証される。さらに、任意の見える点について、カメラの相対的回転の前後のその画像点と対象物体との間の距離は、対象物体までの距離と無関係である。つまり、未知の対象物体について、カメラがそれ自体の透視中心の周りを回転する場合、回転前のそれぞれの結像点について、回転後に撮像される場所を予測することが可能である。回転後の像点の位置は、初期像点の位置、回転の角度(および軸)、ならびに内部カメラパラメータに依存し、これはすべて知られている値である。したがって、以下でさらに詳しく説明されるように、透視中心を中心とする回転により、対象物体までの距離を知ることなく、相対運動を補正することができる。
プローブ4は、撮像デバイス44の光軸63が基準面64と交わる点で1/4周期の干渉縞シフトに対応する距離だけ移動される。理解されるように、プローブ4が移動する実際の距離は、投影される干渉縞の周期およびプロジェクタ40の倍率などの他の因子に依存する。
プローブ4がシフトされた後、ステップ302で別の測定画像が得られる。プローブ300をシフトし、測定画像302を得るステップは、さらに2回繰り返される。各回、プローブは、測定画像毎に対象物体上の干渉縞パターンの位置が前のすべての画像について異なるようにシフトされる。したがって、干渉縞シフト画像を取得するプロセス210の終わりに、対象物体の4つの画像が、与えられた透視位置について得られており、それぞれの画像に対する対象物体上の干渉縞パターンの位置はわずかに異なっている。
次に図2を参照する。行Aは、干渉縞が投影されていない3つの透視位置のそれぞれにおける対象物体28の図を示している。行Bは、第1、第2、および第3の透視位置のそれぞれについて、透視画像群104を取り込むためのプロセスのステップ206で撮像デバイス44によって得られる画像1000を例示している。これらの画像1000のそれぞれの背後には、第1、第2、および第3の透視位置のそれぞれについてステップ300および302を実行したときに得られる干渉縞シフト画像1002、1004、および1006の概略が示されている。図14(a)〜14(d)は、第1の透視位置について得られる画像1000〜1006の例を示している。図に示されているように、対象物体および撮像デバイスの相対的位置は、1つの透視位置について画像群内のそれぞれの画像を得る間にわずかに移動しており、これは、以下でさらに詳しく説明されるように(図8に関して特に説明されるように)画像の処理中に考慮し、および/または補正する必要がある。
したがって、第1、第2、および第3の画像群を取り込むステップ104が完了した後、画像解析装置31は、第1、第2、および第3の透視位置のそれぞれについて一組の画像1000〜1006を有することになる。
次に、画像を解析するためのプロセス106について、図7を参照しつつ説明することにする。このプロセスはステップ400から始まり、その時点で、4つのラップ位相マップが第1、第2、および第3の透視位置のそれぞれについて計算される。理解されるように、ラップ位相マップは、位相角が360度の範囲内に束縛されている、透視画像群内の測定画像のうちの1つの画像内の複数のピクセルについて対象物体の表面上に投影される干渉縞の位相を含むマップである。
与えられた透視位置について、ラップ位相マップは、特定の順序でその透視位置に対し4つの位相シフト画像のうちのそれぞれの画像を使用して得られる。与えられた透視位置に対する4つのラップ位相マップは、異なる順序で4つの位相シフト画像のうちのそれぞれの画像を使用することによって得られる。ラップ位相マップを得るための方法は、図8に関してさらに以下でさらに詳しく説明される。
理解されるように、それぞれの透視位置について4つのラップ位相マップを計算する必要はない。例えば、透視位置のそれぞれについて2つまたはそれ以上のラップ位相マップを計算することが可能である。理解されるように、計算するラップ位相マップが多ければ多いほど、以下でさらに詳しく説明するように実際の不連続の決定の信頼度は高くなるが、必要な処理資源は増える。
図3を参照すると、列X、Y、およびZは、異なる透視位置のそれぞれについて、4つの異なるラップ位相マップ1010、1012、1014、および1016を例示している。与えられた透視位置に対するこれらのラップ位相マップのそれぞれは、その透視位置に対する4つの異なる画像1002〜1006の一意的順序を使用して計算されている。それぞれの透視位置に対する4つの異なるラップ位相マップ1010〜1016は、以下でさらに詳しく説明されるように、対象物体28上の特徴によって引き起こされる不連続とその位相のラッピングによって引き起こされる不連続とを区別できるように計算される。
図2の行Bにおける画像を見るとわかるように、対象物体28上のエッジまたはコーナーなどの特徴により、干渉縞パターン内に不連続が生じる。例えば、対象物体28上のエッジ30は、干渉縞が投影されている対象物体28の画像内の直線32にそって干渉縞パターン内に不連続をもたらす。したがって、干渉縞パターン内の不連続を識別することによって対象物体28の特徴を識別することが可能である。
ステップ402では、干渉縞パターン内の不連続は、透視位置のそれぞれについて識別される。これは、ラップ位相マップのそれぞれの中の不連続を識別することによって達成される。ラップ位相マップ内の不連続は、それぞれのピクセルの位相値を隣接する周囲ピクセルの位相値と比較することによって識別される。隣接するピクセル同士の間の位相値の差が、閾値レベルを超えている場合、それらのピクセルのうちのそれぞれによって、不連続点が識別される。理解されるように、これらのピクセルのうちのどのピクセルが不連続点として選択されるかは、その選択基準がすべての不連続点の選択に関して一貫している限り、つまり、隣接するピクセル同士の間の差が画像にそってx方向に計算されているか、y方向に計算されているかに応じて、差の左または差の上のピクセルを常に選択する限り、重要でない。理解されるように、不連続の位置は、上述の方法で見つかった後、必要ならば、画像処理技術を使用して、例えば、位相の勾配、または周囲領域内の測定画像における強度の勾配を見ることによって精密化することができ、これで、例えば、非特許文献4で説明されているようにサブピクセル精度で不連続の位置を見つけることができる。
好ましい閾値レベルは、対象物体形状、画像中のノイズレベル、および干渉縞パターンの周期を含む多くの因子に依存する。閾値レベルは、動作の前にユーザによって設定されるか、または画像それ自体の解析結果から計算することが可能である。
例えば、第1の透視位置について第1のラップ位相マップ1010(図3)を参照すると、エッジ30による干渉縞の直線32にそった歪みによって引き起こされる位相値の差により点34における隣接するピクセル間で不連続性が識別される。この不連続性は、同じ点34における他のラップ位相マップ1012、1014、および1016内でも識別される。
他の不連続性も、エッジ30に対応する、例えばずっと直線32にそってなど、ラップ位相マップ1010〜1016内で識別される。
上記のプロセスの実行の結果、位相マップがラップされることで偽不連続性が識別される可能性がある。例えば、隣接するピクセルが、例えば、0度および360度にそれぞれ近い位相値を有することがある。もしそうであれば、これは、それらのピクセルの間に大きな位相跳躍があったかのように見え、これは不連続性として識別されるであろう。しかし、位相跳躍は、単に、位相のラップアラウンドの結果として引き起こされたのであり、測定されている対象物体の表面の不連続性によるものではない。この例は、位相値が360度から0度に跳躍する点36における第1の透視位置に対する第1のラップ位相マップ1010内に見られる(それぞれ暗色ピクセルと明色ピクセルとによって例示される)。隣接するピクセルに対する位相値は、位相マップがラップされるせいで点36において著しい跳躍をする。
したがって、すべての不連続性が、与えられた透視位置に対する4つのラップ位相マップのそれぞれについて識別された後、ステップ404で、誤って識別された不連続性が取り除かれる。これは、与えられた透視位置に対するラップ位相マップのそれぞれの不連続性を比較し、4つのラップ位相マップのうちの少なくとも2つのラップ位相マップ内に出現する不連続性を保持するだけで達成される。理解されるように、より厳格な試験を、例えば、ラップ位相マップのうちの3つまたは4つのラップ位相マップ内に出現する不連続性を保持するだけで適用することが可能である。こうすることで、画像上のノイズによって引き起こされる問題を解消しやすくなる。このプロセス404は、第1から第3の透視画像群のそれぞれの画像群について実行される。
例えば、上述のように、第1の透視位置について第1のラップ位相マップ1010内の点36で不連続性が識別されている。しかし、第1の透視位置に対する他のラップ位相マップ1012から1016を見ると、その同じ点36で、不連続性は識別されていない。これは、干渉縞シフト画像1000から1006の異なる順序を使用して異なるラップ位相マップが計算されており、これにより、ラップ位相マップ内での位相ラッピングが異なる点で生じることが保証されるからである。したがって、第1のラップ位相マップ1010内の点36で識別された不連続性が他のラップマップ1012から1016でも識別されていないので、その不連続性は破棄できる。
しかし、第1のラップ位相マップ1010内の点34における不連続性が、他のすべてのラップ位相マップ1012から1014内の同じ点34で識別された不連続性によって確認されると、点34は、実際の不連続性として、つまり、位相ラッピングの結果としてではなく、対象物体28上の特徴によって引き起こされた不連続性として識別される。
ステップ406で、透視位置のそれぞれの間の対応する不連続点が識別される。対応する不連続点は、対象物体28上の同じ特徴によって引き起こされる不連続性を識別するラップ位相マップ内の点である。例えば、第1、第2、および第3の透視位置のそれぞれに対する第1のラップ位相マップ1010のそれぞれの上の不連続点38はすべて、対象物体28上の同じコーナー39を識別する。対応する不連続点は、公知のマッチング技術により、また例えば、エピポーラ幾何学を使用することによって決定できる。このような公知の技術は、例えば、非特許文献5で説明されている。次いで、相関する不連続点をターゲット点として使用することができ、プローブ4に関するその3D座標は、例えば、非特許文献6で説明されているような、公知の写真測量法によってステップ408で決定することができる。
したがって、ステップ408の後、対象物体28上の多数の離散点が、識別されており、プローブ4に相対的なその位置が測定される。
ステップ410で、対象物体28の連続セクションに対する高さマップが計算される。高さマップは、プローブ4に関する知られている基準面6より上の表面の高さに関する情報を与える。連続セクションは、不連続な特徴によって囲まれている対象物体の一領域、例えば、4つのエッジによって囲まれている立方体の面である。連続セクションは、ステップ402から406ですでに識別されている不連続点によって囲まれているラップ位相マップ内の領域を識別することによって識別することができる。高さマップは、これらの離散点の間の表面の形状に関する測定データを与える。図9および10を参照しつつ、連続セクションに対する高さマップを得るための方法について以下でさらに詳しく説明する。ステップ410は、異なる透視位置のうちの1つまたは複数の透視位置について異なる連続セクションに対し複数回実行することが可能である。
類似の干渉縞解析システムでは通常のことだが、アンラップ位相マップは、値は知られていないが2πラジアンの数倍程度まで正しく、したがって、基準面64を超える高さは、この知られていない位相差に対応するどのような高さであっても誤りである可能性がある。これは、2π曖昧性と呼ばれることが多い。ステップ408で得られた実際の不連続性の測定された3D座標は、これらの曖昧性を解決するために使用される。
この段階で、ステップ408で得られた実際の不連続点の3D座標とステップ410で得られた高さマップデータとから、プローブ4における所定の基準点に関する対象物体の位置が得られる。したがって、ステップ412で、これらの座標は、CMM2に関して3D座標に変換される。これは、普通の三角法を使用してCMM2の相対的位置として実行することができ、プローブ4内の基準点は、較正結果から、またそれぞれの画像が得られた点でのCMM2に相対的なプローブ4の位置と方向がそれぞれの画像とともに記録されたため知られている。
次に、ラップ位相マップ400を計算するためのプロセスを、図8を参照して説明する。ラップ位相マップを計算することは、一組の干渉縞シフト画像の1つに対するそれぞれのピクセルについて位相を計算することを含む。これは、様々な技術を使用して実行することができるが、その技術の選択は干渉縞シフト画像を得るための方法を含む様々な因子に依存しうる。標準的な位相シフトアルゴリズムは、対象物体と撮像デバイス44との間の相対的位置が、干渉縞シフト画像のすべてにわたって同じであるという事実に依存する。しかし、上述の方法のいずれか(例えば、プローブ4を横方向に移動するか、または撮像デバイスの透視中心を中心として回転させる)が、干渉縞シフト画像を得るために使用される場合、撮像デバイス44は、対象物体に相対的にわずかな距離だけ移動している。したがって、透視画像群に含まれるそれぞれの連続画像について、それぞれの画像内の与えられたピクセルは、対象物体上の異なる点の強度を識別している。したがって、標準的な位相シフトアルゴリズムが使用される場合には、干渉縞シフト画像のすべてにわたってどのピクセルが対象物体上の同じ点に対応するかを識別し、次いでこれを補整する必要がある。撮像デバイス44が横方向に移動したときにこれを行う方法の1つは、それぞれの画像の間で撮像デバイス44がどれだけ、またどのような方向に移動したかにより、またその後、それぞれの画像がそれらのすべてに共通の画像データを含むように画像を刈り込むことによって判定する方法である。例えば、2つの画像の間での撮像デバイス44の移動が、対象物体上の1つの点が1つの次元方向に5ピクセルだけシフトしたことを意味する場合、5ピクセル幅分のデータが取り除かれるように第1の画像を刈り込むことができる。
このことは、第1の画像1000、第2の画像1002、第3の画像1004、および第4の画像1006のそれぞれについてピクセルの対応する行の概略を例示している図15を参照するとさらに明確にわかる。これからわかるように、画像と画像との間における撮像デバイス44および対象物体28の相対的移動により、対象物体上の同じ点が、それぞれの画像内の異なるピクセルによって画像化される。例えば、対象物体28上の点Xは、第1の画像1000に対する左から7番目のピクセル、第2の画像1002に対する左から5番目のピクセル、第3の画像1004に対する左から3番目のピクセル、および第4の画像1006に対する左から4番目のピクセルによって画像化される。画像センサおよび対象物体28の相対的移動を補正する効果的な方法は、それぞれの画像1000〜1006が、図15の窓51によって強調されているような共通領域を表すデータを含むように画像データを刈り込むことである。
画像の刈り込みは、座標変換の一例であり、この変換は一次関数である。これは、対象物体までの距離が知られている状況、または例えば、スタンドオフ距離が測定容積の深さに比べて大きい状況において最も正確なものとなりうる。理解されるように、図18を参照すると、スタンドオフ距離は、撮像デバイスの透視中心76から撮像デバイスの測定容積の中心までの距離であり、被写界深度65または測定容積の深さは、デバイスによって記録される画像がくっきりと見える範囲である。言い換えると、スタンドオフ距離は、プローブ4から測定される対象物体までの公称距離である。例えば、スタンドオフ距離と測定容積の深さとの比が、約10:1である場合、いくつかのピクセルの補正において誤差は最大10%になる可能性がある。スタンドオフ距離が測定容積の深さに比べて大きくないか、または相対運動が直線的平行移動でない場合、撮像デバイスおよび対象物体の相対運動を補正するために最も適している座標変換は、一般的に、対象物体までの距離と実運動に依存しうる。しかし、運動が撮像デバイス44の透視中心を中心とする回転である場合には、運動を最もよく補正する座標変換は、対象物体までの未知の距離には無関係であることが判明している。これは、システムの幾何学的形状と運動のせいである。さらに、これにより、スタンドオフ距離が測定容積の深さに比べて大きくない場合でも、例えば、スタンドオフ距離と測定容積の深さとの比が10:1未満、例えば、5:1未満、例えば、1:1である状況で、正確な補正を実行することが可能である。
したがって、これにより、プローブが対象物体の近くに配置されたときでも対象物体の測定を実行することができる。
それぞれの調整された画像内の同じピクセルが対象物体上の同じ点を表すように相対運動に関してピクセルデータを補正した後、次のステップ502で、位相シフトアルゴリズムを使用してラップ位相をピクセル毎に計算する必要がある。公知の位相シフトを必要としない好適な位相シフトアルゴリズム、例えば、カレアルゴリズムを使用して、ラップ位相、位相シフト、および変調振幅を計算することができる。
ラップ位相マップ400を計算するためのプロセスは、それぞれの透視画像群についてさらに3回繰り返され、毎回位相シフト画像を異なる順序で使用し、それぞれの透視位置について4つのラップ位相マップを得る。したがって、ラップ位相マップ400を計算するためのプロセスは、合計12回実行されることになる。
次に、高さマップ410を得るための第1のプロセスについて、図9を参照しつつ説明する。この方法は、ステップ600で、位相計算アルゴリズムによって見つかった不連続性を取り除くために必要に応じて360度の整数倍を個別ピクセルのラップ位相に加えることによって複数の位相マップのうちの1つの位相マップの連続セクションをアンラップすることを伴う。この方法は、次いで、ステップ602でその連続セクションについてアンラップ位相マップを高さマップに変換することを伴う。1つのピクセルに対する位相は、対象物体の表面の相対的高さに依存する。したがって、ステップ602で、所定のマッピングテーブルおよび手順を使用してそれぞれのピクセルの位相値を直接、高さ値にマッピングすることによってその位相から連続セクションに対する高さマップを作成することが可能である。
図8に関連して上で説明されているラップ位相マップを計算するための方法、つまり、画像座標が補正される方法とは対照的に、対象物体と撮像デバイス44が互いに相対的に移動されたときにラップ位相を計算するための、画像座標補正を必要としない方法が他にあることがわかった。この方法は、撮像デバイス44のCCDのピクセルがそれぞれの異なる画像について対象物体上の異なる点を見ているという事実に依存する。複数の画像内で単一のピクセルによって見られている点が、撮像デバイス44まで異なる距離にある場合に、それぞれの画像内のそのピクセルにおいて異なる位相が記録される。つまり、そのピクセルにおける干渉縞パターンの位相は、それぞれの画像の間でシフトされることになる。実際の位相シフトは、対象物体までの距離および対象物体の勾配、さらには撮像デバイス44および対象物体の公知の相対運動および固定システムパラメータに依存する。したがって、位相シフトは、画像の一面にわたって変化する。
例えば、図16を参照しつつ、カメラ平面内のxで撮像される、対象物体の点Xpを考える。撮像デバイス414が、その平面に関してあるベクトルdXだけ平行移動される場合、撮像デバイス44によって撮像される点は、図に示されているように変化する。わかりやすくするために、プロジェクタ40は図から省かれているが、撮像デバイス44およびプロジェクタ40は、互いに関して固定されていることは理解されるであろう。
hは、撮像デバイス44の透視中心からxで撮像された対象物体の点までの距離であり、δhは、平行移動δXの後のこの距離の変化である。aは、撮像デバイスの光軸の公知の方向であり、Xcは、透視中心の位置であり、これも知られている。撮像デバイス44の運動のみにより生じるhの変化は、δX.aに等しい。この量がゼロであり、したがって、運動の方向が撮像デバイスの軸に垂直で、像面に平行である場合、hの残りの任意の変化は、対象物体の形状によるものでなければならない。
hの変化は、実際には位相の変化δφとして記録され、ここでもまた、これは、対象物体の形状によって引き起こされる成分、および軸に対し平行な撮像デバイスの任意の運動によって引き起こされる成分からなる。
与えられたピクセルにおいて位相を測定するために、複数の位相シフト画像を撮る。画像k内の1つのピクセルで記録された強度は
で表すことができる。
ただし、式中、
A=オフセット(つまり、任意の背景光を含む、そのピクセルによって記録された対象物体上に投影された干渉縞パターンの平均強度)、
B=そのピクセルによって記録された光度の振幅変調、
このときに、平行移動δXが小さいと仮定して、一次のテイラー級数展開を使用する。
カレアルゴリズムを使用し、画像群に含まれる与えられた1つの画像内のそれぞれのピクセルについて、4つの位相シフト画像から位相および位相シフトおよび変調振幅を計算する。カレアルゴリズムでは、位相が一致する4つのシフトは等しいと仮定する。これは、例えば、使用される運動が平行移動であり、表面が平面である場合である。その場合でなければ、表面勾配が運動のスケール上で著しく変化しないように十分に小さい運動を選択することによってよい近似が得られる。
位相データは、高さデータに変換できる。適宜、図10に関連して以下で説明されている方法を使用して、位相シフトデータを勾配データに変換し、その後高さデータに変換することができる。
上述の方法では、対象物体の反射率および表面勾配が相対運動のスケール上で実質的に一定である場合に最適な結果が得られる。したがって、画像群内の画像間の運動が小さいものであることが好ましいとしてよい。撮像デバイスに関して勾配が低すぎるか、または高すぎる、あるいは曲率が高い表面の領域は、カレアルゴリズムが返す変調振幅を検査することによって検出することができ、また位相シフトを引き起こすために使用される相対運動を変更し、必要ならば、異なる透視位置から対象物体を見ることによって引き続き測定することができる。
カレアルゴリズムからは、画像内のそれぞれのピクセルについて位相と位相シフトの両方のデータが得られる。図9に関連して上で説明されている方法では、高さデータを得るために位相データを使用している。しかし、位相シフトデータを使用して高さ情報を得ることが可能となった。具体的に、高さマップ410を得るための第2のプロセスについて、図10を参照しつつ説明する。この方法は、ステップ700で、連続セクション(上で説明されているようにすでに識別されている不連続性から識別可能である)について、透視画像群内の画像のすべてにカレアルゴリズムを使用して位相シフトマップを計算することから始まる。1つのピクセルに対する位相シフトは、対象物体の表面の勾配および対象物体がプローブ4からどれだけ離れているかに依存する。したがって、ステップ702で、所定のマッピングテーブルおよび手順を使用してそれぞれのピクセルの位相シフト値を直接、勾配値にマッピングすることによってその位相シフトから連続セクションに対する勾配マップを作成することが可能である。次いで、ステップ704で、プローブ4に関して連続表面に対する高さマップを得るために、勾配マップを積分する。ステップ408で得られた実際の不連続性の測定された3D座標は、積分定数を求めて基準面64の上の高さを見つけるために使用される。
本発明の利点は、ユーザがマーカーを対象物体上に置かなくても、またはターゲット点を対象物体上に選択的に投影するようにプロジェクタを構成しなくても、ターゲット点を素早く識別できることである。さらに、高密度の複数のターゲット点を識別することもできる。
理解されるように、上の説明は、本発明のただ1つの具体的な実施形態の詳細な説明となっているが、本質的ではない多くの特徴は、本発明に単に任意に選択でき、または好ましいものである。
例えば、説明されている実施形態において、プローブは、CMMのクイールと同等の取り付け構造物上に取り付けられる。本発明は、他の種類の機械に取り付けられている測定デバイスの運動の方向を計画する作業と併せて使用するのにも適している。例えば、プローブ4は、工作機械に取り付けることも可能である。さらに、プローブ4は、例えば、複数の関節を有するロボットアームを備えることができる、検査ロボットの遠位端上に取り付けることもできる。さらに、プローブ4は、固定位置にあってもよく、対象物体は、例えば、位置決め機械を介して移動可能とすることも可能である。
さらに、本発明は、プロジェクタおよび撮像デバイスを収納した単一のプローブとして説明されているが、プロジェクタおよび撮像デバイスは、別々に備えることも可能である(例えば、互いに独立して物理的に操作することができるようにする)。さらに、画像を取り込んでターゲット特徴を決定するのに使用するために、複数の撮像デバイスを、互いに異なる位置および/または方向に備えることもできる。
理解されるように、具体的実施形態の説明は、周期的光学的パターンの位相解析を介して凹凸形状データを得るために画像を取得し処理することも伴う。理解されるように、これは必ずしもその場合である必要はない。例えば、本発明のシステムおよび方法は、写真測量を行うだけのために、ターゲット点を決定するように構成することも可能である。さらに、凹凸形状データが決定される場合、位相ステッピングアルゴリズムを使用する代わりに、三角法などの技術を使用することも可能である。さらに、位相ステッピング法が使用される場合、パターンのシフトは、上述のものと異なる技術を使用して得ることも可能である。例えば、これらは、プロジェクタによって投影されたパターンを変更するか、または対象物体を移動することで得ることが可能である。

Claims (31)

  1. 対象物体を検査する非接触法であって、任意の適当な順序で、
    i)第1の透視位置から撮った、光学的パターンが投影される前記対象物体の少なくとも1つの第1の画像を得るステップと、
    ii)前記第1の透視位置と異なる第2の透視位置から撮った、光学的パターンが投影される前記対象物体の少なくとも1つの第2の画像を得るステップと、
    iii)前記少なくとも1つの第1および第2の画像内に画像化されているような前記光学的パターンの不規則性に基づき前記少なくとも1つの第1および第2の画像のそれぞれの中の少なくとも1つの共通の対象物体特徴を識別するステップと
    を含むことを特徴とする方法。
  2. ステップi)における前記光学的パターンの前記対象物体およびプロジェクタの相対的位置および相対的方向のうちの少なくとも一方は、ステップii)における前記光学的パターンの前記対象物体およびプロジェクタの相対的位置および相対的方向とは異なることを特徴とする請求項1に記載の方法。
  3. ステップi)で画像化された前記光学的パターンの前記プロジェクタおよびステップii)で画像化された前記光学的パターンの前記プロジェクタは、少なくとも1つのプロジェクタを含む共通の光学的パターンプロジェクタユニットによって実現され、前記方法は、ステップi)とii)との間で前記対象物体と前記光学的パターンプロジェクタユニットとを相対的に移動するステップをさらに含むことを特徴とする請求項1または2に記載の方法。
  4. 前記対象物体に相対的に前記光学的パターンプロジェクタユニットを移動するステップを含むことを特徴とする請求項3に記載の方法。
  5. ステップii)で画像化される前記光学的パターンの前記プロジェクタは、ステップi)で画像化される前記光学的パターンの前記プロジェクタであることを特徴とする請求項3または4に記載の方法。
  6. ステップi)とステップii)で前記対象物体上に投影される前記光学的パターンは、同じであることを特徴とする請求項1乃至5のいずれかに記載の方法。
  7. 前記少なくとも1つの第1の画像および前記少なくとも1つの第2の画像は、少なくとも1つの画像センサを備える共通の撮像デバイスユニットによって得られ、前記方法は、前記第1の透視位置から前記第2の透視位置へ前記撮像デバイスユニットを移動するステップを含むことを特徴とする請求項1乃至6のいずれかに記載の方法。
  8. 前記光学的パターンプロジェクタユニットおよび前記撮像デバイスユニットは、互いに関して固定された空間関係にあることを特徴とする請求項3および7に記載の方法。
  9. 前記光学的パターンプロジェクタユニットおよび前記撮像デバイスユニットは、座標位置決め装置上に取り付けられることを特徴とする請求項8に記載の方法。
  10. 前記光学的パターンプロジェクタユニットおよび前記撮像デバイスユニットは、単一のプローブとして実現されることを特徴とする請求項8または9に記載の方法。
  11. 前記共通の特徴を測定するために前記少なくとも1つの第1および第2の画像を使用するステップをさらに含むことを特徴とする請求項1乃至10のいずれかに記載の方法。
  12. 前記共通の特徴を測定するステップは、測定容積内の前記共通の特徴の位置を決定するステップを含むことを特徴とする請求項11に記載の方法。
  13. ステップi)は、第1の透視位置から前記対象物体の一組の第1の画像を得るステップを含み、
    ステップii)は、第2の透視位置から前記対象物体の一組の第2の画像を得るステップを含み、
    前記対象物体上の前記光学的パターンの位置は、一組内の画像毎に異なることを特徴とする請求項1乃至12のいずれかに記載の方法。
  14. ステップiii)は、
    a)前記一組の第1の画像から少なくとも1つの第1の位相マップを計算するステップと、
    b)前記一組の第2の画像から少なくとも1つの第2の位相マップを計算するステップと、
    c)前記少なくとも1つの第1の位相マップおよび第2の位相マップのそれぞれのマップ内の少なくとも1つの共通の不規則性を共通の対象物体特徴として識別するステップと
    を含むことを特徴とする請求項13に記載の方法。
  15. ステップa)は、前記一組の第1の画像から一組の第1の位相マップを計算するステップを含み、前記一組の第1の位相マップ内のそれぞれの位相マップは前記一組の第1の画像の一意的な順序を使用して計算され、
    ステップb)は、前記一組の第2の画像から一組の第2の位相マップを計算するステップを含み、前記一組の第2の位相マップ内のそれぞれの位相マップは前記一組の第2の画像の一意的な順序を使用して計算され、
    ステップc)は、少なくとも1つの第1の位相マップからなる前記一組の位相マップおよび少なくとも第2の位相マップからなる前記一組の位相マップにおける少なくとも1つの対応する不規則性を、共通の対象物体特徴として識別するステップを含むことを特徴とする請求項14に記載の方法。
  16. 前記位相マップは、ラップ位相マップであり、ステップc)はラップ位相データによって引き起こされる偽不規則性を破棄するステップを含むことを特徴とする請求項14または15に記載の方法。
  17. 偽不規則性を破棄するステップは、一組のマップ内の前記ラップ位相マップのそれぞれを比較するステップと、前記ラップ位相マップのそれぞれの間の共通でなく識別された不規則点を破棄するステップとを含むことを特徴とする請求項16に記載の方法。
  18. 少なくとも1つの共通の不規則性を識別するステップは、前記異なる透視位置の前記画像の間の前記対象物体の対応する特徴を識別するステップを含むことを特徴とする請求項1乃至17のいずれかに記載の方法。
  19. 前記方法は、前記少なくとも1つの第1の画像および前記少なくとも1つの第2の画像のそれぞれにおいて、前記対象物体上に形成された前記光学的パターン内の複数の不規則性を複数の共通の対象物体特徴として識別するステップと、前記少なくとも1つの第1の画像および前記少なくとも1つの第2の画像から測定空間内の前記対象物体上の前記共通の対象物体特徴のうちのそれぞれの対象物体特徴の三次元座標を決定するステップとを含むことを特徴とする請求項1乃至18のいずれかに記載の方法。
  20. 前記少なくとも2つの画像のうちの少なくとも一方によって画像化されるような前記光学的パターンの変形を解析することによって前記光学的パターンが投影される前記対象物体の前記表面に関する凹凸形状データを決定するステップをさらに含むことを特徴とする請求項1乃至19のいずれかに記載の方法。
  21. 前記複数の共通の対象物体特徴の前記三次元座標を前記凹凸形状データと組み合わせて、前記対象物体の三次元モデルデータを取得するステップをさらに含むことを特徴とする請求項19および20に記載の方法。
  22. 対象物体を検査するための装置であって、
    少なくとも第1および第2のプロジェクタ透視位置から光学的パターンを測定される対象物体上に投影するように構成された少なくとも1つのプロジェクタと、
    第1の画像透視位置から、前記第1のプロジェクタ透視位置から光学的パターンが投影される前記対象物体の少なくとも1つの第1の画像を取得するように構成され、第2の画像透視位置から、前記第2のプロジェクタ透視位置から光学的パターンが投影される前記対象物体の少なくとも1つの第2の画像を取得するように構成される少なくとも1つの撮像デバイスと、
    共通の対象物体特徴として前記少なくとも1つの第1および第2の画像のうちのそれぞれの画像内の前記光学的パターンの不規則性を識別するように構成される画像解析装置と
    を備えることを特徴とする装置。
  23. 前記装置は、前記少なくとも1つのプロジェクタを備えるプロジェクタユニットを具備し、前記プロジェクタユニットおよび対象物体は、前記第1のプロジェクタ透視位置と前記第2のプロジェクタ透視位置との間で相対的に移動されるように構成されることとを特徴とする請求項22に記載の装置。
  24. 前記装置は、前記少なくとも1つの撮像デバイスを備える撮像デバイスユニットを具備し、前記撮像デバイスユニットおよび対象物体は、前記第1の画像透視位置と前記第2の画像透視位置との間で相対的に移動されるように構成されることとを特徴とする請求項22または23に記載の装置。
  25. 前記プロジェクタユニットおよび撮像デバイスユニットは、固定された空間関係にあることを特徴とする請求項23および24に記載の装置。
  26. 前記プロジェクタユニットおよび撮像デバイスユニットは、座標位置決め機械の移動可能な部分に取り付けられることを特徴とする請求項22から24のいずれか一項に記載の装置。
  27. 前記プロジェクタユニットおよび撮像デバイスユニットは、単一のプローブとして実現されることを特徴とする請求項25または26に記載の装置。
  28. コンピュータにより実行される方法であって、
    第1の透視位置から撮った、光学的パターンが投影される対象物体の少なくとも1つの第1の画像を表す第1の画像データを受け取るステップと、
    前記第1の透視位置と異なる第2の透視位置から撮った、光学的パターンが投影される前記対象物体の少なくとも1つの第2の画像を表す第2の画像データを受け取るステップと、
    前記少なくとも1つの第1および第2の画像内に画像化されているような前記光学的パターンの不規則性に基づき少なくとも1つの共通の対象物体特徴を識別するために前記第1および第2の画像データを解析するステップと
    を含むことを特徴とする方法。
  29. プロセッサデバイスによって実行されたときに、前記プロセッサデバイスに請求項1から21および28のいずれか一項に記載の方法を実行させる命令を含むことを特徴とするコンピュータプログラムコード。
  30. 請求項29に記載のコンピュータプログラムコードを格納することを特徴とするコンピュータ可読媒体。
  31. プロセッサと、
    メモリとを備え、前記プロセッサおよび前記メモリのうちの少なくとも一方は、請求項1から21および28のいずれか一項に記載の方法を実行するように適合されることを特徴とする機械コントローラ。
JP2010521465A 2007-08-17 2008-08-15 非接触測定を行う装置および方法 Expired - Fee Related JP5943547B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
GB0716080.7 2007-08-17
GBGB0716080.7A GB0716080D0 (en) 2007-08-17 2007-08-17 Non-contact measurement apparatus and method
GB0716088.0 2007-08-17
GBGB0716109.4A GB0716109D0 (en) 2007-08-17 2007-08-17 Non-contact measurement apparatus and method
GBGB0716088.0A GB0716088D0 (en) 2007-08-17 2007-08-17 Non-contact measurement apparatus and method
GB0716109.4 2007-08-17
PCT/GB2008/002758 WO2009024756A1 (en) 2007-08-17 2008-08-15 Non-contact measurement apparatus and method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014238225A Division JP2015057612A (ja) 2007-08-17 2014-11-25 非接触測定を行う装置および方法

Publications (2)

Publication Number Publication Date
JP2010537181A true JP2010537181A (ja) 2010-12-02
JP5943547B2 JP5943547B2 (ja) 2016-07-05

Family

ID=39876207

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2010521466A Expired - Fee Related JP5485889B2 (ja) 2007-08-17 2008-08-15 位相解析測定を行う装置および方法
JP2010521465A Expired - Fee Related JP5943547B2 (ja) 2007-08-17 2008-08-15 非接触測定を行う装置および方法
JP2010521467A Expired - Fee Related JP5689681B2 (ja) 2007-08-17 2008-08-15 非接触プローブ
JP2014238225A Pending JP2015057612A (ja) 2007-08-17 2014-11-25 非接触測定を行う装置および方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2010521466A Expired - Fee Related JP5485889B2 (ja) 2007-08-17 2008-08-15 位相解析測定を行う装置および方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2010521467A Expired - Fee Related JP5689681B2 (ja) 2007-08-17 2008-08-15 非接触プローブ
JP2014238225A Pending JP2015057612A (ja) 2007-08-17 2014-11-25 非接触測定を行う装置および方法

Country Status (5)

Country Link
US (4) USRE46012E1 (ja)
EP (4) EP2183545B1 (ja)
JP (4) JP5485889B2 (ja)
CN (3) CN101821579B (ja)
WO (3) WO2009024757A1 (ja)

Families Citing this family (132)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8919005B2 (en) * 2007-04-30 2014-12-30 Renishaw Plc Analogue probe and method of operation
KR101204486B1 (ko) * 2007-06-15 2012-11-26 가부시끼가이샤 도시바 피측정물의 검사 측정 장치
EP2183545B1 (en) 2007-08-17 2014-12-17 Renishaw PLC Phase analysis measurement apparatus and method
DE102007054906B4 (de) * 2007-11-15 2011-07-28 Sirona Dental Systems GmbH, 64625 Verfahren zur optischen Vermessung der dreidimensionalen Geometrie von Objekten
GB0809037D0 (en) 2008-05-19 2008-06-25 Renishaw Plc Video Probe
US9482755B2 (en) 2008-11-17 2016-11-01 Faro Technologies, Inc. Measurement system having air temperature compensation between a target and a laser tracker
US8467072B2 (en) 2011-02-14 2013-06-18 Faro Technologies, Inc. Target apparatus and method of making a measurement with the target apparatus
US7991575B2 (en) * 2009-01-08 2011-08-02 Trimble Navigation Limited Method and system for measuring angles based on 360 degree images
EP2399145A1 (en) * 2009-02-17 2011-12-28 Absolute Robotics Limited Measurement of positional information for a robot arm
DE102009015920B4 (de) 2009-03-25 2014-11-20 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9551575B2 (en) 2009-03-25 2017-01-24 Faro Technologies, Inc. Laser scanner having a multi-color light source and real-time color receiver
JP4715944B2 (ja) * 2009-04-03 2011-07-06 オムロン株式会社 三次元形状計測装置、三次元形状計測方法、および三次元形状計測プログラム
GB0909635D0 (en) * 2009-06-04 2009-07-22 Renishaw Plc Vision measurement probe
GB0915904D0 (en) * 2009-09-11 2009-10-14 Renishaw Plc Non-contact object inspection
US9210288B2 (en) 2009-11-20 2015-12-08 Faro Technologies, Inc. Three-dimensional scanner with dichroic beam splitters to capture a variety of signals
US9529083B2 (en) 2009-11-20 2016-12-27 Faro Technologies, Inc. Three-dimensional scanner with enhanced spectroscopic energy detector
US9113023B2 (en) 2009-11-20 2015-08-18 Faro Technologies, Inc. Three-dimensional scanner with spectroscopic energy detector
DE102009057101A1 (de) 2009-11-20 2011-05-26 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102009056177B4 (de) * 2009-11-27 2014-07-10 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur Messung und Kompensation von Bewegungseinflüssen bei Phasenschiebe-Profilometern und dessen Anwendung auf mobile, freihandgeführte Profilometrie
DE102009054591A1 (de) * 2009-12-14 2011-06-16 Robert Bosch Gmbh Messwerkzeug zur Erfassung einer Kontur eines Gegenstands
US9628775B2 (en) 2010-01-20 2017-04-18 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US9879976B2 (en) 2010-01-20 2018-01-30 Faro Technologies, Inc. Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features
US9607239B2 (en) 2010-01-20 2017-03-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
US9163922B2 (en) 2010-01-20 2015-10-20 Faro Technologies, Inc. Coordinate measurement machine with distance meter and camera to determine dimensions within camera images
US20130222816A1 (en) * 2010-01-20 2013-08-29 Faro Technologies, Inc. Coordinate measuring machine having an illuminated probe end and method of operation
CN102656422A (zh) 2010-01-20 2012-09-05 法罗技术股份有限公司 多功能坐标测量机
US9772394B2 (en) 2010-04-21 2017-09-26 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker
US9377885B2 (en) 2010-04-21 2016-06-28 Faro Technologies, Inc. Method and apparatus for locking onto a retroreflector with a laser tracker
US8619265B2 (en) 2011-03-14 2013-12-31 Faro Technologies, Inc. Automatic measurement of dimensional data with a laser tracker
US9400170B2 (en) 2010-04-21 2016-07-26 Faro Technologies, Inc. Automatic measurement of dimensional data within an acceptance region by a laser tracker
DE102010020925B4 (de) 2010-05-10 2014-02-27 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
JP5657276B2 (ja) * 2010-05-14 2015-01-21 一般社団法人モアレ研究所 形状計測装置及び形状計測方法
US10010268B2 (en) * 2010-09-15 2018-07-03 Olympus Corporation Endoscope apparatus
DE102010038177B3 (de) * 2010-10-14 2012-04-19 Deutsches Zentrum für Luft- und Raumfahrt e.V. Erfassen eines die Bilder von Punktemustern beeinflussenden Zustands eines Objekts
EP2634530B1 (en) * 2010-10-27 2022-05-04 Nikon Corporation Shape measuring device, shape measuring method, and structure manufacturing method
US9168654B2 (en) 2010-11-16 2015-10-27 Faro Technologies, Inc. Coordinate measuring machines with dual layer arm
US8755043B2 (en) * 2010-11-19 2014-06-17 Koh Young Technology Inc. Method of inspecting a substrate
KR101422971B1 (ko) * 2010-12-17 2014-07-23 파나소닉 주식회사 표면 형상 측정 방법 및 표면 형상 측정 장치
US20120194651A1 (en) * 2011-01-31 2012-08-02 Nikon Corporation Shape measuring apparatus
EP2505959A1 (en) 2011-03-28 2012-10-03 Renishaw plc Coordinate positioning machine controller
US9164173B2 (en) 2011-04-15 2015-10-20 Faro Technologies, Inc. Laser tracker that uses a fiber-optic coupler and an achromatic launch to align and collimate two wavelengths of light
US9482529B2 (en) 2011-04-15 2016-11-01 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
WO2012141868A1 (en) 2011-04-15 2012-10-18 Faro Technologies, Inc. Enhanced position detector in laser tracker
US9686532B2 (en) 2011-04-15 2017-06-20 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
GB201107053D0 (en) 2011-04-27 2011-06-08 Univ Sheffield Improvements in providing image data
US9280848B1 (en) * 2011-10-24 2016-03-08 Disney Enterprises Inc. Rendering images with volumetric shadows using rectified height maps for independence in processing camera rays
JP5798823B2 (ja) * 2011-07-22 2015-10-21 株式会社ミツトヨ レーザ干渉測定装置の横座標校正治具および横座標校正方法
EP2737426B1 (en) * 2011-07-29 2019-04-03 Hexagon Metrology, Inc Coordinate measuring system data reduction
US9251562B1 (en) * 2011-08-04 2016-02-02 Amazon Technologies, Inc. Registration of low contrast images
US9891043B2 (en) 2011-10-11 2018-02-13 Nikon Corporation Profile measuring apparatus, structure manufacturing system, method for measuring profile, method for manufacturing structure, and non-transitory computer readable medium
CN102494624B (zh) * 2011-11-22 2013-10-02 吴江市博众精工科技有限公司 一种镭射调整模组
CN102494625B (zh) * 2011-11-22 2013-10-02 吴江市博众精工科技有限公司 一种镭射机构旋转模组
JP2013117453A (ja) * 2011-12-05 2013-06-13 Hitachi Ltd 距離計測方法および装置とそれを搭載した形状計測装置
GB201201140D0 (en) 2012-01-24 2012-03-07 Phase Focus Ltd Method and apparatus for determining object characteristics
DE102012100609A1 (de) 2012-01-25 2013-07-25 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US20130226330A1 (en) * 2012-02-24 2013-08-29 Alliance For Sustainable Energy, Llc Optical techniques for monitoring continuous manufacturing of proton exchange membrane fuel cell components
CN103376076A (zh) * 2012-04-23 2013-10-30 鸿富锦精密工业(深圳)有限公司 三次元测针补偿及空间误差测定系统及方法
GB201207800D0 (en) 2012-05-03 2012-06-13 Phase Focus Ltd Improvements in providing image data
JP6132126B2 (ja) * 2012-05-14 2017-05-24 パルステック工業株式会社 透光性物体検査装置および透光性物体検査方法
US20150160005A1 (en) * 2012-06-12 2015-06-11 Shima Seiki Mfg., Ltd. Three-dimensional measurement apparatus, and three-dimensional measurement method
US8997362B2 (en) 2012-07-17 2015-04-07 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine with optical communications bus
US10380469B2 (en) * 2012-07-18 2019-08-13 The Boeing Company Method for tracking a device in a landmark-based reference system
US8823930B2 (en) 2012-08-07 2014-09-02 Carl Zeiss Industrielle Messtechnik Gmbh Apparatus and method for inspecting an object
WO2014023345A1 (de) * 2012-08-07 2014-02-13 Carl Zeiss Industrielle Messtechnik Gmbh Verbesserte vorrichtung zum inspizieren eines objekts und verfahren
JP5740370B2 (ja) * 2012-09-04 2015-06-24 株式会社東芝 領域特定装置、方法、及びプログラム
CN103659465B (zh) * 2012-09-21 2016-03-09 财团法人工业技术研究院 用于多轴机械的补偿控制方法
US9513107B2 (en) 2012-10-05 2016-12-06 Faro Technologies, Inc. Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
DE102012109481A1 (de) 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
GB201222361D0 (en) * 2012-12-12 2013-01-23 Univ Birmingham Surface geometry imaging
EP2967348B1 (en) * 2013-03-15 2022-03-23 Synaptive Medical Inc. Intelligent positioning system
US9041914B2 (en) 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
KR101405227B1 (ko) * 2013-04-02 2014-06-10 현대자동차 주식회사 컨베이어 라인의 속도측정장치
US9736433B2 (en) * 2013-05-17 2017-08-15 The Boeing Company Systems and methods for detection of clear air turbulence
US9651525B2 (en) * 2013-06-27 2017-05-16 TecScan Systems Inc. Method and apparatus for scanning an object
US20150070468A1 (en) * 2013-09-10 2015-03-12 Faro Technologies, Inc. Use of a three-dimensional imager's point cloud data to set the scale for photogrammetry
FI131015B1 (fi) * 2013-09-25 2024-07-31 Pictm Tech Oy Mallinnusjärjestely ja menetelmät ja järjestelmä kolmiulotteisen pinnan topografian mallintamiseksi
CN103528514B (zh) * 2013-10-12 2016-09-21 南京理工大学 机器视觉多视场协同机构及装有该机构的测量与检测装置
US9384540B2 (en) * 2013-12-03 2016-07-05 Sunedison Semiconductor Limited (Uen201334164H) Systems and methods for interferometric phase measurement
WO2015134277A1 (en) 2014-03-05 2015-09-11 Faxitron Bioptics, Llc System and method for multi-axis imaging of specimens
EP2930462B1 (en) * 2014-04-08 2017-09-13 Hexagon Technology Center GmbH Method for generating information about a sensor chain of a coordinate measuring machine (CMM)
US9395174B2 (en) 2014-06-27 2016-07-19 Faro Technologies, Inc. Determining retroreflector orientation by optimizing spatial fit
WO2016022952A1 (en) * 2014-08-08 2016-02-11 Applied Research Associates, Inc. Systems, methods, and apparatuses for measuring deformation of a surface
CN104316012A (zh) * 2014-11-25 2015-01-28 宁夏共享模具有限公司 一种用于大型零部件尺寸测量的工业机器人
JP6388722B2 (ja) * 2014-12-04 2018-09-12 アプレ インストゥルメンツ, エルエルシーApre Instruments, Llc 干渉非接触光プローブおよび測定
US11126950B2 (en) 2015-03-18 2021-09-21 United Parcel Service Of America, Inc. Systems and methods for verifying the contents of a shipment
US10366364B2 (en) 2015-04-16 2019-07-30 United Parcel Service Of America, Inc. Enhanced multi-layer cargo screening system, computer program product, and method of using the same
CN104792263B (zh) 2015-04-20 2018-01-05 合肥京东方光电科技有限公司 确定显示母板的待检测区域的方法和装置
US10598476B2 (en) * 2015-05-12 2020-03-24 Hexagon Metrology, Inc. Apparatus and method of controlling CMM using environmental information or CMM information
JP5957575B1 (ja) 2015-06-12 2016-07-27 Ckd株式会社 三次元計測装置
US10591289B2 (en) 2015-07-13 2020-03-17 Renishaw Plc Method for measuring an artefact
CN105157569B (zh) * 2015-08-31 2018-05-22 宁夏共享模具有限公司 一种消失模模具激光测量机
WO2017040977A1 (en) 2015-09-04 2017-03-09 Faxitron Bioptics, Llc Multi-axis specimen imaging device with embedded orientation markers
DE102015122844A1 (de) 2015-12-27 2017-06-29 Faro Technologies, Inc. 3D-Messvorrichtung mit Batteriepack
JP6685767B2 (ja) * 2016-02-25 2020-04-22 株式会社ミツトヨ 表面性状測定機
WO2017168630A1 (ja) * 2016-03-30 2017-10-05 株式会社日立ハイテクノロジーズ 欠陥検査装置、欠陥検査方法
EP3239927B1 (en) * 2016-04-25 2021-04-07 ALSTOM Transport Technologies Assembly completeness inspection method using active ranging
US10401145B2 (en) * 2016-06-13 2019-09-03 Carl Zeiss Industrielle Messtechnik Gmbh Method for calibrating an optical arrangement
EP3491333B1 (en) 2016-07-28 2022-03-30 Renishaw PLC Non-contact probe and method of operation
JP6295299B2 (ja) * 2016-08-26 2018-03-14 株式会社ミツトヨ 座標補正方法及び三次元測定装置
CN107005703A (zh) * 2016-09-09 2017-08-01 深圳市大疆创新科技有限公司 图像编码方法及系统
US11083426B2 (en) 2016-11-04 2021-08-10 Hologic, Inc. Specimen radiography system comprising cabinet and a specimen drawer positionable by a controller in the cabinet
JP2018110057A (ja) * 2016-12-28 2018-07-12 パナソニックIpマネジメント株式会社 照明システム、照明方法及びプログラム
JP6353573B1 (ja) * 2017-03-02 2018-07-04 Ckd株式会社 三次元計測装置
JP6308637B1 (ja) * 2017-05-08 2018-04-11 国立大学法人福井大学 特徴量を用いた3次元計測方法およびその装置
CA3066610A1 (en) 2017-06-15 2018-12-20 Drillscan France Sas Generating drilling paths using a drill model
CN107462164A (zh) * 2017-08-17 2017-12-12 苏州新捷毅自动化科技有限公司 一种用投影仪做光源量测高度的方法
US10372155B2 (en) * 2017-08-20 2019-08-06 Pixart Imaging Inc. Joystick and related control method
US10969878B2 (en) 2017-08-20 2021-04-06 Pixart Imaging Inc. Joystick with light emitter and optical sensor within internal chamber
EP3682228A4 (en) 2017-09-11 2021-06-16 Faxitron Bioptics, LLC ADAPTIVE OBJECT MAGNIFICATION IMAGING SYSTEM
CN107664478B (zh) * 2017-10-26 2023-11-03 成都众鑫聚合科技有限公司 一种立式非接触回转体高精度测量装置及其测量方法
CN107990821B (zh) * 2017-11-17 2019-12-17 深圳大学 一种桥梁形变监测方法、存储介质及桥梁形变监测接收机
CN108441889B (zh) * 2018-03-19 2020-06-26 河南科技大学 一种阳极导杆钢爪附着物检测方法及装置
JP6888580B2 (ja) * 2018-04-05 2021-06-16 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
CA3153295C (en) 2018-05-09 2023-06-13 Kawasaki Jukogyo Kabushiki Kaisha Sampling method and sampling system
GB2574064B (en) * 2018-05-25 2020-05-27 Imetrum Ltd Motion encoder
CN111258157B (zh) * 2018-11-30 2023-01-10 中强光电股份有限公司 投影机及亮度调整方法
CN111258158B (zh) 2018-11-30 2022-10-25 中强光电股份有限公司 投影机及亮度调整方法
EP4183347B1 (en) 2018-12-26 2024-05-15 Hologic, Inc. Tissue imaging in presence of fluid during biopsy procedure
US20220074738A1 (en) * 2019-04-11 2022-03-10 Hewlett-Packard Development Company, L.P. Three dimensional imaging
US11367201B2 (en) * 2019-09-24 2022-06-21 The Boeing Company System and method for continual localization of scanner using non-destructive inspection data
US10929670B1 (en) 2019-10-21 2021-02-23 The Boeing Company Marker-to-model location pairing and registration for augmented reality applications
JP2021152525A (ja) * 2020-03-19 2021-09-30 株式会社リコー 計測装置、計測方法、移動体、ロボット、電子機器及び造形装置
US12030243B2 (en) * 2020-03-19 2024-07-09 Ricoh Company, Ltd. Measuring apparatus, movable apparatus, robot, electronic device, fabricating apparatus, and measuring method
CA3166558C (en) * 2020-03-26 2023-08-01 Marc Viala Method and system for maintaining accuracy of a photogrammetry system
EP4125605B1 (en) 2020-03-31 2024-07-10 Hologic, Inc. Systems and methods for x-ray imaging tissue specimens
EP3910287A1 (de) * 2020-05-14 2021-11-17 Fill Gesellschaft m.b.H. Verfahren und vorrichtung zur vermessung eines physischen objekts
US11398085B2 (en) * 2020-07-31 2022-07-26 Wisconsin Alumni Research Foundation Systems, methods, and media for directly recovering planar surfaces in a scene using structured light
CN112050749B (zh) * 2020-08-18 2022-04-05 丰柯电子科技(上海)有限公司 一种汽车零部件加工用曲度在线检测装置及检测方法
CN111951505B (zh) * 2020-08-25 2022-02-08 青岛大学 基于分布式光纤系统的围栏振动入侵定位和模式识别方法
CA3138634C (en) 2021-03-04 2023-09-19 TecScan Systems Inc. System and method for scanning an object using an array of ultrasonic transducers
CN115327541B (zh) * 2022-10-12 2023-03-14 中国人民解放军国防科技大学 阵列扫描全息穿透成像方法及手持全息穿透成像雷达系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61114109A (ja) * 1984-11-09 1986-05-31 Ishida Scales Mfg Co Ltd 重量判定方法
JPH10115595A (ja) * 1996-10-11 1998-05-06 Nissan Motor Co Ltd 被検査面の欠陥検査方法
JPH11211442A (ja) * 1998-01-27 1999-08-06 Matsushita Electric Works Ltd 物体表面の欠陥検出方法及び装置
JP2000097672A (ja) * 1998-09-18 2000-04-07 Sanyo Electric Co Ltd 3次元計測機における制御情報生成方法及び制御情報生成支援システム
JP2001012925A (ja) * 1999-04-30 2001-01-19 Nec Corp 三次元形状計測方法及び装置並びに記録媒体
JP2002162215A (ja) * 2000-11-27 2002-06-07 Matsushita Electric Works Ltd 3次元形状計測方法およびそのシステム
JP2004108829A (ja) * 2002-09-13 2004-04-08 Ricoh Co Ltd モアレ光学系を用いた形状測定装置及び形状測定方法
JP2007024764A (ja) * 2005-07-20 2007-02-01 Daihatsu Motor Co Ltd 非接触三次元計測方法及びシステム
JP2007121294A (ja) * 2005-10-24 2007-05-17 General Electric Co <Ge> 物体を検査する方法および装置

Family Cites Families (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB716109A (en) 1950-06-22 1954-09-29 Crosweller & Co Ltd W Improvements in, or relating to, apparatus for winding paper, or other similar flexible strip material, into roll form
BE513714A (ja) 1951-08-23 1900-01-01
GB716088A (en) 1952-10-29 1954-09-29 Miguel Angel Mascarello Improvements relating to musical instruments
US4468695A (en) 1980-11-20 1984-08-28 Tokico Ltd. Robot
JPS6049475A (ja) * 1983-08-29 1985-03-18 Matsushita Electric Ind Co Ltd 物体検出方法
EP0178090B1 (en) * 1984-09-19 1990-11-22 Ishida Scales Mfg. Co. Ltd. Volume determination process
JPH0623656B2 (ja) * 1987-07-13 1994-03-30 新技術事業団 多眼視覚装置
US5372502A (en) * 1988-09-02 1994-12-13 Kaltenbach & Voight Gmbh & Co. Optical probe and method for the three-dimensional surveying of teeth
DE3829925C2 (de) 1988-09-02 1994-03-03 Kaltenbach & Voigt Vorrichtung zur optischen Vermessung von Zähnen in der Mundhöhle
GB8908854D0 (en) 1989-04-19 1989-06-07 Renishaw Plc Method of and apparatus for scanning the surface of a workpiece
DE3938714A1 (de) 1989-11-23 1991-05-29 Bernd Dr Breuckmann Verfahren zur optischen erfassung von formen von objekten
DE4007500A1 (de) * 1990-03-09 1991-09-12 Zeiss Carl Fa Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen
US5589942A (en) 1990-04-05 1996-12-31 Intelligent Automation Systems Real time three dimensional sensing system
DE4121464A1 (de) 1990-06-28 1992-01-09 Mazda Motor Vorrichtung zur feststellung von oberflaechendefekten
JP2926365B2 (ja) 1990-11-30 1999-07-28 マツダ株式会社 表面欠陥検査装置
FR2664377A1 (fr) 1990-07-03 1992-01-10 Bertin & Cie Appareil pour la determination de la forme tridimensionnelle d'un objet par voie optique sans contact.
US5251156A (en) 1990-08-25 1993-10-05 Carl-Zeiss-Stiftung, Heidenheim/Brenz Method and apparatus for non-contact measurement of object surfaces
DE4134546A1 (de) * 1991-09-26 1993-04-08 Steinbichler Hans Verfahren und vorrichtung zur bestimmung der absolut-koordinaten eines objektes
US5175601A (en) 1991-10-15 1992-12-29 Electro-Optical Information Systems High-speed 3-D surface measurement surface inspection and reverse-CAD system
DE4301538A1 (de) 1992-03-17 1994-07-28 Peter Dr Ing Brueckner Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen
US5319445A (en) * 1992-09-08 1994-06-07 Fitts John M Hidden change distribution grating and use in 3D moire measurement sensors and CMM applications
JPH06138055A (ja) 1992-10-28 1994-05-20 Sumitomo Metal Ind Ltd 表面疵検査方法
JP2996069B2 (ja) * 1993-08-19 1999-12-27 村田機械株式会社 三次元計測装置
US5488477A (en) * 1993-11-15 1996-01-30 Zygo Corporation Methods and apparatus for profiling surfaces of transparent objects
JP3370418B2 (ja) 1994-03-18 2003-01-27 株式会社資生堂 3次元形状測定システム
US6028672A (en) * 1996-09-30 2000-02-22 Zheng J. Geng High speed three dimensional imaging method
GB9515311D0 (en) 1995-07-26 1995-09-20 3D Scanners Ltd Stripe scanners and methods of scanning
DE19634254B4 (de) 1995-09-04 2009-06-10 Volkswagen Ag Optisch-numerisches Verfahren zur Ermittlung der gesamten Oberfläche eines dreidimensionalen Objektes
US5646733A (en) 1996-01-29 1997-07-08 Medar, Inc. Scanning phase measuring method and system for an object at a vision station
US5953448A (en) * 1996-03-01 1999-09-14 Textile/Clothing Technology Corporation Contour measurement of an object having a discontinuous surface using block point identification techniques
JP3856838B2 (ja) * 1996-03-22 2006-12-13 ラフバロウ ユニヴァーシティ イノヴェーションズ リミテッド 物体の形状を測定する方法および装置
DE19618140A1 (de) * 1996-05-06 1997-11-13 Fraunhofer Ges Forschung 3D-Meßanordnung zur Ganzkörpererfassung und Einmessung einer entsprechenden Meßanordnung
EP1009969B1 (en) 1996-06-13 2003-11-05 K.U. Leuven Research & Development Method and system for acquiring a three-dimensional shape description
US6600511B1 (en) * 1997-01-08 2003-07-29 Pentax Corporation Camera for use in photogrammetric analytical measurement
DE69829091T2 (de) 1997-05-22 2006-02-09 Kabushiki Kaisha Topcon Messungsgerät
US6438272B1 (en) 1997-12-31 2002-08-20 The Research Foundation Of State University Of Ny Method and apparatus for three dimensional surface contouring using a digital video projection system
JP3922784B2 (ja) 1998-01-27 2007-05-30 松下電工株式会社 3次元形状計測装置
US6291817B1 (en) * 1998-06-23 2001-09-18 Fuji Photo Optical Co., Ltd. Moire apparatus having projection optical system and observation optical system which have optical axes parallel to each other
US6262803B1 (en) 1998-09-10 2001-07-17 Acuity Imaging, Llc System and method for three-dimensional inspection using patterned light projection
DE19846145A1 (de) 1998-10-01 2000-04-20 Klaus Koerner Verfahren und Anordung zur 3D-Aufnahme
HU220729B1 (hu) 1998-10-06 2002-05-28 EasyScan Műszaki Fejlesztő, Kereskedelmi és Szolgáltató Kft. Eljárás és berendezés térbeli tárgy letapogatására és háromdimenziós számítógépes modell létrehozására
US6084712A (en) 1998-11-03 2000-07-04 Dynamic Measurement And Inspection,Llc Three dimensional imaging using a refractive optic design
CA2253085A1 (en) 1998-11-06 2000-05-06 Industrial Metrics Inc. Methods and system for measuring three dimensional spatial coordinates and for external camera calibration necessary for that measurement
US6532299B1 (en) 2000-04-28 2003-03-11 Orametrix, Inc. System and method for mapping a surface
US6738508B1 (en) 2000-04-28 2004-05-18 Orametrix, Inc. Method and system for registering data
US6728423B1 (en) * 2000-04-28 2004-04-27 Orametrix, Inc. System and method for mapping a surface
US7068836B1 (en) 2000-04-28 2006-06-27 Orametrix, Inc. System and method for mapping a surface
US6744932B1 (en) 2000-04-28 2004-06-01 Orametrix, Inc. System and method for mapping a surface
US6771809B1 (en) * 2000-04-28 2004-08-03 Orametrix, Inc. Method and system for registering data
US6744914B1 (en) * 2000-04-28 2004-06-01 Orametrix, Inc. Method and system for generating a three-dimensional object
US6100984A (en) * 1999-06-11 2000-08-08 Chen; Fang Surface measurement system with a laser light generator
JP3281918B2 (ja) 1999-10-12 2002-05-13 和歌山大学長 形状計測方法および装置
JP3714063B2 (ja) * 1999-10-19 2005-11-09 富士ゼロックス株式会社 3次元形状計測装置
WO2001051887A1 (en) 2000-01-07 2001-07-19 Cyberoptics Corporation Phase profilometry system with telecentric projector
JP4010753B2 (ja) 2000-08-08 2007-11-21 株式会社リコー 形状計測システムと撮像装置と形状計測方法及び記録媒体
JP3554816B2 (ja) 2000-09-14 2004-08-18 和歌山大学長 矩形波格子投影によるリアルタイム形状変形計測方法
JP4390779B2 (ja) 2001-02-14 2009-12-24 株式会社リコー 画像入力装置
JP4012710B2 (ja) 2001-02-14 2007-11-21 株式会社リコー 画像入力装置
JP4123331B2 (ja) 2001-03-16 2008-07-23 日本電気株式会社 マルチメディア通信システムとマルチメディア通信可能な携帯無線通信端末及びメッセージ送受信方法
US7061628B2 (en) * 2001-06-27 2006-06-13 Southwest Research Institute Non-contact apparatus and method for measuring surface profile
US7103211B1 (en) 2001-09-04 2006-09-05 Geometrix, Inc. Method and apparatus for generating 3D face models from one camera
US20030123707A1 (en) 2001-12-31 2003-07-03 Park Seujeung P. Imaging-based distance measurement and three-dimensional profiling system
TW550521B (en) * 2002-02-07 2003-09-01 Univ Nat Central Method for re-building 3D model of house in a semi-automatic manner using edge segments of buildings
JP2003269928A (ja) * 2002-03-12 2003-09-25 Nec Corp 3次元形状計測方法および装置ならびにプログラム
DE10219054B4 (de) * 2002-04-24 2004-08-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Bestimmung der räumlichen Koordinaten eines Gegenstandes
WO2004083778A1 (en) 2003-03-18 2004-09-30 Hermary Alexander Thomas Coded-light dual-view profile scanner
US7286246B2 (en) 2003-03-31 2007-10-23 Mitutoyo Corporation Method and apparatus for non-contact three-dimensional surface measurement
JP4255865B2 (ja) * 2003-03-31 2009-04-15 株式会社ミツトヨ 非接触三次元形状測定方法及び装置
CA2522097C (en) 2003-04-28 2012-09-25 Stephen James Crampton Cmm arm with exoskeleton
CA2435935A1 (en) 2003-07-24 2005-01-24 Guylain Lemelin Optical 3d digitizer with enlarged non-ambiguity zone
US20070057946A1 (en) 2003-07-24 2007-03-15 Dan Albeck Method and system for the three-dimensional surface reconstruction of an object
DE10359104B3 (de) 2003-12-17 2005-10-13 Universität Karlsruhe Verfahren zur dynamischen, dreidimensionalen Erfassung und Darstellung einer Oberfläche
US8050491B2 (en) * 2003-12-17 2011-11-01 United Technologies Corporation CAD modeling system and method
WO2005073669A1 (en) 2004-01-29 2005-08-11 Siemens Corporate Research, Inc. Semi and fully-automatic camera calibration tools using laser-based measurement devices
US7327857B2 (en) * 2004-03-09 2008-02-05 General Electric Company Non-contact measurement method and apparatus
JP2005308553A (ja) 2004-04-21 2005-11-04 Topcon Corp 三次元画像計測装置及び方法
JP4645068B2 (ja) 2004-06-04 2011-03-09 旭硝子株式会社 表面形状の検査方法および検査装置
US7171328B1 (en) * 2004-08-30 2007-01-30 Sandia Corporation Method for measuring thermal properties using a long-wavelength infrared thermal image
JP4429135B2 (ja) * 2004-10-05 2010-03-10 Necエンジニアリング株式会社 三次元形状計測システム及び計測方法
WO2006074310A2 (en) * 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
US7912673B2 (en) * 2005-03-11 2011-03-22 Creaform Inc. Auto-referenced system and apparatus for three-dimensional scanning
US7599071B2 (en) 2005-04-06 2009-10-06 Dimensional Photonics International, Inc. Determining positional error of an optical component using structured light patterns
US8044996B2 (en) * 2005-05-11 2011-10-25 Xenogen Corporation Surface construction using combined photographic and structured light information
JP2007093412A (ja) 2005-09-29 2007-04-12 Fujinon Corp 3次元形状測定装置
US7538891B1 (en) 2005-09-30 2009-05-26 California Institute Of Technology Surface characterization based on lateral shearing of diffracted wave fronts to measure in-plane and out-of-plane displacement gradient fields
JP2007114071A (ja) * 2005-10-20 2007-05-10 Omron Corp 三次元形状計測装置、プログラム、コンピュータ読み取り可能な記録媒体、及び三次元形状計測方法
JP4741344B2 (ja) * 2005-11-07 2011-08-03 ダイハツ工業株式会社 形状認識装置及び歪評価装置
WO2007061632A2 (en) * 2005-11-09 2007-05-31 Geometric Informatics, Inc. Method and apparatus for absolute-coordinate three-dimensional surface imaging
CA2528791A1 (en) * 2005-12-01 2007-06-01 Peirong Jia Full-field three-dimensional measurement method
GB2455926B (en) 2006-01-30 2010-09-01 Axellis Ltd Method of preparing a medical restraint
US7773797B2 (en) 2006-02-06 2010-08-10 Beijing University Of Aeronautics And Astronautics Methods and apparatus for measuring the flapping deformation of insect wings
KR100708352B1 (ko) 2006-03-07 2007-04-18 한국과학기술원 모아레 원리의 2π 모호성과 위상천이 수단이 없도록실시되는 3차원 형상 측정장치 및 그 방법
DE102006018558B4 (de) 2006-04-21 2022-10-06 QUISS Qualitäts-Inspektionssysteme und Service GmbH Verfahren zum automatischen Aufbringen oder Erzeugen und Überwachen einer auf einem Substrat aufgebrachten Struktur mit Ermittlung von geometrischen Abmessungen
DE602007002185D1 (de) 2006-04-27 2009-10-08 3D Scanners Ltd Optische rastersonde
JP2007315882A (ja) 2006-05-25 2007-12-06 Dainippon Printing Co Ltd 基板位置決め装置、基板位置決め方法、カラーフィルタ製造装置、カラーフィルタ製造方法
WO2007137388A1 (en) * 2006-05-26 2007-12-06 Corporation Spg Data3D Photogrammetric system and techniques for 3d acquisition
CN100520285C (zh) 2006-07-13 2009-07-29 黑龙江科技学院 投射多频光栅的物体表面三维轮廓的视觉测量方法
WO2008033329A2 (en) * 2006-09-15 2008-03-20 Sciammarella Cesar A System and method for analyzing displacements and contouring of surfaces
JP4905013B2 (ja) 2006-09-19 2012-03-28 株式会社デンソー 外観検査装置、外観検査方法及び高さ測定方法並びに回路基板製造方法
US7256899B1 (en) 2006-10-04 2007-08-14 Ivan Faul Wireless methods and systems for three-dimensional non-contact shape sensing
DE102006049695A1 (de) 2006-10-16 2008-04-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur
KR100919166B1 (ko) 2007-04-02 2009-09-28 한국과학기술원 스테레오 모아레를 이용한 3차원 형상 측정장치 및 그 방법
US8111907B2 (en) * 2007-07-31 2012-02-07 United Technologies Corporation Method for repeatable optical determination of object geometry dimensions and deviations
EP2183545B1 (en) 2007-08-17 2014-12-17 Renishaw PLC Phase analysis measurement apparatus and method
WO2009094510A1 (en) 2008-01-25 2009-07-30 Cyberoptics Corporation Multi-source sensor for three-dimensional imaging using phased structured light
US8059280B2 (en) 2008-01-31 2011-11-15 Cyberoptics Corporation Method for three-dimensional imaging using multi-phase structured light
US9170097B2 (en) * 2008-04-01 2015-10-27 Perceptron, Inc. Hybrid system
US8531650B2 (en) 2008-07-08 2013-09-10 Chiaro Technologies LLC Multiple channel locating
EP2399145A1 (en) * 2009-02-17 2011-12-28 Absolute Robotics Limited Measurement of positional information for a robot arm
US8045181B2 (en) 2009-05-21 2011-10-25 General Electric Company Inspection system and method with multi-image phase shift analysis
US8582824B2 (en) 2009-06-25 2013-11-12 Twin Coast Metrology Cell feature extraction and labeling thereof

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61114109A (ja) * 1984-11-09 1986-05-31 Ishida Scales Mfg Co Ltd 重量判定方法
JPH10115595A (ja) * 1996-10-11 1998-05-06 Nissan Motor Co Ltd 被検査面の欠陥検査方法
JPH11211442A (ja) * 1998-01-27 1999-08-06 Matsushita Electric Works Ltd 物体表面の欠陥検出方法及び装置
JP2000097672A (ja) * 1998-09-18 2000-04-07 Sanyo Electric Co Ltd 3次元計測機における制御情報生成方法及び制御情報生成支援システム
JP2001012925A (ja) * 1999-04-30 2001-01-19 Nec Corp 三次元形状計測方法及び装置並びに記録媒体
JP2002162215A (ja) * 2000-11-27 2002-06-07 Matsushita Electric Works Ltd 3次元形状計測方法およびそのシステム
JP2004108829A (ja) * 2002-09-13 2004-04-08 Ricoh Co Ltd モアレ光学系を用いた形状測定装置及び形状測定方法
JP2007024764A (ja) * 2005-07-20 2007-02-01 Daihatsu Motor Co Ltd 非接触三次元計測方法及びシステム
JP2007121294A (ja) * 2005-10-24 2007-05-17 General Electric Co <Ge> 物体を検査する方法および装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN5010014026; Daniel Scharstein, Richard Szeliski: '"High-Accuracy Stereo Depth Maps Using Structured Light"' Proceedings 2003 IEEE Computer Society Conference on Computer Vision and Pattern Recognition vol. 1, 20030618, p. 195 - 202, IEEE Computer Society *

Also Published As

Publication number Publication date
JP2015057612A (ja) 2015-03-26
US8792707B2 (en) 2014-07-29
EP2183545B1 (en) 2014-12-17
JP2010537183A (ja) 2010-12-02
CN101828092B (zh) 2014-03-12
CN101821579A (zh) 2010-09-01
CN101821579B (zh) 2013-01-23
CN101821578A (zh) 2010-09-01
EP2183546A1 (en) 2010-05-12
CN101828092A (zh) 2010-09-08
US20100142798A1 (en) 2010-06-10
JP5485889B2 (ja) 2014-05-07
CN101821578B (zh) 2014-03-12
EP2183546B1 (en) 2015-10-21
JP5689681B2 (ja) 2015-03-25
USRE46012E1 (en) 2016-05-24
EP2183544A1 (en) 2010-05-12
EP2183544B1 (en) 2015-07-15
US8605983B2 (en) 2013-12-10
WO2009024756A1 (en) 2009-02-26
JP5943547B2 (ja) 2016-07-05
US8923603B2 (en) 2014-12-30
EP2183545A1 (en) 2010-05-12
EP2977719A1 (en) 2016-01-27
JP2010537182A (ja) 2010-12-02
WO2009024757A1 (en) 2009-02-26
US20100135534A1 (en) 2010-06-03
WO2009024758A1 (en) 2009-02-26
US20100158322A1 (en) 2010-06-24

Similar Documents

Publication Publication Date Title
JP5943547B2 (ja) 非接触測定を行う装置および方法
JP5757950B2 (ja) 非接触物体測定
JP4290733B2 (ja) 3次元形状計測方法及びその装置
JP2011504586A (ja) 物体の三次元形状を光学的に測定する方法
CN105960569A (zh) 使用二维图像处理来检查三维物体的方法
JP2021193400A (ja) アーチファクトを測定するための方法
US11105607B2 (en) Non-contact probe and method of operation
JP2021117228A (ja) 三次元形状測定装置及び三次元形状測定方法
US20210278271A1 (en) Method for determining the path of a measurement beam of an interferometric measuring device, and measuring device for interferometric measurement of an object under measurement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130816

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20140117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141125

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20141126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20141126

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20141216

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20150227

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160524

R150 Certificate of patent or registration of utility model

Ref document number: 5943547

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees