JP5816773B2 - Coordinate measuring machine with removable accessories - Google Patents
Coordinate measuring machine with removable accessories Download PDFInfo
- Publication number
- JP5816773B2 JP5816773B2 JP2015516035A JP2015516035A JP5816773B2 JP 5816773 B2 JP5816773 B2 JP 5816773B2 JP 2015516035 A JP2015516035 A JP 2015516035A JP 2015516035 A JP2015516035 A JP 2015516035A JP 5816773 B2 JP5816773 B2 JP 5816773B2
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- aacmm
- structured light
- coded
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 239000000523 sample Substances 0.000 claims description 122
- 238000000034 method Methods 0.000 claims description 66
- 238000005259 measurement Methods 0.000 claims description 52
- 230000006854 communication Effects 0.000 claims description 16
- 238000004891 communication Methods 0.000 claims description 16
- 239000003086 colorant Substances 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 5
- 238000005286 illumination Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 44
- 230000008901 benefit Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 230000008859 change Effects 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000010363 phase shift Effects 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000000737 periodic effect Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 239000002131 composite material Substances 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 239000000853 adhesive Substances 0.000 description 2
- 230000001070 adhesive effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004870 electrical engineering Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 230000006386 memory function Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000002991 molded plastic Substances 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000005375 photometry Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000007514 turning Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
- G01B11/005—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
- G01B11/005—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
- G01B11/007—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines feeler heads therefor
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2509—Color coding
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B5/00—Measuring arrangements characterised by the use of mechanical techniques
- G01B5/004—Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points
- G01B5/008—Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points using coordinate measuring machines
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- A Measuring Device Byusing Mechanical Method (AREA)
Description
本開示は、座標測定機に関し、より詳細には、座標測定機のプローブ端部にコネクターを有する可搬型の関節アーム座標測定機に関し、それは、非接触式三次元測定のためにストラクチャードライトを使用するアクセサリーデバイスが座標測定機に取り外し可能に接続されることを可能にする。 The present disclosure relates to a coordinate measuring machine, and more particularly to a portable articulated arm coordinate measuring machine having a connector at the probe end of the coordinate measuring machine, which uses a structured light for non-contact 3D measurement. Enabling accessory devices to be removably connected to the coordinate measuring machine.
可搬型の関節アーム座標測定機(AACMM)は、部品の製造または生産のさまざまな段階(例えば、機械加工)の間に部品の寸法を迅速におよび正確に確認する要求が存在する部品の製造または生産において幅広く使用されている。可搬型のAACMMは、とりわけ、比較的に複雑な部品の寸法測定を実施するのにかかる時間量の中で、既知の定置式のまたは固定式の、コストが高く、使用するのが比較的に困難である測定設備と比べて大きな改善を示す。典型的に、可搬型のAACMMのユーザーは、単純に、測定されることとなる部品または対象物の表面に沿ってプローブを誘導する。次いで、測定データが記録され、ユーザーに提供される。場合によっては、データは、視覚的な形態、例えば、コンピュータースクリーンの上の三次元(3D)の形態でユーザーに提供される。他の場合では、データは、数字の形態でユーザーに提供され、例えば、穴の直径を測定するときに、テキスト「直径=1.0034」がコンピュータースクリーンの上に表示される。 A portable articulated arm coordinate measuring machine (AACMM) is used to manufacture or manufacture parts where there is a need to quickly and accurately confirm the dimensions of the parts during various stages of manufacture or production (eg, machining). Widely used in production. Portable AACMMs, among other things, are known stationary or fixed, costly and relatively easy to use, among the amount of time it takes to perform dimensional measurements on relatively complex parts. Great improvement compared to difficult measuring equipment. Typically, a portable AACMM user simply guides the probe along the surface of the part or object to be measured. The measurement data is then recorded and provided to the user. In some cases, the data is provided to the user in a visual form, such as a three-dimensional (3D) form on a computer screen. In other cases, the data is provided to the user in the form of numbers, for example, when measuring the diameter of a hole, the text “Diameter = 1.0034” is displayed on the computer screen.
先行技術の可搬型の関節アームCMMの例が、同一出願人による特許文献1に開示されている。特許文献1は、一方の端部にサポートベース部を有し、他方の端部に測定プローブを有する手動操作式の関節アームCMMから構成される3D測定システムを開示している。同一出願人による特許文献2は、同様の関節アームCMMを開示している。特許文献2では、関節アームCMMは、プローブ端部において追加的な回転軸を含む複数の特徴を含み、それによって、2−2−2軸構成、または、2−2−3軸構成のいずれか(後者は7軸アームである)を有するアームを提供している。 An example of a prior art portable articulated arm CMM is disclosed in US Pat. Patent Document 1 discloses a 3D measurement system including a manually operated joint arm CMM having a support base at one end and a measurement probe at the other end. U.S. Patent No. 6,053,075 to the same applicant discloses a similar articulated arm CMM. In U.S. Patent No. 6,057,051, the articulated arm CMM includes a plurality of features including an additional axis of rotation at the probe end, thereby providing either a 2-2-2 axis configuration or a 2-2-3 axis configuration. An arm is provided (the latter is a 7-axis arm).
また、三次元の表面は、非接触技法を使用して測定することが可能である。レーザーラインプローブまたはレーザーラインスキャナーと称されることもある、非接触デバイスのうちの1つのタイプは、スポットの上に、または、ラインに沿ってのいずれかにレーザー光を放出する。例えば、電荷結合素子(CCD)などのようなイメージングデバイスが、レーザーに隣接して位置付けされている。レーザーが、光のラインを放出するように配置され、光のラインは表面で反射される。測定されている対象物の表面は、拡散反射を引き起こし、それは、イメージングデバイスによってキャプチャーされる。センサーと表面との間の距離が変化するときに、センサーの上の反射ラインの画像が変化することとなる。イメージングセンサーとレーザーとの間の関係、および、センサーの上のレーザー画像の位置を知ることによって、三角測量法が使用され、表面の上のポイントの三次元座標を測定することが可能である。レーザーラインプローブを用いて起こる1つの問題は、レーザーラインプローブが対象物の表面を横切って移動させられる速度に応じて、測定されるポイントの密度が変化し得るということである。レーザーラインプローブが速く移動されればされるほど、ポイント同士の間の距離が大きくなり、ポイント密度が低くなる。ストラクチャードライトスキャナーによって、ポイント間隔は、典型的に、2つの寸法のそれぞれにおいて均一となり、それによって、一般的に、ワークピース表面のポイントの均一な測定を提供する。 Also, three-dimensional surfaces can be measured using non-contact techniques. One type of non-contact device, sometimes referred to as a laser line probe or laser line scanner, emits laser light either on the spot or along the line. For example, an imaging device such as a charge coupled device (CCD) is positioned adjacent to the laser. A laser is arranged to emit a line of light, which is reflected off the surface. The surface of the object being measured causes diffuse reflection, which is captured by the imaging device. As the distance between the sensor and the surface changes, the image of the reflective line on the sensor will change. By knowing the relationship between the imaging sensor and the laser and the position of the laser image on the sensor, triangulation can be used to measure the three-dimensional coordinates of the point on the surface. One problem that occurs with laser line probes is that the density of measured points can vary depending on the speed at which the laser line probe is moved across the surface of the object. The faster the laser line probe is moved, the greater the distance between points and the lower the point density. With structured light scanners, the point spacing is typically uniform in each of the two dimensions, thereby generally providing a uniform measurement of points on the workpiece surface.
既存のCMMは、その意図される目的に適切であるが、必要とされるのは、本発明の実施形態の特定の特徴を有する可搬型のAACMMである。 Existing CMMs are suitable for their intended purpose, but what is needed is a portable AACMM having the specific features of embodiments of the present invention.
本発明の一実施形態によれば、空間の中の対象物の三次元座標を測定するための可搬型の関節アーム座標測定機(AACMM)が提供される。AACMMは、ベース部を含む。手動で位置決め可能なアーム部分が提供され、対向する第1の端部および第2の端部を有しており、アーム部分は、ベース部に回転可能に連結されており、アーム部分は、複数の接続されたアームセグメントを含み、それぞれのアームセグメントは、位置信号を作り出すための少なくとも1つの位置トランスデューサーを含む。電子回路が提供され、電子回路は、それぞれのアームセグメントの中の少なくとも1つの位置トランスデューサーから位置信号を受信する。プローブ端部は、第1の端部に連結されている。非接触式三次元測定デバイスは、プローブ端部に連結されており、非接触式三次元測定デバイスは、プロジェクターおよび画像センサーを有しており、プロジェクターは、光源平面を有しており、プロジェクターは、対象物の上にコード化されたストラクチャードライトパターンであるストラクチャードライトを放出するように構成されており、ストラクチャードライトは、光源平面の上に位置付けされ、少なくとも3つの同一線上にないパターン要素を含み、画像センサーは、対象物から反射されるストラクチャードライトを受信し、プローブ端部から切り離されたときに独立して動作可能であるように配置されている。プロセッサーは、電子回路に電気的に連結されており、プロセッサーは、位置トランスデューサーから位置信号を受信することに応答して、および、画像センサーによってストラクチャードライトを受信することに応答して、対象物の上のポイントの三次元座標を決定するように構成されている。非接触式三次元測定デバイスは、プローブ端部から切り離されたときに非接触式三次元測定デバイスの位置を測定するロケーションデバイスと、ロケーションデバイスが測定した位置及びプローブ端部から切り離されたときに画像センサーによって受信されたストラクチャードライトをプロセッサーまたはコンピューティングデバイスに通信する通信回路とを含んでいる。 According to one embodiment of the present invention, a portable articulated arm coordinate measuring machine (AACMM) for measuring the three-dimensional coordinates of an object in space is provided. The AACMM includes a base portion. A manually positionable arm portion is provided, having opposing first and second ends, the arm portion being rotatably coupled to the base portion, wherein the arm portion comprises a plurality of arm portions. Connected arm segments, each arm segment including at least one position transducer for producing a position signal. Electronic circuitry is provided that receives position signals from at least one position transducer in each arm segment. The probe end is connected to the first end. The non-contact type three-dimensional measuring device is connected to the probe end, the non-contact type three-dimensional measuring device has a projector and an image sensor, the projector has a light source plane, and the projector has The structured light is structured to emit a structured light pattern encoded on the object, the structured light positioned on the light source plane and including at least three non-collinear pattern elements The image sensor is arranged to receive structured light reflected from the object and to be independently operable when disconnected from the probe end . The processor is electrically coupled to the electronic circuit, and the processor is responsive to receiving the position signal from the position transducer and in response to receiving the structured light by the image sensor. It is configured to determine the three-dimensional coordinates of the point above. The non-contact type three-dimensional measurement device includes a location device that measures the position of the non-contact type three-dimensional measurement device when it is separated from the probe end, and a position that the location device measures and a position that is separated from the probe end. Communication circuitry that communicates the structured light received by the image sensor to a processor or computing device.
本発明の一実施形態によれば、空間の中の対象物の座標を測定するための可搬型の関節アーム座標測定機を動作させる方法が提供される。方法は、対向する第1の端部および第2の端部を有する手動で位置決め可能なアーム部分を提供するステップであって、複数の接続されたアームセグメントを含み、それぞれのアームセグメントは、位置信号を作り出すための少なくとも1つの位置トランスデューサーを含む、ステップを含む。プローブ端部は、対象物を測定するために提供されており、プローブ端部は、第1の端部に連結されている。電子回路は、トランスデューサーから位置信号を受信する。三次元の非接触式測定デバイスは、コントローラーを有するように提供され、三次元の非接触式測定デバイスは、センサーおよびプロジェクターを有しており、プロジェクターは、対象物の上にストラクチャードライトを放出するように構成されており、プロジェクターは、光源平面を有しており、ストラクチャードライトは、光源平面の上に位置付けされ、少なくとも3つの同一線上にないパターン要素を含む。ストラクチャードライトは、対象物の上に三次元測定デバイスから投影される。さらに、非接触式測定デバイスを用いて、対象物からストラクチャードライトの反射を受信するステップと、反射されたストラクチャードライトから、前記対象物の上のポイントの三次元座標を決定するステップと、プローブ端部から非接触式測定デバイスを分離するステップと、プローブ端部から離れて、非接触式測定デバイスを動作させるステップと、プローブ端部から離れて動作している非接触式測定デバイスの位置を測定するステップと、プローブ端部から離れて動作している場合に、対象物からストラクチャードライトの反射を受信するステップと、プローブ端部から離れて動作している非接触式測定デバイスから非接触式測定デバイスの位置及び受信された前記ストラクチャードライトのデータを送信するステップとを含む。 According to one embodiment of the present invention, a method is provided for operating a portable articulated arm coordinate measuring machine for measuring the coordinates of an object in space. The method provides a manually positionable arm portion having opposing first and second ends, the method including a plurality of connected arm segments, each arm segment being positioned Including at least one position transducer for producing a signal. A probe end is provided for measuring the object, and the probe end is connected to the first end. The electronic circuit receives a position signal from the transducer. A three-dimensional non-contact measuring device is provided with a controller, the three-dimensional non-contact measuring device has a sensor and a projector, and the projector emits a structured light on the object The projector has a light source plane, and the structured light is positioned on the light source plane and includes at least three non-collinear pattern elements. The structured light is projected from the three-dimensional measuring device onto the object. Further, using a non-contact measuring device, receiving a reflection of the structured light from the object; determining a three-dimensional coordinate of a point on the object from the reflected structured light; and a probe end Separating the non-contact measuring device from the probe, operating the non-contact measuring device away from the probe end, and measuring the position of the non-contact measuring device operating away from the probe end. And receiving a structured light reflection from the object when operating away from the probe end and non-contact measurement from a non-contact measuring device operating away from the probe end. Transmitting the position of the device and the received structured light data.
ここで図面を参照して、例示的な実施形態が示され、例示的な実施形態は、本開示の範囲全体に関して限定するものと解釈されるべきではなく、要素は、いくつかの図において同様に付番されている。 Referring now to the drawings, illustrative embodiments are shown, and the illustrative embodiments should not be construed as limiting with respect to the overall scope of the disclosure, and elements are similar in some figures. Are numbered.
可搬型の関節アーム座標測定機(「AACMM」)は、対象物の測定値を得るためにさまざまな用途で使用されている。本発明の実施形態は、三次元の対象物の非接触式測定を提供するためにストラクチャードライトを使用するAACMMのプローブ端部に、オペレーターがアクセサリーデバイスを容易におよび迅速に連結することを可能にするという点で利点を提供する。本発明の実施形態は、AACMMの中のストラクチャードライトデバイスによって測定されるポイントクラウドを表す通信データを提供するという点でさらに利点を提供する。本発明の実施形態は、向上した精度を提供し得る、測定されるポイントの分布のより良好な均一性の点で利点を提供する。本発明の実施形態は、外部接続または配線を有することなく、パワーおよびデータ通信を取り外し可能なアクセサリーに提供するという点で一層さらなる利点を提供する。 Portable articulated arm coordinate measuring machines (“AACMM”) are used in a variety of applications to obtain measurements of objects. Embodiments of the present invention allow an operator to easily and quickly connect an accessory device to the probe end of an AACMM that uses a structured light to provide non-contact measurement of a three-dimensional object. Provides advantages in terms of Embodiments of the present invention provide further advantages in providing communication data representing a point cloud measured by a structured light device in an AACMM. Embodiments of the present invention provide advantages in terms of better uniformity of the distribution of measured points, which can provide improved accuracy. Embodiments of the present invention provide an additional advantage in providing power and data communication to removable accessories without having external connections or wiring.
本明細書で使用されているように、「ストラクチャードライト」の用語は、対象物の連続的なおよび囲まれた領域の上に投影される光の二次元パターンを参照しており、それは、対象物の上のポイントの座標を決定するために使用され得る情報を伝達する。ストラクチャードライトパターンは、近接するおよび囲まれた領域の中に配設されている少なくとも3つの同一線上にないパターン要素を含有することとなる。3つの同一線上にないパターン要素のそれぞれは、ポイント座標を決定するために使用され得る情報を伝達する。 As used herein, the term “structured light” refers to a two-dimensional pattern of light projected onto a continuous and enclosed area of an object, which is Communicates information that can be used to determine the coordinates of a point on an object. The structured light pattern will contain at least three non-collinear pattern elements disposed in adjacent and enclosed regions. Each of the three non-collinear pattern elements conveys information that can be used to determine point coordinates.
一般に、2つのタイプのストラクチャードライト(コード化されたライトパターン、および、コード化されていないライトパターン)が存在している。本明細書で使用されているように、コード化されたライトパターンは、対象物の照射表面の三次元座標が単一の画像の獲得によって確認され得るというものである。場合によっては、投影デバイスは、対象物に対して移動していることが可能である。換言すれば、コード化されたライトパターンに関して、投影されるパターンと獲得される画像との間に有意差のない時間的関係が存在することとなる。典型的に、コード化されたライトパターンは、要素のうちの少なくとも3つが同一線上にないように配置されている要素(例えば、幾何学的形状)のセットを含有することとなる。場合によっては、要素のセットは、ラインの集合の中へ配置され得る。要素のうちの少なくとも3つを同一線上にないようにさせることは、例えば、レーザーラインスキャナーによって投影されることとなるように、パターンが単純なラインパターンではないということを確実にする。結果として、パターン要素は、要素の配置に起因して認識可能である。 In general, there are two types of structured lights: coded light patterns and uncoded light patterns. As used herein, a coded light pattern is one in which the three-dimensional coordinates of the illuminated surface of the object can be confirmed by acquisition of a single image. In some cases, the projection device may be moving relative to the object. In other words, for a coded light pattern, there will be a temporal relationship with no significant difference between the projected pattern and the acquired image. Typically, a coded light pattern will contain a set of elements (eg, geometric shapes) that are arranged such that at least three of the elements are not collinear. In some cases, a set of elements can be placed into a collection of lines. Having at least three of the elements not collinear ensures that the pattern is not a simple line pattern, such as would be projected by a laser line scanner, for example. As a result, the pattern elements can be recognized due to the arrangement of the elements.
それとは対照的に、本明細書で使用されているようなコード化されていないストラクチャードライトパターンは、プロジェクターが対象物に対して移動しているときに、単一のパターンによる測定を可能にしないパターンである。コード化されていないライトパターンの例は、一連の逐次的パターンを必要とするものであり、したがって、一連の逐次的画像の獲得を必要とするものである。投影パターンおよび画像の獲得の時間的性質に起因して、プロジェクターと対象物との間に相対移動が存在するべきではない。 In contrast, an uncoded structured light pattern as used herein does not allow measurement with a single pattern when the projector is moving relative to the object. It is a pattern. An example of an uncoded light pattern is one that requires a series of sequential patterns, and thus one that requires acquisition of a series of sequential images. Due to the temporal nature of the projection pattern and image acquisition, there should be no relative movement between the projector and the object.
ストラクチャードライトは、光のラインを発生させるレーザーラインプローブまたはレーザーラインスキャナータイプのデバイスによって投影される光とは異なるということが認識されるべきである。今日の関節アームとともに使用されるレーザーラインプローブが、不規則性、または、発生ラインの中の特徴としてみなされ得る他の態様を有する限りにおいて、これらの特徴は、同一線上の配置で配設される。結果的に、単一の発生ラインの中のそのような特徴は、投影される光をストラクチャードライトにするようには考えられない。 It should be appreciated that structured light is different from light projected by a laser line probe or laser line scanner type device that generates a line of light. As long as the laser line probes used with today's articulated arms have irregularities or other aspects that can be considered as features in the generation line, these features are arranged in a collinear arrangement. The Consequently, such features in a single generation line are not considered to make the projected light a structured light.
図1Aおよび図1Bは、本発明のさまざまな実施形態によるAACMM100を斜視的に図示しており、関節アームは、座標測定機の1つのタイプである。図1Aおよび図1Bに示されているように、例示的なAACMM100は、プローブ端部401を有する6軸または7軸の関節測定デバイスを含むことが可能であり、プローブ端部401は、一方の端部においてAACMM100のアーム部分104に連結されている測定プローブハウジング102を含む。アーム部分104は、第1のアームセグメント106を含み、第1のアームセグメント106は、第1のグループの軸受カートリッジ110(例えば、2つの軸受カートリッジ)によって第2のアームセグメント108に連結されている。第2のグループの軸受カートリッジ112(例えば、2つの軸受カートリッジ)は、第2のアームセグメント108を測定プローブハウジング102に連結している。第3のグループの軸受カートリッジ114(例えば、3つの軸受カートリッジ)は、第1のアームセグメント106をベース部116に連結しており、ベース部116は、AACMM100のアーム部分104の他方の端部に位置付けされている。それぞれのグループの軸受カートリッジ110、112、114は、関節運動の複数の軸を提供する。また、プローブ端部401は、AACMM100の第7の軸線部分のシャフトを含む測定プローブハウジング102を含むことが可能である(例えば、カートリッジが、AACMM100の第7の軸線方向の測定デバイス(例えば、プローブ118)の運動を決定するエンコーダーシステムを含有している)。この実施形態では、プローブ端部401は、測定プローブハウジング102の中心を通って延在している軸線の周りに回転することが可能である。AACMM100の使用時には、ベース部116は、典型的に、作業台に装着される。 1A and 1B illustrate AACMM 100 in perspective, according to various embodiments of the present invention, where the articulated arm is one type of coordinate measuring machine. As shown in FIGS. 1A and 1B, the exemplary AACMM 100 can include a 6-axis or 7-axis articulation device having a probe end 401, the probe end 401 being It includes a measurement probe housing 102 that is connected at its end to the arm portion 104 of the AACMM 100. The arm portion 104 includes a first arm segment 106 that is coupled to a second arm segment 108 by a first group of bearing cartridges 110 (eg, two bearing cartridges). . A second group of bearing cartridges 112 (eg, two bearing cartridges) couples the second arm segment 108 to the measurement probe housing 102. A third group of bearing cartridges 114 (eg, three bearing cartridges) connects the first arm segment 106 to the base portion 116, which is at the other end of the arm portion 104 of the AACMM 100. It is positioned. Each group of bearing cartridges 110, 112, 114 provides multiple axes of articulation. The probe end 401 can also include a measurement probe housing 102 that includes the shaft of the seventh axial portion of the AACMM 100 (eg, the cartridge is a seventh axial measurement device of the AACMM 100 (eg, a probe 118) including an encoder system for determining the movement). In this embodiment, the probe end 401 is rotatable about an axis that extends through the center of the measurement probe housing 102. When using AACMM 100, base portion 116 is typically mounted on a workbench.
それぞれの軸受カートリッジグループ110、112、114の中のそれぞれの軸受カートリッジは、典型的に、エンコーダーシステム(例えば、光学式の角度エンコーダーシステム)を含有している。エンコーダーシステム(すなわち、トランスデューサー)は、各アームセグメント106、108、および、対応する軸受カートリッジグループ110、112、114の位置の指示を提供し、それは、一緒になって、ベース部116に対するプローブ118の位置(ひいては、特定の規準系(例えば、ローカル規準系またはグローバル規準系)における、AACMM100によって測定されている対象物の位置)の指示を提供する。アームセグメント106、108は、それに限定されないが、例えば、炭素複合材料などのような、適切な剛体材料から作製することが可能である。6軸または7軸の関節運動(すなわち、自由度)を備える可搬型のAACMM100は、オペレーターによって容易に扱われ得るアーム部分104を提供しながら、オペレーターが、ベース部116の周りの360°の領域の中の所望の場所にプローブ118を位置決めすることを可能にするという点で利点を提供する。しかし、2つのアームセグメント106、108を有するアーム部分104の説明図は、例示的な目的のためのものであり、特許請求されている発明は、そのように限定されるべきでないということが認識されるべきである。AACMM100は、軸受カートリッジによって一緒に連結されている任意の数のアームセグメント(および、したがって、6軸または7軸よりも多いかまたは少ない関節運動または自由度)を有することが可能である。 Each bearing cartridge in each bearing cartridge group 110, 112, 114 typically contains an encoder system (eg, an optical angle encoder system). The encoder system (ie, transducer) provides an indication of the position of each arm segment 106, 108 and corresponding bearing cartridge group 110, 112, 114, which together, probe 118 relative to base portion 116. (And thus the position of the object being measured by the AACMM 100 in a particular reference system (eg, local reference system or global reference system)). The arm segments 106, 108 can be made from a suitable rigid material, such as, but not limited to, a carbon composite material. The portable AACMM 100 with 6-axis or 7-axis articulation (ie, degrees of freedom) provides an arm portion 104 that can be easily handled by the operator, while the operator has a 360 ° region around the base 116. An advantage is provided in that it allows the probe 118 to be positioned at a desired location within. However, it will be appreciated that the illustration of arm portion 104 having two arm segments 106, 108 is for illustrative purposes and the claimed invention should not be so limited. It should be. The AACMM 100 can have any number of arm segments (and thus more or less articulations or degrees of freedom than 6 or 7 axes) connected together by a bearing cartridge.
プローブ118は、測定プローブハウジング102に切り離し可能に装着されており、測定プローブハウジング102は、軸受カートリッジグループ112に接続されている。ハンドル126は、例えば、クイックコネクトインターフェースによって、測定プローブハウジング102に対して取り外し可能である。より詳細に以下に議論されることとなるように、ハンドル126は、三次元の対象物の非接触式測定を提供するためにストラクチャードライトを放出するように構成されている別のデバイスと交換することが可能であり、それによって、オペレーターが、同じAACMM100を用いて、接触式測定および非接触式測定の両方を行うことを可能にするという点で利点を提供する。例示的な実施形態では、プローブハウジング102は、取り外し可能なプローブ118を収容しており、取り外し可能なプローブ118は、接触式測定デバイスであり、測定されることとなる対象物に物理的に接触する異なる先端部118(ボールタイプのプローブ、タッチセンサータイプのプローブ、湾曲したタイプのプローブ、およびエクステンションタイプのプローブを含むが、それに限定されない)を有することが可能である。他の実施形態では、測定は、例えば、コード化されたストラクチャードライトスキャナーデバイスなどのような非接触式デバイスによって実施される。一実施形態では、ハンドル126は、クイックコネクトインターフェースを使用して、コード化されたストラクチャードライトスキャナーデバイスと交換される。他のタイプの測定デバイスは、取り外し可能なハンドル126を交換し、追加的な機能性を提供することが可能である。そのような測定デバイスの例は、例えば、1つ以上の照明ライト、温度センサー、サーマルスキャナー、バーコードスキャナー、プロジェクター、ペイントスプレイヤー、カメラなどを含むが、それに限定されない。 The probe 118 is detachably attached to the measurement probe housing 102, and the measurement probe housing 102 is connected to the bearing cartridge group 112. The handle 126 is detachable from the measurement probe housing 102 by, for example, a quick connect interface. As will be discussed in more detail below, handle 126 replaces another device that is configured to emit a structured light to provide non-contact measurement of a three-dimensional object. It is possible to provide an advantage in that it allows the operator to perform both contact and non-contact measurements using the same AACMM 100. In the exemplary embodiment, probe housing 102 contains a removable probe 118, which is a contact measurement device and is in physical contact with the object to be measured. Can have different tips 118 (including but not limited to ball type probes, touch sensor type probes, curved type probes, and extension type probes). In other embodiments, the measurement is performed by a non-contact device such as, for example, a coded structured light scanner device. In one embodiment, the handle 126 is replaced with a coded structured light scanner device using a quick connect interface. Other types of measurement devices can replace the removable handle 126 and provide additional functionality. Examples of such measurement devices include, but are not limited to, one or more illumination lights, temperature sensors, thermal scanners, barcode scanners, projectors, paint sprayers, cameras, and the like.
図1Aおよび図1Bに示されているように、AACMM100は、取り外し可能なハンドル126を含み、取り外し可能なハンドル126は、軸受カートリッジグループ112から測定プローブハウジング102を取り外すことなく、アクセサリーまたは機能性が変化されるという点で利点を提供する。図2Dに関して以下により詳細に議論されているように、取り外し可能なハンドル126は、電気コネクターも含むことが可能であり、電気コネクターは、プローブ端部401に位置付けされているハンドル126および対応する電子機器と電力およびデータがやりとりされることを可能にする。 As shown in FIGS. 1A and 1B, the AACMM 100 includes a removable handle 126 that can be attached or functionalized without removing the measurement probe housing 102 from the bearing cartridge group 112. Offers an advantage in that it is changed. As discussed in more detail below with respect to FIG. 2D, the removable handle 126 can also include an electrical connector, which includes the handle 126 positioned at the probe end 401 and the corresponding electronics. Allows power and data to be exchanged with the device.
さまざまな実施形態では、それぞれのグループの軸受カートリッジ110、112、114は、AACMM100のアーム部分104が、複数の回転軸線の周りで運動することを可能にする。述べられているように、それぞれの軸受カートリッジグループ110、112、114は、例えば、光学式の角度エンコーダーなどのような、対応するエンコーダーシステムを含み、それは、例えば、アームセグメント106、108の対応する回転軸線と同軸にそれぞれ配置されている。光学的なエンコーダーシステムは、対応する軸線の周りで、例えば、アームセグメント106、108のうちのそれぞれ1つの回転(旋回)運動または横(ヒンジ)運動を検出し、本明細書で以下により詳細に説明されているように、AACMM100の中の電子データ処理システムに信号を送信する。それぞれの個々の処理されていないエンコーダーのカウントが、信号として電子データ処理システムに別々に送られ、電子データ処理システムにおいて、そのカウントは、測定データへとさらに処理される。同一出願人による特許文献1に開示されているような、AACMM100自体から分離した位置計算機(例えば、シリアルボックス)は必要とされない。 In various embodiments, each group of bearing cartridges 110, 112, 114 allows the arm portion 104 of the AACMM 100 to move about multiple axes of rotation. As stated, each bearing cartridge group 110, 112, 114 includes a corresponding encoder system, such as an optical angle encoder, for example, which corresponds to the arm segments 106, 108, for example. They are arranged coaxially with the rotation axis. The optical encoder system detects, for example, rotational (pivoting) or lateral (hinge) movement of each one of the arm segments 106, 108 about a corresponding axis, and will be described in more detail herein below. Signals are sent to the electronic data processing system in the AACMM 100 as described. Each individual unprocessed encoder count is sent separately to the electronic data processing system as a signal, where the count is further processed into measurement data. There is no need for a position calculator (eg, a serial box) separate from the AACMM 100 itself, as disclosed in commonly assigned US Pat.
ベース部116は、取り付けデバイスまたは装着デバイス120を含むことが可能である。装着デバイス120は、AACMM100が、例えば、検査台、マシニングセンター、壁、または床などのような、所望の場所に取り外し可能に装着されることを可能にする。一実施形態では、ベース部116は、ハンドル部分122を含み、ハンドル部分122は、AACMM100が移動されているときに、オペレーターがベース部116を持つのに都合の良い場所を提供する。一実施形態では、ベース部116は、可動式のカバー部分124をさらに含み、カバー部分124は、折り畳まれて、ディスプレイスクリーンなどのようなユーザーインターフェースを見えるようにする。 Base portion 116 may include an attachment device or attachment device 120. The mounting device 120 allows the AACMM 100 to be removably mounted at a desired location, such as an examination table, machining center, wall, or floor. In one embodiment, the base portion 116 includes a handle portion 122 that provides a convenient location for an operator to hold the base portion 116 when the AACMM 100 is being moved. In one embodiment, the base portion 116 further includes a movable cover portion 124 that is folded to reveal a user interface, such as a display screen.
一実施形態によれば、可搬型のAACMM100のベース部116は、電子データ処理システムを有する電子回路を含有または収容しており、電子データ処理システムは、2つの主要なコンポーネント、すなわち、AACMM100の中のさまざまなエンコーダーシステムからのデータ、および、三次元(3D)の位置計算をサポートするために他のアームパラメーターを表すデータを処理するベース部処理システムと、比較的に完全な計測機能が外部コンピューターへの接続を必要とせずにAACMM100の中で実施されることを可能にする、搭載オペレーティングシステム、タッチスクリーンディスプレイ、および常駐アプリケーションソフトウェアを含むユーザーインターフェース処理システムとを含む。 According to one embodiment, the base portion 116 of the portable AACMM 100 contains or houses an electronic circuit having an electronic data processing system, the electronic data processing system being in two main components: the AACMM 100. A base processing system that processes data from various encoder systems and data representing other arm parameters to support three-dimensional (3D) position calculations, and a relatively complete measurement function on an external computer A user interface processing system including an on-board operating system, a touch screen display, and resident application software that can be implemented in the AACMM 100 without the need for a connection to the PC.
ベース部116の中の電子データ処理システムは、ベース部116から離れて位置付けされているエンコーダーシステム、センサー、および他の周辺ハードウェア(例えば、AACMM100の上の取り外し可能なハンドル126に装着することが可能なストラクチャードライトデバイス)と通信することが可能である。これらの周辺ハードウェアデバイスまたは特徴をサポートする電子機器は、可搬型のAACMM100の中に位置付けされている軸受カートリッジグループ110、112、114のそれぞれの中に位置付けすることが可能である。 The electronic data processing system in the base portion 116 may be attached to an encoder system, sensors, and other peripheral hardware (eg, a removable handle 126 on the AACMM 100) that is positioned away from the base portion 116. Possible structured light devices). The electronics that support these peripheral hardware devices or features can be located in each of the bearing cartridge groups 110, 112, 114 located in the portable AACMM 100.
図2は、一実施形態による、AACMM100の中で利用される電子機器のブロック図である。図2Aに示されている実施形態は、電子データ処理システム210を含み、電子データ処理システム210は、ベース部処理システムを実装するためのベース部プロセッサー基板204と、ユーザーインターフェース基板202と、電力を提供するためのベース部電源基板206と、Bluetoothモジュール232と、ベース部傾斜基板208とを含む。ユーザーインターフェース基板202は、ユーザーインターフェース、ディスプレイ、および、本明細書で説明されている他の機能を実施するためにアプリケーションソフトウェアを実行するためのコンピュータープロセッサーを含む。 FIG. 2 is a block diagram of electronic equipment utilized in AACMM 100, according to one embodiment. The embodiment shown in FIG. 2A includes an electronic data processing system 210 that includes a base processor board 204, a user interface board 202, and power for implementing the base processing system. A base power supply board 206, a Bluetooth module 232, and a base inclined board 208 are provided. The user interface board 202 includes a computer processor for executing application software to implement the user interface, display, and other functions described herein.
図2Aおよび図2Bに示されているように、電子データ処理システム210は、1つ以上のアームバス218を介して上述の複数のエンコーダーシステムと通信している。図2Bおよび図2Cに示されている実施形態では、それぞれのエンコーダーシステムは、エンコーダーデータを発生させ、エンコーダーアームバスインターフェース214と、エンコーダーデジタル信号プロセッサー(DSP)216と、エンコーダー読み取りヘッドインターフェース234と、温度センサー212とを含む。歪みセンサーなどのような他のデバイスは、アームバス218に取り付けることが可能である。 As shown in FIGS. 2A and 2B, the electronic data processing system 210 is in communication with the multiple encoder systems described above via one or more arm buses 218. In the embodiment shown in FIGS. 2B and 2C, each encoder system generates encoder data, an encoder arm bus interface 214, an encoder digital signal processor (DSP) 216, an encoder readhead interface 234, Temperature sensor 212. Other devices, such as strain sensors, can be attached to the arm bus 218.
また、図2Dに示されているのは、アームバス218と通信しているプローブ端部電子機器230である。プローブ端部電子機器230は、プローブ端部DSP228と、温度センサー212と、一実施形態ではクイックコネクトインターフェースを介してハンドル126またはコード化されたストラクチャードライトスキャナーデバイス242と接続するハンドル/デバイスインターフェースバス240と、プローブインターフェース226とを含む。クイックコネクトインターフェースは、コード化されたストラクチャードライトスキャナーデバイス242および他のアクセサリーによって使用されるデータバス、制御ライン、および電力バスへの、ハンドル126によるアクセスを可能にする。一実施形態では、プローブ端部電子機器230は、AACMM100の上の測定プローブハウジング102の中に位置付けされている。一実施形態では、ハンドル126は、クイックコネクトインターフェースから取り外すことが可能であり、測定は、インターフェースバス240を介してAACMM100のプローブ端部電子機器230と通信するストラクチャードライトデバイス242によって実施することが可能である。一実施形態では、電子データ処理システム210は、AACMM100のベース部116の中に位置付けされており、プローブ端部電子機器230は、AACMM100の測定プローブハウジング102の中に位置付けされており、エンコーダーシステムは、軸受カートリッジグループ110、112、114の中に位置付けされている。プローブインターフェース226は、1−wire(登録商標)通信プロトコル236を具現化するMaxim Integrated Products、Inc.から市販されている製品を含む、任意の適切な通信プロトコルによってプローブ端部DSP228に接続することが可能である。 Also shown in FIG. 2D is probe end electronics 230 in communication with armbus 218. The probe end electronics 230 includes a handle / device interface bus 240 that connects to the probe end DSP 228, the temperature sensor 212, and in one embodiment the handle 126 or the coded structured light scanner device 242 via a quick connect interface. And a probe interface 226. The quick connect interface allows access by the handle 126 to the data bus, control lines, and power bus used by the coded structured light scanner device 242 and other accessories. In one embodiment, the probe end electronics 230 is positioned in the measurement probe housing 102 above the AACMM 100. In one embodiment, the handle 126 can be removed from the quick connect interface and the measurement can be performed by a structured light device 242 that communicates with the probe end electronics 230 of the AACMM 100 via the interface bus 240. It is. In one embodiment, the electronic data processing system 210 is positioned in the base portion 116 of the AACMM 100, the probe end electronics 230 is positioned in the measurement probe housing 102 of the AACMM 100, and the encoder system is , Positioned in the bearing cartridge group 110, 112, 114. The probe interface 226 is based on Maxim Integrated Products, Inc., which implements the 1-wire® communication protocol 236. Can be connected to the probe end DSP 228 by any suitable communication protocol, including products commercially available from.
図3は、一実施形態による、AACMM100の電子データ処理システムの210の詳細な特徴を説明するブロック図である。一実施形態では、電子データ処理システム210は、AACMM100のベース部116の中に位置付けされており、ベース部プロセッサー基板204と、ユーザーインターフェース基板202と、ベース部電源基板206と、Bluetoothモジュール232と、ベース部傾斜モジュール208とを含む。 FIG. 3 is a block diagram illustrating detailed features of 210 of the electronic data processing system of AACMM 100, according to one embodiment. In one embodiment, the electronic data processing system 210 is located in the base portion 116 of the AACMM 100, and includes a base portion processor board 204, a user interface board 202, a base part power board 206, a Bluetooth module 232, A base tilt module 208.
図3Aに示されている一実施形態では、ベース部プロセッサー基板204は、図中に図示されているさまざまな機能ブロックを含む。例えば、ベース部プロセッサー機能302は、AACMM100からの測定データの収集をサポートするために利用され、アームバス218およびバス制御モジュール機能308を介して、処理されていないアームデータ(例えば、エンコーダーシステムデータ)を受信する。メモリー機能304は、プログラムおよび静的なアーム構成データを記憶する。また、ベース部プロセッサー基板204は、コード化されたストラクチャードライトスキャナーデバイス242などのような任意の外部ハードウェアデバイスまたはアクセサリーと通信するための外部ハードウェアオプションポート機能310も含む。また、リアルタイムクロック(RTC)およびログ306と、バッテリーパックインターフェース(IF)316と、診断ポート318とが、図3Aに示されているベース部プロセッサー基板204の実施形態の機能性の中に含まれる。 In one embodiment shown in FIG. 3A, the base processor board 204 includes the various functional blocks shown in the figure. For example, the base processor function 302 is utilized to support the collection of measurement data from the AACMM 100 and is not processed through the arm bus 218 and bus control module function 308 (eg, encoder system data). Receive. The memory function 304 stores a program and static arm configuration data. The base processor board 204 also includes an external hardware option port function 310 for communicating with any external hardware device or accessory, such as a coded structured light scanner device 242. Also included in the functionality of the embodiment of the base processor board 204 shown in FIG. 3A is a real-time clock (RTC) and log 306, a battery pack interface (IF) 316, and a diagnostic port 318. .
また、ベース部プロセッサー基板204は、外部(ホストコンピューター)および内部(ディスプレイプロセッサー202)デバイスとのすべての有線および無線データ通信を管理する。ベース部プロセッサー基板204は、(例えば、米国電気電子学会(IEEE)1588などのようなクロック同期規格を使用して)イーサネット機能320を介してイーサネットネットワークと通信し、LAN機能322を介して無線ローカル領域ネットワーク(WLAN)と通信し、パラレルシリアル通信(PSC)機能314を介してBluetoothモジュール232と通信する能力を有している。また、ベース部プロセッサー基板204は、ユニバーサルシリアルバス(USB)デバイス312への接続も含む。 The base processor board 204 also manages all wired and wireless data communications with external (host computer) and internal (display processor 202) devices. Base processor board 204 communicates with the Ethernet network via Ethernet function 320 (eg, using a clock synchronization standard such as the Institute of Electrical and Electronics Engineers (IEEE) 1588) and wireless local via LAN function 322. It has the ability to communicate with a regional network (WLAN) and communicate with a Bluetooth module 232 via a parallel serial communication (PSC) function 314. The base processor board 204 also includes a connection to a universal serial bus (USB) device 312.
ベース部プロセッサー基板204は、上述の特許文献1のシリアルボックスで開示されているような任意の前処理を必要とせずに測定データへと処理するために、処理されていない測定データ(例えば、エンコーダーシステムのカウント、温度読み取り値)を送信および収集する。ベース部プロセッサー204は、RS485インターフェース(IF)326を介してユーザーインターフェース基板202の上のディスプレイプロセッサー328に処理されたデータを送る。また、一実施形態では、ベース部プロセッサー204は、処理されていない測定データを外部コンピューターに送る。 The base processor board 204 is used to process unprocessed measurement data (e.g., an encoder) in order to process the measurement data without requiring any pre-processing as disclosed in the serial box of Patent Document 1 described above. Send and collect system counts, temperature readings). Base processor 204 sends the processed data to display processor 328 on user interface board 202 via RS485 interface (IF) 326. In one embodiment, the base processor 204 sends unprocessed measurement data to an external computer.
ここで図3Bのユーザーインターフェース基板202を見てみると、ベース部プロセッサーによって受信された角度および位置データが、AACMM100の中の自律的な計測システムを提供するためにディスプレイプロセッサー328の上で実行されるアプリケーションによって利用される。アプリケーションは、ディスプレイプロセッサー328の上で実行され、それに限定されないが、特徴の測定、ガイダンスおよびトレーニングのグラフィックス、遠隔診断、温度補正、さまざまな動作の特徴の制御、さまざまなネットワークへの接続、ならびに、測定された対象物の表示などの機能をサポートすることが可能である。ディスプレイプロセッサー328および液晶ディスプレイ(LCD)338(例えば、タッチスクリーンLCD)ユーザーインターフェースとともに、ユーザーインターフェース基板202は、セキュアデジタル(SD)カードインターフェース330と、メモリー332と、USBホストインターフェース334と、診断ポート336と、カメラポート340と、音声/映像インターフェース342と、ダイアルアップ/セルモデム344と、全地球測位システム(GPS)ポート346とを含むいくつかのインターフェースオプションを含む。 Turning now to the user interface board 202 of FIG. 3B, the angle and position data received by the base processor is executed on the display processor 328 to provide an autonomous measurement system within the AACMM 100. Used by applications that Applications run on display processor 328, including but not limited to feature measurement, guidance and training graphics, remote diagnostics, temperature correction, control of various operating features, connection to various networks, and It is possible to support functions such as the display of measured objects. Along with a display processor 328 and a liquid crystal display (LCD) 338 (eg, touch screen LCD) user interface, the user interface board 202 includes a secure digital (SD) card interface 330, a memory 332, a USB host interface 334, and a diagnostic port 336. And several interface options including a camera port 340, an audio / video interface 342, a dial-up / cell modem 344, and a global positioning system (GPS) port 346.
また、図3Aに示されている電子データ処理システム210は、環境データを記録するための環境レコーダー362を備えるベース部電源基板206も含む。また、ベース部電源基板206は、AC/DCコンバーター358およびバッテリー充電器制御360を使用して、電子データ処理システム210に電力を提供する。ベース部電源基板206は、集積回路間(inter−integrated circuit)(I2C)シリアルシングルエンドバス354を使用して、および、DMAシリアル周辺インターフェース(DSPI)357を介して、ベース部プロセッサー基板204と通信する。ベース部電源基板206は、ベース部電源基板206の中に実装された入力/出力(I/O)拡張機能364を介して、傾斜センサーおよび無線周波数識別(RFID)モジュール208に接続されている。 The electronic data processing system 210 shown in FIG. 3A also includes a base power supply board 206 that includes an environment recorder 362 for recording environmental data. The base power supply board 206 also provides power to the electronic data processing system 210 using an AC / DC converter 358 and a battery charger control 360. The base power supply board 206 communicates with the base processor board 204 using an inter-integrated circuit (I2C) serial single-ended bus 354 and via a DMA serial peripheral interface (DSPI) 357. To do. The base power supply board 206 is connected to a tilt sensor and radio frequency identification (RFID) module 208 via an input / output (I / O) extension 364 implemented in the base power supply board 206.
別々のコンポーネントとして示されているが、他の実施形態では、コンポーネントのすべてまたは一部は、異なる場所に物理的に位置付けされ、ならびに/または、図3Aおよび図3Bに示されている位置とは異なる様式で組み合わせられた機能とすることが可能である。例えば、一実施形態では、ベース部プロセッサー基板204およびユーザーインターフェース基板202は、1つの物理的な基板へと組み合わせられる。 Although shown as separate components, in other embodiments, all or some of the components are physically located at different locations and / or the locations shown in FIGS. 3A and 3B. Functions can be combined in different ways. For example, in one embodiment, base processor board 204 and user interface board 202 are combined into one physical board.
ここで図4〜図9を参照すると、プローブ端部401の例示的な実施形態が図示されており、それは、取り外し可能で交換可能なデバイス400がAACMM100に連結することを可能にするクイックコネクトの機械的および電気的なインターフェースを備える測定プローブハウジング102有している。例示的な実施形態では、デバイス400は、エンクロージャー402を含み、エンクロージャー402は、ハンドル部分404を含み、ハンドル部分404は、例えば、ピストルグリップの中にあるように、オペレーターの手で握られるようにサイズ決めおよび形状決めされている。エンクロージャー402は、キャビティー406を有する薄壁構造体である(図9)。キャビティー406は、コントローラー408を受け入れるようにサイズ決めおよび構成されている。コントローラー408は、例えばマイクロプロセッサーを有するデジタル回路とするか、または、アナログ回路とすることが可能である。一実施形態では、コントローラー408は、電子データ処理システム210(図2および図3)と非同期双方向通信をしている。コントローラー408と電子データ処理システム210との間の通信接続は、(例えば、コントローラー420を介した)有線とすることが可能であるか、または、直接的もしくは間接的な無線接続(例えば、Bluetooth(登録商標)もしくはIEEE802.11)、または、有線接続および無線接続の組み合わせとすることが可能である。例示的な実施形態では、エンクロージャー402は、例えば、射出成形されたプラスチック材料などから、2つの半割部410、412で形成されている。半割部410、412は、例えば、スクリュー414などのような締結具によって、一緒に固定することが可能である。他の実施形態では、エンクロージャー半割部410、412は、例えば、接着剤または超音波溶接によって、一緒に固定することが可能である。 Referring now to FIGS. 4-9, an exemplary embodiment of the probe end 401 is illustrated, which is a quick connect that allows a removable and replaceable device 400 to be coupled to the AACMM 100. It has a measurement probe housing 102 with mechanical and electrical interfaces. In the exemplary embodiment, device 400 includes an enclosure 402 that includes a handle portion 404 that can be grasped by an operator's hand, for example, in a pistol grip. Sized and shaped. The enclosure 402 is a thin wall structure having a cavity 406 (FIG. 9). Cavity 406 is sized and configured to accept controller 408. The controller 408 can be a digital circuit having a microprocessor, for example, or an analog circuit. In one embodiment, the controller 408 is in asynchronous two-way communication with the electronic data processing system 210 (FIGS. 2 and 3). The communication connection between the controller 408 and the electronic data processing system 210 can be wired (eg, via the controller 420) or can be a direct or indirect wireless connection (eg, Bluetooth ( Registered trademark) or IEEE 802.11), or a combination of wired and wireless connections. In the exemplary embodiment, enclosure 402 is formed of two halves 410, 412 from, for example, an injection molded plastic material. The halves 410 and 412 can be fixed together by a fastener such as a screw 414, for example. In other embodiments, the enclosure halves 410, 412 can be secured together, for example, by adhesive or ultrasonic welding.
また、ハンドル部分404は、オペレーターによって手動で作動され得るボタンまたはアクチュエーター416、418も含む。アクチュエーター416、418は、コントローラー408に連結されており、コントローラー408は、プローブハウジング102の中のコントローラー420に信号を送信する。例示的な実施形態では、アクチュエーター416、418は、プローブハウジング102の上においてデバイス400の反対側に位置付けされているアクチュエーター422、424の機能を実施する。デバイス400は、デバイス400、AACMM100を制御するために使用され得る追加的なスイッチ、ボタン、または他のアクチュエーターを有することが可能であり、またはその逆の可能性もあるということが認識されるべきである。また、デバイス400は、例えば、発光ダイオード(LED)、音源、メーター、ディスプレイ、または計器などのようなインジケーターを含むことが可能である。一実施形態では、デバイス400は、デジタルボイスレコーダーを含むことが可能であり、デジタルボイスレコーダーは、口頭のコメントを、測定されるポイントと同時に残すことを可能にする。さらなる別の実施形態では、デバイス400は、マイクロホンを含み、マイクロホンは、オペレーターが、音声による作動コマンドを電子データ処理システム210に送信することを可能にする。 The handle portion 404 also includes buttons or actuators 416, 418 that can be manually actuated by an operator. Actuators 416, 418 are coupled to controller 408, which transmits signals to controller 420 in probe housing 102. In the exemplary embodiment, actuators 416, 418 perform the function of actuators 422, 424 that are positioned on the opposite side of device 400 on probe housing 102. It should be appreciated that the device 400 can have additional switches, buttons, or other actuators that can be used to control the device 400, AACMM 100, and vice versa. It is. The device 400 may also include an indicator such as a light emitting diode (LED), a sound source, a meter, a display, or an instrument. In one embodiment, the device 400 can include a digital voice recorder that allows verbal comments to remain at the same time as the point being measured. In yet another embodiment, the device 400 includes a microphone that allows the operator to send a voice activation command to the electronic data processing system 210.
一実施形態では、ハンドル部分404は、オペレーターの両手で使用されるように、または、特定の手(例えば、左利きもしくは右利き)のためのものとするように構成することが可能である。また、ハンドル部分404は、障害を持つオペレーター(例えば、指の欠けたオペレーター、または、義肢を着けたオペレーター)を手助けするように構成することも可能である。さらに、空間的ゆとりが限られるときには、ハンドル部分404は取り外され、プローブハウジング102が単体で使用され得る。また、上記に議論されているように、プローブ端部401は、AACMM100の第7の軸線のシャフトを含むことも可能である。この実施形態では、デバイス400は、AACMMの第7の軸線の周りで回転するように配置することが可能である。 In one embodiment, the handle portion 404 can be configured to be used with both hands of the operator or for a specific hand (eg, left or right handed). The handle portion 404 can also be configured to assist a disabled operator (eg, an operator with a finger missing or an operator with a prosthetic limb). In addition, when spatial clearance is limited, the handle portion 404 can be removed and the probe housing 102 can be used alone. Also, as discussed above, the probe end 401 can include the shaft of the seventh axis of the AACMM 100. In this embodiment, the device 400 can be arranged to rotate about the seventh axis of the AACMM.
プローブ端部401は、プローブハウジング102の上の第2のコネクター428と協働するデバイス400の上の第1のコネクター429(図8)を有する機械的および電気的なインターフェース426を含む。コネクター428、429は、プローブハウジング102へのデバイス400の連結を可能にする電気的および機械的な特徴を含むことが可能である。一実施形態では、インターフェース426は、第1の表面430を含み、第1の表面430は、その上に機械的連結器432および電気コネクター434を有している。また、エンクロージャー402は、第2の表面436を含み、第2の表面436は、第1の表面430に隣接して位置付けされ、第1の表面430からオフセットされている。例示的な実施形態では、第2の表面436は、第1の表面430からおおよそ0.5インチの距離だけオフセットされている平面的な表面である。このオフセットは、カラー438などのような締結具を締めるか、または緩めるときに、オペレーターの指のためのクリアランスを提供する。インターフェース426は、コネクターピンを整合させることを必要とせずに、および、別々のケーブルまたはコネクターを必要とせずに、デバイス400とプローブハウジング102との間で比較的に迅速で安定した電子的な接続を提供する。 The probe end 401 includes a mechanical and electrical interface 426 having a first connector 429 (FIG. 8) on the device 400 that cooperates with a second connector 428 on the probe housing 102. Connectors 428, 429 can include electrical and mechanical features that allow connection of device 400 to probe housing 102. In one embodiment, interface 426 includes a first surface 430 that has a mechanical coupler 432 and an electrical connector 434 thereon. Enclosure 402 also includes a second surface 436 that is positioned adjacent to and offset from first surface 430. In the exemplary embodiment, second surface 436 is a planar surface that is offset from first surface 430 by a distance of approximately 0.5 inches. This offset provides clearance for the operator's fingers when fastening or loosening fasteners such as collar 438 or the like. Interface 426 provides a relatively quick and stable electronic connection between device 400 and probe housing 102 without the need to align connector pins and without the need for separate cables or connectors. I will provide a.
電気コネクター434は、第1の表面430から延在し、1つ以上のコネクターピン440を含み、コネクターピン440は、例えば、1つ以上のアームバス218などを介して、電子データ処理システム210(図2および図3)と非同期双方向通信するように電気的に連結される。双方向通信接続は、(例えば、アームバス218を介した)有線、無線(例えば、Bluetooth(登録商標)またはIEEE802.11)、または、有線接続および無線接続の組み合わせとすることが可能である。一実施形態では、電気コネクター434は、コントローラー420に電気的に連結される。コントローラー420は、例えば、1つ以上のアームバス218などを介して、電子データ処理システム210と非同期双方向通信することが可能である。電気コネクター434は、プローブハウジング102の上の電気コネクター442との比較的に迅速で安定した電子的な接続を提供するように位置付けされている。電気コネクター434、442は、デバイス400がプローブハウジング102に取り付けられるときに互いに接続する。電気コネクター434、442は、金属で覆われたコネクターハウジングをそれぞれ含むことが可能であり、コネクターハウジングは、デバイス400をプローブハウジング102に取り付けるプロセスの間に、電磁干渉からの遮蔽、ならびに、コネクターピンの保護、および、ピンアライメントの補助を提供する。 The electrical connector 434 extends from the first surface 430 and includes one or more connector pins 440, which may be connected to the electronic data processing system 210 (e.g., via one or more arm buses 218). 2 and 3) are electrically coupled for asynchronous two-way communication. The bi-directional communication connection can be wired (eg, via armbus 218), wireless (eg, Bluetooth® or IEEE 802.11), or a combination of wired and wireless connections. In one embodiment, electrical connector 434 is electrically coupled to controller 420. The controller 420 is capable of asynchronous two-way communication with the electronic data processing system 210, such as via one or more arm buses 218, for example. Electrical connector 434 is positioned to provide a relatively quick and stable electronic connection with electrical connector 442 on probe housing 102. Electrical connectors 434, 442 connect to each other when device 400 is attached to probe housing 102. The electrical connectors 434, 442 may each include a metal-covered connector housing that shields from electromagnetic interference as well as connector pins during the process of attaching the device 400 to the probe housing 102. Protection and pin alignment assistance.
機械的連結器432は、デバイス400とプローブハウジング102との間に、比較的に強固な機械的連結を提供し、AACMM100のアーム部分104の端部の上のデバイス400の場所がシフトまたは移動しないことが好ましい比較的に正確な用途をサポートする。任意のそのような移動は、典型的に、測定結果の精度の望ましくない低下を引き起こす可能性がある。これらの所望の結果は、本発明の実施形態のクイックコネクトの機械的および電子的インターフェースの機械的な取り付け構成部分のさまざまな構造的特徴を使用して実現される。 The mechanical coupler 432 provides a relatively strong mechanical connection between the device 400 and the probe housing 102 so that the location of the device 400 on the end of the arm portion 104 of the AACMM 100 does not shift or move. Supporting relatively accurate applications, which is preferred. Any such movement typically can cause an undesirable reduction in the accuracy of the measurement results. These desired results are achieved using various structural features of the mechanical attachment components of the quick connect mechanical and electronic interfaces of embodiments of the present invention.
一実施形態では、機械的連結器432は、一方の端部448(デバイス400の前縁部または「最前部」)に位置付けされている第1の突出部444を含む。第1の突出部444は、キーを付けられた、切り欠きを入れられた、または傾斜を付けられたインターフェースを含むことが可能であり、それは、第1の突出部444から延在するリップ部446を形成する。リップ部446は、プローブハウジング102から延在する突出部452によって画定されるスロット450の中に受け入れられるようにサイズ決めされている(図8)。第1の突出部444およびスロット450は、カラー438とともに連結器配置を形成し、リップ部446がスロット450の中に位置付けされるときに、スロット450が、プローブハウジング102に取り付けられるときのデバイス400の長手方向および横方向の両方の移動を制限するために使用され得るようになっているということが認識されるべきである。より詳細に以下に議論されることとなるように、カラー438の回転は、スロット450の中にリップ部446を固定するために使用することが可能である。 In one embodiment, the mechanical coupler 432 includes a first protrusion 444 positioned at one end 448 (the leading edge or “frontmost” portion of the device 400). The first protrusion 444 can include a keyed, notched or beveled interface, which includes a lip extending from the first protrusion 444. 446 is formed. The lip 446 is sized to be received within a slot 450 defined by a protrusion 452 extending from the probe housing 102 (FIG. 8). The first protrusion 444 and the slot 450 form a coupler arrangement with the collar 438 and the device 400 when the slot 450 is attached to the probe housing 102 when the lip 446 is positioned within the slot 450. It should be appreciated that it can be used to limit both longitudinal and lateral movement of the. The rotation of the collar 438 can be used to secure the lip 446 within the slot 450, as will be discussed in more detail below.
第1の突出部444の反対側に、機械的連結器432は、第2の突出部454を含むことが可能である。第2の突出部454は、キーを付けられ、切り欠きを入れられたリップ部、または、傾斜を付けられたインターフェース表面456を有することが可能である(図5)。第2の突出部454は、例えば、カラー438などのような、プローブハウジング102に関連する締結具を係合するように位置付けされている。より詳細に以下に議論されることとなるように、機械的連結器432は、表面430から突出する隆起した表面を含み、それは、電気コネクター434に隣接し、または、電気コネクター434の周りに配設されており、それは、インターフェース426のための枢動点を提供する(図7および図8)。これは、デバイス400がプローブハウジング102に取り付けられるときに、デバイス400とプローブハウジング102との間の3つの機械的接点のうちの第3の接点としての役割を果たす。 On the opposite side of the first protrusion 444, the mechanical coupler 432 can include a second protrusion 454. The second protrusion 454 can have a keyed, notched lip, or a beveled interface surface 456 (FIG. 5). The second protrusion 454 is positioned to engage a fastener associated with the probe housing 102, such as a collar 438, for example. As will be discussed in more detail below, the mechanical coupler 432 includes a raised surface that protrudes from the surface 430, which is adjacent to or around the electrical connector 434. It provides a pivot point for the interface 426 (FIGS. 7 and 8). This serves as a third of the three mechanical contacts between the device 400 and the probe housing 102 when the device 400 is attached to the probe housing 102.
プローブハウジング102は、一方の端部において、同軸に配置されているカラー438を含む。カラー438は、第1の位置(図5)と第2の位置(図7)との間で移動することができる可動式のねじ部分を含む。カラー438を回転させることによって、カラー438は、外部ツールを必要とすることなくデバイス400を固定するか、または取り外すために使用することが可能である。カラー438の回転は、比較的に間隔の広い角ねじ山の切られたシリンダー474に沿ってカラー438を移動させる。そのような比較的に大きいサイズの角ねじ、および、輪郭表面の使用は、最小限の回転トルクによって非常に大きなクランプ力を可能にする。さらに、シリンダー474のねじ山の間隔の広いピッチは、カラー438が最小限の回転によって締められるか、または緩められることを可能にする。 The probe housing 102 includes a collar 438 that is coaxially disposed at one end. The collar 438 includes a movable threaded portion that can move between a first position (FIG. 5) and a second position (FIG. 7). By rotating the collar 438, the collar 438 can be used to secure or remove the device 400 without the need for external tools. The rotation of the collar 438 moves the collar 438 along a relatively spaced angular threaded cylinder 474. The use of such relatively large size square screws and contour surfaces allows for very large clamping forces with minimal rotational torque. In addition, the wide pitch of the cylinder 474 threads allows the collar 438 to be tightened or loosened with minimal rotation.
デバイス400をプローブハウジング102に連結するために、リップ部446が、スロット450の中へ挿入され、デバイスが、矢印464によって示されているように、第2の突出部454を表面458に向かって回転させるように枢動させられる(図5)。カラー438は回転させられ、カラー438が矢印462によって示されている方向に移動または並進し、表面456と係合することを引き起こす。角度の付いた表面456に対するカラー438の移動は、隆起した表面460に対して機械的連結器432を駆動する。これは、プローブハウジング102へのデバイス400の強固な着座を妨げる可能性があるインターフェースの変形、または、インターフェースの表面の上の異物に伴って起こり得る問題を克服することを支援する。カラー438によって第2の突出部454に力を加えることは、機械的連結器432を前方に移動させ、プローブハウジング102のシート部の中へリップ部446を押す。カラー438が締められ続けるにつれて、第2の突出部454は、プローブハウジング102に向かって上向きに押され、枢動点に圧力を加える。これは、シーソータイプの配置を提供し、第2の突出部454、リップ部446、および中心枢動点に圧力を加え、デバイス400のずれまたは揺れを低減させるか、または排除する。枢動点は、プローブハウジング102の底部を直接的に押し、一方、リップ部446は、プローブハウジング102の端部に下向きの力を加える。図5は、矢印462、464を含み、デバイス400およびカラー438の移動の方向を示している。図7は、矢印466、468、470を含み、カラー438が締められるときに、インターフェース426の中で加えられる圧力の方向を示している。デバイス400の表面436のオフセット距離は、カラー438と表面436との間にギャップ472を提供するということが認識されるべきである(図6)。ギャップ472は、カラー438が回転されるときに指を挟むリスクを低減させながら、オペレーターがカラー438をよりしっかりと握ることを可能にする。一実施形態では、プローブハウジング102は、カラー438が締められるときの変形を低減させるか、または防止するのに十分な剛性のものである。 To connect the device 400 to the probe housing 102, the lip 446 is inserted into the slot 450 and the device moves the second protrusion 454 toward the surface 458, as indicated by the arrow 464. It is pivoted to rotate (FIG. 5). Collar 438 is rotated causing collar 438 to move or translate in the direction indicated by arrow 462 and engage surface 456. Movement of the collar 438 relative to the angled surface 456 drives the mechanical coupler 432 relative to the raised surface 460. This helps to overcome problems that may occur with interface deformations or foreign objects on the surface of the interface that may prevent firm seating of the device 400 on the probe housing 102. Applying force to the second protrusion 454 by the collar 438 moves the mechanical coupler 432 forward and pushes the lip 446 into the seat portion of the probe housing 102. As the collar 438 continues to tighten, the second protrusion 454 is pushed upward toward the probe housing 102 to apply pressure to the pivot point. This provides a seesaw-type arrangement and applies pressure to the second protrusion 454, lip 446, and central pivot point to reduce or eliminate device 400 offset or sway. The pivot point pushes directly on the bottom of the probe housing 102, while the lip 446 applies a downward force to the end of the probe housing 102. FIG. 5 includes arrows 462, 464, indicating the direction of movement of the device 400 and collar 438. FIG. 7 includes arrows 466, 468, 470 and shows the direction of pressure applied in the interface 426 when the collar 438 is tightened. It should be appreciated that the offset distance of the surface 436 of the device 400 provides a gap 472 between the collar 438 and the surface 436 (FIG. 6). The gap 472 allows the operator to hold the collar 438 more securely while reducing the risk of pinching fingers as the collar 438 is rotated. In one embodiment, the probe housing 102 is sufficiently rigid to reduce or prevent deformation when the collar 438 is tightened.
インターフェース426の実施形態は、機械的連結器432および電気コネクター434の適正なアライメントを可能にし、また、加えられる応力から電子機器インターフェースを保護し、そうでなければ、応力が、カラー438、リップ部446、および表面456のクランピング作用に起因して生じる可能性がある。これは、回路基板476に装着された電気コネクター434、442(それは、はんだ付けされた端子を有することが可能である)に対する応力損傷を低減または排除するという点で利点を提供する。また、実施形態は、ユーザーがデバイス400をプローブハウジング102に接続するか、または、プローブハウジング102から切り離すためにツールが必要とされないという点で、既知のアプローチに勝る利点を提供する。これは、オペレーターが手動で比較的簡単にデバイス400をプローブハウジング102に接続し、およびプローブハウジング102から切り離すことを可能にする。 Embodiments of the interface 426 allow for proper alignment of the mechanical coupler 432 and electrical connector 434 and also protect the electronics interface from applied stress, otherwise the stress is applied to the collar 438, lip 446, and possibly due to the clamping action of surface 456. This provides an advantage in that it reduces or eliminates stress damage to the electrical connectors 434, 442 (which can have soldered terminals) mounted on the circuit board 476. Embodiments also provide an advantage over known approaches in that a tool is not required for a user to connect or disconnect device 400 to probe housing 102 from probe housing 102. This allows the operator to manually connect and disconnect the device 400 from the probe housing 102 relatively easily.
インターフェース426によって可能な比較的に多数の遮蔽された電気接続に起因して、比較的に多数の機能が、AACMM100とデバイス400との間で共有され得る。例えば、AACMM100の上に位置付けされているスイッチ、ボタン、または他のアクチュエーターは、デバイス400を制御するために使用することが可能であり、または、その逆も同様である。さらに、コマンドおよびデータを電子データ処理システム210からデバイス400へ送信することが可能である。一実施形態では、デバイス400は、ベース部プロセッサー204の上のメモリーの中に記憶されることとなるか、または、ディスプレイ328の上に表示されることとなる記録された画像のデータを送信するビデオカメラである。別の実施形態では、デバイス400は、電子データ処理システム210からデータを受信する画像プロジェクターである。加えて、AACMM100またはデバイス400のいずれかに位置付けされている温度センサーは、他方によって共有され得る。本発明の実施形態は、多種多様なアクセサリーデバイス400がAACMM100に迅速に、容易に、および確実に連結されることを可能にする柔軟なインターフェースを提供するという点で利点を提供するということが認識されるべきである。さらに、AACMM100とデバイス400との間で機能を共有する能力は、重複を排除することによって、AACMM100のサイズ、電力消費、および複雑さを低減することを可能にし得る。 Due to the relatively large number of shielded electrical connections possible by the interface 426, a relatively large number of functions can be shared between the AACMM 100 and the device 400. For example, a switch, button, or other actuator positioned on the AACMM 100 can be used to control the device 400, or vice versa. Further, commands and data can be transmitted from the electronic data processing system 210 to the device 400. In one embodiment, device 400 transmits recorded image data that will be stored in memory on base processor 204 or displayed on display 328. It is a video camera. In another embodiment, device 400 is an image projector that receives data from electronic data processing system 210. In addition, a temperature sensor located in either AACMM 100 or device 400 can be shared by the other. It will be appreciated that embodiments of the present invention provide an advantage in that it provides a flexible interface that allows a wide variety of accessory devices 400 to be quickly, easily and reliably coupled to AACMM 100. It should be. Further, the ability to share functionality between AACMM 100 and device 400 may allow reducing the size, power consumption, and complexity of AACMM 100 by eliminating duplication.
一実施形態では、コントローラー408は、AACMM100のプローブ端部401の動作または機能性を変更することが可能である。例えば、コントローラー408は、デバイス400が取り付けられているときと、プローブハウジング102が単体で使用されるときとの異なるときにおいて、異なる色の光、異なる強さの光を放出するか、または、点灯/消灯するかのいずれかを行うように、プローブハウジング102の上のインジケーターライトを変更することが可能である。一実施形態では、デバイス400は、対象物までの距離を測定する距離測定センサー(図示せず)を含む。この実施形態では、コントローラー408は、対象物がプローブ先端部118からどのぐらい離れているかについてオペレーターに指示を提供するために、プローブハウジング102の上のインジケーターライトを変化させることが可能である。別の実施形態では、コントローラー408は、コード化されたストラクチャードライトスキャナーデバイスによって獲得された画像の品質に基づいて、インジケーターライトの色を変化させることが可能である。これは、コントローラー420の要件を簡単化するという点で利点を提供し、アクセサリーデバイスの追加による機能性のアップグレードまたは向上を可能にする。 In one embodiment, the controller 408 can change the operation or functionality of the probe end 401 of the AACMM 100. For example, the controller 408 emits light of different colors, light of different intensity, or is illuminated when the device 400 is attached and when the probe housing 102 is used alone. It is possible to change the indicator light on the probe housing 102 to either / off. In one embodiment, device 400 includes a distance measurement sensor (not shown) that measures the distance to the object. In this embodiment, the controller 408 can change the indicator light on the probe housing 102 to provide an operator with an indication of how far the object is from the probe tip 118. In another embodiment, the controller 408 can change the color of the indicator light based on the quality of the image acquired by the coded structured light scanner device. This provides an advantage in that it simplifies the requirements of the controller 420 and allows for functionality upgrades or improvements with the addition of accessory devices.
図10〜図13を参照すると、本発明の実施形態は、非接触式三次元測定デバイス500に関して、プロジェクター、カメラ、信号処理、制御、およびインジケーターインターフェースに利点を提供する。デバイス500は、一対の光学式デバイス(例えば、ライトプロジェクター508およびカメラ510など)を含み、光学式デバイスは、ストラクチャードライトパターンを投影し、対象物501から反射された二次元パターンを受信する。デバイス500は、既知の放出されたパターンおよび獲得された画像に基づいて三角測量ベースの方法を使用し、受信された画像のそれぞれの画素に関して、対象物501のX、Y、Z座標データを表すポイントクラウドを決定する。一実施形態では、ストラクチャードライトパターンは、単一の画像が対象物ポイントの三次元座標を決定するのに十分となるようにコード化されている。また、そのようなコード化されたストラクチャードライトパターンは、単一のショットで三次元座標を測定すると言うことも可能である。 With reference to FIGS. 10-13, embodiments of the present invention provide advantages for projectors, cameras, signal processing, control, and indicator interfaces with respect to the non-contact 3D measurement device 500. Device 500 includes a pair of optical devices (eg, light projector 508 and camera 510, etc.) that project a structured light pattern and receive a two-dimensional pattern reflected from object 501. The device 500 uses a triangulation-based method based on the known emitted pattern and the acquired image to represent the X, Y, Z coordinate data of the object 501 for each pixel of the received image. Determine the point cloud. In one embodiment, the structured light pattern is coded such that a single image is sufficient to determine the three-dimensional coordinates of the object point. It can also be said that such a coded structured light pattern measures three-dimensional coordinates in a single shot.
例示的な実施形態では、プロジェクター508は、パターンジェネレーターを照射する可視光光源を使用する。可視光光源は、レーザー、高輝度発光ダイオード、白熱灯、発光ダイオード(LED)、または、他の光放出デバイスとすることが可能である。例示的な実施形態では、パターンジェネレーターは、ストラクチャードライトパターンがその上にエッチング加工されたクロム−オン−ガラス(chrome−on−glass)スライドである。スライドは、必要とされる位置の内外へ移動する単一のパターンまたは複数のパターンを有することが可能である。スライドは、手動でまたは自動的に動作位置に搭載することが可能である。他の実施形態では、光源パターンは、Texas Instruments Corporationによって製造されているデジタルライトプロジェクター(DLP)などのようなデジタルマイクロミラーデバイス(DMD)、液晶デバイス(LCD)、液晶−オン−シリコン(LCOS)デバイス、または、反射モードよりも透過モードで使用される同様のデバイスによって、反射または透過される光とすることが可能である。プロジェクター508は、レンズシステム515をさらに含むことが可能であり、レンズシステム515は、出ていく光を所望の焦点特性を有するように変更させる。 In the exemplary embodiment, projector 508 uses a visible light source that illuminates the pattern generator. The visible light source can be a laser, a high intensity light emitting diode, an incandescent lamp, a light emitting diode (LED), or other light emitting device. In an exemplary embodiment, the pattern generator is a chrome-on-glass slide having a structured light pattern etched onto it. The slide can have a single pattern or multiple patterns that move in and out of the required position. The slide can be mounted in the operating position manually or automatically. In other embodiments, the light source pattern is a digital micromirror device (DMD) such as a digital light projector (DLP) manufactured by Texas Instruments Corporation, a liquid crystal device (LCD), a liquid crystal-on-silicon (LCOS). It can be light that is reflected or transmitted by the device or a similar device that is used in transmission mode rather than reflection mode. The projector 508 can further include a lens system 515 that causes the outgoing light to change to have a desired focus characteristic.
デバイス500は、ハンドル部分504を備えるエンクロージャー502をさらに含む。一実施形態では、デバイス500は、一方の端部にインターフェース426をさらに含むことが可能であり、インターフェース426は、本明細書で上記に説明されているように、デバイス500をプローブハウジング102に機械的におよび電気的に連結する。他の実施形態では、デバイス500は、プローブハウジング102の中に一体化され得る。インターフェース426は、デバイス500が、追加的なツールを必要とすることなく、迅速におよび容易にAACMM100に連結され、および、AACMM100から取り外されることを可能にするという点で利点を提供する。 Device 500 further includes an enclosure 502 with a handle portion 504. In one embodiment, the device 500 can further include an interface 426 at one end, which can interface the device 500 to the probe housing 102, as described herein above. And electrically connect. In other embodiments, the device 500 can be integrated into the probe housing 102. Interface 426 provides an advantage in that device 500 can be quickly and easily coupled to and removed from AACMM 100 without the need for additional tools.
カメラ510は、感光性センサーを含み、感光性センサーは、センサーの視野の中の領域のデジタル画像/表示を発生させる。センサーは、画素の配列を有する、例えば、電荷結合素子(CCD)タイプのセンサーまたは相補型金属酸化膜半導体(CMOS)タイプのセンサーとすることが可能である。カメラ510は、それに限定されないが、例えば、レンズ503および他の光学式デバイスなどのような、他のコンポーネントをさらに含むことが可能である。例示的な実施形態では、プロジェクター508およびカメラ510は、所定の角度で配置されており、センサーが対象物501の表面から反射される光を受信することが可能であるようになっている。一実施形態では、プロジェクター508およびカメラ510は、デバイス500がプローブ先端部118を適当な位置に置いた状態で動作され得るように位置付けされる。さらに、デバイス500は、プローブ先端部118に対して実質的に固定され、ハンドル部分504にかかる力は、プローブ先端部118に対するデバイス500のアライメントに影響を及ぼし得ないということが認識されるべきである。一実施形態では、デバイス500は、デバイス500からとプローブ先端部118からとの間でオペレーターがデータを獲得することを切り替えることを可能にする追加的なアクチュエーター(図示せず)を有することが可能である。 The camera 510 includes a photosensitive sensor that generates a digital image / display of an area in the field of view of the sensor. The sensor can be, for example, a charge coupled device (CCD) type sensor or a complementary metal oxide semiconductor (CMOS) type sensor having an array of pixels. The camera 510 can further include other components such as, but not limited to, a lens 503 and other optical devices, for example. In the exemplary embodiment, projector 508 and camera 510 are positioned at a predetermined angle so that the sensor can receive light reflected from the surface of object 501. In one embodiment, projector 508 and camera 510 are positioned such that device 500 can be operated with probe tip 118 in place. Further, it should be appreciated that the device 500 is substantially fixed with respect to the probe tip 118 and that forces on the handle portion 504 cannot affect the alignment of the device 500 with respect to the probe tip 118. is there. In one embodiment, the device 500 can have additional actuators (not shown) that allow the operator to switch between acquiring data from the device 500 and from the probe tip 118. It is.
プロジェクター508およびカメラ510は、エンクロージャー502の中に配設されているコントローラー512に電気的に連結されている。コントローラー512は、1つ以上のマイクロプロセッサー、デジタル信号プロセッサー、メモリー、および信号調整回路を含むことが可能である。デバイス500によって発生させられるデジタル信号処理および大きなデータ量に起因して、コントローラー512は、ハンドル部分504の中に配置することが可能である。コントローラー512は、電気コネクター434を介してアームバス218に電気的に連結されている。デバイス500は、アクチュエーター514、516をさらに含むことが可能であり、アクチュエーター514、516は、オペレーターによって手動で作動させられ、デバイス500による動作およびデータ収集を開始させることが可能である。一実施形態では、対象物501を表すポイントクラウドのX、Y、Z座標データを決定するための画像処理が、コントローラー512によって実施され、座標データが、バス240を介して電子データ処理システム210に送信される。別の実施形態では、画像が、電子データ処理システム210に送信され、座標の計算が、電子データ処理システム210によって実施される。 The projector 508 and the camera 510 are electrically connected to a controller 512 disposed in the enclosure 502. The controller 512 can include one or more microprocessors, digital signal processors, memory, and signal conditioning circuitry. Due to the digital signal processing and large amount of data generated by the device 500, the controller 512 can be placed in the handle portion 504. The controller 512 is electrically connected to the arm bus 218 via the electrical connector 434. The device 500 can further include actuators 514, 516, which can be manually actuated by an operator to initiate operation and data collection by the device 500. In one embodiment, image processing to determine X, Y, Z coordinate data of the point cloud representing the object 501 is performed by the controller 512, and the coordinate data is sent to the electronic data processing system 210 via the bus 240. Sent. In another embodiment, the image is transmitted to the electronic data processing system 210 and the coordinate calculation is performed by the electronic data processing system 210.
一実施形態では、コントローラー512は、電子データ処理システム210と通信し、電子データ処理システム210からストラクチャードライトパターン画像を受信するように構成されている。さらに別の実施形態では、対象物の上に放出されるパターンは、自動的に、または、オペレーターからの入力に応答してのいずれかにより、電子データ処理システム210によって変化させられ得る。これは、条件が正当であるときにデコードするのがより簡単なパターンの使用を可能にすることによって、および、所望のレベルの精度または分解能を実現することが望まれる場所でより複雑なパターンの使用を可能にすることによって、より少ない処理時間でより高い精度測定を得るという点で利点を提供することが可能である。 In one embodiment, the controller 512 is configured to communicate with the electronic data processing system 210 and receive a structured light pattern image from the electronic data processing system 210. In yet another embodiment, the pattern emitted on the object can be changed by the electronic data processing system 210 either automatically or in response to input from an operator. This allows for the use of patterns that are easier to decode when conditions are justified, and for more complex patterns where it is desired to achieve the desired level of accuracy or resolution. By enabling use, an advantage can be provided in that it provides a higher accuracy measurement with less processing time.
本発明の他の実施形態では、デバイス520(図12)は、一対のカメラ510を含む。カメラ510は、プロジェクター508に対して所定の角度で配置され、対象物501から反射された光を受信する。複数のカメラ510の使用は、いくつかの用途において、重複する画像を提供し、測定の精度を向上させることによって、利点を提供することが可能である。さらに他の実施形態では、重複する画像は、カメラ510を交互に動作させることにより画像の獲得速度を増加させることによって、逐次的パターンがデバイス500によって迅速に獲得されることを可能にする。 In other embodiments of the present invention, device 520 (FIG. 12) includes a pair of cameras 510. The camera 510 is disposed at a predetermined angle with respect to the projector 508, and receives the light reflected from the object 501. The use of multiple cameras 510 can provide advantages in some applications by providing overlapping images and improving measurement accuracy. In yet other embodiments, the overlapping images allow a sequential pattern to be acquired quickly by the device 500 by increasing the acquisition speed of the images by operating the cameras 510 alternately.
ここで図13Aおよび図13Bを参照して、ストラクチャードライトデバイス500の動作を説明する。デバイス500は、第一に、プロジェクター508によって、対象物501の表面524の上にストラクチャードライトパターン522を放出する。ストラクチャードライトパターン522は、Jason GengによってSPIE会報第7932巻で公開された学術論文「DLP−Based Structured Light 3D Imaging Technologies and Applications」に開示されているパターンを含むことが可能である。ストラクチャードライトパターン522は、図14〜図32に示されているパターンのうちの1つをさらに含むことが可能であるが、それに限定されない。プロジェクター508からの光509は、表面524から反射され、反射された光511は、カメラ510によって受信される。例えば、突出部526などのような表面524の変化は、パターンの画像がカメラ510によってキャプチャーされるときに、ストラクチャードパターンの中に変形を生成させるということが認識されるべきである。パターンはストラクチャードライトによって形成されるので、いくつかの場合では、コントローラー512または電子データ処理システム210が、放出されたパターンの中の画素(例えば、画素513など)と、画像化されるパターンの中の画素(例えば、画素515など)との間の1対1の対応を決定することが可能である。これは、画像化されるパターンの中のそれぞれの画素の座標を決定するために三角測量原理が使用されることを可能にする。表面524の三次元座標の収集は、ポイントクラウドと称される場合がある。表面524の上方でデバイス500を移動させることによって、対象物501全体のポイントクラウドを生成させることが可能である。いくつかの実施形態では、デバイス500の位置および配向が、電子データ処理システム210によって知られ、AACMM100に対する対象物501の場所が確認され得るようになっているという点において、プローブ端部へのデバイス500の連結が利点を提供するということが認識されるべきである。 Here, the operation of the structured light device 500 will be described with reference to FIGS. 13A and 13B. The device 500 first emits a structured light pattern 522 onto the surface 524 of the object 501 by the projector 508. The structured light pattern 522 may include a pattern disclosed in an academic paper “DLP-Based Structured Light 3D Imaging Technologies and Applications” published in SPIE bulletin 7932 by Jason Geng. The structured light pattern 522 may further include one of the patterns shown in FIGS. 14 to 32, but is not limited thereto. Light 509 from the projector 508 is reflected from the surface 524, and the reflected light 511 is received by the camera 510. It should be appreciated that changes in the surface 524, such as protrusions 526, for example, cause deformations in the structured pattern when the image of the pattern is captured by the camera 510. Since the pattern is formed by structured light, in some cases, the controller 512 or electronic data processing system 210 may have pixels in the emitted pattern (eg, pixel 513, etc.) and in the pattern being imaged. It is possible to determine a one-to-one correspondence with other pixels (eg, pixel 515, etc.). This allows the triangulation principle to be used to determine the coordinates of each pixel in the pattern to be imaged. The collection of the three-dimensional coordinates of the surface 524 may be referred to as a point cloud. By moving the device 500 over the surface 524, a point cloud of the entire object 501 can be generated. In some embodiments, the position and orientation of the device 500 is known by the electronic data processing system 210 so that the location of the object 501 relative to the AACMM 100 can be ascertained. It should be appreciated that 500 connections provide benefits.
画素の座標を決定するために、ポイント527において対象物522に交差するそれぞれの投影光線509の角度は、投影角度ファイ(Φ)に対応することが知られており、Φ情報が、放出されるパターンの中へコード化されるようになっている。一実施形態では、システムは、画像化されるパターンの中のそれぞれの画素に対応するΦ値が確認されることを可能にするように構成されている。さらに、プロジェクター508とカメラとの間のベースライン距離「D」が知られているので、カメラの中のそれぞれの画素に関する角度オメガ(Ω)が知られる。したがって、カメラ510から画素が画像化される場所への距離「Z」は、以下の等式を使用する。
一般に、2つのカテゴリーのストラクチャードライト、すなわち、コード化されたストラクチャードライト、および、コード化されていないストラクチャードライトが存在している。図14〜図17および図28〜図30に示されているものなどのような、コード化されていないストラクチャードライトの共通の形態は、1つの寸法に沿って周期的な様式で変化する縞模様のパターンに依存している。これらのタイプのパターンは、通常、所定のシーケンスで適用され、対象物への近似距離を提供する。いくつかのコード化されていないパターンの実施形態(例えば、正弦波パターンなど)は、比較的に高度に正確な測定を提供することが可能である。しかし、これらのタイプのパターンを効果的にするために、通常、スキャナーデバイスおよび対象物が互いに対して静止して保持されることが必要である。スキャナーデバイスまたは対象物が(他方に対して)移動している場合には、図18〜図27に示されているものなどのようなコード化されたパターンが好ましい可能性がある。コード化されたパターンは、単一の獲得される画像を使用して画像が分析されることを可能にする。いくつかのコード化されたパターンは、プロジェクターパターンの上の特定の配向(例えば、プロジェクター平面の上のエピポーララインに対して垂直である)に設置され、それによって、単一の画像に基づいて三次元の表面座標の分析を簡単化することが可能である。 In general, there are two categories of structured lights: coded structured lights and uncoded structured lights. A common form of uncoded structured light, such as that shown in FIGS. 14-17 and 28-30, is a striped pattern that varies in a periodic fashion along one dimension. Depends on the pattern. These types of patterns are usually applied in a predetermined sequence and provide an approximate distance to the object. Some uncoded pattern embodiments (eg, sinusoidal patterns, etc.) can provide relatively highly accurate measurements. However, in order to make these types of patterns effective, it is usually necessary that the scanner device and the object be held stationary relative to each other. If the scanner device or object is moving (relative to the other), a coded pattern such as that shown in FIGS. 18-27 may be preferred. The encoded pattern allows the image to be analyzed using a single acquired image. Some coded patterns are placed in a specific orientation on the projector pattern (eg, perpendicular to the epipolar line above the projector plane), so that tertiary based on a single image It is possible to simplify the analysis of the original surface coordinates.
エピポーララインは、図13Bのエピポーラ平面と、光源平面517または画像平面521(カメラセンサーの平面)との間の交差によって形成される数学的なラインである。エピポーラ平面は、プロジェクター透視中心519およびカメラ透視中心を通過する任意の平面とすることが可能である。光源平面517および画像平面521の上のエピポーララインは、場合によっては平行となり得るが、一般に平行ではない。エピポーララインの態様は、プロジェクター平面517の上に与えられたエピポーララインが、対応するエピポーララインを画像平面521の上に有するというものである。したがって、プロジェクター平面517の中のエピポーララインの上で既知の任意の特定のパターンが、画像平面521の中に即座に観察および評価され得る。例えば、コード化されたパターンがプロジェクター平面517の中のエピポーララインに沿って設置されている場合には、画像平面521の中のコード化された要素同士の間の間隔は、カメラセンサー510の画素から読み取られた値を使用して決定することが可能である。この情報は、対象物501の上のポイント527の三次元座標を決定するために使用することが可能である。さらに、コード化されたパターンをエピポーララインに対して既知の角度で傾斜させ、対象物表面座標を効率的に抽出することが可能である。コード化されたパターンの例は、図20〜図29に示されている。 The epipolar line is a mathematical line formed by the intersection between the epipolar plane of FIG. 13B and the light source plane 517 or the image plane 521 (the plane of the camera sensor). The epipolar plane can be any plane that passes through the projector perspective center 519 and the camera perspective center. Epipolar lines on the light source plane 517 and the image plane 521 may be parallel in some cases, but are generally not parallel. An aspect of the epipolar line is that an epipolar line provided on the projector plane 517 has a corresponding epipolar line on the image plane 521. Thus, any particular pattern known on the epipolar line in the projector plane 517 can be immediately observed and evaluated in the image plane 521. For example, if the coded pattern is placed along an epipolar line in the projector plane 517, the spacing between the coded elements in the image plane 521 is the pixel of the camera sensor 510. It can be determined using the value read from. This information can be used to determine the three-dimensional coordinates of the point 527 on the object 501. Furthermore, it is possible to incline the coded pattern at a known angle with respect to the epipolar line and efficiently extract the object surface coordinates. Examples of encoded patterns are shown in FIGS.
正弦波状に繰り返すパターンなどのような周期的なパターンを有する実施形態では、正弦波の周期が、複数のパターン要素を表している。二次元における周期的なパターンの多様性が存在しているので、パターン要素は、同一線上にない。場合によっては、変化する幅のストライプを有する縞模様のパターンは、コード化されたパターンを表すことが可能である。 In embodiments having a periodic pattern such as a sinusoidally repeating pattern, the period of the sine wave represents a plurality of pattern elements. Because there is a periodic pattern diversity in two dimensions, the pattern elements are not collinear. In some cases, a striped pattern with stripes of varying width can represent a coded pattern.
ここで図14〜図17を参照すると、コード化されていないストラクチャードライトパターンの実施形態が示されている。パターンのうちのいくつかは、単純なオンオフ(または、1、0)タイプのパターンを使用し、バイナリーパターンと称される。場合によっては、バイナリーパターンは、グレイコードシーケンスと称される特定のシーケンスを有するものとして知られているものである。ストラクチャードライトに基づく三次元計測の分野で使用されるグレイコードの用語は、電気的なエンジニアリングの分野(電気的なエンジニアリングの分野では、グレイコードの用語は、1度に単一のビットの逐次的変化を一般に意味している)で使用されるような用語とはいくらか異なっている。本出願は、三次元計測の分野(三次元計測の分野では、グレイコードは、バイナリー白黒値のシーケンスを典型的に表している)で慣習的であるようなグレイコードの用語の使用にしたがう。図14Aは、複数の逐次的画像530、532、534を含むバイナリーパターンの例を示しており、それぞれが、その上に異なる縞模様のパターンを有している。通常、ストライプは、明るい(照射されている)縞模様の領域と暗い(照射されていない)縞模様の領域との間で交互になっている。白および黒の用語は、照射されていることおよび照射されていないことをそれぞれ意味するために使用されている場合がある。したがって、画像530、532、534が、図14Bに示されているように表面524の上に逐次的に投影されるとき、それは、合成画像536を示す。図14Bの底部の2つのパターン535、537は、明確化のために、図14Aには図示されていないということが留意されるべきである。対象物501の上のそれぞれのポイント(画像の中のカメラ画素によって表されている)に関して、合成パターン536は、パターン530、532、534、535、537の逐次的投影を通して得られる固有のバイナリー値を有しており、それは、可能性のある投影角度Φの比較的に小さい範囲に対応している。与えられた画素に関する既知の画素角度Ω、および、既知のベースライン距離Dとともに、これらの投影角度を使用することによって、等式(1)は、カメラから対象物ポイントまでの距離Zを見出すために使用することが可能である。二次元の角度は、それぞれのカメラ画素に関して知られている。二次元の角度は、概して、一次元の角度オメガに対応しており、一次元の角度オメガは、等式(1)による距離Zの計算において使用される。しかし、それぞれのカメラ画素からカメラ透視中心を通して引かれ、所定のポイントにおいて対象物に交差するラインは、空間において二次元の角度を画定する。計算された値Zと組み合わせられると、2つの画素角度は、対象物表面の上のポイントに対応する三次元座標を提供する。 Referring now to FIGS. 14-17, an embodiment of an uncoded structured light pattern is shown. Some of the patterns use simple on-off (or 1, 0) type patterns and are referred to as binary patterns. In some cases, the binary pattern is what is known as having a specific sequence referred to as a Gray code sequence. The term Gray code used in the field of structured light based 3D metrology is the field of electrical engineering (in the field of electrical engineering, the term Gray code is a single bit at a time. Is somewhat different from the terminology used in (which generally means change). This application follows the use of the terminology of gray codes as is customary in the field of three-dimensional metrology (in the field of three-dimensional metrology, a gray code typically represents a sequence of binary black and white values). FIG. 14A shows an example of a binary pattern including a plurality of sequential images 530, 532, 534, each having a different striped pattern thereon. Typically, the stripes alternate between bright (irradiated) striped areas and dark (unirradiated) striped areas. The terms white and black may be used to mean illuminated and not illuminated, respectively. Thus, when the images 530, 532, 534 are sequentially projected onto the surface 524 as shown in FIG. 14B, it shows the composite image 536. It should be noted that the two patterns 535, 537 at the bottom of FIG. 14B are not shown in FIG. 14A for clarity. For each point on the object 501 (represented by camera pixels in the image), the composite pattern 536 is a unique binary value obtained through sequential projection of the patterns 530, 532, 534, 535, 537. Which corresponds to a relatively small range of possible projection angles Φ. By using these projection angles together with a known pixel angle Ω and a known baseline distance D for a given pixel, equation (1) finds the distance Z from the camera to the object point. Can be used. Two-dimensional angles are known for each camera pixel. A two-dimensional angle generally corresponds to a one-dimensional angle omega, which is used in the calculation of the distance Z according to equation (1). However, a line drawn from each camera pixel through the camera perspective center and intersecting the object at a given point defines a two-dimensional angle in space. When combined with the calculated value Z, the two pixel angles provide three-dimensional coordinates corresponding to points on the object surface.
同様に、バイナリーパターンというよりも、変化するグレイスケール値を備えるストライプを有する逐次的シリーズのグレイパターンを使用することが可能である。この文脈で使用されるときには、グレイスケールの用語は、通常、白(最大光)から、さまざまなレベルのグレイ(少ない光)まで、また、黒(最小光)まで、対象物の上の所定のポイントにおける放射の量を参照している。投影されている光が赤などのような色を有しているとしても、および、グレイスケール値が赤い照射のレベルに対応しているとしても、この同じ命名法が使用される。一実施形態では、パターン(図15)は、対象物501の上に放出されたパターンを作り出すために使用される、変化する光パワーレベル(例えば、黒、グレイ、および白など)を有するストライプを備える複数の画像538、540、542を有している。グレイスケール値が使用され、比較的に小さい可能値の範囲の中で可能投影角度Φを決定することが可能である。以上に議論されているように、次いで、等式(1)が使用され、距離Zを決定することが可能である。 Similarly, it is possible to use a sequential series of gray patterns having stripes with varying gray scale values rather than binary patterns. When used in this context, grayscale terminology usually refers to a given over the object, from white (maximum light) to various levels of gray (low light) and black (minimum light). Refers to the amount of radiation at a point. This same nomenclature is used even if the projected light has a color such as red, and even if the grayscale value corresponds to the level of red illumination. In one embodiment, the pattern (FIG. 15) comprises stripes with varying light power levels (eg, black, gray, and white) that are used to create a pattern emitted on the object 501. A plurality of images 538, 540, and 542 are provided. Gray scale values are used to determine the possible projection angle Φ within a relatively small range of possible values. As discussed above, equation (1) can then be used to determine the distance Z.
別の実施形態では、対象物ポイントまでの距離Zは、複数の画像の中で観察される位相シフトを測定することによって見出すことが可能である。例えば、図16に示されている一実施形態では、プロジェクターパターン552のグレイスケール強度546、548、550は、正弦波の様式で変化するが、投影パターン同士の間の位相シフトを有している。例えば、第1のプロジェクターパターンでは、正弦曲線のグレイスケール強さ546(単位面積当たりの光学的なパワーを表している)は、特定のポイントにおいて、ゼロ度の位相を有することが可能である。第2のプロジェクターパターンでは、正弦曲線の強さ548は、同じポイントにおいて、120度の位相を有している。第3のプロジェクターパターンでは、正弦曲線の強さ550は、同じポイントにおいて、240度の位相を有することが可能である。これは、正弦波パターンがそれぞれのステップの周期の3分の1だけ左(または、右)へシフトされているというように言うのと同じことである。位相シフト方法が使用され、それぞれのカメラ画素において、投影される光の位相を決定し、それは、コード化されたパターンの単一ショットの場合にあるような、隣接する画素からの情報を考慮する必要を排除する。多くの方法が使用され、カメラ画素の位相を決定することが可能である。1つの方法は、乗累算手順を実施し、次いで、商(quotient)の逆正接をとることを含む。この方法は、当業者によく知られており、さらに議論はされない。加えて、位相シフト方法を用いて、背景光は、位相の計算において打ち消される。これらの理由によって、所与の画素に関して計算される値Zは、通常、コード化されたパターンの単一ショット方法を使用して計算される値Zよりも正確である。しかし、図16に示されているものなどのような正弦波パターンの単一の集合によって、計算される位相のすべてが、0度から360度まで変化する。特定のストラクチャードライト三角測量システムに関して、それぞれの投影されるストライプに関する角度が事前に知られているので、テスト中の対象物の「厚さ」がそれほど変化しないならば、これらの計算される位相は十分である可能性がある。しかし、対象物が厚過ぎる場合には、特定の画素に関して計算される位相の中の間に、曖昧さが生じる可能性があり、その理由は、その画素は、第1の位置において対象物に衝突する第1の投影光線、または、第2の位置において対象物に衝突する第2の投影光線から得られた可能性があるからである。換言すれば、カメラ配列の中の任意の画素に関して、位相が2πラジアンよりも大きく変化し得る可能性が存在する場合には、位相は、適正にデコードされず、所望の1対1の対応が実現されない可能性がある。 In another embodiment, the distance Z to the object point can be found by measuring the phase shift observed in the plurality of images. For example, in one embodiment shown in FIG. 16, the gray scale intensities 546, 548, 550 of the projector pattern 552 vary in a sinusoidal manner but have a phase shift between the projected patterns. . For example, in the first projector pattern, the sinusoidal gray scale strength 546 (representing optical power per unit area) can have a zero degree phase at a particular point. In the second projector pattern, the sinusoidal strength 548 has a phase of 120 degrees at the same point. In the third projector pattern, the sinusoidal strength 550 can have a phase of 240 degrees at the same point. This is the same as saying that the sine wave pattern is shifted to the left (or right) by one third of the period of each step. A phase shift method is used to determine the phase of the projected light at each camera pixel, which takes into account information from neighboring pixels, as in the case of a single shot of the coded pattern. Eliminate the need. Many methods can be used to determine the phase of the camera pixel. One method involves performing a multiply-accumulate procedure and then taking the arctangent of the quotient. This method is well known to those skilled in the art and will not be discussed further. In addition, using the phase shift method, the background light is canceled in the phase calculation. For these reasons, the value Z calculated for a given pixel is usually more accurate than the value Z calculated using the coded pattern single shot method. However, a single set of sinusoidal patterns, such as that shown in FIG. 16, changes all of the calculated phases from 0 degrees to 360 degrees. For a particular structured light triangulation system, the angle for each projected stripe is known in advance, so if the “thickness” of the object under test does not change much, these calculated phases are It may be sufficient. However, if the object is too thick, ambiguity can occur during the phase calculated for a particular pixel because the pixel impacts the object at the first location. This is because it may be obtained from the first projection light beam or the second projection light beam that collides with the object at the second position. In other words, for any pixel in the camera array, if there is a possibility that the phase can change more than 2π radians, the phase is not properly decoded and the desired one-to-one correspondence is It may not be realized.
図17Aは、一方法にしたがって、投影されるグレイコード強度554のシーケンス1〜4を示しており、その一方法によって、計算される位相に基づく距離Zについての曖昧さが排除され得る。グレイコードパターンの集合は、対象物の上に逐次的に投影される。示されている例では、図17Aの554の左側へ、1、2、3、4によって示されている4つの逐次的パターンが存在している。逐次的パターン1は、パターンの左半分(要素0〜15)において暗く(黒く)なっており、パターンの右半分(要素16〜31)において明るく(白く)なっている。逐次的パターン2は、中心に向かって暗いバンドを有しており(要素8〜23)、縁部に向かって明るいバンドを有している(要素2〜7、24〜31)。逐次的パターン3は、中心の近くに2つの分離された明るいバンドを有しており(要素4〜11、20〜27)、3つの明るいバンドを有している(要素0〜3、12〜19、28〜31)。逐次的パターン4は、4つの分離された暗いバンド(要素2〜5、10〜13、18〜21、26〜29)、および、5つの分離された明るいバンド(要素0〜1、6〜9、14〜17、22〜25、30〜31)を有している。カメラの中の任意の所与の画素に関して、このパターンのシーケンスは、対象物の「対象物厚さ領域」が、すべての要素0〜31に対応する初期の対象物厚さ領域と比較して、16の倍数で改善されることを可能にする。 FIG. 17A illustrates sequences 1-4 of projected Gray code intensity 554 according to one method, which can eliminate ambiguity for distance Z based on the calculated phase. A set of gray code patterns is sequentially projected onto the object. In the example shown, there are four sequential patterns, indicated by 1, 2, 3, 4 to the left of 554 in FIG. 17A. Sequential pattern 1 is dark (black) in the left half of the pattern (elements 0-15) and bright (white) in the right half of the pattern (elements 16-31). Sequential pattern 2 has a dark band towards the center (elements 8-23) and a bright band towards the edges (elements 2-7, 24-31). Sequential pattern 3 has two separate bright bands near the center (elements 4-11, 20-27) and three bright bands (elements 0-3, 12- 19, 28-31). Sequential pattern 4 consists of four separate dark bands (elements 2-5, 10-13, 18-21, 26-29) and five separate bright bands (elements 0-1, 6-9). 14-17, 22-25, 30-31). For any given pixel in the camera, this sequence of patterns is compared to the initial object thickness region where the “object thickness region” of the object corresponds to all elements 0-31. , Which can be improved by a multiple of 16.
図17Cに図示されている別の方法556では、図16の方法と同様に、位相シフト方法が実施される。図17Cに示されている実施形態では、パターン556Aの4つの正弦波の周期が、対象物の上に投影される。以上に議論されている理由のために、図17Cのパターンを使用すると、対象物までの距離Zの曖昧さが存在し得る。曖昧さを低減または排除するための1つの方式は、1つ以上の追加的な正弦波パターン556B、556C(それぞれのパターンは、異なるフリンジ周期(ピッチ)を有している)を投影することである。したがって、例えば、図17Bにおいて、4つのフリンジ周期よりもむしろ3つのフリンジ周期を有する第2の正弦波パターン555が、対象物の上に投影される。一実施形態では、2つのパターン555、556に関する位相の差が使用され、目標までの距離Zの曖昧さを排除することを助けることが可能である。 In another method 556 illustrated in FIG. 17C, a phase shift method is implemented, similar to the method of FIG. In the embodiment shown in FIG. 17C, four sine wave periods of pattern 556A are projected onto the object. For the reasons discussed above, using the pattern of FIG. 17C, there may be an ambiguity in the distance Z to the object. One way to reduce or eliminate ambiguity is to project one or more additional sinusoidal patterns 556B, 556C, each pattern having a different fringe period (pitch). is there. Thus, for example, in FIG. 17B, a second sinusoidal pattern 555 having three fringe periods rather than four fringe periods is projected onto the object. In one embodiment, the phase difference for the two patterns 555, 556 can be used to help eliminate the ambiguity of the distance Z to the target.
曖昧さを排除するための別の方法は、例えば、図17Aのグレイコード方法などのような異なるタイプの方法を使用し、正弦波の位相シフト方法を使用して計算される距離Zの曖昧さを排除することである。 Another way to eliminate ambiguity is to use different types of methods, such as the Gray code method of FIG. 17A, for example, and the distance Z ambiguity calculated using the sinusoidal phase shift method. Is to eliminate.
対象物およびデバイス500が相対運動している用途では、単一のパターンを使用することが望ましい可能性があり、それは、カメラ510が、逐次的画像を投影する必要なく、対象物501の三次元特性を測定するために十分な情報を提供する画像をキャプチャーすることを可能にする。ここで図18および図19を参照すると、パターン558、566は、色の分布を有しており、色の分布は、場合によっては、対象物の測定が単一の(コード化された)画像に基づくことを可能にし得る。図18の実施形態では、パターン558が、逐次的に空間的に変化する光の波長を有する光を使用し、例えば、青から緑、黄色、赤、赤紫へ逐次的に色が変化するパターンを生成させる。したがって、それぞれの特定のスペクトル波長に関して、1対1の対応が、放出された画像と画像化されるパターンとの間でなされ得る。確立された対応によって、対象物501の三次元座標を単一の画像化されるパターンから決定することが可能である。一実施形態では、パターン558のストライプが、プロジェクター平面の上のエピポーララインに対して垂直に配向される。プロジェクター平面の上のエピポーララインは、カメラ画像平面の上のエピポーララインの中へマッピングされるので、カメラ画像平面の中のエピポーララインの方向に沿って移動することによって、および、それぞれの場合におけるラインの色に留意することによって、プロジェクターポイントとカメラポイントとの間の関連性を得ることが可能である。カメラ画像平面の中のそれぞれの画素は、二次元の角度に対応するということが認識されるべきである。色は、特定の投影角度と特定のカメラ角度との間の1対1の対応の決定を可能にする。この対応情報は、カメラとプロジェクターとの間の距離(ベースライン距離D)、および、ベースラインに対するカメラおよびプロジェクターの角度と組み合わせられ、カメラから対象物までの距離Zの決定を可能にするのに十分である。 In applications where the object and device 500 are in relative motion, it may be desirable to use a single pattern, since the camera 510 does not need to project sequential images, and the three-dimensional of the object 501. Allows capturing images that provide sufficient information to measure properties. Referring now to FIGS. 18 and 19, the patterns 558, 566 have a color distribution, which in some cases is a single (coded) image of the object measurement. May be based on In the embodiment of FIG. 18, the pattern 558 uses light having a wavelength of light that varies spatially sequentially, for example, a pattern that changes color sequentially from blue to green, yellow, red, magenta. Is generated. Thus, for each particular spectral wavelength, a one-to-one correspondence can be made between the emitted image and the pattern to be imaged. With the established correspondence, it is possible to determine the three-dimensional coordinates of the object 501 from a single imaged pattern. In one embodiment, the stripes of pattern 558 are oriented perpendicular to the epipolar line above the projector plane. The epipolar line above the projector plane is mapped into the epipolar line above the camera image plane, so that by moving along the direction of the epipolar line in the camera image plane, and the line in each case By paying attention to the color of the image, it is possible to obtain an association between the projector point and the camera point. It should be appreciated that each pixel in the camera image plane corresponds to a two-dimensional angle. Color allows the determination of a one-to-one correspondence between a specific projection angle and a specific camera angle. This correspondence information is combined with the distance between the camera and the projector (baseline distance D) and the angle of the camera and projector with respect to the baseline to enable determination of the distance Z from the camera to the object. It is enough.
カラーパターンを使用する別の実施形態は、図19に示されている。この実施形態では、変化する強度560、562、564を有する複数の色付けされたパターンが、カラーパターン566を生成させるように組み合わせられる。一実施形態では、複数の色付けされたパターン強度560、562、564は、主要な色であり、パターン560が赤色の強さを変化させ、パターン562が緑色の強さを変化させ、パターン564が青色の強さを変化させるようになっている。色の比率は知られているので、結果として生じる放出される画像は、画像化されるパターンの中でデコードされ得る既知の関係を有している。図18の実施形態と同様に、対応が確立されると、対象物501の三次元座標を決定することが可能である。図18のパターンとは異なり(図18では、固有の色の単一のサイクルが投影されている)、図19のパターンは、ほとんど同一の色の3つの完全なサイクルを投影している。図18のパターンによって、(少なくとも、投影ラインがエピポーララインに対して垂直である場合に関して、)測定される距離Zの曖昧さの可能性がほとんど存在しないが、その理由は、それぞれのカメラ画素は、特定の投影方向に固有に対応する特定の色を認識するからである。カメラ角度および投影角度は知られているので、三角測量が使用され、単一のカメラ画像だけを使用して、それぞれの画素位置において三次元の対象物座標を決定することが可能である。したがって、図18の方法は、コード化された単一ショット方法であると考えることが可能である。それとは対照的に、図19では、対象物ポイントまでの距離Zの曖昧さの可能性は存在していない。例えば、カメラが紫色を見る場合には、プロジェクターは、3つの異なる角度のいずれかを投影していた可能性がある。三角測量幾何学形状に基づいて、3つの異なる距離Zの可能性がある。対象物の厚さが比較的に小さい値の範囲の中にあるということを事前に知られている場合には、値のうちの2つを排除し、それによって、単一のショットで三次元座標を得ることが可能であり得る。しかし、一般的な場合には、追加的な投影パターンを使用し、曖昧さを排除することが必要になることとなる。例えば、色付けされたパターンの空間的な周期が、変化させられ、次いで、二度目に対象物を照射するために使用され得る。この場合には、投影されるストラクチャードライトのこの方法は、コード化された単一ショット方法というよりも逐次的方法であると考えられる。 Another embodiment using a color pattern is shown in FIG. In this embodiment, a plurality of colored patterns having varying intensities 560, 562, 564 are combined to produce a color pattern 566. In one embodiment, the plurality of colored pattern intensities 560, 562, 564 are the primary colors, the pattern 560 changes the red intensity, the pattern 562 changes the green intensity, and the pattern 564 The intensity of blue is changed. Since the color ratio is known, the resulting emitted image has a known relationship that can be decoded in the pattern to be imaged. Similar to the embodiment of FIG. 18, once the correspondence is established, the three-dimensional coordinates of the object 501 can be determined. Unlike the pattern of FIG. 18 (in FIG. 18, a single cycle of unique colors is projected), the pattern of FIG. 19 projects three complete cycles of nearly identical colors. With the pattern of FIG. 18, there is little possibility of ambiguity in the measured distance Z (at least for the case where the projection line is perpendicular to the epipolar line) because each camera pixel is This is because a specific color that uniquely corresponds to a specific projection direction is recognized. Since the camera angle and projection angle are known, triangulation is used, and only a single camera image can be used to determine three-dimensional object coordinates at each pixel location. Thus, the method of FIG. 18 can be considered to be a coded single shot method. In contrast, in FIG. 19, there is no possibility of ambiguity of the distance Z to the object point. For example, if the camera looks purple, the projector may have projected any of three different angles. There are three different distances Z possible based on the triangulation geometry. If it is known in advance that the thickness of the object is within a relatively small range of values, then two of the values are eliminated, so that a single shot is three-dimensional It may be possible to obtain coordinates. However, in the general case, it will be necessary to use additional projection patterns and eliminate ambiguity. For example, the spatial period of the colored pattern can be changed and then used to illuminate the object a second time. In this case, this method of projected structured light is considered a sequential method rather than a coded single shot method.
ここで図20〜図23を参照すると、単一の画像獲得のためのコード化されたストラクチャードライトパターンは、ストライプインデキシング技法に基づいて示されている。図20および図21の実施形態では、カラーストライプ568、570を有するパターンが、プロジェクター508によって放出される。この技法は、画像センサーの特性を利用し、ここで、センサーは、例えば、赤、緑、青またはシアン、黄色、マゼンタなどのような、3つの独立したカラーチャネルを有している。これらのセンサーチャネルによって発生させられる値の組み合わせは、多数の色付けされたパターンを作り出すことが可能である。図19の実施形態と同様に、色分布の比率が知られており、したがって、放出されるパターンと画像化されるパターンとの間の関係を決定することが可能であり、三次元座標を計算することが可能である。De Bruijnシーケンスに基づくパターンなどのような、色付けされたパターンのさらなる他のタイプを使用することが可能である。ストライプインデキシング技法、および、De Bruijnシーケンスは、当業者によく知られており、したがって、さらに議論はされない。 Referring now to FIGS. 20-23, a coded structured light pattern for a single image acquisition is shown based on a stripe indexing technique. In the embodiment of FIGS. 20 and 21, a pattern having color stripes 568, 570 is emitted by projector 508. This technique takes advantage of the characteristics of the image sensor, where the sensor has three independent color channels, such as red, green, blue or cyan, yellow, magenta, and the like. The combination of values generated by these sensor channels can create a number of colored patterns. As with the embodiment of FIG. 19, the color distribution ratio is known, so it is possible to determine the relationship between the emitted pattern and the imaged pattern, and calculate the three-dimensional coordinates. Is possible. Still other types of colored patterns can be used, such as patterns based on De Bruijn sequences. Stripe indexing techniques and De Bruijn sequences are well known to those skilled in the art and are therefore not discussed further.
図22および図23の実施形態では、色なしストライプインデキシング技法が使用されている。図22の実施形態では、パターン572は、複数の強さ(グレイスケール)レベルおよび異なる幅を有するストライプのグループを提供している。結果として、全体画像の中の特定のグループのストライプは、固有のグレイスケールパターンを有している。グループの独自性に起因して、1対1の対応が、放出されるパターンと画像化されるパターンとの間で決定され、対象物501の座標を計算することが可能である。図23の実施形態では、パターン574は、セグメント化されたパターンを有する一連のストライプを提供する。それぞれのラインは固有のセグメント設計を有しているので、対応が、放出されるパターンと画像化されるパターンとの間で決定され、対象物501の座標を計算することが可能である。図20〜図23では、エピポーララインに対して垂直な投影ライン572、574をカメラ平面の中になるように配向させることによって、追加的な利点を得ることが可能であるが、その理由は、これが、カメラとプロジェクターパターンとの間の1対1の対応を見出す際の第2の寸法の決定を簡単化するからである。 In the embodiment of FIGS. 22 and 23, a colorless stripe indexing technique is used. In the embodiment of FIG. 22, pattern 572 provides a group of stripes having multiple intensity (grayscale) levels and different widths. As a result, a particular group of stripes in the overall image has a unique gray scale pattern. Due to the uniqueness of the group, a one-to-one correspondence can be determined between the emitted pattern and the imaged pattern and the coordinates of the object 501 can be calculated. In the embodiment of FIG. 23, pattern 574 provides a series of stripes having a segmented pattern. Since each line has a unique segment design, a correspondence can be determined between the emitted pattern and the imaged pattern, and the coordinates of the object 501 can be calculated. In FIGS. 20-23, additional advantages can be obtained by orienting projection lines 572, 574 perpendicular to the epipolar line into the camera plane, because This is because it simplifies the determination of the second dimension when finding a one-to-one correspondence between the camera and the projector pattern.
ここで図24〜図27を参照すると、二次元の空間的なグリッドパターン技法を使用する、コード化されたストラクチャードライトパターンが示されている。これらのタイプのパターンは、サブウィンドウ(例えば、パターン578の上のウィンドウ576など)がパターンの中の他のサブウィンドウに対して固有となるように配置されている。図24の実施形態では、擬似ランダムバイナリー配列パターン578が使用されている。パターン578は、コード化されたパターンを形成する要素(例えば、円形579など)を備えるグリッドを使用している。他の幾何学的形状を有する要素(例えば、それに限定されないが、正方形、矩形、および三角形など)を使用することも可能であるということが認識されるべきである。図25の実施形態では、パターン580は、多値擬似ランダム配列のものとして示されており、ここで、数値のそれぞれは、割り当てられた形状582を有している。これらの形状582は、固有のサブウィンドウ584を形成し、それは、放出されるパターンと画像化されるパターンとの間の対応を可能にし、対象物501の座標を計算する。図26の実施形態では、グリッド586は、プロジェクター平面に対して垂直なストライプによってコード化された色である。図26のパターンは、単一のショットでデコードされ得るパターンを必ずしも提供することとはならないが、色情報は、分析を簡単化するのを助けることが可能である。図27の実施形態では、色付けされた形状の配列588(例えば、正方形または円形など)が、パターンを形成させるために使用される。 Referring now to FIGS. 24-27, a coded structured light pattern is shown that uses a two-dimensional spatial grid pattern technique. These types of patterns are arranged so that sub-windows (eg, window 576 above pattern 578) are unique to other sub-windows in the pattern. In the embodiment of FIG. 24, a pseudo-random binary array pattern 578 is used. The pattern 578 uses a grid with elements (eg, circular 579) that form a coded pattern. It should be appreciated that elements having other geometric shapes (eg, but not limited to squares, rectangles, triangles, etc.) can also be used. In the embodiment of FIG. 25, pattern 580 is shown as having a multi-valued pseudo-random array, where each of the numerical values has an assigned shape 582. These shapes 582 form a unique sub-window 584 that allows correspondence between the emitted pattern and the imaged pattern and calculates the coordinates of the object 501. In the embodiment of FIG. 26, grid 586 is a color coded by a stripe perpendicular to the projector plane. Although the pattern of FIG. 26 does not necessarily provide a pattern that can be decoded in a single shot, the color information can help simplify the analysis. In the embodiment of FIG. 27, an array of colored shapes 588 (eg, square or circular, etc.) is used to form the pattern.
ここで図28A〜図28Bを参照すると、例示的な正弦波パターン720が示されている。一実施形態では、ライン734は、プロジェクター平面の上のエピポーララインに対して垂直である。正弦波パターン720は、60本の合計数のライン722与えるために一度繰り返されている30本のライン722によって構成されている。それぞれのライン722は、上方のラインおよび下方のラインと位相がおおよそ180度ずれている正弦波の特徴723を有している。これは、ライン722が可能な限り近づくことを可能にし、また、より大きい被写界深度も可能にするが、その理由は、ラインは、投影される表面または獲得される画像の上で不鮮明なる可能性があるが、依然として認識されるからである。それぞれの単一のライン722は、単に、そのラインの位相を使用して固有にデコードすることが可能であり、ここで、ライン長さは、正弦波の少なくとも1つの波長でなければならない。 Referring now to FIGS. 28A-28B, an exemplary sine wave pattern 720 is shown. In one embodiment, line 734 is perpendicular to the epipolar line above the projector plane. The sinusoidal pattern 720 is composed of 30 lines 722 that are repeated once to give a total number of 60 lines 722. Each line 722 has a sinusoidal feature 723 that is approximately 180 degrees out of phase with the upper and lower lines. This allows the line 722 to be as close as possible and also allows a greater depth of field because the line will be smeared on the projected surface or acquired image. It is possible but still recognized. Each single line 722 can simply be uniquely decoded using the phase of that line, where the line length must be at least one wavelength of a sine wave.
パターン720が繰り返されるので、それは、一般的に、ライン識別の曖昧さを引き起こすこととなる。しかし、この問題は、カメラの視野の幾何学形状および被写界深度によって、このシステムの中で解決される。ラインが光学的に解像され得る被写界深度の中のカメラの単一の視点(すなわち、画素の列)に関して、同じ位相を有する2つのラインを画像化することはできない。例えば、カメラの上の画素の第1の列は、パターンのライン1〜30から反射された光だけを受信することが可能である。一方で、カメラセンサーのさらに下へ行くと、別の列は、パターンのライン2〜31から反射された光だけを受信することとなるなどである。図28Bでは、パターン720の拡大部分が、3つのラインのものとして示されており、ここで、連続したライン722の間の位相は、おおよそ180度である。また、ラインを固有にデコードするために、それぞれの単一のラインの位相がどのように十分であるかということを示している。 As the pattern 720 is repeated, it will generally cause line identification ambiguity. However, this problem is solved in this system by the camera's field of view geometry and depth of field. No two lines with the same phase can be imaged for a single viewpoint of the camera (ie, a column of pixels) in the depth of field where the lines can be optically resolved. For example, the first column of pixels on the camera can only receive light reflected from lines 1-30 of the pattern. On the other hand, going further down the camera sensor, another column would receive only the light reflected from the lines 2 to 31 of the pattern, and so on. In FIG. 28B, the enlarged portion of pattern 720 is shown as having three lines, where the phase between successive lines 722 is approximately 180 degrees. It also shows how the phase of each single line is sufficient to uniquely decode the line.
ここで図29A〜図29Bを参照すると、正方形パターン要素を有する別のパターン730が示されている。一実施形態では、ライン732は、プロジェクター平面の上のエピポーララインに対して垂直である。正方形パターン730は、パターン730が繰り返される前に27本のライン732を含有しており、59本のライン合計数を有している。パターン730のコード要素734は、図29Bの左から右へ矩形波の位相によって区別されている。パターン730は、逐次的ライン732のグループがそのメンバーの相対位相によって区別されるようにコード化される。画像の中で、逐次的ラインは、ラインに関して垂直方向にスキャンすることによって見出される。一実施形態では、垂直方向にスキャンすることは、カメラ画像平面の中のエピポーララインに沿ってスキャンすることを意味している。カメラ垂直方向画素カラムの中の逐次的ラインは、一緒に対にされ、それらの相対位相が決定される。4つの逐次的に対にされたラインは、ラインのグループをデコードし、それらをパターン730の中に位置付けすることを必要とされる。また、繰り返しに起因してこのパターン730の中に曖昧さが存在するが、これも、正弦波パターン720に関して上記に議論されているのと同じ様式で解決される。図29Bは、正方形パターンの4つのライン732の拡大図を示している。この実施形態は、第1および第3のラインが同じ絶対位相を有しているので、単一のライン732の位相が、単独で、ラインを固有にデコードすることが可能であるということを示している。 Referring now to FIGS. 29A-29B, another pattern 730 having square pattern elements is shown. In one embodiment, line 732 is perpendicular to the epipolar line above the projector plane. Square pattern 730 contains 27 lines 732 before pattern 730 is repeated and has a total number of 59 lines. The code element 734 of the pattern 730 is distinguished by the phase of the rectangular wave from left to right in FIG. 29B. The pattern 730 is coded such that the group of sequential lines 732 is distinguished by the relative phase of its members. In the image, sequential lines are found by scanning in the vertical direction with respect to the lines. In one embodiment, scanning in the vertical direction means scanning along an epipolar line in the camera image plane. Sequential lines in the camera vertical pixel column are paired together and their relative phase is determined. Four sequentially paired lines are required to decode a group of lines and position them in pattern 730. There is also ambiguity in this pattern 730 due to repetition, which is also resolved in the same manner as discussed above for the sinusoidal pattern 720. FIG. 29B shows an enlarged view of four lines 732 in a square pattern. This embodiment shows that because the first and third lines have the same absolute phase, the phase of a single line 732 alone can uniquely decode the line. ing.
相対位相と絶対位相とをコード化するこのアプローチは、位相の位置に関してより高い許容差が存在するという点において、利点を提供する。プロジェクターの構成の中の僅かな誤差(それは、ラインの位相をカメラの被写界深度を通してシフトさせることとなる)、ならびに、プロジェクターおよびカメラレンズに起因する誤差は、絶対位相を決定することをより困難にする。これは、位相を決定する際の誤差を克服するのに十分に大きくなるように周期を増加させることによって、絶対位相方法において克服することが可能である。 This approach of encoding relative phase and absolute phase provides an advantage in that there is a higher tolerance for the position of the phase. Slight errors in the projector's configuration (which will shift the phase of the line through the camera's depth of field), and errors due to the projector and camera lens make it more difficult to determine the absolute phase. Make it difficult. This can be overcome in the absolute phase method by increasing the period to be large enough to overcome the error in determining the phase.
コード化された光のパターンを投影する二次元パターンに関して、3つの同一線上にないパターン要素がそれらのコードに起因して認識可能であり、それらは、二次元に投影されるので、少なくとも3つのパターン要素は同一線上にないということが認識されるべきである。正弦波状に繰り返すパターンなどのような周期的なパターンの場合に関して、それぞれの正弦波の周期は、複数のパターン要素を表している。二次元の周期的なパターンの多様性が存在しているので、パターン要素は同一線上にない。それとは対照的に、光のラインを放出するレーザーラインスキャナーの場合に関して、パターン要素のすべてが直線ラインの上に存在している。ラインは幅を有し、ライン断面のテール(tail)は、信号のピークよりも小さい光学的なパワーを有する可能性があるが、ラインのこれらの態様は、対象物の表面座標を見出す際に別々に評価されず、したがって、別々のパターン要素を表さない。ラインは、複数のパターン要素を含有することが可能であるが、これらのパターン要素は、同一線上にある。 With respect to a two-dimensional pattern that projects a coded light pattern, three non-collinear pattern elements are recognizable due to their code, and since they are projected in two dimensions, at least three It should be appreciated that the pattern elements are not collinear. In the case of a periodic pattern such as a sine wave repeating pattern, each sine wave period represents a plurality of pattern elements. Since there is a diversity of two-dimensional periodic patterns, the pattern elements are not collinear. In contrast, for a laser line scanner that emits a line of light, all of the pattern elements are on a straight line. The line has a width, and the tail of the line cross-section may have an optical power that is less than the peak of the signal, but these aspects of the line are used in finding the surface coordinates of the object. It is not evaluated separately and therefore does not represent separate pattern elements. A line can contain a plurality of pattern elements, which are on the same line.
さらに、さまざまなパターン技法が、図30〜図31に示されているように組み合わせられ、バイナリー(図30)格子縞模様のコード化されていないパターン590、または、色付けされた(図31)格子縞模様のコード化されていないパターン592のいずれかを形成させることが可能である。図32に示されているさらに別の実施形態では、照度差ステレオ技法を使用することが可能であり、ここでは、複数の画像594が対象物501の上で撮られ、光源596が複数の場所に移動させられる。 In addition, various pattern techniques can be combined as shown in FIGS. 30-31 to create a binary (FIG. 30) checkered uncoded pattern 590 or a colored (FIG. 31) checkered pattern. Any of the uncoded patterns 592 can be formed. In yet another embodiment shown in FIG. 32, photometric stereo techniques can be used, in which multiple images 594 are taken over the object 501 and the light source 596 is in multiple locations. Moved to.
ここで図33を参照すると、対象物702の三次元座標を獲得するためのシステム700の別の実施形態が示されている。この実施形態では、デバイス704は、AACMM100から切り離されたときに独立して動作可能である。デバイス704は、コントローラー706および随意的なディスプレイ708を含む。ディスプレイ708は、デバイス704のハウジングの中に一体化することが可能であるか、または、AACMM100から独立して使用されるときにデバイス704に連結される別々のコンポーネントとすることが可能である。ディスプレイ708がデバイス704から分離可能である実施形態では、ディスプレイ708は、デバイス704の独立した動作を容易にするために追加的な機能性を提供するコントローラー(図示せず)を含むことが可能である。一実施形態では、コントローラー706は、分離可能なディスプレイの中に配設されている。 Referring now to FIG. 33, another embodiment of a system 700 for obtaining 3D coordinates of an object 702 is shown. In this embodiment, device 704 can operate independently when disconnected from AACMM 100. Device 704 includes a controller 706 and an optional display 708. Display 708 can be integrated into the housing of device 704 or can be a separate component that is coupled to device 704 when used independently of AACMM 100. In embodiments where the display 708 is separable from the device 704, the display 708 can include a controller (not shown) that provides additional functionality to facilitate independent operation of the device 704. is there. In one embodiment, the controller 706 is disposed in a separable display.
コントローラー706は、通信回路を含み、通信回路は、データ(例えば、画像または座標データなど)を、通信リンク712を介して、AACMM100へ、別々のコンピューティングデバイス710へ、または、その両方の組み合わせへ、無線で送信するように構成されている。コンピューティングデバイス710は、例えば、コンピューター、ラップトップコンピューター、タブレットコンピューター、パーソナルデジタルアシスタント(PDA)、または携帯電話とすることが可能であるが、それに限定されない。ディスプレイ708は、オペレーターが、獲得された画像、または、対象物702の獲得された座標のポイントクラウドを見ることを可能にし得る。一実施形態では、コントローラー706は、獲得された画像の中のパターンをデコードし、対象物の三次元座標を決定する。別の実施形態では、画像は、デバイス704によって獲得され、AACMM100、コンピューティングデバイス710、または、その両方の組み合わせのいずれかに送信される。 The controller 706 includes communication circuitry that communicates data (eg, image or coordinate data) to the AACMM 100 via the communication link 712, to a separate computing device 710, or a combination of both. , Configured to transmit wirelessly. The computing device 710 can be, for example, a computer, a laptop computer, a tablet computer, a personal digital assistant (PDA), or a mobile phone, but is not limited thereto. Display 708 may allow an operator to view the acquired image or point cloud of acquired coordinates of object 702. In one embodiment, the controller 706 decodes the pattern in the acquired image and determines the three-dimensional coordinates of the object. In another embodiment, the image is acquired by device 704 and transmitted to either AACMM 100, computing device 710, or a combination of both.
デバイス704は、ロケーションデバイスアッセンブリ714をさらに含むことが可能である。ロケーションデバイスアッセンブリは、全地球測位システム(GPS)センサー、ジャイロセンサー、加速度計センサーなどのような、慣性航行センサーのうちの1つ以上を含むことが可能である。そのようなセンサーは、コントローラー706に電気的に連結することが可能である。ジャイロセンサーおよび加速度計センサーは、単軸または多軸デバイスとすることが可能である。ロケーションデバイスアッセンブリ714は、コントローラー706がAACMM100から切り離されるときにデバイス704の配向を測定または維持することを可能にするように構成されている。ロケーションデバイスアッセンブリ714の中のジャイロスコープは、MEMSジャイロデバイス、ソリッドステートリングレーザーデバイス、光ファイバーデバイスジャイロスコープ、または他のタイプとすることが可能である。 Device 704 can further include a location device assembly 714. The location device assembly can include one or more of inertial navigation sensors, such as global positioning system (GPS) sensors, gyro sensors, accelerometer sensors, and the like. Such a sensor can be electrically coupled to the controller 706. The gyro sensor and accelerometer sensor can be a single-axis or multi-axis device. The location device assembly 714 is configured to allow the orientation of the device 704 to be measured or maintained when the controller 706 is disconnected from the AACMM 100. The gyroscope in location device assembly 714 can be a MEMS gyro device, a solid state ring laser device, a fiber optic device gyroscope, or other type.
デバイス704が関節アームCMM100から取り外されると、方法が、複数のスキャンから得られた画像を組み合わせるために使用される。一実施形態では、画像は、それぞれ、コード化されたパターンを使用することによって得られ、単一の画像だけが、デバイス704の特定の位置および配向に関連付けされる三次元座標を得るために必要とされるようになっている。デバイス704によってキャプチャーされた複数の画像を組み合わせる1つの方式は、ポイントクラウド特徴がマッチし得るように、隣接する画像同士の間に少なくともいくらかの重ね合わせ部を提供することである。このマッチング機能は、上記に説明されている慣性航行デバイスによって支援され得る。 Once device 704 is removed from articulated arm CMM 100, the method is used to combine images obtained from multiple scans. In one embodiment, each image is obtained by using a coded pattern, and only a single image is needed to obtain the three-dimensional coordinates associated with a particular position and orientation of device 704. It is supposed to be. One way to combine multiple images captured by device 704 is to provide at least some overlap between adjacent images so that point cloud features can be matched. This matching function may be supported by the inertial navigation device described above.
デバイス704によって収集された画像の正確な登録を支援するために使用され得る別の方法は、規準マーカーを使用することである。一実施形態では、規準マーカーは、接着性または粘着性の裏張りを有する小さいマーカー(例えば、測定されている1つまたは複数の対象物の上に設置されている円形マーカーなど)である。特に、測定されている対象物が、登録に関して使用するために、比較的に少数の特徴を有している場合に、比較的に少数のそのようなマーカーでも、複数の画像を登録する際に有用であることが可能である。一実施形態では、規準マーカーは、検査中の1つまたは複数の対象物の上の光のスポットとして投影することが可能である。例えば、複数の小さいドットを放出することができる小さい可搬型のプロジェクターは、測定されることとなる1つまたは複数の対象物の前に設置することが可能である。粘着性のドットに勝る投影されたドットの利点は、ドットが取り付けられて、後で取り外される必要がないということである。 Another method that can be used to assist in the accurate registration of images collected by device 704 is to use reference markers. In one embodiment, the reference marker is a small marker having an adhesive or sticky backing (eg, a circular marker placed on one or more objects being measured). Especially when registering multiple images with a relatively small number of such markers, if the object being measured has a relatively small number of features for use in registration. It can be useful. In one embodiment, the reference marker can be projected as a light spot on one or more objects under examination. For example, a small portable projector capable of emitting a plurality of small dots can be placed in front of one or more objects to be measured. The advantage of projected dots over sticky dots is that the dots are attached and do not need to be removed later.
一実施形態では、デバイスは、近接する囲まれた領域716の上方にストラクチャードライトを投影し、35ミクロンの精度で、100mm〜300mmの範囲で、領域716にわたって画像を獲得することが可能である。一実施形態では、投影部の垂直方向領域716は、おおよそ150〜200mm2である。1つまたは複数のカメラ510は、1.2〜5.0メガピクセルのCMOSまたはCCDセンサーを有するデジタルカメラとすることが可能である。 In one embodiment, the device can project structured light over adjacent enclosed area 716 and acquire an image over area 716 in the range of 100 mm to 300 mm with an accuracy of 35 microns. In one embodiment, the vertical region 716 of the projection is approximately 150-200 mm 2 . The one or more cameras 510 may be digital cameras with 1.2-5.0 megapixel CMOS or CCD sensors.
図28および図29を参照して、コード化されたパターンをデコードするプロセスを説明する。パターンの画像をデコードするときの第1のステップは、Y方向の投影パターン720の特徴の重心(cog)724(図28C)を抽出することである。これは、画素グレイスケール値の移動平均を計算することによって、および、Y方向処理において、単一のカラムを一度に下向きに移動させることによって、実施される。画像の中のピクセル値が移動平均値の上方にあるときに、特徴部のための開始ポイントが見出さる。開始ポイントが見出された後に、特徴部の幅は、ピクセル値が移動平均値の下方となるまで増加し続ける。次いで、重量平均が、開始ポイントと終了ポインとの間のピクセル値およびそれらのY位置を使用して計算され、画像の中のパターン特徴723のcog724を与える。また、開始ポイントと終了ポイントとの間の距離が、後で使用するために記録される。 With reference to FIGS. 28 and 29, the process of decoding the encoded pattern will be described. The first step in decoding the pattern image is to extract the centroid (cog) 724 (FIG. 28C) of the features of the projected pattern 720 in the Y direction. This is done by calculating a moving average of pixel grayscale values and by moving a single column downward at a time in Y-direction processing. When the pixel value in the image is above the moving average, the starting point for the feature is found. After the starting point is found, the feature width continues to increase until the pixel value is below the moving average. A weighted average is then calculated using the pixel values between the start and end points and their Y positions to give a cog 724 of the pattern feature 723 in the image. Also, the distance between the start point and the end point is recorded for later use.
結果として生じるcog724は、次にパターンライン722を見出すために使用される。これは、画像の第1のカラムから開始して、(図に示されている方向から見たときに)左から右の方向に移動することによって行われる。このカラムのそれぞれのcog724に関して、すぐ右の隣のカラムは、特定の距離の中にあるcog724に関して探される。2つのマッチングcog724が見出されると、次いで、ポテンシャルラインが決定される。プロセスが画像を横切って移動すると、より新しいラインが決定され、以前に決定された他のラインが、追加的なcog724が許容差内に検出されるような長さに拡張される。画像全体が処理されると、フィルターが抽出されたラインに適用され、所望の長さのライン(それは、パターンの波長である)だけが、残りのステップにおいて使用されることを確実にする。また、図28Cは、検出されるラインを示しており、それらは、パターンの単一の波長よりも長い。一実施形態では、隣のカラムのcog同士の間のデルタは存在しないか、または、小さいデルタが存在する。 The resulting cog 724 is then used to find the pattern line 722. This is done by starting from the first column of the image and moving from left to right (when viewed from the direction shown). For each cog 724 in this column, the next column immediately to the right is searched for cog 724 within a certain distance. If two matching cog 724s are found, then the potential line is determined. As the process moves across the image, newer lines are determined and other previously determined lines are extended to a length such that additional cog 724 is detected within tolerance. Once the entire image has been processed, a filter is applied to the extracted lines to ensure that only the desired length of the line (which is the wavelength of the pattern) is used in the remaining steps. FIG. 28C also shows the detected lines, which are longer than the single wavelength of the pattern. In one embodiment, there is no delta between cogs in adjacent columns, or there is a small delta.
デコードするプロセスの中の次のステップは、ブロック中心の形態のX方向のラインに沿って投影されるパターン特徴を抽出することである。それぞれのパターンは、幅の広いブロックおよび幅の狭いブロックの両方を含有する。正弦波パターン720において、これは、波のピーク部および谷部を参照しており、正方形パターン730において、これは、幅の広い正方形および幅の狭い正方形を参照している。このプロセスは、Y方向に特徴を抽出するのと同様のやり方で進めるが、しかし、移動平均は、第1の段階で見出された幅を使用して計算され、移動の方向は、ラインに沿っている。上記に説明されているように、特徴は、幅が移動平均値の上方にある領域において抽出されるが、このプロセスにおいて、また、特徴は、幅が移動平均の下方にある領域においても抽出される。幅およびX位置が使用され、重量平均を計算し、X方向にブロック726の中心を見出す。また、移動平均の交差部の間のcog724のY位置が使用され、Y方向にブロック726の中心を計算する。これは、cogのY座標の平均をとることによって実施される。また、それぞれのラインの開始ポイントおよび終了ポイントは、このステップにおいて抽出される特徴に基づいて修正され、両方のポイントが、移動平均の交差が発生する場所にあるということを確実にする。一実施形態では、完全なブロックだけが、後の処理ステップにおいて使用される。 The next step in the decoding process is to extract pattern features that are projected along lines in the X direction in the form of block centers. Each pattern contains both wide and narrow blocks. In the sine wave pattern 720, it refers to the peak and valley of the wave, and in the square pattern 730, it refers to a wide square and a narrow square. This process proceeds in the same way as extracting features in the Y direction, but the moving average is calculated using the width found in the first stage and the direction of movement is Along. As explained above, features are extracted in regions where the width is above the moving average, but in this process, features are also extracted in regions where the width is below the moving average. The The width and X position are used to calculate the weight average and find the center of block 726 in the X direction. Also, the Y position of cog 724 between moving average intersections is used to calculate the center of block 726 in the Y direction. This is done by taking the average of the cog Y coordinates. Also, the start and end points of each line are modified based on the features extracted in this step to ensure that both points are where the moving average intersection occurs. In one embodiment, only complete blocks are used in later processing steps.
次いで、ラインおよびブロックが処理され、それぞれのラインの上のブロック中心726同士の間の距離が所定の許容差内にあることをさらに確実にする。これは、ラインの上の2つの隣のブロック同士の間のX中心位置同士の間のデルタをとることによって、および、デルタが許容差以下であることをチェックすることによって達成される。デルタが許容差以上である場合には、ラインは、より小さいラインへ分割される。ラインの上の最後の2つのブロックの間で分割が必要とされる場合には、最後のブロックは除去され、追加的なラインは生成されない。ラインの上の第1のブロックと第2のブロックとの間で、または第2のブロックと第3のブロックとの間で分割が必要とされる場合には、また、分割の左へのブロックは廃棄され、追加的なラインは生成されない。ラインに沿う任意の他の場所において分割が起こる状況に関して、ラインは2つに分割され、新しいラインが生成され、適当なブロックがそれに変換される。処理のこの段階の後に、2つのパターンは、デコードすることを終了させるために異なるステップを必要とする。 The lines and blocks are then processed to further ensure that the distance between block centers 726 on each line is within a predetermined tolerance. This is achieved by taking the delta between the X center positions between two neighboring blocks on the line and checking that the delta is below the tolerance. If the delta is greater than or equal to the tolerance, the line is split into smaller lines. If a split is required between the last two blocks on a line, the last block is removed and no additional lines are generated. If a split is required between the first block and the second block on the line, or between the second block and the third block, it is also the block to the left of the split Are discarded and no additional lines are generated. For situations where splitting occurs anywhere else along the line, the line is split in two, a new line is generated, and the appropriate block is converted to it. After this stage of processing, the two patterns require different steps to finish decoding.
ここで、正弦波パターン720は、ラインの上のブロック中心を使用する1つの追加的な処理のステップによってデコードすることが可能である。それぞれのブロックX中心に関する係数、および、ライン722の上のパターン720の波長が計算され、これらの値の平均が、ライン722の位相を与える。次いで、ライン722の位相が使用され、パターン720の中のラインをデコードすることが可能であり、そして、それは、そのライン722の上のすべてのcog724に関して、X、Y、Z座標位置の決定を可能にする。 Here, the sine wave pattern 720 can be decoded by one additional processing step using the block center above the line. The coefficients for each block X center and the wavelength of the pattern 720 on line 722 are calculated, and the average of these values gives the phase of line 722. The phase of line 722 is then used to decode the line in pattern 720, which determines the X, Y, Z coordinate position for all cog 724 on that line 722. to enable.
正方形パターン730がデコードされる前に、第1のライン732は、任意のデコードが起こり得る前に、垂直方向に接続されるべきである。これは、ラインのグループが、特定されるということ、および、正弦波パターンのような単一のラインでなないということを可能にする。接続736が、ブロック734、および、処理の第1の段階において計算されるブロックの中に含有されるcogを使用して、ライン732同士の間に見出される。ライン732の上のそれぞれのブロックの中の第1のcogは、同じカラムの中でその真下に別のcogが存在するかどうかについてテストされる。下にcogが存在しない場合には、このポイントにおいて別のラインとの接続は存在せず、したがって、処理が継続する。下にcogが存在する場合には、2つのcogの間のY距離が決定され、ライン同士の間の所望の最大間隔と比較される。この値よりも距離が小さい場合には、2つのラインが、そのポイントにおいて接続されていると考えられ、接続736が記憶され、処理が次のブロックに続く。一実施形態では、ライン接続736は固有のものであり、2つのラインがそれらの間に2つ以上の接続736を有することとならないようになっている。 Before the square pattern 730 is decoded, the first line 732 should be connected vertically before any decoding can occur. This allows a group of lines to be specified and not to be a single line like a sinusoidal pattern. A connection 736 is found between lines 732 using cog contained in block 734 and the block calculated in the first stage of processing. The first cog in each block on line 732 is tested to see if there is another cog directly below it in the same column. If there is no cog underneath, there is no connection to another line at this point, so processing continues. If cog is present below, the Y distance between the two cogs is determined and compared to the desired maximum spacing between the lines. If the distance is less than this value, the two lines are considered connected at that point, the connection 736 is stored, and processing continues with the next block. In one embodiment, line connection 736 is unique so that no two lines will have more than one connection 736 between them.
正方形パターン730のための処理の次のステップは、接続ライン同士の間の位相計算である。それぞれの一対のライン732は、第一に、それらの間の重ね合わせ部の長さを決定するように処理される。一実施形態では、相対位相の計算を可能にするために、一対のラインの間の重ね合わせ部の少なくとも1つの波長が存在している。ラインが所望の重ね合わせ部を有している場合には、重ね合わせ部の領域の中心におけるcogが見出される。中心cogを含有するブロック738、および、真下にあるcogが決定され、ブロックX中心同士の間の相対位相が、そのライン接続に関して計算される。このプロセスは、ライン同士の間のすべての接続に関して繰り返される。一実施形態では、プロセスは、Y軸線において、下向きの方向にだけ繰り返される。これは、コードがラインより下方の接続に基づいているから、および、逆にはなっていないから、または、その両方になっているからである。図29Cは、このセットのラインに関する相対位相を計算するために使用され得るブロック738を示している。図29Cの実施形態の相対位相は、3、1、および2であり、これらの位相は、最上ラインをデコードするための最終段階において使用されることとなる。 The next step in the process for the square pattern 730 is the phase calculation between the connecting lines. Each pair of lines 732 is first processed to determine the length of the overlap between them. In one embodiment, there is at least one wavelength of the overlap between a pair of lines to allow calculation of the relative phase. If the line has the desired overlap, the cog at the center of the overlap region is found. The block 738 containing the center cog and the cog directly below are determined and the relative phase between the block X centers is calculated with respect to the line connection. This process is repeated for all connections between the lines. In one embodiment, the process is repeated only in the downward direction on the Y axis. This is because the cord is based on a connection below the line and / or not reversed. FIG. 29C shows a block 738 that may be used to calculate the relative phase for this set of lines. The relative phases of the embodiment of FIG. 29C are 3, 1, and 2, and these phases will be used in the final stage to decode the top line.
正方形パターン730をデコードする際の次のステップは、以前のステップの中で計算された相対位相を使用して、探し出しを実施することである。それぞれのライン732は、4つの接続深さが到達されるまで、ライン接続736を見つけ出すことによって処理される。この深さが使用されるが、その理由は、これが、ラインをデコードするための位相の数であるからである。接続のそれぞれのレベルにおいて、ハッシュ(hash)が、ライン732同士の間の相対位相を使用して決定される。要求される接続深さに到達すると、ハッシュが、ラインコードを探し出すために使用される。ハッシュが有効なコードを返す場合には、これは、投票システムの中に記録および記憶される。すべてのライン732がこのように処理され、所望の深さにあるすべての接続が使用され、それらが有効な位相の組み合わせである場合には投票を発生させる。次いで、最終ステップは、どのコードが、それぞれのライン732の上で最も多い投票を受信し、ライン732のコードをこの値に割り当てたかということを見出すことである。最も多い投票を受信した固有のコードが存在する場合には、ラインは、コードを割り当てられない。ライン732は、コードが割り当てられると特定され、ここで、そのライン732の上のすべてのcogに関するX、Y、Z座標位置を見出すことが可能である。 The next step in decoding the square pattern 730 is to perform a search using the relative phase calculated in the previous step. Each line 732 is processed by finding a line connection 736 until four connection depths are reached. This depth is used because it is the number of phases for decoding the line. At each level of connection, a hash is determined using the relative phase between the lines 732. When the required connection depth is reached, the hash is used to find the line code. If the hash returns a valid code, this is recorded and stored in the voting system. All lines 732 are processed in this way and all connections at the desired depth are used, generating a vote if they are valid phase combinations. The final step is then to find out which code received the most votes on each line 732 and assigned the code on line 732 to this value. If there is a unique code that has received the most votes, the line cannot be assigned a code. Line 732 is identified as being assigned a code, where it is possible to find X, Y, Z coordinate positions for all cogs on that line 732.
上記に与えられている説明は、3つ以上のパターン要素が同一線上にあるかどうかということに基づいて、ラインスキャナーと領域(ストラクチャードライト)スキャナーとの間を区別しているが、この規準の意図は、領域として投影されるパターンと、ラインとして投影されるパターンとを区別することであるということが留意されるべきである。結果的に、一次元のパターンは湾曲している可能性があるとしても、単一の経路に沿った情報だけを有する直線的に投影されるパターンは、依然としてラインパターンである。 The explanation given above distinguishes between line scanners and area (structured light) scanners based on whether more than two pattern elements are collinear, but the intent of this criterion is It should be noted that is to distinguish between patterns projected as regions and patterns projected as lines. As a result, even though a one-dimensional pattern may be curved, a linearly projected pattern that has only information along a single path is still a line pattern.
本発明は例示的な実施形態を参照して説明されてきたが、本発明の範囲を逸脱することなく、さまざまな変更を行うことが可能であり、均等物がその要素の代わりにされ得るということが当業者によって理解されることとなる。加えて、本発明の本質的な範囲から逸脱することなく、特定の状況または材料を本発明の教示に適合させるために、多くの修正を行うことが可能である。したがって、本発明は、本発明を実施するために考慮されるベストモードとして開示されている特定の実施形態に限定されるべきでないが、本発明は、添付の特許請求の範囲に入るすべて実施形態を含むこととなるということが意図されている。そのうえ、第1、第2などの用語の使用は、任意の順序または重要性を示しておらず、むしろ、第1、第2などの用語は、1つの要素を別の要素から区別するために使用されている。そのうえ、1つの(a、an)などの用語の使用は、量の限定を示しておらず、むしろ、参照される項目のうちの少なくとも1つが存在することを示している。 Although the invention has been described with reference to exemplary embodiments, various modifications can be made without departing from the scope of the invention, and equivalents can be substituted for the elements. Will be understood by those skilled in the art. In addition, many modifications may be made to adapt a particular situation or material to the teachings of the invention without departing from the essential scope thereof. Accordingly, the invention should not be limited to the specific embodiments disclosed as the best mode contemplated for practicing the invention, but the invention is all embodiments that fall within the scope of the appended claims. It is intended to include. Moreover, the use of terms such as first, second, etc. does not indicate any order or importance; rather, terms such as first, second, etc. are used to distinguish one element from another. It is used. Moreover, the use of a term such as (a, an) does not indicate a limit on the amount, but rather indicates that there is at least one of the referenced items.
Claims (40)
ベース部と、
対向する第1の端部および第2の端部を有する手動で位置決め可能なアーム部分であって、前記アーム部分は、前記ベース部に回転可能に連結されており、前記アーム部分は、複数の接続されたアームセグメントを含み、それぞれのアームセグメントは、位置信号を作り出すための少なくとも1つの位置トランスデューサーを含む、アーム部分と、
それぞれのアームセグメントの中の前記少なくとも1つの位置トランスデューサーから前記位置信号を受信する電子回路と、
前記第1の端部に連結されているプローブ端部と、
前記プローブ端部に連結されている非接触式三次元測定デバイスであって、前記非接触式三次元測定デバイスは、プロジェクターおよび画像センサーを有しており、前記プロジェクターは、光源平面を有しており、前記プロジェクターは、前記対象物の上にコード化されたストラクチャードライトパターンであるストラクチャードライトを放出するように構成されており、前記ストラクチャードライトは、前記光源平面から放出され、少なくとも3つの同一線上にないパターン要素を含み、前記画像センサーは、前記対象物から反射される前記ストラクチャードライトを受信し、前記プローブ端部から切り離されたときに独立して動作可能である非接触式三次元測定デバイスと、
前記電子回路に電気的に連結されているプロセッサーであって、前記プロセッサーは、前記位置トランスデューサーから前記位置信号を受信することに応答して、および、前記画像センサーによって前記ストラクチャードライトを受信することに応答して、前記対象物の上のポイントの前記三次元座標を決定するように構成されている、プロセッサーと
を含み、
前記非接触式三次元測定デバイスは、前記プローブ端部から切り離されたときに前記非接触式三次元測定デバイスの位置を測定するロケーションデバイスと、前記ロケーションデバイスが測定した位置及び前記プローブ端部から切り離されたときに前記画像センサーによって受信された前記ストラクチャードライトを前記プロセッサーまたはコンピューティングデバイスに通信する通信回路と、を含む
ことを特徴とする可搬型の関節アーム座標測定機(AACMM)。 A portable articulated arm coordinate measuring machine (AACMM) for measuring the three-dimensional coordinates of an object in space,
A base part;
A manually positionable arm portion having first and second opposing ends, wherein the arm portion is rotatably coupled to the base portion, the arm portion comprising a plurality of arm portions Arm portions including connected arm segments, each arm segment including at least one position transducer for producing a position signal;
Electronic circuitry for receiving the position signal from the at least one position transducer in each arm segment;
A probe end coupled to the first end;
A non-contact three-dimensional measuring device connected to the probe end, wherein the non-contact three-dimensional measuring device includes a projector and an image sensor, and the projector includes a light source plane. And the projector is configured to emit a structured light that is a structured light pattern coded on the object , the structured light being emitted from the light source plane and at least three collinear. A non-contact three-dimensional measuring device that includes a non-contact pattern element, wherein the image sensor receives the structured light reflected from the object and is independently operable when disconnected from the probe end When,
A processor electrically coupled to the electronic circuit, wherein the processor is responsive to receiving the position signal from the position transducer and receiving the structured light by the image sensor; in response, the being configured to determine the three-dimensional coordinates of points on the object, viewed contains a processor to,
The non-contact type three-dimensional measurement device includes a location device that measures a position of the non-contact type three-dimensional measurement device when separated from the probe end, a position measured by the location device, and a probe end. A portable articulated arm coordinate measuring machine (AACMM) comprising: a communication circuit that communicates the structured light received by the image sensor to the processor or computing device when disconnected.
対向する第1の端部および第2の端部を有する手動で位置決め可能なアーム部分を提供するステップであって、複数の接続されたアームセグメントを含み、それぞれのアームセグメントは、位置信号を作り出すための少なくとも1つの位置トランスデューサーを含む、ステップと、Providing a manually positionable arm portion having opposing first and second ends comprising a plurality of connected arm segments, each arm segment producing a position signal Including at least one position transducer for:
前記対象物を測定するプローブ端部を提供するステップであって、前記プローブ端部は、前記第1の端部に連結されている、ステップと、Providing a probe end for measuring the object, wherein the probe end is coupled to the first end; and
電子回路において、前記トランスデューサーから前記位置信号を受信するステップと、Receiving in the electronic circuit the position signal from the transducer;
コントローラーを有する三次元の非接触式測定デバイスを提供するステップであって、前記非接触式測定デバイスは、センサーおよびプロジェクターを有しており、前記プロジェクターは、前記対象物の上にストラクチャードライトを放出するように構成されており、前記プロジェクターは、光源平面を有しており、前記ストラクチャードライトは、前記光源平面から放出され、少なくとも3つの同一線上にないパターン要素を含む、ステップと、Providing a three-dimensional non-contact measuring device having a controller, the non-contact measuring device having a sensor and a projector, the projector emitting a structured light on the object The projector has a light source plane, and the structured light includes at least three non-collinear pattern elements emitted from the light source plane;
前記非接触式測定デバイスからのストラクチャードライトを前記対象物の上に投影するステップとProjecting a structured light from the non-contact measuring device onto the object;
前記非接触式測定デバイスを用いて、前記対象物から前記ストラクチャードライトの反射を受信するステップと、Receiving a reflection of the structured light from the object using the non-contact measurement device;
前記反射されたストラクチャードライトから、前記対象物の上のポイントの三次元座標を決定するステップと、Determining, from the reflected structured light, three-dimensional coordinates of a point on the object;
前記プローブ端部から前記非接触式測定デバイスを分離するステップと、Separating the non-contact measurement device from the probe end;
前記プローブ端部から離れて、前記非接触式測定デバイスを動作させるステップと、Operating the non-contact measuring device away from the probe end;
前記プローブ端部から離れて動作している前記非接触式測定デバイスの位置を測定するステップと、Measuring the position of the non-contact measuring device operating away from the probe end;
前記プローブ端部から離れて動作している場合に、前記対象物から前記ストラクチャードライトの反射を受信するステップと、Receiving a reflection of the structured light from the object when operating away from the probe end; and
前記プローブ端部から離れて動作している前記非接触式測定デバイスから前記非接触式測定デバイスの位置及び受信された前記ストラクチャードライトのデータを送信するステップと、Transmitting the position of the non-contact measurement device and the received structured light data from the non-contact measurement device operating away from the probe end;
を含むことを特徴とする方法。A method comprising the steps of:
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/491,176 | 2012-06-07 | ||
US13/491,176 US8832954B2 (en) | 2010-01-20 | 2012-06-07 | Coordinate measurement machines with removable accessories |
PCT/US2013/041826 WO2013184340A1 (en) | 2012-06-07 | 2013-05-20 | Coordinate measurement machines with removable accessories |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015524916A JP2015524916A (en) | 2015-08-27 |
JP5816773B2 true JP5816773B2 (en) | 2015-11-18 |
Family
ID=48537024
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015516035A Expired - Fee Related JP5816773B2 (en) | 2012-06-07 | 2013-05-20 | Coordinate measuring machine with removable accessories |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP5816773B2 (en) |
CN (1) | CN104380033A (en) |
DE (1) | DE112013002824T5 (en) |
GB (1) | GB2517621A (en) |
WO (1) | WO2013184340A1 (en) |
Families Citing this family (71)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8908995B2 (en) | 2009-01-12 | 2014-12-09 | Intermec Ip Corp. | Semi-automatic dimensioning with imager on a portable device |
US9879976B2 (en) | 2010-01-20 | 2018-01-30 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features |
US9607239B2 (en) | 2010-01-20 | 2017-03-28 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations |
DE102010020925B4 (en) | 2010-05-10 | 2014-02-27 | Faro Technologies, Inc. | Method for optically scanning and measuring an environment |
US9779546B2 (en) | 2012-05-04 | 2017-10-03 | Intermec Ip Corp. | Volume dimensioning systems and methods |
US10007858B2 (en) | 2012-05-15 | 2018-06-26 | Honeywell International Inc. | Terminals and methods for dimensioning objects |
US10321127B2 (en) | 2012-08-20 | 2019-06-11 | Intermec Ip Corp. | Volume dimensioning system calibration systems and methods |
US9939259B2 (en) | 2012-10-04 | 2018-04-10 | Hand Held Products, Inc. | Measuring object dimensions using mobile computer |
DE102012109481A1 (en) | 2012-10-05 | 2014-04-10 | Faro Technologies, Inc. | Device for optically scanning and measuring an environment |
US10067231B2 (en) | 2012-10-05 | 2018-09-04 | Faro Technologies, Inc. | Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner |
US20140104413A1 (en) | 2012-10-16 | 2014-04-17 | Hand Held Products, Inc. | Integrated dimensioning and weighing system |
US9080856B2 (en) | 2013-03-13 | 2015-07-14 | Intermec Ip Corp. | Systems and methods for enhancing dimensioning, for example volume dimensioning |
US10228452B2 (en) | 2013-06-07 | 2019-03-12 | Hand Held Products, Inc. | Method of error correction for 3D imaging device |
JP6465682B2 (en) * | 2014-03-20 | 2019-02-06 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
US9769454B2 (en) | 2014-06-20 | 2017-09-19 | Stmicroelectronics S.R.L. | Method for generating a depth map, related system and computer program product |
US20160016274A1 (en) * | 2014-07-16 | 2016-01-21 | Faro Technologies, Inc. | Measurement device for machining center |
US10656617B2 (en) | 2014-07-16 | 2020-05-19 | Faro Technologies, Inc. | Measurement device for machining center |
US9823059B2 (en) | 2014-08-06 | 2017-11-21 | Hand Held Products, Inc. | Dimensioning system with guided alignment |
WO2016020826A1 (en) * | 2014-08-07 | 2016-02-11 | Ingenera Sa | Method and relevant device for measuring distance with auto-calibration and temperature compensation |
WO2016039955A1 (en) * | 2014-09-10 | 2016-03-17 | Faro Technologies, Inc. | A portable device for optically measuring three- dimensional coordinates |
US9602811B2 (en) | 2014-09-10 | 2017-03-21 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
US9671221B2 (en) | 2014-09-10 | 2017-06-06 | Faro Technologies, Inc. | Portable device for optically measuring three-dimensional coordinates |
DE102014013678B3 (en) | 2014-09-10 | 2015-12-03 | Faro Technologies, Inc. | Method for optically sensing and measuring an environment with a handheld scanner and gesture control |
US9693040B2 (en) | 2014-09-10 | 2017-06-27 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device |
DE102014013677B4 (en) | 2014-09-10 | 2017-06-22 | Faro Technologies, Inc. | Method for optically scanning and measuring an environment with a handheld scanner and subdivided display |
US10036627B2 (en) | 2014-09-19 | 2018-07-31 | Hexagon Metrology, Inc. | Multi-mode portable coordinate measuring machine |
US9779276B2 (en) | 2014-10-10 | 2017-10-03 | Hand Held Products, Inc. | Depth sensor based auto-focus system for an indicia scanner |
US10810715B2 (en) | 2014-10-10 | 2020-10-20 | Hand Held Products, Inc | System and method for picking validation |
US10775165B2 (en) | 2014-10-10 | 2020-09-15 | Hand Held Products, Inc. | Methods for improving the accuracy of dimensioning-system measurements |
US9762793B2 (en) | 2014-10-21 | 2017-09-12 | Hand Held Products, Inc. | System and method for dimensioning |
US10060729B2 (en) | 2014-10-21 | 2018-08-28 | Hand Held Products, Inc. | Handheld dimensioner with data-quality indication |
US9897434B2 (en) | 2014-10-21 | 2018-02-20 | Hand Held Products, Inc. | Handheld dimensioning system with measurement-conformance feedback |
US9752864B2 (en) | 2014-10-21 | 2017-09-05 | Hand Held Products, Inc. | Handheld dimensioning system with feedback |
DE102015205187A1 (en) * | 2015-03-23 | 2016-09-29 | Siemens Aktiengesellschaft | Method and device for the projection of line pattern sequences |
JP6512912B2 (en) * | 2015-04-10 | 2019-05-15 | キヤノン株式会社 | Measuring device for measuring the shape of the object to be measured |
US9786101B2 (en) | 2015-05-19 | 2017-10-10 | Hand Held Products, Inc. | Evaluating image values |
US10066982B2 (en) | 2015-06-16 | 2018-09-04 | Hand Held Products, Inc. | Calibrating a volume dimensioner |
US9857167B2 (en) | 2015-06-23 | 2018-01-02 | Hand Held Products, Inc. | Dual-projector three-dimensional scanner |
US20160377414A1 (en) | 2015-06-23 | 2016-12-29 | Hand Held Products, Inc. | Optical pattern projector |
US9835486B2 (en) | 2015-07-07 | 2017-12-05 | Hand Held Products, Inc. | Mobile dimensioner apparatus for use in commerce |
EP3118576B1 (en) | 2015-07-15 | 2018-09-12 | Hand Held Products, Inc. | Mobile dimensioning device with dynamic accuracy compatible with nist standard |
US20170017301A1 (en) | 2015-07-16 | 2017-01-19 | Hand Held Products, Inc. | Adjusting dimensioning results using augmented reality |
CN106712160B (en) * | 2015-07-30 | 2019-05-21 | 安徽啄木鸟无人机科技有限公司 | A kind of charging method of unmanned plane quick charging system |
US10249030B2 (en) | 2015-10-30 | 2019-04-02 | Hand Held Products, Inc. | Image transformation for indicia reading |
US10225544B2 (en) * | 2015-11-19 | 2019-03-05 | Hand Held Products, Inc. | High resolution dot pattern |
CN107835931B (en) * | 2015-12-04 | 2020-11-10 | 安娜·斯蒂布娃 | Method for monitoring linear dimension of three-dimensional entity |
DE102015122844A1 (en) | 2015-12-27 | 2017-06-29 | Faro Technologies, Inc. | 3D measuring device with battery pack |
JP6631261B2 (en) * | 2016-01-14 | 2020-01-15 | セイコーエプソン株式会社 | Image recognition device, image recognition method, and image recognition unit |
US10025314B2 (en) | 2016-01-27 | 2018-07-17 | Hand Held Products, Inc. | Vehicle positioning and object avoidance |
KR102482062B1 (en) * | 2016-02-05 | 2022-12-28 | 주식회사바텍 | Dental three-dimensional scanner using color pattern |
US10339352B2 (en) | 2016-06-03 | 2019-07-02 | Hand Held Products, Inc. | Wearable metrological apparatus |
US9940721B2 (en) | 2016-06-10 | 2018-04-10 | Hand Held Products, Inc. | Scene change detection in a dimensioner |
US10163216B2 (en) | 2016-06-15 | 2018-12-25 | Hand Held Products, Inc. | Automatic mode switching in a volume dimensioner |
CN106091930B (en) * | 2016-08-16 | 2019-01-11 | 郑州辰维科技股份有限公司 | A kind of real-time online measuring method based on double camera measuring system and structured light sensor |
JP6840838B2 (en) * | 2016-09-09 | 2021-03-10 | クオリティー ヴィジョン インターナショナル インコーポレイテッドQuality Vision International, Inc. | Articulated head for measuring instruments with multiple sensors |
DE102016220127B4 (en) * | 2016-10-14 | 2020-09-03 | Carl Zeiss Industrielle Messtechnik Gmbh | Method for operating a coordinate measuring machine |
EP3315902B1 (en) * | 2016-10-27 | 2023-09-06 | Pepperl+Fuchs SE | Measuring device and method for triangulation measurement |
US10909708B2 (en) | 2016-12-09 | 2021-02-02 | Hand Held Products, Inc. | Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements |
US11047672B2 (en) | 2017-03-28 | 2021-06-29 | Hand Held Products, Inc. | System for optically dimensioning |
WO2019177066A1 (en) | 2018-03-16 | 2019-09-19 | 日本電気株式会社 | Three-dimensional shape measuring device, three-dimensional shape measuring method, program, and recording medium |
US10584962B2 (en) | 2018-05-01 | 2020-03-10 | Hand Held Products, Inc | System and method for validating physical-item security |
FI128523B (en) | 2018-06-07 | 2020-07-15 | Ladimo Oy | Modeling the topography of a three-dimensional surface |
US20200014909A1 (en) | 2018-07-03 | 2020-01-09 | Faro Technologies, Inc. | Handheld three dimensional scanner with autofocus or autoaperture |
FR3083602B1 (en) * | 2018-07-06 | 2020-09-18 | Hexagon Metrology Sas | MEASURING ARM WITH MULTIFUNCTIONAL END |
FR3083605B1 (en) * | 2018-07-06 | 2020-09-18 | Hexagon Metrology Sas | MEASURING ARM WITH MULTIFUNCTIONAL END |
JP7178426B2 (en) * | 2018-12-28 | 2022-11-25 | ヤマハ発動機株式会社 | Three-dimensional measuring device and workpiece working device |
US20220252392A1 (en) * | 2019-07-02 | 2022-08-11 | Nikon Corporation | Metrology for additive manufacturing |
US11763473B2 (en) | 2020-07-23 | 2023-09-19 | Zhejiang Hanchine Ai Tech. Co., Ltd. | Multi-line laser three-dimensional imaging method and system based on random lattice |
CN111854642B (en) * | 2020-07-23 | 2021-08-10 | 浙江汉振智能技术有限公司 | Multi-line laser three-dimensional imaging method and system based on random dot matrix |
WO2022207201A1 (en) * | 2021-03-29 | 2022-10-06 | Sony Semiconductor Solutions Corporation | Depth sensor device and method for operating a depth sensor device |
CN113188450B (en) * | 2021-04-23 | 2023-03-14 | 封泽希 | Scene depth detection method and system based on structured light |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5402582A (en) | 1993-02-23 | 1995-04-04 | Faro Technologies Inc. | Three dimensional coordinate measuring apparatus |
US5611147A (en) | 1993-02-23 | 1997-03-18 | Faro Technologies, Inc. | Three dimensional coordinate measuring apparatus |
GB0309662D0 (en) * | 2003-04-28 | 2003-06-04 | Crampton Stephen | Robot CMM arm |
US20060017720A1 (en) * | 2004-07-15 | 2006-01-26 | Li You F | System and method for 3D measurement and surface reconstruction |
JP5460341B2 (en) * | 2010-01-06 | 2014-04-02 | キヤノン株式会社 | Three-dimensional measuring apparatus and control method thereof |
DE112011100309B4 (en) * | 2010-01-20 | 2015-06-11 | Faro Technologies, Inc. | Portable articulated arm coordinate measuring machine with removable accessories |
EP2400261A1 (en) * | 2010-06-21 | 2011-12-28 | Leica Geosystems AG | Optical measurement method and system for determining 3D coordination in a measuring object surface |
-
2013
- 2013-05-20 JP JP2015516035A patent/JP5816773B2/en not_active Expired - Fee Related
- 2013-05-20 CN CN201380029985.4A patent/CN104380033A/en active Pending
- 2013-05-20 GB GB1422105.5A patent/GB2517621A/en not_active Withdrawn
- 2013-05-20 WO PCT/US2013/041826 patent/WO2013184340A1/en active Application Filing
- 2013-05-20 DE DE112013002824.7T patent/DE112013002824T5/en not_active Ceased
Also Published As
Publication number | Publication date |
---|---|
CN104380033A (en) | 2015-02-25 |
JP2015524916A (en) | 2015-08-27 |
WO2013184340A1 (en) | 2013-12-12 |
DE112013002824T5 (en) | 2015-04-02 |
GB2517621A (en) | 2015-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5816773B2 (en) | Coordinate measuring machine with removable accessories | |
US10281259B2 (en) | Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features | |
US10060722B2 (en) | Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations | |
US11262194B2 (en) | Triangulation scanner with blue-light projector | |
US8832954B2 (en) | Coordinate measurement machines with removable accessories | |
US9628775B2 (en) | Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations | |
US9500469B2 (en) | Laser line probe having improved high dynamic range | |
US9228816B2 (en) | Method of determining a common coordinate system for an articulated arm coordinate measurement machine and a scanner | |
US8875409B2 (en) | Coordinate measurement machines with removable accessories | |
US20140002608A1 (en) | Line scanner using a low coherence light source | |
JP6099675B2 (en) | Inspection method by barcode identification | |
US20130286196A1 (en) | Laser line probe that produces a line of light having a substantially even intensity distribution | |
US20110178765A1 (en) | Multi-functional coordinate measurement machines | |
WO2013188026A1 (en) | Coordinate measurement machines with removable accessories | |
JP2015513093A (en) | Coordinate measuring machine with removable accessories | |
JP2015184279A (en) | Coordinate measurement machine with distance meter used to establish frame of reference | |
EP3385661B1 (en) | Articulated arm coordinate measurement machine that uses a 2d camera to determine 3d coordinates of smoothly continuous edge features | |
WO2016044014A1 (en) | Articulated arm coordinate measurement machine having a 2d camera and method of obtaining 3d representations | |
WO2014109810A1 (en) | Laser line probe that produces a line of light having a substantially even intensity distribution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150908 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150928 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5816773 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |