Nothing Special   »   [go: up one dir, main page]

JP2002286411A - Method and device for analyzing fringe - Google Patents

Method and device for analyzing fringe

Info

Publication number
JP2002286411A
JP2002286411A JP2001093731A JP2001093731A JP2002286411A JP 2002286411 A JP2002286411 A JP 2002286411A JP 2001093731 A JP2001093731 A JP 2001093731A JP 2001093731 A JP2001093731 A JP 2001093731A JP 2002286411 A JP2002286411 A JP 2002286411A
Authority
JP
Japan
Prior art keywords
image area
fringe
edge
processing
entire image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001093731A
Other languages
Japanese (ja)
Inventor
宗濤 ▲葛▼
Souto Katsura
Shinichi Matsuda
信一 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujinon Corp
Original Assignee
Fuji Photo Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Optical Co Ltd filed Critical Fuji Photo Optical Co Ltd
Priority to JP2001093731A priority Critical patent/JP2002286411A/en
Publication of JP2002286411A publication Critical patent/JP2002286411A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Testing Of Optical Devices Or Fibers (AREA)
  • Instruments For Measurement Of Length By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To make masking work uniquely and stably performable and make stable analysis result obtainable by applying an edge detection processing for detecting any edge in a fringe image area to an entire image area including the fringe image area and an emphasizing processing for emphasizing the edge, and further a diffusion processing for averaging the concentration value in the fringe image area, so as to determine the masking range. SOLUTION: The edge detection processing using a differential computation is applied to an entire image area, and at the same time, an emphasizing processing using a differential computation is applied thereto. Next, a median filter is used for diffusion processing, thus reducing the variation of concentration value of image within a fringe image area and specifying the fringe image area. Furthermore, the contour of the specified fringe image area is traced and the traced contour is smoothened, and the obtained entire image area is binarized to determine the shape of the fringe image area.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、縞画像を解析する
縞解析方法および装置に関し、特に、被観察体の波面情
報を担持した干渉縞等の縞パターンを有する縞画像領域
を、マスキングを行なって全体画像領域から抽出して解
析を行なう縞解析方法および装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a fringe analyzing method and apparatus for analyzing fringe images, and more particularly to masking a fringe image area having a fringe pattern such as an interference fringe carrying wavefront information of an object to be observed. And a fringe analysis method and apparatus for extracting from a whole image area for analysis.

【0002】[0002]

【従来の技術】従来、干渉縞やモアレ縞などの縞画像を
解析して、被観察体の形状などの情報を求めることは広
く行なわれていたが、近年、コンピュータ等の情報処理
機器の性能向上により、物体表面の精密測定における光
波干渉法の分野などでは、1/10波長以上の面精度や波面
収差を計測することの必要性から1干渉縞(1フリン
ジ)以下の情報を読み取る干渉計測法(サブフリンジ干
渉計測法)の開発が進んできている。
2. Description of the Related Art Conventionally, it has been widely used to analyze fringe images such as interference fringes and moiré fringes to obtain information such as the shape of an object to be observed. With the improvement, in the field of light wave interferometry in precision measurement of the surface of an object, interferometry that reads information of 1 interference fringe (1 fringe) or less due to the necessity of measuring surface accuracy of 1/10 wavelength or more and wavefront aberration The method (sub-fringe interferometry) has been developed.

【0003】このようなサブフリンジ干渉計測法として
は、例えば、「光学」第13巻第1号(1984年2
月)第55頁〜第65頁の「サブフリンジ干渉計測基礎
論」に記載されているような種々の技術が知られてい
る。
As such a subfringe interference measuring method, for example, “Optics”, Vol. 13, No. 1 (1984, 2)
Month) Various techniques are known as described in “Basic theory of sub-fringe interference measurement” on pages 55 to 65.

【0004】[0004]

【発明が解決しようとする課題】前述したサブフリンジ
干渉計測法などの縞解析方法では、CCDカメラ等の画像
入力装置から取りこまれた全体画像領域内において、被
観察体の情報を担持した縞画像領域のみを抽出して解析
しなければならず、このため全画像領域内においてマス
キングをして不要領域を除去する必要があるが、このマ
スキングの領域を決める作業は、これまで自動化されて
おらず、オペレータが画像を見ながら手操作により行な
っていた。
In the above-described fringe analysis method such as the sub-fringe interference measurement method, a fringe carrying information of an object to be observed is located in an entire image area captured from an image input device such as a CCD camera. It is necessary to extract and analyze only the image area, and therefore, it is necessary to mask the entire image area to remove unnecessary areas.However, the task of determining the masking area has not been automated until now. Instead, the operator manually performs the operation while viewing the image.

【0005】このため、縞解析方法に対して十分な知識
を持ったオペレータが必要になるだけでなく、オペレー
タによって解析結果が異なるなどの不具合も生じる。ま
た、オペレータの操作に時間がかかるため、解析作業の
効率を高めにくいという問題があった。
For this reason, not only is an operator with sufficient knowledge of the fringe analysis method necessary, but also disadvantages such as a difference in analysis result depending on the operator occur. Further, there is a problem that it is difficult to increase the efficiency of the analysis work because the operation of the operator takes time.

【0006】このように縞解析におけるマスキング作業
が、オペレータの手操作に任されていた背景には、縞画
像領域内では画像の濃度値が正弦波的に繰り返し大きく
変化するという特異性のため、通常の画像の前処理を適
用しただけでは、縞画像領域のエッジと縞模様の濃淡境
界との判別ができないという状況がある。
As described above, the masking operation in the fringe analysis is left to the manual operation of the operator, and the background is that the density value of the image repeatedly and largely changes sinusoidally in the fringe image area. There is a situation in which it is not possible to discriminate between the edge of the stripe image region and the light and dark boundary of the stripe pattern only by applying the normal image preprocessing.

【0007】本発明は、上記事情に鑑みてなされたもの
であり、縞解析に特有な画像状況下において、一意的で
安定したマスキング作業を行なえ、これにより、安定し
た解析結果を得ることの可能な縞解析方法および装置を
提供することを目的とするものである。また、特には、
マスキング作業を自動化して、解析作業の効率を高め得
る縞解析方法およびこの方法を用い無人生産・検査用に
適した装置を提供することを目的とするものである。
The present invention has been made in view of the above circumstances, and enables a unique and stable masking operation to be performed under an image condition peculiar to fringe analysis, whereby a stable analysis result can be obtained. It is an object of the present invention to provide a simple fringe analysis method and apparatus. In particular,
An object of the present invention is to provide a fringe analysis method capable of automating a masking operation and improving the efficiency of an analysis operation, and an apparatus suitable for unmanned production and inspection using the method.

【0008】[0008]

【課題を解決するための手段】上記課題を解決するた
め、本発明の縞解析方法および装置は、全体画像領域に
対して縞画像領域のエッジ検出処理とエッジの強調処
理、および本来、解析に必要な縞画像領域内をぼかす拡
散処理を必要に応じて施すことにより、縞画像領域を抽
出するマスキングの範囲を決定するものである。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, a fringe analyzing method and apparatus according to the present invention perform edge detection processing and edge enhancement processing of a fringe image area with respect to an entire image area, and originally analysis. The masking range for extracting the stripe image region is determined by performing a diffusion process for blurring the necessary stripe image region as needed.

【0009】すなわち、本発明の縞解析方法は、被観察
体の波面情報を担持した縞画像領域を包含する全体画像
領域内において前記縞画像領域をマスキングにより抽出
し、この抽出結果に基づき解析を行ない前記波面情報を
求める縞解析方法において、前記全体画像領域に対し
て、該全体画像領域内における前記縞画像領域のエッジ
を検出するエッジ検出処理と、前記エッジを強調する強
調処理とを施し、さらに前記全体画像領域に対して、前
記エッジが認識できる範囲で前記縞画像領域内の濃度値
を平均化する拡散処理を施すことにより、前記縞画像領
域を特定して前記マスキングの範囲を決定することを特
徴とする特徴とするものである。
That is, according to the fringe analyzing method of the present invention, the fringe image region is extracted by masking in the entire image region including the fringe image region carrying the wavefront information of the object to be observed, and the analysis is performed based on the extraction result. In the fringe analysis method for performing the wavefront information, the entire image region is subjected to an edge detection process of detecting an edge of the stripe image region in the entire image region, and an enhancement process of enhancing the edge, Further, the entire image area is subjected to diffusion processing for averaging density values in the stripe image area in a range where the edge can be recognized, thereby specifying the stripe image area and determining the masking range. This is a feature of the present invention.

【0010】なお、前記全体画像領域とは、撮像された
画像の全ての領域を指す場合もあるが、縞画像領域を包
含する領域であればよく、必ずしも全ての画像領域を指
すとは限らない。
The whole image area may refer to the entire area of the captured image in some cases. However, the entire image area may be an area including the stripe image area, and does not necessarily indicate the entire image area. .

【0011】また、前記エッジが認識できる範囲とは、
拡散処理後の処理で前記縞画像領域を特定できる程度の
範囲を指す。また、前記強調処理および拡散処理は、必
要に応じて複数回施す場合がある。
The range in which the edge can be recognized is
It indicates the range in which the stripe image area can be specified in the processing after the diffusion processing. Further, the emphasis processing and the diffusion processing may be performed a plurality of times as needed.

【0012】本発明の縞解析方法においては、前記特定
された縞画像領域の輪郭線を抽出し、該抽出された輪郭
線の内外で2値化処理を施すことにより、前記縞画像領
域の形状を決定するようにしてもよい。
In the fringe analyzing method according to the present invention, the contour of the specified fringe image area is extracted, and a binarization process is performed on the inside and outside of the extracted contour line to thereby obtain the shape of the fringe image area. May be determined.

【0013】前記エッジ検出処理および強調処理は、微
分または差分演算処理を用いて行なう処理とすることが
できる。また、前記拡散処理は、メディアンフィルタを
用いて行なうことができる。本発明の縞解析方法におい
ては、前記輪郭線に平滑化処理を行ない、平滑化された
マスク輪郭を得るようにしてもよい。
[0013] The edge detection processing and the emphasis processing may be processing performed using differential or difference calculation processing. Further, the diffusion process can be performed using a median filter. In the fringe analysis method of the present invention, a smoothing process may be performed on the outline to obtain a smoothed mask outline.

【0014】本発明の縞解析装置は、被観察体の波面情
報を担持した縞画像領域を包含する全体画像領域内にお
いて前記縞画像領域をマスキングにより抽出し、この抽
出結果に基づき解析を行ない前記波面情報を求める縞解
析装置において、前記全体画像領域に対して、該全体画
像領域内における前記縞画像領域のエッジを検出するエ
ッジ検出処理と、前記エッジを強調する強調処理とを行
なうエッジ検出強調手段と、該エッジ検出強調手段によ
り処理された前記全画像領域に対して、前記エッジは保
存される範囲で前記縞画像領域内をぼかす拡散処理を行
う拡散処理手段と、前記エッジ検出強調手段および前記
拡散処理手段により処理された前記全画像内において前
記縞画像領域を特定して前記マスキングの範囲を決定す
るマスクキング範囲決定手段とを備えてなることを特徴
とするものである。
The fringe analyzer of the present invention extracts the fringe image area by masking within the entire image area including the fringe image area carrying the wavefront information of the object to be observed, and performs analysis based on the extraction result. In the fringe analyzer for obtaining wavefront information, edge detection enhancement for performing, on the entire image area, edge detection processing for detecting an edge of the stripe image area in the entire image area and enhancement processing for enhancing the edge Means, diffusion processing means for performing diffusion processing for blurring the stripe image area within the range in which the edge is preserved, for the entire image area processed by the edge detection enhancement means, and the edge detection enhancement means; A masking range for specifying the stripe image region in the entire image processed by the diffusion processing unit and determining the masking range. And it is characterized in by comprising a determination unit.

【0015】[0015]

【発明の実施の形態】以下、本発明の実施形態に係るフ
ーリエ変換縞解析方法を、図面を参照しながら説明す
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a Fourier transform fringe analysis method according to an embodiment of the present invention will be described with reference to the drawings.

【0016】この実施形態に係る方法は、被観察体表面
と参照面との相対形状に基づき得られた、被観察体表面
の干渉縞画像データに対し、フーリエ変換法を用いて被
観察体表面形状を解析する場合に、被観察体表面と参照
面とを相対的に傾け、この傾きに伴って発生するキャリ
ア縞(キャリア周波数の概念に含まれる;以下同じ)を
被観察体の形状情報に伴って発生する縞に重畳させて前
記縞画像データを求める縞解析方法である。そして、縞
画像領域を包含する全体画像領域に対して、マスキング
を行なって解析に必要な縞画像領域を抽出する場合に、
全体画像領域に対して、全体画像領域内における縞画像
領域のエッジを検出するエッジ検出処理と、エッジを強
調する強調処理とを施し、さらに全体画像領域に対し
て、エッジが認識できる範囲で縞画像領域内の濃淡値を
平均化する拡散処理を施すことにより縞画像領域を特定
するものである。さらには、特定された縞画像領域の輪
郭線を抽出し、抽出された輪郭線の内外で2値化処理を
施すことにより、縞画像領域の形状を決定してマスキン
グの範囲を決定するものである。
The method according to the present embodiment uses the Fourier transform method for the interference fringe image data obtained on the basis of the relative shape between the surface of the object and the reference surface, using the Fourier transform method. When analyzing the shape, the surface of the object to be observed and the reference surface are relatively inclined, and carrier fringes (included in the concept of carrier frequency; the same applies hereinafter) generated with this inclination are included in the shape information of the object to be observed. This is a fringe analysis method for obtaining the fringe image data by superimposing the fringe image data accompanying the fringe. Then, when masking is performed on the entire image region including the stripe image region to extract a stripe image region necessary for analysis,
The entire image area is subjected to an edge detection process for detecting an edge of the stripe image area in the entire image area, and an enhancement processing for enhancing the edge. The stripe image area is specified by performing a diffusion process for averaging the grayscale values in the image area. Further, the contour of the specified stripe image area is extracted, and the binarization process is performed inside and outside the extracted contour line, thereby determining the shape of the stripe image area and determining the masking range. is there.

【0017】また、前記エッジ検出処理および強調処理
が、差分演算処理を利用して行なわれ、前記拡散処理
が、メディアンフィルタを用いて行なわれるものであ
る。
Further, the edge detection processing and the emphasis processing are performed using a difference calculation processing, and the diffusion processing is performed using a median filter.

【0018】本実施形態方法では、まず、空間キャリア
縞が重畳された、被観察体の波面情報のひとつとしての
形状情報を担持してなる干渉縞画像(一例を図1に示
す)をCCD撮像カメラにより得る。図1に示すように
撮像された画像は、円形の縞画像領域と、この縞画像領
域を除いた背景画像領域とからなり、これら2つの画像
領域により、縞画像領域を包含した全画像領域(撮像さ
れた画像の全ての領域;全体画像領域の概念よりも広
い)を構成している。
In the method of the present embodiment, first, an interference fringe image (an example is shown in FIG. 1) carrying shape information as one of the wavefront information of the observed object on which the spatial carrier fringe is superimposed is imaged by CCD. Obtain by camera. An image captured as shown in FIG. 1 includes a circular stripe image region and a background image region excluding the stripe image region, and the two image regions form an entire image region (including the stripe image region). (The entire area of the captured image; wider than the concept of the entire image area).

【0019】縞画像領域は、正弦波的に濃淡値が変化す
る縞模様を形成しており、その暗い部分の濃度値が、背
景画像領域の暗い部分の濃度値と近いため、縞画像領域
内の線状に延びた暗い部分の両端部と、背景画像領域と
の境界部分が繋がっているように見える。濃度値を数値
化しても、濃度値が近いために両者の峻別ができない。
このことが、これまでオペレータの手操作により、縞画
像領域の特定をせざるを得ない背景としてあった。縞画
像領域が図1のような単純な図形の場合は、経験豊富な
オペレータによれば、ある程度まで一意的に領域の特定
が可能だが、縞画像領域の形状が複雑な場合、同じ画像
に対して同じオペレータが操作を行なっても、その特定
する領域の範囲が異なることもある。
The stripe image area forms a stripe pattern in which the gray value changes sinusoidally, and the density value of the dark part is close to the density value of the dark part of the background image area. It seems that both ends of the linearly extending dark portion and the boundary portion with the background image area are connected. Even if the density values are digitized, the two cannot be distinguished because the density values are close.
Heretofore, this has been a background in which the stripe image area has to be specified manually by the operator. If the stripe image area is a simple figure as shown in FIG. 1, an experienced operator can uniquely identify the area to some extent, but if the shape of the stripe image area is complicated, the same image Even if the same operator performs an operation, the range of the specified area may be different.

【0020】そこで、本実施形態方法では、全画像領域
に対して、差分演算を用いた、例えば非線形フィルタに
よる縞画像領域のエッジ検出処理を施す(図2参照)と
共に、差分演算を用いた、例えばラプラシアンフィルタ
による強調処理を施す(図3参照)。さらに、全画像領
域に対して、もう一度強調処理を施す(図4参照)。
Therefore, in the method of this embodiment, for example, the edge detection processing of the stripe image area using a non-linear filter is performed on all the image areas using a difference calculation (see FIG. 2), and the difference calculation is used. For example, an enhancement process using a Laplacian filter is performed (see FIG. 3). Further, the emphasis processing is performed again on the entire image area (see FIG. 4).

【0021】強調処理は、縞画像領域にも施すので、縞
画像領域内の画像の濃度差も強調されることになるが、
縞画像領域のエッジでの濃度変化に比べて、縞画像領域
内の濃度変化は緩やかである。このため強調処理を施す
と、縞画像領域のエッジ部分の濃度変化は強調されてエ
ッジが際立つ一方で、相対的に縞画像領域内の濃度変化
は小さくなって、縞画像領域の縞模様が目立たなくな
る。
Since the emphasizing process is also performed on the fringe image area, the density difference of the image in the fringe image area is also emphasized.
The density change in the stripe image area is more gradual than the density change at the edge of the stripe image area. For this reason, when the emphasis process is performed, the density change in the edge portion of the stripe image region is emphasized and the edge stands out, while the density change in the stripe image region is relatively small, and the stripe pattern in the stripe image region is conspicuous. Disappears.

【0022】次に、全画像領域に対して、メディアンフ
ィルタによる拡散処理を施す。このとき、拡散処理後に
おいても縞画像領域のエッジが認識可能なようにメディ
アンフィルタを設定しておく。こうして、縞画像領域内
の画像の濃度値の幅を小さくして、縞画像領域内の画像
をぼかすことにより、縞画像領域を特定する(図5参
照)。
Next, a diffusion process using a median filter is performed on the entire image area. At this time, a median filter is set so that the edge of the stripe image area can be recognized even after the diffusion processing. In this way, the width of the density value of the image in the stripe image area is reduced, and the image in the stripe image area is blurred to specify the stripe image area (see FIG. 5).

【0023】さらに、特定された縞画像領域の輪郭線
を、例えば輪郭線追跡のアルゴリズムを用いてトレース
すると共に(図6参照)、トレースされた輪郭線を平滑
化する処理を施し(図7参照)、その後、得られた全画
像領域に対して、例えばモード法による2値化処理を施
して縞画像領域の形状を決定する。次に、決定された縞
画像領域の形状に合わせてマスクを作成する。そして、
撮像された最初の全画像領域に対して、マスキングを行
ない縞画像領域を抽出する。
Further, the contour of the specified fringe image area is traced by using, for example, a contour tracing algorithm (see FIG. 6), and a process of smoothing the traced contour is performed (see FIG. 7). Then, the obtained entire image area is subjected to, for example, a binarization process by the mode method to determine the shape of the striped image area. Next, a mask is created according to the determined shape of the stripe image area. And
Masking is performed on all of the first captured image areas to extract a striped image area.

【0024】上述したようなマスキングを行なうための
一連のプロセスは、解析に必要な縞画像領域内のデータ
を加工してしまうので、以下に述べる解析自体のプロセ
スとは、本来相容れないものである。しかし、コンピュ
ータ等の情報処理機器の性能向上により、後述するよう
な装置を用いれば、上述したような処理に要する時間は
数秒程度であるため、結果として解析に要するトータル
的な時間の大幅な短縮も図れることとなる。また、一連
のプロセスをソフト的に行なうことで、縞画像領域が複
雑な場合であっても、一意的で安定した領域特定が可能
である。つまり、任意形状の縞画像領域に対して、有効
であり、これらの点は、従来のオペレータの手操作によ
る場合に比べ、大きく優れている。
Since a series of processes for performing the above-described masking process data in a fringe image area required for analysis, it is inherently incompatible with the following analysis itself. However, due to the improvement in the performance of information processing equipment such as computers, the time required for the above-described processing is about several seconds when using an apparatus described later, and as a result, the total time required for analysis is significantly reduced. Can also be achieved. Further, by performing a series of processes in a software manner, a unique and stable area can be specified even when the stripe image area is complicated. In other words, it is effective for a stripe image area of an arbitrary shape, and these points are greatly superior to those in the case of a conventional manual operation by an operator.

【0025】以下、抽出された縞画像領域のデータに対
する解析方法の一実施形態を説明する。抽出された縞画
像領域のデータに対してフーリエ変換を行ない、周波数
座標系(フーリエ・スペクトル座標系、あるいは空間周
波数領域とも称する;一例を図8に示す)におけるフー
リエ・スペクトルを得た後、原点におけるスペクトルの
ピークを探し出す。この原点にあるスペクトル以外で振
幅が最大となるスペクトル(空間キャリア周波数に対応
したスペクトルC(η−f,ζ−f)のピーク)を探
し出し、その座標(fx,fy)を得る。なお、このと
き図8に示すように、原点を挟んで、大きさの等しい2
つのピークが検出されるが、両者は互いに共役の関係と
なっているから、どちらか1つのピークを選択すればよ
い。
An embodiment of an analysis method for the data of the extracted stripe image area will be described below. Fourier transform is performed on the extracted data of the striped image area to obtain a Fourier spectrum in a frequency coordinate system (also referred to as a Fourier spectrum coordinate system or a spatial frequency domain; an example is shown in FIG. 8), and then the origin is obtained. Find the spectral peak at. Locate the spectrum amplitude than spectrum in the origin becomes the maximum (spectrum C (η-f x corresponding to the spatial carrier frequency, the peak of the ζ-f y)), to obtain the coordinates (fx, fy). Note that, at this time, as shown in FIG.
Although two peaks are detected, since both have a conjugate relationship with each other, one of the peaks may be selected.

【0026】さらに、座標(fx,fy)が原点に来る
ようにフーリエ・スペクトルC(η−f,ζ−f)を
座標移動して、空間キャリア周波数を除去する。次に、
フーリエ逆変換を施し、後述する式(2),(3)に示
す干渉縞の複素振幅c(x,y)を求めて、ラッピングさ
れた被観察体の位相φ(x,y)を得る。さらに、後述
するようなアンラッピング処理を施して、被観察体表面
形状に相当する、連続する位相(Φ(x,y):位相分
布)を得て、被観察体表面形状を得る(一例を図9に示
す)。
Furthermore, coordinates (fx, fy) is the Fourier spectrum C (η-f x, ζ -f y) to come to the origin of coordinate movement, to remove the spatial carrier frequency. next,
The inverse Fourier transform is performed to obtain the complex amplitude c (x, y) of the interference fringes shown in Expressions (2) and (3) to be described later to obtain the wrapped phase φ (x, y) of the observed object. Further, by performing an unwrapping process as described later, a continuous phase (Φ (x, y): phase distribution) corresponding to the surface shape of the observation target is obtained to obtain the surface shape of the observation target (an example is shown below). FIG. 9).

【0027】なお、上記図1に示す縞画像において得ら
れる干渉縞画像データは、空間キャリア周波数のx方向
成分、y方向成分を各々f、fとすると下式(1)
により表される。
[0027] Incidentally, the interference fringe image data obtained in the fringe image shown in FIG. 1, x-direction component of the spatial carrier frequency, respectively f x and y-direction components, the following equation when the f y (1)
Is represented by

【0028】[0028]

【数1】 (Equation 1)

【0029】また、上式(1)を変形すると下式(2)
が得られる。
When the above equation (1) is modified, the following equation (2) is obtained.
Is obtained.

【0030】[0030]

【数2】 (Equation 2)

【0031】なお、c(x,y)は下式(3)で表され
る。
Note that c (x, y) is represented by the following equation (3).

【0032】[0032]

【数3】 (Equation 3)

【0033】上式(3)をフーリエ変換すると、下式
(4)が得られる。
When the above equation (3) is Fourier-transformed, the following equation (4) is obtained.

【0034】[0034]

【数4】 (Equation 4)

【0035】そして、フィルタリングにより上式(4)
の第2項の成分だけを取り出し、周波数座標系上で座標
(f,f)に位置するスペクトルのピークに基づき空
間キャリア周波数(f,f)を抽出する。
Then, the above equation (4) is obtained by filtering.
Only the second term component of
(f x, f y) spatial carrier frequency based on a peak of the spectrum is located in (f x, f y) to extract.

【0036】一方、このようにして得られたC(η−f
,ζ−f)を周波数座標系上に展開し、座標(f
)に位置するスペクトルのピークを周波数座標系上
で原点に移動せしめることにより、空間キャリア周波数
を除去し、この後、フーリエ逆変換を施すことによりc
(x,y)を求め、下式(5)の虚部を求めることによっ
てラッピングされた位相を求める。
On the other hand, C (η-f
x, ζ-f y) expand on the frequency coordinates, the coordinates (f x,
By moving the peak of the spectrum located at f y ) to the origin on the frequency coordinate system, the spatial carrier frequency is removed, and then the inverse Fourier transform is performed to obtain c.
(x, y) is obtained, and the wrapped phase is obtained by obtaining the imaginary part of the following equation (5).

【0037】[0037]

【数5】 (Equation 5)

【0038】このようにして得られた位相分布は−πか
らπの主値の間に、不連続に折り畳まれているので、そ
れらを位相アンラッピング・アルゴリズムを用いてアン
ラッピングすることにより、被観察体表面形状に相当す
る、連続する位相(Φ(x,y):位相分布)を得るこ
とができる。
Since the phase distribution obtained in this way is folded discontinuously between the principal values of -π to π, they are unwrapped by using a phase unwrapping algorithm, so that A continuous phase (Φ (x, y): phase distribution) corresponding to the observation object surface shape can be obtained.

【0039】次に、本発明の実施形態装置について、図
10、11を用いて説明する。
Next, an embodiment of the present invention will be described with reference to FIGS.

【0040】この装置は、上記実施形態方法を実施する
ためのもので、図10に示すように、マイケルソン型干
渉計1において、被観察体表面2と参照(基準)面3か
らの両反射光束によって形成される干渉縞は、撮像カメ
ラ4のCCD5の撮像面において形成され、画像入力基
板6を介して、CPUおよび画像処理用のメモリを搭載
したコンピュータ7に入力され、入力された干渉縞画像
データに対して種々の演算処理が施され、その処理結果
はモニタ画面7A上に表示される。なお、撮像カメラ4
から出力される干渉縞画像データはCPUの処理により
一旦メモリ内に格納されるようになっている。
This apparatus is for implementing the method of the above embodiment. As shown in FIG. 10, in a Michelson interferometer 1, both reflections from a surface 2 of an object to be observed and a reference (reference) surface 3 are obtained. The interference fringe formed by the light beam is formed on the imaging surface of the CCD 5 of the imaging camera 4, is input to the computer 7 equipped with the CPU and the memory for image processing via the image input board 6, and is input. Various arithmetic processing is performed on the image data, and the processing results are displayed on the monitor screen 7A. Note that the imaging camera 4
Is temporarily stored in a memory by the processing of the CPU.

【0041】コンピュータ7はソフト的に、上記参照面
の傾きを調整する傾き調整手段(図示せず)を備えてお
り、この傾き調整手段は、D/A変換基板8を介してピ
エゾ駆動部9からPZT(ピエゾ素子)アクチュエータ対
し、駆動信号を送出させるように指示するものである。
これにより、PZT(ピエゾ素子)アクチュエータ10
が所定量だけ変位し、このPZT(ピエゾ素子)アクチュ
エータによって保持された参照面3が、所定量傾くよう
に調整される。この参照面3の傾きにより、被観察体表
面2と参照面3との相対的な傾きが形成され、この相対
的な傾きにより、撮像カメラ4のCCD5の撮像面にお
いて形成された干渉縞に、空間キャリア周波数が重畳さ
れる。
The computer 7 includes, as software, an inclination adjusting means (not shown) for adjusting the inclination of the reference surface. The inclination adjusting means is provided with a piezo driving section 9 via a D / A conversion board 8. To the PZT (piezo element) actuator to send a drive signal.
Thereby, the PZT (piezo element) actuator 10
Is displaced by a predetermined amount, and the reference surface 3 held by the PZT (piezo element) actuator is adjusted to be inclined by a predetermined amount. The inclination of the reference surface 3 forms a relative inclination between the surface 2 of the object to be observed and the reference surface 3. Due to the relative inclination, an interference fringe formed on the imaging surface of the CCD 5 of the imaging camera 4 is generated. The spatial carrier frequency is superimposed.

【0042】さらに、コンピュータ7は、図11に示す
ようにソフト的に、エッジ検出強調手段11、拡散処理
手段12およびマスキング範囲決定手段13を備えてい
る。エッジ検出強調手段11は、前述したように、得ら
れた干渉縞画像の全画像領域に対して、差分演算処理を
用いて、例えば非線形フィルタによる縞画像領域のエッ
ジ検出処理を施すと共に、差分演算を用いた、例えばラ
プラシアンフィルタによる強調処理を施すものである。
Further, as shown in FIG. 11, the computer 7 includes an edge detection / enhancement means 11, a diffusion processing means 12, and a masking range determination means 13 in software. As described above, the edge detection enhancement means 11 performs, for example, edge detection processing of the fringe image area using a non-linear filter on the entire image area of the obtained interference fringe image using difference calculation processing, and performs difference calculation. , For example, using a Laplacian filter.

【0043】また、拡散処理手段12は、前述したよう
に、全画像領域に対して、メディアンフィルタによる拡
散処理を施し、縞画像領域内の画像の濃度値の変動を小
さくして、縞画像領域を特定するものである。さらに、
マスキング範囲決定手段13は、前述したように、特定
された縞画像領域の輪郭線を、例えば輪郭線追跡のアル
ゴリズムを用いてトレースすると共に、トレースされた
輪郭線を平滑化する処理を行ない、その後、得られた全
画像領域に対して、例えばモード法による2値化処理を
行なって縞画像領域の形状を決定するものである。
Further, as described above, the diffusion processing means 12 performs the diffusion processing by the median filter on the entire image area to reduce the fluctuation of the density value of the image in the stripe image area, and Is specified. further,
As described above, the masking range determining unit 13 traces the contour of the specified fringe image region using, for example, a contour tracking algorithm, and performs a process of smoothing the traced contour. The binarization process is performed on all the obtained image regions, for example, by the mode method to determine the shape of the stripe image region.

【0044】前述の如く、本実施形態の装置では、ソフ
ト的に、マスキング範囲を自動決定するので、オペレー
タに頼らない一意的で安定した解析結果を得ることが可
能になると共に、マスキングの自動化ひいては解析の自
動化を図ることが可能となる。
As described above, in the apparatus according to the present embodiment, the masking range is automatically determined by software, so that it is possible to obtain a unique and stable analysis result that does not depend on the operator, and to automate the masking. The analysis can be automated.

【0045】なお、本発明の縞解析方法および装置は、
上記実施形態のものに限られるものではなく、その他種
々の態様の変更が可能である。例えば、上記実施形態で
は、デジタル処理を前提としており、エッジ検出、強調
処理に差分演算処理を利用する方法を用いているが、ア
ナログ処理の場合は、これらは、微分演算処理を利用す
る方法に置き換えられる。
The fringe analysis method and apparatus of the present invention
The present invention is not limited to the above embodiment, and other various modes can be changed. For example, in the above-described embodiment, digital processing is premised, and a method using difference calculation processing is used for edge detection and enhancement processing. However, in the case of analog processing, these methods are based on differential calculation processing. Be replaced.

【0046】また、エッジを検出する方法としては、零
交作法によるエッジ検出やテンプレート型エッジ検出オ
ペレータ、あるいはレンジフィルタなどによる方法を用
いることができるし、さらに、強調処理としては、画像
をフーリエ変換し、周波数領域で高周波成分を強調し、
逆フーリエ変換により空間領域に戻す方法を用いてもよ
い。
As a method for detecting an edge, an edge detection by a zero-crossing method, a template-type edge detection operator, a method using a range filter, or the like can be used. Further, as an enhancement process, an image is Fourier-transformed. And emphasize high frequency components in the frequency domain,
A method of returning to the spatial domain by the inverse Fourier transform may be used.

【0047】また、拡散処理としては、エッジ保存フィ
ルタや、エッジの認識が可能な範囲であれば、移動平均
フィルタや加重平均フィルタなどの線形フィルタなどを
用いてもよい。さらに、2値化処理としては、P−タイ
ル法、微分ヒストグラム法、判別分析法、あるいは可変
しきい値法など種々の方法を用いることができる。
For the diffusion processing, an edge preserving filter or a linear filter such as a moving average filter or a weighted average filter may be used as long as the edge can be recognized. Further, as the binarization processing, various methods such as a P-tile method, a differential histogram method, a discriminant analysis method, and a variable threshold method can be used.

【0048】また、マスキングにより特定した縞画像領
域に対して行なう解析に関する部分でも種々の態様の変
更が可能である。例えば、キャリア周波数を発生させる
ためのメカニズムとしては、被観察体からの波面と参照
面からの波面の相対的な傾きを精度よく調整できるもの
であれば、上述した被観察体と参照面との相対的な傾き
を調整するものに限られるものではなく、例えば、少な
くとも一方の光路中に所定の光変調素子や楔形の光学系
を挿入して、被観察体からの波面または参照面からの波
面の傾きを調整可能としてもよい。また、所定のキャリ
ア周波数の発生後に、2光束の波長差を変更することに
より、該キャリア周波数の増減を図るようにしてもよ
い。
In addition, various aspects can be changed in a portion relating to analysis performed on a stripe image region specified by masking. For example, as a mechanism for generating the carrier frequency, if the relative inclination between the wavefront from the object to be observed and the wavefront from the reference surface can be adjusted with high accuracy, the above-described mechanism between the object to be observed and the reference surface can be used. It is not limited to the one that adjusts the relative tilt.For example, a wavefront from the object to be observed or a wavefront from the reference surface is inserted by inserting a predetermined light modulation element or a wedge-shaped optical system into at least one optical path. May be adjustable. Also, after the generation of a predetermined carrier frequency, the carrier frequency may be increased or decreased by changing the wavelength difference between the two light beams.

【0049】また、上記実施形態装置においては、参照
面をPZTアクチュエータにより傾けるようにしている
が、これに替えて被観察体を傾けるようにしてもよい。
また、参照面および/または被観察体を傾ける傾き量調
整手段としては精度よく参照面および/または被観察体
を傾動可能なものであればよく、必ずしもPZTアクチ
ュエータに限られるものではない。
In the apparatus of the above embodiment, the reference surface is tilted by the PZT actuator. Alternatively, the object to be observed may be tilted.
Further, the tilt amount adjusting means for tilting the reference surface and / or the observation target may be any device that can accurately tilt the reference surface and / or the observation target, and is not necessarily limited to the PZT actuator.

【0050】また、上述した実施形態では、キャリア周
波数として空間キャリア周波数を用いて説明している
が、キャリア周波数として、時間キャリア周波数あるい
は時空間キャリア周波数を用いることが可能である。
Further, in the above-described embodiment, the description has been made using the spatial carrier frequency as the carrier frequency. However, a time carrier frequency or a spatio-temporal carrier frequency can be used as the carrier frequency.

【0051】また、上記実施形態のものにおいては、干
渉縞画像データをマイケルソン型干渉計を用いて撮像し
ているが、フィゾー型等のその他の干渉計を用いて得ら
れた干渉縞画像データに対しても同様に適用できること
は勿論である。さらに、本発明は、干渉縞のみならずモ
アレ縞やスペックル縞、その他の種々の縞画像に対して
も同様に適用可能である。
In the above embodiment, the interference fringe image data is imaged using a Michelson interferometer, but the interference fringe image data obtained using another Fizeau-type interferometer is used. Of course, the same can be applied to Further, the present invention can be similarly applied to not only interference fringes but also moire fringes, speckle fringes, and other various fringe images.

【0052】[0052]

【発明の効果】本発明の縞解析方法および装置によれ
ば、縞画像領域を包含する全体画像領域に対して、全体
画像領域内における縞画像領域のエッジを検出するエッ
ジ検出処理と、エッジを強調する強調処理とを行ない、
さらに全体画像領域に対して、エッジが認識できる範囲
で前記縞画像領域内の濃度値を平均化する拡散処理を行
なうことにより、縞画像領域を特定してマスキングの範
囲を決定するので、マスキング作業を一意的に安定して
行なうことができ、これにより、安定した解析結果を得
ることができる。また、特には、マスキング作業を自動
化して、解析効率を高めることも可能となる。
According to the fringe analyzing method and apparatus of the present invention, an edge detecting process for detecting an edge of a fringe image area in the entire image area for an entire image area including the fringe image area is performed. Perform emphasis processing to emphasize,
Furthermore, by performing a diffusion process for averaging the density values in the stripe image region within a range in which the edge can be recognized with respect to the entire image region, the stripe image region is specified and the masking range is determined. Can be uniquely and stably performed, whereby a stable analysis result can be obtained. In particular, it is also possible to automate the masking operation and increase the analysis efficiency.

【図面の簡単な説明】[Brief description of the drawings]

【図1】被観察体の干渉縞画像データの一例を表す概略
FIG. 1 is a schematic diagram illustrating an example of interference fringe image data of an object to be observed.

【図2】図1の画像データにエッジ検出処理をした一例
を表す概略図
FIG. 2 is a schematic diagram showing an example in which edge detection processing has been performed on the image data of FIG. 1;

【図3】図2の画像データに強調処理をした一例を表す
概略図
FIG. 3 is a schematic diagram illustrating an example in which the image data of FIG. 2 is subjected to an enhancement process;

【図4】図3の画像データにもう一度強調処理をした一
例を表す概略図
FIG. 4 is a schematic diagram showing an example in which the image data of FIG.

【図5】図4の画像データに拡散処理をした一例を表す
概略図
FIG. 5 is a schematic diagram showing an example of performing diffusion processing on the image data of FIG. 4;

【図6】図5の画像データに縞画像領域に輪郭をトレー
スした一例を表す概略図
FIG. 6 is a schematic diagram illustrating an example of tracing a contour in a stripe image area in the image data of FIG. 5;

【図7】図6の画像データの輪郭を平滑化した一例を表
す概略図
FIG. 7 is a schematic diagram illustrating an example in which the outline of the image data in FIG. 6 is smoothed;

【図8】周波数座標系におけるスペクトルのピークの一
例を表す概略図
FIG. 8 is a schematic diagram illustrating an example of a spectrum peak in a frequency coordinate system.

【図9】被観察体表面の形状を解析した結果の一例を表
す概略図
FIG. 9 is a schematic diagram illustrating an example of a result of analyzing a shape of a surface of an object to be observed.

【図10】本発明の一実施形態装置を示すブロック図FIG. 10 is a block diagram illustrating an apparatus according to an embodiment of the present invention.

【図11】図9の一部を詳細に説明するためのブロック
FIG. 11 is a block diagram for explaining a part of FIG. 9 in detail;

【符号の説明】[Explanation of symbols]

1 マイケルソン型干渉計 2 被観察体表面 3 参照面 4 撮像カメラ 5 CCD 7 コンピュータ 7A モニタ画面 9 ピエゾ駆動部 10 PZTアクチュエータ 11 エッジ検出強調手段 12 拡散処理手段 13 マスキング範囲決定手段 DESCRIPTION OF SYMBOLS 1 Michelson-type interferometer 2 Observed object surface 3 Reference surface 4 Imaging camera 5 CCD 7 Computer 7A Monitor screen 9 Piezo drive unit 10 PZT actuator 11 Edge detection enhancement unit 12 Diffusion processing unit 13 Masking range determination unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F064 AA11 BB03 EE01 GG12 GG22 GG70 HH03 HH08 JJ01 JJ15 2G086 HH06  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2F064 AA11 BB03 EE01 GG12 GG22 GG70 HH03 HH08 JJ01 JJ15 2G086 HH06

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 被観察体の波面情報を担持した縞画像領
域を包含する全体画像領域内において前記縞画像領域を
マスキングにより抽出し、この抽出結果に基づき解析を
行ない前記波面情報を求める縞解析方法において、 前記全体画像領域に対して、該全体画像領域内における
前記縞画像領域のエッジを検出するエッジ検出処理と、
前記エッジを強調する強調処理とを施し、 さらに前記全体画像領域に対して、前記エッジが認識で
きる範囲で前記縞画像領域内の濃度値を平均化する拡散
処理を施すことにより、前記縞画像領域を特定して前記
マスキングの範囲を決定することを特徴とする縞解析方
法。
1. A fringe analysis for extracting said fringe image area by masking in an entire image area including a fringe image area carrying wavefront information of an object to be observed, and performing analysis based on the extraction result to obtain said wavefront information. In the method, for the entire image area, edge detection processing for detecting an edge of the stripe image area in the entire image area;
The emphasis processing for emphasizing the edge is performed. Further, the entire image area is subjected to a diffusion processing for averaging density values in the fringe image area in a range where the edge can be recognized, so that the fringe image area is And determining a range of the masking.
【請求項2】 前記特定された縞画像領域の輪郭線を抽
出し、該抽出された輪郭線の内外で2値化処理を施すこ
とにより、前記縞画像領域の形状を決定することを特徴
とする請求項1記載の縞解析方法。
2. The shape of the striped image area is determined by extracting a contour of the specified striped image area and performing a binarization process on the inside and outside of the extracted contour line. The fringe analysis method according to claim 1.
【請求項3】 前記エッジ検出処理および強調処理が、
微分または差分演算処理を用いて行なわれることを特徴
とする請求項1または2記載の縞解析方法。
3. The edge detection process and the enhancement process
3. The fringe analyzing method according to claim 1, wherein the fringe analyzing method is performed by using a differential or difference calculation process.
【請求項4】 前記拡散処理が、メディアンフィルタを
用いて行なわれることを特徴とする請求項3記載の縞解
析方法。
4. The fringe analysis method according to claim 3, wherein said diffusion processing is performed using a median filter.
【請求項5】 前記輪郭線に平滑化処理を施し、平滑化
されたマスク輪郭を得ることを特徴とする請求項3また
は4記載の縞解析方法。
5. The fringe analysis method according to claim 3, wherein a smoothing process is performed on the outline to obtain a smoothed mask outline.
【請求項6】 被観察体の波面情報を担持した縞画像領
域を包含する全体画像領域内において前記縞画像領域を
マスキングにより抽出し、この抽出結果に基づき解析を
行ない前記波面情報を求める縞解析装置において、 前記全体画像領域に対して、該全体画像領域内における
前記縞画像領域のエッジを検出するエッジ検出処理と、
前記エッジを強調する強調処理とを行なうエッジ検出強
調手段と、 該エッジ検出強調手段により処理された前記全画像領域
に対して、前記エッジが認識できる範囲で前記縞画像領
域内の濃度値を平均化する拡散処理を行う拡散処理手段
と、 前記エッジ検出強調手段および前記拡散処理手段により
処理された前記全画像内において前記縞画像領域を特定
して前記マスキングの範囲を決定するマスキング範囲決
定手段とを備えてなることを特徴とする縞解析装置。
6. A fringe analysis for extracting said fringe image area by masking within an entire image area including a fringe image area carrying wavefront information of an object to be observed, and performing analysis based on the extraction result to obtain said wavefront information. In the apparatus, for the entire image area, edge detection processing for detecting an edge of the stripe image area in the entire image area,
Edge detection and enhancement means for performing enhancement processing for enhancing the edge; and, for the entire image area processed by the edge detection and enhancement means, average density values in the stripe image area within a range in which the edge can be recognized. Diffusion processing means for performing a diffusion processing for converting, and a masking range determination means for determining the masking range by specifying the stripe image area in the entire image processed by the edge detection enhancement means and the diffusion processing means; A fringe analyzing apparatus comprising:
JP2001093731A 2001-03-28 2001-03-28 Method and device for analyzing fringe Withdrawn JP2002286411A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001093731A JP2002286411A (en) 2001-03-28 2001-03-28 Method and device for analyzing fringe

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001093731A JP2002286411A (en) 2001-03-28 2001-03-28 Method and device for analyzing fringe

Publications (1)

Publication Number Publication Date
JP2002286411A true JP2002286411A (en) 2002-10-03

Family

ID=18948030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001093731A Withdrawn JP2002286411A (en) 2001-03-28 2001-03-28 Method and device for analyzing fringe

Country Status (1)

Country Link
JP (1) JP2002286411A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007064966A (en) * 2005-07-19 2007-03-15 Pentax Corp Method of optically adjusting optical element
JP2008051749A (en) * 2006-08-28 2008-03-06 Mitsutoyo Corp Light wave interference measurement device
JP2009063398A (en) * 2007-09-06 2009-03-26 Iwasaki Electric Co Ltd Apparatus and method for detecting oil film
WO2017065130A1 (en) * 2015-10-13 2017-04-20 学校法人 関西大学 Image reproduction device, image reproduction method, and digital holography device
WO2017161496A1 (en) * 2016-03-22 2017-09-28 广东虚拟现实科技有限公司 Fringe set searching method, device and system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007064966A (en) * 2005-07-19 2007-03-15 Pentax Corp Method of optically adjusting optical element
JP2008051749A (en) * 2006-08-28 2008-03-06 Mitsutoyo Corp Light wave interference measurement device
JP2009063398A (en) * 2007-09-06 2009-03-26 Iwasaki Electric Co Ltd Apparatus and method for detecting oil film
WO2017065130A1 (en) * 2015-10-13 2017-04-20 学校法人 関西大学 Image reproduction device, image reproduction method, and digital holography device
WO2017161496A1 (en) * 2016-03-22 2017-09-28 广东虚拟现实科技有限公司 Fringe set searching method, device and system
US10795456B2 (en) 2016-03-22 2020-10-06 Guangdong Virtual Reality Technology Co., Ltd. Method, device and terminal for determining effectiveness of stripe set

Similar Documents

Publication Publication Date Title
JP6358351B1 (en) Surface defect inspection method and surface defect inspection apparatus
Trusiak et al. Advanced processing of optical fringe patterns by automated selective reconstruction and enhanced fast empirical mode decomposition
JP4644819B2 (en) Minute displacement measurement method and apparatus
JP2005539255A (en) System and method for capturing and processing composite images System and method for capturing and processing composite images
EP1958158B1 (en) Method for detecting streaks in digital images
KR102582261B1 (en) Method for determining a point spread function of an imaging system
JP2018509616A (en) Imaging system and how to use it
US5436462A (en) Video contour measurement system employing moire interferometry having a beat frequency pattern
KR101018518B1 (en) Structure inspection system using image deblurring technique and method of thereof
Wu et al. An objective out-of-focus blur measurement
JP2016000139A (en) Phase information acquisition device and imaging system
US11869207B2 (en) Determination of a true shape of an object based on transformation of its optical image
Khan et al. High-density single shot 3D sensing using adaptable speckle projection system with varying preprocessing
Borza Full-field vibration amplitude recovery from high-resolution time-averaged speckle interferograms and digital holograms by regional inverting of the Bessel function
JP2018009849A (en) Inspection system and inspection method
US6577383B1 (en) Method of determining structural features of test pieces having a randomly scattering surface
JP2002286411A (en) Method and device for analyzing fringe
CN111968143A (en) Edge image extraction method and system based on correlated imaging
JP2001174235A (en) Pattern analyzing method utilizing fourier transformation
Alvarado Escoto et al. The effect of bilateral filtering in 3D reconstruction using PSP
JP2006226706A (en) Defect detection method and program therefor
JP2018173338A (en) Three-dimensional shape measuring method using scanning white interference microscope
Yagnik et al. 3D shape extraction of human face in presence of facial hair: A profilometric approach
Bhuvaneswari et al. Edge detection techniques in digital and optical image processing
Stultz et al. Discussion of techniques that separate orthogonal data produced by Ronchi cross grating patterns

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603