JP2009265026A - Inspection device - Google Patents
Inspection device Download PDFInfo
- Publication number
- JP2009265026A JP2009265026A JP2008117530A JP2008117530A JP2009265026A JP 2009265026 A JP2009265026 A JP 2009265026A JP 2008117530 A JP2008117530 A JP 2008117530A JP 2008117530 A JP2008117530 A JP 2008117530A JP 2009265026 A JP2009265026 A JP 2009265026A
- Authority
- JP
- Japan
- Prior art keywords
- inspection
- image sensor
- wafer
- light
- optical system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Testing Or Measuring Of Semiconductors Or The Like (AREA)
Abstract
Description
本発明は、半導体素子や液晶表示素子等の製造過程において、被検基板の表面に形成されたパターンを検出する検査装置に関する。 The present invention relates to an inspection apparatus for detecting a pattern formed on a surface of a substrate to be tested in a manufacturing process of a semiconductor element, a liquid crystal display element, or the like.
従来、半導体ウェハや液晶ガラス基板等の被検基板の表面に形成されたパターンから発生する反射光を利用して、基板表面のムラや傷等の欠陥を検査する装置が種々提案されている(例えば、特許文献1を参照)。特に、近年では半導体プロセスの微細化に伴って、被検基板の欠陥管理にもより高い精度が求められている。 Conventionally, various apparatuses for inspecting defects such as unevenness and scratches on a substrate surface using reflected light generated from a pattern formed on the surface of a substrate to be tested such as a semiconductor wafer or a liquid crystal glass substrate have been proposed ( For example, see Patent Document 1). In particular, in recent years, with the miniaturization of semiconductor processes, higher accuracy is also required for defect management of the test substrate.
例えば、被検基板のパターン幅の測定をSEM(走査型電子顕微鏡)で行った場合、測定精度は高いが、観察倍率が高く何点かをサンプリングして測定を行うため、測定に膨大な時間がかかってしまう。そこで、光源から射出された所定波長の光を偏光子および対物レンズを介して落射照明により被検基板の表面に照射し、当該照明による被検基板からの反射光を、対物レンズ、偏光子とクロスニコルの条件を満足する検光子、および視野絞り等を介して得られるフーリエ画像をCCDカメラで検出し、フーリエ画像内で感度の高い所を選択することにより、高感度でパターン幅の変化を検出する検査装置が提案されている。
しかしながら、上述のような方法では、画像を得るために長いデータ転送時間が必要になってしまう。 However, the method as described above requires a long data transfer time to obtain an image.
本発明は、このような問題に鑑みてなされたものであり、高い感度で高速に検査を行うことが可能な検査装置を提供することを目的とする。 The present invention has been made in view of such a problem, and an object of the present invention is to provide an inspection apparatus capable of performing high-speed inspection with high sensitivity.
このような目的達成のため、本発明に係る検査装置は、被検基板の表面に照明光を照射する照明部と、前記照明光が照射された前記被検基板の表面を観察するための光学系と、前記光学系の瞳面または瞳面と共役な面における光を検出するイメージセンサと、前記イメージセンサにより検出された光情報を読み出して、前記光情報に基づき前記被検基板の表面を検査する検査部と、前記イメージセンサにおける前記検査に適する部分を求める設定部とを備え、前記イメージセンサにおいては、前記光情報を画素単位で部分的に読み出すことが可能であり、前記検査部は、前記イメージセンサにおける前記検査に適する部分の光情報を読み出して前記検査するようになっている。 In order to achieve such an object, an inspection apparatus according to the present invention includes an illumination unit that irradiates illumination light onto a surface of a test substrate, and an optical for observing the surface of the test substrate irradiated with the illumination light. A system, an image sensor for detecting light on a pupil plane of the optical system or a plane conjugate with the pupil plane, and optical information detected by the image sensor, and reading the surface of the substrate to be tested based on the optical information An inspection unit for inspecting, and a setting unit for obtaining a portion suitable for the inspection in the image sensor. In the image sensor, the optical information can be partially read out in units of pixels. The inspection is performed by reading out the optical information of the part suitable for the inspection in the image sensor.
なお、上述の発明において、前記イメージセンサがCMOSイメージセンサであることが好ましい。 In the above invention, the image sensor is preferably a CMOS image sensor.
また、上述の発明において、前記照明光は、繰り返しパターンを有する前記被検基板の表面に照射される直線偏光であり、前記光学系は、前記照明光が照射された前記被検基板の表面からの反射光のうち前記直線偏光と偏光方向が略直交する偏光成分を受光することが好ましい。 Moreover, in the above-mentioned invention, the illumination light is linearly polarized light irradiated on the surface of the test substrate having a repetitive pattern, and the optical system is formed from the surface of the test substrate irradiated with the illumination light. Of the reflected light, it is preferable to receive a polarized light component whose polarization direction is substantially orthogonal to the linearly polarized light.
また、上述の発明において、前記照明部は、落射照明により前記照明光を前記被検基板の表面に照射することが好ましい。 Moreover, in the above-mentioned invention, it is preferable that the illuminating unit irradiates the surface of the test substrate with the illumination light by epi-illumination.
本発明によれば、高い感度で高速に検査を行うことが可能になる。 According to the present invention, it is possible to perform inspection at high speed with high sensitivity.
以下、図面を参照して本発明の好ましい実施形態について説明する。本発明に係る検査装置を図1に示している。本実施形態の検査装置1は、図1に示すように、ウェハステージ5と、対物レンズ6と、ハーフミラー7と、照明光学系10と、検出光学系20と、制御ユニット40とを主体に構成される。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. An inspection apparatus according to the present invention is shown in FIG. As shown in FIG. 1, the inspection apparatus 1 according to the present embodiment mainly includes a wafer stage 5, an objective lens 6, a half mirror 7, an illumination optical system 10, a detection optical system 20, and a control unit 40. Composed.
ウェハステージ5には、パターン(繰り返しパターン)の形成面を上にした状態で被検基板である半導体ウェハW(以下、ウェハWと称する)が載置される。このウェハステージ5は、互いに直交するx,y,z軸の3方向へ移動可能に構成されている(なお、図1の上下方向をz軸方向とする)。これにより、ウェハステージ5は、ウェハWをx,y,z軸方向へ移動可能に支持することができる。また、ウェハステージ5は、z軸を中心に回転できるように構成されている。 On the wafer stage 5, a semiconductor wafer W (hereinafter referred to as a wafer W), which is a substrate to be tested, is placed with the pattern (repetitive pattern) formation surface facing upward. The wafer stage 5 is configured to be movable in three directions of x, y, and z axes orthogonal to each other (note that the vertical direction in FIG. 1 is the z axis direction). Thereby, the wafer stage 5 can support the wafer W so as to be movable in the x-, y-, and z-axis directions. The wafer stage 5 is configured to be rotatable about the z axis.
照明光学系10は、図1の左側から右側へ向けて配置順に、光源11(例えば、白色LEDやハロゲンランプ等)と、集光レンズ12と、照度均一化ユニット13と、開口絞り14と、視野絞り15と、コリメータレンズ16と、着脱可能な偏光子17(偏光フィルタ)とを有して構成される。 The illumination optical system 10 includes a light source 11 (for example, a white LED or a halogen lamp), a condenser lens 12, an illuminance uniformizing unit 13, an aperture stop 14 in order of arrangement from the left side to the right side in FIG. A field stop 15, a collimator lens 16, and a detachable polarizer 17 (polarization filter) are included.
ここで、照明光学系10の光源11から放出された光は、集光レンズ12および照度均一化ユニット13を介して、開口絞り14および視野絞り15に導かれる。照度均一化ユニット13は、照明光を散乱し、光量分布を均一化する。また、干渉フィルタを含めることもできる。開口絞り14および視野絞り15は、照明光学系10の光軸に対して開口部の大きさおよび位置が変更可能に構成されている。したがって、照明光学系10では、開口絞り14および視野絞り15を操作することによって、照明領域の大きさおよび位置の変更と、照明の開口角の調整とを行うことができる。そして、開口絞り14および視野絞り15を通過した光は、コリメータレンズ16によって平行光にされた後に偏光子17を通過してハーフミラー7に入射する。 Here, the light emitted from the light source 11 of the illumination optical system 10 is guided to the aperture stop 14 and the field stop 15 via the condenser lens 12 and the illuminance equalizing unit 13. The illuminance uniformizing unit 13 scatters illumination light and uniformizes the light quantity distribution. An interference filter can also be included. The aperture stop 14 and the field stop 15 are configured such that the size and position of the opening can be changed with respect to the optical axis of the illumination optical system 10. Therefore, in the illumination optical system 10, by operating the aperture stop 14 and the field stop 15, the size and position of the illumination area can be changed and the aperture angle of the illumination can be adjusted. The light that has passed through the aperture stop 14 and the field stop 15 is collimated by the collimator lens 16, passes through the polarizer 17, and enters the half mirror 7.
ハーフミラー7は、照明光学系10からの光を下方に反射して対物レンズ6に導く。これにより、対物レンズ6を通過した照明光学系10からの光でウェハWが落射照明される。一方、ウェハWに落射照明された光は、ウェハWで反射して再び対物レンズ6に戻り、ハーフミラー7を透過して検出光学系20に入射することができる。 The half mirror 7 reflects light from the illumination optical system 10 downward and guides it to the objective lens 6. Thereby, the wafer W is incidentally illuminated by the light from the illumination optical system 10 that has passed through the objective lens 6. On the other hand, the light incident on the wafer W can be reflected by the wafer W, return to the objective lens 6 again, pass through the half mirror 7, and enter the detection optical system 20.
検出光学系20は、図1の下側から上側に向けて配置順に、着脱可能な検光子21(偏光フィルタ)と、レンズ22と、ハーフプリズム23と、ベルトランレンズ24と、視野絞り25と、2次元撮像素子33とを有して構成される。検光子21は、照明光学系10の偏光子17に対してクロスニコルの状態(偏光方向が直交する状態)となるように配置されている。照明光学系10の偏光子17と検出光学系20の検光子21とはクロスニコルの条件を満たすので、ウェハWのパターンで偏光主軸が回転しない限り、検出光学系20で受光される光量は零に近くなる。 The detection optical system 20 includes a detachable analyzer 21 (polarization filter), a lens 22, a half prism 23, a belt run lens 24, a field stop 25, in order of arrangement from the lower side to the upper side in FIG. And a two-dimensional image sensor 33. The analyzer 21 is arranged so as to be in a crossed Nicols state (a state in which the polarization directions are orthogonal) with respect to the polarizer 17 of the illumination optical system 10. Since the polarizer 17 of the illumination optical system 10 and the analyzer 21 of the detection optical system 20 satisfy the condition of crossed Nicols, the amount of light received by the detection optical system 20 is zero unless the polarization main axis rotates in the pattern of the wafer W. Close to.
ハーフプリズム23は入射光束を二方向に分岐させる。ハーフプリズム23を通過する一方の光束は、ベルトランレンズ24を介して視野絞り25にウェハWの表面の像を結像させるとともに、対物レンズ6の瞳面の像を2次元撮像素子33に投影させるので、2次元撮像素子33の撮像面に対物レンズ6の瞳面上の輝度分布が再現されて、2次元撮像素子33によりフーリエ変換されたウェハWの画像(フーリエ画像)を撮像することが可能である。なお、ベルトランレンズ(Bertrand lens)は、一般に、対物レンズの後部焦点面の像を接眼レンズの焦点面に結ばせる収束レンズをいうが、顕微鏡等の光学系は一般に像側がテレセントリックな状態であり、対物レンズの後部焦点面が瞳面となるため、本実施形態において、2次元撮像素子33の撮像面に対物レンズ6の瞳面の像を結像させるレンズ24をベルトランレンズ24と称することにする。 The half prism 23 branches the incident light beam in two directions. One light beam passing through the half prism 23 forms an image of the surface of the wafer W on the field stop 25 via the belt run lens 24 and projects the image of the pupil plane of the objective lens 6 onto the two-dimensional image sensor 33. Therefore, the luminance distribution on the pupil plane of the objective lens 6 is reproduced on the imaging surface of the two-dimensional image sensor 33, and an image (Fourier image) of the wafer W Fourier-transformed by the two-dimensional image sensor 33 can be captured. It is. The Bertrand lens is generally a converging lens that connects the image of the rear focal plane of the objective lens to the focal plane of the eyepiece, but an optical system such as a microscope is generally telecentric on the image side. Since the rear focal plane of the objective lens is the pupil plane, in this embodiment, the lens 24 that forms an image of the pupil plane of the objective lens 6 on the imaging plane of the two-dimensional imaging device 33 is referred to as a belt run lens 24. .
また、視野絞り25は、検出光学系20の光軸に対して垂直方向の面内で開口形状を変化させることができる。そのため、視野絞り25の操作によって、ウェハWの任意の領域での情報を2次元撮像素子33が検出できるようになる。また、ハーフプリズム23を通過する他方の光束は、フーリエ変換されていない通常のウェハWの画像を撮像するための第2の2次元撮像素子50に導かれる。 The field stop 25 can change the aperture shape in a plane perpendicular to the optical axis of the detection optical system 20. Therefore, the two-dimensional image sensor 33 can detect information in an arbitrary region of the wafer W by operating the field stop 25. The other light beam passing through the half prism 23 is guided to a second two-dimensional image sensor 50 for capturing an image of a normal wafer W that has not been Fourier-transformed.
ここで、本実施形態の欠陥検査でフーリエ画像(すなわち、対物レンズ6の瞳面の像)を撮像するのは以下の理由による。欠陥検査においてウェハWのパターンをそのまま撮像した画像を用いると、パターンのピッチが検査装置の分解能以下のときには、パターンの欠陥を光学的に検出できなくなる。一方、フーリエ画像では、ウェハWのパターンに欠陥があると反射光の対称性が崩れ、構造性複屈折によりフーリエ画像の光軸に対して直交する部分同士の輝度や色などに変化が生じる。そのため、パターンのピッチが検査装置の分解能以下のときでも、フーリエ画像における上記の変化を検出することでパターンの欠陥検出が可能になる。 Here, the reason why the Fourier image (that is, the image of the pupil plane of the objective lens 6) is imaged in the defect inspection of the present embodiment is as follows. If an image obtained by directly imaging the pattern of the wafer W is used in the defect inspection, the pattern defect cannot be optically detected when the pattern pitch is less than the resolution of the inspection apparatus. On the other hand, in the Fourier image, if there is a defect in the pattern of the wafer W, the symmetry of the reflected light is lost, and the luminance, color, etc. of portions orthogonal to the optical axis of the Fourier image change due to structural birefringence. Therefore, even when the pattern pitch is less than the resolution of the inspection apparatus, it is possible to detect a defect in the pattern by detecting the change in the Fourier image.
さらに、図2を参照しつつ、ウェハWへの照明光の入射角度と瞳面内での結像位置との関係を説明する。図2の破線で示すように、ウェハWへの照明光の入射角度が0°のときには、瞳上の結像位置は瞳中心となる。一方、図2の実線で示すように、入射角度が64°(NA=0.9相当)のときには、瞳上の結像位置は瞳の外縁部となる。すなわち、ウェハWへの照明光の入射角度は、瞳上では瞳内の半径方向の位置に対応する。また、瞳内の光軸から同一半径内の位置に結像する光は、ウェハWに同一角度で入射した光である。 Further, the relationship between the incident angle of the illumination light on the wafer W and the imaging position in the pupil plane will be described with reference to FIG. As shown by the broken line in FIG. 2, when the incident angle of the illumination light to the wafer W is 0 °, the imaging position on the pupil is the pupil center. On the other hand, as shown by the solid line in FIG. 2, when the incident angle is 64 ° (corresponding to NA = 0.9), the imaging position on the pupil is the outer edge of the pupil. That is, the incident angle of the illumination light on the wafer W corresponds to the radial position in the pupil on the pupil. Further, the light that forms an image at a position within the same radius from the optical axis in the pupil is light that is incident on the wafer W at the same angle.
2次元撮像素子33は、ベイヤ配列のカラーフィルタアレイを有するCMOSイメージセンサであり、前述のフーリエ画像を撮像し、さらに、読み出しエリアを画素単位で自由に設定できるので、必要な画素データ(光情報)のみを高速に読み出すことができる。なお、このような部分読み出しを可能にする回路が2次元撮像素子33に(オンチップで)配設されている。 The two-dimensional image pickup device 33 is a CMOS image sensor having a Bayer array color filter array, picks up the above-described Fourier image, and can freely set a readout area in units of pixels. ) Only at high speed. Note that a circuit that enables such partial reading is provided in the two-dimensional image sensor 33 (on-chip).
制御ユニット40は、フーリエ画像のデータを記録する記録部41と、入力インターフェース42と、各種の演算処理を実行するCPU43と、モニタ44および操作部45とを有して構成され、検査装置1の統括的な制御を実行する。また、記録部41、入力インターフェース42、モニタ44および操作部45は、それぞれCPU43と電気的に接続されている。CPU43は、プログラムの実行によってフーリエ画像を解析し、2次元撮像素子33で撮像されるフーリエ画像の中でパターンの変化に対して感度の高い領域を求めたり、前記フーリエ画像の中でウェハWのパターンの変化に対して感度の高い領域のみを読み込んだりする。また、入力インターフェース42は、記録媒体(図示せず)を接続するコネクタや、外部のコンピュータ(図示せず)と接続するための接続端子を有しており、記録媒体またはコンピュータからデータの読み込みを行う。 The control unit 40 includes a recording unit 41 that records Fourier image data, an input interface 42, a CPU 43 that executes various arithmetic processes, a monitor 44, and an operation unit 45. Perform overall control. The recording unit 41, the input interface 42, the monitor 44, and the operation unit 45 are electrically connected to the CPU 43, respectively. The CPU 43 analyzes the Fourier image by executing the program, obtains a region having high sensitivity to the change of the pattern in the Fourier image picked up by the two-dimensional image pickup device 33, or the wafer W in the Fourier image. Read only areas that are sensitive to pattern changes. The input interface 42 has a connector for connecting a recording medium (not shown) and a connection terminal for connecting to an external computer (not shown), and reads data from the recording medium or the computer. Do.
以上のように構成される検査装置1を用いてウェハWを検査する方法について、図3〜図4に示すフローチャートを参照しながら説明する。まず、図3に示すフローチャートを用いて、2次元撮像素子33で撮像されるフーリエ画像の中で、パターンの変化に対して感度の高い領域を決定する方法について説明する。感度の高い領域の決定方法は、まず、ステップS101において、照明光学系10の偏光子17と検出光学系20の検光子21を光軸上に挿入する。次のステップS102において、照明光学系10の光源11を点灯させる。 A method for inspecting the wafer W using the inspection apparatus 1 configured as described above will be described with reference to the flowcharts shown in FIGS. First, a method for determining a region having high sensitivity to a pattern change in a Fourier image captured by the two-dimensional image sensor 33 will be described using the flowchart shown in FIG. In the determination method of the highly sensitive region, first, in step S101, the polarizer 17 of the illumination optical system 10 and the analyzer 21 of the detection optical system 20 are inserted on the optical axis. In the next step S102, the light source 11 of the illumination optical system 10 is turned on.
次のステップS103において、繰り返しパターンが形成されたウェハWをウェハステージ5上に載置し、ウェハW上の測定するパターン(1ショット分)をウェハステージ5により対物レンズ6の下方に移動させる。このとき、露光条件(ドーズおよびフォーカス)がそれぞれ異なる複数の同一形状のパターンを形成したウェハWを使用する。なお、ウェハWはウェハステージ5上でアライメント(位置合わせ)されており、ウェハステージ5の位置制御により任意の位置の観察が可能となっている。 In the next step S <b> 103, the wafer W on which the repeated pattern is formed is placed on the wafer stage 5, and the pattern to be measured (one shot) on the wafer W is moved below the objective lens 6 by the wafer stage 5. At this time, a wafer W on which a plurality of patterns having the same shape with different exposure conditions (dose and focus) are used is used. The wafer W is aligned (positioned) on the wafer stage 5, and an arbitrary position can be observed by controlling the position of the wafer stage 5.
そうすると、光源11から放出された照明光は、集光レンズ12および照度均一化ユニット13を介して、開口絞り14および視野絞り15を通過し、コリメータレンズ16で平行光にされた後に偏光子17を通過してハーフミラー7で反射した後、対物レンズ6を通ってウェハWに照射される。そして、ウェハWからの反射光は、対物レンズ6およびハーフミラー7を通過して検出光学系20に入射し、検出光学系20に入射した光は、検光子21、レンズ22、ハーフプリズム23、ベルトランレンズ24、および視野絞り25を通過し、2次元撮像素子33の撮像面にフーリエ像が投影される。 Then, the illumination light emitted from the light source 11 passes through the aperture stop 14 and the field stop 15 via the condenser lens 12 and the illuminance uniformizing unit 13, and is converted into parallel light by the collimator lens 16 and then the polarizer 17. After being reflected by the half mirror 7, the wafer W is irradiated through the objective lens 6. Then, the reflected light from the wafer W passes through the objective lens 6 and the half mirror 7 and enters the detection optical system 20, and the light incident on the detection optical system 20 includes the analyzer 21, the lens 22, the half prism 23, A Fourier image is projected on the imaging surface of the two-dimensional imaging device 33 through the Bertrand lens 24 and the field stop 25.
そこで、次のステップS104において、2次元撮像素子33でフーリエ像を撮像し、撮像したフーリエ画像を記録部41に記録する。 Therefore, in the next step S104, a Fourier image is captured by the two-dimensional image sensor 33, and the captured Fourier image is recorded in the recording unit 41.
次のステップS105において、CPU43は、ウェハW上の必要な全てのパターンについて撮像が済んだか否かを判定する。判定がYesであればステップS106へ進み、判定がNoであればステップS103へ戻り、未だ撮像が済んでいないパターン(別のショット)を対物レンズ6の下方に移動させてステップS104の撮像を行う。これにより、記録部41には、同一形状のパターンについて露光条件が異なる複数のフーリエ画像のカラーデータが記録されることになる。 In the next step S105, the CPU 43 determines whether or not all necessary patterns on the wafer W have been imaged. If the determination is yes, the process proceeds to step S106, and if the determination is no, the process returns to step S103, and a pattern (another shot) that has not yet been imaged is moved below the objective lens 6 to perform image capture in step S104. . As a result, the recording unit 41 records color data of a plurality of Fourier images having different exposure conditions for the same shape pattern.
ステップS106では、CPU43は、各フーリエ画像について、フーリエ画像の各位置ごとにR(赤色)、G(緑色)、B(青色)の輝度データ(平均値)をそれぞれ生成する。輝度データの求め方は、まず、図5に示すように、フーリエ画像(例えば1フレーム目のフーリエ画像FI1)を縦横等間隔に正方格子状の複数の分割領域Pに分割し、フーリエ画像の分割領域Pごとに、RGBの輝度値の平均をそれぞれの色別に求める。そして、この工程を各々のフーリエ画像について行う。これにより、1フレーム目からnフレーム目までのフーリエ画像FI1〜FInについて、各フーリエ画像の分割領域Pごとに、R、G、Bの各色成分ごとの階調を示す輝度データがそれぞれ生成されることになる。 In step S106, the CPU 43 generates luminance data (average value) of R (red), G (green), and B (blue) for each position of the Fourier image for each Fourier image. First, as shown in FIG. 5, the luminance data is obtained by dividing a Fourier image (for example, the Fourier image FI 1 of the first frame) into a plurality of square lattice-like divided regions P at equal intervals in the vertical and horizontal directions. For each divided region P, an average of RGB luminance values is obtained for each color. This process is performed for each Fourier image. Thus, the Fourier image FI 1 ~FI n from the first frame to the n th frame, for each divided area P of each Fourier image, R, G, generates each luminance data indicating the gradation of each color component of B Will be.
次のステップS107において、図6に示すように同じ分割領域に注目し、CPU43は、同じ分割領域におけるフーリエ画像FI1〜FIn間での階調差を示す階調差データを、R、G、Bの各色成分ごとに生成する。具体的には、フーリエ画像FI上の任意の分割領域をPmとすると、まず、各々のフーリエ画像FI1〜FInについて、分割領域Pmでの各色成分の輝度データ(ステップS106で求めたもの)をそれぞれ抽出する。次に、分割領域Pmに対応する輝度データの階調値のうちで、R、G、Bの各色成分ごとの最大値と最小値とを抽出し、抽出した最大値と最小値との差分値を算出する。そして、これらの工程を全ての分割領域について行う。これにより、フーリエ画像の全ての分割領域について、分割領域Pmにおけるフーリエ画像間での階調差を示す階調差データ(階調の最大値と最小値との差分値)が、R、G、Bの各色成分ごとに生成されることになる。 In the next step S107, paying attention to the same divided area as shown in FIG. 6, the CPU 43 converts the gradation difference data indicating the gradation difference between the Fourier images FI 1 to FI n in the same divided area into R, G , B for each color component. Specifically, assuming that an arbitrary divided region on the Fourier image FI is P m , first, for each Fourier image FI 1 to FI n , luminance data of each color component in the divided region P m (obtained in step S106). Each). Then, the difference among the gradation values of luminance data corresponding to the divided area P m, R, G, and maximum and minimum values extracts the maximum and minimum values of each color component, extracted in B Calculate the value. And these processes are performed about all the division areas. Thus, for all the divided areas of the Fourier image, gradation difference data indicating a gradation difference between the Fourier image in the divided area P m (the difference value between the maximum value and the minimum value of the gradation) is, R, G , B are generated for each color component.
そして、ステップS108において、CPU43は、ステップS107で求めた階調差データ(階調の最大値と最小値との差分値)に基づいて、フーリエ画像の分割領域うち、階調の最大値と最小値との差分値が最大となる色と分割領域を求め、当該分割領域を感度の高い領域と決定し、そこを検出条件に決める。図7〜図9は、フーリエ画像の各分割領域における階調差の分布状態を色成分ごとに示した図である。図7〜図9の例において、図9に示すBの階調差の左上の領域が最大感度の領域となる。このようにすれば、パターンの線幅やプロファイルの変化を感度よく検出するために、R、G、Bのどの色を使い、フーリエ画像の中でどの分割領域を使用すればよいか決定することができる。 In step S108, the CPU 43 determines the maximum and minimum gradation values among the divided areas of the Fourier image based on the gradation difference data (difference value between the maximum and minimum gradation values) obtained in step S107. A color and a divided region having a maximum difference value from the value are obtained, the divided region is determined as a region having high sensitivity, and this is determined as a detection condition. 7 to 9 are diagrams showing the distribution state of the gradation difference in each divided region of the Fourier image for each color component. In the examples of FIGS. 7 to 9, the upper left area of the gradation difference B shown in FIG. 9 is the maximum sensitivity area. In this way, in order to detect a change in the line width and profile of the pattern with high sensitivity, it is determined which color of R, G, and B should be used and which divided region should be used in the Fourier image. Can do.
上述のようにして、未知のパターンの変化を2次元撮像素子33で撮像した画像より検出することが可能になる。ところが、2次元撮像素子33にCCDイメージセンサを使用すると、データの読み出しには全画素を読み出さなければならないため、読み出し時間が長くなってしまいスループットが上がらない。 As described above, it is possible to detect an unknown pattern change from an image captured by the two-dimensional image sensor 33. However, when a CCD image sensor is used for the two-dimensional image sensor 33, all pixels must be read for reading data, so that the reading time becomes long and throughput does not increase.
そこで、図4に示すフローチャートを用いて、高い感度で高速にパターンの変化を検出する方法について説明する。このパターンの検出方法は、まず、ステップS201において、照明光学系10の偏光子17と検出光学系20の検光子21を光軸上に挿入する。次に、ステップS202において、CPU43は、ステップS101〜S108で求めた最大感度の領域のみを読み出すように2次元撮像素子33の読み出しエリア(画素)を設定する。 A method for detecting a change in pattern at high speed with high sensitivity will be described with reference to the flowchart shown in FIG. In this pattern detection method, first, in step S201, the polarizer 17 of the illumination optical system 10 and the analyzer 21 of the detection optical system 20 are inserted on the optical axis. Next, in step S202, the CPU 43 sets a reading area (pixel) of the two-dimensional image sensor 33 so as to read only the region of the maximum sensitivity obtained in steps S101 to S108.
次のステップS203では、照明光学系10の光源11を点灯させる。次に、ステップS204において、検査するウェハWをウェハステージ5上に載置し、ウェハW上の検査するパターン(1ショット分)をウェハステージ5により対物レンズ6の下方に移動させる。 In the next step S203, the light source 11 of the illumination optical system 10 is turned on. Next, in step S <b> 204, the wafer W to be inspected is placed on the wafer stage 5, and the pattern to be inspected (for one shot) on the wafer W is moved below the objective lens 6 by the wafer stage 5.
そうすると、光源11から放出された照明光は、集光レンズ12および照度均一化ユニット13を介して、開口絞り14および視野絞り15を通過し、コリメータレンズ16で平行光にされた後に偏光子17を通過してハーフミラー7で反射した後、対物レンズ6を通ってウェハWに照射される。そして、ウェハWからの反射光は、対物レンズ6およびハーフミラー7を通過して検出光学系20に入射し、検出光学系20に入射した光は、検光子21、レンズ22、ハーフプリズム23、ベルトランレンズ24、および視野絞り25を通過し、2次元撮像素子33の撮像面にフーリエ像が投影される。 Then, the illumination light emitted from the light source 11 passes through the aperture stop 14 and the field stop 15 via the condenser lens 12 and the illuminance uniformizing unit 13, and is converted into parallel light by the collimator lens 16 and then the polarizer 17. After being reflected by the half mirror 7, the wafer W is irradiated through the objective lens 6. Then, the reflected light from the wafer W passes through the objective lens 6 and the half mirror 7 and enters the detection optical system 20, and the light incident on the detection optical system 20 includes the analyzer 21, the lens 22, the half prism 23, A Fourier image is projected on the imaging surface of the two-dimensional imaging device 33 through the Bertrand lens 24 and the field stop 25.
そして、次のステップS205において、CPU43は、ステップS202で設定した2次元撮像素子33の読み出しエリア(画素)より、フーリエ画像のうち、ウェハWのパターン変化に対して感度の高い領域の画素データのみを読み出し、読み出した画素データから反射光の輝度(光量)を測定して(輝度変化から)ウェハW上のパターンの変化(すなわち、パターンの欠陥)を検出する。例えば、2次元撮像素子33の画像サイズが800×600画素で、読み出しエリアのサイズが10×10画素の場合、読み出す画素の割合は0.02%なので、非常に早く読み出すことができる。 Then, in the next step S205, the CPU 43 determines only pixel data of a region that is highly sensitive to the pattern change of the wafer W in the Fourier image from the readout area (pixel) of the two-dimensional image sensor 33 set in step S202. , And the brightness (light quantity) of the reflected light is measured from the read pixel data (from the brightness change) to detect a change in the pattern on the wafer W (that is, a defect in the pattern). For example, when the image size of the two-dimensional image sensor 33 is 800 × 600 pixels and the size of the reading area is 10 × 10 pixels, the ratio of the pixels to be read is 0.02%, so that reading can be performed very quickly.
このように、本実施形態の検査装置1によれば、CPU43は、2次元撮像素子33における、ウェハWのパターン変化に対して感度の高い読み出しエリアの画素データ(光情報)のみを読み出すため、データを読み出す画素数を最小限にとどめてデータ転送時間を短縮できることから、ウェハWの表面に形成されたパターンを高い感度で高速に検査することが可能になる。なおこのとき、2次元撮像素子33としてCMOSイメージセンサを使用することが好ましく、このようにすれば、CMOSイメージセンサにおいては、このような部分読み出しを容易に行うことができるため、比較的容易に上記効果を得ることができる。 As described above, according to the inspection apparatus 1 of the present embodiment, the CPU 43 reads only pixel data (optical information) in a reading area with high sensitivity to the pattern change of the wafer W in the two-dimensional imaging element 33. Since the data transfer time can be shortened by minimizing the number of pixels from which data is read, the pattern formed on the surface of the wafer W can be inspected at high speed with high sensitivity. At this time, it is preferable to use a CMOS image sensor as the two-dimensional imaging device 33. In this way, in the CMOS image sensor, such partial reading can be easily performed, so that it is relatively easy. The above effects can be obtained.
また、前述したように、2次元撮像素子33を用いて、検出光学系20(対物レンズ6)における瞳面の輝度(フーリエ画像)を検出するようにすることが好ましく、このようにすれば、パターンのピッチが検査装置の分解能以下のときでも、フーリエ画像におけるパターンの変化を検出することでパターンの欠陥検出が可能になる。 Further, as described above, it is preferable to detect the luminance (Fourier image) of the pupil plane in the detection optical system 20 (objective lens 6) using the two-dimensional imaging device 33. In this way, Even when the pitch of the pattern is less than the resolution of the inspection apparatus, it is possible to detect a defect in the pattern by detecting a change in the pattern in the Fourier image.
またこのとき、検出光学系20は、ウェハWからの光のうち直線偏光である照明光と偏光方向が略直交する偏光成分を受光することが好ましく、このようにすれば、いわゆるクロスニコルの状態となって構造性複屈折を利用した感度の高い検査が可能になる。なお、偏光子17と検光子21の偏光方向は、90°(クロスニコルの状態)に限らず、検査対象のパターンで発生する構造性複屈折による楕円偏光の回転に合わせて微調整してもよい。 At this time, it is preferable that the detection optical system 20 receives a polarization component whose polarization direction is substantially orthogonal to the illumination light that is linearly polarized light out of the light from the wafer W. In this way, a so-called crossed Nicol state is obtained. Thus, a highly sensitive inspection using structural birefringence becomes possible. The polarization directions of the polarizer 17 and the analyzer 21 are not limited to 90 ° (in a crossed Nicol state), but may be finely adjusted according to the rotation of elliptically polarized light due to structural birefringence generated in the pattern to be inspected. Good.
またこのとき、落射照明によりウェハWの表面を照明することが好ましく、このようにすれば、装置の大きさを小型にすることができる。 At this time, it is preferable to illuminate the surface of the wafer W by epi-illumination. In this way, the size of the apparatus can be reduced.
なお、上述の実施形態において、ウェハWの欠陥検査を行う検査装置1を例に説明を行ったが、被検基板はウェハWに限られず、例えば液晶ガラス基板であっても構わない。 In the above-described embodiment, the inspection apparatus 1 that performs the defect inspection of the wafer W has been described as an example. However, the test substrate is not limited to the wafer W, and may be a liquid crystal glass substrate, for example.
また、上述の実施形態において、階調差データ(階調の最大値と最小値との差分値)に基づいて、パターンの変化に対して感度の高い領域を決定しているが、これに限られるものではない。そこで、図10に示すフローチャートを用いて、感度の高い領域の決定方法の変形例について説明する。この方法は、上述の実施形態の場合と同様に、露光条件(ドーズおよびフォーカス)がそれぞれ異なる複数の同一形状のパターンを形成したウェハWを用いて、各々のパターンのフーリエ画像とパターン毎の線幅のデータとに基づいて、パターンの変化に対して感度の高い領域を決定するものである。なお、上記のパターンに対応する線幅のデータは、例えば、スキャトロメータや走査型電子顕微鏡(SEM)等の線幅測定器で測定したものを利用し、これら線幅のデータ群は予め入力インターフェース42より入力して記録部41に記録されているものとする。 In the above-described embodiment, a region having high sensitivity to a change in pattern is determined based on the gradation difference data (difference value between the maximum value and the minimum value of the gradation). It is not something that can be done. Therefore, a modified example of the method for determining a highly sensitive region will be described using the flowchart shown in FIG. As in the case of the above-described embodiment, this method uses a wafer W on which a plurality of patterns having the same shape with different exposure conditions (dose and focus) are formed, and a Fourier image of each pattern and a line for each pattern. Based on the width data, a region having high sensitivity to the pattern change is determined. The line width data corresponding to the above pattern is obtained by using a line width measuring instrument such as a scatterometer or a scanning electron microscope (SEM), and these line width data groups are input in advance. It is assumed that the data is input from the interface 42 and recorded in the recording unit 41.
まず、前述の実施形態の場合と同様に、ステップS151において、照明光学系10の偏光子17と検出光学系20の検光子21を光軸上に挿入する。次のステップS152において、照明光学系10の光源11を点灯させる。 First, similarly to the above-described embodiment, in step S151, the polarizer 17 of the illumination optical system 10 and the analyzer 21 of the detection optical system 20 are inserted on the optical axis. In the next step S152, the light source 11 of the illumination optical system 10 is turned on.
次のステップS153において、露光条件(ドーズおよびフォーカス)がそれぞれ異なる複数の同一形状のパターンを形成したウェハWをウェハステージ5上に載置し、ウェハW上の測定するパターン(1ショット分)をウェハステージ5により対物レンズ6の下方に移動させる。次のステップS154において、2次元撮像素子33でフーリエ像を撮像し、撮像したフーリエ画像を記録部41に記録する。 In the next step S153, a wafer W on which a plurality of patterns having the same shape with different exposure conditions (dose and focus) are formed is placed on the wafer stage 5, and a pattern (one shot) to be measured on the wafer W is measured. The wafer stage 5 is moved below the objective lens 6. In the next step S154, a Fourier image is captured by the two-dimensional image sensor 33, and the captured Fourier image is recorded in the recording unit 41.
次のステップS155において、CPU43は、ウェハW上の全てのパターンについて撮像が済んだか否かを判定する。判定がYesであればステップS156へ進み、判定がNoであればステップS153へ戻り、未だ撮像が済んでいないパターン(別のショット)を対物レンズ6の下方に移動させてステップS154の撮像を行う。 In the next step S155, the CPU 43 determines whether or not imaging has been completed for all patterns on the wafer W. If the determination is yes, the process proceeds to step S156. If the determination is no, the process returns to step S153, and a pattern (another shot) that has not been imaged yet is moved below the objective lens 6 to perform the image capture in step S154. .
ステップS156において、CPU43は、上述の実施形態の場合と同様に、各フーリエ画像について、フーリエ画像の分割領域ごとにR(赤色)、G(緑色)、B(青色)の輝度データ(平均値)をそれぞれ生成する。 In step S156, as in the above-described embodiment, the CPU 43, for each Fourier image, brightness data (average value) of R (red), G (green), and B (blue) for each divided region of the Fourier image. Are generated respectively.
さて、次のステップS157では、同じ分割領域に注目し、CPU43は、各フーリエ画像FI1〜FInの同じ分割領域における階調値とパターンの線幅との変化率を示す近似式を、R、G、Bの各色成分ごとに求める。具体的には、フーリエ画像FI上の任意の分割領域をPmとすると、まず、各々のフーリエ画像FI1〜FInに対応するパターンの線幅のデータを記録部41から読み出す。またこのとき、各々のフーリエ画像FI1〜FInについて、分割領域Pmでの各色成分の輝度データ(ステップS156で求めたもの)をそれぞれ抽出する。次に、各々のフーリエ画像FI1〜FInごとに、パターンの線幅と分割領域Pmでの輝度データの階調値との対応関係を求める。 In the next step S157, attention is paid to the same divided area, and the CPU 43 calculates an approximate expression indicating the change rate between the gradation value and the line width of the pattern in the same divided area of each of the Fourier images FI 1 to FI n as R , G, and B for each color component. Specifically, assuming that an arbitrary divided region on the Fourier image FI is P m , first, the line width data of the pattern corresponding to each of the Fourier images FI 1 to FI n is read from the recording unit 41. At this time, for each of the Fourier images FI 1 to FI n , the luminance data of each color component in the divided region P m (obtained in step S156) is extracted. Next, for each of the Fourier images FI 1 to FI n , a correspondence relationship between the line width of the pattern and the gradation value of the luminance data in the divided area P m is obtained.
続いて、パターンの線幅と分割領域Pmでの階調値との対応関係に基づいて、最小二乗法により分割領域Pmでの階調値とパターンの線幅との変化率を示す近似式を求める。ここで、各々のフーリエ画像FI1〜FInに対応するパターンの線幅をyとし、分割領域PmでのB(あるいはRもしくはG)の階調値をxとし、傾きをaとし、y切片をbとすると、近似式は次の(1)式で表わされる。 Then, based on the correspondence between the gradation value of a line width and the divided region P m of the pattern, approximating that indicates the rate of change of the line width of the gradation values and patterns in the divided area P m by the least square method Find the formula. Here, the line width of the pattern corresponding to each of the Fourier images FI 1 to FI n is set to y, the gradation value of B (or R or G) in the divided region P m is set to x, the inclination is set to a, and y When the intercept is b, the approximate expression is expressed by the following expression (1).
y=ax+b …(1) y = ax + b (1)
なお、係数aの絶対値は、パターンの線幅の変化に対する階調変化の逆数(すなわち、パターンの変化に対する検出感度の逆数)に相当する。すなわち、上記の係数aの絶対値が小さくなると、線幅の差が同じでもフーリエ画像の階調変化が大きくなるので、パターンの変化に対する検出感度がより高くなる。そして、これらの工程を全ての分割領域について、R、G、Bの各色成分ごとに行う。 The absolute value of the coefficient a corresponds to the reciprocal of the gradation change with respect to the change in the line width of the pattern (that is, the reciprocal of the detection sensitivity with respect to the pattern change). That is, when the absolute value of the coefficient a is small, the gradation change of the Fourier image is large even if the difference in line width is the same, so that the detection sensitivity to the change of the pattern is higher. These processes are performed for each of the R, G, and B color components for all the divided regions.
次に、ステップS158において、CPU43は、フーリエ画像上の各分割領域において、ステップS157で得た近似式とパターンの線幅との相関誤差をR、G、Bの各色成分ごとに求める。具体的には、各々のフーリエ画像FI1〜FInに対応するパターンの線幅と、近似式を用いて算出されるパターンの線幅との偏差のデータを、R、G、Bの各色成分ごとに算出し、算出した偏差のデータから各分割領域の色成分ごとに標準偏差を算出し、その値を相関誤差とする。 Next, in step S158, the CPU 43 obtains a correlation error between the approximate expression obtained in step S157 and the line width of the pattern for each of R, G, and B color components in each divided region on the Fourier image. Specifically, deviation data between the line width of the pattern corresponding to each of the Fourier images FI 1 to FI n and the line width of the pattern calculated using the approximate expression are used as R, G, and B color components. The standard deviation is calculated for each color component of each divided region from the calculated deviation data, and the value is used as the correlation error.
そして、ステップS159において、CPU43は、ステップS157で求めた係数aと、ステップS158で求めた相関誤差とに基づいて、フーリエ画像の分割領域うち、係数aの絶対値が小さく、かつ相関誤差が十分に小さい分割領域を求め、当該分割領域を感度の高い領域と決定し、そこを検出条件に決める。具体的には、例えば、係数aの絶対値の小ささと、相関誤差の小ささとに応じて各々の分割領域のスコアリングを行い、このスコアリングの結果に基づいて感度の高い分割領域を決定する。このようにしても、パターンの線幅やプロファイルの変化を感度よく検出するために、R、G、Bのどの色を使い、フーリエ画像の中でどの分割領域を使用すればよいか決定することができる。 In step S159, based on the coefficient a obtained in step S157 and the correlation error obtained in step S158, the CPU 43 has a small absolute value of the coefficient a in the Fourier image divided region and a sufficient correlation error. A small divided area is obtained, the divided area is determined as a highly sensitive area, and this is determined as a detection condition. Specifically, for example, each divided region is scored according to the small absolute value of the coefficient a and the small correlation error, and a highly sensitive divided region is selected based on the scoring result. decide. Even in this case, in order to detect a change in the line width or profile of the pattern with high sensitivity, it is necessary to determine which color of R, G, and B should be used and which divided region should be used in the Fourier image. Can do.
W ウェハ(被検基板)
1 検査装置 6 対物レンズ
10 照明光学系(照明部) 17 偏光子
20 検出光学系(光学系) 21 検光子
33 2次元撮像素子(CMOSイメージセンサ)
40 制御ユニット 43 CPU(検査部および設定部)
W wafer (test substrate)
DESCRIPTION OF SYMBOLS 1 Inspection apparatus 6 Objective lens 10 Illumination optical system (illumination part) 17 Polarizer 20 Detection optical system (optical system) 21 Analyzer 33 Two-dimensional image sensor (CMOS image sensor)
40 control unit 43 CPU (inspection unit and setting unit)
Claims (4)
前記照明光が照射された前記被検基板の表面を観察するための光学系と、
前記光学系の瞳面または瞳面と共役な面における光を検出するイメージセンサと、
前記イメージセンサにより検出された光情報を読み出して、前記光情報に基づき前記被検基板の表面を検査する検査部と、
前記イメージセンサにおける前記検査に適する部分を求める設定部とを備え、
前記イメージセンサにおいては、前記光情報を画素単位で部分的に読み出すことが可能であり、
前記検査部は、前記イメージセンサにおける前記検査に適する部分の光情報を読み出して前記検査することを特徴とする検査装置。 An illumination unit for illuminating illumination light on the surface of the test substrate;
An optical system for observing the surface of the test substrate irradiated with the illumination light;
An image sensor for detecting light in a pupil plane of the optical system or a plane conjugate with the pupil plane;
Reading the optical information detected by the image sensor, and an inspection unit for inspecting the surface of the test substrate based on the optical information;
A setting unit for obtaining a portion suitable for the inspection in the image sensor,
In the image sensor, the optical information can be partially read out in units of pixels,
The inspection apparatus reads out the optical information of a part suitable for the inspection in the image sensor and performs the inspection.
前記光学系は、前記照明光が照射された前記被検基板の表面からの反射光のうち前記直線偏光と偏光方向が略直交する偏光成分を受光することを特徴とする請求項1もしくは2に記載の検査装置。 The illumination light is linearly polarized light applied to the surface of the test substrate having a repetitive pattern;
3. The optical system according to claim 1, wherein the optical system receives a polarization component whose polarization direction is substantially orthogonal to the linearly polarized light in the reflected light from the surface of the test substrate irradiated with the illumination light. The inspection device described.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008117530A JP2009265026A (en) | 2008-04-28 | 2008-04-28 | Inspection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008117530A JP2009265026A (en) | 2008-04-28 | 2008-04-28 | Inspection device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009265026A true JP2009265026A (en) | 2009-11-12 |
Family
ID=41391046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008117530A Pending JP2009265026A (en) | 2008-04-28 | 2008-04-28 | Inspection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009265026A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170122214A (en) * | 2015-03-03 | 2017-11-03 | 루츠 레브스톡 | Inspection system |
JP2018054577A (en) * | 2016-09-30 | 2018-04-05 | キリンテクノシステム株式会社 | Inspection device and inspection object imaging control method |
CN108447784A (en) * | 2018-03-28 | 2018-08-24 | 日月光封装测试(上海)有限公司 | Grinder wafer puts back alarm system and method |
JP2021501905A (en) * | 2017-11-07 | 2021-01-21 | エーエスエムエル ネザーランズ ビー.ブイ. | Metrology equipment and methods for calculating the characteristics of interest |
-
2008
- 2008-04-28 JP JP2008117530A patent/JP2009265026A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170122214A (en) * | 2015-03-03 | 2017-11-03 | 루츠 레브스톡 | Inspection system |
JP2018509001A (en) * | 2015-03-03 | 2018-03-29 | レブストック,ルッツ | Inspection system |
KR102570717B1 (en) * | 2015-03-03 | 2023-08-24 | 루츠 레브스톡 | inspection system |
US12087603B2 (en) | 2015-03-03 | 2024-09-10 | Brooks Automation (Germany) Gmbh | Inspection system |
JP2018054577A (en) * | 2016-09-30 | 2018-04-05 | キリンテクノシステム株式会社 | Inspection device and inspection object imaging control method |
WO2018062154A1 (en) * | 2016-09-30 | 2018-04-05 | キリンテクノシステム株式会社 | Inspection device and method for controlling imaging of object of inspection |
JP2021501905A (en) * | 2017-11-07 | 2021-01-21 | エーエスエムエル ネザーランズ ビー.ブイ. | Metrology equipment and methods for calculating the characteristics of interest |
US11327410B2 (en) | 2017-11-07 | 2022-05-10 | Asml Netherlands B.V. | Metrology apparatus and a method of determining a characteristic of interest |
JP7150838B2 (en) | 2017-11-07 | 2022-10-11 | エーエスエムエル ネザーランズ ビー.ブイ. | Metrology apparatus and method for calculating properties of interest |
US11822254B2 (en) | 2017-11-07 | 2023-11-21 | Asml Netherlands B.V | Metrology apparatus and a method of determining a characteristic of interest |
CN108447784A (en) * | 2018-03-28 | 2018-08-24 | 日月光封装测试(上海)有限公司 | Grinder wafer puts back alarm system and method |
CN108447784B (en) * | 2018-03-28 | 2024-05-31 | 日荣半导体(上海)有限公司 | Wafer placing retortion warning system and method for grinding machine |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI436051B (en) | A pattern inspection apparatus, a pattern inspection method, and a recording medium in which a program is recorded | |
JP4802481B2 (en) | Surface inspection apparatus, surface inspection method, and exposure system | |
JPWO2009072484A1 (en) | Inspection apparatus and inspection method | |
WO2010050488A1 (en) | Defect inspection device and defect inspection method | |
JP2001013085A (en) | Flow inspection apparatus | |
WO2009133849A1 (en) | Inspection device | |
JPWO2005040776A1 (en) | Surface inspection apparatus and surface inspection method | |
JP2009192520A (en) | Surface inspection device | |
KR20100053687A (en) | Inspection method based on captured image and inspection device | |
WO2009125839A1 (en) | Inspection device | |
JP2009265026A (en) | Inspection device | |
JP2009222625A (en) | Device and method for inspecting pattern | |
JP2007303903A (en) | Surface inspection device | |
JP5593209B2 (en) | Inspection device | |
JP2010271186A (en) | Defect inspection apparatus | |
JP2007309874A (en) | Surface inspection device | |
JP5299764B2 (en) | Evaluation apparatus and evaluation method | |
JP2005077272A (en) | Method for inspecting defect | |
JP2010112739A (en) | Inspection method and device | |
JP3572545B2 (en) | Pass / fail judgment method of substrate | |
JP5201443B2 (en) | Surface inspection apparatus and surface inspection method | |
JP2002333406A (en) | Appearance inspection device and appearance inspection method | |
JP2009068892A (en) | Inspection device | |
JP2007085991A (en) | Size-measuring device | |
JP2006250839A (en) | Surface inspection apparatus |