JP2006308336A - Imaging system - Google Patents
Imaging system Download PDFInfo
- Publication number
- JP2006308336A JP2006308336A JP2005128742A JP2005128742A JP2006308336A JP 2006308336 A JP2006308336 A JP 2006308336A JP 2005128742 A JP2005128742 A JP 2005128742A JP 2005128742 A JP2005128742 A JP 2005128742A JP 2006308336 A JP2006308336 A JP 2006308336A
- Authority
- JP
- Japan
- Prior art keywords
- semiconductor wafer
- light beam
- edge
- imaging
- objective lens
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Testing Or Measuring Of Semiconductors Or The Like (AREA)
- Image Input (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Abstract
Description
本発明は、互いに平行な第1及び第2の表面と、これら2つの表面間に位置する端縁とを有する半導体ウェハの端縁の像を撮像するのに好適な撮像システムに関するものである。 The present invention relates to an imaging system suitable for imaging an image of an edge of a semiconductor wafer having first and second surfaces parallel to each other and an edge located between the two surfaces.
半導体デバイスは、鏡面仕上げされた半導体ウェハ上に半導体膜、絶縁膜、金属膜等の各種材料膜が形成され、エッチング処理、不純物注入処理、洗浄処理等の各種のプロセスを経て製造される。半導体デバイスの製造工程において、歩留りを向上させるためには、各種プロセスが行われたウェハ表面をクリーンな状態にしてから次の工程を行う必要がある。例えば、前段の工程において使用した材料が残存すると、コンタミネーションを起し、歩留りが著しく低下してしまう。このため、各種プロセスが行われた後、ウェハ全体にわたってクリーニング処理が行われ、前工程で使用した材料の残存物が除去され、クリーンな状態にされてから次のプロセスが実行される。しかしながら、ウェハの素子形成領域は洗浄処理によりクリーンな状態に維持されるが、素子形成領域の周縁に位置する端縁部分は180°の方位角にわたるため、クリーニング不足になりがちであり、異物等が残存するおそれがある。さらに、ウェハの周縁部分は、各種のプロセスが行われた後研磨処理(ポリシング)により前段の工程で形成された膜等が除去されるが、その研磨量が不足すると、異物が残存してコンタミネーションが発生するおそれがあり、過剰な研磨が行われると素子形成領域に悪影響を及ぼすおそれがある。従って、半導体デバイスの製造の歩留りを上げるためには、半導体ウェハの周縁の表面の状態を観察できる撮像システムが必要である。一方、現在の処理プロセスでは、光学顕微鏡を用いて半導体ウェハの端縁が観察されている。 A semiconductor device is manufactured through various processes such as an etching process, an impurity implantation process, and a cleaning process in which various material films such as a semiconductor film, an insulating film, and a metal film are formed on a mirror-finished semiconductor wafer. In the semiconductor device manufacturing process, in order to improve the yield, it is necessary to perform the next process after the wafer surface on which various processes have been performed is in a clean state. For example, if the material used in the previous step remains, contamination occurs and the yield is significantly reduced. For this reason, after various processes are performed, a cleaning process is performed on the entire wafer, and the remaining material used in the previous process is removed, and the next process is executed after a clean state is obtained. However, the element formation area of the wafer is maintained in a clean state by the cleaning process, but the edge portion located at the periphery of the element formation area covers an azimuth angle of 180 °, so that the cleaning tends to be insufficient, such as foreign matter. May remain. In addition, the film formed in the previous step is removed by polishing processing (polishing) after various processes are performed on the peripheral portion of the wafer, but if the polishing amount is insufficient, foreign matter remains and is contaminated. Nation may occur, and excessive polishing may adversely affect the element formation region. Therefore, in order to increase the manufacturing yield of semiconductor devices, an imaging system capable of observing the state of the peripheral surface of the semiconductor wafer is required. On the other hand, in the current processing process, the edge of the semiconductor wafer is observed using an optical microscope.
半導体デバイスの製造プロセスにおいては、ウェハの端縁全体を同時に観察することが望まれている。しかしながら、ウェハの端縁は、デバイスが形成される素子形成面と裏面とにより画成され、180°の方位角にわたっている。このため、従来の顕微鏡を用いて観察する場合、ウェハの表面側及び裏面側からそれぞれ別個に撮像しなければならず、端縁全体の像を同時にモニタ上に表示することは困難であった。また、ウェハの端縁は湾曲する複数の面で構成されるため、各面毎に方位角が大きく相違する。このため、通常の光学顕微鏡で半導体ウェハの端縁の像を撮像しようとする場合、焦点が合うウェハ上の範囲は狭く、対物レンズの焦点が合った部位から横方向に離間した位置ではピントがずれてしまい、端縁全体にわたって合焦した像を撮像するには限界があった。この場合、焦点深度の深い対物レンズを用いて撮像しようとしても限界がある。 In the manufacturing process of a semiconductor device, it is desired to observe the entire edge of the wafer simultaneously. However, the edge of the wafer is defined by the element forming surface on which the device is formed and the back surface and spans an azimuth angle of 180 °. For this reason, when observing using a conventional microscope, it is necessary to separately capture images from the front surface side and the back surface side of the wafer, and it is difficult to simultaneously display an image of the entire edge on the monitor. Further, since the edge of the wafer is composed of a plurality of curved surfaces, the azimuth angle is greatly different for each surface. For this reason, when an image of the edge of a semiconductor wafer is to be taken with a normal optical microscope, the range on the wafer that is in focus is narrow, and the focus is at a position that is laterally separated from the focal point of the objective lens. There is a limit in capturing an image that is shifted and focused over the entire edge. In this case, there is a limit even if it tries to image using an objective lens with a deep focal depth.
また、光学顕微鏡で端縁像を撮像する場合、端縁の像は平面的にしか画像表示されないため、モニタ上に表示される特異点の性状ないし特性を判定することが困難であった。例えば、モニタ上に周囲よりも濃い濃度の部分が表示されても、当該部分が異物付着による像であるか又は傷による像であるか判別するのが困難であった。また、異物の付着が検出されても、付着している異物の性状や大きさ等に関する情報を得にくく、さらに、光学的に透明な材料の異物が付着している場合、透明異物を検出することも難しかった。従って、光学顕微鏡でウェハ端縁を撮像する方法では、半導体デバイスの製造プロセスの歩留りを向上させるために必要な定性分析及び定量分析に有用な画像情報を得るには限界がある。さらに、半導体ウェハの端縁が正確に研磨されているか否かを判別するためには、ウェハの断面形状を得る必要がある。しかし、通常の光学顕微鏡を用いて断面形状を撮像するためにはウェハを破断しなければならず、破断した場合もはや当該ウェハは不良品となってしまう。 Further, when an edge image is captured with an optical microscope, the edge image is displayed only in a planar manner, and it is difficult to determine the properties or characteristics of the singular points displayed on the monitor. For example, even if a darker portion than the surroundings is displayed on the monitor, it is difficult to determine whether the portion is an image due to foreign matter adhesion or an image due to scratches. In addition, even if the adhesion of foreign matter is detected, it is difficult to obtain information on the nature and size of the attached foreign matter, and when a foreign matter of an optically transparent material is attached, a transparent foreign matter is detected. It was also difficult. Therefore, in the method of imaging the wafer edge with an optical microscope, there is a limit in obtaining image information useful for qualitative analysis and quantitative analysis necessary for improving the yield of the semiconductor device manufacturing process. Further, in order to determine whether or not the edge of the semiconductor wafer is polished accurately, it is necessary to obtain the cross-sectional shape of the wafer. However, in order to take an image of a cross-sectional shape using a normal optical microscope, the wafer must be broken, and when the wafer is broken, the wafer becomes a defective product.
さらに、180°の方位角にわたるウェハの端縁を撮像するためには、多数の方位角方向から撮影しなければならず、観察に長時間かかるばかりでなく、その作業も煩雑であり、一層有用な撮像方法の開発が強く要請されている。 Furthermore, in order to image the edge of the wafer over an azimuth angle of 180 °, it is necessary to shoot from a large number of azimuth directions. Not only does the observation take a long time, but the work is complicated and more useful. Development of a simple imaging method is strongly demanded.
本発明の目的は、180°の方位角にわたるディスク状又は板状物体の端縁全体の像をモニタ上に同時に表示できる撮像システムを提供することにある。
さらに、本発明の別の目的は、半導体ウェハの端縁に関して製造プロセスの定性分析及び定量分析に有用な画像情報を得ることができる撮像システムを実現することにある。
An object of the present invention is to provide an imaging system capable of simultaneously displaying an image of the entire edge of a disk-like or plate-like object over an azimuth angle of 180 ° on a monitor.
Furthermore, another object of the present invention is to realize an imaging system capable of obtaining image information useful for qualitative analysis and quantitative analysis of a manufacturing process with respect to an edge of a semiconductor wafer.
本発明による撮像システムは、互いに平行な素子形成面である第1の面及び裏面である第2の面と、これら2つの面の間に位置する端縁とを有する半導体ウェハの端縁領域を撮像する撮像システムであって、
ライン状光ビームを発生する光源装置と、前記光源装置から発生したライン状光ビームを、その延在方向と直交する方向に偏向するビーム偏向装置と、ビーム偏向装置から出射したライン状光ビームを、集束性ライン状光ビームとして半導体ウェハの端縁に向けて投射する対物レンズと、対物レンズをその光軸方向に移動させる対物レンズ移動機構と、前記ライン状光ビームの延在方向と対応する方向に沿って配列された複数の受光素子を有し、前記半導体ウェハからの反射光を受光するリニァイメージセンサとを有する第1及び第2の撮像ヘッドを含む少なくとも2個の撮像ヘッド、及び、
前記撮像ヘッドのリニァイメージセンサからの出力信号を受け取り、ビデオ信号を形成する信号処理回路を具え、
前記撮像ヘッドを、半導体ウェハの第1及び第2の面と平行な中心面と直交する同一面上に配置し、
各撮像ヘッドの対物レンズから出射し半導体ウェハの端縁に入射する集束性のライン状光ビームを、前記半導体ウェハの中心面に対してほぼ直交する面内に延在するように設定し、
半導体ウェハの端縁をその周囲に沿って複数の角度方向から、対物レンズと半導体ウェハとの間の相対距離を変えながら端縁領域の像を順次撮像し、前記信号処理回路において、複数の角度方向から撮像した画像を合成して端縁領域の画像を表すビデオ信号を出力することを特徴とする。
An imaging system according to the present invention includes an edge region of a semiconductor wafer having a first surface that is an element formation surface parallel to each other, a second surface that is a back surface, and an edge located between the two surfaces. An imaging system for imaging,
A light source device that generates a line-shaped light beam, a beam deflecting device that deflects the line-shaped light beam generated from the light source device in a direction orthogonal to the extending direction, and a line-shaped light beam emitted from the beam deflecting device An objective lens that projects toward the edge of the semiconductor wafer as a converging line-shaped light beam, an objective lens moving mechanism that moves the objective lens in the direction of the optical axis thereof, and an extension direction of the line-shaped light beam At least two imaging heads, including first and second imaging heads, each having a plurality of light receiving elements arranged along a direction and having a linear image sensor that receives reflected light from the semiconductor wafer; ,
A signal processing circuit for receiving an output signal from a linear image sensor of the imaging head and forming a video signal;
The imaging head is disposed on the same plane orthogonal to a central plane parallel to the first and second surfaces of the semiconductor wafer,
A converging line-shaped light beam emitted from the objective lens of each imaging head and incident on the edge of the semiconductor wafer is set so as to extend in a plane substantially orthogonal to the central plane of the semiconductor wafer,
Images of the edge region are sequentially taken while changing the relative distance between the objective lens and the semiconductor wafer from a plurality of angular directions along the periphery of the edge of the semiconductor wafer. A video signal representing an image of an edge region is output by combining images captured from directions.
本発明では、ディスク状物体の端縁を、複数の角度方向から撮像し、信号処理回路において撮像された複数の画像を合成し、合成画像をビデオ信号として出力するので、180°の方位角にわたる端縁全体の像を同時にモニタ上に表示することができる。ここで、重要なことは、本発明では、ライン状光ビームを用いて端縁領域を照明し、半導体ウェハの第1の面及び第2の面からの反射光をリニァイメージセンサにより受光することである。すなわち、レーザビームを音響光学素子を用いて主走査方向にスキャンするのでは、十分な走査長を得ることが極めて困難であり、十分な長さの走査長を得ようとすると、光路長が長くなり、装置全体が大型化してしまう。これに対して、ライン状光ビームを用いて2次元走査する場合、短い光路長で十分な走査長を得ることができる。特に、素子形成面及び裏面を含む半導体ウェハの端縁領域全体を撮像するためには、十分な長さの走査長が必要であるため、ライン状光ビームを用いることにより、コンパクトな撮像ヘッドを実現することができる。 In the present invention, the edge of the disk-like object is imaged from a plurality of angular directions, a plurality of images captured by the signal processing circuit are combined, and the combined image is output as a video signal. An image of the entire edge can be simultaneously displayed on the monitor. Here, it is important that in the present invention, the edge region is illuminated with a line-shaped light beam, and the reflected light from the first surface and the second surface of the semiconductor wafer is received by the linear image sensor. That is. That is, if the laser beam is scanned in the main scanning direction using an acousto-optic device, it is extremely difficult to obtain a sufficient scanning length. If an attempt is made to obtain a sufficient scanning length, the optical path length is long. As a result, the entire apparatus becomes large. On the other hand, when two-dimensional scanning is performed using a line-shaped light beam, a sufficient scanning length can be obtained with a short optical path length. In particular, in order to image the entire edge region of the semiconductor wafer including the element formation surface and the back surface, a sufficiently long scanning length is necessary. Therefore, a compact imaging head can be obtained by using a linear light beam. Can be realized.
本発明による撮像システムの好適実施例は、観察すべきディスク状物体を半導体ウェハとし、半導体ウェハの中心面をはさんで素子形成面の側から及び裏面側から、対物レンズの光軸を前記中心面に対して45°の角度に設定してそれぞれ撮像し、前記信号処理回路において2つの画像を合成し、前記素子形成面及び裏面の一部を含む端縁全体の画像を表示することを特徴とする。開口角が45°以上の対物レンズを用い、対物レンズの光軸を半導体ウェハの中心面に対して45°の角度に設定すれば、90°の方位角にわたって撮像できる。よって、表面側及び裏面側から撮像し、信号処理回路で2つの画像を合成するだけで端縁全体の画像を同時にモニタ上に表示することができる。この結果、撮像作業が容易になると共に信号処理回路の負荷も軽減される。さらに、半導体ウェハの端縁は方位角の異なる複数の平面又は湾曲面で形成されているが、本発明では、半導体ウェハの端縁と走査スポットとの間の相対距離を変えながら撮像しているため、方位角が異なる複数の表面全体について焦点が合った画像を撮像することができる。 In a preferred embodiment of the imaging system according to the present invention, the disk-like object to be observed is a semiconductor wafer, and the optical axis of the objective lens is centered on the optical axis of the objective lens from the element forming surface side and the back surface side across the central surface of the semiconductor wafer. Each of the images is picked up at an angle of 45 ° with respect to the surface, the two images are combined in the signal processing circuit, and an image of the entire edge including a part of the element forming surface and the back surface is displayed. And If an objective lens having an opening angle of 45 ° or more is used and the optical axis of the objective lens is set to an angle of 45 ° with respect to the center plane of the semiconductor wafer, imaging can be performed over an azimuth angle of 90 °. Therefore, an image of the entire edge can be displayed on the monitor at the same time by simply capturing images from the front side and the back side and combining the two images by the signal processing circuit. As a result, the imaging operation is facilitated and the load on the signal processing circuit is reduced. Furthermore, the edge of the semiconductor wafer is formed of a plurality of flat surfaces or curved surfaces having different azimuth angles. In the present invention, imaging is performed while changing the relative distance between the edge of the semiconductor wafer and the scanning spot. Therefore, it is possible to capture an image in which a plurality of surfaces having different azimuth angles are in focus.
本発明による撮像システムの好適実施例は、前記信号処理回路は、走査スポットと半導体ウェハの端縁との間の相対距離を変えながら撮像する間に得られた輝度値から最大輝度値を求める手段、最大輝度を発生する光軸方向の位置情報を求める手段、及び、求めた最大輝度値及び対応する位置情報を各画素毎に記憶する記憶手段を有することを特徴とする。コンフォーカル顕微鏡では、半導体ウェハの端縁に入射した集束性ライン状光ビームのうち、集束線が試料表面上に位置するとき最大輝度が出力され、集束線が試料表面から光軸方向に変位した場合僅かな反射光しかリニァイメージセンサに入射しない特性がある。従って、最大輝度値及び対応する位置情報を出力し、位置情報を奥行方向の高さ情報として用いれば、ウェハ端縁の像を3次元的に表示することができ、ウェハの端縁に付着した異物や傷等を明確に判別することができ、製造プロセスの各種分析に有用な情報を得ることができる。しかも、付着した異物の大きさ及び厚さ等の情報も得ることができる利点が達成される。 In a preferred embodiment of the imaging system according to the present invention, the signal processing circuit obtains the maximum luminance value from the luminance value obtained during imaging while changing the relative distance between the scanning spot and the edge of the semiconductor wafer. And means for obtaining position information in the direction of the optical axis that generates the maximum luminance, and storage means for storing the obtained maximum luminance value and the corresponding position information for each pixel. In the confocal microscope, among the converging line-shaped light beams incident on the edge of the semiconductor wafer, the maximum brightness is output when the focusing line is located on the sample surface, and the focusing line is displaced from the sample surface in the optical axis direction. In some cases, only a small amount of reflected light is incident on the linear image sensor. Therefore, if the maximum luminance value and the corresponding position information are output and the position information is used as the height information in the depth direction, the image of the wafer edge can be displayed three-dimensionally and attached to the edge of the wafer. Foreign matters and scratches can be clearly identified, and useful information for various analyzes of the manufacturing process can be obtained. In addition, an advantage that information such as the size and thickness of the adhered foreign matter can be obtained is achieved.
本発明による撮像システムの好適実施例は、光源装置を、レーザ光源と、2次元マトリックス状に配置した複数のマイクロミラーを有するマイクロミラー装置との組み合わせにより構成し、前記マイクロミラー装置からライン状光ビームを出射させることを特徴とする。この場合、マイクロミラー装置から出射するライン状光ビームは、位相関係がランダムな光ビームであり、非コヒーレントなビームであるため、グレァやフレァが発生しない利点が達成される。 In a preferred embodiment of the imaging system according to the present invention, the light source device is constituted by a combination of a laser light source and a micromirror device having a plurality of micromirrors arranged in a two-dimensional matrix. A beam is emitted. In this case, since the line-shaped light beam emitted from the micromirror device is a light beam having a random phase relationship and is a non-coherent beam, an advantage that no glare or flare occurs is achieved.
本発明による撮像システムの好適実施例は、撮像ヘッドは、R,G,Bの3個の光源と、これら光源から発生したR,G,Bの光ビームを三原色のライン状光ビームに合成する手段とを有し、半導体ウェハの端縁領域の画像をカラーのビデオ信号として出力することを特徴とする。半導体ウェハは、種々のカラーに研磨されている場合があるため、端縁画像をカラー画像として出力することにより、半導体ウェハの識別が一層容易になる。また、レジスト等の異物が不着した場合、異物の色に基づいて異物を特定することができ、異物判定においても好適である。さらに、3色の光源を用いるため、半導体ウェハの種類に応じて適切なカラービームで撮像できる利点もある。 In a preferred embodiment of the imaging system according to the present invention, the imaging head combines three light sources of R, G and B and R, G and B light beams generated from these light sources into a line light beam of three primary colors. And an image of an edge region of the semiconductor wafer is output as a color video signal. Since the semiconductor wafer may be polished to various colors, the edge image is output as a color image, thereby making it easier to identify the semiconductor wafer. In addition, when a foreign substance such as a resist is not attached, the foreign substance can be specified based on the color of the foreign substance, which is suitable for foreign substance determination. Furthermore, since three color light sources are used, there is an advantage that an image can be captured with an appropriate color beam according to the type of the semiconductor wafer.
図1は本発明による撮像システムの一例を示す線図である。本例では、2つの撮像ヘッドを用いて半導体ウェハの端縁の像を撮像する。尚、2つの撮像ヘッドは同一の構成であるため、一方の撮像ヘッドの構成だけを示す。本例では、光源1として水銀ランプ1を用いる。尚、キセノンランプも光源として用いることができる。水銀ランプ1から照明用のライン状光ビームを発生する。水銀ランプ1から発生した光を光ファイバ2により第1の方向に延在するライン状光ビームに変換し、スリット3を経て整形されたライン状光ビームとして出射させる。尚、図面上、ライン状光ビームは紙面内の矢印方向に延在するものとする。ライン状光ビームは、ビームスプリッタ4を透過し、結像レンズ5を経てビーム偏向装置である振動ミラー6に入射する。振動ミラー6は、入射した光ビームを第1の方向と直交する第2の方向(紙面と直交する方向)に周期的に偏向する。振動ミラー6から出射した光ビームはリレーレンズ7及び8を介して対物レンズ9に入射する。入射した光ビームは、対物レンズ9により収束されて観察すべき試料である半導体ウェハ10の端縁領域に入射する。半導体ウェハは、紙面と直交する方向に延在するように配置する。従って、集束したライン状光ビームは、半導体ウェハの素子形成面及び裏面に平行な中心面Scと直交する面内に延在する。この結果、撮像されるべき半導体ウェハ10の端縁は集束性のライン状光ビームにより所定の走査周波数で2次元走査される。尚、半導体ウェハはステージ(図示せず)上に支持し、ステージを回転させることにより半導体ウェハの表面側及び裏面側に照明ビームを入射させることができる。 FIG. 1 is a diagram showing an example of an imaging system according to the present invention. In this example, the image of the edge of a semiconductor wafer is imaged using two imaging heads. Since the two imaging heads have the same configuration, only the configuration of one imaging head is shown. In this example, a mercury lamp 1 is used as the light source 1. A xenon lamp can also be used as a light source. A linear light beam for illumination is generated from the mercury lamp 1. The light generated from the mercury lamp 1 is converted into a linear light beam extending in the first direction by the optical fiber 2 and emitted as a linear light beam shaped through the slit 3. In the drawing, it is assumed that the line-shaped light beam extends in the direction of the arrow in the drawing. The line-shaped light beam passes through the beam splitter 4 and enters the vibrating mirror 6 which is a beam deflecting device through the imaging lens 5. The oscillating mirror 6 periodically deflects the incident light beam in a second direction (direction orthogonal to the paper surface) orthogonal to the first direction. The light beam emitted from the oscillating mirror 6 enters the objective lens 9 via the relay lenses 7 and 8. The incident light beam is converged by the objective lens 9 and enters the edge region of the semiconductor wafer 10 which is a sample to be observed. The semiconductor wafer is arranged so as to extend in a direction orthogonal to the paper surface. Therefore, the focused line-shaped light beam extends in a plane orthogonal to the central plane Sc parallel to the element formation surface and the back surface of the semiconductor wafer. As a result, the edge of the semiconductor wafer 10 to be imaged is two-dimensionally scanned at a predetermined scanning frequency by the converging line light beam. The semiconductor wafer is supported on a stage (not shown), and the illumination beam can be incident on the front side and the back side of the semiconductor wafer by rotating the stage.
本例では、集束したライン状光ビームと半導体ウェハの端縁との間の相対距離を変えながら2次元走査を行う。このため、本例では、対物レンズ9を光軸方向に変位させる変位手段であるステッピングモータ11を設け、ステッピングモータにより対物レンズを光軸方向に変位させながら2次元走査を行う。また、対物レンズの光軸方向の変位量をエンコーダにより検出し、対物レンズの変位量を深さ方向の位置情報としてメモリに記憶する。尚、対物レンズを固定し、半導体ウェハを支持するステージを対物レンズの光軸方向に変位させて対物レンズすなわち走査スポットとウェハ端縁との間の相対距離を変位させることもできる。 In this example, two-dimensional scanning is performed while changing the relative distance between the focused line light beam and the edge of the semiconductor wafer. Therefore, in this example, a stepping motor 11 that is a displacement means for displacing the objective lens 9 in the optical axis direction is provided, and two-dimensional scanning is performed while displacing the objective lens in the optical axis direction by the stepping motor. Further, the amount of displacement of the objective lens in the optical axis direction is detected by an encoder, and the amount of displacement of the objective lens is stored in the memory as position information in the depth direction. The objective lens may be fixed, and the stage supporting the semiconductor wafer may be displaced in the optical axis direction of the objective lens to displace the relative distance between the objective lens, that is, the scanning spot and the wafer edge.
半導体ウェハ10の端縁で反射した光は対物レンズ9により集光され、リレーレンズ8及び7を経て振動ミラー6に入射し、デスキャンされ、結像レンズ5を経てビームスプリッタ4に入射する。このウェハ表面からの反射光は、ビームスプリッタで反射し、リニァイメージセンサ12に入射する。リニァイメージセンサ12は、結像レンズ5の結像位置に配置され、半導体ウェハからの反射光を主走査方向の1ライン毎に受光するようにウェハ表面上の走査方向である第1の方向と対応する方向に配列された複数の受光素子を有し、各受光素子に蓄積された電荷を所定の読出周波数で読み出す。ウェハ表面からの反射光は振動ミラー6によりデスキャンされているから副走査方向には変位せず、従ってリニァイメージセンサの各受光素子はウェハ表面からの反射光により周期的に走査されることになる。この結果、リニァイメージセンサの各受光素子に蓄積された電荷を所定の読出周波数で読み出すことにより、ウェハ端縁の2次元画像情報が出力される。 The light reflected by the edge of the semiconductor wafer 10 is collected by the objective lens 9, enters the oscillating mirror 6 through the relay lenses 8 and 7, is descanned, and enters the beam splitter 4 through the imaging lens 5. The reflected light from the wafer surface is reflected by the beam splitter and enters the linear image sensor 12. The linear image sensor 12 is arranged at the imaging position of the imaging lens 5, and a first direction which is a scanning direction on the wafer surface so as to receive reflected light from the semiconductor wafer for each line in the main scanning direction. A plurality of light receiving elements arranged in the corresponding direction are read out, and charges accumulated in each light receiving element are read out at a predetermined reading frequency. Since the reflected light from the wafer surface is descanned by the vibrating mirror 6, it is not displaced in the sub-scanning direction. Therefore, each light receiving element of the linear image sensor is periodically scanned by the reflected light from the wafer surface. Become. As a result, the charge accumulated in each light receiving element of the linear image sensor is read out at a predetermined readout frequency, whereby two-dimensional image information of the wafer edge is output.
このように、半導体ウェハ10の端縁は、スポット状に収束した光ビームで走査され、当該端縁からの反射光はリニァイメージセンサの各受光素子により受光されるため、当該光学系はコンフォーカル光学系を構成し、高い分解能のウェハ端縁像を撮像することができる。
第2の撮像ヘッドは、上述した第1の撮像ヘッドと同一構成であるため、説明は省略し、第2撮像ヘッドの対物レンズ及びλ/4板だけを図示する。
As described above, the edge of the semiconductor wafer 10 is scanned with the light beam converged in a spot shape, and the reflected light from the edge is received by each light receiving element of the linear image sensor. A focal optical system can be configured to capture a wafer edge image with high resolution.
Since the second imaging head has the same configuration as the first imaging head described above, description thereof is omitted, and only the objective lens and the λ / 4 plate of the second imaging head are illustrated.
図2は、撮像されるべき半導体ウェハの端縁の向きと対物レンズの光軸との関係を示す線図である。図2において、半導体ウェハは紙面と直交する方向に延在しているものとする。半導体ウェハ10の周縁は、素子形成領域を構成する第1の表面10aと、第1の表面と対向する平行な裏面である第2の表面10bとを有し、これら第1の表面と第2の表面との間に端縁が形成されている。ここで、2つの表面10a及び10bの中間に位置しウェハの中心を通る面を中心面Scとして規定する。端縁は、中心面Scと直交する面10cとその両側に位置する2つの表面10d及び10eとにより構成される。尚、端縁を形成する各表面は平面又は僅かに湾曲した湾曲面である。 FIG. 2 is a diagram showing the relationship between the orientation of the edge of the semiconductor wafer to be imaged and the optical axis of the objective lens. In FIG. 2, it is assumed that the semiconductor wafer extends in a direction orthogonal to the paper surface. The peripheral edge of the semiconductor wafer 10 has a first surface 10a constituting an element formation region and a second surface 10b which is a parallel back surface facing the first surface. These first surface and second surface An edge is formed between the surface and the surface. Here, a plane located between the two surfaces 10a and 10b and passing through the center of the wafer is defined as a center plane Sc. The end edge is constituted by a surface 10c orthogonal to the center surface Sc and two surfaces 10d and 10e located on both sides thereof. Each surface forming the edge is a flat surface or a slightly curved surface.
ウェハの端縁は5個の面10a〜10eにより形成されるから、各面に対して対物レンズの光軸を垂直に設定し、5回の撮像操作により撮像し、5個の画像を合成して端縁像を表示することも可能である。しかし、多数回撮像操作を行う必要があり、撮像に長時間かかる欠点がある。この欠点を解消するため2つの撮像ヘッドを用い、対物レンズとして開口角が45°以上の対物レンズ(開口数は0.95)を用い、対物レンズの光軸を中心面Scに対してほぼ45°の角度又はその近傍の角度に設定し、2つの撮像ヘッドを用いて第1の表面10aの側及び反対側の第2の表面10bの側の2つの側からそれぞれ中心面に対して45°の角度で端縁をそれぞれ撮像する。この場合、ウェハ端縁の片側半分の領域を構成する3つの表面10a、10d及び10cの画像を第1の撮像ヘッドで同時に撮像し、10b,10e及び10cの画像を第2の撮像ヘッドで撮像する。 Since the edge of the wafer is formed by five surfaces 10a to 10e, the optical axis of the objective lens is set to be perpendicular to each surface, the image is captured by five imaging operations, and the five images are synthesized. It is also possible to display an edge image. However, the imaging operation needs to be performed many times, and there is a disadvantage that imaging takes a long time. In order to eliminate this drawback, two imaging heads are used, an objective lens having an aperture angle of 45 ° or more (numerical aperture is 0.95) is used as the objective lens, and the optical axis of the objective lens is approximately 45 with respect to the center plane Sc. The angle is set to an angle of 0 ° or an angle close thereto, and two imaging heads are used to make 45 ° with respect to the center plane from two sides of the first surface 10a side and the opposite second surface 10b side, respectively. Each edge is imaged at an angle of. In this case, images of the three surfaces 10a, 10d, and 10c constituting one half region of the wafer edge are simultaneously captured by the first imaging head, and images 10b, 10e, and 10c are captured by the second imaging head. To do.
次に、対物レンズから出射した集束性のライン状光ビームと半導体ウェハ端縁の各面との関係について説明する。本例では、2つの撮像ヘッドにより180°の方位角の物体の像を撮像するため、1つの撮像ヘッドにより90°の方位にわたって撮像する必要がある。そのため、対物レンズ9を通過するライン状光ビームの一方の限界光線20aが第1の面10aに対してほぼ垂直に入射し、他方の限界光線20bが第3の面10cに対してほぼ垂直に入射するように設定する。一方の限界光線20aは、面10aに垂直に入射し、当該面で反射し、再び対物レンズ9により集光される。これに対して、限界光線20aが面10aに対して垂直よりも小さい角度で入射した場合、もはや対物レンズにより集光されず撮像することはできない。他方の限界光線20bについて同様である。このように、限界光線が半導体ウェハの各面に対して垂直に入射するように設定することにより、端縁の画像を撮像することができる。 Next, the relationship between the converging line light beam emitted from the objective lens and each surface of the semiconductor wafer edge will be described. In this example, since an image of an object having an azimuth angle of 180 ° is captured by two imaging heads, it is necessary to capture an image of 90 ° azimuth by one imaging head. Therefore, one limit light beam 20a of the line-shaped light beam passing through the objective lens 9 is incident substantially perpendicular to the first surface 10a, and the other limit light beam 20b is approximately perpendicular to the third surface 10c. Set to enter. One limit light ray 20a is incident on the surface 10a perpendicularly, is reflected by the surface, and is condensed by the objective lens 9 again. On the other hand, when the limit light ray 20a is incident on the surface 10a at an angle smaller than perpendicular, it is no longer condensed by the objective lens and cannot be imaged. The same applies to the other limit ray 20b. In this way, by setting the limit light beam so as to be perpendicularly incident on each surface of the semiconductor wafer, an image of the edge can be taken.
尚、1つの撮像ヘッドを用い、ウェハを支持するステージを90°回動させることにより反対側の3つの表面10b、10e及び10cの画像を同時に撮像することができる。この結果、方位角が180°にわたるウェハ端縁について、2回の撮像操作により撮像することができ、2つの画像を合成するだけで端縁全体の画像をモニタ上に表示することができる。また、半導体ウェハのステージを固定し、撮像ヘッドを90°回転させることにより、方位角が180°にわたるウェハ端縁の像を撮像することができる。 In addition, by using one imaging head and rotating the stage supporting the wafer by 90 °, images of the three opposite surfaces 10b, 10e, and 10c can be simultaneously captured. As a result, the wafer edge having an azimuth angle of 180 ° can be imaged by two imaging operations, and an image of the entire edge can be displayed on the monitor simply by combining the two images. Further, by fixing the stage of the semiconductor wafer and rotating the imaging head by 90 °, an image of the wafer edge having an azimuth angle of 180 ° can be taken.
対物レンズの光軸をウェハの中心面Scに対して45°の角度に設定して撮像する場合、対物レンズの光軸は端縁を形成する各面に対して垂直ではなく、光軸に対して各表面は傾斜した面となる。このため、対物レンズから各表面の各部位までの距離が大きく相違し、焦点の合った部分は狭い範囲になってしまう。そこで、本発明では、対物レンズを変位させて集束したライン状光ビームとウェハ端縁との間の相対距離を変えながら2次元走査する。コンフォーカル顕微鏡では、集束したライン状光ビームが試料表面に位置する場合強い反射光がリニァイメージセンサの対応する受光素子に入射し、ライン状光ビームの集束線が試料表面から光軸方向に変位している場合すなわちライン状光ビームの集束線が試料表面の前側又は後側に位置する場合、リニァイメージセンサの受光素子には僅かな反射光しか入射しない。このコンフォーカル顕微鏡の特有の性質を利用してライン状光ビームの集束線を光軸方向に変位させながら撮像することにより、ウェハ端縁の各面が光軸に対して傾斜しても、撮像される端縁画像の全体にわたって合焦した画像を得ることができる。すなわち、第1の表面側から撮像した場合、第1の表面12a並びに端縁を構成する2つの面12c及び12dの全体について合焦した画像を撮像することができる。従って、端縁のいずれの部位に異物が付着したり傷が存在する場合であっても、これら異物及び傷等を全て鮮明に撮像してモニタ上に表示することができる。 When imaging is performed by setting the optical axis of the objective lens to an angle of 45 ° with respect to the center plane Sc of the wafer, the optical axis of the objective lens is not perpendicular to each surface forming the edge, but is relative to the optical axis. Each surface becomes an inclined surface. For this reason, the distance from the objective lens to each part of each surface is greatly different, and the focused part is in a narrow range. Therefore, in the present invention, two-dimensional scanning is performed while changing the relative distance between the linear light beam focused by displacing the objective lens and the edge of the wafer. In a confocal microscope, when a focused line-shaped light beam is positioned on the sample surface, strong reflected light is incident on the corresponding light receiving element of the linear image sensor, and the focused line of the line-shaped light beam extends in the optical axis direction from the sample surface. When it is displaced, that is, when the focusing line of the linear light beam is located on the front side or the rear side of the sample surface, only a small amount of reflected light is incident on the light receiving element of the linear image sensor. By taking advantage of the unique properties of this confocal microscope and taking images while displacing the focusing line of the line-shaped light beam in the direction of the optical axis, even if each surface of the wafer edge is tilted with respect to the optical axis, the image is taken. A focused image can be obtained over the entire edge image. That is, when imaging is performed from the first surface side, it is possible to capture an image in which the first surface 12a and the entire two surfaces 12c and 12d constituting the edge are focused. Therefore, even if a foreign object adheres to any part of the edge or a flaw exists, all of the foreign substance, the flaw, and the like can be clearly imaged and displayed on the monitor.
図1を参照するに、リニァイメージセンサ13からの出力信号は増幅器14により増幅して信号処理回路15に供給する。そして、信号処理回路において種々の信号処理を行ってビデオ出力を作成し、画像表示装置16に供給し、画像表示装置上にウェハ端縁の像を表示する。信号処理回路は、一例として以下の処理を行うことができる。
初めに、本発明では、複数の方向からウェハの端縁画像を撮像し、各角度方向から撮像した画像をそれぞれフレームメモリに記憶し、画像合成手段により各フレームメモリに記憶されている画像を合成し、ビデオ出力として画像表示装置16に供給する。上述したように、対物レンズの光軸をウェハの中心面に対して45°の角度に設定して撮像する場合、2つの撮像ヘッドにより2つの側から撮像した2つの画像を合成し、ビデオ信号として画像表示装置に出力する。この画像合成処理により、素子形成面及び裏面を含むウェハ端縁全体の画像を同時に画像表示装置上に表示することができる。
Referring to FIG. 1, the output signal from the linear image sensor 13 is amplified by an amplifier 14 and supplied to a signal processing circuit 15. Then, various signal processing is performed in the signal processing circuit to create a video output, which is supplied to the image display device 16, and an image of the wafer edge is displayed on the image display device. The signal processing circuit can perform the following processing as an example.
First, in the present invention, the edge image of the wafer is taken from a plurality of directions, the images taken from the respective angular directions are stored in the frame memories, and the images stored in the respective frame memories are synthesized by the image synthesis means. Then, it is supplied to the image display device 16 as a video output. As described above, when imaging is performed by setting the optical axis of the objective lens at an angle of 45 ° with respect to the center plane of the wafer, two images captured from the two sides by the two imaging heads are combined to generate a video signal. To the image display device. By this image composition processing, an image of the entire edge of the wafer including the element formation surface and the back surface can be simultaneously displayed on the image display device.
次に、対物レンズとウェハ端縁との間の相対距離を変えながら2次元画像を撮像する際、ウェハ端縁の2次元画像の各画素について最大輝度値及び最大輝度値を発生する位置情報をメモリに記憶する。そして、最大輝度値及び位置情報を画像表示装置に供給し、位置情報を奥行方向の高さ情報として用いることによりウェハ端縁の像を3次元的に表示することができる。この最大輝度値は、順次入力するリニァイメージセンサからの各出力をフレームメモリに記憶されているデータと順次比較し、入力した値がフレームメモリに記憶されている値よりも大きい場合更新することにより容易に得ることができる。この結果、従来の顕微鏡では周囲と相違する特異点としか表示されなかった画像部分について、その外観形状を明確に把握することができ、例えば、表示された特異的な画像部分がウェハ端縁に付着した異物であるか又は端縁の表面に形成された傷であるか明確に判別することができる。しかも、異物や傷を3次元的に表示することができるので、異物の大きさや厚さを表示画像から判定することができる。さらに、異物が光学的に透明な材料の場合であっても、透明異物の表面に走査スポットが位置すると、透明異物表面での反射作用により反射光が発生しリニァイメージセンサに入射するので、透明材料の異物であってもその表面形状を撮像することができる。従って、これらの判定結果に基づいて各プロセスの終了後に行われる研磨処理の良否や研磨処理に必要な時間等に関する有用な情報が得られ、この結果、製造プロセスの定量分析及び定性分析に有用な画像情報を提供することができる。 Next, when capturing a two-dimensional image while changing the relative distance between the objective lens and the wafer edge, position information for generating a maximum luminance value and a maximum luminance value for each pixel of the two-dimensional image at the wafer edge is obtained. Store in memory. Then, by supplying the maximum luminance value and the position information to the image display device and using the position information as the height information in the depth direction, the image of the wafer edge can be displayed three-dimensionally. This maximum luminance value is updated when each output from the linear image sensor that is sequentially input is compared with the data stored in the frame memory and the input value is greater than the value stored in the frame memory. Can be obtained more easily. As a result, it is possible to clearly grasp the appearance shape of an image portion that has been displayed only with singular points that differ from the surroundings in the conventional microscope, for example, the displayed specific image portion is at the edge of the wafer. It is possible to clearly determine whether the foreign matter is attached or a scratch formed on the surface of the edge. In addition, since foreign matter and scratches can be displayed three-dimensionally, the size and thickness of the foreign matter can be determined from the display image. Furthermore, even if the foreign matter is an optically transparent material, when the scanning spot is located on the surface of the transparent foreign matter, reflected light is generated by the reflection action on the surface of the transparent foreign matter and is incident on the linear image sensor. Even if it is a foreign material of a transparent material, the surface shape can be imaged. Therefore, based on these determination results, useful information regarding the quality of the polishing process performed after the end of each process and the time required for the polishing process can be obtained, and as a result, it is useful for quantitative analysis and qualitative analysis of the manufacturing process. Image information can be provided.
さらに、振動ミラー6を静止させ固定ミラーとして用いて、対物レンズを光軸方向に変位させて最大輝度を発生する位置情報を求めることにより、ウェハ端縁の断面形状を求めることができる。すなわち、コンフォーカル顕微鏡では、対物レンズを変位させながらライン状光ビームを照射すると、ライン状光ビームのウェハ表面に位置するときリニァイメージセンサの受光素子から最大輝度値が出力される。従って、合成された1次元画像の最大輝度値を発生する位置情報を画像表示装置上でプロットすることにより、ウェハ端縁の断面形状を表示することができる。この断面形状の測定は、2次元画像の表示と共に利用すると一層有用な情報を得ることができる。例えば、画像表示装置上に表示された2次元画像中に異物の付着が観察された場合、当該部分について断面形状を求めることにより、異物の断面形状や厚さを定量的に求めることができる。勿論、振動ミラー6を固定せず駆動した状態で最大輝度値が記憶されているフレームメモリの一ラインに相当するデータを読み出すことにより断面形状を得ることも可能である。 Further, the cross-sectional shape of the wafer edge can be obtained by obtaining the positional information for generating the maximum luminance by displacing the objective lens in the optical axis direction using the vibrating mirror 6 as a stationary mirror. That is, in the confocal microscope, when the line-shaped light beam is irradiated while displacing the objective lens, the maximum luminance value is output from the light receiving element of the linear image sensor when the line-shaped light beam is positioned on the wafer surface. Therefore, by plotting the position information for generating the maximum luminance value of the synthesized one-dimensional image on the image display device, the cross-sectional shape of the wafer edge can be displayed. When this cross-sectional shape measurement is used together with the display of a two-dimensional image, more useful information can be obtained. For example, when adhesion of foreign matter is observed in a two-dimensional image displayed on the image display device, the cross-sectional shape and thickness of the foreign matter can be quantitatively obtained by obtaining the cross-sectional shape of the portion. Of course, it is also possible to obtain a cross-sectional shape by reading data corresponding to one line of the frame memory in which the maximum luminance value is stored in a state where the vibrating mirror 6 is driven without being fixed.
図3は本発明による撮像システムの第2実施例を示す線図である。本例では、カラーの撮像ヘッドを用いると共に、光源装置として、レーザ光源と複数のマイクロミラー素子が2次元アレイ状に配置されたマイクロミラー装置との組み合わせを用い、マイクロミラー装置から非コヒーレントなライン状光ビームを発生させる。半導体ウェハの研磨面の色は様々であり、カラー情報を得ることにより、半導体ウェハの端縁について一層有益な情報を得ることができる。尚、図3においては、1つの撮像ヘッドだけについて説明し、他の撮像ヘッドの説明は省略する。 FIG. 3 is a diagram showing a second embodiment of the imaging system according to the present invention. In this example, a color imaging head is used, and a combination of a laser light source and a micromirror device in which a plurality of micromirror elements are arranged in a two-dimensional array is used as a light source device. A light beam is generated. The color of the polished surface of the semiconductor wafer varies, and by obtaining color information, more useful information about the edge of the semiconductor wafer can be obtained. In FIG. 3, only one imaging head will be described, and description of the other imaging heads will be omitted.
本例では、全ての光学素子を同一平面上に配置し、光学系の調整の煩雑性を解消する。R,G,Bの光源として、赤の光ビームを発生するレーザ光源31、緑の光ビームを発生するレーザ光源32及び青の光ビームを発生するレーザ光源33を用いる。これら3個のレーザ光源は半導体レーザで構成し、出射する各レーザ光の光軸は同一平面上に位置するように設定する。尚、赤のレーザ光、緑のレーザ光及び青のレーザ光の各波長は、例えば660nm、530nm及び440nmとする。各レーザ光源1〜3の前面には、エキスパンダ光学系34〜36をそれぞれ配置し、拡大平行光束に変換する。第1のレーザ光源31から放出された赤のレーザビームは、エキスパンダ光学系34により拡大平行光束にされ、赤の光を透過し緑の光を反射する第1のダイクロイックミラー37、並びに赤及び緑の光を透過し青の光を反射する第2のダイクロイックミラー38を透過し、第1のシリンドリカルレンズ39を経て第1の偏光ビームスプリッタ40に入射する。第2のレーザ光源2から放出された緑のレーザビームは、エキスパンダ光学系35により拡大平行光束にされ、第1のダイクロイックミラー37で反射し、第2のダイクロイックミラー38を透過し、第1のシリンドリカルレンズ39を経て第1の偏光ビームスプリッタ40に入射する。また、第3のレーザ光源33から出射した青のレーザビームは、エキスパンダ光学系36を経て、第2のダイクロイックミラー38で反射し、第1のシリンドリカルレンズ39を経て第1の偏光ビームスプリッタ40入射する。従って、第1及び第2のダイクロイックミラー37及び38はR,G,Bのカラービームを合成するビーム合成光学系を構成する。第1のシリンドリカルレンズ39は、入射した光ビームを第2の方向(後述するライン状光ビーム発生装置42のビーム発散方向と直交する方向、本例では紙面と直交する方向とする)にだけ収束させるレンズ作用を有する。 In this example, all the optical elements are arranged on the same plane, and the complexity of adjusting the optical system is eliminated. As the R, G, and B light sources, a laser light source 31 that generates a red light beam, a laser light source 32 that generates a green light beam, and a laser light source 33 that generates a blue light beam are used. These three laser light sources are constituted by semiconductor lasers, and the optical axes of the emitted laser beams are set so as to be located on the same plane. The wavelengths of the red laser light, the green laser light, and the blue laser light are, for example, 660 nm, 530 nm, and 440 nm. Expander optical systems 34 to 36 are arranged on the front surfaces of the laser light sources 1 to 3, respectively, and converted into expanded parallel light beams. The red laser beam emitted from the first laser light source 31 is converted into an expanded parallel light beam by the expander optical system 34, and the first dichroic mirror 37 that transmits red light and reflects green light, and red and red The light passes through the second dichroic mirror 38 that transmits green light and reflects blue light, and enters the first polarizing beam splitter 40 through the first cylindrical lens 39. The green laser beam emitted from the second laser light source 2 is made into an expanded parallel light beam by the expander optical system 35, reflected by the first dichroic mirror 37, transmitted through the second dichroic mirror 38, and the first Then, the light enters the first polarizing beam splitter 40 through the cylindrical lens 39. Further, the blue laser beam emitted from the third laser light source 33 is reflected by the second dichroic mirror 38 through the expander optical system 36, passes through the first cylindrical lens 39, and is then supplied to the first polarizing beam splitter 40. Incident. Accordingly, the first and second dichroic mirrors 37 and 38 constitute a beam combining optical system that combines the R, G, and B color beams. The first cylindrical lens 39 converges the incident light beam only in the second direction (a direction orthogonal to a beam divergence direction of a line-shaped light beam generator 42 described later, in this example, a direction orthogonal to the paper surface). It has a lens action.
R,G,Bのレーザビームは、第1の偏光ビームスプリッタ40を透過し、λ/4波長板41を経て本発明によるライン状光ビーム発生装置42の光入射面に収束した状態で垂直に入射する。このライン状光ビーム発生装置は、2次元マトリックス状に配置され、例えば14μm×14μmの矩形のアルミニウムの反射面を有する複数のマイクロミラー素子を光入射面に具えるマイクロミラー装置で構成する。各マイクロミラー素子のミラー面は、後述するように、駆動回路から供給される駆動パルスにより高速で往復回動ないし往復傾動するため、入射したレーザビームを第1の方向に高速振動させることになる。従って、レーザビーム全体として見た場合、マイクロミラー装置42から、第1の方向(紙面内に延在する方向)に発散する光ビームして出射する。さらに、マイクロミラー装置の各マイクロミラー素子のミラー面はそれぞれランダムな状態で回動ないし傾動するため、入射したレーザビームの各マイクロミラー素子に入射した微小のビーム部分はそれぞれランダムな状態で反射する。この結果、マイクロミラー装置から出射する光ビームは、ビーム全体として見た場合位相関係がそれぞれランダムな状態になり、もはやコヒーレンス性が維持されず、発散性の非コヒーレントな光ビームに変換される。この結果、グレァ等の発生を防止することができ、鮮明な試料像を撮像することができる。 The R, G, and B laser beams pass through the first polarizing beam splitter 40, pass through the λ / 4 wavelength plate 41, and converge vertically on the light incident surface of the line-shaped light beam generator 42 according to the present invention. Incident. This line-shaped light beam generator is arranged in a two-dimensional matrix, and is composed of, for example, a micromirror device having a plurality of micromirror elements having a rectangular aluminum reflecting surface of 14 μm × 14 μm on the light incident surface. As will be described later, since the mirror surface of each micromirror element is reciprocally rotated or reciprocated at high speed by a drive pulse supplied from a drive circuit, the incident laser beam is vibrated at high speed in the first direction. . Therefore, when viewed as the entire laser beam, the light is emitted from the micromirror device 42 as a light beam that diverges in the first direction (the direction extending in the drawing). Further, since the mirror surface of each micromirror element of the micromirror device is rotated or tilted in a random state, a minute beam portion incident on each micromirror element of the incident laser beam is reflected in a random state. . As a result, the light beam emitted from the micromirror device has a random phase relationship when viewed as a whole beam, and the coherence is no longer maintained and is converted into a divergent non-coherent light beam. As a result, the occurrence of glare or the like can be prevented, and a clear sample image can be taken.
ライン状光ビーム発生装置42から出射した非コヒーレントな発散性光ビームは、λ/4波長板41を透過し、第1の偏光ビームスプリッタ40の偏光面で反射し、収束性球面レンズ43に入射し、当該収束性球面レンズにより第1の方向に拡大された平行光ビームに変換される。この平行光ビームは、第2のシリンドリカルレンズ44により第2の方向に収束され、結像レンズ45を経て第2の偏光ビームスプリッタ46に入射する。従って、第2のシリンドリカルレンズ44の結像位置には、第1の方向に拡大され第1の方向と直交する第2の方向には集束した平行なライン状の光ビームが形成される。 The non-coherent divergent light beam emitted from the line-shaped light beam generator 42 passes through the λ / 4 wavelength plate 41, is reflected by the polarization plane of the first polarization beam splitter 40, and enters the convergent spherical lens 43. Then, it is converted into a parallel light beam expanded in the first direction by the convergent spherical lens. The parallel light beam is converged in the second direction by the second cylindrical lens 44, and enters the second polarization beam splitter 46 through the imaging lens 45. Therefore, at the image forming position of the second cylindrical lens 44, a parallel line-shaped light beam that is enlarged in the first direction and converged in the second direction orthogonal to the first direction is formed.
第2の偏光ビームスプリッタ46に入射した細いライン状の光ビームは、リレーレンズ47を経て振動ミラー48に入射する。この振動ミラー48は、駆動回路49の制御のもとで、入射したライン状光ビームをその延在方向と直交する第2の方向に例えばテレビレートの副走査周波数で偏向する。振動ミラー48により偏向された光ビームは、リレーレンズ50及び51並びにλ/4波長板52を経て対物レンズ53に入射する。対物レンズは、入射したライン状光ビームを集束してステージ上に載置され、紙面と直交する方向に延在する半導体ウェハ54の端縁に投射する。従って、半導体ウェハの端縁54は、第2の方向に集束したライン状の光ビームにより1次元的に走査されることになる。 The thin line-shaped light beam incident on the second polarization beam splitter 46 enters the vibrating mirror 48 via the relay lens 47. The oscillating mirror 48 deflects the incident line-shaped light beam in a second direction orthogonal to the extending direction thereof, for example, at a television rate sub-scanning frequency under the control of the drive circuit 49. The light beam deflected by the vibration mirror 48 enters the objective lens 53 through the relay lenses 50 and 51 and the λ / 4 wavelength plate 52. The objective lens focuses the incident linear light beam, places it on the stage, and projects it onto the edge of the semiconductor wafer 54 extending in the direction perpendicular to the paper surface. Therefore, the edge 54 of the semiconductor wafer is scanned one-dimensionally by the line-shaped light beam focused in the second direction.
半導体ウェハ54の端縁領域で反射した反射ビームは、対物レンズ53により集光され、再びλ/4波長板52並びにリレーレンズ51及び50を経て振動ミラー48に入射する。この試料からの反射ビームは、振動ミラー48によりデスキャンされ、リレーレンズ47を経て第2の偏光ビームスプリッタ46に入射する。この試料からの反射ビームはλ/4波長板52を2回透過しているから、第2の偏光ビームスプリッタ46を透過して光源から試料に向かう照明ビームから分離され、受光装置56に入射する。この受光装置56は、試料からの反射ビームを受光してR,G,Bのビデオ信号を発生する。R,G,Bのビデオ信号を発生させる方法として種々の方法があり、具体的な内容は後述する。受光装置56から発生したR,G,Bのビデオ信号は信号処理回路57に供給され、R,G,Bのビデオ信号を合成してカラービデオ信号を出力する。 The reflected beam reflected by the edge region of the semiconductor wafer 54 is collected by the objective lens 53 and enters the vibrating mirror 48 again through the λ / 4 wavelength plate 52 and the relay lenses 51 and 50. The reflected beam from the sample is descanned by the vibrating mirror 48 and enters the second polarizing beam splitter 46 via the relay lens 47. Since the reflected beam from this sample passes through the λ / 4 wavelength plate 52 twice, it is separated from the illumination beam that passes through the second polarizing beam splitter 46 and travels from the light source to the sample, and enters the light receiving device 56. . The light receiving device 56 receives the reflected beam from the sample and generates R, G, B video signals. There are various methods for generating R, G, and B video signals, the specific contents of which will be described later. The R, G, and B video signals generated from the light receiving device 56 are supplied to the signal processing circuit 57, and the R, G, and B video signals are combined to output a color video signal.
次に、R,G,Bのビデオ信号を発生する受光装置について説明する。受光装置の第1の実施例を図4に示す。本例では、第1及び第2のダイクロイックミラー60及び61を有する色分解光学系を用いて、試料からの反射ビームをR,G,Bの各カラー光に分解し、各カラー光をそれぞれリニァイメージセンサに入射させてビデオ信号を発生させる。すなわち、試料からの反射ビームは、赤及び緑の光を透過し青の光を反射する第1のダイクロイックミラー60に入射し、青の光は第1のリニァイメージセンサ62に入射する。この入射光は振動ミラー48によりデスキャンされているため、第1のリニァイメージセンサ62上に静止状態に維持される。赤及び緑の光は、緑の光を反射し赤の光を透過する第2のダイクロイックミラー61に入射し、緑の光は第2のリニァイメージセンサ63に入射し、赤の光は第2のダイクロイックミラーを透過し第3のリニァイメージセンサ64に入射する。第1〜第3のリニァイメージセンサは、第1の方向と対応する方向にそって配列された複数の受光素子を有する。各受光素子に蓄積された電荷は、コントローラ65から供給される制御信号のもとで制御されるリニァイメージセンサ読出回路66からの読出信号により例えばテレビレートで読み出され、R,G,Bのビデオ信号をそれぞれ発生する。これらR,G,Bのビデオ信号は増幅器により増幅されて信号処理回路57に供給され、信号処理回路において合成され、カラービデオ信号が出力される。このように、試料表面を集束したライン状光ビームで走査し、試料からの反射ビームをリニァイメージセンサに集束した状態で入射させることによりラインコンフォーカル光学系が構成され、高い分解能の試料像を出力することができる。 Next, a light receiving device that generates R, G, and B video signals will be described. FIG. 4 shows a first embodiment of the light receiving device. In this example, the color separation optical system having the first and second dichroic mirrors 60 and 61 is used to separate the reflected beam from the sample into R, G, and B color lights, and the respective color lights are lined up. A video signal is generated by being incident on the image sensor. That is, the reflected beam from the sample is incident on the first dichroic mirror 60 that transmits red and green light and reflects blue light, and the blue light is incident on the first linear image sensor 62. Since the incident light is descanned by the vibrating mirror 48, the incident light is kept stationary on the first linear image sensor 62. The red and green light is incident on the second dichroic mirror 61 that reflects the green light and transmits the red light, the green light is incident on the second linear image sensor 63, and the red light is the first light. 2 passes through the dichroic mirror 2 and enters the third linear image sensor 64. The first to third linear image sensors have a plurality of light receiving elements arranged along a direction corresponding to the first direction. The electric charge accumulated in each light receiving element is read out at a television rate, for example, by a readout signal from a linear image sensor readout circuit 66 controlled under the control signal supplied from the controller 65, and R, G, B Video signals are generated respectively. These R, G, and B video signals are amplified by an amplifier and supplied to a signal processing circuit 57, where they are combined and a color video signal is output. In this way, a line confocal optical system is constructed by scanning the sample surface with a focused line-shaped light beam and allowing the reflected beam from the sample to enter the linear image sensor in a focused state, thereby forming a high-resolution sample image. Can be output.
受光装置の第2の実施例を図5(A)に示す。第2の実施例では、単一のリニァイメージセンサを用いてR,G,Bのビデオ信号を発生する。リニァイメージセンサとして、図5(A)に示すように、受光素子の前面にR,G,Bのカラーフィルタ素子が順次配置され、R,G,Bの光を選択的に受光するR,G,B用の受光素子が第1の方向と対応する方向に沿ってインライン状に順次配列されているリニァイメージセンサを用いる。このリニァイメージセンサを用いる場合、各R,G,Bの受光素子に蓄積された電荷をそれぞれ分離して出力することにより、R,G,Bのビデオ信号を出力することができ、R,G,Bのビデオ出力を信号処理回路57において合成することによりカラー画像を出力することができる。 A second embodiment of the light receiving device is shown in FIG. In the second embodiment, R, G, and B video signals are generated using a single linear image sensor. As a linear image sensor, as shown in FIG. 5A, R, G, B color filter elements are sequentially arranged on the front surface of the light receiving element, and R, G, B light is selectively received. A linear image sensor in which light receiving elements for G and B are sequentially arranged in a line along a direction corresponding to the first direction is used. When this linear image sensor is used, R, G, and B video signals can be output by separating and outputting the charges accumulated in the R, G, and B light receiving elements. A color image can be output by combining the video outputs of G and B in the signal processing circuit 57.
第3の実施例として、図5(B)に示すように、リニァイメージセンサの受光素子の配列方向である第1の方向と直交する第2の方向に3つの受光素子列を設け、各受光素子列に試料からのR,G,Bの反射ビームをそれぞれ入射させる。本例では、R,G,Bのレーザ光源1〜3の光軸を当該顕微鏡の基本光軸に対して、第2の方向に微小な角度だけ傾け、R,G,Bの照明ビームを半導体ウェハの同一位置に入射させる。試料からの反射ビームを受光する受光装置において、3個の受光素子列を第2の方向に僅かにシフトさせて配置する。そして、試料からのR,G,Bの反射ビームを各受光素子列にそれぞれ入射させ、各受光素子列から出力されるR,G,Bのビデオ信号を信号処理回路57において合成することによりカラー画像を撮像することができる。尚、この場合、受光素子の配列方向と直交する方向に3個のリニァイメージセンサを配置し、各リニァイメージセンサに試料からのR,G,Bの反射ビームを入射させることも可能である。 As a third embodiment, as shown in FIG. 5B, three light receiving element arrays are provided in a second direction orthogonal to the first direction that is the arrangement direction of the light receiving elements of the linear image sensor. R, G, and B reflected beams from the sample are respectively incident on the light receiving element array. In this example, the optical axes of the R, G, and B laser light sources 1 to 3 are tilted by a minute angle in the second direction with respect to the basic optical axis of the microscope, and the R, G, and B illumination beams are converted into semiconductors. The light is incident on the same position on the wafer. In the light receiving device that receives the reflected beam from the sample, the three light receiving element arrays are arranged slightly shifted in the second direction. Then, R, G, and B reflected beams from the sample are respectively incident on the respective light receiving element arrays, and R, G, and B video signals output from the respective light receiving element arrays are combined in the signal processing circuit 57 to obtain a color. An image can be taken. In this case, it is also possible to arrange three linear image sensors in a direction orthogonal to the arrangement direction of the light receiving elements, and make R, G, B reflected beams from the sample enter each linear image sensor. is there.
さらに、受光装置の第4の実施例として、R,G,Bのレーザ光源を時分割方式により駆動してカラー画像を撮像する例について説明する。本例では、R,G,Bのレーザ光源を時分割駆動方式により順次駆動し、試料で順次反射したR,G,Bの反射ビームを単一のリニァイメージセンサにより順次受光してR,G,Bのビデオ信号を出力する。R,G,Bの第1〜第3の光源の発光波形及びリニァイメージセンサから読み出されるビデオ出力波形を図6に示す。図6に示すように、光源駆動回路(図示せず)の制御のもとで、Rの光源1だけを発光させ、他の2つの光源の駆動を停止して、所定の発光期間中に赤のレーザビームだけを試料に照射する。次に、赤のレーザ光源1を停止し、光源2を駆動して試料に緑の照明ビームだけを照射する。この緑の照明ビームの照射期間中にリニァイメージセンサ56に蓄積された電荷を読み出し、赤のビデオ出力を形成する。次に、青の光源だけを駆動して青のレーザビームを試料に照射し、この発光期間中にリニァイメージセンサから蓄積された電荷を読出し、緑のビデオ出力を形成する。このようにして、R,G,Bの輝度情報を順次出力し、信号処理回路57において合成することにより、試料のカラー画像を形成することができる。この時分割方式を利用することにより、リニァイメージセンサを1個設けるだけですむと共に色分解光学系が不要になる利点が達成される。 Furthermore, as a fourth embodiment of the light receiving device, an example in which a color image is picked up by driving R, G, B laser light sources by a time division method will be described. In this example, R, G, and B laser light sources are sequentially driven by a time-division drive system, and R, G, and B reflected beams that are sequentially reflected by the sample are sequentially received by a single linear image sensor. G and B video signals are output. FIG. 6 shows the emission waveforms of the first, third, and third light sources of R, G, and B and the video output waveform read from the linear image sensor. As shown in FIG. 6, under the control of a light source driving circuit (not shown), only the R light source 1 is caused to emit light, the other two light sources are stopped, and red is emitted during a predetermined light emission period. The sample is irradiated with only the laser beam. Next, the red laser light source 1 is stopped, and the light source 2 is driven to irradiate the sample with only the green illumination beam. The charge accumulated in the linear image sensor 56 during the irradiation period of the green illumination beam is read out to form a red video output. Next, only the blue light source is driven to irradiate the sample with a blue laser beam, and the charges accumulated from the linear image sensor during this light emission period are read out to form a green video output. In this way, the luminance information of R, G, B is sequentially output and synthesized in the signal processing circuit 57, whereby a color image of the sample can be formed. By using this time division method, only one linear image sensor is required, and an advantage that a color separation optical system is not required is achieved.
次に、レーザ光源として白色光を発生するレーザ光源を用いる例について説明する。前述した実施例では、レーザ光源としてR,G,Bのカラー光をそれぞれ発生する3つのレーザ光源を用いたが、白色のレーザビームを放出する単一のレーザ光源を用いてカラーレーザ顕微鏡を構成することも可能である。この実施例では、白色のレーザ光を発生するレーザ光源を用い、ライン状光ビーム発生装置及びビーム偏向装置を介して白色のライン状光ビームにより試料を走査する。試料表面で反射した白色ビームは、再びビーム偏向装置及び第2のビームスプリッタを介して受光装置に入射する。受光装置においては、図4に示すように、試料からの反射ビームを色分解光学系によりR,G,Bの成分に分解し、それぞれリニァイメージセンサに入射させ、R,G,Bのビデオ出力を発生させることができる。或いは、図5(A)に示す単一のリニァイメージセンサ、すなわちR,G,Bの成分光をそれぞれ選択的に受光する受光素子を第1の方向にそって順次配列したリニァイメージセンサを用いてR,G,Bのビデオ出力を発生させることも可能である。このように、光源として白色のレーザ光を発生するレーザ光源を用いることにより、単一のレーザを用いるだけでカラービデオ信号を形成できる利点が達成される。 Next, an example using a laser light source that generates white light as a laser light source will be described. In the above-described embodiment, three laser light sources that respectively generate R, G, and B color lights are used as laser light sources. However, a color laser microscope is configured using a single laser light source that emits a white laser beam. It is also possible to do. In this embodiment, a laser light source that generates white laser light is used, and a sample is scanned with a white line light beam via a line light beam generator and a beam deflector. The white beam reflected by the sample surface enters the light receiving device again via the beam deflecting device and the second beam splitter. In the light receiving device, as shown in FIG. 4, the reflected beam from the sample is separated into R, G, and B components by a color separation optical system, respectively, and incident on a linear image sensor, and R, G, and B videos are obtained. Output can be generated. Alternatively, a single linear image sensor shown in FIG. 5A, that is, a linear image sensor in which light receiving elements that selectively receive R, G, and B component lights are sequentially arranged in the first direction. Can be used to generate R, G, B video outputs. Thus, by using a laser light source that generates white laser light as a light source, an advantage that a color video signal can be formed only by using a single laser is achieved.
本発明は上述した実施例だけに限定されず種々の変形や変更が可能である。例えば、上述した実施例では、観察すべき試料として半導体ウェハの端縁を例にしたが、種々のディスク状物体の端縁画像を撮像する場合にも適用することができる。
また、信号処理回路における信号処理は一例であり、3次元走査により得られた各種の情報を用いて所望の画像をモニタ上に表示することができる。
さらに、上述した実施例では、2つの撮像ヘッドを用いて半導体ウェハの端縁を撮像する例について説明したが、勿論3個の撮像ヘッドを用いて撮像することも可能である。
The present invention is not limited to the above-described embodiments, and various modifications and changes can be made. For example, in the above-described embodiment, the edge of the semiconductor wafer is taken as an example of the sample to be observed, but the present invention can also be applied to capturing edge images of various disk-like objects.
The signal processing in the signal processing circuit is an example, and a desired image can be displayed on the monitor using various information obtained by three-dimensional scanning.
Furthermore, in the above-described embodiment, the example in which the edge of the semiconductor wafer is imaged using two imaging heads has been described, but it is also possible to image using three imaging heads.
1 水銀ランプ
2 光ファイバ
3 スリット
4 ビームスプリッタ
5 結像レンズ
6 振動ミラー
7,8 リレーレンズ
9 対物レンズ
10 半導体ウェハ
11 ステップモータ
12 リニァイメージセンサ
13 増幅器
14 信号処理回路
15 画像表示装置
DESCRIPTION OF SYMBOLS 1 Mercury lamp 2 Optical fiber 3 Slit 4 Beam splitter 5 Imaging lens 6 Vibration mirror 7, 8 Relay lens 9 Objective lens 10 Semiconductor wafer 11 Step motor 12 Linear image sensor 13 Amplifier 14 Signal processing circuit 15 Image display apparatus
Claims (7)
ライン状光ビームを発生する光源装置と、前記光源装置から発生したライン状光ビームを、その延在方向と直交する方向に偏向するビーム偏向装置と、ビーム偏向装置から出射したライン状光ビームを、集束性ライン状光ビームとして半導体ウェハの端縁に向けて投射する対物レンズと、対物レンズをその光軸方向に移動させる対物レンズ移動機構と、前記ライン状光ビームの延在方向と対応する方向に沿って配列された複数の受光素子を有し、前記半導体ウェハからの反射光を受光するリニァイメージセンサとを有する第1及び第2の撮像ヘッドを含む少なくとも2個の撮像ヘッド、及び、
前記撮像ヘッドのリニァイメージセンサからの出力信号を受け取り、ビデオ信号を形成する信号処理回路を具え、
前記撮像ヘッドを、半導体ウェハの第1及び第2の面と平行な中心面と直交する同一面上に配置し、
各撮像ヘッドの対物レンズから出射し半導体ウェハの端縁に入射する集束性のライン状光ビームを、前記半導体ウェハの中心面に対してほぼ直交する面内に延在するように設定し、
半導体ウェハの端縁をその周囲に沿って複数の角度方向から、対物レンズと半導体ウェハとの間の相対距離を変えながら端縁領域の像を順次撮像し、前記信号処理回路において、複数の角度方向から撮像した画像を合成して端縁領域の画像を表すビデオ信号を出力することを特徴とする撮像システム。 An imaging system for imaging an edge region of a semiconductor wafer having a first surface that is an element forming surface parallel to each other, a second surface that is a back surface, and an edge located between the two surfaces. ,
A light source device that generates a line-shaped light beam, a beam deflecting device that deflects the line-shaped light beam generated from the light source device in a direction orthogonal to the extending direction, and a line-shaped light beam emitted from the beam deflecting device An objective lens that projects toward the edge of the semiconductor wafer as a converging line-shaped light beam, an objective lens moving mechanism that moves the objective lens in the direction of the optical axis thereof, and an extension direction of the line-shaped light beam At least two imaging heads, including first and second imaging heads, each having a plurality of light receiving elements arranged along a direction and having a linear image sensor that receives reflected light from the semiconductor wafer; ,
A signal processing circuit for receiving an output signal from a linear image sensor of the imaging head and forming a video signal;
The imaging head is disposed on the same plane orthogonal to a central plane parallel to the first and second surfaces of the semiconductor wafer,
A converging line-shaped light beam emitted from the objective lens of each imaging head and incident on the edge of the semiconductor wafer is set so as to extend in a plane substantially orthogonal to the central plane of the semiconductor wafer,
Images of the edge region are sequentially taken while changing the relative distance between the objective lens and the semiconductor wafer from a plurality of angular directions along the periphery of the edge of the semiconductor wafer. An imaging system characterized in that images taken from directions are combined to output a video signal representing an image of an edge region.
ライン状光ビームを発生する光源装置と、前記光源装置から発生したライン状光ビームを、その延在方向と直交する方向に偏向するビーム偏向装置と、ビーム偏向装置から出射したライン状光ビームを、集束性ライン状光ビームとして半導体ウェハの端縁に向けて投射する対物レンズと、対物レンズをその光軸方向に移動させる対物レンズ移動機構と、前記ライン状光ビームの延在方向と対応する方向に沿って配列された複数の受光素子を有し、前記半導体ウェハからの反射光を受光するリニァイメージセンサとを有する撮像ヘッド、
前記撮像ヘッドのリニァイメージセンサからの出力信号を受け取り、ビデオ信号を形成する信号処理回路、及び、
前記撮像ヘッドと半導体ウェハの端縁とを互いに相対的に回転させる回転駆動機構を具え、半導体ウェハ又は撮像ヘッドを互いに相対的に回転させて、複数の角度方向から対物レンズと半導体ウェハとの間の相対距離を変えながら端縁の像を撮像し、前記信号処理回路において、複数の角度方向から撮像した画像を合成してビデオ信号を出力することを特徴とする撮像システム。 An imaging system for imaging an edge region of a semiconductor wafer having a first surface that is an element forming surface parallel to each other, a second surface that is a back surface, and an edge located between the two surfaces. ,
A light source device that generates a line-shaped light beam, a beam deflecting device that deflects the line-shaped light beam generated from the light source device in a direction orthogonal to the extending direction, and a line-shaped light beam emitted from the beam deflecting device An objective lens that projects toward the edge of the semiconductor wafer as a converging line-shaped light beam, an objective lens moving mechanism that moves the objective lens in the direction of the optical axis thereof, and an extension direction of the line-shaped light beam An imaging head having a plurality of light receiving elements arranged along a direction and a linear image sensor that receives reflected light from the semiconductor wafer;
A signal processing circuit that receives an output signal from a linear image sensor of the imaging head and forms a video signal; and
A rotation drive mechanism for rotating the imaging head and the edge of the semiconductor wafer relative to each other is provided, and the semiconductor wafer or the imaging head is rotated relative to each other so that the objective lens and the semiconductor wafer can be rotated from a plurality of angular directions. An image pickup system that captures an image of an edge while changing the relative distance of the image and outputs a video signal by synthesizing images picked up from a plurality of angular directions in the signal processing circuit.
三原色のライン状光ビームに合成する手段とを有し、半導体ウェハの端縁領域の画像をカラーのビデオ信号として出力することを特徴とする撮像システム。
7. The imaging system according to claim 1, wherein the imaging head includes three light sources of R, G, and B, and R, G, and B light beams generated from these light sources in three primary colors. An imaging system characterized in that an image of an edge region of a semiconductor wafer is output as a color video signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005128742A JP2006308336A (en) | 2005-04-26 | 2005-04-26 | Imaging system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005128742A JP2006308336A (en) | 2005-04-26 | 2005-04-26 | Imaging system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006308336A true JP2006308336A (en) | 2006-11-09 |
Family
ID=37475404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005128742A Pending JP2006308336A (en) | 2005-04-26 | 2005-04-26 | Imaging system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006308336A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007163265A (en) * | 2005-12-13 | 2007-06-28 | Ohkura Industry Co | Sectional shape measuring device and sectional shape measuring method |
JP2007256272A (en) * | 2006-02-24 | 2007-10-04 | Hitachi High-Technologies Corp | Surface inspection apparatus |
JP2008215890A (en) * | 2007-02-28 | 2008-09-18 | Nikon Corp | Inspection method and inspection device |
JP2009025288A (en) * | 2007-05-15 | 2009-02-05 | Ioss Intelligente Optische Sensoren & Systeme Gmbh | Device having view field mirror for inspecting optically surface |
CN102023164A (en) * | 2009-09-23 | 2011-04-20 | 法国圣-戈班玻璃公司 | Device and method for detecting local defects of transparent surface plate |
CN111122602A (en) * | 2020-01-03 | 2020-05-08 | 重庆大学 | Anomaly detection system and method for straddle-type monorail finger plate based on 3D camera |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05164967A (en) * | 1991-12-12 | 1993-06-29 | Matsushita Electric Ind Co Ltd | Scanning type laser microscope |
JPH11173821A (en) * | 1997-12-10 | 1999-07-02 | Yasunaga Corp | Optical inspecting device |
JP2000136916A (en) * | 1998-10-15 | 2000-05-16 | Wacker Siltronic Corp | Method and apparatus for detecting, monitoring and characterizing edge defects on semiconductor wafers |
JP2000512401A (en) * | 1997-03-29 | 2000-09-19 | カール ツアイス イエーナ ゲゼルシャフト ミット ベシュレンクテル ハフツング | Confocal microscope |
JP2000284185A (en) * | 1999-03-30 | 2000-10-13 | Matsushita Electric Ind Co Ltd | Method and unit for controlling confocal microscope |
JP2002228421A (en) * | 2001-02-02 | 2002-08-14 | Olympus Optical Co Ltd | Scanning laser microscope |
JP2003139523A (en) * | 2001-11-02 | 2003-05-14 | Nippon Electro Sensari Device Kk | Surface defect detecting method and surface defect detecting device |
JP2004053495A (en) * | 2002-07-23 | 2004-02-19 | Lasertec Corp | Inspection device of color filter |
JP2005055196A (en) * | 2003-08-05 | 2005-03-03 | Olympus Corp | Substrate inspection method and its device |
JP2005062421A (en) * | 2003-08-11 | 2005-03-10 | Ohkura Industry Co | Line-like light beam generator and laser microscope |
-
2005
- 2005-04-26 JP JP2005128742A patent/JP2006308336A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05164967A (en) * | 1991-12-12 | 1993-06-29 | Matsushita Electric Ind Co Ltd | Scanning type laser microscope |
JP2000512401A (en) * | 1997-03-29 | 2000-09-19 | カール ツアイス イエーナ ゲゼルシャフト ミット ベシュレンクテル ハフツング | Confocal microscope |
JPH11173821A (en) * | 1997-12-10 | 1999-07-02 | Yasunaga Corp | Optical inspecting device |
JP2000136916A (en) * | 1998-10-15 | 2000-05-16 | Wacker Siltronic Corp | Method and apparatus for detecting, monitoring and characterizing edge defects on semiconductor wafers |
JP2000284185A (en) * | 1999-03-30 | 2000-10-13 | Matsushita Electric Ind Co Ltd | Method and unit for controlling confocal microscope |
JP2002228421A (en) * | 2001-02-02 | 2002-08-14 | Olympus Optical Co Ltd | Scanning laser microscope |
JP2003139523A (en) * | 2001-11-02 | 2003-05-14 | Nippon Electro Sensari Device Kk | Surface defect detecting method and surface defect detecting device |
JP2004053495A (en) * | 2002-07-23 | 2004-02-19 | Lasertec Corp | Inspection device of color filter |
JP2005055196A (en) * | 2003-08-05 | 2005-03-03 | Olympus Corp | Substrate inspection method and its device |
JP2005062421A (en) * | 2003-08-11 | 2005-03-10 | Ohkura Industry Co | Line-like light beam generator and laser microscope |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007163265A (en) * | 2005-12-13 | 2007-06-28 | Ohkura Industry Co | Sectional shape measuring device and sectional shape measuring method |
JP2007256272A (en) * | 2006-02-24 | 2007-10-04 | Hitachi High-Technologies Corp | Surface inspection apparatus |
JP2008215890A (en) * | 2007-02-28 | 2008-09-18 | Nikon Corp | Inspection method and inspection device |
JP2009025288A (en) * | 2007-05-15 | 2009-02-05 | Ioss Intelligente Optische Sensoren & Systeme Gmbh | Device having view field mirror for inspecting optically surface |
CN102023164A (en) * | 2009-09-23 | 2011-04-20 | 法国圣-戈班玻璃公司 | Device and method for detecting local defects of transparent surface plate |
CN111122602A (en) * | 2020-01-03 | 2020-05-08 | 重庆大学 | Anomaly detection system and method for straddle-type monorail finger plate based on 3D camera |
CN111122602B (en) * | 2020-01-03 | 2021-03-30 | 重庆大学 | Three-dimensional camera-based straddle type monorail finger-shaped plate abnormity detection system and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR910000617B1 (en) | Image pick-up apparatus | |
US7598502B2 (en) | Confocal laser scanning microscope | |
JP3343276B2 (en) | Laser scanning optical microscope | |
US20130093873A1 (en) | System for synchronization in a line scanning imaging microscope | |
JP4746311B2 (en) | Color laser microscope | |
JP2007206441A (en) | Confocal imaging apparatus | |
US7312920B2 (en) | Confocal microscope | |
JP4698232B2 (en) | Imaging system and imaging method | |
JP4725967B2 (en) | Minute height measuring device and displacement meter unit | |
JP2006308336A (en) | Imaging system | |
JP4526988B2 (en) | Minute height measuring method, minute height measuring apparatus and displacement unit used therefor | |
JP4963567B2 (en) | Minute height measuring device | |
JPH06160728A (en) | Microlaser equipment | |
JP4787012B2 (en) | Cross-sectional shape measuring apparatus and cross-sectional shape measuring method | |
JP4850523B2 (en) | Confocal microscope | |
JPH05288992A (en) | Transmission type microscope | |
JP2006067171A (en) | Color image pickup device | |
JP2989330B2 (en) | Microscope observation device | |
JP2002040329A (en) | Confocal microscope | |
JP2002090628A (en) | Confocal microscope | |
JP4884764B2 (en) | Laser microscope | |
KR102743711B1 (en) | Intraoral dental scanner using remote focus control and confocal and scanning method by the same | |
JPH05127089A (en) | Scanning type microscope | |
KR20190063027A (en) | A method for auto-focus controlling in a line-scanning confocal microscopy and the apparatus therefor | |
JP2001041821A (en) | Slit image detecting apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080307 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100805 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100824 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101221 |