Nothing Special   »   [go: up one dir, main page]

JP2015210396A - Aligment device, microscope system, alignment method and alignment program - Google Patents

Aligment device, microscope system, alignment method and alignment program Download PDF

Info

Publication number
JP2015210396A
JP2015210396A JP2014092107A JP2014092107A JP2015210396A JP 2015210396 A JP2015210396 A JP 2015210396A JP 2014092107 A JP2014092107 A JP 2014092107A JP 2014092107 A JP2014092107 A JP 2014092107A JP 2015210396 A JP2015210396 A JP 2015210396A
Authority
JP
Japan
Prior art keywords
optical system
imaging
object plane
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014092107A
Other languages
Japanese (ja)
Inventor
洋子 阿部
Yoko Abe
洋子 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014092107A priority Critical patent/JP2015210396A/en
Publication of JP2015210396A publication Critical patent/JP2015210396A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an alignment device and the like that can acquire a tracing of a relative movement between a loading surface of a subject and an imaging device without providing a dedicated mechanism for alignment.SOLUTION: An alignment device comprises: an imaging optical system that is provided in such a manner that an optical axis tilts at a prescribed angle relative to a normal line of a planar object plane; movement means that relatively moves the object plane and the imaging optical system in a direction where a tilt direction of the optical axis is projected to the object plane; an imaging control unit 22 that causes the imaging optical system to execute photographing at first and second locations where a relative location with the object plane is mutually different, and thereby causes the imaging optical system to acquire first and second images corresponding to the first and second locations, respectively; and a straightness detection unit 233 that compares first and second in-focus areas respectively detected from the first and second images to thereby detect a tracing of the relative movement between the object plane and the imaging optical system.

Description

本発明は、被写体の載置面と撮像装置との相対運動における真直度を検出するアライメント装置、該アライメント装置を適用した顕微鏡システム、アライメント方法、及びアライメントプログラムに関する。   The present invention relates to an alignment apparatus that detects straightness in relative motion between a mounting surface of an object and an imaging apparatus, a microscope system to which the alignment apparatus is applied, an alignment method, and an alignment program.

近年、LSI製造におけるウェハ上の回路パターン検出や、各種計測装置による計測や、顕微鏡による標本の広視野観察等は、撮像装置を用いて検査対象物や標本を写した画像を用いて行われている。この際、検査対象物や標本を電動ステージに載置し、この電動ステージを撮像装置に対して相対的に移動させることにより、撮像装置の視野、即ち、検査対象物上の検査(測定)位置や標本上の観察位置を変化させる。   In recent years, circuit pattern detection on a wafer in LSI manufacturing, measurement by various measuring devices, observation of a wide field of view of a sample by a microscope, and the like are performed using an image obtained by copying an inspection target or a sample using an imaging device. Yes. At this time, the inspection object or specimen is placed on the electric stage, and the electric stage is moved relative to the imaging apparatus, whereby the field of view of the imaging apparatus, that is, the inspection (measurement) position on the inspection object. And change the observation position on the specimen.

電動ステージをXYZの各方向において平行移動させる際の運動の平行度は、一般に、真直度によって表される。真直度とは、直進運動すべき運動部品の幾何学的直線からの狂い(変動)の大きさのことをいう。この真直度は、移動機構の特性上、完全にゼロになることはない。例えばXY平面内で電動ステージを平行移動させた場合、電動ステージのZ位置にも数μmレベルの変動(ブレ)が生じてしまう。しかしながら、このような変動が生じると、検出誤差や測定誤差、或いは観察位置の誤差等が生じ、正確な情報を取得できなくなるおそれがある。そのため、電動ステージの進行方向以外の方向における移動の軌跡を把握し、該移動の軌跡に基づいて、電動ステージの意図しない変動を低減するための調整を行う必要がある。   The parallelism of the movement when the electric stage is translated in each of the XYZ directions is generally expressed by straightness. Straightness refers to the magnitude of deviation (variation) from the geometric line of a moving part that should move straight. This straightness is never completely zero due to the characteristics of the moving mechanism. For example, when the electric stage is translated in the XY plane, a fluctuation (blur) of several μm level also occurs at the Z position of the electric stage. However, when such fluctuations occur, detection errors, measurement errors, observation position errors, and the like may occur, and accurate information may not be acquired. For this reason, it is necessary to grasp the movement trajectory in a direction other than the traveling direction of the electric stage, and to perform adjustment for reducing unintended fluctuations of the electric stage based on the movement trajectory.

真直度に関連する技術として、特許文献1には、直線移動機構の表面に対してレーザを照射することによりスペックル像を生成し、直線移動機構の移動に応じたスペックル像の相関変位に基づいて真直度を取得する技術が開示されている。   As a technique related to straightness, Patent Document 1 discloses that a speckle image is generated by irradiating a laser on the surface of a linear movement mechanism, and the correlation displacement of the speckle image according to the movement of the linear movement mechanism. A technique for acquiring straightness based on the above is disclosed.

特開2009−68957号公報JP 2009-68957 A

上記特許文献1においては、電動ステージの真直度を検出するために、専用光源(レーザ)を含む専用機構を設けている。しかしながら、このような専用機構を電動ステージに設けると、装置構成が複雑になってしまう。特に、一般的に用いられる顕微鏡の電動ステージに、レーザ等の専用光源を設けることは困難である。   In Patent Document 1, a dedicated mechanism including a dedicated light source (laser) is provided in order to detect the straightness of the electric stage. However, when such a dedicated mechanism is provided on the electric stage, the apparatus configuration becomes complicated. In particular, it is difficult to provide a dedicated light source such as a laser on an electric stage of a commonly used microscope.

本発明は上記に鑑みてなされたものであり、アライメントのための専用機構を設けることなく、被写体の載置面と撮像装置との相対移動の軌跡を取得することができるアライメント装置、該アライメント装置を適用した顕微鏡システム、アライメント方法、及びアライメントプログラムを提供することを目的とする。   The present invention has been made in view of the above, and an alignment apparatus that can acquire a trajectory of relative movement between an object mounting surface and an imaging apparatus without providing a dedicated mechanism for alignment, and the alignment apparatus An object of the present invention is to provide a microscope system, an alignment method, and an alignment program.

上述した課題を解決し、目的を達成するために、本発明に係るアライメント装置は、平面状をなす物体面の法線に対して光軸が所定の角度で傾斜するように設けられた撮像光学系と、前記光軸の傾斜方向を前記物体面に投影した方向に、前記物体面と前記撮像光学系とを相対移動させる移動手段と、前記物体面との相対位置が互いに異なる第1及び第2の位置において前記撮像光学系に撮像を実行させることにより、前記第1及び第2の位置にそれぞれ対応する第1及び第2の画像を取得させる撮像制御部と、前記第1及び第2の画像からそれぞれ検出された第1及び第2の合焦領域を比較することにより、前記物体面と前記撮像光学系との相対移動の軌跡を検出する検出部と、を備えることを特徴とする。   In order to solve the above-described problems and achieve the object, the alignment apparatus according to the present invention is an imaging optical device provided such that the optical axis is inclined at a predetermined angle with respect to a normal line of a planar object surface. A first moving unit that moves the object plane and the imaging optical system relative to each other in a direction in which the tilt direction of the optical axis is projected onto the object plane, and the relative positions of the object plane are different from each other. An imaging control unit that acquires the first and second images respectively corresponding to the first and second positions by causing the imaging optical system to perform imaging at the two positions; and the first and second A detection unit configured to detect a locus of relative movement between the object plane and the imaging optical system by comparing the first and second focus areas respectively detected from the images;

上記アライメント装置は、被写体が載置される載置面を有するステージをさらに備え、前記移動手段は、前記載置面と平行な面内において、前記物体面と前記撮像光学系とを相対移動させ、前記検出部は、前記載置面の法線方向における前記物体面と前記撮像光学系との相対的な変位を検出する、ことを特徴とする。   The alignment apparatus further includes a stage having a placement surface on which a subject is placed, and the moving unit relatively moves the object surface and the imaging optical system in a plane parallel to the placement surface. The detecting unit detects a relative displacement between the object plane and the imaging optical system in a normal direction of the mounting surface.

上記アライメント装置において、前記撮像光学系の光軸は、前記載置面の法線に対して前記角度をなし、前記撮像光学系は、前記載置面に対して平行となるように該載置面上に載置された被写体の表面を前記物体面として撮像を行う、ことを特徴とする。   In the alignment apparatus, the optical axis of the imaging optical system forms the angle with respect to the normal of the mounting surface, and the mounting optical system is parallel to the mounting surface. Imaging is performed using the surface of a subject placed on a surface as the object surface.

上記アライメント装置において、前記撮像光学系の光軸は、前記載置面と直交し、前記撮像光学系は、前記載置面に対して前記角度をなすように該載置面上に載置された被写体の表面を前記物体面として撮像を行う、ことを特徴とする。   In the alignment apparatus, an optical axis of the imaging optical system is orthogonal to the placement surface, and the imaging optical system is placed on the placement surface so as to form the angle with respect to the placement surface. Imaging is performed using the surface of the subject as the object plane.

上記アライメント装置において、前記検出部は、前記第1及び第2の画像からそれぞれ検出された第1及び第2の合焦領域の画像内における位置の変化を検出し、該位置の変化に基づいて前記軌跡を検出することを特徴とする。   In the alignment apparatus, the detection unit detects a change in position in the image of the first and second in-focus areas detected from the first and second images, respectively, and based on the change in the position The trajectory is detected.

上記アライメント装置において、前記検出部は、前記第1及び第2の画像からそれぞれ検出された第1及び第2の合焦領域の幅の変化を検出し、前記幅の変化に基づいて、前記載置面の法線方向における前記物体面と前記撮像光学系との相対位置を調整する調整手段をさらに備えることを特徴とする。   In the alignment apparatus, the detection unit detects a change in the width of the first and second focus areas detected from the first and second images, respectively, and based on the change in the width, The apparatus further includes an adjusting unit that adjusts a relative position between the object plane and the imaging optical system in the normal direction of the mounting surface.

上記アライメント装置は、前記検出部により検出された前記軌跡に基づいて、前記移動手段による前記物体面と前記撮像光学系との相対運動を較正する較正部をさらに備えることを特徴とする。   The alignment apparatus further includes a calibration unit that calibrates relative movement between the object plane and the imaging optical system by the moving unit based on the locus detected by the detection unit.

上記アライメント装置は、前記検出部により検出された前記軌跡に基づいて、前記移動手段による前記物体面と前記撮像光学系との相対運動を較正するための情報を表示する表示部をさらに備えることを特徴とする。   The alignment apparatus further includes a display unit that displays information for calibrating a relative motion between the object plane and the imaging optical system by the moving unit based on the locus detected by the detection unit. Features.

本発明に係る顕微鏡システムは、前記アライメント装置を備える。   A microscope system according to the present invention includes the alignment apparatus.

本発明に係るアライメント方法は、平面状をなす物体面の法線に対して光軸が所定の角度で傾斜するように撮像光学系を設ける設置ステップと、前記光軸の傾斜方向を前記物体面に投影した方向に、前記物体面と前記撮像光学系とを相対移動させる移動ステップと、前記物体面との相対位置が互いに異なる第1及び第2の位置において前記撮像光学系に撮像を実行させることにより、前記第1及び第2の位置にそれぞれ対応する第1及び第2の画像を取得させる撮像制御ステップと、前記第1及び第2の画像からそれぞれ検出された第1及び第2の合焦領域を比較することにより、前記物体面と前記撮像光学系との相対移動の軌跡を検出する検出ステップと、を含むことを特徴とする。   The alignment method according to the present invention includes an installation step of providing an imaging optical system so that an optical axis is inclined at a predetermined angle with respect to a normal line of a planar object surface, and an inclination direction of the optical axis is set to the object surface A moving step of moving the object plane and the imaging optical system relative to each other in a direction projected onto the imaging plane, and causing the imaging optical system to perform imaging at first and second positions where the relative positions of the object plane and the object plane are different from each other. Thus, the imaging control step for acquiring the first and second images corresponding to the first and second positions, respectively, and the first and second couplings detected from the first and second images, respectively. And a detection step of detecting a locus of relative movement between the object plane and the imaging optical system by comparing focal areas.

本発明に係るアライメントプログラムは、平面状をなす物体面と、該平面状をなす物体面の法線に対して光軸が所定の角度で傾斜するように設けられた撮像光学系とを、前記光軸の傾斜方向を前記物体面に投影した方向に相対移動させる制御を行う移動制御ステップと、前記物体面との相対位置が互いに異なる第1及び第2の位置において前記撮像光学系に撮像を実行させることにより、前記第1及び第2の位置にそれぞれ対応する第1及び第2の画像を取得させる撮像制御ステップと、前記第1及び第2の画像からそれぞれ検出された第1及び第2の合焦領域を比較することにより、前記物体面と前記撮像光学系との相対移動の軌跡を検出する検出ステップと、をコンピュータに実行させることを特徴とする。   An alignment program according to the present invention includes: a planar object surface; and an imaging optical system provided so that an optical axis is inclined at a predetermined angle with respect to a normal line of the planar object surface. A movement control step for performing a relative movement of the tilt direction of the optical axis in the direction projected onto the object plane, and imaging with the imaging optical system at first and second positions where the relative positions with respect to the object plane are different from each other. An imaging control step for acquiring first and second images corresponding to the first and second positions, respectively, and first and second detected from the first and second images, respectively. And a detection step of detecting a locus of relative movement between the object plane and the imaging optical system by comparing the in-focus areas.

本発明によれば、物体面に対して撮像光学系の光軸を傾斜させた状態で第1及び第2の位置において撮像を行うので、第1及び第2の位置の間において物体面と撮像光学系との相対的な間隔に変動が生じた場合に、該変動を、第1及び第2の画像からそれぞれ検出された第1及び第2の合焦領域の変化として検出することができる。従って、アライメントのための専用機構を設けることなく、被写体の載置面と撮像装置との相対移動の軌跡を取得することが可能となる。   According to the present invention, since the imaging is performed at the first and second positions with the optical axis of the imaging optical system being inclined with respect to the object plane, the imaging is performed between the object plane and the first and second positions. When a change occurs in the relative distance from the optical system, the change can be detected as a change in the first and second focus areas detected from the first and second images, respectively. Therefore, it is possible to obtain a locus of relative movement between the subject placement surface and the imaging device without providing a dedicated mechanism for alignment.

図1は、本発明の実施の形態1に係る顕微鏡システムの構成例を示すブロック図である。FIG. 1 is a block diagram showing a configuration example of a microscope system according to Embodiment 1 of the present invention. 図2は、図1に示す顕微鏡装置の構成例を示す模式図である。FIG. 2 is a schematic diagram illustrating a configuration example of the microscope apparatus illustrated in FIG. 1. 図3は、本発明の実施の形態1に係るアライメント方法の原理を説明するための模式図である。FIG. 3 is a schematic diagram for explaining the principle of the alignment method according to the first embodiment of the present invention. 図4は、本発明の実施の形態1に係るアライメント方法の原理を説明するための模式図である。FIG. 4 is a schematic diagram for explaining the principle of the alignment method according to the first embodiment of the present invention. 図5は、本発明の実施の形態1に係るアライメント方法の原理を説明するための模式図である。FIG. 5 is a schematic diagram for explaining the principle of the alignment method according to the first embodiment of the present invention. 図6は、本発明の実施の形態1に係るアライメント方法の原理を説明するための模式図である。FIG. 6 is a schematic diagram for explaining the principle of the alignment method according to the first embodiment of the present invention. 図7は、本発明の実施の形態1に係るアライメント方法において用いられる被写体の例を示す模式図である。FIG. 7 is a schematic diagram showing an example of a subject used in the alignment method according to Embodiment 1 of the present invention. 図8は、実施の形態1に係るアライメント方法において被写体を撮像する際の撮像方法を示す模式図である。FIG. 8 is a schematic diagram illustrating an imaging method when imaging a subject in the alignment method according to the first embodiment. 図9は、実施の形態1に係るアライメント方法において被写体を撮像する際の撮像方法を示す模式図である。FIG. 9 is a schematic diagram illustrating an imaging method when an object is imaged in the alignment method according to the first embodiment. 図10は、実施の形態1に係るアライメント方法において被写体を撮像する際の撮像方法を示す模式図である。FIG. 10 is a schematic diagram illustrating an imaging method when imaging a subject in the alignment method according to the first embodiment. 図11は、実施の形態1に係るアライメント方法において被写体を撮像する際の撮像方法を示す模式図である。FIG. 11 is a schematic diagram illustrating an imaging method when imaging a subject in the alignment method according to the first embodiment. 図12は、本発明の実施の形態1に係るアライメント方法を示すフローチャートである。FIG. 12 is a flowchart showing the alignment method according to the first embodiment of the present invention. 図13は、被写体に対する観察視野の移動方向(X方向)を示す模式図である。FIG. 13 is a schematic diagram illustrating the moving direction (X direction) of the observation visual field with respect to the subject. 図14は、被写体に対する観察視野の移動方向(Y方向)を示す模式図である。FIG. 14 is a schematic diagram showing the moving direction (Y direction) of the observation field with respect to the subject. 図15は、ラスタ順に撮像を行う場合における観察視野を示す模式図である。FIG. 15 is a schematic diagram illustrating an observation visual field when imaging is performed in raster order. 図16は、図1に示す合焦領域検出部が実行する合焦領域検出処理を示すフローチャートである。FIG. 16 is a flowchart showing a focus area detection process executed by the focus area detection unit shown in FIG. 図17は、観察視野を写した画像を36個の小領域に分割した例を示す模式図である。FIG. 17 is a schematic diagram showing an example in which an image showing the observation field of view is divided into 36 small regions. 図18は、図17に示す1つの小領域から抽出されたエッジを示すエッジ画像の模式図である。FIG. 18 is a schematic diagram of an edge image showing edges extracted from one small region shown in FIG. 図19は、合焦領域の選択方法を説明するための模式図である。FIG. 19 is a schematic diagram for explaining a method of selecting a focus area. 図20は、図17に示す画像から合焦領域が選択された例を示す模式図である。FIG. 20 is a schematic diagram illustrating an example in which an in-focus area is selected from the image illustrated in FIG. 図21は、図1に示す合焦位置比較部が実行する合焦領域の比較処理を示す模式図である。FIG. 21 is a schematic diagram illustrating the comparison process of the focus area executed by the focus position comparison unit illustrated in FIG. 1. 図22は、図1に示す真直度特性検出部が実行する真直度特性の検出処理を示すフローチャートである。FIG. 22 is a flowchart showing a straightness characteristic detection process executed by the straightness characteristic detection unit shown in FIG. 図23は、本発明の実施の形態1の変形例1−4に係る顕微鏡システムの構成を示すブロック図である。FIG. 23 is a block diagram showing a configuration of a microscope system according to Modification 1-4 of Embodiment 1 of the present invention. 図24は、本発明の実施の形態2に係る顕微鏡システムの構成を示すブロック図である。FIG. 24 is a block diagram showing a configuration of a microscope system according to Embodiment 2 of the present invention. 図25は、本発明の実施の形態2に係るアライメント方法を示すフローチャートである。FIG. 25 is a flowchart showing an alignment method according to Embodiment 2 of the present invention. 図26は、撮像範囲の設定方法を説明するための模式図である。FIG. 26 is a schematic diagram for explaining an imaging range setting method. 図27は、図24に示す表示装置に表示される真直度特性の表示例を示す模式図である。FIG. 27 is a schematic diagram illustrating a display example of the straightness characteristic displayed on the display device illustrated in FIG. 24. 図28は、図24に示す表示装置に表示される真直度特性の表示例を示す模式図である。FIG. 28 is a schematic diagram showing a display example of straightness characteristics displayed on the display device shown in FIG. 図29は、本発明の実施の形態2の変形例2−1における真直度特性の表示例を示す模式図である。FIG. 29 is a schematic diagram showing a display example of the straightness characteristic in Modification 2-1 of Embodiment 2 of the present invention. 図30は、本発明の実施の形態3に係る顕微鏡システムの構成を示すブロック図である。FIG. 30 is a block diagram showing a configuration of a microscope system according to Embodiment 3 of the present invention. 図31は、本発明の実施の形態3に係るアライメント方法を示すフローチャートである。FIG. 31 is a flowchart showing an alignment method according to Embodiment 3 of the present invention. 図32は、図30に示す合焦位置比較部が実行する合焦領域の比較処理を説明するための模式図である。FIG. 32 is a schematic diagram for explaining the comparison processing of the focus area executed by the focus position comparison unit shown in FIG. 図33は、ステージのZ位置の調整後に図32(b)と同じ観察視野を撮像することにより取得された画像を示す模式図である。FIG. 33 is a schematic diagram showing an image acquired by imaging the same observation visual field as that in FIG. 32B after adjusting the Z position of the stage. 図34は、本発明の実施の形態3の変形例3−2に示すアライメント方法を示すフローチャートである。FIG. 34 is a flowchart showing the alignment method shown in Modification 3-2 of Embodiment 3 of the present invention. 図35は、現在の観察視野を写した画像を示す模式図である。FIG. 35 is a schematic diagram showing an image showing the current observation visual field. 図36は、本発明の実施の形態4に係る顕微鏡システムの構成を示すブロック図である。FIG. 36 is a block diagram showing a configuration of a microscope system according to Embodiment 4 of the present invention. 図37は、本発明の実施の形態4に係るアライメント方法において用いられる被写体の例を示す模式図である。FIG. 37 is a schematic diagram showing an example of a subject used in the alignment method according to Embodiment 4 of the present invention. 図38は、本発明の実施の形態4に係るアライメント方法を示すフローチャートである。FIG. 38 is a flowchart showing an alignment method according to Embodiment 4 of the present invention. 図39は、図36に示す合焦領域比較部が実行する合焦領域のパターンの比較処理を説明するための模式図である。FIG. 39 is a schematic diagram for explaining the pattern comparison processing of the focus area executed by the focus area comparison unit shown in FIG.

以下、本発明に係るアライメント装置、顕微鏡システム、アライメント方法、及びアライメントプログラムの実施の形態について、図面を参照しながら詳細に説明する。なお、これらの実施の形態により本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。   Hereinafter, embodiments of an alignment apparatus, a microscope system, an alignment method, and an alignment program according to the present invention will be described in detail with reference to the drawings. Note that the present invention is not limited to these embodiments. Moreover, in description of each drawing, the same code | symbol is attached | subjected and shown to the same part.

また、以下の実施の形態においては、本発明を、ステージ上に載置された被写体を撮像して顕微鏡観察画像を取得する顕微鏡システムに適用する例を説明するが、例えばデジタルカメラのように、被写体の画像を取得可能な装置やシステムであれば、本発明を適用することができる。   Further, in the following embodiment, an example in which the present invention is applied to a microscope system that captures a subject placed on a stage and acquires a microscope observation image will be described. The present invention can be applied to any apparatus or system that can acquire an image of a subject.

(実施の形態1)
図1は、本発明の実施の形態1に係る顕微鏡システムの構成を示す図である。図1に示すように、実施の形態1に係る顕微鏡システム1は、被写体の拡大像を生成する顕微鏡装置10と、該顕微鏡装置10が生成した拡大像に基づいて該顕微鏡装置10のアライメントを行う処理装置20とを備える。
(Embodiment 1)
FIG. 1 is a diagram showing a configuration of a microscope system according to Embodiment 1 of the present invention. As shown in FIG. 1, the microscope system 1 according to the first embodiment aligns the microscope apparatus 10 based on the microscope apparatus 10 that generates an enlarged image of the subject and the enlarged image generated by the microscope apparatus 10. And a processing device 20.

図2は、顕微鏡装置10の構成例を示す模式図である。図2に示すように、顕微鏡装置10は、略C字形のアーム100と、該アーム100上に三眼鏡筒ユニット101を介して支持された鏡筒102及び接眼レンズユニット103と、アーム100に設けられた落射照明ユニット110及び透過照明ユニット120と、被写体Sが載置されるステージ131を含む電動ステージユニット130と、鏡筒102の一端側に三眼鏡筒ユニット101を介してステージ131と対向するように設けられ、被写体Sからの観察光を結像する対物レンズ140とを備える。この対物レンズ140と、三眼鏡筒ユニット101を介して接続された鏡筒102と、該鏡筒102の他端側に設けられた撮像部211(後述)とが、観察光学系(撮像光学系)104を構成する。   FIG. 2 is a schematic diagram illustrating a configuration example of the microscope apparatus 10. As shown in FIG. 2, the microscope apparatus 10 includes a substantially C-shaped arm 100, a lens barrel 102 and an eyepiece unit 103 supported on the arm 100 via a trinocular tube unit 101, and the arm 100. The incident illumination unit 110 and the transmitted illumination unit 120, the electric stage unit 130 including the stage 131 on which the subject S is placed, and the stage 131 facing the stage 131 through the trinocular tube unit 101 on one end side of the lens barrel 102. And an objective lens 140 that forms an image of observation light from the subject S. The objective lens 140, the lens barrel 102 connected via the trinocular tube unit 101, and an imaging unit 211 (described later) provided on the other end side of the lens barrel 102 are an observation optical system (imaging optical system). ) 104 is configured.

三眼鏡筒ユニット101は、対物レンズ140から入射した観察光を、ユーザが被写体Sを直接観察するための接眼レンズユニット103と、後述する撮像部211との方向に分岐する。   The trinocular tube unit 101 branches the observation light incident from the objective lens 140 in the direction of an eyepiece unit 103 for the user to directly observe the subject S and an imaging unit 211 described later.

落射照明ユニット110は、落射照明用光源111及び落射照明光学系112を備え、被写体Sに対して落射照明光を照射する。落射照明光学系112は、落射照明用光源111から出射した照明光を集光して、観察光学系104の光軸Lの方向に導く種々の光学部材(フィルタユニット、シャッタ、視野絞り、開口絞り等)を含む。   The epi-illumination unit 110 includes an epi-illumination light source 111 and an epi-illumination optical system 112, and irradiates the subject S with epi-illumination light. The epi-illumination optical system 112 condenses the illumination light emitted from the epi-illumination light source 111 and guides it in the direction of the optical axis L of the observation optical system 104 (filter unit, shutter, field stop, aperture stop). Etc.).

透過照明ユニット120は、透過照明用光源121及び透過照明光学系122を備え、被写体Sに対して透過照明光を照射する。透過照明光学系122は、透過照明用光源121から出射した照明光を集光して光軸Lの方向に導く種々の光学部材(フィルタユニット、シャッタ、視野絞り、開口絞り等)を含む。   The transmitted illumination unit 120 includes a transmitted illumination light source 121 and a transmitted illumination optical system 122 and irradiates the subject S with transmitted illumination light. The transmission illumination optical system 122 includes various optical members (filter unit, shutter, field stop, aperture stop, etc.) that collect the illumination light emitted from the transmission illumination light source 121 and guide it in the direction of the optical axis L.

これらの落射照明ユニット110及び透過照明ユニット120は、検鏡法に応じていずれかが選択されて使用される。なお、顕微鏡装置10に、落射照明ユニット110と透過照明ユニット120とのいずれか一方のみを設けることとしても良い。   Either one of the epi-illumination unit 110 and the transmission illumination unit 120 is selected and used according to the spectroscopic method. The microscope apparatus 10 may be provided with only one of the epi-illumination unit 110 and the transmission illumination unit 120.

電動ステージユニット130は、ステージ131と、該ステージ131を移動させるステージ駆動部132と、位置検出部133とを備える。ステージ駆動部132は、例えばモータによって構成され、後述する撮像制御部22の制御の下でステージ131を移動させる移動手段である。以下の説明においては、ステージ131の被写体載置面131aをXY平面とし、該XY平面の法線方向をZ方向とする。Z方向においては、図の下向き(対物レンズ140から離れる向き)をプラス方向とする。   The electric stage unit 130 includes a stage 131, a stage driving unit 132 that moves the stage 131, and a position detection unit 133. The stage driving unit 132 is configured by, for example, a motor, and is a moving unit that moves the stage 131 under the control of the imaging control unit 22 described later. In the following description, the subject placement surface 131a of the stage 131 is the XY plane, and the normal direction of the XY plane is the Z direction. In the Z direction, the downward direction (the direction away from the objective lens 140) is the positive direction.

ステージ131をXY平面内で移動させることにより、対物レンズ140の観察視野を変化させることができる。また、ステージ131をZ方向に移動させることにより、対物レンズ140の合焦面を変化させることができる。   The observation visual field of the objective lens 140 can be changed by moving the stage 131 in the XY plane. Further, the focal plane of the objective lens 140 can be changed by moving the stage 131 in the Z direction.

なお、実施の形態1においては、電気的な制御によりステージ131を移動可能な構成としているが、調節ツマミ等を用いてステージ131をユーザが手動で移動させる構成としても良い。   In the first embodiment, the stage 131 can be moved by electrical control. However, the stage 131 may be manually moved by the user using an adjustment knob or the like.

また、図2においては、対物レンズ140、鏡筒102、及び撮像部211を含む観察光学系104の位置を固定し、ステージ131側を移動させる構成としているが、ステージ131の位置を固定し、観察光学系104側を移動させても良い。或いは、ステージ131と観察光学系104との双方を互いに反対方向に移動させても良い。つまり、観察光学系104と被写体Sとが相対的に移動可能な構成であれば、どのような構成であっても構わない。   In FIG. 2, the position of the observation optical system 104 including the objective lens 140, the lens barrel 102, and the imaging unit 211 is fixed and moved on the stage 131 side, but the position of the stage 131 is fixed, The observation optical system 104 side may be moved. Alternatively, both the stage 131 and the observation optical system 104 may be moved in opposite directions. That is, any configuration may be used as long as the observation optical system 104 and the subject S are relatively movable.

位置検出部133は、例えばモータからなるステージ駆動部132の回転量を検出するエンコーダによって構成され、ステージ131の位置を検出して検出信号を出力する。なお、ステージ駆動部132及び位置検出部133の代わりに、後述する撮像制御部22の制御に従ってパルスを発生するパルス発生部及びステッピングモータを設けても良い。   The position detection unit 133 is configured by an encoder that detects the amount of rotation of the stage driving unit 132 made of, for example, a motor, and detects the position of the stage 131 and outputs a detection signal. Instead of the stage drive unit 132 and the position detection unit 133, a pulse generation unit and a stepping motor that generate pulses in accordance with the control of the imaging control unit 22 described later may be provided.

対物レンズ140は、倍率が互いに異なる複数の対物レンズ(例えば、対物レンズ140、141)を保持可能なレボルバ142に取り付けられている。レボルバ142を回転させ、ステージ131と対向する対物レンズ140、141を変更することにより、撮像倍率を変化させることができる。なお、図2は、対物レンズ140がステージ131と対向している状態を示している。レボルバ142にはエンコーダが設けられており、後述する画像取得部21が撮像を行ったタイミングで、該エンコーダの出力値が顕微鏡装置10から処理装置20に入力される。処理装置20においては、この出力値に基づき、被写体Sと対向する対物レンズ140の開口数及び倍率を取得することができる。   The objective lens 140 is attached to a revolver 142 that can hold a plurality of objective lenses having different magnifications (for example, the objective lenses 140 and 141). The imaging magnification can be changed by rotating the revolver 142 and changing the objective lenses 140 and 141 facing the stage 131. FIG. 2 shows a state in which the objective lens 140 faces the stage 131. The revolver 142 is provided with an encoder, and the output value of the encoder is input from the microscope apparatus 10 to the processing apparatus 20 at the timing when the image acquisition unit 21 described later performs imaging. In the processing device 20, the numerical aperture and magnification of the objective lens 140 facing the subject S can be acquired based on this output value.

再び図1を参照すると、処理装置20は、被写体Sを撮像することにより画像を取得する画像取得部21と、該画像取得部21の撮像動作を制御する撮像制御部22と、当該処理装置20における各種動作を制御すると共に、観察光学系104に対するステージ131の相対的な移動の軌跡を、画像取得部21が取得した画像に基づいて取得する制御部23と、画像取得部21が取得した画像の画像データや制御プログラム等の各種情報を記憶する記憶部24と、当該処理装置20に対する指示や情報を入力するための入力部25とを備える。   Referring back to FIG. 1, the processing device 20 includes an image acquisition unit 21 that acquires an image by imaging the subject S, an imaging control unit 22 that controls the imaging operation of the image acquisition unit 21, and the processing device 20. The control unit 23 that controls various operations in FIG. 5 and acquires the trajectory of the relative movement of the stage 131 relative to the observation optical system 104 based on the image acquired by the image acquisition unit 21, and the image acquired by the image acquisition unit 21 A storage unit 24 for storing various types of information such as image data and a control program, and an input unit 25 for inputting instructions and information to the processing device 20.

画像取得部21は、撮像部211及びメモリ212を備える。
撮像部211は、例えばCCDやCMOS等からなる撮像素子(イメージャ)211aを備え、撮像素子211aが備える各画素においてR(赤)、G(緑)、B(青)の各バンドにおける画素レベル(画素値)を持つカラー画像を撮像可能なカメラを用いて構成される。或いは、各画素における画素レベル(画素値)として輝度値Yを出力するモノクロ画像を撮像可能なカメラを用いて撮像部211を構成しても良い。
The image acquisition unit 21 includes an imaging unit 211 and a memory 212.
The image pickup unit 211 includes an image pickup device (imager) 211a made of, for example, a CCD or a CMOS, and pixel levels (R (red), G (green), and B (blue)) in each pixel included in the image pickup device 211a ( It is configured using a camera capable of capturing a color image having a pixel value. Or you may comprise the imaging part 211 using the camera which can image the monochrome image which outputs the luminance value Y as a pixel level (pixel value) in each pixel.

このような撮像部211は、鏡筒102の一端に、光軸Lが撮像素子211aの受光面の中心を通るように設けられ、対物レンズ140〜鏡筒102を介して受光面に入射した観察光を光電変換することにより、対物レンズ104の視野に対応する画像データを生成する。   Such an imaging unit 211 is provided at one end of the lens barrel 102 so that the optical axis L passes through the center of the light receiving surface of the image sensor 211a, and enters the light receiving surface via the objective lens 140 to the lens barrel 102. Image data corresponding to the field of view of the objective lens 104 is generated by photoelectrically converting the light.

メモリ212は、例えば更新記録可能なフラッシュメモリ、RAM、ROMといった半導体メモリ等の記録装置からなり、撮像部211が生成した画像データを一時的に記憶する。   The memory 212 includes a recording device such as a flash memory that can be updated and recorded, a semiconductor memory such as a RAM, and a ROM, and temporarily stores the image data generated by the imaging unit 211.

撮像制御部22は、顕微鏡装置10に制御信号を出力してステージ131を移動させることにより、ステージ131上の被写体Sと観察光学系104との相対的な位置を変化させると共に、撮像部211に撮像を実行させることにより、観察光学系104の観察視野に入る被写体Sの領域の画像を取得する制御を行う。   The imaging control unit 22 outputs a control signal to the microscope apparatus 10 to move the stage 131, thereby changing the relative position between the subject S on the stage 131 and the observation optical system 104, and to the imaging unit 211. By executing imaging, control is performed to acquire an image of the region of the subject S that enters the observation field of view of the observation optical system 104.

制御部23は、例えばCPU等のハードウェアによって構成され、記憶部24に記憶されたプログラムを読み込むことにより、記憶部24に記憶された各種パラメータや入力部25から入力される情報等に基づき、処理装置20及び顕微鏡システム1全体の動作を統括的に制御する。また、制御部23は、画像取得部21から入力された画像データに所定の画像処理を施すことにより画像を生成し、該画像に基づいてステージ131の真直度に関する情報を取得する。   The control unit 23 is configured by hardware such as a CPU, for example, and by reading a program stored in the storage unit 24, based on various parameters stored in the storage unit 24, information input from the input unit 25, and the like, The operation of the processing apparatus 20 and the entire microscope system 1 is comprehensively controlled. In addition, the control unit 23 generates an image by performing predetermined image processing on the image data input from the image acquisition unit 21, and acquires information on the straightness of the stage 131 based on the image.

ここで、ステージ131をXY平面内で移動させる場合、移動機構の特性上、ステージ131は完全にXY平面内において移動するのではなく、Z方向においても数μmレベルで変位してしまう。そのため、観察光学系104の合焦面を一旦、所望の平面に合わせたとしても、観察視野を変化させる際にステージ131を移動させると、合焦面が先に合わせた平面からずれてしまい、正確な画像情報を取得できなくなるおそれがある。そこで、制御部23は、ステージ131のXY平面内における移動に伴って生じるZ方向における変位(真直度)を、X方向及びY方向における座標と関連づけた軌跡として検出する。   Here, when the stage 131 is moved in the XY plane, the stage 131 is not completely moved in the XY plane due to the characteristics of the moving mechanism, but is displaced at a level of several μm in the Z direction. Therefore, even if the focusing surface of the observation optical system 104 is once adjusted to a desired plane, if the stage 131 is moved when the observation field of view is changed, the focusing surface is deviated from the previously adjusted plane. There is a risk that accurate image information cannot be acquired. Therefore, the control unit 23 detects the displacement (straightness) in the Z direction caused by the movement of the stage 131 in the XY plane as a trajectory associated with the coordinates in the X direction and the Y direction.

より詳細には、ステージ131を移動させた各位置において撮像された画像から合焦領域を検出する合焦領域検出部231と、各画像における合焦領域の位置を所定の基準と比較する合焦位置比較部232と、合焦領域の位置の比較結果に基づいて、ステージ131の真直度特性を検出する真直度特性検出部233とを備える。   More specifically, a focusing area detection unit 231 that detects a focusing area from an image captured at each position where the stage 131 is moved, and a focusing that compares the position of the focusing area in each image with a predetermined reference. A position comparison unit 232 and a straightness characteristic detection unit 233 that detects the straightness characteristic of the stage 131 based on the comparison result of the position of the focus area.

記憶部24は、更新記録可能なフラッシュメモリ、RAM、ROMといった半導体メモリ等の記録装置、内蔵若しくはデータ通信端子で接続されたハードディスク、MO、CD−R、DVD−R等の記録媒体と該記録媒体に記録された情報を読み取る読取装置とを含む記録装置等によって構成される。記憶部24は、制御部23における演算に使用されるパラメータを記憶するパラメータ記憶部241と、各種プログラムを記憶するプログラム記憶部242とを備える。パラメータ記憶部241は、顕微鏡装置10において交換可能な各対物レンズ140、141の開口数及び倍率や、該倍率に基づく像倍率等のパラメータや、後述するように、ステージ131の被写体載置面131aに対して観察光学系104の光軸Lを傾斜させた際の傾斜角度等の情報を記憶する。また、プログラム記憶部242は、当該処理装置20に所定の動作を実行させるための制御プログラムや、観察光学系104とステージ131との相対移動の軌跡を検出するアライメントプログラム等を記憶する。   The storage unit 24 includes a recording device such as a flash memory that can be updated and recorded, a semiconductor memory such as a RAM and a ROM, a recording medium such as a built-in or data communication terminal connected to a hard disk, MO, CD-R, and DVD-R, and the recording And a recording device including a reading device that reads information recorded on the medium. The storage unit 24 includes a parameter storage unit 241 that stores parameters used for calculation in the control unit 23 and a program storage unit 242 that stores various programs. The parameter storage unit 241 includes parameters such as numerical apertures and magnifications of the objective lenses 140 and 141 that can be exchanged in the microscope apparatus 10, image magnifications based on the magnifications, and a subject placement surface 131a of the stage 131 as described later. In contrast, information such as an inclination angle when the optical axis L of the observation optical system 104 is inclined is stored. The program storage unit 242 stores a control program for causing the processing device 20 to execute a predetermined operation, an alignment program for detecting a locus of relative movement between the observation optical system 104 and the stage 131, and the like.

入力部25は、キーボード、各種ボタン、各種スイッチ等の入力デバイスや、マウスやタッチパネル等のポインティングデバイス等により構成され、これらのデバイスに対する操作に応じた信号を制御部23に入力する。   The input unit 25 includes input devices such as a keyboard, various buttons, and various switches, a pointing device such as a mouse and a touch panel, and the like, and inputs signals corresponding to operations on these devices to the control unit 23.

このような処理装置20は、例えばパーソナルコンピュータやワークステーション等の汎用の装置に、外部インタフェース(図示せず)を介して汎用のデジタルカメラを組み合わせることによって構成することができる。また、本実施の形態1に係るアライメント装置は、上記処理装置20と、顕微鏡装置10が備えるステージ131を含む電動ステージユニット130とを含む。   Such a processing apparatus 20 can be configured by combining a general-purpose digital camera via an external interface (not shown) with a general-purpose apparatus such as a personal computer or a workstation. The alignment apparatus according to the first embodiment includes the processing apparatus 20 and an electric stage unit 130 including a stage 131 provided in the microscope apparatus 10.

次に、本発明の実施の形態1に係るアライメント方法の原理を説明する。図3〜図6は、実施の形態1に係るアライメント方法の原理を説明するための模式図である。
図3(a)に示すように、平面状をなす物体面Psの法線に対して対物レンズ140の光軸Lを傾斜させ、対物レンズ140の合焦面Pfと物体面Psとが傾斜角度αをなす状態で撮像を行った場合、観察視野Vに入る物体面Psのうち、対物レンズ140の被写界深度DOFに含まれる領域R0のみが合焦される。従って、図3(b)に示すように、観察視野Vを写した画像M0においては、一部のみが合焦領域Rfocus0となる。
Next, the principle of the alignment method according to the first embodiment of the present invention will be described. 3 to 6 are schematic diagrams for explaining the principle of the alignment method according to the first embodiment.
As shown in FIG. 3A, the optical axis L of the objective lens 140 is tilted with respect to the normal line of the planar object surface Ps, and the in-focus angle Pf and the object surface Ps of the objective lens 140 are tilted. When imaging is performed in a state of α, only the region R 0 included in the depth of field DOF of the objective lens 140 is focused on the object plane Ps that enters the observation field of view V. Therefore, as shown in FIG. 3B, only a part of the image M0 in which the observation visual field V is copied becomes the focus area R focus0 .

図4に示すように、物体面Psが対物レンズ140に近づく方向(上方)にシフトしたとする。この場合、観察視野Vに入る物体面Psのうち、対物レンズ140の被写界深度DOFに入る領域R0は、図3(a)に対してシフトする。このシフト方向は、合焦面Pfの傾斜方向に応じて決まり、図4(a)においては図の左方向にシフトする。また、このシフト量は、物体面Psのシフト量(Z方向における変位量)に応じて決まる。そのため、図4(b)に示すように、観察視野Vを写した画像M1内の合焦領域Rfocus1も、画像M0内の合焦領域Rfocus0に対し、物体面Psのシフト方向及びシフト量に応じて移動する。 As shown in FIG. 4, it is assumed that the object plane Ps is shifted in the direction approaching the objective lens 140 (upward). In this case, of the object plane Ps that enters the observation field of view V, the region R 0 that enters the depth of field DOF of the objective lens 140 is shifted with respect to FIG. This shift direction is determined according to the inclination direction of the focusing surface Pf, and shifts to the left in the figure in FIG. This shift amount is determined according to the shift amount (displacement amount in the Z direction) of the object plane Ps. Therefore, as shown in FIG. 4B, the focus region R focus1 in the image M1 in which the observation field of view V is copied is also the shift direction and shift amount of the object plane Ps with respect to the focus region R focus0 in the image M0. Move according to.

一方、図5に示すように、物体面Psが対物レンズ140から遠ざかる方向(下方)にシフトしたとする。この場合、観察視野Vに入る物体面Psのうち、対物レンズ140の被写界深度DOFに入る領域R0は、物体面Psのシフト方向及びシフト量に応じて、図4(a)とは反対方向(図5(a)においては右方向)にシフトする。そのため、図5(b)に示すように、観察視野Vを写した画像M2内の合焦領域Rfocus2も、画像M0内の合焦領域Rfocus0に対し、物体面のシフト方向及びシフト量に応じて移動する。 On the other hand, as shown in FIG. 5, it is assumed that the object plane Ps is shifted in the direction away from the objective lens 140 (downward). In this case, among the object plane Ps entering the observation field of view V, the region R 0 entering the depth of field DOF of the objective lens 140 is different from FIG. 4A depending on the shift direction and the shift amount of the object plane Ps. Shift in the opposite direction (rightward in FIG. 5A). Therefore, as shown in FIG. 5B, the focus area R focus2 in the image M2 in which the observation field of view V is copied is also changed in the object plane shift direction and shift amount with respect to the focus area R focus0 in the image M0. Move accordingly.

このように、物体面Psに対して合焦面Pfを傾斜させた状態で撮像を行うと、Z方向における物体面Psの位置に応じて、画像における合焦領域の位置が変化する。そこで、画像における合焦領域の位置を検出することにより、Z方向における物体面Psの位置の変化を取得することができる。   As described above, when imaging is performed in a state where the focusing plane Pf is inclined with respect to the object plane Ps, the position of the focusing area in the image changes according to the position of the object plane Ps in the Z direction. Therefore, by detecting the position of the focus area in the image, the change in the position of the object plane Ps in the Z direction can be acquired.

詳細には、図6に示すように、被写界深度DOFに含まれる領域R0が一定の幅を有し、且つ、この領域R0の重心位置が観察視野Vの重心位置と一致している状態を基準状態とする。このとき、画像M0における合焦領域Rfocus0の幅Wfocusも所定の幅となり、且つ、画像M0の重心位置と合焦領域Rfocus0の重心位置とが一致する。この基準状態のときの画像M0及び該画像M0における合焦領域(以下、基準合焦領域という)Rfocus0の位置を予めパラメータ記憶部241に記憶させておく。そして、観察視野VをXY平面内で移動させて撮像を行ったときの画像(例えば図4、図5に示す画像M1、M2)内の合焦領域(同合焦領域Rfocus1、Rfocus2)の位置を基準合焦領域の位置と比較し、該基準合焦領域の位置に対する合焦領域のシフト方向及びシフト量を検出する。それにより、当該画像を撮像した際の物体面Psの基準状態からの変位量及び変位方向を取得することができる。即ち、ステージ131をXY平面内で移動させた際のステージ131の真直度(基準状態からZ方向の変位)を測定することができる。 Specifically, as shown in FIG. 6, the region R 0 included in the depth of field DOF has a certain width, and the centroid position of the region R 0 matches the centroid position of the observation field of view V. The state that is present is the reference state. At this time, the width W focus of the focusing area R focus0 in the image M0 also becomes a predetermined width, and the center of gravity position of the image M0 matches the center of gravity position of the focusing area R focus0 . The position of the image M0 in the reference state and the in-focus area (hereinafter referred to as the reference in-focus area) R focus0 in the image M0 is stored in the parameter storage unit 241 in advance. Then, in-focus areas (in-focus areas R focus1 and R focus2 ) in an image (for example, images M1 and M2 shown in FIGS. 4 and 5) when the observation field of view V is moved in the XY plane. Is compared with the position of the reference focus area, and the shift direction and the shift amount of the focus area with respect to the position of the reference focus area are detected. Thereby, the displacement amount and the displacement direction from the reference state of the object plane Ps when the image is captured can be acquired. That is, the straightness (displacement in the Z direction from the reference state) of the stage 131 when the stage 131 is moved in the XY plane can be measured.

ここで、観察光学系104の視野サイズFov(μm)、被写体深度DOF(μm)、物体面Psに対する合焦面Pfの傾斜角度α(rad)、観察視野V内に生じている物体面Psの傾斜高z(μm)、視野サイズFovに対応する画像M0のサイズ(画像サイズ)Wimage(ピクセル)、画像M0内の合焦領域Rfocus0の幅Wfocus(pixel)を用いると、傾斜角度α及び傾斜高zはそれぞれ次式(1)、(2)によって与えられる。
Here, the field size Fov (μm) of the observation optical system 104, the subject depth DOF (μm), the inclination angle α (rad) of the focusing surface Pf with respect to the object plane Ps, and the object plane Ps generated in the observation field Vs. Using the inclination height z (μm), the size (image size) W image (pixel) of the image M0 corresponding to the visual field size Fov, and the width W focus (pixel) of the focusing area R focus0 in the image M0, the inclination angle α And the slope height z are given by the following equations (1) and (2), respectively.

式(1)、(2)に示す変数のうち、視野サイズFov、被写界深度DOF、及び画像サイズWimageは、顕微鏡装置10及び撮像部211のスペックに依存するパラメータである。また、傾斜角度αは、撮像を行う際の設定情報(撮像条件)である。 Of the variables shown in Expressions (1) and (2), the field size Fov, the depth of field DOF, and the image size W image are parameters that depend on the specifications of the microscope apparatus 10 and the imaging unit 211. In addition, the inclination angle α is setting information (imaging conditions) when performing imaging.

合焦領域Rfocus0の幅Wfocusは、ステージ131の真直度の平均値及び被写界深度DOFに基づいて定まる。例えば、真直度の平均値を1μmと仮定し、観察倍率β=40倍、被写界深度DOF=0.2μmの観察条件下において、画像サイズWimageに対する合焦領域Rfocus0の幅Wfocusの比Wfocus/Wimageが1/10であるとする。 The width W focus of the focus area R focus0 is determined based on the average straightness of the stage 131 and the depth of field DOF. For example, assuming that the average value of the straightness is 1 μm, and under the observation condition of the observation magnification β = 40 × and the depth of field DOF = 0.2 μm, the width W focus of the focus area R focus0 with respect to the image size W image Assume that the ratio W focus / W image is 1/10.

物体面Psに対して合焦面Pfを傾斜させた場合、画像サイズWimageに対する合焦領域の幅Wfocusの比は、式(1)における傾斜高zに対する被写界深度DOFの比に相当する。そこで、図6(a)に示すように、基準状態の物体面Ps0に±1μmの変位が発生すると仮定すると(物体面Psmax、Psmin参照)、被写界深度DOF内に含まれる領域Rmin、Rmaxを観察視野V内に収めるためには、言い換えると、図6(b)に示すように、合焦領域Rfocus(max)、Rfocus(min)を画像Mmax、Mmin内から検出できるようにするためには、傾斜高zには、トータルで2μmの変位をカバーすることができる変位幅が必要となる。傾斜角度αは、この変位をカバーできるように、視野サイズFovとの関係から決定される。 When the focusing plane Pf is tilted with respect to the object plane Ps, the ratio of the width W focus of the focusing area to the image size W image corresponds to the ratio of the depth of field DOF to the tilt height z in Expression (1). To do. Accordingly, as shown in FIG. 6A, assuming that a displacement of ± 1 μm occurs on the object plane Ps 0 in the reference state (see the object planes Ps max and Ps min ), an area included in the depth of field DOF In order to keep R min and R max within the observation field of view V, in other words, as shown in FIG. 6B, the focus areas R focus (max) and R focus (min) are converted into the images M max and M min. In order to be able to detect from the inside, the inclination height z needs a displacement width that can cover a total displacement of 2 μm. The inclination angle α is determined from the relationship with the visual field size Fov so that this displacement can be covered.

図7は、実施の形態1に係るアライメント方法において用いられる被写体の例を示す模式図である。このアライメント方法を行う際には、被写体Sとして、透過型の光学評価用チャート(テストチャート)のように、物体面(被写体Sの表面)の平面性が保証された物体を用いることが好ましい。平面性が保証された被写体Sを用いることにより、被写体Sを写した画像に基づいて検出された真直度を、そのまま、ステージ131の真直度として使用することができるからである。被写体Sとして上述したテストチャートを用いる場合、該テストチャートのパターンは特に限定されず、汎用のチャートを用いることができる。以下においては、図7に例示するパターンが形成されたテストチャートを被写体Sとして用いることとする。   FIG. 7 is a schematic diagram illustrating an example of a subject used in the alignment method according to the first embodiment. When performing this alignment method, it is preferable to use, as the subject S, an object in which the flatness of the object plane (the surface of the subject S) is guaranteed, such as a transmission optical evaluation chart (test chart). This is because by using the subject S with guaranteed flatness, the straightness detected based on the image of the subject S can be used as it is as the straightness of the stage 131. When the test chart described above is used as the subject S, the pattern of the test chart is not particularly limited, and a general-purpose chart can be used. In the following, it is assumed that a test chart on which a pattern illustrated in FIG.

図8〜図11は、実施の形態1に係るアライメント方法における被写体Sの撮像方法を示す模式図である。実施の形態1に係るアライメント方法においては、図8〜図11に示すように、被写体Sの表面である物体面Psの法線に対し、対物レンズ140〜撮像部211を含む観察光学系104の光軸Lを既知の傾斜角度αだけ相対的に傾斜させ、物体面Psに対して合焦面Pfが傾斜角度αをなす状態で撮像を行う。このうち、図8及び図9は、傾斜方向をX方向とした場合を示し、図10及び図11は、傾斜方向をY方向とした場合を示す。   8 to 11 are schematic diagrams illustrating a method for imaging the subject S in the alignment method according to the first embodiment. In the alignment method according to the first embodiment, as shown in FIGS. 8 to 11, the observation optical system 104 including the objective lens 140 to the imaging unit 211 with respect to the normal of the object plane Ps that is the surface of the subject S is used. The optical axis L is relatively inclined by a known inclination angle α, and imaging is performed in a state where the focusing surface Pf makes an inclination angle α with respect to the object plane Ps. 8 and 9 show the case where the tilt direction is the X direction, and FIGS. 10 and 11 show the case where the tilt direction is the Y direction.

物体面Psに対して光軸Lを相対的に傾斜させるためには、図8及び図10に示すように、水平に設置されたステージ131の被写体載置面131a上に被写体Sを載置し、被写体載置面131aの法線に対して光軸Lが傾斜角度αをなすように(即ち、被写体載置面131aと光軸Lとが角度(90°−α)をなすように)、観察光学系104を傾けて設置すれば良い。この場合、電気的な制御により観察光学系104の傾斜を変化させる傾斜調整駆動部105をさらに設けても良い。或いは、図9及び図11に示すように、光軸Lが被写体載置面131aと直交するように観察光学系104を設置すると共に、被写体載置面131a上に傾斜角度αを有する台座106を設置し、この台座106上に被写体Sを配置しても良い。なお、物体面Psに対して光軸Lを傾斜させるための機構は、これらの例に限定されない。以下の説明においては、図8及び図10に示すように、被写体載置面131aに対して観察光学系104を傾斜させるものとする。この場合、物体面Psはステージ131の被写体載置面131aと平行になる。   In order to incline the optical axis L relative to the object plane Ps, as shown in FIGS. 8 and 10, the subject S is placed on the subject placement surface 131a of the stage 131 installed horizontally. The optical axis L makes an inclination angle α with respect to the normal line of the subject placement surface 131a (that is, the subject placement surface 131a and the optical axis L make an angle (90 ° −α)), The observation optical system 104 may be installed at an angle. In this case, an inclination adjustment driving unit 105 that changes the inclination of the observation optical system 104 by electrical control may be further provided. Alternatively, as shown in FIGS. 9 and 11, the observation optical system 104 is installed such that the optical axis L is orthogonal to the subject placement surface 131a, and a pedestal 106 having an inclination angle α is provided on the subject placement surface 131a. It may be installed and the subject S may be arranged on the pedestal 106. In addition, the mechanism for inclining the optical axis L with respect to the object surface Ps is not limited to these examples. In the following description, as shown in FIGS. 8 and 10, the observation optical system 104 is inclined with respect to the subject placement surface 131a. In this case, the object plane Ps is parallel to the subject placement surface 131a of the stage 131.

図12は、本発明の実施の形態1に係るアライメント方法を示すフローチャートである。まず、図12のステップS10において、制御部23は、撮像条件を取得し、該撮像条件に基づいて、撮像を1回行うごとにステージ131を移動させる移動方向及び移動量を決定する。   FIG. 12 is a flowchart showing the alignment method according to the first embodiment of the present invention. First, in step S10 of FIG. 12, the control unit 23 acquires an imaging condition, and determines a moving direction and a moving amount for moving the stage 131 each time imaging is performed based on the imaging condition.

撮像条件としては、物体面Psの法線に対する光軸Lの傾斜角度(即ち、物体面Psに対する合焦面Pfの傾斜角度)α及び傾斜方向(X方向又はY方向)、観察光学系104の観察倍率β、及びイメージャ特性(撮像素子211aの受光面のサイズ、以下イメージャサイズという)IW(X)×IW(Y)(mm)が挙げられる。これらの撮像条件はパラメータ記憶部241に予め記憶されており、制御部23は、アライメント動作を開始すると、これらの撮像条件をパラメータ記憶部241から読み出す。 As imaging conditions, the tilt angle of the optical axis L with respect to the normal line of the object plane Ps (that is, the tilt angle of the focusing plane Pf with respect to the object plane Ps) α and the tilt direction (X direction or Y direction), the observation optical system 104 Observation magnification β and imager characteristics (the size of the light receiving surface of the image sensor 211a, hereinafter referred to as an imager size) I W (X) × I W (Y) (mm). These imaging conditions are stored in advance in the parameter storage unit 241, and the control unit 23 reads out these imaging conditions from the parameter storage unit 241 when the alignment operation is started.

また、制御部23は、取得した撮像条件に基づいて、観察光学系104に対するステージ131の移動方向及び移動量を決定する。ステージ131の移動方向は、観察光学系104の光軸Lを物体面Psの法線方向から該物体面Psに投影したときに、物体面Psにおいて光軸が伸びる方向とする。具体的には、図8に示すように、物体面Psに対して光軸LがX方向に傾斜している場合、図13に示すように、被写体Sに対して観察視野VがX方向に順次移動するように、ステージ131をX方向に移動させる。一方、図10に示すように、物体面Psに対して光軸LがY方向に傾斜している場合、図14に示すように、被写体Sに対して観察視野VがY方向に順次移動するように、ステージ131をY方向に移動させる。   Further, the control unit 23 determines the moving direction and moving amount of the stage 131 relative to the observation optical system 104 based on the acquired imaging conditions. The moving direction of the stage 131 is a direction in which the optical axis extends on the object plane Ps when the optical axis L of the observation optical system 104 is projected onto the object plane Ps from the normal direction of the object plane Ps. Specifically, as shown in FIG. 8, when the optical axis L is inclined in the X direction with respect to the object plane Ps, the observation visual field V is in the X direction with respect to the subject S as shown in FIG. The stage 131 is moved in the X direction so as to move sequentially. On the other hand, when the optical axis L is inclined in the Y direction with respect to the object plane Ps as shown in FIG. 10, the observation visual field V sequentially moves in the Y direction with respect to the subject S as shown in FIG. Thus, the stage 131 is moved in the Y direction.

XYの各方向におけるステージ131の移動量は、観察光学系104により1回に撮像される観察視野Vの視野サイズFov(=Fov(x)×Fov(y))に対応する。視野サイズFovは、イメージャサイズIW(X)×IW(Y)(mm)及び観察倍率βにより、次式(3−1)、(3−2)によって与えられる。
Fov(x)=(IW(X)/β)×1000 (μm) …(3−1)
Fov(y)=(IW(Y)/β)×1000 (μm) …(3−2)
The amount of movement of the stage 131 in each direction of XY corresponds to the visual field size Fov (= Fov (x) × Fov (y)) of the observation visual field V imaged at one time by the observation optical system 104. The visual field size Fov is given by the following expressions (3-1) and (3-2) by the imager size I W (X) × I W (Y) (mm) and the observation magnification β.
Fov (x) = (I W (X) / β) × 1000 (μm) (3-1)
Fov (y) = (I W (Y) / β) × 1000 (μm) (3-2)

続くステップS11において、顕微鏡システム1は、所定の観察視野を撮像して画像を取得する。例えば図15に示すように、ラスタ順に撮像を行う場合、初回の観察視野としては、物体面Psにおける座標(0,0)を含む観察視野V(1)が設定される。なお、処理装置20は、観察視野V(1)の中心領域が合焦されるように(図3参照)、ステージ131のZ位置を予め調整しておく。   In subsequent step S11, the microscope system 1 captures a predetermined observation field and acquires an image. For example, as shown in FIG. 15, when imaging is performed in raster order, an observation field of view V (1) including coordinates (0, 0) on the object plane Ps is set as the first observation field of view. Note that the processing device 20 adjusts the Z position of the stage 131 in advance so that the central region of the observation visual field V (1) is focused (see FIG. 3).

続くステップS12において、制御部23は、ステップS11において撮像された観察視野Vの重心座標をパラメータ記憶部241に記憶させる。   In subsequent step S12, the control unit 23 causes the parameter storage unit 241 to store the barycentric coordinates of the observation visual field V imaged in step S11.

続くステップS13において、顕微鏡システム1は、観察視野Vを移動させて撮像を行い、移動先の観察視野Vを写した画像を取得する。具体的には、ステップS10で設定された移動方向において隣接する観察視野Vを撮像する。   In subsequent step S <b> 13, the microscope system 1 performs imaging by moving the observation visual field V, and acquires an image in which the observation visual field V as the movement destination is copied. Specifically, the observation field V adjacent in the movement direction set in step S10 is imaged.

続くステップS14において、合焦領域検出部231は、ステップS13において取得された画像から合焦領域を検出する。図16は、合焦領域検出部231が実行する合焦領域検出処理を示すフローチャートである。   In subsequent step S <b> 14, the focus area detection unit 231 detects the focus area from the image acquired in step S <b> 13. FIG. 16 is a flowchart showing a focus area detection process executed by the focus area detection unit 231.

図16に示すステップS141において、合焦領域検出部231は、対物レンズ140の開口数NA及び観察倍率βに基づいて、次式(3)によって与えられるカットオフ周波数Fcを算出する。
式(3)において、符号λは被写体Sに照射される光の波長(例えば550nm)を示す。
In step S141 shown in FIG. 16, the focus area detection unit 231 calculates a cutoff frequency Fc given by the following equation (3) based on the numerical aperture NA of the objective lens 140 and the observation magnification β.
In Expression (3), the symbol λ indicates the wavelength of light irradiated on the subject S (for example, 550 nm).

続くステップS142において、合焦領域検出部231は、ステップS13において取得された観察視野Vの画像から、ステップS141において算出したカットオフ周波数Fcよりも高い周波数成分を除去する。より詳細には、合焦領域検出部231は、ステップS141において算出したカットオフ周波数と、撮像部211に設けられた撮像素子211aの画素ピッチとに基づき、ハミング(Hamming)窓等を用いて、公知の手法によりフィルタ設計を行う。そして、観察視野Vの画像に対してフーリエ変換を施すことにより周波数空間画像を生成し、この周波数空間画像に設計したフィルタを適用することにより、高周波成分をカットする。その後、該周波数空間画像にフーリエ逆変換を施すことにより、ノイズが除去された画像が得られる。   In subsequent step S142, the focus area detecting unit 231 removes a frequency component higher than the cutoff frequency Fc calculated in step S141 from the image of the observation visual field V acquired in step S13. More specifically, the focus area detection unit 231 uses a Hamming window or the like based on the cutoff frequency calculated in step S141 and the pixel pitch of the imaging element 211a provided in the imaging unit 211. Filter design is performed by a known method. Then, a frequency space image is generated by performing Fourier transform on the image of the observation visual field V, and a high frequency component is cut by applying a designed filter to the frequency space image. Thereafter, an inverse Fourier transform is performed on the frequency space image to obtain an image from which noise is removed.

続くステップS143において、合焦領域検出部231は、高周波成分が除去された画像を複数の小領域に分割する。小領域への分割数は任意であり、図17は、画像M3を36個の小領域m1〜m36に分割した例を示している。なお、分割数を多くするほど、合焦領域の検出精度を向上させることができるが、演算量も増加するため、ハードウェアの演算速度や要求される精度等を考慮して、分割数を適宜決定すれば良い。   In subsequent step S143, the focus area detection unit 231 divides the image from which the high-frequency component has been removed into a plurality of small areas. The number of divisions into small areas is arbitrary, and FIG. 17 shows an example in which the image M3 is divided into 36 small areas m1 to m36. As the number of divisions increases, the detection accuracy of the in-focus area can be improved. However, since the amount of calculation also increases, the number of divisions is appropriately determined in consideration of hardware calculation speed and required accuracy. Just decide.

続くステップS144において、合焦領域検出部231は、ステップS143において分割された各小領域の合焦度を評価するための評価値を算出する。以下、この評価値のことを、画像評価値という。   In subsequent step S144, the in-focus area detection unit 231 calculates an evaluation value for evaluating the in-focus degree of each small area divided in step S143. Hereinafter, this evaluation value is referred to as an image evaluation value.

詳細には、まず、各小領域に対してソーベル(Sobel)フィルタ処理を適用することにより、X方向及びY方向の各々におけるエッジ強度(横エッジ強度、縦エッジ強度)を算出する。図18は、一例として、図17に示す小領域m4に対し、横エッジを抽出するソーベルフィルタSbxを適用して得られたエッジ画像m4(x)と、縦エッジを抽出するソーベルフィルタSbyを適用して得られたエッジ画像m4(y)とを示す模式図である。 More specifically, first, edge strength (horizontal edge strength, vertical edge strength) in each of the X direction and the Y direction is calculated by applying a Sobel filter process to each small region. Figure 18 shows, as an example, with respect to the small region m4 shown in FIG. 17, Sobel filter Sb x applied to the resultant edge image m4 to extract horizontal edge and (x), Sobel filter for extracting vertical edges is a schematic diagram showing an edge image m4 (y) obtained by applying a sb y.

続いて、合焦領域検出部231は、各小領域について算出された横エッジ強度及び縦エッジ強度を、当該画像内のエッジ強度の最大値によって規格化する。小領域内の画素をpn(n=1〜N、Nは当該小領域内の画素数)、X方向及びY方向におけるエッジ強度をEx(Pn)、Ey(Pn)、当該画像内のX方向及びY方向におけるエッジ強度の最大値をExmax、Eymaxとすると、正規化後の各画素pnのエッジ強度Cx(Pn)、Cy(Pn)はそれぞれ、次式(4−1)、(4−2)によって与えられる。
Cx(Pn)=Ex(Pn)/Exmax …(4−1)
Cy(Pn)=Ey(Pn)/Eymax …(4−2)
Subsequently, the focused area detection unit 231 normalizes the horizontal edge intensity and the vertical edge intensity calculated for each small area by the maximum value of the edge intensity in the image. Pixels in the small region are represented by pn (n = 1 to N, N is the number of pixels in the small region), edge intensities in the X direction and Y direction are represented by Ex (Pn) , Ey (Pn) , and X in the image. direction and Y the maximum value of the edge strength in the direction Ex max, when the Ey max, edge intensity of each pixel p n of the normalized Cx (Pn), Cy (Pn) respectively, the following equation (4-1), (4-2).
Cx (Pn) = Ex (Pn) / Ex max (4-1)
Cy (Pn) = Ey (Pn) / Ey max (4-2)

これらの規格化されたエッジ強度の平均値を、各方向における画像評価値EX、EYとする。具体的には、画像評価値EX、EYは、次式(5−1)、(5−2)によって与えられる。
The average value of these normalized edge strengths is set as the image evaluation values EX and EY in each direction. Specifically, the image evaluation values EX and EY are given by the following equations (5-1) and (5-2).

なお、エッジの抽出方法は、上述したソーベルフィルタを用いる方法に限定されず、LOGフィルタ等、公知のエッジ抽出フィルタを用いても良い。また、画像評価値の算出方法についても、式(5−1)、(5−2)に示す方法に限定されない。   Note that the edge extraction method is not limited to the method using the Sobel filter described above, and a known edge extraction filter such as a LOG filter may be used. Further, the calculation method of the image evaluation value is not limited to the methods shown in the equations (5-1) and (5-2).

続くステップS145において、合焦領域検出部231は、ステップS144において算出した画像評価値EX、EYに基づいて、当該画像から合焦領域を選択する。具体的には、X方向における画像評価値EXが所定の閾値Txよりも高く、且つ、Y方向における画像評価値EYが所定の閾値Tyよりも高い小領域を、合焦領域として選択する。閾値Tx、Tyは、当該画像の全域における画像評価値の平均値や標準偏差等の統計値に基づいて設定される。   In subsequent step S145, the focus area detection unit 231 selects a focus area from the image based on the image evaluation values EX and EY calculated in step S144. Specifically, a small area in which the image evaluation value EX in the X direction is higher than a predetermined threshold Tx and the image evaluation value EY in the Y direction is higher than a predetermined threshold Ty is selected as the focusing area. The threshold values Tx and Ty are set based on statistical values such as an average value and standard deviation of image evaluation values in the entire area of the image.

図19は、合焦領域の選択方法を説明するための模式図である。図19に示す画像M3の下方に示すグラフは、画像M3内のある行に並ぶ小領域の画像評価値EXを示す。また、画像M3の右方に示すグラフは、画像M3内のある列に並ぶ小領域の画像評価値EYを示す。   FIG. 19 is a schematic diagram for explaining a method of selecting a focus area. A graph shown below the image M3 shown in FIG. 19 shows the image evaluation values EX of the small regions arranged in a certain row in the image M3. Further, the graph shown on the right side of the image M3 indicates the image evaluation value EY of the small area arranged in a certain row in the image M3.

図19に示すように、合焦領域検出部231は、各小領域の画像評価値EXと閾値Txとの比較を、小領域が並ぶ行ごとに行うと共に、各小領域の画像評価値EYと閾値Tyとの比較を、小領域が並ぶ列ごとに行う。そして、画像評価値EXが閾値Txよりも大きく、且つ画像評価値EYが閾値Tyよりも大きい小領域を、合焦領域として選択する。図20は、画像M3から合焦領域Rfocus3が選択された例を示す模式図である。
合焦領域の検出後、処理はメインルーチンに戻る。
As shown in FIG. 19, the in-focus area detection unit 231 compares the image evaluation value EX of each small area with the threshold value Tx for each row where the small areas are arranged, and the image evaluation value EY of each small area. Comparison with the threshold value Ty is performed for each column in which small regions are arranged. Then, a small area where the image evaluation value EX is larger than the threshold value Tx and the image evaluation value EY is larger than the threshold value Ty is selected as the focus area. FIG. 20 is a schematic diagram illustrating an example in which a focusing area R focus3 is selected from the image M3.
After the focus area is detected, the process returns to the main routine.

ステップS14に続くステップS15において、合焦位置比較部232は、パラメータ記憶部241に記憶されている基準合焦領域の位置情報を読み出し、ステップS14において画像内から検出された合焦領域の位置を基準合焦領域の位置と比較する。図21は、合焦位置比較部232が実行する合焦領域の比較処理を説明するための模式図である。このうち、図21(a)は、基準状態での観察視野を写した基準画像Mbaseを示す。合焦位置比較部232は、基準合焦領域の位置情報として、基準画像Mbaseにおける基準合焦領域Rbaseの重心位置BGの座標(xBG,yBG)をパラメータ記憶部241から読み出しておく。 In step S15 following step S14, the in-focus position comparison unit 232 reads out the position information of the reference in-focus area stored in the parameter storage unit 241, and determines the position of the in-focus area detected from the image in step S14. Compare with the position of the reference focus area. FIG. 21 is a schematic diagram for explaining the comparison process of the focus area executed by the focus position comparison unit 232. Of these, FIG. 21 (a) shows the reference image M base, which copy the observation field in the reference state. The in-focus position comparison unit 232 reads out the coordinates (x BG , y BG ) of the centroid position BG of the reference in-focus region R base in the reference image M base from the parameter storage unit 241 as the position information of the reference in-focus region. .

図21(b)に示すように、現在の観察視野を写した画像M3から合焦領域Rfocus3が検出された場合、合焦位置比較部232は、合焦領域Rfocus3の重心位置OGの座標(xOG,yOG)を算出する。そして、基準状態からの合焦領域Rfocus3のシフト量、即ち、重心位置BG、OG間のシフト量ΔC(xOG−xBG、又は、yOG−yBG)(ピクセル)及びシフト方向を求め、パラメータ記憶部241に記憶させる。合焦領域Rfocus3のシフト方向は、シフト量ΔCの符号によって表される。具体的には、図21(b)に示すように、合焦領域Rfocus3が右方向にシフトした場合、シフト量ΔCの符号は正となる。 As shown in FIG. 21B, when the in-focus area R focus3 is detected from the image M3 showing the current observation visual field, the in-focus position comparison unit 232 coordinates the centroid position OG of the in-focus area R focus3. Calculate (x OG , y OG ). Then, the shift amount of the in-focus region R focus3 from the reference state, that is, the shift amount ΔC (x OG −x BG or y OG −y BG ) (pixel) and the shift direction between the centroid positions BG and OG are obtained. And stored in the parameter storage unit 241. The shift direction of the focus area R focus3 is represented by the sign of the shift amount ΔC. Specifically, as shown in FIG. 21B, when the focus area R focus3 is shifted rightward, the sign of the shift amount ΔC is positive.

続くステップS16において、真直度特性検出部233は、ステップS15において求めた合焦領域のシフト量ΔC及びシフト方向に基づいて、ステージ131の真直度特性を検出する。図22は、真直度特性検出部233が実行する真直度特性の検出処理を示すフローチャートである。   In subsequent step S16, the straightness characteristic detection unit 233 detects the straightness characteristic of the stage 131 based on the shift amount ΔC and the shift direction of the in-focus area obtained in step S15. FIG. 22 is a flowchart showing a straightness characteristic detection process executed by the straightness characteristic detection unit 233.

まず、ステップS161において、真直度特性検出部233は、合焦領域のシフト量ΔC及びシフト方向から、Z軸に沿った物体面Ps(即ち、ステージ131)の変位方向及び変位量δZを算出する。物体面Psの変位量δZ(μm)は、被写界深度DOF及び画像内の合焦領域の幅Wfocusを用いて、次式(6)によって与えられる。
δZ=(DOF×ΔC)/Wfocus …(6)
First, in step S161, the straightness characteristic detection unit 233 calculates the displacement direction and the displacement amount δZ of the object plane Ps (that is, the stage 131) along the Z axis from the shift amount ΔC and the shift direction of the focus area. . The displacement amount δZ (μm) of the object plane Ps is given by the following equation (6) using the depth of field DOF and the width W focus of the focused area in the image.
δZ = (DOF × ΔC) / W focus (6)

また、物体面Psの変位方向は、基準状態からの合焦領域Rfocus3のシフト方向に基づいて求められる。例えば、図6に示すように、物体面Psに対し、X座標が大きくなるほど合焦面Pfが下がる(Z座標が大きく)ように合焦面Pfが傾斜している場合、合焦領域Rfocus3のシフト方向の符号がプラス(図の右方向に移動)であるとき、物体面Psの変位方向はプラスZ方向(図の下方向に下がる)となる。Y方向において物体面Psが傾斜している場合も、同様に判断される。 Further, the displacement direction of the object plane Ps is obtained based on the shift direction of the focusing area R focus3 from the reference state. For example, as shown in FIG. 6, when the focusing plane Pf is inclined so that the focusing plane Pf decreases (the Z coordinate increases) with respect to the object plane Ps, the focusing area R focus3 When the sign of the shift direction is plus (moves to the right in the figure), the displacement direction of the object plane Ps is plus Z direction (down in the figure downward). The same determination is made when the object plane Ps is inclined in the Y direction.

続くステップS162において、真直度特性検出部233は、現在の観察視野Vの重心座標と、該観察視野Vに対してステップS161において算出した物体面Psの変位方向及び変位量を、真直度特性としてパラメータ記憶部241に記憶させる。その後、処理はメインルーチンに戻る。   In subsequent step S162, the straightness characteristic detection unit 233 uses the coordinates of the center of gravity of the current observation visual field V and the displacement direction and displacement of the object plane Ps calculated in step S161 with respect to the observation visual field V as straightness characteristics. The parameter is stored in the parameter storage unit 241. Thereafter, the process returns to the main routine.

ステップS16に続くステップS17において、制御部23は、ステージ131上に載置された被写体S(例えば図7に示すテストチャート)上の全領域について撮像が完了したか否かを判定する。未だ撮像されていない領域が残っている場合(ステップS17:No)、処理はステップS13に戻る。この場合、顕微鏡システム1は、未だ撮像されていない領域に観察視野Vを移動させて撮像を行う。   In step S <b> 17 following step S <b> 16, the control unit 23 determines whether imaging has been completed for the entire region on the subject S (for example, the test chart shown in FIG. 7) placed on the stage 131. If an area that has not yet been imaged remains (step S17: No), the process returns to step S13. In this case, the microscope system 1 performs imaging by moving the observation visual field V to a region that has not yet been imaged.

これらのステップS13〜S17を、観察視野Vを順次移動させつつ、被写体S上の全領域について実行することで、XY平面内における観察視野Vの移動、即ち、観察光学系104とステージ131との相対移動に伴うZ位置の変動(即ち、真直度)を、観察視野Vの座標と関連付けて収集することができる。被写体S上の全領域について撮像が完了した場合(ステップS17:Yes)、処理は終了する。   By executing these steps S13 to S17 for the entire region on the subject S while sequentially moving the observation visual field V, the movement of the observation visual field V in the XY plane, that is, the observation optical system 104 and the stage 131 are moved. Changes in the Z position accompanying the relative movement (ie, straightness) can be collected in association with the coordinates of the observation field of view V. When imaging has been completed for the entire area on the subject S (step S17: Yes), the process ends.

このようにしてパラメータ記憶部241に蓄積されたステージ131の真直度特性は、電動ステージユニット130のキャリブレーション等を行う際に、パラメータ記憶部241から随時読み出して用いることができる。   The straightness characteristics of the stage 131 accumulated in the parameter storage unit 241 as described above can be read from the parameter storage unit 241 and used at any time when the electric stage unit 130 is calibrated.

以上説明したように、本発明の実施の形態1によれば、顕微鏡装置10にアライメントのための専用機構を設けることなく、観察光学系104とステージ131との相対移動の軌跡を検出することが可能となる。従って、この軌跡に基づいて、ステージ131のZ位置を較正することで、顕微鏡装置10において標本等を観察する際に、精度の良い画像情報を取得することが可能となる。   As described above, according to the first embodiment of the present invention, the locus of relative movement between the observation optical system 104 and the stage 131 can be detected without providing the microscope apparatus 10 with a dedicated mechanism for alignment. It becomes possible. Therefore, by calibrating the Z position of the stage 131 based on this trajectory, it is possible to acquire accurate image information when observing a specimen or the like with the microscope apparatus 10.

また、本発明の実施の形態1によれば、被写界深度以下の精度で真直度を検出することができるという効果も得られる。ここで、物体面Psと合焦面Pfとを平行にして撮像を行った場合、物体面PsのZ位置が変動したとしても、この変動幅が被写界深度以内であれば、物体面Psは常に合焦されている。そのため、物体面PsのZ位置が被写界深度以上の幅で変動したときにしか、画像からこの変動を検出することができない。これに対し、本実施の形態1によれば、物体面Psに対して合焦面Pfが傾斜した状態で撮像を行うので、物体面PsのZ位置の変動が被写界深度以内の微小な変動であっても、画像内における合焦領域の移動という形で、この変動を検出することができる。従って、本実施の形態1によれば、物体面PsのZ位置の変動、即ち、ステージ131の真直度を高精度に検出することが可能となる。   Further, according to the first embodiment of the present invention, there is an effect that straightness can be detected with an accuracy of depth of field or less. Here, when imaging is performed with the object plane Ps and the focusing plane Pf being parallel, even if the Z position of the object plane Ps varies, if the variation range is within the depth of field, the object plane Ps. Is always in focus. Therefore, this change can be detected from the image only when the Z position of the object plane Ps changes with a width equal to or greater than the depth of field. On the other hand, according to the first embodiment, since imaging is performed in a state where the focal plane Pf is inclined with respect to the object plane Ps, the variation in the Z position of the object plane Ps is minute within the depth of field. Even if there is a variation, this variation can be detected in the form of movement of the in-focus area in the image. Therefore, according to the first embodiment, it is possible to detect the change in the Z position of the object plane Ps, that is, the straightness of the stage 131 with high accuracy.

(変形例1−1)
次に、本発明の実施の形態1の変形例1−1について説明する。
上記実施の形態1においては、観察光学系104の位置を固定し、ステージ131側を移動させることにより、ステージ131の真直度を検出する場合を説明した。しかしながら、観察光学系104に移動機構を設け、ステージ131の位置を固定して観察光学系104側を移動させることにより、観察光学系104の真直度を検出しても良い。この場合においても、上記実施の形態1と同様の画像処理により、観察光学系104の真直度を精度良く検出することができる。
(Modification 1-1)
Next, Modification 1-1 of Embodiment 1 of the present invention will be described.
In the first embodiment, the case where the straightness of the stage 131 is detected by fixing the position of the observation optical system 104 and moving the stage 131 side has been described. However, the straightness of the observation optical system 104 may be detected by providing a movement mechanism in the observation optical system 104 and moving the observation optical system 104 side while fixing the position of the stage 131. Even in this case, the straightness of the observation optical system 104 can be detected with high accuracy by the same image processing as in the first embodiment.

(変形例1−2)
次に、本発明の実施の形態1の変形例1−2について説明する。
上記実施の形態1においては、観察視野を移動させるごとにステージ131を停止させて撮像を行ったが、ステージを停止させることなく連続的に撮像(即ち、動画撮像)を行っても良い。この場合、観察視野Vの視野サイズFovは、ステージ131の移動速度と撮像部211のフレームレートとに基づいて決定される。
(Modification 1-2)
Next, a modified example 1-2 of the first embodiment of the present invention will be described.
In the first embodiment, each time the observation visual field is moved, the stage 131 is stopped and imaging is performed. However, continuous imaging (that is, moving image imaging) may be performed without stopping the stage. In this case, the visual field size Fov of the observation visual field V is determined based on the moving speed of the stage 131 and the frame rate of the imaging unit 211.

(変形例1−3)
次に、本発明の実施の形態1の変形例1−3について説明する。
上記実施の形態1では、ステップ12において検出された合焦領域の位置を、予めパラメータ記憶部241に記憶されている基準合焦領域の位置と比較した(ステップS15参照)。しかしながら、アライメントを開始時に観察視野を写した画像から合焦領域を検出し、この合焦領域を基準合焦領域として、重心位置及び幅をパラメータ記憶部241に記憶させても良い。
(Modification 1-3)
Next, Modification 1-3 of Embodiment 1 of the present invention will be described.
In the first embodiment, the position of the in-focus area detected in step 12 is compared with the position of the reference in-focus area stored in advance in the parameter storage unit 241 (see step S15). However, a focus area may be detected from an image in which the observation visual field is copied at the start of alignment, and the center of gravity position and width may be stored in the parameter storage unit 241 with this focus area as a reference focus area.

(変形例1−4)
次に、本発明の実施の形態1の変形例1−4について説明する。
図23は、変形例1−4に係る顕微鏡システムの構成を示すブロック図である。図23に示すように、変形例1−4に係る顕微鏡システム1−2は、顕微鏡装置10及び処理装置30を備える。このうち、顕微鏡装置10の構成及び動作は、実施の形態1と同様である(図2参照)。また、本変形例1−4に係るアライメント装置は、上記処理装置30と、顕微鏡装置10が備える電動ステージユニット130とを含む。
(Modification 1-4)
Next, Modification 1-4 of Embodiment 1 of the present invention will be described.
FIG. 23 is a block diagram illustrating a configuration of a microscope system according to Modification 1-4. As shown in FIG. 23, the microscope system 1-2 according to the modified example 1-4 includes a microscope apparatus 10 and a processing apparatus 30. Among these, the configuration and operation of the microscope apparatus 10 are the same as those in the first embodiment (see FIG. 2). The alignment apparatus according to Modification 1-4 includes the processing apparatus 30 and the electric stage unit 130 provided in the microscope apparatus 10.

処理装置30は、図1に示す処理装置20に対し、さらに較正部31を備える。較正部31以外の処理装置30の各部の構成及び動作は、実施の形態1と同様である。   The processing device 30 further includes a calibration unit 31 with respect to the processing device 20 shown in FIG. The configuration and operation of each unit of the processing apparatus 30 other than the calibration unit 31 are the same as those in the first embodiment.

較正部31は、真直度特性検出部233により検出され、パラメータ記憶部241に記憶された真直度特性に基づいて、観察視野の重心座標に応じたステージ131のZ位置の較正情報を生成する。具体的には、ある観察視野における真直度がプラス1μm、即ち、基準状態よりもステージ131が1μmだけ下がっている場合、較正部31は、当該観察視野を撮像する際に、ステージ131を1μm上昇させる較正情報を生成する。   The calibration unit 31 generates calibration information of the Z position of the stage 131 according to the barycentric coordinates of the observation visual field based on the straightness characteristic detected by the straightness characteristic detection unit 233 and stored in the parameter storage unit 241. Specifically, when the straightness in a certain observation visual field is plus 1 μm, that is, when the stage 131 is lowered by 1 μm from the reference state, the calibration unit 31 raises the stage 131 by 1 μm when imaging the observation visual field. The calibration information to be generated is generated.

この場合、撮像制御部22は、顕微鏡装置10において標本等を観察する際、ステージ131をXY平面内で移動させて観察視野を上記標本に合わせると共に、較正部31が生成した較正情報に基づいて、ステージ131のZ位置を調整する制御を行う。それにより、正確に合焦された状態で標本を撮像することが可能となる。   In this case, when observing a sample or the like in the microscope apparatus 10, the imaging control unit 22 moves the stage 131 in the XY plane so that the observation visual field matches the sample, and based on the calibration information generated by the calibration unit 31. Control for adjusting the Z position of the stage 131 is performed. As a result, it is possible to image the specimen in a state in which it is accurately focused.

以上説明した実施の形態1の変形例1−4によれば、パラメータ記憶部241に記憶された真直度特性に基づいてステージ131のZ位置を自動で較正するので、精度の良い画像情報を取得することが可能となる。   According to the modified example 1-4 of the first embodiment described above, the Z position of the stage 131 is automatically calibrated based on the straightness characteristic stored in the parameter storage unit 241. Therefore, accurate image information is acquired. It becomes possible to do.

なお、上記変形例1−4においては、ステージ131のZ位置を調整することとしたが、対物レンズ140を含む観察光学系104側を光軸に沿って移動させ、ステージ131との相対位置を調整することにより、較正を行っても良い。   In Modification 1-4, the Z position of the stage 131 is adjusted. However, the observation optical system 104 side including the objective lens 140 is moved along the optical axis, and the relative position with respect to the stage 131 is set. Calibration may be performed by adjusting.

(実施の形態2)
次に、本発明の実施の形態2について説明する。
図24は、本発明の実施の形態2に係る顕微鏡システムの構成を示すブロック図である。図24に示すように、実施の形態2に係る顕微鏡システム2は、顕微鏡装置10及び処理装置40を備える。このうち、顕微鏡装置10の構成及び動作は、実施の形態1と同様である(図2参照)。また、本実施の形態2に係るアライメント装置は、上記処理装置40と、顕微鏡装置10が備える電動ステージユニット130とを含む。
(Embodiment 2)
Next, a second embodiment of the present invention will be described.
FIG. 24 is a block diagram showing a configuration of a microscope system according to Embodiment 2 of the present invention. As shown in FIG. 24, the microscope system 2 according to the second embodiment includes a microscope apparatus 10 and a processing apparatus 40. Among these, the configuration and operation of the microscope apparatus 10 are the same as those in the first embodiment (see FIG. 2). The alignment apparatus according to the second embodiment includes the processing apparatus 40 and the electric stage unit 130 included in the microscope apparatus 10.

処理装置40は、図1に示す処理装置20における撮像制御部22の代わりに撮像制御部41を備え、さらに、出力部42を備える。また、処理装置40には、表示装置43が接続されている。撮像制御部41及び出力部42以外の処理装置40の各部の構成及び動作は、実施の形態1と同様である。   The processing device 40 includes an imaging control unit 41 instead of the imaging control unit 22 in the processing device 20 illustrated in FIG. 1, and further includes an output unit 42. A display device 43 is connected to the processing device 40. The configuration and operation of each unit of the processing device 40 other than the imaging control unit 41 and the output unit 42 are the same as those in the first embodiment.

撮像制御部41は、外部からの操作に応じて入力部25から入力される指示信号に従って、被写体載置面131a上の所定範囲を撮像範囲として設定する領域設定部411と、設定された撮像範囲に関する撮像条件を取得し、該撮像条件に基づいて、撮像視野を移動させる移動方向及び移動量を設定する移動条件設定部412を備える。   The imaging control unit 41 includes an area setting unit 411 that sets a predetermined range on the subject placement surface 131a as an imaging range in accordance with an instruction signal input from the input unit 25 in response to an external operation, and a set imaging range. And a moving condition setting unit 412 for setting a moving direction and a moving amount for moving the imaging visual field based on the imaging condition.

出力部42は、画像取得部21により取得された画像データに基づく画像や、パラメータ記憶部241に記憶された真直度等の情報を表示装置43等の外部機器に出力し、所定の形式で表示させる外部インタフェースである。   The output unit 42 outputs an image based on the image data acquired by the image acquisition unit 21 and information such as straightness stored in the parameter storage unit 241 to an external device such as the display device 43 and displays the information in a predetermined format. External interface

表示装置43は、例えば、LCD、ELディスプレイ、CRTディスプレイ等によって構成され、出力部42から出力された画像や真直度等を画面に表示する。なお、実施の形態2においては、表示装置43を処理装置40の外部に設けているが、処理装置40の内部に設けても良い。   The display device 43 is configured by, for example, an LCD, an EL display, a CRT display, and the like, and displays an image, straightness, and the like output from the output unit 42 on the screen. In the second embodiment, the display device 43 is provided outside the processing device 40, but may be provided inside the processing device 40.

次に、実施の形態2に係るアライメント方法を説明する。図25は、実施の形態2に係るアライメント方法を示すフローチャートである。
まず、ステップS20において、領域設定部411は、被写体載置面131aに対して撮像範囲を設定する。図26は、撮像範囲の設定方法を説明するための模式図である。
Next, an alignment method according to the second embodiment will be described. FIG. 25 is a flowchart showing the alignment method according to the second embodiment.
First, in step S20, the area setting unit 411 sets an imaging range for the subject placement surface 131a. FIG. 26 is a schematic diagram for explaining an imaging range setting method.

ここで、図2に示すような一般的な顕微鏡装置10においては、通常、ステージ131の被写体載置面131aに対して、実際にユーザが標本を載置して観察に用いる領域は狭い。この標本観察に用いられる領域は、他の領域と比べて使用頻度が高いため、度重なるステージ131の移動による経時劣化等により、ステージ131の真直度が製品出荷時から変化している(大きくなっている)可能性が高い。一方、このような標本観察に用いられる領域にこそ、精度の良いキャリブレーションが望まれる。そこで、実施の形態2においては、被写体載置面131aのうち、使用頻度の高い領域を撮像範囲Aとして設定し、当該撮像範囲Aに限定して真直度を検出する。   Here, in the general microscope apparatus 10 as shown in FIG. 2, the area on which the user actually places the specimen and uses it for observation is usually narrower than the subject placement surface 131 a of the stage 131. Since the area used for specimen observation is used more frequently than other areas, the straightness of the stage 131 has changed from the time of product shipment due to deterioration with time due to repeated movement of the stage 131 (becomes larger). There is a high possibility. On the other hand, accurate calibration is desired only in such a region used for specimen observation. Therefore, in the second embodiment, a frequently used region of the subject placement surface 131a is set as the imaging range A, and the straightness is detected only in the imaging range A.

撮像範囲Aは、例えば、ユーザ操作に応じて入力部25から入力される信号に従って設定される。詳細には、入力部25からユーザ所望の標本サイズを表す信号が入力されると、領域設定部411は、被写体載置面131aの中心位置を中心として、当該標本サイズに対応する領域を撮像範囲Aとして設定する。或いは、入力部25から被写体載置面131a上の特定の領域を指定する信号が入力されると、領域設定部411は、当該特定の領域を撮像範囲Aとして設定することとしても良い。さらには、ユーザが顕微鏡装置10を利用するごとにステージ移動履歴をパラメータ記憶部241に蓄積しておき、アライメントを行う際に、パラメータ記憶部241に蓄積されたステージ移動履歴に基づいて、利用頻度の高い被写体載置面131a内の領域を撮像範囲Aとして設定しても良い。   The imaging range A is set according to a signal input from the input unit 25 according to a user operation, for example. Specifically, when a signal representing a user-desired sample size is input from the input unit 25, the region setting unit 411 captures an area corresponding to the sample size around the center position of the subject placement surface 131a. Set as A. Alternatively, when a signal designating a specific area on the subject placement surface 131a is input from the input unit 25, the area setting unit 411 may set the specific area as the imaging range A. Furthermore, the stage movement history is accumulated in the parameter storage unit 241 every time the user uses the microscope apparatus 10, and the frequency of use is based on the stage movement history accumulated in the parameter storage unit 241 when performing alignment. A region within the subject placement surface 131a having a high height may be set as the imaging range A.

続くステップS21において、ユーザは、物体面Psに対して観察光学系104(図2参照)の光軸Lを傾斜させる。これにより、観察光学系104の合焦面Pfが物体面Psに対して傾斜した状態となる。物体面Psの法線に対する光軸Lの傾斜角度αは、当該顕微鏡装置10における真直度の平均値と被写界深度DOFとの関係から規定される。   In subsequent step S21, the user tilts the optical axis L of the observation optical system 104 (see FIG. 2) with respect to the object plane Ps. As a result, the focusing surface Pf of the observation optical system 104 is inclined with respect to the object plane Ps. The inclination angle α of the optical axis L with respect to the normal of the object plane Ps is defined by the relationship between the average straightness value and the depth of field DOF in the microscope apparatus 10.

物体面Psに対して光軸Lを傾斜させる方法としては、図8及び図10に示すように、被写体載置面131aが水平となるようにステージ131を設置して、この上に被写体Sを載置し、被写体載置面131aの法線に対して光軸Lが傾斜角度αをなすように、観察光学系104を傾けても良い。或いは、図9及び図11に示すように、被写体載置面131aに対して光軸Lが直交するように観察光学系104を設置し、被写体載置面131a上に傾斜角度αを有する台座106を設置し、この台座106上に被写体Sを載置することとしても良い。   As a method of inclining the optical axis L with respect to the object plane Ps, as shown in FIGS. 8 and 10, a stage 131 is set so that the subject placement surface 131a is horizontal, and the subject S is placed thereon. The observation optical system 104 may be tilted so that the optical axis L forms an inclination angle α with respect to the normal of the subject placement surface 131a. Alternatively, as shown in FIGS. 9 and 11, the observation optical system 104 is installed so that the optical axis L is orthogonal to the subject placement surface 131a, and a pedestal 106 having an inclination angle α on the subject placement surface 131a. And the subject S may be placed on the pedestal 106.

この際、ユーザは、X方向における真直度を検出する場合には、物体面Psに対して光軸LをX方向に傾斜させ、Y方向における真直度を検出する場合には、物体面Psに対して光軸LをY方向に傾斜させる。併せて、ユーザは、入力部25を用いて、物体面Psに対する光軸Lの傾斜方向を入力する。なお、実施の形態2においても、図7に例示するような平面性が保証されたテストチャートが被写体Sとして用いられる。   At this time, when detecting the straightness in the X direction, the user tilts the optical axis L in the X direction with respect to the object plane Ps, and when detecting the straightness in the Y direction, the user moves to the object plane Ps. In contrast, the optical axis L is inclined in the Y direction. In addition, the user uses the input unit 25 to input the inclination direction of the optical axis L with respect to the object plane Ps. In the second embodiment as well, a test chart with a guaranteed flatness as illustrated in FIG.

続くステップS22において、制御部23は、撮像条件を取得し、該撮像条件に基づいて、撮像を1回行うごとにステージ131を移動させる移動方向及び移動量を決定する。   In subsequent step S <b> 22, the control unit 23 acquires an imaging condition, and determines a moving direction and a moving amount for moving the stage 131 each time imaging is performed based on the imaging condition.

撮像条件としては、物体面Psの法線に対する光軸Lの傾斜角度(即ち、物体面Psに対する合焦面Pfの傾斜角度)α及び傾斜方向(X方向又はY方向)、観察光学系104の観察倍率β、及びイメージャサイズIW(X)×IW(Y)(mm)が挙げられる。これらの撮像条件はパラメータ記憶部241に予め記憶されており、制御部23は、アライメント動作を開始すると、これらの撮像条件をパラメータ記憶部241から読み出す。 As imaging conditions, the tilt angle of the optical axis L with respect to the normal line of the object plane Ps (that is, the tilt angle of the focusing plane Pf with respect to the object plane Ps) α and the tilt direction (X direction or Y direction), the observation optical system 104 Examples include an observation magnification β and an imager size I W (X) × I W (Y) (mm). These imaging conditions are stored in advance in the parameter storage unit 241, and the control unit 23 reads out these imaging conditions from the parameter storage unit 241 when the alignment operation is started.

また、制御部23は、取得した撮像条件に基づいて、観察光学系104に対するステージ131の移動方向及び移動量を決定する。詳細には、まず、制御部23は、物体面Psに対する光軸Lの傾斜方向を、ユーザ操作に応じて入力部25から入力される信号により取得し、この傾斜方向に基づいてステージ131の移動方向を決定する。或いは、観察光学系104に対し、該観察光学系104の傾斜方向を検出する検出手段(例えば重力センサ等)を設け、この検出手段による検出結果から光軸Lの傾斜方向を取得しても良い。   Further, the control unit 23 determines the moving direction and moving amount of the stage 131 relative to the observation optical system 104 based on the acquired imaging conditions. Specifically, first, the control unit 23 acquires the tilt direction of the optical axis L with respect to the object plane Ps by a signal input from the input unit 25 according to a user operation, and the stage 131 moves based on the tilt direction. Determine the direction. Alternatively, the observation optical system 104 may be provided with detection means (for example, a gravity sensor) for detecting the inclination direction of the observation optical system 104, and the inclination direction of the optical axis L may be acquired from the detection result by the detection means. .

ステージ131の移動方向は、観察光学系104の光軸Lを物体面Psの法線方向から該物体面Psに投影したときに、物体面Psにおいて光軸が伸びる方向とする。具体的には、図8に示すように、物体面Psに対して光軸LがX方向に傾斜している場合、図26(a)に示すように、撮像範囲A内において観察視野VをX方向に順次移動するように、ステージ131をX方向に移動させる。一方、図10に示すように、物体面Psに対して光軸LがY方向に傾斜している場合、図26(b)に示すように、撮像範囲A内において観察視野VがY方向に順次移動するように、ステージ131をY方向に移動させる。ステージ131の移動量については、実施の形態1と同様に、式(3−1)、(3−2)により与えられる。   The moving direction of the stage 131 is a direction in which the optical axis extends on the object plane Ps when the optical axis L of the observation optical system 104 is projected onto the object plane Ps from the normal direction of the object plane Ps. Specifically, as shown in FIG. 8, when the optical axis L is inclined in the X direction with respect to the object plane Ps, the observation visual field V is set within the imaging range A as shown in FIG. The stage 131 is moved in the X direction so as to move sequentially in the X direction. On the other hand, as shown in FIG. 10, when the optical axis L is inclined in the Y direction with respect to the object plane Ps, the observation visual field V is in the Y direction within the imaging range A as shown in FIG. The stage 131 is moved in the Y direction so as to move sequentially. The amount of movement of the stage 131 is given by equations (3-1) and (3-2) as in the first embodiment.

続くステップS23において、顕微鏡システム2は、所定の観察視野を撮像して画像を取得する。具体的には、図26(a)又は(b)に示すように、撮像範囲Aの左上の観察視野Vが撮像される。なお、顕微鏡システムズ2は、最初の観察視野Vにおいて概ね中心領域が合焦されるように(図3参照)、ステージ131のZ位置を予め調整しておく。   In subsequent step S23, the microscope system 2 captures a predetermined observation field and acquires an image. Specifically, as shown in FIG. 26A or 26B, the observation visual field V at the upper left of the imaging range A is imaged. Note that the microscope system 2 adjusts the Z position of the stage 131 in advance so that the central region is substantially focused in the first observation visual field V (see FIG. 3).

続くステップS24において、合焦領域検出部231は、ステップS23において取得された画像から合焦領域を検出し、該合焦領域の重心座標及び幅(ピクセル)を、基準合焦領域に関する情報として、当該観察視野Vの重心座標と共にパラメータ記憶部241に記憶させる。なお、合焦領域検出部231による合焦領域の検出処理は、実施の形態1と同様である(図16参照)。   In subsequent step S24, the focus area detection unit 231 detects the focus area from the image acquired in step S23, and uses the coordinates of the center of gravity and the width (pixel) of the focus area as information on the reference focus area. The parameters are stored in the parameter storage unit 241 together with the barycentric coordinates of the observation visual field V. The focus area detection processing by the focus area detection unit 231 is the same as that in the first embodiment (see FIG. 16).

続くステップS13〜S17の処理は、実施の形態1と同様である(図12参照)。このうち、ステップS15においては、最初の観察視野Vを写した画像から検出された合焦領域の位置が、基準合焦領域の位置としてパラメータ記憶部241から読み出されて用いられる。また、ステップS16においては、最初の観察視野を写した画像から検出された合焦領域の幅が、パラメータ記憶部241から読み出されて用いられる。撮像範囲A内の全領域に対する処理が終了した後(ステップS17:Yes)、処理は終了する。   The subsequent steps S13 to S17 are the same as in the first embodiment (see FIG. 12). Among these, in step S15, the position of the focus area detected from the image in which the first observation visual field V is copied is read from the parameter storage unit 241 and used as the position of the reference focus area. In step S16, the width of the in-focus area detected from the image showing the first observation field is read from the parameter storage unit 241 and used. After the process for all the areas in the imaging range A is completed (step S17: Yes), the process ends.

このようにして検出され、パラメータ記憶部241に記憶されたステージ131の真直度特性は、ユーザが標本等を観察する際に、ステージ131のZ位置を手動で較正しつつ標本を撮像するために利用することができる。なお、標本等を観察する際には、観察光学系104の傾斜(図8、図10参照)をもとに戻し、或いは、台座106(図9、図11参照)を除去して、物体面Psと合焦面Pfとを平行に設置する。   The straightness characteristic of the stage 131 detected in this way and stored in the parameter storage unit 241 is used when the user observes the sample or the like so that the sample can be imaged while manually calibrating the Z position of the stage 131. Can be used. When observing a specimen or the like, the object plane is restored by returning the tilt of the observation optical system 104 (see FIGS. 8 and 10) or removing the pedestal 106 (see FIGS. 9 and 11). Ps and the focusing surface Pf are installed in parallel.

詳細には、出力部42は、ユーザ操作に応じて入力部25から入力される指示信号に応じて、パラメータ記憶部241から真直度特性を読み出し、表示装置43に出力して所定の形式で表示させる。図27及び図28は、表示装置43に表示される真直度特性の表示例を示す模式図である。   Specifically, the output unit 42 reads the straightness characteristic from the parameter storage unit 241 in response to an instruction signal input from the input unit 25 in response to a user operation, and outputs the straightness characteristic to the display device 43 to display in a predetermined format. Let 27 and 28 are schematic diagrams illustrating display examples of straightness characteristics displayed on the display device 43. FIG.

表示装置43の画面には、顕微鏡装置10における現在の観察視野が写った画像(以下、観察画像という)に加えて、図27及び図28に示すようなウィンドウ43aが表示される。このウィンドウ43aは、被写体載置面131aにおける真直度マップが表示されるマップ表示欄d1と、X方向又はY方向における真直度の変化を示すグラフが表示されるグラフ表示欄d2と、真直度に応じたステージ131の調整方法を表すメッセージが表示されるメッセージ表示欄d3とを含んでいる。   On the screen of the display device 43, a window 43a as shown in FIGS. 27 and 28 is displayed in addition to an image showing the current observation visual field in the microscope apparatus 10 (hereinafter referred to as an observation image). The window 43a includes a map display field d1 in which a straightness map on the subject placement surface 131a is displayed, a graph display field d2 in which a graph indicating a change in straightness in the X direction or the Y direction is displayed, and a straightness. And a message display field d3 in which a message indicating the adjustment method of the corresponding stage 131 is displayed.

マップ表示欄d1に表示される真直度マップにおいて、横軸は観察視野のX座標を示し、縦軸は観察視野のY座標を示している。また、真直度マップの各座標の画素に割り当てられた色相は、被写体載置面131aの対応する座標における真直度の大きさを表している。なお、図27及び図28においては、色相の違いをグレーの濃淡で表しており、真直度が高いほどグレーの濃度を高くしている。この真直度マップには、顕微鏡装置10における現在の観察視野の座標を表す点p1が表示されている。   In the straightness map displayed in the map display field d1, the horizontal axis indicates the X coordinate of the observation visual field, and the vertical axis indicates the Y coordinate of the observation visual field. Further, the hue assigned to the pixel at each coordinate in the straightness map represents the degree of straightness at the corresponding coordinate on the subject placement surface 131a. In FIGS. 27 and 28, the difference in hue is represented by gray shades, and the higher the straightness, the higher the gray density. In the straightness map, a point p1 representing the coordinates of the current observation visual field in the microscope apparatus 10 is displayed.

ユーザが、入力部25を用いて観察視野をX方向に移動させる操作を行うと、図27に示すように、現在の観察視野に対してX方向で隣接する観察視野の座標を表す点p2が真直度マップに表示されると共に、X方向における真直度の変化を示すグラフがグラフ表示欄d2に表示される。さらに、点p1と点p2との真直度の変化に応じてユーザが行うべきステージ131の調整方法が、メッセージ表示欄d3に表示される。一方、ユーザが、入力部25を用いて観察視野をY方向に移動させる操作を行うと、図28に示すように、現在の観察視野に対してY方向で隣接する観察視野の座標を表す点p3が真直度マップに表示されると共に、Y方向における真直度の変化を示すグラフがグラフ表示欄d2に表示される。さらに、点p1と点p3との真直度の変化に応じてユーザが行うべきステージ131の調整方法が、メッセージ表示欄d3に表示される。   When the user performs an operation of moving the observation visual field in the X direction using the input unit 25, as shown in FIG. 27, a point p2 representing the coordinates of the observation visual field adjacent to the current observation visual field in the X direction is displayed. In addition to being displayed on the straightness map, a graph indicating the change in straightness in the X direction is displayed in the graph display field d2. Further, the adjustment method of the stage 131 to be performed by the user in accordance with the change in straightness between the points p1 and p2 is displayed in the message display field d3. On the other hand, when the user performs an operation of moving the observation visual field in the Y direction using the input unit 25, as shown in FIG. 28, the point representing the coordinates of the observation visual field adjacent in the Y direction with respect to the current observation visual field. p3 is displayed on the straightness map, and a graph indicating the change in straightness in the Y direction is displayed in the graph display field d2. Furthermore, the stage 131 adjustment method to be performed by the user in accordance with the change in straightness between the points p1 and p3 is displayed in the message display field d3.

ユーザは、ステージ131に設けられた調節ツマミ等を、メッセージ表示欄d3に表示されているとおり、所定方向に所定量だけ回転させることによって、ステージ131のZ位置を調整することができる。メッセージ表示欄d3には、調節ツマミの回転方向(時計回り、反時計回り)や回転量(○目盛り、△目盛り)が具体的に示されているので、ユーザは迷うことなく正確にステージ131の較正を行うことが可能となる。   The user can adjust the Z position of the stage 131 by rotating an adjustment knob or the like provided on the stage 131 by a predetermined amount in a predetermined direction as displayed in the message display field d3. In the message display field d3, the rotation direction (clockwise, counterclockwise) and the rotation amount (○ scale, △ scale) of the adjustment knob are specifically shown. Calibration can be performed.

以上説明したように、本発明の実施の形態2によれば、ユーザによる使用頻度が高い領域におけるステージ131の真直度特性を検出するので、ユーザの自身の使用状況に応じて、ステージ131のアライメントを、随時、効率良く行うことが可能となる。   As described above, according to the second embodiment of the present invention, since the straightness characteristic of the stage 131 in the region where the frequency of use by the user is high is detected, the alignment of the stage 131 is performed according to the user's own usage situation. Can be performed efficiently at any time.

また、実施の形態2においては、ユーザが手作業で物体面Psに対して合焦面Pfを傾斜させるため、物体面Psと合焦面Pfとのなす傾斜角度が、アライメントを行うごとに一定にならない可能性がある。しかしながら、実施の形態2においては、アライメントを行う際に撮像範囲A内で最初に撮像された観察範囲の画像から検出された合焦領域の位置を基準とするので、他の観察視野における真直度を正確に検出することが可能となる。   In the second embodiment, since the user manually tilts the focusing plane Pf with respect to the object plane Ps, the tilt angle formed between the object plane Ps and the focusing plane Pf is constant every time alignment is performed. It may not be. However, in the second embodiment, since the position of the in-focus area detected from the image in the observation range that is first imaged in the imaging range A when performing the alignment is used as a reference, straightness in other observation fields of view Can be accurately detected.

(変形例2−1)
次に、本発明の実施の形態2の変形例2−1について説明する。図29は、本変形例2−1における真直度特性の表示例を示す模式図である。表示装置43の画面にステージ131の真直度特性を表示する際には、図27に示すウィンドウ43aの代わりに、図29に示すウィンドウ43bを表示しても良い。ウィンドウ43bは、図27に示すマップ表示欄d1の代わりに、ステージ131に載置された被写体Sの全体が写った画像(以下、マクロ画像という)が表示される画像表示欄d4を含んでいる。
(Modification 2-1)
Next, Modification 2-1 of Embodiment 2 of the present invention will be described. FIG. 29 is a schematic diagram illustrating a display example of the straightness characteristic in the modification 2-1. When displaying the straightness characteristic of the stage 131 on the screen of the display device 43, a window 43b shown in FIG. 29 may be displayed instead of the window 43a shown in FIG. The window 43b includes, in place of the map display field d1 shown in FIG. 27, an image display field d4 on which an image (hereinafter referred to as a macro image) showing the entire subject S placed on the stage 131 is displayed. .

マクロ画像は、顕微鏡装置10において比較的低倍率(例えば、1倍〜4倍)の対物レンズを用いて被写体Sを撮像することにより取得された画像である。ユーザは、被写体Sをステージ131にセットした後、まずマクロ画像の撮像を行うと良い。   The macro image is an image acquired by imaging the subject S using the objective lens with a relatively low magnification (for example, 1 to 4 times) in the microscope apparatus 10. The user may first take a macro image after setting the subject S on the stage 131.

マクロ画像が取得されると、制御部23は、パラメータ記憶部241から真直度特性を読み出し、マクロ画像における座標とステージ131の各座標における真直度特性とを関連付けて出力する。それにより、図29に示すウィンドウ43bが表示装置43の画面に表示される。このウィンドウ43b内の画像表示欄d4に表示されたマクロ画像には、顕微鏡装置10における現在の観察視野の座標を表す点p1が表示されている。   When the macro image is acquired, the control unit 23 reads the straightness characteristic from the parameter storage unit 241 and outputs the coordinates in the macro image and the straightness characteristic at each coordinate of the stage 131 in association with each other. Thereby, the window 43b shown in FIG. 29 is displayed on the screen of the display device 43. In the macro image displayed in the image display field d4 in the window 43b, a point p1 representing the coordinates of the current observation visual field in the microscope apparatus 10 is displayed.

ユーザが、マクロ画像に対する入力部25を用いたポインタ操作(例えばクリック操作)により、より高倍率で詳細に観察したい領域を指定すると、当該領域を表す点(例えば点p2)がマクロ画像上に表示されると共に、顕微鏡装置10における観察視野が当該領域に移行する。さらに、点p1から点p2に向かう方向(図29においてはX方向)における真直度の変化を示すグラフがグラフ表示欄d2に表示されると共に、点p1と点p2との真直度の変化に応じてユーザが行うべきステージ131の調整方法が、メッセージ表示欄d3に表示される。   When the user designates a region to be observed in detail at a higher magnification by a pointer operation (for example, a click operation) using the input unit 25 for the macro image, a point (for example, the point p2) representing the region is displayed on the macro image. At the same time, the observation field of view in the microscope apparatus 10 shifts to the region. Further, a graph showing the change in straightness in the direction from the point p1 to the point p2 (X direction in FIG. 29) is displayed in the graph display field d2, and in accordance with the change in straightness between the points p1 and p2. The adjustment method of the stage 131 to be performed by the user is displayed in the message display field d3.

ユーザは、画像表示欄d4に表示されたマクロ画像を参照することにより、被写体Sのうち、より高倍率で詳細に観察したい領域を容易に選択することができると共に、選択した領域に応じてグラフ表示欄d2及びメッセージ表示欄d3にそれぞれ表示されるグラフ及びメッセージを参照することにより、ステージ131のZ位置を簡単且つ正確に調整することができる。   By referring to the macro image displayed in the image display field d4, the user can easily select an area of the subject S that he / she wants to observe in detail at a higher magnification, and a graph corresponding to the selected area. The Z position of the stage 131 can be adjusted easily and accurately by referring to the graphs and messages displayed in the display column d2 and the message display column d3, respectively.

(変形例2−2)
上記実施の形態2においても、変形例1−4と同様に較正部を設け、パラメータ記憶部241に記憶された真直度特性に応じてステージ131のZ位置を自動較正することとしても良い。
(Modification 2-2)
Also in the second embodiment, a calibration unit may be provided in the same manner as in Modification 1-4, and the Z position of the stage 131 may be automatically calibrated according to the straightness characteristic stored in the parameter storage unit 241.

(実施の形態3)
次に、本発明の実施の形態3について説明する。
図30は、本発明の実施の形態3に係る顕微鏡システムの構成を示すブロック図である。図30に示すように、実施の形態3に係る顕微鏡システム3は、顕微鏡装置10及び処理装置50を備える。このうち、顕微鏡装置10の構成及び動作は、実施の形態1と同様である(図2参照)。また、本実施の形態3に係るアライメント装置は、上記処理装置50と、顕微鏡装置10が備える電動ステージユニット130とを含む。
(Embodiment 3)
Next, a third embodiment of the present invention will be described.
FIG. 30 is a block diagram showing a configuration of a microscope system according to Embodiment 3 of the present invention. As shown in FIG. 30, the microscope system 3 according to the third embodiment includes a microscope apparatus 10 and a processing apparatus 50. Among these, the configuration and operation of the microscope apparatus 10 are the same as those in the first embodiment (see FIG. 2). The alignment apparatus according to the third embodiment includes the processing apparatus 50 and the electric stage unit 130 included in the microscope apparatus 10.

処理装置50は、図1に示す処理装置20における制御部23の代わりに制御部51を備え、さらに、Z位置調整部52を備える。制御部51及びZ位置調整部52以外の処理装置50の各部の構成及び動作は、実施の形態1と同様である。   The processing device 50 includes a control unit 51 instead of the control unit 23 in the processing device 20 illustrated in FIG. 1, and further includes a Z position adjustment unit 52. The configuration and operation of each part of the processing apparatus 50 other than the control unit 51 and the Z position adjustment unit 52 are the same as those in the first embodiment.

制御部51は、合焦領域検出部231と、合焦領域比較部511と、真直度特性検出部233とを備える。このうち、合焦領域検出部231及び真直度特性検出部233の動作は、実施の形態1と同様である。   The control unit 51 includes a focusing area detection unit 231, a focusing area comparison unit 511, and a straightness characteristic detection unit 233. Among these, the operations of the focus area detection unit 231 and the straightness characteristic detection unit 233 are the same as those in the first embodiment.

合焦領域比較部511は、合焦領域検出部231により検出された合焦領域の位置及び幅を、パラメータ記憶部241に記憶されている基準合焦領域の位置及び幅と比較する。
Z位置調整部52は、合焦領域比較部511に合焦領域の位置及び幅の比較結果に基づいて、ステージ131のZ位置を調整する。
The focus area comparison unit 511 compares the position and width of the focus area detected by the focus area detection unit 231 with the position and width of the reference focus area stored in the parameter storage unit 241.
The Z position adjustment unit 52 adjusts the Z position of the stage 131 based on the comparison result of the position and width of the in-focus area with the in-focus area comparison unit 511.

ここで、ステージ131の真直度が大きい場合、観察光学系104に合焦されている物体面Ps内の領域R0(図3参照)が観察視野Vからはみ出し、この観察視野Vを写した画像に合焦領域の全体が収まり切らなくなることがある。この場合、基準合焦領域からの合焦領域のシフト量を正確に取得することができなくなってしまう。そこで、本実施の形態3においては、合焦領域比較部511による比較結果に基づいて、Z位置調整部52がステージ131のZ位置を調整することにより、合焦領域のシフト量を正確に取得できるようにする。 Here, when the straightness of the stage 131 is large, the region R 0 (see FIG. 3) in the object plane Ps focused on the observation optical system 104 protrudes from the observation visual field V, and an image in which the observation visual field V is copied. In some cases, the entire focusing area may not fit. In this case, it becomes impossible to accurately acquire the shift amount of the focus area from the reference focus area. Therefore, in the third embodiment, the Z position adjustment unit 52 adjusts the Z position of the stage 131 based on the comparison result by the focus region comparison unit 511, thereby accurately acquiring the shift amount of the focus region. It can be so.

次に、実施の形態3に係るアライメント方法について説明する。図31は、実施の形態3に係るアライメント方法を示すフローチャートである。なお、図31に示すステップS10〜S14は、実施の形態1と同様である(図12参照)。また、本実施の形態3においても、図8〜図11に例示するように、物体面Psに対して合焦面Pfを傾斜させた状態でアライメントが行われる。   Next, an alignment method according to Embodiment 3 will be described. FIG. 31 is a flowchart showing the alignment method according to the third embodiment. Note that steps S10 to S14 shown in FIG. 31 are the same as those in the first embodiment (see FIG. 12). Also in the third embodiment, as illustrated in FIGS. 8 to 11, alignment is performed in a state where the focusing surface Pf is inclined with respect to the object surface Ps.

ステップS14に続くステップS31において、合焦領域比較部511は、パラメータ記憶部241に記憶されている基準合焦領域の位置情報を読み出し、ステップS14において画像内から検出された合焦領域の位置及び幅を、基準合焦領域の位置及び幅とそれぞれ比較する。図32は、合焦領域比較部511が実行する合焦領域の比較処理を説明するための模式図である。このうち、図32(a)は、基準状態において撮像された基準画像Mbaseを示す模式図である。合焦領域比較部511は、この基準画像Mbaseにおける基準合焦領域Rbaseの重心位置BGの座標(xBG,yBG)及び幅BWを、パラメータ記憶部241から読み出しておく。 In step S31 following step S14, the in-focus area comparison unit 511 reads out the position information of the reference in-focus area stored in the parameter storage unit 241, and the position of the in-focus area detected from the image in step S14 and The width is compared with the position and width of the reference focusing area, respectively. FIG. 32 is a schematic diagram for explaining the focus area comparison processing executed by the focus area comparison unit 511. Among these, FIG. 32A is a schematic diagram showing the reference image M base captured in the reference state. Focused region comparison unit 511, the coordinates (x BG, y BG) of the center-of-gravity position BG of the reference focus area R base in the reference image M base a and a width BW, previously read from the parameter storage unit 241.

図32(b)に示すように、ステップS14において、ある観察視野を写した画像M4から合焦領域Rfocus4が検出された場合、合焦領域比較部511は、合焦領域Rfocus4の重心位置OGの座標(xOG,yOG)及び幅OW(ピクセル)を算出する。そして、基準状態からの合焦領域Rfocus3のシフト量、即ち、重心位置BG、OG間のシフト量ΔC(xOG−xBG、又は、yOG−yBG)(ピクセル)及びシフト方向を求め、パラメータ記憶部241に記憶させておく。合焦領域Rfocus4のシフト方向は、シフト量ΔCの符号によって表される。具体的には、図32(b)に示すように、合焦領域Rfocus4が右方向にシフトした場合、シフト量ΔCの符号は正となる。 As shown in FIG. 32 (b), when the focus area R focus4 is detected from the image M4 in which a certain observation field of view is detected in step S14, the focus area comparison unit 511 displays the barycentric position of the focus area R focus4 . OG coordinates (x OG , y OG ) and width OW (pixel) are calculated. Then, the shift amount of the in-focus region R focus3 from the reference state, that is, the shift amount ΔC (x OG −x BG or y OG −y BG ) (pixel) and the shift direction between the centroid positions BG and OG are obtained. And stored in the parameter storage unit 241. The shift direction of the focus area R focus4 is represented by the sign of the shift amount ΔC. Specifically, as shown in FIG. 32B, when the focus area R focus4 is shifted in the right direction, the sign of the shift amount ΔC is positive.

また、合焦領域比較部511は、基準状態からの合焦領域Rfocus4の幅の変化量ΔW=BW−OW(ピクセル)を算出する。 Further, the focus area comparison unit 511 calculates a change amount ΔW = BW−OW (pixel) of the width of the focus area R focus4 from the reference state.

続くステップS32において、合焦領域比較部511は、処理対象の観察視野において、ステージ131のZ位置を調整する必要があるか否かを判定する。ここで、図6に示すように、物体面が基準状態の物体面Ps0から大きく離れてしまうと(例えば、物体面が物体面Psmaxよりさらに下がった状態)、当該物体面で合焦された領域が画像内に収まり切れなくなる。そのような場合、図32に示すように、基準合焦領域Rbaseに対する合焦領域Rfocus4のシフト量が大きくなると共に、画像M4から検出された合焦領域Rfocus4の幅OWは、基準合焦領域Rbaseの幅BWよりも小さくなる。従って、ステップS32において算出された合焦領域の幅の変化量ΔWはゼロよりも大きくなる。この場合、合焦領域比較部511は、ステージ131のZ位置の調整が必要と判定し(ステップS32:No)、処理はステップS33に移行する。 In subsequent step S32, the in-focus area comparing unit 511 determines whether or not the Z position of the stage 131 needs to be adjusted in the observation visual field to be processed. Here, as shown in FIG. 6, when the object plane is far away from the object plane Ps 0 in the reference state (for example, the object plane is further lowered from the object plane Ps max ), the object plane is focused. Area does not fit in the image. In such a case, as shown in FIG. 32, the shift amount of the focus area R focus4 with respect to the reference focus area R base becomes large, and the width OW of the focus area R focus4 detected from the image M4 is equal to the reference focus area R base4. It becomes smaller than the width BW of the focal region Rbase . Therefore, the amount of change ΔW of the focus area width calculated in step S32 is greater than zero. In this case, the focus area comparison unit 511 determines that adjustment of the Z position of the stage 131 is necessary (step S32: No), and the process proceeds to step S33.

ステップS33において、合焦領域比較部511は、ステップS31において算出された合焦領域のシフト量ΔCに基づいて、ステージ131のZ位置を調整するための調整量及び調整方向を算出する。これに応じて、Z位置調整部52は、算出された調整量及び調整方向に基づいて、ステージ131のZ位置を調整する制御を行う。ステージ131のZ位置を調整量δAZは、被写界深度DOF、基準合焦領域の幅Wfocus、及び合焦領域の幅の変化量ΔWに基づいて、次式(7)によって与えられる。
δAZ=(DOF×ΔW)/Wfocus …(7)
In step S33, the in-focus area comparison unit 511 calculates an adjustment amount and adjustment direction for adjusting the Z position of the stage 131 based on the in-focus area shift amount ΔC calculated in step S31. In response to this, the Z position adjustment unit 52 performs control to adjust the Z position of the stage 131 based on the calculated adjustment amount and adjustment direction. The adjustment amount δA Z for the Z position of the stage 131 is given by the following equation (7) based on the depth of field DOF, the width W focus of the reference focus area, and the change amount ΔW of the width of the focus area.
δA Z = (DOF × ΔW) / W focus (7)

また、ステージ131のZ位置の調整方向は、合焦領域のシフト量ΔCの符号に基づいて決定される。図6に示すように、物体面Psに対し、X座標が大きくなるほど合焦面Pfが下がる(Z座標が大きく)ように合焦面Pfが傾斜している場合において、合焦領域のシフト量ΔCの符号がプラスである場合、物体面Psが観察光学系104に近づく方向にステージ131を移動させる。反対に、同様に合焦面Pfが傾斜している場合において、合焦領域のシフト量ΔCの符号がマイナスである場合、物体面Psが観察光学系104から離れる方向にステージ131を移動させる。これにより、当該観察視野内に合焦領域が収まるようになる。Y方向についても同様である。   Further, the adjustment direction of the Z position of the stage 131 is determined based on the sign of the shift amount ΔC of the in-focus area. As shown in FIG. 6, when the focal plane Pf is inclined so that the focal plane Pf decreases (the Z coordinate increases) as the X coordinate increases with respect to the object plane Ps, the shift amount of the focal area When the sign of ΔC is positive, the stage 131 is moved in the direction in which the object plane Ps approaches the observation optical system 104. On the other hand, when the focal plane Pf is similarly inclined and the sign of the shift amount ΔC of the focal area is negative, the stage 131 is moved in a direction in which the object plane Ps moves away from the observation optical system 104. As a result, the in-focus area is within the observation field of view. The same applies to the Y direction.

続くステップS34において、処理装置20は、同じ観察視野を撮像することにより画像を取得する。その後、処理はステップS14に移行する。図33は、図32(b)と同じ観察視野を撮像することにより取得された画像を示す模式図である。図32に示すように、ステージ131のZ位置を調整した後では、画像M4’から、基準合焦領域Rbase(図32(a)参照)と同じ幅OWを有する合焦領域Rfocus4’が検出されるようになる。 In subsequent step S <b> 34, the processing device 20 acquires an image by imaging the same observation visual field. Thereafter, the process proceeds to step S14. FIG. 33 is a schematic diagram showing an image acquired by imaging the same observation visual field as that in FIG. As shown in FIG. 32, after the Z position of the stage 131 is adjusted, an in-focus area R focus4 ′ having the same width OW as the reference in-focus area R base (see FIG. 32A) is obtained from the image M4 ′. Will be detected.

一方、ステップS31において算出された合焦領域のシフト量ΔCがそれほど大きくなく、画像内に合焦領域の全体が収まっている場合、合焦領域の幅の変化量ΔWはゼロとなる。この場合、合焦領域比較部511は、ステージ131のZ位置の調整は不要と判定し(ステップS32:Yes)、処理はステップS16に移行する。   On the other hand, when the shift amount ΔC of the focus area calculated in step S31 is not so large and the entire focus area is within the image, the change amount ΔW of the focus area width is zero. In this case, the focus area comparison unit 511 determines that adjustment of the Z position of the stage 131 is unnecessary (step S32: Yes), and the process proceeds to step S16.

続くステップS16の処理は、全体として実施の形態1と同様であるが(図22参照)、ステップS161においては、最終的な真直度ΔZ’として、式(6)によって与えられる真直度ΔZと、ステップS33において算出された調整量δAZとの和が算出される(ΔZ’=ΔZ+δAZ)。
続くステップS17の処理は、実施の形態1と同様である。
The subsequent processing in step S16 is generally the same as that in the first embodiment (see FIG. 22), but in step S161, the straightness ΔZ given by the equation (6) as the final straightness ΔZ ′, The sum of the adjustment amount δA Z calculated in step S33 is calculated (ΔZ ′ = ΔZ + δA Z ).
The subsequent processing in step S17 is the same as in the first embodiment.

以上説明したように、本発明の実施の形態3によれば、ステージ131のZ方向における変動が大きい場合であっても、ステージ131のZ位置を調整することにより、真直度特性を取得することが可能となる。   As described above, according to the third embodiment of the present invention, straightness characteristics can be obtained by adjusting the Z position of the stage 131 even if the stage 131 has a large variation in the Z direction. Is possible.

また、本発明の実施の形態3によれば、ステージ131のZ方向における変動(真直度)が大きい場合にステージ131のZ位置を調整するため、隣接する観察視野について処理した際にも、当該隣接する観察視野に合焦領域が収まる可能性が高くなる。従って、各観察領域を写した画像に対する合焦領域の検出精度を向上させることができる。   Further, according to the third embodiment of the present invention, when the variation in the Z direction (straightness) of the stage 131 is large, the Z position of the stage 131 is adjusted. The possibility that the in-focus area fits in the adjacent observation visual field increases. Therefore, it is possible to improve the detection accuracy of the focus area for the image in which each observation area is copied.

なお、実施の形態3においては、ステップS33において算出された調整量δAZを用いることにより、真直度特性を算出することが可能であるため、必ずしも、調整量δAZに基づいてステージ131のZ位置を調整する必要はない。しかしながら、この場合、調整量δAZに計算誤差が含まれることを加味する必要がある。従って、好ましくは、ステージ131のZ位置を調整した上で、同じ観察視野を写した画像に合焦領域の全体が含まれることを確認し、この合焦領域の位置に基づいて真直度ΔZ’=ΔZ+δAZを算出すると良い。 In the third embodiment, since the straightness characteristic can be calculated by using the adjustment amount δA Z calculated in step S33, the Z of the stage 131 is not necessarily based on the adjustment amount δA Z. There is no need to adjust the position. However, in this case, it is necessary to consideration to include calculation errors in the adjustment amount .delta.A Z. Therefore, preferably, after adjusting the Z position of the stage 131, it is confirmed that the entire focusing area is included in an image that is captured in the same observation visual field, and the straightness ΔZ ′ is based on the position of the focusing area. = may calculate the ΔZ + δA Z.

(変形例3−1)
上記実施の形態3においても、実施の形態2と同様に撮像範囲を設定することにより、ユーザによる使用頻度の高い領域に限定して真直度特性を取得しても良い。
(Modification 3-1)
Also in the third embodiment, the straightness characteristic may be acquired by limiting the area where the frequency of use is high by the user by setting the imaging range as in the second embodiment.

(変形例3−2)
次に、本発明の実施の形態3の変形例3−2について説明する。なお、本変形例3−2における処理装置の構成及びこれを含む顕微鏡システム全体の構成は、実施の形態3と同様である。
(Modification 3-2)
Next, Modification 3-2 of Embodiment 3 of the present invention will be described. Note that the configuration of the processing apparatus and the overall configuration of the microscope system including the same in the modified example 3-2 are the same as those in the third embodiment.

図34は、本変形例3−2に係るアライメント方法を示すフローチャートである。なお、図34に示すステップS10〜S13は、実施の形態3と同様である。   FIG. 34 is a flowchart showing the alignment method according to the modification 3-2. Note that steps S10 to S13 shown in FIG. 34 are the same as those in the third embodiment.

ステップS13に続くステップS14において、合焦領域検出部231は、ステップS13において取得された画像から合焦領域を検出する。合焦領域の検出処理は全体として実施の形態1と同様であるが(図16参照)、ステップS145においては、X方向における画像評価値EXが所定の閾値Txよりも高く、且つ、Y方向における画像評価値EYが所定の閾値Tyよりも高い小領域を、合焦領域として選択すると共に、合焦領域として選択された小領域の数をカウントする。   In step S14 following step S13, the in-focus area detection unit 231 detects the in-focus area from the image acquired in step S13. The focus area detection process is generally the same as in the first embodiment (see FIG. 16), but in step S145, the image evaluation value EX in the X direction is higher than a predetermined threshold Tx and in the Y direction. A small area whose image evaluation value EY is higher than a predetermined threshold value Ty is selected as a focus area, and the number of small areas selected as the focus area is counted.

続くステップS41において、合焦領域比較部511は、ステップS14において合焦領域が検出されたか否かを判定する。具体的には、合焦領域として選択された小領域の数が1以上である場合、合焦領域比較部511は合焦領域が検出されたと判定する(ステップS41:Yes)。この場合、処理はステップS31に移行する。続くステップS31〜S33、S16及びS17の処理は、実施の形態3と同様である。   In subsequent step S41, the in-focus area comparison unit 511 determines whether or not an in-focus area has been detected in step S14. Specifically, when the number of small areas selected as the focus area is 1 or more, the focus area comparison unit 511 determines that the focus area has been detected (step S41: Yes). In this case, the process proceeds to step S31. The subsequent steps S31 to S33, S16 and S17 are the same as those in the third embodiment.

一方、合焦領域として選択された小領域の数がゼロである場合、合焦領域比較部511は、合焦領域が検出されなかったと判定する(ステップS41:No)。この場合、ステップS42において、Z位置調整部52は、現在の観察視野よりも前に撮像された観察視野に対する処理の際に実行されたステージ131のZ位置の調整方向及び調整量δAZに基づいて、ステージ131のZ位置を調整する制御を行う。 On the other hand, when the number of small areas selected as the focus area is zero, the focus area comparison unit 511 determines that no focus area has been detected (step S41: No). In this case, in step S42, the Z position adjustment unit 52 is based on the adjustment direction and the adjustment amount δA Z of the Z position of the stage 131, which is executed in the process for the observation field captured before the current observation field. Thus, control for adjusting the Z position of the stage 131 is performed.

図35は、現在の観察視野を写した画像を示す模式図である。図35に示すように、現在の観察視野を写した画像M5から合焦領域が検出されなかった場合、合焦領域比較部511は、前回(1視野前)の観察視野に対する処理の際に実行されたステージ131のZ位置の調整量及び調整方向をパラメータ記憶部241から読み出す。   FIG. 35 is a schematic diagram showing an image showing the current observation visual field. As shown in FIG. 35, when the in-focus area is not detected from the image M5 showing the current observation field, the in-focus area comparison unit 511 is executed in the process for the previous observation field (one field before). The adjustment amount and adjustment direction of the Z position of the stage 131 thus read out are read from the parameter storage unit 241.

例えば、前回の観察視野を最初に撮像した際、図32(b)に示すように、合焦領域Rfocus4の全体を捉えきれない画像M4が取得されたために、ステージ131のZ位置を調整し(図31のステップS33参照)、その結果、図33に示すように、合焦領域Rfocus4’の全体を含む画像M4’が取得されたとする。この場合、式(7)によって与えられる調整量δAZと、基準状態からの合焦領域のシフト量ΔCに基づいて決定されるステージ131のZ位置の調整方向とが、パラメータ記憶部241から読み出される。 For example, when the previous observation visual field is first imaged, as shown in FIG. 32 (b), an image M4 that cannot capture the entire focus area R focus4 is acquired, so the Z position of the stage 131 is adjusted. (See step S33 in FIG. 31) As a result, as shown in FIG. 33, it is assumed that an image M4 ′ including the entire focusing area R focus4 ′ has been acquired. In this case, the adjustment amount δA Z given by equation (7) and the adjustment direction of the Z position of the stage 131 determined based on the shift amount ΔC of the in-focus area from the reference state are read from the parameter storage unit 241. It is.

合焦領域比較部511は、この調整量δAZ及び調整方向をZ位置調整部52に出力する。これに応じて、Z位置調整部52は、調整量δAZ及び調整方向に基づいて、顕微鏡装置10に対してステージ131のZ位置を変更させる制御を行う。それにより、現在の観察視野に合焦領域を近づけることができる。その後、処理はステップS34に移行する。 Focused region comparison unit 511 outputs the adjustment amount .delta.A Z and adjustment direction Z position adjusting section 52. In response to this, Z position adjusting unit 52, based on the adjustment amount .delta.A Z and the adjustment direction, performs control to change the Z position of the stage 131 relative to the microscope apparatus 10. Thereby, the in-focus area can be brought close to the current observation visual field. Thereafter, the process proceeds to step S34.

ステージ131のZ位置の調整後、再び当該観察視野を写した画像(ステップS34参照)から合焦領域が検出された場合(ステップS14、ステップS41:Yes)、処理はステップS31に移行する。一方、当該観察視野を写した画像から合焦領域が検出されなかった場合(ステップS41:No)、処理は再びステップS42に移行する。この場合、合焦領域比較部511は、当該観察視野に対し、2視野前→3視野前→…と観察視野を順次遡り、各観察視野に対する処理の際に算出されたZ位置の調整量及び調整方向基づき、画像内に合焦領域が出現するまでステージ131のZ位置の調整を繰り返す。   After the adjustment of the Z position of the stage 131, when the in-focus area is detected again from the image (see step S34) that shows the observation field of view (step S14, step S41: Yes), the process proceeds to step S31. On the other hand, when the in-focus area is not detected from the image showing the observation field of view (step S41: No), the process proceeds to step S42 again. In this case, the in-focus area comparison unit 511 sequentially goes back the observation field in the order of 2 fields before → 3 fields before ... with respect to the observation field, and the adjustment amount of the Z position calculated in the process for each observation field and Based on the adjustment direction, the adjustment of the Z position of the stage 131 is repeated until a focused region appears in the image.

以上説明したように、本発明の実施の形態3の変形例3−2によれば、ステージ131のZ方向における変動が大きく、現在の観察視野を写した画像から合焦領域を検出できない場合であっても、近傍の観察視野における真直度特性に基づいてステージ131のZ位置を調整することにより、画像内に合焦領域を出現させるので、当該観察視野についても真直度特性を確実に取得することが可能となる。   As described above, according to the modified example 3-2 of the third embodiment of the present invention, the variation in the Z direction of the stage 131 is large, and the in-focus area cannot be detected from the image showing the current observation visual field. Even in such a case, by adjusting the Z position of the stage 131 based on the straightness characteristic in the nearby observation visual field, the focused region appears in the image, so that the straightness characteristic is also reliably acquired for the observation visual field. It becomes possible.

(変形例3−3)
次に、本発明の実施の形態3の変形例3−3について説明する。
上記変形例3−3においては、現在の観察視野を写した画像から合焦領域が検出されなかった場合に、観察視野を順次遡って、ステージ131のZ位置の調整量δAZ及び調整方向を取得した。しかしながら、現在の観察視野の周囲(4近傍又は8近傍)の観察視野におけるZ位置の調整量δAZ及び調整方向を用いて、現在の観察視野におけるステージ131のZ位置を調整しても良い。現在の観察視野とその周囲の観察視野との間では、ステージ131のZ位置の変動が小さいと考えられるからである。
(Modification 3-3)
Next, a modification 3-3 of the third embodiment of the present invention will be described.
In the modified example 3-3, when an in-focus area is not detected from an image showing the current observation visual field, the adjustment amount δA Z and the adjustment direction of the Z position of the stage 131 are sequentially traced back to the observation visual field. I got it. However, the Z position of the stage 131 in the current observation visual field may be adjusted using the adjustment amount δA Z of the Z position in the observation visual field around the current observation visual field (near 4 or 8) and the adjustment direction. This is because the Z position variation of the stage 131 is considered to be small between the current observation visual field and the surrounding observation visual fields.

(実施の形態4)
次に、本発明の実施の形態4について説明する。
図36は、本発明の実施の形態4に係る顕微鏡システムの構成を示すブロック図である。図36に示すように、実施の形態4に係る顕微鏡システム4は、顕微鏡装置10及び処理装置60を備える。このうち、顕微鏡装置10の構成及び動作は、実施の形態1と同様である(図2参照)。また、本実施の形態4に係るアライメント装置は、上記処理装置60と、顕微鏡装置10が備える電動ステージユニット130とを含む。
(Embodiment 4)
Next, a fourth embodiment of the present invention will be described.
FIG. 36 is a block diagram showing a configuration of a microscope system according to Embodiment 4 of the present invention. As shown in FIG. 36, the microscope system 4 according to the fourth embodiment includes a microscope apparatus 10 and a processing apparatus 60. Among these, the configuration and operation of the microscope apparatus 10 are the same as those in the first embodiment (see FIG. 2). The alignment apparatus according to the fourth embodiment includes the processing apparatus 60 and the electric stage unit 130 included in the microscope apparatus 10.

処理装置60は、図1に示す制御部23の代わりに制御部61を備え、さらに、XY位置調整部62を備える。制御部61及びXY位置調整部62以外の処理装置60の各部の構成及び動作は、実施の形態1と同様である。   The processing device 60 includes a control unit 61 instead of the control unit 23 illustrated in FIG. 1, and further includes an XY position adjustment unit 62. The configuration and operation of each unit of the processing device 60 other than the control unit 61 and the XY position adjustment unit 62 are the same as those in the first embodiment.

制御部61は、合焦領域検出部231と、合焦領域比較部611と、真直度特性検出部612とを備える。このうち、合焦領域検出部231の動作は、実施の形態1と同様である。   The control unit 61 includes a focusing area detection unit 231, a focusing area comparison unit 611, and a straightness characteristic detection unit 612. Among these, the operation of the focus area detection unit 231 is the same as that of the first embodiment.

合焦領域比較部611は、合焦領域検出部231により検出された合焦領域の位置(重心座標)を、パラメータ記憶部241に記憶されている基準合焦領域の位置(重心座標)と比較すると共に、合焦領域におけるパターンを基準合焦領域におけるパターンと比較する。   The focus area comparison unit 611 compares the position of the focus area (center of gravity coordinates) detected by the focus area detection unit 231 with the position (center of gravity coordinates) of the reference focus area stored in the parameter storage unit 241. At the same time, the pattern in the focus area is compared with the pattern in the reference focus area.

真直度特性検出部612は、合焦領域比較部611による合焦領域の位置の比較結果に基づいて、Z方向におけるステージ131の真直度特性を検出すると共に、合焦領域のパターンの比較結果に基づいて、X方向及びY方向におけるステージ131の真直度特性を検出する。   The straightness characteristic detection unit 612 detects the straightness characteristic of the stage 131 in the Z direction based on the comparison result of the position of the in-focus area by the in-focus area comparison unit 611, and uses the comparison result of the pattern of the in-focus area. Based on this, straightness characteristics of the stage 131 in the X direction and the Y direction are detected.

XY位置調整部62は、真直度特性検出部612により検出されたX方向及びY方向における真直度特性に基づいて、ステージ131のX方向及びY方向における位置を調整する。   The XY position adjustment unit 62 adjusts the position of the stage 131 in the X direction and the Y direction based on the straightness characteristics in the X direction and the Y direction detected by the straightness characteristic detection unit 612.

次に、本発明の実施の形態4に係るアライメント方法について説明する。
図37は、実施の形態4に係るアライメント方法において用いられる被写体の例を示す模式図である。本実施の形態4においては、被写体Sとして、平面性が保証され、且つ、観察視野を写した画像を複数の小領域に分割した際に、全ての小領域に同じパターンが写るような被写体Sが用いられる。具体例として、図37に示すようなパターンが形成されたテストチャートが用いられる。
Next, an alignment method according to Embodiment 4 of the present invention will be described.
FIG. 37 is a schematic diagram illustrating an example of a subject used in the alignment method according to the fourth embodiment. In the fourth embodiment, the subject S is such that the flatness is guaranteed and the same pattern appears in all the small areas when the image showing the observation field of view is divided into a plurality of small areas. Is used. As a specific example, a test chart on which a pattern as shown in FIG. 37 is formed is used.

また、実施の形態4に係るアライメント方法においても、図8〜図11に例示するように、被写体Sの表面である物体面Psに対して観察光学系104の光軸Lを傾斜させた状態でアライメントが行われる。   Also in the alignment method according to the fourth embodiment, as illustrated in FIGS. 8 to 11, the optical axis L of the observation optical system 104 is inclined with respect to the object plane Ps that is the surface of the subject S. Alignment is performed.

図38は、実施の形態4に係るアライメント方法を示すフローチャートである。なお、図38に示すステップS10〜S14は、実施の形態1と同様である。
ステップS14に続くステップS51において、合焦領域比較部611は、ステップS14において検出された合焦領域のパターンを、パラメータ記憶部241に記憶された基準合焦領域のパターンと比較する。
FIG. 38 is a flowchart showing the alignment method according to the fourth embodiment. Note that steps S10 to S14 shown in FIG. 38 are the same as those in the first embodiment.
In step S51 following step S14, the in-focus area comparison unit 611 compares the in-focus area pattern detected in step S14 with the reference in-focus area pattern stored in the parameter storage unit 241.

図39は、合焦領域比較部611が実行する合焦領域のパターンの比較処理を説明するための模式図である。このうち、図39(a)は、基準状態における画像を示し、図39(b)は、現在の観察視野を写した画像を示す。図39に示すように、現在の観察視野の画像M6内の合焦領域Rfocus6を、画像Mbase内の基準合焦領域Rbaseと比較すると、y方向においてパターンのずれが生じている。 FIG. 39 is a schematic diagram for explaining the pattern comparison process of the focus area executed by the focus area comparison unit 611. Among these, FIG. 39A shows an image in the reference state, and FIG. 39B shows an image showing the current observation visual field. As shown in FIG. 39, when the in-focus area R focus6 in the image M6 of the current observation visual field is compared with the reference in-focus area R base in the image M base , a pattern shift occurs in the y direction.

このように、現在の観察視野を写した画像内の合焦領域と基準合焦領域とでパターンの位置に変化があった場合(ステップS52:Yes)、真直度特性検出部612は、両者のパターンの位置の変化量及び変化の方向を検出する(ステップS53)。例えば図39の場合、合焦領域Rfocus6におけるパターンの位置は、基準合焦領域Rbaseにおけるパターンの位置に対し、マイナスy方向にδyだけ変化している。真直度特性検出部612は、検出したパターンの位置の変化量(例えばδy)及び変化の方向(例えばマイナスy方向)の情報をXY位置調整部62に出力する。 Thus, when there is a change in the position of the pattern between the in-focus area and the reference in-focus area in the image showing the current observation field of view (step S52: Yes), the straightness characteristic detection unit 612 A change amount and a change direction of the pattern position are detected (step S53). For example, in the case of FIG. 39, the position of the pattern in the in-focus area R focus6 changes by δy in the minus y direction with respect to the position of the pattern in the reference in-focus area R base . The straightness characteristic detection unit 612 outputs information about the detected change amount (for example, δy) and the change direction (for example, the minus y direction) to the XY position adjustment unit 62.

続くステップS54において、XY位置調整部62は、真直度特性検出部612から出力されたパターンの位置の変化量及び変化の方向に基づいて、顕微鏡装置10に対してステージ131のX位置及びY位置を調整する制御を行う。   In subsequent step S54, the XY position adjustment unit 62 determines the X position and Y position of the stage 131 with respect to the microscope apparatus 10 based on the change amount and change direction of the pattern position output from the straightness characteristic detection unit 612. Control to adjust.

ここで、ステージ131のX方向及びY方向における真直度がゼロである場合、即ち、XY平面内においてステージ131が撮像制御部22による制御通りに運動している場合、各観察視野を写した画像におけるパターンは、基準状態の画像におけるパターンと完全に一致するはずである。言い換えると、基準状態の画像におけるパターンに対し、観察視野を写した画像におけるパターンの位置にずれが生じている場合、X方向又はY方向において、ステージ131の直線運動に対する変動が生じているといえる。   Here, when the straightness in the X direction and the Y direction of the stage 131 is zero, that is, when the stage 131 is moving as controlled by the imaging control unit 22 in the XY plane, an image showing each observation field of view. The pattern in should exactly match the pattern in the reference state image. In other words, if there is a shift in the position of the pattern in the image showing the observation field with respect to the pattern in the reference state image, it can be said that there is a variation in the linear motion of the stage 131 in the X direction or the Y direction. .

そこで、XY位置調整部62は、観察視野を写した画像におけるパターンの位置が基準状態の画像におけるパターンの位置と完全に一致するように(図39(b)の場合、パターンがプラスy方向にδyだけ上昇するように)、ステージ131のX位置又はY位置を調整する制御を行う。
観察視野を写した画像におけるパターンの位置がx方向にずれている場合も同様である。その後、処理はステップS15に移行する。
Therefore, the XY position adjustment unit 62 adjusts the pattern in the plus y direction so that the position of the pattern in the image showing the observation field completely coincides with the position of the pattern in the image in the reference state (in the case of FIG. 39B). Control is performed to adjust the X position or the Y position of the stage 131 so as to increase by δy.
The same applies when the position of the pattern in the image showing the observation field is shifted in the x direction. Thereafter, the process proceeds to step S15.

一方、ステップS51において、パターンの位置に変化がない場合(ステップS52:No)、処理はステップS15に移行する。続くステップS15〜S17は、実施の形態1と同様である。   On the other hand, when there is no change in the position of the pattern in step S51 (step S52: No), the process proceeds to step S15. Subsequent steps S15 to S17 are the same as those in the first embodiment.

以上説明したように、本発明の実施の形態4によれば、ステージ131のZ方向における真直度に加え、X方向及びY方向における真直度を検出することができる。また、実施の形態4においては、X方向及びY方向における真直度を検出すると共に、そのタイミングでステージ131のX位置及びY位置を調整するので、Z方向における真直度の検出精度を向上させることができる。   As described above, according to the fourth embodiment of the present invention, the straightness in the X direction and the Y direction can be detected in addition to the straightness in the Z direction of the stage 131. In the fourth embodiment, the straightness in the X direction and the Y direction is detected, and the X position and the Y position of the stage 131 are adjusted at the timing, so that the accuracy of detecting the straightness in the Z direction is improved. Can do.

以上説明した実施の形態1〜4及び変形例はそのままに限定されるものではなく、各実施の形態及び変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を除外して形成してもよい。あるいは、異なる実施の形態に示した構成要素を適宜組み合わせて形成してもよい。   The first to fourth embodiments and the modifications described above are not limited as they are, and various inventions are formed by appropriately combining a plurality of components disclosed in the embodiments and the modifications. be able to. For example, some components may be excluded from all the components shown in the embodiment. Or you may form combining the component shown in different embodiment suitably.

1、1−2、2、3、4 顕微鏡システム
10 顕微鏡装置
100 アーム
101 三眼鏡筒ユニット
102 鏡筒
103 接眼レンズユニット
104 観察光学系
105 傾斜調整駆動部
106 台座
110 落射照明ユニット
111 落射照明用光源
112 落射照明光学系
120 透過照明ユニット
121 透過照明用光源
122 透過照明光学系
130 電動ステージユニット
131 ステージ
132 ステージ駆動部
133 位置検出部
140、141 対物レンズ
142 レボルバ
20、30、40、50、60 処理装置
211 撮像部
21 画像取得部
212 メモリ
22、41 撮像制御部
23、51、61 制御部
231 合焦領域検出部
232 合焦位置比較部
233、612 真直度特性検出部
24 記憶部
241 パラメータ記憶部
242 プログラム記憶部
25 入力部
42 出力部
31 較正部
43 表示装置
43a 画面
411 領域設定部
412 移動条件設定部
52 Z位置調整部
511、611 合焦領域比較部
62 XY位置調整部

DESCRIPTION OF SYMBOLS 1, 1-2, 2, 3, 4 Microscope system 10 Microscope apparatus 100 Arm 101 Trinocular tube unit 102 Lens tube 103 Eyepiece unit 104 Observation optical system 105 Inclination adjustment drive part 106 Base 110 Epi-illumination unit 111 Epi-illumination light source 112 Epi-illumination optical system 120 Transmitted illumination unit 121 Transmitted illumination light source 122 Transmitted illumination optical system 130 Electric stage unit 131 Stage 132 Stage drive unit 133 Position detection unit 140, 141 Objective lens 142 Revolver 20, 30, 40, 50, 60 Processing Device 211 Imaging unit 21 Image acquisition unit 212 Memory 22, 41 Imaging control unit 23, 51, 61 Control unit 231 Focus area detection unit 232 Focus position comparison unit 233, 612 Straightness characteristic detection unit 24 Storage unit 241 Parameter storage unit 242 Program storage unit 2 Input unit 42 Output unit 31 calibration unit 43 display 43a screen 411 area setting unit 412 moves condition setting unit 52 Z position adjusting section 511, 611 Go focal region comparison unit 62 XY position adjusting unit

Claims (11)

平面状をなす物体面の法線に対して光軸が所定の角度で傾斜するように設けられた撮像光学系と、
前記光軸の傾斜方向を前記物体面に投影した方向に、前記物体面と前記撮像光学系とを相対移動させる移動手段と、
前記物体面との相対位置が互いに異なる第1及び第2の位置において前記撮像光学系に撮像を実行させることにより、前記第1及び第2の位置にそれぞれ対応する第1及び第2の画像を取得させる撮像制御部と、
前記第1及び第2の画像からそれぞれ検出された第1及び第2の合焦領域を比較することにより、前記物体面と前記撮像光学系との相対移動の軌跡を検出する検出部と、
を備えることを特徴とするアライメント装置。
An imaging optical system provided such that the optical axis is inclined at a predetermined angle with respect to the normal of the planar object surface;
Moving means for relatively moving the object plane and the imaging optical system in a direction in which the tilt direction of the optical axis is projected onto the object plane;
By causing the imaging optical system to perform imaging at first and second positions whose relative positions with respect to the object plane are different from each other, first and second images corresponding to the first and second positions, respectively, are obtained. An imaging control unit to be acquired;
A detector that detects a locus of relative movement between the object plane and the imaging optical system by comparing the first and second focus areas detected from the first and second images, respectively;
An alignment apparatus comprising:
被写体が載置される載置面を有するステージをさらに備え、
前記移動手段は、前記載置面と平行な面内において、前記物体面と前記撮像光学系とを相対移動させ、
前記検出部は、前記載置面の法線方向における前記物体面と前記撮像光学系との相対的な変位を検出する、
ことを特徴とする請求項1に記載のアライメント装置。
A stage having a placement surface on which a subject is placed;
The moving means relatively moves the object surface and the imaging optical system in a plane parallel to the placement surface,
The detection unit detects a relative displacement between the object plane and the imaging optical system in a normal direction of the mounting surface;
The alignment apparatus according to claim 1.
前記撮像光学系の光軸は、前記載置面の法線に対して前記角度をなし、
前記撮像光学系は、前記載置面に対して平行となるように該載置面上に載置された被写体の表面を前記物体面として撮像を行う、
ことを特徴とする請求項2に記載のアライメント装置。
The optical axis of the imaging optical system forms the angle with respect to the normal of the mounting surface described above,
The imaging optical system performs imaging using the surface of a subject placed on the placement surface so as to be parallel to the placement surface, as the object plane.
The alignment apparatus according to claim 2.
前記撮像光学系の光軸は、前記載置面と直交し、
前記撮像光学系は、前記載置面に対して前記角度をなすように該載置面上に載置された被写体の表面を前記物体面として撮像を行う、
ことを特徴とする請求項2に記載のアライメント装置。
The optical axis of the imaging optical system is orthogonal to the mounting surface,
The imaging optical system performs imaging using the surface of a subject placed on the placement surface as the object plane so as to form the angle with respect to the placement surface;
The alignment apparatus according to claim 2.
前記検出部は、前記第1及び第2の画像からそれぞれ検出された第1及び第2の合焦領域の画像内における位置の変化を検出し、該位置の変化に基づいて前記軌跡を検出することを特徴とする請求項2〜4のいずれか1項に記載のアライメント装置。   The detection unit detects a change in position in the image of the first and second in-focus areas detected from the first and second images, respectively, and detects the locus based on the change in the position. The alignment apparatus according to any one of claims 2 to 4, wherein 前記検出部は、前記第1及び第2の画像からそれぞれ検出された第1及び第2の合焦領域の幅の変化を検出し、
前記幅の変化に基づいて、前記載置面の法線方向における前記物体面と前記撮像光学系との相対位置を調整する調整手段をさらに備えることを特徴とする請求項2〜4のいずれか1項に記載のアライメント装置。
The detection unit detects a change in width of the first and second focus areas detected from the first and second images, respectively;
5. The apparatus according to claim 2, further comprising an adjusting unit that adjusts a relative position between the object surface and the imaging optical system in a normal direction of the mounting surface based on the change in the width. The alignment apparatus according to item 1.
前記検出部により検出された前記軌跡に基づいて、前記移動手段による前記物体面と前記撮像光学系との相対運動を較正する較正部をさらに備えることを特徴とする請求項1〜6のいずれか1項に記載のアライメント装置。   The calibration unit according to any one of claims 1 to 6, further comprising a calibration unit that calibrates relative movement between the object plane and the imaging optical system by the moving unit based on the locus detected by the detection unit. The alignment apparatus according to item 1. 前記検出部により検出された前記軌跡に基づいて、前記移動手段による前記物体面と前記撮像光学系との相対運動を較正するための情報を表示する表示部をさらに備えることを特徴とする請求項1〜6のいずれか1項に記載のアライメント装置。   The apparatus further comprises a display unit that displays information for calibrating a relative motion between the object plane and the imaging optical system by the moving unit based on the trajectory detected by the detection unit. The alignment apparatus of any one of 1-6. 請求項1〜8のいずれか1項に記載のアライメント装置を備えることを特徴とする顕微鏡システム。   A microscope system comprising the alignment apparatus according to claim 1. 平面状をなす物体面の法線に対して光軸が所定の角度で傾斜するように撮像光学系を設ける設置ステップと、
前記光軸の傾斜方向を前記物体面に投影した方向に、前記物体面と前記撮像光学系とを相対移動させる移動ステップと、
前記物体面との相対位置が互いに異なる第1及び第2の位置において前記撮像光学系に撮像を実行させることにより、前記第1及び第2の位置にそれぞれ対応する第1及び第2の画像を取得させる撮像制御ステップと、
前記第1及び第2の画像からそれぞれ検出された第1及び第2の合焦領域を比較することにより、前記物体面と前記撮像光学系との相対移動の軌跡を検出する検出ステップと、
を含むことを特徴とするアライメント方法。
An installation step of providing an imaging optical system so that an optical axis is inclined at a predetermined angle with respect to a normal line of a planar object surface;
A moving step of relatively moving the object plane and the imaging optical system in a direction in which the tilt direction of the optical axis is projected onto the object plane;
By causing the imaging optical system to perform imaging at first and second positions whose relative positions with respect to the object plane are different from each other, first and second images corresponding to the first and second positions, respectively, are obtained. An imaging control step to be acquired;
A detection step of detecting a locus of relative movement between the object plane and the imaging optical system by comparing the first and second focus areas detected from the first and second images, respectively;
An alignment method comprising:
平面状をなす物体面と、該平面状をなす物体面の法線に対して光軸が所定の角度で傾斜するように設けられた撮像光学系とを、前記光軸の傾斜方向を前記物体面に投影した方向に相対移動させる制御を行う移動制御ステップと、
前記物体面との相対位置が互いに異なる第1及び第2の位置において前記撮像光学系に撮像を実行させることにより、前記第1及び第2の位置にそれぞれ対応する第1及び第2の画像を取得させる撮像制御ステップと、
前記第1及び第2の画像からそれぞれ検出された第1及び第2の合焦領域を比較することにより、前記物体面と前記撮像光学系との相対移動の軌跡を検出する検出ステップと、
をコンピュータに実行させることを特徴とするアライメントプログラム。
A planar object surface, and an imaging optical system provided such that an optical axis is inclined at a predetermined angle with respect to a normal line of the planar object surface, the inclination direction of the optical axis being the object A movement control step for performing control of relative movement in the direction projected on the surface;
By causing the imaging optical system to perform imaging at first and second positions whose relative positions with respect to the object plane are different from each other, first and second images corresponding to the first and second positions, respectively, are obtained. An imaging control step to be acquired;
A detection step of detecting a locus of relative movement between the object plane and the imaging optical system by comparing the first and second focus areas detected from the first and second images, respectively;
An alignment program for causing a computer to execute.
JP2014092107A 2014-04-25 2014-04-25 Aligment device, microscope system, alignment method and alignment program Pending JP2015210396A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014092107A JP2015210396A (en) 2014-04-25 2014-04-25 Aligment device, microscope system, alignment method and alignment program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014092107A JP2015210396A (en) 2014-04-25 2014-04-25 Aligment device, microscope system, alignment method and alignment program

Publications (1)

Publication Number Publication Date
JP2015210396A true JP2015210396A (en) 2015-11-24

Family

ID=54612612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014092107A Pending JP2015210396A (en) 2014-04-25 2014-04-25 Aligment device, microscope system, alignment method and alignment program

Country Status (1)

Country Link
JP (1) JP2015210396A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020106841A (en) * 2018-12-26 2020-07-09 株式会社ミツトヨ System and method for calibrating variable focal length lens system by using calibration object with planar tilted pattern surface
CN111983795A (en) * 2019-05-24 2020-11-24 阿贝里奥仪器有限责任公司 Method and device for monitoring the focus state of a microscope

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020106841A (en) * 2018-12-26 2020-07-09 株式会社ミツトヨ System and method for calibrating variable focal length lens system by using calibration object with planar tilted pattern surface
JP7323443B2 (en) 2018-12-26 2023-08-08 株式会社ミツトヨ Systems and methods for calibrating a variable focal length lens system using a calibration object having a planar tilt pattern surface
CN111983795A (en) * 2019-05-24 2020-11-24 阿贝里奥仪器有限责任公司 Method and device for monitoring the focus state of a microscope
CN111983795B (en) * 2019-05-24 2024-05-14 阿贝里奥仪器有限责任公司 Method and device for monitoring the focus state of a microscope

Similar Documents

Publication Publication Date Title
JP6503221B2 (en) Three-dimensional information acquisition apparatus and three-dimensional information acquisition method
EP3035104B1 (en) Microscope system and setting value calculation method
CN110300255B (en) Information processing device, information processing method, program, and vision measuring device
US10120163B2 (en) Auto-focus method for a coordinate-measuring apparatus
JP6274794B2 (en) Information processing apparatus, information processing method, program, and image measurement apparatus
JP2006196236A (en) Electron microscope and observation method
US9482855B2 (en) Microscope system
JP2017188731A (en) Imaging system and imaging method
JP2006301270A (en) Device and method for automatic focusing
JP6887875B2 (en) Microscope system, control method, and program
JP2017045166A (en) Workpiece processing method, method for creating reference image, reference image creation device, workpiece processing device, program, and recording medium
JP4538421B2 (en) Charged particle beam equipment
JP6312410B2 (en) Alignment apparatus, microscope system, alignment method, and alignment program
JP2012042525A (en) Three-dimensional shape measuring apparatus and program
JP2015210396A (en) Aligment device, microscope system, alignment method and alignment program
EP3169069A1 (en) Systems and methods for imaging device interfaces
JP6853572B2 (en) Three-dimensional shape measurement method using a scanning white interference microscope
JP6820516B2 (en) Surface shape measurement method
JP2016070683A (en) Image processing device, image measurement device, image processing method, image processing program, and method for manufacturing structure
JP5191265B2 (en) Optical microscope apparatus and data processing apparatus for optical microscope
JP5055081B2 (en) Height measuring device
JP6422761B2 (en) Microscope system and method for calculating relationship between Z position and set value of correction device
JP6423261B2 (en) Microscope system, function calculation method, and program
JP2010121955A (en) Height information acquisition device, height information acquisition method, and program
KR102608709B1 (en) charged particle beam device