Nothing Special   »   [go: up one dir, main page]

JP2022001889A - Focus position evaluation device, method and program, and discriminator - Google Patents

Focus position evaluation device, method and program, and discriminator Download PDF

Info

Publication number
JP2022001889A
JP2022001889A JP2018182732A JP2018182732A JP2022001889A JP 2022001889 A JP2022001889 A JP 2022001889A JP 2018182732 A JP2018182732 A JP 2018182732A JP 2018182732 A JP2018182732 A JP 2018182732A JP 2022001889 A JP2022001889 A JP 2022001889A
Authority
JP
Japan
Prior art keywords
focus position
marker
image
photographing
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018182732A
Other languages
Japanese (ja)
Inventor
孝 室岡
Takashi Murooka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2018182732A priority Critical patent/JP2022001889A/en
Priority to PCT/JP2019/028971 priority patent/WO2020066250A1/en
Publication of JP2022001889A publication Critical patent/JP2022001889A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/26Stages; Adjusting means therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Microscoopes, Condenser (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Lens Barrels (AREA)

Abstract

To enable improvement in evaluation accuracy of a focus position in a focus position evaluation device, method and program, and a discriminator.SOLUTION: A focus position evaluation device includes: a marker image detection unit; and a focus position evaluation unit. The marker image detection unit is configured to photograph a marker being a sphere, and colored to a color absorbing light transmitting an imaging optical system as an observation object by an imaging device, and thereby detect a marker image from an acquired photographing image. The focus position evaluation unit is configured to evaluate a focus position of the imaging optical system on the basis of the marker image.SELECTED DRAWING: Figure 5

Description

本開示の技術は、フォーカス位置評価装置、方法、及びプログラムに関する。 The techniques of the present disclosure relate to focus position evaluation devices, methods, and programs.

従来、ES(Embryonic Stem)細胞及びiPS(Induced Pluripotent Stem)細胞等の多能性幹細胞や分化誘導された細胞等を顕微鏡等で撮影し、その画像の特徴を捉えることで細胞の分化状態などを判定する方法が提案されている。そして、ES細胞及びiPS細胞等の多能性幹細胞は、種々の組織の細胞に分化する能力を備えており、再生医療、薬の開発、病気の解明などにおいて応用が可能な細胞として注目されている。細胞を顕微鏡で撮影する際には、高倍率な広視野画像を取得するため、例えばウェルプレート等の培養容器の範囲内を結像光学系によって走査し、観察位置毎の画像を撮影した後、その観察位置毎の画像を結合する、いわゆるタイリング撮影を行うことが提案されている。 Conventionally, pluripotent stem cells such as ES (Embryonic Stem) cells and iPS (Induced Pluripotent Stem) cells, cells induced to differentiate, etc. are photographed with a microscope, etc., and the differentiation state of the cells is captured by capturing the characteristics of the images. A method of determination has been proposed. Pluripotent stem cells such as ES cells and iPS cells have the ability to differentiate into cells of various tissues, and are attracting attention as cells that can be applied in regenerative medicine, drug development, elucidation of diseases, etc. There is. When photographing cells with a microscope, in order to obtain a high-magnification wide-field image, for example, the range of a culture vessel such as a well plate is scanned by an imaging optical system, and an image is taken for each observation position. It has been proposed to perform so-called tyling photography in which images for each observation position are combined.

しかしながら、培養容器として例えば複数のウェルを有するウェルプレートを使用する場合、各ウェルの底部の厚さは、製造上の誤差等に起因してウェル毎に異なる。そのため、ウェルプレート全体を結像光学系によって走査することによりタイリング撮影を行う場合には、観察対象を明瞭に撮影するために各観察位置についてフォーカス位置を調整するオートフォーカス制御を行なう必要がある。そこで、例えば特許文献1において、透過光に対して位相変化及び振幅変化の少なくとも一方を与えるマークを有する透光性部材により、撮影対象となる試料を固定し、試料の像とマークの像とが混在した撮像画像を取得し、この撮影画像について算出した評価値と、予め取得した試料の像を含まない基準画像について算出した評価値とに基づいて、フォーカス位置を評価する方法が提案されている。 However, when a well plate having a plurality of wells is used as a culture container, for example, the thickness of the bottom of each well varies from well to well due to manufacturing errors and the like. Therefore, when tiling photography is performed by scanning the entire well plate with an imaging optical system, it is necessary to perform autofocus control for adjusting the focus position for each observation position in order to clearly photograph the observation target. .. Therefore, for example, in Patent Document 1, a sample to be imaged is fixed by a translucent member having a mark that gives at least one of a phase change and an amplitude change to transmitted light, and an image of the sample and an image of the mark are formed. A method of acquiring a mixed captured image and evaluating the focus position based on the evaluation value calculated for the captured image and the evaluation value calculated for the reference image not including the image of the sample acquired in advance has been proposed. ..

また、特許文献2には、ウェルが流路内に多数形成されたマイクロアレイに対し、流路にビーズを含む試料を流して各ウェルにビーズを収容物として収容させる方法において、収容されたビーズを顕微鏡で観察することが開示されている。 Further, Patent Document 2 describes a method in which a sample containing beads is flowed through a microarray in which a large number of wells are formed in the flow path and the beads are accommodated in each well as an inclusion. Observing under a microscope is disclosed.

特開2013−254108号公報Japanese Unexamined Patent Publication No. 2013-254108 国際公開第2017/043530号International Publication No. 2017/0435330

顕微鏡を使用してフォーカス位置を評価する際に、例えばマークとして球形の透明なビーズを使用する場合、フォーカス位置としてビーズの中心位置を取得したいが、ビーズ像のフォーカス位置はビーズの中心位置からずれてしまう。これは、ビーズ自体がレンズとして機能してしまうことにより、ビーズの中心位置ではなく、ビーズの中心位置から離れた位置において光が結像されてしまうためである。このため、透明なビーズ像を使用して決定されたフォーカス位置において観察対象である細胞を観察すると、精度よくフォーカス位置を評価出来ず、細胞がボケてしまう場合があり、フォーカス位置の評価の精度を高くすることが望まれている。 When evaluating the focus position using a microscope, for example, when using a spherical transparent bead as a mark, we want to obtain the center position of the bead as the focus position, but the focus position of the bead image deviates from the center position of the bead. It ends up. This is because the beads themselves function as lenses, so that light is imaged not at the center position of the beads but at a position away from the center position of the beads. Therefore, when observing the cells to be observed at the focus position determined by using the transparent bead image, the focus position cannot be evaluated accurately and the cells may be blurred, and the evaluation accuracy of the focus position may occur. Is desired to be high.

本発明は上記事情に鑑みなされたものであり、フォーカス位置の評価の精度を向上させることを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to improve the accuracy of evaluation of the focus position.

本開示のフォーカス位置評価装置は、撮影光学系によって結像された観察対象を撮影する撮影装置におけるフォーカス位置評価装置であって、
球形で、かつ前記撮影光学系を透過する光を吸収する色に着色されたマーカを観察対象として撮影装置によって撮影することにより取得した撮影画像からマーカ像を検出するマーカ像検出部と、
マーカ像に基づいて、撮影光学系のフォーカス位置を評価するフォーカス位置評価部と、
を含む。
The focus position evaluation device of the present disclosure is a focus position evaluation device in a photographing device that photographs an observation target imaged by an imaging optical system.
A marker image detection unit that detects a marker image from a captured image acquired by photographing a marker that is spherical and colored in a color that absorbs light transmitted through the photographing optical system as an observation target by an photographing apparatus.
A focus position evaluation unit that evaluates the focus position of the photographing optical system based on the marker image,
including.

また、本開示のフォーカス位置評価装置においては、マーカは、光の吸収率が10%以上であってもよい。 Further, in the focus position evaluation device of the present disclosure, the marker may have a light absorption rate of 10% or more.

また、本開示のフォーカス位置評価装置においては、色は、黒色であってもよい。 Further, in the focus position evaluation device of the present disclosure, the color may be black.

また、本開示のフォーカス位置評価装置においては、マーカは、撮影光学系の透過光の波長帯域を吸収する特性を有する顔料又は色材で着色されていてもよい。 Further, in the focus position evaluation device of the present disclosure, the marker may be colored with a pigment or a coloring material having a property of absorbing the wavelength band of the transmitted light of the photographing optical system.

また、本開示のフォーカス位置評価装置においては、マーカの直径が、0.5μm以上10μm以下であることが好ましく、1.0μm以上2.2μm以下であることがさらに好ましい。 Further, in the focus position evaluation device of the present disclosure, the diameter of the marker is preferably 0.5 μm or more and 10 μm or less, and more preferably 1.0 μm or more and 2.2 μm or less.

また、本開示のフォーカス位置評価装置においては、マーカは、ポリスチレン樹脂、ガラス、及びシリカの何れかで形成されていてもよい。 Further, in the focus position evaluation device of the present disclosure, the marker may be formed of any of polystyrene resin, glass, and silica.

また、本開示のフォーカス位置評価装置においては、撮影画像は、マーカを含み、観察対象が収容された容器を撮影装置により撮影することによって取得され、
フォーカス位置評価部により評価されたフォーカス位置に基づいて、容器内の観察対象の像を撮影装置に合焦させる制御を行う制御部とをさらに含んでいてもよい。
Further, in the focus position evaluation device of the present disclosure, the photographed image is acquired by photographing the container containing the marker and containing the observation object with the photographing device.
It may further include a control unit that controls the image of the observation target in the container to be focused on the photographing apparatus based on the focus position evaluated by the focus position evaluation unit.

なお、本開示において「容器」とは、観察対象を収容することができればどのような形態を有するものであってもよい。例えば、シャーレ、ディッシュ、フラスコ又はウェルプレート等のように、底部及び底部に連続する壁部を有する形態を有するものを容器として用いることができる。また、板状の部材に微細な流路が形成されたマイクロ流路デバイス等を容器として用いることもできる。さらに、スライドガラスのように、板状の形態を有するものも容器として用いることができる。 In the present disclosure, the "container" may have any form as long as it can accommodate the observation target. For example, a container having a shape having a bottom and a continuous wall portion at the bottom, such as a petri dish, a dish, a flask, or a well plate, can be used as a container. Further, a microchannel device or the like in which a fine channel is formed in a plate-shaped member can also be used as a container. Further, a container having a plate-like shape such as a slide glass can also be used as a container.

また、本開示のフォーカス位置評価装置においては、撮影画像は、観察対象が収容された容器内において観察領域を走査し、容器内の各観察領域の撮影を行うことにより取得され、
制御部は、各観察領域において、フォーカス位置に基づいて、容器内の観察対象の像を撮影装置に合焦させる制御を行うことができる。
Further, in the focus position evaluation device of the present disclosure, the captured image is acquired by scanning the observation area in the container in which the observation target is housed and photographing each observation area in the container.
The control unit can control in each observation area to focus the image of the observation target in the container on the photographing apparatus based on the focus position.

また、本開示のフォーカス位置制御方法は、撮影光学系によって結像された観察対象を撮影する撮影装置におけるフォーカス位置評価方法であって、
球形で、かつ撮影光学系を透過する光を吸収する色に着色されたマーカを観察対象として撮影装置によって撮影することにより取得した撮影画像からマーカ像を検出し、
マーカ像に基づいて、撮影光学系のフォーカス位置を評価する。
Further, the focus position control method of the present disclosure is a focus position evaluation method in a photographing apparatus for photographing an observation target formed by an imaging optical system.
The marker image is detected from the captured image acquired by photographing the marker, which is spherical and colored in a color that absorbs the light transmitted through the photographing optical system, as an observation target by the photographing apparatus.
The focus position of the photographing optical system is evaluated based on the marker image.

なお、本開示によるフォーカス位置評価方法をコンピュータに実行させるためのプログラムとして提供してもよい。 It should be noted that the focus position evaluation method according to the present disclosure may be provided as a program for causing a computer to execute the method.

本開示による他のフォーカス位置評価装置は、撮影光学系によって結像された観察対象を撮影する撮影装置におけるフォーカス位置評価装置であって、コンピュータに実行させるための命令を記憶するメモリと、
記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
球形で、かつ撮影光学系を透過する光を吸収する色に着色されたマーカを観察対象として撮影装置によって撮影することにより取得した撮影画像からマーカ像を検出し、
マーカ像に基づいて、撮影光学系のフォーカス位置を評価する処理を実行する。
The other focus position evaluation device according to the present disclosure is a focus position evaluation device in a photographing device that photographs an observation target imaged by an imaging optical system, and has a memory for storing an instruction to be executed by a computer and a memory.
The processor comprises a processor configured to execute a stored instruction.
The marker image is detected from the captured image acquired by photographing the marker, which is spherical and colored in a color that absorbs the light transmitted through the photographing optical system, as an observation target by the photographing apparatus.
A process of evaluating the focus position of the photographing optical system is executed based on the marker image.

本開示の一実施形態によれば、フォーカス位置の評価の精度を向上させることができる。 According to one embodiment of the present disclosure, the accuracy of the evaluation of the focus position can be improved.

第1の実施形態の実施形態のフォーカス位置評価装置を適用した顕微鏡撮影システムにおける顕微鏡装置の概略構成を示すブロック図A block diagram showing a schematic configuration of a microscope apparatus in a microscopy system to which the focus position evaluation apparatus of the first embodiment is applied. 結像光学系の構成を示す模式図Schematic diagram showing the configuration of the imaging optical system ステージの構成を示す斜視図Perspective view showing the configuration of the stage 焦点距離変更光学系の構成を示す模式図Schematic diagram showing the configuration of the focal length change optical system 本開示のフォーカス位置評価装置の第1の実施形態を用いた顕微鏡観察システムの概略構成を示すブロック図A block diagram showing a schematic configuration of a microscope observation system using the first embodiment of the focus position evaluation device of the present disclosure. 顕微鏡装置による微細ビーズの観察を説明する図The figure explaining the observation of the fine beads by a microscope device. 判別器の学習に用いる教師用マーカ像を取得するためのマーカの撮影を説明するための図A diagram for explaining the shooting of a marker for acquiring a teacher marker image used for learning a discriminator. 教師用マーカ像の例を示す図Diagram showing an example of a teacher marker image フォーカス位置の判別結果を示す図The figure which shows the determination result of a focus position 培養容器内における観察域の走査位置を示す図The figure which shows the scanning position of the observation area in a culture vessel. 第1の実施形態において行われる処理を示すフローチャートA flowchart showing the processing performed in the first embodiment. 第2の実施形態において行われる処理を示すフローチャートA flowchart showing the processing performed in the second embodiment. オートフォーカス制御を説明するための図Diagram for explaining autofocus control

以下、本発明の実施形態によるフォーカス位置評価装置、方法及びプログラムの一実施形態を適用した顕微鏡撮影システムについて、図面を参照しながら詳細に説明する。図1は、本発明の第1の実施形態によるフォーカス位置評価装置を適用した顕微鏡撮影システムにおける顕微鏡装置の概略構成を示すブロック図である。 Hereinafter, a microscopic imaging system to which one embodiment of the focus position evaluation device, method, and program according to the embodiment of the present invention is applied will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a microscope apparatus in a microscopy system to which the focus position evaluation apparatus according to the first embodiment of the present invention is applied.

顕微鏡装置10は、観察対象である培養された細胞の位相差画像を撮影する。具体的には、顕微鏡装置10は、図1に示すように、白色光を出射する白色光源11、コンデンサレンズ12、スリット板13、結像光学系14、動作部15、及び撮影部16を備える。また、顕微鏡装置10は、焦点距離変更光学系70を備える。なお、結像光学系14は、本開示の撮影光学系に、顕微鏡装置10は本開示の撮影装置にそれぞれ相当する。 The microscope device 10 captures a phase difference image of the cultured cells to be observed. Specifically, as shown in FIG. 1, the microscope device 10 includes a white light source 11 that emits white light, a condenser lens 12, a slit plate 13, an imaging optical system 14, an operating unit 15, and a photographing unit 16. .. Further, the microscope device 10 includes a focal length changing optical system 70. The imaging optical system 14 corresponds to the photographing optical system of the present disclosure, and the microscope device 10 corresponds to the photographing apparatus of the present disclosure.

動作部15は、第1の動作部15A、第2の動作部15B、第3の動作部15C、第4の動作部15D、第5の動作部15E、第6の動作部15F及び第7の動作部15Gを備える。第1〜第7の動作部15A〜15Gの動作は後述する。 The operating unit 15 includes a first operating unit 15A, a second operating unit 15B, a third operating unit 15C, a fourth operating unit 15D, a fifth operating unit 15E, a sixth operating unit 15F, and a seventh operating unit 15. It is provided with a moving unit 15G. The operations of the first to seventh operating units 15A to 15G will be described later.

スリット板13は、白色光源11から出射された白色光を遮光する遮光板に対して白色光を透過するリング形状のスリットが設けられたものであり、白色光がスリットを通過することによってリング状の照明光Lが形成される。 The slit plate 13 is provided with a ring-shaped slit that transmits white light to a light-shielding plate that shields white light emitted from the white light source 11, and the white light passes through the slit to form a ring shape. Illumination light L is formed.

結像光学系14は、培養容器50の範囲内を分割した観察域毎の位相差像を撮影部16に結像する。図2は、結像光学系14の詳細な構成を示す図である。図2に示すように、結像光学系14は、位相差レンズ14a及び結像レンズ14dを備える。また、位相差レンズ14aは、対物レンズ14b及び位相板14cを備える。位相板14cは、照明光Lの波長に対して透明な透明板に対して位相リングを形成したものである。なお、上述したスリット板13のスリットの大きさは、位相板14cの位相リングと共役な関係にある。 The imaging optical system 14 forms a phase difference image for each observation region divided within the range of the culture vessel 50 on the photographing unit 16. FIG. 2 is a diagram showing a detailed configuration of the imaging optical system 14. As shown in FIG. 2, the imaging optical system 14 includes a retardation lens 14a and an imaging lens 14d. Further, the phase difference lens 14a includes an objective lens 14b and a phase plate 14c. The phase plate 14c has a phase ring formed on a transparent plate that is transparent to the wavelength of the illumination light L. The size of the slit of the slit plate 13 described above has a conjugate relationship with the phase ring of the phase plate 14c.

位相リングは、入射された光の位相を1/4波長ずらす位相膜と、入射された光を減光する減光フィルタとがリング状に形成されたものである。位相リングに入射された直接光は、位相リングを通過することによって位相が1/4波長ずれ、かつその明るさが弱められる。一方、観察対象によって回折された回折光は大部分が位相板14cの透明板を通過し、その位相及び明るさは変化しない。 The phase ring is formed by forming a phase film that shifts the phase of the incident light by 1/4 wavelength and a dimming filter that dims the incident light in a ring shape. The direct light incident on the phase ring is shifted in phase by 1/4 wavelength and its brightness is weakened by passing through the phase ring. On the other hand, most of the diffracted light diffracted by the observation target passes through the transparent plate of the phase plate 14c, and its phase and brightness do not change.

対物レンズ14bを有する位相差レンズ14aは、図1に示す動作部15の第5の動作部15Eによって、対物レンズ14bの光軸方向に移動される。本実施形態においては、対物レンズ14bの光軸方向とZ方向(鉛直方向)とは同じ方向である。対物レンズ14bのZ方向への移動によってオートフォーカス制御が行われ、撮影部16によって取得される位相差画像のコントラストが調整される。 The retardation lens 14a having the objective lens 14b is moved in the optical axis direction of the objective lens 14b by the fifth operating unit 15E of the operating unit 15 shown in FIG. In the present embodiment, the optical axis direction and the Z direction (vertical direction) of the objective lens 14b are the same directions. Autofocus control is performed by moving the objective lens 14b in the Z direction, and the contrast of the phase difference image acquired by the photographing unit 16 is adjusted.

また、位相差レンズ14aの倍率を変更可能な構成としてもよい。具体的には、異なる倍率を有する位相差レンズ14a又は結像光学系14を交換可能に構成するようにしてもよい。位相差レンズ14a又は結像光学系14の交換は、自動的に行うようにしてもよいし、ユーザが手動で行うようにしてもよい。 Further, the magnification of the retardation lens 14a may be changed. Specifically, the retardation lens 14a or the imaging optical system 14 having different magnifications may be interchangeably configured. The phase difference lens 14a or the imaging optical system 14 may be replaced automatically or manually by the user.

また、対物レンズ14bは、焦点距離を変更可能な液体レンズからなる。なお、焦点距離を変更可能であれば、液体レンズに限定されるものではなく、液晶レンズ及び形状変形レンズ等、任意のレンズを用いることができる。対物レンズ14bは、図1に示す動作部15における第6の動作部15Fによって、印加される電圧が変更されて、焦点距離が変更される。これにより、結像光学系14の焦点距離が変更される。対物レンズ14bの焦点距離の変更によってもオートフォーカス制御が行われ、撮影部16によって取得される位相差画像のコントラストが調整される。 Further, the objective lens 14b is made of a liquid lens whose focal length can be changed. As long as the focal length can be changed, the lens is not limited to the liquid lens, and any lens such as a liquid crystal lens and a shape-deforming lens can be used. The focal length of the objective lens 14b is changed by changing the applied voltage by the sixth operating unit 15F in the operating unit 15 shown in FIG. As a result, the focal length of the imaging optical system 14 is changed. Autofocus control is also performed by changing the focal length of the objective lens 14b, and the contrast of the phase difference image acquired by the photographing unit 16 is adjusted.

結像レンズ14dは、位相差レンズ14aを通過した位相差像が入射され、これを撮影部16に結像する。本実施形態において、結像レンズ14dは、焦点距離を変更可能な液体レンズからなる。なお、焦点距離を変更可能であれば、液体レンズに限定されるものではなく、液晶レンズ及び形状変形レンズ等、任意のレンズを用いることができる。結像レンズ14dは、図1に示す動作部15における第1の動作部15Aによって、印加する電圧が変更されて、焦点距離が変更される。これにより、結像光学系14の焦点距離が変更される。結像レンズ14dの焦点距離の変更によってオートフォーカス制御が行われ、撮影部16によって取得される位相差画像のコントラストが調整される。 A phase difference image that has passed through the phase difference lens 14a is incident on the image forming lens 14d, and this is imaged on the photographing unit 16. In the present embodiment, the imaging lens 14d comprises a liquid lens whose focal length can be changed. As long as the focal length can be changed, the lens is not limited to the liquid lens, and any lens such as a liquid crystal lens and a shape-deforming lens can be used. The focal length of the imaging lens 14d is changed by changing the applied voltage by the first operating unit 15A in the operating unit 15 shown in FIG. As a result, the focal length of the imaging optical system 14 is changed. Autofocus control is performed by changing the focal length of the imaging lens 14d, and the contrast of the phase difference image acquired by the photographing unit 16 is adjusted.

また、結像レンズ14dは、図1に示す動作部15における第2の動作部15Bによって結像レンズ14dの光軸方向に移動される。なお、本実施形態においては、結像レンズ14dの光軸方向とZ方向(鉛直方向)とは同じ方向である。結像レンズ14dのZ方向への移動によってオートフォーカス制御が行われ、撮影部16によって取得される位相差画像のコントラストが調整される。 Further, the imaging lens 14d is moved in the optical axis direction of the imaging lens 14d by the second operating unit 15B in the operating unit 15 shown in FIG. In the present embodiment, the optical axis direction and the Z direction (vertical direction) of the imaging lens 14d are the same directions. Autofocus control is performed by moving the imaging lens 14d in the Z direction, and the contrast of the phase difference image acquired by the photographing unit 16 is adjusted.

撮影部16は、結像レンズ14dによって結像された位相差画像を取得する。撮影部16は、CCD(Charge-Coupled Device)イメージセンサ又はCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ等の撮像素子を備える。撮像素子は、RGB(Red Green Blue)のカラーフィルタが設けられた撮像素子を用いてもよいし、モノクロの撮像素子を用いるようにしてもよい。 The photographing unit 16 acquires a phase difference image imaged by the imaging lens 14d. The photographing unit 16 includes an image pickup element such as a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor. As the image pickup element, an image pickup element provided with an RGB (Red Green Blue) color filter may be used, or a monochrome image pickup element may be used.

また、撮影部16は、図1に示す動作部15における第3の動作部15CによってZ方向に移動される。なお、本実施形態においては、撮影部16の撮像面に垂直な方向とZ方向とは同じ方向である。撮影部16のZ方向への移動によってオートフォーカス制御が行われ、撮影部16によって取得される位相差画像のコントラストが調整される。 Further, the photographing unit 16 is moved in the Z direction by the third operating unit 15C in the operating unit 15 shown in FIG. In this embodiment, the direction perpendicular to the image pickup surface of the photographing unit 16 and the Z direction are the same directions. Autofocus control is performed by moving the photographing unit 16 in the Z direction, and the contrast of the phase difference image acquired by the photographing unit 16 is adjusted.

スリット板13と結像光学系14との間には、ステージ51が設けられている。ステージ51上には、観察対象である細胞が収容される培養容器50が設置される。 A stage 51 is provided between the slit plate 13 and the imaging optical system 14. A culture vessel 50 containing cells to be observed is installed on the stage 51.

培養容器50は本発明の容器に対応する。培養容器50としては、シャーレ、ディッシュ、フラスコ又はウェルプレート等を用いることができる。また、これらの他、容器としては、スライドガラス又は微細な流路が加工されてなるマイクロ流路デバイス等を用いることができる。また、培養容器50に収容される細胞としては、iPS細胞及びES細胞といった多能性幹細胞、幹細胞から分化誘導された神経、皮膚、心筋及び肝臓の細胞、並びに人体から取り出された皮膚、網膜、心筋、血球、神経及び臓器の細胞等がある。 The culture container 50 corresponds to the container of the present invention. As the culture vessel 50, a petri dish, a dish, a flask, a well plate, or the like can be used. In addition to these, as the container, a slide glass, a microchannel device formed by processing a fine channel, or the like can be used. The cells contained in the culture vessel 50 include pluripotent stem cells such as iPS cells and ES cells, nerve, skin, myocardial and liver cells induced to differentiate from stem cells, and skin and retina taken out from the human body. There are cells of myocardium, blood cells, nerves and organs.

ステージ51は、後述する水平方向駆動部17(図5参照)によって互いに直交するX方向及びY方向に移動するものである。X方向及びY方向は、Z方向に直交する方向であり、水平面内において互いに直交する方向である。本実施形態においては、X方向を主走査方向とし、Y方向を副走査方向とする。 The stage 51 is moved in the X direction and the Y direction orthogonal to each other by the horizontal driving unit 17 (see FIG. 5) described later. The X direction and the Y direction are directions orthogonal to the Z direction, and are directions orthogonal to each other in the horizontal plane. In the present embodiment, the X direction is the main scanning direction and the Y direction is the sub-scanning direction.

図3は、ステージ51の一例を示す図である。ステージ51の中央には、矩形の開口51aが形成されている。この開口51aを形成する部材の上に培養容器50が設置され、培養容器50内の細胞の位相差画像が開口51aを通過するように構成されている。 FIG. 3 is a diagram showing an example of the stage 51. A rectangular opening 51a is formed in the center of the stage 51. The culture vessel 50 is installed on the member forming the opening 51a, and the phase difference image of the cells in the culture vessel 50 is configured to pass through the opening 51a.

また、ステージ51は、第4の動作部15DによってZ方向に移動され、これにより、培養容器50がZ方向に移動される。第4の動作部15Dは、例えば圧電素子等のアクチュエータを備える。本実施形態においては、ステージ51における培養容器50が設置される面に垂直な方向とZ方向とは同じ方向である。ステージ51のZ方向への移動によってもオートフォーカス制御が行われ、撮影部16によって取得される位相差画像のコントラストが調整される。 Further, the stage 51 is moved in the Z direction by the fourth moving unit 15D, whereby the culture vessel 50 is moved in the Z direction. The fourth operating unit 15D includes an actuator such as a piezoelectric element. In the present embodiment, the direction perpendicular to the plane on which the culture vessel 50 is installed in the stage 51 and the Z direction are the same directions. The autofocus control is also performed by moving the stage 51 in the Z direction, and the contrast of the phase difference image acquired by the photographing unit 16 is adjusted.

第1の動作部15A及び第6の動作部15Fは、例えば電圧可変回路を備えたものである。第1の動作部15Aは、後述するフォーカス位置評価装置30から出力された制御信号に基づいて、結像レンズ14dに印加する電圧を変更する。第6の動作部15Fは、後述するフォーカス位置評価装置30から出力された制御信号に基づいて、対物レンズ14bに印加する電圧を変更する。 The first operating unit 15A and the sixth operating unit 15F include, for example, a voltage variable circuit. The first operating unit 15A changes the voltage applied to the imaging lens 14d based on the control signal output from the focus position evaluation device 30 described later. The sixth operating unit 15F changes the voltage applied to the objective lens 14b based on the control signal output from the focus position evaluation device 30 described later.

第2の動作部15B、第3の動作部15C、第4の動作部15D及び第5の動作部15Eは、例えば圧電素子等のアクチュエータを備えたものであり、後述するフォーカス位置評価装置30から出力された制御信号に基づいて駆動する。なお、動作部15は、位相差レンズ14a及び結像レンズ14dを通過した位相差像をそのまま通過させる構成となっている。また、第2の動作部15B、第3の動作部15C、第4の動作部15D及び第5の動作部15Eの構成は圧電素子に限らず、結像レンズ14d、撮影部16、ステージ51及び対物レンズ14b(位相差レンズ14a)をZ方向に移動可能なものであればよく、その他の公知な構成を用いることができる。 The second operating unit 15B, the third operating unit 15C, the fourth operating unit 15D, and the fifth operating unit 15E are provided with an actuator such as a piezoelectric element, and are described from the focus position evaluation device 30 described later. It is driven based on the output control signal. The moving unit 15 is configured to pass the retardation image that has passed through the retardation lens 14a and the imaging lens 14d as it is. Further, the configuration of the second operating unit 15B, the third operating unit 15C, the fourth operating unit 15D, and the fifth operating unit 15E is not limited to the piezoelectric element, but the imaging lens 14d, the photographing unit 16, the stage 51, and the like. Any other known configuration may be used as long as the objective lens 14b (phase difference lens 14a) can be moved in the Z direction.

図4は焦点距離変更光学系の構成を示す概略図である。図4に示すように、焦点距離変更光学系70は、円形の第1のウェッジプリズム71及び円形の第2のウェッジプリズム72を備える。第7の動作部15Gは、第1のウェッジプリズム71及び第2のウェッジプリズム72を、互いに反対方向に同期させて移動させる。これにより、結像光学系14の焦点位置が変更される。焦点位置が変更されることは、焦点距離が長くなったり短くなったりすることと同義である。このため、結像光学系14の焦点位置が変更されることにより、結像光学系の14の焦点距離が変更される。本実施形態においては、結像光学系14の焦点距離を変更することは、第1の動作部15Aにより結像レンズ14dの焦点距離を変更すること、及び第6の動作部15Fにより対物レンズ14bの焦点距離を変更することのみならず、第7の動作部15Gにより結像光学系14の焦点位置を変更することにより、結像光学系14の焦点距離を変更することも含む。 FIG. 4 is a schematic view showing the configuration of the focal length changing optical system. As shown in FIG. 4, the focal length changing optical system 70 includes a circular first wedge prism 71 and a circular second wedge prism 72. The seventh moving unit 15G moves the first wedge prism 71 and the second wedge prism 72 in synchronization with each other in opposite directions. As a result, the focal position of the imaging optical system 14 is changed. Changing the focal length is synonymous with increasing or decreasing the focal length. Therefore, by changing the focal position of the imaging optical system 14, the focal length of the imaging optical system 14 is changed. In the present embodiment, changing the focal length of the imaging optical system 14 means changing the focal length of the imaging lens 14d by the first operating unit 15A, and changing the focal length of the imaging lens 14d by the sixth operating unit 15F. It also includes changing the focal length of the imaging optical system 14 by changing the focal length of the imaging optical system 14 by the seventh operating unit 15G as well as changing the focal length of the image forming optical system 14.

第1及び第2のウェッジプリズム71,72は、光の入射面及び出射面となり得る2つの面が平行でない、すなわち一方の面に対して他方の面が傾斜しているプリズムである。なお、以降の説明においては、光軸に対して垂直に配置される面を直角面、光軸に対して傾斜して配置される面をウェッジ面と称する。ウェッジプリズム71,72は、直角面に垂直に入射した光を偏向させるプリズムである。第7の動作部15Gは、例えば圧電素子等のアクチュエータを備え、後述するフォーカス位置評価装置30から出力された制御信号に基づいて、第1のウェッジプリズム71及び第2のウェッジプリズム72を、直角面を平行に維持しつつ、互いに反対方向に同期させて移動させる。すなわち、第1のウェッジプリズム71を図4における右方向に移動させる場合には、第2のウェッジプリズム72を左方向に移動させる。逆に、第1のウェッジプリズム71を図4における左方向に移動させる場合には、第2のウェッジプリズム72を右方向に移動させる。このように、第1及び第2のウェッジプリズム71,72を移動させることにより、結像光学系14から出射された光の光路長が変更され、これにより、結像光学系14の焦点位置を変更して焦点距離を変更することができる。これにより、オートフォーカス制御が行われ、撮影部16によって取得される位相差画像のコントラストが調整される。 The first and second wedge prisms 71 and 72 are prisms in which two surfaces that can be an entrance surface and an emission surface of light are not parallel, that is, the other surface is inclined with respect to one surface. In the following description, a surface arranged perpendicular to the optical axis is referred to as a right-angled surface, and a surface arranged inclined with respect to the optical axis is referred to as a wedge surface. Wedge prisms 71 and 72 are prisms that deflect light vertically incident on a right-angled surface. The seventh operating unit 15G includes an actuator such as a piezoelectric element, and makes the first wedge prism 71 and the second wedge prism 72 at right angles based on the control signal output from the focus position evaluation device 30 described later. While keeping the planes parallel, they are moved in synchronization with each other in opposite directions. That is, when the first wedge prism 71 is moved to the right in FIG. 4, the second wedge prism 72 is moved to the left. On the contrary, when the first wedge prism 71 is moved to the left in FIG. 4, the second wedge prism 72 is moved to the right. By moving the first and second wedge prisms 71 and 72 in this way, the optical path length of the light emitted from the imaging optical system 14 is changed, thereby changing the focal length of the imaging optical system 14. You can change it to change the focal length. As a result, autofocus control is performed, and the contrast of the phase difference image acquired by the photographing unit 16 is adjusted.

次に、顕微鏡装置10を制御する顕微鏡制御装置20の構成について説明する。図5は、第1の実施形態の顕微鏡観察システムの構成を示すブロック図である。なお、顕微鏡装置10については、顕微鏡制御装置20の各部により制御される一部の構成のブロック図を示している。 Next, the configuration of the microscope control device 20 that controls the microscope device 10 will be described. FIG. 5 is a block diagram showing the configuration of the microscope observation system of the first embodiment. As for the microscope device 10, a block diagram of a part of the configuration controlled by each part of the microscope control device 20 is shown.

顕微鏡制御装置20は、顕微鏡装置10全体を制御するものであり、第1の実施形態によるフォーカス位置評価装置30、走査制御部21及び表示制御部22を備える。また、フォーカス位置評価装置30は、マーカ像検出部31、判別器32、フォーカス位置評価部33、動作制御部34及び判別器32の学習部35を備える。なお、動作制御部34が本開示の制御部に対応する。 The microscope control device 20 controls the entire microscope device 10, and includes a focus position evaluation device 30, a scanning control unit 21, and a display control unit 22 according to the first embodiment. Further, the focus position evaluation device 30 includes a marker image detection unit 31, a discriminator 32, a focus position evaluation unit 33, an operation control unit 34, and a learning unit 35 of the discriminator 32. The motion control unit 34 corresponds to the control unit of the present disclosure.

顕微鏡制御装置20は、中央処理装置としてのCPU(Central Processing Unit)、半導体メモリ及びハードディスクドライブ等を備えたコンピュータから構成されるものであり、ハードディスクドライブに本開示のフォーカス位置評価プログラムの一実施形態及び顕微鏡制御プログラムがインストールされている。そして、このフォーカス位置評価プログラム及び顕微鏡制御プログラムがCPUによって実行されることによって、図5に示すマーカ像検出部31、判別器32、フォーカス位置評価部33、動作制御部34、学習部35、走査制御部21及び表示制御部22が機能する。 The microscope control device 20 is composed of a computer including a CPU (Central Processing Unit) as a central processing unit, a semiconductor memory, a hard disk drive, and the like, and the hard disk drive is an embodiment of the focus position evaluation program of the present disclosure. And the microscope control program is installed. Then, when the focus position evaluation program and the microscope control program are executed by the CPU, the marker image detection unit 31, the discriminator 32, the focus position evaluation unit 33, the motion control unit 34, the learning unit 35, and the scanning unit shown in FIG. The control unit 21 and the display control unit 22 function.

なお、本実施形態においては、CPUがフォーカス位置評価プログラム及び顕微鏡制御プログラムによって、各部の機能を実行するようにしたが、ソフトウェアを実行して各種の処理部として機能する汎用的なプロセッサとしては、CPUの他、FPGA (Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)を用いることができる。また、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等により、各部の処理を実行するようにしてもよい。 In the present embodiment, the CPU executes the functions of each part by the focus position evaluation program and the microscope control program, but as a general-purpose processor that executes software and functions as various processing parts, In addition to the CPU, a programmable logic device (PLD), which is a processor whose circuit configuration can be changed after manufacturing such as FPGA (Field Programmable Gate Array), can be used. Further, the processing of each part may be executed by a dedicated electric circuit or the like which is a processor having a circuit configuration specially designed for executing a specific processing such as an ASIC (Application Specific Integrated Circuit).

1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、またはCPUとFPGAの組み合わせ等)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or may be a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). It may be configured. Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client and a server. There is a form in which the processor functions as a plurality of processing units. Secondly, as typified by System On Chip (SoC), there is a form of using a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip. be. As described above, the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.

さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)である。 Further, the hardware-like structure of these various processors is, more specifically, an electric circuit (Circuitry) in which circuit elements such as semiconductor elements are combined.

ここで、本実施形態においては、オートフォーカス制御を行うためのフォーカス位置を評価するために、培養容器50にはマーカが含まれる。本実施形態において、マーカは球形で、かつ結像光学系14を透過する光を吸収する色に着色された微細ビーズとする。本実施形態の白色光源11は、白色光を培養容器50に照射するため、本実施形態の微細ビーズは、黒色に着色されている。ここで「白色光」は、様々な波長域の光が均一に混合した光を意味する。なお、例えば、白色光源11のかわりに、白色光以外の波長域の光を照射する光源を使用する場合には、その波長域を吸収する色に着色された微細ビーズを使用する。また、微細ビーズは、一例として、直径が1.0μmのポリスチレン樹脂製の球体からなる。このような微細ビーズを培養容器50に投入して、マーカとして用いることができる。 Here, in the present embodiment, the culture vessel 50 includes a marker in order to evaluate the focus position for performing the autofocus control. In the present embodiment, the marker is a spherical fine bead colored in a color that absorbs the light transmitted through the imaging optical system 14. Since the white light source 11 of the present embodiment irradiates the culture vessel 50 with white light, the fine beads of the present embodiment are colored black. Here, "white light" means light in which light in various wavelength ranges is uniformly mixed. For example, when a light source that irradiates light in a wavelength range other than white light is used instead of the white light source 11, fine beads colored in a color that absorbs the wavelength range are used. Further, the fine beads are, for example, made of a polystyrene resin sphere having a diameter of 1.0 μm. Such fine beads can be put into the culture vessel 50 and used as a marker.

図6は顕微鏡装置10による微細ビーズの観察を説明する図である。図6に示すように、培養容器50内に収容されたマーカMとしての微細ビーズを観察する場合、培養容器50の底部の上面すなわち観察対象設置面P1に設置された微細ビーズの中心位置に合焦させようとすると、微細ビーズが透明な場合には、微細ビーズ自体がレンズとして機能してしまうため、微細ビーズの中心位置ではなく、微細ビーズの中心位置からΔZ離れた位置、例えば培養容器50の底部の厚さdが十分に厚い場合には、観察対象設置面P1と培養容器50の底部の下面P2との間において光が結像されてしまう。 FIG. 6 is a diagram illustrating observation of fine beads by the microscope device 10. As shown in FIG. 6, when observing the fine beads as the marker M housed in the culture vessel 50, the fine beads are aligned with the upper surface of the bottom of the culture vessel 50, that is, the center position of the fine beads installed on the observation target installation surface P1. When the fine beads are transparent, the fine beads themselves function as a lens when they are to be charred. Therefore, the fine beads themselves are not at the center position but at a position ΔZ away from the center position of the fine beads, for example, the culture vessel 50. If the thickness d of the bottom portion of the bead is sufficiently thick, light is formed between the observation target installation surface P1 and the lower surface P2 of the bottom portion of the culture vessel 50.

そのため、微細ビーズを使用して決定されたフォーカス位置において観察対象である細胞を観察すると、細胞がボケてしまう場合があり、フォーカス位置の評価の精度を高くすることが望まれている。 Therefore, when observing the cells to be observed at the focus position determined by using the fine beads, the cells may be blurred, and it is desired to improve the accuracy of the evaluation of the focus position.

そこで本実施形態においては、微細ビーズを黒色で着色することにより、微細ビーズのレンズとしての機能を低減させ、実際に光が結像される位置と微細ビーズの中心位置との距離ΔZの値をより小さくする。これにより、微細ビーズを使用して後述するようにしてフォーカス位置を評価する際の精度を向上させることができる。従って、微細ビーズを使用して決定したフォーカス位置において細胞を撮影する際に、画像上における細胞のボケを低減することができる。 Therefore, in the present embodiment, by coloring the fine beads in black, the function of the fine beads as a lens is reduced, and the value of the distance ΔZ between the position where the light is actually formed and the center position of the fine beads is set. Make it smaller. This makes it possible to improve the accuracy when evaluating the focus position by using the fine beads as described later. Therefore, when the cells are photographed at the focus position determined by using the fine beads, the blurring of the cells on the image can be reduced.

なお、本実施形態においては、マーカとして上記微細ビーズを使用したが、本開示の技術は、これに限られず、微細ビーズ自体のレンズ機能を低減させることができればよい。微細ビーズは、例えば、光の吸収率を10%以上とすることにより、上記レンズ機能を低減させることができる。また、微細ビーズは、結像光学系14の光の波長帯域を吸収する特性を有する顔料又は色材で着色されていればよい。通常の生物用顕微鏡装置で使用される光の波長帯域は、一般的に可視域である380から780nmが多い。また、分光感度域が広いカメラを使用する場合には、光の波長帯域は300から1100nmで使用される。顔料としては、例えば、OPLAS(登録商標)COLORSのOPLAS BLACK 838を使用することができる。また、染料として、例えば、NUBIAN(登録商標)BLACKのNUBIAN(登録商標)6807-25及びNUBIAN(登録商標)6807-40、並びにNUBIAN(登録商標)7807-25及びNUBIAN(登録商標)7807-40を使用することができる。 In the present embodiment, the fine beads are used as the marker, but the technique of the present disclosure is not limited to this, and it is sufficient that the lens function of the fine beads themselves can be reduced. The fine beads can reduce the lens function, for example, by setting the light absorption rate to 10% or more. Further, the fine beads may be colored with a pigment or a coloring material having a property of absorbing the wavelength band of light of the imaging optical system 14. The wavelength band of light used in a normal biological microscope device is generally 380 to 780 nm, which is the visible range. Further, when a camera having a wide spectral sensitivity range is used, the wavelength band of light is used at 300 to 1100 nm. As the pigment, for example, OPLAS BLACK 838 of OPLAS (registered trademark) COLORS can be used. Also, as dyes, for example, NUBIAN (registered trademark) 6807-25 and NUBIAN (registered trademark) 6807-40 of NUBIAN (registered trademark) BLACK, and NUBIAN (registered trademark) 7807-25 and NUBIAN (registered trademark) 7807-40. Can be used.

また、微細ビーズはポリスチレン樹脂製に限られず、ガラス及びシリカの何れかで形成されていてもよい。また、微細ビーズの直径は、1μmに限られず、0.5μm以上10μm以下、より好ましくは1.0μm以上2.2μm以下であればよい。微細ビーズの直径が大きいほど、ビーズ像が大きくなるため、微細ビーズの直径は、顕微鏡装置10において観察可能範囲において可能な限り小さいことが望ましい。 Further, the fine beads are not limited to those made of polystyrene resin, and may be made of either glass or silica. The diameter of the fine beads is not limited to 1 μm, and may be 0.5 μm or more and 10 μm or less, more preferably 1.0 μm or more and 2.2 μm or less. Since the larger the diameter of the fine beads, the larger the bead image, it is desirable that the diameter of the fine beads is as small as possible within the observable range in the microscope device 10.

なお、本実施形態においては、マーカとして微細ビーズを使用するが本開示はこれに限られず、例えば磁気ビーズを使用してもよい。 In the present embodiment, fine beads are used as markers, but the present disclosure is not limited to this, and for example, magnetic beads may be used.

一般的に、顕微鏡装置においてフォーカス位置を評価するために使用する微細ビーズとしては、蛍光ビーズ又はポリスチレン製のビーズが使用される。一方、細胞の分離、たんぱく質及び核酸の分離のために使用する微細ビーズには磁気ビーズが使用される。磁気ビーズは、用途として、主に、ビーズにたんぱく質を吸着し、強力な磁力装置でビーズごとたんぱく質を分離する際に使用される。磁気ビーズにおいては、磁気ビーズ同士の凝集を防止するために、ポリスチレンなどのポリマーに分散か、包埋された構造になっている。生物用として販売されている磁気ビーズは、ポリスチレン製の微細ビーズに比べて光を吸収するための素材としては高価であるため、使用しにくい。磁気ビーズは、含まれる磁性体粒子の塊の構造が、滑らかな円でなく、凸凹のある円のため、フォーカス位置を定量的に求める上で、画像認識する場合に、ノイズとなり、精度を劣化させる場合がある。このため、マーカとしては、磁気ビーズよりも上述した微細ビーズの方が好ましい。 Generally, fluorescent beads or polystyrene beads are used as the fine beads used to evaluate the focus position in the microscope device. On the other hand, magnetic beads are used as fine beads used for cell separation and protein and nucleic acid separation. Magnetic beads are mainly used for adsorbing proteins to beads and separating the proteins together with the beads with a strong magnetic force device. The magnetic beads have a structure dispersed or embedded in a polymer such as polystyrene in order to prevent aggregation of the magnetic beads. Magnetic beads sold for biological use are difficult to use because they are more expensive as a material for absorbing light than fine beads made of polystyrene. Since the structure of the magnetic particle mass contained in the magnetic beads is not a smooth circle but an uneven circle, it becomes noise when recognizing an image in order to quantitatively determine the focus position, and the accuracy is deteriorated. May cause you to. Therefore, as the marker, the above-mentioned fine beads are preferable to the magnetic beads.

なお、本実施形態においては、フォーカス位置の評価のために、位相差画像の取得に先立って、フォーカス位置を評価するための画像(以下撮影画像G0とする)が撮影部16により取得される。 In the present embodiment, in order to evaluate the focus position, an image for evaluating the focus position (hereinafter referred to as a captured image G0) is acquired by the photographing unit 16 prior to the acquisition of the phase difference image.

マーカ像検出部31は、撮影部16が取得した、フォーカス位置評価用の撮影画像G0からマーカ像を検出する。本実施形態においては、撮影画像G0は位相差画像であり、上述したマーカは、位相差画像において背景の画像と異なるコントラストにより表される。このため、マーカ像検出部31は、しきい値処理を行うことにより、撮影画像G0からマーカ像を検出する。 The marker image detection unit 31 detects a marker image from the captured image G0 for focus position evaluation acquired by the photographing unit 16. In the present embodiment, the captured image G0 is a phase difference image, and the above-mentioned marker is represented by a contrast different from that of the background image in the phase difference image. Therefore, the marker image detection unit 31 detects the marker image from the captured image G0 by performing the threshold value processing.

判別器32は、フォーカス位置をそれぞれ変えて撮影した複数の教師用マーカ像、すなわち、異なるフォーカス位置において各々撮影された複数の教師用マーカ像に関する特徴量を用いて学習がなされ、マーカ像の入力により入力されたマーカ像のフォーカス位置を判別する。 The discriminator 32 is learned by using a plurality of teacher marker images taken at different focus positions, that is, features of a plurality of teacher marker images taken at different focus positions, and inputs the marker images. Determines the focus position of the marker image input by.

以下、判別器32の学習について説明する。判別器32の学習は学習部35が行う。図7は判別器32の学習に用いる教師用マーカ像を取得するためのマーカの撮影を説明するための図である。なお、図7においては、1つのマーカMの撮影について説明する。図7に示すように、教師用マーカ像を取得するためには、複数のフォーカス位置において、マーカMの撮影を行う。すなわち、まず、結像光学系14を調整し、マーカMの位置P0に合焦させるようにフォーカス制御を行い、マーカMに合焦した画像を取得する。また、マーカMの手前の位置P1及び位置P2に合焦させるようにフォーカス制御を行い、プラス方向にデフォーカスされた画像を取得する。また、マーカMの後方の位置P3及び位置P4に合焦させるようにフォーカス制御を行い、マイナス方向にデフォーカスされた画像を取得する。なお、図7においては5つのフォーカス位置P0〜P4によりマーカMの撮影を行っているが、これに限定されるものではなく、より多くのフォーカス位置又はより少ないフォーカス位置おいてマーカMの撮影を行うようにしてもよい。 Hereinafter, learning of the discriminator 32 will be described. The learning unit 35 performs learning of the discriminator 32. FIG. 7 is a diagram for explaining shooting of a marker for acquiring a teacher marker image used for learning of the discriminator 32. In addition, in FIG. 7, photography of one marker M will be described. As shown in FIG. 7, in order to acquire the teacher marker image, the marker M is photographed at a plurality of focus positions. That is, first, the imaging optical system 14 is adjusted, focus control is performed so as to focus on the position P0 of the marker M, and an image focused on the marker M is acquired. Further, focus control is performed so as to focus on the positions P1 and P2 in front of the marker M, and an image defocused in the plus direction is acquired. Further, focus control is performed so as to focus on the positions P3 and P4 behind the marker M, and an image defocused in the negative direction is acquired. In FIG. 7, the marker M is photographed at the five focus positions P0 to P4, but the image is not limited to this, and the marker M is photographed at more focus positions or less focus positions. You may do it.

そして、学習部35は、上述したように複数のフォーカス位置においてマーカMを撮影することにより取得した画像からマーカを含む領域を抽出し、教師用マーカ像を生成する。図8は教師用マーカ像の例を示す図である。なお、図8においては、位置P0,P1,P2に合焦させることにより取得した画像から生成した教師用マーカ像T0,T1,T2を示す。なお、教師用マーカ像は、それぞれのフォーカス位置において多数(例えば1000個)用意される。 Then, the learning unit 35 extracts a region containing the marker from the image acquired by photographing the marker M at a plurality of focus positions as described above, and generates a teacher marker image. FIG. 8 is a diagram showing an example of a teacher marker image. Note that FIG. 8 shows teacher marker images T0, T1, and T2 generated from an image acquired by focusing on the positions P0, P1, and P2. A large number (for example, 1000) of teacher marker images are prepared at each focus position.

また、学習部35は、教師用マーカ像に対してデフォーカス量を対応づける。例えば、フォーカス位置P0において取得した教師用マーカ像にはフォーカス位置として0を対応づけ、フォーカス位置P1において取得した教師用マーカ像にはフォーカス位置として+6μmを対応づけ、フォーカス位置P2において取得した教師用マーカ像にはフォーカス位置として+12μmを対応づける。また、フォーカス位置P3において取得した教師用マーカ像にはフォーカス位置として−6μmを対応づけ、フォーカス位置P4において取得した教師用マーカ像にはフォーカス位置として−12μmを対応づける。 Further, the learning unit 35 associates the defocus amount with the teacher marker image. For example, the teacher marker image acquired at the focus position P0 is associated with 0 as the focus position, the teacher marker image acquired at the focus position P1 is associated with +6 μm as the focus position, and the teacher marker image acquired at the focus position P2 is associated with the teacher image. The marker image is associated with +12 μm as the focus position. Further, the teacher marker image acquired at the focus position P3 is associated with −6 μm as the focus position, and the teacher marker image acquired at the focus position P4 is associated with −12 μm as the focus position.

学習部35は、教師用マーカ像を用いて、入力されたマーカ像のフォーカス位置を判別するように判別器32を学習する。本実施形態においては、判別器32は、判別対象となるマーカ像が入力されると、そのマーカ像のフォーカス位置を判別するものとする。具体的には、判別器32は、判別対象となるマーカ像について、複数のフォーカス位置となる確率を算出し、そのうちの最も高い確率となったフォーカス位置を入力されたマーカ像のフォーカス位置と判別する。このため、学習部35は、教師用マーカ像から、あらかじめ定められたサイズ(例えば3×3等)の領域内の特徴量を取得し、取得した特徴量を判別器32に入力し、入力した教師用マーカ像に対応するフォーカス位置となる判別結果を出力するように、判別器32の学習、すなわち機械学習を行う。 The learning unit 35 learns the discriminator 32 so as to discriminate the focus position of the input marker image by using the teacher marker image. In the present embodiment, when the marker image to be discriminated is input, the discriminator 32 discriminates the focus position of the marker image. Specifically, the discriminator 32 calculates the probability of having a plurality of focus positions for the marker image to be discriminated, and discriminates the focus position having the highest probability from the focus position of the input marker image. do. Therefore, the learning unit 35 acquires a feature amount in a region of a predetermined size (for example, 3 × 3 or the like) from the teacher marker image, inputs the acquired feature amount to the discriminator 32, and inputs the feature amount. Learning of the discriminator 32, that is, machine learning is performed so as to output the discriminant result which is the focus position corresponding to the teacher marker image.

なお、判別器32は、サポートベクタマシン(SVM(Support Vector Machine))、ディープニューラルネットワーク(DNN(Deep Neural Network))、畳み込みニューラルネットワーク(CNN(Convolutional Neural Network))、及びリカレントニューラルネットワーク(RNN(Recurrent Neural Network))等により構成することができる。 The discriminator 32 includes a support vector machine (SVM (Support Vector Machine)), a deep neural network (DNN (Deep Neural Network)), a convolutional neural network (CNN (Convolutional Neural Network)), and a recurrent neural network (RNN (RNN). It can be configured by Recurrent Neural Network)).

また、教師用マーカ像の特徴量としては、教師用マーカ像に関する同時生起行列を用いてもよい。同時生起行列は、画像における画素の信号値の分布を示す行列であり、ある信号値を有する画素に隣接する画素が有する信号値の頻度を行列として表したものである。ここで、マーカ像のフォーカス位置が0の場合、すなわちマーカ像が合焦している場合、マーカ像のコントラストが高いため、高輝度(すなわち低濃度)の画素に隣接する画素は低輝度(すなわち高濃度)となる。このため、マーカ像のフォーカス位置が0の場合、高輝度の画素については信号値が高い画素が隣接する頻度が高くなる。一方、マーカ像がボケている場合、高輝度の画素に隣接する画素はそれほど低輝度とはならない。このため、マーカ像がぼけている場合、マーカ像のコントラストが低いため、高輝度の画素については類似する輝度となる信号値の画素が隣接する頻度が高くなる。このため、教師用マーカ像に関する同時生起行列は、マーカ像のボケの程度に応じて特徴的な行列となる。したがって、同時生起行列を特徴量として用いることにより、フォーカス位置を精度よく判別可能なように、判別器32を学習することができる。 Further, as the feature quantity of the teacher marker image, a simultaneous occurrence matrix related to the teacher marker image may be used. The simultaneous occurrence matrix is a matrix showing the distribution of the signal values of the pixels in the image, and represents the frequency of the signal values of the pixels adjacent to the pixels having a certain signal value as a matrix. Here, when the focus position of the marker image is 0, that is, when the marker image is in focus, the contrast of the marker image is high, so that the pixels adjacent to the pixels with high brightness (that is, low density) have low brightness (that is, that is). High concentration). Therefore, when the focus position of the marker image is 0, the frequency of adjacent pixels with high signal values increases for high-luminance pixels. On the other hand, when the marker image is out of focus, the pixels adjacent to the high-luminance pixels do not have so low brightness. Therefore, when the marker image is blurred, the contrast of the marker image is low, so that the frequency of adjacent pixels with signal values having similar brightness increases for high-luminance pixels. Therefore, the simultaneous occurrence matrix for the teacher marker image becomes a characteristic matrix according to the degree of blurring of the marker image. Therefore, by using the simultaneous occurrence matrix as a feature quantity, the discriminator 32 can be learned so that the focus position can be discriminated with high accuracy.

このように学習がなされた判別器32により、撮影部16が取得した撮影画像G0に含まれるマーカのフォーカス位置が判別される。図9はフォーカス位置の判別結果を示す図である。なお、図9に示す撮影画像G0においては、マーカとして細胞の核小体を用いており、図9においてはマーカ像を白丸により示す。判別器32は、図9に示すように撮影画像G0に含まれる複数のマーカ像のそれぞれについてフォーカス位置を判別する。図9においては、説明のために各マーカ像の近傍に、各マーカ像に対するフォーカス位置を表す数値(μm)を示している。 The discriminator 32 learned in this way determines the focus position of the marker included in the captured image G0 acquired by the photographing unit 16. FIG. 9 is a diagram showing the determination result of the focus position. In the photographed image G0 shown in FIG. 9, a nucleolus of a cell is used as a marker, and in FIG. 9, the marker image is indicated by a white circle. As shown in FIG. 9, the discriminator 32 discriminates the focus position for each of the plurality of marker images included in the captured image G0. In FIG. 9, for the sake of explanation, a numerical value (μm) indicating the focus position for each marker image is shown in the vicinity of each marker image.

フォーカス位置評価部33は、1つの撮影画像G0について、判別器32が判別した複数のマーカ像のフォーカス位置の統計値をその撮影画像G0のフォーカス位置であると評価してフォーカス位置に決定する。なお、統計値としては、複数のマーカ像のフォーカス位置の平均値、中央値及び最頻値等を用いることができる。例えば、統計値を最頻値とした場合、図9に示すようにフォーカス位置が判別された撮影画像G0については、フォーカス位置の統計値は7μmに決定される。 The focus position evaluation unit 33 evaluates the statistical value of the focus position of the plurality of marker images determined by the discriminator 32 as the focus position of the captured image G0 for one captured image G0, and determines the focus position. As the statistical value, the average value, the median value, the mode value, and the like of the focus positions of the plurality of marker images can be used. For example, when the mode value is the mode, the statistical value of the focus position is determined to be 7 μm for the captured image G0 whose focus position is determined as shown in FIG.

動作制御部34は、上述したようにフォーカス位置評価部33が決定したフォーカス位置に基づいて、動作部15を動作させてオートフォーカス制御を行う。具体的には、フォーカス位置に基づいて、第1の動作部15A〜第7の動作部15Gのそれぞれに対して制御信号を出力する。これにより、第1の動作部15Aにより結像レンズ14dの焦点距離が変更されて結像光学系14の焦点距離が変更される。また、第2の動作部15Bにより結像レンズ14dが光軸方向に移動する。また、第3の動作部15Cにより撮影部16が光軸方向に移動する。また、第4の動作部15Dによりステージ51が光軸方向に移動する。また、第5の動作部15Eにより対物レンズ14bが光軸方向に移動する。第6の動作部15Fにより対物レンズ14bの焦点距離が変更されて結像光学系14の焦点距離が変更される。さらに、第7の動作部15Gにより結像光学系14の焦点位置が変更されて、結像光学系14の焦点距離が変更される。これらの7つの動作により、オートフォーカス制御が行われる。 The operation control unit 34 operates the operation unit 15 to perform autofocus control based on the focus position determined by the focus position evaluation unit 33 as described above. Specifically, a control signal is output to each of the first operating unit 15A to the seventh operating unit 15G based on the focus position. As a result, the focal length of the imaging lens 14d is changed by the first moving unit 15A, and the focal length of the imaging optical system 14 is changed. Further, the imaging lens 14d is moved in the optical axis direction by the second moving unit 15B. Further, the photographing unit 16 is moved in the optical axis direction by the third operating unit 15C. Further, the stage 51 is moved in the optical axis direction by the fourth moving unit 15D. Further, the objective lens 14b is moved in the optical axis direction by the fifth moving unit 15E. The focal length of the objective lens 14b is changed by the sixth moving unit 15F, and the focal length of the imaging optical system 14 is changed. Further, the focal position of the imaging optical system 14 is changed by the seventh operating unit 15G, and the focal length of the imaging optical system 14 is changed. Autofocus control is performed by these seven operations.

走査制御部21は、水平方向駆動部17を駆動制御し、これによりステージ51をX方向及びY方向に移動させて、培養容器50をX方向及びY方向に移動させる。水平方向駆動部17は、圧電素子等のアクチュエータから構成される。 The scanning control unit 21 drives and controls the horizontal drive unit 17, thereby moving the stage 51 in the X and Y directions and moving the culture vessel 50 in the X and Y directions. The horizontal drive unit 17 is composed of an actuator such as a piezoelectric element.

以下、走査制御部21によるステージ51の移動制御及び動作制御部34によるオートフォーカス制御について、詳細に説明する。 Hereinafter, the movement control of the stage 51 by the scanning control unit 21 and the autofocus control by the operation control unit 34 will be described in detail.

本実施形態においては、走査制御部21による制御によってステージ51をX方向及びY方向に移動させ、結像光学系14の観察域を培養容器50内において2次元状に移動して培養容器50を走査し、各観察域を撮像して位相差画像を取得する。図10は、培養容器50内における観察域による走査位置を実線Jで示した図である。なお、本実施形態においては、培養容器50として6つのウェルWを有するウェルプレートを用いる。 In the present embodiment, the stage 51 is moved in the X direction and the Y direction under the control of the scanning control unit 21, and the observation area of the imaging optical system 14 is moved two-dimensionally in the culture vessel 50 to move the culture vessel 50. Scan and image each observation area to obtain a phase difference image. FIG. 10 is a diagram showing the scanning position by the observation area in the culture vessel 50 by the solid line J. In this embodiment, a well plate having 6 wells W is used as the culture container 50.

図10に示すように、結像光学系14の観察域は、走査開始点Sから走査終了点Eまで実線Jに沿って移動する。すなわち、観察域Rは、X方向の正方向(図10の右方向)に移動された後、Y方向(図10の下方向)に移動し、逆の負方向(図10の左方向)に移動される。次いで、観察域Rは、再びY方向に移動し、再び正方向に移動される。このように、観察域RのX方向についての往復移動とY方向への移動を繰り返し行うことによって、培養容器50は2次元状に走査される。 As shown in FIG. 10, the observation area of the imaging optical system 14 moves along the solid line J from the scanning start point S to the scanning end point E. That is, the observation area R is moved in the positive direction in the X direction (right direction in FIG. 10), then in the Y direction (downward in FIG. 10), and in the opposite negative direction (left direction in FIG. 10). Will be moved. Then, the observation area R moves in the Y direction again and then moves in the positive direction again. In this way, the culture vessel 50 is scanned in a two-dimensional manner by repeatedly reciprocating the observation area R in the X direction and moving in the Y direction.

また、本実施形態においては、ステージ51は各観察域Rにおいて一端静止する。この状態において、撮影部16によりフォーカス位置評価用の撮影画像G0が取得され、フォーカス位置が決定され、フォーカス位置に基づいたオートフォーカス制御が行われ、その観察域Rが撮像されて位相差画像が取得される。位相差画像が取得されると、ステージ51が移動し、次の観察域Rにおいてオートフォーカス制御が行われて位相差画像が取得される。この動作を繰り返すことにより、培養容器50の全体を表す複数の位相差画像が取得され、複数の位相差画像を結合され合成位相差画像が生成される。 Further, in the present embodiment, the stage 51 is once stationary in each observation area R. In this state, the photographing unit 16 acquires the captured image G0 for focusing position evaluation, determines the focus position, performs autofocus control based on the focus position, captures the observation area R, and produces a phase difference image. To be acquired. When the phase difference image is acquired, the stage 51 moves, autofocus control is performed in the next observation area R, and the phase difference image is acquired. By repeating this operation, a plurality of phase difference images representing the entire culture vessel 50 are acquired, and the plurality of phase difference images are combined to generate a composite phase difference image.

すなわち、動作制御部34は、観察域Rにおいて決定されたフォーカス位置に基づいて、動作部15を駆動制御することによってオートフォーカス制御を行う。具体的には、動作制御部34には、フォーカス位置と、結像レンズ14dの焦点距離を変更するための結像レンズ14dへの印加電圧、結像レンズ14dの光軸方向の移動量、撮影部16の光軸方向の移動量、ステージ51の光軸方向の移動量、対物レンズ14bの光軸方向の移動量、対物レンズ14bの焦点距離を変更するための対物レンズ14bへの印加電圧、及び焦点距離変更光学系70の移動量との関係が、予めテーブルとして記憶されている。このテーブルを第1のテーブルと称する。 That is, the motion control unit 34 performs autofocus control by driving and controlling the motion unit 15 based on the focus position determined in the observation area R. Specifically, the motion control unit 34 includes the focus position, the voltage applied to the imaging lens 14d for changing the focal distance of the imaging lens 14d, the amount of movement of the imaging lens 14d in the optical axis direction, and imaging. The amount of movement of the unit 16 in the optical axis direction, the amount of movement of the stage 51 in the optical axis direction, the amount of movement of the objective lens 14b in the optical axis direction, the voltage applied to the objective lens 14b for changing the focal distance of the objective lens 14b, And the relationship with the movement amount of the focal distance changing optical system 70 is stored in advance as a table. This table is referred to as a first table.

動作制御部34は、決定されたフォーカス位置に基づいて、第1のテーブルを参照して、結像レンズ14dの焦点距離を変更するための結像レンズ14dへの印加電圧、結像レンズ14dの光軸方向の移動量、撮影部16の光軸方向の移動量、ステージ51の光軸方向の移動量、対物レンズ14bの光軸方向の移動量、対物レンズ14bの焦点距離を変更するための対物レンズ14bへの印加電圧、及び焦点距離変更光学系70の移動量をそれぞれ求める。なお、以降の説明においては、結像レンズ14dの焦点距離を変更するための結像レンズ14dへの印加電圧、結像レンズ14dの光軸方向の移動量、撮影部16の光軸方向の移動量、ステージ51の光軸方向の移動量、対物レンズ14bの光軸方向の移動量、対物レンズ14bの焦点距離を変更するための対物レンズ14bへの印加電圧、及び焦点距離変更光学系70の移動量をフォーカス制御量と称する。 The motion control unit 34 refers to the first table based on the determined focus position, and refers to the voltage applied to the imaging lens 14d for changing the focal distance of the imaging lens 14d, and the imaging lens 14d. To change the amount of movement in the optical axis direction, the amount of movement in the optical axis direction of the photographing unit 16, the amount of movement in the optical axis direction of the stage 51, the amount of movement in the optical axis direction of the objective lens 14b, and the focal distance of the objective lens 14b. The voltage applied to the objective lens 14b and the amount of movement of the focal distance changing optical system 70 are obtained. In the following description, the voltage applied to the imaging lens 14d for changing the focal distance of the imaging lens 14d, the amount of movement of the imaging lens 14d in the optical axis direction, and the movement of the imaging unit 16 in the optical axis direction. The amount, the amount of movement of the stage 51 in the optical axis direction, the amount of movement of the objective lens 14b in the optical axis direction, the voltage applied to the objective lens 14b for changing the focal distance of the objective lens 14b, and the focal distance changing optical system 70. The amount of movement is called the focus control amount.

そして、動作制御部34は、動作部15を制御するために、フォーカス制御量に応じた制御信号を、第1の動作部15A〜第7の動作部15Gに出力する。具体的には、動作制御部34は、デフォーカス量に基づいて第1のテーブルを参照し、フォーカス制御量を取得し、第1の動作部15A〜第7の動作部15Gに出力する。 Then, in order to control the operation unit 15, the operation control unit 34 outputs a control signal according to the focus control amount to the first operation unit 15A to the seventh operation unit 15G. Specifically, the motion control unit 34 refers to the first table based on the defocus amount, acquires the focus control amount, and outputs the focus control amount to the first motion unit 15A to the seventh motion unit 15G.

動作部15、すなわち第1の動作部15A〜第7の動作部15Gは、入力された制御信号に基づいて駆動する。これにより、観察域Rのフォーカス位置に応じたフォーカス制御が行われる。 The operating unit 15, that is, the first operating unit 15A to the seventh operating unit 15G is driven based on the input control signal. As a result, focus control is performed according to the focus position of the observation area R.

図5に戻り、表示制御部22は、顕微鏡装置10によって撮像された各観察域Rの位相差画像を結合することによって、1枚の合成位相差画像を生成し、その合成位相差画像を表示装置23に表示させる。 Returning to FIG. 5, the display control unit 22 generates one composite phase difference image by combining the phase difference images of each observation area R captured by the microscope device 10, and displays the composite phase difference image. Displayed on the device 23.

表示装置23は、上述したように表示制御部22によって生成された合成位相差画像を表示するものであり、例えば液晶ディスプレイ等を備える。また、表示装置23をタッチパネルによって構成し、入力装置24と兼用するようにしてもよい。 The display device 23 displays a composite phase difference image generated by the display control unit 22 as described above, and includes, for example, a liquid crystal display or the like. Further, the display device 23 may be configured by a touch panel and may also be used as the input device 24.

入力装置24は、マウス及びキーボード等を備え、ユーザによる種々の設定入力を受け付けるものである。本実施形態の入力装置24は、例えば位相差レンズ14aの倍率の変更指示及びステージ51の移動速度の変更指示等の設定入力を受け付ける。 The input device 24 includes a mouse, a keyboard, and the like, and accepts various setting inputs by the user. The input device 24 of the present embodiment receives setting inputs such as an instruction to change the magnification of the retardation lens 14a and an instruction to change the moving speed of the stage 51.

次に、第1の実施形態のフォーカス位置評価装置を適用した顕微鏡観察システムの動作について、図11に示すフローチャートを参照しながら説明する。まず、観察対象である細胞が収容された培養容器50が、ステージ51上に設置される(ステップST10)。次に、ステージ51が移動して結像光学系14の観察域Rが、図10に示す走査開始点Sの位置に設定され、観察域Rによる走査が開始される(ステップST12)。 Next, the operation of the microscope observation system to which the focus position evaluation device of the first embodiment is applied will be described with reference to the flowchart shown in FIG. First, the culture vessel 50 containing the cells to be observed is placed on the stage 51 (step ST10). Next, the stage 51 moves, the observation area R of the imaging optical system 14 is set at the position of the scanning start point S shown in FIG. 10, and scanning by the observation area R is started (step ST12).

ここで、本実施形態においては、上述したように各観察域Rについて、フォーカス位置評価用の撮影画像G0が取得され、マーカ像が検出され、フォーカス位置が評価され、フォーカス位置が決定され、フォーカス制御量が算出され、オートフォーカス制御が行われて位相差画像が取得される。これらの動作は、観察域Rを移動しながら行われ、ある位置の観察域Rについての撮影画像G0の取得、マーカ像の検出、フォーカス位置の判別、フォーカス位置の決定、フォーカス制御量の算出、オートフォーカス制御、及び位相差画像の取得が行われた後、次の観察域Rにおいて、撮影画像G0の取得、マーカ像の検出、フォーカス位置の判別、フォーカス位置の決定、フォーカス制御量の算出、オートフォーカス制御、及び位相差画像の取得が行われる。 Here, in the present embodiment, as described above, for each observation area R, the captured image G0 for focusing position evaluation is acquired, the marker image is detected, the focus position is evaluated, the focus position is determined, and the focus is set. The control amount is calculated, autofocus control is performed, and a phase difference image is acquired. These operations are performed while moving the observation area R, and acquisition of a captured image G0 for the observation area R at a certain position, detection of a marker image, determination of a focus position, determination of a focus position, calculation of a focus control amount, After the autofocus control and the acquisition of the phase difference image are performed, in the next observation area R, acquisition of the captured image G0, detection of the marker image, determination of the focus position, determination of the focus position, calculation of the focus control amount, Autofocus control and phase difference image acquisition are performed.

このため、最初の観察域Rにおいて、フォーカス位置評価用の撮影画像G0が撮影部16により取得され(ステップST14)、マーカ像検出部31が、撮影画像G0からマーカ像を検出する(ステップST16)。次いで、判別器32が撮影画像G0に含まれるマーカ像のフォーカス位置を判別し(ステップST18)、フォーカス位置評価部33が、その観察域Rにおけるフォーカス位置を決定する(ステップST20)。そして、動作制御部34が、決定されたフォーカス位置に基づいてフォーカス制御量を算出し(ステップST22)、フォーカス制御量に基づいてオートフォーカス制御を行う(ステップST24)。すなわち、動作制御部34は、予め記憶された移動量に基づいて動作部15を駆動制御し、結像レンズ14dの焦点距離を変更し、結像レンズ14d、撮影部16及び対物レンズ14bをZ方向に移動させる。そして、オートフォーカス制御後、撮影部16が観察域Rを撮像して、その観察域Rの位相差画像を取得する(ステップST26)。取得された位相差画像は、撮影部16から表示制御部22に出力されて記憶される。 Therefore, in the first observation area R, the captured image G0 for focusing position evaluation is acquired by the photographing unit 16 (step ST14), and the marker image detection unit 31 detects the marker image from the captured image G0 (step ST16). .. Next, the discriminator 32 determines the focus position of the marker image included in the captured image G0 (step ST18), and the focus position evaluation unit 33 determines the focus position in the observation area R (step ST20). Then, the operation control unit 34 calculates the focus control amount based on the determined focus position (step ST22), and performs autofocus control based on the focus control amount (step ST24). That is, the motion control unit 34 drives and controls the motion unit 15 based on the movement amount stored in advance, changes the focal length of the imaging lens 14d, and Zs the imaging lens 14d, the photographing unit 16 and the objective lens 14b. Move in the direction. Then, after the autofocus control, the photographing unit 16 takes an image of the observation area R and acquires a phase difference image of the observation area R (step ST26). The acquired phase difference image is output from the photographing unit 16 to the display control unit 22 and stored.

そして、全ての走査が終了していない場合には(ステップST28;NO)、観察域RがX方向又はY方向に移動し、すべての走査が終了するまで、上述した撮影画像G0の取得、マーカ像の検出、フォーカス位置の判別、フォーカス位置の決定、フォーカス制御量の算出、オートフォーカス制御及び位相差画像の取得が繰り返し行われる(ステップST14〜ステップST26)。そして、観察域Rが、図10に示す走査終了点Eの位置に到達した時点において全ての走査が終了する(ステップST28;YES)。 Then, when all the scans are not completed (step ST28; NO), the observation area R moves in the X direction or the Y direction, and until all the scans are completed, the above-mentioned captured image G0 is acquired and the marker is used. Image detection, focus position determination, focus position determination, focus control amount calculation, autofocus control, and phase difference image acquisition are repeated (steps ST14 to ST26). Then, when the observation area R reaches the position of the scanning end point E shown in FIG. 10, all scanning ends (step ST28; YES).

全ての走査が終了した後、表示制御部22は、各観察域Rの位相差画像を結合して合成位相差画像を生成し(ステップST30)、生成した合成位相差画像を表示装置23に表示する(ステップST32)。 After all the scans are completed, the display control unit 22 combines the phase difference images of each observation area R to generate a composite phase difference image (step ST30), and displays the generated composite phase difference image on the display device 23. (Step ST32).

このように、本実施形態においては、微細ビーズを黒色で着色することにより、微細ビーズのレンズとしての機能を低減させ、実際に光が結像される位置と微細ビーズの中心位置との距離ΔZの値をより小さくする。これにより、微細ビーズを使用してフォーカス位置を評価する際の精度を向上させることができる。従って、微細ビーズを使用して決定したフォーカス位置において細胞を撮影する際に、画像上における細胞のボケを低減することができる。 As described above, in the present embodiment, by coloring the fine beads in black, the function of the fine beads as a lens is reduced, and the distance between the position where the light is actually formed and the center position of the fine beads ΔZ. Make the value of. This makes it possible to improve the accuracy when evaluating the focus position using the fine beads. Therefore, when the cells are photographed at the focus position determined by using the fine beads, the blurring of the cells on the image can be reduced.

また、本実施形態においては、フォーカス位置の評価対象であるマーカを含む、フォーカス位置評価用の撮影画像G0を取得し、撮影画像G0からマーカ像を検出し、異なるフォーカス位置により各々撮影された複数の教師用マーカ像に関する特徴量を用いて学習がなされ、入力されたマーカ像のフォーカス位置を判別する判別器32によりフォーカス位置を判別するようにした。このため、少ない演算量により、高速にデフォーカス量を決定することができる。 Further, in the present embodiment, a plurality of captured images G0 for focus position evaluation including a marker to be evaluated for the focus position are acquired, a marker image is detected from the captured image G0, and a plurality of images are captured at different focus positions. Learning was performed using the feature amount related to the teacher marker image of the above, and the focus position was discriminated by the discriminator 32 for discriminating the focus position of the input marker image. Therefore, the defocus amount can be determined at high speed with a small amount of calculation.

また、撮影画像G0に含まれる複数のマーカ像のそれぞれについてのフォーカス位置を判別し、複数のフォーカス位置の統計値を撮影画像G0を取得した観察域Rのフォーカス位置に決定することにより、判別器32による判別結果のばらつきを吸収して、精度よくフォーカス位置を決定することができる。 Further, by discriminating the focus position for each of the plurality of marker images included in the captured image G0 and determining the statistical value of the plurality of focus positions at the focus position of the observation area R in which the captured image G0 is acquired, the discriminator is used. It is possible to accurately determine the focus position by absorbing the variation in the discrimination result due to 32.

また、フォーカス位置に基づいて、培養容器50内の観察対象の像を撮影部16に合焦させることにより、フォーカス位置を高速に決定することができるため、オートフォーカス制御を高速に行うことができる。 Further, by focusing the image of the observation target in the culture vessel 50 on the photographing unit 16 based on the focus position, the focus position can be determined at high speed, so that the autofocus control can be performed at high speed. ..

なお、上記第1の実施形態においては、第1の実施形態によるフォーカス位置評価装置30を顕微鏡撮影システムに適用し、観察域Rを移動させつつ、各観察域Rにおいて撮影画像G0の取得、マーカ像の検出、フォーカス位置の判別、フォーカス位置の決定、フォーカス制御量の算出、オートフォーカス制御、及び位相差画像の取得を行っているが、これに限定されるものではない。例えば、ある培養容器50について、細胞を収容することなく、培養容器50における各観察域Rにおいて、撮影画像G0の取得、マーカ像の検出、フォーカス位置の判別、フォーカス位置の決定、及びフォーカス制御量の算出を行うようにしてもよい。この場合、培養容器50すべての観察域Rにおいてフォーカス位置が決定された後に、フォーカス位置を決定した培養容器50と同一種類の培養容器50に収容された細胞を観察対象として、位相差画像の取得が行われる。以下、これを第2の実施形態として説明する。 In the first embodiment, the focus position evaluation device 30 according to the first embodiment is applied to the microscopic imaging system, and while moving the observation region R, the captured image G0 is acquired in each observation region R, and a marker is used. Image detection, focus position determination, focus position determination, focus control amount calculation, autofocus control, and phase difference image acquisition are performed, but the present invention is not limited thereto. For example, for a certain culture vessel 50, acquisition of a photographed image G0, detection of a marker image, determination of a focus position, determination of a focus position, and a focus control amount in each observation area R in the culture vessel 50 without accommodating cells. May be calculated. In this case, after the focus position is determined in the observation area R of all the culture vessels 50, the cells housed in the culture vessel 50 of the same type as the culture vessel 50 for which the focus position is determined are to be observed, and the phase difference image is acquired. Is done. Hereinafter, this will be described as a second embodiment.

図12は位相差画像の取得に先立って、デフォーカス量を決定する、第2の実施形態において行われる処理を示すフローチャートである。まず、マーカである微細ビーズが収容された培養容器50がステージ51上に設置される(ステップST40)。次に、ステージ51が移動して結像光学系14の観察域Rが、図7に示す走査開始点Sの位置に設定され、観察域Rによる走査が開始される(ステップST42)。 FIG. 12 is a flowchart showing a process performed in the second embodiment for determining the defocus amount prior to the acquisition of the phase difference image. First, the culture vessel 50 containing the fine beads as markers is installed on the stage 51 (step ST40). Next, the stage 51 moves, the observation area R of the imaging optical system 14 is set at the position of the scanning start point S shown in FIG. 7, and scanning by the observation area R is started (step ST42).

そして、最初の観察域Rにおいて、フォーカス位置評価用の撮影画像G0が撮影部16により取得され(ステップST44)、マーカ像検出部31が、撮影画像G0からマーカ像を検出する(ステップST46)。次いで、判別器32が撮影画像G0に含まれるマーカ像のフォーカス位置を判別し(ステップST48)、フォーカス位置評価部33が、その観察域Rにおけるフォーカス位置を決定する(ステップST50)。そして、動作制御部34が、決定されたフォーカス位置に基づいてフォーカス制御量を算出し(ステップST52)、フォーカス制御量を培養容器50の検出位置のX−Y座標上の位置と対応づけて記憶する(ステップST54)。 Then, in the first observation area R, the captured image G0 for focusing position evaluation is acquired by the photographing unit 16 (step ST44), and the marker image detection unit 31 detects the marker image from the captured image G0 (step ST46). Next, the discriminator 32 determines the focus position of the marker image included in the captured image G0 (step ST48), and the focus position evaluation unit 33 determines the focus position in the observation area R (step ST50). Then, the motion control unit 34 calculates the focus control amount based on the determined focus position (step ST52), and stores the focus control amount in association with the position on the XY coordinates of the detection position of the culture vessel 50. (Step ST54).

そして、全ての走査が終了していない場合には(ステップST56;NO)、観察域RがX方向又はY方向に移動し、すべての走査が終了するまで、上述した撮影画像G0の取得、マーカ像の検出、フォーカス位置の判別、フォーカス位置の決定、フォーカス制御量の算出、及びフォーカス制御量の記憶が繰り返し行われる(ステップST44〜ステップST54)。そして、観察域Rが、図10に示す走査終了点Eの位置に到達した時点において全ての走査が終了する(ステップST56;YES)。 Then, when all the scans are not completed (step ST56; NO), the observation area R moves in the X direction or the Y direction, and until all the scans are completed, the above-mentioned captured image G0 is acquired and the marker is used. Image detection, focus position determination, focus position determination, focus control amount calculation, and focus control amount storage are repeated (steps ST44 to ST54). Then, when the observation area R reaches the position of the scanning end point E shown in FIG. 10, all scanning ends (step ST56; YES).

なお、第2の実施形態において、位相差画像の取得時においては、フォーカス位置を決定する場合と同様に、培養容器50の走査が行われ、各観察域Rにおいて位相差画像を取得する際に、その観察域Rに対応する培養容器50のX−Y座標と対応づけて記憶されたフォーカス制御量を用いて、動作制御部34がオートフォーカス制御を行う。これにより、各観察域Rにおいてフォーカス制御を行いつつ、位相差画像の取得が行われる。この場合、フォーカス制御量を記憶するための培養容器50の走査を事前に行う必要はあるが、同一種類の培養容器50を使用する場合、位相差画像を取得する際に、各観察域Rにおいて一端ステージ51を静止させて撮影画像G0の取得、マーカ像の検出、フォーカス位置の判別、フォーカス位置の決定、フォーカス制御量の算出、オートフォーカス制御、及び位相差画像の取得を行う必要がなくなる。これにより、培養容器50上において観察域Rを連続して操作させることができるため、より高速に位相差画像を取得することができる。 In the second embodiment, when the phase difference image is acquired, the culture vessel 50 is scanned in the same manner as when the focus position is determined, and when the phase difference image is acquired in each observation area R. The motion control unit 34 performs autofocus control using the focus control amount stored in association with the XY coordinates of the culture vessel 50 corresponding to the observation area R. As a result, the phase difference image is acquired while performing focus control in each observation area R. In this case, it is necessary to scan the culture vessel 50 for storing the focus control amount in advance, but when the same type of culture vessel 50 is used, when the phase difference image is acquired, in each observation area R. It is not necessary to stop the stage 51 once to acquire the captured image G0, detect the marker image, determine the focus position, determine the focus position, calculate the focus control amount, perform autofocus control, and acquire the phase difference image. As a result, the observation area R can be continuously operated on the culture vessel 50, so that the phase difference image can be acquired at a higher speed.

なお、第2の実施形態においては、動作制御部34は、各観察域Rでのフォーカス制御量を記憶しているが、決定したフォーカス位置を記憶するようにしてもよい。この場合、各観察域Rにおいて位相差画像を取得する際に、記憶されたフォーカス位置に基づいてフォーカス制御量が算出されて、観察域Rの撮影及び位相差画像の取得が行われる。 In the second embodiment, the motion control unit 34 stores the focus control amount in each observation area R, but the determined focus position may be stored. In this case, when the phase difference image is acquired in each observation area R, the focus control amount is calculated based on the stored focus position, and the observation area R is photographed and the phase difference image is acquired.

また、第2の実施形態において、ステップST50にて決定されたフォーカス位置が、顕微鏡装置10において設定不可能なフォーカス位置、すなわちフォーカス制御量が算出できない場合には、例えば表示装置23にエラー表示を出すようにしてもよいし、図示しない報知部によってフォーカス制御量が算出できないことを報知するようにしてもよい。ここで、報知部は、本開示において、「報知部」は、メッセージ等を可視表示させるディスプレイ、音声が出力されることにより可聴表示させる音声再生装置、用紙等の記録媒体に記録して永久可視表示させるプリンタ、メールや電話等の通信手段及び表示灯等を意味し、上記ディスプレイ、上記音声再生装置、上記プリンタ、上記通信手段及び上記表示灯のうちの少なくとも2つ以上を組み合わせてもよい。 Further, in the second embodiment, when the focus position determined in step ST50 is a focus position that cannot be set in the microscope device 10, that is, the focus control amount cannot be calculated, an error display is displayed on the display device 23, for example. It may be output, or it may be notified that the focus control amount cannot be calculated by a notification unit (not shown). Here, in the present disclosure, the "notifying unit" is recorded on a recording medium such as a display for visually displaying a message or the like, a voice reproducing device for displaying an audible voice by outputting a voice, or a recording medium such as paper for permanent visibility. It means a printer for displaying, a communication means such as a mail or a telephone, an indicator light, and the like, and at least two or more of the display, the voice reproduction device, the printer, the communication means, and the indicator light may be combined.

ところで、判別器32の学習の際に使用する教師用マーカ像としては、プラス方向にデフォーカスされた画像及びマイナス方向にデフォーカスされた画像の双方を用いている。しかしながら、プラス方向にデフォーカスされた画像及びマイナス方向にデフォーカスされた画像が類似している場合、そのような教師用マーカ像を用いて学習を行った判別器32を用いても、フォーカス位置がプラス側のフォーカス位置であるのかマイナス側のフォーカス位置であるのか判別することが困難となる場合がある。 By the way, as the teacher marker image used in the learning of the discriminator 32, both the image defocused in the plus direction and the image defocused in the minus direction are used. However, when the image defocused in the positive direction and the image defocused in the negative direction are similar, the focus position can be obtained even by using the discriminator 32 that has been trained using such a teacher marker image. It may be difficult to determine whether is the focus position on the plus side or the focus position on the minus side.

しかしながら、本実施形態においては、フォーカス位置のプラス及びマイナスを誤って判別したとしても、オートフォーカス制御を高速に行うことができる。図13はオートフォーカス制御を説明するための図である。なお、図13においては、結像レンズ14dをZ方向に移動する場合のオートフォーカス制御を示す。図13に示すように、結像レンズ14dが位置P10にあるときのフォーカス位置が+αに決定されたとする。この場合、実際のフォーカス位置がプラス(すなわち観察対象よりも遠くに合焦している状態)であれば、結像レンズ14dを観察対象から離れる方向、例えば位置P11に移動させることにより、観察対象に合焦させることができる。しかしながら、実際には観察対象よりも近くに合焦した状態にあり、フォーカス位置が−αの場合、結像レンズ14dを位置P11に移動させると、よりフォーカスが合わなくなってしまう。 However, in the present embodiment, even if the plus and minus of the focus position are erroneously determined, the autofocus control can be performed at high speed. FIG. 13 is a diagram for explaining autofocus control. Note that FIG. 13 shows autofocus control when the imaging lens 14d is moved in the Z direction. As shown in FIG. 13, it is assumed that the focus position when the imaging lens 14d is at the position P10 is determined to be + α. In this case, if the actual focus position is positive (that is, the focus is farther than the observation target), the observation target is moved in a direction away from the observation target, for example, the position P11. Can be focused on. However, when the focus is actually closer to the observation target and the focus position is −α, moving the imaging lens 14d to the position P11 causes the focus to be more out of focus.

この場合、結像レンズ14dを位置P11に移動させた時点において、再度フォーカス位置評価用の撮影画像G0を取得し、フォーカス位置を決定するようにする。そして、決定したフォーカス位置が0でない場合には、フォーカス位置のプラス及びマイナスが間違っていることから、動作制御部34は、結像レンズ14dを観察対象に近づく方向、例えば位置P11から位置P12に移動させるようにフォーカス制御量を決定する。 In this case, when the imaging lens 14d is moved to the position P11, the captured image G0 for the focus position evaluation is acquired again and the focus position is determined. If the determined focus position is not 0, the plus and minus of the focus position are incorrect, so that the motion control unit 34 moves the imaging lens 14d toward the observation target, for example, from the position P11 to the position P12. Determine the focus control amount to move.

ここで、従来のように画像のコントラストを判断してオートフォーカス制御を行う場合、観察対象に合焦されるまで撮影画像G0の取得及びフォーカス制御量の決定を繰り返す必要がある。これに対して、本実施形態においては、フォーカス制御量のプラス及びマイナスの判別を誤ったとしても、フォーカス位置の決定の動作をもう一度行うのみで、正確なフォーカス制御量を決定することができる。したがって、本実施形態においては、フォーカス制御量のプラス及びマイナスの判別を誤ったとしても、オートフォーカス制御を高速に行うことができる。 Here, when the autofocus control is performed by determining the contrast of the image as in the conventional case, it is necessary to repeat the acquisition of the captured image G0 and the determination of the focus control amount until the image is focused on the observation target. On the other hand, in the present embodiment, even if the plus and minus of the focus control amount are erroneously discriminated, the accurate focus control amount can be determined only by performing the operation of determining the focus position again. Therefore, in the present embodiment, even if the plus and minus of the focus control amount are erroneously discriminated, the autofocus control can be performed at high speed.

なお、プラス方向にデフォーカスされた画像及びマイナス方向にデフォーカスされた画像が類似している場合、プラス方向にデフォーカスされた画像及びマイナス方向にデフォーカスされた画像のいずれか一方のみを教師用マーカ像として使用して、判別器32の学習を行うようにしてもよい。例えば、プラス方向にデフォーカスされた画像のみを教師用マーカ像として判別器32の学習を行った場合、判別されるフォーカス位置はプラスの値となる。この場合、実際のフォーカス位置がマイナスの場合、上記図13に示すように、フォーカス位置がプラスの場合のように結像レンズ14dを位置P11に移動させると、よりフォーカスが合わなくなってしまう。 If the image defocused in the plus direction and the image defocused in the minus direction are similar, only one of the image defocused in the plus direction and the image defocused in the minus direction is taught. The discriminator 32 may be trained by using it as a marker image. For example, when the discriminator 32 is trained using only the image defocused in the positive direction as the teacher marker image, the discriminated focus position has a positive value. In this case, when the actual focus position is negative, as shown in FIG. 13, if the imaging lens 14d is moved to the position P11 as in the case where the focus position is positive, the focus becomes more out of focus.

この場合、結像レンズ14dを位置P11に移動させた時点において、再度フォーカス位置評価用の撮影画像G0を取得し、フォーカス位置を決定するようにする。そして、決定したフォーカス位置が0でない場合には、フォーカス位置が実際にはマイナスであると判定し、動作制御部34は、結像レンズ14dを位置P11からP12に移動させるようにフォーカス制御量を決定する。これにより、フォーカス位置のプラス及びマイナスを間違えた場合と同様に、フォーカス位置の決定の動作をもう一度行うのみで、正確なフォーカス制御量を決定することができる。したがって、プラス方向にデフォーカスされた画像及びマイナス方向にデフォーカスされた画像のいずれか一方のみを教師用マーカ像として使用して、判別器32の学習を行っても、オートフォーカス制御を高速に行うことができる。 In this case, when the imaging lens 14d is moved to the position P11, the captured image G0 for the focus position evaluation is acquired again and the focus position is determined. If the determined focus position is not 0, it is determined that the focus position is actually negative, and the motion control unit 34 sets the focus control amount so as to move the imaging lens 14d from the position P11 to P12. decide. As a result, an accurate focus control amount can be determined only by performing the operation of determining the focus position once again, as in the case where the plus and minus of the focus position are mistaken. Therefore, even if the discriminator 32 is trained by using only one of the image defocused in the positive direction and the image defocused in the negative direction as the teacher marker image, the autofocus control can be performed at high speed. It can be carried out.

なお、上記各実施形態においては、判別器32を学習するための教師用マーカ像として、フォーカス位置が既知のマーカ像を用いているが、これに限定されるものではない。例えば、フォーカス位置が不明であるマーカ像を教師用マーカ像として用いてもよい。この場合、フォーカス位置が不明であるマーカ像については、学習部35は、フォーカス位置が不明であるとの判別を行うように、判別器32の学習を行う。なお、フォーカス位置が不明であるマーカ像としては、判別器32に入力した結果、フォーカス位置を誤って判別したマーカ像を用いることができる。このため、学習部35はまず判別器32に対して、フォーカス位置が不明である旨の判別を行わないように学習を行う。そして、ある程度学習が進んだ段階で、判別器32によるフォーカス位置の判別を行った際に、フォーカス位置を誤って判別したマーカ像を、フォーカス位置が不明であるマーカ像に決定する。そして、改めてそのようなマーカ像を用いて、フォーカス位置が不明であるとの判別を行うように判別器32の学習を行う。これにより、フォーカス位置が不明であるとの判別を行うことが可能な判別器32を生成することができる。したがって、誤ったフォーカス位置の判別結果が取得される可能性を低減することができる。 In each of the above embodiments, a marker image having a known focus position is used as a teacher marker image for learning the discriminator 32, but the present invention is not limited to this. For example, a marker image whose focus position is unknown may be used as a teacher marker image. In this case, for the marker image whose focus position is unknown, the learning unit 35 learns the discriminator 32 so as to discriminate that the focus position is unknown. As the marker image whose focus position is unknown, a marker image in which the focus position is erroneously determined as a result of input to the discriminator 32 can be used. Therefore, the learning unit 35 first learns from the discriminator 32 so as not to discriminate that the focus position is unknown. Then, when the focus position is determined by the discriminator 32 at a stage where learning has progressed to some extent, the marker image for which the focus position is erroneously determined is determined as the marker image whose focus position is unknown. Then, using such a marker image again, the discriminator 32 is learned so as to discriminate that the focus position is unknown. This makes it possible to generate a discriminator 32 capable of discriminating that the focus position is unknown. Therefore, it is possible to reduce the possibility of acquiring an erroneous focus position determination result.

なお、上記各実施形態においては、動作部15が第1〜第7の動作部15A〜15Gによりオートフォーカス制御を行っているが、第1〜第7の動作部15A〜15Gのうちのいずれか1つのみ又はこれらのうちの複数を用いてオートフォーカス制御を行うようにしてもよい。また、第1〜第7の動作部15A〜15Gのうちのいずれか1つのみ又はこれらのうちの複数を備えるものとしてもよい。 In each of the above embodiments, the operating unit 15 performs autofocus control by the first to seventh operating units 15A to 15G, but any one of the first to seventh operating units 15A to 15G. The autofocus control may be performed using only one or a plurality of these. Further, only one of the first to seventh operating units 15A to 15G or a plurality of these may be provided.

また、上記各実施形態においては、焦点距離変更光学系70を、結像光学系14と撮影部16との間に配置しているが、結像光学系14とステージ51との間に配置してもよい。 Further, in each of the above embodiments, the focal length changing optical system 70 is arranged between the imaging optical system 14 and the photographing unit 16, but is arranged between the imaging optical system 14 and the stage 51. You may.

また、上記各実施形態においては、第4の動作部15Dによりステージ51を光軸方向に移動させることにより、培養容器50を光軸方向に移動させている。しかしながら、ステージ51を光軸方向に移動させることに代えて、培養容器50を光軸方向に移動させる機構を設け、培養容器50のみを光軸方向に移動させるようにしてもよい。 Further, in each of the above embodiments, the culture vessel 50 is moved in the optical axis direction by moving the stage 51 in the optical axis direction by the fourth operating unit 15D. However, instead of moving the stage 51 in the optical axis direction, a mechanism for moving the culture vessel 50 in the optical axis direction may be provided so that only the culture vessel 50 is moved in the optical axis direction.

また、上記各実施形態は、フォーカス位置評価部33が、判別器32によって判別されたフォーカス位置に基づいてフォーカス位置を評価及び決定したが、本開示の技術はこれに限られない。フォーカス位置評価装置は、判別器32及び学習部35を備えていなくても良い。この場合、フォーカス位置評価部33は、異なるフォーカス位置毎に予め撮影して取得した撮影画像から、マーカ像検出部31が基準マーカ像を検出して記憶しておく。そして、フォーカス位置評価部33は、撮影された観察画像においてマーカ像検出部31が検出したマーカ像と、異なるフォーカス位置毎の上記基準マーカ像との全ての組合せについて相関値を算出する。そして相関値が予め設定された閾値以上である場合に、フォーカス位置評価部33は、その相関値を有するマーカ像と基準マーカ像の組み合わせが、対応付けられるべき組み合わせであると判定し、その基準マーカ像が取得されたフォーカス位置を観察画像のフォーカス位置として決定する。相関値の算出方法としては、例えば正規化相互相関(ZNCC:Zero-mean Normalized Cross-Correlation)を用いて算出するようにすればよい。ただし、これに限らず、その他の算出方法を用いるようにしてもよい。 Further, in each of the above embodiments, the focus position evaluation unit 33 evaluates and determines the focus position based on the focus position determined by the discriminator 32, but the technique of the present disclosure is not limited to this. The focus position evaluation device may not include the discriminator 32 and the learning unit 35. In this case, the focus position evaluation unit 33 detects and stores the reference marker image from the captured images captured and acquired in advance for each different focus position. Then, the focus position evaluation unit 33 calculates the correlation value for all the combinations of the marker image detected by the marker image detection unit 31 in the captured observation image and the reference marker image for each different focus position. When the correlation value is equal to or higher than a preset threshold value, the focus position evaluation unit 33 determines that the combination of the marker image having the correlation value and the reference marker image is a combination to be associated with the reference marker image. The focus position from which the marker image is acquired is determined as the focus position of the observation image. As a method for calculating the correlation value, for example, normalized cross-correlation (ZNCC) may be used for calculation. However, the present invention is not limited to this, and other calculation methods may be used.

また、上記各実施形態は、本発明によるフォーカス位置評価装置を位相差顕微鏡に適用したものであるが、本開示は、位相差顕微鏡に限らず、微分干渉顕微鏡及び明視野顕微鏡等のその他の顕微鏡に適用してもよい。 Further, in each of the above embodiments, the focus position evaluation apparatus according to the present invention is applied to a phase-contrast microscope, but the present disclosure is not limited to the phase-contrast microscope, but other microscopes such as a differential interference microscope and a bright-field microscope. May be applied to.

10 顕微鏡装置(撮影装置)
11 白色光源
12 コンデンサレンズ
13 スリット板
14 結像光学系(撮影光学系)
14a 位相差レンズ
14b 対物レンズ
14c 位相板
14d 結像レンズ
15 動作部
15A 第1の動作部
15B 第2の動作部
15C 第3の動作部
15D 第4の動作部
15E 第5の動作部
15F 第6の動作部
15G 第7の動作部
16 撮影部
17 水平方向駆動部
20 顕微鏡制御装置
21 走査制御部
22 表示制御部
23 表示装置
24 入力装置
30 フォーカス位置評価装置
31 マーカ像検出部
32、32A 判別器
33 フォーカス位置評価部
34 動作制御部
35 学習部
50 培養容器
51 ステージ
51a 開口
70 焦点距離変更光学系
71 第1のウェッジプリズム
72 第2のウェッジプリズム
J 観察域による走査位置
S 走査開始点
E 走査終了点
M マーカ,微細ビーズ
L 照明光
R 観察域
W ウェル
10 Microscope device (imaging device)
11 White light source 12 Condenser lens 13 Slit plate 14 Imaging optical system (photographing optical system)
14a Phase difference lens 14b Objective lens 14c Phase plate 14d Imaging lens 15 Operating unit 15A 1st operating unit 15B 2nd operating unit 15C 3rd operating unit 15D 4th operating unit 15E 5th operating unit 15F 6th 15G 7th operating unit 16 Imaging unit 17 Horizontal drive unit 20 Microscope control device 21 Scan control unit 22 Display control unit 23 Display device 24 Input device 30 Focus position evaluation device 31 Marker image detector 32, 32A Discriminator 33 Focus position evaluation unit 34 Motion control unit 35 Learning unit 50 Culture container 51 Stage 51a Opening 70 Focal length change optical system 71 First wedge prism 72 Second wedge prism J Scanning position by observation area S Scanning start point E Scanning end Point M Marker, Fine beads L Illumination light R Observation area W Well

Claims (11)

撮影光学系によって結像された観察対象を撮影する撮影装置におけるフォーカス位置評価装置であって、
球形で、かつ前記撮影光学系を透過する光を吸収する色に着色されたマーカを前記観察対象として前記撮影装置によって撮影することにより取得した撮影画像からマーカ像を検出するマーカ像検出部と、
前記マーカ像に基づいて、前記撮影光学系のフォーカス位置を評価するフォーカス位置評価部と、
を含むフォーカス位置評価装置。
It is a focus position evaluation device in a photographing device that photographs an observation target formed by an imaging optical system.
A marker image detection unit that detects a marker image from a captured image acquired by photographing a marker that is spherical and colored in a color that absorbs light transmitted through the photographing optical system as the observation target by the photographing apparatus.
A focus position evaluation unit that evaluates the focus position of the photographing optical system based on the marker image, and a focus position evaluation unit.
Focus position evaluation device including.
前記マーカは、光の吸収率が10%以上である請求項1に記載のフォーカス位置評価装置。 The focus position evaluation device according to claim 1, wherein the marker has a light absorption rate of 10% or more. 前記色は、黒色である請求項1又は2に記載のフォーカス位置評価装置。 The focus position evaluation device according to claim 1 or 2, wherein the color is black. 前記マーカは、前記撮影光学系の透過光の波長帯域を吸収する特性を有する顔料又は色材で着色されている請求項1から3の何れか1項に記載のフォーカス位置評価装置。 The focus position evaluation device according to any one of claims 1 to 3, wherein the marker is colored with a pigment or a coloring material having a characteristic of absorbing the wavelength band of transmitted light of the photographing optical system. 前記マーカの直径が、0.5μm以上10μm以下である請求項1から4の何れか1項に記載のフォーカス位置評価装置。 The focus position evaluation device according to any one of claims 1 to 4, wherein the marker has a diameter of 0.5 μm or more and 10 μm or less. 前記マーカの直径が、1.0μm以上2.2μm以下である請求項5項に記載のフォーカス位置評価装置。 The focus position evaluation device according to claim 5, wherein the marker has a diameter of 1.0 μm or more and 2.2 μm or less. 前記マーカは、ポリスチレン樹脂、ガラス、及びシリカの何れかで形成されている請求項1から6の何れか1項に記載のフォーカス位置評価装置。 The focus position evaluation device according to any one of claims 1 to 6, wherein the marker is made of any one of polystyrene resin, glass, and silica. 前記撮影画像は、前記マーカを含み、前記観察対象が収容された容器を撮影装置により撮影することによって取得され、
前記フォーカス位置評価部により評価されたフォーカス位置に基づいて、前記容器内の前記観察対象の像を前記撮影装置に合焦させる制御を行う制御部とをさらに含む請求項1から7の何れか1項に記載のフォーカス位置評価装置。
The photographed image is acquired by photographing the container including the marker and accommodating the observation object with an imaging apparatus.
Any one of claims 1 to 7, further comprising a control unit that controls the image of the observation target in the container to be focused on the photographing apparatus based on the focus position evaluated by the focus position evaluation unit. The focus position evaluation device according to the section.
前記撮影画像は、前記観察対象が収容された前記容器内において観察領域を走査し、前記容器内の各観察領域の撮影を行うことにより取得され、
前記制御部は、前記各観察領域において、前記フォーカス位置に基づいて、前記容器内の前記観察対象の像を前記撮影装置に合焦させる制御を行う請求項8に記載のフォーカス位置評価装置。
The photographed image is acquired by scanning the observation area in the container in which the observation object is housed and photographing each observation area in the container.
The focus position evaluation device according to claim 8, wherein the control unit controls to focus the image of the observation target in the container on the photographing device based on the focus position in each observation area.
撮影光学系によって結像された観察対象を撮影する撮影装置におけるフォーカス位置評価方法であって、
球形で、かつ前記撮影光学系を透過する光を吸収する色に着色されたマーカを前記観察対象として前記撮影装置によって撮影することにより取得した撮影画像からマーカ像を検出し、
前記マーカ像に基づいて、前記撮影光学系のフォーカス位置を評価するフォーカス位置評価方法。
It is a focus position evaluation method in an imaging device that photographs an observation target imaged by an imaging optical system.
The marker image is detected from the captured image acquired by photographing the marker, which is spherical and colored in a color that absorbs the light transmitted through the photographing optical system, as the observation target by the photographing apparatus.
A focus position evaluation method for evaluating a focus position of the photographing optical system based on the marker image.
撮影光学系によって結像された観察対象を撮影する撮影装置におけるフォーカス位置評価プログラムであって、
球形で、かつ前記撮影光学系を透過する光を吸収する色に着色されたマーカを前記観察対象として前記撮影装置によって撮影することにより取得した撮影画像からマーカ像を検出する手順と、
前記マーカ像に基づいて、前記撮影光学系のフォーカス位置を評価する手順と、
をコンピュータに実行させるフォーカス位置評価プログラム。
It is a focus position evaluation program in a photographing device that photographs an observation target imaged by an imaging optical system.
A procedure for detecting a marker image from a captured image acquired by photographing a marker that is spherical and colored in a color that absorbs light transmitted through the photographing optical system with the photographing apparatus as the observation target.
A procedure for evaluating the focus position of the photographing optical system based on the marker image, and
Focus position evaluation program that causes the computer to execute.
JP2018182732A 2018-09-27 2018-09-27 Focus position evaluation device, method and program, and discriminator Pending JP2022001889A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018182732A JP2022001889A (en) 2018-09-27 2018-09-27 Focus position evaluation device, method and program, and discriminator
PCT/JP2019/028971 WO2020066250A1 (en) 2018-09-27 2019-07-24 Focus position evaluation device, method and program, and determiner

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018182732A JP2022001889A (en) 2018-09-27 2018-09-27 Focus position evaluation device, method and program, and discriminator

Publications (1)

Publication Number Publication Date
JP2022001889A true JP2022001889A (en) 2022-01-06

Family

ID=69949580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018182732A Pending JP2022001889A (en) 2018-09-27 2018-09-27 Focus position evaluation device, method and program, and discriminator

Country Status (2)

Country Link
JP (1) JP2022001889A (en)
WO (1) WO2020066250A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4791596B2 (en) * 2008-04-30 2011-10-12 日本写真印刷株式会社 Partial matte hard coat transfer sheet and method for producing the same
TW201831881A (en) * 2012-07-25 2018-09-01 美商提拉諾斯股份有限公司 Image analysis and measurement of biological samples
JP6146265B2 (en) * 2013-11-07 2017-06-14 ソニー株式会社 Microscope system and autofocus method
JP6506908B2 (en) * 2014-02-24 2019-04-24 オリンパス株式会社 Focusing method, measuring method, focusing device, and measuring device

Also Published As

Publication number Publication date
WO2020066250A1 (en) 2020-04-02

Similar Documents

Publication Publication Date Title
JPWO2019181053A1 (en) Defocus metering device, method and program, and discriminator
JP6253400B2 (en) Image forming method and image forming apparatus
JP6718024B2 (en) Discriminator learning device, method and program, and discriminator
JP5259207B2 (en) Cell image analysis apparatus and method and software thereof
JP6873231B2 (en) Cell image evaluation device and method and program
JP2013109119A (en) Microscope controller and program
KR102149625B1 (en) Captured image evaluation apparatus and method, and program
US11199500B2 (en) Method and microscopy system for recording a microscopic fluorescence image of a sample region containing a biological sample
JP6704530B2 (en) Imaging control device, method and program
JP7133636B2 (en) Focus position evaluation device, method, and program
JP6785947B2 (en) Cell image evaluation device and method and program
WO2020066250A1 (en) Focus position evaluation device, method and program, and determiner
US20050287520A1 (en) Screening method and device, and new drug screening method and device
JP6861842B2 (en) Observation device and method and observation device control program
JP6848086B2 (en) Observation device and method and observation device control program
JP6993423B2 (en) Shooting control device, operation method of shooting control device, and shooting control program
JP2012122829A (en) Imaging method and device in vivo
JP6534294B2 (en) Imaging apparatus and method, and imaging control program
JP2010054426A (en) Observation method of disease
JP2024128350A (en) Method for evaluating fibrosis in biological samples
JP2016142565A (en) Target cell detecting method, and target cell detecting system
He Miniaturized Optical Scatter Imaging Microscope in Reflectance Mode with Fourier Filtering For Monitoring Devices and Cells
JP2019045877A (en) Imaging apparatus and method, and imaging control program
Chen et al. Physics and engineering aspects of cell and tissue imaging systems: microscopic devices and computer assisted diagnosis