Nothing Special   »   [go: up one dir, main page]

JP2024138784A - Optical image forming apparatus, control method for optical image forming apparatus, and program - Google Patents

Optical image forming apparatus, control method for optical image forming apparatus, and program Download PDF

Info

Publication number
JP2024138784A
JP2024138784A JP2023049463A JP2023049463A JP2024138784A JP 2024138784 A JP2024138784 A JP 2024138784A JP 2023049463 A JP2023049463 A JP 2023049463A JP 2023049463 A JP2023049463 A JP 2023049463A JP 2024138784 A JP2024138784 A JP 2024138784A
Authority
JP
Japan
Prior art keywords
light
image forming
light receiving
image
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023049463A
Other languages
Japanese (ja)
Inventor
珠美 三輪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2023049463A priority Critical patent/JP2024138784A/en
Publication of JP2024138784A publication Critical patent/JP2024138784A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

【課題】装置の大型化を最小限に抑えつつ、OCT画像とSLO画像とを取得するための新たな技術を提供する。【解決手段】光画像形成装置は、干渉光学系と、遮蔽部材と、分光部材と、イメージセンサと、断層画像形成部と、正面画像形成部とを含む。干渉光学系は、光スキャナにより偏向された測定光を被測定物に照射し、参照光路を経由した参照光と被測定物からの測定光の戻り光とを干渉させる。分光部材は、参照光路から遮蔽部材が退避された状態で参照光と戻り光との干渉光を分光し、又は、参照光路に遮蔽部材が配置された状態で戻り光を分光する。イメージセンサは、分光部材により分光された光を受光する。断層画像形成部は、干渉光を分光した光の受光結果に基づいて被測定物の断層画像を形成する。正面画像形成部は、戻り光を分光した光の受光結果に基づいて被測定物の正面画像を形成する。【選択図】図2[Problem] To provide a new technique for acquiring OCT images and SLO images while minimizing the increase in size of the device. [Solution] An optical image forming device includes an interference optical system, a shielding member, a spectroscopic member, an image sensor, a tomographic image forming unit, and a front image forming unit. The interference optical system irradiates a measurement light deflected by an optical scanner onto an object to be measured, and causes interference between a reference light passing through a reference optical path and return light of the measurement light from the object to be measured. The spectroscopic member disperses interference light between the reference light and the return light when the shielding member is retracted from the reference optical path, or disperses the return light when the shielding member is disposed in the reference optical path. The image sensor receives the light dispersed by the spectroscopic member. The tomographic image forming unit forms a tomographic image of the object to be measured based on the light receiving result of the light dispersed from the interference light. The front image forming unit forms a front image of the object to be measured based on the light receiving result of the light dispersed from the return light. [Selected Figure] Figure 2

Description

本発明は、光画像形成装置、光画像形成装置の制御方法、及び、プログラムに関する。 The present invention relates to an optical image forming device, a control method for an optical image forming device, and a program.

光画像を取得するための手法の1つとして、光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)が知られている。OCTは、光の干渉性を利用してサンプル内部を画像化する技術であり、医用イメージングや非破壊検査を含む様々な分野において実用化されている。 Optical coherence tomography (OCT) is known as one of the techniques for acquiring optical images. OCT is a technology that uses the coherence of light to image the inside of a sample, and has been put to practical use in a variety of fields, including medical imaging and non-destructive testing.

一方、レーザー光でサンプルを2次元的に走査することでサンプルの正面画像を光画像として取得する手法も知られている。 On the other hand, a method is also known in which a front image of a sample is obtained as an optical image by scanning the sample two-dimensionally with laser light.

例えば、特許文献1には、OCT光学系と、SLO(Scanning Laser Ophthalmoscope)光学系とを備えた眼科撮影装置が開示されている。OCT光学系は、サンプルとしての被検眼に対してOCTスキャンを実行してOCT画像を取得するように構成される。SLO光学系は、サンプルとしての被検眼に対してレーザー光を照射してその戻り光を検出することでSLO画像を取得するように構成される。 For example, Patent Document 1 discloses an ophthalmologic imaging device equipped with an OCT optical system and an SLO (Scanning Laser Ophthalmoscope) optical system. The OCT optical system is configured to perform an OCT scan on the subject's eye as a sample to obtain an OCT image. The SLO optical system is configured to obtain an SLO image by irradiating the subject's eye as a sample with laser light and detecting the return light.

特開2017-29483号公報JP 2017-29483 A

しかしながら、特許文献1に開示された手法では、OCT光学系とSLO光学系とで共用される光学要素が少なく、コスト高や装置の大型化を招く。 However, the technique disclosed in Patent Document 1 has few optical elements that are shared between the OCT optical system and the SLO optical system, which leads to high costs and a large device size.

本発明は、このような事情を鑑みてなされたものであり、その目的の1つは、装置の大型化を最小限に抑えつつ、OCT画像とSLO画像とを取得するための新たな技術を提供することにある。 The present invention was made in consideration of these circumstances, and one of its objectives is to provide a new technology for acquiring OCT images and SLO images while minimizing the increase in size of the device.

いくつかの実施形態の1つの態様は、光スキャナを含み、光源からの低コヒーレンス光を測定光と参照光とに分割し、前記光スキャナにより偏向された前記測定光を被測定物に照射し、参照光路を経由した前記参照光と前記被測定物からの前記測定光の戻り光とを干渉させる干渉光学系と、前記参照光路に対して挿脱可能な遮蔽部材と、前記参照光路から前記遮蔽部材が退避された状態で前記干渉光学系により生成された前記参照光と前記戻り光との干渉光を分光し、又は、前記参照光路に前記遮蔽部材が配置された状態で前記干渉光学系から出力された前記戻り光を分光する分光部材と、前記分光部材により分光された光を受光するイメージセンサと、前記イメージセンサにより得られた、前記干渉光を分光した光の受光結果に基づいて、前記被測定物の断層画像を形成する断層画像形成部と、前記イメージセンサにより得られた、前記戻り光を分光した光の受光結果に基づいて前記被測定物の正面画像を形成する正面画像形成部と、を含む、光画像形成装置である。 One aspect of some embodiments is an optical image forming device including an optical scanner, an interference optical system that splits low-coherence light from a light source into measurement light and reference light, irradiates the measurement light deflected by the optical scanner onto a measured object, and causes the reference light that has passed through a reference optical path to interfere with the return light of the measurement light from the measured object; a shielding member that can be inserted into and removed from the reference optical path; a spectroscopic member that disperses the interference light between the reference light and the return light generated by the interference optical system when the shielding member is retracted from the reference optical path, or disperses the return light output from the interference optical system when the shielding member is disposed in the reference optical path; an image sensor that receives the light dispersed by the spectroscopic member; a tomographic image forming unit that forms a tomographic image of the measured object based on the light reception result of the light obtained by the image sensor that has been dispersed from the interference light; and a front image forming unit that forms a front image of the measured object based on the light reception result of the light obtained by the image sensor that has been dispersed from the return light.

いくつかの実施形態の別の態様は、光スキャナを含み、光源からの低コヒーレンス光を測定光と参照光とに分割し、前記光スキャナにより偏向された前記測定光を被測定物に照射し、参照光路を経由した前記参照光と前記被測定物からの前記測定光の戻り光とを干渉させる干渉光学系と、前記参照光路に対して挿脱可能な遮蔽部材と、前記干渉光学系により生成された前記戻り光と前記参照光との干渉光、又は、前記干渉光学系から出力された前記戻り光を分光する分光部材と、前記分光部材により分光された光を受光するイメージセンサと、を含む、光画像形成装置の制御方法である。光画像形成装置の制御方法は、前記参照光路から前記遮蔽部材を退避することにより前記干渉光学系に前記干渉光を生成させる第1干渉光学系制御ステップと、前記イメージセンサにより前記干渉光を分光した光を受光することにより得られた受光結果に基づいて、前記被測定物の断層画像を形成する断層画像形成ステップと、前記参照光路に前記遮蔽部材を挿入することにより前記干渉光学系から前記戻り光を出力させる第2干渉光学系制御ステップと、前記イメージセンサにより前記戻り光を分光した光を受光することにより得られた受光結果に基づいて、前記被測定物の正面画像を形成する正面画像形成ステップと、を含む。 Another aspect of some embodiments is a method for controlling an optical imaging device, the method including an interference optical system including an optical scanner, which splits low-coherence light from a light source into measurement light and reference light, irradiates the measurement light deflected by the optical scanner onto an object to be measured, and causes interference between the reference light that has passed through a reference optical path and return light of the measurement light from the object to be measured, a shielding member that can be inserted into and removed from the reference optical path, a spectroscopic element that spectroscopically separates the interference light between the return light generated by the interference optical system and the reference light, or the return light output from the interference optical system, and an image sensor that receives the light dispersed by the spectroscopic element. The control method for the optical image forming device includes a first interference optical system control step of causing the interference optical system to generate the interference light by retracting the shielding member from the reference optical path, a tomographic image forming step of forming a tomographic image of the object to be measured based on the light reception result obtained by receiving the light obtained by splitting the interference light by the image sensor, a second interference optical system control step of causing the interference optical system to output the return light by inserting the shielding member into the reference optical path, and a front image forming step of forming a front image of the object to be measured based on the light reception result obtained by receiving the light obtained by splitting the return light by the image sensor.

いくつかの実施形態の更に別の態様は、コンピュータに、上記の光画像形成装置の制御方法の各ステップを実行させるプログラムである。 Yet another aspect of some embodiments is a program that causes a computer to execute each step of the above-mentioned optical image forming device control method.

本発明によれば、装置の大型化を最小限に抑えつつ、OCT画像とSLO画像とを取得するための新たな技術を提供することができる。 The present invention provides a new technology for acquiring OCT images and SLO images while minimizing the increase in size of the device.

実施形態に係る眼科装置の光学系の構成の一例を表す概略図である。1 is a schematic diagram illustrating an example of a configuration of an optical system of an ophthalmic apparatus according to an embodiment. 実施形態に係る眼科装置の光学系の構成の一例を表す概略図である。1 is a schematic diagram illustrating an example of a configuration of an optical system of an ophthalmic apparatus according to an embodiment. 実施形態に眼科装置の制御系の構成の一例を表す概略図である。2 is a schematic diagram illustrating an example of a configuration of a control system of an ophthalmic apparatus according to an embodiment. 実施形態に眼科装置の制御系の構成の一例を表す概略図である。2 is a schematic diagram illustrating an example of a configuration of a control system of an ophthalmic apparatus according to an embodiment. 実施形態に眼科装置の動作を説明するための概略図である。3A and 3B are schematic diagrams for explaining the operation of the ophthalmologic apparatus according to the embodiment. 実施形態に眼科装置の動作を説明するための概略図である。3A and 3B are schematic diagrams for explaining the operation of the ophthalmologic apparatus according to the embodiment. 実施形態に眼科装置の動作を説明するための概略図である。3A and 3B are schematic diagrams for explaining the operation of the ophthalmologic apparatus according to the embodiment. 実施形態に眼科装置の動作を説明するための概略図である。3A and 3B are schematic diagrams for explaining the operation of the ophthalmologic apparatus according to the embodiment. 実施形態に眼科装置の動作を説明するための概略図である。3A and 3B are schematic diagrams for explaining the operation of the ophthalmologic apparatus according to the embodiment. 実施形態に眼科装置の動作の一例を表すフローチャートである。4 is a flowchart illustrating an example of an operation of the ophthalmologic apparatus according to the embodiment. 実施形態に眼科装置の動作の一例を表すフローチャートである。4 is a flowchart illustrating an example of an operation of the ophthalmologic apparatus according to the embodiment. 実施形態に眼科装置の動作を説明するための概略図である。3A and 3B are schematic diagrams for explaining the operation of the ophthalmologic apparatus according to the embodiment. 実施形態に眼科装置の動作を説明するための概略図である。3A and 3B are schematic diagrams for explaining the operation of the ophthalmologic apparatus according to the embodiment. 実施形態に眼科装置の動作を説明するための概略図である。3A and 3B are schematic diagrams for explaining the operation of the ophthalmologic apparatus according to the embodiment.

この発明に係る光画像形成装置、光画像形成装置の制御方法、及び、プログラムの実施形態の一例について、図面を参照しながら詳細に説明する。なお、実施形態において、この明細書において引用されている文献に記載された技術を任意に援用することが可能である。 An example of an embodiment of the optical image forming device, the control method for the optical image forming device, and the program according to the present invention will be described in detail with reference to the drawings. Note that in the embodiment, it is possible to arbitrarily use the techniques described in the documents cited in this specification.

実施形態に係る光画像形成装置は、干渉光学系と、遮蔽部材と、分光部材と、イメージセンサと、断層画像形成部と、正面画像形成部とを含む。干渉光学系は、光スキャナを含み、光源からの低コヒーレンス光を測定光と参照光とに分割し、光スキャナにより偏向された測定光を被測定物に照射し、参照光路を経由した参照光と被測定物からの測定光の戻り光とを干渉させる。遮蔽部材は、参照光路に対して挿脱可能である。分光部材は、参照光路から遮蔽部材が退避された状態で干渉光学系により生成された参照光と戻り光との干渉光を分光し、又は、参照光路に遮蔽部材が配置された状態で干渉光学系から出力された戻り光を分光する。イメージセンサは、分光部材により分光された光(上記の干渉光又は測定光の戻り光)を受光する。断層画像形成部は、イメージセンサにより得られた、干渉光を分光した光の受光結果に基づいて、被測定物の断層画像(OCT画像)を形成する。正面画像形成部は、イメージセンサにより得られた、戻り光を分光した光の受光結果に基づいて被測定物の正面画像(SLO画像)を形成する。 The optical image forming device according to the embodiment includes an interference optical system, a shielding member, a spectroscopic member, an image sensor, a tomographic image forming unit, and a front image forming unit. The interference optical system includes an optical scanner, divides low-coherence light from a light source into measurement light and reference light, irradiates the measurement light deflected by the optical scanner onto the object to be measured, and causes interference between the reference light passing through the reference optical path and the return light of the measurement light from the object to be measured. The shielding member is insertable and detachable from the reference optical path. The spectroscopic member disperses the interference light between the reference light and the return light generated by the interference optical system when the shielding member is retracted from the reference optical path, or disperses the return light output from the interference optical system when the shielding member is disposed in the reference optical path. The image sensor receives the light dispersed by the spectroscopic member (the above-mentioned interference light or the return light of the measurement light). The tomographic image forming unit forms a tomographic image (OCT image) of the object to be measured based on the light reception result of the light obtained by dispersing the interference light obtained by the image sensor. The front image forming unit forms a front image (SLO image) of the object to be measured based on the light reception results of the light obtained by the image sensor after splitting the return light.

ここで、干渉光学系は、参照光路に対して挿脱される遮蔽部材により、参照光と被測定物からの測定光の戻り光との干渉光、又は被測定物からの測定光の戻り光を出力するように構成される。具体的には、参照光路から遮蔽部材が退避された状態では、参照光と被測定物からの測定光の戻り光とを干渉させる干渉手段(例えば、ファイバカプラ)は参照光と戻り光との干渉光を出力する。一方、参照光路に遮蔽部材が配置された状態では、干渉させる参照光の光量がなく、干渉手段は参照光と戻り光とを干渉させることなく測定光の戻り光をそのまま出力する。すなわち、干渉光学系の出力光は、干渉光、又は、測定光の戻り光である。 The interference optical system is configured to output interference light between the reference light and return light of the measurement light from the object to be measured, or return light of the measurement light from the object to be measured, by using a shielding member that is inserted into and removed from the reference light path. Specifically, when the shielding member is retracted from the reference light path, an interference means (e.g., a fiber coupler) that causes interference between the reference light and return light of the measurement light from the object to be measured outputs interference light between the reference light and the return light. On the other hand, when a shielding member is placed in the reference light path, there is no amount of reference light to interfere, and the interference means outputs the return light of the measurement light as is, without interfering with the reference light and the return light. In other words, the output light of the interference optical system is interference light or return light of the measurement light.

これにより、遮蔽部材の挿脱により、OCT光学系とSLO光学系とで干渉光学系の少なくとも一部を共用することができる。従って、装置の大型化を最小限に抑えつつ、断層画像と正面画像とを取得するための光画像形成装置を提供することができる。 This allows at least a portion of the interference optical system to be shared between the OCT optical system and the SLO optical system by inserting and removing the shielding member. Therefore, it is possible to provide an optical imaging device for acquiring tomographic images and frontal images while minimizing the increase in size of the device.

いくつかの実施形態では、分光部材は、回折格子であり、イメージセンサは、回折格子に形成された格子パターンの配列方向に対応した方向に2以上の受光素子が配列されたラインセンサである。いくつかの実施形態では、正面画像形成部は、2以上の受光素子のそれぞれに対応した画素情報を各正面画像の画素ごとに割り当てることで、分光画像として2以上の正面画像を形成する。いくつかの実施形態では、正面画像形成部は、2以上の受光素子における複数の受光結果に対するビニング(binning)処理結果に対応した画素情報を各正面画像の画素ごとに割り当てることで、分光画像として2以上の正面画像を形成する。分光画像には、ハイパースペクトル画像、マルチスペクトル画像などがある。 In some embodiments, the spectroscopic member is a diffraction grating, and the image sensor is a line sensor in which two or more light receiving elements are arranged in a direction corresponding to the arrangement direction of the grating pattern formed on the diffraction grating. In some embodiments, the front image forming unit forms two or more front images as spectral images by assigning pixel information corresponding to each of the two or more light receiving elements to each pixel of each front image. In some embodiments, the front image forming unit forms two or more front images as spectral images by assigning pixel information corresponding to a binning process result for multiple light receiving results in the two or more light receiving elements to each pixel of each front image. Spectroscopic images include hyperspectral images and multispectral images.

ここで、ビニング処理は、ピクセルビニング処理、又はデータビニング処理であってよい。ピクセルビニング処理は、イメージセンサの内部で、2以上の受光素子により得られた2以上の検出結果を合成する処理である。データビニング処理は、イメージセンサの外部で、2以上の受光素子により得られた2以上の検出結果を合成する処理である。 Here, the binning process may be a pixel binning process or a data binning process. The pixel binning process is a process in which two or more detection results obtained by two or more light receiving elements are combined inside the image sensor. The data binning process is a process in which two or more detection results obtained by two or more light receiving elements are combined outside the image sensor.

いくつかの実施形態では、正面画像形成部は、2以上の受光素子における全受光結果に対するビニング処理結果に対応した画素情報を画素ごとに割り当てることで単一の正面画像を形成する。 In some embodiments, the front image forming unit forms a single front image by assigning pixel information corresponding to the binning process results for all light receiving results from two or more light receiving elements to each pixel.

被測定物の例として、眼、皮膚などの生体組織、歯などの組織、非破壊検査や非接触検査の検査対象物、又は、非侵襲測定の測定物などがある。断層画像形成部は、断層画像以外のOCT画像(例えば、C-スキャン画像、プロジェクション画像などのen-face画像)を形成するようにしてもよい。 Examples of objects to be measured include biological tissues such as eyes and skin, tissues such as teeth, objects to be inspected in non-destructive or non-contact inspection, or objects to be measured in non-invasive measurements. The tomographic image forming unit may form OCT images other than tomographic images (for example, en-face images such as C-scan images and projection images).

実施形態に係る情報処理装置は、上記の光画像形成装置の制御方法をソフトウェア処理により実現する。実施形態に係る情報処理方法は、上記の情報処理装置により実行される1以上のステップを含む。実施形態に係るプログラムは、実施形態に係る光画像形成装置の制御方法の各ステップをコンピュータ(プロセッサ)に実行させる。実施形態に係る記録媒体は、実施形態に係るプログラムが記録(記憶)されたコンピュータ読み取り可能な非一時的な記録媒体(記憶媒体)である。 The information processing device according to the embodiment realizes the above-mentioned method for controlling the optical image forming device by software processing. The information processing method according to the embodiment includes one or more steps executed by the above-mentioned information processing device. The program according to the embodiment causes a computer (processor) to execute each step of the method for controlling the optical image forming device according to the embodiment. The recording medium according to the embodiment is a computer-readable non-transitory recording medium (storage medium) on which the program according to the embodiment is recorded (stored).

本明細書において、プロセッサは、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を含む。プロセッサは、例えば、記憶回路又は記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。記憶回路又は記憶装置がプロセッサに含まれていてよい。また、記憶回路又は記憶装置がプロセッサの外部に設けられていてよい。 In this specification, a processor includes circuits such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), and a programmable logic device (e.g., an SPLD (Simple Programmable Logic Device), a CPLD (Complex Programmable Logic Device), and an FPGA (Field Programmable Gate Array)). The processor realizes the functions of the embodiment by, for example, reading and executing a program stored in a memory circuit or a storage device. A memory circuit or a storage device may be included in the processor. Additionally, the memory circuit or storage device may be provided outside the processor.

以下の実施形態では、被測定物は眼であり、実施形態に係る光画像形成装置は、眼に対してOCT撮影とSLO撮影と実行可能な眼科装置であるものとする。しかしながら、実施形態に係る光画像形成装置は、眼科装置に限定されるものではない。 In the following embodiment, the object to be measured is an eye, and the optical image forming device according to the embodiment is an ophthalmic device capable of performing OCT imaging and SLO imaging of the eye. However, the optical image forming device according to the embodiment is not limited to an ophthalmic device.

実施形態に係る眼科装置は、更に、眼底カメラ、スリットランプ検眼鏡、手術用顕微鏡等のうちのいずれか1つ以上の機能を有していてもよい。実施形態に係る眼科装置は、更に、眼科測定装置及び眼科治療装置のうちのいずれか1つ以上を含んでいてもよい。眼科測定装置は、例えば、眼屈折検査装置、眼圧計、スペキュラーマイクロスコープ、ウェーブフロントアナライザ、視野計、マイクロペリメータ等のうちのいずれか1つ以上である。眼科治療装置は、例えば、レーザー治療装置、手術装置、手術用顕微鏡等のうちのいずれか1つ以上である。 The ophthalmic device according to the embodiment may further have one or more functions of a fundus camera, a slit lamp ophthalmoscope, a surgical microscope, etc. The ophthalmic device according to the embodiment may further include one or more of an ophthalmic measurement device and an ophthalmic treatment device. The ophthalmic measurement device is, for example, one or more of an eye refraction examination device, a tonometer, a specular microscope, a wavefront analyzer, a perimeter, a microperimeter, etc. The ophthalmic treatment device is, for example, one or more of a laser treatment device, a surgical device, a surgical microscope, etc.

以下の実施形態では、眼科装置は、OCT撮影とSLO撮影とで共用される干渉光学系と、眼底カメラとを含む。このOCT撮影は、スペクトラルドメインOCTにより実現される。 In the following embodiment, the ophthalmologic apparatus includes an interference optical system shared between OCT imaging and SLO imaging, and a fundus camera. This OCT imaging is achieved by spectral domain OCT.

以下、x方向は、対物レンズの光軸方向に直交する方向(左右方向、水平方向)であり、y方向は、対物レンズの光軸方向に直交する方向(上下方向、垂直方向)であるものとする。z方向は、対物レンズの光軸方向であるものとする。 In the following, the x direction is the direction perpendicular to the optical axis direction of the objective lens (left-right direction, horizontal direction), the y direction is the direction perpendicular to the optical axis direction of the objective lens (up-down direction, vertical direction), and the z direction is the optical axis direction of the objective lens.

<構成>
〔光学系〕
図1に示すように、眼科装置1は、眼底カメラユニット2、光画像形成ユニット100及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼Eの正面画像(後述のSLO画像と異なる正面画像)を取得するための光学系や機構が設けられている。光画像形成ユニット100には、OCTを実行するための光学系や機構の一部が設けられている。OCTを実行するための光学系や機構の他の一部は、眼底カメラユニット2に設けられている。演算制御ユニット200は、各種の演算や制御を実行する1以上のプロセッサを含む。これらに加え、被検者の顔を支持するための部材(顎受け、額当て等)や、OCTの対象部位を切り替えるためのレンズユニット(例えば、前眼部OCT用アタッチメント)等の任意の要素やユニットが眼科装置1に設けられてもよい。
<Configuration>
[Optical system]
As shown in FIG. 1, the ophthalmic apparatus 1 includes a fundus camera unit 2, an optical image forming unit 100, and an arithmetic and control unit 200. The fundus camera unit 2 is provided with an optical system and a mechanism for acquiring a front image of the subject's eye E (a front image different from an SLO image described later). The optical image forming unit 100 is provided with a part of the optical system and a mechanism for performing OCT. The other part of the optical system and a mechanism for performing OCT is provided in the fundus camera unit 2. The arithmetic and control unit 200 includes one or more processors for performing various calculations and controls. In addition to these, any elements or units such as a member for supporting the subject's face (such as a chin rest or a forehead rest) and a lens unit for switching the target site of OCT (for example, an attachment for anterior segment OCT) may be provided in the ophthalmic apparatus 1.

いくつかの実施形態では、眼科装置1は、表示装置3を含む。表示装置3は、演算制御ユニット200による処理結果(例えば、OCT画像等)や、眼底カメラユニット2により得られた画像や、眼科装置1を操作するための操作ガイダンス情報などを表示する。 In some embodiments, the ophthalmic device 1 includes a display device 3. The display device 3 displays the processing results (e.g., OCT images, etc.) by the arithmetic control unit 200, images obtained by the fundus camera unit 2, operation guidance information for operating the ophthalmic device 1, etc.

[眼底カメラユニット2]
眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efの画像(眼底画像、眼底写真等と呼ばれる)は、観察画像、撮影画像等の正面画像である。観察画像は、近赤外光を用いた動画撮影により得られる。撮影画像は、フラッシュ光を用いた静止画像である。更に、眼底カメラユニット2は、被検眼Eの前眼部Eaを撮影して正面画像(前眼部画像)を取得することができる。
[Fundus camera unit 2]
The fundus camera unit 2 is provided with an optical system for photographing the fundus Ef of the subject's eye E. The acquired image of the fundus Ef (called a fundus image, fundus photograph, etc.) is a front image such as an observation image or a photographed image. The observation image is obtained by video shooting using near-infrared light. The photographed image is a still image using flash light. Furthermore, the fundus camera unit 2 can photograph the anterior segment Ea of the subject's eye E to acquire a front image (anterior segment image).

眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eからの戻り光を検出する。被検眼Eからの戻り光は、被検眼Eに入射した照明光の散乱光(反射光)である。いくつかの実施形態では、被検眼Eからの戻り光には、被検眼Eに入射した照明光の散乱光(反射光)、及び、被検眼Eに入射した照明光を励起光とする蛍光及びその散乱光が含まれる。 The fundus camera unit 2 includes an illumination optical system 10 and an imaging optical system 30. The illumination optical system 10 irradiates illumination light onto the subject's eye E. The imaging optical system 30 detects return light from the subject's eye E. The return light from the subject's eye E is scattered light (reflected light) of the illumination light incident on the subject's eye E. In some embodiments, the return light from the subject's eye E includes scattered light (reflected light) of the illumination light incident on the subject's eye E, and fluorescence and its scattered light excited by the illumination light incident on the subject's eye E.

光画像形成ユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれ、その戻り光は、同じ光路を通じて光画像形成ユニット100に導かれる。 The measurement light from the optical image forming unit 100 is guided to the test eye E through an optical path within the fundus camera unit 2, and the return light is guided to the optical image forming unit 100 through the same optical path.

照明光学系10の観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(眼底Ef又は前眼部Ea)を照明する。被検眼Eからの戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、結像レンズ34によりイメージセンサ35の受光面に結像する。イメージセンサ35は、所定のフレームレートで戻り光を検出する。表示装置3には、イメージセンサ35からの出力に基づく画像(例えば、前眼部観察画像又は眼底観察画像)が表示される。なお、撮影光学系30のフォーカスは、眼底Ef又は前眼部Eaに合致するように調整される。 The light (observation illumination light) output from the observation light source 11 of the illumination optical system 10 is reflected by the reflection mirror 12 having a curved reflecting surface, passes through the condenser lens 13, and passes through the visible cut filter 14 to become near-infrared light. Furthermore, the observation illumination light is once focused near the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17 and 18, the aperture 19, and the relay lens 20. The observation illumination light is then reflected at the periphery (area surrounding the hole) of the aperture mirror 21, passes through the dichroic mirror 46, and is refracted by the objective lens 22 to illuminate the subject's eye E (fundus Ef or anterior eye Ea). The return light from the subject's eye E is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central area of the aperture mirror 21, passes through the dichroic mirror 55, passes through the photographing focusing lens 31, and is reflected by the mirror 32. Furthermore, this return light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and is imaged on the light receiving surface of the image sensor 35 by the imaging lens 34. The image sensor 35 detects the return light at a predetermined frame rate. The display device 3 displays an image based on the output from the image sensor 35 (e.g., an anterior eye observation image or a fundus observation image). The focus of the imaging optical system 30 is adjusted to match the fundus Ef or the anterior eye Ea.

撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの戻り光は、観察照明光の場合と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりイメージセンサ38の受光面に結像する。 The light output from the imaging light source 15 (imaging illumination light) is irradiated onto the fundus Ef via the same path as the observation illumination light. The return light from the subject's eye E is guided to the dichroic mirror 33 via the same path as the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is imaged by the focusing lens 37 on the light receiving surface of the image sensor 38.

表示装置3には、イメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系30のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。また、表示装置3には、イメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。 The display device 3 displays an image (observation image) based on the fundus reflected light detected by the image sensor 35. When the focus of the photographing optical system 30 is adjusted to the anterior segment, an observation image of the anterior segment of the subject's eye E is displayed. The display device 3 also displays an image (photographed image) based on the fundus reflected light detected by the image sensor 38. The display device 3 that displays the observation image and the display device 3 that displays the photographed image may be the same or different. When the subject's eye E is illuminated with infrared light and a similar photograph is performed, an infrared photographed image is displayed.

LCD(Liquid Crystal Display)39は固視標や視力測定用視標を表示する。LCD39から出力された光束は、その一部がハーフミラー33Aにて反射され、ミラー32に反射され、撮影合焦レンズ31を経由し、ダイクロイックミラー55を透過し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。 The LCD (Liquid Crystal Display) 39 displays a fixation target and a visual target for visual acuity measurement. A part of the light beam output from the LCD 39 is reflected by the half mirror 33A, reflected by the mirror 32, passes through the photographing focusing lens 31, passes through the dichroic mirror 55, and passes through the hole of the aperture mirror 21. The light beam that passes through the hole of the aperture mirror 21 passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus Ef.

LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。固視位置の例として、黄斑を中心とする画像を取得するための固視位置や、視神経乳頭を中心とする画像を取得するための固視位置や、黄斑と視神経乳頭との間の眼底中心を中心とする画像を取得するための固視位置や、黄斑から大きく離れた部位(眼底周辺部)の画像を取得するための固視位置などがある。いくつかの実施形態では、眼科装置1は、このような固視位置の少なくとも1つを指定するためのGUI(Graphical User Interface)等を含む。いくつかの実施形態では、眼科装置1は、固視位置(固視標の表示位置)をマニュアルで移動するためのGUI等を含む。 By changing the display position of the fixation target on the screen of the LCD 39, the fixation position of the subject's eye E can be changed. Examples of fixation positions include a fixation position for acquiring an image centered on the macula, a fixation position for acquiring an image centered on the optic disc, a fixation position for acquiring an image centered on the center of the fundus between the macula and the optic disc, and a fixation position for acquiring an image of a site far removed from the macula (periphery of the fundus). In some embodiments, the ophthalmic device 1 includes a GUI (Graphical User Interface) or the like for specifying at least one of such fixation positions. In some embodiments, the ophthalmic device 1 includes a GUI or the like for manually moving the fixation position (display position of the fixation target).

移動可能な固視標を被検眼Eに提示するための構成はLCD等の表示装置には限定されない。例えば、光源アレイ(発光ダイオード(LED)アレイ等)における複数の光源を選択的に点灯させることにより、移動可能な固視標を生成することができる。また、移動可能な1以上の光源により、移動可能な固視標を生成することができる。 The configuration for presenting a movable fixation target to the subject's eye E is not limited to a display device such as an LCD. For example, a movable fixation target can be generated by selectively turning on multiple light sources in a light source array (such as a light emitting diode (LED) array). Also, a movable fixation target can be generated by one or more movable light sources.

眼底カメラユニット2には、アライメント光学系50とフォーカス光学系60とが設けられている。アライメント光学系50は、被検眼Eに対する装置光学系の位置合わせ(アライメント)を行うための指標(アライメント指標)を生成する。フォーカス光学系60は、被検眼Eに対してフォーカス(ピント)を合わせるための指標(スプリット指標)を生成する。 The fundus camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60. The alignment optical system 50 generates an index (alignment index) for positioning (aligning) the device optical system with respect to the subject's eye E. The focus optical system 60 generates an index (split index) for focusing on the subject's eye E.

アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、絞り53、及びリレーレンズ54を経由し、ダイクロイックミラー55により反射される。ダイクロイックミラー55により反射された光は、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22によって被検眼Eに投射される。アライメント光の戻り光(例えば、角膜反射光又は眼底反射光)は、対物レンズ22、ダイクロイックミラー46、及び孔開きミラー21の孔部を経由し、ダイクロイックミラー55を透過する。ダイクロイックミラー55を透過した戻り光は、撮影合焦レンズ31を通過し、ミラー32により反射され、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、結像レンズ34によってイメージセンサ35の受光面に結像する。イメージセンサ35による受光像(アライメント指標)は、観察画像とともに表示装置3に表示される。アライメント指標に基づいてマニュアルアライメント又はオートアライメントが実行される。 The light (alignment light) output from the LED 51 of the alignment optical system 50 passes through the aperture 52, the aperture 53, and the relay lens 54, and is reflected by the dichroic mirror 55. The light reflected by the dichroic mirror 55 passes through the hole of the aperture mirror 21, transmits the dichroic mirror 46, and is projected onto the subject's eye E by the objective lens 22. The return light of the alignment light (for example, corneal reflected light or fundus reflected light) passes through the objective lens 22, the dichroic mirror 46, and the hole of the aperture mirror 21, and transmits the dichroic mirror 55. The return light that transmits the dichroic mirror 55 passes through the photographing focusing lens 31, is reflected by the mirror 32, transmits the half mirror 33A, is reflected by the dichroic mirror 33, and is imaged on the light receiving surface of the image sensor 35 by the imaging lens 34. The light image (alignment index) received by the image sensor 35 is displayed on the display device 3 together with the observed image. Manual alignment or automatic alignment is performed based on the alignment index.

フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット指標を生成する。フォーカス光学系60は、撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱可能である。フォーカス調整を行う際には、反射棒67の反射面が照明光路に傾斜配置される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。フォーカス光の眼底反射光は、観察照明光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(スプリット指標像)に基づいてマニュアルフォーカスやオートフォーカスを実行できる。 The focus optical system 60 generates a split index used for focus adjustment of the subject's eye E. The focus optical system 60 is moved along the optical path (illumination optical path) of the illumination optical system 10 in conjunction with the movement of the photographing focusing lens 31 along the optical path (photographing optical path) of the photographing optical system 30. The reflecting rod 67 can be inserted into and removed from the illumination optical path. When performing focus adjustment, the reflecting surface of the reflecting rod 67 is tilted and positioned in the illumination optical path. The focus light output from the LED 61 passes through the relay lens 62, is separated into two light beams by the split index plate 63, passes through the two-hole diaphragm 64, is reflected by the mirror 65, and is once imaged and reflected on the reflecting surface of the reflecting rod 67 by the condenser lens 66. Furthermore, the focus light passes through the relay lens 20, is reflected by the aperture mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus Ef. The fundus reflection of the focusing light is guided to the image sensor 35 via the same path as the return light of the observation illumination light. Manual focusing and autofocusing can be performed based on the received light image (split target image).

イメージセンサ35では、フォーカス光学系60により形成された2つのスプリット指標像が取得される。マニュアルフォーカス又はオートフォーカスでは、2つのスプリット指標像が所定の位置関係になるように撮影合焦レンズ31の位置が移動される。いくつかの実施形態では、OCT合焦レンズ43は、撮影光学系30における撮影合焦レンズ31の光路上の位置に対応した位置に移動される。いくつかの実施形態では、撮影合焦レンズ31の移動に連動して、OCT合焦レンズ43は光軸方向に移動される。 The image sensor 35 acquires two split index images formed by the focus optical system 60. In manual focus or autofocus, the position of the imaging focusing lens 31 is moved so that the two split index images have a predetermined positional relationship. In some embodiments, the OCT focusing lens 43 is moved to a position corresponding to the position on the optical path of the imaging focusing lens 31 in the imaging optical system 30. In some embodiments, the OCT focusing lens 43 is moved in the optical axis direction in conjunction with the movement of the imaging focusing lens 31.

ダイクロイックミラー46は、眼底撮影用光路とOCT用光路とを合成する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。OCT用光路(測定光の光路)には、光画像形成ユニット100側からダイクロイックミラー46側に向かって順に、コリメートレンズユニット40、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44、及びリレーレンズ45が設けられている。 The dichroic mirror 46 combines the optical path for fundus photography with the optical path for OCT. The dichroic mirror 46 reflects light in the wavelength band used for OCT and transmits light for fundus photography. The optical path for OCT (optical path for measurement light) includes, in order from the optical image forming unit 100 side to the dichroic mirror 46 side, a collimator lens unit 40, an optical path length changer 41, an optical scanner 42, an OCT focusing lens 43, a mirror 44, and a relay lens 45.

光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT用光路の長さを変更する。この光路長の変更は、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。光路長変更部41は、コーナーキューブと、これを移動する機構とを含む。 The optical path length change unit 41 can move in the direction of the arrow shown in FIG. 1 to change the length of the optical path for OCT. This change in optical path length is used for correcting the optical path length according to the axial length of the eye and adjusting the interference state. The optical path length change unit 41 includes a corner cube and a mechanism for moving it.

光スキャナ42は、アライメントにより、被検眼Eの瞳孔と光学的に共役な位置又はその近傍に配置される。光スキャナ42は、OCT用光路を通過する測定光LSを偏向する。光スキャナ42は、例えば、1次元走査又は2次元走査が可能なガルバノスキャナである。 The optical scanner 42 is aligned to be positioned optically conjugate with the pupil of the subject's eye E or in its vicinity. The optical scanner 42 deflects the measurement light LS passing through the OCT optical path. The optical scanner 42 is, for example, a galvano scanner capable of one-dimensional scanning or two-dimensional scanning.

OCT合焦レンズ43は、OCT用の光学系のフォーカス調整を行うために、測定光LSの光路に沿って移動される。撮影合焦レンズ31の移動、フォーカス光学系60の移動、及びOCT合焦レンズ43の移動を連係的に制御することができる。 The OCT focusing lens 43 is moved along the optical path of the measurement light LS to adjust the focus of the OCT optical system. The movement of the imaging focusing lens 31, the movement of the focus optical system 60, and the movement of the OCT focusing lens 43 can be controlled in a coordinated manner.

[光画像形成ユニット100]
図2に、図1の光画像形成ユニット100の光学系の構成例を示す。図2において、図1と同様の部分には同一符号を付し、適宜説明を省略する。
[Optical imaging unit 100]
Fig. 2 shows an example of the configuration of the optical system of the optical image forming unit 100 in Fig. 1. In Fig. 2, the same parts as in Fig. 1 are given the same reference numerals, and the description thereof will be omitted as appropriate.

光画像形成ユニット100には、スペクトラルドメインOCTを実行するための光学系が設けられている。この光学系は、干渉光学系を含む。この干渉光学系は、広帯域光源(低コヒーレンス光源)からの光(低コヒーレンス光)を測定光と参照光とに分割する機能と、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを重ね合わせる機能とを備える。干渉光学系からの出力光の検出結果(検出信号)は、出力光のスペクトルを示す信号であり、演算制御ユニット200に送られる。なお、本例の光画像形成ユニット100に含まれる干渉計はマイケルソン型であるが、別のタイプの干渉計(例えば、マッハツェンダー型干渉計)を用いてもよい。 The optical imaging unit 100 is provided with an optical system for performing spectral domain OCT. This optical system includes an interference optical system. This interference optical system has a function of splitting light (low coherence light) from a broadband light source (low coherence light source) into measurement light and reference light, and a function of superimposing the return light of the measurement light from the subject's eye E and the reference light that has passed through the reference light path. The detection result (detection signal) of the output light from the interference optical system is a signal indicating the spectrum of the output light, and is sent to the arithmetic and control unit 200. Note that although the interferometer included in the optical imaging unit 100 in this example is a Michelson type, another type of interferometer (for example, a Mach-Zehnder type interferometer) may also be used.

光源ユニット101は広帯域光源を含み、広帯域の低コヒーレンス光L0を出力する。低コヒーレンス光L0は、例えば、近赤外領域の波長帯(約800nm~900nm程度)を含み、数十マイクロメートル程度の時間的コヒーレンス長を有する。なお、人眼では視認できない波長帯、例えば1040~1060nm程度の中心波長を有する近赤外光を低コヒーレンス光L0として用いてもよい。光源ユニット101は、任意の光出力デバイスを含んでおり、例えば、スーパールミネセントダイオード(SLD)、LED、及び半導体光増幅器(SOA)のいずれかを含む。また、低コヒーレンス光L0は、中心波長が488nm、514nm、633nm、780nm等のSLO撮影に好適な波長帯を含む光であってもよい。 The light source unit 101 includes a broadband light source and outputs broadband low-coherence light L0. The low-coherence light L0 includes, for example, a wavelength band in the near-infrared region (approximately 800 nm to 900 nm) and has a temporal coherence length of approximately several tens of micrometers. Note that a wavelength band that cannot be seen by the human eye, for example, near-infrared light having a central wavelength of approximately 1040 to 1060 nm, may be used as the low-coherence light L0. The light source unit 101 includes any light output device, for example, any of a superluminescent diode (SLD), an LED, and a semiconductor optical amplifier (SOA). The low-coherence light L0 may also be light including a wavelength band suitable for SLO imaging, such as a central wavelength of 488 nm, 514 nm, 633 nm, or 780 nm.

光源ユニット101から出力された低コヒーレンス光L0は、光ファイバ102によりファイバカプラ103に導かれて測定光LSと参照光LRとに分割される。 The low-coherence light L0 output from the light source unit 101 is guided by the optical fiber 102 to the fiber coupler 103, where it is split into the measurement light LS and the reference light LR.

ファイバカプラ103により生成された参照光LRは、光ファイバ104を通じてアッテネータ105に導かれてその光量が調整され、偏波コントローラ106に導かれてその偏波状態が調整されてコリメートレンズユニット107に導かれる。アッテネータ105は、後述の演算制御ユニット200からの制御を受け、参照光LRの光量を調整する。偏波コントローラ106は、後述の演算制御ユニット200からの制御を受け、参照光LRの偏波状態を調整する。 The reference light LR generated by the fiber coupler 103 is guided through the optical fiber 104 to the attenuator 105 where its light amount is adjusted, and then to the polarization controller 106 where its polarization state is adjusted and then to the collimator lens unit 107. The attenuator 105 adjusts the light amount of the reference light LR under the control of the arithmetic and control unit 200 described below. The polarization controller 106 adjusts the polarization state of the reference light LR under the control of the arithmetic and control unit 200 described below.

コリメートレンズユニット107により平行光束に変換された参照光LRは、必要に応じてミラー等を経由して、参照ミラー108に導かれる。参照ミラー108は、参照光LRの光路に沿って移動可能に構成される。例えば、参照ミラー108は、後述の演算制御ユニット200からの制御を受けた参照駆動部(図示せず)により駆動される。これにより、参照光LRの光路長が変更される。参照ミラー108により反射された参照光LRは、コリメートレンズユニット107に入射し、偏波コントローラ106、及びアッテネータ105を経由してファイバカプラ103に導かれる。ファイバカプラ103から参照ミラー108までの参照光LRの光路は、参照光路(参照アーム)に相当する。 The reference light LR converted into a parallel light beam by the collimating lens unit 107 is guided to the reference mirror 108 via a mirror or the like as necessary. The reference mirror 108 is configured to be movable along the optical path of the reference light LR. For example, the reference mirror 108 is driven by a reference drive unit (not shown) controlled by the arithmetic control unit 200 described below. This changes the optical path length of the reference light LR. The reference light LR reflected by the reference mirror 108 enters the collimating lens unit 107 and is guided to the fiber coupler 103 via the polarization controller 106 and the attenuator 105. The optical path of the reference light LR from the fiber coupler 103 to the reference mirror 108 corresponds to the reference optical path (reference arm).

この実施形態では、コリメートレンズユニット107と参照ミラー108との間で遮蔽部材130が挿脱可能である。遮蔽部材130は、後述の演算制御ユニット200からの制御を受けた遮蔽機構(図示せず)が参照光LRの光路に対して挿脱される。 In this embodiment, the shielding member 130 can be inserted and removed between the collimator lens unit 107 and the reference mirror 108. The shielding member 130 is inserted and removed from the optical path of the reference light LR by a shielding mechanism (not shown) controlled by the arithmetic and control unit 200 described below.

一方、ファイバカプラ103により生成された測定光LSは、光ファイバ109を通じてコリメートレンズユニット40に導かれて平行光として出射される。コリメートレンズユニット40に接続される光ファイバ109の出射端(入射端)は、アライメントにより、被検眼Eの測定部位(例えば、眼底Ef)と光学的に共役な位置又はその近傍に配置される。コリメートレンズユニット40の出射端から出射された平行光は、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44、及びリレーレンズ45を経由してダイクロイックミラー46に導かれる。ダイクロイックミラー46に導かれてきた平行光は、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに投射される。測定光LSは、被検眼E(特に眼底Ef)の様々な深さ位置において散乱及び反射されて後方散乱光を生じる。被検眼Eからの測定光LSの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ103に導かれる。 On the other hand, the measurement light LS generated by the fiber coupler 103 is guided to the collimating lens unit 40 through the optical fiber 109 and emitted as parallel light. The exit end (entrance end) of the optical fiber 109 connected to the collimating lens unit 40 is aligned to be optically conjugate with the measurement site of the test eye E (e.g., the fundus Ef) or in its vicinity. The parallel light emitted from the exit end of the collimating lens unit 40 is guided to the dichroic mirror 46 via the optical path length change unit 41, the optical scanner 42, the OCT focusing lens 43, the mirror 44, and the relay lens 45. The parallel light guided to the dichroic mirror 46 is reflected by the dichroic mirror 46, refracted by the objective lens 22, and projected onto the test eye E. The measurement light LS is scattered and reflected at various depth positions of the test eye E (especially the fundus Ef) to generate backscattered light. The return light of the measurement light LS from the test eye E travels in the opposite direction along the same path as the outward path and is guided to the fiber coupler 103.

参照光LRの光路に遮蔽部材130が配置されたとき、参照光LRが遮蔽部材130により遮断される。このとき、コリメートレンズユニット107からの参照光LRがファイバカプラ103に到達せず、コリメートレンズユニット40からの測定光LSの戻り光がファイバカプラ103からそのまま光ファイバ110を通じて出射端111から出射される。出射端111から出射された測定光LSの戻り光は、コリメートレンズ112により平行光に変換される。 When the shielding member 130 is placed in the optical path of the reference light LR, the reference light LR is blocked by the shielding member 130. At this time, the reference light LR from the collimating lens unit 107 does not reach the fiber coupler 103, and the return light of the measurement light LS from the collimating lens unit 40 is emitted directly from the fiber coupler 103 through the optical fiber 110 and from the output end 111. The return light of the measurement light LS emitted from the output end 111 is converted into parallel light by the collimating lens 112.

参照光LRの光路から遮蔽部材130が退避されたとき、参照光LRが参照ミラー108に導かれる。このとき、参照光LRは、参照ミラー108により反射され、コリメートレンズユニット107に入射し、偏波コントローラ106、及びアッテネータ105を経由して、光ファイバ104を通じてファイバカプラ103に導かれる。ファイバカプラ103は、参照ミラー108により反射されて参照光路を経由した参照光LRと測定光LSの戻り光とを重ね合わせて干渉光LCを生成する。干渉光LCは、光ファイバ110の出射端111から出射され、コリメートレンズ112により平行光に変換される。 When the shielding member 130 is removed from the optical path of the reference light LR, the reference light LR is guided to the reference mirror 108. At this time, the reference light LR is reflected by the reference mirror 108, enters the collimating lens unit 107, passes through the polarization controller 106 and the attenuator 105, and is guided to the fiber coupler 103 through the optical fiber 104. The fiber coupler 103 generates interference light LC by superimposing the reference light LR, which has been reflected by the reference mirror 108 and passed through the reference optical path, and the return light of the measurement light LS. The interference light LC is output from the output end 111 of the optical fiber 110, and is converted into parallel light by the collimating lens 112.

すなわち、光ファイバ110の出射端111から、干渉光学系の出力光として、被検眼Eからの測定光LSの戻り光、又は、干渉光LCが出射される。 That is, the return light of the measurement light LS from the test eye E or the interference light LC is emitted from the output end 111 of the optical fiber 110 as output light of the interference optical system.

コリメートレンズ112により平行光に変換された出力光の光路に、回折格子113が配置されている。回折格子113は、コリメートレンズ112により平行光に変換された干渉光LC又は測定光LSの戻り光を分光する。回折格子113により分光された光は、集光レンズ114によりイメージセンサ115の受光面に結像する。 A diffraction grating 113 is disposed in the optical path of the output light converted into parallel light by the collimating lens 112. The diffraction grating 113 separates the return light of the interference light LC or the measurement light LS converted into parallel light by the collimating lens 112. The light separated by the diffraction grating 113 is focused on the light receiving surface of the image sensor 115 by the condenser lens 114.

イメージセンサ115は、光検出器である。この実施形態では、イメージセンサ115は、例えば、回折格子113に形成された格子パターンの配列方向に対応した方向に2以上の受光素子が配列されたラインセンサである。いくつかの実施形態では、イメージセンサ115は、エリアセンサである。イメージセンサ115は、干渉光LC又は測定光LSの戻り光の複数のスペクトル成分(波長成分)を受光素子アレイにより別々に検出して検出信号(検出データ)を生成する。生成された検出信号は演算制御ユニット200に送られる。演算制御ユニット200は、後述のように、イメージセンサ115により取得された検出信号に基づいて、被検眼Eの断層画像などのOCT画像、又は、正面画像などのSLO画像を形成し、表示装置3に表示させる。 The image sensor 115 is a photodetector. In this embodiment, the image sensor 115 is, for example, a line sensor in which two or more light receiving elements are arranged in a direction corresponding to the arrangement direction of the grating pattern formed on the diffraction grating 113. In some embodiments, the image sensor 115 is an area sensor. The image sensor 115 detects multiple spectral components (wavelength components) of the interference light LC or the return light of the measurement light LS separately using a light receiving element array to generate a detection signal (detection data). The generated detection signal is sent to the arithmetic and control unit 200. As described later, the arithmetic and control unit 200 forms an OCT image such as a tomographic image of the subject's eye E or an SLO image such as a front image based on the detection signal acquired by the image sensor 115, and displays it on the display device 3.

この実施形態では、眼科装置1は、光画像形成ユニット100を用いた複数の動作モードで動作する。複数の動作モードは、断層画像などのOCT画像を取得するOCT画像取得モードと、正面画像などのSLO画像を取得するSLO画像取得モードとを含む。 In this embodiment, the ophthalmic apparatus 1 operates in multiple operation modes using the optical image forming unit 100. The multiple operation modes include an OCT image acquisition mode for acquiring OCT images such as tomographic images, and an SLO image acquisition mode for acquiring SLO images such as frontal images.

本例では、光路長変更部41により測定光LSの光路(測定光路、測定アーム)の長さを変更すると共に、参照ミラー108により参照光LRの光路(参照光路、参照アーム)の長さを変更することが可能に構成される場合について説明した。しかしながら、実施形態に係る構成はこれに限定されるものではない。例えば、測定光LSの光路及び参照光LRの光路の一方の長さを変更するようにしてもよい。また、これら以外の光学部材を用いて、測定光路長と参照光路長との差を変更することも可能である。 In this example, a case has been described in which the optical path length change unit 41 can change the length of the optical path (measurement optical path, measurement arm) of the measurement light LS, and the reference mirror 108 can change the length of the optical path (reference optical path, reference arm) of the reference light LR. However, the configuration according to the embodiment is not limited to this. For example, the length of one of the optical paths of the measurement light LS and the reference light LR may be changed. It is also possible to change the difference between the measurement optical path length and the reference optical path length using optical components other than these.

〔制御系〕
図3、及び図4に、眼科装置1の制御系(処理系)の構成例を示す。図3、及び図4において、眼科装置1に含まれる構成要素の一部が省略されている。図3は、眼科装置1の制御系の機能ブロック図の一例を表す。図3において、図1~図2と同様の部分には同一符号を付し、適宜説明を省略する。図4は、図3の画像形成部220の機能ブロック図の一例を表す。
[Control system]
3 and 4 show an example of the configuration of the control system (processing system) of the ophthalmic apparatus 1. Some of the components included in the ophthalmic apparatus 1 are omitted in FIGS. 3 and 4. FIG. 3 shows an example of a functional block diagram of the control system of the ophthalmic apparatus 1. In FIG. 3, the same parts as those in FIGS. 1 and 2 are denoted by the same reference numerals, and descriptions thereof will be omitted as appropriate. FIG. 4 shows an example of a functional block diagram of the image forming unit 220 in FIG. 3.

制御部210、画像形成部220及びデータ処理部230は、例えば、演算制御ユニット200に設けられる。 The control unit 210, image forming unit 220 and data processing unit 230 are provided, for example, in the arithmetic control unit 200.

(制御部210)
制御部210は、各種の制御を実行する。制御部210は、主制御部211と記憶部212とを含む。
(Control unit 210)
The control unit 210 executes various types of control and includes a main control unit 211 and a storage unit 212.

(主制御部211)
主制御部211は、プロセッサ(例えば、制御プロセッサ)を含み、眼科装置1の各部(図1~図2に示された各要素を含む)を制御する。例えば、主制御部211は、図1~図2に示す眼底カメラユニット2の光学系の各部、光画像形成ユニット100の光学系の各部、上記の光学系を移動する移動機構170、画像形成部220、データ処理部230、及びユーザーインターフェイス(User Interface:UI)240を制御する。
(Main control unit 211)
The main controller 211 includes a processor (e.g., a control processor) and controls each part (including each element shown in Fig. 1 and Fig. 2) of the ophthalmic apparatus 1. For example, the main controller 211 controls each part of the optical system of the fundus camera unit 2 shown in Fig. 1 and Fig. 2, each part of the optical system of the optical image forming unit 100, the moving mechanism 170 that moves the above optical systems, the image forming unit 220, the data processing unit 230, and a user interface (UI) 240.

眼底カメラユニット2に対する制御には、合焦駆動部31A、43Aに対する制御、イメージセンサ35、38に対する制御、LCD39に対する制御、光路長変更部41に対する制御、及び光スキャナ42に対する制御が含まれる。 The control of the fundus camera unit 2 includes control of the focusing drive units 31A and 43A, control of the image sensors 35 and 38, control of the LCD 39, control of the optical path length change unit 41, and control of the optical scanner 42.

合焦駆動部31Aに対する制御には、撮影合焦レンズ31を光軸方向に移動する制御が含まれる。合焦駆動部43Aに対する制御には、OCT合焦レンズ43を光軸方向に移動する制御が含まれる。 The control of the focusing drive unit 31A includes control to move the imaging focusing lens 31 in the optical axis direction. The control of the focusing drive unit 43A includes control to move the OCT focusing lens 43 in the optical axis direction.

イメージセンサ35、38に対する制御には、撮像素子に対する受光感度の制御、フレームレート(受光タイミング、露光時間)の制御、受光領域(位置、大きさ、サイズ)の制御、撮像素子に対する受光結果の読み出し制御などがある。 Control of image sensors 35 and 38 includes control of the light receiving sensitivity of the imaging element, control of the frame rate (light receiving timing, exposure time), control of the light receiving area (position, size, dimension), and control of reading out the light receiving results for the imaging element.

LCD39に対する制御には、固視位置の制御が含まれる。例えば、主制御部211は、手動又は自動で設定された固視位置に対応するLCD39の画面上の位置に固視標を表示する。また、主制御部211は、LCD39に表示されている固視標の表示位置を(連続的に又は段階的に)変更することができる。それにより、固視標を移動することができる(つまり、固視位置を変更することができる)。固視標の表示位置や移動態様は、マニュアルで又は自動的に設定される。マニュアルでの設定は、例えばGUIを用いて行われる。自動的な設定は、例えば、データ処理部230により行われる。 The control of the LCD 39 includes control of the fixation position. For example, the main control unit 211 displays a fixation target at a position on the screen of the LCD 39 that corresponds to the fixation position that has been set manually or automatically. The main control unit 211 can also change (continuously or stepwise) the display position of the fixation target displayed on the LCD 39. This makes it possible to move the fixation target (i.e., to change the fixation position). The display position and movement mode of the fixation target are set manually or automatically. Manual setting is performed, for example, using a GUI. Automatic setting is performed, for example, by the data processing unit 230.

光路長変更部41に対する制御には、測定光LSの光路長を変更する制御が含まれる。主制御部211は、光路長変更部41のコーナーキューブを駆動する駆動部を制御することで測定光LSの光路に沿って光路長変更部41を移動し、測定光LSの光路長を変更する。 The control over the optical path length changing unit 41 includes control to change the optical path length of the measurement light LS. The main control unit 211 controls a drive unit that drives the corner cube of the optical path length changing unit 41 to move the optical path length changing unit 41 along the optical path of the measurement light LS, thereby changing the optical path length of the measurement light LS.

光スキャナ42に対する制御には、スキャンモード、スキャン範囲(スキャン開始位置、スキャン終了位置)、スキャン速度などの制御がある。主制御部211は、光スキャナ42に対する制御を行うことで、計測部位(撮影部位)における所望の領域に対して測定光LSでOCTスキャンを実行することができる。 The control of the optical scanner 42 includes control of the scan mode, scan range (scan start position, scan end position), scan speed, etc. By controlling the optical scanner 42, the main controller 211 can perform an OCT scan with the measurement light LS on a desired area in the measurement site (image capture site).

また、主制御部211は、観察光源11、撮影光源15、アライメント光学系50、フォーカス光学系60などを制御することが可能である。 The main control unit 211 can also control the observation light source 11, the imaging light source 15, the alignment optical system 50, the focus optical system 60, etc.

光画像形成ユニット100に対する制御には、光源ユニット101に対する制御、アッテネータ105に対する制御、偏波コントローラ106に対する制御、参照駆動部108Aに対する制御、遮蔽機構130Aに対する制御、イメージセンサ115に対する制御などが含まれる。 Control over the optical image forming unit 100 includes control over the light source unit 101, control over the attenuator 105, control over the polarization controller 106, control over the reference drive unit 108A, control over the shielding mechanism 130A, and control over the image sensor 115.

光源ユニット101に対する制御には、光源ユニット101に含まれる広帯域光源のオン及びオフの制御、広帯域光源から出射される光の光量の制御、広帯域光源から出射される光の中心波長の制御などがある。 Control over the light source unit 101 includes controlling the on and off of the broadband light source included in the light source unit 101, controlling the amount of light emitted from the broadband light source, and controlling the central wavelength of the light emitted from the broadband light source.

アッテネータ105は、主制御部211の制御の下に、参照光LRの光量の調整を行う。 The attenuator 105 adjusts the light intensity of the reference light LR under the control of the main control unit 211.

偏波コントローラ106は、主制御部211の制御の下に、参照光LRの偏波状態の調整を行う。 The polarization controller 106 adjusts the polarization state of the reference light LR under the control of the main control unit 211.

参照駆動部108Aは、主制御部211からの制御の下に、参照光LRの光路に沿って参照ミラー108を移動する。 The reference driver 108A moves the reference mirror 108 along the optical path of the reference light LR under the control of the main controller 211.

遮蔽機構130Aは、主制御部211からの制御の下に、コリメートレンズユニット107と参照ミラー108との間の参照光LRの光路に対して遮蔽部材130を挿脱させる。遮蔽機構130Aは、OCT画像取得モードにおいて参照光LRの光路から遮蔽部材130を退避させ、SLO画像取得モードにおいて参照光LRの光路に遮蔽部材130を配置させる。 Under the control of the main controller 211, the shielding mechanism 130A inserts and removes the shielding member 130 from the optical path of the reference light LR between the collimator lens unit 107 and the reference mirror 108. The shielding mechanism 130A retracts the shielding member 130 from the optical path of the reference light LR in the OCT image acquisition mode, and places the shielding member 130 in the optical path of the reference light LR in the SLO image acquisition mode.

イメージセンサ115に対する制御には、受光素子に対する受光感度の制御、フレームレート(受光タイミング)の制御、受光領域(位置、大きさ、サイズ)の制御、受光素子に対する受光結果の読み出し制御などがある。受光素子に対する受光結果の読み出し制御には、受光結果が読み出される受光素子の選択制御が含まれる。 Control over the image sensor 115 includes control over the light receiving sensitivity of the light receiving elements, control over the frame rate (light receiving timing), control over the light receiving area (position, size, etc.), and control over reading out the light receiving results from the light receiving elements. The control over reading out the light receiving results from the light receiving elements includes control over the selection of the light receiving elements from which the light receiving results are read out.

移動機構170は、例えば、少なくとも眼底カメラユニット2(光学系)を3次元的に移動する。典型的な例において、移動機構170は、少なくとも眼底カメラユニット2をx方向(左右方向)に移動するための機構と、y方向(上下方向)に移動するための機構と、z方向(奥行き方向、前後方向)に移動するための機構とを含む。x方向に移動するための機構は、例えば、x方向に移動可能なxステージと、xステージを移動するx移動機構とを含む。y方向に移動するための機構は、例えば、例えば、y方向に移動可能なyステージと、yステージを移動するy移動機構とを含む。z方向に移動するための機構は、例えば、z方向に移動可能なzステージと、zステージを移動するz移動機構とを含む。各移動機構は、アクチュエータとしてのパルスモータを含み、主制御部211からの制御を受けて動作する。 The moving mechanism 170, for example, moves at least the fundus camera unit 2 (optical system) three-dimensionally. In a typical example, the moving mechanism 170 includes at least a mechanism for moving the fundus camera unit 2 in the x direction (left-right direction), a mechanism for moving in the y direction (up-down direction), and a mechanism for moving in the z direction (depth direction, front-back direction). The mechanism for moving in the x direction includes, for example, an x stage that can move in the x direction, and an x movement mechanism that moves the x stage. The mechanism for moving in the y direction includes, for example, a y stage that can move in the y direction, and a y movement mechanism that moves the y stage. The mechanism for moving in the z direction includes, for example, a z stage that can move in the z direction, and a z movement mechanism that moves the z stage. Each moving mechanism includes a pulse motor as an actuator, and operates under the control of the main control unit 211.

移動機構170に対する制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとフォーカス調整が実行される。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。いくつかの実施形態では、参照光の光路長(よって、測定光の光路と参照光の光路との間の光路長差)を変更するために移動機構170の制御を行うように構成される。 The control of the moving mechanism 170 is used for alignment and tracking. Tracking refers to moving the device optical system in accordance with the eye movement of the subject's eye E. When tracking is performed, alignment and focus adjustment are performed in advance. Tracking is a function that maintains a suitable positional relationship with alignment and focus by making the position of the device optical system follow the eye movement. In some embodiments, the moving mechanism 170 is configured to be controlled to change the optical path length of the reference light (and therefore the optical path length difference between the optical path of the measurement light and the optical path of the reference light).

マニュアルアライメントの場合、光学系に対する被検眼Eの変位がキャンセルされるように検者等のユーザーがユーザーインターフェイス240に対して操作することにより光学系と被検眼Eとを相対移動させる。例えば、主制御部211は、ユーザーインターフェイス240に対する操作内容に対応した制御信号を移動機構170に出力することにより移動機構170を制御して被検眼Eに対して光学系を相対移動させる。 In the case of manual alignment, a user such as an examiner operates the user interface 240 to move the optical system relative to the subject's eye E so that the displacement of the subject's eye E relative to the optical system is cancelled. For example, the main control unit 211 controls the movement mechanism 170 by outputting a control signal corresponding to the operation content on the user interface 240 to the movement mechanism 170 to move the optical system relative to the subject's eye E.

オートアライメントの場合、光学系に対する被検眼Eの変位がキャンセルされるように主制御部211が移動機構170を制御することにより被検眼Eに対して光学系を相対移動させる。具体的には、主制御部211は、アライメント光学系50のLED51から出力された光(アライメント光)を被検眼Eに投影することにより形成された受光像の位置を特定する。主制御部211は、所定のアライメント基準位置(例えば、光学系の光軸の相当する位置)に対する受光像の変位をキャンセルし、光学系に対する被検眼Eの位置関係が所定の位置関係になるように移動機構170を制御する。いくつかの実施形態では、主制御部211は、光学系の光軸が被検眼Eの軸に略一致し、且つ、被検眼Eに対する光学系の距離が所定の作動距離になるように制御信号を移動機構170に出力することにより移動機構170を制御して被検眼Eに対して光学系を相対移動させる。ここで、作動距離とは、対物レンズ22のワーキングディスタンスとも呼ばれる既定値であり、光学系を用いた測定時(撮影時)における被検眼Eと光学系との間の距離に相当する。 In the case of auto-alignment, the main controller 211 controls the moving mechanism 170 to move the optical system relative to the subject's eye E so that the displacement of the subject's eye E relative to the optical system is canceled. Specifically, the main controller 211 specifies the position of the received image formed by projecting the light (alignment light) output from the LED 51 of the alignment optical system 50 onto the subject's eye E. The main controller 211 cancels the displacement of the received image relative to a predetermined alignment reference position (e.g., a position corresponding to the optical axis of the optical system) and controls the moving mechanism 170 so that the positional relationship of the subject's eye E relative to the optical system becomes a predetermined positional relationship. In some embodiments, the main controller 211 controls the moving mechanism 170 to move the optical system relative to the subject's eye E by outputting a control signal to the moving mechanism 170 so that the optical axis of the optical system approximately coincides with the axis of the subject's eye E and the distance of the optical system relative to the subject's eye E is a predetermined working distance. Here, the working distance is a preset value also called the working distance of the objective lens 22, and corresponds to the distance between the subject's eye E and the optical system during measurement (photography) using the optical system.

また、主制御部211は、表示制御部として、各種情報を表示部241に表示させることが可能である。例えば、主制御部211は、眼底カメラユニット2を用いて取得された眼底画像又は前眼部画像、光画像形成ユニット100を用いて取得された画像、又は後述のデータ処理部230により得られたデータ処理結果(解析処理結果)を表示部241に表示させる。ここで、光画像形成ユニット100を用いて取得された画像には、断層画像と正面画像とが含まれる。断層画像は、被検眼Eの深さ方向の形態を表すOCT画像である。正面画像には、OCT画像取得モードにおいて取得されるen-face画像などのOCT画像の他に、SLO画像取得モードにおいて取得されるSLO画像が含まれる。いくつかの実施形態では、主制御部211は、眼底画像(又は前眼部画像)、OCT画像、及びSLO画像の少なくとも1つに、データ処理結果を対応付けて表示部241に表示させる。 The main controller 211, as a display controller, can display various information on the display unit 241. For example, the main controller 211 displays on the display unit 241 a fundus image or anterior segment image acquired using the fundus camera unit 2, an image acquired using the optical image forming unit 100, or a data processing result (analysis processing result) acquired by the data processing unit 230 described later. Here, the image acquired using the optical image forming unit 100 includes a tomographic image and a front image. The tomographic image is an OCT image that represents the morphology of the subject's eye E in the depth direction. The front image includes an SLO image acquired in the SLO image acquisition mode in addition to an OCT image such as an en-face image acquired in the OCT image acquisition mode. In some embodiments, the main controller 211 causes the display unit 241 to display the data processing result in association with at least one of the fundus image (or anterior segment image), the OCT image, and the SLO image.

(記憶部212)
記憶部212は各種のデータを記憶する。記憶部212の機能は、メモリ又は記憶装置等の記憶デバイスにより実現される。記憶部212に記憶されるデータとしては、例えば、眼底画像の画像データ、前眼部画像の画像データ、OCTデータ(OCT画像を含む)、SLOデータ(光画像形成ユニット100を用いて取得された正面画像を含む)被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報、電子カルテ情報などの被検眼に関する情報を含む。記憶部212には、各種のプロセッサ(制御プロセッサ、画像形成プロセッサ、データ処理プロセッサ)を実行させるためのプログラムが記憶される。
(Memory unit 212)
The storage unit 212 stores various data. The functions of the storage unit 212 are realized by a storage device such as a memory or a storage device. Examples of data stored in the storage unit 212 include image data of a fundus image, image data of an anterior eye image, OCT data (including an OCT image), SLO data (including a front image acquired using the optical image forming unit 100), and information on the subject's eye. The information on the subject's eye includes information on the subject such as a patient ID and name, identification information for the left eye/right eye, and information on the subject's eye such as electronic medical record information. The storage unit 212 stores programs for executing various processors (control processor, image forming processor, data processing processor).

(画像形成部220)
画像形成部220は、プロセッサ(例えば、画像形成プロセッサ)を含み、イメージセンサ115からの出力(検出データ)に基づいて、被検眼Eの断層画像と正面画像とを形成する。
(Image forming unit 220)
The image forming section 220 includes a processor (eg, an image forming processor) and forms a tomographic image and a front image of the subject's eye E based on the output (detection data) from the image sensor 115 .

図4に、実施形態に係る画像形成部220の構成例のブロック図を示す。 Figure 4 shows a block diagram of an example of the configuration of the image forming unit 220 according to an embodiment.

画像形成部220は、OCT画像形成部221と、SLO画像形成部222とを含む。 The image forming unit 220 includes an OCT image forming unit 221 and an SLO image forming unit 222.

OCT画像形成部221は、イメージセンサ115により得られた検出データに基づいて、OCT画像を形成する。OCT画像には、断層画像、en-face画像などが含まれる。SLO画像形成部222は、イメージセンサ115により得られた検出データに基づいて、SLO画像を形成する。SLO画像は、正面画像を含む。 The OCT image forming unit 221 forms an OCT image based on the detection data obtained by the image sensor 115. The OCT image includes a tomographic image, an en-face image, etc. The SLO image forming unit 222 forms an SLO image based on the detection data obtained by the image sensor 115. The SLO image includes a front image.

例えば、OCT画像形成部221は、従来のスペクトラルドメインOCTと同様に、AラインごとのOCTデータに基づくスペクトル分布に信号処理を施してAラインごとの反射強度プロファイル(Aラインプロファイル)を生成する。具体的には、イメージセンサ115は、回折格子113により分光された光を受光することで、Aラインごとに、等波長間隔の検出データを検出する。OCT画像形成部221は、Aラインごとに、イメージセンサ115から等波長間隔の検出データを取得し、取得された検出データに対して等波数間隔の検出データに変換するリスケーリング処理を施す。OCT画像形成部221は、更に、等波数間隔に変換された検出データに対してフーリエ変換処理を施すことにより、被検眼Eの測定光LSの入射位置における戻り光(後方散乱光)の強度プロファイル(反射強度プロファイル)を生成する。Aラインプロファイルを生成するための信号処理には、上記のフーリエ変換を行うための高速フーリエ変換(Fast Fourier Transform:FFT)の他に、ノイズリダクション(デノイジング)、フィルタリングなどが含まれる。更に、OCT画像形成部221は、生成された各Aラインプロファイルを画像化して複数のAスキャン画像データを生成し、これらAスキャン画像データをスキャンパターン(複数のスキャン点の配置)にしたがって配列する。 For example, the OCT image forming unit 221 performs signal processing on the spectral distribution based on the OCT data for each A-line to generate a reflection intensity profile (A-line profile) for each A-line, similar to conventional spectral domain OCT. Specifically, the image sensor 115 receives light dispersed by the diffraction grating 113 to detect detection data with equal wavelength intervals for each A-line. The OCT image forming unit 221 acquires detection data with equal wavelength intervals from the image sensor 115 for each A-line, and performs rescaling processing on the acquired detection data to convert it into detection data with equal wavenumber intervals. The OCT image forming unit 221 further performs Fourier transform processing on the detection data converted to equal wavenumber intervals to generate an intensity profile (reflection intensity profile) of the return light (backscattered light) at the incident position of the measurement light LS of the subject's eye E. The signal processing for generating the A-line profile includes the Fast Fourier Transform (FFT) for performing the Fourier transform described above, as well as noise reduction (denoising) and filtering. Furthermore, the OCT image forming unit 221 images each of the generated A-line profiles to generate multiple A-scan image data, and arranges the A-scan image data according to a scan pattern (arrangement of multiple scan points).

例えば、SLO画像形成部222は、光スキャナ42により測定光LSを偏向することで被検眼Eにおける測定光のLSの照射位置を移動しつつ、各照射位置からの測定光LSの戻り光を受光したイメージセンサ115からの検出データを順次に取得するように構成される。SLO画像形成部222は、各画素にイメージセンサ115からの検出データに対応した画素値を割り当てることで、測定光LSを用いたスキャン範囲に対応するSLO画像を形成する。 For example, the SLO image forming unit 222 is configured to move the irradiation position of the measurement light LS on the subject's eye E by deflecting the measurement light LS with the optical scanner 42, and sequentially acquire detection data from the image sensor 115 that receives the return light of the measurement light LS from each irradiation position. The SLO image forming unit 222 forms an SLO image corresponding to the scan range using the measurement light LS by assigning to each pixel a pixel value corresponding to the detection data from the image sensor 115.

このようなSLO画像形成部222は、図4に示すように、ビニング処理部222Aを含む。すなわち、この実施形態では、データビニング処理が実行される。しかしながら、実施形態に係る構成において、ピクセルビニング処理が実行されてもよい。 As shown in FIG. 4, such an SLO image forming unit 222 includes a binning processing unit 222A. That is, in this embodiment, data binning processing is performed. However, in the configuration according to the embodiment, pixel binning processing may also be performed.

ビニング処理部222Aは、イメージセンサ115からの検出データに対してビニング処理を施す。ここで、ビニング処理は、2以上の受光素子により得られた2以上の受光結果を合成する処理である。2以上の受光結果を合成する処理の例として、加算処理、重み付け加算処理などがある。例えば、2以上の受光結果に対して重み付け加算処理を行うことで、重み付け係数によりビニング処理対象の受光結果を選択するようにしてもよい。 The binning processing unit 222A performs binning processing on the detection data from the image sensor 115. Here, the binning processing is a process of combining two or more light reception results obtained by two or more light receiving elements. Examples of the process of combining two or more light reception results include addition processing and weighted addition processing. For example, by performing weighted addition processing on two or more light reception results, the light reception results to be subjected to the binning processing may be selected using a weighting coefficient.

ビニング処理部222Aは、イメージセンサ115に含まれる2以上の受光素子の受光結果(検出データ)の一部又全部に対してビニング処理を施すことが可能である。例えば、ビニング処理部222Aは、イメージセンサ115に含まれる2以上の受光素子の中から選択された2以上の受光素子の受光結果に対してビニング処理を施すことが可能である。 The binning processing unit 222A can perform binning processing on some or all of the light reception results (detection data) of two or more light receiving elements included in the image sensor 115. For example, the binning processing unit 222A can perform binning processing on the light reception results of two or more light receiving elements selected from the two or more light receiving elements included in the image sensor 115.

図5に、実施形態に係るSLO画像形成部222の第1動作例を説明するための図を模式的に示す。図5では、イメージセンサ115はn(nは、2以上の整数)個の受光素子が配列されたラインセンサであり、n個の受光素子により検出データDT(受光結果d~d)が取得されたものとする。 5 is a schematic diagram for explaining a first operation example of the SLO image forming unit 222 according to the embodiment. In Fig. 5, the image sensor 115 is a line sensor in which n (n is an integer of 2 or more) light receiving elements are arranged, and detection data DT (light receiving results d1 to dn ) are acquired by the n light receiving elements.

SLO画像形成部222は、イメージセンサ115におけるn個の受光素子(2以上の受光素子)における全受光結果d~dに対するビニング処理結果に対応した画素情報を画素ごとに割り当てることで単一のSLO画像SIMGを形成することが可能である。 The SLO image forming unit 222 is capable of forming a single SLO image SIMG by assigning pixel information corresponding to the binning processing results for all light receiving results d 1 to d n of n light receiving elements (two or more light receiving elements) in the image sensor 115 to each pixel.

具体的には、ビニング処理部222Aは、画素ごとに、イメージセンサ115のn個の受光素子において取得された取得された受光結果d~dのそれぞれを加算するビニング処理を実行する。SLO画像形成部222は、画像内の開始位置(x,y)=(0,0)から順次に、ビニング処理結果に対応した画素情報(画素値、輝度値)を画素ごとに割り当てることで、SLO画像SIMGを形成する。 Specifically, the binning processing unit 222A executes a binning process of adding, for each pixel, the light receiving results d 1 to d n acquired by the n light receiving elements of the image sensor 115. The SLO image forming unit 222 forms an SLO image SIMG by assigning pixel information (pixel value, luminance value) corresponding to the binning process result to each pixel, sequentially from the start position (x, y) = (0, 0) in the image.

図6に、実施形態に係るSLO画像形成部222の第2動作例を説明するための図を模式的に示す。図6において、図5と同様の部分には同一符号を付し、適宜説明する。 Figure 6 is a schematic diagram for explaining a second operation example of the SLO image forming unit 222 according to the embodiment. In Figure 6, parts similar to those in Figure 5 are given the same reference numerals and will be explained as appropriate.

SLO画像形成部222は、イメージセンサ115におけるn個の受光素子のn個の受光結果d~dに対応した画素情報を互いに異なるSLO画像の画素ごとに割り当てることでn枚のSLO画像SIMG~SIMGを形成することが可能である。SLO画像SIMG~SIMGは、各波長成分に対応したn枚の分光画像からなるハイパースペクトル画像である。 The SLO image forming unit 222 can form n SLO images SIMG 1 to SIMG n by assigning pixel information corresponding to n light receiving results d 1 to d n of n light receiving elements in the image sensor 115 to each pixel of different SLO images. The SLO images SIMG 1 to SIMG n are hyperspectral images made up of n spectral images corresponding to each wavelength component.

具体的には、SLO画像形成部222は、各画像内の開始位置(x,y)=(0,0)の画素に、検出データDTにおける受光結果dに対応した画素情報をSLO画像SIMGに割り当て、受光結果dに対応した画素情報をSLO画像SIMGに割り当て、・・・、受光結果dに対応した画素情報をSLO画像SIMGに割り当てる。続いて、SLO画像形成部222は、各画像内の次の画素に、検出データDTにおける受光結果dに対応した画素情報をSLO画像SIMGに割り当て、受光結果dに対応した画素情報をSLO画像SIMGに割り当て、・・・、受光結果dに対応した画素情報をSLO画像SIMGに割り当てる。このように、各SLO画像内の画素ごとに、順次に、2以上の受光結果のそれぞれに対応した画素情報を割り当てることで、2以上のSLO画像を形成することができる。これにより、回折格子113により分光された波長成分に対応したハイパースペクトル画像が形成される。 Specifically, the SLO image forming unit 222 assigns pixel information corresponding to the light reception result d1 in the detection data DT to the SLO image SIMG1 , assigns pixel information corresponding to the light reception result d2 to the SLO image SIMG2, ..., assigns pixel information corresponding to the light reception result dn to the SLO image SIMGn , for the pixel at the start position (x, y) = (0, 0 ) in each image. Next, the SLO image forming unit 222 assigns pixel information corresponding to the light reception result d1 in the detection data DT to the SLO image SIMG1 , assigns pixel information corresponding to the light reception result d2 to the SLO image SIMG2 , ..., assigns pixel information corresponding to the light reception result dn to the SLO image SIMGn, for the next pixel in each image. In this way, by sequentially assigning pixel information corresponding to each of two or more light reception results to each pixel in each SLO image, two or more SLO images can be formed. As a result, a hyperspectral image corresponding to the wavelength components dispersed by the diffraction grating 113 is formed.

図7に、実施形態に係るSLO画像形成部222の第3動作例を説明するための図を模式的に示す。図7において、図5と同様の部分には同一符号を付し、適宜説明する。 Figure 7 is a schematic diagram for explaining a third operation example of the SLO image forming unit 222 according to the embodiment. In Figure 7, parts similar to those in Figure 5 are given the same reference numerals and will be explained as appropriate.

SLO画像形成部222は、イメージセンサ115におけるn個の受光素子を、互いに隣接する2以上の受光素子により構成される複数の受光素子群に分割し、複数の受光素子群毎に受光素子の受光結果に対してビニング処理を行い、ビニング処理結果に対応した画素情報を画素ごとに割り当てることで、2以上の分光画像としての2以上のSLO画像を形成する。図7は、説明の便宜上、3個の受光素子により構成される複数の受光素子群に分割する例を表す。 The SLO image forming unit 222 divides the n light receiving elements in the image sensor 115 into multiple light receiving element groups each consisting of two or more adjacent light receiving elements, performs binning processing on the light receiving results of the light receiving elements for each of the multiple light receiving element groups, and assigns pixel information corresponding to the binning processing result to each pixel, thereby forming two or more SLO images as two or more spectral images. For ease of explanation, FIG. 7 shows an example of division into multiple light receiving element groups each consisting of three light receiving elements.

具体的には、SLO画像形成部222は、検出データDTにおける受光結果d~dのそれぞれを加算することでビニング処理を実行し、受光結果d~dのそれぞれを加算することでビニング処理を実行し、・・・、受光結果dn-2~dのそれぞれを加算することでビニング処理を実行する。SLO画像形成部222は、各画像内の開始位置(x,y)=(0,0)から順次に、受光結果d~dのビニング処理結果に対応した画素情報をSLO画像SIMGに割り当て、受光結果d~dのビニング処理結果に対応した画素情報をSLO画像SIMGに割り当て、・・・、受光結果dn-2~dのビニング処理結果に対応した画素情報をSLO画像SIMG(2≦m<n、mは整数)に割り当てる。 Specifically, the SLO image forming unit 222 performs binning processing by adding each of the light reception results d 1 to d 3 in the detection data DT, performs binning processing by adding each of the light reception results d 4 to d 6 , ..., performs binning processing by adding each of the light reception results d n-2 to d n . The SLO image forming unit 222 sequentially assigns pixel information corresponding to the binning processing results of the light reception results d 1 to d 3 to the SLO image SIMG 1 , assigns pixel information corresponding to the binning processing results of the light reception results d 4 to d 6 to the SLO image SIMG 2 , ..., assigns pixel information corresponding to the binning processing results of the light reception results d n-2 to d n to the SLO image SIMG m (2≦m<n, m is an integer) in each image.

これにより、複数の波長成分群ごとに2以上の分光画像を形成することができる。 This allows two or more spectral images to be formed for each group of wavelength components.

図8に、実施形態に係るSLO画像形成部222の第4動作例を説明するための図を模式的に示す。図8において、図5と同様の部分には同一符号を付し、適宜説明する。 Figure 8 is a schematic diagram for explaining a fourth operation example of the SLO image forming unit 222 according to the embodiment. In Figure 8, parts similar to those in Figure 5 are given the same reference numerals and will be explained as appropriate.

SLO画像形成部222は、イメージセンサ115におけるn個の受光素子の中から選択された2以上の受光素子の受光結果に対してビニング処理を行い、ビニング処理結果に対応した画素情報を画素ごとに割り当てることで単一のSLO画像を形成する。選択される2以上の受光素子は、あらかじめ決められてもよいし、主制御部211により事後的に決められてもよい。図8は、説明の便宜上、受光結果d~d(1≦p,q≦n、p<q、p、qは整数)が選択されているものとする。 The SLO image forming unit 222 performs binning processing on the light receiving results of two or more light receiving elements selected from the n light receiving elements in the image sensor 115, and forms a single SLO image by assigning pixel information corresponding to the binning processing result to each pixel. The two or more light receiving elements to be selected may be determined in advance or may be determined ex post by the main control unit 211. For convenience of explanation, in FIG. 8, it is assumed that light receiving results d p to d q (1≦p, q≦n, p<q, p and q are integers) have been selected.

具体的には、ビニング処理部222Aは、画素ごとに、イメージセンサ115のn個の受光素子において取得された受光結果d~dのうち受光結果d~dのそれぞれを加算することでビニング処理を実行する。SLO画像形成部222は、受光結果d~dに対するビニング処理結果に対応した画素情報を画素ごとに割り当てることで単一のSLO画像SIMGを形成することが可能である。 Specifically, the binning processing unit 222A performs binning processing by adding, for each pixel, each of the light reception results dp to dq among the light reception results d1 to dn acquired by the n light receiving elements of the image sensor 115. The SLO image forming unit 222 can form a single SLO image SIMG by assigning, for each pixel, pixel information corresponding to the binning processing results for the light reception results dp to dq .

図9に、実施形態に係るSLO画像形成部222の第5動作例を説明するための図を模式的に示す。図9において、図5と同様の部分には同一符号を付し、適宜説明する。 Figure 9 is a schematic diagram for explaining a fifth operation example of the SLO image forming unit 222 according to the embodiment. In Figure 9, parts similar to those in Figure 5 are given the same reference numerals and will be explained as appropriate.

SLO画像形成部222は、イメージセンサ115におけるn個の受光素子の中から選択された2以上の受光素子の受光結果に対してビニング処理を行い、ビニング処理結果に対応した画素情報を画素ごとに割り当てることで単一のSLO画像を形成する。選択される2以上の受光素子は、あらかじめ決められた互いに隣接していない2以上の受光素子であってもよい。また、2以上の受光素子は、主制御部211により事後的に決められてもよい。図9は、説明の便宜上、受光結果d~dのうち受光結果d~dを除く受光結果d~dp-1、dq+1~dが選択されているものとする。 The SLO image forming unit 222 performs binning processing on the light receiving results of two or more light receiving elements selected from the n light receiving elements in the image sensor 115, and forms a single SLO image by assigning pixel information corresponding to the binning processing result to each pixel. The two or more light receiving elements selected may be two or more light receiving elements that are not adjacent to each other and are determined in advance. In addition, the two or more light receiving elements may be determined ex post by the main control unit 211. For convenience of explanation, FIG. 9 assumes that light receiving results d 1 to d p -1 and d q+1 to d n are selected from the light receiving results d 1 to d n , excluding light receiving results d p to d q .

具体的には、ビニング処理部222Aは、イメージセンサ115のn個の受光素子において取得された受光結果d~dのうち受光結果d~dp-1、dq+1~dのそれぞれを加算することでビニング処理を実行する。SLO画像形成部222は、受光結果d~dp-1、dq+1~dに対するビニング処理結果に対応した画素情報を画素ごとに割り当てることで単一のSLO画像SIMGを形成することが可能である。 Specifically, the binning processing unit 222A performs binning processing by adding each of the light reception results d 1 to d p-1 and d q+1 to d n among the light reception results d 1 to d n acquired by the n light receiving elements of the image sensor 115. The SLO image forming unit 222 can form a single SLO image SIMG by assigning pixel information corresponding to the binning processing results for the light reception results d 1 to d p-1 and d q+1 to d n to each pixel.

(データ処理部230)
データ処理部230は、プロセッサ(例えば、データ処理プロセッサ)を含み、画像形成部220により形成された画像に対して画像処理や解析処理を施す。主制御部211に含まれるプロセッサ、データ処理部230に含まれるプロセッサ、及び画像形成部220に含まれるプロセッサの少なくとも2つは、単一のプロセッサにより構成されていてもよい。
(Data Processing Unit 230)
The data processing unit 230 includes a processor (e.g., a data processor) and performs image processing and analysis processing on the image formed by the image forming unit 220. At least two of the processor included in the main control unit 211, the processor included in the data processing unit 230, and the processor included in the image forming unit 220 may be configured by a single processor.

データ処理部230は、断層画像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Ef又は前眼部Eaの3次元画像の画像データを形成する。なお、3次元画像の画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像の画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる場合、データ処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部241等の表示デバイスには、この擬似的な3次元画像が表示される。 The data processing unit 230 performs known image processing such as an interpolation process that interpolates pixels between tomographic images to form image data of a three-dimensional image of the fundus Ef or the anterior segment Ea. The image data of a three-dimensional image means image data in which the positions of pixels are defined by a three-dimensional coordinate system. The image data of a three-dimensional image includes image data consisting of three-dimensionally arranged voxels. This image data is called volume data or voxel data. When an image based on the volume data is to be displayed, the data processing unit 230 performs a rendering process (such as volume rendering or MIP (Maximum Intensity Projection)) on the volume data to form image data of a pseudo three-dimensional image as viewed from a specific line of sight. The pseudo three-dimensional image is displayed on a display device such as the display unit 241.

また、3次元画像の画像データとして、複数の断層画像のスタックデータを形成することも可能である。スタックデータは、複数のスキャンラインに沿って得られた複数の断層画像を、スキャンラインの位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断層画像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。 It is also possible to form stack data of multiple tomographic images as image data of a three-dimensional image. Stack data is image data obtained by arranging multiple tomographic images obtained along multiple scan lines three-dimensionally based on the positional relationship of the scan lines. In other words, stack data is image data obtained by expressing multiple tomographic images that were originally defined by separate two-dimensional coordinate systems using a single three-dimensional coordinate system (i.e., embedding them in a single three-dimensional space).

いくつかの実施形態では、データ処理部230は、Aスキャン画像をBスキャン方向に配列することによりBスキャン画像を生成する。いくつかの実施形態では、データ処理部230は、取得された3次元データセット(ボリュームデータ、スタックデータ等)に各種のレンダリングを施すことで、任意断面におけるBモード画像(Bスキャン画像)(縦断面像、軸方向断面像)、任意断面におけるCモード画像(Cスキャン画像)(横断面像、水平断面像)、プロジェクション画像、シャドウグラムなどを形成することができる。Bスキャン画像やCスキャン画像のような任意断面の画像は、指定された断面上の画素(ピクセル、ボクセル)を3次元データセットから選択することにより形成される。プロジェクション画像は、3次元データセットを所定方向(z方向、深さ方向、軸方向)に投影することによって形成される。シャドウグラムは、3次元データセットの一部(たとえば特定層に相当する部分データ)を所定方向に投影することによって形成される。積分する層方向の深さ範囲を変更することで、互いに異なる2以上のシャドウグラムを形成することが可能である。Cスキャン画像、プロジェクション画像、シャドウグラムのような、被検眼の正面側を視点とする画像を正面画像(en-face画像)と呼ぶ。 In some embodiments, the data processor 230 generates a B-scan image by arranging the A-scan image in the B-scan direction. In some embodiments, the data processor 230 can perform various renderings on the acquired three-dimensional data set (volume data, stack data, etc.) to form a B-mode image (B-scan image) (longitudinal section image, axial section image) in an arbitrary section, a C-mode image (C-scan image) (transverse section image, horizontal section image), a projection image, a shadowgram, etc. An image of an arbitrary section, such as a B-scan image or a C-scan image, is formed by selecting pixels (pixels, voxels) on a specified section from the three-dimensional data set. A projection image is formed by projecting the three-dimensional data set in a predetermined direction (z direction, depth direction, axial direction). A shadowgram is formed by projecting a part of the three-dimensional data set (for example, partial data corresponding to a specific layer) in a predetermined direction. By changing the depth range of the layer direction to be integrated, two or more different shadowgrams can be formed. Images that are viewed from the front of the subject's eye, such as C-scan images, projection images, and shadowgrams, are called en-face images.

データ処理部230は、OCTにより時系列に収集されたデータ(例えば、Bスキャン画像データ)に基づいて、網膜血管や脈絡膜血管が強調されたBスキャン画像や正面画像(血管強調画像、アンギオグラム)を構築することができる。例えば、被検眼Eの略同一部位を反復的にスキャンすることにより、時系列のOCTデータを収集することができる。 The data processing unit 230 can construct B-scan images and frontal images (vessel-enhanced images, angiograms) in which retinal blood vessels and choroidal blood vessels are emphasized based on data (e.g., B-scan image data) collected in a time series by OCT. For example, time-series OCT data can be collected by repeatedly scanning approximately the same area of the subject's eye E.

いくつかの実施形態では、データ処理部230は、略同一部位に対するBスキャンにより得られた時系列のBスキャン画像を比較し、信号強度の変化部分の画素値を変化分に対応した画素値に変換することにより当該変化部分が強調された強調画像を構築する。更に、データ処理部230は、構築された複数の強調画像から所望の部位における所定の厚さ分の情報を抽出してen-face画像として構築することでOCTA(アンギオグラフィ)像を形成する。 In some embodiments, the data processor 230 compares time-series B-scan images obtained by B-scanning approximately the same area, and constructs an enhanced image in which the changed area is emphasized by converting pixel values of the changed area in signal intensity into pixel values corresponding to the change. Furthermore, the data processor 230 extracts information of a predetermined thickness in the desired area from the multiple enhanced images constructed, and constructs it as an en-face image to form an OCTA (angiography) image.

いくつかの実施形態では、データ処理部230は、解析部として、断層画像における所定の層領域を特定する。所定の層領域の例として、内境界膜、神経繊維層、神経節細胞層、内網状層、内顆粒層、外網状層、外顆粒層、外境界膜、視細胞層、網膜色素上皮層、ブルッフ膜、脈絡膜、強膜がある。 In some embodiments, the data processing unit 230, as an analysis unit, identifies a predetermined layer region in the tomographic image. Examples of the predetermined layer region include the internal limiting membrane, nerve fiber layer, ganglion cell layer, inner plexiform layer, inner nuclear layer, outer plexiform layer, outer nuclear layer, external limiting membrane, photoreceptor layer, retinal pigment epithelium layer, Bruch's membrane, choroid, and sclera.

いくつかの実施形態では、データ処理部230は、イメージセンサ115により得られた干渉信号(分光された光の検出信号)の強度に基づいて所定の層領域を特定する。例えば、データ処理部230は、干渉信号の強度の極値(極大値)を示す位置を層領域の境界位置に相当する位置として特定し、干渉信号の強度の最大値を示す位置を基準に上記の層領域を特定する。 In some embodiments, the data processing unit 230 identifies a predetermined layer region based on the intensity of the interference signal (detection signal of dispersed light) obtained by the image sensor 115. For example, the data processing unit 230 identifies a position showing an extreme value (maximum value) of the intensity of the interference signal as a position corresponding to the boundary position of the layer region, and identifies the above-mentioned layer region based on the position showing the maximum value of the intensity of the interference signal.

いくつかの実施形態では、データ処理部230は、断層画像における各画素の輝度値に基づきセグメンテーション処理を行う。すなわち、眼底Efのそれぞれの層領域は特徴的な反射率を有し、これら層領域に相当する画像領域もそれぞれ特徴的な輝度値を有する。データ処理部230は、これら特徴的な輝度値に基づきセグメンテーション処理を実行することにより、目的の画像領域(層領域)を特定することができる。 In some embodiments, the data processing unit 230 performs segmentation processing based on the luminance value of each pixel in the tomographic image. That is, each layer region of the fundus Ef has a characteristic reflectance, and the image regions corresponding to these layer regions also have characteristic luminance values. The data processing unit 230 can identify the target image region (layer region) by performing segmentation processing based on these characteristic luminance values.

(ユーザーインターフェイス240)
ユーザーインターフェイス240は、ユーザーからの眼科装置1に対する入力を受け付けたり、ユーザーに対して眼科装置1からの情報を出力したりする。このようなユーザーインターフェイス240は、表示部241と、操作部242とを含む。
(User Interface 240)
The user interface 240 receives input from the user to the ophthalmic apparatus 1 and outputs information from the ophthalmic apparatus 1 to the user. The user interface 240 includes a display unit 241 and an operation unit 242.

表示部241は、制御部210による制御を受けて情報を表示する。表示部241は、図1に示す表示装置3を含む。 The display unit 241 displays information under the control of the control unit 210. The display unit 241 includes the display device 3 shown in FIG. 1.

操作部242は、眼科装置1を操作するために使用される。操作部242は、眼科装置1に設けられた各種のハードウェアキー(ジョイスティック、ボタン、スイッチなど)を含む。また、操作部242は、タッチパネル式の表示画面に表示される各種のソフトウェアキー(ボタン、アイコン、メニューなど)を含んでもよい。 The operation unit 242 is used to operate the ophthalmic device 1. The operation unit 242 includes various hardware keys (joystick, buttons, switches, etc.) provided on the ophthalmic device 1. The operation unit 242 may also include various software keys (buttons, icons, menus, etc.) displayed on a touch panel display screen.

表示部241及び操作部242の少なくとも一部が一体的に構成されていてもよい。その典型例として、タッチパネル式の表示画面がある。 At least a portion of the display unit 241 and the operation unit 242 may be configured as an integrated unit. A typical example of this is a touch panel type display screen.

また、眼科装置1は、図示しない外部装置と通信するための通信部を含んでいてもよい。通信部は、外部装置との接続形態に応じた通信インターフェイスを備える。外部装置の例として、屈折力測定が可能な屈折力測定装置、又は、レンズの光学特性を測定するための眼鏡レンズ測定装置がある。屈折力測定装置は、被検眼の眼底に光を投影し、被検眼からの戻り光を受光することによりリング像を取得し、取得されたリング像から被検眼の屈折力値を算出することができる。眼鏡レンズ測定装置は、被検者が装用する眼鏡レンズの度数などを測定し、この測定データを眼科装置1に入力する。また、外部装置は、任意の眼科装置、記録媒体から情報を読み取る装置(リーダ)や、記録媒体に情報を書き込む装置(ライタ)などでもよい。更に、外部装置は、病院情報システム(HIS)サーバ、DICOM(Digital Imaging and COmmunication in Medicine)サーバ、医師端末、モバイル端末、個人端末、クラウドサーバなどでもよい。 The ophthalmic device 1 may also include a communication unit for communicating with an external device (not shown). The communication unit has a communication interface according to the connection form with the external device. Examples of external devices include a refractive power measurement device capable of refractive power measurement, or a spectacle lens measurement device for measuring the optical characteristics of a lens. The refractive power measurement device projects light onto the fundus of the subject's eye and receives return light from the subject's eye to obtain a ring image, and can calculate the refractive power value of the subject's eye from the obtained ring image. The spectacle lens measurement device measures the diopter of the spectacle lens worn by the subject, and inputs this measurement data into the ophthalmic device 1. The external device may also be any ophthalmic device, a device (reader) that reads information from a recording medium, or a device (writer) that writes information to a recording medium. Furthermore, the external device may be a hospital information system (HIS) server, a DICOM (Digital Imaging and Communication in Medicine) server, a doctor's terminal, a mobile terminal, a personal terminal, a cloud server, etc.

被検眼Eは、実施形態に係る「被測定物」の一例である。光画像形成ユニット100に含まれる光学系と光スキャナ42とは、実施形態に係る「干渉光学系」の一例である。回折格子113は、実施形態に係る「分光部材」の一例である。OCT画像形成部221は、実施形態に係る「断層画像形成部」の一例である。SLO画像形成部222は、実施形態に係る「正面画像形成部」の一例である。 The subject's eye E is an example of an "object to be measured" according to the embodiment. The optical system included in the optical image forming unit 100 and the optical scanner 42 are an example of an "interference optical system" according to the embodiment. The diffraction grating 113 is an example of a "spectroscopic member" according to the embodiment. The OCT image forming section 221 is an example of a "tomographic image forming section" according to the embodiment. The SLO image forming section 222 is an example of a "front image forming section" according to the embodiment.

<動作例>
実施形態に係る眼科装置1の動作例について説明する。
<Example of operation>
An example of the operation of the ophthalmologic apparatus 1 according to the embodiment will be described.

図10、及び図11に、眼科装置1の動作の一例を示す。図10は、眼科装置1の動作例のフロー図を表す。図11は、ステップS11の動作例のフロー図を表す。図12、図13、及び図14に、ステップS12の動作説明図を示す。記憶部212には、図10、及び図11に示す処理を実現するためのコンピュータプログラムが記憶されている。主制御部211は、このコンピュータプログラムに従って動作することにより、図10、及び図11に示す処理を実行する。 FIGS. 10 and 11 show an example of the operation of the ophthalmic device 1. FIG. 10 shows a flow diagram of an example of the operation of the ophthalmic device 1. FIG. 11 shows a flow diagram of an example of the operation of step S11. FIGs. 12, 13, and 14 show explanatory diagrams of the operation of step S12. The memory unit 212 stores a computer program for realizing the processing shown in FIG. 10 and FIG. 11. The main control unit 211 executes the processing shown in FIG. 10 and FIG. 11 by operating according to this computer program.

(S1:動作モードを設定)
まず、ユーザーは、操作部242を用いて、OCT画像取得モード、及びSLO画像取得モードのいずれかを指定する。主制御部211は、操作部242に対するユーザーの操作内容に対応した操作制御信号を受け、動作モードを設定する。
(S1: Set operation mode)
First, the user designates either the OCT image acquisition mode or the SLO image acquisition mode using the operation unit 242. The main controller 211 receives an operation control signal corresponding to the content of the user's operation on the operation unit 242 and sets the operation mode.

(S2:スキャン条件を設定)
続いて、主制御部211は、スキャン条件を設定する。例えば、ユーザーは、操作部242を用いて、スキャン条件を指定する。主制御部211は、操作部242に対するユーザーの操作内容に対応した操作制御信号を受け、スキャン条件を設定する。スキャン条件には、スキャン範囲、スキャンモード、スキャン速度などがある。
(S2: Set scan conditions)
Next, the main control unit 211 sets the scan conditions. For example, the user specifies the scan conditions using the operation unit 242. The main control unit 211 receives an operation control signal corresponding to the content of the user's operation on the operation unit 242, and sets the scan conditions. The scan conditions include a scan range, a scan mode, a scan speed, and the like.

(S3:アライメント)
次に、図示しない顔受け部に被検者の顔が固定された状態で、検者が操作部242に対して所定の操作を行うことで、眼科装置1は、被検眼Eに対して固視標の提示を開始する。
(S3: Alignment)
Next, with the subject's face fixed on a face receiving portion (not shown), the examiner performs a predetermined operation on the operation portion 242, and the ophthalmic device 1 begins presenting a fixation target to the subject's eye E.

具体的には、主制御部211は、LCD39を制御することにより、あらかじめ決められた固視標を表す固視標パターンをLCDパネル39のスクリーン上の所定の位置に表示させる。 Specifically, the main control unit 211 controls the LCD 39 to display a fixation target pattern representing a predetermined fixation target at a specified position on the screen of the LCD panel 39.

また、ユーザーが操作部242に対して所定の操作を行うことで、眼科装置1は、アライメントを実行する。 In addition, the ophthalmic device 1 performs alignment when the user performs a specified operation on the operation unit 242.

具体的には、主制御部211は、アライメント光学系50を制御することにより、被検眼Eにアライメント光を投射させ、イメージセンサ35により取得された受光像に基づいて、上記のようにマニュアルアライメント又はオートアライメントを実行する。これにより、図1に示す光学系が被検眼Eの検査位置に移動される。検査位置とは、被検眼Eの検査を十分な精度内で行うことが可能な位置である。 Specifically, the main controller 211 controls the alignment optical system 50 to project alignment light onto the subject's eye E, and performs manual alignment or auto alignment as described above based on the received light image acquired by the image sensor 35. This causes the optical system shown in FIG. 1 to move to an examination position for the subject's eye E. The examination position is a position where the examination of the subject's eye E can be performed with sufficient accuracy.

主制御部211からの指示、又は操作部242に対するユーザーの操作若しくは指示により、眼科装置1の動作はステップS4に移行する。 The operation of the ophthalmic device 1 proceeds to step S4 in response to an instruction from the main control unit 211 or a user operation or instruction to the operation unit 242.

(S4:フォーカス調整)
続いて、主制御部211は、フォーカス調整を実行する。
(S4: Focus adjustment)
Next, the main control unit 211 executes focus adjustment.

具体的には、主制御部211は、フォーカス光学系60を制御することにより、被検眼Eにスプリット指標を投射させ、マニュアルフォーカス又はオートフォーカスを実行する。 Specifically, the main control unit 211 controls the focus optical system 60 to project a split index onto the subject's eye E and perform manual focus or autofocus.

マニュアルフォーカスの場合、被検者による操作部242に対する操作を受け、主制御部211が合焦駆動部31Aを制御して、2つのスプリット指標像が所定の位置関係になるように撮影合焦レンズ31を光軸方向に移動させる。OCT合焦レンズ43は、撮影合焦レンズ31の移動に連動して光軸方向に移動する。 In the case of manual focus, the subject operates the operation unit 242, and the main control unit 211 controls the focus drive unit 31A to move the imaging focusing lens 31 in the optical axis direction so that the two split target images are in a predetermined positional relationship. The OCT focusing lens 43 moves in the optical axis direction in conjunction with the movement of the imaging focusing lens 31.

オートフォーカスの場合、主制御部211は、イメージセンサ35により得られた2つのスプリット指標像が所定の位置関係になるように合焦駆動部31Aを制御する。そして、主制御部211は、2つのスプリット指標像が所定の位置関係になるように撮影合焦レンズ31を光軸方向に移動させる。OCT合焦レンズ43は、撮影合焦レンズ31の移動に連動して光軸方向に移動する。 In the case of autofocus, the main controller 211 controls the focus driver 31A so that the two split index images obtained by the image sensor 35 have a predetermined positional relationship. The main controller 211 then moves the imaging focusing lens 31 in the optical axis direction so that the two split index images have a predetermined positional relationship. The OCT focusing lens 43 moves in the optical axis direction in conjunction with the movement of the imaging focusing lens 31.

(S5:OCT画像取得モード?)
次に、主制御部211は、ステップS1において設定された動作モードがOCT画像取得モードであるか否かを判定する。
(S5: OCT image acquisition mode?)
Next, the main controller 211 determines whether or not the operation mode set in step S1 is the OCT image acquisition mode.

ステップS1において設定された動作モードがOCT画像であると判定されたとき(ステップS5:Y)、眼科装置1の動作はステップS6に移行する。一方、ステップS1において設定された動作モードがOCT画像取得モードではないと判定されたとき(ステップS5:N)、眼科装置1の動作はステップS9に移行する。 When it is determined that the operating mode set in step S1 is an OCT image (step S5: Y), the operation of the ophthalmic device 1 proceeds to step S6. On the other hand, when it is determined that the operating mode set in step S1 is not an OCT image acquisition mode (step S5: N), the operation of the ophthalmic device 1 proceeds to step S9.

(S6:遮蔽部材を退避)
ステップS1において設定された動作モードがOCT画像であると判定されたとき(ステップS5:Y)、主制御部211は、遮蔽機構130Aを制御して、参照ミラー108とコリメートレンズユニット107との間の参照光LRの光路から遮蔽部材130を退避させる。
(S6: Retract the shielding member)
When it is determined that the operating mode set in step S1 is an OCT image (step S5: Y), the main control unit 211 controls the shielding mechanism 130A to retract the shielding member 130 from the optical path of the reference light LR between the reference mirror 108 and the collimator lens unit 107.

(S7:スキャン)
続いて、主制御部211は、ステップS2において設定されたスキャン条件に従って光スキャナ42を制御することにより、測定光LSでスキャン範囲をスキャンさせる。
(S7: Scan)
Next, the main control unit 211 controls the optical scanner 42 in accordance with the scanning conditions set in step S2 to scan the scanning range with the measurement light LS.

ステップS7では、被検眼Eにおける各スキャン位置において、光スキャナ42により偏向された測定光LSが被検眼Eに入射する。被検眼Eにおける入射位置から測定光LSの戻り光が光画像形成ユニット100に戻り、参照光路を経由した参照光LRと測定光LSの戻り光との干渉光LCが回折格子113により分光される。回折格子113により分光された光は、イメージセンサ115により順次に受光される。 In step S7, the measurement light LS deflected by the optical scanner 42 is incident on the test eye E at each scan position on the test eye E. The return light of the measurement light LS returns to the optical image forming unit 100 from the incident position on the test eye E, and the interference light LC between the reference light LR that has passed through the reference optical path and the return light of the measurement light LS is dispersed by the diffraction grating 113. The light dispersed by the diffraction grating 113 is sequentially received by the image sensor 115.

(S8:OCT画像形成処理)
続いて、主制御部211は、OCT画像形成部221を制御して、ステップS7において実行されたスキャンにより取得されたイメージセンサ115の受光結果に基づいて、OCT画像としての断層画像を形成させる。
(S8: OCT image formation process)
Next, the main controller 211 controls the OCT image forming part 221 to form a tomographic image as an OCT image based on the light reception result of the image sensor 115 acquired by the scan executed in step S7.

OCT画像形成部221は、上記のように、OCT画像としての断層画像を形成する。 As described above, the OCT image forming unit 221 forms a tomographic image as an OCT image.

(S9:遮蔽部材を配置)
一方、ステップS5において、ステップS1において設定された動作モードがOCT画像ではないと判定されたとき(ステップS5:N)、主制御部211は、動作モードがSLO画像取得モードであると判断して、遮蔽機構130Aを制御して、参照ミラー108とコリメートレンズユニット107との間の参照光LRの光路から遮蔽部材130を配置させる。
(S9: Place shielding member)
On the other hand, in step S5, when it is determined that the operating mode set in step S1 is not an OCT image (step S5: N), the main control unit 211 determines that the operating mode is an SLO image acquisition mode, and controls the shielding mechanism 130A to position the shielding member 130 from the optical path of the reference light LR between the reference mirror 108 and the collimator lens unit 107.

(S10:スキャン)
続いて、主制御部211は、ステップS2において設定されたスキャン条件に従って光スキャナ42を制御することにより、測定光LSでスキャン範囲をスキャンさせる。
(S10: Scan)
Next, the main control unit 211 controls the optical scanner 42 in accordance with the scanning conditions set in step S2 to scan the scanning range with the measurement light LS.

ステップS10では、被検眼Eにおける各スキャン位置において、光スキャナ42により偏向された測定光LSが被検眼Eに入射する。被検眼Eにおける入射位置から測定光LSの戻り光が光画像形成ユニット100に戻り、ファイバカプラ103から測定光LSの戻り光が出射し、回折格子113により分光される。回折格子113により分光された光は、イメージセンサ115により順次に受光される。 In step S10, the measurement light LS deflected by the optical scanner 42 is incident on the test eye E at each scanning position on the test eye E. The return light of the measurement light LS returns to the optical image forming unit 100 from the incident position on the test eye E, and the return light of the measurement light LS is emitted from the fiber coupler 103 and dispersed by the diffraction grating 113. The light dispersed by the diffraction grating 113 is sequentially received by the image sensor 115.

(S11:SLO画像形成処理)
続いて、主制御部211は、SLO画像形成部222を制御して、ステップS10において実行されたスキャンにより取得されたイメージセンサ115の受光結果に基づいて、SLO画像としての正面画像を形成させる。
(S11: SLO image formation process)
Next, the main control unit 211 controls the SLO image forming unit 222 to form a front image as an SLO image based on the light reception result of the image sensor 115 acquired by the scan executed in step S10.

ステップS11の詳細は、後述する。 Details of step S11 will be described later.

(S12:表示)
ステップS8、又は、ステップS11に続いて、主制御部211は、ステップS8において形成された断層画像、又は、ステップS11において形成された正面画像(分光画像、ハイパースペクトル画像を含む)を表示部241(又は表示装置3)に表示させる。
(S12: Display)
Following step S8 or step S11, the main control unit 211 causes the display unit 241 (or the display device 3) to display the tomographic image formed in step S8 or the front image (including a spectroscopic image or a hyperspectral image) formed in step S11.

いくつかの実施形態では、主制御部211は、断層画像、及び正面画像を表示部241の同一画面に表示させる。いくつかの実施形態では、主制御部211は、各画像において描出された同一の特徴部位に相当する位置が対応付けられるように断層画像、及び正面画像を位置合わせして表示部241に表示させる。 In some embodiments, the main controller 211 causes the cross-sectional image and the front image to be displayed on the same screen of the display unit 241. In some embodiments, the main controller 211 causes the display unit 241 to display the cross-sectional image and the front image after aligning them so that positions corresponding to the same characteristic parts depicted in each image are associated with each other.

以上で、眼科装置1の動作は終了である(エンド)。 This completes the operation of the ophthalmic device 1 (end).

ステップS11の処理は、図11に示すフローに従って実行される。図11では、あらかじめ決められた、図5~図9のいずれかの態様の正面画像が形成されるものとする The process of step S11 is performed according to the flow shown in FIG. 11. In FIG. 11, a predetermined front image of one of the aspects shown in FIG. 5 to FIG. 9 is formed.

(S21:検出データを取得)
ステップS11では、まず、SLO画像形成部222は、イメージセンサ115において取得された検出データを取得する。
(S21: Obtain detection data)
In step S<b>11 , first, the SLO image forming unit 222 acquires detection data acquired by the image sensor 115 .

(S22:ビニング処理?)
ステップS21において取得された検出データに対してビニング処理を実行するとき(ステップS22:Y)、SLO画像形成部222の動作はステップS23に移行する。一方、ステップS21において取得された検出データに対してビニング処理を実行しないとき(ステップS22:N)、SLO画像形成部222の動作はステップS24に移行する。
(S22: Binning process?)
When the binning process is performed on the detection data acquired in step S21 (step S22: Y), the operation of the SLO image forming unit 222 proceeds to step S23. On the other hand, when the binning process is not performed on the detection data acquired in step S21 (step S22: N), the operation of the SLO image forming unit 222 proceeds to step S24.

(S23:ビニング処理)
ステップS21において取得された検出データに対してビニング処理を実行するとき(ステップS22:Y)、SLO画像形成部222は、ステップS21において取得された検出データのうち、あらかじめ決められた受光結果に対してビニング処理を実行する。これにより、図5、図7~図9のいずれかのビニング処理結果が得られる。
(S23: Binning process)
When performing the binning process on the detection data acquired in step S21 (step S22: Y), the SLO image forming unit 222 performs the binning process on a predetermined light receiving result among the detection data acquired in step S21. As a result, any one of the binning process results shown in FIG. 5 and FIG. 7 to FIG. 9 can be obtained.

(S24:画素に割り当てて保存)
続いて、SLO画像形成部222は、ステップS21において取得された検出データの1つ、又は、ステップS23において得られたビニング処理結果に対応した画素情報を画像内の画素に割り当てて保存する。
(S24: Assign to pixel and save)
Next, the SLO image forming unit 222 assigns one of the detection data acquired in step S21 or pixel information corresponding to the binning processing result obtained in step S23 to a pixel in the image and stores it.

(S25:次の画像?)
次に、SLO画像形成部222は、次の画像の画素に検出データ又はビニング処理結果を割り当てるか否かを判定する。
(S25: Next image?)
Next, the SLO image forming unit 222 determines whether or not to assign detection data or a binning processing result to a pixel of the next image.

次の画像の画素に検出データ等を割り当てると判定されたとき(ステップS25:Y)、SLO画像形成部222の動作はステップS24に移行する。これにより、ハイパースペクトル画像のような2以上の分光画像が形成される。 When it is determined that detection data, etc., should be assigned to the pixels of the next image (step S25: Y), the operation of the SLO image forming unit 222 proceeds to step S24. This results in the formation of two or more spectroscopic images, such as a hyperspectral image.

一方、次の画像の画素に検出データ等を割り当てないと判定されたとき(ステップS25:N)、SLO画像形成部222の動作はステップS26に移行する。 On the other hand, when it is determined that detection data, etc. will not be assigned to the pixels of the next image (step S25: N), the operation of the SLO image forming unit 222 proceeds to step S26.

(S26:次の画素?)
次に、SLO画像形成部222は、画像内の次の画素に検出データ又はビニング処理結果を割り当てるか否かを判定する。
(S26: Next pixel?)
Next, the SLO image forming unit 222 determines whether to assign detection data or the binning process result to the next pixel in the image.

画像内の次の画素に検出データ等を割り当てると判定されたとき(ステップS26:Y)、SLO画像形成部222の動作はステップS21に移行する。 When it is determined that detection data, etc. should be assigned to the next pixel in the image (step S26: Y), the operation of the SLO image forming unit 222 proceeds to step S21.

一方、画像内の次の画素に検出データ等を割り当てないと判定されたとき(ステップS26:N)、ステップS11の処理は終了である(エンド)。 On the other hand, when it is determined that detection data, etc. should not be assigned to the next pixel in the image (step S26: N), the processing of step S11 ends (END).

なお、眼科装置1は、遮蔽部材130の挿脱を繰り返すことで、ステップS7のスキャンとステップS10のスキャンとを時分割で実行することが可能である。 The ophthalmic device 1 can perform the scan of step S7 and the scan of step S10 in a time-division manner by repeatedly inserting and removing the shielding member 130.

以上のように、ステップS12では、図12に示すように、主制御部211は、ステップS8においてOCT画像形成部221により形成された断層画像IMG1を表示部241に表示させること可能である。また、図13又は図14に示すように、主制御部211は、ステップS11においてSLO画像形成部222により形成された正面画像IMG2、又は複数の分光画像IMG2~IMG2(Nは、2以上の整数)(又は、ハイパースペクトル画像)を表示部241に表示させることが可能である。 As described above, in step S12, as shown in Fig. 12, the main controller 211 can cause the display unit 241 to display the tomographic image IMG1 formed by the OCT image forming unit 221 in step S8. Also, as shown in Fig. 13 or 14, the main controller 211 can cause the display unit 241 to display the front image IMG2 formed by the SLO image forming unit 222 in step S11, or a plurality of spectroscopic images IMG2 1 to IMG2 N (N is an integer equal to or greater than 2) (or hyperspectral images).

以上説明したように、実施形態によれば、参照光LRの光路に対する遮蔽部材130の挿脱により、OCT光学系とSLO光学系とで干渉光学系の少なくとも一部を共用することができるようになる。従って、装置の大型化を最小限に抑えつつ、断層画像と正面画像とを取得するための光画像形成装置としての眼科装置1を提供することができる。 As described above, according to the embodiment, by inserting and removing the shielding member 130 into and from the optical path of the reference light LR, it becomes possible to share at least a part of the interference optical system between the OCT optical system and the SLO optical system. Therefore, it is possible to provide an ophthalmic device 1 as an optical image forming device for acquiring a tomographic image and a front image while minimizing the increase in size of the device.

なお、回折格子113は、グレーティングミラー、プリズム、音響光学素子などの反射型の回折格子であってもよい。 The diffraction grating 113 may be a reflective diffraction grating such as a grating mirror, a prism, or an acousto-optical element.

[作用]
実施形態に係る光画像形成装置、光画像形成装置の制御方法、及びプログラムについて説明する。
[Action]
An optical image forming apparatus, a control method for the optical image forming apparatus, and a program according to an embodiment will be described.

いくつかの実施形態の第1態様は、光スキャナ(42)を含む干渉光学系(光画像形成ユニット100に含まれる光学系と光スキャナ42)と、遮蔽部材(130)と、分光部材(回折格子113)と、イメージセンサ(イメージセンサ115)と、断層画像形成部(OCT画像形成部221)と、正面画像形成部(SLO画像形成部222)とを含む光画像形成装置(眼科装置1)である。干渉光学系は、光源(光源ユニット101)からの低コヒーレンス光(L0)を測定光(LS)と参照光(LR)とに分割し、光スキャナにより偏向された測定光を被測定物(被検眼E)に照射し、参照光路を経由した参照光と被測定物からの測定光の戻り光とを干渉させる。遮蔽部材は、参照光路に対して挿脱可能である。分光部材は、参照光路から遮蔽部材が退避された状態で干渉光学系により生成された参照光と戻り光との干渉光を分光し、又は、参照光路に遮蔽部材が配置された状態で干渉光学系から出力された戻り光を分光する。イメージセンサは、分光部材により分光された光を受光する。断層画像形成部は、イメージセンサにより得られた、干渉光を分光した光の受光結果に基づいて、被測定物の断層画像(OCT画像)を形成する。正面画像形成部は、イメージセンサにより得られた、戻り光を分光した光の受光結果に基づいて被測定物の正面画像(SLO画像)を形成する。 A first aspect of some embodiments is an optical image forming device (ophthalmic device 1) including an interference optical system (optical system included in the optical image forming unit 100 and the optical scanner 42) including an optical scanner (42), a shielding member (130), a spectroscopic member (diffraction grating 113), an image sensor (image sensor 115), a tomographic image forming section (OCT image forming section 221), and a front image forming section (SLO image forming section 222). The interference optical system splits low-coherence light (L0) from a light source (light source unit 101) into measurement light (LS) and reference light (LR), irradiates the measurement light deflected by the optical scanner onto the object to be measured (test eye E), and causes interference between the reference light passing through the reference optical path and the return light of the measurement light from the object to be measured. The shielding member is insertable and detachable from the reference optical path. The spectroscopic member separates the interference light between the reference light and the return light generated by the interference optical system when the shielding member is retracted from the reference optical path, or separates the return light output from the interference optical system when the shielding member is disposed in the reference optical path. The image sensor receives the light separated by the spectroscopic member. The tomographic image forming unit forms a tomographic image (OCT image) of the object to be measured based on the light reception result of the light obtained by the image sensor from the separated interference light. The front image forming unit forms a front image (SLO image) of the object to be measured based on the light reception result of the light obtained by the image sensor from the separated return light.

このような態様によれば、参照光路に対する遮蔽部材の挿脱により、断層画像を取得するための光学系と正面画像を取得するための光学系とで干渉光学系の少なくとも一部を共用することができるようになる。従って、装置の大型化を最小限に抑えつつ、断層画像と正面画像とを取得するための光画像形成装置を提供することができる。 According to this aspect, by inserting and removing the shielding member with respect to the reference light path, at least a part of the interference optical system can be shared between the optical system for acquiring a tomographic image and the optical system for acquiring a front image. Therefore, it is possible to provide an optical image forming device for acquiring a tomographic image and a front image while minimizing the increase in size of the device.

いくつかの実施形態の第2態様では、第1態様において、分光部材は、回折格子(113)である。イメージセンサは、回折格子に形成された格子パターンの配列方向に対応した方向に2以上の受光素子が配列されたラインセンサである。 In a second aspect of some embodiments, in the first aspect, the dispersing element is a diffraction grating (113). The image sensor is a line sensor in which two or more light receiving elements are arranged in a direction corresponding to the arrangement direction of the grating pattern formed on the diffraction grating.

このような態様によれば、回折格子とラインセンサとを含む分光器を用いて、装置の大型化を最小限に抑えつつ、断層画像と正面画像とを取得するための光画像形成装置を提供することができる。 According to this aspect, it is possible to provide an optical imaging device that uses a spectrometer including a diffraction grating and a line sensor to obtain a tomographic image and a front image while minimizing the increase in size of the device.

いくつかの実施形態の第3態様では、第2態様において、断層画像形成部は、2以上の受光素子における2以上の受光結果に基づいて断層画像を形成し、正面画像形成部は、各正面画像の画素ごとに2以上の受光結果のそれぞれに対応した画素情報が割り当てられた2以上の正面画像を形成する。 In a third aspect of some embodiments, in the second aspect, the tomographic image forming unit forms a tomographic image based on two or more light receiving results from two or more light receiving elements, and the front image forming unit forms two or more front images in which pixel information corresponding to each of the two or more light receiving results is assigned to each pixel of each front image.

このような態様によれば、装置の大型化を最小限に抑えつつ、断層画像とハイパースペクトル画像としての2以上の正面画像とを取得するための光画像形成装置を提供することができる。 According to this aspect, it is possible to provide an optical imaging device for acquiring a tomographic image and two or more front images as hyperspectral images while minimizing the increase in size of the device.

いくつかの実施形態の第4態様では、第2態様において、断層画像形成部は、2以上の受光素子における2以上の受光結果に基づいて断層画像を形成し、正面画像形成部は、2以上の受光素子における複数の受光結果に対するビニング処理結果に対応した画素情報を各正面画像の画素ごとに割り当てることで2以上の正面画像を形成する。 In a fourth aspect of some embodiments, in the second aspect, the tomographic image forming unit forms a tomographic image based on two or more light receiving results from two or more light receiving elements, and the front image forming unit forms two or more front images by assigning pixel information corresponding to the binning process results for the multiple light receiving results from the two or more light receiving elements to each pixel of each front image.

このような態様によれば、ビニング処理を行うことで、装置の大型化を最小限に抑えつつ、断層画像と分光画像としての2以上の正面画像とを取得するための光画像形成装置を提供することができる。 According to this aspect, by performing binning processing, it is possible to provide an optical image forming device that can obtain a tomographic image and two or more front images as spectroscopic images while minimizing the increase in size of the device.

いくつかの実施形態の第5態様では、第4態様において、正面画像形成部は、2以上の受光素子における全受光結果に対するビニング処理結果に対応した画素情報を画素ごとに割り当てることで単一の正面画像を形成する。 In a fifth aspect of some embodiments, in the fourth aspect, the front image forming unit forms a single front image by assigning pixel information corresponding to the binning process result for all light receiving results from two or more light receiving elements to each pixel.

このような態様によれば、2以上の受光素子における全受光結果に対してビニング処理を行うことで、装置の大型化を最小限に抑えつつ、断層画像と単一の正面画像とを取得するための光画像形成装置を提供することができる。 According to this aspect, by performing binning processing on all light receiving results from two or more light receiving elements, it is possible to provide an optical imaging device for acquiring a tomographic image and a single front image while minimizing the increase in size of the device.

いくつかの実施形態の第6態様では、第4態様において、正面画像形成部は、2以上の受光素子を複数の受光素子群に分割し、複数の受光素子群毎に受光素子の受光結果に対してビニング処理を行い、ビニング処理結果に対応した画素情報を画素ごとに割り当てることで、2以上の分光画像としての2以上の正面画像を形成する。 In a sixth aspect of some embodiments, in the fourth aspect, the front image forming unit divides two or more light receiving elements into a plurality of light receiving element groups, performs a binning process on the light receiving results of the light receiving elements for each of the plurality of light receiving element groups, and assigns pixel information corresponding to the binning process result to each pixel, thereby forming two or more front images as two or more spectral images.

このような態様によれば、装置の大型化を最小限に抑えつつ、断層画像と所望の波長範囲の分光画像としての2以上の正面画像とを取得するための光画像形成装置を提供することができる。 According to this aspect, it is possible to provide an optical imaging device that can obtain a tomographic image and two or more front images as spectroscopic images in a desired wavelength range while minimizing the increase in size of the device.

いくつかの実施形態の第7態様は、光スキャナ(42)を含む干渉光学系(光画像形成ユニット100に含まれる光学系と光スキャナ42)と、遮蔽部材(130)と、分光部材(回折格子113)と、イメージセンサ(イメージセンサ115)と、とを含む光画像形成装置(眼科装置1)の制御方法である。光画像形成装置の制御方法は、第1干渉光学系制御ステップと、断層画像生成ステップと、第2干渉光学系制御ステップと、正面画像形成ステップとを含む。第1干渉光学系制御ステップは、参照光路から遮蔽部材を退避することにより干渉光学系に干渉光を生成させる。断層画像形成ステップは、イメージセンサにより干渉光を分光した光を受光することにより得られた受光結果に基づいて、被測定物の断層画像を形成する。第2干渉光学系制御ステップは、参照光路に遮蔽部材を挿入することにより干渉光学系から戻り光を出力させる。正面画像形成ステップは、イメージセンサにより戻り光を分光した光を受光することにより得られた受光結果に基づいて、被測定物の正面画像を形成する。 A seventh aspect of some embodiments is a method for controlling an optical image forming device (ophthalmic device 1) including an interference optical system (optical system included in the optical image forming unit 100 and the optical scanner 42) including an optical scanner (42), a shielding member (130), a spectroscopic member (diffraction grating 113), and an image sensor (image sensor 115). The method for controlling the optical image forming device includes a first interference optical system control step, a tomographic image generating step, a second interference optical system control step, and a front image forming step. The first interference optical system control step causes the interference optical system to generate interference light by retracting the shielding member from the reference optical path. The tomographic image forming step forms a tomographic image of the object to be measured based on the light reception result obtained by receiving light obtained by dispersing the interference light by the image sensor. The second interference optical system control step causes the interference optical system to output return light by inserting a shielding member into the reference optical path. The front image forming step forms a front image of the object to be measured based on the light reception result obtained by receiving light obtained by dispersing the return light by the image sensor.

このような方法によれば、参照光路に対する遮蔽部材の挿脱により、断層画像を取得するための光学系と正面画像を取得するための光学系とで干渉光学系の少なくとも一部を共用することができるようになる。従って、装置の大型化を最小限に抑えつつ、断層画像と正面画像とを取得することが可能になる。 According to this method, by inserting and removing the shielding member with respect to the reference light path, it becomes possible to share at least a part of the interference optical system between the optical system for acquiring a tomographic image and the optical system for acquiring a front image. Therefore, it becomes possible to acquire a tomographic image and a front image while minimizing the increase in size of the device.

いくつかの実施形態の第8態様では、第7態様において、分光部材は、回折格子(113)である。イメージセンサは、回折格子に形成された格子パターンの配列方向に対応した方向に2以上の受光素子が配列されたラインセンサである。 In an eighth aspect of some embodiments, in the seventh aspect, the dispersing element is a diffraction grating (113). The image sensor is a line sensor in which two or more light receiving elements are arranged in a direction corresponding to the arrangement direction of the grating pattern formed on the diffraction grating.

このような方法によれば、回折格子とラインセンサとを含む分光器を用いて、装置の大型化を最小限に抑えつつ、断層画像と正面画像とを取得することが可能になる。 This method makes it possible to obtain cross-sectional images and frontal images using a spectrometer that includes a diffraction grating and a line sensor while minimizing the increase in size of the device.

いくつかの実施形態の第9態様では、第8態様において、断層画像形成ステップは、2以上の受光素子における2以上の受光結果に基づいて断層画像を形成し、正面画像形成ステップは、各正面画像の画素ごとに2以上の受光結果のそれぞれに対応した画素情報が割り当てられた2以上の正面画像を形成する。 In a ninth aspect of some embodiments, in the eighth aspect, the tomographic image forming step forms a tomographic image based on two or more light receiving results from two or more light receiving elements, and the front image forming step forms two or more front images in which pixel information corresponding to each of the two or more light receiving results is assigned to each pixel of each front image.

このような方法によれば、装置の大型化を最小限に抑えつつ、断層画像とハイパースペクトル画像としての2以上の正面画像とを取得することが可能になる。 This method makes it possible to obtain a cross-sectional image and two or more front images as hyperspectral images while minimizing the increase in size of the device.

いくつかの実施形態の第10態様では、第8態様において、断層画像形成ステップは、2以上の受光素子における2以上の受光結果に基づいて断層画像を形成し、正面画像形成ステップは、2以上の受光素子における複数の受光結果に対するビニング処理結果に対応した画素情報を各正面画像の画素ごとに割り当てることで2以上の正面画像を形成する。 In a tenth aspect of some embodiments, in the eighth aspect, the tomographic image forming step forms a tomographic image based on two or more light receiving results from two or more light receiving elements, and the front image forming step forms two or more front images by assigning pixel information corresponding to the binning process results for the multiple light receiving results from the two or more light receiving elements to each pixel of each front image.

このような方法によれば、ビニング処理を行うことで、装置の大型化を最小限に抑えつつ、断層画像と分光画像としての2以上の正面画像とを取得することが可能になる。 According to this method, by performing binning processing, it is possible to obtain a cross-sectional image and two or more front images as spectroscopic images while minimizing the increase in size of the device.

いくつかの実施形態の第11態様では、第10態様において、正面画像形成ステップは、2以上の受光素子における全受光結果に対するビニング処理結果に対応した画素情報を画素ごとに割り当てることで単一の正面画像を形成する。 In an eleventh aspect of some embodiments, in the tenth aspect, the front image forming step forms a single front image by assigning pixel information corresponding to the binning process result for all light receiving results in two or more light receiving elements to each pixel.

このような方法によれば、2以上の受光素子における全受光結果に対してビニング処理を行うことで、装置の大型化を最小限に抑えつつ、断層画像と単一の正面画像とを取得することが可能になる。 According to this method, by performing a binning process on all light receiving results from two or more light receiving elements, it is possible to obtain a tomographic image and a single front image while minimizing the increase in size of the device.

いくつかの実施形態の第12態様では、第9態様において、正面画像形成ステップは、2以上の受光素子を複数の受光素子群に分割し、複数の受光素子群毎に受光素子の受光結果に対してビニング処理を行い、ビニング処理結果に対応した画素情報を画素ごとに割り当てることで、2以上の分光画像としての2以上の正面画像を形成する。 In a twelfth aspect of some embodiments, in the ninth aspect, the front image forming step divides two or more light receiving elements into a plurality of light receiving element groups, performs a binning process on the light receiving results of the light receiving elements for each of the plurality of light receiving element groups, and assigns pixel information corresponding to the binning process result to each pixel to form two or more front images as two or more spectral images.

このような方法によれば、装置の大型化を最小限に抑えつつ、断層画像と所望の波長範囲の分光画像としての2以上の正面画像とを取得することが可能になる。 This method makes it possible to obtain a tomographic image and two or more front images as spectroscopic images in the desired wavelength range while minimizing the increase in size of the device.

いくつかの実施形態の第13態様は、コンピュータに、第7態様~第12態様のいずれかに記載の光画像形成装置の制御方法の各ステップを実行させるプログラムである。 A thirteenth aspect of some embodiments is a program for causing a computer to execute each step of the method for controlling an optical imaging device described in any one of the seventh to twelfth aspects.

このようなプログラムによれば、参照光路に対する遮蔽部材の挿脱により、断層画像を取得するための光学系と正面画像を取得するための光学系とで干渉光学系の少なくとも一部を共用することができるようになる。従って、装置の大型化を最小限に抑えつつ、断層画像と正面画像とを取得するための光画像形成装置を提供することができる。 According to such a program, by inserting and removing a shielding member with respect to the reference light path, it becomes possible to share at least a part of the interference optical system between the optical system for acquiring a tomographic image and the optical system for acquiring a front image. Therefore, it is possible to provide an optical image forming device for acquiring a tomographic image and a front image while minimizing the increase in size of the device.

<その他>
以上に示された実施形態は、この発明を実施するための一例に過ぎない。この発明を実施しようとする者は、この発明の要旨の範囲内において任意の変形、省略、追加等を施すことが可能である。
<Other>
The embodiment described above is merely one example for carrying out the present invention. Anyone who wishes to carry out the present invention may make any modifications, omissions, additions, etc. within the scope of the gist of the present invention.

1 眼科装置
42 光スキャナ
100 光画像形成ユニット
101 光源ユニット
113 回折格子
115 イメージセンサ
130 遮蔽部材
210 制御部
211 主制御部
220 画像形成部
221 OCT画像形成部
222 SLO画像形成部
E 被検眼
LR 参照光
LS 測定光
LC 干渉光
Reference Signs List 1 Ophthalmic apparatus 42 Optical scanner 100 Optical image forming unit 101 Light source unit 113 Diffraction grating 115 Image sensor 130 Shielding member 210 Control unit 211 Main control unit 220 Image forming unit 221 OCT image forming unit 222 SLO image forming unit E Subject eye LR Reference light LS Measurement light LC Interference light

Claims (13)

光スキャナを含み、光源からの低コヒーレンス光を測定光と参照光とに分割し、前記光スキャナにより偏向された前記測定光を被測定物に照射し、参照光路を経由した前記参照光と前記被測定物からの前記測定光の戻り光とを干渉させる干渉光学系と、
前記参照光路に対して挿脱可能な遮蔽部材と、
前記参照光路から前記遮蔽部材が退避された状態で前記干渉光学系により生成された前記参照光と前記戻り光との干渉光を分光し、又は、前記参照光路に前記遮蔽部材が配置された状態で前記干渉光学系から出力された前記戻り光を分光する分光部材と、
前記分光部材により分光された光を受光するイメージセンサと、
前記イメージセンサにより得られた、前記干渉光を分光した光の受光結果に基づいて、前記被測定物の断層画像を形成する断層画像形成部と、
前記イメージセンサにより得られた、前記戻り光を分光した光の受光結果に基づいて前記被測定物の正面画像を形成する正面画像形成部と、
を含む、光画像形成装置。
an interference optical system including an optical scanner, which splits low-coherence light from a light source into measurement light and reference light, irradiates the measurement light deflected by the optical scanner onto an object to be measured, and causes interference between the reference light passing through a reference optical path and return light of the measurement light from the object to be measured;
a shielding member that is insertable into and detachable from the reference light path;
a spectroscopic member that spectroscopically separates interference light between the reference light and the return light generated by the interference optical system in a state in which the shielding member is retracted from the reference light path, or that spectroscopically separates the return light output from the interference optical system in a state in which the shielding member is disposed in the reference light path;
an image sensor that receives the light dispersed by the dispersing member;
a tomographic image forming unit that forms a tomographic image of the object to be measured based on a light receiving result of the light obtained by the image sensor and separated from the interference light;
a front image forming unit that forms a front image of the object to be measured based on a light receiving result of the light obtained by the image sensor and splitting the return light;
1. An optical imaging device comprising:
前記分光部材は、回折格子であり、
前記イメージセンサは、前記回折格子に形成された格子パターンの配列方向に対応した方向に2以上の受光素子が配列されたラインセンサである
ことを特徴とする請求項1に記載の光画像形成装置。
the spectroscopic member is a diffraction grating,
2. The optical imaging device according to claim 1, wherein the image sensor is a line sensor in which two or more light receiving elements are arranged in a direction corresponding to an arrangement direction of a grating pattern formed on the diffraction grating.
前記断層画像形成部は、前記2以上の受光素子における2以上の受光結果に基づいて前記断層画像を形成し、
前記正面画像形成部は、各正面画像の画素毎に前記2以上の受光結果のそれぞれに対応した画素情報が割り当てられた2以上の前記正面画像を形成する
ことを特徴とする請求項2に記載の光画像形成装置。
the tomographic image forming unit forms the tomographic image based on two or more light receiving results in the two or more light receiving elements;
The optical image forming device according to claim 2 , wherein the front image forming unit forms two or more of the front images, each of which is assigned pixel information corresponding to each of the two or more light receiving results for each pixel of the front image.
前記断層画像形成部は、前記2以上の受光素子における2以上の受光結果に基づいて前記断層画像を形成し、
前記正面画像形成部は、前記2以上の受光素子における複数の受光結果に対するビニング処理結果に対応した画素情報を各正面画像の画素毎に割り当てることで2以上の前記正面画像を形成する
ことを特徴とする請求項2に記載の光画像形成装置。
the tomographic image forming unit forms the tomographic image based on two or more light receiving results in the two or more light receiving elements;
The optical image forming device according to claim 2, characterized in that the front image forming unit forms two or more of the front images by assigning pixel information corresponding to a binning processing result for a plurality of light receiving results at the two or more light receiving elements to each pixel of each front image.
前記正面画像形成部は、前記2以上の受光素子における全受光結果に対するビニング処理結果に対応した画素情報を画素毎に割り当てることで単一の前記正面画像を形成する
ことを特徴とする請求項4に記載の光画像形成装置。
The optical image forming device according to claim 4 , wherein the front image forming section forms the single front image by assigning pixel information corresponding to a binning process result for all light receiving results in the two or more light receiving elements to each pixel.
前記正面画像形成部は、前記2以上の受光素子を複数の受光素子群に分割し、前記複数の受光素子群毎に受光素子の受光結果に対してビニング処理を行い、ビニング処理結果に対応した画素情報を画素毎に割り当てることで、2以上の分光画像としての2以上の前記正面画像を形成する
ことを特徴とする請求項4に記載の光画像形成装置。
The optical image forming device according to claim 4, characterized in that the front image forming unit divides the two or more light receiving elements into a plurality of light receiving element groups, performs a binning process on the light receiving results of the light receiving elements for each of the plurality of light receiving element groups, and forms two or more of the front images as two or more spectral images by assigning pixel information corresponding to the binning process result to each pixel.
光スキャナを含み、光源からの低コヒーレンス光を測定光と参照光とに分割し、前記光スキャナにより偏向された前記測定光を被測定物に照射し、参照光路を経由した前記参照光と前記被測定物からの前記測定光の戻り光とを干渉させる干渉光学系と、
前記参照光路に対して挿脱可能な遮蔽部材と、
前記干渉光学系により生成された前記戻り光と前記参照光との干渉光、又は、前記干渉光学系から出力された前記戻り光を分光する分光部材と、
前記分光部材により分光された光を受光するイメージセンサと、
を含む、光画像形成装置の制御方法であって、
前記参照光路から前記遮蔽部材を退避することにより前記干渉光学系に前記干渉光を生成させる第1干渉光学系制御ステップと、
前記イメージセンサにより前記干渉光を分光した光を受光することにより得られた受光結果に基づいて、前記被測定物の断層画像を形成する断層画像形成ステップと、
前記参照光路に前記遮蔽部材を挿入することにより前記干渉光学系から前記戻り光を出力させる第2干渉光学系制御ステップと、
前記イメージセンサにより前記戻り光を分光した光を受光することにより得られた受光結果に基づいて、前記被測定物の正面画像を形成する正面画像形成ステップと、
を含む、光画像形成装置の制御方法。
an interference optical system including an optical scanner, which splits low-coherence light from a light source into measurement light and reference light, irradiates the measurement light deflected by the optical scanner onto an object to be measured, and causes interference between the reference light passing through a reference optical path and return light of the measurement light from the object to be measured;
a shielding member that is insertable into and detachable from the reference light path;
a spectroscopic member that spectroscopically separates the interference light between the return light and the reference light generated by the interference optical system, or the return light output from the interference optical system;
an image sensor that receives the light dispersed by the dispersing member;
A method for controlling an optical imaging device, comprising:
a first interference optical system control step of causing the interference optical system to generate the interference light by retracting the shielding member from the reference light path;
a tomographic image forming step of forming a tomographic image of the object to be measured based on a light receiving result obtained by receiving light obtained by dispersing the interference light by the image sensor;
a second interference optical system control step of outputting the return light from the interference optical system by inserting the blocking member into the reference light path;
a front image forming step of forming a front image of the object to be measured based on a light reception result obtained by receiving light obtained by dispersing the return light by the image sensor;
A method for controlling an optical imaging device, comprising:
前記分光部材は、回折格子であり、
前記イメージセンサは、前記回折格子に形成された格子パターンの配列方向に対応した方向に2以上の受光素子が配列されたラインセンサである
ことを特徴とする請求項7に記載の光画像形成装置の制御方法。
the spectroscopic member is a diffraction grating,
8. The method for controlling an optical imaging device according to claim 7, wherein the image sensor is a line sensor in which two or more light receiving elements are arranged in a direction corresponding to an arrangement direction of a grating pattern formed on the diffraction grating.
前記断層画像形成ステップは、前記2以上の受光素子における2以上の受光結果に基づいて前記断層画像を形成し、
前記正面画像形成ステップは、各正面画像の画素毎に前記2以上の受光結果のそれぞれに対応した画素情報が割り当てられた2以上の前記正面画像を形成する
ことを特徴とする請求項8に記載の光画像形成装置の制御方法。
The tomographic image forming step forms the tomographic image based on two or more light receiving results in the two or more light receiving elements,
The control method for an optical image forming device according to claim 8, characterized in that the front image forming step forms two or more of the front images, each of which is assigned pixel information corresponding to each of the two or more light receiving results for each pixel of the front image.
前記断層画像形成ステップは、前記2以上の受光素子における2以上の受光結果に基づいて前記断層画像を形成し、
前記正面画像形成ステップは、前記2以上の受光素子における複数の受光結果に対するビニング処理結果に対応した画素情報を各正面画像の画素毎に割り当てることで2以上の前記正面画像を形成する
ことを特徴とする請求項8に記載の光画像形成装置の制御方法。
The tomographic image forming step forms the tomographic image based on two or more light receiving results in the two or more light receiving elements,
The control method for an optical image forming device according to claim 8, characterized in that the front image forming step forms two or more of the front images by assigning pixel information corresponding to a binning processing result for a plurality of light receiving results in the two or more light receiving elements to each pixel of each front image.
前記正面画像形成ステップは、前記2以上の受光素子における全受光結果に対するビニング処理結果に対応した画素情報を画素毎に割り当てることで単一の前記正面画像を形成する
ことを特徴とする請求項10に記載の光画像形成装置の制御方法。
The control method for an optical image forming device according to claim 10, characterized in that the front image forming step forms the single front image by assigning pixel information corresponding to a binning processing result for all light receiving results in the two or more light receiving elements to each pixel.
前記正面画像形成ステップは、前記2以上の受光素子を複数の受光素子群に分割し、前記複数の受光素子群毎に受光素子の受光結果に対してビニング処理を行い、ビニング処理結果に対応した画素情報を画素毎に割り当てることで、2以上の分光画像としての2以上の前記正面画像を形成する
ことを特徴とする請求項9に記載の光画像形成装置の制御方法。
10. The method for controlling an optical image forming device according to claim 9, characterized in that the front image forming step divides the two or more light receiving elements into a plurality of light receiving element groups, performs a binning process on the light receiving results of the light receiving elements for each of the plurality of light receiving element groups, and assigns pixel information corresponding to the binning process result to each pixel, thereby forming the two or more front images as two or more spectral images.
コンピュータに、請求項7~請求項12のいずれか一項に記載の光画像形成装置の制御方法の各ステップを実行させることを特徴とするプログラム。 A program that causes a computer to execute each step of the method for controlling an optical image forming device according to any one of claims 7 to 12.
JP2023049463A 2023-03-27 2023-03-27 Optical image forming apparatus, control method for optical image forming apparatus, and program Pending JP2024138784A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023049463A JP2024138784A (en) 2023-03-27 2023-03-27 Optical image forming apparatus, control method for optical image forming apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023049463A JP2024138784A (en) 2023-03-27 2023-03-27 Optical image forming apparatus, control method for optical image forming apparatus, and program

Publications (1)

Publication Number Publication Date
JP2024138784A true JP2024138784A (en) 2024-10-09

Family

ID=92974830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023049463A Pending JP2024138784A (en) 2023-03-27 2023-03-27 Optical image forming apparatus, control method for optical image forming apparatus, and program

Country Status (1)

Country Link
JP (1) JP2024138784A (en)

Similar Documents

Publication Publication Date Title
JP6616704B2 (en) Ophthalmic apparatus and ophthalmic examination system
JP6703839B2 (en) Ophthalmic measuring device
JP6776076B2 (en) OCT device
JP7186587B2 (en) ophthalmic equipment
WO2020044712A1 (en) Ophthalmology device, and control method therefor
JP2022164860A (en) Ophthalmologic apparatus
JP2019154988A (en) Ophthalmologic imaging apparatus, control method therefor, program, and storage medium
JP7394948B2 (en) ophthalmology equipment
JP7378557B2 (en) Ophthalmologic imaging device, its control method, program, and recording medium
JP7374272B2 (en) ophthalmology equipment
JP7215862B2 (en) OPHTHALMIC PHOTOGRAPHIC APPARATUS, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM THEREOF
JP7394897B2 (en) Ophthalmological device and method for controlling the ophthalmological device
JP7281906B2 (en) Ophthalmic device, its control method, program, and recording medium
JP2022110602A (en) Ophthalmologic apparatus, ophthalmologic apparatus control method, and program
JP2020195883A (en) Ophthalmologic inspection device
JP2024138784A (en) Optical image forming apparatus, control method for optical image forming apparatus, and program
WO2023042577A1 (en) Ophthalmic information processing device, ophthalmic device, ophthalmic information processing method, and program
US12133684B2 (en) Ophthalmic imaging apparatus, controlling method of the same, and recording medium
JP2024127325A (en) Optical image forming apparatus, control method for optical image forming apparatus, and program
JP2024124966A (en) Optical coherence tomography device, control method thereof, and program
JP7355331B2 (en) Scanning imaging device, control method thereof, image processing device, control method thereof, scanning imaging method, image processing method, program, and recording medium
US20240350003A1 (en) Ophthalmic imaging apparatus, controlling method of the same, and recording medium
JP2024141832A (en) Optical coherence tomography device, control method thereof, and program
JP7030577B2 (en) Ophthalmic equipment
JP7202808B2 (en) Ophthalmic device and its control method