Nothing Special   »   [go: up one dir, main page]

JP2014110825A - Fundus oculi image-capturing device, and fundus oculi image-processing program - Google Patents

Fundus oculi image-capturing device, and fundus oculi image-processing program Download PDF

Info

Publication number
JP2014110825A
JP2014110825A JP2012244956A JP2012244956A JP2014110825A JP 2014110825 A JP2014110825 A JP 2014110825A JP 2012244956 A JP2012244956 A JP 2012244956A JP 2012244956 A JP2012244956 A JP 2012244956A JP 2014110825 A JP2014110825 A JP 2014110825A
Authority
JP
Japan
Prior art keywords
fundus
imaging
light
image
fundus image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012244956A
Other languages
Japanese (ja)
Other versions
JP2014110825A5 (en
JP6422629B2 (en
Inventor
Masaaki Hanebuchi
昌明 羽根渕
Joji Sasaki
譲治 佐々木
Naohisa Shibata
尚久 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2012244956A priority Critical patent/JP6422629B2/en
Publication of JP2014110825A publication Critical patent/JP2014110825A/en
Publication of JP2014110825A5 publication Critical patent/JP2014110825A5/ja
Application granted granted Critical
Publication of JP6422629B2 publication Critical patent/JP6422629B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a fundus oculi image-capturing device and a fundus oculi image-processing program, capable of accurately acquiring captured image information on subject's eyes.SOLUTION: A fundus oculi image-capturing device includes: a light source; a fundus oculi imaging optical system for imaging a local area, which has an optical scanner for scanning a local area on an ocular fundus at least in one direction of X direction and Y direction by an emitted beam emitted from the light source, and a detector for detecting light from the ocular fundus concerning respective scanning positions in the local area; imaging position changing means having light deflection means disposed in an optical path of the fundus oculi imaging optical system for deflecting the emitted beam to change the imaging position of the local area imaged by the fundus oculi imaging optical system on the ocular fundus; and image processing means for processing light reception signals from the detector at the respective scanning positions to acquire a first ocular fundus image in the local area. The image processing means corrects distortion of the first ocular fundus image according to the imaging position changed by the imaging position changing means.

Description

被検眼を撮影する走査型の眼底撮影装置及び眼底画像処理プログラムに関する。   The present invention relates to a scanning-type fundus photographing apparatus for photographing a subject eye and a fundus image processing program.

走査型の眼底撮影装置において、広画角の撮影画像上で局所的な撮像位置を指定して、被検眼の詳細な撮影情報を取得するものがある。この種の眼底撮影装置は、照明光を眼に入射させるための凹面鏡等の光学部材を持ち、走査部材で走査された照明光は、光学部材で反射されて眼に入射する。眼からの反射光は受光素子で受光され、画素として撮影画像の形成や各種演算に用いられる(特許文献1参照)。詳細な撮影情報を広い画角で取得するためには、光学部材を複数配置する又は光学部材を大型化して、眼の周辺部に照明光が照射されるようにする必要がある(特許文献2参照)。   Some scanning fundus photographing apparatuses acquire detailed photographing information of an eye to be examined by designating a local imaging position on a wide-angle photographed image. This type of fundus imaging apparatus has an optical member such as a concave mirror for causing illumination light to enter the eye, and the illumination light scanned by the scanning member is reflected by the optical member and enters the eye. Reflected light from the eye is received by a light receiving element, and is used as a pixel for forming a captured image and various calculations (see Patent Document 1). In order to acquire detailed photographing information with a wide angle of view, it is necessary to arrange a plurality of optical members or increase the size of the optical members so that illumination light is irradiated to the peripheral portion of the eye (Patent Document 2). reference).

特開2010−259669号公報JP 2010-259669 A

Ferguson, RD, Zhong, Z, Hammer, DX, Mujat, M, Patel, AH, Deng,C, Zou, W, Burns, SA, "Adaptive optics SLO with integrated wide-field retinal imaging and tracking""J.Opt. Soc. Am. A 27, A265-A277 (2010)"Ferguson, RD, Zhong, Z, Hammer, DX, Mujat, M, Patel, AH, Deng, C, Zou, W, Burns, SA, "Adaptive optics SLO with integrated wide-field retinal imaging and tracking" "J.Opt Soc. Am. A 27, A265-A277 (2010) "

ところで、局所領域で取得された眼底画像には、光学系に配置された少なくとも1つの光学部材(例えば、凹面鏡、レンズ)の反射又は屈折による歪みが含まれる場合がある。この歪みは、局所的な眼底上の撮像位置によって異なる。つまり、眼底上の撮像位置の違いによって、その光学部材への光の入射角度が異なるため、各撮像位置での眼底画像の歪み特性は異なる。このような眼底画像の歪みの特性を考慮せずに、診断や解析に適した良好な眼底画像を得ることは困難である場合がある。
なお、構築された光学系によっては、光学系に配置された少なくとも1つの光学部材(例えば、凹面鏡、レンズ)における光軸から離れた周辺部分を用いて局所領域での眼底画像を得る場合、特に、眼底画像全体に歪が大きくなる場合がありうる。
By the way, the fundus image acquired in the local region may include distortion due to reflection or refraction of at least one optical member (for example, concave mirror or lens) arranged in the optical system. This distortion varies depending on the local imaging position on the fundus. That is, since the incident angle of light to the optical member differs depending on the imaging position on the fundus, the distortion characteristics of the fundus image at each imaging position are different. It may be difficult to obtain a good fundus image suitable for diagnosis or analysis without considering such distortion characteristics of the fundus image.
Depending on the constructed optical system, in particular, when obtaining a fundus image in a local region using a peripheral portion away from the optical axis in at least one optical member (for example, a concave mirror or a lens) arranged in the optical system, In some cases, the entire fundus image may be distorted.

本発明は上記従来技術の問題点に鑑み、眼の撮影情報を精度良く取得できる走査型の眼底撮影装置及び眼底画像処理プログラムを提供することを技術課題とする。   In view of the above-described problems of the prior art, it is an object of the present invention to provide a scanning fundus photographing apparatus and a fundus image processing program capable of acquiring eye photographing information with high accuracy.

上記課題を解決するために、本発明は以下のような構成を備えることを特徴とする。   In order to solve the above problems, the present invention is characterized by having the following configuration.

(1) 光源と、光源から出射された出射光によって被検眼眼底上の局所領域をX及びY方向の少なくとも1方向に走査するための光スキャナと、前記局所領域における各走査位置に関して前記眼底からの光を検出するための検出器と、を有し、前記局所領域を撮像するための眼底撮像光学系と、前記眼底撮像光学系の光路中に配置され前記出射光を偏向する光偏向手段を有し、前記眼底撮像光学系によって撮像される前記局所領域の撮像位置を前記眼底上で変更する撮像位置変更手段と、前記各走査位置における前記検出器からの受光信号を処理して前記局所領域における第1眼底画像を取得する画像処理手段と、を備え、前記画像処理手段は、前記撮像位置変更手段によって変更される前記撮像位置に応じて前記第1眼底画像の歪みを補正することを特徴とする。(2) 前記画像処理手段は、前記第1眼底画像の歪みを補正する際、前記第1眼底画像における各画素の座標を変位させることにより前記第1眼底画像の歪みを補正する画像処理手段であって、前記各画素の座標の変位量は、前記眼底撮像光学系に配置された少なくとも1つの光学部材による歪が生じていないと仮定した場合の前記第1眼底画像の座標位置と、実際に取得された前記第1眼底画像の座標位置との変位量に基づいて、前記撮像位置における前記光スキャナーの各走査位置に関してそれぞれ設定されている(1)の眼底撮影装置。
(3) 前記局所領域の撮像位置を選択するための検者からの選択指示を受け付ける指示受付手段を有し、撮像位置変更手段は、前記指示受付手段によって受け付けられた検者からの選択指示に応じて前記光偏向手段を制御し、前記局所領域の撮像位置を設定する(1)〜(2)のいずれかの眼底撮影装置。
(4) 前記画像処理手段は、前記第1眼底画像の歪みを補正する際、前記眼底撮像光学系の光軸から前記撮像位置までの距離に応じて、前記第1眼底画像における各画素の座標の変位量を大きくする(1)〜(3)のいずれかの眼底撮影装置。
(5) さらに、前記歪みが補正された第1眼底画像を画像処理して、前記眼底の細胞に関する解析結果を取得し、取得された解析結果を出力する細胞解析手段を備える(1)〜(4)のいずれかの眼底撮影装置。
(6) 前記眼底画像の撮影画角よりも広画角の第2眼底画像を撮像する第2眼底撮像光学系と、前記第1眼底画像及び前記第2眼底画像を表示部に表示する表示制御手段と、を備え、前記画像処理手段は、前記表示部に表示された前記第2眼底画像上の基準位置に対する前記撮像位置の偏位量に基づき前記光偏向手段による偏向角度を設定する(1)〜(5)のいずれかの眼底撮影装置。
(7) 前記画像処理手段は、前記撮像位置に応じた歪補正パターンを用いて、前記第1眼底画像における各画素の座標を変形させることにより前記第1眼底画像の歪みを補正する(1)〜(6)のいずれかの眼底撮影装置。
(8) 前記撮像位置変更手段は、前記光源から出射された光を偏向して前記被検眼の瞳孔への前記出射光の入射角度を変更することにより前記局所領域の撮像位置を前記眼底上で変更する撮像位置変更手段であって、前記出射光の入射角度に応じて異なる歪補正パターンが前記画像処理手段によって用いられるように設定されており、各歪補正パターンは、前記被検眼の瞳孔への前記出射光の実際の第1入射角度と、前記眼底撮像光学系に配置された少なくとも1つの光学部材によって歪が生じていないと仮定した場合の前記被検眼の瞳孔への前記出射光の第2入射角度と、の角度差情報を含み、前記画像処理手段は、前記角度差情報を用いて、前記第1眼底画像における各画素の座標の変位量を設定する(7)の眼底撮影装置。
(9) 前記光学部材は、凹面鏡又はレンズである(2)〜(8)のいずれかの眼底撮影装置。
(10) 前記画像処理手段は、前記各画素の座標の変位量を、記憶手段に記憶された各走査位置毎のテーブル、各走査位置に対応する演算式の少なくともいずれかを用いて設定する(2)〜(9)のいずれかの眼底撮影装置。
(11) 光源と、光源から出射された出射光によって被検眼眼底上の局所領域をX及びY方向の少なくとも1方向に走査するための光スキャナと、前記局所領域における各走査位置に関して前記眼底からの光を検出するための検出器と、を有し、前記局所領域を撮像するための眼底撮像光学系と、前記眼底撮像光学系の光路中に配置され前記出射光を偏向する光偏向手段を有し、前記眼底撮像光学系によって撮像される前記局所領域の撮像位置を前記眼底上で変更する撮像位置変更手段と、を備えた眼底撮影装置から、各走査位置における前記検出器からの受光信号を取得し、取得した前記受光信号を処理して前記局所領域における第1眼底画像を取得する眼底画像処理装置において実行される眼底画像処理プログラムであって、前記眼底画像処理装置のプロセッサによって実行されることで、前記撮像位置変更手段によって変更される前記撮像位置に応じて、前記第1眼底画像の歪みを補正する歪み補正ステップを前記眼底画像処理装置に実行させることを特徴とする眼底画
像処理プログラム。
(1) A light source, an optical scanner for scanning a local area on the fundus of the eye to be examined in at least one direction in the X and Y directions by the emitted light emitted from the light source, and each scanning position in the local area from the fundus A fundus imaging optical system for imaging the local region, and a light deflecting unit that is disposed in an optical path of the fundus imaging optical system and deflects the emitted light. And an imaging position changing means for changing the imaging position of the local area imaged by the fundus imaging optical system on the fundus, and processing the received light signal from the detector at each scanning position to process the local area Image processing means for acquiring a first fundus image in the image processing section, wherein the image processing means corrects distortion of the first fundus image according to the imaging position changed by the imaging position changing means. It is characterized by doing. (2) The image processing means is an image processing means for correcting the distortion of the first fundus image by displacing the coordinates of each pixel in the first fundus image when correcting the distortion of the first fundus image. The amount of displacement of the coordinates of each pixel is actually the coordinate position of the first fundus image when it is assumed that distortion due to at least one optical member arranged in the fundus imaging optical system has not occurred. The fundus imaging apparatus according to (1), wherein each of the scanning positions of the optical scanner at the imaging position is set based on the obtained displacement amount from the coordinate position of the first fundus image.
(3) An instruction receiving unit that receives a selection instruction from an examiner for selecting the imaging position of the local region, and the imaging position changing unit is configured to accept a selection instruction from the examiner received by the instruction receiving unit. Accordingly, the fundus imaging apparatus according to any one of (1) to (2), wherein the light deflecting unit is controlled to set the imaging position of the local region.
(4) When the image processing unit corrects the distortion of the first fundus image, the coordinates of each pixel in the first fundus image according to the distance from the optical axis of the fundus imaging optical system to the imaging position. The fundus imaging apparatus according to any one of (1) to (3), wherein the displacement amount of the fundus is increased.
(5) Furthermore, the first fundus image in which the distortion is corrected is subjected to image processing, an analysis result regarding the cells of the fundus is obtained, and a cell analysis unit that outputs the obtained analysis result is provided (1) to ( 4) Any fundus photographing apparatus.
(6) a second fundus imaging optical system that captures a second fundus image having a wider angle of view than a shooting field angle of the fundus image, and display control that displays the first fundus image and the second fundus image on a display unit. And the image processing means sets a deflection angle by the light deflection means based on a deviation amount of the imaging position with respect to a reference position on the second fundus image displayed on the display unit (1). ) To (5).
(7) The image processing unit corrects distortion of the first fundus image by deforming the coordinates of each pixel in the first fundus image using a distortion correction pattern corresponding to the imaging position (1). A fundus imaging apparatus according to any one of (6) to (6).
(8) The imaging position changing means deflects the light emitted from the light source and changes the incident angle of the emitted light to the pupil of the eye to be examined, thereby changing the imaging position of the local region on the fundus The imaging position changing means to be changed is set such that a different distortion correction pattern is used by the image processing means depending on the incident angle of the emitted light, and each distortion correction pattern is applied to the pupil of the eye to be examined. The first incident angle of the emitted light of the first eye and the first light of the emitted light to the pupil of the eye to be examined when it is assumed that no distortion is caused by at least one optical member arranged in the fundus imaging optical system. The fundus imaging apparatus according to (7), including angle difference information with respect to two incident angles, wherein the image processing unit sets a displacement amount of coordinates of each pixel in the first fundus image using the angle difference information.
(9) The fundus imaging apparatus according to any one of (2) to (8), wherein the optical member is a concave mirror or a lens.
(10) The image processing unit sets the displacement amount of the coordinates of each pixel using at least one of a table for each scanning position stored in the storage unit and an arithmetic expression corresponding to each scanning position ( The fundus imaging apparatus according to any one of 2) to (9).
(11) A light source, an optical scanner for scanning a local region on the fundus of the eye to be examined in at least one direction in the X and Y directions by the emitted light emitted from the light source, and each scanning position in the local region from the fundus A fundus imaging optical system for imaging the local region, and a light deflecting unit that is disposed in an optical path of the fundus imaging optical system and deflects the emitted light. And a light receiving signal from the detector at each scanning position from a fundus photographing apparatus comprising: an imaging position changing unit configured to change an imaging position of the local region imaged by the fundus imaging optical system on the fundus A fundus image processing program that is executed in a fundus image processing apparatus that acquires the first fundus image in the local region by processing the acquired light reception signal, the fundus image By being executed by the processor of the image processing device, the fundus image processing device is caused to execute a distortion correction step of correcting distortion of the first fundus image according to the imaging position changed by the imaging position changing unit. A fundus image processing program.

本発明によれば、眼の撮影情報を精度良く取得できる。   According to the present invention, it is possible to acquire eye photographing information with high accuracy.

本発明の実施形態を説明する。図1は眼底撮影装置500の外観図である。図2は眼底撮影装置500の光学系の説明図である。図3は眼底撮影装置500の制御ブロック図である。図4はモニタ70の表示画面の例である。   An embodiment of the present invention will be described. FIG. 1 is an external view of a fundus imaging apparatus 500. FIG. 2 is an explanatory diagram of the optical system of the fundus imaging apparatus 500. FIG. 3 is a control block diagram of the fundus imaging apparatus 500. FIG. 4 is an example of the display screen of the monitor 70.

眼底撮影装置500は、基台502、撮影部503、顔支持ユニット504を備える。基台502上に取り付けられた撮影部503の内部には後述する光学系が収納される。顔支持ユニット504は顎台505備え、顎台505は駆動手段(図示を略す)の駆動で顔支持ユニット4の基部に対して三次元方向に移動する。   The fundus imaging apparatus 500 includes a base 502, an imaging unit 503, and a face support unit 504. An optical system (to be described later) is housed inside the photographing unit 503 attached on the base 502. The face support unit 504 includes a chin rest 505, and the chin rest 505 moves in a three-dimensional direction with respect to the base of the face support unit 4 by driving of a driving means (not shown).

光学系は第1撮影ユニット100と第2撮影ユニット200を持つ。第1撮影ユニット100は、共焦点光学系を用いた走査型レーザー検眼鏡で構成され、被検眼Eを撮影して細胞レベルの解像度の撮影画像(第1眼底画像70a)を得る。第2撮影ユニット200は、第1眼底画像70aの撮像位置を指定するために、第1撮影ユニット100より広い画角の撮影画像(第2眼底画像70b)得る。   The optical system has a first photographing unit 100 and a second photographing unit 200. The first photographing unit 100 is configured by a scanning laser ophthalmoscope using a confocal optical system, and photographs the eye E to obtain a photographed image (first fundus image 70a) with a cell level resolution. The second imaging unit 200 obtains a captured image (second fundus image 70b) having a wider angle of view than the first imaging unit 100 in order to specify the imaging position of the first fundus image 70a.

第1撮影ユニット100は、第1照明光学系100a、第1撮影光学系100b、波面補償ユニット110を持つ。第1照明光学系100aは、照明光束の走査で眼(眼底)Eを2次元で照明する。第1撮影光学系100bは、眼底からの反射光(反射光束)を受光して第1眼底画像70aを得る。波面補償ユニット110は、眼Eの波面収差を検出して低次収差及び高次収差を取り除く。   The first photographing unit 100 includes a first illumination optical system 100a, a first photographing optical system 100b, and a wavefront compensation unit 110. The first illumination optical system 100a illuminates the eye (fundus) E two-dimensionally by scanning the illumination light beam. The first imaging optical system 100b receives reflected light (reflected light flux) from the fundus and obtains a first fundus image 70a. The wavefront compensation unit 110 detects the wavefront aberration of the eye E and removes the low-order aberration and the high-order aberration.

(第1撮影ユニット)
第1照明光学系100aは、光路(光軸)L1上に、光源1(第1光源)と、レンズ2、偏光ビームスプリッタ4、ビームスプリッタ71、ミラー6、凹面鏡7、平面ミラー8、波面補償デバイス72、ビームスプリッタ75、凹面鏡11、凹面鏡12、レゾナントスキャナー15、凹面鏡16、凹面鏡17、平面ミラー21、レンズ22、平面ミラー23、視度補正部10、平面ミラー25、凹面鏡26、ガルバノスキャナー40、ダイクロイックミラー90、平面ミラー32、平面ミラー33、凹面鏡31、35が配置されている。
(First shooting unit)
The first illumination optical system 100a includes a light source 1 (first light source), a lens 2, a polarization beam splitter 4, a beam splitter 71, a mirror 6, a concave mirror 7, a plane mirror 8, and a wavefront compensation on an optical path (optical axis) L1. Device 72, beam splitter 75, concave mirror 11, concave mirror 12, resonant scanner 15, concave mirror 16, concave mirror 17, flat mirror 21, lens 22, flat mirror 23, diopter correction unit 10, flat mirror 25, concave mirror 26, galvano scanner 40 A dichroic mirror 90, a plane mirror 32, a plane mirror 33, and concave mirrors 31 and 35 are arranged.

光源1は、近赤外から赤外域で眼底を照明する周知の赤外光源であり、例えば、波長840nmのSLD(Super Luminescent Diode)光源や、収束性の高いスポット光を出射する半導体レーザー等が用いられる。偏光ビームスプリッタ4は、光源1からの照射光のうちS偏光成分の光束を通過しその他(P偏向成分など)の光束を遮光する。ビームスプリッタ71は、光源1の波長の光を透過し、後述する収差検出用光源76の波長の光を反射する特性を持つ。   The light source 1 is a well-known infrared light source that illuminates the fundus from the near infrared region to the infrared region. For example, an SLD (Super Luminescent Diode) light source having a wavelength of 840 nm, a semiconductor laser that emits highly converged spot light, or the like. Used. The polarization beam splitter 4 passes the light beam of the S polarization component of the irradiation light from the light source 1 and shields the other light beam (such as the P deflection component). The beam splitter 71 has a characteristic of transmitting light having the wavelength of the light source 1 and reflecting light having the wavelength of the aberration detection light source 76 described later.

波面補償デバイス72は、波面センサー73(後述する)で検出された眼底反射光に含まれる収差を除去する。例えば波面補償デバイス72には、反射型のLCOS(Liquid Crystal On Silicon)が用いられる。これ以外にもMEMS(Micro Electro Mechanical Systems)の反射型の波面補償デバイスの他、眼底からの反射光を透過して波面収差を補
償する透過型の波面補償デバイス等を用いることができる。
The wavefront compensation device 72 removes aberrations contained in fundus reflected light detected by a wavefront sensor 73 (described later). For example, the wavefront compensation device 72 uses a reflective LCOS (Liquid Crystal On Silicon). In addition to this, in addition to a reflection type wavefront compensation device of MEMS (Micro Electro Mechanical Systems), a transmission type wavefront compensation device that transmits reflected light from the fundus and compensates for wavefront aberration can be used.

波面補償デバイス72は入射光のS偏光成分を変調するために、光源1からの照明光(
S偏光光)、照明光の眼底での反射光(S偏光光)、波面収差検出用光の反射光(S偏光成分)等の所定の直線偏光(S偏光)に対する収差を補償することが可能な向きに配置される。
The wavefront compensation device 72 modulates the s-polarized component of the incident light in order to illuminate the illumination light from the light source 1 (
It is possible to compensate for aberrations with respect to predetermined linearly polarized light (S-polarized light) such as S-polarized light), reflected light from the fundus of illumination light (S-polarized light), and reflected light (S-polarized light component) of wavefront aberration detection light. Placed in the right direction.

視度補正部10は、眼Eの視度補正のために光路長を変えるために用いられる。視度補正部10は、例えば2枚の平面ミラーと2つのレンズ(図番号を略す)、駆動部10aで構成される。駆動部10aの駆動で平面ミラー及びレンズが矢印A方向に移動され、光路長が変わることで視度が補正される。なお視度補正部10は光軸方向に移動可能なプリズムで構成しても良い。   The diopter correction unit 10 is used to change the optical path length for diopter correction of the eye E. The diopter correction unit 10 includes, for example, two plane mirrors, two lenses (not shown in the figure), and a drive unit 10a. The plane mirror and the lens are moved in the direction of arrow A by the drive of the drive unit 10a, and the diopter is corrected by changing the optical path length. The diopter correction unit 10 may be a prism that can move in the optical axis direction.

レゾナントスキャナー15は、ミラー15aと駆動部15bを持つ。駆動部15bの駆動でミラー15aは所要の振れ角(画角)で主走査方向(X方向)に振動する。ガルバノスキャナー40は、ガルバノミラー41a、ガルバノミラー41bと、駆動部42を持つ。ガルバノミラー41aは駆動部42で主走査方向(X方向)に傾斜する。ガルバノミラー41bは駆動部42で副走査方向(Y方向)に傾斜する。レゾナントスキャナー15とガルバノミラー41aの走査の組み合わせで眼底が二次元で照明される。   The resonant scanner 15 has a mirror 15a and a drive unit 15b. By driving the drive unit 15b, the mirror 15a vibrates in the main scanning direction (X direction) at a required deflection angle (view angle). The galvano scanner 40 includes a galvano mirror 41a, a galvano mirror 41b, and a drive unit. The galvanometer mirror 41a is inclined by the drive unit 42 in the main scanning direction (X direction). The galvanometer mirror 41b is inclined in the sub-scanning direction (Y direction) by the drive unit. The fundus is illuminated two-dimensionally by a combination of scanning by the resonant scanner 15 and the galvanometer mirror 41a.

またガルバノミラー41a、41bの傾斜(偏向)によって、光源1の照明光の照射位置が、第2眼底画像70b上で指定された第1眼底画像70aの撮像位置に移動される。眼底からの反射光は、検出器である受光素子56で受光されて光電変換される。受光素子56から出力された信号は、制御部80(後述する)で量子化されて、二次元眼底画像の形成や、各種演算に用いられる。   Further, the illumination light irradiation position of the light source 1 is moved to the imaging position of the first fundus image 70a specified on the second fundus image 70b by the inclination (deflection) of the galvanometer mirrors 41a and 41b. The reflected light from the fundus is received and photoelectrically converted by the light receiving element 56 which is a detector. A signal output from the light receiving element 56 is quantized by a control unit 80 (described later) and used for formation of a two-dimensional fundus image and various calculations.

なお、上記のガルバノミラー41bのように、局所領域をY方向に走査して第1眼底画像70aを得るための光スキャナが、第1眼底画像70aのY方向に関する撮像位置を変更するための光偏向部材を兼用してもよい。もちろん、局所領域をX方向に走査して第1眼底画像70aを得るための光スキャナが、第1眼底画像70aのX方向に関する撮像位置を変更するための光偏向部材を兼用してもよい。もちろん、第1眼底画像70aを得るための光スキャナと、撮像位置を変更するための光偏向部材とが、X方向、Y方向に関してそれぞれ別の構成であってもよい。   In addition, the light for scanning the local region in the Y direction and obtaining the first fundus image 70a as in the galvano mirror 41b described above is the light for changing the imaging position in the Y direction of the first fundus image 70a. A deflection member may also be used. Of course, the optical scanner for scanning the local region in the X direction to obtain the first fundus image 70a may also serve as the light deflection member for changing the imaging position of the first fundus image 70a in the X direction. Of course, the optical scanner for obtaining the first fundus image 70a and the optical deflection member for changing the imaging position may have different configurations with respect to the X direction and the Y direction, respectively.

ダイクロイックミラー90は、第2撮影ユニット200からの光束を透過させ、光源1及び後述する光源76からの光束を反射する特性を有し、第2撮影ユニット200等と第1照明光学系100aの光路を略同軸にする。   The dichroic mirror 90 has a characteristic of transmitting a light beam from the second photographing unit 200 and reflecting a light beam from the light source 1 and a light source 76 described later, and an optical path between the second photographing unit 200 and the first illumination optical system 100a. Is approximately coaxial.

以上のような構成により、光源1から出射された光束は、レンズ2で平行光とされた後、偏光ビームスプリッタ4を経て、ビームスプリッタ71、凹面鏡6から平面ミラー8で反射され、波面補償デバイス72に入射する。波面補償デバイス72で反射された光束は、ビームスプリッタ75を介し、凹面鏡11、12で反射されてレゾナントスキャナー15に入射する。   With the configuration as described above, the light beam emitted from the light source 1 is converted into parallel light by the lens 2 and then reflected by the plane mirror 8 from the beam splitter 71 and the concave mirror 6 through the polarization beam splitter 4 to be a wavefront compensation device. 72 is incident. The light beam reflected by the wavefront compensation device 72 is reflected by the concave mirrors 11 and 12 via the beam splitter 75 and enters the resonant scanner 15.

レゾナントスキャナー15で反射された光束は、凹面鏡16から平面ミラー21で反射され、レンズ22に集光された後、平面ミラー23で反射され、更に視度補正部10を介して、平面ミラー25、凹面鏡26で反射されて、ガルバノスキャナー40に入射する。ガルバノスキャナー40で反射された光束は、ダイクロイックミラー90から凹面鏡35で反射されて、眼底に集光する。   The light beam reflected by the resonant scanner 15 is reflected from the concave mirror 16 by the plane mirror 21, condensed on the lens 22, reflected by the plane mirror 23, and further via the diopter correction unit 10, The light is reflected by the concave mirror 26 and enters the galvano scanner 40. The light beam reflected by the galvano scanner 40 is reflected by the concave mirror 35 from the dichroic mirror 90 and condensed on the fundus.

第1撮影光学系100bは、第1照明光学系100aのダイクロイックミラー90からビームスプリッタ71までの光路を共有し、ビームスプリッタ71の反射光路上の平面ミラー51、偏光ビームスプリッタ52、レンズ53、ピンホール板54、レンズ55、受
光素子56を持つ。偏光ビームスプリッタ52は、S偏光成分の光束のみを通過してP偏向成分など(その他)の光束を遮光する。ピンホール板54は、眼底と共役位置に置かれる。受光素子56には、APD(アバランシェフォトダイオード)や、光電子倍増管等が用いられる。
The first imaging optical system 100b shares an optical path from the dichroic mirror 90 to the beam splitter 71 of the first illumination optical system 100a, and includes a plane mirror 51, a polarizing beam splitter 52, a lens 53, a pin on the reflected optical path of the beam splitter 71. It has a hall plate 54, a lens 55, and a light receiving element 56. The polarization beam splitter 52 passes only the S-polarized light beam and blocks the P-polarized component (other) light beam. The pinhole plate 54 is placed at a conjugate position with the fundus. As the light receiving element 56, an APD (avalanche photodiode), a photomultiplier tube, or the like is used.

眼底からの反射光は、第1照明光学系100aを逆に辿り、ビームスプリッタ71、平面ミラー51で反射される。そして偏光ビームスプリッタ52でS偏光成分の光束のみ透過する。偏光ビームスプリッタ52を透過したS偏向成分の光束は、レンズ53を介してピンホール板54のピンホールに焦点を結び、レンズ55を経て受光素子56で受光される。   Reflected light from the fundus traverses the first illumination optical system 100 a in reverse, and is reflected by the beam splitter 71 and the plane mirror 51. Then, only the light beam of the S polarization component is transmitted by the polarization beam splitter 52. The light beam of the S deflection component transmitted through the polarization beam splitter 52 is focused on the pinhole of the pinhole plate 54 through the lens 53, and is received by the light receiving element 56 through the lens 55.

なお角膜からの反射光はピンホール板54で大部分が除去されるので、受光素子56には眼底からの反射光が好適に受光される。波面補償部110は、第1照明光学系100aの光路に置かれるビームスプリッタ71から凹面鏡35までの光学部材を共用すると共に、光源76、レンズ77、偏光ビームスプリッタ78、ビームスプリッタ75、71、ダイクロイックミラー86、偏光ビームスプリッタ85、レンズ84、平面ミラー83、レンズ82、波面センサー73を持つ。光源76は、光源1と異なる赤外域の光束を発するレーザダイオード等が使用される。光源1と収差検出用の光源76は併用されても良い。   Since most of the reflected light from the cornea is removed by the pinhole plate 54, the light receiving element 56 preferably receives the reflected light from the fundus. The wavefront compensation unit 110 shares an optical member from the beam splitter 71 to the concave mirror 35 placed in the optical path of the first illumination optical system 100a, and also includes a light source 76, a lens 77, a polarization beam splitter 78, beam splitters 75 and 71, and a dichroic. It has a mirror 86, a polarization beam splitter 85, a lens 84, a plane mirror 83, a lens 82, and a wavefront sensor 73. As the light source 76, a laser diode or the like that emits a light beam in an infrared region different from that of the light source 1 is used. The light source 1 and the aberration detection light source 76 may be used in combination.

偏光ビームスプリッタ(第1偏光手段)78は、光源76から照射された光束を、偏光ビームスプリッタ4でS偏光された光源1からの光束に直交するP偏光の光束に偏光する。ビームスプリッタ75は、波面補償部110の光束を第1照明光学系の光路に導く。ビームスプリッタ71は、光源1の波長の光(840nm)を透過し、収差検出用の光源76の波長光(780nm)を反射する。これにより波面センサー73は、照射されたレーザー光による眼底からの散乱光のうちS偏光成分を持つ光を検出する。ダイクロックミラー86は、光源1の波長の光(840nm)を透過し、収差検出用の光源76の波長光(780nm)を反射する。偏光ビームスプリッタ(第2偏光手段)85は、光源76から眼Eに照射された偏光方向の光束(P偏光光)を遮断し、この偏光方向に直交する偏光方向の光束(S偏光光)を透過する。   The polarization beam splitter (first polarization means) 78 polarizes the light beam emitted from the light source 76 into a P-polarized light beam orthogonal to the light beam from the light source 1 that has been S-polarized by the polarization beam splitter 4. The beam splitter 75 guides the light beam of the wavefront compensation unit 110 to the optical path of the first illumination optical system. The beam splitter 71 transmits the light having the wavelength of the light source 1 (840 nm) and reflects the light having the wavelength of the aberration detecting light source 76 (780 nm). As a result, the wavefront sensor 73 detects light having an S-polarized component from the scattered light from the fundus occupying the irradiated laser light. The dichroic mirror 86 transmits light (840 nm) having the wavelength of the light source 1 and reflects light having the wavelength (780 nm) of the light source 76 for aberration detection. The polarization beam splitter (second polarization unit) 85 blocks the light beam in the polarization direction (P-polarized light) irradiated to the eye E from the light source 76, and the light beam in the polarization direction (S-polarized light) orthogonal to the polarization direction. To Penetrate.

波面センサー73には、被検眼の反射光に含まれる低次収差及び高次収差を検知するものが用いられる。例えばマイクロレンズアレイと、マイクロレンズアレイを透過した光束を受光する二次元撮像素子73a(2次元受光素子)から構成される。収差検出用の光源76(第3光源)は、光源1とは異なる赤外帯域の光束を照射するものが選択される。例えば波長780nmのレーザー光を出射するレーザダイオード等が用いられる。光源76の出射端は眼底と略共役とする。波面センサー73には、ハルトマンシャック検出器や光強度の変化を検出する波面曲率センサー等が用いられる。なおレゾナントスキャナー15、波面補償デバイス72の反射面は被検眼の瞳と共役とする。波面センサー73の受光面(二次元撮像素子76a)は眼Eの眼底と略共役とする。なお本実施形態では、波面センサー73からの検出結果に基づいて波面補償デバイス72を制御しているが、これに限定されない。例えば、制御部80は、受光素子56からの受光信号に基づいて取得される眼底画像を用いて波面補償デバイス72を制御してもよい。このような構成により、波面センサーを設けなくても、波面補償デバイス72を用いて眼底からの反射光の波面を補償できる。波面センサーを用いない場合、例えば、制御部80は、その眼底画像のフォーカス状態を画像処理により判定し、フォーカス状態が適正な眼底画像が得られるように波面補償デバイス72を制御してもよい。   As the wavefront sensor 73, a sensor that detects low-order aberrations and high-order aberrations contained in the reflected light of the eye to be examined is used. For example, it includes a microlens array and a two-dimensional imaging element 73a (two-dimensional light receiving element) that receives a light beam that has passed through the microlens array. The light source 76 (third light source) for aberration detection is selected to irradiate a light beam in an infrared band different from that of the light source 1. For example, a laser diode that emits laser light having a wavelength of 780 nm is used. The emission end of the light source 76 is substantially conjugate with the fundus. As the wavefront sensor 73, a Hartmann Shack detector, a wavefront curvature sensor for detecting a change in light intensity, or the like is used. The reflective surfaces of the resonant scanner 15 and the wavefront compensation device 72 are conjugate with the pupil of the eye to be examined. The light receiving surface (two-dimensional imaging element 76a) of the wavefront sensor 73 is substantially conjugate with the fundus of the eye E. In the present embodiment, the wavefront compensation device 72 is controlled based on the detection result from the wavefront sensor 73, but the present invention is not limited to this. For example, the control unit 80 may control the wavefront compensation device 72 using a fundus image acquired based on a light reception signal from the light receiving element 56. With such a configuration, the wavefront of reflected light from the fundus can be compensated using the wavefront compensation device 72 without providing a wavefront sensor. When the wavefront sensor is not used, for example, the control unit 80 may determine the focus state of the fundus image by image processing, and may control the wavefront compensation device 72 so that a fundus image with an appropriate focus state is obtained.

光源76から出射されたレーザー光は、レンズ77で平行光とされた後、偏光ビームスプリッタ78で光源1からの光束と直交する偏光方向(P偏光)とされ、ビームスプリッタ75で第1照明光学系100aの光路に導かれる。ビームスプリッタ75で反射したレーザー光は、第1照明光学系100aの光路を経て眼底に集光する。眼底からの反射光は、第1照明光学系100aの各光学部材を経て波面補償デバイス72で反射し、ビームスプリッタ71で第1照明光学系100aの光路から外され、ダイクロイックミラー86で反射した後、偏光ビームスプリッタ85、レンズ84、平面ミラー83、レンズ82を経て波面センサー73へと導かれる。波面センサー73では眼底からの散乱光のうちS偏光成分を持つ光が検出され、角膜や光学素子で反射した光束が、波面センサー73で検出されることが抑えられる。   The laser light emitted from the light source 76 is converted into parallel light by the lens 77, and then the polarization direction is orthogonal to the light beam from the light source 1 by the polarizing beam splitter 78 (P-polarized light). Guided to the optical path of system 100a. The laser light reflected by the beam splitter 75 is condensed on the fundus through the optical path of the first illumination optical system 100a. The reflected light from the fundus is reflected by the wavefront compensation device 72 through each optical member of the first illumination optical system 100 a, removed from the optical path of the first illumination optical system 100 a by the beam splitter 71, and reflected by the dichroic mirror 86. Then, it is guided to the wavefront sensor 73 through the polarization beam splitter 85, the lens 84, the plane mirror 83, and the lens 82. The wavefront sensor 73 detects light having an S-polarized component from the scattered light from the fundus and suppresses detection of the light beam reflected by the cornea or the optical element by the wavefront sensor 73.

波面補償部(補償光学系)110によって、波面センサー73で検出された光源76の眼底反射光の波面収差に基づいて、波面補償デバイス72が制御され、光源76の反射光のS偏光成分と共に、光源1から出射される光束とその反射光の波面収差が取り除かれて、眼Eの波面収差が取り除かれた(波面補償がされた)高解像度の第1眼底画像70aが得られる。   The wavefront compensation device (compensation optical system) 110 controls the wavefront compensation device 72 based on the wavefront aberration of the fundus reflected light of the light source 76 detected by the wavefront sensor 73, and together with the S-polarized component of the reflected light of the light source 76, The wavefront aberration of the luminous flux emitted from the light source 1 and the reflected light thereof is removed, and the high-resolution first fundus image 70a from which the wavefront aberration of the eye E is removed (wavefront compensation is performed) is obtained.

(第2撮影ユニット)
第2撮影ユニットは、第1撮影ユニットの画角よりも広画角の眼底画像(第2眼底画像70b)を得る。第2眼底画像70bは第1眼底画像70aの撮像位置指定、撮像位置の確認用に用いられる。第2眼底画像70bを取得する第2撮影ユニット200は、眼Eの眼底画像を観察用として広画角(例えば20度〜60度程度)でリアルタイムに取得できればよく、既存の眼底カメラの観察・撮影光学系や走査型レーザー検眼鏡(Scanning Laser Ophthalmoscope:SLO)の光学系及び制御系等が用いられる。ここでは説明の簡便のため第2撮影ユニット200の構成をブロック図で示している。
(Second shooting unit)
The second imaging unit obtains a fundus image (second fundus image 70b) having a wider angle of view than the angle of view of the first imaging unit. The second fundus image 70b is used for specifying the imaging position of the first fundus image 70a and confirming the imaging position. The second photographing unit 200 that acquires the second fundus image 70b only needs to be able to acquire the fundus image of the eye E in real time with a wide angle of view (for example, about 20 to 60 degrees) for observation. An imaging optical system, an optical system of a scanning laser ophthalmoscope (SLO), a control system, and the like are used. Here, for convenience of explanation, the configuration of the second photographing unit 200 is shown in a block diagram.

第2撮影ユニット200は、第2照明光学系と第2撮影光学系を持つ。第2照明光学系は、眼底を赤外光で照明する第2光源210、光束を眼底上で2次元的に走査する走査部220等を備え、眼底を2次元で照明する。第2光源210は、例えば910nmの波長のレーザー光を出射するレーザダイオードが用いられる。走査部220は、X及びY方向の二次元方向にレーザー光を偏向(反射)するミラーを備える。走査部220の振れ角は、第2撮影ユニット200の撮影画角が第1撮影ユニット100の撮影画角よりも大きくなるように決定される。例えば、黄斑部や乳頭等の眼底の特徴部を同時に撮影できるようにする場合、画角は20〜60度程度となる。第2撮影ユニット200は眼底からの反射光を受光して第2眼底画像70bを取得する為に、眼底からの反射光を受光する受光素子251等を持つ。   The second photographing unit 200 has a second illumination optical system and a second photographing optical system. The second illumination optical system includes a second light source 210 that illuminates the fundus with infrared light, a scanning unit 220 that scans the light beam two-dimensionally on the fundus, and the like, and illuminates the fundus two-dimensionally. As the second light source 210, for example, a laser diode that emits laser light having a wavelength of 910 nm is used. The scanning unit 220 includes a mirror that deflects (reflects) laser light in a two-dimensional direction of X and Y directions. The deflection angle of the scanning unit 220 is determined so that the shooting angle of view of the second shooting unit 200 is larger than the shooting angle of view of the first shooting unit 100. For example, when it is possible to simultaneously photograph fundus features such as the macula and nipple, the angle of view is about 20 to 60 degrees. The second photographing unit 200 includes a light receiving element 251 that receives the reflected light from the fundus in order to receive the reflected light from the fundus and acquire the second fundus image 70b.

第2撮影ユニット200の光路は、ダイクロイックミラー90によって第1撮影ユニット100と略同軸とされ、第2光源210からの光束は、ダイクロイックミラー90、凹面鏡31、35、平面ミラー33を経て眼底に集光する。眼底に投影された光束は走査部220の駆動で眼底の広い範囲を2次元的に走査する。眼底の反射光は平面ミラー33からダイクロイックミラー90までの光路を逆に経て、受光素子251で受光され、第1撮影ユニット100の撮影の位置指定などに用いられる第2眼底画像70bが取得される。   The optical path of the second imaging unit 200 is made substantially coaxial with the first imaging unit 100 by the dichroic mirror 90, and the light flux from the second light source 210 is collected on the fundus via the dichroic mirror 90, the concave mirrors 31 and 35, and the plane mirror 33. Shine. The light beam projected on the fundus scans a wide range of the fundus two-dimensionally by driving the scanning unit 220. The reflected light from the fundus passes through the optical path from the plane mirror 33 to the dichroic mirror 90 in the reverse direction and is received by the light receiving element 251 to obtain the second fundus image 70b used for specifying the shooting position of the first shooting unit 100 and the like. .

なお第1撮影ユニット100と第2撮影ユニット200に配置される凹面鏡31,35は、眼底の周辺部まで(広い画角で)照明光を入射させることができるように広い反射面(面積)を持つものが用いられることが好ましい。凹面鏡31,35を介して眼底を照明できる範囲(画角)が広げられることで、より広画角の第2眼底画像70bを取得できるようになる。また光軸L1から離れた眼底の周辺部での第1眼底画像70aの撮影も可能になる。   The concave mirrors 31 and 35 arranged in the first photographing unit 100 and the second photographing unit 200 have a wide reflecting surface (area) so that illumination light can be incident on the periphery of the fundus (with a wide angle of view). It is preferable that what is possessed is used. By expanding the range (view angle) in which the fundus can be illuminated via the concave mirrors 31 and 35, the second fundus image 70b having a wider view angle can be acquired. It is also possible to capture the first fundus image 70a at the periphery of the fundus away from the optical axis L1.

一方、第1撮影ユニット100の撮影で取得された局所領域の眼底画像には、光学系に配置された少なくとも1つの光学部材(例えば、凹面鏡、レンズ)の反射又は屈折による歪みが含まれる。この歪みは、局所的な眼底上の撮像位置によって異なる。つまり、眼底上の撮像位置の違いによって、その光学部材への光の入射角度が異なるため、各撮像位置での眼底画像の歪み特性は異なる。このような眼底画像の歪みの特性を考慮せずに、診断や解析に適した良好な眼底画像を得ることは困難である場合がある。
なお、構築された光学系によっては、光学系に配置された少なくとも1つの光学部材(例えば、凹面鏡、レンズ)における光軸から離れた周辺部分を用いて局所領域での眼底画像を得る場合、特に、眼底画像全体に歪が大きくなる場合がありうる。
On the other hand, the fundus image of the local region acquired by imaging by the first imaging unit 100 includes distortion due to reflection or refraction of at least one optical member (for example, a concave mirror or lens) arranged in the optical system. This distortion varies depending on the local imaging position on the fundus. That is, since the incident angle of light to the optical member differs depending on the imaging position on the fundus, the distortion characteristics of the fundus image at each imaging position are different. It may be difficult to obtain a good fundus image suitable for diagnosis or analysis without considering such distortion characteristics of the fundus image.
Depending on the constructed optical system, in particular, when obtaining a fundus image in a local region using a peripheral portion away from the optical axis in at least one optical member (for example, a concave mirror or a lens) arranged in the optical system, In some cases, the entire fundus image may be distorted.

図10は撮像位置ごとの歪の発生状態についての説明図であり、図10(a)は、第2眼底画像70b(眼底)に対する第1眼底画像70aの撮像位置B1〜B9、図10(b)は各撮像位置B1〜B9で取得された第1眼底画像70a1〜70a9である。ここでは、第1撮影ユニット100で等間隔に並べられたドットを撮影したときの第1眼底画像70aに発生する収差の違いが示されている。つまり光軸L1を含む撮像位置B1では、凹面鏡31,35の中心部に照明光が入射するので発生する歪は小さく、第1眼底画像70a1は比較的精度良く表示されている。一方、光軸1から偏心した撮像位置B2〜B9では、凹面鏡31,35の周辺部に照明光が入射するので、撮像位置B1に比べて歪が発生しやすい状態にある。つまり第1眼底画像70a1と比べると、第1眼底画像70a2〜70a9の収差がより顕著に現れていることが分かる。このように凹面鏡31,35への照明光の入射位置の違いによって、像歪が変化するので、各撮像位置で撮影された第1撮影画像の収差を、共通する歪補正パターン(ルックアップテーブル)を用いて補正することは困難である。   FIG. 10 is an explanatory diagram of the state of occurrence of distortion at each imaging position. FIG. 10A shows the imaging positions B1 to B9 of the first fundus image 70a with respect to the second fundus image 70b (fundus), and FIG. ) Are first fundus images 70a1 to 70a9 acquired at the respective imaging positions B1 to B9. Here, a difference in aberration that occurs in the first fundus image 70a when the first imaging unit 100 captures dots arranged at equal intervals is shown. That is, at the imaging position B1 including the optical axis L1, the illumination light is incident on the central portions of the concave mirrors 31 and 35, so that the distortion generated is small and the first fundus image 70a1 is displayed with relatively high accuracy. On the other hand, at the imaging positions B2 to B9 decentered from the optical axis 1, the illumination light is incident on the peripheral portions of the concave mirrors 31 and 35, so that distortion is more likely to occur than at the imaging position B1. That is, it can be seen that the aberrations of the first fundus images 70a2 to 70a9 appear more conspicuously than the first fundus image 70a1. As described above, the image distortion changes depending on the difference in the incident position of the illumination light on the concave mirrors 31 and 35. Therefore, a common distortion correction pattern (lookup table) is used for the aberration of the first captured image captured at each imaging position. It is difficult to correct using.

なお歪を含む画像(画素)を用いて視細胞密度又は面積の計算等の各種演算を行おうとすると、演算結果の信頼性の低下につながるおそれが有る。また視細胞の配列や視神経遷移束の走行等を確認する場合にも収差の影響で正しく認識することが妨げられてしまう。更には眼底の異なる位置で撮影された複数の第1眼底画像70aを繋ぎ合わせて、広画角の第1眼底画像70aを形成する場合には、各画像に個別に含まれる収差のために、隣合う画像同士を精度良く繋ぎ合わせることが出来なくなるおそれがある。
そこで本実施形態では、眼底に対する第1眼底画像70aの撮像位置毎に、凹面鏡31,35の反射で生じる歪を補正する。歪補正の詳細な説明は後述する。
Note that if various calculations such as calculation of photoreceptor cell density or area are performed using an image (pixel) including distortion, the reliability of the calculation result may be reduced. Also, when confirming the arrangement of photoreceptor cells, the traveling of the optic nerve transition bundle, etc., correct recognition is hindered by the influence of aberration. Furthermore, when a plurality of first fundus images 70a photographed at different positions of the fundus are connected to form the first fundus image 70a having a wide angle of view, due to the aberrations included in each image individually, Adjacent images may not be connected with high accuracy.
Therefore, in the present embodiment, distortion caused by reflection of the concave mirrors 31 and 35 is corrected for each imaging position of the first fundus image 70a with respect to the fundus. A detailed description of the distortion correction will be described later.

制御部80は、眼底撮影装置500全体の動作制御をする。例えば、装置のアライメント動作、撮影動作、波面補償動作、トラッキング等の動作制御をする。また制御部80は、受光素子56から出力された信号を量子化すると共に、信号に含まれる歪を補正して撮影画像の情報として記憶部81に記憶させる画像取得手段となる。なお制御部80には、記憶部81、コントロール部92、モニタ70等も接続される。   The control unit 80 controls the operation of the entire fundus photographing apparatus 500. For example, operation control such as alignment operation, imaging operation, wavefront compensation operation, and tracking of the apparatus is performed. The control unit 80 serves as an image acquisition unit that quantizes the signal output from the light receiving element 56 and corrects distortion included in the signal and stores it in the storage unit 81 as information on the captured image. The control unit 80 is also connected to a storage unit 81, a control unit 92, a monitor 70, and the like.

記憶部81には、第1眼底画像70aの撮影画角の情報が記憶される。また凹面鏡31,35の反射で生じる歪を画素毎に補正するために、走査位置毎のテーブル、走査位置に対応する演算式(歪補正プログラム)の少なくとも一方が記憶されている。また第2撮影画像上で指定された第1眼底画像70aの撮像位置の情報が記憶される。例えば、第1眼底画像70aの撮像位置Bは、第2眼底画像70bの基準位置Aに対する第1眼底画像70aのXY方向の偏位量(オフセット量)として記憶される(図4参照)。また記憶部81には、各種プログラムの他、コントロール部92による入力情報、取得された撮影情報(第1眼底画像70a及び第2眼底画像70b)など各種情報が記憶される。   The storage unit 81 stores information on the shooting angle of view of the first fundus image 70a. In addition, in order to correct distortion caused by reflection of the concave mirrors 31 and 35 for each pixel, at least one of a table for each scanning position and an arithmetic expression (distortion correction program) corresponding to the scanning position is stored. Information on the imaging position of the first fundus image 70a designated on the second captured image is also stored. For example, the imaging position B of the first fundus image 70a is stored as a displacement amount (offset amount) in the XY direction of the first fundus image 70a with respect to the reference position A of the second fundus image 70b (see FIG. 4). In addition to various programs, the storage unit 81 stores various information such as input information from the control unit 92 and acquired photographing information (first fundus image 70a and second fundus image 70b).

コントロール部92は、各種入力操作に用いられる。例えば、検者の操作によって、第1眼底画像70aの撮像位置(局所領域の撮像位置)を、第2眼底画像70b上で選択指示する入力手段として用いられる。コントロール部92には、モニタ70に設置されるタッチパネル、マウス等、スイッチ等の周知の入力部材が用いられる。   The control unit 92 is used for various input operations. For example, it is used as input means for selecting and instructing the imaging position of the first fundus image 70a (imaging position of the local region) on the second fundus image 70b by the examiner's operation. For the control unit 92, a known input member such as a touch panel, a mouse, or the like installed on the monitor 70 is used.

モニタ70には、制御部80による受光素子56、251の受光信号に基づき、画角の異なる眼底画像(つまり第1眼底画像70a及び第2眼底画像70b)が形成される。例えばモニタ70には所定のフレームレート(例えば10〜100Hz程度)で更新される。眼底画像(第1眼底画像70a、及び第2眼底画像70b)が動画表示される他、記憶部81に記憶された眼底画像又は受光素子56、251から直接取得された眼底画像が静止画表示される。なお眼底撮影装置500とモニタ70は別筐体の他、眼底撮影装置500にモニタ70が組み込まれていても良い。   On the monitor 70, fundus images having different angles of view (that is, the first fundus image 70a and the second fundus image 70b) are formed based on the light reception signals of the light receiving elements 56 and 251 by the control unit 80. For example, the monitor 70 is updated at a predetermined frame rate (for example, about 10 to 100 Hz). The fundus image (the first fundus image 70a and the second fundus image 70b) is displayed as a moving image, and the fundus image stored in the storage unit 81 or directly acquired from the light receiving elements 56 and 251 is displayed as a still image. The Note that the fundus photographing apparatus 500 and the monitor 70 may be incorporated in the fundus photographing apparatus 500 in addition to separate housings.

<動作説明>
次に、以上の構成を備える眼底撮影装置500の動作を説明する。
固視灯(図示を略す)を点灯して被検眼Eを固視させ、コントロール部92の操作で視度補正部10を駆動して眼Eの視度が補正される。図4(a)のように、第2撮影ユニット200で撮影された第2眼底画像70bがモニタ70に表示されると、被検眼Eと撮影部503のアライメントが行われる。
<Description of operation>
Next, the operation of the fundus imaging apparatus 500 having the above configuration will be described.
A fixation lamp (not shown) is turned on to fix the eye E, and the diopter correction unit 10 is driven by the operation of the control unit 92 to correct the diopter of the eye E. As shown in FIG. 4A, when the second fundus image 70b photographed by the second photographing unit 200 is displayed on the monitor 70, the eye E and the photographing unit 503 are aligned.

アライメントが完了すると、検者はコントロール部92を用いて、第2眼底画像70b上で第1眼底画像70aの撮像位置Bを指定する。制御部80は入力信号に基づき、図4(b)に示されるように、第2眼底画像70b上で第1眼底画像70aの撮像位置Bに対応する位置に画像処理でマークMを形成する。また制御部80は、第2眼底画像70bの基準位置Aに対する撮像位置BのX方向の偏位量(オフセット)ΔXと、Y方向の偏位量(オフセット)ΔYを求めて、記憶部81に記憶する。なおここでの基準位置Aは撮影画像70aの中心座標であるとする。   When the alignment is completed, the examiner uses the control unit 92 to specify the imaging position B of the first fundus image 70a on the second fundus image 70b. Based on the input signal, the control unit 80 forms a mark M by image processing at a position corresponding to the imaging position B of the first fundus image 70a on the second fundus image 70b, as shown in FIG. 4B. In addition, the control unit 80 obtains a deviation amount (offset) ΔX in the X direction of the imaging position B with respect to the reference position A of the second fundus image 70 b and a deviation amount (offset) ΔY in the Y direction, and stores them in the storage unit 81. Remember. Here, the reference position A is assumed to be the center coordinates of the captured image 70a.

制御部80は、駆動部42の制御で、ガルバノミラー41aの傾斜角度を偏位量ΔXに基づき調節する。またガルバノミラー41bの傾斜角度を偏位量ΔYに基づき調節する。ガルバノミラー41a、41bの傾斜角度が変わると、凹面鏡31、35に対する照明光の入射角度が変わる。一方、上述したように凹面鏡31,35への光束の入射角度が変わると、凹面鏡31,35で反射される照明光に含まれる歪の状態が変化する。   The control unit 80 adjusts the inclination angle of the galvano mirror 41a based on the deviation amount ΔX under the control of the driving unit 42. Further, the tilt angle of the galvanometer mirror 41b is adjusted based on the deviation amount ΔY. When the inclination angle of the galvanometer mirrors 41a and 41b changes, the incident angle of the illumination light with respect to the concave mirrors 31 and 35 changes. On the other hand, as described above, when the incident angle of the light flux on the concave mirrors 31 and 35 changes, the state of distortion included in the illumination light reflected by the concave mirrors 31 and 35 changes.

また制御部80は波面補償ユニット110による被検眼Eの波面収差の検出及び補正を開始する。制御部80は、波面センサー73で検出された光学分布(受光信号)に基づき、眼底からの反射光の回折像の拡がり具合が最小となるように、波面補償光学系110を制御する。   Further, the control unit 80 starts detection and correction of the wavefront aberration of the eye E by the wavefront compensation unit 110. Based on the optical distribution (light reception signal) detected by the wavefront sensor 73, the control unit 80 controls the wavefront compensation optical system 110 so that the spread of the diffraction image of the reflected light from the fundus is minimized.

眼底に集光された照明光の反射光は、レゾナントスキャナー15を介して光路を逆に辿り、波面補償デバイス72の変調を受け、ビームスプリッタ71で反射(偏向)されて第1撮影光学系100bに導かれる。反射光は、偏光ビームスプリッタ52を介し、レンズ53でピンホール板54のピンホールに集光され、レンズ55を介して受光素子56に入射される。   The reflected light of the illumination light collected on the fundus travels back in the optical path via the resonant scanner 15, undergoes modulation by the wavefront compensation device 72, is reflected (deflected) by the beam splitter 71, and is reflected by the first imaging optical system 100b. Led to. The reflected light is focused on the pinhole of the pinhole plate 54 by the lens 53 via the polarization beam splitter 52 and is incident on the light receiving element 56 via the lens 55.

ガルバノスキャナー40の各ミラー41a、41bの偏向によって、照明光の照射位置が撮像位置Bに合わせられた状態において、制御部80は、レゾナントスキャナー15とガルバノスキャナー40の走査で、撮像位置Bを中心とする眼底の局所領域を所定画角で走査し、指定された局所領域における眼底画像を得る。つまり、制御部80は、第1眼底画像70aを構成する画素毎の受光信号を取得する。   In a state where the illumination light irradiation position is adjusted to the imaging position B by the deflection of the mirrors 41 a and 41 b of the galvano scanner 40, the control unit 80 scans the resonant scanner 15 and the galvano scanner 40 around the imaging position B. A local area of the fundus is scanned at a predetermined angle of view to obtain a fundus image in the designated local area. That is, the control unit 80 acquires a light reception signal for each pixel constituting the first fundus image 70a.

<撮影画像の位置補正>
ここで歪補正プログラムによる歪補正について説明する。図5は歪補正プログラムの動作説明のフローチャートである。制御部80は、上記のようにして第1眼底画像70aを構成する各画素を取得すると共に、以下の歪補正プログラムを用いて1画素当りの歪の補正量を求める。
<Correcting the position of the shot image>
Here, the distortion correction by the distortion correction program will be described. FIG. 5 is a flowchart for explaining the operation of the distortion correction program. The control unit 80 acquires each pixel constituting the first fundus image 70a as described above, and obtains a distortion correction amount per pixel using the following distortion correction program.

なお、上記プログラムは、例えば、撮影画像の取得中に実行されることによって歪補正量を取得する構成であってもよいし、また、撮影画像の取得前に実行されることによって補正量を予め取得する構成であってもよい。もちろん、撮影画像の取得後に実行されることによって歪補正量を眼底画像の取得後に取得する構成であってもよい。   Note that the program may be configured to acquire a distortion correction amount by being executed during acquisition of a captured image, for example, or may be executed in advance before acquisition of a captured image. The structure which acquires may be sufficient. Of course, the configuration may be such that the distortion correction amount is acquired after acquiring the fundus image by being executed after acquiring the captured image.

まずステップS1で、第2眼底画像70b上で第1眼底画像70aの撮像位置Bが指定された場合、基準位置Aに対する撮像位置Bのオフセット量に基づき、ガルバノスキャナー40の傾斜角度が設定される。   First, in step S1, when the imaging position B of the first fundus image 70a is designated on the second fundus image 70b, the inclination angle of the galvano scanner 40 is set based on the offset amount of the imaging position B with respect to the reference position A. .

次にステップS2で、ガルバノミラー41aで反射される光線ベクトルRgが求められる。図6はステップS2の処理の説明図である。ガルバノミラー41aの法線ベクトルNgは式(1)で示される。   Next, in step S2, a light vector Rg reflected by the galvanometer mirror 41a is obtained. FIG. 6 is an explanatory diagram of the processing in step S2. The normal vector Ng of the galvanometer mirror 41a is expressed by the equation (1).

Figure 2014110825
なお式(1)において、角度θ1はガルバノミラー41aの振れ角であり、角度45度は、ガルバノミラー41aの振れ角の中心角度である。ガルバノミラー41aで反射する光線ベクトルRgは式(2)で示される。
Figure 2014110825
In equation (1), the angle θ1 is the deflection angle of the galvano mirror 41a, and the angle 45 degrees is the center angle of the deflection angle of the galvano mirror 41a. The light vector Rg reflected by the galvanometer mirror 41a is expressed by equation (2).

Figure 2014110825
式(2)において、ガルバノミラー41aに入射する光線ベクトルLg、ガルバノミラー41aで反射する光線ベクトルRgである。なおY方向に走査されるガルバノミラー42bについても上記の式(1)、(2)で同様に光線ベクトルRgが求められるので、ここでの詳細な説明は省略する。
Figure 2014110825
In Expression (2), a light vector Lg incident on the galvano mirror 41a and a light vector Rg reflected by the galvano mirror 41a. Note that the light vector Rg is similarly obtained from the above equations (1) and (2) for the galvanometer mirror 42b scanned in the Y direction, and detailed description thereof will be omitted.

次にステップS3で三次元光線追跡が計算される。図7はX方向の入射角度の角度差の演算の説明図であり図2の光学系の枠線Dの拡大図が示されている。図8はY方向の入射角度の角度差の演算の説明図であり、図2の光学系の枠線Dを矢印C方向から見た状態が示されている。なお図7、8ではでは説明の便宜上平面ミラー32、平面ミラー33の図示を省略している。
凹面鏡31で反射した光線ベクトルRは、式(3)で求められる。
Next, in step S3, a three-dimensional ray trace is calculated. FIG. 7 is an explanatory diagram of the calculation of the angle difference of the incident angle in the X direction, and shows an enlarged view of the frame line D of the optical system of FIG. FIG. 8 is an explanatory diagram of the calculation of the angle difference between the incident angles in the Y direction, and shows a state in which the frame line D of the optical system in FIG. 7 and 8, illustration of the plane mirror 32 and the plane mirror 33 is omitted for convenience of explanation.
The light vector R reflected by the concave mirror 31 is obtained by Expression (3).

Figure 2014110825
式(3)において、凹面鏡31の反射光線ベクトルR、入射光線ベクトルL(ここで、ガルバノミラー40で反射した光線ベクトルRgをLと表記する)、法線ベクトルNである。つまり入射光線ベクトルLと法線ベクトルNから反射ベクトルRが求められる。なお、同様な計算は凹面鏡35でも行われる。
Figure 2014110825
In Expression (3), the reflected light vector R of the concave mirror 31, the incident light vector L (here, the light vector Rg reflected by the galvano mirror 40 is expressed as L), and the normal vector N. That is, the reflection vector R is obtained from the incident light vector L and the normal vector N. A similar calculation is performed by the concave mirror 35.

次にステップS4で、凹面鏡31による歪が含まれているときの眼E(瞳)への照明光の入射角度を求める。入射角度は眼E(瞳)に入射する光線ベクトルRp(凹面鏡35で反射した光線ベクトルRをRpと表記する)から求められる。式(4)にX方向の入射角度θ1'、式(5)にY方向の入射角度θ2'を示す。   Next, in step S4, the incident angle of the illumination light to the eye E (pupil) when distortion due to the concave mirror 31 is included is obtained. The incident angle is obtained from the light vector Rp incident on the eye E (pupil) (the light vector R reflected by the concave mirror 35 is expressed as Rp). Expression (4) shows the incident angle θ1 ′ in the X direction, and Expression (5) shows the incident angle θ2 ′ in the Y direction.

Figure 2014110825
Figure 2014110825

Figure 2014110825
式(4)、(5)において、瞳に入射する光線ベクトルRp,光線ベクトルRpのX成分Rpx,Y成分Rpy,Z成分Rpzとする。
Figure 2014110825
In equations (4) and (5), the light vector Rp incident on the pupil, the X component Rpx, the Y component Rpy, and the Z component Rpz of the light vector Rp are used.

次にステップS5で、凹面鏡31による歪が含まれているときの眼E(瞳)への照明光の入射角度と、歪が含まれていないとしたときの眼E(瞳)への照明光の入射角度の角度差を求める。式(6)でX方向の入射角度の角度差、式(7)でY方向の入射角度の角度差が求められる。   Next, in step S5, the incident angle of the illumination light to the eye E (pupil) when distortion by the concave mirror 31 is included, and the illumination light to the eye E (pupil) when distortion is not included The angle difference between the incident angles is obtained. The angle difference between the incident angles in the X direction can be obtained by Expression (6), and the angle difference between the incident angles in the Y direction can be obtained by Expression (7).

Figure 2014110825
Figure 2014110825

Figure 2014110825
なお式(6)において、tθ1は、歪が無い場合のX方向への光線入射角度、tθ2は、歪が無い場合のY方向への光線入射角度である。またtは、ガルバノスキャナー40から被検眼E(瞳)への倍率関係を考慮して定まる係数である。
Figure 2014110825
In Equation (6), tθ1 is a light incident angle in the X direction when there is no distortion, and tθ2 is a light incident angle in the Y direction when there is no distortion. Further, t is a coefficient determined in consideration of the magnification relationship from the galvano scanner 40 to the eye E (pupil).

次にステップS6で、XY方向の入射角度の角度差を画素単位で求め、撮像位置Bで取得される画像(各画素)に対する歪補正パターン(補正量)を得る。式(8)は画素単位のX方向の補正量Δpixel(x)を求める計算式である。式(9)は画素単位のY方向の補正量Δpixel(y)を求める計算式である。
Next, in step S6, the angle difference between the incident angles in the XY directions is obtained for each pixel, and a distortion correction pattern (correction amount) for the image (each pixel) acquired at the imaging position B is obtained. Expression (8) is a calculation expression for obtaining the correction amount Δpixel (x) in the X direction in pixel units. Expression (9) is a calculation expression for obtaining the correction amount Δpixel (y) in the Y direction in pixel units.

Figure 2014110825
Figure 2014110825

Figure 2014110825
なお式(8)、(9)でθpixelは歪が無いときの1画素(ピクセル)当りの角度であ
る。式(8)、(9)によって、1画素当りの歪の補正量が得られる。そして制御部80は、ガルバノミラー40及びレゾナントスキャナー15による各走査位置に対応する画素に関して、ステップS2〜S6の処理によって、1画素当り(1画素毎)の歪の補正量をそれぞれ求める。つまり、制御部80は、ステップS2〜S6の処理において、角度θ1、θ2に、第1眼底画像70aの各画素に対応する値を与えることで、1画素当りの歪の補正量を求める。
そして第1眼底画像70aを構成する画素全体に対する歪の補正量を求めることで、撮像位置Bに対する歪の補正パターンが得られる。
Figure 2014110825
In equations (8) and (9), θpixel is an angle per pixel (pixel) when there is no distortion. Expressions (8) and (9) provide a distortion correction amount per pixel. And the control part 80 calculates | requires the corrected amount of distortion per pixel (each pixel) by the process of step S2-S6 regarding the pixel corresponding to each scanning position by the galvanometer mirror 40 and the resonant scanner 15, respectively. That is, the control unit 80 obtains a distortion correction amount per pixel by giving values corresponding to the respective pixels of the first fundus image 70a to the angles θ1 and θ2 in the processing of steps S2 to S6.
Then, a distortion correction pattern for the imaging position B is obtained by obtaining a distortion correction amount for all the pixels constituting the first fundus image 70a.

そしてステップS7で、制御部80は撮像位置Bで取得される画像に対して歪補正パターンに基づき、各画素の座標を変位させて第1眼底画像70aの歪を補正する。制御部80は、第1眼底画像70aを構成する各画素を、上述のように画素毎に取得された補正量に基づき、X方向に補正量Δpixel(x)、Y方向に補正量Δpixel(y)シフトさせる。   In step S7, the control unit 80 corrects the distortion of the first fundus image 70a by displacing the coordinates of each pixel based on the distortion correction pattern with respect to the image acquired at the imaging position B. Based on the correction amount acquired for each pixel as described above, the control unit 80 determines the correction amount Δpixel (x) in the X direction and the correction amount Δpixel (y in the Y direction based on the correction amount acquired for each pixel as described above. ) Shift.

このように第1撮影光学系100bに配置された少なくとも一つの光学部材による歪が生じていないと仮定したときの第1眼底画像70aの座標位置と、実際に取得された前記第1眼底画像70aの座標位置との変位量に基づいて、撮像位置における走査部材(光スキャナ)の各走査位置に関して各画素の座標の変位量が設定される。
なお、以上の処理によれば、第1撮影光学系100bの光軸L1から撮像位置Bまでの距離が拡大すると、第1眼底画像70aにおける座標を補正する変位量が大きく設定される。
In this way, the coordinate position of the first fundus image 70a when it is assumed that no distortion has occurred due to at least one optical member arranged in the first imaging optical system 100b, and the actually acquired first fundus image 70a. Based on the displacement amount with respect to the coordinate position, the displacement amount of the coordinate of each pixel is set for each scanning position of the scanning member (optical scanner) at the imaging position.
According to the above processing, when the distance from the optical axis L1 of the first imaging optical system 100b to the imaging position B is increased, the displacement amount for correcting the coordinates in the first fundus image 70a is set large.

なお上記の演算では、レゾナントスキャナー15(X方向の走査)での走査をガルバノ
ミラー41aで走査しているものと仮定した。よって、角度θ1にはステップS1での傾
斜角度と走査による傾斜角度が含まれている。(走査による傾斜角度の変化により角度θ1の値が変わり、画像全体の補正量を決めることができる。)
なお上記では第1眼底画像70aを構成する全画素の歪の補正量を逐次求めているが、第1眼底画像70aを構成する画素のうち、補正量を求める画素が所定のステップで選択されていても良い。この場合、歪補正の演算が行われない画素に対しては補完処理が行われることにより収差の影響が低減される。
In the above calculation, it is assumed that scanning by the resonant scanner 15 (scanning in the X direction) is performed by the galvanometer mirror 41a. Therefore, the angle θ1 includes the inclination angle in step S1 and the inclination angle by scanning. (The value of the angle θ1 changes due to the change of the tilt angle by scanning, and the correction amount of the entire image can be determined.)
In the above description, the distortion correction amounts of all the pixels constituting the first fundus image 70a are sequentially obtained. Of the pixels constituting the first fundus image 70a, the pixel for obtaining the correction amount is selected in a predetermined step. May be. In this case, the influence of the aberration is reduced by performing the complementing process on the pixels on which the distortion correction calculation is not performed.

また上記では撮像位置B毎に、第1眼底画像70a全体に対応する歪補正パターンを求めた上で、歪補正を実行している。これ以外にも、歪補正パターンを求めずに、ステップS6で1画素当りの補正量が求められる毎に、ステップS7の補正処理が実行されても良い。以上のようにして、第1眼底画像70aがモニタ70に表示される。図9に歪補正前後の撮影画像70aの例を示す。図9(a)は歪補正前の第1眼底画像70aであり、図9(b)は歪補正後の第1撮影画像70bである。以上のような歪補正プログラムの実行によって、モニタ70には収差が取り除かれた第1眼底画像70aが精度良く表示されることが分かる。   In the above description, the distortion correction is performed after obtaining the distortion correction pattern corresponding to the entire first fundus image 70a for each imaging position B. In addition to this, the correction process of step S7 may be executed every time the correction amount per pixel is obtained in step S6 without obtaining the distortion correction pattern. As described above, the first fundus image 70 a is displayed on the monitor 70. FIG. 9 shows an example of a captured image 70a before and after distortion correction. FIG. 9A shows a first fundus image 70a before distortion correction, and FIG. 9B shows a first captured image 70b after distortion correction. It can be seen that the first fundus image 70a from which the aberration is removed is accurately displayed on the monitor 70 by executing the distortion correction program as described above.

ステップS8では第1撮影画像70bの撮影完了の有無が判断される。撮影が終了していないと判断されると、再びステップS1に戻り、第2眼底画像70bに対する撮像位置Bが切換えられる。なお撮像位置Bの指定は、コントロール部92の操作で手動にて行われてもよく、制御部80によって自動的に行われても良い。制御部80は、ステップS1〜S8の処理を繰り返し行い、撮像位置Bごとに歪補正パターンを求め、歪補正の処理をする。そして、ステップS8で撮影の終了が判断されると、一連の処理が終了する。   In step S8, it is determined whether or not the first captured image 70b has been captured. If it is determined that the imaging has not been completed, the process returns to step S1 again, and the imaging position B for the second fundus image 70b is switched. The designation of the imaging position B may be performed manually by operating the control unit 92 or may be performed automatically by the control unit 80. The control unit 80 repeatedly performs the processing of steps S1 to S8, obtains a distortion correction pattern for each imaging position B, and performs distortion correction processing. Then, when it is determined in step S8 that the shooting has been completed, a series of processing ends.

なお、複数の第1眼底画像70aが取得されると、制御部80は画像処理で隣り合う第1眼底画像70aを繋ぎ合わせて(コラージュとして)モニタ70に表示する。本実施形態では、撮像位置Bごとに求められた歪補正パターンによって、各第1眼底画像70aの収差が取り除かれているので、隣り合う第1眼底画像70aを精度良く繋ぎ合わせることができる。また歪が取り除かれた画像を用いて、視細胞密度解析(視細胞密度や面積の計算)や、眼底の形態情報(視細胞配列、視神経繊維束の走向)も精度良く確認できるようになる。   When a plurality of first fundus images 70a are acquired, the control unit 80 connects the adjacent first fundus images 70a by image processing and displays them on the monitor 70 (as a collage). In the present embodiment, since the aberration of each first fundus image 70a is removed by the distortion correction pattern obtained for each imaging position B, the adjacent first fundus images 70a can be connected with high accuracy. In addition, using the image from which distortion has been removed, photoreceptor cell density analysis (calculation of photoreceptor cell density and area) and fundus morphology information (photoreceptor cell arrangement, optic nerve fiber bundle strike) can be confirmed with high accuracy.

なお、上記では記憶部81に歪補正パターンを求める歪補正プログラム(演算式)を記憶する例を示した。これ以外にも、記憶部81には、撮像位置Bごとに予め取得された歪補正パターン(又は1画素単位で取得された補正量)が記憶されても良い。この場合、撮像位置Bが指定されると、対応する歪補正パターン(又は対応する画素の補正量)が記憶部81から呼び出されて、歪補正の処理が実行される。   In the above description, an example in which a distortion correction program (calculation formula) for obtaining a distortion correction pattern is stored in the storage unit 81 has been described. In addition to this, the storage unit 81 may store a distortion correction pattern acquired in advance for each imaging position B (or a correction amount acquired in units of one pixel). In this case, when the imaging position B is designated, the corresponding distortion correction pattern (or the correction amount of the corresponding pixel) is called from the storage unit 81, and distortion correction processing is executed.

また上記では、撮像位置Bごとに歪補正パターンを算出しているが、基準位置Aからの偏位量(オフセット量)に応じて歪補正パターンが段階的に決定されても良い。例えば、基準位置Aからの距離に応じて特定の歪補正パターンが選択される。又は基準位置Aからの方向に応じて特定の歪補正パターンが選択されるようにしても良い。   In the above description, the distortion correction pattern is calculated for each imaging position B. However, the distortion correction pattern may be determined stepwise in accordance with the deviation amount (offset amount) from the reference position A. For example, a specific distortion correction pattern is selected according to the distance from the reference position A. Alternatively, a specific distortion correction pattern may be selected according to the direction from the reference position A.

又は、撮像位置Bごとの歪の発生状態に応じて、歪補正の実行の有無が切換えられても良い。例えば、凹面鏡31,35の光軸L1付近に入射される照明光は歪が少ない場合(例えば、基準位置Aを含む所定範囲)では歪補正を無効とし、光軸L1から所定離れた周辺部で(基準位置Aから所定距離離れた撮像位置Bでの撮影が行われる場合)に歪補正が実行されるように設定することもできる。または、これらの複数の処理を検者が選択出来るようにしても良い。   Alternatively, whether or not to perform distortion correction may be switched according to the state of occurrence of distortion for each imaging position B. For example, when the illumination light incident in the vicinity of the optical axis L1 of the concave mirrors 31 and 35 has a small distortion (for example, a predetermined range including the reference position A), the distortion correction is invalidated, and the peripheral light is a predetermined distance from the optical axis L1. It is also possible to set so that distortion correction is executed (when shooting is performed at an imaging position B that is a predetermined distance away from the reference position A). Alternatively, the examiner may be able to select a plurality of these processes.

更には、レゾンナントスキャナー15の走査で生じる歪が別途考慮されても良い。レゾナントスキャナー15のような共振型スキャナーは、モータの駆動に連動して正弦波状に振動するため、振れ角に応じて走査角度が変化し撮影画像の解像度にばらつきを生じさせる原因となる。そこで予めレゾナントスキャナー15の歪をドットマトリクスのような補正画像の撮影で取得する。そして歪補正プログラムで求められた歪補正パターンとレゾナントスキャナー15の歪情報とを組合せて、第1眼底画像70aを形成しても良い。   Furthermore, distortion caused by scanning by the resonant scanner 15 may be considered separately. A resonant scanner such as the resonant scanner 15 vibrates in a sinusoidal manner in conjunction with the driving of the motor, so that the scanning angle changes according to the deflection angle, causing variations in the resolution of the captured image. Therefore, the distortion of the resonant scanner 15 is acquired in advance by photographing a corrected image such as a dot matrix. Then, the first fundus image 70a may be formed by combining the distortion correction pattern obtained by the distortion correction program and the distortion information of the resonant scanner 15.

更に、上記では被検眼に照明光を入射させるために凹面鏡を用いる例を示した。これ以外も各種レンズやミラーを用いて被検眼に照明光を入射させる場合に、本発明の構成を適用可能である。   Furthermore, in the above description, an example in which a concave mirror is used to make illumination light incident on the eye to be examined has been shown. In addition to this, the configuration of the present invention can be applied when illumination light is incident on the eye to be examined using various lenses and mirrors.

また上記では、凹面鏡31,35への照明光の入射角度を求めるために、第2眼底画像70bの基準位置Aに対する第1眼底画像70aの撮像位置Bの偏位量(オフセット)を用いているが、ガルバノスキャナー40(ガルバノミラー41a、41b)の傾斜角度を検知する角度検出部(センサー)を設け、ガルバノミラー41a、41bの傾斜角度の検
知結果に基づき照明光の入射角度が求められても良い。
In the above description, in order to obtain the incident angle of the illumination light to the concave mirrors 31 and 35, the deviation amount (offset) of the imaging position B of the first fundus image 70a with respect to the reference position A of the second fundus image 70b is used. However, even if an angle detector (sensor) that detects the inclination angle of the galvano scanner 40 (galvano mirrors 41a and 41b) is provided, and the incident angle of illumination light is obtained based on the detection result of the inclination angle of the galvano mirrors 41a and 41b good.

また、細胞密度解析(視細胞密度や面積計算等の各種演算)を行う場合には、モニタ70に第1眼底画像70a及び第2眼底画像70bを表示させなくとも良い。例えばコントロール部92の操作で各種演算を実行するための信号が入力されると、制御部80はガルバノスキャナー40の傾斜角度を自動的に調節し、ガルバノスキャナー40の傾斜角度に応じて、上記の歪補正プログラムによる歪補正を実行させて、受光素子56で受光された信号含まれる歪補正を行う。   Further, when performing cell density analysis (various calculations such as visual cell density and area calculation), the first fundus image 70a and the second fundus image 70b need not be displayed on the monitor 70. For example, when a signal for executing various calculations is input by operation of the control unit 92, the control unit 80 automatically adjusts the tilt angle of the galvano scanner 40, and the above-described according to the tilt angle of the galvano scanner 40. The distortion correction by the distortion correction program is executed, and the distortion correction including the signal received by the light receiving element 56 is performed.

なお、局所領域を撮像するための眼底撮像光学系の撮像画角としては、5度以下であることが好ましい。より好ましくは3度以下であるとする。もちろん、これに限定されず、通常の眼底カメラやSLOでは画像化されないような局所領域を撮影できる程度の撮影画角であればよい。   The imaging field angle of the fundus imaging optical system for imaging the local region is preferably 5 degrees or less. More preferably, it is 3 degrees or less. Of course, the present invention is not limited to this, and any angle of view that can capture a local region that cannot be imaged by a normal fundus camera or SLO may be used.

局所領域を撮像するために設定された撮影画角は、眼底全体を撮像する撮像光学系の撮影画角(30°〜50°が一般的)の1/5よりも相対的に小さい撮影画角であり、眼底の局所領域に関して拡大化された眼底画像を得るのに適している。なお、局所領域を撮像するため、好ましくは、眼底からの光に含まれる被検眼の波面収差を補償する波面補償デバイスが、撮像光学系の光路中に配置される。   The shooting angle of view set for imaging the local region is relatively smaller than 1/5 of the imaging angle of view of the imaging optical system for imaging the entire fundus (generally 30 ° to 50 °). And is suitable for obtaining an enlarged fundus image with respect to a local region of the fundus. In order to image the local region, a wavefront compensation device that compensates for the wavefront aberration of the eye to be examined included in the light from the fundus is preferably disposed in the optical path of the imaging optical system.

また、本発明は様々な種類の走査型の眼底撮影装置に応用できる。例えば患者眼の角膜内皮細胞を観察する眼底撮影装置、光源から出射された出射光によって被検眼眼底上の局所領域を横断方向に走査して断層画像を得る眼底撮影装置、例えば光コヒーレンストモグラフィ(OCT)に適用可能である。   Further, the present invention can be applied to various types of scanning fundus photographing apparatuses. For example, a fundus imaging apparatus for observing corneal endothelial cells of a patient's eye, a fundus imaging apparatus that scans a local region on the fundus of the eye to be examined in the transverse direction with emitted light emitted from a light source, for example, optical coherence tomography ( (OCT).

なお、他の例として、本発明は、広画角の撮影画像の歪み補正に適用できる。例えば上記の第2撮影ユニット200で撮影された広画角の撮影画像の収差を、上述のような歪補正プログラム(歪補正パターン)に基づき補正しても良い。特に画像周辺部に有用である。   As another example, the present invention can be applied to distortion correction of a wide-angle shot image. For example, the aberration of the wide-angle captured image captured by the second imaging unit 200 may be corrected based on the above-described distortion correction program (distortion correction pattern). It is particularly useful for the peripheral part of the image.

すなわち、(1)光源と、光源から出射された出射光によって被検眼眼底全体をX及びY方向の少なくとも1方向に走査するための光スキャナと、各走査位置に関して眼底からの光を検出するための検出器と、を有し、被検眼眼底全体を撮像するための眼底撮像光学系と、を備える眼底撮影装置において、各走査位置における検出器からの受光信号を処理して眼底画像を取得する画像処理手段を備え、画像処理手段は、各走査位置に応じて眼底画像の歪みを補正する。   That is, (1) a light source, an optical scanner for scanning the entire fundus of the eye to be examined in at least one of the X and Y directions with the emitted light emitted from the light source, and light from the fundus for detecting each scanning position And a fundus imaging optical system for imaging the entire fundus of the eye to be examined, to process a light reception signal from the detector at each scanning position to obtain a fundus image An image processing unit is provided, and the image processing unit corrects the distortion of the fundus image according to each scanning position.

(2)画像処理手段は、第1眼底画像の歪みを補正する際、眼底画像における各画素の座標を変位させることにより眼底画像の歪みを補正する画像処理手段であって、
各画素の座標の変位量は、
前記眼底撮像光学系に配置された少なくとも1つの光学部材による歪が生じていないと仮定した場合の眼底画像の座標位置と、実際に取得された第1眼底画像の座標位置との変位量に基づいて、光スキャナの各走査位置に関してそれぞれ設定されている。
(2) The image processing means is an image processing means for correcting the distortion of the fundus image by displacing the coordinates of each pixel in the fundus image when correcting the distortion of the first fundus image,
The displacement of the coordinates of each pixel is
Based on the amount of displacement between the coordinate position of the fundus image and the actually acquired coordinate position of the first fundus image when it is assumed that there is no distortion caused by at least one optical member arranged in the fundus imaging optical system. Thus, each scanning position of the optical scanner is set.

眼底撮影装置の外観図である。It is an external view of a fundus imaging apparatus. 眼底撮影装置の光学系の説明図である。It is explanatory drawing of the optical system of a fundus imaging apparatus. 眼底撮影装置の制御ブロック図である。It is a control block diagram of a fundus imaging apparatus. モニタの表示画面の例である。It is an example of the display screen of a monitor. 歪補正の動作制御のフローチャートである。It is a flowchart of operation control of distortion correction. ガルバノミラーの光線ベクトルの説明図である。It is explanatory drawing of the light vector of a galvanometer mirror. X方向の入射角度の角度差の演算の説明図である。It is explanatory drawing of the calculation of the angle difference of the incident angle of a X direction. Y方向の入射角度の角度差の演算の説明図である。It is explanatory drawing of the calculation of the angle difference of the incident angle of a Y direction. 歪補正前後の第1撮影画像の例である。It is an example of the 1st picked-up image before and after distortion correction. 撮影位置毎に変化する歪の発生状態の例である。It is an example of the generation | occurrence | production state of the distortion which changes for every imaging | photography position.

1 光源
15 レゾナントスキャナー
40 ガルバノスキャナー
41a、41b ガルバノミラー
31、35 凹面鏡
70 モニタ
70a 第1眼底画像
70b 第2眼底画像
80 制御部
81 記憶部
92 コントロール部
100 第1撮影ユニット
100a 第1照明光学系
100b 第1撮影光学系
110 波面補償ユニット
200 第2撮影ユニット
500 眼底撮影装置
DESCRIPTION OF SYMBOLS 1 Light source 15 Resonant scanner 40 Galvano scanner 41a, 41b Galvano mirror 31, 35 Concave mirror 70 Monitor 70a 1st fundus image 70b 2nd fundus image 80 Control part 81 Memory | storage part 92 Control part 100 1st imaging unit 100a 1st illumination optical system 100b First imaging optical system 110 Wavefront compensation unit 200 Second imaging unit 500 Fundus imaging device

Claims (11)

光源と、光源から出射された出射光によって被検眼眼底上の局所領域をX及びY方向の少なくとも1方向に走査するための光スキャナと、前記局所領域における各走査位置に関して前記眼底からの光を検出するための検出器と、を有し、前記局所領域を撮像するための眼底撮像光学系と、
前記眼底撮像光学系の光路中に配置され前記出射光を偏向する光偏向手段を有し、前記眼底撮像光学系によって撮像される前記局所領域の撮像位置を前記眼底上で変更する撮像位置変更手段と、
前記各走査位置における前記検出器からの受光信号を処理して前記局所領域における第1眼底画像を取得する画像処理手段と、
を備え、
前記画像処理手段は、前記撮像位置変更手段によって変更される前記撮像位置に応じて前記第1眼底画像の歪みを補正することを特徴とする眼底撮影装置。
A light source, an optical scanner for scanning a local region on the fundus of the eye to be examined in at least one of the X and Y directions by the emitted light emitted from the light source, and light from the fundus for each scanning position in the local region A detector for detecting, and a fundus imaging optical system for imaging the local region,
An imaging position changing unit that is disposed in an optical path of the fundus imaging optical system and has a light deflecting unit that deflects the emitted light, and changes an imaging position of the local region imaged by the fundus imaging optical system on the fundus. When,
Image processing means for processing a light reception signal from the detector at each scanning position to obtain a first fundus image in the local region;
With
The fundus imaging apparatus, wherein the image processing unit corrects distortion of the first fundus image according to the imaging position changed by the imaging position changing unit.
前記画像処理手段は、
前記第1眼底画像の歪みを補正する際、
前記第1眼底画像における各画素の座標を変位させることにより前記第1眼底画像の歪みを補正する画像処理手段であって、
前記各画素の座標の変位量は、
前記眼底撮像光学系に配置された少なくとも1つの光学部材による歪が生じていないと仮定した場合の前記第1眼底画像の座標位置と、実際に取得された前記第1眼底画像の座標位置との変位量に基づいて、前記撮像位置における前記光スキャナーの各走査位置に関してそれぞれ設定されている請求項1の眼底撮影装置。
The image processing means includes
When correcting the distortion of the first fundus image,
Image processing means for correcting distortion of the first fundus image by displacing the coordinates of each pixel in the first fundus image,
The displacement amount of the coordinates of each pixel is
The coordinate position of the first fundus image when it is assumed that no distortion is caused by at least one optical member arranged in the fundus imaging optical system, and the coordinate position of the actually acquired first fundus image The fundus imaging apparatus according to claim 1, wherein the fundus imaging apparatus is set for each scanning position of the optical scanner at the imaging position based on a displacement amount.
前記局所領域の撮像位置を選択するための検者からの選択指示を受け付ける指示受付手段を有し、
撮像位置変更手段は、前記指示受付手段によって受け付けられた検者からの選択指示に応じて前記光偏向手段を制御し、前記局所領域の撮像位置を設定する請求項1〜2のいずれかの眼底撮影装置。
An instruction receiving means for receiving a selection instruction from an examiner for selecting an imaging position of the local region;
The fundus according to claim 1, wherein the imaging position changing unit controls the light deflecting unit according to a selection instruction from the examiner received by the instruction receiving unit, and sets the imaging position of the local region. Shooting device.
前記画像処理手段は、
前記第1眼底画像の歪みを補正する際、
前記眼底撮像光学系の光軸から前記撮像位置までの距離に応じて、前記第1眼底画像における各画素の座標の変位量を大きくすることを請求項1〜3のいずれかの眼底撮影装置。
The image processing means includes
When correcting the distortion of the first fundus image,
The fundus imaging apparatus according to claim 1, wherein a displacement amount of coordinates of each pixel in the first fundus image is increased according to a distance from an optical axis of the fundus imaging optical system to the imaging position.
さらに、前記歪みが補正された第1眼底画像を画像処理して、前記眼底の細胞に関する解析結果を取得し、取得された解析結果を出力する細胞解析手段を備える請求項1〜4のいずれかの眼底撮影装置。   5. The apparatus according to claim 1, further comprising a cell analysis unit that performs image processing on the first fundus image in which the distortion is corrected, acquires an analysis result regarding the cells of the fundus, and outputs the acquired analysis result. Fundus photographing device. 前記眼底画像の撮影画角よりも広画角の第2眼底画像を撮像する第2眼底撮像光学系と、
前記第1眼底画像及び前記第2眼底画像を表示部に表示する表示制御手段と、を備え、
前記画像処理手段は、前記表示部に表示された前記第2眼底画像上の基準位置に対する前記撮像位置の偏位量に基づき前記光偏向手段による偏向角度を設定する請求項1〜5のいずれかの眼底撮影装置。
A second fundus imaging optical system that captures a second fundus image having a wider angle of view than the imaging angle of view of the fundus image;
Display control means for displaying the first fundus image and the second fundus image on a display unit,
The said image processing means sets the deflection angle by the said optical deflection means based on the deviation | shift amount of the said imaging position with respect to the reference position on the said 2nd fundus image displayed on the said display part. Fundus photographing device.
前記画像処理手段は、前記撮像位置に応じた歪補正パターンを用いて、前記第1眼底画像における各画素の座標を変形させることにより前記第1眼底画像の歪みを補正する請求項1〜6のいずれかの眼底撮影装置。   The said image processing means correct | amends distortion of the said 1st fundus image by changing the coordinate of each pixel in the said 1st fundus image using the distortion correction pattern according to the said imaging position. Any fundus imaging device. 前記撮像位置変更手段は、前記光源から出射された光を偏向して前記被検眼の瞳孔への前記出射光の入射角度を変更することにより前記局所領域の撮像位置を前記眼底上で変更する撮像位置変更手段であって、
前記出射光の入射角度に応じて異なる歪補正パターンが前記画像処理手段によって用いられるように設定されており、各歪補正パターンは、前記被検眼の瞳孔への前記出射光の実際の第1入射角度と、前記眼底撮像光学系に配置された少なくとも1つの光学部材によって歪が生じていないと仮定した場合の前記被検眼の瞳孔への前記出射光の第2入射角度と、の角度差情報を含み、
前記画像処理手段は、前記角度差情報を用いて、前記第1眼底画像における各画素の座標の変位量を設定する請求項7の眼底撮影装置。
The imaging position changing means changes the imaging position of the local region on the fundus by deflecting the light emitted from the light source and changing the incident angle of the emitted light to the pupil of the eye to be examined. Position changing means,
Different distortion correction patterns are set to be used by the image processing means depending on the incident angle of the emitted light, and each distortion correction pattern is the actual first incident of the emitted light to the pupil of the eye to be examined. Angle difference information between the angle and the second incident angle of the emitted light to the pupil of the eye to be examined when it is assumed that no distortion is caused by at least one optical member arranged in the fundus imaging optical system Including
The fundus imaging apparatus according to claim 7, wherein the image processing unit sets a displacement amount of coordinates of each pixel in the first fundus image using the angle difference information.
前記光学部材は、凹面鏡又はレンズである請求項2〜8のいずれかの眼底撮影装置。   The fundus imaging apparatus according to claim 2, wherein the optical member is a concave mirror or a lens. 前記画像処理手段は、前記各画素の座標の変位量を、記憶手段に記憶された各走査位置毎のテーブル、各走査位置に対応する演算式の少なくともいずれかを用いて設定する請求項2〜9のいずれかの眼底撮影装置。   The image processing means sets the displacement amount of the coordinates of each pixel using at least one of a table for each scanning position stored in the storage means and an arithmetic expression corresponding to each scanning position. The fundus imaging apparatus according to any one of 9. 光源と、光源から出射された出射光によって被検眼眼底上の局所領域をX及びY方向の少なくとも1方向に走査するための光スキャナと、前記局所領域における各走査位置に関して前記眼底からの光を検出するための検出器と、を有し、前記局所領域を撮像するための眼底撮像光学系と、
前記眼底撮像光学系の光路中に配置され前記出射光を偏向する光偏向手段を有し、前記眼底撮像光学系によって撮像される前記局所領域の撮像位置を前記眼底上で変更する撮像位置変更手段と、
を備えた眼底撮影装置から、各走査位置における前記検出器からの受光信号を取得し、取得した前記受光信号を処理して前記局所領域における第1眼底画像を取得する眼底画像処理装置において実行される眼底画像処理プログラムであって、
前記眼底画像処理装置のプロセッサによって実行されることで、
前記撮像位置変更手段によって変更される前記撮像位置に応じて、前記第1眼底画像の歪みを補正する歪み補正ステップ
を前記眼底画像処理装置に実行させることを特徴とする眼底画像処理プログラム。
A light source, an optical scanner for scanning a local region on the fundus of the eye to be examined in at least one of the X and Y directions by the emitted light emitted from the light source, and light from the fundus for each scanning position in the local region A detector for detecting, and a fundus imaging optical system for imaging the local region,
An imaging position changing unit that is disposed in an optical path of the fundus imaging optical system and has a light deflecting unit that deflects the emitted light, and changes an imaging position of the local region imaged by the fundus imaging optical system on the fundus. When,
This is executed in a fundus image processing apparatus that obtains a light reception signal from the detector at each scanning position from a fundus imaging apparatus equipped with the image processing apparatus, and processes the acquired light reception signal to obtain a first fundus image in the local region. A fundus image processing program,
By being executed by the processor of the fundus image processing apparatus,
A fundus image processing program that causes the fundus image processing apparatus to execute a distortion correction step of correcting distortion of the first fundus image according to the imaging position changed by the imaging position changing unit.
JP2012244956A 2012-11-06 2012-11-07 Fundus photographing device Active JP6422629B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012244956A JP6422629B2 (en) 2012-11-06 2012-11-07 Fundus photographing device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012244922 2012-11-06
JP2012244922 2012-11-06
JP2012244956A JP6422629B2 (en) 2012-11-06 2012-11-07 Fundus photographing device

Publications (3)

Publication Number Publication Date
JP2014110825A true JP2014110825A (en) 2014-06-19
JP2014110825A5 JP2014110825A5 (en) 2015-12-24
JP6422629B2 JP6422629B2 (en) 2018-11-14

Family

ID=51168504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012244956A Active JP6422629B2 (en) 2012-11-06 2012-11-07 Fundus photographing device

Country Status (1)

Country Link
JP (1) JP6422629B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015229023A (en) * 2014-06-05 2015-12-21 株式会社トプコン Ophthalmologic apparatus
JP2017086653A (en) * 2015-11-13 2017-05-25 株式会社ニデック Subjective optometry apparatus
US9687144B2 (en) 2014-09-30 2017-06-27 Nidek Co., Ltd. Fundus photographing apparatus with wavefront compensation and method for photographing fundus image
JP2017522143A (en) * 2014-07-31 2017-08-10 ウニベルジテート ポリテクニカ デ カタル−ニア Method, system and computer program for measuring light diffusion in the eyeball or visual region
CN115546883A (en) * 2022-11-07 2022-12-30 浙江省人民医院 Fundus image processing system
WO2023231044A1 (en) * 2022-05-30 2023-12-07 清华大学 Meta-imaging-based fundus imaging method and system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01302474A (en) * 1988-05-31 1989-12-06 Canon Inc Method for correcting image distortion
JPH0357081A (en) * 1989-07-26 1991-03-12 Canon Inc Picture processor
JPH0381879A (en) * 1989-08-24 1991-04-08 Canon Inc Medical image processor
JPH06261862A (en) * 1993-03-16 1994-09-20 Kowa Co Laser scanning type ophthalmologic image pickup device
JP2000131640A (en) * 1998-10-23 2000-05-12 Sony Corp Picture display device
JP2003010122A (en) * 2001-06-29 2003-01-14 Matsushita Electric Works Ltd Pupil measuring instrument and its image distortion correcting method
JP2003079581A (en) * 2001-09-17 2003-03-18 Canon Inc Ophthalmic image pickup device
JP2010259543A (en) * 2009-04-30 2010-11-18 Nidek Co Ltd Fundus photographing device
JP2011191454A (en) * 2010-03-13 2011-09-29 Brother Industries Ltd Image display device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01302474A (en) * 1988-05-31 1989-12-06 Canon Inc Method for correcting image distortion
JPH0357081A (en) * 1989-07-26 1991-03-12 Canon Inc Picture processor
JPH0381879A (en) * 1989-08-24 1991-04-08 Canon Inc Medical image processor
JPH06261862A (en) * 1993-03-16 1994-09-20 Kowa Co Laser scanning type ophthalmologic image pickup device
JP2000131640A (en) * 1998-10-23 2000-05-12 Sony Corp Picture display device
JP2003010122A (en) * 2001-06-29 2003-01-14 Matsushita Electric Works Ltd Pupil measuring instrument and its image distortion correcting method
JP2003079581A (en) * 2001-09-17 2003-03-18 Canon Inc Ophthalmic image pickup device
JP2010259543A (en) * 2009-04-30 2010-11-18 Nidek Co Ltd Fundus photographing device
JP2011191454A (en) * 2010-03-13 2011-09-29 Brother Industries Ltd Image display device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015229023A (en) * 2014-06-05 2015-12-21 株式会社トプコン Ophthalmologic apparatus
JP2017522143A (en) * 2014-07-31 2017-08-10 ウニベルジテート ポリテクニカ デ カタル−ニア Method, system and computer program for measuring light diffusion in the eyeball or visual region
US9687144B2 (en) 2014-09-30 2017-06-27 Nidek Co., Ltd. Fundus photographing apparatus with wavefront compensation and method for photographing fundus image
JP2017086653A (en) * 2015-11-13 2017-05-25 株式会社ニデック Subjective optometry apparatus
WO2023231044A1 (en) * 2022-05-30 2023-12-07 清华大学 Meta-imaging-based fundus imaging method and system
CN115546883A (en) * 2022-11-07 2022-12-30 浙江省人民医院 Fundus image processing system

Also Published As

Publication number Publication date
JP6422629B2 (en) 2018-11-14

Similar Documents

Publication Publication Date Title
JP5259484B2 (en) Fundus photographing device
JP5845608B2 (en) Ophthalmic imaging equipment
JP6220248B2 (en) Ophthalmic apparatus and control method
JP6217065B2 (en) Ophthalmic imaging equipment
JP6422629B2 (en) Fundus photographing device
JP5847510B2 (en) Image processing apparatus and image processing method
JP2009011381A (en) Scanning laser ophthalmoscope and wide angle lens attachment for scanning laser ophthalmoscope
JP6442960B2 (en) Fundus imaging device with wavefront compensation
JP5879830B2 (en) Fundus imaging device with wavefront compensation
JP5654271B2 (en) Ophthalmic equipment
JP2014068704A (en) Ophthalmic photographing apparatus
JP5545984B2 (en) Fundus imaging device with wavefront compensation
JP2013070941A (en) Ophthalmologic photographing apparatus
JP6277748B2 (en) Fundus photographing device and wide-angle lens attachment
JP2011115301A (en) Fundus imaging apparatus
JP5727197B2 (en) Fundus imaging device with wavefront compensation
JP2016067764A (en) Fundus photographing apparatus with wavefront compensation
JP2015091309A (en) Ophthalmologic image processor and image processing program
JP7098964B2 (en) Fundus photography device
JP2015084972A (en) Scanning laser ophthalmoscope
JP6102369B2 (en) Fundus photographing device
JP2013154063A (en) Ophthalmography device
JP2018000620A (en) Ophthalmological imaging apparatus
JP2021062162A (en) Scanning type ocular fundus imaging apparatus
JP2016123466A (en) Ocular fundus imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170718

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170725

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20170825

R155 Notification before disposition of declining of application

Free format text: JAPANESE INTERMEDIATE CODE: R155

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181017

R150 Certificate of patent or registration of utility model

Ref document number: 6422629

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250