JP2017140401A - Ophthalmologic imaging apparatus - Google Patents
Ophthalmologic imaging apparatus Download PDFInfo
- Publication number
- JP2017140401A JP2017140401A JP2017039125A JP2017039125A JP2017140401A JP 2017140401 A JP2017140401 A JP 2017140401A JP 2017039125 A JP2017039125 A JP 2017039125A JP 2017039125 A JP2017039125 A JP 2017039125A JP 2017140401 A JP2017140401 A JP 2017140401A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- follow
- light
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 113
- 238000003860 storage Methods 0.000 claims abstract description 32
- 230000004044 response Effects 0.000 claims description 3
- 238000005259 measurement Methods 0.000 abstract description 27
- 230000015572 biosynthetic process Effects 0.000 abstract 2
- 238000004364 calculation method Methods 0.000 description 86
- 230000003287 optical effect Effects 0.000 description 74
- 238000012014 optical coherence tomography Methods 0.000 description 72
- 238000006073 displacement reaction Methods 0.000 description 70
- 238000000034 method Methods 0.000 description 61
- 238000011156 evaluation Methods 0.000 description 58
- 238000012545 processing Methods 0.000 description 52
- 230000008569 process Effects 0.000 description 40
- 210000004220 fundus oculi Anatomy 0.000 description 24
- 238000005286 illumination Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 14
- 230000003595 spectral effect Effects 0.000 description 11
- 239000013307 optical fiber Substances 0.000 description 10
- 230000010287 polarization Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 239000000203 mixture Substances 0.000 description 7
- 230000002207 retinal effect Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000004424 eye movement Effects 0.000 description 6
- 239000000835 fiber Substances 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 210000004087 cornea Anatomy 0.000 description 5
- 238000009826 distribution Methods 0.000 description 5
- 238000012805 post-processing Methods 0.000 description 5
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 239000008186 active pharmaceutical agent Substances 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 210000004204 blood vessel Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 0 CCC([C@](C)CCN=O)[C@](CC*)C(C)*(C)CC* Chemical compound CCC([C@](C)CCN=O)[C@](CC*)C(C)*(C)CC* 0.000 description 1
- 108010043121 Green Fluorescent Proteins Proteins 0.000 description 1
- 206010025421 Macule Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004323 axial length Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- GNBHRKFJIUUOQI-UHFFFAOYSA-N fluorescein Chemical compound O1C(=O)C2=CC=CC=C2C21C1=CC=C(O)C=C1OC1=CC(O)=CC=C21 GNBHRKFJIUUOQI-UHFFFAOYSA-N 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- MOFVSTNWEDAEEK-UHFFFAOYSA-M indocyanine green Chemical compound [Na+].[O-]S(=O)(=O)CCCCN1C2=CC=C3C=CC=CC3=C2C(C)(C)C1=CC=CC=CC=CC1=[N+](CCCCS([O-])(=O)=O)C2=CC=C(C=CC=C3)C3=C2C1(C)C MOFVSTNWEDAEEK-UHFFFAOYSA-M 0.000 description 1
- 229960004657 indocyanine green Drugs 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 210000003733 optic disk Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002980 postoperative effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
Description
この発明は、眼科撮影装置に関する。 The present invention relates to an ophthalmologic photographing apparatus.
光の走査を用いて被検眼を画像化する装置としては、近年、光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)が注目を集めている。OCTは、X線CTのような人体に対する侵襲性を持たないことから、特に医療分野や生物学分野における応用の展開が期待されている。たとえば眼科分野においては、眼底や角膜等の画像を形成する装置が実用化されている。 In recent years, optical coherence tomography (OCT) has attracted attention as an apparatus for imaging an eye to be examined using light scanning. Since OCT has no invasiveness to the human body like X-ray CT, it is expected to be applied particularly in the medical field and the biological field. For example, in the field of ophthalmology, an apparatus for forming an image of the fundus oculi or cornea has been put into practical use.
特許文献1には、いわゆる「フーリエドメインOCT(Fourier Domain OCT)」の手法を用いた装置が開示されている。すなわち、この装置は、被測定物体に対して低コヒーレンス光のビームを照射し、その反射光と参照光とを重ね合わせて干渉光を生成し、この干渉光のスペクトル強度分布を取得してフーリエ変換を施すことにより被測定物体の深度方向(z方向)の形態を画像化するものである。更に、この装置は、光ビーム(信号光)をz方向に直交する1方向(x方向)に走査するガルバノミラーを備え、それにより被測定物体の所望の測定対象領域の画像を形成するようになっている。この装置により形成される画像は、光ビームの走査方向(x方向)に沿った深度方向(z方向)の2次元断層像となる。なお、この手法は、特にスペクトラルドメイン(Spectral Domain)とも呼ばれる。
特許文献2には、信号光を水平方向(x方向)及び垂直方向(y方向)に走査することにより水平方向の2次元断層像を複数形成し、これら複数の断層像に基づいて測定範囲の3次元の断層情報を取得して画像化する技術が開示されている。この3次元画像化としては、たとえば、複数の断層像を垂直方向に並べて表示させる方法や(スタックデータなどと呼ばれる)、スタックデータに基づくボリュームデータ(ボクセルデータ)にレンダリング処理を施して3次元画像を形成する方法などがある。
In
特許文献3、4には、他のタイプのOCT装置が開示されている。特許文献3には、被測定物体に照射される光の波長を走査(波長掃引)し、各波長の光の反射光と参照光とを重ね合わせて得られる干渉光を検出してスペクトル強度分布を取得し、それに対してフーリエ変換を施すことにより被測定物体の形態を画像化するOCT装置が記載されている。このようなOCT装置は、スウェプトソース(Swept Source)タイプなどと呼ばれる。スウェプトソースタイプはフーリエドメインタイプの一種である。
また、特許文献4には、所定のビーム径を有する光を被測定物体に照射し、その反射光と参照光とを重ね合わせて得られる干渉光の成分を解析することにより、光の進行方向に直交する断面における被測定物体の画像を形成するOCT装置が記載されている。このようなOCT装置は、フルフィールド(full−field)タイプ、或いはインファス(en−face)タイプなどと呼ばれる。 In Patent Document 4, the traveling direction of light is obtained by irradiating the object to be measured with light having a predetermined beam diameter, and analyzing the component of interference light obtained by superimposing the reflected light and the reference light. An OCT apparatus for forming an image of an object to be measured in a cross-section orthogonal to is described. Such an OCT apparatus is called a full-field type or an en-face type.
特許文献5には、OCTを眼科分野に適用した構成が開示されている。なお、OCTが応用される以前には、被検眼を観察するための装置として眼底カメラ、スリットランプ、SLO(Scanning Laser Ophthalmoscope)などが使用されていた(たとえば特許文献6、特許文献7、特許文献8を参照)。眼底カメラは被検眼に照明光を照射し、その眼底反射光を受光することで眼底を撮影する装置である。スリットランプは、スリット光を用いて角膜の光切片を切り取ることにより角膜の断面の画像を取得する装置である。SLOは、レーザー光で眼底を走査し、その反射光を光電子増倍管等の高感度な素子で検出することにより眼底表面の形態を画像化する装置である。
OCTを用いた装置は、高精細の画像を取得できる点、更には断層像や3次元画像を取得できる点などにおいて、眼底カメラ等に対して優位性を持つ。 An apparatus using OCT has an advantage over a fundus camera or the like in that a high-definition image can be acquired, and further, a tomographic image or a three-dimensional image can be acquired.
このように、OCTを用いた装置は被検眼の様々な部位の観察に適用可能であり、また高精細な画像を取得できることから、様々な眼科疾患の診断への応用がなされてきている。 As described above, an apparatus using OCT can be applied to observation of various parts of an eye to be examined, and can acquire high-definition images, and thus has been applied to diagnosis of various ophthalmic diseases.
ところで、各種の医療分野において、被検体の同一部位を繰り返し検査することが行われている(フォローアップなどと呼ばれる)。その例として経過観察や術前術後観察がある。フォローアップに関して眼科分野に特有の問題がある。すなわち、検査対象である被検眼の眼球運動(固視微動、回旋等)の影響により、同一部位の検査が困難なことである。特に、被検眼を光で走査するタイプの撮影装置において、過去と同じ走査位置を再現することは極めて困難である。 By the way, in various medical fields, the same part of the subject is repeatedly examined (referred to as follow-up). Examples include follow-up and pre- and post-operative observations. There are problems specific to ophthalmology regarding follow-up. That is, it is difficult to inspect the same part due to the influence of eye movement (fixed eye movement, rotation, etc.) of the eye to be inspected. In particular, in an imaging apparatus that scans the eye to be examined with light, it is extremely difficult to reproduce the same scanning position as in the past.
このようなフォローアップ撮影の問題に対して適用可能な技術として特許文献9−11に記載されたものが知られている。 A technique described in Patent Document 9-11 is known as a technique applicable to such a problem of follow-up photography.
特許文献9に記載の発明は、回転移動を含む眼底画像間の位置ずれをスムースに検出することを目的とする。そのために、当該発明は、各眼底画像から切り出された複数の小領域画像を照合することにより、眼底画像間の位置ずれ量を検出するように構成されている。 An object of the invention described in Patent Document 9 is to smoothly detect a positional shift between fundus images including rotational movement. Therefore, the present invention is configured to detect the amount of positional deviation between fundus images by collating a plurality of small region images cut out from each fundus image.
特許文献10に記載の発明は、眼底上の同じ断層部位を連続的に計測することで、人眼の網膜内因性信号を好適に検出することを目的としている。そのために、当該発明は、測定光束で眼底を走査しながら第2の光束を眼底に照射し検出することで走査位置のずれを検出し、その検出結果に基づき第2の光スキャナを制御することで測定光束の走査位置を随時補正するように構成されている。また、走査位置のずれの検出において、眼底正面画像中の特徴的領域に基づくテンプレートマッチングを利用することも記載されている。
An object of the invention described in
特許文献11に記載の発明は、被検眼の眼球運動にかかわらず眼底上の所定位置に正確に光束を照射することを目的としている。そのために、当該発明は、眼底正面画像に基づいて走査光の画角情報と眼底の位置ずれ情報を検出し、これら情報に基づいて走査光の走査位置を補正するように構成されている。
An object of the invention described in
フォローアップ撮影において、その誤差の程度(確度や精度)、つまり異なるタイミングで行われた撮影における走査位置のずれの程度を知ることは、非常に重要である。すなわち、診断を正確に行うためには、フォローアップ撮影が適正に行われたか否か、更にはどの程度の確度や精度でフォローアップ撮影が行われたかを知ることは、非常に重要である。しかしながら、従来の技術においては、フォローアップ撮影の誤差の程度を定量的に評価することは不可能であった。 In follow-up imaging, it is very important to know the degree of error (accuracy and accuracy), that is, the degree of deviation of the scanning position in imaging performed at different timings. That is, in order to accurately perform diagnosis, it is very important to know whether or not follow-up imaging has been performed properly, and to what degree of accuracy and accuracy the follow-up imaging has been performed. However, in the prior art, it was impossible to quantitatively evaluate the degree of error in follow-up photography.
たとえば特許文献9に記載の技術では、眼底画像間の位置ずれ量を検出することは可能であるが、その位置ずれの持つ意味や、フォローアップ撮影の適/不適をユーザに提供することはできない。したがって、その位置ずれに基づいてユーザ自身が判断するしかなかった。しかし、フォローアップ撮影における走査開始点の誤差は通常ミリメートル以下のオーダーであり、フォローアップ撮影の適/不適を目視で判断することは困難である。また、位置ずれには、平行ずれや回転ずれ等、様々な態様があるが、少なくともフォローアップ撮影の適/不適の観点において位置ずれを評価することは不可能であった。 For example, with the technique described in Patent Document 9, it is possible to detect the amount of positional deviation between fundus images, but it is impossible to provide the user with the meaning of the positional deviation and the suitability of follow-up photography. . Therefore, the user has to make a judgment based on the positional deviation. However, the error of the scanning start point in follow-up imaging is usually on the order of millimeters or less, and it is difficult to visually determine whether or not follow-up imaging is appropriate. Moreover, although there are various modes of misalignment such as parallel misalignment and rotational misalignment, it is impossible to evaluate the misalignment at least from the viewpoint of appropriate / inappropriate follow-up photography.
また、特許文献10及び11に記載の技術では、撮影を行いながら位置ずれを検出して走査位置を補正している。しかし、このような補正を行ったとしても、走査位置のずれ、つまりフォローアップ撮影の誤差は、依然として介在する。これら従来技術では、このフォローアップ撮影の誤差を定量的に評価することはできない。
In the techniques described in
この発明は、上記の問題を解決するためになされたものであり、その目的は、フォローアップ撮影の誤差の程度を定量的に評価することが可能な技術を提供することにある。 The present invention has been made to solve the above problems, and an object thereof is to provide a technique capable of quantitatively evaluating the degree of error in follow-up imaging.
実施形態は、被検眼を撮影して正面画像を取得する撮影部と、前記被検眼を光で走査して断層像を形成する断層像形成部と、前記被検眼の1つ以上の正面画像を記憶する記憶部と、前記記憶部に記憶された正面画像を解析することにより、当該正面画像が前記断層像形成部を用いたフォローアップ撮影において参照される基準正面画像として適当か否か判定する判定部とを有する眼科撮影装置である。 The embodiment includes an imaging unit that captures an eye to acquire a front image, a tomographic image forming unit that scans the eye with light to form a tomographic image, and one or more front images of the eye to be inspected. Analyzing the storage unit to store and the front image stored in the storage unit, it is determined whether or not the front image is appropriate as a reference front image to be referred to in follow-up imaging using the tomographic image forming unit An ophthalmologic photographing apparatus having a determination unit.
この発明によれば、フォローアップ撮影の誤差の程度を定量的に評価することが可能である。 According to the present invention, it is possible to quantitatively evaluate the degree of error in follow-up photography.
この発明に係る眼科撮影装置及び眼科画像処理装置の実施形態の一例について、図面を参照しながら詳細に説明する。この発明に係る眼科撮影装置は、OCTを用いて眼底の断層像や3次元画像を形成する。この明細書では、OCTによって取得される画像をOCT画像と総称することがある。また、OCT画像を形成するための計測動作をOCT計測と呼ぶことがある。なお、この明細書に記載された文献の記載内容を、以下の実施形態の内容として適宜援用することが可能である。 An example of an embodiment of an ophthalmologic photographing apparatus and an ophthalmic image processing apparatus according to the present invention will be described in detail with reference to the drawings. The ophthalmologic photographing apparatus according to the present invention forms a tomographic image or a three-dimensional image of the fundus using OCT. In this specification, images acquired by OCT may be collectively referred to as OCT images. In addition, a measurement operation for forming an OCT image may be referred to as OCT measurement. In addition, it is possible to use suitably the description content of the literature described in this specification as the content of the following embodiment.
以下の実施形態では、フーリエドメインタイプのOCTを適用した構成について詳しく説明する。特に、実施形態に係る眼科撮影装置は、特許文献5に開示された装置と同様に、スペクトラルドメインOCTの手法を用いて眼底のOCT画像及び眼底像の双方を取得可能である。なお、スペクトラルドメイン以外のタイプ、たとえばスウェプトソースOCTの手法を用いる眼科撮影装置に対して、この発明に係る構成を適用することも可能である。
In the following embodiment, a configuration to which Fourier domain type OCT is applied will be described in detail. In particular, the ophthalmologic imaging apparatus according to the embodiment can acquire both the OCT image and the fundus image of the fundus using the spectral domain OCT technique, as in the apparatus disclosed in
また、この実施形態では被検眼の正面画像を撮影するための構成として眼底カメラを適用しているが、SLO、スリットランプ、眼科手術用顕微鏡などの撮影装置を適用することも可能である。なお、被検眼の正面画像は、眼底や前眼部など被検眼の任意の部位を、被検眼に対峙する視点から撮影して得られる画像である。 In this embodiment, a fundus camera is applied as a configuration for capturing a front image of the eye to be examined. However, an imaging apparatus such as an SLO, a slit lamp, or an ophthalmic surgical microscope may be applied. The front image of the eye to be examined is an image obtained by photographing any part of the eye to be examined, such as the fundus or anterior eye portion, from a viewpoint facing the eye to be examined.
また、この発明に係る眼科画像処理装置は、この発明に係る眼科撮影装置の一部として構成することも可能であるし、単体のコンピュータにより構成することも可能であるし、ネットワークを介して接続された2以上のコンピュータにより構成することも可能である。 Moreover, the ophthalmic image processing apparatus according to the present invention can be configured as a part of the ophthalmic imaging apparatus according to the present invention, or can be configured by a single computer, or can be connected via a network. It is also possible to configure with two or more computers.
〈第1の実施形態〉
[構成]
図1及び図2に示すように、眼科撮影装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含んで構成される。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、眼底のOCT画像を取得するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。
<First Embodiment>
[Constitution]
As shown in FIGS. 1 and 2, the
〔眼底カメラユニット〕
図1に示す眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像、又は近赤外光若しくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット2は、これら以外の画像、たとえばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。なお、眼底カメラユニット2により撮影される任意の眼底像は「正面画像」に相当する。また、眼底カメラユニット2は「撮影部」の一例である。
[Fundus camera unit]
The
眼底カメラユニット2には、被検者の顔を支持するための顎受けや額当てが設けられている。更に、眼底カメラユニット2には、照明光学系10と撮影光学系30が設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38。)に導く。また、撮影光学系30は、OCTユニット100からの信号光を眼底Efに導くとともに、眼底Efを経由した信号光をOCTユニット100に導く。
The
照明光学系10の観察光源11は、たとえばハロゲンランプにより構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。なお、観察光源としてLED(Light Emitting Diode)を用いることも可能である。
The observation
観察照明光の眼底反射光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、合焦レンズ31を経由し、ミラー32により反射される。更に、この眼底反射光は、ハーフミラー39Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、たとえば所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。
The fundus reflection light of the observation illumination light is refracted by the
撮影光源15は、たとえばキセノンランプにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。また、撮影光源としてLEDを用いることも可能である。
The
LCD(Liquid Crystal Display)39は、固視標や視力測定用指標を表示する。固視標は被検眼Eを固視させるための指標であり、眼底撮影時やOCT計測時などに使用される。 An LCD (Liquid Crystal Display) 39 displays a fixation target and an eyesight measurement index. The fixation target is an index for fixing the eye E to be examined, and is used at the time of fundus photographing or OCT measurement.
LCD39から出力された光は、その一部がハーフミラー39Aにて反射され、ミラー32に反射され、合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。
A part of the light output from the
LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。被検眼Eの固視位置としては、たとえば従来の眼底カメラと同様に、眼底Efの黄斑部を中心とする画像を取得するための位置や、視神経乳頭を中心とする画像を取得するための位置や、黄斑部と視神経乳頭との間の眼底中心を中心とする画像を取得するための位置などがある。また、固視標の表示位置を任意に変更することも可能である。
By changing the display position of the fixation target on the screen of the
更に、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系の位置合わせ(アライメント)を行うための指標(アライメント指標)を生成する。フォーカス光学系60は、眼底Efに対してフォーカス(ピント)を合わせるための指標(スプリット指標)を生成する。
Further, the
アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53及びリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eの角膜に投影される。
The light (alignment light) output from the
アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46及び上記孔部を経由し、その一部がダイクロイックミラー55を透過し、合焦レンズ31を通過し、ミラー32により反射され、ハーフミラー39Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。CCDイメージセンサ35による受光像(アライメント指標)は、観察画像とともに表示装置3に表示される。ユーザは、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント指標の位置を解析して光学系を移動させることによりアライメントを行ってもよい(オートアライメント機能)。
The cornea-reflected light of the alignment light passes through the
フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。
When performing the focus adjustment, the reflecting surface of the reflecting
フォーカス光の眼底反射光は、アライメント光の角膜反射光と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、スプリット指標の位置を解析して合焦レンズ31及びフォーカス光学系60を移動させてピント合わせを行う(オートフォーカス機能)。また、スプリット指標を視認しつつ手動でピント合わせを行ってもよい。
The fundus reflection light of the focus light is detected by the
ダイクロイックミラー46は、眼底撮影用の光路からOCT計測用の光路を分岐させている。ダイクロイックミラー46は、OCT計測に用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。このOCT計測用の光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、ガルバノスキャナ42と、合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。
The
光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT計測用の光路の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、たとえばコーナーキューブと、これを移動する機構とを含んで構成される。
The optical path
ガルバノスキャナ42は、OCT計測用の光路を通過する光(信号光LS)の進行方向を変更する。それにより、眼底Efを信号光LSで走査することができる。ガルバノスキャナ42は、たとえば、信号光LSをx方向に走査するガルバノミラーと、y方向に走査するガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、信号光LSをxy平面上の任意の方向に走査することができる。
The
〔OCTユニット〕
図2を参照しつつOCTユニット100の構成の一例を説明する。OCTユニット100には、眼底EfのOCT画像を取得するための光学系が設けられている。この光学系は、従来のスペクトラルドメインタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、低コヒーレンス光を参照光と信号光に分割し、眼底Efを経由した信号光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を検出するように構成されている。この検出結果(検出信号)は演算制御ユニット200に送られる。
[OCT unit]
An example of the configuration of the
なお、スウェプトソースタイプのOCT装置の場合には、低コヒーレンス光源を出力する光源の代わりに波長掃引光源が設けられるとともに、干渉光をスペクトル分解する光学部材が設けられない。一般に、OCTユニット100の構成については、光コヒーレンストモグラフィのタイプに応じた公知の技術を任意に適用することができる。
In the case of a swept source type OCT apparatus, a wavelength swept light source is provided instead of a light source that outputs a low coherence light source, and an optical member that spectrally decomposes interference light is not provided. In general, for the configuration of the
光源ユニット101は広帯域の低コヒーレンス光L0を出力する。低コヒーレンス光L0は、たとえば、近赤外領域の波長帯(約800nm〜900nm程度)を含み、数十マイクロメートル程度の時間的コヒーレンス長を有する。なお、人眼では視認できない波長帯、たとえば1040〜1060nm程度の中心波長を有する近赤外光を低コヒーレンス光L0として用いてもよい。
The
光源ユニット101は、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)等の光出力デバイスを含んで構成される。
The
光源ユニット101から出力された低コヒーレンス光L0は、光ファイバ102によりファイバカプラ103に導かれて信号光LSと参照光LRに分割される。
The low-coherence light L0 output from the
参照光LRは、光ファイバ104により導かれて光減衰器(アッテネータ)105に到達する。光減衰器105は、公知の技術を用いて、演算制御ユニット200の制御の下、光ファイバ104に導かれる参照光LRの光量を自動で調整する。光減衰器105により光量が調整された参照光LRは、光ファイバ104により導かれて偏波調整器(偏波コントローラ)106に到達する。偏波調整器106は、たとえば、ループ状にされた光ファイバ104に対して外部から応力を与えることで、光ファイバ104内を導かれる参照光LRの偏光状態を調整する装置である。なお、偏波調整器106の構成はこれに限定されるものではなく、任意の公知技術を用いることが可能である。偏波調整器106により偏光状態が調整された参照光LRは、ファイバカプラ109に到達する。
The reference light LR is guided by the
ファイバカプラ103により生成された信号光LSは、光ファイバ107により導かれ、コリメータレンズユニット40により平行光束とされる。更に、信号光LSは、光路長変更部41、ガルバノスキャナ42、合焦レンズ43、ミラー44、及びリレーレンズ45を経由してダイクロイックミラー46に到達する。そして、信号光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて眼底Efに照射される。信号光LSは、眼底Efの様々な深さ位置において散乱(反射を含む)される。眼底Efによる信号光LSの後方散乱光は、往路と同じ経路を逆向きに進行してファイバカプラ103に導かれ、光ファイバ108を経由してファイバカプラ109に到達する。
The signal light LS generated by the
ファイバカプラ109は、信号光LSの後方散乱光と、光ファイバ104を経由した参照光LRとを干渉させる。これにより生成された干渉光LCは、光ファイバ110により導かれて出射端111から出射される。更に、干渉光LCは、コリメータレンズ112により平行光束とされ、回折格子113により分光(スペクトル分解)され、集光レンズ114により集光されてCCDイメージセンサ115の受光面に投影される。なお、図2に示す回折格子113は透過型であるが、たとえば反射型の回折格子など、他の形態の分光素子を用いることも可能である。
The
CCDイメージセンサ115は、たとえばラインセンサであり、分光された干渉光LCの各スペクトル成分を検出して電荷に変換する。CCDイメージセンサ115は、この電荷を蓄積して検出信号を生成し、これを演算制御ユニット200に送る。
The
この実施形態ではマイケルソン型の干渉計を採用しているが、たとえばマッハツェンダー型など任意のタイプの干渉計を適宜に採用することが可能である。また、CCDイメージセンサに代えて、他の形態のイメージセンサ、たとえばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いることが可能である。 In this embodiment, a Michelson type interferometer is employed, but any type of interferometer such as a Mach-Zehnder type can be appropriately employed. Further, in place of the CCD image sensor, another form of image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor can be used.
〔演算制御ユニット〕
演算制御ユニット200の構成について説明する。演算制御ユニット200は、CCDイメージセンサ115から入力される検出信号を解析して眼底EfのOCT画像を形成する。そのための演算処理は、従来のスペクトラルドメインタイプのOCT装置と同様である。
[Calculation control unit]
The configuration of the
また、演算制御ユニット200は、眼底カメラユニット2、表示装置3及びOCTユニット100の各部を制御する。たとえば演算制御ユニット200は、眼底EfのOCT画像を表示装置3に表示させる。
The
また、眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15及びLED51、61の動作制御、LCD39の動作制御、合焦レンズ31、43の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、ガルバノスキャナ42の動作制御などを行う。
As the control of the
また、OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、光減衰器105の動作制御、偏波調整器106の動作制御、CCDイメージセンサ115の動作制御などを行う。
As control of the
演算制御ユニット200は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼科撮影装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、たとえばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。
The
眼底カメラユニット2、表示装置3、OCTユニット100及び演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。
The
〔制御系〕
眼科撮影装置1の制御系の構成について図3及び図4を参照しつつ説明する。
[Control system]
The configuration of the control system of the ophthalmologic photographing
ところで、眼科撮影装置1は、フォローアップ撮影及びその後処理を実行可能に構成されている。フォローアップ撮影は、過去に取得された被検眼の正面画像を参照し過去と同一位置を光で走査して断層像を取得するための撮影手法である。また、後処理は、フォローアップ撮影における光の走査位置の誤差を評価する処理を含む。換言すると、後処理は、過去の撮影での走査位置と、この過去の撮影で得られた正面画像に基づくフォローアップ撮影での走査位置との間のずれを評価する処理を含む。なお、実施形態に係る眼科画像処理装置は、この後処理を実行するものである。
Incidentally, the
制御系について説明する前に、その前提となるフォローアップ撮影について簡単に説明する。フォローアップ撮影において、眼科撮影装置1の各部の制御は制御部210(特に主制御部211)により実行される。
Before explaining the control system, the follow-up shooting which is the premise thereof will be briefly explained. In follow-up imaging, control of each unit of the
フォローアップ撮影は、過去の撮影での走査位置を再現して今回の撮影を行うものである。その準備段階として、図示しない患者選択画面が表示部240Aに表示される。患者選択画面には、フォローアップ撮影の被検体となる患者を選択するための機能(患者選択部)と、患者情報を表示する機能(患者情報表示部)と、撮影情報を表示する機能(撮影情報表示部)とが設けられている。また、患者選択画面には、各種操作部(ソフトウェアキー)が設けられている。
Follow-up shooting is to perform the current shooting while reproducing the scanning position in the previous shooting. As the preparation stage, a patient selection screen (not shown) is displayed on the
患者選択部には、検索クエリの入力スペース、撮影日(過去の最終撮影日等)を選択するためのカレンダーなどが設けられている。患者選択部に入力がなされると、制御部210は、情報格納装置(眼科撮影装置1の記憶部212、ネットワーク上のデータベース等)に格納されている患者情報を検索し、その検索結果を患者情報表示部に表示させる。表示される患者情報としては、患者ID、患者氏名、性別、生年月日などがある。なお、カレンダーで撮影日の選択を行った場合などには、複数の患者情報が患者情報表示部に列挙される。その場合、ユーザは複数の患者情報のうちから所望の患者を選択することができる。
The patient selection unit is provided with an input space for a search query, a calendar for selecting an imaging date (such as the last imaging date in the past), and the like. When input is made to the patient selection unit, the
一人の患者が選択されると、制御部210は、その患者に関する撮影情報を情報格納装置から取得して撮影情報表示部に表示させる。過去に複数回の撮影が実施された場合には、各撮影における撮影情報が時系列に応じて列挙される。撮影情報としては、撮影日、撮影時刻、データ格納先(ファイル番号等)、フォローアップ撮影か否か、OCT計測のスキャンモード(後述)、左眼/右眼の識別情報、固視位置、解析処理(網膜厚解析等)に関する情報などがある。
When one patient is selected, the
ユーザが今回のフォローアップ撮影において参照する撮影情報を選択すると、制御部210は、選択された撮影情報に対応する撮影で得られた画像データを情報格納装置から取得し、この画像データに基づく画像(正面画像及び断層像)を表示部240Aに表示させる。このとき、表示画面が患者選択画面から画像表示画面(図示せず)に切り替えられる。ユーザは、表示された画像を観察し、当該正面画像を参照してフォローアップ撮影を行うか判断する。他の正面画像を参照する場合には、当該撮影で得られた他の画像又は他の撮影で得られた画像を表示させて同様の判断を行う。参照する正面画像がユーザにより決定されると、制御部210は、その正面画像(基準正面画像、第1の正面画像)を表示部240Aに表示させるとともに、フォローアップ撮影の開始指示待ち状態に移行する。
When the user selects shooting information to be referred to in this follow-up shooting, the
所定の撮影開始指示が入力されると、制御部210は、被検眼Eの近赤外動画像をリアルタイムで取得する。そして、制御部210は、この近赤外動画像のフレーム(第2の正面画像、フォローアップ正面画像)と基準正面画像との間で画像マッチングを行いつつ後述のトラッキングを実行し、当該過去の撮影と同じスキャンモードでOCT計測を行う。このOCT計測は、たとえばトラッキングが好適に行われていると判断されたタイミングで開始される。また、このOCT計測では、同じスキャンモードでのスキャンが所定回数繰り返される。画像形成部220は、この反復走査で取得された複数の画像データを重ね合わせて最終的な画像データを形成する。
When a predetermined imaging start instruction is input, the
このようなフォローアップ撮影により得られたOCT画像の画像データは、患者情報、このフォローアップ撮影における走査位置情報、このフォローアップ撮影で得られた近赤外動画像のフレーム、このフォローアップ撮影の撮影情報、参照された過去の撮影に関する情報(走査位置情報、撮影情報、画像データ等)などと関連付けられて記憶部212に記憶される。ここで、記憶される近赤外動画像のフレームは、たとえばOCT計測が行われている期間において最初に取得されたフレームと最後に取得されたフレームとされる。
The image data of the OCT image obtained by such follow-up imaging includes patient information, scanning position information in this follow-up imaging, a frame of the near-infrared moving image obtained by this follow-up imaging, The information is stored in the
以上でフォローアップ撮影において実行される処理の例の説明は終了であり、制御系の説明に戻る。 This is the end of the description of the example of processing executed in follow-up shooting, and the description returns to the description of the control system.
(制御部)
眼科撮影装置1の制御系は、制御部210を中心に構成される。制御部210は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と記憶部212が設けられている。
(Control part)
The control system of the ophthalmologic photographing
(主制御部)
主制御部211は前述の各種制御を行う。特に、主制御部211は、眼底カメラユニット2の合焦駆動部31A、光路長変更部41及びガルバノスキャナ42、更にOCTユニット100の光源ユニット101、光減衰器105及び偏波調整器106を制御する。
(Main control unit)
The
合焦駆動部31Aは、合焦レンズ31を光軸方向に移動させる。それにより、撮影光学系30の合焦位置が変更される。なお、主制御部211は、図示しない光学系駆動部を制御して、眼底カメラユニット2に設けられた光学系を3次元的に移動させることもできる。この制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとピント合わせが実行される。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。
The focusing
また、主制御部211は、記憶部212にデータを書き込む処理や、記憶部212からデータを読み出す処理を行う。また、主制御部211は、表示部240Aに各種情報を表示させる表示制御部2111を含む。表示制御部2111は、「第1の表示制御部」及び「第2の表示制御部」の一例として機能する。表示制御部2111が実行する処理については後述する。
Further, the
(記憶部)
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、たとえば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼科撮影装置1を動作させるための各種プログラムやデータが記憶されている。
(Memory part)
The
記憶部212にはフォローアップ撮影情報2121が記憶されている。フォローアップ撮影情報2121は、過去に実施されたフォローアップ撮影に関連する情報である。フォローアップ撮影情報2121には、過去に実施されたフォローアップ撮影において参照された被検眼Eの正面画像(第1の正面画像、基準正面画像)と、このフォローアップ撮影において取得された被検眼Eの正面画像(第2の正面画像、フォローアップ正面画像)とが少なくとも含まれる。後者は、このフォローアップ撮影においてリアルタイムで取得された近赤外動画像のフレームである。このフレームは、たとえば、OCT計測が行われている期間において最初に取得されたフレーム及び最後に取得されたフレームである。
The
更に、フォローアップ撮影情報2121には、基準正面画像とともに形成された断層像の走査位置(第1の走査位置、基準走査位置)を示す基準走査位置情報と、このフォローアップ撮影においてフォローアップ正面画像とともに取得された断層像の走査位置(第2の走査位置、フォローアップ走査位置)を示すフォローアップ走査位置情報とが含まれていてもよい。これら走査位置情報は、たとえば、当該走査におけるガルバノスキャナ42の制御情報、つまりガルバノスキャナ42の向きを示す情報を含む。また、OCT計測中に正面画像をリアルタイムで取得している場合、走査位置情報は、正面画像に映り込んだ走査位置(走査軌跡)の座標を含んでいてもよい。
Further, the follow-up
(画像形成部)
画像形成部220は、CCDイメージセンサ115からの検出信号に基づいて、眼底Efの断層像の画像データを形成する。この処理には、従来のスペクトラルドメインタイプの光コヒーレンストモグラフィと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理が含まれている。
(Image forming part)
The
同じスキャンモードで所定回数連続して走査が実行された場合、画像形成部220は、この連続走査により得られた複数の断層像の画像データを重ね合わせて新たな画像データを形成する処理を行う。この重ね合わせ処理は、画像データに混入するランダムノイズを除去するなどの目的で行われる。
When scanning is continuously performed a predetermined number of times in the same scan mode, the
他のタイプのOCT装置の場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。画像形成部220は、たとえば、前述の回路基板を含んで構成される。画像形成部220は、OCT計測で用いられる光学系とともに「断層像形成部」として機能する。なお、この明細書において、「画像データ」と、それに基づく「画像」とを同一視することがある。
In the case of another type of OCT apparatus, the
(画像処理部)
画像処理部230は、画像形成部220により形成されたOCT画像に対して各種の画像処理や解析処理を施す。たとえば、画像処理部230は、画像の輝度補正や分散補正等の各種補正処理を実行する。更に、画像処理部230は、OCT画像を解析して網膜厚分布を取得する層厚解析処理を実行する。また、画像処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。
(Image processing unit)
The
画像処理部230は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Efの3次元画像の画像データを形成する。なお、3次元画像の画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像の画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる場合、画像処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部240A等の表示デバイスには、この擬似的な3次元画像が表示される。
The
また、3次元画像の画像データとして、複数の断層像のスタックデータを形成することも可能である。スタックデータは、複数の走査線に沿って得られた複数の断層像を、走査線の位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断層像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。 It is also possible to form stack data of a plurality of tomographic images as image data of a three-dimensional image. The stack data is image data obtained by three-dimensionally arranging a plurality of tomographic images obtained along a plurality of scanning lines based on the positional relationship of the scanning lines. That is, stack data is image data obtained by expressing a plurality of tomographic images originally defined by individual two-dimensional coordinate systems by one three-dimensional coordinate system (that is, by embedding them in one three-dimensional space). is there.
画像処理部230には、情報取得部231と、算出部232と、撮影適否判定部233とが設けられている。これらは、フォローアップ撮影の後処理を実行する。この後処理は、前述のように、フォローアップ撮影における光の走査位置の誤差を評価するものである。
The
(情報取得部)
情報取得部231は、フォローアップ撮影で参照された正面画像(基準正面画像)と、フォローアップ撮影で得られた正面画像(フォローアップ正面画像)とを解析して、これら正面画像の間の位置ずれ情報を取得する。この位置ずれ情報は、これら正面画像における眼底Efの形態の描画位置がどれだけずれているかを定量的に表す情報である。
(Information acquisition unit)
The
情報取得部231は、位置ずれ情報として、たとえば、基準正面画像とフォローアップ正面画像との間における平行移動ずれ及び回転移動ずれをそれぞれ算出する。平行移動ずれは、正面画像の広がり方向(xy面内)における、これら正面画像に描画された眼底Efの形態の変位に相当する。回転移動ずれは、xy面内の所定位置を中心とする当該形態の回転方向における変位に相当する。なお、平行移動ずれと回転移動ずれは、たとえば双方の正面画像の座標の間のアフィン変換として表現される。また、平行移動ずれと回転移動ずれの一方のみを算出するようにしてもよい。
The
平行移動ずれ及び回転移動ずれの算出方法の例を説明する。まず、情報取得部231は、各正面画像を解析して、眼底Efの所定の特徴部位に相当する画像位置を特定する。この特徴部位としては、たとえば、視神経乳頭の中心・縁部、黄斑中心、特定の血管、血管の分岐部、病変部などがある。
An example of a method for calculating the parallel displacement and the rotational displacement will be described. First, the
次に、情報取得部231は、基準正面画像における当該画像位置の座標と、フォローアップ正面画像における当該画像位置の座標との変位を求める。この処理では、たとえば、複数の特徴部位の画像位置のそれぞれについて、双方の正面画像における当該画像位置の座標を2次元アフィン変換の変換式に代入しアフィン変換行列の成分を決定する。なお、画像位置の座標は、各画素に対してあらかじめ割り当てられたアドレス情報である。このようにして得られるアフィン変換行列には、正面画像の間の平行移動ずれ及び回転移動ずれの双方の情報が含まれている。
Next, the
(算出部)
算出部232は、情報取得部231により取得された位置ずれ情報に基づいて、フォローアップ撮影における走査位置の誤差の評価値を算出する。この評価値の例として、基準正面画像の走査位置とフォローアップ正面画像の走査位置とにより規定される所定の画像領域の面積に基づいて算出されるものと、これら走査位置の間の変位に基づくものとがある。なお、これら以外のファクターに基づいて評価値を算出することも可能である。また、異なるファクターを組み合わせて評価値を算出するようにしてもよい。
(Calculation unit)
The
算出部232には、相対位置算出部2321と、判断部2322と、面積算出部2323と、変位算出部2324と、評価値算出部2325とが設けられている。面積に基づく評価値の算出は、相対位置算出部2321と、判断部2322と、面積算出部2323とにより実行される。変位に基づく評価値の算出は、相対位置算出部2321と、変位算出部2324と、評価値算出部2325とにより実行される。
The
(相対位置算出部)
前述のように、記憶部212に記憶されたフォローアップ撮影情報2121には、基準走査位置情報とフォローアップ走査位置情報とが含まれている。相対位置算出部2321は、基準走査位置とフォローアップ走査位置との間の相対位置情報を、情報取得部231により取得された位置ずれ情報に基づいて算出する。
(Relative position calculation unit)
As described above, the follow-up
ところで、フォローアップ撮影は、過去の走査位置を再現してOCT計測を行うものである。よって、理想的には基準走査位置とフォローアップ走査位置は同じになる。しかし、固視微動等の影響により走査位置を完全に再現することは事実上困難である。一方、基準走査位置とフォローアップ走査位置は固視微動等が介在しなければ一致するので、これら走査位置の間の相対位置は固視微動等による被検眼Eの位置ずれ、つまり基準正面画像とフォローアップ正面画像との間の位置ずれに相当する。この位置ずれは、情報取得部231により位置ずれ情報として取得される。
By the way, follow-up imaging reproduces a past scanning position and performs OCT measurement. Therefore, ideally, the reference scanning position and the follow-up scanning position are the same. However, it is practically difficult to completely reproduce the scanning position due to the influence of microscopic fixation and the like. On the other hand, since the reference scanning position and the follow-up scanning position match if there is no fixation fine movement or the like, the relative position between these scanning positions is the displacement of the eye E due to fixation fine movement or the like, that is, the reference front image. This corresponds to a positional shift between the follow-up front image. This positional deviation is acquired as positional deviation information by the
相対位置算出部2321は、たとえば、位置ずれ情報に示す位置ずれ量だけ基準走査位置を変位させることにより、フォローアップ正面画像において基準走査位置に対応する位置、つまり基準走査位置が完全に再現された場合に実現される理想的な走査位置を求める。相対位置情報は、この理想的な走査位置と、実際のフォローアップ撮影で実行された走査位置(フォローアップ走査位置)との間の相対位置を示す。このように、相対位置情報は、実質的に位置ずれ情報と同値である。すなわち、正面画像の間の変位を表すのが位置ずれ情報であり、走査位置の間の変位を表すのが相対位置情報である。相対位置算出部2321は、取得した相対位置情報を判断部2322と変位算出部2324に送る。
For example, the relative
(判断部)
基準走査位置とフォローアップ走査位置との相対位置には、たとえば図5A〜図5Dに示すような態様がある。これら図面において、符号Rは、フォローアップ正面画像におけるフォローアップ走査位置を示す。また、符号R0は、フォローアップ正面画像における基準走査位置、つまり位置ずれ情報(相対位置情報)に基づき変位された基準走査位置を示す。図5Aは、平行移動ずれのみが介在する場合の例を示す。図5Bは、回転移動ずれのみが介在する場合であって、双方の走査位置が中心近傍で交差する場合の例を示す。図5Cは、回転移動ずれのみが介在する場合であって、双方の走査位置が走査開始点近傍で交差する場合の例を示す。図5Dは、平行移動ずれと回転移動ずれの双方が介在する場合の例を示す。なお、走査位置の相対位置の態様はこれらに限定されるものではない。また、スキャンモードはラインスキャンに限定されない。
(Judgment part)
For example, the relative positions of the reference scanning position and the follow-up scanning position are as shown in FIGS. 5A to 5D. In these drawings, a symbol R indicates a follow-up scanning position in the follow-up front image. Reference sign R0 indicates a reference scanning position in the follow-up front image, that is, a reference scanning position displaced based on positional deviation information (relative position information). FIG. 5A shows an example where only a translational displacement is present. FIG. 5B shows an example in which only the rotational displacement is present and both scanning positions intersect in the vicinity of the center. FIG. 5C shows an example in which only the rotational displacement is present and both scanning positions intersect in the vicinity of the scanning start point. FIG. 5D shows an example in which both a translational displacement and a rotational displacement are present. In addition, the aspect of the relative position of the scanning position is not limited to these. The scan mode is not limited to line scan.
判断部2322は、位置ずれ情報(相対位置情報)に基づいて、基準走査位置とフォローアップ走査位置との間に共有位置が存在するか判断する。共有位置とは、基準走査位置とフォローアップ走査位置とが重なり合っている位置(領域)を表す。
The
共有位置は、0次元領域(点)、1次元領域(線)、又は2次元領域(面)である。図5A〜図5Dでは、基準走査位置及びフォローアップ走査位置はともに線分状であるから、これらが交差している場合には共有位置は当該交点となり、交差していない場合には共有位置は無しとなる。また、図示は省略するが、基準走査位置とフォローアップ走査位置との変位方向が長さ方向のみであり、かつ変位量が長さ未満である場合には、これら2つの走査位置の共有位置は1次元領域となる。また、スキャンモードとして3次元スキャンが用いられる場合、基準走査位置とフォローアップ走査位置はともに2次元領域となり、これらの共有位置は相対的な位置関係に応じて0次元領域、1次元領域又は2次元領域となる。 The shared position is a zero-dimensional area (point), a one-dimensional area (line), or a two-dimensional area (plane). In FIGS. 5A to 5D, since the reference scanning position and the follow-up scanning position are both line segments, the shared position is the intersection when they intersect, and the shared position is not intersected when they intersect. None. Although not shown, when the displacement direction of the reference scanning position and the follow-up scanning position is only the length direction and the displacement amount is less than the length, the shared position of these two scanning positions is It becomes a one-dimensional area. When a three-dimensional scan is used as the scan mode, both the reference scan position and the follow-up scan position are two-dimensional areas, and these shared positions are a zero-dimensional area, a one-dimensional area, or 2 according to the relative positional relationship. It becomes a dimension area.
共有位置が存在するか否かの判断処理は、フォローアップ正面画像における基準走査位置の座標及びフォローアップ走査位置の座標に基づいて行われる。たとえば、判断部2322は、基準走査位置の座標とフォローアップ走査位置の座標とを照合し、これら走査位置の間に共通の座標が存在する場合には共有位置が存在すると判断し、存在しない場合には共有位置は存在しないと判断する。この処理により、フォローアップ正面画像における共有位置の座標も得られる。なお、これら座標は、フォローアップ正面画像にあらかじめ定義された2次元座標系における座標である。
The process for determining whether or not the shared position exists is performed based on the coordinates of the reference scanning position and the coordinates of the follow-up scanning position in the follow-up front image. For example, the
判断部2322は、共有位置に関する判断結果(存在の有無、共有位置の座標等)を面積算出部2323に送る。
The
(面積算出部)
面積算出部2323は、位置ずれ情報(相対位置情報)に基づいて、基準走査位置とフォローアップ走査位置とにより規定される画像領域の面積を算出する。ここで、前述のように、位置ずれ情報と相対位置情報は実質的に同値である。また、面積の算出対象となる画像領域は、フォローアップ正面画像の一部領域である。また、2つの走査位置に基づいて画像領域を規定する方法はあらかじめ決められている。また、面積算出処理は任意の態様で行うことができる。面積算出処理は、たとえば、画像領域内の画素数をカウントする処理、画像領域の境界領域を示す数学的表現(数式等)を求める処理、積分演算などを含んでいてもよい。また、算出結果である面積は、画像領域の2次元的な大きさを一意的に表現する数値であればよい。
(Area calculation part)
The
面積算出部2323は、この面積算出処理において、判断部2322による判断結果に応じて異なる演算処理を行なう。たとえば、面積算出部2323は、基準走査位置とフォローアップ走査位置とに共有位置が存在する場合と存在しない場合とで異なる演算処理を実行する。以下、その具体例を説明する。以下の具体例では、2つの走査位置が線分状である場合について、これら走査位置が交差する場合と交差しない場合とを分けて考える。つまり、共有位置が存在する場合と存在しない場合とを分けて考える。更に、2つの走査位置が交差する場合について、交点が走査位置の端点である場合と端点でない場合とを分けて考える。交点が端点であるか否かの判定は、2つの走査位置の座標と交点の座標とに基づいて容易に行うことができる。なお、走査位置の端点とは、線分状の走査位置の走査開始点と走査終了点を示す。また、以下の具体例において走査位置は線分状であるから交点は1つのみであるが、走査位置が曲線状である場合には交点が2つ以上存在する場合もある。
In this area calculation process, the
図5B及び図5Cに示すように2つの走査位置が交差している場合、面積算出部2323は、2つの走査位置の端点と交点とにより規定される画像領域の面積を求める。より具体的には、面積算出部2323は、交点に対して一方の側に位置する2つの走査位置の端点とこの交点とがなす三角形の面積と、他方の側に位置する2つの走査位置の端点とこの交点とがなす三角形の面積との和を算出し、これを当該画像領域の面積とすることができる。
When the two scanning positions intersect as shown in FIGS. 5B and 5C, the
たとえば図5Bに示すように走査位置の端点以外の位置に交点が存在する場合、面積算出部2323は、図6Aに示すように、交点Cに対して右側に位置する2つの走査位置R0、Rの端点(走査終了点)R0E、REと、交点Cとを頂点とする三角形TR1の面積を算出する。また、面積算出部2323は、交点Cの左側に位置する2つの走査位置R0、Rの端点(走査開始点)R0S、RSと、交点Cとを頂点とする三角形TR2の面積を算出する。更に、面積算出部2323は、三角形TR1の面積と三角形TR2の面積とを加算する。この和が目的の面積の値となる。
For example, when an intersection exists at a position other than the end point of the scanning position as shown in FIG. 5B, the
別の例として、図5Cに示すように2つの走査位置が端点(走査開始点)にて交差している場合、面積算出部2323は、図6Bに示すように、交点C(双方の走査開始点)と、基準走査位置R0の走査終了点と、フォローアップ走査位置Rの走査終了点とを頂点とする三角形TRの面積を求める。
As another example, when two scanning positions intersect at an end point (scanning start point) as shown in FIG. 5C, the
なお、2つの走査位置が一方の走査位置の端点と他方の走査位置の端点以外とにおいて交差する場合には、たとえば、その交点と、一方の走査位置の反対側の端点と、他方の走査位置の一方の端点(たとえば当該反対側の端点と同じ側に位置する端点)とを頂点とする三角形の面積を求めることができる。 When two scanning positions intersect at an end point of one scanning position and an end point other than the other scanning position, for example, the intersection, an end point on the opposite side of one scanning position, and the other scanning position The area of a triangle whose apex is one end point (for example, an end point located on the same side as the opposite end point) can be obtained.
一方、図5A及び図5Dに示すように2つの走査位置が交差していない場合、面積算出部2323は、2つの走査位置により規定される四角形の面積を算出して目的の画像領域の面積とする。より具体的には、2つの走査位置が交差していない場合、面積算出部2323は、図6C及び図6Dに示すように、基準走査位置R0及びフォローアップ走査位置Rを二辺とし、かつ、これら走査位置の端点同士を結ぶ2つの線分を二辺とする四角形QUの面積を求める。
On the other hand, when the two scanning positions do not intersect as shown in FIGS. 5A and 5D, the
面積算出部2323は、上記のようにして求められた面積を評価値算出部2325に送る。
The
(変位算出部)
変位算出部2324は、位置ずれ情報(相対位置情報)に基づいて、基準走査位置とフォローアップ走査位置との間の変位を算出する。この変位の算出方法は任意である。以下、この変位算出処理の具体例について図7を参照しつつ説明する。
(Displacement calculation unit)
The
図7には、それぞれ線分状の基準走査位置R0とフォローアップ走査位置Rが示されている。なお、変位の算出において、2つの走査位置が交差しているか否かは不問としてよい。 FIG. 7 shows a line-segment reference scanning position R0 and a follow-up scanning position R, respectively. In calculating the displacement, it may be unquestioned whether or not the two scanning positions intersect.
変位算出部2324は、まず、各走査位置R0、R上の所定位置を特定する。この特定処理は、それぞれ線分状の走査位置R0、Rの各点の座標に基づいて行うことができる。この所定位置の例として、走査開始点、走査終了点、中点などがある。なお、線分状以外の形態の走査位置を考慮する場合には、その形態に応じた所定位置を用いることができる。また、比較対象となる2つの走査位置において、同じ種別の所定位置が適用される。たとえば、所定位置として走査開始点を用いる場合には、双方の走査開始点が特定される。また、複数種別の所定位置を特定する場合、各所定位置にその種別が関連付けられる。
The
次に、変位算出部2324は、基準走査位置R0における所定位置の座標と、フォローアップ走査位置Rにおける所定位置の座標との変位を算出する。この算出処理は、フォローアップ正面画像にあらかじめ定義された2次元座標系を用いて行うことができる。また、2つの所定位置の間の画素数をカウントすることで変位を求めることもできる。ここで算出される変位は、同じ種別の所定位置の間の変位である。たとえば、この変位は走査開始点同士の間の変位であり、走査開始点と中点との間の変位ではない。
Next, the
図7は、上記の所定位置として、走査開始点、走査終了点及び中点の3つの種別が適用される場合を示している。図7において、基準走査位置R0の走査開始点R0Sと、フォローアップ走査位置Rの走査開始点RSとの間の変位は、符号DSで示されている。また、基準走査位置R0の走査終了点R0Eと、フォローアップ走査位置Rの走査終了点REとの間の変位は、符号DEで示されている。また、基準走査位置R0の中点R0Mと、フォローアップ走査位置Rの中点RMとの間の変位は、符号DMで示されている。 FIG. 7 shows a case where three types of scanning start point, scanning end point, and middle point are applied as the predetermined position. In FIG. 7, the displacement between the scan start point R0S at the reference scan position R0 and the scan start point RS at the follow-up scan position R is indicated by the symbol DS. Further, the displacement between the scanning end point R0E at the reference scanning position R0 and the scanning end point RE at the follow-up scanning position R is indicated by a symbol DE. Further, the displacement between the middle point R0M of the reference scanning position R0 and the middle point RM of the follow-up scanning position R is indicated by a symbol DM.
変位算出部2324は、以上のようにして求められた変位を評価値算出部2325に送る。
The
(評価値算出部)
評価値算出部2325は、フォローアップ撮影における走査位置の誤差の評価値を算出する。この算出処理に供される情報として、評価値算出部2325には、面積算出部2323により求められた面積の情報と、変位算出部2324により求められた変位の情報とが入力される。以下、面積に基づく評価値算出処理の例、及び変位に基づく評価値算出処理の例、並びに双方を組み合わせた評価値算出処理の例について説明する。
(Evaluation value calculator)
The evaluation
なお、この実施形態では双方の評価値算出処理を実行可能な場合について説明するが、一方のみを実施可能な構成であってもよい。また、フォローアップ撮影における走査位置の誤差を反映する他の任意の情報に基づいて評価値を算出するようにしてもよい。 In addition, although this embodiment demonstrates the case where both evaluation value calculation processes are executable, the structure which can implement only one side may be sufficient. Further, the evaluation value may be calculated based on other arbitrary information that reflects the error of the scanning position in follow-up imaging.
(面積に基づく評価値算出処理)
面積算出部2323により算出された画像領域の面積から評価値を求める処理の例として、評価値算出部2325は、この画像領域の面積と所定の重みとの積を、評価値の所定の最大値から減算する演算処理を行うことができる。この演算処理はたとえば次式のように表現される。
(Evaluation value calculation process based on area)
As an example of processing for obtaining an evaluation value from the area of the image region calculated by the
ここで、S1は面積に基づく評価値を表し、S1、maxはあらかじめ設定された当該評価値の最大値を表し、aはあらかじめ設定された重みを表し、Areaは面積算出部2323により算出された面積を表す。最大値S1、max及び重みaは、それぞれ任意に設定可能である。たとえば、最大値S1、maxは100に設定され、重みaはこの最大値の設定値及び面積の数値の大きさなどに基づいて設定される。
Here, S 1 represents the evaluation value based on the area, S 1 and max represent the maximum value of the evaluation value set in advance, a represents the weight set in advance, and Area is calculated by the
このような演算処理によれば、面積が小さいほど、つまりフォローアップ撮影における走査位置の誤差が小さいほど、評価値S1の値が大きくなる。 According to such processing, as the area is smaller, i.e. as the error of the scanning position in the follow-up photography is small, the value of the evaluation values S 1 becomes large.
(変位に基づく評価値算出処理)
変位算出部2324により算出された変位から評価値を求める処理の例として、評価値算出部2325は、この変位と所定の重みとの積を評価値の所定の最大値から減算する演算処理を行うことができる。この演算処理はたとえば次式のように表現される。
(Evaluation value calculation process based on displacement)
As an example of processing for obtaining an evaluation value from the displacement calculated by the
ここで、S2は変位に基づく評価値を表し、S2、maxはあらかじめ設定された当該評価値の最大値を表し、b、c及びdはあらかじめ設定された重みを表し、DM、DS及びDEはそれぞれ変位算出部2324により算出された中点、走査開始点及び走査終了点の変位を表す。最大値S2、max及び重みb〜dは、それぞれ任意に設定可能である。たとえば、最大値S2、maxは100に設定され、重みb〜dはこの最大値の設定値及び面積の数値の大きさなどに基づいてそれぞれ設定される。
Here, S 2 represents the evaluation value based on the displacement, S 2, max represents the maximum value of the preset the evaluation value, b, c and d represents a weight which is set in advance, DM, DS and DE represents the displacement of the midpoint, the scan start point, and the scan end point calculated by the
このような演算処理によれば、変位が小さいほど、つまりフォローアップ撮影における走査位置の誤差が小さいほど、評価値S2の値が大きくなる。なお、この例では、中点、走査開始点及び走査終了点の3つの点を考慮して評価値を算出しているが、これらのうちの1つ又は2つを考慮して評価値を算出することもできる。また、これら以外の点における変位を算出し、これを考慮することも可能である。 According to such processing, the more displacement is small, that is as the error of the scanning position in the follow-up photography is small, the evaluation value S 2 is increased. In this example, the evaluation value is calculated in consideration of the three points of the middle point, the scanning start point, and the scanning end point. However, the evaluation value is calculated in consideration of one or two of these points. You can also It is also possible to calculate the displacement at points other than these and take this into account.
(面積及び変位に基づく評価値算出処理)
面積算出部2323により算出された画像領域の面積及び変位算出部2324により算出された変位に基づいて評価値を求める処理の例として、評価値算出部2325は、上記した各々の場合を統合した演算式を用いることができる。この演算式はたとえば次のように表現される。
(Evaluation value calculation process based on area and displacement)
As an example of processing for obtaining an evaluation value based on the area of the image area calculated by the
ここで、Sは面積及び変位に基づく評価値を表し、Smaxはあらかじめ設定された当該評価値の最大値を表し、a〜dはあらかじめ設定された重みを表し、Areaは面積算出部2323により算出された面積を表し、DM、DS及びDEはそれぞれ変位算出部2324により算出された中点、走査開始点及び走査終了点の変位を表す。最大値Smax及び重みa〜dは、それぞれ任意に設定可能である。たとえば、最大値Smaxは100に設定され、重みa〜dはこの最大値の設定値及び面積の数値の大きさなどに基づいてそれぞれ設定される。
Here, S represents an evaluation value based on the area and displacement, S max represents a maximum value of the preset evaluation value, a to d represent preset weights, and Area is calculated by the
このような演算処理によれば、面積及び/又は変位が小さいほど、つまりフォローアップ撮影における走査位置の誤差が小さいほど、評価値Sの値が大きくなる。 According to such a calculation process, the evaluation value S increases as the area and / or displacement decreases, that is, as the error of the scanning position in follow-up imaging decreases.
評価値算出部2325により算出された評価値の情報は、撮影適否判定部233に送られる。
Information on the evaluation value calculated by the evaluation
(撮影適否判定部)
撮影適否判定部233は、評価値算出部2325により算出された評価値に基づいて当該フォローアップ撮影の適否を判定する。この処理は、たとえば、あらかじめ設定された数値範囲と評価値とを比較することにより行われる。
(Shooting suitability determination unit)
The shooting
撮影適否判定部233が実行する処理の具体例を説明する。上記のように誤差が小さいほど評価値の値が大きくなる場合において、撮影適否判定部233は、算出された評価値が所定の閾値以上であるか否か判断する。評価値が閾値以上である場合、撮影適否判定部233は、当該フォローアップは適正に実行されたものと判定する。逆に、評価値が閾値未満である場合、撮影適否判定部233は、当該フォローアップ撮影は適正に行われなかったと判定する。
A specific example of processing executed by the imaging
なお、本例では1つの閾値を用いているが、2つ以上の閾値を用いることによりフォローアップ撮影の適否を段階的に判定するようにしてもよい。 In this example, one threshold is used, but the suitability of follow-up shooting may be determined step by step by using two or more thresholds.
撮影適否判定部233は、その判定結果を制御部210に送る。また、画像処理部230による上記処理に用いられた任意の情報や、上記処理において中間的に生成された情報を制御部210に送るようにしてもよい。また、評価値自体を用いてフォローアップ撮影の適否を提示する場合には、撮影適否判定部233を設ける必要はない。
The imaging
以上のように機能する画像処理部230は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムが予め格納されている。
The
(ユーザインターフェイス)
ユーザインターフェイス240には、表示部240Aと操作部240Bとが含まれる。表示部240Aは、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部240Bは、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部240Bには、眼科撮影装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。たとえば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部240Bは、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部240Aは、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。
(User interface)
The
なお、表示部240Aと操作部240Bは、それぞれ個別のデバイスとして構成される必要はない。たとえばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部240Bは、このタッチパネルとコンピュータプログラムとを含んで構成される。操作部240Bに対する操作内容は、電気信号として制御部210に入力される。また、表示部240Aに表示されたグラフィカルユーザインターフェイス(GUI)と、操作部240Bとを用いて、操作や情報入力を行うようにしてもよい。
The
(信号光の走査及びOCT画像について)
眼科撮影装置1による信号光LSの走査態様(スキャンモード)としては、たとえば、水平スキャン、垂直スキャン、十字スキャン、放射スキャン、円スキャン、同心円スキャン、螺旋(渦巻)スキャンなどがある。これらの走査態様は、眼底の観察部位、解析対象(網膜厚など)、走査に要する時間、走査の精密さなどを考慮して適宜に選択的に使用される。
(Signal light scanning and OCT image)
Examples of the scanning mode (scan mode) of the signal light LS by the
水平スキャンは、信号光LSを水平方向(x方向)に走査させるものである。水平スキャンには、垂直方向(y方向)に配列された複数の水平方向に延びる走査線に沿って信号光LSを走査させる態様も含まれる。この態様においては、走査線の間隔を任意に設定することが可能である。また、隣接する走査線の間隔を十分に狭くすることにより、前述の3次元画像を形成することができる(3次元スキャン)。垂直スキャンについても同様である。 The horizontal scan scans the signal light LS in the horizontal direction (x direction). The horizontal scan also includes an aspect in which the signal light LS is scanned along a plurality of horizontal scanning lines arranged in the vertical direction (y direction). In this aspect, it is possible to arbitrarily set the scanning line interval. Further, the above-described three-dimensional image can be formed by sufficiently narrowing the interval between adjacent scanning lines (three-dimensional scanning). The same applies to the vertical scan.
十字スキャンは、互いに直交する2本の直線状の軌跡(直線軌跡)からなる十字型の軌跡に沿って信号光LSを走査するものである。放射スキャンは、所定の角度を介して配列された複数の直線軌跡からなる放射状の軌跡に沿って信号光LSを走査するものである。なお、十字スキャンは放射スキャンの一例である。 In the cross scan, the signal light LS is scanned along a cross-shaped trajectory composed of two linear trajectories (straight trajectories) orthogonal to each other. In the radiation scan, the signal light LS is scanned along a radial trajectory composed of a plurality of linear trajectories arranged at a predetermined angle. The cross scan is an example of a radiation scan.
円スキャンは、円形状の軌跡に沿って信号光LSを走査させるものである。同心円スキャンは、所定の中心位置の周りに同心円状に配列された複数の円形状の軌跡に沿って信号光LSを走査させるものである。円スキャンは同心円スキャンの一例である。螺旋スキャンは、回転半径を次第に小さく(又は大きく)させながら螺旋状(渦巻状)の軌跡に沿って信号光LSを走査するものである。 In the circle scan, the signal light LS is scanned along a circular locus. In the concentric scan, the signal light LS is scanned along a plurality of circular trajectories arranged concentrically around a predetermined center position. A circle scan is an example of a concentric scan. In the spiral scan, the signal light LS is scanned along a spiral (spiral) locus while the radius of rotation is gradually reduced (or increased).
ガルバノスキャナ42は、互いに直交する方向に信号光LSを走査するように構成されているので、信号光LSをx方向及びy方向にそれぞれ独立に走査できる。更に、ガルバノスキャナ42に含まれる2つのガルバノミラーの向きを同時に制御することで、xy面上の任意の軌跡に沿って信号光LSを走査することが可能である。それにより、上記のような各種の走査態様を実現できる。
Since the
上記のような態様で信号光LSを走査することにより、走査線(走査軌跡)に沿う方向と眼底深度方向(z方向)とにより張られる面における断層像を取得することができる。また、特に走査線の間隔が狭い場合には、前述の3次元画像を取得することができる。 By scanning the signal light LS in the above-described manner, a tomographic image on a plane stretched by the direction along the scanning line (scanning trajectory) and the fundus depth direction (z direction) can be acquired. In addition, the above-described three-dimensional image can be acquired particularly when the scanning line interval is narrow.
(表示制御について)
この実施形態による表示制御の例を説明する。表示制御は表示制御部2111により実行される。
(About display control)
An example of display control according to this embodiment will be described. Display control is executed by the
第1の表示制御として、表示制御部2111は、基準正面画像及び/又はフォローアップ正面画像を表示部240Aに表示させ、かつ、情報取得部231により取得された位置ずれ情報に基づいて、基準走査位置を示す基準走査位置画像とフォローアップ走査位置を示すフォローアップ走査位置画像とを、この正面画像に重ねて表示させる。
As the first display control, the
ここで、位置ずれ情報に代えて、これと同値な相対位置情報を参照することもできる。また、基準走査位置画像は「第1の走査位置画像」の例であり、フォローアップ走査位置画像は「第2の走査位置画像」の例である。 Here, instead of the positional deviation information, relative positional information equivalent to this can be referred to. The reference scanning position image is an example of a “first scanning position image”, and the follow-up scanning position image is an example of a “second scanning position image”.
基準正面画像とフォローアップ正面画像の一方を表示させる場合には、この一方の正面画像に重ねて基準走査位置画像とフォローアップ走査位置画像を表示させる。また、双方の正面画像を表示させる場合には、各正面画像に重ねて基準走査位置画像とフォローアップ走査位置画像を表示させてもよいし、一方の正面画像についてのみこれら走査位置画像を重ねて表示させてもよい。 When one of the reference front image and the follow-up front image is displayed, the reference scanning position image and the follow-up scanning position image are displayed over the one front image. When both front images are displayed, the reference scanning position image and the follow-up scanning position image may be displayed superimposed on each front image, or these scanning position images may be superimposed on only one front image. It may be displayed.
表示制御部2111は、基準走査位置画像とフォローアップ走査位置画像を互いに異なる態様で表示させることができる。たとえば、2つの走査位置画像を異なる色で表示させたり、異なる太さで表示させたり、異なる濃度で表示させたりすることができる。また、各走査位置画像に対して識別情報(文字列情報、画像情報等)を付すこともできる。また、2つの走査位置画像を常に異なる態様で表示させてもよいし、所定のトリガに対応して異なる表示態様に切り替えるようにしてもよい。
The
以上のような第1の表示制御により表示される情報の例を図8に示す。図8は、眼底の形態を表すフォローアップ正面画像に、破線で示す基準走査位置画像と、実線で示すフォローアップ走査位置画像とを重ねて表示させた状態を示している。フォローアップ走査位置画像は、このフォローアップ撮影において実際に適用された走査位置を示す。また、基準走査位置画像は、フォローアップ撮影が誤差なく行われた場合における理想的な走査位置を示す。図8に示す例では、本来は破線で示す部位を走査すべきところを、眼球運動等の影響により実線で示す部位を走査してしまっている。 An example of information displayed by the first display control as described above is shown in FIG. FIG. 8 shows a state in which a reference scanning position image indicated by a broken line and a follow-up scanning position image indicated by a solid line are superimposed and displayed on a follow-up front image representing the fundus morphology. The follow-up scanning position image indicates the scanning position actually applied in this follow-up imaging. The reference scanning position image shows an ideal scanning position when follow-up shooting is performed without error. In the example shown in FIG. 8, the portion indicated by the solid line is scanned due to the influence of eye movement or the like, where the portion indicated by the broken line should be scanned.
第2の表示制御として、表示制御部2111は、フォローアップ撮影における走査位置の誤差を表す情報を表示させることができる。たとえば、表示制御部2111は、評価値算出部2325により算出された評価値を表示部240Aに表示させることができる。評価値は、単独で表示されてもよいし、正面画像や上記第1の表示制御による表示情報とともに表示されてもよい。また、評価値に代えて、又は評価値とともに、撮影適否判定部233による判定結果を表示させることができる。この判定結果は、たとえば「適」、「不適」といった文字列情報であってもよいし、画像情報であってもよい。
As the second display control, the
[作用・効果]
眼科撮影装置1の作用及び効果について説明する。
[Action / Effect]
The operation and effect of the ophthalmologic photographing
眼科撮影装置1は、フォローアップ撮影を行うことが可能である。撮影部(眼底カメラユニット2)は、被検眼Eを撮影して正面画像を取得する。断層像形成部(OCT用光学系、画像形成部220)は、被検眼Eを光で走査して断層像を形成する。記憶部212は、被検眼Eの第1の正面画像と、第1の正面画像を参照して行われたフォローアップ撮影において取得された第2の正面画像とを記憶する。情報取得部231は、第1の正面画像及び第2の正面画像を解析して、これら正面画像の間の位置ずれ情報を取得する;算出部232は、位置ずれ情報に基づいて、当該フォローアップ撮影における走査位置の誤差の評価値を算出する。このような眼科撮影装置1によれば、フォローアップ撮影の誤差の程度を定量的に評価することが可能である。
The ophthalmologic photographing
〈第2の実施形態〉
フォローアップ撮影は、過去に取得された基準正面画像を参照して行われる。よって、基準正面画像の状態によってフォローアップ撮影の確度や精度が左右される。この実施形態では、第1の実施形態で説明した任意の構成に加え、フォローアップ撮影に用いられる基準正面画像が適当であるか判定できる眼科撮影装置について説明する。
<Second Embodiment>
Follow-up shooting is performed with reference to a reference front image acquired in the past. Therefore, the accuracy and accuracy of follow-up shooting depend on the state of the reference front image. In this embodiment, in addition to the arbitrary configuration described in the first embodiment, an ophthalmologic imaging apparatus that can determine whether a reference front image used for follow-up imaging is appropriate will be described.
この実施形態に係る眼科撮影装置の構成例を図9に示す。この眼科撮影装置は、第1の実施形態の構成(図1〜図4を参照)に加えて候補画像判定部234を有している。候補画像判定部234は画像処理部230に設けられている。なお、これ以外の構成については第1の実施形態と同様であるから、特に言及する場合を除き説明は割愛する。
A configuration example of the ophthalmologic photographing apparatus according to this embodiment is shown in FIG. The ophthalmologic photographing apparatus includes a candidate
フォローアップ撮影が行われるときに、記憶部212には、基準正面画像(第1の正面画像)の候補となる画像(候補画像)が1つ以上記憶されている。候補画像判定部234は、各候補画像を解析することにより、その候補画像が基準正面画像として適当か否か判定する処理を行う。なお、適当と判定された候補画像が2つ以上存在する場合には、たとえば最も適当な候補画像が基準正面画像として選択される。
When follow-up shooting is performed, the
この判定処理は、たとえば、候補画像に関する所定の情報に基づいて実行される。この情報としては、実空間における情報や、周波数空間における情報がある。実空間における情報の例としては、フレア量やコントラストがある。周波数空間における情報の例としては、ボケ量、周波数特性等がある。これらの情報は、候補画像判定部234により求められる。
This determination process is executed based on, for example, predetermined information regarding the candidate image. This information includes information in real space and information in frequency space. Examples of information in real space include flare amount and contrast. Examples of information in the frequency space include a blur amount and frequency characteristics. These pieces of information are obtained by the candidate
フレア量は、たとえば、候補画像における、所定の閾値(最大値等)以上の画素値(輝度値等)を有する画素の分布である。この分布は、たとえば、全画素におけるそのような画素の割合とされる。候補画像判定部234は、たとえば、求められたフレア量が所定の閾値以下である場合に、当該候補画像は基準正面画像として適当であると判定する。ここで、フレア量が少ないものほど、基準正面画像としてより適当であると判定される。
The flare amount is, for example, a distribution of pixels having a pixel value (such as a luminance value) equal to or greater than a predetermined threshold (such as a maximum value) in the candidate image. This distribution is, for example, the ratio of such pixels in all pixels. The candidate
コントラストは、たとえば、候補画像の画素値(輝度値)に基づいて行われる任意の公知技術によって求められる。候補画像判定部234は、たとえば、求められたコントラストが所定の閾値以上である場合に、当該候補画像は基準正面画像として適当であると判定する。ここで、コントラストが高いものほど、基準正面画像としてより適当であると判定される。
Contrast is calculated | required by the arbitrary well-known techniques performed based on the pixel value (luminance value) of a candidate image, for example. Candidate
ボケ量は、たとえば、候補画像を空間周波数に分解し、得られた空間周波数成分の信号強度に基づいて算出することができる。候補画像判定部234は、たとえば、求められたボケ量が所定の閾値以下である場合に、当該候補画像は基準正面画像として適当であると判定する。ここで、ボケ量が少ないものほど、基準正面画像としてより適当であると判定される。
The amount of blur can be calculated, for example, based on the signal intensity of the spatial frequency component obtained by decomposing the candidate image into spatial frequencies. Candidate
周波数特性は、たとえば、候補画像を空間周波数に分解し、得られた空間周波数成分の特性を求めることによって得られる。候補画像判定部234は、たとえば、求められた周波数特性が所定の条件を満足する場合に、当該候補画像は基準正面画像として適当であると判定する。ここで、その条件を満足する度合が高いものほど、基準正面画像としてより適当であると判定される。
The frequency characteristic is obtained, for example, by decomposing a candidate image into a spatial frequency and obtaining characteristics of the obtained spatial frequency component. Candidate
制御部210は、候補画像判定部234による判定結果に基づいて報知制御を行う。制御部210と、この報知制御における制御対象は」、「報知部」の一例として機能する。
The
報知制御の具体例として、表示制御部2111は、この判定結果を示す情報を表示部240Aに表示させる。この表示情報は、たとえば、当該候補画像が基準正面画像として適しているか否かを示す文字列情報又は画像情報である。また、候補画像判定部234による判定処理に供された1以上の候補画像(のサムネイル)を表示部240Aに表示させるとともに、判定結果を示す情報を一覧表示させるようにしてもよい。また、第1の実施形態で説明した患者選択画面の撮影情報表示部に候補画像の撮影情報をリスト表示し、このリスト中に判定結果を表示させてもよい。このような報知制御を行う場合、表示制御部2111は「報知制御部」の一例として機能する。
As a specific example of the notification control, the
報知制御はこのような表示制御に限定されるものではない。たとえば、図示しない音声出力部を制御部210が制御することにより、判定結果を示す音声情報を出力させるように構成することができる。
The notification control is not limited to such display control. For example, the
或る候補画像について基準正面画像として不適当であるとの判定結果が得られた場合に、当該候補画像に基づくフォローアップ撮影を禁止するように構成することが可能である。その具体例として、制御部210は、当該候補画像が基準正面画像として不適当であるとの判定結果が得られたことに対応して、断層像形成部による光の走査を禁止することができる。この禁止とは、たとえOCT計測開始の操作がなされたとしてもOCT計測を実行させない制御モードを言う。このような制御を行う制御部210は「禁止制御部」の一例である。なお、たとえば不適当と判定された候補画像を用いてフォローアップ撮影を行う場合を想定して、この禁止状態を解除するための操作を行えるように構成することも可能である。
When a determination result that a certain candidate image is inappropriate as a reference front image is obtained, follow-up shooting based on the candidate image can be prohibited. As a specific example, the
このような眼科撮影装置によれば、フォローアップ撮影に用いられる基準正面画像が適当であるか判定できるので、好適な基準正面画像を用いてフォローアップ撮影を行うことが可能である。したがって、第1の実施形態のようにフォローアップ撮影の誤差の程度を定量的に評価することができ、かつフォローアップ撮影の高確度化、高精度化を図ることができる。 According to such an ophthalmologic photographing apparatus, it is possible to determine whether or not the reference front image used for follow-up photographing is appropriate. Therefore, it is possible to perform follow-up photographing using a suitable reference front image. Therefore, the degree of error in follow-up shooting can be quantitatively evaluated as in the first embodiment, and the accuracy and accuracy of follow-up shooting can be increased.
第2の実施形態の特徴を有し、かつ第1の実施形態の特徴を有しないように眼科撮影装置を構成することが可能である。この眼科撮影装置は、たとえば図10のような構成を有する。 It is possible to configure the ophthalmologic photographing apparatus so as to have the characteristics of the second embodiment and not to have the characteristics of the first embodiment. This ophthalmologic photographing apparatus has a configuration as shown in FIG. 10, for example.
具体的には、この眼科撮影装置は、フォローアップ撮影を行うことが可能な眼科撮影装置であって、撮影部と、断層像形成部と、記憶部と、候補画像判定部と、報知部とを有する。撮影部(眼底カメラユニット2)は、被検眼を撮影して正面画像を取得する。断層像形成部(OCT計測用の光学系、画像形成部220)は、被検眼を光で走査して断層像を形成する。記憶部(記憶部212)は、フォローアップ撮影において参照される正面画像の候補となる候補画像を1つ以上記憶する。候補画像判定部(候補画像判定部234)は、候補画像を解析することにより、当該候補画像がフォローアップ撮影の基準正面画像として適当か否か判定する。報知部は、候補画像判定部による判定結果に基づいて報知を行う。 Specifically, this ophthalmic imaging apparatus is an ophthalmic imaging apparatus capable of performing follow-up imaging, and includes an imaging unit, a tomographic image forming unit, a storage unit, a candidate image determination unit, and a notification unit. Have The imaging unit (fundus camera unit 2) acquires a front image by imaging the eye to be examined. A tomographic image forming unit (an optical system for OCT measurement, the image forming unit 220) scans the eye to be examined with light to form a tomographic image. The storage unit (storage unit 212) stores one or more candidate images that are candidates for the front image referred to in follow-up shooting. The candidate image determination unit (candidate image determination unit 234) analyzes the candidate image to determine whether the candidate image is appropriate as a reference front image for follow-up shooting. The notification unit performs notification based on the determination result by the candidate image determination unit.
このような眼科撮影装置によれば、フォローアップ撮影に用いられる基準正面画像が適当であるか判定できるので、好適な基準正面画像を用いてフォローアップ撮影を行うことが可能である。したがって、フォローアップ撮影の高確度化、高精度化を図ることができる。なお、候補画像判定部234が実行する処理は、上記と同様であってよい。また、上記の表示制御や報知制御を実行可能に構成されていてもよい。
According to such an ophthalmologic photographing apparatus, it is possible to determine whether or not the reference front image used for follow-up photographing is appropriate. Therefore, it is possible to perform follow-up photographing using a suitable reference front image. Therefore, it is possible to improve the accuracy and accuracy of follow-up shooting. Note that the process executed by the candidate
〈第3の実施形態〉
この実施形態では、フォローアップ撮影を実行可能な眼科撮影装置から情報を受けて、その情報を処理する眼科画像処理装置について説明する。眼科画像処理装置は、たとえばコンピュータを含んで構成される。また、眼科画像処理装置の一部がコンピュータの外部に設けられていてもよい。たとえば、記憶部としてネットワーク上のデータベースを用いることができる。
<Third Embodiment>
In this embodiment, an ophthalmic image processing apparatus that receives information from an ophthalmic imaging apparatus capable of performing follow-up imaging and processes the information will be described. The ophthalmologic image processing apparatus includes a computer, for example. A part of the ophthalmic image processing apparatus may be provided outside the computer. For example, a database on a network can be used as the storage unit.
この実施形態の眼科画像処理装置の構成例を図11に示す。この眼科画像処理装置は、第1の実施形態と同様の構成(図4を参照)を有する。一方、この眼科画像処理装置は、第1の実施形態のような撮影部(眼底カメラユニット2)、断層像形成部(OCT計測用の光学系、画像形成部220)を有しない。また、この眼科画像処理装置は、これら除外された構成部位を制御するためのコンピュータプログラムも有しない。以下、第1の実施形態と同様の構成部位についての説明は、特に言及しない限り割愛する。 A configuration example of the ophthalmic image processing apparatus of this embodiment is shown in FIG. This ophthalmic image processing apparatus has the same configuration as that of the first embodiment (see FIG. 4). On the other hand, this ophthalmic image processing apparatus does not have an imaging unit (fundus camera unit 2) and a tomographic image forming unit (an optical system for OCT measurement, the image forming unit 220) as in the first embodiment. Further, this ophthalmic image processing apparatus does not have a computer program for controlling these excluded components. Hereinafter, the description of the constituent parts similar to those of the first embodiment is omitted unless otherwise mentioned.
この実施形態の眼科画像処理装置は、フォローアップ撮影により得られた画像を処理するものであり、少なくとも記憶部と、情報取得部と、算出部とを有する。記憶部(記憶部212)は、被検眼の第1の正面画像と、この第1の正面画像を参照して行われたフォローアップ撮影において取得された第2の正面画像とを記憶する。情報取得部(情報取得部231)は、第1の正面画像及び第2の正面画像を解析して、これら正面画像の間の位置ずれ情報を取得する。算出部(算出部232)は、位置ずれ情報に基づいて、当該フォローアップ撮影における光の走査位置の誤差の評価値を算出する。他の構成部位の構成や動作については、第1の実施形態に準ずる。 The ophthalmic image processing apparatus according to this embodiment processes an image obtained by follow-up imaging, and includes at least a storage unit, an information acquisition unit, and a calculation unit. The storage unit (storage unit 212) stores a first front image of the eye to be examined and a second front image acquired in follow-up imaging performed with reference to the first front image. The information acquisition unit (information acquisition unit 231) analyzes the first front image and the second front image, and acquires positional deviation information between these front images. The calculation unit (calculation unit 232) calculates an evaluation value of the error of the light scanning position in the follow-up imaging based on the positional deviation information. About the structure and operation | movement of another structure part, it applies to 1st Embodiment.
このような眼科画像処理装置によれば、眼科撮影装置によって実行されたフォローアップ撮影の誤差の程度を定量的に評価することが可能である。 According to such an ophthalmologic image processing apparatus, it is possible to quantitatively evaluate the degree of error in follow-up imaging performed by the ophthalmologic imaging apparatus.
[変形例]
以上に説明した構成は、この発明を好適に実施するための一例に過ぎない。よって、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を適宜に施すことが可能である。
[Modification]
The configuration described above is merely an example for favorably implementing the present invention. Therefore, arbitrary modifications (omitted, replacement, addition, etc.) within the scope of the present invention can be made as appropriate.
第1及び第2の実施形態においては、光路長変更部41の位置を変更することにより、信号光LSの光路と参照光LRの光路との光路長差を変更しているが、この光路長差を変更する手法はこれに限定されるものではない。たとえば、参照光の光路に反射ミラー(参照ミラー)を配置し、この参照ミラーを参照光の進行方向に移動させて参照光の光路長を変更することによって、当該光路長差を変更することが可能である。また、被検眼Eに対して眼底カメラユニット2やOCTユニット100を移動させて信号光LSの光路長を変更することにより当該光路長差を変更するようにしてもよい。また、特に被測定物体が生体部位でない場合などには、被測定物体を深度方向(z方向)に移動させることにより光路長差を変更することも可能である。
In the first and second embodiments, the optical path length difference between the optical path of the signal light LS and the optical path of the reference light LR is changed by changing the position of the optical path
上記の実施形態を実現するためのコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD−ROM/DVD−RAM/DVD−ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。 A computer program for realizing the above embodiment can be stored in any recording medium readable by a computer. Examples of the recording medium include a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk / floppy (registered trademark) disk / ZIP, etc.), and the like. Can be used.
また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。 It is also possible to transmit / receive this program through a network such as the Internet or a LAN.
1 眼科撮影装置
2 眼底カメラユニット
10 照明光学系
30 撮影光学系
31 合焦レンズ
31A 合焦駆動部
41 光路長変更部
42 ガルバノスキャナ
50 アライメント光学系
60 フォーカス光学系
100 OCTユニット
101 光源ユニット
105 光減衰器
106 偏波調整器
115 CCDイメージセンサ
200 演算制御ユニット
210 制御部
211 主制御部
2111 表示制御部
212 記憶部
2121 フォローアップ撮影情報
220 画像形成部
230 画像処理部
231 情報取得部
232 算出部
2321 相対位置算出部
2322 判断部
2323 面積算出部
2324 変位算出部
2325 評価値算出部
233 撮影適否判定部
234候補画像判定部
240A 表示部
240B 操作部
E 被検眼
Ef 眼底
LS 信号光
LR 参照光
LC 干渉光
DESCRIPTION OF
Claims (3)
前記被検眼を光で走査して断層像を形成する断層像形成部と、
前記被検眼の1つ以上の正面画像を記憶する記憶部と、
前記記憶部に記憶された正面画像を解析することにより、当該正面画像が前記断層像形成部を用いたフォローアップ撮影において参照される基準正面画像として適当か否か判定する判定部と
を有する眼科撮影装置。 A photographing unit for photographing the eye to be examined and obtaining a front image;
A tomographic image forming unit that scans the eye with light to form a tomographic image;
A storage unit for storing one or more front images of the eye to be examined;
An ophthalmologist comprising: a determination unit that determines whether or not the front image is suitable as a reference front image to be referred to in follow-up imaging using the tomographic image forming unit by analyzing the front image stored in the storage unit Shooting device.
当該解除操作が行われたとき、前記禁止制御部は、当該正面画像を参照したフォローアップ撮影を前記断層像形成部に実行させる
ことを特徴とする請求項2に記載の眼科撮影装置。
An operation unit for performing the prohibition canceling operation;
The ophthalmologic imaging apparatus according to claim 2, wherein when the release operation is performed, the prohibition control unit causes the tomographic image forming unit to perform follow-up imaging with reference to the front image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017039125A JP6254729B2 (en) | 2017-03-02 | 2017-03-02 | Ophthalmic imaging equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017039125A JP6254729B2 (en) | 2017-03-02 | 2017-03-02 | Ophthalmic imaging equipment |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016039649A Division JP6106300B2 (en) | 2016-03-02 | 2016-03-02 | Ophthalmic imaging equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017140401A true JP2017140401A (en) | 2017-08-17 |
JP6254729B2 JP6254729B2 (en) | 2017-12-27 |
Family
ID=59628090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017039125A Active JP6254729B2 (en) | 2017-03-02 | 2017-03-02 | Ophthalmic imaging equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6254729B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11276439A (en) * | 1998-03-31 | 1999-10-12 | Nidek Co Ltd | Ophthalmologic photographing apparatus |
JP2003010131A (en) * | 2001-07-03 | 2003-01-14 | Canon Inc | Opthalmologic image processing method and storage medium |
JP2008061848A (en) * | 2006-09-08 | 2008-03-21 | Gifu Univ | Image pickup device and image analysis program |
JP2010110391A (en) * | 2008-11-05 | 2010-05-20 | Nidek Co Ltd | Ophthalmological imaging apparatus |
JP2011110393A (en) * | 2009-11-24 | 2011-06-09 | Trs:Kk | Medical instrument with lubricative surface |
-
2017
- 2017-03-02 JP JP2017039125A patent/JP6254729B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11276439A (en) * | 1998-03-31 | 1999-10-12 | Nidek Co Ltd | Ophthalmologic photographing apparatus |
JP2003010131A (en) * | 2001-07-03 | 2003-01-14 | Canon Inc | Opthalmologic image processing method and storage medium |
JP2008061848A (en) * | 2006-09-08 | 2008-03-21 | Gifu Univ | Image pickup device and image analysis program |
JP2010110391A (en) * | 2008-11-05 | 2010-05-20 | Nidek Co Ltd | Ophthalmological imaging apparatus |
JP2011110393A (en) * | 2009-11-24 | 2011-06-09 | Trs:Kk | Medical instrument with lubricative surface |
Also Published As
Publication number | Publication date |
---|---|
JP6254729B2 (en) | 2017-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5867719B2 (en) | Optical image measuring device | |
JP5941761B2 (en) | Ophthalmic photographing apparatus and ophthalmic image processing apparatus | |
JP5432625B2 (en) | Ophthalmic observation device | |
JP4971872B2 (en) | Fundus observation apparatus and program for controlling the same | |
JP5981213B2 (en) | Fundus observation device | |
JP5628636B2 (en) | Fundus image processing apparatus and fundus observation apparatus | |
JP6045895B2 (en) | Ophthalmic observation device | |
JP5916110B2 (en) | Image display device, image display method, and program | |
JP5415902B2 (en) | Ophthalmic observation device | |
JP5543171B2 (en) | Optical image measuring device | |
JP5937163B2 (en) | Fundus analysis apparatus and fundus observation apparatus | |
JP2008237237A (en) | Fundus oculi observing system, ophthalmologic image display system, and program | |
JP2016041221A (en) | Ophthalmological photographing device and control method thereof | |
JP5837143B2 (en) | Ophthalmic observation apparatus, control method thereof, and program | |
JP5514026B2 (en) | Fundus image processing apparatus and fundus observation apparatus | |
JP5658305B2 (en) | Ophthalmic observation apparatus, control method thereof, and program | |
JP6254724B2 (en) | Fundus observation device | |
JP6279682B2 (en) | Ophthalmic observation device | |
JP6099782B2 (en) | Ophthalmic imaging equipment | |
JP6942485B2 (en) | Ophthalmic system | |
JP6503040B2 (en) | Ophthalmic observation device | |
JP6254729B2 (en) | Ophthalmic imaging equipment | |
JP6021289B2 (en) | Blood flow information generation device, blood flow information generation method, and program | |
JP6106299B2 (en) | Ophthalmic photographing apparatus and ophthalmic image processing apparatus | |
JP6106300B2 (en) | Ophthalmic imaging equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6254729 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |