〔第1実施形態〕
この発明に係る眼科装置の第1実施形態について、図面を参照しながら詳細に説明する。第1実施形態に係る眼科装置は、被検眼の光学的な検査に用いられるものであり、光コヒーレンストモグラフィ(Optical Coherence Tomography、OCT)を用いて断面像を得る光干渉断層計である。
この明細書において、OCTによって取得される画像をOCT画像と総称することがある。また、OCT画像を形成するための計測動作をOCT計測と呼ぶことがある。なお、この明細書に記載された文献の記載内容を、以下の実施形態の内容として適宜援用することが可能である。
また、以下の実施形態では、低コヒーレンス光源と分光器が搭載された、いわゆるスペクトラルドメイン(Spectral Domain)タイプのOCTを用いた光干渉断層計について説明するが、スペクトラルドメイン以外のタイプ、たとえばスウェプトソースタイプ、インファスタイプのOCTの手法を用いた光干渉断層計に対してこの発明を適用することも可能である。
なお、スウェプトソース(Swept Source)OCTとは、被測定物体に照射される光の波長を走査(波長掃引)し、各波長の光の反射光と参照光とを重ね合わせて得られる干渉光を順次に検出することでスペクトル強度分布を取得し、それに対してフーリエ変換を施すことにより被測定物体の形態を画像化する手法である。また、インファス(en-face)OCTとは、所定のビーム径を有する光を被測定物体に照射し、その反射光と参照光とを重ね合わせて得られる干渉光の成分を解析することにより、光の進行方向に直交する断面における被測定物体の画像を形成する手法であり、フルフィールド(full-field)タイプとも呼ばれる。
また、以下の実施形態ではOCT装置と眼底カメラとを組み合わせた装置について説明するが、この発明の適用対象はこのような複合機には限定されない。たとえば、他の組み合わせからなる複合機や、単体機としての眼科装置(たとえば眼底カメラ単体)に対して、この発明を適用することも可能である。
[構成]
図1に示すように、眼科装置1は、眼底カメラユニット2、OCTユニット100および演算制御ユニット200を含んで構成される。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、眼底のOCT画像を取得するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。
〔眼底カメラユニット〕
図1に示す眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。なお、被検眼Eの前眼部Eaに光学系のピントが合っている場合、眼底カメラユニット2は前眼部Eaの観察画像を取得することができる。
撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像、または近赤外光若しくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット2は、これら以外の画像、たとえばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。
眼底カメラユニット2には、被検者の顔を支持するための顎受けと額当てが設けられている。顎受けおよび額当ては、図4Aおよび図4Bに示す支持部440に相当する。なお、図4Aおよび図4Bにおいて、符号410は、光学系駆動部2A等の駆動系や、演算制御回路が格納されたベースを示す。また、符号420は、ベース410上に設けられた、光学系が格納された筐体を示す。また、符号430は、筐体420の前面に突出して設けられた、対物レンズ22が収容されたレンズ収容部を示す。
眼底カメラユニット2には、照明光学系10と撮影光学系30が設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38)に導く。また、撮影光学系30は、OCTユニット100からの信号光を眼底Efに導くとともに、眼底Efを経由した信号光をOCTユニット100に導く。
照明光学系10の観察光源11は、たとえばハロゲンランプにより構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。さらに、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19およびリレーレンズ20を経由する。
そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。なお、観察光源としてLED(Light Emitting Diode)を用いることも可能である。
観察照明光の眼底反射光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、合焦レンズ31を経由し、ミラー32により反射される。さらに、この眼底反射光は、ハーフミラー39Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。
CCDイメージセンサ35は、たとえば所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。
撮影光源15は、たとえばキセノンランプにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。
表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。また、撮影光源としてLEDを用いることも可能である。
LCD(Liquid Crystal Display)39は、固視標や視力測定用指標を表示する。固視標は被検眼Eを固視させるための指標であり、眼底撮影時やOCT計測時などに使用される。LCD39から出力された光は、その一部がハーフミラー39Aにて反射され、ミラー32に反射され、合焦レンズ31およびダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。
LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。被検眼Eの固視位置としては、たとえば従来の眼底カメラと同様に、眼底Efの黄斑部を中心とする画像を取得するための位置や、視神経乳頭を中心とする画像を取得するための位置や、黄斑部と視神経乳頭との間の眼底中心を中心とする画像を取得するための位置などがある。また、固視標の表示位置を任意に変更することも可能である。
さらに、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系(検査用光学系)の位置合わせ(アライメント)を行うための指標(アライメント指標)を生成する。フォーカス光学系60は、眼底Efに対してフォーカス(ピント)を合わせるための指標(スプリット指標)を生成する。
アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53およびリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eの角膜に投影される。
アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46および上記孔部を経由し、その一部がダイクロイックミラー55を透過し、合焦レンズ31を通過し、ミラー32により反射され、ハーフミラー39Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。
CCDイメージセンサ35による受光像(アライメント指標)は、観察画像とともに表示装置3に表示される。ユーザは、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント指標の位置を解析して光学系を移動させることによりアライメントを行ってもよい(オートアライメント機能)。
なお、この実施形態では、後述の前眼部カメラ300を用いてオートアライメントを実行することができるので、アライメント指標を用いたオートアライメントが可能なことは必須な事項ではない。ただし、前眼部カメラ300を用いたオートアライメントが成功しなかった場合などにアライメント指標を用いたオートアライメントを行えるように構成したり、前眼部カメラ300を用いたオートアライメントとアライメント指標を用いたオートアライメントとを選択的に使用できるように構成したりすることも可能である。
フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。さらに、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。
フォーカス光の眼底反射光は、アライメント光の角膜反射光と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、スプリット指標の位置を解析して合焦レンズ31およびフォーカス光学系60を移動させてピント合わせを行う(オートフォーカス機能)。また、スプリット指標を視認しつつ手動でピント合わせを行ってもよい。
ダイクロイックミラー46は、眼底撮影用の光路からOCT計測用の光路を分岐させている。ダイクロイックミラー46は、OCT計測に用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。このOCT計測用の光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、ガルバノスキャナ42と、合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。
光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT計測用光路の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、たとえばコーナーキューブと、これを移動する機構とを含んで構成される。
ガルバノスキャナ42は、OCT計測用の光路を通過する光(信号光LS)の進行方向を変更する。それにより、眼底Efを信号光LSで走査することができる。ガルバノスキャナ42は、たとえば、信号光LSをx方向に走査するガルバノミラーと、y方向に走査するガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、信号光LSをxy平面上の任意の方向に走査することができる。
前眼部カメラ300は、前眼部Eaを異なる方向から実質的に同時に撮影する。この実施形態では、眼底カメラユニット2の被検者側の面に2台のカメラが設けられている(図4Aに示す前眼部カメラ300A、300Bを参照)。また、前眼部カメラ300Aおよび300Bはそれぞれ、図1および図4Aに示すように、照明光学系10の光路および撮影光学系30の光路から外れた位置に設けられている。つまり、前眼部カメラ300Aおよび300Bは、照明光学系10および撮影光学系30と非同軸に設けられている。以下、2台の前眼部カメラ300Aおよび300Bをまとめて符号300で表すことがある。
この実施形態では、2台の前眼部カメラ300Aおよび300Bが設けられているが、実施形態に係る前眼部カメラの個数は2以上の任意の個数であってよい(ただし、アライメント指標を用いる場合には前眼部カメラを設ける必要はない)。しかし、後述の演算処理を考慮すると、異なる2方向から実質的に同時に前眼部を撮影可能な構成であれば十分である。
また、この実施形態では、照明光学系10および撮影光学系30とは別個に前眼部カメラ300を設けているが、少なくとも撮影光学系30を用いて同様の前眼部撮影を行うことができる。つまり、2以上の前眼部カメラのうちの1つを、撮影光学系30を含む構成によって担うようにしてもよい。いずれにしても、この実施形態は、異なる2(以上の)方向から実質的に同時に前眼部を撮影可能に構成されていればよい。
なお、「実質的に同時」とは、2以上の前眼部カメラによる撮影において、眼球運動を無視できる程度の撮影タイミングのズレを許容することを示す。それにより、被検眼Eが実質的に同じ位置(向き)にあるときの画像を2以上の前眼部カメラによって取得することができる。
また、2以上の前眼部カメラによる撮影は動画撮影でも静止画撮影でもよいが、この実施形態では動画撮影を行う場合について特に詳しく説明する。動画撮影の場合、撮影開始タイミングを合わせるよう制御したり、フレームレートや各フレームの撮影タイミングを制御したりすることにより、上記した実質的に同時の前眼部撮影を実現することができる。また、2以上の前眼部カメラから制御部210(後述)に対して実質的に同時に入力された信号同士を対応付けるように構成してもよい。一方、静止画撮影の場合、撮影タイミングを合わせるよう制御することにより、これを実現することができる。
〔OCTユニット〕
図2を参照しつつOCTユニット100の構成の一例を説明する。OCTユニット100には、眼底EfのOCT画像を取得するための光学系が設けられている。この光学系は、従来のスペクトラルドメインタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、光源からの光(低コヒーレンス光)を参照光と信号光に分割し、眼底Efを経由した信号光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を検出するように構成されている。この検出結果(検出信号)は演算制御ユニット200に送られる。
なお、スウェプトソースタイプのOCT装置の場合には、低コヒーレンス光源を出力する光源の代わりに波長掃引光源が設けられるとともに、干渉光をスペクトル分解する光学部材が設けられない。一般に、OCTユニット100の構成については、OCTのタイプに応じた公知の技術を任意に適用することができる。
光源ユニット101は広帯域の低コヒーレンス光L0を出力する。低コヒーレンス光L0は、たとえば、近赤外領域の波長帯(約800nm~900nm程度)を含み、数十マイクロメートル程度の時間的コヒーレンス長を有する。なお、人眼では視認できない波長帯、たとえば1040~1060nm程度の中心波長を有する近赤外光を低コヒーレンス光L0として用いてもよい。
光源ユニット101は、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)等の光出力デバイスを含んで構成される。光源ユニット101から出力された低コヒーレンス光L0は、光ファイバ102によりファイバカプラ103に導かれて信号光LSと参照光LRに分割される。
参照光LRは、光ファイバ104により導かれて光減衰器(アッテネータ)105に到達する。光減衰器105は、公知の技術を用いて、演算制御ユニット200の制御の下、光ファイバ104に導かれる参照光LRの光量を自動で調整する。光減衰器105により光量が調整された参照光LRは、光ファイバ104により導かれて偏波調整器(偏波コントローラ)106に到達する。
偏波調整器106は、たとえば、ループ状にされた光ファイバ104に対して外部から応力を与えることで、光ファイバ104内を導かれる参照光LRの偏光状態を調整する装置である。なお、偏波調整器106の構成はこれに限定されるものではなく、任意の公知技術を用いることが可能である。偏波調整器106により偏光状態が調整された参照光LRは、ファイバカプラ109に到達する。
ファイバカプラ103により生成された信号光LSは、光ファイバ107により導かれ、コリメータレンズユニット40により平行光束とされる。さらに、信号光LSは、光路長変更部41、ガルバノスキャナ42、合焦レンズ43、ミラー44、およびリレーレンズ45を経由してダイクロイックミラー46に到達する。
そして、信号光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて眼底Efに照射される。信号光LSは、眼底Efの様々な深さ位置において散乱(反射を含む)される。眼底Efによる信号光LSの後方散乱光は、往路と同じ経路を逆向きに進行してファイバカプラ103に導かれ、光ファイバ108を経由してファイバカプラ109に到達する。
ファイバカプラ109は、信号光LSの後方散乱光と、光ファイバ104を経由した参照光LRとを干渉させる。これにより生成された干渉光LCは、光ファイバ110により導かれて出射端111から出射される。さらに、干渉光LCは、コリメータレンズ112により平行光束とされ、回折格子113により分光(スペクトル分解)され、集光レンズ114により集光されてCCDイメージセンサ115の受光面に投影される。なお、図2に示す回折格子113は透過型であるが、たとえば反射型の回折格子など、他の形態の分光素子を用いることも可能である。
CCDイメージセンサ115は、たとえばラインセンサであり、分光された干渉光LCの各スペクトル成分を検出して電荷に変換する。CCDイメージセンサ115は、この電荷を蓄積して検出信号を生成し、これを演算制御ユニット200に送る。
この実施形態ではマイケルソン型の干渉計を採用しているが、たとえばマッハツェンダー型など任意のタイプの干渉計を適宜に採用することが可能である。また、CCDイメージセンサに代えて、他の形態のイメージセンサ、たとえばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いることが可能である。
〔演算制御ユニット〕
演算制御ユニット200の構成について説明する。演算制御ユニット200は、CCDイメージセンサ115から入力される検出信号を解析して眼底EfのOCT画像を形成する。そのための演算処理は、従来のスペクトラルドメインタイプのOCT装置と同様である。演算制御ユニット200は、眼底カメラユニット2、表示装置3およびOCTユニット100の各部を制御する。たとえば演算制御ユニット200は、眼底EfのOCT画像を表示装置3に表示させる。
また、眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15およびLED51、61の動作制御、LCD39の動作制御、合焦レンズ31、43の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、ガルバノスキャナ42の動作制御、前眼部カメラ300の動作制御などを行う。
また、OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、光減衰器105の動作制御、偏波調整器106の動作制御、CCDイメージセンサ115の動作制御などを行う。
演算制御ユニット200は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼科装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、たとえばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。
眼底カメラユニット2、表示装置3、OCTユニット100および演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。
〔制御系〕
眼科装置1の制御系の構成について図3を参照しつつ説明する。
(制御部)
眼科装置1の制御系は、制御部210を中心に構成される。制御部210は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と、記憶部212と、光学系位置取得部213と、情報判定部214とが設けられている。
(主制御部)
主制御部211は前述した各種の動作制御を行う。なお、合焦レンズ31の移動制御は、図示しない合焦駆動部を制御して合焦レンズ31を光軸方向に移動させるものである。それにより、撮影光学系30の合焦位置が変更される。また、合焦レンズ43の移動制御は、図示しない合焦駆動部を制御して合焦レンズ43を光軸方向に移動させるものである。それにより、信号光LSの合焦位置が変更される。
主制御部211は、光学系駆動部2Aを制御して、眼底カメラユニット2に設けられた光学系を3次元的に移動させることができる。この制御は、オートアライメントやトラッキングにおいて実行される。ここで、トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングは、たとえばアライメントよりも後の段階で実行される(場合によってはピント合わせも事前に実行される)。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメント(およびピント)が合った好適な位置関係を維持する機能である。
なお、この実施形態の光学系駆動部2Aは眼底カメラユニット2に搭載された光学系を移動させるものであるが、眼底カメラユニット2に搭載された光学系とOCTユニット100に搭載された光学系とを光学系駆動部2Aによって移動させるように構成されていてもよい。光学系駆動部2Aは「移動機構」の一例である。
また、この実施形態の前眼部カメラ300は眼底カメラユニット2の筐体に設けられているので、光学系駆動部2A(撮影移動部)を制御することにより前眼部カメラ300を移動させることができる。また、2以上の前眼部カメラ300をそれぞれ独立に移動させることが可能な撮影移動部を設けることができる。
具体的には、撮影移動部は、各前眼部カメラ300に対して設けられた駆動機構(アクチュエータ、動力伝達機構等)を含む構成であってもよい。また、撮影移動部は、単一のアクチュエータにより発生された動力を前眼部カメラ300ごとに設けられた動力伝達機構によって伝達することにより、2以上の前眼部カメラ300を移動させるように構成されていてもよい。
また、主制御部211は、記憶部212にデータを書き込む処理や、記憶部212からデータを読み出す処理を行う。
(記憶部)
記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、たとえば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼科装置1を動作させるための各種プログラムやデータが記憶されている。
(光学系位置取得部)
光学系位置取得部213は、眼科装置1に搭載された検査用光学系の現在位置を取得する。検査用光学系とは、被検眼Eを光学的に検査するために用いられる光学系である。この実施形態の眼科装置1(眼底カメラとOCT装置の複合機)における検査用光学系は、被検眼の画像を得るための光学系である。
光学系位置取得部213は、たとえば、主制御部211による光学系駆動部2Aの移動制御の内容を表す情報を受けて、光学系駆動部2Aにより移動される検査用光学系の現在位置を取得する。この処理の具体例を説明する。主制御部211は、所定のタイミング(装置起動時、患者情報入力時など)で光学系駆動部2Aを制御して、検査用光学系を所定の初期位置に移動させる。それ以降、主制御部211は、光学系駆動部2Aが制御される度に、その制御内容を記録する。それにより、制御内容の履歴が得られる。光学系位置取得部213は、この履歴を参照して現在までの制御内容を取得し、この制御内容に基づいて検査用光学系の現在位置を求める。
また、主制御部211が光学系駆動部2Aを制御する度にその制御内容を光学系位置取得部213に送信し、光学系位置取得部213が当該制御内容を受ける度に検査用光学系の現在位置を逐次求めるようにしてもよい。他の構成例として、検査用光学系の位置を検知する位置センサを光学系位置取得部213に設けるようにしてもよい。
以上のようにして光学系位置取得部213により検査用光学系の現在位置が取得された場合、主制御部211は、取得された現在位置と、後述の解析部231により求められた被検眼Eの3次元位置とに基づいて、光学系駆動部2Aに検査用光学系を移動させることができる。具体的には、主制御部211は、光学系位置取得部213による取得結果によって検査用光学系の現在位置を認識し、解析部231による解析結果によって被検眼Eの3次元位置を認識する。
そして、主制御部211は、被検眼Eの3次元位置に対する検査用光学系の位置が所定の位置関係になるように、検査用光学系の現在位置を起点としてその位置を変更する。この所定の位置関係は、x方向およびy方向の位置がそれぞれ一致し、かつ、z方向の距離が所定の作動距離になるようなものである。ここで、作動距離とは、ワーキングディスタンスとも呼ばれる既定値であり、検査用光学系を用いた検査時における被検眼Eと検査用光学系との間の距離を意味する。
(情報判定部)
情報判定部214は、OCTを行うことによって取得された情報が、OCTを実行するにあたり適当であるか否か判定する。OCTにより取得される情報としては、OCTユニット100のCCDイメージセンサ115からの検出信号や、この検出信号に対して所定の処理を施すことにより得られる情報がある。
後者の例として次のような情報がある:検出信号に基づき画像形成部220により形成される断面像(Aスキャン像、2次元断面像);この断面像形成処理の途中段階で得られる情報;画像形成部220により形成された1以上の断面像に基づき画像処理部230により形成される情報(画像等);これら以外の処理を検出信号に施すことにより得られる情報。
(画像形成部)
画像形成部220は、CCDイメージセンサ115からの検出信号に基づいて、眼底Efの断面像の画像データを形成する。この処理には、従来のスペクトラルドメインタイプのOCTと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理が含まれている。他のタイプのOCTが適用される場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。画像形成部220は、たとえば、前述の回路基板を含んで構成される。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。
(画像処理部)
画像処理部230は、画像形成部220により形成された画像に対して各種の画像処理や解析処理を施す。たとえば、画像処理部230は、画像の輝度補正や分散補正等の各種補正処理を実行する。また、画像処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。
画像処理部230は、断面像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Efの3次元画像データを形成する。なお、3次元画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。
ボリュームデータに基づく画像を表示させる場合、画像処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部241には、この擬似的な3次元画像が表示される。
さらに、画像処理部230には、解析部231と、画像判定部232と、画像合成部233とが設けられている。
(解析部)
解析部231は、2以上の前眼部カメラ300により実質的に同時に得られた2以上の撮影画像を解析することで、被検眼Eの3次元位置を求める。この処理を実行するための構成の一例として、解析部231には、画像補正部2311と、特徴位置特定部2312と、3次元位置算出部2313が設けられている。
(画像補正部)
画像補正部2311は、前眼部カメラ300により得られた各撮影画像の歪みを、記憶部212に記憶されている収差情報に基づいて補正する。この処理は、たとえば、歪曲収差を補正するための補正係数に基づく公知の画像処理技術によって実行される。なお、前眼部カメラ300の光学系が撮影画像に与える歪曲収差が十分に小さい場合などには、収差情報および画像補正部2311を設けなくてもよい。
(特徴位置特定部)
特徴位置特定部2312は、(画像補正部2311により歪曲収差が補正された)各撮影画像を解析することで、前眼部Eaの所定の特徴部位に相当する当該撮影画像中の位置(特徴位置と呼ぶ)を特定する。所定の特徴部位としては、たとえば被検眼Eの瞳孔中心または角膜頂点が用いられる。以下、瞳孔中心を特定する処理の具体例を説明する。
まず、特徴位置特定部2312は、撮影画像の画素値(輝度値など)の分布に基づいて、被検眼Eの瞳孔に相当する画像領域(瞳孔領域)を特定する。一般に瞳孔は他の部位よりも低い輝度で描画されるので、低輝度の画像領域を探索することによって瞳孔領域を特定することができる。このとき、瞳孔の形状を考慮して瞳孔領域を特定するようにしてもよい。つまり、略円形かつ低輝度の画像領域を探索することによって瞳孔領域を特定するように構成することができる。
次に、特徴位置特定部2312は、特定された瞳孔領域の中心位置を特定する。上記のように瞳孔は略円形であるので、瞳孔領域の輪郭を特定し、この輪郭(の近似円または近似楕円)の中心位置を特定し、これを瞳孔中心とすることができる。また、瞳孔領域の重心を求め、この重心位置を瞳孔中心としてもよい。なお、他の特徴部位に対応する特徴位置を特定する場合であっても、上記と同様に撮影画像の画素値の分布に基づいて当該特徴位置を特定することが可能である。
(3次元位置算出部)
3次元位置算出部2313は、2以上の前眼部カメラ300の位置と、特徴位置特定部2312により特定された2以上の撮影画像中の特徴位置とに基づいて、被検眼Eの特徴部位の3次元位置を算出する。この処理について図5Aおよび図5Bを参照しつつ説明する。
図5Aは、被検眼Eと前眼部カメラ300Aおよび300Bとの間の位置関係を示す上面図である。図5Bは、被検眼Eと前眼部カメラ300Aおよび300Bとの間の位置関係を示す側面図である。2つの前眼部カメラ300Aおよび300Bの間の距離(基線長)を「B」で表す。2つの前眼部カメラ300Aおよび300Bの基線と、被検眼Eの特徴部位Pとの間の距離(撮影距離)を「H」で表す。各前眼部カメラ300Aおよび300Bと、その画面平面との間の距離(画面距離)を「f」で表す。
このような配置状態において、前眼部カメラ300Aおよび300Bによる撮影画像の分解能は次式で表される。ここで、Δpは画素分解能を表す。
xy方向の分解能(平面分解能):Δxy=H・Δp/f
z方向の分解能(奥行き分解能):Δz=H・H・Δp/(B×f)
3次元位置算出部2313は、2つの前眼部カメラ300Aおよび300Bの位置(既知である)と、2つの撮影画像において特徴部位Pに相当する特徴位置とに対して、図5Aおよび図5Bに示す配置関係を考慮した公知の三角法を適用することにより、特徴部位Pの3次元位置、つまり被検眼Eの3次元位置を算出する。
3次元位置算出部2313により算出された被検眼Eの3次元位置は制御部210に送られる。制御部210は、この3次元位置の算出結果に基づいて、検査用光学系の光軸を被検眼Eの軸に合わせるように、かつ、被検眼Eに対する検査用光学系の距離が所定の作動距離になるように光学系駆動部2Aを制御する。
また、前眼部カメラ300が前眼部Eaを異なる方向から並行して動画撮影する場合、たとえば次のような処理(1)および(2)を行うことにより、被検眼Eの動きに対する検査用光学系のトラッキングを実行することが可能である。
(1)解析部231が、2以上の前眼部カメラ300による動画撮影において実質的に同時に得られた2以上のフレームを逐次に解析することで、被検眼Eの3次元位置を逐次に求める。
(2)制御部210が、解析部231により逐次に求められる被検眼Eの3次元位置に基づき光学系駆動部2Aを逐次に制御することにより、検査用光学系の位置を被検眼Eの動きに追従させる。
解析部231は、3次元位置算出部2313により取得された被検眼Eの3次元位置に基づいて、被検眼Eと検査用光学系との間の変位を求めることができる。この処理は、前眼部カメラ300の位置および検査用光学系の位置が既知であることを利用して実行される。なお、検査用光学系の位置は、あらかじめ決められた所定位置であり、たとえば、対物レンズ22の前面(被検眼E側の面)と、検査用光学系の光軸とが交差する位置である。
(画像判定部)
画像判定部232は、2以上の前眼部カメラ300のうちの少なくとも1つにより得られた撮影画像を解析することで、前眼部Eaの画像が当該撮影画像中の所定領域に含まれているか否か判定する。
この所定領域は、前眼部カメラ300による撮影範囲内においてあらかじめ設定され、たとえば当該撮影範囲の中心を含む領域として設定される。ここで、前眼部カメラ300による撮影条件(前眼部カメラ300の位置、撮影倍率等)に応じて当該所定領域の範囲を変化させることができる。また、後述の特徴点の設定に応じて当該所定領域の範囲を決定することができる。また、被検者の顔を支持する支持部440(顎受け、額当て等。図4Aおよび図4Bを参照。)の位置またはその近傍位置に相当するように当該所定領域を設定することができる。
画像判定部232が実行する処理の具体例を説明する。まず、画像判定部232は、前眼部Eaの所定の特徴点に相当する画像領域を撮影画像中から特定する。この特徴点としては、瞳孔中心、瞳孔輪郭、虹彩中心、虹彩輪郭、角膜頂点などがある。特徴点に相当する画像領域の特定処理は、たとえば特徴位置特定部2312が実行する処理と同様である。なお、特徴点と特徴部位とが同一の場合には、特徴位置特定部2312による特定結果を画像判定部232が行う処理に利用することができる。
次に、画像判定部232は、特定された特徴点が撮影画像(のフレーム)中の所定領域に含まれているか否か判定する。この処理は、所定領域に相当する座標と特徴点の座標とを比較することによって行われる。
画像判定部232は、この判定結果を制御部210に送る。制御部210は、前眼部Eaの画像が所定領域に含まれていないと判定された場合に、光学系駆動部2A(撮影移動部)を制御して前眼部カメラ300を支持部440(つまり被検者の顔)から離れる方向および/または支持部440の外側方向に移動させる。支持部440から離れる方向とは、図1等に示す座標系における-z方向である。
また、支持部440の外側方向とは、前眼部カメラ300が検査用光学系の光軸から離れる方向である。検査用光学系から離れる方向については、水平方向(±x方向)および/または垂直方向(±y方向)において定義することが可能である。つまり、xy平面内の任意の方向において、検査用光学系から離れる方向を定義することが可能である。
また、前眼部カメラ300の移動方向および/または移動距離については、たとえば、移動前における前眼部カメラ300と支持部440との位置関係に基づいて設定することができる。また、画像判定部232による判定処理と、前眼部カメラ300の移動処理とを交互に行うことにより、前眼部カメラ300を好適な位置に追い込んでいくように制御を行うことも可能である。
また、特徴点に相当する画像領域と所定領域との間の距離(ピクセル数)に応じて前眼部カメラ300の移動方向および/または移動距離を決定するように構成してもよい。また、特徴点に相当する画像領域と所定領域内の所定位置(たとえば中心位置)との間の距離に応じて前眼部カメラ300の移動方向および/または移動距離を決定するように構成することも可能である。
(画像合成部)
画像合成部233は、2以上の前眼部カメラ300により実質的に同時に得られた2以上の撮影画像の合成画像を形成する。この合成画像の例として、2以上の撮影画像に基づく立体画像や視点変換により得られる画像(視点変換画像)がある。視点変換画像の視点は、たとえば検査用光学系の光軸上に設定される。これらの合成画像は公知の画像合成処理を用いることにより得られる。
以上のように機能する画像処理部230は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。
(ユーザインターフェイス)
ユーザインターフェイス240には、表示部241と操作部242とが含まれる。表示部241は、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部242は、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部242には、眼科装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。
たとえば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部242は、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部241は、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。
[動作]
眼科装置1の動作について説明する。この動作例では、オートアライメントを含む一連の動作の全体的な流れを説明する。以下、図6に示すフローチャートを参照する。
(S1:撮影画面の表示)
制御部210は、図7Aに示す撮影画面1000を表示部241に表示させる。撮影画面1000内の左側の表示領域(第1の表示領域)1001には、眼底カメラユニット2により取得される赤外観察画像(前眼部Eaの正面画像)2000がリアルタイムで動画表示される。また、撮影画面1000内の右側の表示領域(第2の表示領域)1002には、前眼部カメラ300Aおよび300Bの一方により取得される前眼部像が動画表示される。第2の表示領域1002の下方には、「Capture START」ボタン1003が設けられている。
(S2:オートアライメント)
「Capture START」ボタン1003が操作(クリック)されると、制御部210は、オートアライメントを行うためのアライメント画面1010(図7Bを参照)を表示部241に表示させる。アライメント画面1010には、少なくとも、オートアライメントを行うために用いられる画像が表示される。
前眼部カメラ300Aおよび300Bにより取得される2つの前眼部像を用いたオートアライメントについて説明する。本例では、2つの前眼部カメラ300Aおよび300Bにより取得される被検眼Eの2つの前眼部像が合成表示される。これら前眼部像はそれぞれリアルタイムで取得され、それらの合成画像はリアルタイムで動画表示される。つまり、この合成表示は、前眼部カメラ300Aおよび300Bにより実質的に同時に取得された2つの前眼部像(静止画像)に基づく合成画像(静止画像)を1フレームとする動画表示である。
各フレーム(各合成画像)の作成方法を説明する。1つのフレームは、上記のように、前眼部カメラ300Aおよび300Bにより実質的に同時に取得された2つの前眼部像に基づく。フレームの作成方法の第1の例として、一方の前眼部像の部分画像と、他方の前眼部像の部分画像とを並列表示させることができる。これら部分画像としては、各々のフレームにおいて互いに異なる部分が用いられる。各部分画像は、その元となる前眼部像の一部をトリミングすることによって得られる。この処理は、制御部210または画像処理部230によって実行される。
図7Bに示すアライメント画面1010には、第1の表示領域1011と第2の表示領域とが設けられている。第1の表示領域1011には、前眼部カメラ300Aにより取得された前眼部像のうちフレームの上半分に相当する第1の部分画像2110が表示される。第2の表示領域1012には、前眼部カメラ300Bにより取得された前眼部像のうちフレームの下半分に相当する第2の部分画像2120が表示される。
第1の表示領域1011と第2の表示領域1012は、前者が上方に且つ後者が下方に位置するように配置されている。ここで、第1の表示領域1011の下端と第2の表示領域1012の上端とが接している。このように、本例においては、2つの部分画像がそれらの位置関係に応じた配列で表示される。
光学系駆動部2Aにより眼底カメラユニット2が±z方向に移動されると、被検眼Eに対する前眼部カメラ300Aおよび300Bの位置の変化に伴い、2つの部分画像2110および2120は、相対的に横方向に変位する。また、光学系駆動部2Aにより眼底カメラユニット2がxy方向において移動されると、被検眼Eに対する前眼部カメラ300Aおよび300Bの位置の変化に伴い、2つの部分画像2110および2120は、一体的に、装置光学系の移動方向に応じた方向に、それぞれ第1の表示領域1011および第2の表示領域1012において変位する。
前述したように、解析部231は、第1の部分画像2110(またはその元の画像の全体)を解析することにより、被検眼Eの特徴部位に相当する画像領域(第1の特徴領域)を特定する。同様に、解析部231は、第2の部分画像2120(またはその元の画像の全体)を解析することにより、被検眼Eの特徴部位に相当する画像領域(第2の特徴領域)を特定する。各特徴領域は、たとえば瞳孔(瞳孔輪郭、瞳孔中心など)である。図7Bにおいて、符号2110aは、瞳孔輪郭に相当する第1の特徴領域を示し、符号2120aは、瞳孔輪郭に相当する第2の特徴領域を示す。
さらに、解析部231は、第1の特徴領域2110aと第2の特徴領域2120aとの変位を算出する。この変位は、横方向における変位を含む。前述したように、横方向における変位は、±z方向における検査用光学系の位置ズレに相当する。解析部231は、解析部231により算出された第1の特徴領域2110aと第2の特徴領域2120aとの間の変位に相当する、検査用光学系の移動方向および移動距離を求める。
この処理は、たとえば、特徴領域間の変位と、移動方向および移動距離とが関連付けられた情報を参照して実行される。この情報は、2つの前眼部カメラ300Aおよび300Bが設置された位置や、作動距離などに基づいて、あらかじめ作成されて記憶部212または解析部231に格納される。
制御部210は、解析部231により求められた移動距離および移動方向に基づいて光学系駆動部2Aを制御することにより、眼底カメラユニット2を+z方向または-z方向に移動させる。このような処理を実行することによって、第1の特徴領域2110aと第2の特徴領域2120aとが合致するように(つまり第1の特徴領域2110aと第2の特徴領域2120aとが組み合わされて瞳孔を示す画像が形成されるように)、z方向のアライメントが実行される(図7Cを参照)。
図7Cに示すアライメント画面1010のほぼ中央に提示されている括弧2101およびそれに囲まれた円2102は、アライメントにおけるターゲット位置を示している。括弧2101は瞳孔輪郭のターゲット位置であり、円2102は瞳孔中心のターゲット位置である。
また、解析部231は、第1の特徴領域2110aおよび第2の特徴領域2120aのそれぞれの位置と、ターゲット位置(括弧2101、円2102)との間の変位を算出する。さらに、解析部231は、解析部231により算出された変位に相当する検査用光学系の移動方向および移動距離を求める。この処理は、たとえば、特徴領域とターゲット位置との間の変位と、移動方向および移動距離とが関連付けられた情報を参照して実行される。この情報は、2つの前眼部カメラ300Aおよび300Bが設置された位置や、作動距離などに基づいて、あらかじめ作成されて記憶部212または解析部231に格納される。
制御部210は、解析部231により求められた移動距離および移動方向に基づいて光学系駆動部2Aを制御することにより、+x方向若しくは-x方向および/または+y方向若しくは-y方向に眼底カメラユニット2を移動させる。このような処理を実行することによってxy方向のアライメントが行われる。xy方向におけるアライメント状態とz方向におけるアライメント状態とを両立させることで、検査用光学系は、被検眼Eに対して3次元的に好適な位置に配置される。このとき、アライメント画面1010は、図7Cに示すような表示状態となる。
なお、図7Bおよび図7Cに示す「Capture STOP」ボタン1013は、この動作例の処理を中止(または中断)するために操作(クリック)される。
(S3:オートフォーカス)
オートアライメントの完了を受けて、制御部210は、スプリット指標を用いたオートフォーカスを前述した要領で実行する。
(S4:オートPola)
オートフォーカスの完了を受けて、制御部210は、自動偏光調整(オートPola)を実行する。オートPolaは、たとえば、反復的に取得されるOCT画像(断面像)の画質をリアルタイムで判定しつつ偏波調整器106を制御することによって実行される。
(S5:OCTオートフォーカス)
オートPolaが完了したら、制御部210は、OCTオートフォーカスを実行する。OCTオートフォーカスは、眼底Efの所定部位(たとえば網膜の任意の層や、脈絡膜)に対応する信号の干渉感度が最適化されるように、光路長変更部41を制御して信号光の光路長を変更する処理である。
(S6:計測開始の指示)
OCTオートフォーカスが完了すると、制御部210は、その旨を示す情報(図示せず)を表示部241に表示させる。ユーザは、眼底Efの計測を開始させるためのトリガ操作を、操作部242を用いて行う。OCTオートフォーカスの完了を計測開始のトリガとして用いる構成を適用することも可能である。その場合、ステップS6は不要である。
(S7:OCT計測開始)
瞳孔に相当する画像領域が特定された場合、制御部210は、眼底EfのOCT計測を開始するようOCTユニット100に実行させる。OCTユニット100は、OCT計測用の光路を通過する信号光LSの進行方向を変更し、信号光LSを眼底Ef上において走査するようガルバノスキャナ42を制御する。
図8は、眼底Efの画像を形成するための信号光LSの走査態様の一例を表している。図8は、信号光LSが被検眼Eに入射する方向から眼底Efを見た(つまり図1の-z方向から+z方向を見た)ときの、信号光LSの走査態様の一例を表す。また、図9は、眼底Ef上の各走査線における走査点の配列態様の一例を表す。
図8に示すように、信号光LSは、あらかじめ設定された矩形の走査領域R内を走査される。この走査領域R内には、x方向に複数(m本)の走査線R1~Rmが設定されている。各走査線Ri(i=1~m)に沿って信号光LSが走査されるときに、干渉光LCの検出信号が生成されるようになっている。
ここで、各走査線Riの方向を「主走査方向」と呼び、それに直交する方向を「副走査方向」と呼ぶことにする。したがって、信号光LSの主走査方向への走査は、y方向に走査するガルバノミラーの反射面の向きを変更することにより為され、副走査方向への走査は、x方向に走査するガルバノミラーの反射面の向きを変更することによって為される。
各走査線Ri上には、図9に示すように、複数(n個)の走査点Ri1~Rinがあらかじめ設定されている。図8に示す走査を実行するために、制御部210は、まず、ガルバノスキャナ42を制御し、眼底Efに対する信号光LSの入射目標を第1の走査線R1上の走査開始位置RS(走査点R11)に設定する。続いて、制御部210は、低コヒーレンス光源160を制御し、低コヒーレンス光L0をフラッシュ発光させて、走査開始位置RSに信号光LSを入射させる。CCDイメージセンサ115は、この信号光LSの走査開始位置RSにおける眼底反射光に基づく干渉光LCを受光し、検出信号を制御部210に出力する。
次に、制御部210は、ガルバノスキャナ42を制御して、信号光LSを主走査方向に走査して、その入射目標を走査点R12に設定し、低コヒーレンス光L0をフラッシュ発光させて走査点R12に信号光LSを入射させる。CCDイメージセンサ115は、この信号光LSの走査点R12における眼底反射光に基づく干渉光LCを受光し、検出信号を制御部210に出力する。
制御部210は、同様にして、信号光LSの入射目標を走査点R13、R14、・・・、R1(n-1)、R1nと順次移動させつつ、各走査点において低コヒーレンス光L0をフラッシュ発光させることにより、各走査点の干渉光LCに対応してCCDイメージセンサ115から出力される検出信号を取得する。
第1の走査線R1の最後の走査点R1nにおける計測が終了したら、制御部210は、ガルバノスキャナ42を制御して、信号光LSの入射目標を、線換え走査rに沿って第2の走査線R2の最初の走査点R21まで移動させる。そして、この第2の走査線R2の各走査点R2j(j=1~n)について前述の計測を行うことで、各走査点R2jに対応する検出信号をそれぞれ取得する。
同様に、第3の走査線R3、・・・・、第m-1の走査線R(m-1)、第mの走査線Rmのそれぞれについて計測を行い、各走査点に対応する検出信号を取得する。なお、走査線Rm上の符号REは、走査点Rmnに対応する走査終了位置である。それにより、制御部210は、走査領域R内のm×n個の走査点Rij(i=1~m、j=1~n)に対応するm×n個の検出信号を取得する。以下、走査点Rijに対応する検出信号をDijと表すことがある。
以上のような走査点の移動と低コヒーレンス光L0の出力との連動制御は、たとえば、ガルバノスキャナ42に対する制御信号の送信タイミングと、光源ユニット101に対する制御信号(出力要求信号)の送信タイミングとを互いに同期させることによって実現することができる。
制御部210は、上述のようにガルバノミラーを動作させるときに、その動作内容を示す情報として各走査線Riの位置や各走査点Rijの位置(xy座標系における座標)を記憶しておくようになっている。この記憶内容(走査位置情報)は、従来と同様に画像形成処理において用いられる。
(S8:前眼部像の取得)
計測開始の指示が行われると、制御部210は、被検眼Eの前眼部Eaを撮像して前眼部像を取得するよう前眼部カメラ300を制御する。ステップS2のオートアライメントにおいて、前眼部カメラ300は、前眼部カメラ300Aおよび300Bの双方から前眼部像を取得している。ステップS7では、前眼部カメラ300Aおよび300Bの少なくとも一方から前眼部像を取得すればよい。
(S9:瞳孔に相当する画像領域を特定?)
前眼部像の取得が完了すると、制御部210は、前眼部Eaの瞳孔に相当する画像領域を特定するよう画像処理部230の画像判定部232を制御する。画像判定部232の特徴位置特定部2312は、前眼部カメラ300が得た前眼部像から前眼部Eaの瞳孔輪郭を抽出し、瞳孔輪郭に囲まれる領域を瞳孔に相当する画像領域として特定する。
制御部210は、特徴位置特定部2312が瞳孔に相当する画像領域を特定した場合にはステップS10に処理を進め、特徴位置特定部2312が瞳孔に相当する画像領域を特定できない場合にはステップS11に処理を進める。特徴位置特定部2312が瞳孔に相当する画像領域を特定できない場合とは、例えば、被検者が瞬き等を行ったためにOCTユニット(検査部)100から検出信号が出力されない場合である。この場合、画像判定部232は、特徴位置特定部2312の特定結果に基づいて、OCTユニット100が後述する走査領域(検査範囲)Rを検査可能な状態でないと判定し、ステップS11に処理を進める。
(S10:走査領域Rの走査終了?)
前眼部像から瞳孔に相当する画像領域が特定された場合、制御部210は、ステップS9で開始されたOCT計測による走査領域Rの走査が終了したかどうかを判定する。制御部210は、走査領域Rの走査が終了したと判定した場合はステップS12に処理を進め、走査領域Rの走査が終了していないと判定した場合はステップS8に処理を進める。
なお、ステップS8で前眼部カメラ300が前眼部像を撮像してからステップS10で走査領域Rの走査が終了したかどうかを判定するまでの処理時間は、副走査方向の複数の走査点の走査間隔よりも短くするのが望ましい。走査間隔よりも短い間隔で瞳孔に相当する画像領域を特定することにより、被検者の瞬き等によりOCTユニット(検査部)100から検出信号が出力されないことを各走査点について確実に判定することができる。
(S11:OCT計測不可の走査点を記憶)
前眼部像から瞳孔に相当する画像領域が特定されない場合、制御部210は、OCT計測不可の走査点を記憶する。制御部210は、ステップS9でNOと判定された直後に走査される走査点Rij(i=1~m、j=1~n)を、OCT計測不可の走査点として記憶部212に記憶させる。
被検者の瞬き等によりOCTユニット(検査部)100から検出信号が走査間隔よりも長い所定期間に渡って出力されない場合、制御部210は、ステップS9でNOと判定する処理と走査点を記憶する処理を複数回実行する。制御部210は、ステップS11の後に再びステップS8の処理を実行し、前眼部カメラ300が前眼部像を取得する。
(S12:OCT計測不可の走査点があるか?)
走査領域Rの走査が終了した場合、制御部210は、OCT計測不可の走査点があるかどうかを判定する。制御部210は、ステップS7でOCT計測を開始した後にOCT計測不可の走査点が記憶部212に記憶された場合に、YESと判定する。制御部210は、ステップS12でYESと判定した場合はステップS8へ処理を進め、ステップS10でNOと判定した場合はステップS13へ処理を進める。
OCT計測不可の走査点がある場合、制御部210は、ステップS8~ステップS11までの処理を再び実行し、OCT計測不可の走査点を再び走査するようOCTユニット100を制御する。すなわち、制御部210は、OCTユニット100が走査領域Rを走査可能(検査可能)な状態でないと画像判定部232が判定した場合に、走査領域Rの検査を再度実行するようOCTユニット100を制御する。
制御部210は、走査領域Rの検査を再度実行する際に、以下の3つのいずれかの方式により走査領域Rの検査を行う。制御部210は、以下の3つのいずれか1つのみを実行しても、以下の3つのいずれかを使用者の指示に基づいて選択して実行してもよい。
第1の方式は、走査領域Rの全領域を再び光学的に検査する方式である。制御部210は、走査領域Rを検査可能な状態でないと画像判定部232が判定した場合に、走査領域Rの全領域を再び光学的に検査するようにOCTユニット100を制御する。すなわち、制御部210は、走査領域R内のすべての走査点を再び光学的に検査するようにOCTユニット100を制御する。
第2の方式は、走査領域RのうちOCTユニット100による検査が行われていない走査点を含む全ての走査線を再び光学的に検査する方式である。制御部210は、走査領域Rを検査可能な状態でないと画像判定部232が判定した場合に、走査領域RのうちOCTユニットによる検査が行われていない走査点を含む全ての走査線を再び光学的に検査するようにOCTユニット100を制御する。制御部210は、記憶部212に記憶されたOCT計測不可の走査点を読み出し、読み出した走査点を含む走査線を特定する。制御部210は、特定した全ての走査線を再び光学的に検査するようにOCTユニット100を制御する。
第3の方式は、走査領域RのうちOCTユニット100による検査が行われていない走査点を再び光学的に検査する方式である。制御部210は、走査領域Rを検査可能な状態でないと画像判定部232が判定した場合に、走査領域RのうちOCTユニットによる検査が行われていない走査点を再び光学的に検査するようにOCTユニット100を制御する。制御部210は、記憶部212に記憶されたOCT計測不可の走査点を読み出し、読み出した走査点を特定する。制御部210は、特定した全ての走査点を再び光学的に検査するようにOCTユニット100を制御する。
(S13:OCT画像を形成)
OCT計測不可の走査点がないと判定された場合、画像形成部220は、OCTユニット100からの検出信号に基づいてOCT画像を形成する。制御部210は、形成されたOCT画像を記憶部212に記憶させる。3次元スキャンが適用される場合、画像処理部230は、画像形成部220により形成された複数の断面像に基づいて3次元画像データを形成する。制御部210は、形成された3次元画像データを記憶部212に記憶させる。制御部210は、ステップS13が終了したことに応じて、図6に示すフローチャートの処理を終了させる。
画像形成部220は、各走査点Rijに対応する検出信号Dijに基づいて、その走査点Rijにおける眼底Efの深度方向(図1に示すz方向)の画像を形成する。図10は、画像形成部220により形成される断層画像の態様を表している。画像形成部220は、各走査線Riについて、その上のn個の走査点Ri1~Rinにおける深度方向の画像に基づき、この走査線Riに沿った眼底Efの断層画像Giを形成する。
このとき、画像形成部220は、各走査点Ri1~Rinの位置情報(前述の走査位置情報)を参照して各走査点Ri1~Rinの配列及び間隔を決定して、この走査線Riを形成するようになっている。以上の処理により、副走査方向(y方向)の異なる位置におけるm個の断層画像G1~Gmが得られる。
画像処理部230は、各走査線Ri(主走査方向)に沿った眼底Efの断層画像に基づく眼底Efの3次元画像の形成処理を実行する。眼底Efの3次元画像は、上記の演算処理により得られたm個の断層画像に基づいて形成される。画像処理部230は、隣接する断層画像Gi、G(i+1)の間の画像を補間する公知の補間処理を行うなどして、眼底Efの3次元画像を形成する。
このとき、画像処理部230は、各走査線Riの位置情報を参照して各走査線Riの配列及び間隔を決定して、この3次元画像を形成するようになっている。この3次元画像には、各走査点Rijの位置情報(前述の走査位置情報)と、深度方向の画像におけるz座標とに基づいて、3次元座標系(x、y、z)が設定される。なお、図10に示す画像Gmjは、走査線Rm上の走査点Rmjにおける深度方向(z方向)の画像を表している。
以上説明した本実施形態の眼科装置1が奏する作用および効果について説明する。
本実施形態の眼科装置1によれば、OCTユニット100が被検眼Eの眼底Efの走査領域(検査範囲)Rを光学的に検査することにより検出信号が出力され、検出信号に基づいて画像形成部220が眼底の断面像を形成する。前眼部カメラ300は被検眼Eの前眼部Eaを撮像して前眼部像を取得し、画像判定部232が前眼部像に基づいてOCTユニット100が走査領域Rを検査可能な状態であるかどうかを判定する。
OCTユニット100が走査領域Rを検査可能な状態でない場合とは、例えば、被検者が瞬き等を行ったためにOCTユニット100から検出信号が出力されない場合である。このような場合に、制御部210は、走査領域Rの検査を再度実行するようOCTユニット100を制御する。そのため、被検者が瞬き等を行って被検眼Eの眼底Efの走査領域Rを検査不能な状態となった場合であっても、所望の断面像を得ることができる。
本実施形態の眼科装置1において、制御部210は、走査領域Rを検査可能な状態でないと画像判定部232が判定した場合に、走査領域Rの全領域を再び光学的に検査するようにOCTユニット100を制御する。
本実施形態の眼科装置1によれば、走査領域Rを検査可能な状態でない場合に走査領域Rの全領域を再び光学的に検査するため、使用者による再検査の操作等を要することなく、連続的に検査した得た検出信号から眼底Efの断面像を取得することができる。
本実施形態の眼科装置1において、制御部210は、走査領域Rを検査可能な状態でないと画像判定部232が判定した場合に、走査領域RのうちOCTユニット100による検査が行われていない再検査範囲を検査するようにOCTユニット100を制御する。
本構成の眼科装置1によれば、走査領域Rを検査可能な状態でない場合にOCTユニット100による検査が行われていない領域のみを再検査するため、再検査に要する時間を少なくして早期に眼底Efの断面像を取得することができる。
本実施形態の眼科装置1によれば、被検眼Eに対する検査用光学系が所定の位置関係を維持するために用いられる前眼部像を用いて、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを判定することができる。
本実施形態の眼科装置1によれば、2以上の前眼部カメラ300A,300Bの位置と2以上の前眼部像とに基づいて被検眼Eの3次元位置を算出し、被検眼Eに対する検査用光学系の所定の位置関係を維持するよう光学系駆動部2Aを制御することができる。
〔第2実施形態〕
次に、本発明の第2実施形態に係る眼科装置について説明する。
本実施形態は、第1実施形態の変形例であり、以下で特に説明する場合を除き、第1実施形態と同様あるものとし、以下での説明を省略する。
第1実施形態の眼科装置1は、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを、瞳孔に相当する画像領域が特定できるかどうかにより判定するものであった。すなわち、第1実施形態の眼科装置1は、被検者が瞬き等を行って瞳孔に相当する画像領域が特定できない場合に、OCTユニット100が走査領域Rを検査不能であると判定するものであった。
それに対して、本実施形態の眼科装置は、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを、瞳孔に相当する画像領域の位置に基づいて判定するものである。すなわち、本実施形態の眼が装置は、被検者が視線を正面から大きくずらして瞳孔に相当する画像領域が正面からずれる場合に、OCTユニット100が走査領域Rを検査不能であると判定するものである。
本実施形態の眼科装置が実行する処理は、第1実施形態の図6に示すステップS9の処理を除き、第1実施形態と同様である。以下では、第1実施形態の図6に示すステップS9の代わりに実行する処理について説明する。
前眼部像の取得が完了すると、本実施形態の制御部210は、瞳孔に相当する画像領域を特定するよう画像処理部230の画像判定部232を制御する。画像判定部232の特徴位置特定部2312は、前眼部カメラ300が得た前眼部像から前眼部Eaの瞳孔輪郭を抽出し、瞳孔輪郭に囲まれる領域を瞳孔に相当する画像領域として特定する。
制御部210は、特徴位置特定部2312が特定した画像領域の位置が、OCTユニット100が走査領域Rを検査可能な状態を示す検査可能範囲A1に含まれている場合にはステップS10に処理を進め、検査可能範囲A1に含まれていない場合にはステップS11に処理を進める。
特徴位置特定部2312が特定した画像領域の位置が検査可能範囲A1に含まれていない場合とは、例えば、被検者が視線を正面から大きくずらして瞳孔に相当する画像領域が正面からずれる場合である。この場合、画像判定部232は、特徴位置特定部2312が特定した画像領域の位置に基づいて、OCTユニット100が後述する走査領域(検査範囲)Rを検査可能な状態でないと判定し、ステップS11に処理を進める。
ここで、検査可能範囲A1とは、OCT計測用の光路を通過する信号光LSを走査領域Rで走査した場合に信号光LSが被検眼Eの虹彩により遮断されない範囲をいう。図11及び図12は、前眼部カメラ300Bにより取得された前眼部像の一例を示す図である。符号2120aは、瞳孔輪郭に相当する画像領域として画像判定部232が特定した領域を示す。
制御部210は、図11に示すように、特徴位置特定部2312が特定した画像領域である第2の特徴領域2120aの全てが検査可能範囲A1に含まれている場合は、OCTユニット100が走査領域Rを検査可能な状態であると判定してステップS10に処理を進める。一方、制御部210は、図12に示すように、特徴位置特定部2312が特定した画像領域である第2の特徴領域2120aの一部が検査可能範囲A1に含まれていない場合は、OCTユニット100が走査領域Rを検査可能な状態であると判定してステップS10に処理を進める。
例えば、被検者が視線を正面から大きくずらしてしまうと、特徴位置特定部2312により特定された瞳孔に相当する画像領域の位置が正面から大きくずれてしまう。本実施形態の眼科装置によれば、瞳孔に相当する画像領域の位置が正面から大きくずれてしまう場合であっても、走査領域Rの検査を再度実行して所望の断面像を得ることができる。
〔第3実施形態〕
次に、本発明の第3実施形態に係る眼科装置について説明する。
本実施形態は、第1実施形態および第2実施形態の変形例であり、以下で特に説明する場合を除き、第1実施形態および第2実施形態と同様あるものとし、以下での説明を省略する。
本実施形態は、被検眼Eの前眼部Eaの前眼部像を取得する前眼部カメラ300Aおよび前眼部カメラ300Bが前眼部像を取得するタイミングを適切に調整する処理に関する。第1実施形態では、図6のステップS8において、前眼部カメラ300Aおよび300Bの少なくとも一方が前眼部像を取得する。本実施形態では、前眼部カメラ300Aおよび300Bの双方が、前眼部像を取得する。
本実施形態の眼科装置は、図6のステップS2のオートアライメントにおいて、2つの前眼部カメラ300Aおよび300Bにより取得される被検眼Eの2つの前眼部像を用いて処理を行っている。制御部210は、オートアライメントを実行する際に、前眼部カメラ300Aおよび300Bの垂直同期信号が同じタイミングで出力されるように制御する。
図13に示すように、制御部210は、時刻T1,T3,T5,T7,T9,T11のタイミングで、前眼部カメラ300Aおよび300Bの垂直同期信号を出力する。前眼部カメラ300Aおよび300Bのそれぞれにおいて、垂直同期信号の出力間隔は、一定の第1フレームレートFr1となっている。
ステップS2で実行するオートアライメントは、2つの前眼部カメラ300Aおよび300Bにより取得される被検眼Eの2つの前眼部像から検査用光学系の移動方向および移動距離を求めるものである。そのため、オートアライメントのために用いる2つの前眼部像は、同じタイミングで取得する必要がある。そこで、図6のステップS2のオートアライメントにおいて、制御部210は、前眼部カメラ300Aおよび300Bの垂直同期信号が同じタイミングで出力されるように制御し、前眼部カメラ300Aおよび300Bの撮像タイミングを一致させている。
本実施形態の眼科装置は、図6のステップS7で開始されるOCT計測において、2つの前眼部カメラ300Aおよび300Bにより取得される被検眼Eの2つの前眼部像を用いて処理を行っている。制御部210は、OCT計測を開始した後は前眼部カメラ300Aおよび300Bの垂直同期信号が異なるタイミングで出力されるように制御し、前眼部カメラ300Aおよび300Bの撮像タイミングを異ならせている。
図14に示すように、制御部210は、時刻T1,T3,T5,T7,T9,T11のタイミングで、前眼部カメラ300Aの垂直同期信号を出力する。また、制御部210は、時刻T2,T4,T6,T8,T10,T12のタイミングで、前眼部カメラ300Bの垂直同期信号を出力する。前眼部カメラ300Aおよび300Bのそれぞれにおいて、垂直同期信号の出力間隔は、一定の第1フレームレートFr1となっている。そのため、前眼部カメラ300Aおよび300Bは、それぞれ同一の第1フレームレートFr1で前眼部像を連続的に撮像する。
図14に示すように、前眼部カメラ300Aの垂直同期信号を出力するタイミングと、前眼部カメラ300Bの垂直同期信号を出力するタイミングは、第2フレームレートFr2だけずれている。そのため、前眼部カメラ300A及び前眼部カメラ300Bを1つの撮像部としてみた場合、この撮像部のフレームレートは第2フレームレートFr2となる第2フレームレートFr2は、第1フレームレートFr1の半分の間隔である。
OCT計測の実行中に、制御部210は、前眼部カメラ300Aおよび前眼部カメラ300Bにより前眼部像を取得し、瞳孔に相当する画像領域を特定している。ステップS8で前眼部像を取得する時間間隔が短い(フレームレートが高い)ほど、OCT計測不可の走査点を確実に記憶することができる。
そのため、制御部210は、OCT計測を開始した後(ステップS7の後)、前眼部カメラ300Aの垂直同期信号を出力するタイミング(撮像タイミング)と、前眼部カメラ300Bの垂直同期信号を出力するタイミング(撮像タイミング)を第2フレームレートFr2だけずらすように制御している。これにより、前眼部像のみかけ上の取得間隔が第1フレームレートFr1の半分の第2フレームレートFr2となり、OCT計測不可の走査点を確実に記憶することができる。
本実施形態の眼科装置によれば、被検眼Eの3次元位置を算出して被検眼Eに対する検査用光学系の所定の位置関係を維持するオートアライメントを実行する場合には、前眼部カメラ300Aおよび前眼部カメラ300Bの撮像タイミングを一致させて被検眼Eの3次元位置を精度よく算出することができる。
一方、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを判定する場合には、前眼部カメラ300Aおよび前眼部カメラ300Bの撮像タイミングを異ならせることで、前眼部カメラ300の撮像間隔(フレームレート)を短くすることができる。前眼部カメラ300の撮像間隔が短くなると、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを判定する間隔が短くなり、判定の精度が向上する。
なお、本実施形態では、前眼部カメラ300A及び前眼部カメラ300Bの2つのカメラについて説明したが、2以上の複数の前眼部カメラを用いるようにしてもよい。2以上の複数の前眼部カメラを用いる場合、オートアライメントを実行する際には、すべての前眼部カメラの撮像タイミングを一致させる。一方、OCTユニット100が走査領域Rを検査可能な状態であるかどうかを判定する際には、複数の前眼部カメラの撮像タイミングを異ならせる。
以上、本発明の実施形態について説明した。しかし、本発明は、上記実施形態に限定されず、特許請求の範囲を逸脱しない範囲で種々の変更を行うことができる。上記実施形態の構成は、その一部を省略したり、上記とは異なるように任意に組み合わせたりすることができる。
上記の実施形態を実現するためのコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD-ROM/DVD-RAM/DVD-ROM/MO等)、磁気記憶媒体(ハードディスク等)などを用いることが可能である。