JP2010110656A - Tomographic image photographing apparatus, tomographic image photographing method, program and program storing medium - Google Patents
Tomographic image photographing apparatus, tomographic image photographing method, program and program storing medium Download PDFInfo
- Publication number
- JP2010110656A JP2010110656A JP2010030452A JP2010030452A JP2010110656A JP 2010110656 A JP2010110656 A JP 2010110656A JP 2010030452 A JP2010030452 A JP 2010030452A JP 2010030452 A JP2010030452 A JP 2010030452A JP 2010110656 A JP2010110656 A JP 2010110656A
- Authority
- JP
- Japan
- Prior art keywords
- image
- eye
- tomographic
- examined
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 51
- 238000012545 processing Methods 0.000 claims abstract description 130
- 230000004397 blinking Effects 0.000 claims abstract description 17
- 210000004204 blood vessel Anatomy 0.000 claims description 92
- 238000003384 imaging method Methods 0.000 claims description 64
- 238000003325 tomography Methods 0.000 claims 4
- 230000001186 cumulative effect Effects 0.000 claims 2
- 238000003672 processing method Methods 0.000 claims 2
- 238000006073 displacement reaction Methods 0.000 abstract description 3
- 230000003287 optical effect Effects 0.000 abstract description 3
- 210000001508 eye Anatomy 0.000 description 90
- 238000012014 optical coherence tomography Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 11
- 108091008695 photoreceptors Proteins 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 230000010354 integration Effects 0.000 description 6
- 210000005252 bulbus oculi Anatomy 0.000 description 5
- 201000010099 disease Diseases 0.000 description 5
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 5
- 210000004126 nerve fiber Anatomy 0.000 description 5
- 206010025421 Macule Diseases 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000002207 retinal effect Effects 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 230000004424 eye movement Effects 0.000 description 3
- 210000000744 eyelid Anatomy 0.000 description 3
- 210000004379 membrane Anatomy 0.000 description 3
- 239000012528 membrane Substances 0.000 description 3
- 210000003583 retinal pigment epithelium Anatomy 0.000 description 3
- 230000004323 axial length Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000004410 intraocular pressure Effects 0.000 description 2
- 210000002189 macula lutea Anatomy 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 210000000608 photoreceptor cell Anatomy 0.000 description 2
- 238000012958 reprocessing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 230000004304 visual acuity Effects 0.000 description 2
- 201000004569 Blindness Diseases 0.000 description 1
- 241000270295 Serpentes Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013399 early diagnosis Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000005081 epithelial layer Anatomy 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000003733 optic disk Anatomy 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 239000000790 retinal pigment Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
Description
本発明は、眼部の画像撮影を支援する断層像撮影システムに関し、特に眼部の断層像を用いた断層像撮影システムに関する。 The present invention relates to a tomographic imaging system that supports imaging of an eye part, and more particularly to a tomographic imaging system using a tomographic image of an eye part.
生活習慣病や失明原因の上位を占める各種疾病の早期診断を目的として,眼部の検査が広く行われている。検診等においては眼部全体における疾病を見つけることが求められるため、眼部の広い範囲にわたる像(以下,広域像と呼ぶ)を用いた検査が必須となる。広域像は例えば、眼底カメラや走査型レーザー検眼鏡(SLO;Scanning Laser Ophthalmoscope)を用いて撮像される。一方、光干渉断層計(OCT;Optical Coherence Tomography)などの眼部断層像撮像装置は、網膜層内部の状態を3次元的に観察することが可能であるため、疾病の診断をより的確に行うのに有用であると期待されている。なお、以下ではOCTで撮像された画像を断層画像、断層像ボリュームデータと呼ぶこととする。 Eye examinations are widely performed for the purpose of early diagnosis of lifestyle-related diseases and various diseases that account for the top causes of blindness. In medical examinations and the like, since it is required to find a disease in the entire eye part, examination using an image over a wide range of the eye part (hereinafter referred to as a wide area image) is essential. The wide area image is captured using, for example, a fundus camera or a scanning laser opthalmoscope (SLO). On the other hand, an ophthalmic tomographic imaging apparatus such as an optical coherence tomography (OCT) can observe the state inside the retinal layer three-dimensionally, and thus diagnoses the disease more accurately. It is expected to be useful. Hereinafter, an image captured by OCT is referred to as tomographic image and tomographic image volume data.
光干渉断層計で眼部の撮影を行う場合、撮影開始から終了までに多少の時間がかかるため、この間に被検眼が不意に動いてしまったり、瞬きをしたりすることで、画像にずれや歪みが生じてしまうことがあるが、撮影中にはこれらに気付かないこともある。また、撮影後の撮影データ確認作業において、画像データ量が膨大であるため、見落とす場合もあった。そして、この確認作業は容易ではないため、医師の診断ワークフローが非効率であった。 When taking an image of the eye with an optical coherence tomography, it takes some time from the start to the end of the acquisition, so if the subject's eye moves suddenly or blinks during this time, Although distortion may occur, they may not be noticed during shooting. Further, in the photographing data confirmation work after photographing, the amount of image data is enormous, so it may be overlooked. And since this confirmation work is not easy, the diagnosis workflow of a doctor was inefficient.
これらの問題に対して、撮影時に瞬きを検出する技術(特許文献1参照)や、被検眼が動いたことによる断層像の位置ずれを補正する技術(特許文献2参照)が開示されている。 To solve these problems, a technique for detecting blinking at the time of photographing (see Patent Document 1) and a technique for correcting a positional shift of a tomographic image due to movement of an eye to be examined (see Patent Document 2) are disclosed.
しかしながら、従来の技術では以下の課題があった。 However, the conventional techniques have the following problems.
上述の特許文献1に記載の方法は、瞼開閉検知器で瞬きを検知し、閉瞼レベルから開瞼レベルに切り替わった時に、遅延時間設定器により設定された所定時間後に撮影をするものである。そのため、瞬きの検出は出来るが、被検眼の動きによる画像のずれや歪みを検出することは出来ない。従って、被検眼の動きを含めた撮影状態を取得することは出来ない。 The method described in Patent Document 1 described above is to detect a blink with the eyelid opening / closing detector and take a picture after a predetermined time set by the delay time setting device when switching from the eyelid level to the eyelid level. . Therefore, although blinking can be detected, it is not possible to detect image shift or distortion due to the movement of the eye to be examined. Therefore, it is not possible to acquire the imaging state including the movement of the eye to be examined.
また、特許文献2に記載の方法は、参照画像(2以上の断層像と直交する1枚の断層像、あるいは眼底画像)を用いて2以上の断層像間の位置合わせを行うものである。そのため、目が大きく動いてしまった場合には断層像間を補正するものであって正確な画像を作成することが出来ない。また、撮影の際の被検眼の状態である撮影状態を捉える思想はない。
In addition, the method described in
上記の目的を達成するための、本発明の一態様による断層像撮影装置は、以下の構成を備える。すなわち、被検眼の断層像の連続性を示す情報を取得する画像処理手段と、
前記画像処理手段で取得した情報に基づいて前記被検眼の撮影状態を判定する判定手段と、
再度被検眼の撮影を行うか否かの指示を取得する取得手段と、
を備える。
In order to achieve the above object, a tomographic imaging apparatus according to one aspect of the present invention has the following arrangement. That is, image processing means for acquiring information indicating continuity of tomographic images of the eye to be examined;
Determination means for determining a photographing state of the eye to be examined based on information acquired by the image processing means;
Acquisition means for acquiring an instruction as to whether or not to image the eye to be examined again;
Is provided.
また、本発明の他の態様による被検眼の撮影状態を判定する断層像撮影方法は、
被検眼の断層像の連続性を示す情報を取得する画像処理工程と、
前記画像処理工程で取得した情報に基づいて前記被検眼の撮影状態を判定する判定工程と、
再度被検眼の撮影を行うか否かの指示を取得する取得工程と、
を備える。
Further, a tomographic imaging method for determining the imaging state of the eye to be examined according to another aspect of the present invention,
An image processing step for acquiring information indicating continuity of tomographic images of the eye to be examined;
A determination step of determining a photographing state of the eye to be examined based on the information acquired in the image processing step;
An acquisition step of acquiring an instruction as to whether or not to image the eye to be examined again;
Is provided.
本発明の構成により、断層像の連続性、正確性のいずれかを判断する事が出来る。あるいは、被検眼の撮影状態を判定することができる。 With the configuration of the present invention, it is possible to determine either continuity or accuracy of tomographic images. Alternatively, the photographing state of the eye to be examined can be determined.
以下、本発明を実施するための最良の形態について、図面を用いて詳細に説明する。ただし、発明の範囲は図示例に限定されるものではない。 Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
(第1の実施形態)
本実施形態に係る画像処理装置は、被検眼(検査対象である眼)の断層像取得時に、断層像ボリュームデータから積算像を作成し、積算像から得られる画像特徴の連続性を利用して、撮影画像の正確性を判断する。
(First embodiment)
The image processing apparatus according to the present embodiment creates an integrated image from tomographic volume data when acquiring a tomographic image of an eye to be examined (an eye to be inspected), and uses the continuity of image characteristics obtained from the integrated image. Determine the accuracy of the captured image.
図1は、本実施形態に係る画像処理システム10と接続される機器の構成図である。図1に示すように、画像処理システム10は、断層像撮像装置20及びデータサーバ40と、イーサネット(登録商標)等によるローカル・エリア・ネットワーク(LAN)30を介して接続されている。なお、これらの機器との接続は、光ファイバ、USBやIEEE1394等のインターフェースを介して行ってもよい。またと光ファイバ、USBやIEEE1394等のインターフェースを介して接続される。断層像撮像装置20は、データサーバ40と、イーサネット(登録商標)等によるローカル・エリア・ネットワーク(LAN)30を介して接続されている。なお、これらの機器との接続は、インターネット等の外部ネットワークを介して接続される構成であってもよい。
FIG. 1 is a configuration diagram of devices connected to the
断層像撮像装置20は、眼部の断層像を撮像する装置であり、例えばタイムドメイン方式のOCTやフーリエドメイン方式のOCTからなる。断層像撮像装置20は、不図示の操作者による操作に応じて、不図示の被検眼の断層像を3次元的に撮像する。そして、得られた断層像を画像処理システム10へと送信する。
The tomographic
データサーバ40は、被検眼の断層像や被検眼から取得した情報などを保持するサーバである。データサーバ40は、断層像撮像装置20が出力する被検眼の断層像や、画像処理システム10が出力する結果を保存する。また、画像処理システム10からの要求に応じて、被検眼に関する過去のデータを画像処理システム10へと送信する。
The data server 40 is a server that holds a tomographic image of the eye to be examined, information acquired from the eye to be examined, and the like. The data server 40 stores the tomographic image of the eye to be examined output from the
次に、図2を用いて、本実施形態に係る画像処理システム10の機能構成を説明する。図2は画像処理システム10の機能ブロック図である。図2に示す通り、画像処理システム10は、被検眼情報取得部210、画像取得部220、指示取得部230、記憶部240、画像処理装置250、表示部260、及び結果出力部270を備えて構成される。
Next, the functional configuration of the
被検眼情報取得部210は、被検眼を同定する情報を外部から取得する。ここで、被検眼を同定する情報とは、例えば、夫々の被検眼に割りあてられた被検者識別番号である。なお、これ以外に、被検眼を同定する情報として、被検者の識別番号と、検査対象が右眼であるか左眼であるかを表す識別子を組み合わせて用いてもよい。
The eye
被検眼を同定する情報は、操作者によって入力される。なお、データサーバ40が被検眼を同定する情報を保持している場合には、この情報をデータサーバ40から取得する構成としてもよい。 Information for identifying the eye to be examined is input by the operator. In addition, when the data server 40 holds information for identifying the eye to be examined, the information may be acquired from the data server 40.
画像取得部220は、断層像撮像装置20から送信される断層像を取得する。なお、以下の説明では、画像取得部220が取得した断層像は、被検眼情報取得部210において同定される被検眼のものであることを前提とする。また、断層像には断層像の撮像に関する各種のパラメータが情報として付帯しているものとする。
The
指示取得部230は、操作者が入力する処理の指示を取得する。例えば、撮影処理の開始、中断、終了、再撮影の指示や、撮影画像を保存するか否かの指示、保存場所の指示等を取得する。指示取得部230が取得した指示の内容は、必要に応じて画像処理装置250や結果出力部270へと送信される。
The
記憶部240は、被検眼情報取得部210が取得した被検眼に関する情報を一時的に保持する。また、画像取得部220が取得した当該被検眼の断層像を一時的に保持する。さらに、後述する画像処理装置250による断層像から取得した情報を一時的に保持する。これらのデータは、必要に応じて、画像処理装置250、表示部260、及び結果出力部270へと送信される。
The storage unit 240 temporarily holds information on the eye to be examined acquired by the eye
画像処理装置250は、記憶部240が保持している断層像を得て、断層像ボリュームデータの連続性を判定するための処理を当該断層像に対して実行する。画像処理装置250は、積算像作成部251、画像処理部252、判定部253で構成される。
The image processing apparatus 250 obtains tomographic images held in the storage unit 240 and executes processing for determining the continuity of tomographic image volume data on the tomographic images. The image processing apparatus 250 includes an integrated
積算像作成部251は、各断層像を深度方向に積算した積算像を作成する。積算像作成部251は、断層像撮像装置20によって撮影されたn個の2次元断層像の夫々について深度方向に積算する処理を行う。ここで、2次元断層像を断面像と呼ぶこととする。断面像には例えば、B−scan像、A−scan像が含まれる。積算像作成部251が実行する具体的処理の内容は、後に詳しく説明する。
The integrated
画像処理部252は、断層像から3次元での連続性を判定するための情報を抽出する。画像処理部252が実行する具体的処理の内容は、後に詳しく説明する。 The image processing unit 252 extracts information for determining three-dimensional continuity from the tomographic image. Details of specific processing executed by the image processing unit 252 will be described in detail later.
判定部253は、画像処理部252が抽出した情報に基づいて、断層像ボリュームデータ(以下断層像と呼ぶ場合もある)の連続性を判定する。判定部253が、断層像ボリュームデータが不連続であると判定すると、その結果を表示部260で表示する。判定部253が実行する具体的処理の内容は、後に詳しく説明する。また、判定部253は、画像処理部252が抽出した情報に基づいて、被検眼の動きの程度、瞬きの有無を判断する。
The
表示部260は、画像取得部220で取得した断層像や、画像処理装置250で断層像を処理した結果をモニタに表示する。表示部260での具体的な表示内容は、後に詳しく説明する。
The
結果出力部270は、検査日時と、被検眼を同定する情報と、被検眼の断層像と、画像処理部220によって得られた解析結果とを関連付けて、保存すべき情報としてデータサーバ40へと送信する。
The
図8は、画像処理システム10の各部の機能をソフトウェアで実現するためのコンピュータの基本構成を示す図である。
FIG. 8 is a diagram illustrating a basic configuration of a computer for realizing the functions of the respective units of the
CPU701は、RAM702やROM703に格納されたプログラムやデータを用いてコンピュータ全体の制御を行う。また、画像処理システム10の各部に対応するソフトウェアの実行を制御して、各部の機能を実現する。なお、プログラムはプログラム記憶媒体からRAM702やROM703に格納することも出来る。
The
RAM702は、外部記憶装置704からロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPU701が各種の処理を行うために必要とするワークエリアを備える。記憶部240の機能はRAM702によって実現される。
The
ROM703は、一般にコンピュータのBIOSや設定データなどが格納されている。外部記憶装置704は、ハードディスクドライブなどの大容量情報記憶装置として機能する装置であって、ここにオペレーティングシステムやCPU701が実行するプログラム等を保存する。また本実施形態の説明において既知としている情報はここに保存されており、必要に応じてRAM702にロードされる。
The
モニタ705は、液晶ディスプレイなどにより構成されている。例えば、表示部260が出力する内容を表示することができる。
The
キーボード706、マウス707は入力デバイスであり、操作者はこれらを用いて、各種の指示を画像処理システム10に与えることができる。被検眼情報取得部210や指示取得部230の機能は、これらの入力デバイスを介して実現される。
A
インターフェイス708は、画像処理システム10と外部の機器との間で各種データのやりとりを行うためのものであり、IEEE1394やUSB、イーサネット(登録商標)ポート等によって構成される。インターフェイス708を介して取得したデータは、RAM702に取り込まれる。画像取得部220や結果出力部270の機能は、インターフェース708を介して実現される。
The
上述した各構成要素は、バス709によって相互に接続される。
Each component described above is connected to each other by a
次に、図3のフローチャートを参照して、本実施形態の画像処理システム10の処理手順を説明する。なお、本実施形態における画像処理システム10の各部の機能は、各部の機能を実現するプログラムをCPU701が実行し、コンピュータ全体を制御することで実現される。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、例えば外部記憶装置704からRAM702に既にロードされているものとする。
Next, the processing procedure of the
<ステップS301>
ステップS301において、被検眼情報取得部210は、被検眼を同定する情報として被験者識別番号を外部から取得する。この情報は、キーボード706やマウス707、あるいは不図示のカードリーダを介して、操作者によって入力される。そして、被験者識別番号に基づいて、データサーバ40が保持している当該被検眼に関する情報を取得する。当該被検眼に関する情報とは、例えば、患者の氏名、年齢、性別などを取得する。さらに、他の検査情報として、視力、眼軸長や眼圧などの測定データがある場合は、その測定データを取得してもよい。そして、取得した情報を記憶部240へと送信する。
<Step S301>
In step S301, the eye
ステップS301において、同一眼に対する再撮影の場合には、ここの処理をスキップしてもよいし、新たに追加される情報がある場合には、その情報を取得する。 In step S301, in the case of re-shooting with the same eye, this processing may be skipped, and when there is information to be newly added, that information is acquired.
<ステップS302>
ステップS302において、画像取得部220は、断層像撮像装置20から送信される断層像を取得する。そして、取得した情報を記憶部240へと送信する。
<Step S302>
In step S <b> 302, the
<ステップS303>
ステップS303において、積算像作成部251は、断面像(例えばB−scan像)を深度方向に積算した積算像を作成する。
<Step S303>
In step S303, the integrated
以下、積算像作成部251の処理について図4を用いて説明をする。図4は、断面像と積算像の一例を示す図である。図4(a)は、黄斑部の断面像T1〜Tnであり、図4(b)は断面像T1〜Tnから作成した積算像Pである。深度方向とは、図4(a)のz方向であり、深度方向に積算するとは、図4(a)のz方向の各深度位置における光強度(輝度値)を足し合わせる処理である。積算像Pは、各深度位置における輝度値を単純加算した値でもよいし、加算値を加算数で割った平均値でもよい。積算像Pは、深度方向に全画素の輝度値を加算する必要はなく、任意の範囲のみ加算するようにしてもよい。例えば、事前に網膜層全体を検出しておいて、網膜層内のみ加算してもよい。さらには、網膜層内の任意の層のみ加算してもよい。積算像作成部251は、断層像撮像装置20によって撮影されたn個の断面像T1〜Tnの夫々について深度方向に積算する処理を行い、積算像Pを作成する。図4(b)の積算像は、積算値が大きいほど輝度値が明るく、積算値が小さいほど輝度値が暗くなるように表している。図4(b)の積算像P内の曲線Vは血管を示しており、画像中心の円Mは黄斑部を示している。断層像撮像装置20は、低コヒーレンス光源から照射した光の反射光を、受光素子で受光することにより眼部の断面像T1〜Tnを撮像する。血管がある場所は、血管より深部の位置における光の反射光強度は弱くなりやすく、z方向に積算した値は、血管がない場所に比べて小さくなる。そのため、積算像Pを作成することで、血管とそれ以外でのコントラストのある画像を得ることが出来る。
Hereinafter, the processing of the integrated
<ステップS304>
ステップS304において、画像処理部252は、積算像から断層像ボリュームデータの連続性を判定するための取得した情報を抽出する。
<Step S304>
In step S304, the image processing unit 252 extracts the acquired information for determining the continuity of tomographic volume data from the integrated image.
画像処理部252は、積算像から断層像ボリュームデータの連続性を判定するための情報として血管を検出する。血管の検出方法は一般に知られている技術であり詳述しない。血管検出の方法は1手法に限定する必要はなく、複数の手法を組み合わせてもよい。 The image processing unit 252 detects a blood vessel as information for determining the continuity of tomographic volume data from the integrated image. The blood vessel detection method is a generally known technique and will not be described in detail. The blood vessel detection method need not be limited to one method, and a plurality of methods may be combined.
<ステップS305>
ステップS305において、判定部253は、ステップS304で取得した血管に対して処理を行い、断層像ボリュームデータの連続性を判定する。
<Step S305>
In step S305, the
以下、判定部253の具体的な処理について、図5を用いて説明する。図5は積算像の一例を示す図である。図5(a)は、撮影に成功した場合の黄斑部積算像Paを示し、図5(b)は、撮影に失敗した場合の黄斑部積算像Pbの一例を示している。なお、図5の場合においては、OCTの撮影時スキャン方向はx方向に平行とする。眼部の血管は視神経乳頭に血管が集中し、視神経乳頭から黄斑部に血管が走行しているため、黄斑部付近には血管が集中している。また、血管の端部を以下、血管端と呼ぶこととする。断層像における血管端は、被検者の血管の端部を撮像している場合と、撮影の際の被検者の眼球の動きなど血管が途切れて血管端として撮像される場合がある。
Hereinafter, specific processing of the
画像処理部252は、黄斑部付近に集中する血管から各血管を追跡し、追跡済みの血管には追跡済みのラベルをつける。そして、追跡済みの血管端の位置座標を位置情報として記憶部240に記憶しておく。そして、OCTの撮影時スキャン方向(x方向)に平行な同一直線上に存在する血管端の位置座標をまとめてカウントする。これは断面像上の血管端の数を代表するものである。 The image processing unit 252 tracks each blood vessel from blood vessels concentrated near the macula, and attaches a tracked label to the tracked blood vessel. The tracked blood vessel end position coordinates are stored in the storage unit 240 as position information. Then, the position coordinates of the blood vessel ends existing on the same straight line parallel to the scanning direction (x direction) during OCT imaging are counted together. This is representative of the number of blood vessel ends on the cross-sectional image.
例えば、同一のy座標に存在する点(x1、yi)、(x2、yi)、(x3、yi)・・・(xn−1、yi)、(xn、yi)をまとめてカウントする。図5(a)のようにOCTの撮影に成功している場合には、OCTの撮影時スキャン方向に平行な同一直線上に血管端の座標が集中することは少ない。しかし、図5(b)のようにOCTの撮影に失敗している場合には、断面像(B−scan像)間で位置ずれがおきるため、位置ずれが起きた境界の同一直線上に血管端が集中する。そのため、OCTの撮影時スキャン方向(x方向)に平行な同一直線上に血管端座標が複数存在する場合は、撮影失敗の可能性が高い。判定部253は、撮影失敗の判定を、血管端の集中度数の閾値Thで判断する。例えば、以下の式(1)に基づいて判断する。ここで、Cyは血管端の集中度数であり、添え字はy座標を表し、Yは画像サイズを表している。血管端の集中度数が閾値以上であれば、不連続であると判断する。つまり、断面像上の血管端の数が閾値以上であれば、不連続であると判断する。
For example, the points (x 1 , y i ), (x 2 , y i ), (x 3 , y i ) (x n−1 , y i ), (x n , y i ) are counted together. When the OCT imaging is successful as shown in FIG. 5A, the coordinates of the blood vessel end are rarely concentrated on the same straight line parallel to the scanning direction during the OCT imaging. However, when the OCT imaging has failed as shown in FIG. 5B, the position shift occurs between the cross-sectional images (B-scan images), so the blood vessels are on the same straight line at the boundary where the position shift has occurred. The edges are concentrated. Therefore, when there are a plurality of blood vessel end coordinates on the same straight line parallel to the scanning direction (x direction) during OCT imaging, there is a high possibility of imaging failure. The
そのための閾値Thは、数による固定の閾値でも良いし、血管端座標数の全合計に対する同一直線上の血管端座標数の割合を閾値としても良い。あるいは、統計データに基づいて閾値を設定してもよいし、患者情報(年齢、性別、人種)に基づいて閾値を設定してもよい。血管端の集中度は、同一直線上に限定する必要はなく、血管検出のばらつきも考慮して、連続した2以上の同一直線上の血管端座標を用いて判断しても良い。さらに、血管端が画像サイズの端に位置する場合は、血管が画像外に連結しているとして、その座標点はカウントから除いてもよい。ここで、血管端が画像サイズの端に位置するとは、画像サイズ(X、Y)の時、血管端座標が(0、yj)、(X−1、yj)や(xj、0)、(xj、Y−1)の場合である。なおこの場合、画像端に限定する必要はなく、画像端から数ピクセル内側に余裕をもたせてもよい。 For this purpose, the threshold Th may be a fixed threshold based on the number, or the ratio of the number of blood vessel end coordinates on the same straight line to the total number of blood vessel end coordinates may be used as the threshold. Alternatively, a threshold value may be set based on statistical data, or a threshold value may be set based on patient information (age, sex, race). The degree of concentration of the blood vessel ends need not be limited to the same straight line, and may be determined using two or more consecutive blood vessel end coordinates on the same straight line in consideration of variations in blood vessel detection. Furthermore, when the end of the blood vessel is positioned at the end of the image size, the coordinate point may be excluded from the count, assuming that the blood vessel is connected outside the image. Here, the end of the blood vessel is positioned at the end of the image size. When the image size is (X, Y), the blood vessel end coordinates are (0, y j ), (X-1, y j ) or (x j , 0 ), (X j , Y−1). In this case, it is not necessary to limit to the edge of the image, and a margin may be provided on the inside of several pixels from the edge of the image.
<ステップS306>
ステップS306において、表示部260は、ステップS302で取得した断層像,断面像をモニタ705に表示する。例えば、図4の(a)や(b)で模式的に示すような画像が表示される。ここで、断層像は3次元データであるので、実際にモニタ705に表示されるのは、そこから何れかの注目断面を切り出した断面像であり、二次元断層像となる。なお、表示する断面像は、不図示のGUI(スライダーやボタン)等を介して操作者が任意に選択できる構成であることが望ましい。また、ステップS301で取得した患者データを並べて表示できる構成であってもよい。
<Step S306>
In step S306, the
ステップS306では、ステップS305で、判定部253が断層像ボリュームデータの不連続性を判定した場合、その旨を表示部260に表示する。図6は、画面表示の一例を示す図である。図6では、不連続性を検出した境界の前後の断層像Tm−1とTmを表示し、積算像Pbと位置ずれ箇所を示すマーカーSを表示している。表示例はこれに限定する必要はなく、不連続性を検出した境界のどちらかの断層像を表示するのでもよいし、画像は表示せず不連続性を検出した旨のみを表示するのでも良い。
In step S306, when the
図7の(A)は眼球移動があった箇所を矢印で示しており、(B)は瞬きがあった箇所を矢印で示している。(C)は、血管端の断面画像上での数である血管集中度の値と被検眼の状態の関係を示した図であり、瞬きをした場合には血管が完全に断絶するため血管集中度は高くなる。また、目の動きが高いほど断面像上での血管位置が断面像間で揺動するため、血管集中度は高くなる傾向が見られる。つまり、血管集中度は、被検眼の動き、瞬きなどの撮影状態を示している。また、画像処理部252は、断面画像間の類似度を算出することも出来る。類似度は、例えば断面像間の相関値などを用いる。相関値は断面画像の画素毎の値から計算される。類似度が1の場合は、断面画像は同一であることをしめし、類似度が下がるほど眼球の動きがあったことを示している。瞬きがあった場合には、類似度は0に近付く。従って、断面像間の類似性からも被検眼の動きの程度、瞬きの有無などの撮影状態を取得することが出来る。類似度と断面像の位置との関係を図7(D)に示す。 (A) of FIG. 7 has shown the location where the eyeball moved, with the arrow, (B) has shown the location where blinking was shown with the arrow. (C) is a diagram showing the relationship between the value of the degree of blood vessel concentration, which is the number on the cross-sectional image of the blood vessel end, and the state of the eye to be examined. The degree will be higher. Further, since the blood vessel position on the cross-sectional images fluctuates between the cross-sectional images as the eye moves higher, the blood vessel concentration tends to increase. That is, the blood vessel concentration degree indicates a photographing state such as movement of the eye to be examined and blinking. The image processing unit 252 can also calculate the similarity between cross-sectional images. For the similarity, for example, a correlation value between cross-sectional images is used. The correlation value is calculated from the value for each pixel of the cross-sectional image. When the similarity is 1, it is shown that the cross-sectional images are the same, and the eyeball moves as the similarity decreases. When there is a blink, the similarity approaches 0. Therefore, it is possible to acquire the photographing state such as the degree of movement of the eye to be examined and the presence or absence of blinking from the similarity between the cross-sectional images. FIG. 7D shows the relationship between the similarity and the position of the cross-sectional image.
このように判定部253は、断層像の連続性を判定するとともに、被検眼の動き、瞬きなどの撮影状態を判定する。
As described above, the
<ステップS307>
ステップS307において、指示取得部230は、再度被検眼の撮影を行うか否かの指示を外部から取得する。この指示は、例えばキーボード706やマウス707を介して、操作者によって入力される。そして、撮り直しが指示された場合はステップS301に処理を戻して、同一被検眼に対する再処理を実行する。撮り直しが指示されなかった場合はステップS308へと処理を進める。
<Step S307>
In step S307, the
<ステップS308>
ステップS308において、指示取得部230は、被検眼に関する今回の処理の結果を、データサーバ40へ保存するか否かの指示を外部から取得する。この指示は、例えばキーボード706やマウス707を介して、操作者によって入力される。そして、保存が指示された場合はステップS309へと処理をすすめ、保存が指示されなかった場合はステップ310へと処理を進める。
<Step S308>
In step S308, the
<ステップS309>
ステップS309において、結果出力部270は、検査日時と、被検眼を同定する情報と、被検眼の断層像と、画像処理部220によって得られた情報とを関連付けて、保存すべき情報としてデータサーバ40へと送信する。
<Step S309>
In step S309, the
<ステップS310>
ステップS310において、指示取得部230は、画像処理システム10による断層像の処理を終了するか否かの指示を外部から取得する。この指示は、キーボード706やマウス707を介して、操作者によって入力される。処理を終了する指示を取得した場合には、画像処理システム10はその処理を終了する。一方、処理を継続する指示を取得した場合には、ステップS301に処理を戻して、次の被検眼に対する処理(あるいは、同一被検眼に対する再処理)を実行する。
<Step S310>
In step S310, the
以上によって、画像処理システム10の処理が行われる。
As described above, the processing of the
以上で述べた構成によれば、断層像ボリュームデータから作成した積算像から断層像の連続性を判断し、その結果を医師に提示する。したがって、医師は、眼部における断層像の正確性を容易に判断する事が可能となり、医師の診断ワークフローの効率を向上させることが出来る。さらに、OCTの撮影の際における被検眼の動き、瞬きなどの撮影状態を取得することが出来る。 According to the configuration described above, the continuity of tomographic images is determined from the integrated image created from the tomographic image volume data, and the result is presented to the doctor. Therefore, the doctor can easily determine the accuracy of the tomographic image in the eye, and the efficiency of the doctor's diagnosis workflow can be improved. Furthermore, it is possible to acquire imaging states such as eye movement and blinking during OCT imaging.
(第2の実施形態)
本実施形態では、画像処理部252の処理内容が異なり、第一の実施形態と同様の処理は説明を省略する。
(Second Embodiment)
In the present embodiment, the processing content of the image processing unit 252 is different, and the description of the same processing as in the first embodiment is omitted.
画像処理部252は積算像からエッジ領域を検出し、断層像の撮影時スキャン方向に平行なエッジ領域を検出することで断層像ボリュームデータを構成する断面像間の類似性を数値化する。 The image processing unit 252 detects an edge region from the integrated image, and detects the edge region parallel to the scanning direction at the time of capturing the tomographic image, thereby quantifying the similarity between the cross-sectional images constituting the tomographic image volume data.
撮影時に眼が動いたことにより、網膜の離れた位置を撮影した断層像ボリュームデータで積算像を作成した場合、位置ずれした場所では、網膜層厚の違いなどにより積算値が異なる。 When an integrated image is created using tomographic volume data obtained by imaging the distant position of the retina due to eye movement at the time of imaging, the integrated value differs depending on the difference in retinal layer thickness, etc., at a position that is misaligned.
あるいは、撮影中に瞬きをした場合には、積算値が0か極端に低くなる。そのため、位置ずれや瞬きした境界では輝度差が生じる。図9は、積算像と勾配画像の一例を示す図である。 Alternatively, when a blink occurs during shooting, the integrated value is 0 or extremely low. For this reason, a luminance difference occurs at a position shift or a blinking boundary. FIG. 9 is a diagram illustrating an example of the integrated image and the gradient image.
図9では、断層像の撮影時スキャン方向をx方向に平行とする。図9(a)は位置ずれした積算像Pbであり、図9(b)は積算像Pbから作成したエッジ画像Pb’の例を示す。図9(b)において、符号Eは断層像の撮影時スキャン方向(x方向)に平行なエッジ領域を表す。エッジ画像Pb’は、積算像Pbに平滑化フィルタを適用してノイズ成分を除去し、SobelフィルタやCannyフィルタなどのエッジ検出フィルタを適用して作成する。ここで適用するフィルタは、方向性をもたないフィルタでも良いし、方向性を考慮したフィルタでもよい。ただし、方向性を考慮する場合は、OCTの撮影時スキャン方向に平行な成分を強調するフィルタを適用する事が望ましい。 In FIG. 9, the scan direction during tomographic image capturing is parallel to the x direction. FIG. 9A shows an integrated image P b that is displaced, and FIG. 9B shows an example of an edge image P b ′ created from the integrated image P b . In FIG. 9B, the symbol E represents an edge region parallel to the scan direction (x direction) during tomographic image capturing. The edge image P b ′ is created by applying a smoothing filter to the integrated image P b to remove noise components and applying an edge detection filter such as a Sobel filter or a Canny filter. The filter applied here may be a filter having no directionality or a filter considering the directionality. However, when considering the directivity, it is desirable to apply a filter that emphasizes a component parallel to the scan direction during OCT imaging.
そして、画像処理部252は、エッジ画像Pb’からOCTの撮影時スキャン方向(x方向)に平行で閾値以上のエッジ領域が一定数連続する範囲を検出する。スキャン方向に平行(x方向)に一定数連続するエッジ領域Eを検出することで、血管のエッジやノイズと区別することが出来る。 Then, the image processing unit 252 detects, from the edge image P b ′, a range in which a certain number of edge regions that are parallel to the OCT imaging scan direction (x direction) and that are equal to or greater than the threshold value continue. By detecting a certain number of edge regions E parallel to the scan direction (x direction), it can be distinguished from blood vessel edges and noise.
断層像の連続性及び被検眼の撮影状態の判定を、画像処理部252は、一定数連続するエッジ領域Eの長さを数値化する。 In determining the continuity of tomographic images and the imaging state of the eye to be examined, the image processing unit 252 quantifies the length of a certain number of consecutive edge regions E.
そして、判定部253は閾値Th’と比較することで断層像の連続性及び被検眼の撮影状態の判定を行う。
Then, the
例えば、以下の式(2)に基づいて判定する。ここで、Eは連続するエッジ領域の長さを表している。閾値Th’は固定値でもよいし、統計データに基づいて設定してもよいし、患者情報(年齢、性別、人種)に基づいて設定してもよい。また、閾値Th’は画像サイズに応じて動的に変更する事が望ましい。例えば、画像サイズが小さい方が、閾値Th’は小さくなる。さらに、一定数連続するエッジ領域の範囲は、同一平行線上に限定する必要はなく、連続した2以上の同一平行線上において、一定数連続するエッジ領域の範囲を用いて判断しても良い。 For example, it determines based on the following formula | equation (2). Here, E represents the length of the continuous edge region. The threshold value Th ′ may be a fixed value, may be set based on statistical data, or may be set based on patient information (age, sex, race). Further, it is desirable that the threshold Th ′ is dynamically changed according to the image size. For example, the smaller the image size, the smaller the threshold Th ′. Further, it is not necessary to limit the range of the edge region that is continuous for a certain number to the same parallel line, and the determination may be made using the range of the edge region that is continuous for a certain number on two or more consecutive parallel lines.
(第3の実施形態)
本実施形態では、画像処理部252はフーリエ変換による周波数解析を行い、周波数特徴を抽出し、判定部253は、周波数領域の強度によって断層像ボリュームデータの連続性を判定する。
(Third embodiment)
In the present embodiment, the image processing unit 252 performs frequency analysis by Fourier transform and extracts frequency features, and the
図10は、積算像とパワースペクトルの一例を示す図である。図10(a)は位置ずれで撮影に失敗した積算像Pbであり、図10(b)は積算像PbのパワースペクトルPb’’である。撮影時に目が動いて位置ずれした場合か、撮影時に瞬きをした場合には、OCTの撮影時スキャン方向と直交する方向にスペクトルが検出される。 FIG. 10 is a diagram illustrating an example of an integrated image and a power spectrum. FIG. 10A shows an integrated image P b that has failed to be photographed due to a positional shift, and FIG. 10B shows a power spectrum P b ″ of the integrated image P b . When the eye moves during imaging and the position is shifted, or when blinking during imaging, a spectrum is detected in a direction orthogonal to the scanning direction during OCT imaging.
そして、判定部253は、これらの結果を用いて断層像の連続性及び被検眼の撮影状態を判定する。
Then, the
(第4の実施形態)
第1の実施形態に係る画像処理システム10は、被検眼の断層像を取得し、断層像ボリュームデータから積算像を作成し、積算像から得られる画像特徴の連続性を利用して、撮影画像の正確性を判断していた。本実施形態に係る画像処理装置も、取得した被検眼の断層像に処理を施す点は第1の実施形態と同様である。ただし、積算像を作成せずに、断層像から得られる画像特徴から断層像の連続性及び被検眼の撮影状態を判定する点が第一の実施形態とは異なっている。
(Fourth embodiment)
The
次に、図11のフローチャートを参照して、本実施形態の画像処理システム10の処理手順を説明する。なお、ステップS1001、S1002、S1005、S1006、S1007、S1008、S1009の処理は、夫々、第1の実施形態におけるステップS301、S302、S306、S307、S308、S309、S310と同様であるので、その説明は省略する。
Next, the processing procedure of the
<ステップS1003>
ステップS1003において、画像処理部252は、断層像から断層像ボリュームデータの連続性を判定するための取得した情報を抽出する。
<Step S1003>
In step S1003, the image processing unit 252 extracts the acquired information for determining the continuity of tomogram volume data from the tomogram.
画像処理部252は、断層像ボリュームデータの連続性を判定するための特徴として断層像から視細胞層を検出して、視細胞層内で輝度値の低い領域を検出する。以下、画像処理部252の具体的な処理について図12を用いて説明する。図12は、断層像の特徴を説明するための図である。図12(a)の左図は、2次元断層像Tiを示し、右図は左図の血管がない位置におけるA−scanに沿った画像のプロファイルを示している。つまり、左図はA−scanと示される線上の座標と輝度値の関係を示している。 The image processing unit 252 detects the photoreceptor layer from the tomogram as a feature for determining the continuity of the tomogram volume data, and detects a region having a low luminance value in the photoreceptor cell layer. Hereinafter, specific processing of the image processing unit 252 will be described with reference to FIG. FIG. 12 is a diagram for explaining the characteristics of a tomographic image. Left side of FIG. 12 (a) shows a two-dimensional tomographic image T i, right figure shows the profile of the image along the A-scan in vascular no position on the left. That is, the left figure shows the relationship between the coordinates on the line indicated by A-scan and the luminance value.
そして、図12(b)は、(a)と同様の図であり、血管がある場合を図示している。2次元断層像Ti、Tjにおいて、1は内境界膜、2は神経線維層境界、3は網膜色素上皮層、4は視細胞内節外節接合部、5は視細胞層、6は血管領域、7は血管下の領域を表している。 FIG. 12B is a view similar to FIG. 12A and illustrates a case where there is a blood vessel. In the two-dimensional tomograms T i and T j , 1 is the inner boundary membrane, 2 is the nerve fiber layer boundary, 3 is the retinal pigment epithelial layer, 4 is the photoreceptor inner / outer node junction, 5 is the photoreceptor layer, and 6 is the photoreceptor layer. A blood vessel region 7 represents a region under the blood vessel.
画像処理部252は、断層像から層の境界を検出する。ここでは、処理対象である3次元断層像を断面像(例えばB−scan像)の集合と考え、夫々の断面像に対して以下の2次元画像処理を実行する。まず、注目する断面像に平滑化フィルタ処理を行い、ノイズ成分を除去する。そして、断層像からエッジ成分を検出し、その連結性に基づいて何本かの線分を層境界の候補として抽出する。そして、これらの候補の中から、一番上の線分を内境界膜1として選択する。また、内境界膜1の直下にある線分を、神経線維層境界2として選択し、一番下の線分を、網膜色素上皮層境界3として選択する。そして、網膜色素上皮層境界3の直上にある線分を、視細胞内節外節接合部4として選択する。そして、視細胞内節外節接合部4と網膜色素上皮層境界3で囲まれた領域を視細胞層5とする。輝度値の変化が少なく、A−scanで閾値以上のエッジ成分が検出できない場合、各層の境界は、左右あるいは全体の検出点群の座標点を用いて補間をしてもよい。
The image processing unit 252 detects a layer boundary from the tomographic image. Here, the three-dimensional tomographic image to be processed is considered as a set of cross-sectional images (for example, B-scan images), and the following two-dimensional image processing is executed for each cross-sectional image. First, smoothing filter processing is performed on the cross-sectional image of interest to remove noise components. Then, edge components are detected from the tomogram, and some line segments are extracted as layer boundary candidates based on the connectivity. Then, the uppermost line segment is selected as the inner boundary film 1 from these candidates. Further, the line segment immediately below the inner boundary film 1 is selected as the nerve
さらに、これらの線分を初期値として、Snakeやレベルセット法等の動的輪郭法を適用することで、検出精度の向上を図ってもよい。また、グラフカットのような手法を用いて層の境界を検出してもよい。なお、動的輪郭法やグラフカットを用いた境界検出は、3次元断層像を対象として3次元的に行ってもよいし、処理対象である3次元断層像を断面像の集合と考え、夫々の断面像に対して2次元的に適用してもよい。なお、層の境界を検出する方法はこれらに限定されるものではなく、眼部の断層像から層の境界を検出可能な方法であれば、いずれの方法を用いてもよい。 Furthermore, the detection accuracy may be improved by applying a dynamic contour method such as a Snake or a level set method using these line segments as initial values. Further, a layer boundary may be detected using a technique such as graph cut. Note that the boundary detection using the dynamic contour method or the graph cut may be performed three-dimensionally for a three-dimensional tomographic image, or the three-dimensional tomographic image to be processed is considered as a set of cross-sectional images, respectively. It may be applied two-dimensionally to the cross-sectional image. Note that the method for detecting the layer boundary is not limited to these, and any method may be used as long as the layer boundary can be detected from the tomographic image of the eye.
図12(b)に示すように、血管下の領域7は全体的に輝度値が低くなる。そのため、視細胞層5でA−scan方向に全体的に輝度値が低くなる領域を検出することで、血管を検出することが出来る。 As shown in FIG. 12B, the luminance value of the region 7 under the blood vessel is lowered as a whole. Therefore, a blood vessel can be detected by detecting a region in the photoreceptor cell layer 5 in which the luminance value is generally lowered in the A-scan direction.
なお、上記では、視細胞層5内部の輝度値が低くなる領域を検出したが、血管特徴はこれに限られるものではない。内境界膜1と神経線維層境界2の間(換言すると、神経線維層)の厚みや左右との厚み変化を検出することで、血管を検出してもよい。例えば、図12(b)に示すように、x方向に層の厚み変化を見た場合、内境界膜1と神経線維層境界2の厚みは、血管部分において急激に厚くなるため、この領域を検出することで、血管を検出することが出来る。さらに、上記夫々の処理を組み合わせて血管を検出してもよい。
In the above, a region where the luminance value in the photoreceptor layer 5 is low is detected, but the blood vessel feature is not limited to this. A blood vessel may be detected by detecting the thickness between the inner boundary membrane 1 and the nerve fiber layer boundary 2 (in other words, the nerve fiber layer) and the thickness change between the left and right. For example, as shown in FIG. 12B, when the thickness change of the layer is observed in the x direction, the thicknesses of the inner boundary membrane 1 and the nerve
<ステップS1004>
ステップS1004において、画像処理部252は、ステップS1003で取得した血管に対して処理を行い、断層像ボリュームデータの連続性を判定する。
<Step S1004>
In step S1004, the image processing unit 252 performs processing on the blood vessel acquired in step S1003, and determines the continuity of the tomographic image volume data.
画像処理部252は、黄斑部付近の血管端から血管を追跡し、追跡済みの血管には追跡済みのラベルをつける。そして、追跡済みの血管端の座標を記憶部240に記憶しておく。そして、OCTの撮影時スキャン方向に平行な同一平行線上に存在する血管端の座標をまとめてカウントする。図12の場合においては、例えばOCTの撮影時スキャン方向がx方向に平行だとすると、同一のy座標に存在する点は断面像(例えばB−scan像)である。したがって、図12(b)において、(x1、yj、z1)、(x2、yj、z2)・・・(xn、yj、zn)をまとめてカウントする。被検眼の撮影状態に変化がある場合には、断面像(B−scan像)間で位置ずれがおきるため、位置ずれが起きた境界の同一直線上に血管端が集中する。以後の処理は実施の形態1と同様であるので詳細な説明は省略する。 The image processing unit 252 tracks the blood vessel from the blood vessel end near the macula, and attaches a tracked label to the tracked blood vessel. Then, the tracked blood vessel end coordinates are stored in the storage unit 240. Then, the coordinates of the blood vessel ends existing on the same parallel line parallel to the scanning direction during OCT imaging are counted together. In the case of FIG. 12, for example, if the scanning direction during OCT imaging is parallel to the x direction, a point existing at the same y coordinate is a cross-sectional image (for example, a B-scan image). Accordingly, in FIG. 12B, (x 1 , y j , z 1 ), (x 2 , y j , z 2 )... (X n , y j , z n ) are counted together. When there is a change in the imaging state of the eye to be inspected, a positional deviation occurs between the cross-sectional images (B-scan images), so that the blood vessel ends are concentrated on the same straight line at the boundary where the positional deviation has occurred. Since the subsequent processing is the same as that of the first embodiment, detailed description thereof is omitted.
以上で述べた構成によれば、断層像ボリュームデータから断層像の連続性を判断し、その結果を医師に提示する。したがって、医師は、眼部断層画像の正確性を容易に判断する事が可能となり、医師の診断ワークフローの効率を向上させることが出来る。 According to the configuration described above, the continuity of the tomographic image is determined from the tomographic image volume data, and the result is presented to the doctor. Therefore, the doctor can easily determine the accuracy of the ocular tomographic image, and the efficiency of the diagnosis workflow of the doctor can be improved.
(第5の実施形態)
本実施形態は第一の実施形態の類似度の算出方法を詳細に説明するものである。画像処理部252は、不図示の類似度計算部254をさらに備え、断面像間の類似度あるいは相違度を計算し、判定部253は、類似度あるいは相違度を用いて断層像の連続性及び被検眼の撮影状態を判定する。なお以下では、類似度として説明する。
(Fifth embodiment)
This embodiment explains in detail the method of calculating the similarity according to the first embodiment. The image processing unit 252 further includes a similarity calculation unit 254 (not shown), and calculates the similarity or dissimilarity between cross-sectional images. The
類似度計算部254は、連続する断面画像間の類似度を計算する。画像間の類似度は、輝度差の二乗和(SSD;Sum of Squared Difference)や、輝度差の総和(SAD;Sum of Absolute Difference)で計算出来る。あるいは、相互情報量(MI;Mutual infomation)を求めてもよい。なお、断面画像間の類似度を計算する方法はこれらに限定されるものではなく、画像間の類似度を計算可能な方法であれば、いずれの方法を用いてもよい。例えば、画像処理部252が、色や濃度特徴として、濃度値の平均、分散等を抽出し、テクスチャ特徴として、フーリエ特徴、濃度共起行列等を抽出し、形状特徴として、層の形状、血管形状等を抽出する。そして、類似度計算部254は、画像特徴空間において距離を計算することで、類似度を判定するようにしてもよい。距離の計算には、ユークリッド距離やマハラノビス距離などを用いればよい。 The similarity calculation unit 254 calculates the similarity between successive cross-sectional images. The similarity between images can be calculated by the sum of squares of brightness difference (SSD) or the sum of brightness differences (SAD). Alternatively, mutual information (MI) may be obtained. Note that the method for calculating the similarity between cross-sectional images is not limited to these, and any method may be used as long as the similarity between images can be calculated. For example, the image processing unit 252 extracts the mean and variance of density values as color and density features, extracts Fourier features, density co-occurrence matrices, etc. as texture features, and forms layer features, blood vessels as shape features. Extract shape etc. Then, the similarity calculation unit 254 may determine the similarity by calculating a distance in the image feature space. The distance may be calculated using the Euclidean distance, Mahalanobis distance, or the like.
判定部253は、類似度計算部254が求めた類似度が閾値以上であれば、連続する断面像(B−scan像)は正常に撮影されたと判定する。類似度の閾値は、2次元断層像間の距離や、スキャンスピードに応じて変更してもよい。例えば、6×6mmの撮影範囲を128スライス(B−scan像)で撮影した場合と256スライス(B−scan像)で撮影した場合には、256スライスの方が、断面像間の類似度は高くなる。類似度の閾値の設定は、固定値でもよいし、統計データに基づいて設定してもよいし、患者情報(年齢、性別、人種)に基づいて設定してもよい。類似度が閾値以下である場合、連続する断面像は不連続であるとする。それにより、撮影時の位置ずれや瞬きを検出することが出来る。
The
(第6の実施形態)
本実施形態に係る画像処理装置は、取得した被検眼の断層像に処理を施す点は第1の実施形態と同様である。ただし、同一患者の過去に撮影された、異なる時点での断層像から得られる画像特徴と、現在撮影した断層像から得られる画像特徴から撮影時の位置ずれや瞬きを検出する点が上記夫々の実施形態とは異なっている。
(Sixth embodiment)
The image processing apparatus according to the present embodiment is the same as the first embodiment in that the acquired tomographic image of the eye to be examined is processed. However, each of the above-mentioned points is that the image feature obtained from tomographic images taken at different time points of the same patient in the past and the image feature obtained from currently taken tomographic images are detected for positional deviation and blinking at the time of photographing. This is different from the embodiment.
本実施形態に係る画像処理システム10の機能ブロックは、画像処理装置250が類似度計算部254(不図示)を有している点が、第1の実施形態(図2)とは異なっている。
The functional block of the
次に、図13のフローチャートを参照して、本実施形態の画像処理システム10の処理手順を説明する。なお、本実施形態においてS1207、S1208、S1209、S1210は、夫々、第1の実施形態におけるステップS307、S308、S309、S310と同様であるので、その説明は省略する。
Next, a processing procedure of the
<ステップS1201>
ステップS1201において、被検眼情報取得部210は、被検眼を同定する情報として被験者識別番号を外部から取得する。この情報は、キーボード706やマウス707、あるいは不図示のカードリーダを介して、操作者によって入力される。そして、被検眼識別番号に基づいて、データサーバ40が保持している当該被検眼に関する情報を取得する。例えば、患者の氏名、年齢、性別などを取得する。さらに、過去に撮像した当該被検眼の断層像を取得する。その他の検査情報として、視力、眼軸長や眼圧などの測定データがある場合は、その測定データを取得してもよい。そして、取得した情報を記憶部240へと送信する。
<Step S1201>
In step S1201, the eye
ステップS1201において、同一眼に対する再撮影の場合には、ここの処理をステップしてもよいし、新たに追加される情報がある場合には、その情報を取得する。 In step S1201, in the case of re-imaging with the same eye, this processing may be stepped, and when there is information to be newly added, that information is acquired.
<ステップS1202>
ステップS1202において、画像取得部220は、断層像撮像装置20から送信される断層像を取得する。そして、取得した情報を記憶部240へと送信する。
<Step S1202>
In step S <b> 1202, the
<ステップS1203>
ステップS1203において、積算像作成部251は、断面像(例えばB−scan像)を深度方向に積算した積算像を作成する。積算像作成部251は、ステップS1201において被検眼情報取得部210が取得した過去の断層像と、ステップS1202において画像取得部220が取得した過去の断層像を記憶部240から取得する。そして、夫々の断層像の積算像を作成する。なお、積算像作成の具体的方法は第一の実施例と同様であるので、詳細な説明は省略する。
<Step S1203>
In step S1203, the integrated
<ステップS1204>
ステップS1204において、類似度計算部254は異なる時刻に撮影された断層像から作成した積算像間の類似度を計算する。
<Step S1204>
In step S1204, the similarity calculation unit 254 calculates the similarity between integrated images created from tomographic images taken at different times.
以下、類似度計算部254の具体的な処理について図14を用いて説明する。図14は、積算像と部分画像の一例を示す図である。図14(a)は過去に撮影された断層像から作成した積算像Paで、図14(b)は積算像Paから作成した部分積算像Pa1〜Pan、図14(c)は現在撮影された断層像から作成した積算像Pbである。ここで、部分積算像Pa1〜PanはOCTの撮影時スキャン方向に平行な同一直線が同じ領域に含まれることが望ましい。また、部分積算像の分割数nは任意の数とし、断層像サイズ(X、Y、Z)に応じて動的に変更してもよい。 Hereinafter, specific processing of the similarity calculation unit 254 will be described with reference to FIG. FIG. 14 is a diagram illustrating an example of the integrated image and the partial image. In FIG. 14 (a) integrated image P a created from tomograms captured in the past, FIG. 14 (b) integrated image P a partial integrated image created from P a1 to P an, FIG. 14 (c) it is integrated image P b created from the current captured tomogram. Here, partial integrated image P a1 to P an, it is desirable that the same straight line parallel to the scanning direction at the time of image capturing OCT are in the same area. Further, the division number n of the partial integration image may be an arbitrary number, and may be dynamically changed according to the tomographic image size (X, Y, Z).
画像間の類似度は、輝度差の二乗和、輝度差の総和や、相互情報量を用いて求めることが出来る。なお、積算像間の類似度を計算する方法はこれらに限定されるものではなく、画像間の類似度を計算可能な方法であれば、いずれの方法を用いてもよい。 The similarity between images can be obtained using the sum of squares of luminance differences, the sum of luminance differences, and the mutual information amount. Note that the method for calculating the similarity between the integrated images is not limited to these, and any method may be used as long as the similarity between images can be calculated.
判定部253は、部分積算像Pa1〜Panと積算像Pbとの類似度を計算した場合、全ての部分積算像の類似度が閾値以上であれば眼球の動きが少なく撮影に成功したと判断する。
類似度が閾値以下の部分積算像があれば、その部分積算像をさらにm個に分割し、類似度が高くなる場所と類似度を計算する。これらの処理を分割が出来なくなるまで繰り返すか、類似度が低い断面像間が特定できるまで繰り返す。眼球が動いたり,瞬きがあった場合の断層像から作成した積算像は、空間的に位置ずれが起きているため、撮影に成功している部分積算像の一部が存在しない。そのため、判定部253は、部分積算像の分割を繰り返しても類似度が閾値以下のものや、位置的に矛盾する場所(部分積算像の順番が入れ替わるなど)で類似度が高くなるものにおいては、その部分積算像は存在しないと判断する。
If there is a partial integrated image whose similarity is equal to or less than the threshold, the partial integrated image is further divided into m pieces, and the place where the similarity is high and the similarity are calculated. These processes are repeated until it cannot be divided, or until a section between low-similarity cross-sectional images can be identified. Since the accumulated image created from the tomographic image when the eyeball moves or blinks is spatially misaligned, there is no part of the partially accumulated image that has been successfully photographed. For this reason, the
<ステップS1205>
判定部253は、類似度計算部254が求めた類似度が閾値以上であれば、連続する2次元断層像は正常に撮影されたと判定する。類似度が閾値以下である場合、断層像は不連続であるとする。また、撮影時の位置ずれや瞬きがあったと判定する。
<Step S1205>
The
<ステップS1206>
ステップS1206において、表示部260は、ステップS1202で取得した断層像をモニタ705に表示する。モニタ705に表示する内容は、第1の実施例ステップS306に示したものと同様である。しかし、これらのほかに、ステップS1201で取得した同一被検眼における異なる時刻に撮影された断層像をモニタ705に表示するようにしてもよい。
<Step S1206>
In step S1206, the
なお、本実施形態では、断層像から積算像を作成し、類似度を計算して連続性を判定したが、断層像から積算像を作成せずに断層像同士で類似度を計算して連続性を判定してもよい。 In this embodiment, an integrated image is created from tomographic images, and similarity is calculated to determine continuity. However, similarity is calculated between tomographic images without creating an integrated image from tomographic images. Sex may be determined.
以上で述べた構成によれば、異なる時刻に撮影された断層像から作成した積算像間の類似度から断層像の連続性を判断し、その結果を医師に提示する。したがって、医師は、眼部断層画像の正確性を容易に判断する事が可能となり、医師の診断ワークフローの効率を向上させることが出来る。 According to the configuration described above, the continuity of tomographic images is determined from the similarity between integrated images created from tomographic images taken at different times, and the results are presented to the doctor. Therefore, the doctor can easily determine the accuracy of the ocular tomographic image, and the efficiency of the diagnosis workflow of the doctor can be improved.
(第7の実施形態)
本実施形態では、類似度計算部254が異なる時刻に撮影された断層像から作成した血管モデル間の類似度を計算し、判定部253は、類似度を用いて断層像ボリュームデータの連続性を判定する。
(Seventh embodiment)
In the present embodiment, the similarity calculation unit 254 calculates the similarity between the blood vessel models created from the tomograms taken at different times, and the
画像処理部252における血管検出の方法は、第1の実施形態のステップS304と同様であるため、その説明は省略する。血管モデルは、例えば、血管を1、それ以外の組織を0としたような2値化像、あるいは、血管部のみグレースケールとし、それ以外の組織を0としたような多値化像である。図15に血管モデルの例を示す。図15は、血管モデルと部分モデルの一例を示す図である。図15(a)は過去に撮影された断層像から作成した血管モデルVaで、図15(b)は血管モデルVaから作成した部分血管モデルVa1〜Van、図15(c)は現在撮影された断層像から作成した血管モデルVbである。ここで、部分血管モデルVa1〜VanはOCTの撮影時スキャン方向に平行な同一直線が同じ領域に含まれることが望ましい。また、部分血管モデルの分割数nは任意の数とし、断層像サイズ(X、Y、Z)に応じて動的に変更してもよい。 Since the blood vessel detection method in the image processing unit 252 is the same as that in step S304 of the first embodiment, the description thereof is omitted. The blood vessel model is, for example, a binarized image in which the blood vessel is 1 and other tissues are 0, or a multi-valued image in which only the blood vessel portion is grayscale and other tissues are 0. . FIG. 15 shows an example of a blood vessel model. FIG. 15 is a diagram illustrating an example of a blood vessel model and a partial model. In FIG. 15 (a) vessel model V a created from tomograms captured in the past, FIG. 15 (b) the partial blood vessel models V a1 ~V an, created from the blood vessel model V a, FIG. 15 (c) is It is the blood vessel model Vb created from the tomogram currently image | photographed. Here, in the partial blood vessel models V a1 to V an, it is desirable that the same straight line parallel to the scan direction during OCT imaging is included in the same region. Further, the division number n of the partial blood vessel model may be an arbitrary number, and may be dynamically changed according to the tomographic image size (X, Y, Z).
そして、第3の実施形態のステップS1204、ステップS1205と同様にして、異なる時刻に撮影された断層像から得た特徴間の類似度から、断層像ボリュームデータの連続性を判定する。 Then, similarly to steps S1204 and S1205 of the third embodiment, the continuity of tomographic volume data is determined from the similarity between features obtained from tomographic images taken at different times.
(第8の実施形態)
上記夫々の本実施形態では、判定部253が類似度評価と血管端検出を組み合わせて判定する。例えば、部分積算像Pa1〜Panあるいは部分血管モデルVa1〜Vanを用いて、異なる時刻に撮影された断層像の類似度を評価する。そして、類似度が閾値以下になった部分積算像Pa1〜Panあるいは部分血管モデルVa1〜Van内においてのみ、血管追跡と血管端検出を行い、断層像ボリュームデータの連続性を判定してもよい。
(Eighth embodiment)
In each of the embodiments described above, the
(その他の実施形態)
上記夫々の実施形態において、再度被検眼の撮影を行うか否かの判断を自動で行ってもよい。例えば、判定部253が不連続性と判断したら自動的に再撮影する。あるいは、不連続性と判断した場所が、画像中心から一定の範囲内であった場合に自動的に再撮影する。あるいは、複数箇所で不連続性を判断したら自動的に再撮影する。あるいは、血管パターンから位置ずれ量を推定して、位置ずれの程度が閾値以上であれば自動的に再撮影する。位置ずれ量の推定は、血管パターンに限らず、過去画像との比較から推定してもよい。あるいは、正常眼か疾病眼かに応じて、疾病眼の場合に不連続性を判断したら自動的に再撮影する。あるいは、過去データと比較して、病変(白斑や出血)が存在した箇所において不連続性を判断したら自動的に再撮影する。あるいは、医師によって操作者に撮影が指示された箇所が位置ずれしていた場合に自動的に再撮影する等のようにしてもよい。なお、これらの処理は必ずしも独立して行う必要はなく、組み合わせて実施してもよい。
(Other embodiments)
In each of the above-described embodiments, it may be automatically determined whether or not to image the subject's eye again. For example, if the
そして、撮り直しと判定された場合は処理を戻して、同一被検眼に対する再処理を実行する。 If it is determined that re-taking has been performed, the processing is returned to perform reprocessing on the same eye to be examined.
上記夫々の実施形態において、表示部260での表示例は、図6に示したものには限らない。例えば、図16を用いて他の例を説明する。図16は、画面表示の一例を示す概略図である。図16(a)は、血管パターンから位置ずれ量を推定して、その位置ずれ量を積算像Pbに明示的に示した例である。S’領域は、推定した未撮影領域を示している。図16(b)は、複数箇所で位置ずれやまばたきによる不連続性を検出した例である。その場合には、全ての箇所の境界断層像を同時に表示しても良いし、位置ずれの大きさが大きい所の境界断層像を同時に表示しても良いし、中心付近や病気があった箇所での境界断層像を同時に表示してもよい。断層像も同時に表示する場合には、表示している断層像がどの箇所に対応しているか色や数値などを用いて、操作者に分かるようにしておくことが望ましい。また、表示する境界断層像は不図示のGUIを用いて、操作者が自由に変更できる構成とする。図16(c)は断層像ボリュームデータT1〜Tnと表示する断層像を操作するスライダーS”とつまみS’’’を示し、マーカーSは断層像ボリュームデータから不連続性を検出した場所を示している。さらに、スライダー上に位置ずれ量S’などを明示的に表示してもよい。上記の画像の他に、過去画像や広域像がある場合には、同時に表示してもよい。
In each of the above embodiments, the display example on the
上記夫々の本実施形態では、黄斑部が撮影された画像に対して解析処理を行っていた。しかし、画像処理部が連続性を判定する箇所は、黄斑部が撮影された画像に限定されるものではなく、視神経乳頭が撮影された画像に関して同様の処理をしてもよい。さらには、黄斑部と視神経乳頭が同時に撮影されている画像に対して処理を行ってもよい。 In each of the above-described embodiments, analysis processing is performed on an image in which a macular portion is photographed. However, the location where the image processing unit determines continuity is not limited to the image in which the macular portion is photographed, and the same processing may be performed on the image in which the optic nerve head is photographed. Furthermore, processing may be performed on an image in which the macular portion and the optic disc are captured simultaneously.
上記夫々の本実施形態では、取得した三次元の断層像全体に対して解析処理を行っていた。しかし、三次元の断層像から注目すべき断面を選択して、選択した二次元断層像に対して処理を行う構成であってもよい。例えば、予め定めた眼底の特定部位(例えば中心窩)を含む断面に対して処理を行ってもよい。この場合、検出される層の境界、正常構造、正常時データ等は、何れも当該断面上における2次元のデータとなる。 In each of the embodiments described above, analysis processing is performed on the entire acquired three-dimensional tomographic image. However, the configuration may be such that a notable cross section is selected from the three-dimensional tomographic image and the selected two-dimensional tomographic image is processed. For example, the process may be performed on a cross section including a predetermined specific part (for example, fovea) of the fundus. In this case, the detected layer boundary, normal structure, normal data, etc. are all two-dimensional data on the cross section.
上記夫々の実施形態において説明してきた、画像処理システム10の断層像ボリュームデータの連続性判定は、必ずしも独立して行う必要はなく組み合わせて実施してもよい。例えば、実施例1のように断層像から作成した積算像から求めた血管端の集中度と、実施例2のように連続する断層像間での類似度や画像特徴量をまとめて評価して、断層像ボリュームデータの連続性を判定してもよい。例えば、位置ずれのない断層像と位置ずれのある断層像で夫々の検出結果や画像特徴量を学習しておき、識別器で断層像ボリュームデータの連続性を判定するようにしてもよい。その他、いずれの実施形態を組み合わせて実施することも可能であることは言うまでもない。
The continuity determination of the tomographic volume data of the
上記夫々の実施形態において、断層像撮像装置20は画像処理システム10に必ずしも接続されていなくてもよい。例えば、処理対象である断層像が既に撮像された状態でデータサーバ40に保管されており、これを読み込んで処理する構成であってもよい。この場合、画像取得部220は、データサーバ40に断層像の送信を要求し、データサーバ40から送信される断層像を取得して、層の境界検出と定量化処理を行う。また、データサーバ40は画像処理システム10に必ずしも接続されていなくてもよく、画像処理システム10の外部記憶装置704がその役割を果たす構成であってもよい。
In each of the above embodiments, the
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。 An object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus. Needless to say, this can also be achieved by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium.
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
プログラムコードを供給するための記憶媒体としては、例えば、フロッピディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。 As a storage medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
また、コンピュータが読出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行う。そして、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, an OS (operating system) operating on the computer performs part or all of the actual processing based on the instruction of the program code. Needless to say, the process includes the case where the functions of the above-described embodiments are realized.
さらに、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットが処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。この場合、記憶媒体から読出されたプログラムコードが、機能拡張ボードや機能拡張ユニットに備わるメモリに書込まれる。そして、機能拡張ボードや機能拡張ユニットに備わるCPUなどが、そのプログラムコードの指示に基づいて、実際の処理を実行する。 Furthermore, it goes without saying that the function expansion board inserted into the computer or the function expansion unit connected to the computer performs part or all of the processing, and the functions of the above-described embodiments are realized by the processing. . In this case, the program code read from the storage medium is written in a memory provided in the function expansion board or function expansion unit. Then, a CPU or the like provided in the function expansion board or function expansion unit executes actual processing based on the instruction of the program code.
なお、上述した本実施の形態における記述は、本発明に係る好適な画像処理装置の一例であり、本発明はこれに限定されるものではない。 Note that the description in this embodiment described above is an example of a suitable image processing apparatus according to the present invention, and the present invention is not limited to this.
250 画像処理装置
251 積算像作成部
252 画像処理部
253 判定部
254 類似度判定部
260 表示部
250
Claims (15)
前記画像処理手段で取得した情報に基づいて前記被検眼の撮影状態を判定する判定手段と、
再度被検眼の撮影を行うか否かの指示を取得する取得手段と、
を備えることを特徴とする断層像撮影装置。 Image processing means for acquiring information indicating continuity of tomographic images of the eye to be examined;
Determination means for determining a photographing state of the eye to be examined based on information acquired by the image processing means;
Acquisition means for acquiring an instruction as to whether or not to image the eye to be examined again;
A tomographic imaging apparatus comprising:
前記判定手段は、前記断層像間の類似度に基づいて前記被検眼の撮影状態を判定することを特徴とする請求項1に記載の断層像撮影装置。 The image processing means obtains the similarity between tomograms taken at different points in time of the eye;
The tomography apparatus according to claim 1, wherein the determination unit determines an imaging state of the eye to be examined based on a similarity between the tomograms.
前記画像処理手段は、前記積算像から前記類似度、前記血管端の数のいずれかを取得することを特徴とする請求項1乃至6のいずれか一項に記載の断層像撮影装置。 A cumulative image creating means for creating a cumulative image obtained by integrating the tomographic images in the depth direction;
The tomographic imaging apparatus according to claim 1, wherein the image processing unit acquires either the similarity or the number of blood vessel ends from the integrated image.
前記画像処理手段で取得した情報に基づいて前記被検眼の撮影状態を判定する判定手段と、
被検眼に関する今回の処理の結果をデータサーバへ保存するか否かの指示を取得する取得手段と、
を備えることを特徴とする断層像撮影装置。 Image processing means for acquiring information indicating continuity of tomographic images of the eye to be examined;
Determination means for determining a photographing state of the eye to be examined based on information acquired by the image processing means;
An acquisition means for acquiring an instruction as to whether or not to save the result of the current processing relating to the eye to be examined in the data server;
A tomographic imaging apparatus comprising:
前記画像処理手段で取得した情報に基づいて前記被検眼の撮影状態を判定する判定手段と、
撮影処理を終了するか否かの指示を取得する取得手段と、
を備えることを特徴とする断層像撮影装置。 Image processing means for acquiring information indicating continuity of tomographic images of the eye to be examined;
Determination means for determining a photographing state of the eye to be examined based on information acquired by the image processing means;
Obtaining means for obtaining an instruction as to whether or not to end the photographing process;
A tomographic imaging apparatus comprising:
前記画像処理工程で取得した情報に基づいて前記被検眼の撮影状態を判定する判定工程と、
再度被検眼の撮影を行うか否かの指示を取得する取得工程と、
を備えることを特徴とする断層像撮影方法。 An image processing step for acquiring information indicating continuity of tomographic images of the eye to be examined;
A determination step of determining a photographing state of the eye to be examined based on the information acquired in the image processing step;
An acquisition step of acquiring an instruction as to whether or not to image the eye to be examined again;
A tomographic imaging method comprising:
前記画像処理手段で取得した情報に基づいて前記被検眼の撮影状態を判定する判定工程と、
被検眼に関する今回の処理の結果をデータサーバへ保存するか否かの指示を取得する取得工程と、
を備えることを特徴とする断層像撮影方法。 An image processing step for acquiring information indicating continuity of tomographic images of the eye to be examined;
A determination step of determining the imaging state of the eye to be examined based on information acquired by the image processing means;
An acquisition step of acquiring an instruction as to whether or not to store the result of the current process relating to the eye to be examined in the data server;
A tomographic imaging method comprising:
前記画像処理手段で取得した情報に基づいて前記被検眼の撮影状態を判定する判定工程と、
撮影処理を終了するか否かの指示を取得する取得工程と、
を備えることを特徴とする断層像撮影方法。 An image processing step for acquiring information indicating continuity of tomographic images of the eye to be examined;
A determination step of determining the imaging state of the eye to be examined based on information acquired by the image processing means;
An acquisition step of acquiring an instruction as to whether or not to end the photographing process;
A tomographic imaging method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010030452A JP5208145B2 (en) | 2010-02-15 | 2010-02-15 | Tomographic imaging apparatus, tomographic imaging method, program, and program storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010030452A JP5208145B2 (en) | 2010-02-15 | 2010-02-15 | Tomographic imaging apparatus, tomographic imaging method, program, and program storage medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008287754A Division JP4466968B2 (en) | 2008-11-10 | 2008-11-10 | Image processing apparatus, image processing method, program, and program storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010110656A true JP2010110656A (en) | 2010-05-20 |
JP5208145B2 JP5208145B2 (en) | 2013-06-12 |
Family
ID=42299660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010030452A Expired - Fee Related JP5208145B2 (en) | 2010-02-15 | 2010-02-15 | Tomographic imaging apparatus, tomographic imaging method, program, and program storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5208145B2 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012020061A (en) * | 2010-07-16 | 2012-02-02 | Topcon Corp | Ocular fundus image processing apparatus and ocular fundus observation apparatus |
JP2012110618A (en) * | 2010-11-26 | 2012-06-14 | Canon Inc | Image processing apparatus and method |
EP2484274A1 (en) * | 2011-02-04 | 2012-08-08 | Tomey Corporation | Ophthalmologic apparatus |
JP2012187228A (en) * | 2011-03-10 | 2012-10-04 | Canon Inc | Photographing apparatus and image processing method |
JP2013013824A (en) * | 2012-10-26 | 2013-01-24 | Canon Inc | Ophthalmic-image processing apparatus and method therefor |
JP2013068477A (en) * | 2011-09-21 | 2013-04-18 | Fujifilm Corp | Optical coherence tomographic processing method and device therefor |
JP2014198223A (en) * | 2012-12-28 | 2014-10-23 | キヤノン株式会社 | Information processor and information processing method |
US9373172B2 (en) | 2010-08-27 | 2016-06-21 | Canon Kabushiki Kaisha | Ophthalmic-image processing apparatus and method therefor |
JP2018008082A (en) * | 2017-08-25 | 2018-01-18 | キヤノン株式会社 | Optical interference tomographic imaging apparatus and control method of the same |
WO2020137531A1 (en) * | 2018-12-26 | 2020-07-02 | 株式会社トプコン | Ophthalmic information processing device, ophthalmic imaging device, ophthalmic information processing method, and program |
JP2020146433A (en) * | 2018-09-13 | 2020-09-17 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
US10791920B2 (en) | 2012-02-20 | 2020-10-06 | Canon Kabushiki Kaisha | Image forming apparatus and image forming method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007252693A (en) * | 2006-03-24 | 2007-10-04 | Topcon Corp | Eyeground observation apparatus |
JP2008104628A (en) * | 2006-10-25 | 2008-05-08 | Tokyo Institute Of Technology | Conjunctiva and sclera imaging apparatus |
-
2010
- 2010-02-15 JP JP2010030452A patent/JP5208145B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007252693A (en) * | 2006-03-24 | 2007-10-04 | Topcon Corp | Eyeground observation apparatus |
JP2008104628A (en) * | 2006-10-25 | 2008-05-08 | Tokyo Institute Of Technology | Conjunctiva and sclera imaging apparatus |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012020061A (en) * | 2010-07-16 | 2012-02-02 | Topcon Corp | Ocular fundus image processing apparatus and ocular fundus observation apparatus |
US9373172B2 (en) | 2010-08-27 | 2016-06-21 | Canon Kabushiki Kaisha | Ophthalmic-image processing apparatus and method therefor |
JP2012110618A (en) * | 2010-11-26 | 2012-06-14 | Canon Inc | Image processing apparatus and method |
EP2484274A1 (en) * | 2011-02-04 | 2012-08-08 | Tomey Corporation | Ophthalmologic apparatus |
US8915593B2 (en) | 2011-02-04 | 2014-12-23 | Tomey Corporation | Ophthalmologic apparatus |
JP2012187228A (en) * | 2011-03-10 | 2012-10-04 | Canon Inc | Photographing apparatus and image processing method |
JP2013068477A (en) * | 2011-09-21 | 2013-04-18 | Fujifilm Corp | Optical coherence tomographic processing method and device therefor |
US10791920B2 (en) | 2012-02-20 | 2020-10-06 | Canon Kabushiki Kaisha | Image forming apparatus and image forming method |
JP2013013824A (en) * | 2012-10-26 | 2013-01-24 | Canon Inc | Ophthalmic-image processing apparatus and method therefor |
JP2014198223A (en) * | 2012-12-28 | 2014-10-23 | キヤノン株式会社 | Information processor and information processing method |
JP2018008082A (en) * | 2017-08-25 | 2018-01-18 | キヤノン株式会社 | Optical interference tomographic imaging apparatus and control method of the same |
JP2020146433A (en) * | 2018-09-13 | 2020-09-17 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP7446730B2 (en) | 2018-09-13 | 2024-03-11 | キヤノン株式会社 | Image processing device, image processing method and program |
WO2020137531A1 (en) * | 2018-12-26 | 2020-07-02 | 株式会社トプコン | Ophthalmic information processing device, ophthalmic imaging device, ophthalmic information processing method, and program |
JP2020103433A (en) * | 2018-12-26 | 2020-07-09 | 株式会社トプコン | Ophthalmologic information processing apparatus, ophthalmologic imaging apparatus, ophthalmologic information processing method, and program |
US12118716B2 (en) | 2018-12-26 | 2024-10-15 | Topcon Corporation | Ophthalmologic information processing apparatus, ophthalmologic imaging apparatus, ophthalmologic information processing method, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP5208145B2 (en) | 2013-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4466968B2 (en) | Image processing apparatus, image processing method, program, and program storage medium | |
JP5208145B2 (en) | Tomographic imaging apparatus, tomographic imaging method, program, and program storage medium | |
JP7579372B2 (en) | Medical image processing device, medical image processing system, medical image processing method and program | |
JP7269413B2 (en) | MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING SYSTEM, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM | |
JP7250653B2 (en) | Image processing device, image processing method and program | |
JP4909377B2 (en) | Image processing apparatus, control method therefor, and computer program | |
JP4819851B2 (en) | Diagnosis support apparatus and method, program, and recording medium | |
JP5631339B2 (en) | Image processing apparatus, image processing method, ophthalmic apparatus, ophthalmic system, and computer program | |
US9642519B2 (en) | Image processing apparatus and control method of image processing apparatus | |
JP2020163100A (en) | Image processing apparatus and image processing method | |
JP6864450B2 (en) | Ophthalmologic imaging equipment | |
JP7332463B2 (en) | Control device, optical coherence tomography device, control method for optical coherence tomography device, and program | |
JP6892234B2 (en) | Ophthalmologic imaging equipment | |
JP5474011B2 (en) | Ophthalmic system, ophthalmic apparatus, tomographic image acquisition method, and program | |
JP2020058615A (en) | Image processing device, learned model, image processing method, and program | |
JP5714083B2 (en) | Ophthalmic apparatus, ophthalmic processing apparatus, ophthalmic system, tomographic image acquisition method, ophthalmic processing method, and program | |
JP6307141B2 (en) | Ophthalmic apparatus, ophthalmic system, ophthalmic apparatus control method and program | |
JP6041920B2 (en) | Ophthalmic system, control device, display control method, and program | |
JP2019193883A (en) | Ophthalmic apparatus, ophthalmic system, and ophthalmic apparatus control method and program | |
JP6568614B2 (en) | Ophthalmic apparatus, ophthalmic system, ophthalmic apparatus control method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20100630 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120321 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120807 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130219 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160301 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5208145 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160301 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |