Nothing Special   »   [go: up one dir, main page]

JP2021100572A - Ophthalmologic image processing apparatus, oct apparatus, ophthalmologic image processing program, and mathematical model construction method - Google Patents

Ophthalmologic image processing apparatus, oct apparatus, ophthalmologic image processing program, and mathematical model construction method Download PDF

Info

Publication number
JP2021100572A
JP2021100572A JP2021008808A JP2021008808A JP2021100572A JP 2021100572 A JP2021100572 A JP 2021100572A JP 2021008808 A JP2021008808 A JP 2021008808A JP 2021008808 A JP2021008808 A JP 2021008808A JP 2021100572 A JP2021100572 A JP 2021100572A
Authority
JP
Japan
Prior art keywords
image
ophthalmic
images
training
mathematical model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021008808A
Other languages
Japanese (ja)
Other versions
JP2021100572A5 (en
JP7147888B2 (en
Inventor
祐輔 坂下
Yusuke Sakashita
祐輔 坂下
佳紀 熊谷
Yoshinori Kumagai
佳紀 熊谷
涼介 柴
Ryosuke Shiba
涼介 柴
直樹 竹野
Naoki Takeno
直樹 竹野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2021008808A priority Critical patent/JP7147888B2/en
Publication of JP2021100572A publication Critical patent/JP2021100572A/en
Publication of JP2021100572A5 publication Critical patent/JP2021100572A5/ja
Application granted granted Critical
Publication of JP7147888B2 publication Critical patent/JP7147888B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

SOLUTION: A control part of an ophthalmologic processing apparatus acquires an ophthalmologic image or an addition average image photographed by an ophthalmologic imaging apparatus as a base image. The control part acquires an objective image with quality higher than that of the base image by inputting the base image in a mathematical model trained by a machine learning algorithm. The mathematical model is trained by training data for inputting and training data for outputting. Data based on L pieces of training ophthalmologic images out of a plurality of the training ophthalmologic images photographing a same site of tissues is used for the training data for inputting. Data of the addition average image obtained by performing addition averaging on H (H>L) pieces of the training ophthalmologic images is used for the training data for outputting.EFFECT: An ophthalmologic image of high quality is appropriately acquired.SELECTED DRAWING: Figure 3

Description

本開示は、被検眼の眼科画像を処理する眼科画像処理装置、OCT装置、眼科画像処理装置において実行される眼科画像処理プログラム、および、眼科画像処理装置によって用いられる数学モデルを構築する数学モデル構築方法に関する。 The present disclosure discloses an ophthalmic image processing device for processing an ophthalmic image of an eye to be inspected, an OCT device, an ophthalmic image processing program executed in the ophthalmic image processing device, and a mathematical model construction for constructing a mathematical model used by the ophthalmic image processing device. Regarding the method.

従来、高画質の画像を取得するための種々の技術が提案されている。例えば、特許文献1に記載の眼科撮影装置は、複数の断層画像を加算平均処理し、スペックルノイズを抑制することで、高画質の断層画像を取得する。 Conventionally, various techniques for acquiring high-quality images have been proposed. For example, the ophthalmologic imaging apparatus described in Patent Document 1 acquires a high-quality tomographic image by adding and averaging a plurality of tomographic images and suppressing speckle noise.

特開2015−9108号公報Japanese Unexamined Patent Publication No. 2015-9108

複数の画像を加算平均処理する技術では、ノイズの影響を抑制する精度を高めようとする程、同一部位が多数繰り返し撮影される必要がある。よって、加算する画像の枚数に比例して撮影時間が増加するという問題があった。 In the technique of adding and averaging a plurality of images, it is necessary to repeatedly shoot a large number of the same parts so as to improve the accuracy of suppressing the influence of noise. Therefore, there is a problem that the shooting time increases in proportion to the number of images to be added.

本開示の典型的な目的は、高画質の眼科画像を適切に取得するための眼科画像処理装置、OCT装置、眼科画像処理プログラム、および、数学モデル構築方法を提供することである。 A typical object of the present disclosure is to provide an ophthalmic image processing apparatus, an OCT apparatus, an ophthalmic image processing program, and a method for constructing a mathematical model for appropriately acquiring high-quality ophthalmic images.

本開示における典型的な実施形態が提供する眼科画像処理装置は、被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、前記眼科画像処理装置の制御部は、眼科画像撮影装置によって撮影された眼科画像、または、前記眼科画像撮影装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得し、機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記基画像よりも高画質の目的画像を取得し、前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、L枚(L≧1)の前記訓練用眼科画像に基づくデータを入力用訓練データとし、且つ、H枚(H>L)前記訓練用眼科画像を加算平均した加算平均画像のデータを出力用訓練データとして訓練されている。 The ophthalmic image processing apparatus provided by the typical embodiment in the present disclosure is an ophthalmic image processing apparatus that processes an ophthalmic image which is an image of a tissue of an eye to be inspected, and a control unit of the ophthalmic image processing apparatus is an ophthalmic image. An ophthalmic image taken by the imaging device or an added average image obtained by adding and averaging a plurality of ophthalmic images obtained by photographing the same part of the tissue by the ophthalmic imaging device was acquired as a base image and trained by a machine learning algorithm. By inputting the basic image into the mathematical model, a target image having a higher image quality than the basic image is acquired, and the mathematical model is L (L) out of a plurality of training ophthalmic images obtained by photographing the same part of the tissue. The data based on the training ophthalmic image of L ≧ 1) is used as the input training data, and the data of the added average image obtained by adding and averaging the H sheets (H> L) of the training ophthalmic images is used as the output training data. Has been done.

本開示における典型的な実施形態が提供するOCT装置は、参照光と、被検眼の組織に照射された測定光の反射光とによるOCT信号を処理することで、前記組織の眼科画像を撮影するOCT装置であって、前記OCT装置の制御部は、撮影した前記組織の眼科画像、または、前記組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得し、機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記基画像よりも高画質の目的画像を取得し、前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、L枚(L≧1)の前記訓練用眼科画像に基づくデータを入力用訓練データとし、且つ、H枚(H>L)前記訓練用眼科画像を加算平均した加算平均画像のデータを出力用訓練データとして訓練されている。 The OCT apparatus provided by a typical embodiment in the present disclosure captures an ophthalmic image of the tissue by processing an OCT signal by the reference light and the reflected light of the measurement light applied to the tissue of the eye to be inspected. In the OCT device, the control unit of the OCT device acquires, as a base image, an ophthalmic image of the tissue taken or an added average image obtained by adding and averaging a plurality of ophthalmic images of the same part of the tissue. By inputting the basic image into the mathematical model trained by the machine learning algorithm, a target image having a higher image quality than the basic image is acquired, and the mathematical model is used for a plurality of trainings in which the same part of the tissue is photographed. Of the ophthalmic images, L (L ≧ 1) data based on the training ophthalmic image is used as input training data, and H (H> L) additional average images obtained by adding and averaging the training ophthalmic images. The data is trained as output training data.

本開示における典型的な実施形態が提供する眼科画像処理プログラムは、被検眼の組織の画像である眼科画像を処理する眼科画像処理装置によって実行される眼科画像処理プログラムであって、前記眼科画像処理プログラムが前記眼科画像処理装置の制御部によって実行されることで、眼科画像撮影装置によって撮影された眼科画像、または、前記眼科画像撮影装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得する基画像取得ステップと、機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記基画像よりも高画質の目的画像を取得する目的画像取得ステップと、を前記眼科画像処理装置に実行させ、前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、L枚(L≧1)の前記訓練用眼科画像に基づくデータを入力用訓練データとし、且つ、H枚(H>L)前記訓練用眼科画像を加算平均した加算平均画像のデータを出力用訓練データとして訓練されている。 The ophthalmic image processing program provided by the typical embodiment in the present disclosure is an ophthalmic image processing program executed by an ophthalmic image processing apparatus that processes an ophthalmic image which is an image of a tissue of an eye to be inspected, and is the ophthalmic image processing. When the program is executed by the control unit of the ophthalmic image processing device, the ophthalmic images taken by the ophthalmic image taking device or a plurality of ophthalmic images obtained by taking the same part of the tissue by the ophthalmic image taking device are added and averaged. The purpose of acquiring a target image having a higher image quality than the base image by inputting the base image into a mathematical model trained by a machine learning algorithm and a base image acquisition step of acquiring the added average image as a base image. The image acquisition step is executed by the ophthalmic image processing apparatus, and the mathematical model is used for L (L ≧ 1) of the training ophthalmic images among a plurality of training ophthalmic images obtained by photographing the same part of the tissue. The data based on the training data is used as input training data, and the data of the added average image obtained by adding and averaging the H images (H> L) of the training ophthalmic images is used as the output training data.

本開示における典型的な実施形態が提供する数学モデル構築方法は、機械学習アルゴリズムによって訓練されることで構築され、基画像が入力されることで目的画像を出力する数学モデルを構築する数学モデル構築装置によって実行される数学モデル構築方法であって、被検眼の組織の同一部位を撮影した複数の訓練用眼科画像を取得する画像セット取得ステップと、前記複数の訓練用眼科画像のうち、L枚(L≧1)の前記訓練用眼科画像に基づくデータを入力用訓練データとし、且つ、H枚(H>L)前記訓練用眼科画像を加算平均した加算平均画像のデータを出力用訓練データとして前記数学モデルを訓練させることで、前記数学モデルを構築する訓練ステップと、を含む。 The mathematical model construction method provided by the typical embodiment in the present disclosure is constructed by being trained by a machine learning algorithm, and a mathematical model construction that constructs a mathematical model that outputs a target image by inputting a base image. It is a mathematical model construction method executed by the device, and is an image set acquisition step of acquiring a plurality of training ophthalmic images obtained by photographing the same part of the tissue of the eye to be inspected, and L images out of the plurality of training ophthalmic images. The data based on the training ophthalmic image of (L ≧ 1) is used as the input training data, and the data of the added average image obtained by adding and averaging the H sheets (H> L) of the training ophthalmic images is used as the output training data. It includes a training step of constructing the mathematical model by training the mathematical model.

本開示に係る眼科画像処理装置、OCT装置、眼科画像処理プログラム、および数学モデル構築方法によると、高画質の眼科画像が適切に取得される。 According to the ophthalmic image processing apparatus, the OCT apparatus, the ophthalmic image processing program, and the mathematical model construction method according to the present disclosure, high-quality ophthalmic images are appropriately acquired.

本開示で例示する眼科画像処理装置の制御部は、眼科画像撮影装置によって撮影された眼科画像、または、眼科画像撮影装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得する。制御部は、機械学習アルゴリズムによって訓練された数学モデルに基画像を入力することで、基画像よりも高品質の目的画像を取得する。数学モデルは、入力用訓練データと出力用訓練データのセットである訓練データセットによって訓練されている。組織の同一部位を撮影した複数の訓練用眼科画像のうち、L枚(L≧1)の訓練用眼科画像に基づくデータが、入力用訓練データとされる。また、複数の訓練用眼科画像のうち、H枚(H>L)の訓練用眼科画像を加算平均した加算平均画像のデータが、出力用訓練データ(正解データと言われる場合もある)とされる。換言すると、Hは、入力用訓練データに使用される訓練用眼科画像の枚数よりも大きい数である。 The control unit of the ophthalmic image processing device exemplified in the present disclosure is an ophthalmic image taken by the ophthalmic image taking device or an added average image obtained by adding and averaging a plurality of ophthalmic images obtained by taking the same part of the tissue by the ophthalmic image taking device. Is acquired as a base image. The control unit acquires a target image of higher quality than the base image by inputting the base image into the mathematical model trained by the machine learning algorithm. The mathematical model is trained by a training dataset, which is a set of training data for input and training data for output. Of a plurality of training ophthalmic images obtained by photographing the same part of the tissue, data based on L (L ≧ 1) training ophthalmic images is used as input training data. Further, among a plurality of training ophthalmic images, the data of the added average image obtained by adding and averaging H (H> L) training ophthalmic images is regarded as output training data (sometimes referred to as correct answer data). To. In other words, H is a number greater than the number of training ophthalmic images used for input training data.

つまり、数学モデルを構築する数学モデル構築装置は、画像セット取得ステップと訓練ステップを実行する。画像セット取得ステップでは、被検眼の組織の同一部位を撮影した複数の訓練用眼科画像が取得される。訓練ステップでは、複数の訓練用眼科画像のうち、L枚(L≧1)の訓練用眼科画像に基づくデータが入力用訓練データとされ、且つ、H枚(H>L)の訓練用眼科画像の加算平均画像のデータが出力用訓練データとされて数学モデルが訓練されることで、数学モデルが構築される。 That is, the mathematical model building apparatus that builds the mathematical model executes the image set acquisition step and the training step. In the image set acquisition step, a plurality of training ophthalmic images obtained by photographing the same part of the tissue of the eye to be inspected are acquired. In the training step, among a plurality of training ophthalmic images, data based on L (L ≧ 1) training ophthalmic images is used as input training data, and H (H> L) training ophthalmic images are used. The mathematical model is constructed by training the mathematical model using the data of the averaging image of the above as the training data for output.

この場合、構築された数学モデルは、少ない枚数の眼科画像、または、少ない枚数の眼科画像の加算平均画像が基画像として入力された場合でも、多数の眼科画像を加算平均した画像と同程度にノイズの影響が抑制された目的画像を出力することができる。従って、基画像を撮影する際の撮影時間を短縮することが容易である。また、従来の画像処理でも、加算平均処理を行わずにノイズの影響を抑制することは可能ではあった。しかし、従来の画像処理では、微弱な信号とノイズを区別することができずに、本来ならば必要である微弱な信号が消去されてしまう場合があった。これに対し、本開示で例示する数学モデルは、ノイズ以外の影響で画像の信号が微弱となった部分が消去されていない目的画像を、基画像に基づいて出力することができる。よって、高品質の眼科画像が適切に取得される。 In this case, the constructed mathematical model is as good as an image obtained by adding and averaging a large number of ophthalmic images even when a small number of ophthalmic images or an added average image of a small number of ophthalmic images is input as a base image. It is possible to output a target image in which the influence of noise is suppressed. Therefore, it is easy to shorten the shooting time when shooting the base image. Further, even in the conventional image processing, it is possible to suppress the influence of noise without performing the addition averaging processing. However, in the conventional image processing, it is not possible to distinguish between a weak signal and noise, and there is a case where a weak signal that is originally necessary is erased. On the other hand, the mathematical model illustrated in the present disclosure can output a target image based on a base image in which a portion where the signal of the image is weakened due to an influence other than noise is not erased. Therefore, high quality ophthalmic images are properly acquired.

なお、訓練データセットの入力用訓練データとして用いるデータ(つまり、「L枚の訓練用眼科画像に基づくデータ」)は、撮影された眼科画像そのもの(つまり、加算平均されていない原画像)のデータあってもよいし、複数の眼科画像を加算平均した加算平均画像のデータであってもよい。原画像のデータと加算平均画像のデータが共に入力用訓練データとして用いられてもよい。入力用訓練データが原画像のデータである場合には、数学モデルに入力される基画像も、加算平均されていない原画像であることが望ましい。また、入力用訓練データが加算平均画像のデータである場合には、基画像も加算平均画像であることが望ましい。また、入力用訓練データに使用される画像(原画像および加算平均画像の少なくともいずれか)の数は、1枚であってもよいし、複数枚(例えば、2枚〜5枚程度)であってもよい。また、出力用訓練データとして用いる加算平均画像を生成する際に使用する訓練用眼科画像の枚数Hは、少なくとも、入力用訓練データに使用される訓練用眼科画像の枚数よりも多い。例えば、入力用訓練データとしてL枚の原画像が使用される場合には、H>Lとなる。また、入力用訓練データとして、L´枚の画像を加算平均した画像が使用される場合には、H>L´となる。なお、基画像に使用する眼科画像の枚数は、H枚よりも少ない枚数となる。 The data used as the input training data of the training data set (that is, "data based on L training ophthalmic images") is the data of the captured ophthalmic images themselves (that is, the original images that are not added and averaged). It may be the data of the added average image obtained by adding and averaging a plurality of ophthalmic images. Both the original image data and the averaging image data may be used as input training data. When the training data for input is the data of the original image, it is desirable that the base image input to the mathematical model is also the original image not added and averaged. Further, when the input training data is the data of the averaging image, it is desirable that the base image is also the averaging image. Further, the number of images (at least one of the original image and the averaging image) used for the input training data may be one, or may be a plurality of images (for example, about 2 to 5). You may. Further, the number H of training ophthalmic images used when generating the averaging image used as the output training data is at least larger than the number of training ophthalmic images used for the input training data. For example, when L original images are used as input training data, H> L. Further, when an image obtained by adding and averaging L'images is used as the input training data, H> L'. The number of ophthalmic images used for the base image is less than the number of H images.

眼科画像は、OCT装置によって撮影された被検眼の組織の二次元断層画像であってもよい。眼科画像処理装置の制御部は、被検眼の組織のうち、互いに異なる複数の位置の各々を撮影した複数の基画像を取得してもよい。制御部は、複数の基画像の各々を数学モデルに入力することで、複数の位置の各々の目的画像を取得してもよい。制御部は、複数の目的画像に基づいて、組織の三次元断層画像、および、組織を正面(つまり、被検眼の視線方向)から見た場合の二次元正面画像の少なくともいずれかを生成してもよい。つまり、眼科画像撮影装置は、複数の目的画像に基づいて組織の三次元断層画像を生成する三次元断層画像生成ステップ、および、複数の目的画像に基づいて組織の二次元正面画像を生成する正面画像生成ステップの少なくともいずれかを実行してもよい。この場合、多数の二次元断層画像が撮影されることなく、ノイズの影響が抑制された組織の三次元断層画像または二次元正面画像が適切に生成される。 The ophthalmologic image may be a two-dimensional tomographic image of the tissue of the eye to be inspected taken by an OCT device. The control unit of the ophthalmic image processing apparatus may acquire a plurality of basic images obtained by photographing each of a plurality of positions different from each other in the tissue of the eye to be inspected. The control unit may acquire each target image at a plurality of positions by inputting each of the plurality of basic images into the mathematical model. The control unit generates at least one of a three-dimensional tomographic image of the tissue and a two-dimensional front image when the tissue is viewed from the front (that is, the direction of the line of sight of the eye to be inspected) based on the plurality of target images. May be good. That is, the ophthalmic imaging apparatus has a three-dimensional tomographic image generation step of generating a three-dimensional tomographic image of the tissue based on a plurality of target images, and a front surface that generates a two-dimensional frontal image of the tissue based on the plurality of target images. At least one of the image generation steps may be performed. In this case, a three-dimensional tomographic image or a two-dimensional frontal image of the tissue in which the influence of noise is suppressed is appropriately generated without taking a large number of two-dimensional tomographic images.

二次元正面画像は、所謂「Enface画像」であってもよい。Enface画像のデータは、例えば、XY方向の各位置で深さ方向(Z方向)に輝度値が積算された積算画像データ、XY方向の各位置でのスペクトルデータの積算値、ある一定の深さ方向におけるXY方向の各位置での輝度データ、網膜のいずれかの層(例えば、網膜表層)におけるXY方向の各位置での輝度データ等であってもよい。 The two-dimensional front image may be a so-called "Enface image". The Enface image data includes, for example, integrated image data in which brightness values are integrated in the depth direction (Z direction) at each position in the XY direction, integrated value of spectral data at each position in the XY direction, and a certain depth. It may be brightness data at each position in the XY direction in the direction, brightness data at each position in the XY direction in any layer of the retina (for example, the surface layer of the retinal), and the like.

眼科画像は、OCT装置によって撮影された被検眼の眼底の二次元断層画像であってもよい。眼科画像処理装置の制御部は、二次元断層画像である目的画像に対して解析処理を行うことで、眼底に含まれる複数の層の少なくともいずれかを識別してもよい。つまり、眼科画像処理装置は、取得した目的画像から眼底の層を識別するセグメンテーションステップを実行してもよい。この場合、多数の二次元断層画像が撮影されることなく、ノイズの影響が抑制されたセグメンテーション結果が適切に取得される。 The ophthalmologic image may be a two-dimensional tomographic image of the fundus of the eye to be inspected taken by an OCT device. The control unit of the ophthalmologic image processing apparatus may identify at least one of a plurality of layers included in the fundus by performing analysis processing on a target image which is a two-dimensional tomographic image. That is, the ophthalmologic image processing apparatus may perform a segmentation step of identifying the layer of the fundus from the acquired target image. In this case, the segmentation result in which the influence of noise is suppressed can be appropriately acquired without taking a large number of two-dimensional tomographic images.

なお、眼科画像として、二次元断層画像以外の画像を用いることも可能である。例えば、眼科画像は、二次元断層画像でなく、組織(例えば眼底)を正面(つまり、被検眼の視線方向)から撮影した二次元正面画像であってもよい。この場合、二次元正面画像は、OCTアンジオ画像であってもよい。OCTアンジオ画像は、例えば、同一位置に関して異なる時間に取得された少なくとも2つのOCT信号が処理されることで取得されるモーションコントラスト画像であってもよい。また、レーザ走査型検眼装置(SLO)によって、被検眼の眼底の自発蛍光(FAF)を撮影した画像(以下、「FAF画像」という)が、眼科画像として用いられてもよい。OCTアンジオ画像およびFAF画像も、OCT二次元断層画像と同様に、複数の画像の加算平均処理を行うことによってノイズの影響が適切に抑制される。また、眼科画像の撮影部位は、例えば、被検眼の眼底であってもよいし、前眼部であってもよい。以上のように、本開示における眼科画像には、複数の画像の加算平均処理によってノイズの影響を抑制可能な種々の画像を用いることができる。 It is also possible to use an image other than the two-dimensional tomographic image as the ophthalmic image. For example, the ophthalmologic image may not be a two-dimensional tomographic image, but may be a two-dimensional frontal image of a tissue (for example, the fundus) taken from the front (that is, the line-of-sight direction of the eye to be inspected). In this case, the two-dimensional front image may be an OCT angio image. The OCT angio image may be, for example, a motion contrast image acquired by processing at least two OCT signals acquired at different times with respect to the same position. In addition, an image obtained by photographing the autofluorescence (FAF) of the fundus of the eye to be inspected by a laser scanning eye examination device (SLO) (hereinafter, referred to as “FAF image”) may be used as an ophthalmic image. Similar to the OCT two-dimensional tomographic image, the OCT angio image and the FAF image are also appropriately suppressed from the influence of noise by performing the addition averaging processing of a plurality of images. Further, the imaging site of the ophthalmologic image may be, for example, the fundus of the eye to be inspected or the anterior segment of the eye. As described above, as the ophthalmic image in the present disclosure, various images capable of suppressing the influence of noise by the addition averaging process of a plurality of images can be used.

また、眼科画像処理装置の制御部は、層を識別するセグメンテーション処理とは異なる解析処理を目的画像に対して実行してもよい。例えば、制御部は、血管が写っている眼底の正面画像(例えば、前述したOCTアンジオ画像等)を目的画像として取得し、取得した目的画像に対して、眼底の血管密度を解析する処理を実行してもよい。また、制御部は、複数の目的画像に基づいて生成した画像(例えば、前述した三次元断層画像またはEnface画像等)に対して解析処理を行ってもよい。 Further, the control unit of the ophthalmic image processing apparatus may execute an analysis process different from the segmentation process for identifying the layer on the target image. For example, the control unit acquires a frontal image of the fundus showing blood vessels (for example, the OCT angio image described above) as a target image, and executes a process of analyzing the blood vessel density of the fundus with respect to the acquired target image. You may. In addition, the control unit may perform analysis processing on an image generated based on a plurality of target images (for example, the above-mentioned three-dimensional tomographic image or Enface image).

眼科画像処理装置の制御部は、同時表示処理および切替表示処理の少なくとも一方を実行してもよい。同時表示処理では、制御部は、基画像と目的画像を表示装置に同時に表示させる。切替表示処理では、制御部は、ユーザによって入力された指示に応じて、基画像と目的画像を切り替えて表示装置に表示させる。この場合、ユーザは、ノイズの影響が抑制された目的画像と、目的画像の基となった基画像(原画像、または、原画像の加算平均画像)の両方を容易に確認することができる。よって、ユーザは、診断等をより適切に行うことができる。なお、基画像と目的画像は、同一の表示装置に表示されてもよいし、別々の表示装置に表示されてもよい。 The control unit of the ophthalmologic image processing apparatus may execute at least one of the simultaneous display processing and the switching display processing. In the simultaneous display process, the control unit causes the display device to display the base image and the target image at the same time. In the switching display process, the control unit switches between the base image and the target image and displays them on the display device in response to the instruction input by the user. In this case, the user can easily confirm both the target image in which the influence of noise is suppressed and the base image (original image or the averaging image of the original image) on which the target image is based. Therefore, the user can perform diagnosis and the like more appropriately. The base image and the target image may be displayed on the same display device or may be displayed on different display devices.

制御部は、眼科画像撮影装置によって連続して撮影される複数の基画像を取得してもよい。制御部は、取得した複数の基画像を数学モデルに順次入力することで、複数の目的画像を取得してもよい。制御部は、取得した複数の目的画像に基づいて、前記組織の動画データを生成してもよい。つまり、眼科画像処理装置は、複数の目的画像に基づいて組織の動画データを生成する動画生成ステップを実行してもよい。この場合、ユーザは、ノイズの影響が抑制された状態で表示される組織の動画を確認することができる。つまり、従来の技術でも、複数の眼科画像を加算平均することでノイズの影響を抑制することは可能である。しかし、従来の技術では、複数の眼科画像から1つの加算平均画像が作成されるので、加算平均画像を用いて組織の動画を表示させる場合には、フレームレートが著しく低下し易い。特に、撮影位置が時間の経過に伴って変化する場合等には、加算平均画像を用いて良好な動画を生成することは困難である。これに対し、本開示の眼科画像処理装置は、フレームレートが低下することを抑制しつつ、ノイズの影響が抑制された組織の動画を生成することが可能である。よって、ユーザは、診断等をより適切に行うことができる。 The control unit may acquire a plurality of basic images continuously captured by the ophthalmologic image capturing apparatus. The control unit may acquire a plurality of target images by sequentially inputting the acquired plurality of basic images into the mathematical model. The control unit may generate moving image data of the tissue based on the acquired plurality of target images. That is, the ophthalmic image processing apparatus may execute a moving image generation step of generating moving image data of the tissue based on a plurality of target images. In this case, the user can check the moving image of the tissue displayed in a state where the influence of noise is suppressed. That is, even with the conventional technique, it is possible to suppress the influence of noise by adding and averaging a plurality of ophthalmic images. However, in the conventional technique, since one averaging image is created from a plurality of ophthalmic images, the frame rate tends to decrease remarkably when displaying a moving image of a tissue using the averaging image. In particular, when the shooting position changes with the passage of time, it is difficult to generate a good moving image using the averaging image. On the other hand, the ophthalmic image processing apparatus of the present disclosure can generate a moving image of a tissue in which the influence of noise is suppressed while suppressing a decrease in the frame rate. Therefore, the user can perform diagnosis and the like more appropriately.

なお、制御部は、基画像の動画と目的画像の動画を表示装置に同時に表示させてもよい。また、制御部は、ユーザによって入力された指示に応じて、基画像の動画と目的画像の動画を切り替えて表示装置に表示させてもよい。この場合、ユーザは、目的画像の動画と基画像の動画の両方を容易に確認することができる。 The control unit may simultaneously display the moving image of the base image and the moving image of the target image on the display device. Further, the control unit may switch between the moving image of the base image and the moving image of the target image and display them on the display device in response to the instruction input by the user. In this case, the user can easily confirm both the moving image of the target image and the moving image of the base image.

数学モデル構築装置1、眼科画像処理装置21、および眼科画像撮影装置11A,11Bの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the mathematical model construction apparatus 1, the ophthalmologic image processing apparatus 21, and the ophthalmology imaging apparatus 11A, 11B. 数学モデル構築装置1が実行する数学モデル構築処理のフローチャートである。It is a flowchart of the mathematical model construction process executed by the mathematical model construction apparatus 1. 入力用訓練データと出力用訓練データの第1取得パターンを説明するための説明図である。It is explanatory drawing for demonstrating the 1st acquisition pattern of input training data and output training data. 入力用訓練データと出力用訓練データの第2取得パターンを説明するための説明図である。It is explanatory drawing for demonstrating the 2nd acquisition pattern of input training data and output training data. 入力用訓練データと出力用訓練データの第3取得パターンを説明するための説明図である。It is explanatory drawing for demonstrating the 3rd acquisition pattern of input training data and output training data. 入力用訓練データと出力用訓練データの第4取得パターンを説明するための説明図である。It is explanatory drawing for demonstrating the 4th acquisition pattern of input training data and output training data. 眼科画像処理装置21が実行する高画質動画生成処理のフローチャートである。It is a flowchart of high-quality moving image generation processing executed by ophthalmic image processing apparatus 21. 眼科画像処理装置21が実行する高画質三次元画像生成処理のフローチャートである。It is a flowchart of the high-quality three-dimensional image generation processing executed by an ophthalmologic image processing apparatus 21. 高画質三次元画像40の一例を示す図である。It is a figure which shows an example of a high-quality three-dimensional image 40.

(装置構成)
以下、本開示における典型的な実施形態の1つについて、図面を参照して説明する。図1に示すように、本実施形態では、数学モデル構築装置1、眼科画像処理装置21、および眼科画像撮影装置11A,11Bが用いられる。数学モデル構築装置1は、機械学習アルゴリズムによって数学モデルを訓練させることで、数学モデルを構築する。構築された数学モデルは、入力された基画像に基づいて、基画像よりも高画質の(本実施形態では、ノイズの影響が適切に抑制された)目的画像を出力する。眼科画像処理装置21は、数学モデルを用いて、基画像から目的画像を取得する。眼科画像撮影装置11A,11Bは、被検眼の組織の画像である眼科画像を撮影する。
(Device configuration)
Hereinafter, one of the typical embodiments in the present disclosure will be described with reference to the drawings. As shown in FIG. 1, in this embodiment, the mathematical model construction device 1, the ophthalmic image processing device 21, and the ophthalmic imaging devices 11A and 11B are used. The mathematical model construction device 1 constructs a mathematical model by training the mathematical model by a machine learning algorithm. The constructed mathematical model outputs a target image having a higher image quality than the base image (in the present embodiment, the influence of noise is appropriately suppressed) based on the input base image. The ophthalmic image processing apparatus 21 acquires a target image from the base image by using a mathematical model. The ophthalmic imaging devices 11A and 11B capture an ophthalmic image which is an image of the tissue of the eye to be inspected.

一例として、本実施形態の数学モデル構築装置1にはパーソナルコンピュータ(以下、「PC」という)が用いられる。詳細は後述するが、数学モデル構築装置1は、眼科画像撮影装置11Aから取得した眼科画像を利用して数学モデルを訓練させることで、数学モデルを構築する。しかし、数学モデル構築装置1として機能できるデバイスは、PCに限定されない。例えば、眼科画像撮影装置11Aが数学モデル構築装置1として機能してもよい。また、複数のデバイスの制御部(例えば、PCのCPUと、眼科画像撮影装置11AのCPU13A)が、協働して数学モデルを構築してもよい。 As an example, a personal computer (hereinafter referred to as "PC") is used for the mathematical model building apparatus 1 of the present embodiment. Although the details will be described later, the mathematical model building apparatus 1 constructs a mathematical model by training the mathematical model using the ophthalmic image acquired from the ophthalmic imaging apparatus 11A. However, the device that can function as the mathematical model construction device 1 is not limited to the PC. For example, the ophthalmologic imaging device 11A may function as the mathematical model building device 1. Further, the control units of the plurality of devices (for example, the CPU of the PC and the CPU 13A of the ophthalmologic imaging apparatus 11A) may collaborate to construct a mathematical model.

また、本実施形態の眼科画像処理装置21にはPCが用いられる。しかし、眼科画像処理装置21として機能できるデバイスも、PCに限定されない。例えば、眼科画像撮影装置11Bまたはサーバ等が、眼科画像処理装置21として機能してもよい。眼科画像撮影装置(本実施形態ではOCT装置)11Bが眼科画像処理装置21として機能する場合、眼科画像撮影装置11Bは、眼科画像を撮影しつつ、撮影した眼科画像よりも高画質の眼科画像を適切に取得することができる。また、タブレット端末またはスマートフォン等の携帯端末が、眼科画像処理装置21として機能してもよい。複数のデバイスの制御部(例えば、PCのCPUと、眼科画像撮影装置11BのCPU13B)が、協働して各種処理を行ってもよい。 Further, a PC is used for the ophthalmic image processing device 21 of the present embodiment. However, the device that can function as the ophthalmic image processing device 21 is not limited to the PC. For example, the ophthalmic imaging device 11B or a server may function as the ophthalmic image processing device 21. When the ophthalmologic image capturing device (OCT device in the present embodiment) 11B functions as the ophthalmologic image processing device 21, the ophthalmologic image capturing device 11B captures the ophthalmic image while producing an ophthalmic image having a higher image quality than the captured ophthalmic image. Can be obtained properly. Further, a mobile terminal such as a tablet terminal or a smartphone may function as the ophthalmic image processing device 21. The control units of the plurality of devices (for example, the CPU of the PC and the CPU 13B of the ophthalmologic image capturing device 11B) may cooperate to perform various processes.

また、本実施形態では、各種処理を行うコントローラの一例としてCPUが用いられる場合について例示する。しかし、各種デバイスの少なくとも一部に、CPU以外のコントローラが用いられてもよいことは言うまでもない。例えば、コントローラとしてGPUを採用することで、処理の高速化を図ってもよい。 Further, in the present embodiment, a case where a CPU is used as an example of a controller that performs various processes will be illustrated. However, it goes without saying that a controller other than the CPU may be used for at least a part of various devices. For example, by adopting a GPU as a controller, the processing speed may be increased.

数学モデル構築装置1について説明する。数学モデル構築装置1は、例えば、眼科画像処理装置21または眼科画像処理プログラムをユーザに提供するメーカー等に配置される。数学モデル構築装置1は、各種制御処理を行う制御ユニット2と、通信I/F5を備える。制御ユニット2は、制御を司るコントローラであるCPU3と、プログラムおよびデータ等を記憶することが可能な記憶装置4を備える。記憶装置4には、後述する数学モデル構築処理(図2参照)を実行するための数学モデル構築プログラムが記憶されている。また、通信I/F5は、数学モデル構築装置1を他のデバイス(例えば、眼科画像撮影装置11Aおよび眼科画像処理装置21等)と接続する。 The mathematical model construction device 1 will be described. The mathematical model construction device 1 is arranged, for example, in an ophthalmic image processing device 21 or a manufacturer that provides an ophthalmic image processing program to a user. The mathematical model building apparatus 1 includes a control unit 2 that performs various control processes and a communication I / F5. The control unit 2 includes a CPU 3 which is a controller that controls control, and a storage device 4 that can store programs, data, and the like. The storage device 4 stores a mathematical model construction program for executing a mathematical model construction process (see FIG. 2) described later. Further, the communication I / F5 connects the mathematical model building apparatus 1 to other devices (for example, an ophthalmic imaging apparatus 11A and an ophthalmic image processing apparatus 21).

数学モデル構築装置1は、操作部7および表示装置8に接続されている。操作部7は、ユーザが各種指示を数学モデル構築装置1に入力するために、ユーザによって操作される。操作部7には、例えば、キーボード、マウス、タッチパネル等の少なくともいずれかを使用できる。なお、操作部7と共に、または操作部7に代えて、各種指示を入力するためのマイク等が使用されてもよい。表示装置8は、各種画像を表示する。表示装置8には、画像を表示可能な種々のデバイス(例えば、モニタ、ディスプレイ、プロジェクタ等の少なくともいずれか)を使用できる。なお、本開示における「画像」には、静止画像も動画像も共に含まれる。 The mathematical model construction device 1 is connected to the operation unit 7 and the display device 8. The operation unit 7 is operated by the user in order for the user to input various instructions to the mathematical model construction device 1. For the operation unit 7, for example, at least one of a keyboard, a mouse, a touch panel, and the like can be used. A microphone or the like for inputting various instructions may be used together with the operation unit 7 or instead of the operation unit 7. The display device 8 displays various images. As the display device 8, various devices capable of displaying an image (for example, at least one of a monitor, a display, a projector, and the like) can be used. The "image" in the present disclosure includes both a still image and a moving image.

数学モデル構築装置1は、眼科画像撮影装置11Aから眼科画像のデータ(以下、単に「眼科画像」という場合もある)を取得することができる。数学モデル構築装置1は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、眼科画像撮影装置11Aから眼科画像のデータを取得してもよい。 The mathematical model building apparatus 1 can acquire data of an ophthalmic image (hereinafter, may be simply referred to as an “ophthalmic image”) from the ophthalmic imaging apparatus 11A. The mathematical model building apparatus 1 may acquire ophthalmic image data from the ophthalmic imaging apparatus 11A by, for example, at least one of wired communication, wireless communication, a detachable storage medium (for example, a USB memory), and the like.

眼科画像処理装置21について説明する。眼科画像処理装置21は、例えば、被検者の診断または検査等を行う施設(例えば、病院または健康診断施設等)に配置される。眼科画像処理装置21は、各種制御処理を行う制御ユニット22と、通信I/F25を備える。制御ユニット22は、制御を司るコントローラであるCPU23と、プログラムおよびデータ等を記憶することが可能な記憶装置24を備える。記憶装置24には、後述する眼科画像処理(例えば、図7に例示する高画質動画生成処理、および、図8に示す高画質三次元画像生成処理等)を実行するための眼科画像処理プログラムが記憶されている。眼科画像処理プログラムには、数学モデル構築装置1によって構築された数学モデルを実現させるプログラムが含まれる。通信I/F25は、眼科画像処理装置21を他のデバイス(例えば、眼科画像撮影装置11Bおよび数学モデル構築装置1等)と接続する。 The ophthalmic image processing apparatus 21 will be described. The ophthalmologic image processing device 21 is arranged, for example, in a facility (for example, a hospital or a health examination facility) for diagnosing or examining a subject. The ophthalmic image processing device 21 includes a control unit 22 that performs various control processes and a communication I / F 25. The control unit 22 includes a CPU 23, which is a controller that controls control, and a storage device 24 that can store programs, data, and the like. The storage device 24 is provided with an ophthalmic image processing program for executing ophthalmic image processing described later (for example, high-quality moving image generation processing illustrated in FIG. 7, high-quality three-dimensional image generation processing shown in FIG. 8 and the like). It is remembered. The ophthalmic image processing program includes a program that realizes a mathematical model constructed by the mathematical model construction apparatus 1. The communication I / F 25 connects the ophthalmic image processing device 21 to other devices (for example, the ophthalmic imaging device 11B and the mathematical model building device 1).

眼科画像処理装置21は、操作部27および表示装置28に接続されている。操作部27および表示装置28には、前述した操作部7および表示装置8と同様に、種々のデバイスを使用することができる。 The ophthalmic image processing device 21 is connected to the operation unit 27 and the display device 28. As the operation unit 27 and the display device 28, various devices can be used in the same manner as the operation unit 7 and the display device 8 described above.

眼科画像処理装置21は、眼科画像撮影装置11Bから眼科画像を取得することができる。眼科画像処理装置21は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、眼科画像撮影装置11Bから眼科画像を取得してもよい。また、眼科画像処理装置21は、数学モデル構築装置1によって構築された数学モデルを実現させるプログラム等を、通信等を介して取得してもよい。 The ophthalmic image processing device 21 can acquire an ophthalmic image from the ophthalmic image capturing device 11B. The ophthalmic image processing device 21 may acquire an ophthalmic image from the ophthalmic image capturing device 11B by, for example, at least one of wired communication, wireless communication, a detachable storage medium (for example, a USB memory), and the like. Further, the ophthalmic image processing device 21 may acquire a program or the like for realizing the mathematical model constructed by the mathematical model building device 1 via communication or the like.

眼科画像撮影装置11A,11Bについて説明する。一例として、本実施形態では、数学モデル構築装置1に眼科画像を提供する眼科画像撮影装置11Aと、眼科画像処理装置21に眼科画像を提供する眼科画像撮影装置11Bが使用される場合について説明する。しかし、使用される眼科画像撮影装置の数は2つに限定されない。例えば、数学モデル構築装置1および眼科画像処理装置21は、複数の眼科画像撮影装置から眼科画像を取得してもよい。また、数学モデル構築装置1および眼科画像処理装置21は、共通する1つの眼科画像撮影装置から眼科画像を取得してもよい。なお、本実施形態で例示する2つの眼科画像撮影装置11A,11Bは、同一の構成を備える。従って、以下では、2つの眼科画像撮影装置11A,11Bについて纏めて説明を行う。 The ophthalmic imaging devices 11A and 11B will be described. As an example, in the present embodiment, a case where an ophthalmic image capturing device 11A for providing an ophthalmic image to the mathematical model building apparatus 1 and an ophthalmologic imaging device 11B for providing an ophthalmic image to the ophthalmic image processing device 21 will be described. .. However, the number of ophthalmic imaging devices used is not limited to two. For example, the mathematical model construction device 1 and the ophthalmic image processing device 21 may acquire ophthalmic images from a plurality of ophthalmic imaging devices. Further, the mathematical model construction device 1 and the ophthalmology image processing device 21 may acquire an ophthalmology image from one common ophthalmology image capturing device. The two ophthalmologic imaging devices 11A and 11B illustrated in this embodiment have the same configuration. Therefore, in the following, the two ophthalmologic imaging devices 11A and 11B will be collectively described.

また、本実施形態では、眼科画像撮影装置11(11A,11B)として、OCT装置を例示する。ただし、OCT装置以外の眼科画像撮影装置(例えば、レーザ走査型検眼装置(SLO)、眼底カメラ、または角膜内皮細胞撮影装置(CEM)等)が用いられてもよい。 Further, in the present embodiment, the OCT apparatus is exemplified as the ophthalmologic imaging apparatus 11 (11A, 11B). However, an ophthalmologic imaging apparatus other than the OCT apparatus (for example, a laser scanning optometry apparatus (SLO), a fundus camera, a corneal endothelial cell imaging apparatus (CEM), etc.) may be used.

眼科画像撮影装置11(11A,11B)は、各種制御処理を行う制御ユニット12(12A,12B)と、眼科画像撮影部16(16A,16B)を備える。制御ユニット12は、制御を司るコントローラであるCPU13(13A,13B)と、プログラムおよびデータ等を記憶することが可能な記憶装置14(14A,14B)を備える。 The ophthalmic imaging apparatus 11 (11A, 11B) includes a control unit 12 (12A, 12B) that performs various control processes, and an ophthalmic imaging unit 16 (16A, 16B). The control unit 12 includes a CPU 13 (13A, 13B) which is a controller that controls control, and a storage device 14 (14A, 14B) capable of storing programs, data, and the like.

眼科画像撮影部16は、被検眼の眼科画像を撮影するために必要な各種構成を備える。本実施形態の眼科画像撮影部16には、OCT光源、OCT光源から出射されたOCT光を測定光と参照光に分岐する分岐光学素子、測定光を走査するための走査部、測定光を被検眼に照射するための光学系、被検眼の組織によって反射された光と参照光の合成光を受光する受光素子等が含まれる。 The ophthalmic imaging unit 16 includes various configurations necessary for capturing an ophthalmic image of the eye to be inspected. The ophthalmic imaging unit 16 of the present embodiment is provided with an OCT light source, a branched optical element that branches OCT light emitted from the OCT light source into measurement light and reference light, a scanning unit for scanning the measurement light, and measurement light. It includes an optical system for irradiating the eye examination, a light receiving element that receives the combined light of the light reflected by the tissue of the eye to be inspected and the reference light, and the like.

眼科画像撮影装置11は、被検眼の眼底の二次元断層画像および三次元断層画像を撮影することができる。詳細には、CPU13は、スキャンライン上にOCT光(測定光)を走査させることで、スキャンラインに交差する断面の二次元断層画像を撮影する。また、CPU13は、OCT光を二次元的に走査することによって、組織における三次元断層画像を撮影することができる。例えば、CPU13は、組織を正面から見た際の二次元の領域内において、位置が互いに異なる複数のスキャンライン上の各々に測定光を走査させることで、複数の二次元断層画像を取得する。次いで、CPU13は、撮影された複数の二次元断層画像を組み合わせることで、三次元断層画像を取得する。 The ophthalmologic imaging apparatus 11 can capture a two-dimensional tomographic image and a three-dimensional tomographic image of the fundus of the eye to be inspected. Specifically, the CPU 13 captures a two-dimensional tomographic image of a cross section intersecting the scan line by scanning the OCT light (measurement light) on the scan line. Further, the CPU 13 can take a three-dimensional tomographic image of the tissue by scanning the OCT light two-dimensionally. For example, the CPU 13 acquires a plurality of two-dimensional tomographic images by scanning measurement light on each of a plurality of scan lines having different positions in a two-dimensional region when the tissue is viewed from the front. Next, the CPU 13 acquires a three-dimensional tomographic image by combining a plurality of captured two-dimensional tomographic images.

さらに、CPU13は、組織上の同一部位(本実施形態では、同一のスキャンライン上)に測定光を複数回走査させることで、同一部位の眼科画像を複数撮影する。CPU13は、同一部位の複数の眼科画像に対して加算平均処理を行うことで、スペックルノイズの影響が抑制された加算平均画像を取得することができる。加算平均処理は、例えば、複数の眼科画像のうち、同一の位置の画素の画素値を平均化することで行われてもよい。加算平均処理を行う画像の数が多い程、スペックルノイズの影響は抑制され易いが、撮影時間は長くなる。なお、眼科画像撮影装置11は、同一部位の眼科画像を複数撮影する間に、被検眼の動きにOCT光の走査位置を追従させるトラッキング処理を実行する。 Further, the CPU 13 captures a plurality of ophthalmic images of the same site by scanning the measurement light a plurality of times on the same site on the tissue (on the same scan line in the present embodiment). The CPU 13 can acquire an averaging image in which the influence of speckle noise is suppressed by performing an averaging process on a plurality of ophthalmic images of the same portion. The addition averaging process may be performed, for example, by averaging the pixel values of the pixels at the same position in a plurality of ophthalmic images. The larger the number of images to be subjected to the averaging process, the easier it is to suppress the influence of speckle noise, but the longer the shooting time. The ophthalmologic image capturing device 11 executes a tracking process for tracking the scanning position of the OCT light with the movement of the eye to be inspected while taking a plurality of ophthalmic images of the same site.

(数学モデル構築処理)
図2〜図6を参照して、数学モデル構築装置1が実行する数学モデル構築処理について説明する。数学モデル構築処理は、記憶装置4に記憶された数学モデル構築プログラムに従って、CPU3によって実行される。
(Mathematical model construction process)
The mathematical model construction process executed by the mathematical model construction apparatus 1 will be described with reference to FIGS. 2 to 6. The mathematical model construction process is executed by the CPU 3 according to the mathematical model construction program stored in the storage device 4.

数学モデル構築処理では、訓練データセットによって数学モデルが訓練されることで、基画像から高画質の目的画像を出力するための数学モデルが構築される。詳細は後述するが、訓練データセットには、入力用訓練データと出力用訓練データが含まれる。本実施形態では、入力用訓練データとして、1枚〜複数枚の眼科画像(本実施形態では眼底の二次元断層画像)に基づくデータが使用される。また、出力用訓練データとして、入力用訓練データに使用される眼科画像の枚数(L枚)よりも多い枚数(H枚)の眼科画像に基づく加算平均画像のデータが使用される。入力用訓練データと出力用訓練データは、組織の同一部位を撮影対象としている。 In the mathematical model construction process, the mathematical model is trained by the training data set, so that a mathematical model for outputting a high-quality target image from the base image is constructed. Although details will be described later, the training data set includes training data for input and training data for output. In this embodiment, as input training data, data based on one to a plurality of ophthalmic images (in this embodiment, a two-dimensional tomographic image of the fundus) is used. Further, as the output training data, the data of the addition average image based on the number of ophthalmic images (H) larger than the number of ophthalmic images (L) used for the input training data is used. The input training data and the output training data target the same part of the tissue.

図2に示すように、CPU3は、組織の同一部位を撮影した複数の訓練用眼科画像300A〜300X(Xは2以上の任意の整数)のセット30(図3〜図6参照)を取得する(S1)。詳細には、本実施形態では、眼底上の同一のスキャンライン上にOCT光を複数回走査させることで撮影された、複数の二次元断層画像のセットが、訓練用眼科画像のセットとして、眼科画像撮影装置11Aから取得される。ただし、CPU3は、二次元断層画像を生成する基となる信号(例えばOCT信号)を眼科画像撮影装置11Aから取得し、取得した信号に基づいて二次元断層画像を生成することで、二次元断層画像を取得してもよい。 As shown in FIG. 2, the CPU 3 acquires a set 30 (see FIGS. 3 to 6) of a plurality of training ophthalmic images 300A to 300X (X is an arbitrary integer of 2 or more) in which the same part of the tissue is photographed. (S1). Specifically, in the present embodiment, a set of a plurality of two-dimensional tomographic images taken by scanning OCT light a plurality of times on the same scan line on the fundus is used as a set of training ophthalmic images for ophthalmology. Obtained from the image capturing device 11A. However, the CPU 3 acquires a signal (for example, an OCT signal) that is a basis for generating a two-dimensional tomographic image from the ophthalmic imaging apparatus 11A, and generates a two-dimensional tomographic image based on the acquired signal to generate a two-dimensional tomographic image. Images may be acquired.

次いで、CPU3は、セット30内の複数の訓練用眼科画像300A〜300Xの一部から、入力用訓練データを取得する(S2)。入力用訓練データの具体的な取得方法は適宜選択できるが、この詳細については、図3〜図6を参照して後述する。 Next, the CPU 3 acquires input training data from a part of the plurality of training ophthalmic images 300A to 300X in the set 30 (S2). A specific acquisition method of the training data for input can be appropriately selected, and the details thereof will be described later with reference to FIGS. 3 to 6.

次いで、CPU3は、セット30内の複数の訓練用眼科画像300A〜300Xの加算平均画像31(図3〜図6参照)を、出力用訓練データとして取得する(S3)。前述したように、出力用訓練データである加算平均画像31に使用される訓練用眼科画像の枚数Hは、入力用訓練データに使用される訓練用眼科画像の枚数Lよりも多い。一例として、本実施形態では、図3〜図6に示すように、セット30内の複数の訓練用眼科画像300A〜300Xの全て(例えば120枚)が、加算平均画像31に使用される。なお、加算平均画像31は、数学モデル構築装置1が生成してもよい。また、数学モデル構築装置1は、眼科画像撮影装置11Aによって生成された加算平均画像31を取得してもよい。 Next, the CPU 3 acquires the averaging images 31 (see FIGS. 3 to 6) of the plurality of training ophthalmic images 300A to 300X in the set 30 as output training data (S3). As described above, the number H of the training ophthalmic images used for the additional average image 31 which is the output training data is larger than the number L of the training ophthalmic images used for the input training data. As an example, in the present embodiment, as shown in FIGS. 3 to 6, all of the plurality of training ophthalmic images 300A to 300X (for example, 120 images) in the set 30 are used for the averaging image 31. The addition average image 31 may be generated by the mathematical model building apparatus 1. Further, the mathematical model building apparatus 1 may acquire the averaging image 31 generated by the ophthalmologic imaging apparatus 11A.

図3を参照して、入力用訓練データの第1取得パターンについて説明する。第1取得パターンでは、CPU3は、セット30内に含まれる複数の訓練用眼科画像300A〜300Xのうち、1枚の訓練用眼科画像300Aのそのもの(つまり、加算平均処理されていない原画像)のデータを、入力用訓練データとして取得する。この場合、眼科画像処理装置21は、構築された数学モデルに基画像を入力して目的画像を取得する際に、1枚の原画像を基画像として数学モデルに入力することが好ましい。眼科画像処理装置21は、1枚の基画像に基づいて目的画像を取得することができるので、基画像の撮影時間が短縮され易い。また、目的画像の動画を生成する際に、動画のフレームレートを大きくし易い。 The first acquisition pattern of the training data for input will be described with reference to FIG. In the first acquisition pattern, the CPU 3 is one of the plurality of training ophthalmic images 300A to 300X included in the set 30 of the training ophthalmic image 300A itself (that is, the original image not subjected to addition averaging processing). The data is acquired as training data for input. In this case, when the ophthalmic image processing apparatus 21 inputs a base image to the constructed mathematical model to acquire a target image, it is preferable that one original image is input to the mathematical model as the base image. Since the ophthalmic image processing device 21 can acquire the target image based on one base image, the shooting time of the base image can be easily shortened. In addition, when generating a moving image of a target image, it is easy to increase the frame rate of the moving image.

図4を参照して、入力用訓練データの第2取得パターンについて説明する。第2取得パターンでは、CPU3は、セット30内に含まれる複数の訓練用眼科画像300A〜300Xのうち、複数枚の訓練用眼科画像の原画像のデータを、入力用訓練データとして取得する。図4に示す例では、2枚の訓練用眼科画像300A,300Bのデータが、入力用訓練データとして取得されている。しかし、入力用訓練データとして取得する訓練用眼科画像の枚数は、加算平均画像31に使用される訓練用眼科画像の枚数よりも少ない範囲内で変更することができる。第2取得パターンが採用される場合、眼科画像処理装置21は、構築された数学モデルに基画像を入力する際に、入力用訓練データとして使用された訓練用眼科画像の枚数に極力近い枚数の原画像を、基画像として数学モデルに入力することが好ましい。この場合には、1枚の原画像が基画像がとして数学モデルに入力される場合に比べて、取得される目的画像の品質が向上し易い。ただし、第2取得パターンが採用された場合でも、1枚の原画像が基画像として数学モデルに入力されてもよい。以上のように、入力用訓練データとして原画像が使用される場合、使用される原画像の枚数Lは、1以上、且つ、加算平均画像31に使用される枚数よりも小さい数となる。 The second acquisition pattern of the training data for input will be described with reference to FIG. In the second acquisition pattern, the CPU 3 acquires the data of the original images of the plurality of training ophthalmic images among the plurality of training ophthalmic images 300A to 300X included in the set 30 as the input training data. In the example shown in FIG. 4, the data of the two training ophthalmic images 300A and 300B are acquired as the training data for input. However, the number of training ophthalmic images acquired as input training data can be changed within a range smaller than the number of training ophthalmic images used for the addition average image 31. When the second acquisition pattern is adopted, the ophthalmic image processing apparatus 21 has an number of images as close as possible to the number of training ophthalmic images used as input training data when inputting a base image into the constructed mathematical model. It is preferable to input the original image as a base image into the mathematical model. In this case, the quality of the acquired target image is likely to be improved as compared with the case where one original image is input to the mathematical model as the base image. However, even when the second acquisition pattern is adopted, one original image may be input to the mathematical model as the base image. As described above, when the original image is used as the input training data, the number L of the original images used is 1 or more and smaller than the number used for the averaging image 31.

図5を参照して、入力用訓練データの第3取得パターンについて説明する。第3取得パターンでは、CPU3は、セット30内に含まれる複数の訓練用眼科画像300A〜300Xのうち、L枚(L≧2)の訓練用眼科画像を加算平均した加算平均画像32のデータを、入力用訓練データとして取得する。図5に示す例では、2枚の訓練用眼科画像300A,300Bの加算平均画像32のデータが、入力用訓練データとして取得されている。しかし、加算平均画像32に使用される訓練用眼科画像の枚数は、加算平均画像31に使用される訓練用眼科画像の枚数よりも少ない範囲内で変更することができる。第3取得パターンが採用される場合、眼科画像処理装置21は、構築された数学モデルに基画像を入力する際に、加算平均画像を基画像として入力することが好ましい。基画像の加算平均に使用する眼科画像の枚数は、加算平均画像32に使用される訓練用眼科画像の枚数に極力近いことが好ましい。この場合には、1枚の原画像が基画像として数学モデルに入力される場合に比べて、取得される目的画像の品質が向上し易い。ただし、第3取得パターンが採用された場合でも、1枚の原画像が基画像として数学モデルに入力されてもよい。 The third acquisition pattern of the training data for input will be described with reference to FIG. In the third acquisition pattern, the CPU 3 obtains the data of the added average image 32 obtained by adding and averaging L (L ≧ 2) training ophthalmic images out of the plurality of training ophthalmic images 300A to 300X included in the set 30. , Acquire as training data for input. In the example shown in FIG. 5, the data of the averaging image 32 of the two training ophthalmic images 300A and 300B are acquired as the training data for input. However, the number of training ophthalmic images used for the averaging image 32 can be changed within a range smaller than the number of training ophthalmic images used for the averaging image 31. When the third acquisition pattern is adopted, the ophthalmic image processing apparatus 21 preferably inputs the averaging image as the base image when inputting the base image into the constructed mathematical model. The number of ophthalmic images used for the averaging of the base images is preferably as close as possible to the number of training ophthalmic images used for the averaging image 32. In this case, the quality of the acquired target image is likely to be improved as compared with the case where one original image is input to the mathematical model as the base image. However, even when the third acquisition pattern is adopted, one original image may be input to the mathematical model as the base image.

図6を参照して、入力用訓練データの第4取得パターンについて説明する。第4取得パターンでは、CPU3は、L枚(L≧2)の訓練用眼科画像を加算平均した加算平均画像32を複数枚取得し、取得した複数枚の加算平均画像32のデータを入力用訓練データとして使用する。図6に示す例では、2枚の加算平均画像32A,32Bのデータが、入力用訓練データとして取得されている。しかし、加算平均画像32の枚数を変更することも可能である。第4取得パターンが採用される場合、眼科画像処理装置21は、構築された数学モデルに基画像を入力する際に、複数枚の加算平均画像を基画像として入力することが好ましい。この場合には、1枚の原画像が基画像として入力される場合に比べて、取得される目的画像の品質が向上し易い。ただし、第4取得パターンが採用された場合でも、1枚の原画像が基画像として数学モデルに入力されてもよい。 The fourth acquisition pattern of the training data for input will be described with reference to FIG. In the fourth acquisition pattern, the CPU 3 acquires a plurality of added average images 32 obtained by adding and averaging L (L ≧ 2) training ophthalmic images, and inputs the data of the acquired plurality of added average images 32 for input training. Use as data. In the example shown in FIG. 6, the data of the two averaging images 32A and 32B are acquired as input training data. However, it is also possible to change the number of additional average images 32. When the fourth acquisition pattern is adopted, the ophthalmic image processing apparatus 21 preferably inputs a plurality of averaging images as the base image when inputting the base image into the constructed mathematical model. In this case, the quality of the acquired target image is likely to be improved as compared with the case where one original image is input as the base image. However, even when the fourth acquisition pattern is adopted, one original image may be input to the mathematical model as a base image.

以上説明した4つのパターンは一例であり、上記のパターンを変更することも可能である。例えば、CPU3は、P枚の訓練用眼科画像の原画像のデータと、P´枚の訓練用眼科画像の加算平均画像32のデータを、共に入力用訓練データとして使用してもよい。この場合、出力用訓練データである加算平均画像31に使用される訓練用眼科画像の枚数は、入力用訓練データに使用される訓練用眼科画像の枚数(例えば、PとP´の和)よりも多い。 The four patterns described above are examples, and the above patterns can be changed. For example, the CPU 3 may use both the data of the original image of the P training ophthalmic images and the data of the added average image 32 of the P'training ophthalmic images as the input training data. In this case, the number of training ophthalmic images used for the added average image 31 which is the output training data is based on the number of training ophthalmic images used for the input training data (for example, the sum of P and P'). There are also many.

また、1組の訓練用眼科画像300A〜300Xのセット30から、複数組の訓練データセットを取得することも可能である。例えば、図3に示す例では、訓練用眼科画像300Aのデータを入力用訓練データとし、加算平均画像31のデータを出力用訓練データとする1組の訓練データセットが取得されている。ここで、CPU3は、同一のセット30から、訓練用眼科画像300Bのデータを入力用訓練データとし、加算平均画像31のデータを出力用訓練データとする訓練データセットを取得することも可能である。 It is also possible to acquire a plurality of sets of training data sets from a set 30 of one set of training ophthalmic images 300A to 300X. For example, in the example shown in FIG. 3, a set of training data sets is acquired in which the data of the training ophthalmic image 300A is used as the input training data and the data of the addition average image 31 is used as the output training data. Here, the CPU 3 can also acquire a training data set from the same set 30 in which the data of the training ophthalmic image 300B is used as the input training data and the data of the addition average image 31 is used as the output training data. ..

図2の説明に戻る。CPU3は、機械学習アルゴリズムによって、訓練データセットを用いた数学モデルの訓練を実行する(S4)。機械学習アルゴリズムとしては、例えば、ニューラルネットワーク、ランダムフォレスト、ブースティング、サポートベクターマシン(SVM)等が一般的に知られている。 Returning to the description of FIG. The CPU 3 uses a machine learning algorithm to train a mathematical model using a training data set (S4). As the machine learning algorithm, for example, a neural network, a random forest, a boosting, a support vector machine (SVM), and the like are generally known.

ニューラルネットワークは、生物の神経細胞ネットワークの挙動を模倣する手法である。ニューラルネットワークには、例えば、フィードフォワード(順伝播型)ニューラルネットワーク、RBFネットワーク(放射基底関数)、スパイキングニューラルネットワーク、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク(リカレントニューラルネット、フィードバックニューラルネット等)、確率的ニューラルネット(ボルツマンマシン、ベイシアンネットワーク等)等がある。 Neural networks are a technique that mimics the behavior of biological nerve cell networks. Neural networks include, for example, feed-forward (forward propagation) neural networks, RBF networks (radial basis functions), spiking neural networks, convolutional neural networks, recursive neural networks (recurrent neural networks, feedback neural networks, etc.), and probabilities. Neural networks (Boltzmann machines, Basian networks, etc.).

ランダムフォレストは、ランダムサンプリングされた訓練データに基づいて学習を行って、多数の決定木を生成する方法である。ランダムフォレストを用いる場合、予め識別器として学習しておいた複数の決定木の分岐を辿り、各決定木から得られる結果の平均(あるいは多数決)を取る。 Random forest is a method of learning based on randomly sampled training data to generate a large number of decision trees. When using a random forest, the branches of a plurality of decision trees learned in advance as a discriminator are traced, and the average (or majority vote) of the results obtained from each decision tree is taken.

ブースティングは、複数の弱識別器を組み合わせることで強識別器を生成する手法である。単純で弱い識別器を逐次的に学習させることで、強識別器を構築する。 Boosting is a method of generating a strong classifier by combining a plurality of weak classifiers. A strong classifier is constructed by sequentially learning simple and weak classifiers.

SVMは、線形入力素子を利用して2クラスのパターン識別器を構成する手法である。SVMは、例えば、訓練データから、各データ点との距離が最大となるマージン最大化超平面を求めるという基準(超平面分離定理)で、線形入力素子のパラメータを学習する。 SVM is a method of constructing a two-class pattern classifier using a linear input element. The SVM learns the parameters of the linear input element based on, for example, the criterion (hyperplane separation theorem) of obtaining the margin maximizing hyperplane that maximizes the distance from each data point from the training data.

数学モデルは、例えば、入力データと出力データの関係を予測するためのデータ構造を指す。数学モデルは、訓練データセットを用いて訓練されることで構築される。訓練データセットは、入力用訓練データと出力用訓練データのセットである。数学モデルは、ある入力用訓練データが入力された時に、それに対応する出力用訓練データが出力されるように訓練される。例えば、訓練によって、各入力と出力の相関データ(例えば、重み)が更新される。 A mathematical model refers, for example, to a data structure for predicting the relationship between input data and output data. Mathematical models are constructed by training with training datasets. The training data set is a set of training data for input and training data for output. The mathematical model is trained so that when certain input training data is input, the corresponding output training data is output. For example, training updates the correlation data (eg, weights) for each input and output.

本実施形態では、機械学習アルゴリズムとして多層型のニューラルネットワークが用いられている。ニューラルネットワークは、データを入力するための入力層と、予測したいデータを生成するための出力層と、入力層と出力層の間の1つ以上の隠れ層を含む。各層には、複数のノード(ユニットとも言われる)が配置される。詳細には、本実施形態では、多層型ニューラルネットワークの一種である畳み込みニューラルネットワーク(CNN)が用いられている。ただし、他の機械学習アルゴリズムが用いられてもよい。例えば、競合する2つのニューラルネットワークを利用する敵対的生成ネットワーク(Generative adversarial networks:GAN)が、機械学習アルゴリズムとして採用されてもよい。 In this embodiment, a multi-layer neural network is used as a machine learning algorithm. A neural network includes an input layer for inputting data, an output layer for generating the data to be predicted, and one or more hidden layers between the input layer and the output layer. A plurality of nodes (also called units) are arranged in each layer. Specifically, in this embodiment, a convolutional neural network (CNN), which is a kind of multi-layer neural network, is used. However, other machine learning algorithms may be used. For example, a hostile generative network (GAN) that utilizes two competing neural networks may be adopted as a machine learning algorithm.

数学モデルの構築が完了するまで(S5:NO)、S1〜S4の処理が繰り返される。数学モデルの構築が完了すると(S5:YES)、数学モデル構築処理は終了する。構築された数学モデルを実現させるプログラムおよびデータは、眼科画像処理装置21に組み込まれる。 The processes of S1 to S4 are repeated until the construction of the mathematical model is completed (S5: NO). When the construction of the mathematical model is completed (S5: YES), the mathematical model construction process is completed. The program and data for realizing the constructed mathematical model are incorporated in the ophthalmologic image processing apparatus 21.

(眼科画像処理)
図7〜図9を参照して、眼科画像処理装置21が実行する眼科画像処理について説明する。眼科画像処理は、記憶装置24に記憶された眼科画像処理プログラムに従って、CPU23によって実行される。
(Ophthalmic image processing)
The ophthalmic image processing executed by the ophthalmic image processing apparatus 21 will be described with reference to FIGS. 7 to 9. The ophthalmic image processing is executed by the CPU 23 according to the ophthalmic image processing program stored in the storage device 24.

図7を参照して、眼科画像処理の一例である高画質動画生成処理について説明する。高画質動画生成処理では、数学モデルを用いて高画質の目的画像の静止画が取得されると共に、組織の高画質の動画が生成される。 A high-quality moving image generation process, which is an example of ophthalmic image processing, will be described with reference to FIG. 7. In the high-quality moving image generation process, a still image of a high-quality target image is acquired using a mathematical model, and a high-quality moving image of the tissue is generated.

まず、CPU23は、眼科画像(静止画像)である基画像を取得する(S11)。本実施形態の基画像は、前述した訓練用眼科画像300A〜300Xと同様に、眼底の二次元断層画像である。CPU23は、前述した数学モデルに基画像を入力することで、基画像よりも高画質の目的画像を取得する(S12)。 First, the CPU 23 acquires a base image which is an ophthalmic image (still image) (S11). The base image of this embodiment is a two-dimensional tomographic image of the fundus of the eye, similar to the above-mentioned training ophthalmic images 300A to 300X. By inputting the base image into the mathematical model described above, the CPU 23 acquires a target image having a higher image quality than the base image (S12).

図7に示す例では、眼科画像撮影装置11Bは、眼底の二次元断層画像を連続して撮影することで、動画を撮影する。CPU23は、S11において、眼科画像撮影装置11Bによって撮影された動画を構成する各々の静止画像を、順次取得する。CPU23は、取得した静止画像の原画像、および、複数の原画像を加算平均した加算平均画像の少なくともいずれかを、数学モデルに入力する基画像として取得する。CPU23は、連続して取得される基画像を数学モデルに順次入力することで、目的画像を連続して取得する。 In the example shown in FIG. 7, the ophthalmologic image capturing device 11B captures a moving image by continuously capturing a two-dimensional tomographic image of the fundus. In S11, the CPU 23 sequentially acquires each still image constituting the moving image taken by the ophthalmologic image capturing device 11B. The CPU 23 acquires at least one of the original image of the acquired still image and the added average image obtained by adding and averaging a plurality of original images as a base image to be input to the mathematical model. The CPU 23 continuously acquires the target image by sequentially inputting the continuously acquired basic images into the mathematical model.

S11において取得する基画像の種類(原画像および加算平均画像の少なくともいずれか)、および、数学モデルに入力する基画像に使用する原画像の枚数は、前述した入力用訓練データの取得パターン等に応じて適宜設定されればよい。数学モデルに入力する基画像として加算平均画像が用いられる場合、CPU23は、同一の撮影部位を撮影した複数の眼科画像を加算平均することで、加算平均画像を取得してもよい。また、CPU23は、眼科画像撮影装置11Bによって生成された加算平均画像を取得してもよい。 The type of the base image acquired in S11 (at least one of the original image and the averaging image) and the number of original images used for the base image to be input to the mathematical model are determined in the above-mentioned acquisition pattern of input training data and the like. It may be set as appropriate according to the situation. When the averaging image is used as the base image to be input to the mathematical model, the CPU 23 may acquire the averaging image by averaging a plurality of ophthalmic images obtained by photographing the same imaging region. Further, the CPU 23 may acquire an averaging image generated by the ophthalmologic image capturing apparatus 11B.

なお、図7に例示する高画質動画生成処理では、組織の動画が生成される。ここで、良好な動画を生成するためには、フレームレート(単位時間あたりの静止画像の数)を極力大きくすることが望ましい。つまり、目的画像の動画のフレームレートを大きくするためには、単位時間あたりに取得する目的画像(静止画像)の数を極力大きくする必要がある。従って、図7のS11では、極力少ない原画像が、数学モデルに入力する基画像として取得されることが好ましい。例えば、CPU23は、眼科画像撮影装置11Bから1枚の原画像を取得する毎に、取得した1枚の原画像を数学モデルに入力して目的画像を生成することで、眼科画像撮影装置11Bが撮影する動画と同じフレームレートの動画を、高画質の目的画像を用いて生成することができる。 In the high-quality moving image generation process illustrated in FIG. 7, a moving image of the tissue is generated. Here, in order to generate a good moving image, it is desirable to increase the frame rate (the number of still images per unit time) as much as possible. That is, in order to increase the frame rate of the moving image of the target image, it is necessary to increase the number of target images (still images) acquired per unit time as much as possible. Therefore, in S11 of FIG. 7, it is preferable that as few original images as possible are acquired as the base image to be input to the mathematical model. For example, each time the CPU 23 acquires one original image from the ophthalmic image capturing device 11B, the CPU 23 inputs the acquired original image into a mathematical model to generate a target image, so that the ophthalmic image capturing device 11B can generate the target image. It is possible to generate a moving image having the same frame rate as the moving image to be shot by using a high-quality target image.

次いで、CPU23は、表示装置28に目的画像を表示させる指示が入力されているか否かを判断する(S14)。本実施形態では、ユーザは、目的画像、基画像、および、目的画像と基画像の両方のいずれを表示装置28に表示させるかの指示を、操作部27を操作することで眼科画像処理装置21に入力することができる。目的画像を表示させる指示が入力されていなければ(S14:NO)、処理はそのままS17へ移行する。目的画像を表示させる指示が入力されている場合(S14:YES)、CPU23は、目的画像を表示装置28に表示させる(S15)。詳細には、本実施形態のS15では、S12で連続して取得される複数の目的画像が表示装置28に順次表示されることで、組織の動画が表示される。つまり、眼科画像撮影装置11Bによってその時点で撮影されている原画像の動画に基づいて、撮影中の組織の高画質の動画がリアルタイムに表示装置28に表示される。なお、CPU23は、S12で連続して取得される複数の目的画像に基づいて、目的画像の動画のデータを生成し、記憶装置に記憶させてもよい。 Next, the CPU 23 determines whether or not an instruction for displaying the target image is input to the display device 28 (S14). In the present embodiment, the user operates the operation unit 27 to instruct the display device 28 to display the target image, the base image, or both the target image and the base image, and the ophthalmic image processing device 21. Can be entered in. If the instruction to display the target image is not input (S14: NO), the process proceeds to S17 as it is. When an instruction to display the target image is input (S14: YES), the CPU 23 causes the display device 28 to display the target image (S15). Specifically, in S15 of the present embodiment, a plurality of target images continuously acquired in S12 are sequentially displayed on the display device 28, so that a moving image of the tissue is displayed. That is, based on the moving image of the original image taken at that time by the ophthalmologic image taking device 11B, a high-quality moving image of the tissue being photographed is displayed on the display device 28 in real time. The CPU 23 may generate moving image data of the target image based on the plurality of target images continuously acquired in S12 and store the data in the storage device.

なお、眼科画像処理装置21は、目的画像、基画像、および、目的画像と基画像の両方のいずれを表示装置28に表示させるかの指示を、種々の方法で入力することができる。例えば、CPU23は、目的画像の表示指示を入力するアイコン、基画像の表示指示を入力するアイコン、および、両方の画像の表示指示を入力するアイコンを、表示装置28に表示させてもよい。ユーザは、希望するアイコンを選択することで、表示指示を眼科画像処理装置21に入力してもよい。 The ophthalmic image processing device 21 can input an instruction to display the target image, the base image, and both the target image and the base image on the display device 28 by various methods. For example, the CPU 23 may display the icon for inputting the display instruction of the target image, the icon for inputting the display instruction of the base image, and the icon for inputting the display instruction of both images on the display device 28. The user may input a display instruction to the ophthalmologic image processing device 21 by selecting a desired icon.

次いで、CPU23は、表示装置28に基画像を表示させる指示が入力されているか否かを判断する(S17)。入力されていなければ(S17:NO)、処理はそのままS20へ移行する。基画像を表示させる指示が入力されている場合(S17:YES)、CPU23は、基画像を表示装置28に表示させる(S18)。詳細には、本実施形態のS18では、S11で連続して取得される複数の基画像が表示装置28に順次表示されることで、組織の動画が表示される。以上のように、CPU23は、ユーザによって入力された指示に応じて、目的画像と基画像を切り替えて表示装置28に表示させることができる。よって、ユーザは、目的画像と基画像の両方を容易に確認することができる。 Next, the CPU 23 determines whether or not an instruction for displaying the base image is input to the display device 28 (S17). If it is not input (S17: NO), the process proceeds to S20 as it is. When an instruction to display the base image is input (S17: YES), the CPU 23 causes the display device 28 to display the base image (S18). Specifically, in S18 of the present embodiment, a plurality of base images continuously acquired in S11 are sequentially displayed on the display device 28, so that a moving image of the tissue is displayed. As described above, the CPU 23 can switch between the target image and the base image and display them on the display device 28 in response to the instruction input by the user. Therefore, the user can easily confirm both the target image and the base image.

次いで、CPU23は、目的画像と基画像を同時に表示装置28に表示させる指示が入力されているか否かを判断する(S20)。入力されていなければ(S20:NO)、処理はそのままS23へ移行する。同時表示指示が入力されていれる場合(S20:YES)、CPU23は、目的画像と基画像を同時に表示装置28に表示させる。詳細には、本実施形態のS20では、目的画像の動画と基画像の動画が共に表示装置28に表示される。 Next, the CPU 23 determines whether or not an instruction to display the target image and the base image on the display device 28 at the same time is input (S20). If it is not input (S20: NO), the process proceeds to S23 as it is. When the simultaneous display instruction is input (S20: YES), the CPU 23 causes the display device 28 to display the target image and the base image at the same time. Specifically, in S20 of the present embodiment, both the moving image of the target image and the moving image of the base image are displayed on the display device 28.

なお、S15,S18,S21では、動画でなく静止画が表示されてもよい。CPU23は、ユーザによって入力される指示に応じて、動画の表示と静止画の表示を切り替えてもよい。また、CPU23は、動画および静止画を表示装置28に表示させずに、動画および静止画の少なくとも一方のデータを記憶装置24に保存させてもよい。 In S15, S18, and S21, a still image may be displayed instead of a moving image. The CPU 23 may switch between displaying a moving image and displaying a still image in response to an instruction input by the user. Further, the CPU 23 may store at least one data of the moving image and the still image in the storage device 24 without displaying the moving image and the still image on the display device 28.

また、CPU23は、目的画像の動画または静止画を表示装置28に表示させる際に、何枚の眼科画像の加算平均画像に相当する目的画像であるかを、表示装置28に表示させることができる。例えば、数学モデルを構築する際に、出力用訓練データとして使用された加算平均画像32が、H枚の眼科画像に基づく加算平均画像である場合には、S12で取得される目的画像も、H枚の眼科画像の加算平均画像に相当する画像となる。従って、CPU23は、表示中の目的画像が、H枚の眼科画像の加算平均画像に相当する旨を、表示装置28に表示させる。よって、ユーザは、目的画像の品質を適切に把握することができる。 Further, when the moving image or the still image of the target image is displayed on the display device 28, the CPU 23 can display the target image corresponding to the averaging image of the number of ophthalmic images on the display device 28. .. For example, when the averaging image 32 used as the output training data when constructing the mathematical model is an averaging image based on H ophthalmic images, the target image acquired in S12 is also H. It becomes an image corresponding to the summed average image of one ophthalmic image. Therefore, the CPU 23 causes the display device 28 to display that the target image being displayed corresponds to the averaging image of the H ophthalmic images. Therefore, the user can appropriately grasp the quality of the target image.

また、目的画像を表示させるタイミングには、例えば、眼科画像撮影装置11Bによる撮影中にリアルタイムで表示させるタイミング、撮影された画像が良好であるか否かをユーザに確認させるタイミング、撮影後に解析結果またはレポートと共に表示させるタイミング等、複数のタイミングがある。CPU23は、目的画像を表示させることが可能な複数のタイミングのそれぞれに対し、目的画像、基画像、および、目的画像と基画像の両方のいずれを表示装置28に表示させるかの指示を、別々に入力することができる。つまり、ユーザは、目的画像を表示させることが可能なタイミングに応じて、目的画像、基画像、および、目的画像と基画像の両方のいずれを表示装置28に表示させるかを、予め設定しておくことができる。その結果、ユーザの利便性がさらに向上する。 The timing of displaying the target image includes, for example, the timing of displaying the target image in real time during shooting by the ophthalmologic image capturing device 11B, the timing of causing the user to confirm whether or not the captured image is good, and the analysis result after shooting. Or there are multiple timings such as the timing to display with the report. The CPU 23 separately gives an instruction to display the target image, the base image, and both the target image and the base image on the display device 28 for each of the plurality of timings at which the target image can be displayed. Can be entered in. That is, the user sets in advance whether to display the target image, the base image, or both the target image and the base image on the display device 28 according to the timing at which the target image can be displayed. Can be left. As a result, the convenience of the user is further improved.

次いで、CPU23は、表示を終了させる指示が入力されたか否かを判断する(S23)。入力されていなければ(S23:NO)、処理はS11へ戻り、S11〜S23の処理が繰り返される。表示を終了させる指示が入力されると(S23:YES)、CPU23は、目的画像(本実施形態では、連続して取得される複数の目的画像の少なくともいずれか)に対するセグメンテーション処理を実行する(S24)。セグメンテーション処理とは、画像に写っている組織の複数の層の少なくともいずれかを識別する処理である。層の識別は、例えば、目的画像に対する画像処理によって行われてもよいし、機械学習アルゴリズムによって訓練された数学モデルが利用されてもよい。目的画像に対するセグメンテーション処理が行われることで、ノイズの影響が抑制されたセグメンテーション結果が適切に取得される。なお、ユーザが操作部27を操作して手動でセグメンテーション処理を行う場合もある。この場合にも、CPU23は、セグメンテーション処理が行われる対象となる画像として、目的画像を表示装置28に表示させてもよい。 Next, the CPU 23 determines whether or not an instruction to end the display has been input (S23). If it is not input (S23: NO), the process returns to S11, and the processes of S11 to S23 are repeated. When an instruction to end the display is input (S23: YES), the CPU 23 executes a segmentation process on the target image (in the present embodiment, at least one of a plurality of continuously acquired target images) (S24). ). The segmentation process is a process of identifying at least one of a plurality of layers of tissue shown in an image. The layer identification may be performed, for example, by image processing on the target image, or a mathematical model trained by a machine learning algorithm may be utilized. By performing the segmentation processing on the target image, the segmentation result in which the influence of noise is suppressed is appropriately acquired. In some cases, the user operates the operation unit 27 to manually perform the segmentation process. In this case as well, the CPU 23 may display the target image on the display device 28 as an image to be subjected to the segmentation process.

図8および図9を参照して、眼科画像処理の一例である高画質三次元断層画像生成処理について説明する。高画質三次元断層画像生成処理では、数学モデルを用いて高画質の二次元断層画像および三次元断層画像が取得される。高画質三次元断層画像生成処理が実行される場合には、眼科画像撮影装置11Bでは、OCT光(測定光)が二次元的に走査されることで、組織における三次元断層画像が撮影される。詳細には、眼科画像撮影装置11Bは、組織を正面から見た際の二次元の領域内において、位置が互いに異なる複数のスキャンライン上の各々に測定光を走査させることで、複数(1番目〜Z番目)の二次元断層画像を取得する。複数の二次元断層画像が組み合わされることで、三次元断層画像が取得される。 A high-quality three-dimensional tomographic image generation process, which is an example of ophthalmic image processing, will be described with reference to FIGS. 8 and 9. In the high-quality three-dimensional tomographic image generation process, high-quality two-dimensional tomographic images and three-dimensional tomographic images are acquired using a mathematical model. When a high-quality three-dimensional tomographic image generation process is executed, the ophthalmologic image capturing apparatus 11B captures a three-dimensional tomographic image in the tissue by scanning the OCT light (measurement light) two-dimensionally. .. Specifically, the ophthalmologic imaging apparatus 11B has a plurality (first) by causing each of a plurality of scan lines having different positions to scan the measurement light in a two-dimensional region when the tissue is viewed from the front. ~ Zth) 2D tomographic image is acquired. A three-dimensional tomographic image is acquired by combining a plurality of two-dimensional tomographic images.

CPU23は、眼科画像撮影装置1Bによって撮影された複数(1番目〜Z番目)の二次元断層画像のうち、N番目(Nの初期値は「1」)の二次元断層画像を、基画像として取得する(S31)。CPU23は、取得した基画像を数学モデルに入力することで、N番目の目的画像を取得する(S32)。次いで、CPU23は、複数(1番目〜Z番目)の基画像の全てに対する処理が完了したか否かを判断する(S33)。完了していなければ(S33:NO)、Nの値に「1」が加算されて(S34)、処理はS31へ戻る。全ての基画像に対する処理が完了するまで、S31〜S33の処理が繰り返される。 The CPU 23 uses the Nth (initial value of N is "1") two-dimensional tomographic image as the base image among the plurality of (1st to Zth) two-dimensional tomographic images taken by the ophthalmic imaging apparatus 1B. Acquire (S31). The CPU 23 acquires the Nth target image by inputting the acquired base image into the mathematical model (S32). Next, the CPU 23 determines whether or not the processing for all of the plurality of (first to Zth) base images is completed (S33). If it is not completed (S33: NO), "1" is added to the value of N (S34), and the process returns to S31. The processes of S31 to S33 are repeated until the processes for all the base images are completed.

全ての基画像に対する処理が完了すると(S33:YES)、取得された複数の目的画像が組み合わされることで、組織の三次元断層画像40(図9参照)が生成される(S35)。図8に例示した高画質三次元断層画像生成処理によると、三次元断層画像を構成する各々の二次元断層画像として加算平均画像を使用しなくても、加算平均画像と同等にノイズの影響が抑制された目的画像によって、三次元断層画像が生成される。 When the processing for all the base images is completed (S33: YES), the acquired three-dimensional tomographic image 40 (see FIG. 9) is generated by combining the acquired plurality of target images (S35). According to the high-quality three-dimensional tomographic image generation process illustrated in FIG. 8, even if the additive average image is not used as each of the two-dimensional tomographic images constituting the three-dimensional tomographic image, the influence of noise is equivalent to that of the additive average image. The suppressed target image produces a three-dimensional tomographic image.

なお、CPU23は、複数の目的画像に基づいて、三次元断層画像以外の画像を生成することも可能である。例えば、CPU23は、S32で取得された複数の目的画像に基づいて、組織を正面から見た場合の二次元正面画像(所謂「Enface画像」を生成してもよい。 The CPU 23 can also generate an image other than the three-dimensional tomographic image based on the plurality of target images. For example, the CPU 23 may generate a two-dimensional front image (so-called “Enface image”) when the tissue is viewed from the front based on the plurality of target images acquired in S32.

また、CPU23は、複数の目的画像に基づいて生成した三次元断層画像40に対して解析処理を行うことも可能である。例えば、CPU23は、三次元断層画像40に対して、眼底に含まれる複数の層の少なくともいずれかを抽出するセグメンテーション処理を行ってもよい。CPU23は、セグメンテーション処理の結果に基づいて、少なくともいずれかの層の厚み分布を二次元的に示す厚みマップを生成してもよい。この場合、ノイズの影響が抑制された三次元断層画像40に基づいて、厚みマップが適切に生成される。 The CPU 23 can also perform analysis processing on the three-dimensional tomographic image 40 generated based on the plurality of target images. For example, the CPU 23 may perform a segmentation process on the three-dimensional tomographic image 40 to extract at least one of a plurality of layers contained in the fundus. The CPU 23 may generate a thickness map that two-dimensionally shows the thickness distribution of at least one of the layers based on the result of the segmentation process. In this case, the thickness map is appropriately generated based on the three-dimensional tomographic image 40 in which the influence of noise is suppressed.

また、CPU23は、複数の目的画像に基づいて生成した三次元断層画像40に基づいて、三次元断層画像40の撮影範囲に含まれる組織中の任意の位置の二次元断層画像を生成してもよい。CPU23は、生成した二次元断層画像を表示装置28に表示させてもよい。一例として、本実施形態のCPU23は、断層画像を生成する位置を指定するためのユーザからの指示を入力する。例えば、ユーザは、操作部27を操作することで、表示装置28に表示された二次元正面画像上または三次元断層画像40上で、断層画像の生成位置を指定してもよい。断層画像の生成位置は、例えば、各種形状のライン(直線上のライン、円形状のライン等)で指定されてもよい。CPU23は、三次元断層画像40から、ユーザによって指定された位置の二次元断層画像を生成(抽出)してもよい。この場合、ユーザが希望する任意の位置の断層画像が、ノイズの影響が抑制された三次元断層画像40に基づいて適切に生成される。 Further, the CPU 23 may generate a two-dimensional tomographic image at an arbitrary position in the tissue included in the imaging range of the three-dimensional tomographic image 40 based on the three-dimensional tomographic image 40 generated based on the plurality of target images. Good. The CPU 23 may display the generated two-dimensional tomographic image on the display device 28. As an example, the CPU 23 of the present embodiment inputs an instruction from the user for designating a position for generating a tomographic image. For example, the user may specify the tomographic image generation position on the two-dimensional front image or the three-dimensional tomographic image 40 displayed on the display device 28 by operating the operation unit 27. The tomographic image generation position may be specified by, for example, lines of various shapes (lines on a straight line, circular lines, etc.). The CPU 23 may generate (extract) a two-dimensional tomographic image at a position specified by the user from the three-dimensional tomographic image 40. In this case, a tomographic image at an arbitrary position desired by the user is appropriately generated based on the three-dimensional tomographic image 40 in which the influence of noise is suppressed.

また、CPU23は、眼科画像撮影装置11Bによって撮影された眼科画像が良好であるか否かを、眼科画像が1枚または複数枚撮影される毎に判定してもよい。CPU23は、撮影された眼科画像が良好であると判定した場合に、良好な眼科画像を基画像として数学モデルに入力してもよい。また、CPU23は、撮影された眼科画像が良好でないと判定した場合に、同じ位置の眼科画像を再撮影させる指示を眼科画像撮影装置11Bに出力してもよい。この場合、良好な基画像に基づいて目的画像が取得される。なお、撮影された眼科画像が良好であるか否かを判定するための具体的な方法は、適宜選択できる。例えば、CPU23は、撮影された眼科画像の信号の強さ、または、信号の良好さを示す指標(例えば、SSI(Signal Strength Index)またはQI(Quality Index)等)を用いて、眼科画像が良好であるか否かを判定してもよい。また、CPU23は、撮影された眼科画像をテンプレートと比較することで、眼科画像が良好であるか否かを判定してもよい。 Further, the CPU 23 may determine whether or not the ophthalmologic image captured by the ophthalmologic image capturing apparatus 11B is good or not every time one or a plurality of ophthalmic images are captured. When the CPU 23 determines that the captured ophthalmic image is good, the CPU 23 may input the good ophthalmic image into the mathematical model as a base image. Further, the CPU 23 may output an instruction to re-photograph the ophthalmologic image at the same position to the ophthalmologic image capturing device 11B when it is determined that the captured ophthalmic image is not good. In this case, the target image is acquired based on a good base image. A specific method for determining whether or not the captured ophthalmic image is good can be appropriately selected. For example, the CPU 23 uses an index (for example, SSI (Signal Strength Index) or QI (Quality Index)) indicating the signal strength or signal goodness of the captured ophthalmic image to obtain a good ophthalmic image. It may be determined whether or not it is. Further, the CPU 23 may determine whether or not the ophthalmic image is good by comparing the captured ophthalmic image with the template.

また、CPU23は、複数の目的画像のいずれかに対して解析処理(例えばセグメンテーション処理等)を行う場合、複数の目的画像、または、複数の目的画像の基となった複数の基画像から、良好な画像を抽出してもよい。CPU23は、抽出した良好な目的画像、または、良好な基画像に基づく目的画像に対して解析処理を行ってもよい。この場合、解析処理の精度が向上する。なお、良好な画像を抽出する手法には、例えば、前述したSSI等を利用する手法等、種々の手法を採用することができる。 Further, when the CPU 23 performs an analysis process (for example, a segmentation process) on any of the plurality of target images, the CPU 23 is good from the plurality of target images or the plurality of base images that are the basis of the plurality of target images. Image may be extracted. The CPU 23 may perform analysis processing on the extracted good target image or the target image based on the good base image. In this case, the accuracy of the analysis process is improved. As a method for extracting a good image, various methods such as the above-mentioned method using SSI or the like can be adopted.

また、CPU23は、モーションコントラスト画像を生成する際に、本開示で例示した数学モデルを用いて目的画像を取得し、取得した目的画像に基づいてモーションコントラスト画像を生成してもよい。前述したように、モーションコントラスト画像を生成する際には、同一位置に関して異なる時間に複数のOCT信号が取得され、複数のOCT信号に対して演算処理が行われる。CPU23は、複数のOCT信号(二次元断層画像)の各々に基づいて目的画像を取得し、取得した複数の目的画像に対して演算処理を行うことで、モーションコントラスト画像を取得してもよい。この場合、ノイズの影響が抑制されたモーションコントラスト画像が適切に生成される。 Further, when generating a motion contrast image, the CPU 23 may acquire a target image using the mathematical model exemplified in the present disclosure and generate a motion contrast image based on the acquired target image. As described above, when generating a motion contrast image, a plurality of OCT signals are acquired at different times with respect to the same position, and arithmetic processing is performed on the plurality of OCT signals. The CPU 23 may acquire a motion contrast image by acquiring a target image based on each of a plurality of OCT signals (two-dimensional tomographic images) and performing arithmetic processing on the acquired plurality of target images. In this case, a motion contrast image in which the influence of noise is suppressed is appropriately generated.

上記実施形態で開示された技術は一例に過ぎない。従って、上記実施形態で例示された技術を変更することも可能である。まず、上記実施形態で例示された複数の技術のうちの一部のみを実行することも可能である。例えば、眼科画像処理装置21は、高画質動画生成処理(図7参照)、および、高画質三次元断層画像生成処理(図8参照)の一方のみを実行してもよい。 The techniques disclosed in the above embodiments are merely examples. Therefore, it is possible to modify the techniques exemplified in the above embodiments. First, it is also possible to implement only some of the plurality of techniques exemplified in the above embodiments. For example, the ophthalmic image processing apparatus 21 may execute only one of the high-quality moving image generation process (see FIG. 7) and the high-quality three-dimensional tomographic image generation process (see FIG. 8).

なお、図7のS11および図8のS31で基画像を取得する処理は、「基画像取得ステップ」の一例である。図7のS12および図8のS32で目的画像を取得する処理は、「目的画像取得ステップ」の一例である。図8のS35で三次元断層画像を生成する処理は、「三次元断層画像生成ステップ」の一例である。図7のS24に示すセグメンテーション処理は、「セグメンテーションステップ」の一例である。図7のS14〜S18で目的画像と基画像を切り替えて表示させる処理は、「切替表示処理」および「切替表示ステップ」の一例である。図7のS21で目的画像と基画像を同時に表示させる処理は、「同時表示処理」および「同時表示ステップ」の一例である。図7のS15で目的画像の動画データを生成する処理は、「動画生成ステップ」の一例である。図2のS1で訓練用眼科画像のセット30を取得する処理は、「画像セット取得ステップ」の一例である。図2のS2〜S4で数学モデルを構築する処理は、「訓練ステップ」の一例である。 The process of acquiring the base image in S11 of FIG. 7 and S31 of FIG. 8 is an example of the “base image acquisition step”. The process of acquiring the target image in S12 of FIG. 7 and S32 of FIG. 8 is an example of the “target image acquisition step”. The process of generating a three-dimensional tomographic image in S35 of FIG. 8 is an example of the “three-dimensional tomographic image generation step”. The segmentation process shown in S24 of FIG. 7 is an example of the “segmentation step”. The process of switching and displaying the target image and the base image in S14 to S18 of FIG. 7 is an example of the “switching display process” and the “switching display step”. The process of displaying the target image and the base image at the same time in S21 of FIG. 7 is an example of the “simultaneous display process” and the “simultaneous display step”. The process of generating the moving image data of the target image in S15 of FIG. 7 is an example of the “moving image generation step”. The process of acquiring the training ophthalmic image set 30 in S1 of FIG. 2 is an example of the “image set acquisition step”. The process of constructing a mathematical model in S2 to S4 of FIG. 2 is an example of a “training step”.

1 数学モデル構築装置
3 CPU
4 記憶装置
11 眼科画像撮影装置
21 眼科画像処理装置
23 CPU
24 記憶装置
28 表示装置
30 セット
31 加算平均画像
32 加算平均画像
300 訓練用眼科画像

1 Mathematical model construction device 3 CPU
4 Storage device 11 Ophthalmic imaging device 21 Ophthalmic image processing device 23 CPU
24 Storage device 28 Display device 30 Set 31 Additive average image 32 Additive average image 300 Training ophthalmic image

Claims (8)

被検眼の組織の画像である眼科画像を処理する眼科画像処理装置であって、
前記眼科画像処理装置の制御部は、
眼科画像撮影装置によって撮影された眼科画像、または、前記眼科画像撮影装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得し、
機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記基画像よりも高画質の目的画像を取得し、
前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、L枚(L≧1)の前記訓練用眼科画像に基づくデータを入力用訓練データとし、且つ、H枚(H>L)前記訓練用眼科画像を加算平均した加算平均画像のデータを出力用訓練データとして訓練されていることを特徴とする眼科画像処理装置。
An ophthalmic image processing device that processes an ophthalmic image, which is an image of the tissue of the eye to be inspected.
The control unit of the ophthalmic image processing device
An ophthalmic image taken by the ophthalmic imaging apparatus or an added average image obtained by adding and averaging a plurality of ophthalmic images obtained by photographing the same part of the tissue by the ophthalmic imaging apparatus is acquired as a base image.
By inputting the base image into a mathematical model trained by a machine learning algorithm, a target image having a higher image quality than the base image can be obtained.
In the mathematical model, out of a plurality of training ophthalmic images obtained by photographing the same part of the tissue, L (L ≧ 1) data based on the training ophthalmic images are used as input training data, and H (H). > L) An ophthalmic image processing apparatus characterized in that the data of the added average image obtained by adding and averaging the training ophthalmic images is trained as output training data.
請求項1に記載の眼科画像処理装置であって、
前記眼科画像は、OCT装置によって撮影された被検眼の二次元断層画像であり、
前記制御部は、
組織の異なる位置を撮影した複数の二次元断層画像を前記基画像として取得し、
前記複数の基画像の各々を前記数学モデルに入力することで、複数の前記目的画像を取得し、
前記複数の目的画像に基づいて、前記組織の三次元断層画像、および、前記組織を正面から見た場合の二次元正面画像の少なくともいずれかを生成することを特徴とする眼科画像処理装置。
The ophthalmic image processing apparatus according to claim 1.
The ophthalmic image is a two-dimensional tomographic image of the eye to be inspected taken by an OCT apparatus.
The control unit
A plurality of two-dimensional tomographic images obtained by photographing different positions of tissues are acquired as the basic images, and the images are obtained.
By inputting each of the plurality of basic images into the mathematical model, a plurality of the target images can be obtained.
An ophthalmic image processing apparatus characterized in that at least one of a three-dimensional tomographic image of the tissue and a two-dimensional front image when the tissue is viewed from the front is generated based on the plurality of target images.
請求項1または2に記載の眼科画像処理装置であって、
前記眼科画像は、OCT装置によって撮影された被検眼の眼底の二次元断層画像であり、
前記制御部は、
前記数学モデルを用いて取得した前記目的画像に対して解析処理を行うことで、前記眼底に含まれる複数の層の少なくともいずれかを識別することを特徴とする眼科画像処理装置。
The ophthalmic image processing apparatus according to claim 1 or 2.
The ophthalmologic image is a two-dimensional tomographic image of the fundus of the eye to be inspected taken by an OCT device.
The control unit
An ophthalmologic image processing apparatus characterized in that at least one of a plurality of layers contained in the fundus is identified by performing analysis processing on the target image acquired by using the mathematical model.
請求項1〜3のいずれかに記載の眼科画像処理装置であって、
前記制御部は、前記基画像と前記目的画像を表示装置に同時に表示させる同時表示処理、および、入力された指示に応じて前記基画像と前記目的画像を切り替えて表示装置に表示させる切替表示処理の少なくとも一方を実行することを特徴とする眼科画像処理装置。
The ophthalmic image processing apparatus according to any one of claims 1 to 3.
The control unit performs simultaneous display processing for displaying the basic image and the target image on the display device at the same time, and switching display processing for switching between the basic image and the target image and displaying them on the display device in response to an input instruction. An ophthalmic image processing apparatus characterized in performing at least one of the above.
請求項1〜4のいずれかに記載の眼科画像処理装置であって、
前記制御部は、
前記眼科画像撮影装置によって連続して撮影される複数の前記基画像を取得し、
取得した前記複数の基画像を前記数学モデルに順次入力することで、複数の前記目的画像を取得し、
取得した前記複数の目的画像に基づいて、前記組織の動画データを生成することを特徴とする眼科画像処理装置。
The ophthalmic image processing apparatus according to any one of claims 1 to 4.
The control unit
A plurality of the basic images continuously taken by the ophthalmologic imaging apparatus are acquired, and
By sequentially inputting the acquired plurality of basic images into the mathematical model, a plurality of the target images can be acquired.
An ophthalmic image processing apparatus characterized in that moving image data of the tissue is generated based on the acquired plurality of target images.
参照光と、被検眼の組織に照射された測定光の反射光とによるOCT信号を処理することで、前記組織の眼科画像を撮影するOCT装置であって、
前記OCT装置の制御部は、
撮影した前記組織の眼科画像、または、前記組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得し、
機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記基画像よりも高画質の目的画像を取得し、
前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、L枚(L≧1)の前記訓練用眼科画像に基づくデータを入力用訓練データとし、且つ、H枚(H>L)前記訓練用眼科画像を加算平均した加算平均画像のデータを出力用訓練データとして訓練されていることを特徴とするOCT装置。
An OCT device that captures an ophthalmic image of the tissue by processing an OCT signal from the reference light and the reflected light of the measurement light applied to the tissue of the eye to be inspected.
The control unit of the OCT device
An ophthalmic image of the tissue taken or an added average image obtained by adding and averaging a plurality of ophthalmic images of the same part of the tissue was acquired as a base image.
By inputting the base image into a mathematical model trained by a machine learning algorithm, a target image having a higher image quality than the base image can be obtained.
In the mathematical model, out of a plurality of training ophthalmic images obtained by photographing the same part of the tissue, L (L ≧ 1) data based on the training ophthalmic images are used as input training data, and H (H). > L) An OCT apparatus characterized in that the data of the added average image obtained by adding and averaging the training ophthalmic images is trained as output training data.
被検眼の組織の画像である眼科画像を処理する眼科画像処理装置によって実行される眼科画像処理プログラムであって、
前記眼科画像処理プログラムが前記眼科画像処理装置の制御部によって実行されることで、
眼科画像撮影装置によって撮影された眼科画像、または、前記眼科画像撮影装置によって組織の同一部位を撮影した複数の眼科画像を加算平均した加算平均画像を、基画像として取得する基画像取得ステップと、
機械学習アルゴリズムによって訓練された数学モデルに前記基画像を入力することで、前記基画像よりも高画質の目的画像を取得する目的画像取得ステップと、
を前記眼科画像処理装置に実行させ、
前記数学モデルは、組織の同一部位を撮影した複数の訓練用眼科画像のうち、L枚(L≧1)の前記訓練用眼科画像に基づくデータを入力用訓練データとし、且つ、H枚(H>L)前記訓練用眼科画像を加算平均した加算平均画像のデータを出力用訓練データとして訓練されていることを特徴とする眼科画像処理プログラム。
An ophthalmic image processing program executed by an ophthalmic image processing device that processes an ophthalmic image that is an image of the tissue of the eye to be inspected.
When the ophthalmic image processing program is executed by the control unit of the ophthalmic image processing device,
A basic image acquisition step of acquiring as a basic image an ophthalmic image taken by an ophthalmic imaging apparatus or an added average image obtained by adding and averaging a plurality of ophthalmic images obtained by photographing the same part of a tissue by the ophthalmic imaging apparatus.
By inputting the base image into a mathematical model trained by a machine learning algorithm, a target image acquisition step of acquiring a target image having a higher image quality than the base image, and
To the ophthalmic image processing apparatus
In the mathematical model, out of a plurality of training ophthalmic images obtained by photographing the same part of the tissue, L (L ≧ 1) data based on the training ophthalmic images are used as input training data, and H (H). > L) An ophthalmic image processing program characterized in that the data of the added average image obtained by adding and averaging the training ophthalmic images is trained as output training data.
機械学習アルゴリズムによって訓練されることで構築され、基画像が入力されることで目的画像を出力する数学モデルを構築する数学モデル構築装置によって実行される数学モデル構築方法であって、
被検眼の組織の同一部位を撮影した複数の訓練用眼科画像を取得する画像セット取得ステップと、
前記複数の訓練用眼科画像のうち、L枚(L≧1)の前記訓練用眼科画像に基づくデータを入力用訓練データとし、且つ、H枚(H>L)前記訓練用眼科画像を加算平均した加算平均画像のデータを出力用訓練データとして前記数学モデルを訓練させることで、前記数学モデルを構築する訓練ステップと、
を含む数学モデル構築方法。

It is a mathematical model construction method executed by a mathematical model construction device that is constructed by training by a machine learning algorithm and constructs a mathematical model that outputs a target image by inputting a base image.
An image set acquisition step to acquire a plurality of training ophthalmic images obtained by photographing the same part of the tissue of the eye to be inspected, and
Of the plurality of training ophthalmic images, L (L ≧ 1) data based on the training ophthalmic images are used as input training data, and H (H> L) training ophthalmic images are added and averaged. The training step of constructing the mathematical model by training the mathematical model using the data of the added average image as output training data, and
How to build a mathematical model including.

JP2021008808A 2020-08-05 2021-01-22 Ophthalmic image processing device, OCT device, and ophthalmic image processing program Active JP7147888B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021008808A JP7147888B2 (en) 2020-08-05 2021-01-22 Ophthalmic image processing device, OCT device, and ophthalmic image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020133247A JP6866954B2 (en) 2020-08-05 2020-08-05 Ophthalmic image processing program and OCT device
JP2021008808A JP7147888B2 (en) 2020-08-05 2021-01-22 Ophthalmic image processing device, OCT device, and ophthalmic image processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020133247A Division JP6866954B2 (en) 2020-08-05 2020-08-05 Ophthalmic image processing program and OCT device

Publications (3)

Publication Number Publication Date
JP2021100572A true JP2021100572A (en) 2021-07-08
JP2021100572A5 JP2021100572A5 (en) 2021-11-25
JP7147888B2 JP7147888B2 (en) 2022-10-05

Family

ID=73647812

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020133247A Active JP6866954B2 (en) 2020-08-05 2020-08-05 Ophthalmic image processing program and OCT device
JP2021008808A Active JP7147888B2 (en) 2020-08-05 2021-01-22 Ophthalmic image processing device, OCT device, and ophthalmic image processing program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020133247A Active JP6866954B2 (en) 2020-08-05 2020-08-05 Ophthalmic image processing program and OCT device

Country Status (1)

Country Link
JP (2) JP6866954B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023140469A1 (en) * 2022-01-18 2023-07-27 가톨릭대학교 산학협력단 Device and method for diagnosis of pathologic myopia

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130051516A1 (en) * 2011-08-31 2013-02-28 Carestream Health, Inc. Noise suppression for low x-ray dose cone-beam image reconstruction
JP2015009108A (en) * 2013-07-02 2015-01-19 株式会社ニデック Ophthalmologic imaging apparatus and ophthalmologic image processing program
WO2017030056A1 (en) * 2015-08-19 2017-02-23 興和株式会社 Image processing device, image processing method, and image processing program
US20170372193A1 (en) * 2016-06-23 2017-12-28 Siemens Healthcare Gmbh Image Correction Using A Deep Generative Machine-Learning Model

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1131214A (en) * 1997-07-10 1999-02-02 Hitachi Medical Corp Picture processor
JP5238893B1 (en) * 2012-02-22 2013-07-17 株式会社東芝 X-ray CT apparatus, image display apparatus, and image display method
JP6987495B2 (en) * 2016-11-18 2022-01-05 キヤノン株式会社 Image processing device, its operation method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130051516A1 (en) * 2011-08-31 2013-02-28 Carestream Health, Inc. Noise suppression for low x-ray dose cone-beam image reconstruction
JP2015009108A (en) * 2013-07-02 2015-01-19 株式会社ニデック Ophthalmologic imaging apparatus and ophthalmologic image processing program
WO2017030056A1 (en) * 2015-08-19 2017-02-23 興和株式会社 Image processing device, image processing method, and image processing program
US20170372193A1 (en) * 2016-06-23 2017-12-28 Siemens Healthcare Gmbh Image Correction Using A Deep Generative Machine-Learning Model

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023140469A1 (en) * 2022-01-18 2023-07-27 가톨릭대학교 산학협력단 Device and method for diagnosis of pathologic myopia

Also Published As

Publication number Publication date
JP6866954B2 (en) 2021-04-28
JP2020195782A (en) 2020-12-10
JP7147888B2 (en) 2022-10-05

Similar Documents

Publication Publication Date Title
US11633096B2 (en) Ophthalmologic image processing device and non-transitory computer-readable storage medium storing computer-readable instructions
JP7388525B2 (en) Ophthalmology image processing device and ophthalmology image processing program
WO2021106967A1 (en) Ocular fundus image processing device and ocular fundus image processing program
JP2024040372A (en) Ophthalmologic image processing program and ophthalmologic image processing device
US20220164949A1 (en) Ophthalmic image processing device and ophthalmic image processing method
WO2020026535A1 (en) Ophthalmic image processing device, oct device, and ophthalmic image processing program
JP6703319B1 (en) Ophthalmic image processing device and OCT device
JP6866954B2 (en) Ophthalmic image processing program and OCT device
JP2024045441A (en) Ophthalmologic image processing device and ophthalmologic image processing program
JP6747617B2 (en) Ophthalmic image processing device and OCT device
JP7328489B2 (en) Ophthalmic image processing device and ophthalmic photographing device
JP7439990B2 (en) Medical image processing device, medical image processing program, and medical image processing method
WO2021020419A1 (en) Medical image processing device and medical image processing program
JP7302184B2 (en) Ophthalmic image processing device and ophthalmic image processing program
JP2021074095A (en) Ophthalmologic image processing device and ophthalmologic image processing program
WO2020241794A1 (en) Ophthalmic image processing device, ophthalmic image processing program, and ophthalmic image processing system
JP7435067B2 (en) Ophthalmology image processing device and ophthalmology image processing program
WO2021045019A1 (en) Ophthalmic image processing program and ophthalmic image processing device
JP7521575B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program
JP2024097535A (en) Ophthalmic image processing program and ophthalmic image processing device
US20240169528A1 (en) Medical image processing device and storage medium storing medical image processing program
JP7180187B2 (en) Ophthalmic image processing device, OCT device, and ophthalmic image processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210603

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220905

R150 Certificate of patent or registration of utility model

Ref document number: 7147888

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150