KR20240043488A - A multimodal deep learning model for predicting future visual field in glaucoma patients - Google Patents
A multimodal deep learning model for predicting future visual field in glaucoma patients Download PDFInfo
- Publication number
- KR20240043488A KR20240043488A KR1020220122623A KR20220122623A KR20240043488A KR 20240043488 A KR20240043488 A KR 20240043488A KR 1020220122623 A KR1020220122623 A KR 1020220122623A KR 20220122623 A KR20220122623 A KR 20220122623A KR 20240043488 A KR20240043488 A KR 20240043488A
- Authority
- KR
- South Korea
- Prior art keywords
- visual field
- data
- oct
- test data
- field test
- Prior art date
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 136
- 208000010412 Glaucoma Diseases 0.000 title claims abstract description 39
- 238000013136 deep learning model Methods 0.000 title description 7
- 238000012360 testing method Methods 0.000 claims abstract description 72
- 238000000034 method Methods 0.000 claims abstract description 39
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 18
- 239000013598 vector Substances 0.000 claims description 19
- 238000012014 optical coherence tomography Methods 0.000 description 52
- 230000006870 function Effects 0.000 description 11
- 238000007781 pre-processing Methods 0.000 description 11
- 238000003325 tomography Methods 0.000 description 9
- 238000007689 inspection Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 239000000523 sample Substances 0.000 description 5
- 201000004569 Blindness Diseases 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013434 data augmentation Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 210000003733 optic disk Anatomy 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 206010061323 Optic neuropathy Diseases 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 206010047555 Visual field defect Diseases 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 238000011337 individualized treatment Methods 0.000 description 1
- 210000004126 nerve fiber Anatomy 0.000 description 1
- 210000001328 optic nerve Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004393 prognosis Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/102—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Primary Health Care (AREA)
- Life Sciences & Earth Sciences (AREA)
- Epidemiology (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Pathology (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Veterinary Medicine (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Heart & Thoracic Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Eye Examination Apparatus (AREA)
Abstract
본 발명의 실시 예는 인공지능 모델을 이용한 녹내장 환자의 미래 시야 예측 방법에 있어서, OCT 데이터에 포함된 특징을 추출하여 OCT 특징 데이터를 획득하는 단계, 시야검사 데이터, 상기 OCT 특징 데이터 및 시간 정보를 예측모델에 입력하는 단계, 상기 예측모델의 출력결과를 이용하여 최근 시야검사 데이터 및 상기 최근 시야검사 데이터에 대응하는 최근 시간 정보(Last time info)에 기초하여 최종 시야예측 결과를 획득하는 단계를 포함하는, 녹내장 환자의 미래 시야 예측 방법 및 장치를 개시한다.An embodiment of the present invention relates to a method for predicting the future visual field of a glaucoma patient using an artificial intelligence model, comprising the steps of extracting features included in OCT data to obtain OCT feature data, visual field test data, the OCT feature data, and time information. Including entering a prediction model, using the output result of the prediction model to obtain a final visual field prediction result based on recent visual field test data and last time information corresponding to the recent visual field test data. Disclosed is a method and device for predicting the future visual field of a glaucoma patient.
Description
본 발명은 멀티모달 딥 러닝 모델을 이용한 녹내장 환자의 미래 시야 예측 방법에 관한 것이다. The present invention relates to a method for predicting the future visual field of a glaucoma patient using a multimodal deep learning model.
녹내장은 실명으로 이어질 수 있는 진행성 시신경병증에 해당한다. 상기녹내장을 모니터링하기 위해 시야(Visual Field) 테스트와 광간섭 단층촬영(OCT) 이미지를 사용하는 것이 일반적이다. 한편 종래의 인공지능을 이용한 녹내장 판단 방법에 있어서, 시야검사(VF test)는 일반적으로 초기 결함 패턴을 기반으로 진행되기 때문에 미래 시야를 예측하기 위해 이전 시야검사 데이터가 일반적으로 요구되었다.Glaucoma is a progressive optic neuropathy that can lead to blindness. It is common to use visual field testing and optical coherence tomography (OCT) images to monitor glaucoma. Meanwhile, in the conventional glaucoma detection method using artificial intelligence, the visual field test (VF test) is generally performed based on the initial defect pattern, so previous visual field test data is generally required to predict future visual field.
또한 다른 방법으로 VAE(variational autoencoder), 시계열 데이터를 관리하기 위한 RNN(Recurrent Neural Network) 모델을 사용되었다. 한편 상기 방법들은 장기간의 시간이 요구되며, 환자의 상태에 따라 일관되지 않은 결과를 얻는 등 VF 데이터를 획득하는 데 어려움이 존재하였다. Additionally, as another method, VAE (variational autoencoder) and RNN (Recurrent Neural Network) models were used to manage time series data. Meanwhile, the above methods required a long period of time and had difficulties in obtaining VF data, such as obtaining inconsistent results depending on the patient's condition.
본 발명은 상기 문제점을 해결하기 위하여 안출된 것으로써, 시야검사 외에도 녹내장과 관련된 시신경두 손상에 관한 구조적 정보를 제공하는 빛간섭 단층촬영(OCT, optical coherence tomography) 데이터를 함께 활용한 방법을 개시하고자 한다.The present invention was devised to solve the above problems, and aims to disclose a method that utilizes optical coherence tomography (OCT) data, which provides structural information about optic nerve head damage related to glaucoma, in addition to visual field testing. do.
본 발명은 실명으로 악화될 수 있는 녹내장 질환에 대해 미래의 시야손상 패턴을 예측하는 멀티모달 딥러닝 모델을 개발하기 위함이다. The purpose of the present invention is to develop a multimodal deep learning model that predicts future visual field damage patterns for glaucoma disease, which can worsen into blindness.
본 발명의 실시 예에 따르면, 인공지능 모델을 이용한 녹내장 환자의 미래 시야 예측 방법에 있어서, OCT 데이터에 포함된 특징을 추출하여 OCT 특징 데이터를 획득하는 단계, 시야검사 데이터, 상기 OCT 특징 데이터 및 시간 정보를 예측모델에 입력하는 단계, 상기 예측모델의 출력결과를 이용하여 최근 시야검사 데이터 및 상기 최근 시야검사 데이터에 대응하는 최근 시간 정보(Last time info)에 기초하여 최종 시야예측 결과를 획득하는 단계를 포함하는, 녹내장 환자의 미래 시야 예측 방법을 개시한다.According to an embodiment of the present invention, in a method for predicting the future visual field of a glaucoma patient using an artificial intelligence model, extracting features included in OCT data to obtain OCT feature data, visual field test data, the OCT feature data, and time Inputting information into a prediction model, using the output result of the prediction model to obtain a final visual field prediction result based on recent visual field test data and latest time information (Last time info) corresponding to the recent visual field test data. Disclosed is a method for predicting the future visual field of a glaucoma patient, including a method.
또한, 상기 시야검사 데이터, 상기 OCT 특징 데이터 및 시간 정보를 예측모델에 입력하는 단계는, 상기 OCT 특징 데이터, 상기 시야검사 데이터 및 상기 시간 정보를 연결하여 다차원 벡터를 생성하는 단계 및 상기 다차원 벡터를 LSTM 네트워크에 입력하는 단계를 포함할 수 있다.In addition, the step of inputting the visual field test data, the OCT feature data, and the time information into a prediction model includes generating a multidimensional vector by connecting the OCT feature data, the visual field test data, and the time information, and generating the multidimensional vector. It may include inputting to the LSTM network.
또한, 상기 OCT 특징 데이터가 누락된 경우 마스크 정보를 이용하여 가상의 OCT 데이터를 생성하는 단계를 더 포함하고, 상기 시야검사 데이터, 상기 OCT 특징 데이터 및 시간 정보를 예측모델에 입력하는 단계는, 상기 시야검사 데이터, 상기 가상의 OCT 데이터 및 시간 정보를 예측모델에 입력하는 단계를 포함할 수 있다.In addition, if the OCT feature data is missing, it further includes generating virtual OCT data using mask information, and inputting the visual field test data, the OCT feature data, and time information into the prediction model, It may include inputting visual field test data, the virtual OCT data, and time information into a prediction model.
또한, 상기 OCT 특징 데이터는 환자의 전체 시야에 대한 정보를 제공하는 두께맵 특징 및 환자 시야의 특정 영역에 대한 정보를 제공하는 수직 및 수평 단층맵 특징을 포함할 수 있다.Additionally, the OCT feature data may include a thickness map feature that provides information on the patient's entire field of view and vertical and horizontal tomographic map features that provide information on a specific area of the patient's field of view.
또한, 상기 인공지능 모델은 노이즈의 정도에 기초하여 가중치가 재지정된 시야검사 데이터 샘플에 의해 훈련될 수 있다.Additionally, the artificial intelligence model can be trained using visual field test data samples with re-weighted values based on the degree of noise.
또한, 상기 인공지능 모델의 손실함수는 weighted MSE를 포함하고, 상기 weighted MSE는 수학식 1을 포함할 수 있다.Additionally, the loss function of the artificial intelligence model includes a weighted MSE, and the weighted MSE may include Equation 1.
[수학식 1][Equation 1]
(는 재조정된 가중치, 는 예측된 시야검사 데이터, 는 정답 값)( is the rebalanced weight, is the predicted visual field test data, is the correct answer value)
본 발명의 실시 예에 따른 미래 시야 예측 장치는, 아래와 같은 구성을 포함할수있다. 인공지능 모델을 이용한 녹내장 환자의 미래 시야 예측 장치에 있어서, OCT 데이터 및 시야검사 데이터가 입력되는 입력부 , 시야예측 결과를 출력하는 출력부 및 OCT 데이터에 포함된 특징을 추출하여 OCT 특징 데이터를 획득하고, 시야검사 데이터, 상기 OCT 특징 데이터 및 시간 정보를 예측모델에 입력하고, 상기 예측모델의 출력결과를 이용하여 최근 시야검사 데이터 및 상기 최근 시야검사 데이터에 대응하는 최근 시간 정보(Last time info)에 기초하여 최종 시야예측 결과를 획득하는 제어부를 포함하는 녹내장 환자의 미래 시야 예측 장치.A future vision prediction device according to an embodiment of the present invention may include the following configuration. In the device for predicting the future visual field of a glaucoma patient using an artificial intelligence model, an input unit where OCT data and visual field test data are input, an output unit that outputs the visual field prediction results, and features included in the OCT data are extracted to obtain OCT feature data. , visual field test data, the OCT feature data, and time information are input into a prediction model, and the output results of the prediction model are used to enter the latest visual field test data and the latest time information (Last time info) corresponding to the recent visual field test data. A device for predicting the future visual field of a glaucoma patient, including a control unit that obtains the final visual field prediction result based on the visual field prediction result.
또한, 상기 제어부가 상기 시야검사 데이터, 상기 OCT 특징 데이터 및 시간 정보를 예측모델에 입력하는 동작은, 상기 OCT 특징 데이터, 상기 시야검사 데이터 및 상기 시간 정보를 연결하여 다차원 벡터를 생성하는 단계 및 상기 다차원 벡터를 LSTM 네트워크에 입력하는 동작을 포함할 수 있다.In addition, the operation of the control unit inputting the visual field test data, the OCT feature data, and the time information into a prediction model includes the steps of connecting the OCT feature data, the visual field test data, and the time information to generate a multidimensional vector, and It may include the operation of inputting a multidimensional vector into an LSTM network.
또한, 상기 제어부가 상기 OCT 특징 데이터가 누락된 경우 마스크 정보를 이용하여 가상의 OCT 데이터를 생성하고, 상기 시야검사 데이터, 상기 가상의 OCT 데이터 및 시간 정보를 예측모델에 입력할 수 있다.Additionally, if the OCT feature data is missing, the control unit may generate virtual OCT data using mask information and input the visual field test data, virtual OCT data, and time information into a prediction model.
또한, 상기 OCT 특징 데이터는 환자의 전체 시야에 대한 정보를 제공하는 두께맵 특징 및 환자 시야의 특정 영역에 대한 정보를 제공하는 수직 및 수평 단층맵 특징을 포함할 수 있다.Additionally, the OCT feature data may include a thickness map feature that provides information on the patient's entire field of view and vertical and horizontal tomographic map features that provide information on a specific area of the patient's field of view.
또한, 상기 인공지능 모델은 노이즈의 정도에 기초하여 가중치가 재지정된 시야검사 데이터 샘플에 의해 훈련될 수 있다.Additionally, the artificial intelligence model can be trained using visual field test data samples with re-weighted values based on the degree of noise.
또한, 상기 인공지능 모델의 손실함수는 weighted MSE를 포함하고, 상기 weighted MSE는 수학식 1을 포함할 수 있다.Additionally, the loss function of the artificial intelligence model includes a weighted MSE, and the weighted MSE may include Equation 1.
[수학식 1][Equation 1]
(는 재조정된 가중치, 는 예측된 시야검사 데이터, 는 정답 값).( is the rebalanced weight, is the predicted visual field test data, is the correct answer value).
본 발명은 실명으로 악화될 수 있는 녹내장 질환에 대해 미래의 시야손상 패턴을 예측하는 AI (인공지능)기법 중 멀티모달 딥러닝 모델을 개발함으로써 녹내장 환자의 현 상태를 기반으로 병증의 진행상태를 정량화/시각화 하여 보여줌으로 개별맞춤 진료를 가능하게 한다.The present invention develops a multimodal deep learning model among AI (artificial intelligence) techniques to predict future visual field damage patterns for glaucoma disease, which can worsen into blindness, and quantifies the progression of the disease based on the current state of glaucoma patients. /Visualization enables individualized treatment.
녹내장 환자에서 미래의 시야 손상 진행 패턴을 예측하고, 중심부를 침범하거나 위/아래 시야를 모두 침범하는 실명 가능한 환자군을 미리 찾아내 더 적극적인 치료를 함으로써 환자맞춤형 진료를 시행할 수 있다.In glaucoma patients, customized treatment can be performed by predicting future visual field damage progression patterns, identifying patients with potential blindness affecting the central area or both upper and lower visual fields in advance, and providing more active treatment.
도 1은 본 발명의 일 실시 예에 따른 AI 장치(100)를 나타낸다.
도 2는 본 발명의 일 실시 예에 따른 시야 예측 방법의 순서도를 나타낸다.
도 3은 본 발명의 일 실시 예에 따른 시야 예측 모델을 나타낸다.
도 4는 본 발명의 실시 예에 따른 시야 예측 모델의 학습방법을 나타낸다.
도 5는 본 발명의 실시 예에 따른 시야 예측 모델의 학습방법을 나타낸다.Figure 1 shows an AI device 100 according to an embodiment of the present invention.
Figure 2 shows a flowchart of a field of view prediction method according to an embodiment of the present invention.
Figure 3 shows a field of view prediction model according to an embodiment of the present invention.
Figure 4 shows a method of learning a visual field prediction model according to an embodiment of the present invention.
Figure 5 shows a method of learning a visual field prediction model according to an embodiment of the present invention.
이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The technology described below may be subject to various changes and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the technology described below to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the technology described below.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, B, etc. may be used to describe various components, but the components are not limited by the terms, and are only used for the purpose of distinguishing one component from other components. It is used only as For example, a first component may be named a second component without departing from the scope of the technology described below, and similarly, the second component may also be named a first component. The term and/or includes any of a plurality of related stated items or a combination of a plurality of related stated items.
본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설명된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.In terms used in this specification, singular expressions should be understood to include plural expressions, unless clearly interpreted differently from the context, and terms such as “including” refer to the described features, numbers, steps, operations, and components. , it means the existence of parts or a combination thereof, but should be understood as not excluding the possibility of the presence or addition of one or more other features, numbers, step operation components, parts, or combinations thereof.
도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.Before providing a detailed description of the drawings, it would be clarified that the division of components in this specification is merely a division according to the main function each component is responsible for. That is, two or more components, which will be described below, may be combined into one component, or one component may be divided into two or more components for more detailed functions. In addition to the main functions it is responsible for, each of the components described below may additionally perform some or all of the functions handled by other components, and some of the main functions handled by each component may be performed by other components. Of course, it can also be carried out exclusively by .
또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, when performing a method or operation method, each process forming the method may occur in a different order from the specified order unless a specific order is clearly stated in the context. That is, each process may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the opposite order.
먼저, 이하 설명에서 사용되는 용어에 대한 정의는 아래와 같다.First, the definitions of terms used in the following description are as follows.
단층촬영 데이터는 빛간섭 단층촬영(OCT)를 이용하여 획득된 이미지 데이터를 의미할 수 있다(이하 OCT 데이터와 혼용하여 사용한다).Tomography data may refer to image data acquired using optical coherence tomography (OCT) (hereinafter used interchangeably with OCT data).
빛간섭 단층촬영(OCT)는 두께 지도, 단층 촬영(가로 및 세로)과 같은 시신경 머리에 대한 다양한 유형의 데이터를 제공하는 검사를 의미할 수 있다.Optical coherence tomography (OCT) can refer to tests that provide different types of data about the optic nerve head, such as thickness maps and tomography (transverse and longitudinal).
예를 들어, OCT의 두께 지도(thickness maps)는 일반적으로 녹내장 손상과 직접적으로 관련된 시신경유두 주변의 망막신경섬유층(RNFL) 두께에 대한 정보를 제공하며, 단층촬영은 수평 단층 촬영(horizontal tomograms) 및 수직 단층 촬영(vertical tomograms)을 포함하고, 시신경유두의 구조적 특징에 대한 정보를 제공할 수 있다. For example, OCT's thickness maps provide information about the retinal nerve fiber layer (RNFL) thickness around the optic disc, which is generally directly related to glaucomatous damage, while tomography's horizontal tomograms and It includes vertical tomograms and can provide information about the structural features of the optic disc.
시야검사 데이터는 환자의 시야 검사(Visual Field Test) 결과 데이터를 의미할 수 있다. 본 발명의 실시 예에 따라 환자당 시야검사는 시간 간격을 두고 복수번 수행될 수 있으며, 각 타임라인에 대응되어 저장될 수 있다.Visual field test data may refer to data on the results of a patient's visual field test. According to an embodiment of the present invention, the visual field test per patient can be performed multiple times at time intervals and stored in correspondence with each timeline.
이하 본 발명의 시야예측 모델에 대하여 설명한다.Hereinafter, the visual field prediction model of the present invention will be described.
본 발명이 개시하는 시야예측 모델은 상기와 같은 데이터(시야검사 데이터 및 OCT 데이터 등)를 이용하여 시신경 형태를 기반으로 미래의 시야 패턴의 예측이 가능한 딥러닝모델의 동작 방법을 개시한다.The visual field prediction model disclosed by the present invention discloses a method of operating a deep learning model capable of predicting future visual field patterns based on the shape of the optic nerve using the above data (perimetry data, OCT data, etc.).
구체적으로 상기 시야예측 모델은 녹내장 환자의 이미지 정보를 이용한 녹내장 예후 예측 모델의 개발에 해당하며, 기존의 시야검사 데이터와 두께 지도, 단층 촬영 등의 OCT 영상 데이터를 이용하여 녹내장 환자의 미래 시야 결함 패턴을 예측하는 딥 러닝 모델에 해당할 수 있다.Specifically, the visual field prediction model corresponds to the development of a glaucoma prognosis prediction model using image information of glaucoma patients, and the future visual field defect pattern of glaucoma patients using existing visual field test data, thickness maps, and OCT image data such as tomography. It may correspond to a deep learning model that predicts.
이를 통해서 궁극적으로, 녹내장 환자의 이후 녹내장 진행 가능성 및 진행 속도, 시야진행 패턴을 예측할 수 있다.Through this, it is possible to ultimately predict the likelihood of glaucoma progression, speed of progression, and visual field progression pattern in glaucoma patients.
본 발명의 실시 예에 따른 시야예측 모델은 이미지 데이터와 직렬 데이터에서 특징을 추출하기 위해 CNN과 RNN의 조합으로 구성될 수 있다.The field of view prediction model according to an embodiment of the present invention may be composed of a combination of CNN and RNN to extract features from image data and serial data.
상기 시야예측모델은 노이즈가 있는 데이터를 관리하기 위해 가중 손실이 있는 효율적인 훈련 메커니즘을 적용될 수 있다. 상기 훈련 메커니즘은 추후 설명토록 한다. The vision prediction model can apply an efficient training mechanism with weighted loss to manage noisy data. The training mechanism will be explained later.
본 발명의 실시 예에 따르면, 다중 입력(OCT 데이터 및 시야검사 데이터)이 있는 시야예측 모델은 구조-기능 관계를 더 잘 학습하는 데 도움이 될 수 있으며, 정량적 결과를 기반으로 제안된 모델의 성능을 향상시킬 수 있다.According to an embodiment of the present invention, a visual field prediction model with multiple inputs (OCT data and perimetry data) can help to better learn structure-function relationships, and the performance of the proposed model based on quantitative results can be improved.
이하 시야예측 장치가 상기 시야예측 모델을 탑재한 것으로 설명한다. 상기 시야예측 장치는 입력된 데이터를 일정하게 처리하고 특정 모델이나 알고리즘에 따라 녹내장 환자의 시야패턴 예측에 필요한 연산을 수행하는 장치이다. 예컨대, 시야예측 장치는 PC, 네트워크상의 서버, 스마트기기, 설계 프로그램이 임베딩된 칩셋 등과 같은 형태로 구현될 수 있다.Hereinafter, the field of view prediction device will be described as being equipped with the field of view prediction model. The visual field prediction device is a device that consistently processes input data and performs the calculations necessary to predict the visual field pattern of a glaucoma patient according to a specific model or algorithm. For example, the field of view prediction device can be implemented in the form of a PC, a server on a network, a smart device, or a chipset with an embedded design program.
도 1은 본 발명의 일 실시 예에 따른 시야예측 장치(100)의 구성도에 대한 예이다.Figure 1 is an example of a configuration diagram of a field of view prediction device 100 according to an embodiment of the present invention.
시야예측 장치(100)는 휴대폰, 스마트폰, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC, 웨어러블 장치, 차량 등 이동 가능한 기기 등으로 구현될 수 있다.The field of view prediction device 100 may be implemented as a mobile device, such as a mobile phone, smartphone, personal digital assistants (PDA), portable multimedia player (PMP), navigation, tablet PC, wearable device, or vehicle.
도 1을 참조하면, 시야예측 장치(100)는 통신부(110), 입력부(120), 제어부(130), 인터페이스부(140), 출력부(160) 및 메모리(150) 등을 포함할 수 있다.Referring to FIG. 1, the field of view prediction device 100 may include a communication unit 110, an input unit 120, a control unit 130, an interface unit 140, an output unit 160, and a memory 150. .
통신부(110)는 유무선 통신 기술을 이용하여 다른 전자장치나 서버 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(110)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.The communication unit 110 can transmit and receive data with external devices such as other electronic devices or servers using wired or wireless communication technology. For example, the communication unit 110 may transmit and receive sensor information, user input, learning models, and control signals with external devices.
입력부(120)는 다양한 종류의 데이터를 획득할 수 있다.The input unit 120 can acquire various types of data.
이때, 입력부(120)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.At this time, the input unit 120 may include a camera for inputting video signals, a microphone for receiving audio signals, and a user input unit for receiving information from the user. Here, the camera or microphone may be treated as a sensor, and the signal obtained from the camera or microphone may be referred to as sensing data or sensor information.
출력부(160)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. The output unit 160 may generate output related to vision, hearing, or tactile sensation.
이때, 출력부(160)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.At this time, the output unit 160 may include a display unit that outputs visual information, a speaker that outputs auditory information, and a haptic module that outputs tactile information.
메모리(150)는 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(150)는 입력부(120)에서 획득한 입력 데이터, 서버 또는 연결된 장치에서 획득된 다양한 데이터를 저장할 수 있다.The memory 150 can store data supporting various functions. For example, the memory 150 may store input data obtained from the input unit 120 and various data obtained from a server or connected device.
제어부(130)는 시야예측 장치(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 제어부(130)는 시야패턴 예측장치(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.The control unit 130 may determine at least one executable operation of the field of view prediction device 100. Additionally, the control unit 130 may control the components of the viewing pattern prediction device 100 to perform the determined operation.
도 2는 본 발명의 실시 예에 따른 시야예측 방법의 흐름도를 나타낸 것이다.Figure 2 shows a flowchart of a field of view prediction method according to an embodiment of the present invention.
도 3은 본 발명의 실시 예에 따른 시야예측 모델을 나타낸 것이다.Figure 3 shows a field of view prediction model according to an embodiment of the present invention.
먼저, 도 3을 참고하면, 본 발명의 실시 예에 따른 시야예측 모델은 OCT 데이터의 특징을 추출하기 위한 전처리를 수행하는 전처리부(310)와 이미지의 시리즈 및 시야검사 데이터를 처리하는 예측부(320)를 포함할 수 있다. 그리고 최종 예측결과를 도출하는 결과도출부(330)를 포함할 수 있다.First, referring to FIG. 3, the visual field prediction model according to an embodiment of the present invention includes a preprocessing unit 310 that performs preprocessing to extract features of OCT data and a prediction unit that processes a series of images and visual field test data ( 320) may be included. It may also include a result generating unit 330 that derives the final prediction result.
이하 구체적으로 설명한다.This will be described in detail below.
먼저, 본 발명의 실시 예에 따른 시야예측장치(100)는 시야예측모델에 상기 OCT 데이터를 피드(입력)하기 전에 이미지 전처리를 수행할 수 있다(S210).First, the visual field prediction device 100 according to an embodiment of the present invention may perform image preprocessing before feeding (inputting) the OCT data to the visual field prediction model (S210).
구체적으로 시야예측 모델은 입력된 데이터를 이용하여 상기 데이터에 대응하는 환자의 미래 시야패턴을 예측하기 위한 데이터 전처리 과정을 수행할 수 있다.Specifically, the visual field prediction model may use input data to perform a data preprocessing process to predict the patient's future visual field pattern corresponding to the data.
예를 들어, 시야예측 모델은 OCT 데이터의 전처리를 통한 특징 추출할 수 있다. OCT 데이터는 두께 지도(thickness maps), 수평 단층 촬영(horizontal tomograms) 및 수직 단층 촬영(vertical tomograms)을 포함할 수 있다.For example, a visual field prediction model can extract features through preprocessing of OCT data. OCT data may include thickness maps, horizontal tomograms, and vertical tomograms.
구체적으로 상기 이미지 전처리에서 모든 이미지는 정규화되고(-1에서 1까지의 픽셀 값) 224 Х 224로 크기가 조정될 수 있다.Specifically, in the above image preprocessing, all images can be normalized (pixel values from -1 to 1) and resized to 224 Х 224.
본 발명의 실시 예에 따르면, 시야예측모델의 전처리 시 이미지 데이터 분석을 위해 CNN(convolution neural network) 모델이 사용될 수 있다.According to an embodiment of the present invention, a convolution neural network (CNN) model may be used to analyze image data when preprocessing a visual field prediction model.
도 3을 참조하면, 본 발명의 실시 예에 따르면, OCT 데이터 중 두께 지도, 수평단층 촬영 및 수직 단층촬영 이미지 각각은 미리 정해진 전처리모델(310)에 입력될 수 있으며, 각각의 특징(Features from image data)이 추출될 수 있다. 상기 특징은 OCT 특징 데이터로 정의될 수 있다.Referring to FIG. 3, according to an embodiment of the present invention, each of the thickness map, horizontal tomography, and vertical tomography images among the OCT data can be input to a predetermined preprocessing model 310, and each feature (Features from image) data) can be extracted. The feature may be defined as OCT feature data.
예를 들어, 시야패턴 예측장치는 전처리 모델로 사전 훈련된 'ResNet-50'을 특징추출기로 사용할 수 있다.For example, a vision pattern prediction device can use 'ResNet-50', which is pre-trained as a preprocessing model, as a feature extractor.
상기 특징추출기는 입력으로 각 이미지에 대해 특징 벡터를 제공할 수 있다. 구체적으로 상기 OCT 특징 데이터는 환자의 전체 시야에 대한 정보를 제공하는 두께맵 특징 및 환자 시야의 특정 영역에 대한 정보를 제공하는 수직 및 수평 단층맵 특징을 포함할 수 있다.The feature extractor may provide a feature vector for each image as input. Specifically, the OCT feature data may include a thickness map feature that provides information about the patient's entire field of view, and vertical and horizontal tomography map features that provide information about a specific area of the patient's field of view.
본 발명의 실시 예에 따르면, 시야예측 모델은 전처리 시, OCT 데이터 중 두께 맵 특징에 비중을 둔 특징 벡터를 생성할 수 있다.According to an embodiment of the present invention, the visual field prediction model can generate a feature vector that places emphasis on thickness map features among OCT data during preprocessing.
예를 들어,두께 맵, 수직 단층 촬영 및 수평 단층 촬영의 출력 벡터는 각각 512-d 벡터, 128-d 벡터 및 128-d 벡터로 구성될 수 있다.For example, the output vectors of the thickness map, vertical tomography, and horizontal tomography may consist of a 512-d vector, a 128-d vector, and a 128-d vector, respectively.
본 발명의 실시 예에 따른 시야예측 모델은 상기 전처리 과정을 통하여 OCT 데이터를 기초로 한 OCT 특징 데이터를 생성할 수 있다.The visual field prediction model according to an embodiment of the present invention can generate OCT feature data based on OCT data through the above preprocessing process.
한편, 본 발명의 실시 예에 따른, 데이터셋트는 과적합을 피하기 위해 몇 가지 일반적인 데이터 증강(Data Augmentation) 기술(이동, 크기 조정, 회전)이 적용될 수 있다.Meanwhile, according to an embodiment of the present invention, several general data augmentation techniques (movement, resizing, rotation) may be applied to the dataset to avoid overfitting.
본 발명의 실시 예에 따른 시야예측 방법에 있어서, 시야검사 데이터, OCT 특징 데이터 및 시간 정보가 예측모델에 입력될 수 있다(S220). 상기 예측모델은 예측부(320)일 수 있다.In the visual field prediction method according to an embodiment of the present invention, visual field test data, OCT feature data, and time information can be input into the prediction model (S220). The prediction model may be the prediction unit 320.
이때, 상기 예측모델에 입력되는 시야검사 데이터는 환자의 이전 시야검사 데이터(Previous VFs test data)일 수 있으며 상기 시야검사 데이터는 벡터로 재구성되고, 평균이 0이고 표준 편차가 1로 정규화될 수 있다.At this time, the visual field test data input to the prediction model may be the patient's previous visual field test data (Previous VFs test data), and the visual field test data can be reconstructed as a vector and normalized to have an average of 0 and a standard deviation of 1. .
상기 시간 정보에는 타임라인(time line) 및 시간간격(time interval)의 두 가지 유형의 정보가 포함될 수 있다. 상기 타임라인 정보는 선택된 이미지와 첫번째 이미지 사이의 시간을 의미할 수 있다. 또한 상기 간격 정보는 선택된 이미지와 이전 이미지 사이의 시간을 의미할 수 있다.The time information may include two types of information: timeline and time interval. The timeline information may refer to the time between the selected image and the first image. Additionally, the interval information may mean the time between the selected image and the previous image.
본 발명의 실시 예에 따른 시야예측 모델은 각 시간 단계에 대해 OCT 특징 데이터, 시야검사 데이터 및 시간 정보를 연결하여 다차원 벡터를 생성할 수 있다.The visual field prediction model according to an embodiment of the present invention can generate a multidimensional vector by connecting OCT feature data, visual field test data, and time information for each time step.
상기 다차원 벡터는 LSTM(Long Short-Term Memory) 네트워크의 입력으로 사용될 수 있다. 상기 LSTM의 출력은 128-d 벡터일 수 있다.The multidimensional vector can be used as an input to a Long Short-Term Memory (LSTM) network. The output of the LSTM may be a 128-d vector.
한편, 본 발명의 실시 예에 따르면, 시야예측 모델은 pair-데이터(시야검사 데이터 및 OCT 데이터)가 입력되는 경우가 이상적이나, 상기 pair-데이터 중 어느 하나가 누락된 경우, 마스크 정보를 사용하여 누락된 데이터를 대체할 수 있다.Meanwhile, according to an embodiment of the present invention, the vision prediction model ideally inputs pair-data (visual field test data and OCT data), but if any one of the pair-data is missing, mask information is used to Missing data can be replaced.
상기 마스크 정보는 상기 OCT 데이터가 누락되었거나 사용 가능한지 여부를 나타내는 벡터를 의미할 수 있다. 예를 들어, 마스크에서 1을 사용 가능 상태로, 0을 누락된 상태로 정의할 수 있다.The mask information may mean a vector indicating whether the OCT data is missing or available. For example, a mask could define 1 as available and 0 as missing.
구체적으로, OCT 데이터가 누락된 경우, 누락된 OCT 이미지를 생성하기 위하여 가상의 OCT 데이터를 생성할 수 있다. 이때, 가상의 OCT 데이터는 검은색 으로 채워진 이미지일 수 있다.Specifically, when OCT data is missing, virtual OCT data can be generated to generate the missing OCT image. At this time, the virtual OCT data may be an image filled with black.
본 발명의 실시 예에 따르면, OCT 데이터가 누락되어 마스크 정보가 '0'을 가리키는 경우, OCT 데이터는 가상의 OCT 데이터로 대체되어 시야예측 모델에 입력될 수 있을 것이다.According to an embodiment of the present invention, when OCT data is missing and mask information indicates '0', the OCT data may be replaced with virtual OCT data and input into the visual field prediction model.
본 발명의 실시 예에 따른 시야 예측모델은 LSTM 출력결과를 획득할 수 있다(S230).The visual field prediction model according to an embodiment of the present invention can obtain LSTM output results (S230).
이후, 본 발명의 실시 예에 따른 시야예측 모델은 LSTM 출력결과와 최근 시야검사 데이터(Last VF) 및 상기 최근 시야검사 데이터에 대응하는 최근 시간 정보(Last time info)에 기초하여 최종 시야 예측결과를 획득할 수 있다(S240).Afterwards, the visual field prediction model according to an embodiment of the present invention produces a final visual field prediction result based on the LSTM output result, the latest visual field test data (Last VF), and the latest time information (Last time info) corresponding to the recent visual field test data. Can be obtained (S240).
한편, 시야와 두께 맵 사이에는 구조-기능 관계가 존재하며, 상기 구조-기능 관계는 사람마다 상이할 수 있다. 또한 녹내장은 몇 가지 일반적인 패턴 중 하나로 발생하지만 각 환자는 개인의 고유한 특성을 가지고 있으므로 커스터마이징이 필요하였다. 본 발명은 종래의 인공지능모델과 달리, 본 발명은 OCT 데이터 및 시야검사 데이터를 함계 사용함으로써 상기 문제를 해결할 수 있다.Meanwhile, a structure-function relationship exists between the field of view and the thickness map, and the structure-function relationship may be different for each person. Additionally, although glaucoma occurs in one of several general patterns, each patient has unique characteristics, so customization was necessary. Unlike conventional artificial intelligence models, the present invention can solve the above problem by using OCT data and visual field test data together.
구체적으로 상기 커스터마이징 문제를 해결하기 위해 이전 시야검사 데이터(마지막 시야검사 데이터만)를 미래 시야를 예측하는 기준 시야검사 데이터로 사용할 수 있다. Specifically, to solve the above customization problem, previous visual field test data (only the last visual field test data) can be used as reference visual field test data to predict future visual field.
LSTM 출력과 상기 기준 시야검사 데이터를 기반으로 예측 정확도가 크게 향상될 수 있다. Prediction accuracy can be greatly improved based on the LSTM output and the reference visual field test data.
상기와 같이 본 발명의 실시 예에 따른 시야예측모델은 LSTM 출력, 이전 시야검사 데이터 및 시간 정보를 결합하여 미래 시야를 예측할 수 있으며, 의료진은 이에 기초하여 녹내장 환자의 진행정도를 진단할 수 있다.As described above, the visual field prediction model according to an embodiment of the present invention can predict the future visual field by combining LSTM output, previous visual field test data, and time information, and medical staff can diagnose the degree of progression of a glaucoma patient based on this.
한편 상기 미래 시야는 향후 진행될 시야검사에 대한 참고데이터로 사용되기 위하여 시야검사 데이터 형태로 생성될 수 있을 것이다. Meanwhile, the future visual field may be generated in the form of visual field test data to be used as reference data for future visual field tests.
이하 본 발명의 실시 예에 따른 시야패턴 예측모델의 훈련방법에 대하여 설명한다.Hereinafter, a training method for a visual pattern prediction model according to an embodiment of the present invention will be described.
도 4 내지 도 5는 본 발명의 실시 예에 따른 시야예측 모델의 훈련방법을 나타낸 도면이다.4 to 5 are diagrams showing a method of training a visual field prediction model according to an embodiment of the present invention.
도 4를 참조하면, 시야검사에 있어서 환자의 현재 상태에 따라 노이즈(잡음) 시야검사 데이터가 생성될 수 있으므로 안정적인 데이터를 획득하는데 어려움이 존재한다.Referring to FIG. 4, in a visual field test, noisy visual field test data may be generated depending on the patient's current condition, so there is difficulty in obtaining stable data.
따라서, 본 발명의 실시 예에 따른 시야예측 모델은 상기 상황을 반영하고자, 잡음이 있는 데이터를 처리하기 위해 샘플에 가중치를 재지정하였으며, 시야예측 모델은 노이즈의 정도에 기초하여 가중치가 재지정된 시야검사 데이터 샘플에 의해 훈련될 수 있다.Therefore, in order to reflect the above situation, the field of view prediction model according to an embodiment of the present invention re-assigned weights to samples to process noisy data, and the field of view prediction model has a field of view with re-weighted values based on the degree of noise. Can be trained by inspection data samples.
한편, OCT 데이터는 시야검사 데이터와 비교하여, 두께 맵은 일관되고 신뢰할 수 있으므로 상기 과정은 생략될 수 있다.Meanwhile, compared to visual field test data, OCT data has consistent and reliable thickness maps, so the above process can be omitted.
본 발명의 실시 예에 따른 시야예측 모델은 회귀모델로 구성될 수 있으며,상기회귀모델은 두께 맵을 기반으로 시야검사 데이터를 예측할 수 있다. 상기 회귀모델의 입력값은 두께 맵이고 출력은 상기 두께맵에 대응하는 시야검사 데이터 일 수 있다. 상기 회귀 모델의 중추는 사전 훈련된 ResNet-50[7]일 수 있다.The visual field prediction model according to an embodiment of the present invention may be composed of a regression model, and the regression model may predict visual field inspection data based on the thickness map. The input value of the regression model may be a thickness map, and the output may be visual field inspection data corresponding to the thickness map. The backbone of the regression model may be the pre-trained ResNet-50 [7].
손실함수는 평균제곱오차(MSE loss)이며, 메인모델과 같이 데이터 증강(Data Augmentation)이 적용될 수 있다.The loss function is the mean square error (MSE loss), and data augmentation can be applied like the main model.
상기 시야예측 모델은 상기 회귀 모델을 사용하여 구조-기능 관계를 학습할 수 있을 것이다. 훈련 후 모델은 두께 맵을 기반으로 일반적인 녹내장 패턴을 예측할 수 있다.The visual field prediction model may learn the structure-function relationship using the regression model. After training, the model can predict common glaucoma patterns based on the thickness map.
이하 도 5의 알고리즘의 진행 절차에 기초하여 시야검사 데이터 샘플의 가중치 재지정에 대하여 설명한다.Hereinafter, reassignment of weights of visual field inspection data samples will be described based on the algorithm progress procedure of FIG. 5.
본 발명의 실시 예에 따르면, 먼저 각 환자에 대해 ground truth와 예측된 시야검사 데이터 사이의 평균 절대 오차(mean absolute error, MAE)를 계산할 수 있다. 계산된 평균절대 오차 값()은 환자마다 상이하므로 이를 정규화(할 수 있다.According to an embodiment of the present invention, first, the mean absolute error (MAE) between ground truth and predicted visual field test data can be calculated for each patient. Since the calculated mean absolute error value () is different for each patient, it is normalized ( can do.
본 발명의 실시 예에 따르면, 잡음이 있는 샘플을 식별하기 위해 정규화된 오류 '가 임계값(TH)보다 작은 오류가 있는 샘플은 양호한 샘플로 간주하고 나머지는 노이즈가 있는 것으로 간주될 수 있다.According to an embodiment of the present invention, to identify noisy samples, samples with errors where the normalized error 'is less than the threshold (TH) may be considered good samples, and the rest may be considered noisy.
이때 양호한 샘플의 가중치는 노이즈가 있는 샘플의 가중치보다 높게 설정될 수 있다. At this time, the weight of the good sample may be set higher than the weight of the noisy sample.
도 4를 참조하면, 예를 들어, 좋은 샘플의 가중치는 1일 수 있으며 , 노이즈가 있는 샘플의 가중치는 지수 함수를 기초로 설정될 수 있다. 본 발명의 실시 예에 따르면, 모든 가중치를 얻은 후 시야예측모델은 노이즈 데이터의 영향을 줄이기 위해 가중 손실이 반영된 훈련 데이터를 이용하여 학습될 수 있으며 상기 시야예측 모델을 훈련하는 데 사용되는 손실 함수는 다음과 같이 가중 MSE가 사용될 수 있다.Referring to FIG. 4, for example, the weight of a good sample may be 1, and the weight of a noisy sample may be set based on an exponential function. According to an embodiment of the present invention, after obtaining all weights, the field of view prediction model can be learned using training data reflecting weighted loss to reduce the influence of noise data, and the loss function used to train the field of view prediction model is Weighted MSE can be used as follows:
(는 재조정된 가중치, 는 예측된 시야검사 데이터, 는 정답 값)( is the rebalanced weight, is the predicted visual field test data, is the correct answer value)
본 발명의 실시 예에 따른 미래 시야예측 모델은 이전 시야검사 데이터 및 OCT 데이터(두께 맵, 수직 및 수평 단층 영상)를 사용하여 다중 입력을 기반으로 미래 시야검사 데이터를 예측하는 딥 러닝 모델을 개시합니다. 시리즈 데이터(이전 시야검사 데이터)와 이미지 데이터(OCT 데이터)를 모두 분석하기 위해 CNN-RNN 모델을 개시한다. 또한, 잡음이 있는 데이터를 처리하기 위해 샘플을 감지하고 다시 가중치를 부여하는 메커니즘을 도입하였다.The future visual field prediction model according to an embodiment of the present invention discloses a deep learning model that predicts future visual field inspection data based on multiple inputs using previous visual field inspection data and OCT data (thickness map, vertical and horizontal tomographic images). . A CNN-RNN model is launched to analyze both series data (previous visual field test data) and image data (OCT data). Additionally, a mechanism to detect samples and re-weight them was introduced to handle noisy data.
상기 모델을 이용하여 re-weighting 방법이 OCT 이미지가 있거나 없는 경우에 성능을 향상시킬 수 있다.Using the above model, the re-weighting method can improve performance with or without OCT images.
본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 소프트웨어로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다.Those skilled in the art will understand that various illustrative logical blocks, modules, processors, means, circuits and algorithm steps described in connection with the embodiments disclosed herein may be used in electronic hardware, (for convenience) It will be understood that it may be implemented by various forms of program or design code (referred to herein as software) or a combination of both.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다.The above-described present invention can be implemented as computer-readable code on a program-recorded medium. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is.
Claims (12)
OCT 데이터에 포함된 특징을 추출하여 OCT 특징 데이터를 획득하는 단계;
시야검사 데이터, 상기 OCT 특징 데이터 및 시간 정보를 예측모델에 입력하는 단계;
상기 예측모델의 출력결과를 이용하여 최근 시야검사 데이터 및 상기 최근 시야검사 데이터에 대응하는 최근 시간 정보(Last time info)에 기초하여 최종 시야예측 결과를 획득하는 단계를 포함하는,
녹내장 환자의 미래 시야 예측 방법.In a method of predicting the future visual field of a glaucoma patient using an artificial intelligence model,
Obtaining OCT feature data by extracting features included in the OCT data;
Inputting visual field test data, the OCT feature data, and time information into a prediction model;
Comprising the step of using the output result of the prediction model to obtain a final visual field prediction result based on recent visual field test data and last time information corresponding to the recent visual field test data,
A method for predicting future visual field in glaucoma patients.
상기 시야검사 데이터, 상기 OCT 특징 데이터 및 시간 정보를 예측모델에 입력하는 단계는,
상기 OCT 특징 데이터, 상기 시야검사 데이터 및 상기 시간 정보를 연결하여 다차원 벡터를 생성하는 단계 및 상기 다차원 벡터를 LSTM 네트워크에 입력하는 단계를 포함하는,
녹내장 환자의 미래 시야 예측 방법.According to clause 1,
The step of inputting the visual field test data, the OCT feature data, and time information into the prediction model,
Comprising the step of generating a multidimensional vector by connecting the OCT feature data, the visual field test data, and the time information, and inputting the multidimensional vector into an LSTM network,
A method for predicting future visual field in glaucoma patients.
상기 OCT 특징 데이터가 누락된 경우 마스크 정보를 이용하여 가상의 OCT 데이터를 생성하는 단계를 더 포함하고,
상기 시야검사 데이터, 상기 OCT 특징 데이터 및 시간 정보를 예측모델에 입력하는 단계는,
상기 시야검사 데이터, 상기 가상의 OCT 데이터 및 시간 정보를 예측모델에 입력하는 단계를 포함하는,
녹내장 환자의 미래 시야 예측 방법.According to clause 1,
If the OCT feature data is missing, it further includes generating virtual OCT data using mask information,
The step of inputting the visual field test data, the OCT feature data, and time information into the prediction model,
Including inputting the visual field test data, the virtual OCT data, and time information into a prediction model,
A method for predicting future visual field in glaucoma patients.
상기 OCT 특징 데이터는 환자의 전체 시야에 대한 정보를 제공하는 두께맵 특징 및 환자 시야의 특정 영역에 대한 정보를 제공하는 수직 및 수평 단층맵 특징을 포함하는,
녹내장 환자의 미래 시야 예측 방법.According to clause 1,
The OCT feature data includes a thickness map feature that provides information about the patient's entire field of view and vertical and horizontal tomographic map features that provide information about a specific area of the patient's field of view.
A method for predicting future visual field in glaucoma patients.
상기 인공지능 모델은
노이즈의 정도에 기초하여 가중치가 재지정된 시야검사 데이터 샘플에 의해 훈련된,
녹내장 환자의 미래 시야 예측 방법.According to clause 1,
The artificial intelligence model is
Trained on perimetry data samples re-weighted based on the degree of noise,
A method for predicting future visual field in glaucoma patients.
상기 인공지능 모델의 손실함수는 weighted MSE를 포함하고, 상기 weighted MSE는 수학식 1을 포함하는,
[수학식 1]
(는 재조정된 가중치, 는 예측된 시야검사 데이터, 는 정답 값)
녹내장 환자의 미래 시야 예측 방법.In paragraph 1
The loss function of the artificial intelligence model includes a weighted MSE, and the weighted MSE includes Equation 1,
[Equation 1]
( is the rebalanced weight, is the predicted visual field test data, is the correct answer value)
A method for predicting future visual field in glaucoma patients.
OCT 데이터 및 시야검사 데이터가 입력되는 입력부;
시야예측 결과를 출력하는 출력부 및
OCT 데이터에 포함된 특징을 추출하여 OCT 특징 데이터를 획득하고, 시야검사 데이터, 상기 OCT 특징 데이터 및 시간 정보를 예측모델에 입력하고, 상기 예측모델의 출력결과를 이용하여 최근 시야검사 데이터 및 상기 최근 시야검사 데이터에 대응하는 최근 시간 정보(Last time info)에 기초하여 최종 시야예측 결과를 획득하는 제어부를 포함하는,
녹내장 환자의 미래 시야 예측 장치.In a device for predicting the future vision of glaucoma patients using an artificial intelligence model,
An input unit where OCT data and visual field test data are input;
An output unit that outputs the field of view prediction results and
Obtain OCT feature data by extracting features included in the OCT data, input the visual field test data, the OCT feature data, and time information into a prediction model, and use the output result of the prediction model to obtain the most recent visual field test data and the most recent visual field test data. Comprising a control unit that obtains the final visual field prediction result based on last time information corresponding to the visual field test data,
A device for predicting future vision in glaucoma patients.
상기 제어부가 상기 시야검사 데이터, 상기 OCT 특징 데이터 및 시간 정보를 예측모델에 입력하는 동작은,
상기 OCT 특징 데이터, 상기 시야검사 데이터 및 상기 시간 정보를 연결하여 다차원 벡터를 생성하는 단계 및 상기 다차원 벡터를 LSTM 네트워크에 입력하는 동작을 포함하는,
녹내장 환자의 미래 시야 예측 장치.According to clause 7,
The operation of the control unit inputting the visual field test data, the OCT feature data, and time information into the prediction model is,
Comprising the step of generating a multidimensional vector by connecting the OCT feature data, the visual field test data, and the time information, and inputting the multidimensional vector into an LSTM network,
A device for predicting future vision in glaucoma patients.
상기 제어부가 상기 OCT 특징 데이터가 누락된 경우 마스크 정보를 이용하여 가상의 OCT 데이터를 생성하고, 상기 시야검사 데이터, 상기 가상의 OCT 데이터 및 시간 정보를 예측모델에 입력하는,
녹내장 환자의 미래 시야 예측 장치.According to clause 7,
When the OCT feature data is missing, the control unit generates virtual OCT data using mask information, and inputs the visual field test data, the virtual OCT data, and time information into a prediction model,
A device for predicting future vision in glaucoma patients.
상기 OCT 특징 데이터는 환자의 전체 시야에 대한 정보를 제공하는 두께맵 특징 및 환자 시야의 특정 영역에 대한 정보를 제공하는 수직 및 수평 단층맵 특징을 포함하는,
녹내장 환자의 미래 시야 예측 장치.According to clause 7,
The OCT feature data includes a thickness map feature that provides information about the patient's entire field of view and vertical and horizontal tomographic map features that provide information about a specific area of the patient's field of view.
A device for predicting future vision in glaucoma patients.
상기 인공지능 모델은
노이즈의 정도에 기초하여 가중치가 재지정된 시야검사 데이터 샘플에 의해 훈련된,
녹내장 환자의 미래 시야 예측 장치.According to clause 7,
The artificial intelligence model is
Trained on perimetry data samples re-weighted based on the degree of noise,
A device for predicting future vision in glaucoma patients.
상기 인공지능 모델의 손실함수는 weighted MSE를 포함하고, 상기 weighted MSE는 수학식 1을 포함하는,
[수학식 1]
(는 재조정된 가중치, 는 예측된 시야검사 데이터, 는 정답 값)
녹내장 환자의 미래 시야 예측 장치.In paragraph 7
The loss function of the artificial intelligence model includes a weighted MSE, and the weighted MSE includes Equation 1,
[Equation 1]
( is the rebalanced weight, is the predicted visual field test data, is the correct answer value)
A device for predicting future vision in glaucoma patients.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220122623A KR20240043488A (en) | 2022-09-27 | 2022-09-27 | A multimodal deep learning model for predicting future visual field in glaucoma patients |
PCT/KR2023/014957 WO2024072067A1 (en) | 2022-09-27 | 2023-09-27 | Method for predicting future vision field of glaucoma patient by using multimodal deep learning model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220122623A KR20240043488A (en) | 2022-09-27 | 2022-09-27 | A multimodal deep learning model for predicting future visual field in glaucoma patients |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240043488A true KR20240043488A (en) | 2024-04-03 |
Family
ID=90478744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220122623A KR20240043488A (en) | 2022-09-27 | 2022-09-27 | A multimodal deep learning model for predicting future visual field in glaucoma patients |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20240043488A (en) |
WO (1) | WO2024072067A1 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102183847B1 (en) * | 2018-08-16 | 2020-11-27 | 한국과학기술원 | A 2-stage ranking-CNN for diagnosis of glaucoma from fundus images using CAM-extracted ROI as an intermediate input |
US20220058803A1 (en) * | 2019-02-14 | 2022-02-24 | Carl Zeiss Meditec Ag | System for oct image translation, ophthalmic image denoising, and neural network therefor |
KR20200114837A (en) * | 2019-03-29 | 2020-10-07 | 단국대학교 산학협력단 | Method and apparatus for generating feature data for glaucoma diagnosis, method and apparatus for diagnosing glaucoma |
KR102443982B1 (en) * | 2020-10-22 | 2022-09-16 | 순천향대학교 산학협력단 | Deep learning based fundus image classification device and method for diagnosis of ophthalmic diseases |
KR20220095291A (en) * | 2020-12-29 | 2022-07-07 | 부산대학교 산학협력단 | System and Method for Predicting Visual Function Change based on Big Data and Artificial Intelligence Technology |
-
2022
- 2022-09-27 KR KR1020220122623A patent/KR20240043488A/en unknown
-
2023
- 2023-09-27 WO PCT/KR2023/014957 patent/WO2024072067A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024072067A1 (en) | 2024-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3982292B1 (en) | Method for training image recognition model, and method and apparatus for image recognition | |
WO2020215984A1 (en) | Medical image detection method based on deep learning, and related device | |
US20180268737A1 (en) | System and method to teach and evaluate image grading performance using prior learned expert knowledge base | |
KR20200005987A (en) | System and method for diagnosing cognitive impairment using touch input | |
KR102155309B1 (en) | Method for predicting cognitive impairment, server, user device and application implementing the method | |
CN109191451B (en) | Abnormality detection method, apparatus, device, and medium | |
US10725534B2 (en) | Apparatus and method of generating machine learning-based cyber sickness prediction model for virtual reality content | |
CN111612756B (en) | Coronary artery specificity calcification detection method and device | |
Puneet et al. | Optical coherence tomography image based eye disease detection using deep convolutional neural network | |
CN110517249A (en) | Imaging method, device, equipment and the medium of ultrasonic elastic image | |
CN112397195B (en) | Method, apparatus, electronic device and medium for generating physical examination model | |
US20230108319A1 (en) | Explanation of machine-learned models using image translation | |
CN113658697B (en) | Psychological assessment system based on video fixation difference | |
JP7322818B2 (en) | Estimation system and simulation system | |
US20220026514A1 (en) | Mri reconstruction with image domain optimization | |
US20210353208A1 (en) | Systems and methods for automated passive assessment of visuospatial memory and/or salience | |
KR20240043488A (en) | A multimodal deep learning model for predicting future visual field in glaucoma patients | |
CN116958539A (en) | Model training and image processing method, device and equipment for vessel tree segmentation | |
JP2020010804A (en) | Medical image diagnosis support apparatus, program, and medical image diagnosis support method | |
CN115116117A (en) | Learning input data acquisition method based on multi-mode fusion network | |
Shabbeer et al. | Detection of Parkinson's Disease and Its Severity Using Deep Learning | |
WO2023190391A1 (en) | Disease correspondence determination program and disease correspondence determination device | |
KR102681279B1 (en) | Device, method, and program for predicting myopia progression in children using a device for predicting myopia progression and a predictive model | |
CN118973489A (en) | Disease compliance judging program and disease compliance judging device | |
CN118608844A (en) | Training method of anomaly identification model, anomaly identification method, anomaly identification equipment and medium |