KR102402011B1 - Medical image process apparatus and medical image learning method, and medical image process method - Google Patents
Medical image process apparatus and medical image learning method, and medical image process method Download PDFInfo
- Publication number
- KR102402011B1 KR102402011B1 KR1020200019820A KR20200019820A KR102402011B1 KR 102402011 B1 KR102402011 B1 KR 102402011B1 KR 1020200019820 A KR1020200019820 A KR 1020200019820A KR 20200019820 A KR20200019820 A KR 20200019820A KR 102402011 B1 KR102402011 B1 KR 102402011B1
- Authority
- KR
- South Korea
- Prior art keywords
- learning
- medical image
- neural network
- network model
- diagnostic index
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000008569 process Effects 0.000 title description 6
- 238000013528 artificial neural network Methods 0.000 claims abstract description 69
- 238000012545 processing Methods 0.000 claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 31
- 230000000747 cardiac effect Effects 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 14
- 238000003672 processing method Methods 0.000 claims description 13
- 210000002376 aorta thoracic Anatomy 0.000 claims description 12
- 210000005248 left atrial appendage Anatomy 0.000 claims description 12
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 238000002059 diagnostic imaging Methods 0.000 claims description 9
- 238000003745 diagnosis Methods 0.000 claims description 8
- 230000002526 effect on cardiovascular system Effects 0.000 claims description 8
- 210000004072 lung Anatomy 0.000 claims description 8
- 210000000748 cardiovascular system Anatomy 0.000 claims description 6
- 238000001727 in vivo Methods 0.000 claims description 6
- 210000003492 pulmonary vein Anatomy 0.000 claims description 4
- 230000002685 pulmonary effect Effects 0.000 claims 3
- 241000237970 Conus <genus> Species 0.000 claims 2
- 230000010365 information processing Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 238000011976 chest X-ray Methods 0.000 description 6
- 210000001147 pulmonary artery Anatomy 0.000 description 4
- 208000019693 Lung disease Diseases 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 2
- 230000002612 cardiopulmonary effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000000709 aorta Anatomy 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000005246 left atrium Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30048—Heart; Cardiac
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Public Health (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
일 실시예에 따른 의료영상 처리 장치의 의료영상 학습 방법은, 학습 데이터 세트 중 입력으로서 학습용 신체 X선 영상들을 준비하는 단계와, 학습 데이터 세트 중 레이블로서 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보를 준비하는 단계와, 학습 데이터 세트를 이용하여 인공 신경망 모델을 학습시키는 단계를 포함한다.A method for learning a medical image of a medical image processing apparatus according to an embodiment includes preparing body X-ray images for training as an input in a training data set, and individual X-ray images for training corresponding to each of the training body X-ray images as a label in a training data set. It includes the steps of preparing the body's in-body diagnostic index information, and training the artificial neural network model using the training data set.
Description
본 발명은 신체에 대한 의료영상을 학습하는 방법 및 장치, 그리고 신체에 대한 의료영상을 처리하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for learning a medical image of a body, and a method and apparatus for processing a medical image of the body.
의료영상 장치는 진단 대상자의 신체 내부 구조를 영상으로 획득하기 위한 장비이다. 의료영상 장치는 비침습 검사 장치로서, 신체 내의 구조적 세부사항, 내부 조직 및 유체의 흐름 등을 촬영 및 처리하여 사용자에게 보여준다. 의사 등의 사용자는 의료영상 장치에서 출력되는 의료영상을 이용하여 환자의 건강 상태 및 질병을 진단할 수 있다.A medical imaging apparatus is a device for acquiring an image of a body internal structure of a subject to be diagnosed. The medical imaging apparatus is a non-invasive examination apparatus, and shows structural details in the body, internal tissues and fluid flow, etc. by photographing and processing the image to the user. A user such as a doctor may diagnose a patient's health condition and disease by using a medical image output from the medical imaging apparatus.
의료영상 장치로는 대상체로 엑스(X)선을 조사하고 대상체를 통과한 X선을 감지하여 영상을 이미징하는 X레이(X-ray) 촬영 장치, 자기 공명 영상을 제공하기 위한 자기 공명 영상(MRI: magnetic resonance imaging) 장치, 컴퓨터 단층 촬영(CT: Computed Tomography) 장치, 및 초음파(Ultrasound) 진단 장치 등이 있다.As a medical imaging device, an X-ray imaging device that irradiates X-rays to an object and detects X-rays passing through the object to image an image, and magnetic resonance imaging (MRI) to provide a magnetic resonance image : There are a magnetic resonance imaging) device, a computed tomography (CT) device, and an ultrasound diagnostic device.
최근에는 기계 학습(machine learning) 등과 같은 영상 처리 기술의 발전으로 인하여, 의료영상 장치가 획득된 의료영상을 분석하여, 대상체에 이상이 발생한 부위인 비정상(abnormal) 영역을 검출하거나 분석한 결과를 생성할 수 있다. 전술한 바와 같이, 획득된 의료영상을 분석하여 재 생성된 영상을 판독 보조 영상이라 한다. 판독 보조 영상을 의사에게 제공하면, 의사는 판독 보조 영상을 참조하여, 대상체에 이상이 발생하였는지 여부를 보다 용이하게 진단할 수 있다.Recently, due to the development of image processing technology such as machine learning, a medical imaging apparatus analyzes an acquired medical image to detect or generate an analysis result of an abnormal region, which is a region where an abnormality occurs in an object. can do. As described above, an image regenerated by analyzing the acquired medical image is called a reading aid image. When the reading aid image is provided to the doctor, the doctor may more easily diagnose whether an abnormality has occurred in the object by referring to the reading aid image.
한편, 흉부 X선 영상은 다양한 폐 질환 검출 및 진단에 이용되고 있는데, 의사는 진단 대상자의 흉부 X선 영상으로부터 심혈관계 경계선(Cardiovascular Border) 등과 같은 체내 진단지표를 획득하여 이를 기초로 폐 질환을 검출하거나 진단할 수 있다.On the other hand, chest X-ray images are being used to detect and diagnose various lung diseases. A doctor acquires in-body diagnostic indicators such as cardiovascular border from a chest X-ray image of a subject, and detects lung diseases based on this. or can be diagnosed.
그런데, 흉부 X선 영상으로부터 심혈관계 경계선 등과 같은 체내 진단지표를 획득하는 것은 고도의 숙련된 의사만이 정확히 획득할 수 있고, 의사의 숙련도에 따라 흉부 X선 영상으로부터 획득되는 체내 진단지표의 정확도가 변화되는 문제점이 있었다.However, only a highly skilled doctor can accurately obtain in vivo diagnostic indicators such as cardiovascular system boundaries from a chest X-ray image, and the accuracy of the in vivo diagnostic index obtained from a chest X-ray image depends on the doctor's skill level. There was a change problem.
실시예에 따르면, 신체 X선 영상들과 체내 진단지표 정보를 이용하여 인공 신경망 모델을 학습시키는 의료영상 학습 방법 및 그 의료영상 처리 장치를 제공한다.According to the embodiment, there is provided a medical image learning method for learning an artificial neural network model using body X-ray images and in-body diagnostic index information, and a medical image processing apparatus thereof.
또한, 학습된 인공 신경망 모델이 진단 대상자의 신체 X선 영상으로부터 체내 진단지표 정보를 획득하는 의료영상 처리 방법 및 그 의료영상 처리 장치를 제공한다.In addition, there are provided a medical image processing method and a medical image processing apparatus in which a learned artificial neural network model acquires in-body diagnostic index information from a body X-ray image of a subject to be diagnosed.
본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved of the present invention are not limited to those mentioned above, and other problems to be solved that are not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description.
제 1 관점에 따른 의료영상 처리 장치의 의료영상 학습 방법은, 학습 데이터 세트 중 입력으로서 학습용 신체 X선 영상들을 준비하는 단계와, 상기 학습 데이터 세트 중 레이블로서 상기 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보를 준비하는 단계와, 상기 학습 데이터 세트를 이용하여 인공 신경망 모델을 학습시키는 단계를 포함한다.According to a first aspect, a method for learning a medical image of a medical image processing apparatus includes preparing body X-ray images for learning as an input in a learning data set, and corresponding to each of the learning body X-ray images as a label in the learning data set preparing the in-body diagnostic index information of the individual body, and training the artificial neural network model using the training data set.
제 2 관점에 따라 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체의 상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면, 상기 의료영상 처리 장치의 의료영상 학습 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함한다.According to the second aspect, the computer program of the computer-readable recording medium storing the computer program includes instructions for, when executed by a processor, to cause the processor to perform the method for learning a medical image of the medical image processing apparatus. .
제 3 관점에 따른 의료영상 처리 장치를 이용한 의료영상 처리 방법은, 의료영상들을 학습시킨 인공 신경망 모델에 진단 대상자의 신체 X선 영상을 입력 받는 단계와, 상기 진단 대상자의 신체 X선 영상으로부터 상기 인공 신경망 모델을 통하여 획득한 체내 진단지표 정보를 출력하는 단계를 포함한다.A medical image processing method using a medical image processing apparatus according to a third aspect comprises the steps of: receiving a body X-ray image of a diagnosis subject to an artificial neural network model trained on medical images; and outputting the in-body diagnostic index information obtained through the neural network model.
제 4 관점에 따라 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체의 상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면, 상기 의료영상 처리 장치를 이용한 의료영상 처리 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함한다.According to a fourth aspect, the computer program of a computer-readable recording medium storing a computer program includes instructions for, when executed by a processor, to cause the processor to perform a medical image processing method using the medical image processing apparatus do.
제 5 관점에 따른 의료영상 처리 장치는, 입력이 학습용 신체 X선 영상들이고 레이블이 상기 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보인 학습 데이터 세트를 입력 받는 입력부와, 상기 입력부를 통하여 입력 받은 상기 학습 데이터 세트를 인공 신경망 모델이 학습하는 인공 신경망 모델부를 포함한다.A medical image processing apparatus according to a fifth aspect comprises: an input unit for receiving a learning data set in which an input is body X-ray images for learning and a label is information on an in-body diagnostic index of an individual body corresponding to the learning body X-ray images; and an artificial neural network model unit in which the artificial neural network model learns the training data set received through the input unit.
제 6 관점에 따른 의료영상 처리 장치는, 진단 대상자의 신체 X선 영상을 입력 받는 입력부와, 상기 입력부를 통하여 입력 받은 상기 진단 대상자의 신체 X선 영상으로부터 인공 신경망 모델이 상기 진단 대상자의 체내 진단지표 정보를 획득하는 인공 신경망 모델부와, 상기 인공 신경망 모델부에 의하여 획득된 상기 진단 대상자의 체내 진단지표 정보를 출력하는 출력부를 포함한다.In a medical image processing apparatus according to a sixth aspect, an input unit for receiving an X-ray image of a body of a subject to be diagnosed, and an artificial neural network model from the X-ray image of a body of a subject to be diagnosed received through the input unit are provided as an internal diagnostic index of the subject to be diagnosed and an artificial neural network model unit for acquiring information, and an output unit for outputting in-body diagnostic index information of the subject to be diagnosed obtained by the artificial neural network model unit.
일 실시예에 따르면 인공 신경망 모델을 학습시켜서, 학습된 인공 신경망 모델이 진단 대상자의 신체 X선 영상으로부터 심혈관계 경계선(Cardiovascular Border) 등과 같은 체내 진단지표 정보를 정확히 획득할 수 있도록 한다.According to an embodiment, the artificial neural network model is trained so that the learned artificial neural network model can accurately acquire information on in-body diagnostic indexes, such as cardiovascular border, from a body X-ray image of a subject to be diagnosed.
이에 따라, 진단 대상자의 정확한 체내 진단지표 정보를 출력하거나 진단 대상자의 신체 X선 영상에 체내 진단지표 정보를 표시하여 출력하거나 진단 대상자의 체내 진단지표 정보에 기초한 수치값을 출력하거나 또는 학습을 통하여 획득된 체내 진단지표 정보에 대한 기준값과 진단 대상자의 체내 진단지표 정보를 비교한 결과를 출력할 수 있다.Accordingly, accurate information on the internal diagnostic index of the subject to be diagnosed is output, the information of the internal diagnostic index is displayed and output on the body X-ray image of the subject, a numerical value based on the information of the internal diagnostic index of the subject to be diagnosed is output, or acquired through learning A result of comparing the reference value of the in vivo diagnostic index information and the in vivo diagnostic index information of the subject to be diagnosed may be output.
도 1은 일 실시예에 따른 의료영상 처리 장치의 구성도이다.
도 2는 일 실시예에 따른 의료영상 처리 장치의 의료영상 학습 방법을 설명하기 위한 흐름도이다.
도 3은 일 실시예에 따른 의료영상 처리 장치의 의료영상 처리 방법을 설명하기 위한 흐름도이다.
도 4 내지 도 6은 일 실시예에 따른 의료영상 처리 장치가 신체 X선 영상으로부터 획득할 수 있는 체내 진단지표 정보를 예시한 흉부 X선 영상이다.1 is a block diagram of a medical image processing apparatus according to an exemplary embodiment.
2 is a flowchart illustrating a method of learning a medical image by a medical image processing apparatus according to an exemplary embodiment.
3 is a flowchart illustrating a medical image processing method of a medical image processing apparatus according to an exemplary embodiment.
4 to 6 are chest X-ray images illustrating in-body diagnostic index information that the medical image processing apparatus may obtain from a body X-ray image according to an exemplary embodiment.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.
명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. When a part 'includes' a certain component throughout the specification, this means that other components may be further included, rather than excluding other components, unless otherwise stated.
또한, 명세서에서 사용되는 '부'라는 용어는 소프트웨어 또는 FPGA나 ASIC과 같은 하드웨어 구성요소를 의미하며, '부'는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부'들로 결합되거나 추가적인 구성요소들과 '부'들로 더 분리될 수 있다.In addition, the term 'unit' used in the specification means software or a hardware component such as an FPGA or ASIC, and 'unit' performs certain roles. However, 'part' is not limited to software or hardware. The 'unit' may be configured to reside on an addressable storage medium or it may be configured to refresh one or more processors. Thus, as an example, 'part' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and 'units' may be combined into a smaller number of components and 'units' or further divided into additional components and 'units'.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily carry out the present invention. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description will be omitted.
본 명세서에서 진단 대상자나 환자 등은 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함할 수 있다.In the present specification, a subject or patient to be diagnosed may include a human or an animal, or a part of a human or animal.
또한, 본 명세서에서 '영상'은 이산적인 이미지 요소들(예를 들어, 2차원 이미지에 있어서의 픽셀들 및 3차원 이미지에 있어서의 복셀들)로 구성된 다차원(multi-dimensional) 데이터를 의미할 수 있다.Also, in this specification, 'image' may mean multi-dimensional data composed of discrete image elements (eg, pixels in a two-dimensional image and voxels in a three-dimensional image). have.
도 1은 일 실시예에 따른 의료영상 처리 장치(100)의 구성을 도시하고 있으며, 다만 도 1에 도시된 것은 예시적인 것에 불과하다. 이러한 의료영상 처리 장치(100)는 PC나 서버 등에서 구현되거나 이를 포함할 수 있다.FIG. 1 shows the configuration of a medical
도 1을 참조하면, 의료영상 처리 장치(100)는 입력부(110), 인공 신경망 모델(artificial neutral network model)부(120)를 포함하며, 실시예에 따라 출력부(140), 정보 가공부(140) 또는 저장부(150)를 더 포함할 수 있다.Referring to FIG. 1 , the medical
입력부(110)는 인공 신경망 모델부(120)의 인공 신경망 모델을 학습시키기 위한 학습 데이터 세트를 입력 받는다. 또, 입력부(110)는 학습된 인공 신경망 모델에 입력하기 위한 진단 대상자의 신체 X선 영상을 입력 받는다. 예를 들어, 학습 데이터 세트의 입력으로서 학습용 신체 X선 영상들을 입력 받을 수 있고, 학습 데이터 세트 중 레이블로서 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보를 입력 받을 수 있다. 예컨대, 체내 진단지표 정보는 심혈관계 경계선(Cardiovascular Border)에 대한 정보를 포함할 수 있다. 예를 들어, 심혈관계 경계선에 대한 정보로는 대동맥융기(aortic knob), 폐 원추(Pulmonary Conus, PC), 좌심방이(Left Atrial Appendage, LAA), 우상측(right upper) 심장 경계선(Cardiac Border, CB), 우하측(right lower) 심장 경계선, 좌하측 심장 경계선, 하행대동맥(Descending aorta, DAO), 분기부(carinal), 횡격막(diaphragm) 상단점, 우폐동맥(left pulmonary vein) 또는 심장 후연(posterior border), 척추 전연(anterior border) 등을 포함할 수 있다.The
인공 신경망 모델부(120)는 입력부(110)를 통하여 입력 받는 학습 데이터 세트를 학습하는 인공 신경망 모델을 포함한다. 이러한 인공 신경망 모델이 학습하는 학습 데이터 세트는 입력이 학습용 신체 X선 영상들이고 레이블이 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보일 수 있다. 그리고, 인공 신경망 모델부(120)의 학습된 인공 신경망 모델은 입력부(110)로부터 입력 받은 진단 대상자의 신체 X선 영상으로부터 진단 대상자의 체내 진단지표 정보를 획득할 수 있다. 예를 들어, 인공 신경망 모델은 Mask R-CNN 모델일 수 있다. Mask R-CNN 모델은 학습용 신체 X선 영상들을 Mask R-CNN 모델의 훈련 영상으로 이용할 수 있고, 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보를 Mask R-CNN 모델의 마스크(Mask)로 이용할 수 있다. 예를 들어, 입력부(110)을 통하여 입력 받은 학습 데이터 세트의 레이블이 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보로서 심혈관계 경계선에 대한 정보를 포함하는 경우, 인공 신경망 모델부(120)의 학습된 인공 신경망 모델은 진단 대상자의 체내 진단지표 정보로서, 가슴 길이(Thoracic length, TL), 심장 우축(right axis)과 심장 좌축(left axis)의 거리, 심폐계수(Cardiothoracic Ratio, CTR), 대동맥융기의 곡률(curvatures) 및 길이, 폐 원추의 곡률 및 길이, 좌심방이의 곡률 및 길이, 우상측 심장 경계선의 곡률 및 길이, 우하측 심장 경계선의 곡률 및 길이, 좌하측 심장 경계선의 곡률 및 길이, 하행대동맥의 곡률 및 길이, 분기부의 각도, 심장 면적(cardiac area), 횡격막(diaphragm)과 갈비뼈의 상대적인 위치, 우폐동맥의 평균 직경(distance) 또는 심장 후연과 척추 전연간(heart-to-spine) 평균 직경 중 적어도 하나의 정보를 포함할 수 있다.The artificial neural
또한, 인공 신경망 모델부(120)는 학습 데이터 세트를 이용한 학습 결과에 따라 학습용 신체 X선 영상들의 체내 진단지표 정보에 대한 기준값을 획득할 수 있고, 획득된 기준값과 진단 대상자의 체내 진단지표 정보를 비교한 결과를 도출할 수 있다. 예를 들어, 인공 신경망 모델부(120)는 인공 신경망 모델로서 기능을 수행하도록 프로그램된 명령어를 저장하는 메모리 및 이러한 명령어를 실행하는 마이크로프로세서를 포함할 수 있다.In addition, the artificial neural
출력부(130)는 인공 신경망 모델부(120)에 의하여 획득된 진단 대상자의 체내 진단지표 정보를 외부로 출력할 수 있다. 예를 들어, 출력부(130)는 진단 대상자의 신체 X선 영상에 체내 진단지표 정보를 마킹한 형태로 출력할 수도 있고, 진단 대상자의 체내 진단지표 정보에 대한 신체 X선 영상 상의 위치 정보 형태(예: 위치 좌표)로 출력할 수도 있다. 또한, 출력부(130)는 인공 신경망 모델부(120)에 의하여 도출된 학습용 신체 X선 영상들의 체내 진단지표 정보에 대한 기준값과 진단 대상자의 체내 진단지표 정보를 비교한 결과를 외부로 출력할 수 있다. 또한, 출력부(130)는 인공 신경망 모델부(120)에 의하여 획득된 정보가 정보 가공부(140)에 의하여 소정 형태로 가공되어 제공되면 가공된 형태의 정보를 외부에서 인지 가능하게 출력할 수 있다. 이러한 출력부(130)는 체내 진단지표 정보를 출력하는 포트, 유선 통신 모듈 또는 무선 통신 모듈 등을 포함할 수 있다. 또는, 출력부(130)는 진단 대상자의 체내 진단지표 정보를 영상 형태로 출력할 수 있는 영상 표시 장치를 포함할 수도 있다.The
정보 가공부(140)는 인공 신경망 모델부(120)에 의하여 획득된 각종 정보를 소정의 형태로 가공하여 출력부(130)에 제공할 수 있다. 예를 들어, 정보 가공부(140)는 입력부(110)을 통하여 입력되는 진단 대상자의 신체 X선 영상에 진단 대상자의 체내 진단지표 정보를 마킹한 형태로 가공하여 출력부(130)에 제공할 수 있다. 또는, 정보 가공부(140)는 인공 신경망 모델부(120)에 의하여 획득된 진단 대상자의 체내 진단지표 정보에 기초한 수치값을 출력부(130)에 제공할 수 있다. 또는, 정보 가공부(140)는 인공 신경망 모델부(120)에 의하여 도출된 학습용 신체 X선 영상들의 체내 진단지표 정보에 대한 기준값과 진단 대상자의 체내 진단지표 정보를 비교한 결과를 소정의 형태로 가공하여 출력부(130)에 제공할 수도 있다. 예를 들어, 정보 가공부(140)는 각종 정보를 소정의 형태로 가공하는 기능을 수행하도록 프로그램된 명령어를 저장하는 메모리 및 이러한 명령어를 실행하는 마이크로프로세서를 포함할 수 있다.The
저장부(150)는 의료영상 처리 장치(100)이 각종의 기능을 수행하도록 프로그램된 명령어를 저장하거나 입력부(110)를 통하여 입력 받은 영상 등과 같은 각종 정보를 저장하거나 또는 인공 신경망 모델부(120) 및/또는 정보 가공부(140)에 의한 연산 및 처리 결과를 저장할 수 있다. 예를 들어, 저장부(150)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 플래시 메모리(flash memory)와 같은 프로그램 명령어들을 저장하고 수행하도록 특별히 구성된 하드웨어 장치 등과 같이 컴퓨터 판독 가능한 기록매체일 수 있다.The
도 2는 일 실시예에 따른 의료영상 처리 장치(100)의 의료영상 학습 방법을 설명하기 위한 흐름도이고, 도 3은 일 실시예에 따른 의료영상 처리 장치(100)의 의료영상 처리 방법을 설명하기 위한 흐름도이다. 또, 도 4 내지 도 6은 일 실시예에 따른 의료영상 처리 장치(100)가 신체 X선 영상으로부터 획득할 수 있는 체내 진단지표 정보를 예시한 흉부 X선 영상이다.FIG. 2 is a flowchart illustrating a method for learning a medical image by the medical
이하, 도 1 내지 도 6을 참조하여 일 실시예에 따른 의료영상 처리 장치(100)의 의료영상 학습 방법과 의료영상 처리 방법에 대하여 자세히 살펴보기로 한다.Hereinafter, a medical image learning method and a medical image processing method of the medical
먼저, 도 2의 흐름 순서에 따라 의료영상 처리 장치(100)의 의료영상 학습 방법에 대하여 설명하겠다.First, a medical image learning method of the medical
의료영상 처리 장치(100)의 인공 신경망 모델부(120)의 인공 신경망 모델을 학습시키기 위한 학습 데이터 세트를 준비한다. 예를 들어, 학습 데이터 세트 중 입력으로는 학습용 신체 X선 영상들을 준비할 수 있고(S210), 학습 데이터 세트 중 레이블로는 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보를 준비할 수 있다(S220).A training data set for learning the artificial neural network model of the artificial neural
일 실시예에 따라 의료영상 처리 장치(100)는 체내 진단지표 정보를 위하여 도 4 내지 도 6에 나타낸 바와 같은 심혈관계 경계선에 대한 정보를 이용할 수 있다. 도 4 내지 도 6에 병기한 도면 부호와 대응하는 심혈관계 경계선은 아래와 같다.According to an exemplary embodiment, the medical
403: 대동맥융기403: aortic eminence
404: 폐 원추404: lung cone
405: 좌심방이405: left atrium
406: 우상측 심장 경계선406: right heart borderline
407: 우하측 심장 경계선407: lower right heart border
408: 좌하측 심장 경계선408: left lower heart borderline
409: 하행대동맥409: descending aorta
410: 분기부410: branch
502: 횡경막(501)의 상단점502: the top point of the
504: 우폐동맥504: right pulmonary artery
601: 심장 후연 및 척추 전연601: posterior edge of the heart and anterior edge of the spine
이러한 도면부호 401 내지 601의 심혈관계 경계선에 대한 정보에 기초하여 의료영상 처리 장치(100)는 체내 진단지표 정보로서 가슴 길이(401), 심장 우축과 심장 좌축의 거리(402), 심폐계수, 대동맥융기(403)의 곡률 및 길이, 폐 원추(404)의 곡률 및 길이, 좌심방이(405)의 곡률 및 길이, 우상측 심장 경계선(406)의 곡률 및 길이, 우하측 심장 경계선(407)의 곡률 및 길이, 좌하측 심장 경계선(408)의 곡률 및 길이, 하행대동맥(409)의 곡률 및 길이, 분기부(410)의 각도, 심장 면적, 횡격막(501)과 갈비뼈(503)의 상대적인 위치, 우폐동맥(504)의 평균 직경 또는 심장 후연과 척추 전연간(601)의 평균 직경 등을 이용할 수 있다. 여기서, 횡격막(501)과 갈비뼈(503)의 상대적인 위치는 진단 대상자가 X선 영상을 촬영할 때에 숨을 충분하게 쉬었는지를 판별하기 위한 용도로 이용될 수 있다. 예를 들어, 10번째 갈비뼈보다 횡경막의 상단점이 아래쪽에 위치하여야 진단 대상자가 숨을 충분하게 쉬었다고 판별할 수 있다. 숨을 충분하게 쉬지 않은 상태에서 촬영된 X선 영상이 초기 학습용 신체 X선 영상들에 포함된 경우에 체내 진단지표에 반영되지 않게 실제 학습에 이용되는 학습 데이터 세트에서 제외할 수 있다.Based on the information on the cardiovascular system boundaries of
단계 S210 및 단계 S220을 통하여 준비된 학습 데이터 세트는 입력부(110)를 통하여 입력 되어 인공 신경망 모델부(120)에 제공되고, 인공 신경망 모델부(120)의 인공 신경망 모델은 단계 S210 및 단계 S220의 학습 데이터 세트를 학습한다. 예를 들어, 인공 신경망 모델로는 Mask R-CNN 모델을 이용할 수 있다. 이 경우에, 학습용 신체 X선 영상들을 Mask R-CNN 모델의 훈련 영상으로 이용하며, 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보를 Mask R-CNN 모델의 마스크(Mask)로 이용할 수 있다(S230).The training data set prepared through steps S210 and S220 is input through the
다음으로, 도 3의 흐름 순서에 따라 의료영상 처리 장치(100)의 의료영상 처리 방법에 대하여 설명하겠다.Next, a medical image processing method of the medical
우선, 도 2를 참조하여 설명하였던 바와 같이, 의료영상 처리 장치(100)는 인공 신경망 모델부(120)의 인공 신경망 모델이 입력 데이터로서 학습용 신체 X선 영상들과 레이블로서 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보를 포함하는 학습 데이터 세트를 학습한다(S310).First, as described with reference to FIG. 2 , in the medical
이렇게 인공 신경망 모델부(120)의 인공 신경망 모델이 학습된 상태에서, 입력부(110)를 통하여 진단 대상자의 신체 X선 영상이 입력되어 인공 신경망 모델부(120)에 제공된다(S320).In the state in which the artificial neural network model of the artificial neural
그리고, 인공 신경망 모델부(120)의 인공 신경망 모델은 단계 S320을 통하여 제공된 진단 대상자의 신체 X선 영상으로부터 진단 대상자의 체내 진단지표 정보를 획득한다. 여기서, 인공 신경망 모델이 획득하는 체내 진단지표 정보로는 가슴 길이(401), 심장 우축과 심장 좌축의 거리(402), 심폐계수, 대동맥융기(403)의 곡률 및 길이, 폐 원추(404)의 곡률 및 길이, 좌심방이(405)의 곡률 및 길이, 우상측 심장 경계선(406)의 곡률 및 길이, 우하측 심장 경계선(407)의 곡률 및 길이, 좌하측 심장 경계선(408)의 곡률 및 길이, 하행대동맥(409)의 곡률 및 길이, 분기부(410)의 각도, 심장 면적, 횡격막(501)과 갈비뼈(503)의 상대적인 위치, 우폐동맥(504)의 평균 직경 또는 심장 후연과 척추 전연간(601) 평균 직경 등을 포함할 수 있다(S330).In addition, the artificial neural network model of the artificial neural
그러면, 출력부(130)는 인공 신경망 모델부(120)에 의하여 획득된 진단 대상자의 체내 진단지표 정보를 외부로 출력할 수 있다.Then, the
여기서, 출력부(130)는 인공 신경망 모델부(120)에 의하여 획득된 체내 진단지표 정보를 원시 데이터 형태로 출력할 수도 있지만, 정보 가공부(140)에 의하여 가공된 소정의 형태로 출력할 수도 있다. 이를 위하여, 정보 가공부(140)는 인공 신경망 모델부(120)에 의하여 획득된 각종 정보를 소정의 형태로 가공하여 출력부(130)에 제공할 수 있다. 예를 들어, 정보 가공부(140)는 입력부(110)을 통하여 입력되는 진단 대상자의 신체 X선 영상에 진단 대상자의 체내 진단지표 정보를 마킹한 형태로 가공하여 출력부(130)에 제공할 수 있다. 또는, 정보 가공부(140)는 인공 신경망 모델부(120)에 의하여 획득된 진단 대상자의 체내 진단지표 정보에 기초한 수치값을 출력부(130)에 제공할 수 있다. 또는, 정보 가공부(140)는 인공 신경망 모델부(120)에 의하여 도출된 학습용 신체 X선 영상들의 체내 진단지표 정보에 대한 기준값과 진단 대상자의 체내 진단지표 정보를 비교한 결과를 소정의 형태로 가공하여 출력부(130)에 제공할 수도 있다. 예컨대, 단계 S320을 통하여 입력되는 진단 대상자의 신체 X선 영상이 사전 학습을 통하여 획득된 기준값과 몇 퍼센트(%)만큼 차이를 갖는지 등의 정보를 제공할 수 있다.Here, the
이에, 출력부(130)는 진단 대상자의 신체 X선 영상에 체내 진단지표 정보를 마킹한 형태로 출력할 수도 있고, 진단 대상자의 체내 진단지표 정보에 대한 신체 X선 영상 상의 위치 정보 형태(예: 위치 좌표)로 출력할 수도 있다. 또한, 출력부(130)는 인공 신경망 모델부(120)에 의하여 도출된 학습용 신체 X선 영상들의 체내 진단지표 정보에 대한 기준값과 진단 대상자의 체내 진단지표 정보를 비교한 결과를 외부로 출력할 수 있다. 예를 들어, 출력부(130)는 인공 신경망 모델부(120)에 의하여 획득된 정보를 외부에서 인지 가능하게 출력할 수 있다(S340).Accordingly, the
한편, 전술한 일 실시예에 따른 의료영상 학습 방법 및 의료영상 처리 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된 컴퓨터 프로그램을 기록하는 컴퓨터 판독가능한 기록매체에서 구현될 수 있다.Meanwhile, each step included in the medical image learning method and the medical image processing method according to the above-described embodiment may be implemented in a computer-readable recording medium for recording a computer program programmed to perform these steps.
또한, 전술한 일 실시예에 따른 의료영상 학습 방법 및 의료영상 처리 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된, 컴퓨터 판독가능한 기록매체에 저장된 컴퓨터 프로그램의 형태로 구현될 수 있다.In addition, each step included in the medical image learning method and the medical image processing method according to the above-described embodiment may be implemented in the form of a computer program stored in a computer-readable recording medium programmed to perform these steps. .
본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 기록매체에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each step in each flowchart attached to the present invention may be performed by computer program instructions. These computer program instructions may be embodied in a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, such that the instructions performed by the processor of the computer or other programmable data processing equipment provide the functions described in each step of the flowchart. It creates a means to do these things. These computer program instructions may also be stored in a computer-usable or computer-readable medium that may direct a computer or other programmable data processing equipment to implement a function in a particular manner, and thus the computer-usable or computer-readable medium. The instructions stored in the recording medium are also possible to produce an article of manufacture including instruction means for performing the functions described in each step of the flowchart. The computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to create a computer or other programmable data processing equipment. It is also possible that instructions for performing the processing equipment provide steps for performing the functions described in each step of the flowchart.
또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Further, each step may represent a module, segment, or portion of code comprising one or more executable instructions for executing the specified logical function(s). It should also be noted that in some alternative embodiments it is also possible for the functions recited in the steps to occur out of order. For example, it is possible that two steps shown one after another may in fact be performed substantially simultaneously, or that the steps may sometimes be performed in the reverse order according to the corresponding function.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential quality of the present invention by those skilled in the art to which the present invention pertains. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.
100: 의료영상 처리 장치
110: 입력부
120: 인공 신경망 모델부
130: 출력부
140: 정보 가공부
150: 저장부100: medical image processing device
110: input unit
120: artificial neural network model unit
130: output unit
140: information processing unit
150: storage
Claims (15)
상기 의료영상 처리 장치가 학습 데이터 세트 중 입력으로서 학습용 신체 엑스(X)선 영상들을 입력 받는 단계와,
상기 의료영상 처리 장치가 상기 학습 데이터 세트 중 레이블로서 상기 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보를 입력 받는 단계와,
상기 의료영상 처리 장치의 인공 신경망 모델이 상기 학습 데이터 세트를 학습하는 단계를 포함하고,
상기 체내 진단지표 정보는, 횡격막과 갈비뼈의 상대적인 위치에 대한 정보를 포함하며,
상기 인공 신경망 모델의 학습에 실제 이용되는 학습 데이터 세트 중 학습용 신체 X선 영상들은, 초기 학습용 신체 X선 영상들 중에서 상기 횡격막과 갈비뼈의 상대적인 위치에 대한 정보에 기초하여 일부가 제외된 것인
의료영상 학습 방법.A medical image learning method of a medical image processing apparatus, comprising:
receiving, by the medical image processing apparatus, body X-ray images for learning as an input from among a set of learning data;
receiving, by the medical image processing device, information on individual body diagnostic indexes corresponding to each of the body X-ray images for learning as a label in the learning data set;
Including the step of learning the training data set by the artificial neural network model of the medical image processing device,
The in-body diagnostic index information includes information on the relative positions of the diaphragm and the ribs,
Among the training data sets actually used for learning the artificial neural network model, body X-ray images for training are partially excluded based on information on the relative positions of the diaphragm and ribs among the body X-ray images for initial training
How to learn medical imaging.
상기 체내 진단지표 정보는, 심혈관계 경계선(Cardiovascular Border)에 대한 정보를 포함하는
의료영상 학습 방법.The method of claim 1,
The in-body diagnostic index information includes information on a cardiovascular system border (Cardiovascular Border)
How to learn medical imaging.
상기 심혈관계 경계선에 대한 정보는, 대동맥융기(aortic knob), 폐 원추(Pulmonary Conus, PC), 좌심방이(Left Atrial Appendage, LAA), 우상측(right upper) 심장 경계선(Cardiac Border, CB), 우하측(right lower) 심장 경계선, 좌하측 심장 경계선, 하행대동맥(Descending aorta, DAO), 분기부(carinal), 횡격막(diaphragm) 상단점, 우폐동맥(left pulmonary vein) 또는 심장 후연(posterior border), 척추 전연(anterior border) 중 적어도 하나의 정보를 포함하는
의료영상 학습 방법.3. The method of claim 2,
Information on the cardiovascular system boundary line, aortic knob, lung cone (Pulmonary Conus, PC), left atrial appendage (Left Atrial Appendage, LAA), right upper (right upper) heart boundary line (Cardiac Border, CB), right lower heart border, lower left heart border, descending aorta (DAO), carinal, upper diaphragm, left pulmonary vein, or posterior border , comprising at least one information of the anterior border of the spine
How to learn medical imaging.
상기 인공 신경망 모델은 Mask R-CNN 모델이고, 상기 학습용 신체 X선 영상들을 Mask R-CNN 모델의 훈련 영상으로 이용하며, 상기 체내 진단지표 정보를 상기 Mask R-CNN 모델의 마스크(Mask)로 이용하는
의료영상 학습 방법.The method of claim 1,
The artificial neural network model is a Mask R-CNN model, the body X-ray images for learning are used as training images of the Mask R-CNN model, and the in-body diagnostic index information is used as a mask of the Mask R-CNN model.
How to learn medical imaging.
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
제 1 항 내지 제 4 항 중 어느 한 항에 따른 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 판독 가능한 기록매체.As a computer-readable recording medium storing a computer program,
The computer program, when executed by a processor,
A computer-readable recording medium comprising instructions for causing the processor to perform the method according to any one of claims 1 to 4.
의료영상들을 학습시킨 인공 신경망 모델에 진단 대상자의 신체 엑스(X)선 영상을 입력 받는 단계와,
상기 진단 대상자의 신체 X선 영상으로부터 상기 인공 신경망 모델을 통하여 획득한 체내 진단지표 정보를 출력하는 단계를 포함하고,
상기 인공 신경망 모델은, 입력이 학습용 신체 X선 영상들이고 레이블이 상기 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보-심혈관계 경계선(Cardiovascular Border)에 대한 정보를 포함-인 학습 데이터 세트가 학습된 것이며,
상기 진단 대상자의 체내 진단지표 정보는, 가슴 길이(Thoracic length, TL), 심장 우축(right axis)과 심장 좌축(left axis)의 거리, 대동맥융기(aortic knob)의 곡률(curvatures) 및 길이, 폐 원추(Pulmonary Conus, PC)의 곡률 및 길이, 좌심방이(Left Atrial Appendage, LAA)의 곡률 및 길이, 우상측(right upper) 심장 경계선의 곡률 및 길이, 우하측(right lower) 심장 경계선의 곡률 및 길이, 좌하측 심장 경계선(Cardiac Border, CB)의 곡률 및 길이, 하행대동맥(Descending aorta, DAO 의 곡률 및 길이, 분기부(carinal)의 각도, 심장 면적(cardiac area), 우폐동맥(left pulmonary vein)의 평균 직경(distance) 또는 심장 후연과 척추 전연간(heart-to-spine) 평균 직경 중 적어도 하나를 포함하는
의료영상 처리 방법.A medical image processing method using a medical image processing apparatus, comprising:
receiving an X-ray image of the body of a diagnosis subject to an artificial neural network model that has learned medical images;
and outputting in-body diagnostic index information obtained through the artificial neural network model from the body X-ray image of the subject to be diagnosed,
In the artificial neural network model, the input is body X-ray images for learning, and the label includes in-body diagnostic index information of an individual body corresponding to the training body X-ray images, including information about the cardiovascular border. The data set is trained,
The body diagnostic index information of the subject to be diagnosed includes a chest length (TL), a distance between a right axis and a left axis of the heart, a curvature and length of an aortic knob, and a lung Curvature and length of the Pulmonary Conus (PC), the curvature and length of the Left Atrial Appendage (LAA), the curvature and length of the right upper heart line, the curvature and length of the right lower heart line, and Length, curvature and length of the lower left cardiac border (CB), the curvature and length of the descending aorta (DAO), angle of the carinal, cardiac area, left pulmonary vein ) or at least one of the mean diameter of the posterior edge of the heart and the mean diameter of the heart-to-spine.
Medical image processing method.
상기 체내 진단지표 정보를 출력하는 단계는, 상기 진단 대상자의 신체 X선 영상에 상기 진단 대상자의 체내 진단지표 정보를 표시하여 출력하는
의료영상 처리 방법.7. The method of claim 6,
The step of outputting the in vivo diagnostic index information may include displaying and outputting the in vivo diagnostic index information of the diagnostic subject on the body X-ray image of the diagnosis subject.
Medical image processing method.
상기 체내 진단지표 정보를 출력하는 단계는, 상기 진단 대상자의 체내 진단지표 정보에 기초한 수치값을 출력하는
의료영상 처리 방법.7. The method of claim 6,
The outputting of the in-body diagnostic index information may include outputting a numerical value based on the in-body diagnostic index information of the subject to be diagnosed.
Medical image processing method.
상기 체내 진단지표 정보를 출력하는 단계는, 상기 인공 신경망 모델의 학습 결과에 따라 획득된 상기 학습용 신체 X선 영상들의 체내 진단지표 정보에 대한 기준값과 상기 진단 대상자의 체내 진단지표 정보를 비교한 결과를 출력하는
의료영상 처리 방법.7. The method of claim 6,
In the step of outputting the in-body diagnostic index information, the reference value for the in-body diagnostic index information of the body X-ray images for learning obtained according to the learning result of the artificial neural network model and the in-body diagnostic index information of the subject to be diagnosed are compared. to output
Medical image processing method.
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
제 6 항, 제 8 항, 제 9 항 및 제 12 항 중 어느 한 항에 따른 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 판독 가능한 기록매체.As a computer-readable recording medium storing a computer program,
The computer program, when executed by a processor,
13. A computer-readable recording medium comprising instructions for causing the processor to perform the method according to any one of claims 6, 8, 9 and 12.
상기 입력부를 통하여 입력 받은 상기 학습 데이터 세트를 인공 신경망 모델이 학습하는 인공 신경망 모델부를 포함하고,
상기 체내 진단지표 정보는, 횡격막과 갈비뼈의 상대적인 위치에 대한 정보를 포함하며,
상기 인공 신경망 모델의 학습에 실제 이용되는 학습 데이터 세트 중 학습용 신체 X선 영상들은, 초기 학습용 신체 X선 영상들 중에서 상기 횡격막과 갈비뼈의 상대적인 위치에 대한 정보에 기초하여 일부가 제외된 것인
의료영상 처리 장치.an input unit for receiving a learning data set in which the input is body X-ray images for learning and the label is information on an in-body diagnostic index of an individual body corresponding to each of the learning body X-ray images;
and an artificial neural network model unit in which an artificial neural network model learns the learning data set input through the input unit,
The in-body diagnostic index information includes information on the relative positions of the diaphragm and the ribs,
Among the training data sets actually used for learning the artificial neural network model, body X-ray images for training are partially excluded based on information on the relative positions of the diaphragm and ribs among the body X-ray images for initial training
Medical image processing device.
상기 입력부를 통하여 입력 받은 상기 진단 대상자의 신체 X선 영상으로부터 인공 신경망 모델이 상기 진단 대상자의 체내 진단지표 정보를 획득하는 인공 신경망 모델부와,
상기 인공 신경망 모델부에 의하여 획득된 상기 진단 대상자의 체내 진단지표 정보를 출력하는 출력부를 포함하고,
상기 인공 신경망 모델은, 입력이 학습용 신체 X선 영상들이고 레이블이 상기 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보-심혈관계 경계선(Cardiovascular Border)에 대한 정보를 포함-인 학습 데이터 세트가 학습된 것이며,
상기 진단 대상자의 체내 진단지표 정보는, 가슴 길이(Thoracic length, TL), 심장 우축(right axis)과 심장 좌축(left axis)의 거리, 대동맥융기(aortic knob)의 곡률(curvatures) 및 길이, 폐 원추(Pulmonary Conus, PC)의 곡률 및 길이, 좌심방이(Left Atrial Appendage, LAA)의 곡률 및 길이, 우상측(right upper) 심장 경계선의 곡률 및 길이, 우하측(right lower) 심장 경계선의 곡률 및 길이, 좌하측 심장 경계선(Cardiac Border, CB)의 곡률 및 길이, 하행대동맥(Descending aorta, DAO 의 곡률 및 길이, 분기부(carinal)의 각도, 우폐동맥(left pulmonary vein)의 평균 직경(distance) 또는 심장 후연과 척추 전연간(heart-to-spine) 평균 직경 중 적어도 하나를 포함하는
의료영상 처리 장치.
an input unit for receiving an X-ray image of the body of the subject to be diagnosed;
an artificial neural network model unit in which the artificial neural network model acquires the body diagnostic index information of the diagnosis subject from the body X-ray image of the diagnosis subject received through the input unit;
And an output unit for outputting the in-body diagnostic index information of the subject to be diagnosed obtained by the artificial neural network model unit,
In the artificial neural network model, the input is body X-ray images for learning, and the label includes in-body diagnostic index information of an individual body corresponding to the training body X-ray images, including information about the cardiovascular border. The data set is trained,
The body diagnostic index information of the subject to be diagnosed includes a chest length (TL), a distance between a right axis and a left axis of the heart, a curvature and length of an aortic knob, and a lung Curvature and length of the Pulmonary Conus (PC), the curvature and length of the Left Atrial Appendage (LAA), the curvature and length of the right upper heart line, the curvature and length of the right lower heart line, and Length, curvature and length of the lower left cardiac border (CB), the curvature and length of the descending aorta (DAO), angle of the carinal, mean distance of the left pulmonary vein or at least one of a mean diameter between the posterior edge of the heart and the heart-to-spine.
Medical image processing device.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200019820A KR102402011B1 (en) | 2020-02-18 | 2020-02-18 | Medical image process apparatus and medical image learning method, and medical image process method |
US17/156,947 US11783477B2 (en) | 2020-02-18 | 2021-01-25 | Medical image process apparatus, medical image learning method, and medical image process method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200019820A KR102402011B1 (en) | 2020-02-18 | 2020-02-18 | Medical image process apparatus and medical image learning method, and medical image process method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210105481A KR20210105481A (en) | 2021-08-27 |
KR102402011B1 true KR102402011B1 (en) | 2022-05-27 |
Family
ID=77272961
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200019820A KR102402011B1 (en) | 2020-02-18 | 2020-02-18 | Medical image process apparatus and medical image learning method, and medical image process method |
Country Status (2)
Country | Link |
---|---|
US (1) | US11783477B2 (en) |
KR (1) | KR102402011B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240048073A (en) | 2022-10-05 | 2024-04-15 | 주식회사 엠티이지 | Method and device for image processing using attention block |
KR20240079827A (en) | 2022-11-29 | 2024-06-05 | 재단법인 아산사회복지재단 | Medical image process method and apparatus |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240082694A (en) * | 2022-12-02 | 2024-06-11 | 서울대학교산학협력단 | Method and apparatus for generating cardiac contour prediction model, method and system for determining cardiac hypertrophy of animals using the same |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180276817A1 (en) | 2017-03-24 | 2018-09-27 | Umc Utrecht Holding B.V. | Method and System for Assessing Vessel Obstruction Based on Machine Learning |
CN109961059A (en) | 2019-04-10 | 2019-07-02 | 杭州智团信息技术有限公司 | Detect the method and system in kidney tissue of interest region |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012026145A1 (en) * | 2010-08-27 | 2012-03-01 | コニカミノルタエムジー株式会社 | Diagnosis assistance system and program |
US10751016B2 (en) * | 2015-11-09 | 2020-08-25 | Koninklijke Philips N.V. | X-ray image inhalation quality monitoring |
JP2017176202A (en) * | 2016-03-28 | 2017-10-05 | コニカミノルタ株式会社 | Dynamics analysis system |
JP2017225475A (en) * | 2016-06-20 | 2017-12-28 | コニカミノルタ株式会社 | Radiation image processing system and radiation image processing device |
US20190156204A1 (en) * | 2017-11-20 | 2019-05-23 | Koninklijke Philips N.V. | Training a neural network model |
KR20190106403A (en) | 2018-03-09 | 2019-09-18 | 연세대학교 산학협력단 | Method for predicting diseases and device for predicting diseases using the same |
US10706545B2 (en) * | 2018-05-07 | 2020-07-07 | Zebra Medical Vision Ltd. | Systems and methods for analysis of anatomical images |
US10949968B2 (en) * | 2018-05-07 | 2021-03-16 | Zebra Medical Vision Ltd. | Systems and methods for detecting an indication of a visual finding type in an anatomical image |
KR102212500B1 (en) * | 2018-07-06 | 2021-02-04 | 주식회사 메디웨일 | Fundus image management device and method for determining quality of fundus image |
US11416994B2 (en) * | 2019-05-05 | 2022-08-16 | Keyamed Na, Inc. | Method and system for detecting chest x-ray thoracic diseases utilizing multi-view multi-scale learning |
US11596482B2 (en) * | 2019-05-23 | 2023-03-07 | Surgical Safety Technologies Inc. | System and method for surgical performance tracking and measurement |
US10783643B1 (en) * | 2019-05-27 | 2020-09-22 | Alibaba Group Holding Limited | Segmentation-based damage detection |
US10984529B2 (en) * | 2019-09-05 | 2021-04-20 | Pearl Inc. | Systems and methods for automated medical image annotation |
US11436725B2 (en) * | 2019-11-15 | 2022-09-06 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems, methods, and apparatuses for implementing a self-supervised chest x-ray image analysis machine-learning model utilizing transferable visual words |
AU2021205816B2 (en) * | 2020-01-09 | 2023-11-09 | Idexx Laboratories, Inc. | Methods and systems for x-ray imaging and labeling |
-
2020
- 2020-02-18 KR KR1020200019820A patent/KR102402011B1/en active IP Right Grant
-
2021
- 2021-01-25 US US17/156,947 patent/US11783477B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180276817A1 (en) | 2017-03-24 | 2018-09-27 | Umc Utrecht Holding B.V. | Method and System for Assessing Vessel Obstruction Based on Machine Learning |
CN109961059A (en) | 2019-04-10 | 2019-07-02 | 杭州智团信息技术有限公司 | Detect the method and system in kidney tissue of interest region |
Non-Patent Citations (3)
Title |
---|
Awais Mansoor 외, A Generic Approach to Pathological Lung Segmentation, IEEE TRANSACTIONS ON MEDICAL IMAGING, 2014.07.08., Vol.33, No.12, pp.2293-2310. |
Sarah Leclerc 외, Deep Learning for Segmentation using an Open Large-Scale Dataset in 2D Echocardiography, arXiv, 2019.08.22., pp1-33.* |
Supriti Mulay 외, Liver Segmentation from Multimodal Images using HED-Mask R-CNN, arXiv, 2019.10.23., pp1-8.* |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240048073A (en) | 2022-10-05 | 2024-04-15 | 주식회사 엠티이지 | Method and device for image processing using attention block |
KR20240079827A (en) | 2022-11-29 | 2024-06-05 | 재단법인 아산사회복지재단 | Medical image process method and apparatus |
Also Published As
Publication number | Publication date |
---|---|
KR20210105481A (en) | 2021-08-27 |
US20210256689A1 (en) | 2021-08-19 |
US11783477B2 (en) | 2023-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102402011B1 (en) | Medical image process apparatus and medical image learning method, and medical image process method | |
US9842401B2 (en) | Segmentation apparatus for interactively segmenting blood vessels in angiographic image data | |
JP7053656B2 (en) | Contrast injection imaging | |
CN110796613A (en) | Automatic image artifact identification method and device | |
JP2008503303A (en) | Method and apparatus for displaying a tracheobronchial tree | |
CN107809955A (en) | Collimation in real time and the positioning of ROI filters are carried out in x-ray imaging via the automatic detection of boundary mark interested | |
KR102382872B1 (en) | Apparatus and method for medical image reading assistant providing representative image based on medical use artificial neural network | |
EP3606433B1 (en) | Standardized coronary artery disease metric | |
US20130039554A1 (en) | Method for determining a physical property of an object, system, computer readable medium and program element | |
JP2021104337A (en) | Estimating endoluminal path of endoluminal device along lumen | |
JP7426824B2 (en) | Non-invasive imaging-based FFR interaction monitoring | |
JP7479364B2 (en) | Orientation detection of 2D vessel segmentation for angiographic FFR | |
JP2022510879A (en) | Selection of the most relevant radiographic images for hemodynamic simulation | |
CN106780720B (en) | Medical image display method and device | |
US20180357767A1 (en) | Image processing apparatus and image processing method | |
JP2022538999A (en) | Vessel registration using functional information | |
JP2004283583A (en) | Operation method of image forming medical inspection system | |
Gharleghi et al. | Computed tomography coronary angiogram images, annotations and associated data of normal and diseased arteries | |
US11657519B2 (en) | Method for deformation correction | |
EP4281929A1 (en) | Vessel shape | |
WO2021002478A1 (en) | Diagnosis assisting program | |
KR102481564B1 (en) | Medical image process apparatus and medical image learning method, and medical image process method | |
KR20240079827A (en) | Medical image process method and apparatus | |
JP2009018029A (en) | Medical image processing apparatus and medical image diagnosis apparatus | |
Laura | Graph-matching and FEM-based registration of computed tomographies for outcome validation of liver interventions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |