Nothing Special   »   [go: up one dir, main page]

KR102402011B1 - Medical image process apparatus and medical image learning method, and medical image process method - Google Patents

Medical image process apparatus and medical image learning method, and medical image process method Download PDF

Info

Publication number
KR102402011B1
KR102402011B1 KR1020200019820A KR20200019820A KR102402011B1 KR 102402011 B1 KR102402011 B1 KR 102402011B1 KR 1020200019820 A KR1020200019820 A KR 1020200019820A KR 20200019820 A KR20200019820 A KR 20200019820A KR 102402011 B1 KR102402011 B1 KR 102402011B1
Authority
KR
South Korea
Prior art keywords
learning
medical image
neural network
network model
diagnostic index
Prior art date
Application number
KR1020200019820A
Other languages
Korean (ko)
Other versions
KR20210105481A (en
Inventor
양동현
이준구
이가은
Original Assignee
재단법인 아산사회복지재단
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 아산사회복지재단, 울산대학교 산학협력단 filed Critical 재단법인 아산사회복지재단
Priority to KR1020200019820A priority Critical patent/KR102402011B1/en
Priority to US17/156,947 priority patent/US11783477B2/en
Publication of KR20210105481A publication Critical patent/KR20210105481A/en
Application granted granted Critical
Publication of KR102402011B1 publication Critical patent/KR102402011B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

일 실시예에 따른 의료영상 처리 장치의 의료영상 학습 방법은, 학습 데이터 세트 중 입력으로서 학습용 신체 X선 영상들을 준비하는 단계와, 학습 데이터 세트 중 레이블로서 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보를 준비하는 단계와, 학습 데이터 세트를 이용하여 인공 신경망 모델을 학습시키는 단계를 포함한다.A method for learning a medical image of a medical image processing apparatus according to an embodiment includes preparing body X-ray images for training as an input in a training data set, and individual X-ray images for training corresponding to each of the training body X-ray images as a label in a training data set. It includes the steps of preparing the body's in-body diagnostic index information, and training the artificial neural network model using the training data set.

Description

의료영상 처리 장치와 그 의료영상 학습 방법 및 의료영상 처리 방법{MEDICAL IMAGE PROCESS APPARATUS AND MEDICAL IMAGE LEARNING METHOD, AND MEDICAL IMAGE PROCESS METHOD}Medical image processing apparatus and its medical image learning method and medical image processing method

본 발명은 신체에 대한 의료영상을 학습하는 방법 및 장치, 그리고 신체에 대한 의료영상을 처리하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for learning a medical image of a body, and a method and apparatus for processing a medical image of the body.

의료영상 장치는 진단 대상자의 신체 내부 구조를 영상으로 획득하기 위한 장비이다. 의료영상 장치는 비침습 검사 장치로서, 신체 내의 구조적 세부사항, 내부 조직 및 유체의 흐름 등을 촬영 및 처리하여 사용자에게 보여준다. 의사 등의 사용자는 의료영상 장치에서 출력되는 의료영상을 이용하여 환자의 건강 상태 및 질병을 진단할 수 있다.A medical imaging apparatus is a device for acquiring an image of a body internal structure of a subject to be diagnosed. The medical imaging apparatus is a non-invasive examination apparatus, and shows structural details in the body, internal tissues and fluid flow, etc. by photographing and processing the image to the user. A user such as a doctor may diagnose a patient's health condition and disease by using a medical image output from the medical imaging apparatus.

의료영상 장치로는 대상체로 엑스(X)선을 조사하고 대상체를 통과한 X선을 감지하여 영상을 이미징하는 X레이(X-ray) 촬영 장치, 자기 공명 영상을 제공하기 위한 자기 공명 영상(MRI: magnetic resonance imaging) 장치, 컴퓨터 단층 촬영(CT: Computed Tomography) 장치, 및 초음파(Ultrasound) 진단 장치 등이 있다.As a medical imaging device, an X-ray imaging device that irradiates X-rays to an object and detects X-rays passing through the object to image an image, and magnetic resonance imaging (MRI) to provide a magnetic resonance image : There are a magnetic resonance imaging) device, a computed tomography (CT) device, and an ultrasound diagnostic device.

최근에는 기계 학습(machine learning) 등과 같은 영상 처리 기술의 발전으로 인하여, 의료영상 장치가 획득된 의료영상을 분석하여, 대상체에 이상이 발생한 부위인 비정상(abnormal) 영역을 검출하거나 분석한 결과를 생성할 수 있다. 전술한 바와 같이, 획득된 의료영상을 분석하여 재 생성된 영상을 판독 보조 영상이라 한다. 판독 보조 영상을 의사에게 제공하면, 의사는 판독 보조 영상을 참조하여, 대상체에 이상이 발생하였는지 여부를 보다 용이하게 진단할 수 있다.Recently, due to the development of image processing technology such as machine learning, a medical imaging apparatus analyzes an acquired medical image to detect or generate an analysis result of an abnormal region, which is a region where an abnormality occurs in an object. can do. As described above, an image regenerated by analyzing the acquired medical image is called a reading aid image. When the reading aid image is provided to the doctor, the doctor may more easily diagnose whether an abnormality has occurred in the object by referring to the reading aid image.

한편, 흉부 X선 영상은 다양한 폐 질환 검출 및 진단에 이용되고 있는데, 의사는 진단 대상자의 흉부 X선 영상으로부터 심혈관계 경계선(Cardiovascular Border) 등과 같은 체내 진단지표를 획득하여 이를 기초로 폐 질환을 검출하거나 진단할 수 있다.On the other hand, chest X-ray images are being used to detect and diagnose various lung diseases. A doctor acquires in-body diagnostic indicators such as cardiovascular border from a chest X-ray image of a subject, and detects lung diseases based on this. or can be diagnosed.

그런데, 흉부 X선 영상으로부터 심혈관계 경계선 등과 같은 체내 진단지표를 획득하는 것은 고도의 숙련된 의사만이 정확히 획득할 수 있고, 의사의 숙련도에 따라 흉부 X선 영상으로부터 획득되는 체내 진단지표의 정확도가 변화되는 문제점이 있었다.However, only a highly skilled doctor can accurately obtain in vivo diagnostic indicators such as cardiovascular system boundaries from a chest X-ray image, and the accuracy of the in vivo diagnostic index obtained from a chest X-ray image depends on the doctor's skill level. There was a change problem.

한국공개특허 제10-2019-0106403호 (2019.09.18. 공개)Korean Patent Publication No. 10-2019-0106403 (published on September 18, 2019)

실시예에 따르면, 신체 X선 영상들과 체내 진단지표 정보를 이용하여 인공 신경망 모델을 학습시키는 의료영상 학습 방법 및 그 의료영상 처리 장치를 제공한다.According to the embodiment, there is provided a medical image learning method for learning an artificial neural network model using body X-ray images and in-body diagnostic index information, and a medical image processing apparatus thereof.

또한, 학습된 인공 신경망 모델이 진단 대상자의 신체 X선 영상으로부터 체내 진단지표 정보를 획득하는 의료영상 처리 방법 및 그 의료영상 처리 장치를 제공한다.In addition, there are provided a medical image processing method and a medical image processing apparatus in which a learned artificial neural network model acquires in-body diagnostic index information from a body X-ray image of a subject to be diagnosed.

본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved of the present invention are not limited to those mentioned above, and other problems to be solved that are not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description.

제 1 관점에 따른 의료영상 처리 장치의 의료영상 학습 방법은, 학습 데이터 세트 중 입력으로서 학습용 신체 X선 영상들을 준비하는 단계와, 상기 학습 데이터 세트 중 레이블로서 상기 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보를 준비하는 단계와, 상기 학습 데이터 세트를 이용하여 인공 신경망 모델을 학습시키는 단계를 포함한다.According to a first aspect, a method for learning a medical image of a medical image processing apparatus includes preparing body X-ray images for learning as an input in a learning data set, and corresponding to each of the learning body X-ray images as a label in the learning data set preparing the in-body diagnostic index information of the individual body, and training the artificial neural network model using the training data set.

제 2 관점에 따라 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체의 상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면, 상기 의료영상 처리 장치의 의료영상 학습 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함한다.According to the second aspect, the computer program of the computer-readable recording medium storing the computer program includes instructions for, when executed by a processor, to cause the processor to perform the method for learning a medical image of the medical image processing apparatus. .

제 3 관점에 따른 의료영상 처리 장치를 이용한 의료영상 처리 방법은, 의료영상들을 학습시킨 인공 신경망 모델에 진단 대상자의 신체 X선 영상을 입력 받는 단계와, 상기 진단 대상자의 신체 X선 영상으로부터 상기 인공 신경망 모델을 통하여 획득한 체내 진단지표 정보를 출력하는 단계를 포함한다.A medical image processing method using a medical image processing apparatus according to a third aspect comprises the steps of: receiving a body X-ray image of a diagnosis subject to an artificial neural network model trained on medical images; and outputting the in-body diagnostic index information obtained through the neural network model.

제 4 관점에 따라 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체의 상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면, 상기 의료영상 처리 장치를 이용한 의료영상 처리 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함한다.According to a fourth aspect, the computer program of a computer-readable recording medium storing a computer program includes instructions for, when executed by a processor, to cause the processor to perform a medical image processing method using the medical image processing apparatus do.

제 5 관점에 따른 의료영상 처리 장치는, 입력이 학습용 신체 X선 영상들이고 레이블이 상기 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보인 학습 데이터 세트를 입력 받는 입력부와, 상기 입력부를 통하여 입력 받은 상기 학습 데이터 세트를 인공 신경망 모델이 학습하는 인공 신경망 모델부를 포함한다.A medical image processing apparatus according to a fifth aspect comprises: an input unit for receiving a learning data set in which an input is body X-ray images for learning and a label is information on an in-body diagnostic index of an individual body corresponding to the learning body X-ray images; and an artificial neural network model unit in which the artificial neural network model learns the training data set received through the input unit.

제 6 관점에 따른 의료영상 처리 장치는, 진단 대상자의 신체 X선 영상을 입력 받는 입력부와, 상기 입력부를 통하여 입력 받은 상기 진단 대상자의 신체 X선 영상으로부터 인공 신경망 모델이 상기 진단 대상자의 체내 진단지표 정보를 획득하는 인공 신경망 모델부와, 상기 인공 신경망 모델부에 의하여 획득된 상기 진단 대상자의 체내 진단지표 정보를 출력하는 출력부를 포함한다.In a medical image processing apparatus according to a sixth aspect, an input unit for receiving an X-ray image of a body of a subject to be diagnosed, and an artificial neural network model from the X-ray image of a body of a subject to be diagnosed received through the input unit are provided as an internal diagnostic index of the subject to be diagnosed and an artificial neural network model unit for acquiring information, and an output unit for outputting in-body diagnostic index information of the subject to be diagnosed obtained by the artificial neural network model unit.

일 실시예에 따르면 인공 신경망 모델을 학습시켜서, 학습된 인공 신경망 모델이 진단 대상자의 신체 X선 영상으로부터 심혈관계 경계선(Cardiovascular Border) 등과 같은 체내 진단지표 정보를 정확히 획득할 수 있도록 한다.According to an embodiment, the artificial neural network model is trained so that the learned artificial neural network model can accurately acquire information on in-body diagnostic indexes, such as cardiovascular border, from a body X-ray image of a subject to be diagnosed.

이에 따라, 진단 대상자의 정확한 체내 진단지표 정보를 출력하거나 진단 대상자의 신체 X선 영상에 체내 진단지표 정보를 표시하여 출력하거나 진단 대상자의 체내 진단지표 정보에 기초한 수치값을 출력하거나 또는 학습을 통하여 획득된 체내 진단지표 정보에 대한 기준값과 진단 대상자의 체내 진단지표 정보를 비교한 결과를 출력할 수 있다.Accordingly, accurate information on the internal diagnostic index of the subject to be diagnosed is output, the information of the internal diagnostic index is displayed and output on the body X-ray image of the subject, a numerical value based on the information of the internal diagnostic index of the subject to be diagnosed is output, or acquired through learning A result of comparing the reference value of the in vivo diagnostic index information and the in vivo diagnostic index information of the subject to be diagnosed may be output.

도 1은 일 실시예에 따른 의료영상 처리 장치의 구성도이다.
도 2는 일 실시예에 따른 의료영상 처리 장치의 의료영상 학습 방법을 설명하기 위한 흐름도이다.
도 3은 일 실시예에 따른 의료영상 처리 장치의 의료영상 처리 방법을 설명하기 위한 흐름도이다.
도 4 내지 도 6은 일 실시예에 따른 의료영상 처리 장치가 신체 X선 영상으로부터 획득할 수 있는 체내 진단지표 정보를 예시한 흉부 X선 영상이다.
1 is a block diagram of a medical image processing apparatus according to an exemplary embodiment.
2 is a flowchart illustrating a method of learning a medical image by a medical image processing apparatus according to an exemplary embodiment.
3 is a flowchart illustrating a medical image processing method of a medical image processing apparatus according to an exemplary embodiment.
4 to 6 are chest X-ray images illustrating in-body diagnostic index information that the medical image processing apparatus may obtain from a body X-ray image according to an exemplary embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. When a part 'includes' a certain component throughout the specification, this means that other components may be further included, rather than excluding other components, unless otherwise stated.

또한, 명세서에서 사용되는 '부'라는 용어는 소프트웨어 또는 FPGA나 ASIC과 같은 하드웨어 구성요소를 의미하며, '부'는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부'들로 결합되거나 추가적인 구성요소들과 '부'들로 더 분리될 수 있다.In addition, the term 'unit' used in the specification means software or a hardware component such as an FPGA or ASIC, and 'unit' performs certain roles. However, 'part' is not limited to software or hardware. The 'unit' may be configured to reside on an addressable storage medium or it may be configured to refresh one or more processors. Thus, as an example, 'part' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and 'units' may be combined into a smaller number of components and 'units' or further divided into additional components and 'units'.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily carry out the present invention. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description will be omitted.

본 명세서에서 진단 대상자나 환자 등은 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함할 수 있다.In the present specification, a subject or patient to be diagnosed may include a human or an animal, or a part of a human or animal.

또한, 본 명세서에서 '영상'은 이산적인 이미지 요소들(예를 들어, 2차원 이미지에 있어서의 픽셀들 및 3차원 이미지에 있어서의 복셀들)로 구성된 다차원(multi-dimensional) 데이터를 의미할 수 있다.Also, in this specification, 'image' may mean multi-dimensional data composed of discrete image elements (eg, pixels in a two-dimensional image and voxels in a three-dimensional image). have.

도 1은 일 실시예에 따른 의료영상 처리 장치(100)의 구성을 도시하고 있으며, 다만 도 1에 도시된 것은 예시적인 것에 불과하다. 이러한 의료영상 처리 장치(100)는 PC나 서버 등에서 구현되거나 이를 포함할 수 있다.FIG. 1 shows the configuration of a medical image processing apparatus 100 according to an exemplary embodiment, but what is shown in FIG. 1 is merely exemplary. The medical image processing apparatus 100 may be implemented in a PC or a server, or may include it.

도 1을 참조하면, 의료영상 처리 장치(100)는 입력부(110), 인공 신경망 모델(artificial neutral network model)부(120)를 포함하며, 실시예에 따라 출력부(140), 정보 가공부(140) 또는 저장부(150)를 더 포함할 수 있다.Referring to FIG. 1 , the medical image processing apparatus 100 includes an input unit 110 and an artificial neutral network model unit 120 , and according to an embodiment, an output unit 140 and an information processing unit ( 140) or a storage unit 150 may be further included.

입력부(110)는 인공 신경망 모델부(120)의 인공 신경망 모델을 학습시키기 위한 학습 데이터 세트를 입력 받는다. 또, 입력부(110)는 학습된 인공 신경망 모델에 입력하기 위한 진단 대상자의 신체 X선 영상을 입력 받는다. 예를 들어, 학습 데이터 세트의 입력으로서 학습용 신체 X선 영상들을 입력 받을 수 있고, 학습 데이터 세트 중 레이블로서 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보를 입력 받을 수 있다. 예컨대, 체내 진단지표 정보는 심혈관계 경계선(Cardiovascular Border)에 대한 정보를 포함할 수 있다. 예를 들어, 심혈관계 경계선에 대한 정보로는 대동맥융기(aortic knob), 폐 원추(Pulmonary Conus, PC), 좌심방이(Left Atrial Appendage, LAA), 우상측(right upper) 심장 경계선(Cardiac Border, CB), 우하측(right lower) 심장 경계선, 좌하측 심장 경계선, 하행대동맥(Descending aorta, DAO), 분기부(carinal), 횡격막(diaphragm) 상단점, 우폐동맥(left pulmonary vein) 또는 심장 후연(posterior border), 척추 전연(anterior border) 등을 포함할 수 있다.The input unit 110 receives a training data set for learning the artificial neural network model of the artificial neural network model unit 120 . In addition, the input unit 110 receives the body X-ray image of the subject to be diagnosed to be input to the learned artificial neural network model. For example, body X-ray images for learning may be input as an input of the learning data set, and internal diagnostic index information of an individual body corresponding to each of the learning body X-ray images may be input as a label of the learning data set. For example, the in-body diagnostic index information may include information about a cardiovascular border. For example, information on the cardiovascular boundary includes the aortic knob, the lung cone (PC), the left atrial appendage (LAA), and the right upper cardiac boundary (Cardiac Border, CB), right lower cardiac border, left lower cardiac border, descending aorta (DAO), carinal, upper diaphragm, left pulmonary vein, or posterior margin of the heart ( It may include a posterior border, an anterior border, and the like.

인공 신경망 모델부(120)는 입력부(110)를 통하여 입력 받는 학습 데이터 세트를 학습하는 인공 신경망 모델을 포함한다. 이러한 인공 신경망 모델이 학습하는 학습 데이터 세트는 입력이 학습용 신체 X선 영상들이고 레이블이 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보일 수 있다. 그리고, 인공 신경망 모델부(120)의 학습된 인공 신경망 모델은 입력부(110)로부터 입력 받은 진단 대상자의 신체 X선 영상으로부터 진단 대상자의 체내 진단지표 정보를 획득할 수 있다. 예를 들어, 인공 신경망 모델은 Mask R-CNN 모델일 수 있다. Mask R-CNN 모델은 학습용 신체 X선 영상들을 Mask R-CNN 모델의 훈련 영상으로 이용할 수 있고, 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보를 Mask R-CNN 모델의 마스크(Mask)로 이용할 수 있다. 예를 들어, 입력부(110)을 통하여 입력 받은 학습 데이터 세트의 레이블이 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보로서 심혈관계 경계선에 대한 정보를 포함하는 경우, 인공 신경망 모델부(120)의 학습된 인공 신경망 모델은 진단 대상자의 체내 진단지표 정보로서, 가슴 길이(Thoracic length, TL), 심장 우축(right axis)과 심장 좌축(left axis)의 거리, 심폐계수(Cardiothoracic Ratio, CTR), 대동맥융기의 곡률(curvatures) 및 길이, 폐 원추의 곡률 및 길이, 좌심방이의 곡률 및 길이, 우상측 심장 경계선의 곡률 및 길이, 우하측 심장 경계선의 곡률 및 길이, 좌하측 심장 경계선의 곡률 및 길이, 하행대동맥의 곡률 및 길이, 분기부의 각도, 심장 면적(cardiac area), 횡격막(diaphragm)과 갈비뼈의 상대적인 위치, 우폐동맥의 평균 직경(distance) 또는 심장 후연과 척추 전연간(heart-to-spine) 평균 직경 중 적어도 하나의 정보를 포함할 수 있다.The artificial neural network model unit 120 includes an artificial neural network model for learning the training data set received through the input unit 110 . The training data set that the artificial neural network model learns may be body X-ray images for learning, and labels may be body diagnostic index information of an individual body corresponding to each of the body X-ray images for training. In addition, the learned artificial neural network model of the artificial neural network model unit 120 may acquire the body diagnostic index information of the subject to be diagnosed from the body X-ray image of the subject to be diagnosed received from the input unit 110 . For example, the artificial neural network model may be a Mask R-CNN model. The Mask R-CNN model can use body X-ray images for training as training images of the Mask R-CNN model. (Mask) is available. For example, when the label of the training data set input through the input unit 110 includes information on the cardiovascular system boundary line as the in-body diagnostic index information of the individual body corresponding to each of the body X-ray images for training, the artificial neural network model The trained artificial neural network model of the unit 120 is the body diagnostic index information of the subject to be diagnosed, the chest length (TL), the distance between the right axis and the left axis of the heart, and the cardiothoracic ratio. , CTR), curvatures and lengths of the aortic eminence, curvature and length of the lung cone, curvature and length of the left atrial appendage, curvature and length of the right right cardiac border, the curvature and length of the right lower cardiac border, the left lower cardiac border The curvature and length of the descending aorta, the angle of the bifurcation, the cardiac area, the relative positions of the diaphragm and the ribs, the mean diameter of the right pulmonary artery, or the distance between the posterior and anterior vertebrae of the heart -to-spine) may include information about at least one of the average diameter.

또한, 인공 신경망 모델부(120)는 학습 데이터 세트를 이용한 학습 결과에 따라 학습용 신체 X선 영상들의 체내 진단지표 정보에 대한 기준값을 획득할 수 있고, 획득된 기준값과 진단 대상자의 체내 진단지표 정보를 비교한 결과를 도출할 수 있다. 예를 들어, 인공 신경망 모델부(120)는 인공 신경망 모델로서 기능을 수행하도록 프로그램된 명령어를 저장하는 메모리 및 이러한 명령어를 실행하는 마이크로프로세서를 포함할 수 있다.In addition, the artificial neural network model unit 120 may acquire a reference value for in-body diagnostic index information of body X-ray images for learning according to the learning result using the learning data set, and compare the obtained reference value and the in-body diagnostic index information of the subject to be diagnosed. Comparison results can be drawn. For example, the artificial neural network model unit 120 may include a memory for storing instructions programmed to perform a function as an artificial neural network model, and a microprocessor for executing these instructions.

출력부(130)는 인공 신경망 모델부(120)에 의하여 획득된 진단 대상자의 체내 진단지표 정보를 외부로 출력할 수 있다. 예를 들어, 출력부(130)는 진단 대상자의 신체 X선 영상에 체내 진단지표 정보를 마킹한 형태로 출력할 수도 있고, 진단 대상자의 체내 진단지표 정보에 대한 신체 X선 영상 상의 위치 정보 형태(예: 위치 좌표)로 출력할 수도 있다. 또한, 출력부(130)는 인공 신경망 모델부(120)에 의하여 도출된 학습용 신체 X선 영상들의 체내 진단지표 정보에 대한 기준값과 진단 대상자의 체내 진단지표 정보를 비교한 결과를 외부로 출력할 수 있다. 또한, 출력부(130)는 인공 신경망 모델부(120)에 의하여 획득된 정보가 정보 가공부(140)에 의하여 소정 형태로 가공되어 제공되면 가공된 형태의 정보를 외부에서 인지 가능하게 출력할 수 있다. 이러한 출력부(130)는 체내 진단지표 정보를 출력하는 포트, 유선 통신 모듈 또는 무선 통신 모듈 등을 포함할 수 있다. 또는, 출력부(130)는 진단 대상자의 체내 진단지표 정보를 영상 형태로 출력할 수 있는 영상 표시 장치를 포함할 수도 있다.The output unit 130 may output the internal diagnostic index information of the subject to be diagnosed obtained by the artificial neural network model unit 120 to the outside. For example, the output unit 130 may output in the form of marking the internal diagnostic index information on the body X-ray image of the subject to be diagnosed, and the form of position information on the body X-ray image of the body diagnostic index information of the subject to be diagnosed ( Example: position coordinates) can also be output. In addition, the output unit 130 may output a result of comparing the reference value of the body diagnostic index information of the body X-ray images for learning derived by the artificial neural network model unit 120 with the body diagnostic index information of the subject to be diagnosed to the outside. have. In addition, when the information obtained by the artificial neural network model unit 120 is processed and provided in a predetermined form by the information processing unit 140, the output unit 130 may output the processed information in a recognizable form externally. have. The output unit 130 may include a port for outputting in-body diagnostic index information, a wired communication module, or a wireless communication module. Alternatively, the output unit 130 may include an image display device capable of outputting the diagnosis target's internal diagnostic index information in the form of an image.

정보 가공부(140)는 인공 신경망 모델부(120)에 의하여 획득된 각종 정보를 소정의 형태로 가공하여 출력부(130)에 제공할 수 있다. 예를 들어, 정보 가공부(140)는 입력부(110)을 통하여 입력되는 진단 대상자의 신체 X선 영상에 진단 대상자의 체내 진단지표 정보를 마킹한 형태로 가공하여 출력부(130)에 제공할 수 있다. 또는, 정보 가공부(140)는 인공 신경망 모델부(120)에 의하여 획득된 진단 대상자의 체내 진단지표 정보에 기초한 수치값을 출력부(130)에 제공할 수 있다. 또는, 정보 가공부(140)는 인공 신경망 모델부(120)에 의하여 도출된 학습용 신체 X선 영상들의 체내 진단지표 정보에 대한 기준값과 진단 대상자의 체내 진단지표 정보를 비교한 결과를 소정의 형태로 가공하여 출력부(130)에 제공할 수도 있다. 예를 들어, 정보 가공부(140)는 각종 정보를 소정의 형태로 가공하는 기능을 수행하도록 프로그램된 명령어를 저장하는 메모리 및 이러한 명령어를 실행하는 마이크로프로세서를 포함할 수 있다.The information processing unit 140 may process various types of information obtained by the artificial neural network model unit 120 into a predetermined form and provide it to the output unit 130 . For example, the information processing unit 140 may provide the output unit 130 by processing the body diagnostic index information of the subject to be diagnosed on the X-ray image of the subject input through the input unit 110 in a marked form. have. Alternatively, the information processing unit 140 may provide the output unit 130 with a numerical value based on the in-body diagnostic index information of the subject to be diagnosed obtained by the artificial neural network model unit 120 . Alternatively, the information processing unit 140 compares the reference value of the body diagnostic index information of the body X-ray images for learning derived by the artificial neural network model unit 120 with the body diagnostic index information of the subject to be diagnosed in a predetermined form. It may be processed and provided to the output unit 130 . For example, the information processing unit 140 may include a memory for storing instructions programmed to perform a function of processing various types of information into a predetermined form and a microprocessor for executing these instructions.

저장부(150)는 의료영상 처리 장치(100)이 각종의 기능을 수행하도록 프로그램된 명령어를 저장하거나 입력부(110)를 통하여 입력 받은 영상 등과 같은 각종 정보를 저장하거나 또는 인공 신경망 모델부(120) 및/또는 정보 가공부(140)에 의한 연산 및 처리 결과를 저장할 수 있다. 예를 들어, 저장부(150)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 플래시 메모리(flash memory)와 같은 프로그램 명령어들을 저장하고 수행하도록 특별히 구성된 하드웨어 장치 등과 같이 컴퓨터 판독 가능한 기록매체일 수 있다.The storage unit 150 stores commands programmed to cause the medical image processing apparatus 100 to perform various functions, stores various information such as images received through the input unit 110 , or the artificial neural network model unit 120 . And/or the calculation and processing results by the information processing unit 140 may be stored. For example, the storage unit 150 includes magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and floppy disks. It may be a computer-readable recording medium, such as a hardware device specially configured to store and execute program instructions, such as a magneto-optical medium or a flash memory.

도 2는 일 실시예에 따른 의료영상 처리 장치(100)의 의료영상 학습 방법을 설명하기 위한 흐름도이고, 도 3은 일 실시예에 따른 의료영상 처리 장치(100)의 의료영상 처리 방법을 설명하기 위한 흐름도이다. 또, 도 4 내지 도 6은 일 실시예에 따른 의료영상 처리 장치(100)가 신체 X선 영상으로부터 획득할 수 있는 체내 진단지표 정보를 예시한 흉부 X선 영상이다.FIG. 2 is a flowchart illustrating a method for learning a medical image by the medical image processing apparatus 100 according to an embodiment, and FIG. 3 is a flowchart for explaining a method for processing a medical image by the medical image processing apparatus 100 according to an embodiment is a flow chart for 4 to 6 are chest X-ray images illustrating in-body diagnostic index information that the medical image processing apparatus 100 may obtain from a body X-ray image according to an embodiment.

이하, 도 1 내지 도 6을 참조하여 일 실시예에 따른 의료영상 처리 장치(100)의 의료영상 학습 방법과 의료영상 처리 방법에 대하여 자세히 살펴보기로 한다.Hereinafter, a medical image learning method and a medical image processing method of the medical image processing apparatus 100 according to an embodiment will be described in detail with reference to FIGS. 1 to 6 .

먼저, 도 2의 흐름 순서에 따라 의료영상 처리 장치(100)의 의료영상 학습 방법에 대하여 설명하겠다.First, a medical image learning method of the medical image processing apparatus 100 will be described according to the flow sequence of FIG. 2 .

의료영상 처리 장치(100)의 인공 신경망 모델부(120)의 인공 신경망 모델을 학습시키기 위한 학습 데이터 세트를 준비한다. 예를 들어, 학습 데이터 세트 중 입력으로는 학습용 신체 X선 영상들을 준비할 수 있고(S210), 학습 데이터 세트 중 레이블로는 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보를 준비할 수 있다(S220).A training data set for learning the artificial neural network model of the artificial neural network model unit 120 of the medical image processing apparatus 100 is prepared. For example, as an input of the learning data set, body X-ray images for learning may be prepared ( S210 ), and as a label of the learning data set, information on individual body diagnostic indexes corresponding to each of the learning body X-ray images is provided. It can be prepared (S220).

일 실시예에 따라 의료영상 처리 장치(100)는 체내 진단지표 정보를 위하여 도 4 내지 도 6에 나타낸 바와 같은 심혈관계 경계선에 대한 정보를 이용할 수 있다. 도 4 내지 도 6에 병기한 도면 부호와 대응하는 심혈관계 경계선은 아래와 같다.According to an exemplary embodiment, the medical image processing apparatus 100 may use information on the cardiovascular system boundary line as shown in FIGS. 4 to 6 for in-body diagnostic index information. Cardiovascular boundary lines corresponding to reference numerals in FIGS. 4 to 6 are as follows.

403: 대동맥융기403: aortic eminence

404: 폐 원추404: lung cone

405: 좌심방이405: left atrium

406: 우상측 심장 경계선406: right heart borderline

407: 우하측 심장 경계선407: lower right heart border

408: 좌하측 심장 경계선408: left lower heart borderline

409: 하행대동맥409: descending aorta

410: 분기부410: branch

502: 횡경막(501)의 상단점502: the top point of the diaphragm 501

504: 우폐동맥504: right pulmonary artery

601: 심장 후연 및 척추 전연601: posterior edge of the heart and anterior edge of the spine

이러한 도면부호 401 내지 601의 심혈관계 경계선에 대한 정보에 기초하여 의료영상 처리 장치(100)는 체내 진단지표 정보로서 가슴 길이(401), 심장 우축과 심장 좌축의 거리(402), 심폐계수, 대동맥융기(403)의 곡률 및 길이, 폐 원추(404)의 곡률 및 길이, 좌심방이(405)의 곡률 및 길이, 우상측 심장 경계선(406)의 곡률 및 길이, 우하측 심장 경계선(407)의 곡률 및 길이, 좌하측 심장 경계선(408)의 곡률 및 길이, 하행대동맥(409)의 곡률 및 길이, 분기부(410)의 각도, 심장 면적, 횡격막(501)과 갈비뼈(503)의 상대적인 위치, 우폐동맥(504)의 평균 직경 또는 심장 후연과 척추 전연간(601)의 평균 직경 등을 이용할 수 있다. 여기서, 횡격막(501)과 갈비뼈(503)의 상대적인 위치는 진단 대상자가 X선 영상을 촬영할 때에 숨을 충분하게 쉬었는지를 판별하기 위한 용도로 이용될 수 있다. 예를 들어, 10번째 갈비뼈보다 횡경막의 상단점이 아래쪽에 위치하여야 진단 대상자가 숨을 충분하게 쉬었다고 판별할 수 있다. 숨을 충분하게 쉬지 않은 상태에서 촬영된 X선 영상이 초기 학습용 신체 X선 영상들에 포함된 경우에 체내 진단지표에 반영되지 않게 실제 학습에 이용되는 학습 데이터 세트에서 제외할 수 있다.Based on the information on the cardiovascular system boundaries of reference numerals 401 to 601, the medical image processing apparatus 100 provides information on the in-body diagnostic index, including the chest length 401, the distance between the right axis of the heart and the left axis of the heart 402, cardiopulmonary coefficient, and the aorta. Curvature and length of ridge 403 , curvature and length of lung cone 404 , curvature and length of left atrial appendage 405 , curvature and length of right right cardiac borderline 406 , and curvature of right lower cardiac borderline 407 . and length, the curvature and length of the lower left cardiac borderline 408, the curvature and length of the descending aorta 409, the angle of the bifurcation 410, the heart area, the relative position of the diaphragm 501 and the ribs 503, the right The average diameter of the pulmonary artery 504 or the average diameter between the trailing edge of the heart and the anterior edge of the spine 601 may be used. Here, the relative positions of the diaphragm 501 and the ribs 503 may be used for determining whether the subject to be diagnosed has sufficiently breathed when taking an X-ray image. For example, when the upper end of the diaphragm is located below the 10th rib, it can be determined that the subject has sufficiently breathed. When an X-ray image taken in a state of not breathing enough is included in the body X-ray images for initial learning, it may be excluded from the learning data set used for actual learning so as not to be reflected in the in-body diagnostic index.

단계 S210 및 단계 S220을 통하여 준비된 학습 데이터 세트는 입력부(110)를 통하여 입력 되어 인공 신경망 모델부(120)에 제공되고, 인공 신경망 모델부(120)의 인공 신경망 모델은 단계 S210 및 단계 S220의 학습 데이터 세트를 학습한다. 예를 들어, 인공 신경망 모델로는 Mask R-CNN 모델을 이용할 수 있다. 이 경우에, 학습용 신체 X선 영상들을 Mask R-CNN 모델의 훈련 영상으로 이용하며, 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보를 Mask R-CNN 모델의 마스크(Mask)로 이용할 수 있다(S230).The training data set prepared through steps S210 and S220 is input through the input unit 110 and provided to the artificial neural network model unit 120, and the artificial neural network model of the artificial neural network model unit 120 is trained in steps S210 and S220. train the data set. For example, the Mask R-CNN model may be used as the artificial neural network model. In this case, body X-ray images for learning are used as training images of the Mask R-CNN model, and the internal diagnostic index information of each body corresponding to each of the learning body X-ray images is used as a mask of the Mask R-CNN model. It can be used as (S230).

다음으로, 도 3의 흐름 순서에 따라 의료영상 처리 장치(100)의 의료영상 처리 방법에 대하여 설명하겠다.Next, a medical image processing method of the medical image processing apparatus 100 will be described according to the flow sequence of FIG. 3 .

우선, 도 2를 참조하여 설명하였던 바와 같이, 의료영상 처리 장치(100)는 인공 신경망 모델부(120)의 인공 신경망 모델이 입력 데이터로서 학습용 신체 X선 영상들과 레이블로서 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보를 포함하는 학습 데이터 세트를 학습한다(S310).First, as described with reference to FIG. 2 , in the medical image processing apparatus 100 , the artificial neural network model of the artificial neural network model unit 120 receives body X-ray images for learning as input data and body X-ray images for learning as labels. A learning data set including information on the in-body diagnostic index of an individual body corresponding to each is learned ( S310 ).

이렇게 인공 신경망 모델부(120)의 인공 신경망 모델이 학습된 상태에서, 입력부(110)를 통하여 진단 대상자의 신체 X선 영상이 입력되어 인공 신경망 모델부(120)에 제공된다(S320).In the state in which the artificial neural network model of the artificial neural network model unit 120 has been learned, the body X-ray image of the subject to be diagnosed is inputted through the input unit 110 and provided to the artificial neural network model unit 120 ( S320 ).

그리고, 인공 신경망 모델부(120)의 인공 신경망 모델은 단계 S320을 통하여 제공된 진단 대상자의 신체 X선 영상으로부터 진단 대상자의 체내 진단지표 정보를 획득한다. 여기서, 인공 신경망 모델이 획득하는 체내 진단지표 정보로는 가슴 길이(401), 심장 우축과 심장 좌축의 거리(402), 심폐계수, 대동맥융기(403)의 곡률 및 길이, 폐 원추(404)의 곡률 및 길이, 좌심방이(405)의 곡률 및 길이, 우상측 심장 경계선(406)의 곡률 및 길이, 우하측 심장 경계선(407)의 곡률 및 길이, 좌하측 심장 경계선(408)의 곡률 및 길이, 하행대동맥(409)의 곡률 및 길이, 분기부(410)의 각도, 심장 면적, 횡격막(501)과 갈비뼈(503)의 상대적인 위치, 우폐동맥(504)의 평균 직경 또는 심장 후연과 척추 전연간(601) 평균 직경 등을 포함할 수 있다(S330).In addition, the artificial neural network model of the artificial neural network model unit 120 acquires the body diagnostic index information of the diagnosis subject from the body X-ray image of the diagnosis subject provided through step S320. Here, the in-body diagnostic index information obtained by the artificial neural network model includes chest length 401, the distance between the right and left axes of the heart 402, cardiopulmonary coefficient, the curvature and length of the aortic ridge 403, and the length of the lung cone 404. curvature and length, the curvature and length of the left atrial appendage 405, the curvature and length of the right right cardiac borderline 406, the curvature and length of the right lower cardiac borderline 407, the curvature and length of the left lower cardiac borderline 408; The curvature and length of the descending aorta 409, the angle of the bifurcation 410, the heart area, the relative positions of the diaphragm 501 and the ribs 503, the average diameter of the right pulmonary artery 504, or between the posterior margin of the heart and the anterior vertebrae ( 601) may include an average diameter (S330).

그러면, 출력부(130)는 인공 신경망 모델부(120)에 의하여 획득된 진단 대상자의 체내 진단지표 정보를 외부로 출력할 수 있다.Then, the output unit 130 may output the internal diagnostic index information of the subject to be diagnosed obtained by the artificial neural network model unit 120 to the outside.

여기서, 출력부(130)는 인공 신경망 모델부(120)에 의하여 획득된 체내 진단지표 정보를 원시 데이터 형태로 출력할 수도 있지만, 정보 가공부(140)에 의하여 가공된 소정의 형태로 출력할 수도 있다. 이를 위하여, 정보 가공부(140)는 인공 신경망 모델부(120)에 의하여 획득된 각종 정보를 소정의 형태로 가공하여 출력부(130)에 제공할 수 있다. 예를 들어, 정보 가공부(140)는 입력부(110)을 통하여 입력되는 진단 대상자의 신체 X선 영상에 진단 대상자의 체내 진단지표 정보를 마킹한 형태로 가공하여 출력부(130)에 제공할 수 있다. 또는, 정보 가공부(140)는 인공 신경망 모델부(120)에 의하여 획득된 진단 대상자의 체내 진단지표 정보에 기초한 수치값을 출력부(130)에 제공할 수 있다. 또는, 정보 가공부(140)는 인공 신경망 모델부(120)에 의하여 도출된 학습용 신체 X선 영상들의 체내 진단지표 정보에 대한 기준값과 진단 대상자의 체내 진단지표 정보를 비교한 결과를 소정의 형태로 가공하여 출력부(130)에 제공할 수도 있다. 예컨대, 단계 S320을 통하여 입력되는 진단 대상자의 신체 X선 영상이 사전 학습을 통하여 획득된 기준값과 몇 퍼센트(%)만큼 차이를 갖는지 등의 정보를 제공할 수 있다.Here, the output unit 130 may output the internal diagnostic index information obtained by the artificial neural network model unit 120 in the form of raw data, but may also output it in a predetermined form processed by the information processing unit 140 . have. To this end, the information processing unit 140 may process various types of information obtained by the artificial neural network model unit 120 into a predetermined form and provide it to the output unit 130 . For example, the information processing unit 140 may provide the output unit 130 by processing the body diagnostic index information of the subject to be diagnosed on the X-ray image of the subject input through the input unit 110 in a marked form. have. Alternatively, the information processing unit 140 may provide the output unit 130 with a numerical value based on the in-body diagnostic index information of the subject to be diagnosed obtained by the artificial neural network model unit 120 . Alternatively, the information processing unit 140 compares the reference value of the body diagnostic index information of the body X-ray images for learning derived by the artificial neural network model unit 120 with the body diagnostic index information of the subject to be diagnosed in a predetermined form. It may be processed and provided to the output unit 130 . For example, information such as how many percent (%) the body X-ray image of the subject to be diagnosed is different from the reference value obtained through prior learning may be provided through step S320.

이에, 출력부(130)는 진단 대상자의 신체 X선 영상에 체내 진단지표 정보를 마킹한 형태로 출력할 수도 있고, 진단 대상자의 체내 진단지표 정보에 대한 신체 X선 영상 상의 위치 정보 형태(예: 위치 좌표)로 출력할 수도 있다. 또한, 출력부(130)는 인공 신경망 모델부(120)에 의하여 도출된 학습용 신체 X선 영상들의 체내 진단지표 정보에 대한 기준값과 진단 대상자의 체내 진단지표 정보를 비교한 결과를 외부로 출력할 수 있다. 예를 들어, 출력부(130)는 인공 신경망 모델부(120)에 의하여 획득된 정보를 외부에서 인지 가능하게 출력할 수 있다(S340).Accordingly, the output unit 130 may output in the form of marking the internal diagnostic index information on the body X-ray image of the subject to be diagnosed, and the form of location information on the body X-ray image of the body diagnostic index information of the subject to be diagnosed (eg: position coordinates) can also be output. In addition, the output unit 130 may output a result of comparing the reference value of the body diagnostic index information of the body X-ray images for learning derived by the artificial neural network model unit 120 with the body diagnostic index information of the subject to be diagnosed to the outside. have. For example, the output unit 130 may output information acquired by the artificial neural network model unit 120 recognizable from the outside ( S340 ).

한편, 전술한 일 실시예에 따른 의료영상 학습 방법 및 의료영상 처리 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된 컴퓨터 프로그램을 기록하는 컴퓨터 판독가능한 기록매체에서 구현될 수 있다.Meanwhile, each step included in the medical image learning method and the medical image processing method according to the above-described embodiment may be implemented in a computer-readable recording medium for recording a computer program programmed to perform these steps.

또한, 전술한 일 실시예에 따른 의료영상 학습 방법 및 의료영상 처리 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된, 컴퓨터 판독가능한 기록매체에 저장된 컴퓨터 프로그램의 형태로 구현될 수 있다.In addition, each step included in the medical image learning method and the medical image processing method according to the above-described embodiment may be implemented in the form of a computer program stored in a computer-readable recording medium programmed to perform these steps. .

본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 기록매체에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each step in each flowchart attached to the present invention may be performed by computer program instructions. These computer program instructions may be embodied in a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, such that the instructions performed by the processor of the computer or other programmable data processing equipment provide the functions described in each step of the flowchart. It creates a means to do these things. These computer program instructions may also be stored in a computer-usable or computer-readable medium that may direct a computer or other programmable data processing equipment to implement a function in a particular manner, and thus the computer-usable or computer-readable medium. The instructions stored in the recording medium are also possible to produce an article of manufacture including instruction means for performing the functions described in each step of the flowchart. The computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to create a computer or other programmable data processing equipment. It is also possible that instructions for performing the processing equipment provide steps for performing the functions described in each step of the flowchart.

또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Further, each step may represent a module, segment, or portion of code comprising one or more executable instructions for executing the specified logical function(s). It should also be noted that in some alternative embodiments it is also possible for the functions recited in the steps to occur out of order. For example, it is possible that two steps shown one after another may in fact be performed substantially simultaneously, or that the steps may sometimes be performed in the reverse order according to the corresponding function.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential quality of the present invention by those skilled in the art to which the present invention pertains. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

100: 의료영상 처리 장치
110: 입력부
120: 인공 신경망 모델부
130: 출력부
140: 정보 가공부
150: 저장부
100: medical image processing device
110: input unit
120: artificial neural network model unit
130: output unit
140: information processing unit
150: storage

Claims (15)

의료영상 처리 장치의 의료영상 학습 방법으로서,
상기 의료영상 처리 장치가 학습 데이터 세트 중 입력으로서 학습용 신체 엑스(X)선 영상들을 입력 받는 단계와,
상기 의료영상 처리 장치가 상기 학습 데이터 세트 중 레이블로서 상기 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보를 입력 받는 단계와,
상기 의료영상 처리 장치의 인공 신경망 모델이 상기 학습 데이터 세트를 학습하는 단계를 포함하고,
상기 체내 진단지표 정보는, 횡격막과 갈비뼈의 상대적인 위치에 대한 정보를 포함하며,
상기 인공 신경망 모델의 학습에 실제 이용되는 학습 데이터 세트 중 학습용 신체 X선 영상들은, 초기 학습용 신체 X선 영상들 중에서 상기 횡격막과 갈비뼈의 상대적인 위치에 대한 정보에 기초하여 일부가 제외된 것인
의료영상 학습 방법.
A medical image learning method of a medical image processing apparatus, comprising:
receiving, by the medical image processing apparatus, body X-ray images for learning as an input from among a set of learning data;
receiving, by the medical image processing device, information on individual body diagnostic indexes corresponding to each of the body X-ray images for learning as a label in the learning data set;
Including the step of learning the training data set by the artificial neural network model of the medical image processing device,
The in-body diagnostic index information includes information on the relative positions of the diaphragm and the ribs,
Among the training data sets actually used for learning the artificial neural network model, body X-ray images for training are partially excluded based on information on the relative positions of the diaphragm and ribs among the body X-ray images for initial training
How to learn medical imaging.
제 1 항에 있어서,
상기 체내 진단지표 정보는, 심혈관계 경계선(Cardiovascular Border)에 대한 정보를 포함하는
의료영상 학습 방법.
The method of claim 1,
The in-body diagnostic index information includes information on a cardiovascular system border (Cardiovascular Border)
How to learn medical imaging.
제 2 항에 있어서,
상기 심혈관계 경계선에 대한 정보는, 대동맥융기(aortic knob), 폐 원추(Pulmonary Conus, PC), 좌심방이(Left Atrial Appendage, LAA), 우상측(right upper) 심장 경계선(Cardiac Border, CB), 우하측(right lower) 심장 경계선, 좌하측 심장 경계선, 하행대동맥(Descending aorta, DAO), 분기부(carinal), 횡격막(diaphragm) 상단점, 우폐동맥(left pulmonary vein) 또는 심장 후연(posterior border), 척추 전연(anterior border) 중 적어도 하나의 정보를 포함하는
의료영상 학습 방법.
3. The method of claim 2,
Information on the cardiovascular system boundary line, aortic knob, lung cone (Pulmonary Conus, PC), left atrial appendage (Left Atrial Appendage, LAA), right upper (right upper) heart boundary line (Cardiac Border, CB), right lower heart border, lower left heart border, descending aorta (DAO), carinal, upper diaphragm, left pulmonary vein, or posterior border , comprising at least one information of the anterior border of the spine
How to learn medical imaging.
제 1 항에 있어서,
상기 인공 신경망 모델은 Mask R-CNN 모델이고, 상기 학습용 신체 X선 영상들을 Mask R-CNN 모델의 훈련 영상으로 이용하며, 상기 체내 진단지표 정보를 상기 Mask R-CNN 모델의 마스크(Mask)로 이용하는
의료영상 학습 방법.
The method of claim 1,
The artificial neural network model is a Mask R-CNN model, the body X-ray images for learning are used as training images of the Mask R-CNN model, and the in-body diagnostic index information is used as a mask of the Mask R-CNN model.
How to learn medical imaging.
컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서,
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
제 1 항 내지 제 4 항 중 어느 한 항에 따른 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 판독 가능한 기록매체.
As a computer-readable recording medium storing a computer program,
The computer program, when executed by a processor,
A computer-readable recording medium comprising instructions for causing the processor to perform the method according to any one of claims 1 to 4.
의료영상 처리 장치를 이용한 의료영상 처리 방법으로서,
의료영상들을 학습시킨 인공 신경망 모델에 진단 대상자의 신체 엑스(X)선 영상을 입력 받는 단계와,
상기 진단 대상자의 신체 X선 영상으로부터 상기 인공 신경망 모델을 통하여 획득한 체내 진단지표 정보를 출력하는 단계를 포함하고,
상기 인공 신경망 모델은, 입력이 학습용 신체 X선 영상들이고 레이블이 상기 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보-심혈관계 경계선(Cardiovascular Border)에 대한 정보를 포함-인 학습 데이터 세트가 학습된 것이며,
상기 진단 대상자의 체내 진단지표 정보는, 가슴 길이(Thoracic length, TL), 심장 우축(right axis)과 심장 좌축(left axis)의 거리, 대동맥융기(aortic knob)의 곡률(curvatures) 및 길이, 폐 원추(Pulmonary Conus, PC)의 곡률 및 길이, 좌심방이(Left Atrial Appendage, LAA)의 곡률 및 길이, 우상측(right upper) 심장 경계선의 곡률 및 길이, 우하측(right lower) 심장 경계선의 곡률 및 길이, 좌하측 심장 경계선(Cardiac Border, CB)의 곡률 및 길이, 하행대동맥(Descending aorta, DAO 의 곡률 및 길이, 분기부(carinal)의 각도, 심장 면적(cardiac area), 우폐동맥(left pulmonary vein)의 평균 직경(distance) 또는 심장 후연과 척추 전연간(heart-to-spine) 평균 직경 중 적어도 하나를 포함하는
의료영상 처리 방법.
A medical image processing method using a medical image processing apparatus, comprising:
receiving an X-ray image of the body of a diagnosis subject to an artificial neural network model that has learned medical images;
and outputting in-body diagnostic index information obtained through the artificial neural network model from the body X-ray image of the subject to be diagnosed,
In the artificial neural network model, the input is body X-ray images for learning, and the label includes in-body diagnostic index information of an individual body corresponding to the training body X-ray images, including information about the cardiovascular border. The data set is trained,
The body diagnostic index information of the subject to be diagnosed includes a chest length (TL), a distance between a right axis and a left axis of the heart, a curvature and length of an aortic knob, and a lung Curvature and length of the Pulmonary Conus (PC), the curvature and length of the Left Atrial Appendage (LAA), the curvature and length of the right upper heart line, the curvature and length of the right lower heart line, and Length, curvature and length of the lower left cardiac border (CB), the curvature and length of the descending aorta (DAO), angle of the carinal, cardiac area, left pulmonary vein ) or at least one of the mean diameter of the posterior edge of the heart and the mean diameter of the heart-to-spine.
Medical image processing method.
삭제delete 제 6 항에 있어서,
상기 체내 진단지표 정보를 출력하는 단계는, 상기 진단 대상자의 신체 X선 영상에 상기 진단 대상자의 체내 진단지표 정보를 표시하여 출력하는
의료영상 처리 방법.
7. The method of claim 6,
The step of outputting the in vivo diagnostic index information may include displaying and outputting the in vivo diagnostic index information of the diagnostic subject on the body X-ray image of the diagnosis subject.
Medical image processing method.
제 6 항에 있어서,
상기 체내 진단지표 정보를 출력하는 단계는, 상기 진단 대상자의 체내 진단지표 정보에 기초한 수치값을 출력하는
의료영상 처리 방법.
7. The method of claim 6,
The outputting of the in-body diagnostic index information may include outputting a numerical value based on the in-body diagnostic index information of the subject to be diagnosed.
Medical image processing method.
삭제delete 삭제delete 제 6 항에 있어서,
상기 체내 진단지표 정보를 출력하는 단계는, 상기 인공 신경망 모델의 학습 결과에 따라 획득된 상기 학습용 신체 X선 영상들의 체내 진단지표 정보에 대한 기준값과 상기 진단 대상자의 체내 진단지표 정보를 비교한 결과를 출력하는
의료영상 처리 방법.
7. The method of claim 6,
In the step of outputting the in-body diagnostic index information, the reference value for the in-body diagnostic index information of the body X-ray images for learning obtained according to the learning result of the artificial neural network model and the in-body diagnostic index information of the subject to be diagnosed are compared. to output
Medical image processing method.
컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서,
상기 컴퓨터 프로그램은, 프로세서에 의해 실행되면,
제 6 항, 제 8 항, 제 9 항 및 제 12 항 중 어느 한 항에 따른 방법을 상기 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 판독 가능한 기록매체.
As a computer-readable recording medium storing a computer program,
The computer program, when executed by a processor,
13. A computer-readable recording medium comprising instructions for causing the processor to perform the method according to any one of claims 6, 8, 9 and 12.
입력이 학습용 신체 엑스(X)선 영상들이고 레이블이 상기 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보인 학습 데이터 세트를 입력 받는 입력부와,
상기 입력부를 통하여 입력 받은 상기 학습 데이터 세트를 인공 신경망 모델이 학습하는 인공 신경망 모델부를 포함하고,
상기 체내 진단지표 정보는, 횡격막과 갈비뼈의 상대적인 위치에 대한 정보를 포함하며,
상기 인공 신경망 모델의 학습에 실제 이용되는 학습 데이터 세트 중 학습용 신체 X선 영상들은, 초기 학습용 신체 X선 영상들 중에서 상기 횡격막과 갈비뼈의 상대적인 위치에 대한 정보에 기초하여 일부가 제외된 것인
의료영상 처리 장치.
an input unit for receiving a learning data set in which the input is body X-ray images for learning and the label is information on an in-body diagnostic index of an individual body corresponding to each of the learning body X-ray images;
and an artificial neural network model unit in which an artificial neural network model learns the learning data set input through the input unit,
The in-body diagnostic index information includes information on the relative positions of the diaphragm and the ribs,
Among the training data sets actually used for learning the artificial neural network model, body X-ray images for training are partially excluded based on information on the relative positions of the diaphragm and ribs among the body X-ray images for initial training
Medical image processing device.
진단 대상자의 신체 엑스(X)선 영상을 입력 받는 입력부와,
상기 입력부를 통하여 입력 받은 상기 진단 대상자의 신체 X선 영상으로부터 인공 신경망 모델이 상기 진단 대상자의 체내 진단지표 정보를 획득하는 인공 신경망 모델부와,
상기 인공 신경망 모델부에 의하여 획득된 상기 진단 대상자의 체내 진단지표 정보를 출력하는 출력부를 포함하고,
상기 인공 신경망 모델은, 입력이 학습용 신체 X선 영상들이고 레이블이 상기 학습용 신체 X선 영상들에 각각 대응하는 개별 신체의 체내 진단지표 정보-심혈관계 경계선(Cardiovascular Border)에 대한 정보를 포함-인 학습 데이터 세트가 학습된 것이며,
상기 진단 대상자의 체내 진단지표 정보는, 가슴 길이(Thoracic length, TL), 심장 우축(right axis)과 심장 좌축(left axis)의 거리, 대동맥융기(aortic knob)의 곡률(curvatures) 및 길이, 폐 원추(Pulmonary Conus, PC)의 곡률 및 길이, 좌심방이(Left Atrial Appendage, LAA)의 곡률 및 길이, 우상측(right upper) 심장 경계선의 곡률 및 길이, 우하측(right lower) 심장 경계선의 곡률 및 길이, 좌하측 심장 경계선(Cardiac Border, CB)의 곡률 및 길이, 하행대동맥(Descending aorta, DAO 의 곡률 및 길이, 분기부(carinal)의 각도, 우폐동맥(left pulmonary vein)의 평균 직경(distance) 또는 심장 후연과 척추 전연간(heart-to-spine) 평균 직경 중 적어도 하나를 포함하는
의료영상 처리 장치.
an input unit for receiving an X-ray image of the body of the subject to be diagnosed;
an artificial neural network model unit in which the artificial neural network model acquires the body diagnostic index information of the diagnosis subject from the body X-ray image of the diagnosis subject received through the input unit;
And an output unit for outputting the in-body diagnostic index information of the subject to be diagnosed obtained by the artificial neural network model unit,
In the artificial neural network model, the input is body X-ray images for learning, and the label includes in-body diagnostic index information of an individual body corresponding to the training body X-ray images, including information about the cardiovascular border. The data set is trained,
The body diagnostic index information of the subject to be diagnosed includes a chest length (TL), a distance between a right axis and a left axis of the heart, a curvature and length of an aortic knob, and a lung Curvature and length of the Pulmonary Conus (PC), the curvature and length of the Left Atrial Appendage (LAA), the curvature and length of the right upper heart line, the curvature and length of the right lower heart line, and Length, curvature and length of the lower left cardiac border (CB), the curvature and length of the descending aorta (DAO), angle of the carinal, mean distance of the left pulmonary vein or at least one of a mean diameter between the posterior edge of the heart and the heart-to-spine.
Medical image processing device.
KR1020200019820A 2020-02-18 2020-02-18 Medical image process apparatus and medical image learning method, and medical image process method KR102402011B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200019820A KR102402011B1 (en) 2020-02-18 2020-02-18 Medical image process apparatus and medical image learning method, and medical image process method
US17/156,947 US11783477B2 (en) 2020-02-18 2021-01-25 Medical image process apparatus, medical image learning method, and medical image process method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200019820A KR102402011B1 (en) 2020-02-18 2020-02-18 Medical image process apparatus and medical image learning method, and medical image process method

Publications (2)

Publication Number Publication Date
KR20210105481A KR20210105481A (en) 2021-08-27
KR102402011B1 true KR102402011B1 (en) 2022-05-27

Family

ID=77272961

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200019820A KR102402011B1 (en) 2020-02-18 2020-02-18 Medical image process apparatus and medical image learning method, and medical image process method

Country Status (2)

Country Link
US (1) US11783477B2 (en)
KR (1) KR102402011B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240048073A (en) 2022-10-05 2024-04-15 주식회사 엠티이지 Method and device for image processing using attention block
KR20240079827A (en) 2022-11-29 2024-06-05 재단법인 아산사회복지재단 Medical image process method and apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240082694A (en) * 2022-12-02 2024-06-11 서울대학교산학협력단 Method and apparatus for generating cardiac contour prediction model, method and system for determining cardiac hypertrophy of animals using the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180276817A1 (en) 2017-03-24 2018-09-27 Umc Utrecht Holding B.V. Method and System for Assessing Vessel Obstruction Based on Machine Learning
CN109961059A (en) 2019-04-10 2019-07-02 杭州智团信息技术有限公司 Detect the method and system in kidney tissue of interest region

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012026145A1 (en) * 2010-08-27 2012-03-01 コニカミノルタエムジー株式会社 Diagnosis assistance system and program
US10751016B2 (en) * 2015-11-09 2020-08-25 Koninklijke Philips N.V. X-ray image inhalation quality monitoring
JP2017176202A (en) * 2016-03-28 2017-10-05 コニカミノルタ株式会社 Dynamics analysis system
JP2017225475A (en) * 2016-06-20 2017-12-28 コニカミノルタ株式会社 Radiation image processing system and radiation image processing device
US20190156204A1 (en) * 2017-11-20 2019-05-23 Koninklijke Philips N.V. Training a neural network model
KR20190106403A (en) 2018-03-09 2019-09-18 연세대학교 산학협력단 Method for predicting diseases and device for predicting diseases using the same
US10706545B2 (en) * 2018-05-07 2020-07-07 Zebra Medical Vision Ltd. Systems and methods for analysis of anatomical images
US10949968B2 (en) * 2018-05-07 2021-03-16 Zebra Medical Vision Ltd. Systems and methods for detecting an indication of a visual finding type in an anatomical image
KR102212500B1 (en) * 2018-07-06 2021-02-04 주식회사 메디웨일 Fundus image management device and method for determining quality of fundus image
US11416994B2 (en) * 2019-05-05 2022-08-16 Keyamed Na, Inc. Method and system for detecting chest x-ray thoracic diseases utilizing multi-view multi-scale learning
US11596482B2 (en) * 2019-05-23 2023-03-07 Surgical Safety Technologies Inc. System and method for surgical performance tracking and measurement
US10783643B1 (en) * 2019-05-27 2020-09-22 Alibaba Group Holding Limited Segmentation-based damage detection
US10984529B2 (en) * 2019-09-05 2021-04-20 Pearl Inc. Systems and methods for automated medical image annotation
US11436725B2 (en) * 2019-11-15 2022-09-06 Arizona Board Of Regents On Behalf Of Arizona State University Systems, methods, and apparatuses for implementing a self-supervised chest x-ray image analysis machine-learning model utilizing transferable visual words
AU2021205816B2 (en) * 2020-01-09 2023-11-09 Idexx Laboratories, Inc. Methods and systems for x-ray imaging and labeling

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180276817A1 (en) 2017-03-24 2018-09-27 Umc Utrecht Holding B.V. Method and System for Assessing Vessel Obstruction Based on Machine Learning
CN109961059A (en) 2019-04-10 2019-07-02 杭州智团信息技术有限公司 Detect the method and system in kidney tissue of interest region

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Awais Mansoor 외, A Generic Approach to Pathological Lung Segmentation, IEEE TRANSACTIONS ON MEDICAL IMAGING, 2014.07.08., Vol.33, No.12, pp.2293-2310.
Sarah Leclerc 외, Deep Learning for Segmentation using an Open Large-Scale Dataset in 2D Echocardiography, arXiv, 2019.08.22., pp1-33.*
Supriti Mulay 외, Liver Segmentation from Multimodal Images using HED-Mask R-CNN, arXiv, 2019.10.23., pp1-8.*

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240048073A (en) 2022-10-05 2024-04-15 주식회사 엠티이지 Method and device for image processing using attention block
KR20240079827A (en) 2022-11-29 2024-06-05 재단법인 아산사회복지재단 Medical image process method and apparatus

Also Published As

Publication number Publication date
KR20210105481A (en) 2021-08-27
US20210256689A1 (en) 2021-08-19
US11783477B2 (en) 2023-10-10

Similar Documents

Publication Publication Date Title
KR102402011B1 (en) Medical image process apparatus and medical image learning method, and medical image process method
US9842401B2 (en) Segmentation apparatus for interactively segmenting blood vessels in angiographic image data
JP7053656B2 (en) Contrast injection imaging
CN110796613A (en) Automatic image artifact identification method and device
JP2008503303A (en) Method and apparatus for displaying a tracheobronchial tree
CN107809955A (en) Collimation in real time and the positioning of ROI filters are carried out in x-ray imaging via the automatic detection of boundary mark interested
KR102382872B1 (en) Apparatus and method for medical image reading assistant providing representative image based on medical use artificial neural network
EP3606433B1 (en) Standardized coronary artery disease metric
US20130039554A1 (en) Method for determining a physical property of an object, system, computer readable medium and program element
JP2021104337A (en) Estimating endoluminal path of endoluminal device along lumen
JP7426824B2 (en) Non-invasive imaging-based FFR interaction monitoring
JP7479364B2 (en) Orientation detection of 2D vessel segmentation for angiographic FFR
JP2022510879A (en) Selection of the most relevant radiographic images for hemodynamic simulation
CN106780720B (en) Medical image display method and device
US20180357767A1 (en) Image processing apparatus and image processing method
JP2022538999A (en) Vessel registration using functional information
JP2004283583A (en) Operation method of image forming medical inspection system
Gharleghi et al. Computed tomography coronary angiogram images, annotations and associated data of normal and diseased arteries
US11657519B2 (en) Method for deformation correction
EP4281929A1 (en) Vessel shape
WO2021002478A1 (en) Diagnosis assisting program
KR102481564B1 (en) Medical image process apparatus and medical image learning method, and medical image process method
KR20240079827A (en) Medical image process method and apparatus
JP2009018029A (en) Medical image processing apparatus and medical image diagnosis apparatus
Laura Graph-matching and FEM-based registration of computed tomographies for outcome validation of liver interventions

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right