Nothing Special   »   [go: up one dir, main page]

WO2022010075A1 - 의료영상을 기초로 인체 조직을 분석하는 방법 및 그 장치 - Google Patents

의료영상을 기초로 인체 조직을 분석하는 방법 및 그 장치 Download PDF

Info

Publication number
WO2022010075A1
WO2022010075A1 PCT/KR2021/004175 KR2021004175W WO2022010075A1 WO 2022010075 A1 WO2022010075 A1 WO 2022010075A1 KR 2021004175 W KR2021004175 W KR 2021004175W WO 2022010075 A1 WO2022010075 A1 WO 2022010075A1
Authority
WO
WIPO (PCT)
Prior art keywords
tissue
medical image
dimensional
artificial intelligence
volume
Prior art date
Application number
PCT/KR2021/004175
Other languages
English (en)
French (fr)
Inventor
이혁희
이두희
윤순호
Original Assignee
메디컬아이피 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 메디컬아이피 주식회사 filed Critical 메디컬아이피 주식회사
Priority to US17/793,638 priority Critical patent/US20230048734A1/en
Priority to EP21838200.0A priority patent/EP4085841A4/en
Publication of WO2022010075A1 publication Critical patent/WO2022010075A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Definitions

  • An embodiment of the present invention relates to a method and an apparatus for analyzing a human tissue based on a medical image, and more particularly, to a method for analyzing the size, volume, or weight of a specific tissue from a medical image, or a method for generating a tissue segmentation image; It's about the device.
  • X-ray imaging computed tomography (CT), magnetic resonance imaging (MRI), and the like exist as a method of imaging the inside of the human body.
  • X-ray imaging transmits X-rays to all human tissues within the X-ray imaging area, and produces two-dimensional black-and-white images that appear bright or dark depending on the amount of X-ray particles reduced according to the composition of the tissue through which X-rays pass.
  • create X-ray imaging has advantages in that it is inexpensive and can be easily photographed, but there is a limitation in accurately identifying organs or lesions because several tissues are displayed overlapping each other on one plane.
  • CT or MRI is required to obtain more accurate tissue images. However, since CT or MRI is expensive, it is an economic burden to the patient.
  • the technical problem to be achieved by an embodiment of the present invention is to provide a method and an apparatus for analyzing various tissues of the human body from an X-ray medical image using an artificial intelligence model.
  • an example of a tissue analysis method is a learning including a 2D medical image and 3D size, volume or weight information of a tissue using a 3D medical image generating data; learning an artificial intelligence model to obtain a three-dimensional size, volume or weight by classifying at least one normal or diseased tissue in a two-dimensional medical image in which a plurality of tissues are superimposed on the same plane by using the learning data; and inputting an X-ray medical image into the artificial intelligence model to obtain a three-dimensional size, volume, or weight of a normal or diseased tissue.
  • an example of a tissue analysis apparatus is a learning including size, volume or weight information of a two-dimensional medical image and a three-dimensional tissue using a three-dimensional medical image.
  • a learning data generator for generating data
  • a learning unit for learning an artificial intelligence model to obtain a three-dimensional size, volume, or weight by classifying at least one normal or diseased tissue in a two-dimensional medical image in which a plurality of tissues are superimposed on the same plane by using the learning data
  • a volume calculator that inputs the X-ray medical image to the artificial intelligence model to obtain a three-dimensional size, volume, or weight of normal or diseased tissue.
  • a three-dimensional size, volume, or weight of a tissue can be obtained from a two-dimensional X-ray medical image.
  • the two-dimensional X-ray medical image artificial intelligence model converts the labeled image from the three-dimensional medical image to two-dimensional and learns by using the precisely labeled two-dimensional X-ray medical image as learning data, so the accuracy of the artificial intelligence model is can improve
  • an image obtained by dividing at least one tissue from an X-ray medical image may be generated.
  • FIG. 1 is a diagram schematically showing an example of a tissue analysis apparatus based on a medical image according to an embodiment of the present invention
  • FIG. 2 is a view showing the configuration of an example of a tissue analysis apparatus according to an embodiment of the present invention
  • FIG. 3 is a view showing an example of a method for generating learning data according to an embodiment of the present invention.
  • FIG. 4 is a view showing an example of a 3D medical image according to an embodiment of the present invention.
  • FIG. 5 is a view showing an example of a method of reducing the dimension of a 3D medical image according to an embodiment of the present invention
  • FIG. 6 is a view showing an example of an artificial intelligence model for obtaining the size, volume or weight of a three-dimensional tissue from a two-dimensional X-ray medical image according to an embodiment of the present invention
  • FIG. 7 is a view showing another example of an artificial intelligence model according to an embodiment of the present invention.
  • FIG. 8 is a flowchart illustrating an example of a method for obtaining a size, volume, or weight of a human tissue according to an embodiment of the present invention.
  • FIG. 1 is a diagram schematically illustrating an example of an apparatus for analyzing a tissue based on a medical image according to an embodiment of the present invention.
  • the tissue analysis apparatus 100 receives an X-ray medical image 110 and outputs a medical image composed of at least one tissue (or a medical image excluding at least one tissue) 120 or An analysis result of the three-dimensional size, volume, or weight 130 of at least one or more tissues is output.
  • tissue' refers to any part that can be significantly distinguished from imaging, such as various organs such as lungs, bronchial tubes, muscles, fat, heart, blood vessels, bones, lesions such as tumors, or inflammatory regions.
  • the tissue analysis apparatus 100 is implemented in a configuration that outputs the medical image 120 for at least one or more tissues from the X-ray medical image 110 , or 3 for at least one or more tissues from the X-ray medical image 110 . It may be implemented as a configuration that analyzes and outputs the dimension size, volume, or weight 130 , or it may be implemented with a configuration that outputs both 120 and 130 .
  • the tissue analysis apparatus 100 may be implemented as a part of various medical equipment such as X-ray imaging equipment or a medical system (eg, PACS (Picture Archiving and Communication System)) or may be implemented as a general computer or server.
  • the tissue analysis device 100 is implemented as software and is embedded in various medical equipment or medical systems or stored in a portable storage medium (eg, Universal Serial Bus (USB) memory), etc. It can be used by connecting to the interface of the system.
  • a medical system eg, PACS (Picture Archiving and Communication System)
  • a portable storage medium eg, Universal Serial Bus (USB) memory
  • FIG. 2 is a diagram showing the configuration of an example of a tissue analysis apparatus according to an embodiment of the present invention.
  • the tissue analysis apparatus 100 includes a learning data generating unit 200 , a learning unit 210 , a tissue dividing unit 220 , and a volume calculating unit 230 .
  • the tissue analysis apparatus 100 may include only one of the tissue dividing unit 220 and the volume calculating unit 230 .
  • the tissue analysis apparatus 100 may include an artificial intelligence model that has been trained instead of the learning unit 210 .
  • the learning data generation unit 200 generates learning data necessary for learning the artificial intelligence model.
  • the artificial intelligence model is a model that generates a medical image (or a medical image in which at least one or more tissues have been removed) of at least one tissue from a two-dimensional X-ray medical image and/or at least one or more tissues from a two-dimensional X-ray medical image. It may be a model that calculates a three-dimensional size, volume, or weight of the . Therefore, in order to learn the artificial intelligence model of the present embodiment, it is necessary to learn data such as a segmented image (or tissue boundary and brightness value information) or three-dimensional size, volume, or weight of the tissue.
  • a user with anatomical knowledge can generate learning data by classifying specific tissue areas one by one in an X-ray medical image. impossible. Moreover, since various tissues are overlapped in X-ray medical images, there is a problem in that the accuracy of tissue classification is lowered when each tissue area is simply classified using brightness, etc. It is also not possible to generate training data for volume or weight.
  • this embodiment proposes a method for automatically generating learning data from a 3D medical image.
  • a method in which the learning data generator 200 generates learning data necessary for learning an artificial intelligence model by using a three-dimensional medical image will be described in detail with reference to FIGS. 3 to 5 .
  • the learning unit 210 learns the artificial intelligence model by using the learning data generated by the learning data generating unit 200 .
  • the AI model can be implemented in various architectures such as Convolutional Neural Network (CNN), DenseNet, U-net, GoogLeNet, and Generative adversarial network.
  • CNN Convolutional Neural Network
  • DenseNet DenseNet
  • U-net U-net
  • GoogLeNet GoogLeNet
  • Generative adversarial network e.g., a convolutional Neural Network
  • the tissue analysis apparatus 100 may include one or a plurality of artificial intelligence models.
  • the tissue analysis apparatus 100 includes an artificial intelligence model for generating a medical image of at least one tissue from a two-dimensional X-ray medical image and a three-dimensional size of at least one or more tissues from a two-dimensional X-ray medical image, It may include an artificial intelligence model that calculates volume or weight, respectively, or an artificial intelligence model that integrates them into one.
  • an artificial intelligence model that calculates volume or weight, respectively, or an artificial intelligence model that integrates them into one.
  • FIGS. 6 and 7 Various implementation examples of the artificial intelligence model are shown in FIGS. 6 and 7 .
  • the tissue segmentation unit 220 When receiving a two-dimensional X-ray medical image, the tissue segmentation unit 220 generates and outputs a tissue image composed of at least one normal or diseased tissue using the artificial intelligence model learned by the learning unit 210 .
  • the tissue image may include information on the boundary (or area) and brightness of the corresponding tissue of the X-ray medical image.
  • the brightness value reflects the density of the corresponding tissue.
  • the tissue segmentation unit 220 may generate and output a tissue image composed only of lung tissue using an artificial intelligence model.
  • the tissue segmentation unit 220 may classify a plurality of tissues included in the X-ray medical image and generate and output tissue images for each of the plurality of tissues. For example, when receiving an X-ray medical image of the chest, the tissue segmentation unit 220 uses an artificial intelligence model to obtain a plurality of images such as a first tissue image of lung tissue and a second tissue image of a lesion such as a tumor. Each tissue image for different tissues can be generated and output.
  • the tissue segmentation unit 220 may automatically generate and store the tissue image by reading the X-ray medical image stored in the cloud system or the storage space of the computer. For example, when a new X-ray medical image is stored in a predetermined storage location (or a directory, etc.), the tissue segmentation unit 220 may generate a tissue image for the X-ray medical image and store it in a predetermined storage location. Alternatively, when receiving an X-ray medical image from an external terminal connected through the Internet, the tissue segmentation unit 220 may transmit a tissue image generated based on the X-ray medical image to the external terminal. According to an embodiment, a separate platform for receiving an X-ray medical image from an external terminal and transmitting a tissue image may exist.
  • the volume calculator 230 calculates a three-dimensional size, volume, or weight of at least one tissue using an artificial intelligence model. For example, when receiving an X-ray medical image of the chest, the volume calculating unit 230 uses the artificial intelligence model learned by the learning unit 210 to obtain the 3D size, volume, or weight of the lung-related tissue. Thus, the area, volume, or weight of the lung region can be obtained, the area of inflammation existing in the lung region can be obtained, or the size, volume, or weight of a tumor, etc. can be obtained. As another example, the volume calculation unit 230 inputs the tissue image (or tissue boundary (or area) and brightness value) obtained from the tissue division unit 200 into the AI model to calculate a three-dimensional size, volume, or weight. can do.
  • FIG. 3 is a diagram illustrating an example of a method for generating learning data according to an embodiment of the present invention.
  • the learning data generating unit 200 automatically generates learning data including a two-dimensional medical image 310 or a size, volume, or weight 320 of a tissue using the three-dimensional medical image 300 . create An example of the 3D medical image 300 is shown in FIG. 3 .
  • the learning data generator 200 divides a normal or diseased tissue in a 3D medical image. For example, in the case of learning of an artificial intelligence model that outputs a tissue image composed only of lung tissue in a chest X-ray medical image, the learning data generator 200 divides the lung tissue in the 3D medical image of the chest. .
  • the learning data generator 200 may segment a 3D region of a specific tissue in a 3D medical image by using various conventional region division algorithms.
  • the learning data generation unit 200 is disclosed in Korean Patent Publication No. 10-1482247 "A method and apparatus for extracting airways", Korean Patent Publication No. 10-1514003 "A method and apparatus for extracting lung lobes", and published in Korea.
  • a region of a specific tissue can be segmented in a 3D medical image by using the segmentation method described in Patent Publication No. 10-2018-0098984, “Method for separating regions of medical images and apparatus therefor”.
  • the learning data generating unit 200 reduces the dimension of the three-dimensional medical image to generate a two-dimensional medical image (hereinafter, referred to as a basic image) such as an X-ray medical image, and also reduces the dimensions of the divided tissue in the three-dimensional medical image.
  • a two-dimensional medical image (hereinafter, a segmented image) is generated.
  • the learning data generating unit 200 dimensionally reduces the 3D medical image of the chest to generate a 2D basic image of the chest, and a 2D segmented image obtained by reducing the dimension of the lung region divided from the 3D medical image.
  • the segmented image may include boundary (or area) and brightness value information of the segmented tissue.
  • the learning data generator 200 divides a normal or diseased tissue in a three-dimensional medical image, and obtains a three-dimensional size, volume, or weight of the tissue.
  • Various conventional algorithms for obtaining a three-dimensional size, volume, or weight of a tissue divided in a three-dimensional medical image may be applied to the present embodiment.
  • the learning data generator 200 generates a two-dimensional medical image (ie, a basic image) such as an X-ray medical image by reducing the dimension of the three-dimensional medical image.
  • the learning unit 210 learns the artificial intelligence model by using it.
  • the learning data generating unit 200 Since the basic image includes boundary (or area) and brightness value information for various tissues, the learning data generating unit 200 generates the basic image itself as learning data, or the boundary (or the boundary (or) of the tissues identified in the basic image). area) and brightness value information may be generated as training data, or the basic image and the boundary (or area) and brightness value information of the tissue within the image may be generated together as training data.
  • the learning data may include a two-dimensional medical image (ie, a segmented image) of a tissue for which a three-dimensional size, volume, or weight, etc. .
  • the learning unit 210 may learn the artificial intelligence model by using the training data including the segmented image of the tissue and the three-dimensional size, volume, or weight of the tissue.
  • the learning data generating unit 200 since the segmented image includes information on the boundary (or area) and brightness value of the tissue, the learning data generating unit 200 generates the segmented image itself as learning data, or the boundary ( Alternatively, the area) and brightness value information may be generated as training data, or the divided image and the tissue boundary (or area) and brightness value information may be generated together as training data.
  • a two-dimensional medical image (eg, a basic image, a segmented image, or a tissue image) input to the AI model is the image itself or the boundary (or area) of the tissue included in the image, depending on the embodiment. and brightness value information or may be interpreted as a concept including both.
  • the learning data may be composed of a basic image, a segmented image, and a three-dimensional size, volume, or weight of the tissue.
  • the learning data may be composed of two or more two-dimensional medical images (basic image or segmented image) in at least two different directions and three-dimensional size, volume, or weight information of tissues, an example of which is shown in FIG. have.
  • this embodiment describes the learning data generation process of an artificial intelligence model that outputs a tissue image and an artificial intelligence model that outputs a three-dimensional size, volume, or weight of tissue, respectively, but one AI model It is possible to output both the tissue image and the three-dimensional size, volume, or weight of the tissue. Training data can be created at once.
  • the tissue analysis apparatus 100 may include a first artificial intelligence model for outputting a tissue image and a second artificial intelligence model for outputting a three-dimensional size, volume, or weight of the tissue, respectively, examples of which are It is shown in FIG. 7 .
  • FIG. 4 is a diagram illustrating an example of a 3D medical image according to an embodiment of the present invention.
  • a 3D medical image 400 such as CT may be composed of a plurality of x-y cross-sectional images taken at regular intervals d.
  • the 3D medical image 400 is composed of 3D voxels indicating brightness, and may be stored as a Digital Imaging and Communication in Medicine (DICOM) file.
  • DICOM Digital Imaging and Communication in Medicine
  • FIG. 5 is a diagram illustrating an example of a method of reducing a 3D medical image in dimensions according to an embodiment of the present invention.
  • a 3D medical image is composed of voxels 500 , 502 , 504 , 506 , 508 , 510 , 512 and 514 including brightness values.
  • voxels 500, 502, 504, 506, 508, 510, 512, and 514 of a 3D medical image are shown for convenience of explanation.
  • the learning data generator 200 projects the 3D medical image onto the virtual planes 520 and 530 in a predetermined direction in order to reduce the 3D medical image to a 2D medical image.
  • the images projected on the virtual planes 520 and 530 become two-dimensional medical images.
  • the learning data generating unit 200 generates a brightness value of the two-dimensional medical image by averaging the brightness values of the voxels overlapping in the projection direction. That is, since the brightness value of an X-ray medical image is influenced by at least one or more tissues located in the X-ray transmission direction, the present embodiment is a two-dimensional (3D) medical image in which the influence on each tissue is reflected like an X-ray medical image. In order to generate a medical image, the brightness value of each pixel of the 2D medical image is obtained by averaging the brightness values of the voxels overlapping in the projection direction.
  • the learning data generator 200 sets the brightness values of the first voxel 500 and the second voxel 506 that overlap in the projection direction.
  • a brightness value of the first pixel 522 of the 2D medical image projected on the virtual plane 520 is generated by averaging the .
  • the learning data generator 200 generates the brightness value of the second pixel 524 by averaging the brightness values of the third and fourth voxels 502 and 504 , and the brightness of the fifth and sixth voxels 508 and 514 .
  • the brightness value of the third pixel 528 may be generated by averaging the values
  • the brightness value of the fourth pixel 526 may be generated by averaging the brightness values of the seventh and eighth voxels 510 and 512 .
  • the learning data generator 200 may generate a two-dimensional image in various projection directions for one three-dimensional image. For example, if the virtual shooting direction is parallel to the Z-axis, the learning data generator 200 averages the brightness values of each voxel 500,502,504,506,508,510,512,514 overlapping in the Z-axis direction, and each pixel projected on the virtual plane 530 .
  • a two-dimensional medical image can be generated by obtaining a brightness value of (532,534,536,538).
  • FIG. 6 is a diagram illustrating an example of an artificial intelligence model for obtaining the size, volume, or weight of a tissue from an X-ray medical image according to an embodiment of the present invention.
  • the learning unit 210 of the tissue analysis apparatus 100 receives at least two or more medical images in different directions for normal or diseased tissue and learning data including the three-dimensional size, volume, or weight of the tissue. It is possible to learn the artificial intelligence model 600 by using it.
  • the two-dimensional medical image in different directions constituting the learning data is a two-dimensional medical image projected in the X-axis direction of the three-dimensional medical image in the example of FIG. boundary (or area) and brightness value information) and a two-dimensional medical image projected in the Z-axis direction (or boundary (or area) and brightness value information of a region generated by projecting in the Z-axis direction).
  • the two-dimensional medical image may be a basic image salpinned in FIG. 3 or a segmented image.
  • the artificial intelligence model 600 predicts the three-dimensional size, volume or weight of the tissue when receiving learning data including two or more two-dimensional medical images (or boundary (or area) and brightness value information) in at least two different directions. to output
  • the artificial intelligence model 600 performs a learning process of adjusting the connection weight of the artificial intelligence model by comparing the predicted size, volume, or weight with the size, volume, or weight of the tissue included in the learning data.
  • the volume calculation unit 230 of the tissue analysis device 100 inputs the X-ray medical images taken from at least two different directions into the artificial intelligence model to be applied to a specific tissue. It is possible to determine the three-dimensional size, volume, or weight of the For example, when the volume calculator 230 receives an X-ray medical image in the front direction and an X-ray medical image in the lateral direction for the chest, it inputs them into the trained artificial intelligence model 600 to input the image to the lung area (or lesion or lesion). Inflammation, etc.), the size, volume, or weight of the back can be determined. Since volume is a physical quantity that represents the size of space, it may be more accurate to obtain the tissue volume from the X-ray medical images taken in at least two directions than to obtain the tissue volume from the X-ray medical images taken from one direction.
  • the tissue analysis apparatus 100 may output a 3D tissue image based thereon.
  • the tissue analysis apparatus 100 generates learning data including at least two two-dimensional medical images in different directions and a three-dimensional image of a tissue using a three-dimensional medical image, and uses this to generate an artificial intelligence model 600 ) can be learned.
  • the tissue analysis apparatus 100 may generate a 3D medical image of the lung region using the trained artificial intelligence model 600 . .
  • FIG. 7 is a diagram illustrating another example of an artificial intelligence model according to an embodiment of the present invention.
  • the tissue analysis apparatus 100 includes a first artificial intelligence model 700 for outputting a tissue image and a second artificial intelligence model 710 for outputting a volume, size, or weight of tissue.
  • the first artificial intelligence model 700 is an artificial intelligence model trained to output images (ie, tissue images) of at least one tissue using the basic image and the segmented image salpinned in FIG. 3 . That is, when the learning is completed, the first artificial intelligence model 700 receives a two-dimensional X-ray medical image, distinguishes a specific tissue from the X-ray medical image, and includes a tissue image (and/or boundary (or area) and brightness value information) or a tissue image (and/or boundary (or area) and brightness value information) excluding only a specific tissue from the X-ray medical image may be output.
  • the second artificial intelligence model 710 is an artificial intelligence model trained using learning data including a two-dimensional medical image and a three-dimensional size, volume, or weight of the tissue.
  • the 2D medical image may be a tissue image (and/or boundary (or area) and brightness value information) output from the first artificial intelligence model.
  • the learned first artificial intelligence model 700 receives an X-ray medical image and outputs a tissue image
  • the learned second artificial intelligence model 710 is derived from the first artificial intelligence model 700 .
  • the three-dimensional size, volume, or weight of the tissue can be determined and outputted from the received tissue image.
  • FIG. 8 is a flowchart illustrating an example of a method for obtaining a size, volume, or weight of a human tissue according to an embodiment of the present invention.
  • the tissue analysis apparatus 100 uses the 3D medical image to generate a 2D medical image and training data including information on the size, volume, or weight of the tissue ( S800 ).
  • the training data may include two-dimensional medical images in any one direction or at least two or more two-dimensional medical images as shown in FIG. 6 .
  • the two-dimensional medical image included in the training data may be a basic image or a segmented image salpinned in FIG. 3 .
  • the tissue analysis apparatus 100 uses the learning data to classify at least one tissue in a two-dimensional medical image in which a plurality of tissues are superimposed on the same plane and learns an artificial intelligence model to obtain a size, volume, or weight (S810) .
  • the training data includes at least two or more two-dimensional medical images in different directions
  • the AI model can be trained using the two-dimensional medical images in different directions and information about the size, volume, or weight of tissues.
  • the tissue analysis apparatus 100 is a three-dimensional size of the tissue separated from the first artificial intelligence model for discriminating at least one tissue in the two-dimensional medical image in which a plurality of tissues are superimposed on the same plane as shown in FIG. 7;
  • the second artificial intelligence model for calculating the volume or weight may train the sequentially connected model.
  • the tissue analysis apparatus 100 inputs the X-ray medical image to the artificial intelligence model that has been trained to obtain a three-dimensional size, volume, or weight of the tissue (S820).
  • the tissue analysis device 100 inputs at least two or more X-ray medical images in different directions to the artificial intelligence model to Three-dimensional size, volume, or weight can be obtained.
  • the tissue analysis apparatus 100 may generate a three-dimensional image by inputting at least two or more two-dimensional X-ray medical images in different directions to the artificial intelligence model.
  • the tissue analysis apparatus 100 may generate a plurality of two-dimensional or three-dimensional tissue images obtained by segmenting a plurality of tissues included in a two-dimensional X-ray medical image by using an artificial intelligence model.
  • the present invention can also be implemented as computer-readable codes on a computer-readable recording medium.
  • the computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device.
  • the computer-readable recording medium is distributed in a network-connected computer system so that the computer-readable code can be stored and executed in a distributed manner.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Physiology (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

의료영상을 기초로 인체 조직을 분석하는 방법 및 그 장치가 개시된다. 조직분석장치는 3차원 의료영상을 이용하여 2차원 의료영상과 조직의 체적 정보를 포함하는 학습데이터를 생성하고, 이를 이용하여 복수의 조직이 동일평면에 중첩 표시된 2차원 의료영상에서 적어도 하나 이상의 정상 또는 질병 조직을 구분하여 3차원 크기, 체적 또는 무게를 구하는 인공지능모델을 학습시킨다. 그리고 조직분석장치는 인공지능모델을 이용하여 X선 의료영상으로부터 정상 또는 질병 조직의 3차원 크기, 체적 또는 무게를 구한다.

Description

의료영상을 기초로 인체 조직을 분석하는 방법 및 그 장치
본 발명의 실시 예는 의료영상을 기초로 인체 조직을 분석하는 방법 및 그 장치에 관한 것으로, 보다 상세하게는 의료영상으로부터 특정 조직의 크기, 체적 또는 무게를 분석하거나 조직 분할 영상을 생성하는 방법 및 그 장치에 관한 것이다.
인체 내부를 촬영하는 방법으로 X선 촬영, CT(Computed Tomography) 또는 MRI(magnetic resonance imaging) 등이 존재한다. X선 촬영은 촬영시 X선 촬영 영역 내에 있는 모든 인체조직에 X선이 투과하며, X선이 투과하는 조직의 구성성분에 따른 X선 입자의 감소량에 따라 밝게 또는 어둡게 나타나는 2차원의 흑백 영상을 생성한다. X선 촬영은 촬영 비용이 저렴하고 손쉽게 촬영할 수 있는 장점이 있으나, 여러 조직이 한 평면에 중첩하여 표시되므로 장기나 병변을 정확하게 파악하는데 한계가 있다. 보다 정확한 조직 영상을 얻기 위해서는 CT나 MRI 촬영이 필요하다. 그러나 CT 또는 MRI는 촬영 비용이 고가이므로 환자에게 경제적 부담이 된다.
본 발명의 실시 예가 이루고자 하는 기술적 과제는, 인공지능모델을 이용하여 X선 의료영상으로부터 인체의 각종 조직을 분석하는 방법 및 그 장치를 제공하는 데 있다.
상기의 기술적 과제를 달성하기 위한, 본 발명의 실시 예에 따른 조직분석방법의 일 예는, 3차원 의료영상을 이용하여 2차원 의료영상과 조직의 3차원 크기, 체적 또는 무게 정보를 포함하는 학습데이터를 생성하는 단계; 상기 학습데이터를 이용하여, 복수의 조직이 동일평면에 중첩 표시된 2차원 의료영상에서 적어도 하나 이상의 정상 또는 질병 조직을 구분하여 3차원 크기, 체적 또는 무게를 구하는 인공지능모델을 학습시키는 단계; 및 X선 의료영상을 상기 인공지능모델에 입력하여 정상 또는 질병 조직의 3차원 크기, 체적 또는 무게를 구하는 단계;를 포함한다.
상기의 기술적 과제를 달성하기 위한, 본 발명의 실시 예에 따른 조직분석장치의 일 예는, 3차원 의료영상을 이용하여 2차원 의료영상과 3차원 조직의 크기, 체적 또는 무게 정보를 포함하는 학습데이터를 생성하는 학습데이터생성부; 상기 학습데이터를 이용하여, 복수의 조직이 동일평면에 중첩 표시된 2차원 의료영상에서 적어도 하나 이상의 정상 또는 질병 조직을 구분하여 3차원 크기, 체적 또는 무게를 구하는 인공지능모델 학습시키는 학습부; 및 X선 의료영상을 상기 인공지능모델에 입력하여 정상 또는 질병 조직의 3차원 크기, 체적 또는 무게를 구하는 체적산출부;를 포함한다.
본 발명의 실시 예에 따르면, 2차원 X선 의료영상으로부터 조직의 3차원 크기, 체적 또는 무게를 구할 수 있다. 또한, 2차원 X선 의료영상 인공지능모델은 3차원 의료영상에서 라벨링된 영상을 2차원으로 변환하여 정교하게 라벨링된 2차원 X선 의료영상을 학습데이터로 이용하여 학습하므로, 인공지능모델의 정확도를 향상시킬 수 있다. 다른 실시 예에 따르면, X선 의료영상으로부터 적어도 하나 이상의 조직을 구분한 영상을 생성할 수 있다.
도 1은 본 발명의 실시 예에 따른 의료영상 기반의 조직분석장치의 일 예를 간략하게 도시한 도면,
도 2는 본 발명의 실시 예에 따른 조직분석장치의 일 예의 구성을 도시한 도면,
도 3은 본 발명의 실시 예에 따른 학습데이터 생성 방법의 일 예를 도시한 도면,
도 4는 본 발명의 실시 예에 따른 3차원 의료영상의 일 예를 도시한 도면,
도 5 본 발명의 실시 예에 따른 3차원 의료영상를 차원 축소하는 방법의 일 예를 도시한 도면,
도 6은 본 발명의 실시 예에 따라 2차원 X선 의료영상으로부터 3차원 조직의 크기, 체적 또는 무게를 구하는 인공지능모델의 일 예를 도시한 도면,
도 7은 본 발명의 실시 예에 따른 인공지능모델의 다른 일 예를 도시한 도면, 그리고,
도 8은 본 발명의 실시 예에 따른 인체 조직의 크기, 체적 또는 무게를 구하는 방법의 일 예를 도시한 흐름도이다.
이하에서, 첨부된 도면들을 참조하여 본 발명의 실시 예에 따른 인체 조직 분석 방법 및 그 장치에 대해 상세히 살펴본다.
도 1은 본 발명의 실시 예에 따른 의료영상 기반의 조직분석장치의 일 예를 간략하게 도시한 도면이다.
도 1을 참조하면, 조직분석장치(100)는 X선 의료영상(110)을 입력받아 적어도 하나 이상의 조직으로 구성된 의료영상(또는 적어도 하나 이상의 조직이 제외된 의료영상)(120)을 출력하거나 또는 적어도 하나 이상의 조직에 대한 3차원 크기, 체적 또는 무게(130)의 분석결과를 출력한다. 여기서, '조직'이라고 함은 폐, 기관지, 근육, 지방, 심장, 혈관, 뼈 등과 같은 각종 장기, 종양 등의 병변, 또는 염증 영역 등 영상의학적으로 유의미하게 구분될 수 있는 모든 부위를 의미한다.
조직분석장치(100)는 X선 의료영상(110)으로부터 적어도 하나 이상의 조직에 대한 의료영상(120)을 출력하는 구성으로 구현되거나, 또는 X선 의료영상(110)으로부터 적어도 하나 이상의 조직에 대한 3차원 크기, 체적 또는 무게(130)를 분석하여 출력하는 구성으로 구현되거나, 또는 양자(120,130)를 모두 출력하는 구성으로 구현될 수 있다.
조직분석장치(100)는 X선 촬영장비와 같은 각종 의료장비나 의료시스템(예를 들어, PACS(Picture Archiving and Communication System))의 일부로 구현되거나 일반컴퓨터 또는 서버 등으로 구현될 수 있다. 예를 들어, 조직분석장치(100)는 소프트웨어로 구현되어 각종 의료장비나 의료 시스템에 내장되거나 휴대용 저장매체(예를 들어, USB(Universal Serial Bus) 메모리) 등)에 저장된 후 각종 의료장비나 의료시스템의 인터페이스에 연결하여 사용될 수 있다.
도 2는 본 발명의 실시 예에 따른 조직분석장치의 일 예의 구성을 도시한 도면이다.
도 2를 참조하면, 조직분석장치(100)는 학습데이터생성부(200), 학습부(210), 조직분할부(220) 및 체적산출부(230)를 포함한다. 실시 예에 따라 조직분석장치(100)는 조직분할부(220) 및 체적산출부(230) 중 어느 하나만을 포함할 수 있다. 다만, 이하에서는 설명의 편의를 위하여 조직분할부(220)와 체적산출부(230)를 모두 포함하는 경우에 대하여 설명한다. 다른 실시 예로, 조직분석장치(100)는 학습부(210) 대신에 학습이 완료된 인공지능모델을 포함할 수 있다.
학습데이터생성부(200)는 인공지능모델의 학습에 필요한 학습데이터를 생성한다. 인공지능모델은 2차원 X선 의료영상으로부터 적어도 하나 이상의 조직에 대한 의료영상(또는 적어도 하나 이상의 조직이 제거된 의료영상)을 생성하는 모델 및/또는 2차원 X선 의료영상으로부터 적어도 하나 이상의 조직에 대한 3차원 크기, 체적 또는 무게 등을 산출하는 모델일 수 있다. 따라서 본 실시 예의 인공지능모델의 학습을 위해서는 조직에 대한 분할 영상(또는 조직의 경계 및 밝기값 정보) 또는 조직에 대한 3차원 크기, 체적 또는 무게 등의 학습데이터가 필요하다.
해부학적 지식을 가진 사용자가 X선 의료영상에서 특정 조직의 영역을 일일이 구분하여 학습데이터를 생성할 수 있으나, 인공지능모델의 학습을 위해서는 수 많은 학습데이터가 필요한데 이를 사용자가 일일이 생성하는 것은 현실적으로 거의 불가능하다. 더구나, X선 의료영상은 다양한 조직이 중첩되어 표현되므로 단순히 밝기 등을 이용하여 각 조직의 영역을 구분할 경우에 조직 구분의 정확도가 떨어지는 문제점이 존재하며, X선 의료영상으로부터 조직의 3차원 크기, 체적 또는 무게에 대한 학습데이터를 생성할 수도 없다.
이에 본 실시 예는, 학습데이터를 3차원 의료영상으로부터 자동 생성하는 방법을 제시한다. 학습데이터생성부(200)가 3차원 의료영상을 이용하여 인공지능모델의 학습에 필요한 학습데이터를 생성하는 방법에 대해 도 3 내지 도 5에서 구체적으로 살펴본다.
학습부(210)는 학습데이터생성부(200)에 의해 생성된 학습데이터를 이용하여 인공지능모델을 학습시킨다. 인공지능모델은 CNN(Convolutional Neural Network), DenseNet, U-net, GoogLeNet, Generative adversarial network 등 다양한 아키텍처로 구현될 수 있다. 예를 들어, 인공지능모델이 CNN으로 구현되는 경우에, 인공지능모델은 학습데이터를 이용하여 인공 신경망의 연결 가중치를 조정하는 학습 과정을 수행한다. 실시 예에 따라 조직분석장치(100)는 인공지능모델을 하나 또는 복수 개 포함할 수 있다. 예를 들어, 조직분석장치(100)는 2차원 X선 의료영상으로부터 적어도 하나 이상의 조직에 대한 의료영상을 생성하는 인공지능모델과 2차원 X선 의료영상으로부터 적어도 하나 이상의 조직에 대한 3차원 크기, 체적 또는 무게를 산출하는 인공지능모델을 각각 포함하거나 이들을 하나로 통합한 인공지능모델을 포함할 수 있다. 인공지능모델의 다양한 구현 예가 도 6 및 도 7에 도시되어 있다.
조직분할부(220)는 2차원 X선 의료영상을 입력받으면 학습부(210)에 의해 학습된 인공지능모델을 이용하여 적어도 하나 이상의 정상 또는 질병 조직으로 구성되는 조직영상을 생성하여 출력한다. 조직영상은 X선 의료영상의 해당 조직의 경계(또는 면적)와 밝기 정보를 포함할 수 있다. 2차원 조직영상에서 밝기값은 해당 조직의 밀도를 반영한다. 예를 들어, 조직분할부(220)는 흉부에 대한 X선 의료영상을 입력받으면 인공지능모델을 이용하여 폐 조직으로만 구성된 조직영상을 생성하여 출력할 수 있다.
다른 실시 예로, 조직분할부(220)는 X선 의료영상에 포함된 복수의 조직을 구분하고 복수의 조직에 대한 각각의 조직영상을 생성하여 출력할 수 있다. 예를 들어, 흉부에 대한 X선 의료영상을 입력받으면, 조직분할부(220)는 인공지능모델을 이용하여 폐 조직에 대한 제1 조직영상, 종양 등의 병변에 대한 제2 조직영상 등 복수의 서로 다른 조직에 대한 각각의 조직영상을 생성하여 출력할 수 있다.
또 다른 실시 예로, 조직분할부(220)는 클라우드 시스템이나 컴퓨터의 저장공간에 저장된 X선 의료영상을 읽어 조직영상을 자동 생성하여 저장할 수 있다. 예를 들어, 조직분할부(220)는 기 지정된 저장장소(또는 디렉토리 등)에 새로운 X선 의료영상이 저장되면 X선 의료영상에 대한 조직영상을 생성하여 기 지정된 저장장소에 저장할 수 있다. 또는 조직분할부(220)는 인터넷 등을 통해 연결된 외부 단말로부터 X선 의료영상을 수신하면, X선 의료영상을 기초로 생성한 조직영상을 외부 단말로 전송할 수 있다. 실시 예에 따라, 외부 단말로부터 X선 의료영상을 수신하고 조직영상을 전송하기 위한 별도의 플랫폼이 존재할 수 있다.
체적산출부(230)는 2차원 X선 의료영상을 입력받으면 인공지능모델을 이용하여 적어도 하나 이상의 조직에 대한 3차원 크기, 체적 또는 무게를 산출한다. 예를 들어, 흉부에 대한 X선 의료영상을 입력받으면 체적산출부(230)는 학습부(210)에 의해 폐 관련 조직에 대한 3차원 크기, 체적 또는 무게를 구하도록 학습된 인공지능모델을 이용하여 폐 영역의 면적, 체적 또는 무게를 구하거나, 폐 영역에 존재하는 염증의 면적을 구하거나, 종양 등의 크기, 체적 또는 무게 등을 구할 수 있다. 다른 예로, 체적산출부(230)는 조직분할부(200)에서 구한 조직영상(또는 조직의 경계(또는 면적) 및 밝기값)을 인공지능모델에 입력하여 3차원 크기, 체적 또는 무게 등을 산출할 수 있다.
도 3은 본 발명의 실시 예에 따른 학습데이터 생성 방법의 일 예를 도시한 도면이다.
도 3을 참조하면, 학습데이터생성부(200)는 3차원 의료영상(300)을 이용하여 2차원 의료영상(310) 또는 조직의 크기나 체적 또는 무게(320) 등을 포함하는 학습데이터를 자동 생성한다. 3차원 의료영상(300)의 일 예가 도 3에 도시되어 있다.
먼저, X선 의료영상으로부터 적어도 하나 이상의 조직으로 구성된 조직영상 또는 적어도 하나 이상의 조직이 제거된 조직영상을 출력하는 인공지능모델의 학습에 필요한 학습데이터의 생성과정에 대해 살펴본다.
학습데이터생성부(200)는 3차원 의료영상에서 정상 또는 질병 조직을 분할한다. 예를 들어, 흉부 X선 의료영상에서 폐 조직으로만 구성된 조직영상을 출력하는 인공지능모델의 학습인 경우에, 학습데이터생성부(200)는 흉부에 대한 3차원 의료영상에서 폐 조직을 분할한다. 학습데이터생성부(200)는 종래의 다양한 영역분할 알고리즘을 이용하여 3차원 의료영상에서 특정 조직의 3차원 영역을 분할할 수 있다. 예를 들어, 학습데이터생성부(200)는 국내등록특허공보 제10-1482247호 "기도 추출 방법 및 그 장치", 국내등록특허공보 제10-1514003호 "폐엽 추출 방법 및 그 장치", 국내공개특허공보 제10-2018-0098984호 "의료영상의 영역 분리 방법 및 그 장치" 등에 기재된 분할 방법을 이용하여 3차원 의료영상에서 특정 조직의 영역을 분할할 수 있다.
학습데이터생성부(200)는 3차원 의료영상의 차원을 축소하여 X선 의료영상과 같은 2차원 의료영상(이하, 기본영상)을 생성하고, 또한 3차원 의료영상에서 분할한 조직을 차원 축소하여 2차원 의료영상(이하, 분할영상)을 생성한다. 예를 들어, 학습데이터생성부(200)는 흉부의 3차원 의료영상을 차원축소하여 흉부에 대한 2차원 기본영상을 생성하고, 3차원 의료영상에서 분할한 폐 영역을 차원축소한 2차원 분할영상을 생성할 수 있다. 3차원 의료영상을 차원 축소하는 방법의 일 예가 도 5에 도시되어 있다. 분할 영상은 분할된 조직의 경계(또는 면적) 및 밝기값 정보를 포함할 수 있다. 기본영상과 분할영상을 포함하는 학습데이터가 생성되면, 이후 학습부(210)는 이를 이용하여 인공지능모델을 학습시킨다.
다음으로, X선 의료영상으로부터 조직에 대한 3차원 크기, 체적 또는 무게를 산출하는 인공지능모델의 학습에 필요한 학습데이터 생성과정에 대해 살펴본다.
학습데이터생성부(200)는 3차원 의료영상에서 정상 또는 질병 조직을 분할하고, 해당 조직에 대한 3차원 크기, 체적 또는 무게 등을 구한다. 3차원 의료영상에서 분할한 조직에 대한 3차원 크기, 체적 또는 무게 등을 구하는 종래의 다양한 알고리즘이 본 실시 예에 적용될 수 있다. 학습데이터생성부(200)는 3차원 의료영상을 차원 축소하여 X선 의료영상과 같은 2차원 의료영상(즉, 기본영상)을 생성한다. 2차원 기본영상과 조직에 대한 3차원 크기, 체적 또는 무게를 포함하는 학습데이터가 생성되면, 이후 학습부(210)는 이를 이용하여 인공지능모델을 학습시킨다. 기본영상에는 다양한 조직에 대한 경계(또는 면적) 및 밝기값 정보가 포함되므로, 학습데이터생성부(200)는 기본영상 그 자체를 학습데이터로 생성하거나, 기본영상에서 파악되는 조직에 대한 경계(또는 면적) 및 밝기값 정보를 학습데이터로 생성하거나, 또는 기본영상과 영상 내 조직의 경계(또는 면적) 및 밝기값 정보를 함께 학습데이터로 생성할 수 있다.
다른 실시 예로, 학습데이터는 3차원 의료영상을 그대로 차원축소한 기본영상이 아닌 3차원 크기, 체적 또는 무게 등을 구하고자 하는 조직에 대한 2차원 의료영상(즉, 분할영상)을 포함할 수 있다. 이 경우, 학습부(210)는 조직에 대한 분할영상과 그 조직의 3차원 크기, 체적 또는 무게 등을 포함하는 학습데이터를 이용하여 인공지능모델을 학습시킬 수 있다. 이때, 분할영상에는 조직에 대한 경계(또는 면적) 및 밝기값 정보가 포함되므로, 학습데이터생성부(200)는 분할영상 그 자체를 학습데이터로 생성하거나, 분할영상에서 파악되는 조직에 대한 경계(또는 면적) 및 밝기값 정보를 학습데이터로 생성하거나, 또는 분할영상과 조직의 경계(또는 면적) 및 밝기값 정보를 함께 학습데이터로 생성할 수 있다. 이하에서, 인공지능모델에 입력되는 2차원 의료영상(예를 들어, 기본영상, 분할영상 또는 조직영상 등)이라고 함은 실시 예에 따라 영상 그 자체이거나 영상에 포함된 조직의 경계(또는 면적) 및 밝기값 정보이거나 또는 이 둘을 모두 포함하는 개념으로 해석될 수 있다.
또 다른 예로, 학습데이터는 기본영상과 분할영상, 그리고 조직의 3차원 크기, 체적 또는 무게 등으로 구성될 수도 있다. 또 다른 실시 예로, 학습데이터는 적어도 둘 이상의 서로 다른 방향의 2차원 의료영상(기본영상 또는 분할영상)과 조직의 3차원 크기, 체적 또는 무게 정보로 구성될 수 있으며 이에 대한 예가 도 6에 도시되어 있다.
본 실시 예는 설명의 편의를 위하여 조직영상을 출력하는 인공지능모델과 조직의 3차원 크기, 체적 또는 무게를 출력하는 인공지능모델의 학습데이터 생성과정을 각각 설명하고 있으나, 하나의 인공지능모델이 조직영상과 조직의 3차원 크기, 체적 또는 무게 등을 모두 출력할 수 있으며, 이 경우 학습데이터생성부(200)는 기본영상과 분할영상, 그리고 조직의 3차원 크기, 체적 또는 무게 등을 포함하는 학습데이터를 한 번에 생성할 수 있다. 다른 실시 예로, 조직분석장치(100)는 조직 영상을 출력하는 제1 인공지능모델과 조직의 3차원 크기, 체적 또는 무게 등을 출력하는 제2 인공지능모델을 각각 포함할 수 있으며, 이에 대한 예가 도 7에 도시되어 있다.
도 4는 본 발명의 실시 예에 따른 3차원 의료영상의 일 예를 도시한 도면이다.
도 4를 참조하면, CT 등의 3차원 의료영상(400)은 일정 간격(d)으로 촬영된 복수 개의 x-y 단면 영상으로 구성될 수 있다. 3차원 의료영상(400)은 밝기를 나타내는 3차원 복셀(voxel)로 구성되며, DICOM(Digital Imaging and Communication in Medicine) 파일로 저장될 수 있다.
도 5 본 발명의 실시 예에 따른 3차원 의료영상를 차원 축소하는 방법의 일 예를 도시한 도면이다.
도 5를 참조하면, 3차원 의료영상은 밝기값을 포함하는 복셀(500,502,504,506,508,510,512,514)로 구성된다. 본 실시 예는 설명의 편의를 위하여 3차원 의료영상에 대한 8개의 복셀만(500,502,504,506,508,510,512,514)을 도시하고 있다.
학습데이터생성부(200)는 3차원 의료영상을 2차원 의료영상으로 차원 축소하기 위하여 3차원 의료영상을 일정 방향으로 가상평면(520,530)에 투영한다. 가상평면(520,530)에 투영된 영상이 2차원 의료영상이 된다. 이때, 학습데이터생성부(200)는 투영 방향으로 중첩되는 복셀의 밝기값을 평균하여 2차원 의료영상의 밝기값을 생성한다. 즉, X선 의료영상은 X선 투과방향에 위치한 적어도 하나 이상의 조직에 의해 그 밝기값이 좌우되므로, 본 실시 예는 3차원 의료영상으로부터 X선 의료영상과 같이 각 조직에 대한 영향이 반영된 2차원 의료영상을 생성하기 위하여 투영 방향에 대해 중첩되는 복셀들의 밝기값을 평균하여 2차원 의료영상의 각 픽셀의 밝기값을 구한다.
예를 들어, 가상의 촬영방향(즉, 투영 방향)이 X축과 평행하다면, 학습데이터생성부(200)는 투영 방향으로 중첩되는 제1 복셀(500)과 제2 복셀(506)의 밝기값을 평균하여 가상평면(520)에 투영된 2차원 의료영상의 제1 픽셀(522)의 밝기값을 생성한다. 이와 같은 방법으로, 학습데이터생성부(200)는 제3,4 복셀(502,504)의 밝기값을 평균하여 제2 픽셀(524)의 밝기값을 생성하고, 제5,6 복셀(508,514)의 밝기값을 평균하여 제3 픽셀(528)의 밝기값을 생성하고, 제7,8 복셀(510,512)의 밝기값을 평균하여 제4 픽셀(526)의 밝기값을 생성할 수 있다.
실시 예에 따라, 학습데이터생성부(200)는 하나의 3차원 영상에 대해 다양한 투영 방향에 대한 2차원 영상을 생성할 수 있다. 예를 들어, 가상의 촬영방향이 Z축과 평행하다면, 학습데이터생성부(200)는 Z축 방향으로 중첩되는 각 복셀(500,502,504,506,508,510,512,514)의 밝기값을 평균하여 가상평면(530)에 투영된 각 픽셀(532,534,536,538)의 밝기값을 구하여 2차원 의료영상을 생성할 수 있다.
도 6은 본 발명의 실시 예에 따라 X선 의료영상으로부터 조직의 크기, 체적 또는 무게를 구하는 인공지능모델의 일 예를 도시한 도면이다.
도 6을 참조하면, 조직분석장치(100)의 학습부(210)는 정상 또는 질병 조직에 대한 서로 다른 방향의 적어도 둘 이상의 의료영상 및 조직의 3차원 크기, 체적 또는 무게를 포함하는 학습데이터를 이용하여 인공지능모델(600)을 학습시킬 수 있다. 예를 들어, 학습데이터를 구성하는 서로 다른 방향의 2차원 의료영상은 도 5의 예에서 3차원 의료영상을 X축 방향으로 투영한 2차원 의료영상(또는 X축 방향으로 투영하여 생성한 영역의 경계(또는 면적) 및 밝기값 정보)과 Z축 방향으로 투영한 2차원 의료영상(또는 Z축 방향으로 투영하여 생성한 영역의 경계(또는 면적) 및 밝기값 정보)일 수 있다. 여기서, 2차원 의료영상은 도 3에서 살핀 기본영상이거나 분할영상일 수 있다.
인공지능모델(600)은 적어도 둘 이상의 서로 다른 방향의 2차원 의료영상(또는 경계(또는 면적) 및 밝기값 정보)을 포함하는 학습데이터를 입력받으면 조직의 3차원 크기, 체적 또는 무게 등을 예측하여 출력한다. 인공지능모델(600)은 예측된 크기, 체적 또는 무게와 학습데이터에 포함된 조직의 크기, 체적 또는 무게를 비교하여 인공지능모델의 연결 가중치 등을 조정하는 학습 과정을 수행한다.
인공지능모델(600)에 대한 학습이 완료되면, 조직분석장치(100)의 체적산출부(230)는 적어도 둘 이상의 서로 다른 방향에서 촬영된 X선 의료영상을 인공지능모델에 입력하여 특정 조직에 대한 3차원 크기, 체적 또는 무게 등을 파악할 수 있다. 예를 들어, 체적산출부(230)는 흉부에 대한 정면 방향의 X선 의료영상과 측면 방향의 X선 의료영상을 입력받으면 이를 학습 완료된 인공지능모델(600)에 입력하여 폐 영역(또는 병변이나 염증 등) 등의 크기, 체적 또는 무게 등을 파악할 수 있다. 체적은 공간의 크기를 나타내는 물리량이므로 어느 한 방향에서 촬영된 X선 의료영상으로 조직의 체적을 구하는 것보다 적어도 둘 이상의 방향에 촬영된 X선 의료영상으로 조직의 체적을 구하는 것이 보다 정확할 수 있다.
다른 실시 예로, 조직분석장치(100)는 서로 다른 방향의 적어도 둘 이상의 X선 의료영상을 입력받으면, 이를 기초로 3차원 조직 영상을 출력할 수 있다. 이를 위해, 조직분석장치(100)는 3차원 의료영상을 이용하여 서로 다른 방향의 적어도 둘 이상의 2차원 의료영상과 조직의 3차원 영상을 포함하는 학습데이터를 생성하고 이를 이용하여 인공지능모델(600)을 학습시킬 수 있다. 예를 들어, 흉부에 대한 정면과 측면의 X선 의료영상을 입력받으면, 조직분석장치(100)는 학습 완료된 인공지능모델(600)을 이용하여 폐 영역에 대한 3차원 의료영상을 생성할 수 있다.
도 7은 본 발명의 실시 예에 따른 인공지능모델의 다른 일 예를 도시한 도면이다.
도 7을 참조하면, 조직분석장치(100)는 조직 영상을 출력하는 제1 인공지능모델(700)과 조직의 체적, 크기 또는 무게를 출력하는 제2 인공지능모델(710)을 포함한다.
제1 인공지능모델(700)은 도 3에서 살핀 기본영상 및 분할영상을 이용하여 적어도 하나 이상의 조직에 대한 영상(즉, 조직영상)을 출력하도록 학습시킨 인공지능모델이다. 즉, 학습이 완료된 제1 인공지능모델(700)은 2차원 X선 의료영상을 입력받으면 X선 의료영상으로부터 특정 조직을 구분하고 특정 조직만을 포함하는 조직영상(및/또는 경계(또는 면적) 및 밝기값 정보)을 출력하거나 또는 X선 의료영상에서 특정 조직만을 제외한 조직영상(및/또는 경계(또는 면적) 및 밝기값 정보)을 출력할 수 있다.
제2 인공지능모델(710)은 2차원 의료영상과 조직의 3차원 크기, 체적 또는 무게를 포함하는 학습데이터를 이용하여 학습시킨 인공지능모델이다. 2차원 의료영상은 제1 인공지능모델으로부터 출력되는 조직영상(및/또는 경계(또는 면적) 및 밝기값 정보)일 수 있다. 예를 들어, 학습이 완료된 제1 인공지능모델(700)이 X선 의료영상을 입력받아 조직영상을 출력하면, 학습이 완료된 제2 인공지능모델(710)은 제1 인공지능모델(700)로부터 수신한 조직영상으로부터 조직의 3차원 크기, 체적 또는 무게를 파악하여 출력할 수 있다.
도 8은 본 발명의 실시 예에 따른 인체 조직의 크기, 체적 또는 무게를 구하는 방법의 일 예를 도시한 흐름도이다.
도 8을 참조하면, 조직분석장치(100)는 3차원 의료영상을 이용하여 2차원 의료영상과 조직의 크기, 체적 또는 무게 정보를 포함하는 학습데이터를 생성한다(S800). 학습데이터는 어느 한 방향의 2차원 의료영상을 포함하거나 도 6과 같이 적어도 둘 이상의 2차원 의료영상을 포함할 수 있다. 다른 예로, 학습데이터에 포함되는 2차원 의료영상은 도 3에서 살핀 기본영상이거나 분할영상일 수 있다.
조직분석장치(100)는 학습데이터를 이용하여, 복수의 조직이 동일평면에 중첩 표시된 2차원 의료영상에서 적어도 하나 이상의 조직을 구분하여 크기, 체적 또는 무게를 구하는 인공지능모델을 학습시킨다(S810). 다른 예로, 학습데이터가 서로 다른 방향의 적어도 둘 이상의 2차원 의료영상을 포함한다면, 서로 다른 방향의 2차원 의료영상과 조직의 크기, 체적 또는 무게 정보를 이용하여 인공지능모델을 학습시킬 수 있다. 또 다른 예로, 조직분석장치(100)는 도 7과 같이 복수의 조직이 동일평면에 중첩 표시된 2차원 의료영상에서 적어도 하나 이상의 조직을 구분하는 제1 인공지능모델과 구분된 조직의 3차원 크기, 체적 또는 무게를 구하는 제2 인공지능모델이 순차적으로 연결된 모델을 학습시킬 수 있다.
조직분석장치(100)는 X선 의료영상을 학습이 완료된 인공지능모델에 입력하여 조직의 3차원 크기, 체적 또는 무게를 구한다(S820). 인공지능모델이 서로 다른 방향의 적어도 둘 이상의 2차원 의료영상을 기초로 학습된 모델이면, 조직분석장치(100)는 서로 다른 방향의 적어도 둘 이상의 X선 의료영상을 인공지능모델에 입력하여 조직의 3차원 크기, 체적 또는 무게를 구할 수 있다. 다른 실시 예로, 조직분석장치(100)는 서로 다른 방향의 적어도 둘 이상의 2차원 X선 의료영상을 인공지능모델에 입력하여 3차원 영상을 생성할 수 있다. 또 다른 실시 예로, 조직분석장치(100)는 인공지능모델을 이용하여 2차원 X선 의료영상에 포함된 복수의 조직을 분할한 복수의 2차원 또는 3차원 조직영상을 생성할 수 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (10)

  1. 3차원 의료영상을 이용하여 2차원 의료영상과 조직의 3차원 크기, 체적 또는 무게 정보를 포함하는 학습데이터를 생성하는 단계;
    상기 학습데이터를 이용하여, 복수의 조직이 동일평면에 중첩 표시된 2차원 의료영상에서 적어도 하나 이상의 정상 또는 질병 조직을 구분하여 3차원 크기, 체적 또는 무게를 구하는 인공지능모델을 학습시키는 단계; 및
    X선 의료영상을 상기 인공지능모델에 입력하여 정상 또는 질병 조직의 3차원 크기, 체적 또는 무게를 구하는 단계;를 포함하는 것을 특징으로 하는 조직분석방법.
  2. 제 1항에 있어서,
    상기 학습데이터를 생성하는 단계는, 상기 3차원 의료영상을 이용하여 상기 조직에 대한 서로 다른 방향의 2차원 의료영상을 생성하는 단계;를 포함하고,
    상기 인공지능모델을 학습시키는 단계는, 상기 서로 다른 방향의 2차원 의료영상과 상기 조직의 3차원 크기, 체적 또는 무게 정보를 이용하여 상기 인공지능모델을 학습시키는 단계;를 포함하는 것을 특징으로 하는 조직분석방법.
  3. 제 2항에 있어서, 상기 조직의 크기, 체적 또는 무게를 구하는 단계는,
    서로 다른 방향에서 촬영된 적어도 둘 이상의 X선 의료영상을 입력받는 단계; 및
    상기 적어도 둘 이상의 X선 의료영상을 상기 인공지능모델에 입력하는 단계;를 포함하는 것을 특징으로 하는 조직분석방법.
  4. 제 1항에 있어서, 상기 인공지능모델을 학습시키는 단계는,
    복수의 조직이 동일평면에 중첩 표시된 2차원 의료영상에서 적어도 하나 이상의 조직을 구분하도록 제1 인공지능모델을 학습시키는 단계; 및
    상기 제1 인공지능모델을 통해 구분된 조직의 3차원 크기, 체적 또는 무게를 구하는 제2 인공지능모델을 학습시키는 단계;를 포함하는 것을 특징으로 하는 조직분석방법.
  5. 제 1항에 있어서,
    상기 인공지능모델을 이용하여 상기 X선 영상에 포함된 복수의 조직을 분할한 복수의 조직영상을 생성하는 단계;를 더 포함하는 것을 특징으로 하는 조직분석방법.
  6. 3차원 의료영상을 이용하여 2차원 의료영상과 조직의 3차원 크기, 체적 또는 무게 정보를 포함하는 학습데이터를 생성하는 학습데이터생성부;
    상기 학습데이터를 이용하여, 복수의 조직이 동일평면에 중첩 표시된 2차원 의료영상에서 적어도 하나 이상의 정상 또는 질병 조직을 구분하여 3차원 크기, 체적 또는 무게를 구하는 인공지능모델 학습시키는 학습부; 및
    X선 의료영상을 상기 인공지능모델에 입력하여 정상 또는 질병 조직의 3차원 크기, 체적 또는 무게를 구하는 체적산출부;를 포함하는 것을 특징으로 하는 조직분석장치.
  7. 제 6항에 있어서,
    상기 학습데이터생성부는, 상기 3차원 의료영상으로부터 상기 조직에 대한 서로 다른 방향의 2차원 의료영상을 생성하고,
    상기 학습부는, 상기 서로 다른 방향의 2차원 의료영상과 상기 조직의 3차원 크기, 체적 또는 무게 정보를 이용하여 상기 인공지능모델을 학습시키는 것을 특징으로 조직분석장치.
  8. 제 7항에 있어서, 상기 체적산출부는,
    서로 다른 방향에서 촬영된 적어도 둘 이상의 X선 의료영상을 상기 인공지능모델에 입력하여 조직의 3차원 크기, 체적 또는 무게를 산출하는 것을 특징으로 하는 조직분석장치.
  9. 제 6항에 있어서,
    상기 인공지능모델을 이용하여 상기 X선 영상에 포함된 복수의 조직을 분할한 복수의 조직영상을 생성하는 조직분할부;를 더 포함하는 것을 특징으로 하는 조직분석장치.
  10. 제 1항에 기재된 방법을 수행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
PCT/KR2021/004175 2020-07-06 2021-04-05 의료영상을 기초로 인체 조직을 분석하는 방법 및 그 장치 WO2022010075A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/793,638 US20230048734A1 (en) 2020-07-06 2021-04-05 Method for analyzing human tissue on basis of medical image and device thereof
EP21838200.0A EP4085841A4 (en) 2020-07-06 2021-04-05 METHOD FOR ANALYZING HUMAN TISSUE BASED ON MEDICAL IMAGES AND APPARATUS THEREOF

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200083047A KR102387928B1 (ko) 2020-07-06 2020-07-06 의료영상을 기초로 인체 조직을 분석하는 방법 및 그 장치
KR10-2020-0083047 2020-07-06

Publications (1)

Publication Number Publication Date
WO2022010075A1 true WO2022010075A1 (ko) 2022-01-13

Family

ID=79342174

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/004175 WO2022010075A1 (ko) 2020-07-06 2021-04-05 의료영상을 기초로 인체 조직을 분석하는 방법 및 그 장치

Country Status (4)

Country Link
US (1) US20230048734A1 (ko)
EP (1) EP4085841A4 (ko)
KR (1) KR102387928B1 (ko)
WO (1) WO2022010075A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102566183B1 (ko) * 2022-05-23 2023-08-10 가천대학교 산학협력단 골반 자동 계측에 대한 정보 제공 방법 및 이를 이용한 장치
KR102569573B1 (ko) * 2022-11-28 2023-08-24 메디컬아이피 주식회사 폐 용적 검사 방법 및 그 장치

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120086084A (ko) * 2011-01-25 2012-08-02 삼성전자주식회사 3차원 의료 영상으로부터 최적의 2차원 의료 영상을 자동으로 생성하는 방법 및 장치
KR101482247B1 (ko) 2013-08-01 2015-01-14 서울대학교산학협력단 기도 추출 방법 및 그 장치
KR101514003B1 (ko) 2013-10-17 2015-04-24 서울대학교산학협력단 폐엽 추출 방법 및 그 장치
US20170372475A1 (en) * 2016-06-23 2017-12-28 Siemens Healthcare Gmbh Method and System for Vascular Disease Detection Using Recurrent Neural Networks
KR20180098984A (ko) 2017-02-28 2018-09-05 메디컬아이피 주식회사 의료영상의 영역 분리 방법 및 그 장치
KR101981202B1 (ko) * 2018-12-11 2019-05-22 메디컬아이피 주식회사 의료영상 재구성 방법 및 그 장치
KR20190125592A (ko) * 2018-04-30 2019-11-07 주식회사 실리콘사피엔스 의료 영상을 이용하여 혈관의 3차원 형상을 생성하기 위한 세그멘테이션 방법
KR102044237B1 (ko) * 2018-10-23 2019-11-13 연세대학교 산학협력단 2차원 음영 영상 기반 기계학습을 이용한 자동 3차원 랜드마크 검출 방법 및 장치

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4982091B2 (ja) * 2006-02-28 2012-07-25 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 放射線断層撮影装置
US11534136B2 (en) * 2018-02-26 2022-12-27 Siemens Medical Solutions Usa, Inc. Three-dimensional segmentation from two-dimensional intracardiac echocardiography imaging
WO2020114632A1 (en) * 2018-12-05 2020-06-11 Siemens Healthcare Gmbh Three-dimensional shape reconstruction from a topogram in medical imaging
JP7514252B2 (ja) * 2018-12-24 2024-07-10 ボディ コンポジション テクノロジーズ プロプライアタリー リミテッド ボディの分析
CN112825619A (zh) * 2019-09-20 2021-05-21 博医来股份公司 使用数字重建放射影像训练机器学习算法
EP3828818A1 (en) * 2019-11-29 2021-06-02 Siemens Healthcare GmbH Method and system for identifying pathological changes in follow-up medical images
US11386592B2 (en) * 2019-12-20 2022-07-12 Varian Medical Systems International Ag Tomographic image analysis using artificial intelligence (AI) engines

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120086084A (ko) * 2011-01-25 2012-08-02 삼성전자주식회사 3차원 의료 영상으로부터 최적의 2차원 의료 영상을 자동으로 생성하는 방법 및 장치
KR101482247B1 (ko) 2013-08-01 2015-01-14 서울대학교산학협력단 기도 추출 방법 및 그 장치
KR101514003B1 (ko) 2013-10-17 2015-04-24 서울대학교산학협력단 폐엽 추출 방법 및 그 장치
US20170372475A1 (en) * 2016-06-23 2017-12-28 Siemens Healthcare Gmbh Method and System for Vascular Disease Detection Using Recurrent Neural Networks
KR20180098984A (ko) 2017-02-28 2018-09-05 메디컬아이피 주식회사 의료영상의 영역 분리 방법 및 그 장치
KR20190125592A (ko) * 2018-04-30 2019-11-07 주식회사 실리콘사피엔스 의료 영상을 이용하여 혈관의 3차원 형상을 생성하기 위한 세그멘테이션 방법
KR102044237B1 (ko) * 2018-10-23 2019-11-13 연세대학교 산학협력단 2차원 음영 영상 기반 기계학습을 이용한 자동 3차원 랜드마크 검출 방법 및 장치
KR101981202B1 (ko) * 2018-12-11 2019-05-22 메디컬아이피 주식회사 의료영상 재구성 방법 및 그 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4085841A4

Also Published As

Publication number Publication date
KR102387928B1 (ko) 2022-04-19
EP4085841A4 (en) 2024-03-20
US20230048734A1 (en) 2023-02-16
EP4085841A1 (en) 2022-11-09
KR20220005326A (ko) 2022-01-13

Similar Documents

Publication Publication Date Title
WO2020122357A1 (ko) 의료영상 재구성 방법 및 그 장치
CN109035234B (zh) 一种结节检测方法、装置和存储介质
US8605978B2 (en) Medical image processing apparatus and method, and computer readable recording medium on which is recorded program for the same
KR101898575B1 (ko) 진행성 병변에 대한 미래 상태를 예측하는 방법 및 이를 이용한 장치
US8483467B2 (en) Medical image diagnosis assisting apparatus and method, and computer readable recording medium on which is recorded program for the same
EP3561768B1 (en) Visualization of lung fissures in medical imaging
WO2019143177A1 (ko) 일련의 슬라이스 영상을 재구성하는 방법 및 이를 이용한 장치
WO2022010075A1 (ko) 의료영상을 기초로 인체 조직을 분석하는 방법 및 그 장치
WO2019143021A1 (ko) 영상의 열람을 지원하는 방법 및 이를 이용한 장치
US20240274276A1 (en) Apparatus and method for medical image reading assistant providing representative image based on medical use artificial neural network
WO2019143179A1 (ko) 동일 피사체에 대하여 시간 간격을 두고 촬영된 영상 간에 동일 관심구역을 자동으로 검출하는 방법 및 이를 이용한 장치
WO2019124836A1 (ko) 제1 의료 영상의 관심 영역을 제2 의료 영상 위에 맵핑하는 방법 및 이를 이용한 장치
WO2020235461A1 (ja) 異常検出方法、異常検出プログラム、異常検出装置、サーバ装置及び情報処理方法
WO2020263002A1 (ko) 혈관 세그멘테이션 방법
KR102569573B1 (ko) 폐 용적 검사 방법 및 그 장치
EP4407554A1 (en) Medical image diagnostics assistance device, medical image diagnostics assistance method, and program
KR102136107B1 (ko) 뼈 감쇄된 x-선 영상의 정합 장치 및 방법
EP4462358A1 (en) Method and apparatus for improving performance of deep learning model
CN115953406B (zh) 用于医学图像配准的匹配方法、装置、设备及可读介质
US20240378724A1 (en) Method and apparatus for improving performance of deep learning model
KR102321428B1 (ko) 병변 파악 방법 및 그 장치
KR20240039556A (ko) 의료영상 변환방법 및 그 장치
US20220398752A1 (en) Medical image registration method and apparatus
US20240378725A1 (en) Medical image diagnostics assistance device, medical image diagnostics assistance method, and program
WO2023085910A1 (ko) 적대적 생성 신경망을 이용한 영상 학습 방법, 장치, 프로그램 및 기록매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21838200

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021838200

Country of ref document: EP

Effective date: 20220801

NENP Non-entry into the national phase

Ref country code: DE