KR20220060127A - Method for predicting prognosis based on deep-learning and apparatus thereof - Google Patents
Method for predicting prognosis based on deep-learning and apparatus thereof Download PDFInfo
- Publication number
- KR20220060127A KR20220060127A KR1020200145719A KR20200145719A KR20220060127A KR 20220060127 A KR20220060127 A KR 20220060127A KR 1020200145719 A KR1020200145719 A KR 1020200145719A KR 20200145719 A KR20200145719 A KR 20200145719A KR 20220060127 A KR20220060127 A KR 20220060127A
- Authority
- KR
- South Korea
- Prior art keywords
- deep learning
- class
- region
- stroma
- prognostic
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G06N3/0427—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Biomedical Technology (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Pathology (AREA)
- Databases & Information Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Investigating Or Analysing Biological Materials (AREA)
- Image Analysis (AREA)
- Measuring Or Testing Involving Enzymes Or Micro-Organisms (AREA)
Abstract
Description
본 개시는 딥러닝 기반 예후 예측 방법 및 그 장치에 관한 것이다. 보다 자세하게는, 딥러닝 모델을 이용하여 대상암(target cancer)의 예후 및/또는 예후인자를 예측할 수 있는 방법 및 그 방법을 수행하는 장치에 관한 것이다.The present disclosure relates to a deep learning-based prognostic prediction method and an apparatus therefor. More particularly, it relates to a method capable of predicting a prognosis and/or a prognostic factor of a target cancer using a deep learning model, and an apparatus for performing the method.
대장암(colorectal cancer; CRC)은 전 세계적으로 세 번째로 흔한 암이자 암 관련 사망의 두 번째 주요 원인으로, 향후 대장암에 관한 진단 및 치료 기술의 중요성이 지속적으로 증가할 것으로 예상된다.Colorectal cancer (CRC) is the third most common cancer worldwide and the second leading cause of cancer-related death.
대장암에서 림프절 전이(lymph node metastasis; LNM)는 환자의 질병 재발 가능성, 생존 가능성, 치료 방법 등을 예측하기 위한 중요한 예후인자(prognostic factor)이다. 가령, 림프절 전이 여부를 통해 초기 단계의 환자들이 국소 내시경 치료 후 추가 수술을 받아야 하는지 여부, 수술적 절제 후 보조 항암화학요법 사용이 필요한지 여부 등이 판단될 수 있다.In colorectal cancer, lymph node metastasis (LNM) is an important prognostic factor for predicting a patient's disease recurrence, survival, and treatment methods. For example, the presence or absence of lymph node metastasis can determine whether early stage patients need additional surgery after local endoscopic treatment, and whether adjuvant chemotherapy is needed after surgical resection.
그런데, 현재의 임상의들은 초음파, 컴퓨터단층촬영(CT) 등의 제한된 검사에 근거한 결절 상태 평가, 가벼운 현미경 검사 결과 및 주관적인 경험 경험을 바탕으로 림프절 전이 여부를 추정하여, 중요한 치료 결정을 하고 있다. 그러나, 이러한 병리학적 검사(pathological examination)만으로는 대장암 환자의 림프절 전이 여부를 정확하게 예측하기 어렵다. 가령, 병리학적 검사를 통해 마이크로(micro) 단위의 림프절 전이를 예측하는 것은 거의 불가능하다. 게다가, 경험이 부족한 임상의들은 예측의 어려움으로 인해 잘못된 치료 결정을 내릴 수도 있다.However, current clinicians are making important treatment decisions by estimating lymph node metastasis based on the evaluation of nodule status based on limited tests such as ultrasound and computed tomography (CT), light microscopic examination results, and subjective experience. However, it is difficult to accurately predict whether or not lymph node metastasis in a colorectal cancer patient is achieved only by such pathological examination. For example, it is almost impossible to predict micro-scale lymph node metastasis through pathological examination. Moreover, inexperienced clinicians may make erroneous treatment decisions due to the difficulty of prediction.
본 개시의 몇몇 실시예들을 통해 해결하고자 하는 기술적 과제는, 딥러닝 모델을 이용하여 대상암의 예후 및/또는 예후인자를 예측할 수 있는 방법 및 그 방법을 수행하는 장치를 제공하는 것이다.A technical problem to be solved through some embodiments of the present disclosure is to provide a method capable of predicting a prognosis and/or a prognostic factor of a target cancer using a deep learning model, and an apparatus for performing the method.
본 개시의 몇몇 실시예들을 통해 해결하고자 하는 다른 기술적 과제는, 대상암의 예후 및/또는 예후인자를 정확하게 예측할 수 있는 지표를 제공하는 것이다.Another technical problem to be solved through some embodiments of the present disclosure is to provide an index capable of accurately predicting a prognosis and/or a prognostic factor of a target cancer.
본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present disclosure are not limited to the above-mentioned technical problems, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.
상기 기술적 과제를 해결하기 위한, 본 개시의 몇몇 실시예들에 따른 딥러닝 기반 예후 예측 방법은, 컴퓨팅 장치에서 딥러닝 기반으로 대상암의 예후를 예측하는 방법으로서, 상기 대상암의 환자에 대한 병리 이미지를 획득하는 단계, 딥러닝 모델을 이용하여 상기 병리 이미지에 대해 시맨틱 세그먼테이션(semantic segmentation)을 수행하되, 세그먼테이션 클래스는 암클래스 및 스트로마클래스를 포함하는 것인, 단계 및 상기 시맨틱 세그먼테이션의 결과에 기초하여 상기 환자의 예후 또는 예후인자를 예측하는 단계를 포함할 수 있다.In order to solve the above technical problem, a deep learning-based prognosis prediction method according to some embodiments of the present disclosure is a method for predicting the prognosis of a target cancer based on deep learning in a computing device, and the pathology of the target cancer patient Acquiring an image, performing semantic segmentation on the pathological image using a deep learning model, wherein the segmentation class includes an arm class and a stroma class, and based on the result of the semantic segmentation to predict the patient's prognosis or prognostic factors.
몇몇 실시예들에서, 상기 딥러닝 모델은 다운샘플링을 수행하는 인코더와 업샘플링을 수행하는 디코더를 포함할 수 있다.In some embodiments, the deep learning model may include an encoder that performs downsampling and a decoder that performs upsampling.
몇몇 실시예들에서, 학습용 이미지 패치를 이용하여 상기 딥러닝 모델을 학습시키는 단계를 더 포함하되, 상기 학습시키는 단계는, 상기 학습용 이미지 패치의 크기가 상기 딥러닝 모델의 입력 조건에 부합하는지 여부를 판단하는 단계, 부합하지 않는다는 판단에 응답하여, 상기 학습용 이미지 패치에 대해 미러 패딩(mirror padding)을 수행하는 단계 및 상기 미러 패딩된 학습용 이미지 패치를 이용하여 상기 딥러닝 모델을 학습시키는 단계를 포함할 수 있다.In some embodiments, further comprising the step of training the deep learning model using an image patch for training, wherein the training includes whether the size of the image patch for training meets the input condition of the deep learning model. Determining, in response to the determination that does not match, performing mirror padding on the image patch for training and training the deep learning model using the mirror-padded image patch for training. can
몇몇 실시예들에서, 상기 환자의 예후 또는 예후인자를 예측하는 단계는, 상기 시맨틱 세그먼테이션의 결과 이미지에서 암영역과 스트로마영역을 결정하는 단계, 상기 암영역과 상기 스트로마영역의 비율을 기초로 예측지표점수를 산출하는 단계 및 상기 예측지표점수에 기초하여 상기 환자의 예후 또는 예후인자를 예측하는 단계를 포함할 수 있다.In some embodiments, the predicting of the prognosis or prognostic factor of the patient may include determining a dark region and a stromal region from the result image of the semantic segmentation, and a predictive index based on a ratio of the dark region and the stromal region. It may include calculating a score and predicting a prognosis or prognostic factor of the patient based on the predictive index score.
몇몇 실시예들에서, 상기 예측지표점수를 산출하는 단계는, 상기 암영역의 픽셀수와 상기 스트로마영역의 픽셀수의 비율에 기초하여 상기 예측지표점수를 산출하는 단계를 포함할 수 있다.In some embodiments, calculating the prediction index score may include calculating the prediction index score based on a ratio of the number of pixels in the dark region to the number of pixels in the stroma region.
몇몇 실시예들에서, 상기 암영역과 스트로마영역을 결정하는 단계는, 상기 결과 이미지에서 상기 암클래스와 상기 스트로마클래스에 대응되는 영역을 추출하는 단계, 상기 추출된 영역에 대해 침식(erosion) 연산 및 팽창(dilation) 연산을 포함하는 모폴로지(morphology) 연산을 수행하는 단계 및 상기 모폴로지 연산의 결과에 기초하여 상기 암영역과 상기 스트로마영역을 결정하는 단계를 포함할 수 있다.In some embodiments, the determining of the dark region and the stroma region may include extracting a region corresponding to the dark class and the stroma class from the result image, performing an erosion operation on the extracted region, and It may include performing a morphology operation including a dilation operation and determining the dark region and the stroma region based on a result of the morphology operation.
몇몇 실시예들에서, 상기 예후인자는 림프절 전이 여부를 포함할 수 있다.In some embodiments, the prognostic factor may include whether lymph node metastasis.
몇몇 실시예들에서, 상기 대상암은 대장암일 수 있다.In some embodiments, the target cancer may be colorectal cancer.
상술한 기술적 과제를 해결하기 위한 본 개시의 몇몇 실시예들에 따른 예후 예측 장치는, 하나 이상의 인스트럭션들(instructions)을 저장하는 메모리, 상기 하나 이상의 인스트럭션들을 실행함으로써, 대상암의 환자에 대한 병리 이미지를 획득하고, 딥러닝 모델을 이용하여 상기 병리 이미지에 대해 시맨틱 세그먼테이션(semantic segmentation)을 수행하며, 상기 시맨틱 세그먼테이션의 결과에 기초하여 상기 환자의 예후 또는 예후인자를 예측하는 프로세서를 포함할 수 있다. 이때, 상기 시맨틱 세그먼테이션의 대상 클래스는 암클래스 및 스트로마클래스를 포함할 수 있다.Prognosis prediction apparatus according to some embodiments of the present disclosure for solving the above technical problem, a memory for storing one or more instructions, and a pathological image for a patient of target cancer by executing the one or more instructions obtain, perform semantic segmentation on the pathological image using a deep learning model, and predict a prognosis or prognostic factor of the patient based on the result of the semantic segmentation. It may include a processor. In this case, the target class of the semantic segmentation may include an arm class and a stroma class.
상술한 기술적 과제를 해결하기 위한 본 개시의 몇몇 실시예들에 따른 컴퓨터 프로그램은, 컴퓨팅 장치와 결합되어, 대상암의 환자에 대한 병리 이미지를 획득하는 단계, 딥러닝 모델을 이용하여 상기 병리 이미지에 대해 시맨틱 세그먼테이션(semantic segmentation)을 수행하되, 세그먼테이션 클래스는 암클래스 및 스트로마클래스를 포함하는 것인, 단계 및 상기 시맨틱 세그먼테이션의 결과에 기초하여 상기 환자의 예후 또는 예후인자를 예측하는 단계를 실행시키기 위하여 컴퓨터 판독가능한 기록매체에 저장될 수 있다.A computer program according to some embodiments of the present disclosure for solving the above-described technical problem is combined with a computing device, obtaining a pathological image of a patient of target cancer, and using a deep learning model to In order to perform semantic segmentation on the patient, the segmentation class includes a cancer class and a stroma class, and predicting a prognosis or prognostic factor of the patient based on the result of the semantic segmentation. It may be stored in a computer-readable recording medium.
상술한 본 개시의 몇몇 실시예들에 따르면, 암영역과 스트로마영역의 비율이 대상암(target cancer)의 예후 및/또는 예후인자에 대한 객관적인 예측 지표로 활용될 수 있다. 이러한 예측 지표는 대상암의 주요 예후인자인 림프절 전이 여부 등을 예측하는데 효과적으로 활용됨으로써, 암환자의 임상의들에게 가치있고 객관적인 진단 보조 정보를 제공할 수 있다.According to some embodiments of the present disclosure described above, the ratio of the cancer region to the stromal region may be used as an objective predictive index for the prognosis and/or prognostic factors of target cancer. These predictive indicators can be effectively used to predict whether lymph node metastasis, which is a major prognostic factor of target cancer, etc., and thus provide valuable and objective diagnostic auxiliary information to clinicians of cancer patients.
또한, 시맨틱 세그먼테이션(semantic segmentation)을 수행하는 딥러닝 모델을 이용함으로써 환자의 병리 이미지로부터 상기 예측 지표에 관한 점수가 자동화된 방식으로 정확하게 산출될 수 있다.In addition, by using a deep learning model that performs semantic segmentation, the score regarding the predictive index can be accurately calculated from the patient's pathological image in an automated manner.
본 개시의 기술적 사상에 따른 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects according to the technical spirit of the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 개시의 몇몇 실시예들에 따른 예후 예측 장치와 그의 입출력 데이터를 설명하기 위한 예시적인 도면이다.
도 2는 본 개시의 몇몇 실시예들에 따른 딥러닝 기반의 예후 예측 방법을 나타내는 예시적인 흐름도이다.
도 3은 본 개시의 몇몇 실시예들에서 참조될 수 있는 시맨틱 세그먼테이션의 개념을 설명하기 위한 예시적인 도면이다.
도 4 및 도 5는 본 개시의 몇몇 실시예들에 따른 딥러닝 모델의 구조를 설명하기 위한 예시적인 도면이다.
도 6은 본 개시의 몇몇 실시예들에서 참조될 수 있는 미러 패딩 기법을 설명하기 위한 예시적인 도면이다.
도 7은 본 개시의 몇몇 실시예들에서 참조될 수 있는 병리 이미지를 예시한다.
도 8은 도 7에 예시된 병리 이미지에 대한 시맨틱 세그먼테이션의 결과를 예시한다.
도 9는 도 2의 단계 S400의 세부 과정을 나타내는 예시적인 흐름도이다.
도 10은 도 9의 단계 S420를 부연 설명하기 위한 예시적인 도면이다.
도 11은 본 개시의 제1 실시예에 따른 예측지표점수 산출 방법을 설명하기 위한 예시적인 도면이다.
도 12는 본 개시의 제2 실시예에 따른 예측지표점수 산출 방법을 설명하기 위한 예시적인 도면이다.
도 13은 본 개시의 몇몇 실시예들에 따른 예후 예측 장치를 구현할 수 있는 예시적인 컴퓨팅 장치를 도시한다.1 is an exemplary diagram for describing an apparatus for predicting a prognosis and input/output data thereof according to some embodiments of the present disclosure.
2 is an exemplary flowchart illustrating a deep learning-based prognosis prediction method according to some embodiments of the present disclosure.
3 is an exemplary diagram for explaining the concept of semantic segmentation that may be referred to in some embodiments of the present disclosure.
4 and 5 are exemplary views for explaining the structure of a deep learning model according to some embodiments of the present disclosure.
6 is an exemplary diagram for describing a mirror padding technique that may be referred to in some embodiments of the present disclosure.
7 illustrates a pathological image that may be referenced in some embodiments of the present disclosure.
8 illustrates the result of semantic segmentation for the pathological image illustrated in FIG. 7 .
9 is an exemplary flowchart illustrating a detailed process of step S400 of FIG. 2 .
FIG. 10 is an exemplary diagram for further explaining step S420 of FIG. 9 .
11 is an exemplary diagram for explaining a method for calculating a prediction index score according to a first embodiment of the present disclosure.
12 is an exemplary view for explaining a method of calculating a prediction index score according to a second embodiment of the present disclosure.
13 illustrates an exemplary computing device that may implement a prognosis prediction apparatus according to some embodiments of the present disclosure.
이하, 첨부된 도면을 참조하여 본 개시의 바람직한 실시예들을 상세히 설명한다. 본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 개시의 기술적 사상을 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. Advantages and features of the present disclosure, and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the technical spirit of the present disclosure is not limited to the following embodiments, but may be implemented in various different forms, and only the following embodiments complete the technical spirit of the present disclosure, and in the technical field to which the present disclosure belongs It is provided to fully inform those of ordinary skill in the art of the scope of the present disclosure, and the technical spirit of the present disclosure is only defined by the scope of the claims.
각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 개시를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the present disclosure, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present disclosure, the detailed description thereof will be omitted.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which this disclosure belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly defined in particular. The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present disclosure. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase.
또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the components of the present disclosure, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. When it is described that a component is “connected”, “coupled” or “connected” to another component, the component may be directly connected or connected to the other component, but another component is formed between each component. It should be understood that elements may also be “connected,” “coupled,” or “connected.”
본 개시에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.As used herein, “comprises” and/or “comprising” refers to a referenced component, step, operation and/or element of one or more other components, steps, operations and/or elements. The presence or addition is not excluded.
이하, 본 개시의 다양한 실시예들에 대하여 첨부된 도면에 따라 상세하게 설명한다.Hereinafter, various embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.
도 1은 본 개시의 몇몇 실시예들에 따른 예후 예측 장치(10) 및 그의 입출력 데이터를 설명하기 위한 예시적인 도면이다.1 is an exemplary diagram for explaining a
도 1에 도시된 바와 같이, 예후 예측 장치(10)는 컴퓨팅 장치로서, 대상암(target cancer)의 환자 정보(1)를 입력받고 해당 환자의 예후인자(2), 예후(3) 등을 예측하여 출력(제공)할 수 있다. 뿐만 아니라, 예후 예측 장치(10)는 환자에 대한 치료정보(4)를 결정하여 출력(제공)할 수도 있다. 이하에서는, 설명의 편의상 예후 예측 장치(10)를 "예측 장치(10)"로 약칭하도록 한다.As shown in FIG. 1 , the
상기 컴퓨팅 장치는 예를 들어 노트북, 데스크톱(desktop), 랩탑(laptop) 등이 될 수 있으나, 이에 국한되는 것은 아니며 컴퓨팅 기능이 구비된 모든 종류의 장치를 포함할 수 있다. 컴퓨팅 장치의 일 예시는 도 13을 참조하도록 한다.The computing device may be, for example, a notebook computer, a desktop computer, a laptop computer, and the like, but is not limited thereto and may include any type of device having a computing function. Refer to FIG. 13 for an example of a computing device.
상기 대상암은 예를 들어 대장암(colorectal cancer)일 수 있다. 그러나, 본 개시의 범위가 이에 한정되는 것은 아니며, 대상암은 유방암(breast cancer) 등과 같이 다른 종류의 암을 더 포함할 수도 있다.The target cancer may be, for example, colorectal cancer. However, the scope of the present disclosure is not limited thereto, and the target cancer may further include other types of cancer, such as breast cancer.
환자 정보(1)는 예를 들어 환자의 인구통계학적 정보, 환자의 병리 이미지(pathological image), 환자의 질병 이력 등을 포함할 수 있다. 그러나, 이에 한정되는 것은 아니다. 병리 이미지는 예를 들어 암(종양) 발생 부위(조직)에 대한 전체 슬라이드 이미지(whole slide image; e.g. H&E(hematoxylin & eosin) 염색 이미지) 및/또는 상기 전체 슬라이드 이미지의 패치(patch)를 포함할 수 있으나, 이에 한정되는 것은 아니다.The
예후인자정보(12)는 예를 들어 림프절 전이 여부, EMTD(extramural tumor deposits), 종양의 크기, 종양의 위치, 종양의 침윤 깊이 등을 포함할 수 있다. 그러나, 이에 한정되는 것은 아니다.The
예후정보(13)는 예를 들어 재발 가능성, 생존 가능성, 질병의 진행 단계, 질병의 진행 상태 등과 같이 대상암의 예후와 관련된 모든 정보를 포함할 수 있다.The
치료정보(14)는 예를 들어 예후에 따른 적합한 치료 방법, 바람직한 생활 수칙 등에 관한 정보를 포함할 수 있다. 그러나, 이에 한정되는 것은 아니다.The
본 개시의 다양한 실시예들에서, 예측 장치(10)는 딥러닝 모델을 이용하여 대상암에 걸린 환자의 예후 및/또는 예후인자를 예측할 수 있다. 구체적으로, 예측 장치(10)는 시맨틱 세그먼테이션(semantic segmentation)을 수행하는 딥러닝 모델(deep-learning model)을 통해 환자의 병리 이미지를 분석하여 환자의 예후 및/또는 예후인자에 대한 예측지표점수를 산출할 수 있다. 그리고, 예측 장치(10)는 산출된 예측지표점수에 기초하여 환자의 예후 및/또는 예후인자를 예측할 수 있다. 본 실시예와 관련하여서는 도 2 이하의 도면을 참조하여 상세하게 설명하도록 한다.In various embodiments of the present disclosure, the
한편, 도 1은 예측 장치(10)가 하나의 컴퓨팅 장치로 구현된 것을 예로써 도시하고 있으나, 예측 장치(10)는 복수의 컴퓨팅 장치로 구현될 수도 있다. 예를 들어, 예측 장치(10)의 제1 기능은 제1 컴퓨팅 장치에서 구현되고, 제2 기능은 제2 컴퓨팅 장치에서 구현될 수 있다. 또는, 예측 장치(10)의 특정 기능이 복수의 컴퓨팅 장치에서 구현될 수도 있다.Meanwhile, although FIG. 1 illustrates that the
지금까지 도 1을 참조하여 본 개시의 몇몇 실시예들에 따른 예측 장치(10)에 대하여 설명하였다. 이하에서는, 도 1에 예시된 예측 장치(10)에서 수행될 수 있는 딥러닝 기반의 예후 예측 방법에 대하여 설명하도록 한다.So far, the
이하에서 후술될 예후 예측 방법의 각 단계는 컴퓨팅 장치의 프로세서에 의해 실행될 수 있는 하나 이상의 인스트럭션들(instructions)로 구현될 수 있으며, 특정 단계(동작)의 주어가 생략된 경우 예측 장치(10)에 의하여 수행되는 것으로 이해될 수 있다. 다만, 경우에 따라 상기 예후 예측 방법의 일부 단계는 다른 컴퓨팅 장치에서 수행될 수도 있다.Each step of the prognostic prediction method to be described below may be implemented as one or more instructions that can be executed by the processor of the computing device, and when the subject of a specific step (operation) is omitted, the
도 2는 본 개시의 몇몇 실시예들에 따른 딥러닝 기반 예후 예측 방법을 나타내는 예시적인 흐름도이다. 단, 이는 본 개시의 목적을 달성하기 위한 바람직한 실시예일뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.2 is an exemplary flowchart illustrating a deep learning-based prognosis prediction method according to some embodiments of the present disclosure. However, this is only a preferred embodiment for achieving the purpose of the present disclosure, and it goes without saying that some steps may be added or deleted as needed.
도 2에 도시된 바와 같이, 상기 예후 예측 방법은 시맨틱 세그먼테이션을 수행하는 딥러닝 모델을 학습시키는 단계 S100에서 시작될 수 있다. 이해의 편의를 제공하기 위해, 시맨틱 세그먼테이션의 개념, 딥러닝 모델의 구조 및 학습 방법에 대하여 도 3 내지 도 6을 참조하여 부연 설명하도록 한다.As shown in FIG. 2 , the prognostic prediction method may be started in step S100 of training a deep learning model that performs semantic segmentation. For convenience of understanding, the concept of semantic segmentation, the structure of a deep learning model, and a learning method will be described in detail with reference to FIGS. 3 to 6 .
먼저, 시맨틱 세그먼테이션은 이미지 단위가 아니라 픽셀(pixel) 단위로 클래스를 예측하는 태스크를 의미할 수 있다. 예를 들어, 도 3에 도시된 바와 같이, 주어진 이미지(13)에 대해 시맨틱 세그먼테이션이 수행되면, 픽셀 단위의 클래스 예측 결과인 세그먼테이션 맵(15; segmentation map) 또는 세그먼테이션 결과 이미지(17)가 획득될 수 있다. 세그먼테이션 결과 이미지(17)는 세그먼테이션 맵(15)를 이미지 형태로 나타낸 것을 의미할 수 있으나, 이에 한정되는 것은 아니다. 시맨틱 세그먼테이션은 픽셀 단위로 조밀한 예측을 수행하는 태스크이기 때문에, 당해 기술 분야에서 덴스 프릭딕션(dense prediction)이라는 용어로 명명될 수도 있다.First, semantic segmentation may refer to a task of predicting a class in units of pixels, not images. For example, as shown in FIG. 3 , when semantic segmentation is performed on a given
시맨틱 세그먼테이션은 컴퓨터 비전 분야의 다양한 태스크 중에서 가장 핵심적이고도 난이도가 높은 태스크로, 높은 정확도를 위해 딥러닝 모델을 통해 수행될 수 있다. 가령, 도 4에 도시된 바와 같이, 시맨틱 세그먼테이션은 인코더(21; encoder)와 디코더(25, decoder)로 구성되는 딥러닝 모델을 통해 수행될 수 있다. 여기서, 인코더(21)는 다운샘플링을 수행하는 신경망으로서, 예를 들어 컨볼루션(convolution) 연산을 수행하는 신경망으로 구성될 수 있으나, 이에 한정되는 것은 아니다. 또한, 디코더(25)는 인코딩 결과(23)에 대해 업샘플링을 수행하는 신경망으로서, 예를 들어 업-컨볼루션(up-convolution; 또는 디컨볼루션) 연산을 수행하는 신경망으로 구성될 수 있으나, 이에 한정되는 것은 아니다.Semantic segmentation is the most essential and difficult task among various tasks in the computer vision field, and can be performed through a deep learning model for high accuracy. For example, as shown in FIG. 4 , semantic segmentation may be performed through a deep learning model composed of an
보다 구체적인 딥러닝 모델의 구조는 도 5에 예시되어 있다. 도 5는 인코더(31) 및 디코더(33)로 구성되며 개념적으로 U자형 구조로 이루어진 딥러닝 모델을 예시하고 있다. 이러한 딥러닝 모델은 인코더(31)에서 추출된 특징맵을 디코더(33)에서 더 활용함으로써(e.g. 인코더 31의 특징맵와 디코더 33의 특징맵과 결합(concatenation)되어 디코딩 시에 활용됨), 높은 세그먼테이션 정확도를 보장할 수 있다. 도 5에 예시된 딥러닝 모델에 관한 보다 자세한 설명은 "U-Net"에 관한 공지된 기술 자료를 더 참조하도록 한다.The structure of a more specific deep learning model is illustrated in FIG. 5 . 5 illustrates a deep learning model composed of an
상술한 딥러닝 모델은 학습용 병리 이미지(또는 이미지 패치)와 정답 세그먼테이션 맵으로 구성된 학습 데이터(셋)를 이용하여 학습될 수 있다. 이때, 세그먼테이션 클래스는 암클래스(e.g. 암 상피 세포/조직)와 스트로마(stroma)클래스(e.g. 스트로마 세포/조직)를 포함할 수 있고 다른 클래스를 더 포함할 수도 있다. 예컨대, 세그먼테이션 클래스는 암클래스, 스트로마클래스, 정상클래스(e.g. 정상 상피 세포/조직), 근육(muscle)클래스(e.g. 근세포), 지방(adipose)클래스(e.g. 지방 세포/조직), 림프클래스(e.g. 림프구), 점액(mucus)클래스를 포함할 수 있다. 당해 기술 분야의 종사자라면, 딥러닝 모델의 학습 방법(e.g. 오차역전파 기법)에 대하여 충분히 숙지하고 있을 것인 바, 학습 방법에 대한 구체적인 설명은 생략하도록 한다.The above-described deep learning model can be trained using training data (sets) composed of a pathological image (or image patch) for training and a correct answer segmentation map. In this case, the segmentation class may include a cancer class (e.g. cancer epithelial cell/tissue) and a stroma class (e.g. stroma cell/tissue), and may further include other classes. For example, the segmentation class is cancer class, stroma class, normal class (e.g. normal epithelial cells/tissue), muscle class (e.g. myocytes), adipose class (e.g. adipocytes/tissue), lymphoid class (e.g. lymphocytes) ) and the mucus class. Those skilled in the art will be fully familiar with the deep learning model learning method (e.g. error backpropagation technique), so a detailed description of the learning method will be omitted.
몇몇 실시예들에서는, 학습용 병리 이미지 패치에 대해 미러 패딩(mirror padding)이 수행되고, 미러 패딩된 병리 이미지 패치를 이용하여 딥러닝 모델이 학습될 수 있다. 가령, 상기 병리 이미지 패치의 크기가 딥러닝 모델의 입력 조건에 부합하는지 여부를 판단하고, 부합하지 않는다는 판단에 응답하여 상기 병리 이미지 패치에 대해 미러 패딩이 수행될 수 있다. 이러한 과정을 통해 학습용 병리 이미지 패치의 크기가 딥러닝 모델에 부합하지 않더라도, 학습이 원활하게 수행될 수 있다. 아울러, 학습용 병리 이미지 패치에 대한 크기 제약사항이 완화되는 바, 학습 데이터(셋)가 보다 용이하게 확보될 수 있다.In some embodiments, mirror padding may be performed on the pathological image patch for training, and a deep learning model may be trained using the mirror-padded pathological image patch. For example, it may be determined whether the size of the pathological image patch meets the input condition of the deep learning model, and in response to the determination that the size of the pathological image patch does not match, mirror padding may be performed on the pathological image patch. Through this process, even if the size of the pathological image patch for training does not match the deep learning model, learning can be performed smoothly. In addition, since size restrictions on the pathological image patch for training are relaxed, training data (sets) can be more easily secured.
참고로, 상기 미러 패딩은 도 6에 예시된 바와 같이 원본 이미지(41)의 픽셀값을 미러링(mirroring)하는 방식으로 패딩을 수행하는 기법을 의미할 수 있다. 가령, 미러 패딩된 이미지(47)의 일 영역(45)의 픽셀값은 원본 이미지(41)의 일 영역(43)이 거울을 통해 반사되는 형태로 채워질 수 있다. 미러 패딩은 병리 이미지 또는 생물학적 이미지와 같이 유사 구조(e.g. 모양, 형상)이 반복적으로 나타나는 이미지를 기계 학습할 때 효과적으로 활용될 수 있다. 당해 기술 분야에서, 미러 패딩은 리플렉트 패딩(reflect padding)이란 용어와 혼용되어 사용될 수 있다.For reference, the mirror padding may refer to a technique of performing padding by mirroring pixel values of the
다시 도 2를 참조하여 설명한다.It will be described again with reference to FIG. 2 .
단계 S200에서, 환자의 병리 이미지가 획득될 수 있다. 앞서 언급한 바와 같이, 상기 병리 이미지는 암 발생 부위에 대한 전체 슬라이드 이미지 및/또는 이의 패치를 포함할 수 있다. 병리 이미지의 일 예시에 대해서는 도 7을 참조하도록 한다. 도 7은 환자의 암 발생 부위에 대한 전체 슬라이드 이미지를 예시하고 있다.In step S200, a pathological image of the patient may be acquired. As mentioned above, the pathology image may include an entire slide image of the cancer site and/or a patch thereof. Refer to FIG. 7 for an example of a pathological image. 7 illustrates an entire slide image of a cancer site of a patient.
단계 S300에서, 딥러닝 모델을 이용하여 병리 이미지에 대해 시맨틱 세그먼테이션이 수행될 수 있다. 시맨틱 세그먼테이션 결과, 환자의 병리 이미지가 세그먼테이션 클래스에 대응되는 복수의 영역으로 분할될 수 있다. 이때, 세그먼테이션 클래스는 앞서 언급한 바와 같이 암클래스와 스트로마클래스를 포함할 수 있다. 또한, 세그먼테이션 클래스는 정상클래스, 근육클래스, 지방클래스, 림프클래스, 점액클래스를 더 포함할 수도 있다.In step S300, semantic segmentation may be performed on the pathological image using the deep learning model. As a result of the semantic segmentation, the pathological image of the patient may be divided into a plurality of regions corresponding to the segmentation class. In this case, the segmentation class may include an arm class and a stroma class as described above. In addition, the segmentation class may further include a normal class, a muscle class, a fat class, a lymph class, and a slime class.
시맨틱 세그먼테이션 결과의 일 예시는 도 8을 참조하도록 한다. 도 8은 각 클래스 영역을 서로 다른 색상으로 표시된 세그먼테이션 결과 이미지를 도시하고 있는데, 도시된 이미지에서 보라색, 녹색, 하늘색, 주황색, 빨간색, 청색 및 노란색은 각각 암클래스, 스트로마클래스, 정상클래스, 근육클래스, 지방클래스, 림프클래스, 점액클래스를 의미한다.An example of the semantic segmentation result will be referred to FIG. 8 . 8 shows the segmentation result image in which each class area is displayed in different colors. In the illustrated image, purple, green, sky blue, orange, red, blue and yellow are cancer class, stroma class, normal class, and muscle class, respectively. , fat class, lymph class, and mucus class.
몇몇 실시예들에서는, 병리 이미지가 복수의 이미지 패치로 분할되고, 복수의 이미지 패치 각각에 대해 딥러닝 모델을 적용하여 시맨틱 세그먼테이션이 수행될 수도 있다. 즉, 병리 이미지가 전체 슬라이드 이미지와 같이 고해상도의 이미지인 경우, 딥러닝 모델의 입력 크기에 맞춰 병리 이미지가 복수의 이미지 패치로 분할된 이후에 딥러닝 모델에 적용될 수도 있다.In some embodiments, the pathological image may be divided into a plurality of image patches, and semantic segmentation may be performed by applying a deep learning model to each of the plurality of image patches. That is, when the pathological image is a high-resolution image such as an entire slide image, the pathological image may be applied to the deep learning model after the pathological image is divided into a plurality of image patches according to the input size of the deep learning model.
단계 S400에서, 시맨틱 세그먼테이션 결과에 기초하여 환자의 예후 및/또는 예후인자가 예측될 수 있다. 본 단계의 세부 과정의 일 예시는 도 9에 도시되어 있다. 이하, 도 9를 참조하여 본 단계에 대하여 보다 상세하게 설명하도록 한다.In step S400 , a prognosis and/or a prognostic factor of the patient may be predicted based on the semantic segmentation result. An example of the detailed process of this step is shown in FIG. 9 . Hereinafter, this step will be described in more detail with reference to FIG. 9 .
단계 S420에서는, 세그먼테이션 결과 이미지(도 8 참조)에서 암영역과 스트로마영역이 결정(추출)될 수 있다. 가령, 예측 장치(10)는 세그먼테이션 결과 이미지에서 암클래스와 스트로마클래스에 대응되는 영역만을 추출할 수 있다.In step S420, a dark region and a stroma region may be determined (extracted) from the segmentation result image (refer to FIG. 8). For example, the
몇몇 실시예들에서는, 상기 추출된 암영역과 스트로마영역에 대해 모폴로지(morphology) 연산이 수행될 수 있다. 가령, 도 11에 도시된 바와 같이, 예측 장치(10)는 팽창(dilation) 연산과 침식(erosion) 연산을 수행할 수 있다. 도 11은 팽창 연산과 침식 연산이 순차적으로 수행되는 것을 예로써 도시하고 있으나, 팽창 연산과 침식 연산은 도 11에 예시된 바와 다른 순서로 수행될 수도 있다. 또한, 다른 종류의 모폴로지 연산이 더 수행될 수도 있다. 본 실시예에 따르면, 모폴로지 연산을 통해 이미지 상의 노이즈가 제거될 수 있으며, 이를 통해 암영역과 스트로마영역이 보다 정확하게 결정될 수 있다.In some embodiments, a morphology operation may be performed on the extracted dark region and stroma region. For example, as shown in FIG. 11 , the
또한, 몇몇 실시예들에서는, 상기 추출된 암영역과 스트로마영역 중에서 일부 영역이 제거될 수도 있다. 구체적으로, 예측 장치(10)는 상기 추출된 암영역과 스트로마영역에서 딥러닝 모델의 컨피던스 스코어(confidence score)가 기준치 이하인 픽셀을 제거하는 처리를 수행할 수 있다. 가령, 예측 장치(10)는 암영역에서 암클래스에 대한 컨피던스 스코어가 기준치 이하인 픽셀을 제거하여 최종 암영역을 결정할 수 있다. 또는, 예측 장치(10)는 스트로마영역에서 스트로마클래스에 대한 컨피던스 스코어가 기준치 이하인 픽셀을 제거하여 최종 스트로마영역을 결정할 수도 있다. 이러한 제거 처리를 통해, 딥러닝 모델의 세그먼테이션 오류가 환자의 예후 및/또는 예후인자의 예측에 미치는 영향이 최소화될 수 있다.Also, in some embodiments, some regions among the extracted dark region and stroma region may be removed. In detail, the
단계 S440에서, 암영역과 스트로마영역의 비율에 기초하여 예측지표점수가 산출될 수 있다. 즉, 암영역과 스트로마영역의 비율이 림프절 전이 여부와 같은 예후인자를 예측하거나 대장암의 예후를 예측할 수 있는 지표로 활용될 수 있다.In step S440, a prediction index score may be calculated based on the ratio of the dark region and the stromal region. That is, the ratio of cancer area to stromal area can be used as an indicator to predict prognostic factors such as lymph node metastasis or the prognosis of colorectal cancer.
암영역과 스트로마영역의 비율을 예측 지표로 활용하는 이유는 다음과 같다. 종양미세환경(tumor micro-environment)에서 스트로마는 암세포(조직)의 주변에 위치하여 암세포(조직)의 성장, 전이 등과 일부 연관이 있다고 추정되고 있다. 본 개시의 발명자들은 이러한 추정 사실을 기초로 암환자들의 임상 데이터를 분석하였는데, 분석 결과 암영역과 스트로마영역의 비율이 림프절 전이 여부 등과 같은 예후인자와 밀접한 관련이 있음을 밝혀낼 수 있었다(아래의 표 1 참조). 암영역과 스트로마영역의 비율을 예측 지표의 활용하는 이유는 이러한 연구 결과로부터 기인한 것으로 이해될 수 있다.The reason for using the ratio between the dark area and the stroma area as a predictive index is as follows. In the tumor micro-environment, stroma is located in the periphery of cancer cells (tissues) and is estimated to be partially related to the growth and metastasis of cancer cells (tissues). The inventors of the present disclosure analyzed clinical data of cancer patients based on these estimated facts, and as a result of the analysis, it could be found that the ratio of cancer area to stromal area was closely related to prognostic factors such as lymph node metastasis (see below). See Table 1). It can be understood that the reason for using the ratio of the dark area and the stromal area as a predictive index stems from the results of this study.
본 단계 S440에서, 예측지표점수를 산출하는 구체적인 방식은 실시예에 따라 달라질 수 있다.In this step S440, a specific method of calculating the prediction index score may vary depending on the embodiment.
제1 실시예에서는, 도 11에 도시된 바와 같이, 예측지표점수(50)가 암영역(C)의 픽셀수와 스트로마영역(S)의 픽셀수의 비율에 기초하여 산출될 수 있다. 이러한 산출 방식에 따라 임상 데이터를 분석한 결과는 하기의 표 1에 기재되어 있다. 하기의 표 1은 98명의 림프절 전이 음성(LNM-negative) 환자와 66명의 림프절 전이 양성(LNM-positive) 환자로 구성된 대장암 환자의 병리 이미지를 이용하여 예측지표점수(50)를 산출한 결과를 표시하고 있다. 하기의 표 1을 참조하면, 림프절 전이 양성 환자와 음성 환자 간에 예측지표점수(50)의 평균치가 크게 차이나는 것을 확인할 수 있다. 따라서, 하기의 표 1을 통해 예측지표점수(50)가 대장암의 림프절 전이 여부를 효과적으로 예측할 수 있다는 것을 알 수 있다.In the first embodiment, as shown in FIG. 11 , the
제2 실시예에서는, 딥러닝 모델의 컨피던스 스코어를 픽셀 가중치로 이용하여 상기 예측지표점수가 산출될 수 있다. 구체적으로, 암영역의 픽셀수에 제1 픽셀가중치를 반영하여 상기 암영역에 대한 제1 값이 산출되고, 스트로마영역의 픽셀수에 제2 픽셀가중치를 반영하여 스트로마영역에 대한 제2 값이 산출되며, 제1 값과 상기 제2 값의 비율에 기초하여 예측지표점수가 산출될 수 있다. 이때, 제1 픽셀가중치는 해당 픽셀의 암클래스에 대한 컨피던스 스코어에 기초하여 결정되고, 제2 픽셀가중치는 해당 픽셀의 스트로마클래스에 대한 컨피던스 스코어에 기초하여 결정될 수 있다. 보다 이해의 편의를 제공하기 위해, 도 12에 도시된 예를 참조하여 본 실시예에 대하여 부연 설명하도록 한다.도 12는 상기 제1 실시예 및 제2 실시예에 따라 산출된 예측지표점수(50, 60)를 비교 도시하고 있는데, 제1 실시예에 따라 산출된 제1 예측지표점수(50)는 좌측에 도시되어 있고, 제2 실시예에 따라 산출된 제2 예측지표점수(60)는 우측에 도시되어 있다.In the second embodiment, the prediction index score may be calculated by using the confidence score of the deep learning model as a pixel weight. Specifically, the first value for the dark region is calculated by reflecting the first pixel weight to the number of pixels in the dark region, and the second value for the stroma region is calculated by reflecting the second pixel weight to the number of pixels in the stroma region and a prediction index score may be calculated based on the ratio of the first value to the second value. In this case, the first pixel weight may be determined based on the confidence score for the dark class of the corresponding pixel, and the second pixel weight may be determined based on the confidence score for the stroma class of the corresponding pixel. For the convenience of understanding, the present embodiment will be described in more detail with reference to the example shown in FIG. 12. FIG. 12 shows the
도 12에 도시된 바와 같이, 암영역과 스트로마영역의 픽셀 개수는 2개로 동일하고, 각 픽셀의 클래스별 컨피던스 스코어는 우측에 도시된 바와 같다고 가정하자. 이와 같은 경우, 제1 예측지표점수(50)는 1(=2/2)로 산출될 수 있다. 반면에, 제2 예측지표점수(60)는 1.3(=1*0.7+1*0.6)/1.7(=1*0.8+1*0.9)으로 산출될 수 있는데, 이는 딥러닝 모델의 세그먼테이션 결과에 대한 신뢰도(=컨피던스 스코어)가 가중치로 반영된 결과로 이해될 수 있다. 이러한 제2 실시예에 따르면, 딥러닝 모델의 세그먼테이션 결과에 대한 신뢰도를 반영하여 예측지표점수가 산출되므로, 딥러닝 모델의 세그먼테이션 오류가 예측지표점수에 미치는 영향이 효과적으로 제한될 수 있다.As shown in FIG. 12 , it is assumed that the number of pixels in the dark region and the stroma region is equal to two, and the confidence score for each class of each pixel is as shown on the right. In this case, the first
다시 도 9를 참조하여 설명한다.It will be described again with reference to FIG. 9 .
단계 S460에서, 예측지표점수에 기초하여 환자의 예후 및/또는 예후인자가 예측될 수 있다. 가령, 예측 장치(10)는 예측지표점수가 기준치 이하라는 판단에 응답하여 림프절 전이가 존재하지 않는다고 예측할 수 있다. 이와 반대로, 예측지표점수가 기준치 이상인 경우, 예측 장치(10)는 림프절 전이가 존재한다고 판단할 수 있다.In step S460, a prognosis and/or a prognostic factor of the patient may be predicted based on the predictive index score. For example, the
상기 기준치는 임상 데이터의 분석 결과에 기초하여 적절한 값으로 설정될 수 있으며, 대상암의 종류, 환자의 인구통계학적 정보, 예측인자의 종류 등에 따라 세분화된 수치로 설정될 수도 있다.The reference value may be set to an appropriate value based on the analysis result of clinical data, or may be set to a subdivided numerical value according to the type of target cancer, demographic information of the patient, the type of predictor, and the like.
몇몇 실시예들에서는, 시간에 따른 예측지표점수의 변화에 기초하여 환자의 예후 및/또는 예후인자가 예측될 수도 있다. 가령, 예측 장치(10)는 시간에 따른 예측지표점수의 변화 정도(e.g. 기울기)를 기초로 림프절 전이 속도를 예측하거나, 대상암의 진행 속도 등을 예측할 수도 있다. 보다 구체적인 예로써, 예측지표점수의 변화 기울기가 기준치 이상인 경우, 예측 장치(10)는 림프절 전이 속도가 빠른 것으로 예측할 수 있다.In some embodiments, a prognosis and/or a prognostic factor of a patient may be predicted based on a change in the predictive index score over time. For example, the
지금까지 도 2 내지 도 12를 참조하여 본 개시의 몇몇 실시예들에 따른 딥러닝 기반의 예후 예측 방법에 대하여 설명하였다. 상술한 방법에 따르면, 암영역과 스트로마영역의 비율이 대상암의 예후 및/또는 예후인자에 대한 객관적인 예측 지표로 활용될 수 있다. 이러한 예측 지표는 대상암의 주요 예후인자인 림프절 전이 여부 등을 예측하는데 효과적으로 활용됨으로써, 암환자의 임상의들에게 가치있고 객관적인 진단 보조 정보를 제공할 수 있다. 또한, 시맨틱 세그먼테이션을 수행하는 딥러닝 모델을 이용함으로써 환자의 병리 이미지로부터 예측지표점수가 자동화된 방식으로 정확하게 산출될 수 있다.So far, a deep learning-based prognosis prediction method according to some embodiments of the present disclosure has been described with reference to FIGS. 2 to 12 . According to the above-described method, the ratio of the cancer region to the stromal region can be used as an objective predictive index for the prognosis and/or prognostic factors of the target cancer. These predictive indicators can be effectively used to predict whether lymph node metastasis, which is a major prognostic factor of target cancer, etc., and thus provide valuable and objective diagnostic auxiliary information to clinicians of cancer patients. In addition, by using a deep learning model that performs semantic segmentation, the predictive index score can be accurately calculated from the patient's pathological image in an automated manner.
이하에서는, 본 개시의 몇몇 실시예들에 따른 예측 장치(10)를 구현할 수 있는 예시적인 컴퓨팅 장치(1000)에 대하여 설명하도록 한다.Hereinafter, an
도 13은 컴퓨팅 장치(1000)를 나타내는 예시적인 하드웨어 구성도이다.13 is an exemplary hardware configuration diagram illustrating the
도 13에 도시된 바와 같이, 컴퓨팅 장치(1000)는 하나 이상의 프로세서(1100), 버스(1300), 통신 인터페이스(1500), 프로세서(1100)에 의하여 수행되는 컴퓨터 프로그램을 로드(load)하는 메모리(1200)와, 컴퓨터 프로그램(1600)를 저장하는 스토리지(1500)를 포함할 수 있다. 다만, 도 13에는 본 개시의 실시예와 관련 있는 구성요소들만이 도시되어 있다. 따라서, 본 개시가 속한 기술분야의 통상의 기술자라면 도 13에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다. 즉, 컴퓨팅 장치(1000)에는, 도 13에 도시된 구성 요소 이외에도 다양한 구성 요소가 더 포함될 수 있다. 또한, 경우에 따라, 도 13에 도시된 구성요소들 중 일부가 생략된 형태로 컴퓨팅 장치(1000)가 구성될 수도 있다. 이하, 컴퓨팅 장치(1000)의 각 구성요소에 대하여 설명한다.As shown in FIG. 13 , the
프로세서(1100)는 컴퓨팅 장치(1000)의 각 구성의 전반적인 동작을 제어한다. 프로세서(1100)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 개시의 기술 분야에 잘 알려진 임의의 형태의 프로세서 중 적어도 하나를 포함하여 구성될 수 있다. 또한, 프로세서(1100)는 본 개시의 실시예들에 따른 동작/방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 컴퓨팅 장치(1000)는 하나 이상의 프로세서를 구비할 수 있다.The
다음으로, 메모리(1200)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(1200)는 본 개시의 실시예들에 따른 동작/방법을 실행하기 위하여 스토리지(1500)로부터 하나 이상의 프로그램(1600)을 로드할 수 있다. 메모리(1200)는 RAM과 같은 휘발성 메모리로 구현될 수 있을 것이나, 본 개시의 기술적 범위가 이에 한정되는 것은 아니다.Next, the
다음으로, 버스(1300)는 컴퓨팅 장치(1000)의 구성 요소 간 통신 기능을 제공한다. 버스(1300)는 주소 버스(Address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.Next, the
다음으로, 통신 인터페이스(1500)는 컴퓨팅 장치(1000)의 유무선 인터넷 통신을 지원한다. 또한, 통신 인터페이스(1500)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(1500)는 본 개시의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다. 경우에 따라, 통신 인터페이스(1500)는 생략될 수도 있다.Next, the
다음으로, 스토리지(1500)는 상기 하나 이상의 컴퓨터 프로그램(1600)을 비임시적으로 저장할 수 있다. 스토리지(1500)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.Next, the
다음으로, 컴퓨터 프로그램(1600)은 메모리(1200)에 로드될 때 프로세서(1100)로 하여금 본 개시의 다양한 실시예들에 따른 동작/방법을 수행하도록 하는 하나 이상의 인스트럭션들을 포함할 수 있다. 즉, 프로세서(1100)는 상기 하나 이상의 인스트럭션들을 실행함으로써, 본 개시의 다양한 실시예에 따른 동작/방법을 수행할 수 있다.Next, the
예를 들어, 컴퓨터 프로그램(1600)은 대상암의 환자에 대한 병리 이미지를 획득하는 동작, 딥러닝 모델을 이용하여 획득된 병리 이미지에 대해 시맨틱 세그먼테이션을 수행하는 동작 및 시맨틱 세그먼테이션의 결과에 기초하여 환자의 예후 및/또는 예후인자를 예측하는 동작을 포함하는 인스트럭션들을 포함할 수 있다. 이와 같은 경우, 컴퓨팅 장치(1000)를 통해 본 개시의 몇몇 실시예들에 따른 예측 장치(10)가 구현될 수 있다.For example, the
지금까지 도 1 내지 도 13을 참조하여 설명된 본 개시의 기술적 사상은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.The technical idea of the present disclosure described with reference to FIGS. 1 to 13 may be implemented as computer-readable codes on a computer-readable medium. The computer-readable recording medium may be, for example, a removable recording medium (CD, DVD, Blu-ray disk, USB storage device, removable hard disk) or a fixed recording medium (ROM, RAM, computer-equipped hard disk). can The computer program recorded on the computer-readable recording medium may be transmitted to another computing device through a network such as the Internet and installed in the other computing device, thereby being used in the other computing device.
이상에서, 본 개시의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 개시의 기술적 사상이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 개시의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.In the above, even though all components constituting the embodiment of the present disclosure are described as being combined or operated in combination, the technical spirit of the present disclosure is not necessarily limited to this embodiment. That is, within the scope of the present disclosure, all of the components may operate by selectively combining one or more.
도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.Although acts are shown in a particular order in the drawings, it should not be understood that the acts must be performed in the specific order or sequential order shown, or that all illustrated acts must be performed to obtain a desired result. In certain circumstances, multitasking and parallel processing may be advantageous. Moreover, the separation of the various components in the embodiments described above should not be construed as necessarily requiring such separation, and the described program components and systems may generally be integrated together into a single software product or packaged into multiple software products. It should be understood that there is
이상 첨부된 도면을 참조하여 본 개시의 실시예들을 설명하였지만, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 개시가 다른 구체적인 형태로도 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시에 의해 정의되는 기술적 사상의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although embodiments of the present disclosure have been described above with reference to the accompanying drawings, those of ordinary skill in the art to which the present disclosure pertains may practice the present disclosure in other specific forms without changing the technical spirit or essential features. can understand that there is Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The protection scope of the present disclosure should be interpreted by the following claims, and all technical ideas within the equivalent range should be interpreted as being included in the scope of the technical ideas defined by the present disclosure.
Claims (12)
상기 대상암의 환자에 대한 병리 이미지를 획득하는 단계;
딥러닝 모델을 이용하여 상기 병리 이미지에 대해 시맨틱 세그먼테이션(semantic segmentation)을 수행하되, 세그먼테이션 클래스는 암클래스 및 스트로마클래스를 포함하는 것인, 단계; 및
상기 시맨틱 세그먼테이션의 결과에 기초하여 상기 환자의 예후 또는 예후인자를 예측하는 단계를 포함하는,
딥러닝 기반 예후 예측 방법.A method for predicting the prognosis of target cancer based on deep learning in a computing device, the method comprising:
acquiring a pathological image of the patient of the target cancer;
performing semantic segmentation on the pathological image using a deep learning model, wherein the segmentation class includes a cancer class and a stroma class; and
Comprising the step of predicting the prognosis or prognostic factor of the patient based on the result of the semantic segmentation,
Deep learning-based prognostic prediction method.
상기 딥러닝 모델은 다운샘플링을 수행하는 인코더와 업샘플링을 수행하는 디코더를 포함하는,
딥러닝 기반 예후 예측 방법.According to claim 1,
The deep learning model includes an encoder performing downsampling and a decoder performing upsampling,
Deep learning-based prognostic prediction method.
학습용 이미지 패치를 이용하여 상기 딥러닝 모델을 학습시키는 단계를 더 포함하되,
상기 학습시키는 단계는,
상기 학습용 이미지 패치의 크기가 상기 딥러닝 모델의 입력 조건에 부합하는지 여부를 판단하는 단계;
부합하지 않는다는 판단에 응답하여, 상기 학습용 이미지 패치에 대해 미러 패딩(mirror padding)을 수행하는 단계; 및
상기 미러 패딩된 학습용 이미지 패치를 이용하여 상기 딥러닝 모델을 학습시키는 단계를 포함하는,
딥러닝 기반 예후 예측 방법.According to claim 1,
Further comprising the step of learning the deep learning model using the image patch for training,
The learning step is
determining whether the size of the training image patch meets the input condition of the deep learning model;
performing mirror padding on the training image patch in response to the determination that it does not match; and
Including the step of learning the deep learning model using the mirror-padded image patch for training,
Deep learning-based prognostic prediction method.
상기 시맨틱 세그먼테이션을 수행하는 단계는,
상기 병리 이미지를 복수의 이미지 패치(patch)로 분할하는 단계; 및
상기 복수의 이미지 패치를 상기 딥러닝 모델에 적용하여 상기 시맨틱 세그먼테이션을 수행하는 단계를 포함하는,
딥러닝 기반 예후 예측 방법.According to claim 1,
The step of performing the semantic segmentation comprises:
segmenting the pathological image into a plurality of image patches; and
Comprising the step of performing the semantic segmentation by applying the plurality of image patches to the deep learning model,
Deep learning-based prognostic prediction method.
상기 환자의 예후 또는 예후인자를 예측하는 단계는,
상기 시맨틱 세그먼테이션의 결과 이미지에서 암영역과 스트로마영역을 결정하는 단계;
상기 암영역과 상기 스트로마영역의 비율을 기초로 예측지표점수를 산출하는 단계; 및
상기 예측지표점수에 기초하여 상기 환자의 예후 또는 예후인자를 예측하는 단계를 포함하는,
딥러닝 기반 예후 예측 방법.According to claim 1,
Predicting the prognosis or prognostic factors of the patient comprises:
determining a dark region and a stromal region in the result image of the semantic segmentation;
calculating a prediction index score based on the ratio of the dark region to the stromal region; and
Comprising the step of predicting the prognosis or prognostic factors of the patient based on the predictive index score,
Deep learning-based prognostic prediction method.
상기 예측지표점수를 산출하는 단계는,
상기 암영역의 픽셀수와 상기 스트로마영역의 픽셀수의 비율에 기초하여 상기 예측지표점수를 산출하는 단계를 포함하는,
딥러닝 기반 예후 예측 방법.6. The method of claim 5,
Calculating the predictive index score comprises:
Comprising the step of calculating the prediction index score based on the ratio of the number of pixels in the dark region to the number of pixels in the stroma region,
Deep learning-based prognostic prediction method.
상기 암영역과 스트로마영역을 결정하는 단계는,
상기 결과 이미지에서 상기 암클래스와 상기 스트로마클래스에 대응되는 영역을 추출하는 단계;
상기 추출된 영역에 대해 침식(erosion) 연산 및 팽창(dilation) 연산을 포함하는 모폴로지(morphology) 연산을 수행하는 단계; 및
상기 모폴로지 연산의 결과에 기초하여 상기 암영역과 상기 스트로마영역을 결정하는 단계를 포함하는,
딥러닝 기반 예후 예측 방법.6. The method of claim 5,
The step of determining the dark region and the stroma region,
extracting a region corresponding to the cancer class and the stroma class from the result image;
performing a morphology operation including an erosion operation and a dilation operation on the extracted region; and
Comprising the step of determining the dark region and the stroma region based on the result of the morphology operation,
Deep learning-based prognostic prediction method.
상기 예후인자는 림프절 전이 여부를 포함하는,
딥러닝 기반 예후 예측 방법.6. The method of claim 5,
The prognostic factors include whether or not lymph node metastasis,
Deep learning-based prognostic prediction method.
상기 예측지표점수를 산출하는 단계는,
상기 암영역의 픽셀수에 제1 픽셀가중치를 반영하여 상기 암영역에 대한 제1 값을 산출하는 단계;
상기 스트로마영역의 픽셀수에 제2 픽셀가중치를 반영하여 상기 스트로마영역에 대한 제2 값을 산출하는 단계; 및
상기 제1 값과 상기 제2 값의 비율에 기초하여 상기 예측지표점수를 산출하는 단계를 포함하되,
상기 제1 픽셀가중치는 해당 픽셀의 암클래스에 대한 컨피던스 스코어(confidence score)에 기초하여 결정되고,
상기 제2 픽셀가중치는 해당 픽셀의 스트로마클래스에 대한 컨피던스 스코어에 기초하여 결정되는,
딥러닝 기반 예후 예측 방법.6. The method of claim 5,
Calculating the predictive index score comprises:
calculating a first value for the dark area by reflecting a first pixel weight to the number of pixels in the dark area;
calculating a second value for the stroma region by reflecting a second pixel weight to the number of pixels in the stroma region; and
Comprising the step of calculating the prediction index score based on the ratio of the first value and the second value,
The first pixel weight is determined based on a confidence score for an arm class of the corresponding pixel;
The second pixel weight is determined based on the confidence score for the stroma class of the corresponding pixel,
Deep learning-based prognostic prediction method.
상기 대상암은 대장암인,
딥러닝 기반 예후 예측 방법.According to claim 1,
The target cancer is colon cancer,
Deep learning-based prognostic prediction method.
상기 하나 이상의 인스트럭션들을 실행함으로써,
대상암의 환자에 대한 병리 이미지를 획득하고,
딥러닝 모델을 이용하여 상기 병리 이미지에 대해 시맨틱 세그먼테이션(semantic segmentation)을 수행하며,
상기 시맨틱 세그먼테이션의 결과에 기초하여 상기 환자의 예후 또는 예후인자를 예측하는 프로세서를 포함하되,
상기 시맨틱 세그먼테이션의 대상 클래스는 암클래스 및 스트로마클래스를 포함하는,
예후 예측 장치.a memory storing one or more instructions;
By executing the one or more instructions,
Obtaining a pathological image of a patient of target cancer,
Performing semantic segmentation on the pathological image using a deep learning model,
A processor for predicting a prognosis or a prognostic factor of the patient based on the result of the semantic segmentation,
The target class of the semantic segmentation includes an arm class and a stroma class,
prognostic device.
대상암의 환자에 대한 병리 이미지를 획득하는 단계;
딥러닝 모델을 이용하여 상기 병리 이미지에 대해 시맨틱 세그먼테이션(semantic segmentation)을 수행하되, 세그먼테이션 클래스는 암클래스 및 스트로마클래스를 포함하는 것인, 단계; 및
상기 시맨틱 세그먼테이션의 결과에 기초하여 상기 환자의 예후 또는 예후인자를 예측하는 단계를 실행시키기 위하여 컴퓨터 판독가능한 기록매체에 저장된,
컴퓨터 프로그램.combined with a computing device,
acquiring a pathological image of a patient of target cancer;
performing semantic segmentation on the pathological image using a deep learning model, wherein the segmentation class includes a cancer class and a stroma class; and
stored in a computer-readable recording medium for executing the step of predicting a prognosis or a prognostic factor of the patient based on the result of the semantic segmentation,
computer program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200145719A KR102579586B1 (en) | 2020-11-04 | 2020-11-04 | Method for predicting prognosis based on deep-learning and apparatus thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200145719A KR102579586B1 (en) | 2020-11-04 | 2020-11-04 | Method for predicting prognosis based on deep-learning and apparatus thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220060127A true KR20220060127A (en) | 2022-05-11 |
KR102579586B1 KR102579586B1 (en) | 2023-09-15 |
Family
ID=81606861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200145719A KR102579586B1 (en) | 2020-11-04 | 2020-11-04 | Method for predicting prognosis based on deep-learning and apparatus thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102579586B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024123021A1 (en) * | 2022-12-05 | 2024-06-13 | 가톨릭대학교 산학협력단 | Electronic device for predicting metastasis of early gastric cancer into lymph node on basis of ensemble model, and training method therefor |
CN118674725A (en) * | 2024-08-22 | 2024-09-20 | 阿里巴巴达摩院(杭州)科技有限公司 | Image processing method, computer-aided cancer prognosis method and system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190021471A (en) | 2017-02-02 | 2019-03-05 | 사회복지법인 삼성생명공익재단 | Method, Apparatus and Program for Predicting Prognosis of Gastric Cancer Using Artificial Neural Network |
-
2020
- 2020-11-04 KR KR1020200145719A patent/KR102579586B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190021471A (en) | 2017-02-02 | 2019-03-05 | 사회복지법인 삼성생명공익재단 | Method, Apparatus and Program for Predicting Prognosis of Gastric Cancer Using Artificial Neural Network |
Non-Patent Citations (2)
Title |
---|
Isensee F, etc., Automated Design of Deep Learning Methods for Biomedical Image Segmentation. cs.CV. pp.1~55 (2020.04.02.)* * |
Jimenez G, Racoceanu D, Deep Learning for Semantic Segmentation vs. Classification in Computational Pathology: Application to Mitosis Analysis in Breast Cancer Grading. (2019.06.21.)* * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024123021A1 (en) * | 2022-12-05 | 2024-06-13 | 가톨릭대학교 산학협력단 | Electronic device for predicting metastasis of early gastric cancer into lymph node on basis of ensemble model, and training method therefor |
CN118674725A (en) * | 2024-08-22 | 2024-09-20 | 阿里巴巴达摩院(杭州)科技有限公司 | Image processing method, computer-aided cancer prognosis method and system |
Also Published As
Publication number | Publication date |
---|---|
KR102579586B1 (en) | 2023-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2022204174B2 (en) | Systems and methods for processing images to prepare slides for processed images for digital pathology | |
CN112768072B (en) | Cancer clinical index evaluation system constructed based on imaging omics qualitative algorithm | |
US11854194B2 (en) | Method and system for analyzing image | |
US11645753B2 (en) | Deep learning-based multi-site, multi-primitive segmentation for nephropathology using renal biopsy whole slide images | |
US9406141B2 (en) | Segmentation of a structure | |
CN110175978B (en) | Liver cancer imaging omics data processing method, system, device and storage medium | |
CN111462042A (en) | Cancer prognosis analysis method and system | |
US11823436B2 (en) | Systems and methods for processing electronic images for generalized disease detection | |
CN112561869B (en) | Pancreatic neuroendocrine tumor postoperative recurrence risk prediction method | |
US20210241178A1 (en) | Computationally derived cytological image markers for predicting risk of relapse in acute myeloid leukemia patients following bone marrow transplantation images | |
KR102579586B1 (en) | Method for predicting prognosis based on deep-learning and apparatus thereof | |
CN112562855B (en) | Hepatocellular carcinoma postoperative early recurrence risk prediction method, medium and terminal equipment | |
US12008747B2 (en) | Population-specific prediction of prostate cancer recurrence based on stromal morphology features | |
CN114693671B (en) | Lung nodule semi-automatic segmentation method, device, equipment and medium based on deep learning | |
US20230338419A1 (en) | Methods and apparatus for diagnosis and detection of cardiac allograft vasculopathy | |
CN113706541A (en) | Image processing method and device | |
US20210272694A1 (en) | Predicting biochemical recurrence based on computerized quantification of cribriform morphology | |
KR102526434B1 (en) | Apparatus for diagnosing lesion and method thereof | |
Ortiz et al. | Novel methodology for detecting and localizing cancer area in histopathological images based on overlapping patches | |
US20240303821A1 (en) | Segmentation model learning method, processing circuitry, computer program product, and medical information processing device | |
Moutselos et al. | Superpixel-based classification of occlusal caries photography | |
CN118736579B (en) | Training method of cell segmentation model, cell segmentation method and system | |
CN116798611B (en) | Device, method, equipment and medium for predicting benign and malignant quality of liver cirrhosis nodule | |
Santos et al. | Lightweight 3D CNN for the Segmentation of Coronary Calcifications and Calcium Scoring | |
Chen | NOVEL COMPUTATIONAL PATHOLOGY-BASED PROGNOSTIC BIOMARKERS FOR GLOMERULAR DISEASES THROUGH DEEP PHOENOTYPING |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |