KR20230041560A - 인공신경망 학습을 통한 하치조 신경 추론 장치 및 방법 - Google Patents
인공신경망 학습을 통한 하치조 신경 추론 장치 및 방법 Download PDFInfo
- Publication number
- KR20230041560A KR20230041560A KR1020210193676A KR20210193676A KR20230041560A KR 20230041560 A KR20230041560 A KR 20230041560A KR 1020210193676 A KR1020210193676 A KR 1020210193676A KR 20210193676 A KR20210193676 A KR 20210193676A KR 20230041560 A KR20230041560 A KR 20230041560A
- Authority
- KR
- South Korea
- Prior art keywords
- neural network
- artificial neural
- learning
- data
- alveolar nerve
- Prior art date
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 225
- 210000002698 mandibular nerve Anatomy 0.000 title claims abstract description 189
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000012545 processing Methods 0.000 claims abstract description 19
- 238000013480 data collection Methods 0.000 claims abstract description 18
- 210000000214 mouth Anatomy 0.000 claims abstract description 9
- 230000000916 dilatatory effect Effects 0.000 claims abstract description 3
- 210000005036 nerve Anatomy 0.000 claims description 51
- 238000012805 post-processing Methods 0.000 claims description 39
- 238000007781 pre-processing Methods 0.000 claims description 31
- 238000011156 evaluation Methods 0.000 claims description 23
- 230000001537 neural effect Effects 0.000 claims description 22
- 238000013526 transfer learning Methods 0.000 claims description 13
- 238000001914 filtration Methods 0.000 claims description 11
- 230000010339 dilation Effects 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 9
- 230000011218 segmentation Effects 0.000 description 4
- 239000002184 metal Substances 0.000 description 3
- 210000003625 skull Anatomy 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 210000003901 trigeminal nerve Anatomy 0.000 description 3
- 208000028389 Nerve injury Diseases 0.000 description 2
- 208000001132 Osteoporosis Diseases 0.000 description 2
- ATJFFYVFTNAWJD-UHFFFAOYSA-N Tin Chemical compound [Sn] ATJFFYVFTNAWJD-UHFFFAOYSA-N 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 210000003484 anatomy Anatomy 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000007943 implant Substances 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 210000004373 mandible Anatomy 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000008764 nerve damage Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 208000008798 osteoma Diseases 0.000 description 2
- 230000001575 pathological effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 210000004357 third molar Anatomy 0.000 description 2
- 206010002091 Anaesthesia Diseases 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 230000037005 anaesthesia Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 210000004720 cerebrum Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 238000007408 cone-beam computed tomography Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 210000003792 cranial nerve Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000001847 jaw Anatomy 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000276 neural tube Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 210000000196 olfactory nerve Anatomy 0.000 description 1
- 208000035824 paresthesia Diseases 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Processing (AREA)
Abstract
본 발명은 환자의 구강에 대한 학습용 CT 데이터와 추론용 CT 데이터를 수집하는 CT 데이터 수집부; 상기 학습용 CT 데이터에 대하여 하치조 신경을 주석 처리한 주석 하치조 신경을 생성하는 주석 처리부; 상기 학습용 CT 데이터와 상기 주석 하치조 신경을 매칭 시키는 제1 인공신경망 학습과, 상기 제1 인공신경망 학습의 과정을 참고하여 상기 학습용 CT 데이터와 상기 주석 하치조 신경을 후선화(Dilation)시킨 후선화 하치조 신경을 매칭 시키는 제2 인공신경망 학습을 통해 추론용 인공신경망 모델을 생성하는 인공신경망 학습부; 및 상기 추론용 CT 데이터를 상기 추론용 인공신경망 모델에 적용하여 대응되는 추론 하치조 신경을 산출하는 제어부;를 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 장치 및 방법에 관한 것이다.
Description
본 발명은 치과 치료 시 CT 데이터를 통해 환자의 하치조 신경을 자동으로 추론하여 제공할 수 있는 인공신경망 학습을 통한 하치조 신경 추론 장치 및 방법에 관한 것이다.
환자가 치아 관련 치료를 받기 위해 치과를 내원하는 경우, 의사는 환자의 치아 및 신경 상태를 명확히 판단한 후 이에 대한 적절한 치료를 실시하는 것이 가장 안정적이다.
특히, 치아 치료 시 구강에 위치한 신경 손상을 항상 고려해야하는데, 12개의 뇌신경(Cranial Nerve) 중 제5 뇌신경이 삼차신경(Trigeminal Nerve)이며, 삼차신경의 세 가지(3 Branches) 중 하나가 하악신경(Mandibular Nerve), 하악신경의 여러 가지 중 하나가 하치조 신경(Inferior Alveolar Nerve)이다.
도 1 (a)에 제시된 하치조 신경(IAN)은 대뇌에서 분지한 삼차신경 중 주변의 감각을 담당하는 큰 신경가지로, 주로 어금니나 사랑니 관련 치료 시 마취를 실시하는 큰 신경이다.
도 1 (b)에서처럼 CB-CT(Cone-beam Computed Comography) 파노라마 사진을 유심히 보면 아래 어금니 뿌리 끝 주변으로 선 같이 지나가는 하치조 신경(IAN)을 판독할 수 있다. 이는 일반인에 의한 판독은 쉽지 않으며, 전문가들 역시 CB-CT 상태에 따라 판독이 명확하지 않는 경우가 발생될 수 있다.
이와 같은 하치조 신경(IAN)은 도 2와 같이 사랑니 발치나 임플란트 식립 간에 접촉이 발생되는 경우, 신경 손상에 의해 감각 이상 등의 큰 후유증(Permanent Lesion)을 남김에 따라 해당 시술 간에는 하치조 신경(IAN)에 대한 명확한 판독이 요구된다.
현재 일반적으로 하치조 신경(IAN)은 도 3과 같이 CB-CT를 통해 도출되는 시상면에 대한 복수의 슬라이스에 대하여, 하치조 신경(IAN)이 위치하는 영역에 포인트(P)를 각각 입력하고, 해당 포인트(P)들을 선으로 연결하는 작업을 통해 생성되고 있다.
하지만, 이와 같은 하치조 신경(IAN) 생성 방법은 작업자의 직접적인 판독과 주석 작업을 필요로하기 때문에, 작업자의 능력이나 CT 데이터의 상태 등에 그 결과값이 차이가 발생될 수 있는 문제와 작업 처리 속도 저하 등 다수 문제가 존재한다.
따라서, 하치조 신경(IAN)를 보다 빠르고 안정적으로 생성할 수 있는 장치 및 방법에 대한 요구가 이어지고 있다.
본 발명은 하치조 신경을 자동으로 생성함에 있어 속도 및 안정성을 보다 향상시킬 수 있는 인공신경망 학습을 통한 하치조 신경 추론 장치 및 방법을 제공하는 것을 그 목적으로 한다.
상술한 목적을 실현하기 위한 본 발명의 일 실시예에 따른 인공신경망 학습을 통한 하치조 신경 추론 장치는, 환자의 구강에 대한 학습용 CT 데이터와 추론용 CT 데이터를 수집하는 CT 데이터 수집부; 상기 학습용 CT 데이터에 대하여 하치조 신경을 주석 처리한 주석 하치조 신경을 생성하는 주석 처리부; 상기 학습용 CT 데이터와 상기 주석 하치조 신경을 매칭 시키는 제1 인공신경망 학습과, 상기 제1 인공신경망 학습의 과정을 참고하여 상기 학습용 CT 데이터와 상기 주석 하치조 신경을 후선화(Dilation)시킨 후선화 하치조 신경을 매칭 시키는 제2 인공신경망 학습을 통해 추론용 인공신경망 모델을 생성하는 인공신경망 학습부; 및 상기 추론용 CT 데이터를 상기 추론용 인공신경망 모델에 적용하여 대응되는 추론 하치조 신경을 산출하는 제어부;를 포함할 수 있다.
여기서, 상기 인공신경망 학습부는, 상기 학습용 CT 데이터와 상기 주석 하치조 신경을 초기 네트워크 매개변수로 상기 제1 인공신경망 학습을 실시하여 학습된 제1 인공신경망 매개변수를 도출하는 제1 인공신경망 학습부; 및 상기 학습용 CT 데이터와 상기 후선화 하치조 신경을 상기 학습된 제1 인공신경망 매개변수로 상기 제2 인공신경망 학습을 통한 전이 학습으로 상기 추론용 인공신경망 모델을 생성하는 제2 인공신경망 학습부;를 포함할 수 있다.
여기서, 상기 초기 네트워크 매개변수 및 상기 학습된 제1 인공신경망 매개변수는, 가중치(Weight) 및 편의값(Bias)를 포함하고, 상기 초기 네트워크 매개변수는, 임의로 설정된 매개변수일 수 있다.
여기서, 상기 주석 하치조 신경이 포함된 상기 학습용 CT 데이터의 이미지를 가공하도록 형성되는 데이터 전처리부를 더 포함할 수 있다.
여기서, 상기 데이터 전처리부는, 상기 학습용 CT 데이터에서 상기 주석 하치조 신경이 포함되지 않는 영역을 제거하는 크로핑부를 포함할 수 있다.
여기서, 크로핑 처리된 상기 학습용 CT 데이터를 중심 수직축으로 분할한 뒤 대칭이동시켜 추가 CT 데이터를 생성하는 플리핑부를 더 포함할 수 있다.
여기서, 상기 학습용 CT 데이터 및 상기 추가 CT 데이터를 기설정된 통합 형식으로 변환시키는 표준화부를 더 포함할 수 있다.
여기서, 상기 추론 하치조 신경을 후처리 가공하기 위한 데이터 후처리부를 더 포함할 수 있다.
여기서, 상기 데이터 후처리부는, 상기 추론 하치조 신경 이외의 노이즈 영역을 제거하기 위한 필터링부를 포함할 수 있다.
여기서, 상기 후선화 하치조 신경을 기설정된 범위로 세선화(Skeletonization)시키도록 형성되는 세선화부를 더 포함하고, 상기 제어부는, 세선화된 상기 후선화 하치조 신경을 상기 추론 하치조 신경으로 판단할 수 있다.
여기서, 세선화된 상기 추론 하치조 신경을 평가 기준에 대응되도록 후선화를 실시하는 평가부를 더 포함할 수 있다.
상술한 목적을 실현하기 위한 본 발명의 다른 실시예에 따른 인공신경망 학습을 통한 하치조 신경 추론 방법은, CT 데이터 수집부를 통해 환자의 구강에 대한 학습용 CT 데이터를 수집하는 단계; 주석 처리부를 통해 상기 학습용 CT 데이터에 대하여 하치조 신경을 주석 처리한 주석 하치조 신경을 생성하는 단계; 인공신경망 학습부를 통해 상기 학습용 CT 데이터와 상기 주석 하치조 신경을 매칭 시키는 제1 인공신경망 학습을 실시하는 단계; 상기 인공신경망 학습부를 통해 상기 제1 인공신경망 학습 과정을 참고하여 상기 학습용 CT 데이터와 상기 주석 하치조 신경을 후선화(Dilation)시킨 후선화 하치조 신경을 매칭 시키는 제2 인공신경망 학습을 통해 추론용 인공신경망 모델을 생성하는 단계; 및 제어부가 상기 CT 데이터 수집부를 통해 추론용 CT 데이터가 수집되는 경우 이를 상기 추론용 인공신경망 모델에 적용하여 대응되는 추론 하치조 신경을 산출하는 단계;를 포함할 수 있다.
여기서, 상기 인공신경망 학습부는, 제1 인공신경망 학습부 및 제2 인공신경망 학습부를 포함하고, 상기 인공신경망 학습부를 통해 상기 학습용 CT 데이터와 상기 주석 하치조 신경을 매칭 시키는 제1 인공신경망 학습을 실시하는 단계는, 상기 제1 인공신경망 학습부를 통해 상기 학습용 CT 데이터와 상기 주석 하치조 신경을 초기 초기 네트워크 매개변수로 상기 제1 인공신경망 학습을 실시하여 학습된 제1 인공신경망 매개변수를 도출하는 단계를 포함할 수 있다.
여기서, 상기 인공신경망 학습부를 통해 상기 제1 인공신경망 학습 과정을 참고하여 상기 학습용 CT 데이터와 상기 주석 하치조 신경을 후선화(Dilation)시킨 후선화 하치조 신경을 매칭 시키는 제2 인공신경망 학습을 통해 추론용 인공신경망 모델을 생성하는 단계는, 상기 제2 인공신경망 학습부를 통해 상기 학습용 CT 데이터와 상기 후선화 하치조 신경을 상기 학습된 제1 인공신경망 매개변수로 상기 제2 인공신경망 학습을 통한 전이 학습을 실시하여 상기 추론용 인공신경망 모델을 생성하는 단계를 포함할 수 있다.
여기서, 데이터 전처리부를 통해 상기 주석 하치조 신경이 포함된 상기 학습용 CT 데이터의 이미지를 가공하는 단계를 더 포함할 수 있다.
여기서, 상기 데이터 전처리부는, 크로핑부를 포함하고, 상기 데이터 전처리부를 통해 상기 주석 하치조 신경이 포함된 상기 학습용 CT 데이터의 이미지를 가공하는 단계는, 상기 크로핑부를 통해 상기 학습용 CT 데이터에서 상기 주석 하치조 신경이 포함되지 않는 영역을 제거하는 단계를 포함할 수 있다.
여기서, 상기 데이터 전처리부는, 플리핑부를 더 포함하고, 상기 데이터 전처리부를 통해 상기 주석 하치조 신경이 포함된 상기 학습용 CT 데이터의 이미지를 가공하는 단계는, 상기 플리핑부를 통해 크로핑 처리된 상기 학습용 CT 데이터를 중심 수직축으로 분할한 뒤, 대칭이동시켜 추가 CT 데이터를 생성하는 단계를 더 포함할 수 있다.
여기서, 상기 데이터 전처리부는, 표준화부를 포함하고, 상기 데이터 전처리부를 통해 상기 주석 하치조 신경이 포함된 상기 학습용 CT 데이터의 이미지를 가공하는 단계는, 상기 표준화부를 통해 상기 학습용 CT 데이터 및 상기 추가 CT 데이터를 기설정된 통합 형식으로 변환시키는 단계를 더 포함할 수 있다.
여기서, 데이터 후처리부를 통해 상기 추론 하치조 신경을 후처리 가공하는 단계를 더 포함할 수 있다.
여기서, 상기 데이터 후처리부는, 필터링부를 포함하고, 상기 데이터 후처리부를 통해 상기 추론 하치조 신경을 후처리 가공하는 단계는, 상기 필터링부를 통해 상기 추론 하치조 신경 이외의 노이즈 영역을 제거하는 단계를 포함할 수 있다.
여기서, 상기 데이터 후처리부는, 세선화부를 더 포함하고, 상기 데이터 후처리부를 통해 상기 추론 하치조 신경을 후처리 가공하는 단계는, 상기 세선화부를 통해 상기 후선화 하치조 신경을 기설정된 범위로 세선화(Skeletonization)시키는 단계; 및 상기 제어부가 세선화된 상기 후선화 하치조 신경을 상기 추론 하치조 신경으로 판단하는 단계를 더 포함할 수 있다.
여기서, 상기 데이터 후처리부는, 평가부를 더 포함하고, 상기 데이터 후처리부를 통해 상기 추론 하치조 신경을 후처리 가공하는 단계는, 평가부를 통해 세선화된 상기 추론 하치조 신경을 평가 기준에 대응되도록 후선화를 실시하는 단계를 더 포함할 수 있다.
상술한 구성을 갖는 본 발명의 인공신경망 학습을 통한 하치조 신경 추론 장치 및 방법에 의하면, 인공신경망 학습을 통해 CT 데이터에 대응되는 하치조 신경을 자동을 산출함에 따라 작업 편의성 및 신뢰성을 보다 향상시킬 수 있다.
또한, 일반 주석 처리된 하치조 신경과 후선화된 하치조 신경을 통해 전이 학습을 실시하여 추론 결과값의 정확성을 보다 향상시킬 수 있다.
또한, 데이터 전처리를 통해 대상 CT 데이터의 영역을 한정함에 따라 데이터 처리 과부화를 방지할 수 있다.
또한, 데이터 전처리 시 단일 CT 데이터를 플리핑처리하여 학습량을 두 배로 증가시킴으로써 학습 효율성을 보다 향상시킬 수 있다.
또한, 데이터 전처리 시 CT 데이터를 표준화시킴으로써 다양한 종류의 CT 데이터를 표준 형식으로 전체 변환하여 데이터 처리함에 따라, 데이터 형식 차이에 따른 오차 발생을 저감시킬 수 있다.
도 1은 CT 데이터에서 하치조 신경(IAN)의 위치를 설명하기 위한 도면이다.
도 2는 치아 치료 시 하치조 신경(IAN)의 손상이 발생할 수 있는 사례를 설명하기 위한 도면이다.
도 3은 CB-CT 데이터의 슬라이스를 통해 하치조 신경(IAN)을 주석 작업하는 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일실시예인 인공신경망 학습을 통한 하치조 신경 추론 장치(100)의 구성을 설명하기 위한 블록도이다.
도 5 및 도 6은 본 발명의 다른 실시예에 따른 인공신경망 학습을 통한 하치조 신경 추론 방법을 설명하기 위한 흐름도이다.
도 7 내지 도 11은 도 5 및 도 6의 인공신경망 학습을 통한 하치조 신경 추론 방법을 각 단계 별로 설명하기 위한 도면이다.
도 12는, 본 발명에 따른 추론 하치조 신경 도출 결과를 설명하기 위한 도면이다.
도 2는 치아 치료 시 하치조 신경(IAN)의 손상이 발생할 수 있는 사례를 설명하기 위한 도면이다.
도 3은 CB-CT 데이터의 슬라이스를 통해 하치조 신경(IAN)을 주석 작업하는 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일실시예인 인공신경망 학습을 통한 하치조 신경 추론 장치(100)의 구성을 설명하기 위한 블록도이다.
도 5 및 도 6은 본 발명의 다른 실시예에 따른 인공신경망 학습을 통한 하치조 신경 추론 방법을 설명하기 위한 흐름도이다.
도 7 내지 도 11은 도 5 및 도 6의 인공신경망 학습을 통한 하치조 신경 추론 방법을 각 단계 별로 설명하기 위한 도면이다.
도 12는, 본 발명에 따른 추론 하치조 신경 도출 결과를 설명하기 위한 도면이다.
이하, 본 발명의 바람직한 실시예에 따른 인공신경망 학습을 통한 하치조 신경 추론 장치 및 방법에 대하여 도면을 참조하여 상세히 설명한다. 본 명세서에서는 서로 다른 실시예라도 동일·유사한 구성에 대해서는 동일·유사한 참조번호를 부여하고, 그 설명은 처음 설명으로 갈음한다.
도 4는 본 발명의 일실시예인 인공신경망 학습을 통한 하치조 신경 추론 장치(100)의 구성을 설명하기 위한 블록도이다.
도시된 바와 같이, 본 발명에 따른 인공신경망 학습을 통한 하치조 신경 추론 장치(100)는 인공신경망으로 구성된 학습부를 통해 지도 학습을 실시하여 최적의 추론 인공신경망 모델을 생성하여 CT 데이터의 입력만을 통해 보다 정확한 하치조 신경을 추론하는 것을 특징으로 한다.
이를 위한 하치조 신경 추론 장치(100)는, CT 데이터 수집부(110), 주석 처리부(120), 데이터 전처리부(130), 인공신경망 학습부(150), 데이터 후처리부(170)를 포함할 수 있다.
CT 데이터 수집부(110)는, 학습용 CT 데이터 수집부(111)를 통해 환자의 구강에 대한 학습용 CT 데이터를 수집하고, 추론용 CT 데이터 수집부(113)를 통해 추론용 CT 데이터를 수집하기 위한 수단으로 Cone-beam CT 촬영을 실시하여 생성되는 CT 데이터인 슬라이스들을 수집할 수 있다. 이때, 학습용 CT 데이터 수집부(111)와 추론용 CT 데이터 수집부(113)는 단일로 통합되어 수집하는 데이터의 종류만 달리할 수 있다.
또한, 학습용 구강 CT 데이터는 일반 환자들의 구강을 촬영하여 수집되는 CT 데이터일 수 있으나, 도시하지 않은 통신부를 통해 외부 단말기(서버, PC)로부터 전송되는 CT 데이터일 수 있다.
또한, 학습용 CT 데이터는 인공신경망 학습을 위한 학습 자료이며, 추론용 CT 데이터는 실제 치료를 목적으로 내원한 환자의 CT 데이터나 테스트용으로 제공되는 CT 데이터일 수 있다. 이들은 모두 동일한 형식의 CT 데이터일 수 있으며 적용 대상 및 순서 등에 의한 차이가 있을 수 있다.
주석 처리부(120)는, 학습용 CT 데이터에 대하여 하치조 신경을 주석 처리한 주석 하치조 신경을 생성하기 위한 수단이다.
하지조 신경은 관체로 형성되는 신경 구조를 갖고 있어 학습용 CT 데이터에 포함되는 복수의 시상면 슬라이스에는 하치조 신경의 단면이 원형으로 표시될 수 있다. 따라서, 해당 원형의 중심에 대하여 포인트를 입력하고, 포인트가 입력된 복수의 슬라이스들을 선으로 연결하는 경우, 주석 하치조 신경이 생성될 수 있다.
이와 같은 주석 하치조 신경은 작업자에 의해 수작업으로 생성될 수도 있고, 도시하지 않은 이미지 처리부를 통해 하치조 신경을 분석하여 자동으로 생성될 수도 있다. 본 실시예에서는 작업자가 복수의 포인트를 직접 입력하고 소정의 소프트웨어를 통해 자동으로 선을 형성하여 주석 하치조 신경을 생성하는 것을 예로 하여 설명하도록 한다.
데이터 전처리부(130)는, 주석 하치조 신경이 포함된 학습용 CT 데이터의 이미지를 가공하기 위한 수단이다. 이를 위해 데이터 전처리부(130)는 크로핑부(131), 플리핑부(133) 및 표준화부(135)를 포함할 수 있다.
크로핑부(131)는, 주석 하치조 신경이 포함된 학습용 CT 데이터의 영역을 한정하기 위한 수단으로 학습용 CT 데이터에서 주석 하치조 신경이 포함되지 않은 영역을 제거(Cropping)할 수 있다. 이를 통해 분석 대상 이미지 영역을 보다 축소시킴으로써, 시스템 과부하를 저감시킬 수 있다.
플리핑부(133)는, 크로핑처린된 학습용 CT 데이터를 중심 수직축으로 양측 분할한 뒤, 분할된 각각의 CT 데이터를 대칭이동(Flipping)시킬 수 있다. 따라서, 학습용 CT 데이터를 자체적으로 증가시켜 시스템 운용 효율을 보다 향상시킬 수 있다.
표준화부(135)는, 크로핑부(131)와 플리핑부(133)를 통해 데이터 전처리된 CT 데이터를 기설정된 통합 형식으로 변환시킬 수 있다. 인공신경망 학습을 실시하기 위해서는 수집되는 다양한 형식 및 종류의 CT 데이터를 동일한 형식 및 사이즈로 통합 관리하여 형식 차이에 따른 오차를 방지하고, 데이터 학습 속도를 보다 향상시킬 수 있다.
인공신경망 학습부(150)는, 학습용 CT 데이터와 주석 하치조 신경을 매칭 시키는 제1 인공신경망 학습과, 제1 인공신경망 학습의 과정을 참고하여 학습용 CT 데이터와 주석 하치조 신경을 후선화(Dilation)시킨 후선화 하치조 신경을 매칭 시키는 제2 인공신경망 학습을 통해 추론용 인공신경망 모델을 생성할 수 있다. 이를 위해 제1 인공신경망 학습부(151) 및 제2 인공신경망 학습부(153)를 포함할 수 있다.
제1 인공신경망 학습부(151)는, 학습용 CT 데이터와 주석 하치조 신경을 통해 초기 네트워크 매개변수가 적용된 제1 인공신경망 학습을 실시하여 학습된 제1 인공신경망 매개변수를 도출할 수 있다. 네트워크 매개변수는, 인공신경망 학습에서 적용되는 변수들로 가중치(Weight) 및 편의값(Bias) 등을 포함할 수 있다.
제2 인공신경망 학습부(153)는, 제1 인공신경망 학습을 통해 도출된 학습된 제1 인공신경망 매개변수를 통해 학습용 CT 데이터와 후선화 하치조 신경을 매칭 시키는 제2 인공신경망 학습을 실시하여 추론용 인공신경망 모델을 생성할 수 있다. 역시 제2 인공신경망 학습은 제1 인공신경망 학습부(151)를 통해 도출된 제1 인공신경망 매개변수를 적용하여 전이 학습을 실시할 수 있다.
즉, 인경신경망 학습부(150)는 1차적으로 주석 하치조 신경 및 초기 네트워크 매개변수로 제1 인공신경망 학습을 실시하고, 2차적으로 후선화 하치조 신경과 학습된 제1 인공신경망 매개변수가 적용된 제2 인공신경망 학습으로 전이 학습을 실시하여 최적의 추론 모델인 추론용 인공신경망 모델을 생성할 수 있다.
데이터 후처리부(170)는, 추론 하치조 신경을 후처리 가공하기 위한 수단으로 필터링부(171), 세선화부(173) 및 평가부(175)를 포함할 수 있다.
필터링부(171)는, 추론 하치조 신경 이외의 노이즈 영역을 제거하기 할 수 있다.
세선화부(173)는, 후선화 하치조 신경을 기설정된 범위로 세선화(Skeletonization)시킬 수 있다.
평가부(175)는, 세선화된 추론 하치조 신경을 평가 기준에 대응되도록 후선화(Dilation)를 실시할 수 있다.
즉, 데이터 후처리부(170)는 추론 하치조 신경에 대한 필터링, 세선화 및 피드백을 위한 데이터 후가공을 단계 별로 실시할 수 있다.
제어부(190)는, 상술한 구성들을 제어하기 위한 수단으로 대표적으로 추론용 인공신경망 모델이 생성된 후, 이를 테스트 또는 실제 환자에 적용하기 위한 추론용 CT 데이터가 수집되는 경우, 해당 추론용 CT 데이터를 추론용 인공신경망 모델에 적용하여 대응되는 추론 하치조 신경을 산출할 수 있다.
이때, 제어부(190)는 세선화된 후선화 하치조 신경을 추론 하치조 신경으로 판단하고, 이를 도시하지 않은 출력부로 출력시킬 수 있다. 이는, 추론용 인공신경망 모델을 통해 산출되는 하치조 신경은 후선화된 상태이므로, 이를 세선화한 하치조 신경을 추론용 하치조 신경으로 설정할 수 있는 것이다.
이와 같은 인공신경망 학습을 통한 하치조 신경 추론 장치(100)에 의하면, 먼저 데이터 전처리 과정을 통해 최적의 데이터 구조로 변환시킴으로써 전체 학습 효율을 향상시킬 수 있다. 다음, 주석 하치조 신경과 후선화 하치조 신경을 각각 순차적으로 학습용 CT 데이터에 매칭 시키는 인공신경망 학습을 실시함에 따라, 주석 하치조 신경 학습만을 통해 발생될 수 있는 다수의 오차 상황을 최소화시킬 수 있다.
뿐만아니라, 제1 인공신경망 학습 과정에서 도출되는 학습된 제1 인공신경망 매개변수를 제2 인공신경망 학습에 적용함으로써, 인공신경망 학습 초기 단계에서 랜덤 네트워크 매개변수로 학습되는 상황보다 보다 정확한 매개변수의 조속한 적용을 통해 전체 시스템 효율을 향상시킬 수 있다.
또한, 데이터 후처리 과정을 통해 추가적인 노이즈 발생을 저하시키고 실제 하치조 신경과 대응되는 형상을 작업자나 환자 등에 제공할 수 있을뿐 아니라, 전체 시스템에 대한 피드백이 이루어짐으로써, 이용성, 관리성 및 운용 효율 등의 향상을 동시에 구현할 수 있다.
이상은, 인공신경망 학습을 통한 하치조 신경 추론 장치(100)에 대하여 간략히 설명하였다. 이하에서는, 인공신경망 학습을 통한 하치조 신경 추론 방법을 통해 각 단계 별로 인공신경망 학습이 이루어지는 과정에 대하여 구체적으로 설명하도록 한다.
도 5 및 도 6은 본 발명의 다른 실시예에 따른 인공신경망 학습을 통한 하치조 신경 추론 방법을 설명하기 위한 흐름도이고, 도 7 내지 도 11은 도 5 및 도 6의 인공신경망 학습을 통한 하치조 신경 추론 방법을 각 단계 별로 설명하기 위한 도면이다. 상술한 도면부호에 대한 설명은 생략하도록 한다.
먼저, 도 5는 인공신경망 학습을 통한 하치조 신경 추론 방법의 포괄적인 동작 과정을 설명하기 위한 도면이다.
도시된 바와 같이, 인공신경망 학습을 통한 하치조 신경 추론 방법은 최초 학습용 CT 데이터(T-CT)가 수집되면 이에 대한 주석 하치조 신경(A-IAN)을 생성하여(S11), 이들 및 주석 하치조 신경(A-IAN)을 후선화한 후선화 하치조 신경(D-IAN)과 각각 매칭 시키는 인공신경망 학습을 실시한다(S13). 이러한 인공신경망 학습의 결과로 추론용 인공신경망 모델이 도출된 상태에서(S15), 추론용 CT 데이터가 수집되면(S17) 이를 추론용 인공신경망 모델에 적용하여 대응되는 추론 하치조 신경(도 12, R-IAN 이하생략)을 도출할 수 있다(S17).
이와 같은 프로세스의 세부적인 단계를 도 6의 흐름도와 도 7 내지 도 12 개념도를 같이 참고하여 설명하도록 한다.
먼저 CT 데이터 수집부를 통해 학습용 CT 데이터(T-CT)를 수집할 수 있다(S21). 학습용 CT 데이터(T-CT)는 Cone-beam CT 영상으로, 구강에 대한 복수의 시상면 슬라이스로 구성되어 이들의 결합을 통해 3D 랜더링 또는 파노라마 영상으로 구현될 수 있다.
이렇게 학습용 CT 데이터(T-CT)가 수집되면 주석 처리부를 통해 학습용 CT 데이터(T-CT)에 대응되는 주석 하치조 신경(A-IAN)을 생성할 수 있다(S22).
도 7의 (a)에서처럼 학습용 CT 데이터(T-CT)가 복수의 시상면 슬라이스로 구성됨에 따라 작업자는 각각의 시상면 슬라이스에 표시되는 하치조 신경(도 3, IAN 이하생략) 단면의 중심부에 대하여 포인트(P)를 입력할 수 있다. 이렇게 복수의 시상면 슬라이스에 포인트(P)가 입력되면 이들을 보간(Interpolation)하여 선으로 변환하여 주석 도 7 (b)와 같은 주석 하치조 신경(A-IAN)을 생성할 수 있다.
주석 하치조 신경(A-IAN)의 생성이 완료되면 데이터 전처리부를 통해 분석 대상 영역의 한정, 분석 대상의 자체적 증대 및 형식 통합 등의 데이터 전처리를 실시할 수 있다(S23).
먼저, 데이터 전처리부는 크로핑부를 통해 학습용 CT 데이터(T-CT)에서 주석 하치조 신경(A-IAN)이 포함되지 않는 영역을 제거하는 크로핑(Cropping) 작업을 실시할 수 있다.
학습 CT 데이터로 활용되는 일반적인 CB-CT 3D volume 영상은 데이터가 크기 때문에 이를 인공신경망으로 학습하기 위해서는 많은 연산량이 요구된다. 이와 같은 환경은 인공신경망의 학습 효율을 전체적으로 저하시키는 원인이 될 수 있다.
따라서, 크로핑부는 수집되는 학습용 CT 데이터(T-CT)가 하악 및 상악이 모두 포함된 풀 스컬(Full-Skul) 데이터인 경우 하치조 신경이 위치한 기준 하치조 영역을 제외한 나머지 영역을 제거하여 영상을 축소시킬 수 있다. 예컨대, 도 8의 (a)에서와 같이 학습용 CT 데이터(T-CT)가 풀 스컬 데이터(100%)로 높이가 20cm인 경우, 크로핑부는 기준 하치조 영역(ex. 60%)을 참고하여 해당 영역을 풀 스컬 데이터 대비 하단에서 상단으로 60%로 한정하는 영상 축소 작업을 실시할 수 있다.
만약, 학습용 CT 데이터(T-CT)가 풀 스컬 데이터가 아닌 하악만 포함된(기준 하치조 영역) 데이터인 경우 크로핑부는 상술한 크로핑 작업을 생략할 수 있다.
이렇게 크로핑 작업이 완료되면, 플리핑부를 통해 크로핑 처리된 학습용 CT 데이터(T-CT)를 중심 수직축(VA)으로 양측 분할한 뒤, 분할된 각각의 CT 데이터를 대칭이동 시키는 플리핑(Flipping)을 실시할 수 있다.
도 9 (a)에처럼 주석 하치조 신경(A-IAN)이 포함된 학습용 CT 데이터(T-CT)의 수직 중심축(VA)에 대하여 분할을 실시한다. 이러한 분할에 의해 도 9 (b)와 같이 좌측 하악에 대한 분할 하치조 신경(AD-IAN) 포함된 학습용 CT 데이터(T-CT)를 생성할 수 있다.
이 후, 분할 하치조 신경(AD-IAN)이 포함된 CT 데이터를 대칭이동 시키는 작업을 실시하여 분할 하치조 신경(AD-IAN)이 대칭이동되어 생성된 플리핑 하치조 신경(AF-IAN)이 포함된 학습용 CT 데이터를 생성할 수 있다.
이와 같은 플리핑 작업을 실시하는 경우, 수집된 학습용 CT 데이터(T-CT)와 이를 분할 및 대칭이동시켜 생성되는 추가 CT 데이터를 생성할 수 있게 되어 자체적으로 학습용 자료를 증대시키는 효과를 구현할 수 있다. 여기서, 분할 하치조 신경(AD-IAN)은 주석 하치조 신경(A-IAN)의 좌측 하악 또는 우측 하악이 선택적으로 적용될 수 있다.
플리핑 작업이 완료되면, 표준화부를 통해 학습용 CT 데이터 및 대칭화된 추가 CT 데이터를 기설정된 통합 형식로 변환시킬 수 있다. 데이터 통합 변환은, 데이터 사이즈, voxel 값, 등을 정규화, 평균화, 표준 편차 등에 관련된 다양한 프로세스나 알고리즘을 적용하여 복수의 CT 데이터를 단일 형식을 통합할 수 있다.
이와 같은 데이터 전처리 과정이 완료되면, 도 10에서처럼 인공신경망 학습부를 통해 인공신경망 학습을 실시할 수 있다.
먼저, 제1 인공신경망 학습부를 통해 데이터 전처리가 완료된 학습용 CT 데이터(T-CT) 및 주석 하치조 신경(A-IAN)을 매칭 시키는 제1 인공신경망 학습을 실시할 수 있다(S24).
제1 인공신경망 학습은 도 11에서처럼 제1 인공신경망 학습부를 통해 이루어진다. 입력값으로 학습용 CT 데이터(T-CT)와 이에 따른 주석 하치조 신경(A-IAN)이 입력되는 경우, 임의로 설정된 초기 네트워크 매개변수를 통해 제1 인공신경망 모델을 구동하여 제1 인공신경망 학습을 실시할 수 있다. 이러한 학습을 통해 초기 네트워크 매개변수는 해당 모델링을 통해 보다 최적화된 매개변수인 학습된 제1 인공신경망 매개변수를 도출할 수 있다.
이렇게, 제1 인공신경망 학습을 통해 초기 랜덤 네트워크 매개변수로 적용되었던 초기 네트워크 매개변수를 통해 학습된 제1 인공신경망 매개변수를 도출하는 경우(S25), 학습된 제1 인공신경망 매개변수를 통해 제2 인공신경망 학습을 실시할 수 있다(S26). 즉, 제1 인공신경망 모델을 제2 인공신경망 모델에 전이 학습(Transfer Learning)을 실시할 수 있는 것이다.
제2 인공신경망 학습은 제1 인공신경망 학습과 달리, 주석 하치조 신경(A-IAN)이 아닌 후선화 하치조 신경(D-IAN)을 학습용 CT 데이터(T-CT)와 매칭 시키고, 이때 매개변수로 제1 인공신경망 모델을 통해 학습된 제1 인공신경망 매개변수(ANP)를 적용하는 것을 특징으로 한다.
먼저 도 10에서와 같이, 제2 인공신경망 학습을 위해 제2 인공신경망 학습부를 통해 주석 하치조 신경(A-IAN)을 후선화(Dilation)시킨 후선화 하치조 신경(D-IAN)을 생성할 수 있다.
일반적으로 주석 하치조 신경(A-IAN)은 복수의 시상면 슬라이스에 입력된 포인트(P)를 연결하여 생성되는 선으로 2D 상에서는 직선으로 제시되나 실제로는 소정 지름(voxel size 0.1~0.3mm)을 갖는다. 즉, 하치조 신경이 평균 3.4mm의 지름을 갖는 것에 대비하여 주석 하치조 신경(A-IAN)은 상당히 얇은 두께의 선으로 구성되어 있다. 이에 따라, 학습용 CT 데이터(T-CT)와 이에 대응되는 주석 하치조 신경(A-IAN)의 매칭 학습에서 저품질 영상 (일부가 잘린 영상, metal artifact로 인한 노이즈가 있는 영상 등)인 경우에 성능 감소가 발생할 수 있다.
이에, 제2 인공신경망 학습에서는, 기존 얇은 주석 하치조 신경(A-IAN)을 기설정된 범위(본 실시예 지름 0.1mm -> 3mm)로 후선화하여 전이 학습을 실시하여 영상 인식률을 보다 향상시킬 수 있다. 이때, 제2 인공신경망 학습에 초기 적용되는 네트워크 매개변수는 도 11에서와 같이, 제1 인공신경망 학습을 통해 산출되는 최적의 네트워크 매개변수인 학습된 제1 인공신경망 매개변수가 바로 적용될 수 있다.
학습된 제1 인공신경망 매개변수는, 제1 인공신경망 학습을 통해 산출된 최적의 매개변수임에 따라 제2 인공신경망 학습의 초기부터 적용되는 경우, 해당 학습의 속도 및 정확도를 보다 향상시킬 수 있다.
이러한 제2 인공신경망 학습을 실시하는 경우, 기존 학습된 제1 인공신경망 매개변수는 반복 학습 및 수정의 결과로 보다 더 향상된 매개변수인 기학습된 제2 인공신경망 매개변수로 업그레이드되고, 해당 기학습된 제2 인공신경망 매개변수로 이루어진 인공신경망 학습을 추론 인공신경망 모델(기학습된 제2 인공신경망 매개변수가 적용된 제2 인공신경망 모델)로 선정하여 생성할 수 있다(S27).
추론 인공신경망 모델은, 입력층이 CT 데이터이고, 네트워크는 제2 인공신경망 학습부(제2 인공신경망 모델)이며, 출력층이 후선화 하치조 신경(D-IAN)인 모델일 수 있다.
이렇게 추론 인공신경망 모델이 산출되면 제어부는 CT 데이터 수집부를 통해 추론용 CT 데이터가 수집되는지 여부를 판단할 수 있다(S28).
만약, 환자의 실제 치료나, 테스트 등의 목적으로 추론용 CT 데이터가 수집되는 경우 제어부는 생성된 추론 인공신경망 모델에 해당 추론용 CT 데이터를 매칭 시킬 수 있다(S29).
이는, 추론 인경신경망 모델의 입력층으로 추론용 CT 데이터를 입력하고, 기설정된 기학습된 제2 인공신경망 매개변수가 적용된 제2 인공신경망 학습부를 통해 자동으로 대응되는 추론 하치조 신경을 도출할 수 있다(S30).
이렇게 도출되는 추론 하치조 신경은 후선화 하치조 형상이므로 실제 하치조 신경 형상으로 변환할 필요성과, 일부 존재할 수 있는 노이즈의 제거가 요구될 수 있다.
이를 위해, 데이터 후처리부를 통해 데이터 후처리를 실시할 수 있다(S31).
먼저, 데이터 후처리부의 필터링부를 통해 추론 하치조 신경 이외의 노이즈 영역을 제거할 수 있다. 노이즈 제거 방식의 다양하게 적용될 수 있고, 일 예로 거짓 양성(False positive) 영역을 제거하기 위해 연결 성분을 찾는 connected component algorithm을 적용할 수 있다. 이는, 너비 우선 탐색(BFS), 깊이 우선 탐색(DFS)를 통해 가장 넓은 segmentation 영역을 추론 하치조 신경으로 판단하고 이외의 작은 영역들을 노이즈로 판단하여 제거할 수 있다.
추론 하치조 신경에 대한 노이즈가 제거되면 세선화부를 통해, 기설정된 범위로 세선화(Skeletonization)시킬 수 있다.
추론 인공신경망 모델을 통해 도출되는 추론 하치조 신경은 후선화 하치조 신경(D-IAN)이다. 따라서, 세선화부를 통해 추론된 영상으로부터 대표적인 형상을 갖도록 세선화를 실시할 수 있다. 세선화 방식은 다양하게 적용될 수 있으며, 예컨대 Lee의 Skeletonization 알고리즘(Building Skeleton Models via 3-D Medial Surface Axis Thinning Algorithms. 2002.05.25 Lee T.C)을 적용하여 세선화를 실시할 수 있다.
제어부는, 세선화가 완료된 후선화 하치조 신경(D-IAN)을 최종적인 추론 하치조 신경으로 판단하고, 이를 도시하지 않은 출력부로 출력시킬 수 있다.
이에 더하여, 데이터 후처리부는 평가부를 더 포함하고 있다. 평가부는 도출된 추론 하치조 신경을 외부 데이터에 대비하여 평가하기 위해 평가 기준에 대응되도록 세선화된 추론 하지초 신경을 다시 후선화(Dilation)할 수 있다. 일반적으로 기존 연구(논문 등)에서는 하치조 신경의 지름을 3mm로 하여 평가를 실시함에 따라 평가부는 추론 하치조 신경을 3mm로 후선화시킬 수 있다.
이와 같은, 인공신경망 학습을 통한 하치조 신경 추론 장치 및 방법에 의하면 인공신경망 전이 학습을 통해 최적의 네트워크 매개변수를 도출하고, 이를 통한 추론 인공신경망 모델을 생성함에 따라 학습 속도, 정확성 및 시스템 운용 효율성을 보다 향상시킬 수 있다.
이하에서는 학습 결과를 제시함으로써 본 발명에 따른 효과를 안내하고자 한다.
도 12는, 본 발명에 따른 추론 하치조 신경(R-IAN) 도출 결과를 설명하기 위한 도면이다.
먼저, 표1에서는 본 발명의 추론 인공신경망 모델의 성능을 비교하기 위한 것으로 다수의 학습용 CT 데이터를 확보하여 다양한 경우로 학습된 모델들의 성능을 비교해서 본 발명의 추론 인공신경망 모델의 성능 개선 사항을 검증하고자 하였다.
학습 모델 | ROI volume | 제1,2 학습 | DSC | MCD(mm) | ASSD(mm) | RHD(mm) |
모델1 | x | x | 0.52±0.13 | 0.63±0.59 | 0.59±0.41 | 2.03±2.42 |
모델2 | x | ○ | 0.52±0.13 | 0.59±0.60 | 0.58±0.44 | 2.06±2.45 |
모델3 | ○ | x | 0.56±0.13 | 0.48±0.40 | 0.47±0.31 | 1.50±1.56 |
본 발명 | ○ | ○ | 0.57±0.13 | 0.42±0.27 | 0.43±0.25 | 1.34±1.07 |
(수치는 평균 ±표준편차로 나타냄. 여기서 ROI Volume은 하치조 신경이 포함된 volume을 말함. 이번 연구에서 제1,2 인공신경망 학습(전이 학습)은 하치조 신경관의 중앙 커브라인 데이터를 활용해서 AI 모델에 scratch 학습한 이후에, 하치조 신경 지름 3mm로 후선화한 데이터로 전이 학습하는 것을 말함. ASSD=average symmetric surface distance, DSC=Dice similarity coefficient, RHD=robust Hausdorff distance, MCD=mean curve distance)
여기서, ROI(Region Of Interest) volume은 학습용 CT 데이터를 크로핑 처리하여 하치조 신경이 위치하는 영역만을 이용한 것을 의미하며, 제1,2 학습은 학습된 제 1 네트워크 매개변수로 제 2 네트워크에 전이 학습하는 것을 의미한다.
모든 기법을 사용하지 않은 모델1이 가장 저조한 DSC 수치와 거리평가지표 (MCD, ASSD, RHD)를 나타냈으며, 반대로 ROI volume과 제1,2 학습(전이 학습)을 모두 사용한 본 발명 모델이 모든 평가지표에서 가장 우수한 성능을 보였다.
도 12는 본 발명의 추론 인공신경망 모델을 통해 추론 하치조 신경(R-IAN)을 도출한 결과 3D 랜더링과 슈퍼파노라마로 나타낸다. 여기서, (a) 일반, (b) 다수의 fixture, (c) 무치악, (d) 하악 무치악, (e) 부분 영상(턱 잘림), (f) 부분 영상(우측 잘림) 영상들의 결과를 포함한다. 특히, (f)에서 상당히 저조한 추론 CT 데이터에서도 부분적으로 추론 하치조 신경(R-IAN)이 도출되는 것을 확인 할 수 있었다.
다음 표2에서는 본 발명의 추론 인경신경망 모델과 종래기술 모델(1~3)의 성능을 비교한 결과이다. 종래기술(Jaskari, J., Sahlsten, J., Jarnstedt, J., Mehtonen, H., Karhu, K., Sundqvist, O., Hietanen, A., Varjonen, V., Mattila, V., & Kaski, K. (2020). Deep Learning Method for Mandibular Canal Segmentation in Dental Cone Beam Computed Tomography Volumes. In Scientific Reports (Vol. 10, Issue 1). Springer Science and Business Media LLC. https://doi.org/10.1038/s41598-020-62321-3)
성능결과 | Heterogeneity | DSC | MCD(mm) | ASSD(mm) | RHD(mm) |
종래1 | Positive | 0.41±0.17 | 4.16±12.78 | 3.05±9.75 | 6.98±14.20 |
종래2 | Negative | 0.56±0.11 | 0.66±0.32 | 0.42±0.19 | 1.53±1.62 |
종래3 | Pos+Neg | 0.52±0.15 | 1.63±7.0 | 1.15±5.34 | 2.99±7.92 |
본 발명 | Pos+Neg | 0.57±0.13 | 0.42±0.27 | 0.43±0.25 | 1.34±1.07 |
수치는 평균±표준편차를 나타냄. Pos+Neg = Positive+Negative. 여기서 heterogeneity는 Metal artefact, movement artefact, pathological condition, bisagittal osteoma, cadaver, difficult anatomy, difficult bone structure, osteoporosis를 포함함. ASSD=average symmetric surface distance, DSC=Dice similarity coefficient, RHD=robust Hausdorff distance, MCD=mean curve distance).
종래기술과 본 발명은 유사한 voxel size(0.1~0.3mm)를 가진 CT 데이터를 대상으로 평가했으며, 실측 자료(Ground Truth)는 지름 3mm인 하치조 신경 영상으로 활용했다.
종래기술은 고품질 영상(heterogeneity가 없는 영상)과 저품질 영상(heterogeneity가 있는 영상)을 이용해 평가지표들을 측정하였다. 여기서, heterogeneity는 Metal artefact, movement artefact, pathological condition, bisagittal osteoma, cadaver, difficult anatomy, difficult bone structure, osteoporosis들을 포함한다.
종래기술 결과는 저품질 영상(heterogeneity positive)에서 가장 저조한 성능을 보였으며, 고품질 영상(heterogeneity negative)에서 높은 성능을 보였다.
본 발명은 heterogeneity 유무를 가리지 않고 성능 평가를 실시했다. 여기서, 본 발명은 고품질 영상에서 종래기술보다 더 높은 성능을 보였고 특히 MCD, ASSD, RHD 부문에서 상당히 우수한 결과를 나타냈다. 또한, 그 결과들은 하치조신경과 임플란트 fixture간의 안전거리인 2mm보다 더 낮게 나와서 충분히 임상 활용에 가능할 것으로 판단된다.
상기와 같은 인공신경망 학습을 통한 하치조 신경 추론 장치 및 방법은, 위에서 설명된 실시예들의 구성과 작동 방식에 한정되는 것이 아니다. 상기 실시예들은 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 다양한 변형이 이루어질 수 있도록 구성될 수 있다.
100: 하치조 신경 추론 장치 IAN: 하치조 신경
110: CT 데이터 수집부 A-IAN: 주석 하치조 신경
111: 학습용 CT 데이터 수집부 AD-IAN: 분할 하치조 신경
113: 추론용 CT 데이터 수집부 AF-IAN: 플리핑 하치조 신경
120: 주석 처리부 D-IAN: 후선화 하치조 신경
130: 데이터 전처리부 R-IAN: 추론 하치조 신경
131: 크로핑부 T-CT: 학습용 CT 데이터
133: 플리핑부 P: 포인트
135: 표준화부
150: 인공신경망 학습부
151: 제1 인공신경망 학습부
153: 제2 인공신경망 학습부
170: 데이터 후처리부
171: 필터링부
173: 세선화부
175: 평가부
110: CT 데이터 수집부 A-IAN: 주석 하치조 신경
111: 학습용 CT 데이터 수집부 AD-IAN: 분할 하치조 신경
113: 추론용 CT 데이터 수집부 AF-IAN: 플리핑 하치조 신경
120: 주석 처리부 D-IAN: 후선화 하치조 신경
130: 데이터 전처리부 R-IAN: 추론 하치조 신경
131: 크로핑부 T-CT: 학습용 CT 데이터
133: 플리핑부 P: 포인트
135: 표준화부
150: 인공신경망 학습부
151: 제1 인공신경망 학습부
153: 제2 인공신경망 학습부
170: 데이터 후처리부
171: 필터링부
173: 세선화부
175: 평가부
Claims (22)
- 환자의 구강에 대한 학습용 CT 데이터와 추론용 CT 데이터를 수집하는 CT 데이터 수집부;
상기 학습용 CT 데이터에 대하여 하치조 신경을 주석 처리한 주석 하치조 신경을 생성하는 주석 처리부;
상기 학습용 CT 데이터와 상기 주석 하치조 신경을 매칭 시키는 제1 인공신경망 학습과, 상기 제1 인공신경망 학습의 과정을 참고하여 상기 학습용 CT 데이터와 상기 주석 하치조 신경을 후선화(Dilation)시킨 후선화 하치조 신경을 매칭 시키는 제2 인공신경망 학습을 통해 추론용 인공신경망 모델을 생성하는 인공신경망 학습부; 및
상기 추론용 CT 데이터를 상기 추론용 인공신경망 모델에 적용하여 대응되는 추론 하치조 신경을 산출하는 제어부;를 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 장치.
- 제1항에 있어서,
상기 인공신경망 학습부는,
상기 학습용 CT 데이터와 상기 주석 하치조 신경을 초기 네트워크 매개변수로 상기 제1 인공신경망 학습을 실시하여 학습된 제1 인공신경망 매개변수를 도출하는 제1 인공신경망 학습부; 및
상기 학습용 CT 데이터와 상기 후선화 하치조 신경을 상기 학습된 제1 인공신경망 매개변수로 상기 제2 인공신경망 학습을 통한 전이 학습으로 상기 추론용 인공신경망 모델을 생성하는 제2 인공신경망 학습부;를 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 장치.
- 제2항에 있어서,
상기 초기 네트워크 매개변수 및 상기 학습된 제1 인공신경망 매개변수는,
가중치(Weight) 및 편의값(Bias)를 포함하고,
상기 초기 네트워크 매개변수는,
임의로 설정된 매개변수인, 인공신경망 학습을 통한 하치조 신경 추론 장치.
- 제1항에 있어서,
상기 주석 하치조 신경이 포함된 상기 학습용 CT 데이터의 이미지를 가공하도록 형성되는 데이터 전처리부를 더 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 장치.
- 제4항에 있어서,
상기 데이터 전처리부는,
상기 학습용 CT 데이터에서 상기 주석 하치조 신경이 포함되지 않는 영역을 제거하는 크로핑부를 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 장치.
- 제5항에 있어서,
크로핑 처리된 상기 학습용 CT 데이터를 중심 수직축으로 분할한 뒤 대칭이동시켜 추가 CT 데이터를 생성하는 플리핑부를 더 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 장치.
- 제6항에 있어서,
상기 학습용 CT 데이터 및 상기 추가 CT 데이터를 기설정된 통합 형식으로 변환시키는 표준화부를 더 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 장치.
- 제1항에 있어서,
상기 추론 하치조 신경을 후처리 가공하기 위한 데이터 후처리부를 더 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 장치.
- 제8항에 있어서,
상기 데이터 후처리부는,
상기 추론 하치조 신경 이외의 노이즈 영역을 제거하기 위한 필터링부를 포함하는,
- 제9항에 있어서,
상기 후선화 하치조 신경을 기설정된 범위로 세선화(Skeletonization)시키도록 형성되는 세선화부를 더 포함하고,
상기 제어부는,
세선화된 상기 후선화 하치조 신경을 상기 추론 하치조 신경으로 판단하는, 인공신경망 학습을 통한 하치조 신경 추론 장치.
- 제10항에 있어서,
세선화된 상기 추론 하치조 신경을 평가 기준에 대응되도록 후선화를 실시하는 평가부를 더 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 장치.
- CT 데이터 수집부를 통해 환자의 구강에 대한 학습용 CT 데이터를 수집하는 단계;
주석 처리부를 통해 상기 학습용 CT 데이터에 대하여 하치조 신경을 주석 처리한 주석 하치조 신경을 생성하는 단계;
인공신경망 학습부를 통해 상기 학습용 CT 데이터와 상기 주석 하치조 신경을 매칭 시키는 제1 인공신경망 학습을 실시하는 단계;
상기 인공신경망 학습부를 통해 상기 제1 인공신경망 학습 과정을 참고하여 상기 학습용 CT 데이터와 상기 주석 하치조 신경을 후선화(Dilation)시킨 후선화 하치조 신경을 매칭 시키는 제2 인공신경망 학습을 통해 추론용 인공신경망 모델을 생성하는 단계; 및
제어부가 상기 CT 데이터 수집부를 통해 추론용 CT 데이터가 수집되는 경우 이를 상기 추론용 인공신경망 모델에 적용하여 대응되는 추론 하치조 신경을 산출하는 단계;를 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 방법.
- 제12항에 있어서,
상기 인공신경망 학습부는,
제1 인공신경망 학습부 및 제2 인공신경망 학습부를 포함하고,
상기 인공신경망 학습부를 통해 상기 학습용 CT 데이터와 상기 주석 하치조 신경을 매칭 시키는 제1 인공신경망 학습을 실시하는 단계는,
상기 제1 인공신경망 학습부를 통해 상기 학습용 CT 데이터와 상기 주석 하치조 신경을 초기 초기 네트워크 매개변수로 상기 제1 인공신경망 학습을 실시하여 학습된 제1 인공신경망 매개변수를 도출하는 단계를 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 방법.
- 제13항에 있어서,
상기 인공신경망 학습부를 통해 상기 제1 인공신경망 학습 과정을 참고하여 상기 학습용 CT 데이터와 상기 주석 하치조 신경을 후선화(Dilation)시킨 후선화 하치조 신경을 매칭 시키는 제2 인공신경망 학습을 통해 추론용 인공신경망 모델을 생성하는 단계는,
상기 제2 인공신경망 학습부를 통해 상기 학습용 CT 데이터와 상기 후선화 하치조 신경을 상기 학습된 제1 인공신경망 매개변수로 상기 제2 인공신경망 학습을 통한 전이 학습을 실시하여 상기 추론용 인공신경망 모델을 생성하는 단계를 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 방법.
- 제12항에 있어서,
데이터 전처리부를 통해 상기 주석 하치조 신경이 포함된 상기 학습용 CT 데이터의 이미지를 가공하는 단계를 더 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 방법.
- 제15항에 있어서,
상기 데이터 전처리부는,
크로핑부를 포함하고,
상기 데이터 전처리부를 통해 상기 주석 하치조 신경이 포함된 상기 학습용 CT 데이터의 이미지를 가공하는 단계는,
상기 크로핑부를 통해 상기 학습용 CT 데이터에서 상기 주석 하치조 신경이 포함되지 않는 영역을 제거하는 단계를 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 방법.
- 제16항에 있어서,
상기 데이터 전처리부는,
플리핑부를 더 포함하고,
상기 데이터 전처리부를 통해 상기 주석 하치조 신경이 포함된 상기 학습용 CT 데이터의 이미지를 가공하는 단계는,
상기 플리핑부를 통해 크로핑 처리된 상기 학습용 CT 데이터를 중심 수직축으로 분할한 뒤, 대칭이동시켜 추가 CT 데이터를 생성하는 단계를 더 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 방법.
- 제17항에 있어서,
상기 데이터 전처리부는,
표준화부를 포함하고,
상기 데이터 전처리부를 통해 상기 주석 하치조 신경이 포함된 상기 학습용 CT 데이터의 이미지를 가공하는 단계는,
상기 표준화부를 통해 상기 학습용 CT 데이터 및 상기 추가 CT 데이터를 기설정된 통합 형식으로 변환시키는 단계를 더 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 방법.
- 제12항에 있어서,
데이터 후처리부를 통해 상기 추론 하치조 신경을 후처리 가공하는 단계를 더 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 방법.
- 제19항에 있어서,
상기 데이터 후처리부는,
필터링부를 포함하고,
상기 데이터 후처리부를 통해 상기 추론 하치조 신경을 후처리 가공하는 단계는,
상기 필터링부를 통해 상기 추론 하치조 신경 이외의 노이즈 영역을 제거하는 단계를 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 방법.
- 제20항에 있어서,
상기 데이터 후처리부는,
세선화부를 더 포함하고,
상기 데이터 후처리부를 통해 상기 추론 하치조 신경을 후처리 가공하는 단계는,
상기 세선화부를 통해 상기 후선화 하치조 신경을 기설정된 범위로 세선화(Skeletonization)시키는 단계; 및
상기 제어부가 세선화된 상기 후선화 하치조 신경을 상기 추론 하치조 신경으로 판단하는 단계를 더 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 방법.
- 제21항에 있어서,
상기 데이터 후처리부는,
평가부를 더 포함하고,
상기 데이터 후처리부를 통해 상기 추론 하치조 신경을 후처리 가공하는 단계는,
평가부를 통해 세선화된 상기 추론 하치조 신경을 평가 기준에 대응되도록 후선화를 실시하는 단계를 더 포함하는, 인공신경망 학습을 통한 하치조 신경 추론 방법.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20210124751 | 2021-09-17 | ||
KR1020210124751 | 2021-09-17 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230041560A true KR20230041560A (ko) | 2023-03-24 |
Family
ID=85872672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210193676A KR20230041560A (ko) | 2021-09-17 | 2021-12-31 | 인공신경망 학습을 통한 하치조 신경 추론 장치 및 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230041560A (ko) |
-
2021
- 2021-12-31 KR KR1020210193676A patent/KR20230041560A/ko not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11464467B2 (en) | Automated tooth localization, enumeration, and diagnostic system and method | |
US11443423B2 (en) | System and method for constructing elements of interest (EoI)-focused panoramas of an oral complex | |
RU2725280C1 (ru) | Приспособления и методы планирования ортодонтического лечения | |
US11734825B2 (en) | Segmentation device and method of generating learning model | |
US20210118132A1 (en) | Artificial Intelligence System For Orthodontic Measurement, Treatment Planning, And Risk Assessment | |
WO2019098887A1 (en) | Dental image processing protocol for dental aligners | |
CN112120810A (zh) | 一种牙齿正畸隐型矫治器的三维数据生成方法 | |
EP2306400B1 (en) | Method for digitizing dento-maxillofacial objects | |
US20220084267A1 (en) | Systems and Methods for Generating Quick-Glance Interactive Diagnostic Reports | |
Tian et al. | Efficient computer-aided design of dental inlay restoration: a deep adversarial framework | |
CN112785609B (zh) | 一种基于深度学习的cbct牙齿分割方法 | |
AU2020341455A1 (en) | Method, system and devices for instant automated design of a customized dental object | |
US12062170B2 (en) | System and method for classifying a tooth condition based on landmarked anthropomorphic measurements | |
CN113052902B (zh) | 牙齿治疗监测方法 | |
US20220361992A1 (en) | System and Method for Predicting a Crown and Implant Feature for Dental Implant Planning | |
US11704819B2 (en) | Apparatus and method for aligning 3-dimensional data | |
WO2021174479A1 (zh) | 一种口腔正畸治疗前后牙齿移动量计算方法和装置 | |
Jang et al. | Fully automatic integration of dental CBCT images and full-arch intraoral impressions with stitching error correction via individual tooth segmentation and identification | |
US20220358740A1 (en) | System and Method for Alignment of Volumetric and Surface Scan Images | |
CN111275808B (zh) | 一种牙齿正畸模型的建立方法及装置 | |
US11488305B2 (en) | Segmentation device | |
US20230252748A1 (en) | System and Method for a Patch-Loaded Multi-Planar Reconstruction (MPR) | |
US20230419631A1 (en) | Guided Implant Surgery Planning System and Method | |
US20230013902A1 (en) | System and Method for Correcting for Distortions of a Diagnostic Image | |
CN116421341A (zh) | 正颌手术规划方法、设备、存储介质和手术导航系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |