KR101913586B1 - Dental image registration method, apparatus, and recording medium thereof - Google Patents
Dental image registration method, apparatus, and recording medium thereof Download PDFInfo
- Publication number
- KR101913586B1 KR101913586B1 KR1020170063955A KR20170063955A KR101913586B1 KR 101913586 B1 KR101913586 B1 KR 101913586B1 KR 1020170063955 A KR1020170063955 A KR 1020170063955A KR 20170063955 A KR20170063955 A KR 20170063955A KR 101913586 B1 KR101913586 B1 KR 101913586B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- image data
- tooth
- view
- matching
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000000605 extraction Methods 0.000 claims description 14
- 208000008312 Tooth Loss Diseases 0.000 claims 2
- 239000007943 implant Substances 0.000 abstract description 7
- 238000013461 design Methods 0.000 abstract description 4
- 238000004590 computer program Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 210000000276 neural tube Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5205—Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
-
- A61B6/14—
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/51—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- High Energy & Nuclear Physics (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Public Health (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 치아 영상 정합, 이를 위한 장치, 및 이를 기록한 기록매체에 관한 것으로, 더욱 상세하게는 영상 특징을 기반으로 치아 영상을 정합하는 치아 영상 정합 방법, 이를 위한 장치, 및 이를 기록한 기록매체에 관한 것이다.The present invention relates to a tooth image registration, an apparatus therefor, and a recording medium on which the image is registered. More particularly, the present invention relates to a tooth image registration method for registering tooth images based on image features, an apparatus therefor, and a recording medium will be.
컴퓨터 비전에서 하나의 장면이나 대상을 다른 시간이나 관점에서 촬영할 경우, 서로 다른 좌표계에 따른 영상이 얻어지게 된다. 영상 정합은 이와 같은 서로 다른 영상을 하나의 좌표계에 나타내기 위한 처리를 의미한다. 영상 정합을 통하여 서로 다른 측정 방식을 통해 얻은 영상의 대응 관계를 확인할 수 있다.When a scene or an object is photographed at a different time or viewpoint from a computer vision, images according to different coordinate systems are obtained. Image matching refers to a process for displaying such different images in one coordinate system. Through the image matching, it is possible to confirm the correspondence relationship between images obtained through different measurement methods.
치과용 수술 가이드(Surgical guide)의 디지털 설계시에는 임플란트 플래닝 단계로 진입하기 전에 일반적으로 CT 데이터와 스캔 데이터 간의 영상 정합 과정을 거치게 된다. 정합된 영상은 골조직과 신경관 위치 등을 파악하여 안전하고 최적의 임플란트 식립 위치를 결정하는 임플란트 플래닝 작업의 기초가 되므로 영상 정합의 정확성은 그 이후 절차진행에 있어 매우 중요한 의미를 가진다.In the digital design of a surgical guide, the image is usually subjected to image registration between CT data and scan data before entering the implant planning stage. The accuracy of the image matching is very important for the subsequent procedure because the matched image is the foundation of the implant planning work which determines the safe and optimal implant placement position by grasping the bone tissue and neural tube position.
치아 영상 정합시에는 사용자가 영상 정합의 기준이 되는 복수의 포인트를 입력하는 것이 필요한데, 종래 방식에 따르면, 사용자는 치아 영상의 방향이나 각도를 이리저리 변경하면서 적절한 포인트를 찾아 입력해야 한다. In order to match a tooth image, a user needs to input a plurality of points, which is a reference of image matching. According to the conventional method, the user must find and input an appropriate point while changing the direction or angle of the tooth image.
이와 같이, 영상 객체를 사용자가 원하는 위치로 이동시킬 때에는 아크볼(Arc-ball)이나 트랙볼(Trackball)과 같은 가상의 조작수단을 활용한다. 그러나, 이와 같은 조작수단에 의하면, 사용자가 원하는 방향으로 이동시키기까지 다수의 드래그(Drag) 동작이나 클릭 동작이 필요하기 때문에 시간이 많이 소요되고, 조작수단을 핸들링하는 것에 서투른 사용자는 의도치 않은 방향으로 영상 객체가 회전이 되어 많은 시행착오를 거쳐야 하는 문제점이 존재하였다. 뿐만 아니라, 정합 수행시마다 사용자가 치아 영상 객체를 돌려가며 적절한 포인트를 찾는 조작 동작이 반복되어야 하기 때문에 매우 비효율적이었다.As described above, when moving a video object to a desired position, a virtual operation means such as an arc-ball or a trackball is utilized. However, according to such an operation means, a large amount of time is required because a plurality of drag operations or click operations are required until the user moves in a desired direction, and a user who is uncomfortable in handling the operation means takes an unintended direction There is a problem that a lot of trial and error must be performed. In addition, it is very inefficient because the user must repeat the manipulation operation for finding the appropriate point by rotating the tooth image object each time the matching is performed.
전술된 바와 같은 종래 기술의 문제점으로 인하여 치아 영상 정합에 많은 시간이 소요되고 번거로움이 수반되었으며, 이는 곧 전반적인 디지털 설계 프로세스를 지연시키고 효율성을 저하시키는 요인으로 작용하였다.Due to the problems of the related art as described above, it takes a lot of time and cumbersome to match the teeth image, which is a factor that delays the overall digital design process and deteriorates the efficiency.
본 발명은 치아 영상 정합시 사용자가 객체의 방향이나 각도를 직접 변경하면서 영상 정합의 기준 포인트를 입력함으로써 영상 정합에 불필요한 시간이 소요되고 비효율성을 야기하는 종래 기술의 문제점을 해결하기 위하여 제안된 것으로서, 영상 정합시 사용자의 수동 조작을 최소화하여 효율성을 도모할 수 있는 치아 영상 정합 방법, 이를 위한 장치, 및 이를 기록한 기록매체를 제공하는데 목적이 있다.The present invention has been proposed in order to solve the problems of the related art that it takes a time unnecessary for the image matching and causes inefficiency by inputting the reference point of the image matching while directly changing the direction or angle of the object in the tooth image matching A method of matching a teeth image, an apparatus for the same, and a recording medium on which the method is recorded.
본 발명의 일 양태에 따른 치아 영상 정합 방법은 두 개의 치아 영상을 정합하는 치아 영상 정합 방법에 있어서, 제1 치아 영상 데이터의 영상 좌표계 정보를 기초로 상기 제1 치아 영상 데이터에 대하여 서로 다른 방향에 각각 대응하는 복수의 뷰 영상을 생성하는 단계; 제2 치아 영상 데이터의 영상 좌표계 정보를 기초로 상기 제2 치아 영상 데이터에 대하여 상기 서로 다른 방향에 각각 대응하는 복수의 뷰 영상을 생성하는 단계; 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터에 대한 상기 뷰 영상을 분할된 화면에 디스플레이하는 단계; 상기 복수의 뷰 영상 내에서 사용자 입력부를 통하여 영상 정합의 기준이 되는 특징점을 입력받는 단계; 및 입력된 상기 특징점을 기초로 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 정합을 수행하는 단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a tooth image matching method for matching two tooth images, the method comprising the steps of: Generating a plurality of view images respectively corresponding to the plurality of view images; Generating a plurality of view images corresponding to the different directions of the second tooth image data based on the image coordinate system information of the second tooth image data; Displaying the view image of the first tooth image data and the second tooth image data on a divided screen; Receiving a feature point serving as a reference for image matching through the user input unit in the plurality of view images; And performing matching of the first tooth image data and the second tooth image data based on the input minutiae points.
여기서, 상기 서로 다른 방향은 좌측방향, 우측방향, 및 정면방향 중 적어도 어느 한 방향을 포함할 수 있다.Here, the different directions may include at least one of a left direction, a right direction, and a front direction.
본 발명의 또 다른 양태에 따른 치아 영상 정합 장치는 두 개의 치아 영상을 정합하는 치아 영상 정합 장치에 있어서, 제1 치아 영상 데이터와 제2 치아 영상 데이터의 영상 좌표계 정보를 기초로 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터에 대하여 서로 다른 방향에 각각 대응하는 복수의 뷰 영상을 생성하는 뷰영상 생성부; 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터에 대한 상기 복수의 뷰 영상을 분할된 화면에 표시하는 디스플레이부; 상기 복수의 뷰 영상 내에서 영상 정합의 기준이 되는 특징점을 입력받는 사용자 입력부; 및 입력된 상기 특징점을 기초로 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 정합을 수행하는 영상 정합부를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a tooth image matching apparatus for matching two teeth images, the apparatus comprising: a first tooth image matching unit for matching the first tooth image and the second tooth image data based on the image coordinate system information of the first tooth image data and the second tooth image data; A view image generating unit generating a plurality of view images corresponding to different directions with respect to the data and the second tooth image data; A display unit for displaying the plurality of view images for the first tooth image data and the second tooth image data on a divided screen; A user input unit for inputting a feature point serving as a reference of image matching in the plurality of view images; And an image matching unit for matching the first tooth image data and the second tooth image data based on the input minutiae points.
이때, 상기 뷰영상 생성부는 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 스케일이 서로 대응되도록 상기 뷰 영상을 생성할 수 있다.At this time, the view image generating unit may generate the view image so that the scales of the first tooth image data and the second tooth image data correspond to each other.
한편, 상기 치아 영상 정합 장치는 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터를 기초로 상기 특징점으로 적합한 후보점 또는 상기 특징점이 위치하기에 적합한 후보영역을 추출하는 영상특징 추출부를 더 포함하고, 상기 뷰영상 생성부는 상기 후보점 또는 상기 후보영역의 위치를 기초로 상기 뷰 영상의 방향을 결정할 수 있다.The tooth image matching apparatus may further include a feature extraction unit extracting a candidate point suitable for the feature point or a candidate region suitable for positioning the feature point based on the first tooth image data and the second tooth image data, , The view image generating unit may determine the direction of the view image based on the position of the candidate point or the candidate region.
여기서, 상기 디스플레이부는 상기 영상특징 추출부를 통해 추출된 상기 후보점 또는 후보영역을 상기 뷰 영상에 표시하여 사용자가 특징점의 위치를 결정할 때 도움을 줄 수 있다.Here, the display unit may display the candidate points or candidate areas extracted through the image feature extracting unit on the view image, thereby helping the user to determine the location of the feature points.
또한, 상기 치아 영상 정합 장치는 상기 뷰 영상의 방향을 결정하기 위한 기준정보를 저장하는 방향기준 저장부를 더 포함하고, 상기 뷰영상 생성부는 상기 방향기준 저장부에 저장된 상기 기준정보를 기초로 상기 뷰 영상을 생성할 수도 있다.The tooth image matching apparatus may further include a direction reference storage unit for storing reference information for determining a direction of the view image, and the view image generating unit may generate a view image based on the reference information stored in the direction reference storage unit, It is possible to generate an image.
아울러, 상기 디스플레이부는 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 상기 각 뷰 영상 중 동일한 방향에 따른 뷰 영상은 서로 대응되는 위치에 표시할 수 있으며, 상기 디스플레이부는 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 정합 결과를 표시할 수 있다.In addition, the display unit may display the view images in the same direction among the view images of the first tooth image data and the second tooth image data at positions corresponding to each other, and the display unit displays the first tooth image data and the second tooth image data, And the result of matching of the second tooth image data can be displayed.
한편, 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터는 각각 CT 영상, 스캔 영상, 및 자기공명영상 중 하나가 적용될 수 있다.Meanwhile, one of the CT image, the scan image, and the magnetic resonance image may be applied to the first tooth image data and the second tooth image data, respectively.
이상에서 설명된 바와 같이, 본 발명에 따르면, 치아 영상 정합시 사용자에 의한 객체 조작을 최소화함으로써 사용자의 편의성을 증대시키고, 이에 수반하여 임플란트 계획 및 서지컬 가이드 설계의 효율성을 제고할 수 있는 효과가 있다.As described above, according to the present invention, it is possible to increase the convenience of the user by minimizing the object manipulation by the user in the tooth image registration, and to improve the efficiency of the implant planning and surge guide design have.
도 1은 본 발명의 실시예에 따른 치아 영상 정합 장치의 구성을 나타낸 블록도;
도 2는 본 발명의 실시예에 따른 치아 영상 정합 방법의 흐름도; 및
도 3은 본 발명의 실시예에 따른 치아 영상 정합 장치에 의하여 생성된 뷰 영상과 영상 정합 결과가 표시된 화면의 일 예이다.1 is a block diagram showing a configuration of a tooth image matching apparatus according to an embodiment of the present invention;
2 is a flowchart of a tooth image matching method according to an embodiment of the present invention; And
3 is an example of a view image generated by the tooth image matching apparatus according to an embodiment of the present invention and a screen displaying a result of image matching.
이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, detailed description of well-known functions or constructions that may obscure the subject matter of the present invention will be omitted. It should be noted that the same constituent elements are denoted by the same reference numerals as possible throughout the drawings.
이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위한 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.The terms and words used in the present specification and claims should not be construed to be limited to ordinary or dictionary meanings and the inventor is not limited to the concept of terminology for describing his or her invention in the best way. It should be interpreted as meaning and concept consistent with the technical idea of the present invention. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention, and not all of the technical ideas of the present invention are described. Therefore, It is to be understood that equivalents and modifications are possible.
본 발명에 따른 치아 영상 정합 장치는 두 개의 치아 영상, 즉, 제1 치아 영상 데이터와 제2 치아 영상 데이터의 정합을 수행한다. 여기서, 제1 치아 및 제2 치아 영상 데이터는 이기종 센서를 통하여 획득되거나, 서로 다른 시점에 획득되는 등의 원인으로 말미암아 서로 다른 좌표계를 가지는 영상으로서, 각각 컴퓨터 단층촬영(Computerized tomography, CT) 영상, 모델 스캐너(Model scanner) 또는 구강 스캐너(Intra-oral scanner)를 통한 스캔 영상, 자기공명영상(Magnetic Resonance Image, MRI) 등을 포함하여 다양한 종류의 장비를 통해 촬영되는 2차원 영상, 3차원 영상, 또는 그 이상의 다차원 영상을 포괄한다.The tooth image matching apparatus according to the present invention performs matching between two tooth images, i.e., first tooth image data and second tooth image data. Here, the first and second tooth image data are images having different coordinate systems due to the reasons such as being acquired through the heterogeneous sensor or obtained at different points of time, and each of them is a computerized tomography (CT) image, 2-D images, 3-D images, and 3-D images taken through various types of equipment including a scan image through a model scanner or an intra-oral scanner, a magnetic resonance image (MRI) Or more multidimensional images.
도 1은 본 발명의 실시예에 따른 치아 영상 정합 장치(100)의 블록도이다. 도 1을 참조하면, 본 발명의 실시예에 따른 치아 영상 정합 장치(100)는 사용자 입력부(10), 디스플레이부(20), 뷰영상 생성부(30), 방향기준 저장부(40), 영상특징 추출부(50), 및 영상 정합부(60)를 포함한다.1 is a block diagram of a tooth
사용자 입력부(10)는 사용자로부터 치아 영상 정합 과정에서 필요한 각종 입력을 받기 위함으로, 마우스, 키보드, 버튼 등의 다양한 입력장치로 구현된다.The
디스플레이부(20)는 각종 정보를 입력받기 위한 메뉴화면을 비롯한 그래픽 사용자 인터페이스(Graphic User Interface, GUI) 및 결과화면 등을 표시하기 위한 것으로, 각종 디스플레이 장치로 구현될 수 있으며, 터치 스크린과 같이 사용자 입력부(10)와 디스플레이부(20)가 통합되어 하나의 디바이스로 구현될 수 있음은 물론이다. The
뷰영상 생성부(30)는 제1 치아 영상 데이터의 영상 좌표계 정보와 제2 치아 영상 데이터의 영상 좌표계 정보를 획득하고, 이를 기초로 제1 치아 영상 데이터와 제2 치아 영상 데이터 각각에 대하여 복수의 뷰(View) 영상을 생성한다. 여기서, 뷰 영상은 소정의 방향 내지는 각도에서 객체를 바라본 영상으로서, 예컨대, 뷰 영상은 좌측면 영상, 우측면 영상, 정면 영상 등을 포함할 수 있으며, 반드시 위 3개 방향에 한정되는 것이 아니고, 상면 방향, 저면 방향 등을 비롯하여 다양한 방향 및 각도에 따른 영상을 포함할 수 있다. 생성되는 각 뷰 영상은 서로 다른 방향에 대응된다.The view
이와 같이 뷰영상 생성부(30)는 각 치아 영상 데이터의 영상 좌표계 정보를 기초로 제1 치아 영상 데이터와 제2 치아 영상 데이터를 처리하여 서로 다른 방향에 따른 시점에서의 복수의 뷰 영상을 생성한다. 이때, 제1 치아 영상 데이터에 대한 뷰 영상과 제2 치아 영상 데이터에 대한 뷰 영상은 서로 동일한 방향에 대하여 생성된다. 예컨대, 제1 치아 영상 데이터에 대하여 좌측면 영상, 우측면 영상, 정면 영상으로 3개의 뷰 영상이 생성되었다고 가정하였을 때, 제2 치아 영상 데이터에 대한 뷰 영상도 이와 동일하게 좌측면, 우측면, 정면에 대응하는 뷰 영상이 생성된다.As described above, the view
한편, 뷰영상 생성부(30)는 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 영상 좌표계 정보를 기초로 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 스케일을 조절하여 두 영상 데이터의 스케일이 서로 대응되도록 뷰 영상을 생성할 수 있다.On the other hand, the view
이와 같이, 뷰영상 생성부(30)가 제1 치아 영상 데이터와 제2 치아 영상 데이터에 대한 복수의 뷰 영상을 생성하기 위해서는 구체적인 뷰 방향과 뷰 영상의 개수를 결정하는 것이 필요한데, 이는 방향기준 저장부(40)와 영상특징 추출부(50)를 통해 제공되는 정보에 의하여 결정될 수 있다.In order to generate the plurality of view images for the first tooth image data and the second tooth image data, the view
먼저, 방향기준 저장부(40)는 뷰영상 생성부(30)가 뷰 영상을 생성하기 위한 뷰 방향에 관한 기준정보를 저장한다. 방향기준 저장부(40)는 좌측, 우측, 정면 등으로 모든 치아 영상 데이터에 관하여 일률적인 방향의 뷰 영상이 생성되도록 뷰 방향을 명시하여 저장할 수도 있으나, 촬영된 부위별로 뷰 방향에 관한 정보를 달리 저장할 수 있으며, 또는 환자의 연령, 성별, 구강 특성 등의 카테고리에 따라 뷰 방향에 관한 구체적인 기준을 저장할 수도 있다. 예컨대, 환자의 연령이 적어서 일부 치아가 아직 나지 않은 경우나 환자의 일부 치아가 유실된 경우에는 치아가 존재하는 영역이 포함되도록 뷰 방향에 관한 기준을 마련할 수 있다.First, the direction
뷰영상 생성부(30)는 방향기준 저장부(40)에 저장된 기준정보를 기초로 구체적인 방향을 결정하고, 결정된 방향에 따른 뷰 영상을 생성할 수 있다. 이때, 결정된 방향에 따라 생성되는 뷰 영상의 개수도 함께 결정될 것이다. The view
뷰영상 생성부(30)는 방향기준 저장부(40)에 저장된 기준을 만족하는 구체적인 뷰 방향을 결정하기 위하여 환자의 개인정보나 진료정보가 입력되는 전자차트와 연동되어 각종 정보를 획득할 수도 있으며, 또는 사용자 입력부(10)를 통해 필요한 정보를 입력받거나 또는 치아 영상 데이터를 처리하여 직접 정보를 획득하도록 구현될 수도 있다.The view
영상특징 추출부(50)는 제1 치아 영상 데이터와 제2 치아 영상 데이터를 분석하여 영상 정합의 기준이 되는 특징점(Control point)으로 적합한 후보점 또는 특징점이 위치하기에 적합한 후보영역을 추출한다. The image
예컨대, 영상특징 추출부(50)는 영상 데이터의 처리를 통하여 각 영상 데이터에서 화소의 밝기값이 한 방향으로 급격히 변하는 부분인 에지(Edge)나 모든 방향으로 밝기값이 급격하게 변하는 부분인 코너(Corner)와 같이 영상 정합의 기준으로 적절한 후보점 또는 후보영역을 추출할 수 있다. 영상특징 추출부(50)는 영상에서 구조 및 형태분석, 그레이 스케일에 기반한 다양한 영상처리 알고리즘을 통하여 후보점 또는 후보영역을 추출할 수 있다.For example, the image feature extracting
이에, 뷰영상 생성부(30)는 영상특징 추출부(50)를 통해 추출된 후보점 또는 후보영역의 위치와 개수 등을 고려하여 생성할 뷰 영상의 구체적 방향과 뷰 영상의 개수를 결정할 수 있다. 예컨대, 영상특징 추출부(50)를 통해 후보점으로 전치, 양측의 제2 대구치 부근의 점이 추출되었다고 가정하면, 뷰영상 생성부(30)는 위 후보점이 잘 나타나는 뷰로서, 정면, 좌측면, 우측면 방향에 대한 3개의 영상을 뷰 영상으로 생성할 수 있을 것이다. The view
이처럼, 뷰영상 생성부(30)는 추출된 후보점 또는 후보영역의 구체적 위치와 개수에 따라 추출된 후보점 또는 후보영역이 가장 잘 표현될 수 있는 뷰 방향과 생성할 뷰 영상의 적정 개수를 결정할 수 있으며, 이와 함께 생성될 뷰 영상의 스케일도 결정할 수 있을 것이다. 예컨대, 인접한 후보점이나 후보영역이 거리가 가까운 경우에는 사용자가 해당 부분을 쉽게 구분할 수 있도록 특정 부분이 확대된 뷰 영상을 생성할 수 있으며, 후보점이나 후보영역 간의 거리가 상대적으로 먼 경우에는 넓은 부분을 조망할 수 있도록 스케일을 조절하여 뷰 영상을 생성할 수 있다. As described above, the view
한편, 본 발명의 실시예에 따른 치아 영상 정합 장치(100)는 이상에서 설명된 방향기준 저장부(40)와 영상특징 추출부(50) 중 어느 하나의 구성만을 취할 수도 있으며, 두 구성(40, 50)에 따른 정보를 종합하거나 하나의 구성에 따른 정보를 택일하여 뷰 방향이나 뷰 영상의 개수를 결정할 수 있다. 또는, 하나의 구성에 따른 정보를 우선적으로 활용하고, 해당 구성을 활용할 수 없는 경우에는 다른 구성을 활성화시킬 수 있다. 예컨대, 치아 영상 정합 장치(100)는 우선적으로 방향기준 저장부(40)에 저장된 기준정보를 기초로 뷰 영상을 생성하되, 기준정보를 적용할 수 없는 케이스일 때에는 영상특징 추출부(50)가 활성화되도록 제어할 수 있다. The tooth
뷰영상 생성부(30)를 통해 생성된 제1 치아 영상 데이터와 제2 치아 영상 데이터에 대한 뷰 영상은 디스플레이부(20)를 통해 분할된 화면에 표시된다. The first and second tooth image data generated through the view
사용자는 사용자 입력부(10)를 통하여 디스플레이부(20)에 표시된 각 뷰 영상에서 제1 치아 영상 데이터와 제2 치아 영상 데이터의 정합을 위한 기준이 되는 특징점을 입력할 수 있다. The user can input minutiae serving as criteria for matching the first tooth image data and the second tooth image data in each view image displayed on the
사용자는 제1 치아 영상 데이터의 뷰 영상과 제2 치아 영상 데이터의 뷰 영상에서 서로 동일한 위치라고 생각되는 부분을 특징점으로 입력한다. 예컨대, 사용자는 제1 치아 영상 데이터와 제2 치아 영상 데이터에서 상대적으로 명확하게 나타나는 치아 영역 내에서 특징점을 입력할 수 있다. 한편, 특징점의 위치가 특별히 제한되는 것은 아니지만, 특징점은 영상의 어느 한 부분에 집중되지 않고 전체 영상에서 골고루 배치되도록 입력하는 것이 바람직하다. 사용자는 디스플레이된 모든 뷰 영상에 대해서 적어도 하나 이상의 특징점을 입력할 수도 있으나, 일부의 뷰 영상에서만 특징점을 입력할 수도 있을 것이다.The user inputs a portion of the view image of the first tooth image data and the view image of the second tooth image data, which are considered to be the same position, as feature points. For example, the user can input the minutiae in the tooth area that appears relatively clearly in the first tooth image data and the second tooth image data. On the other hand, although the positions of the minutiae are not particularly limited, it is preferable to input the minutiae so that the minutiae are uniformly distributed in the entire image without concentrating on any one part of the image. The user may input at least one or more minutiae points for all the displayed view images, but the minutiae points may be input only in some view images.
이때, 디스플레이부(20)는 제1 치아 영상 데이터와 제2 치아 영상 데이터의 각 뷰 영상 중 동일한 방향에 따른 뷰 영상은 서로 대응되는 위치에 표시하여 사용자가 두 영상 데이터에서 동일한 부분을 쉽게 파악할 수 있도록 도울 수 있다.At this time, the
영상 정합부(60)는 사용자 입력부(10)를 통해 뷰 영상에 입력된 특징점을 기준으로 제1 치아 영상 데이터와 제2 치아 영상 데이터의 정합을 수행한다. 이때, 정합은 영상의 특징을 바탕으로 한 다양한 정합 알고리즘에 의하여 수행될 수 있다.The
디스플레이부(20)는 치아 영상 데이터의 정합 결과를 표시하여 사용자로 하여금 확인할 수 있도록 한다. 정합 결과 표시시, 디스플레이부(20)는 정합 영상 내에서 정합이 어긋나거나 상대적으로 부정확한 부분을 색을 달리하여 표시하는 등으로 영상 정합 결과의 정확도를 정량적으로 파악할 수 있는 표식을 제공함으로써 사용자가 정합의 정확성 정도를 객관적으로 파악하도록 할 수 있을 것이다.The
한편, 치아 영상 정합 장치(100)는 제1 치아 영상 데이터와 제2 치아 영상 데이터를 정합한 결과에 따른 정합 영상을 메모리(미도시)에 저장하여, 이후 임플란트 시술 계획을 수립하기 위한 시뮬레이션시 이를 로딩하여 활용할 수 있다.In the meantime, the tooth
그리고, 영상특징 추출부(50)를 통해 추출된 후보점이나 후보 영역에 관한 정보를 저장하였다가 뷰 영상에 함께 표시해줌으로써 사용자가 특징점을 입력할 때 좀 더 적절한 포인트를 입력할 수 있도록 가이드해줄 수도 있을 것이며, 영상 정합이 완료된 이후 정합 결과의 수정이 필요할 때에도 저장된 정보를 제공하여 사용자가 특징점을 재선택하는데 도움을 줄 수도 있다.Then, information about candidate points or candidate regions extracted through the image
도 2는 본 발명의 실시예에 따른 치아 영상 정합 방법에 따른 정합 과정을 나타낸 흐름도이다. 이하, 도 2를 참조하여 도 1의 치아 영상 정합 장치(100) 구성의 유기적인 동작 과정을 살펴본다.2 is a flowchart illustrating a matching process according to a tooth image matching method according to an embodiment of the present invention. Hereinafter, an organic operation process of the configuration of the tooth
영상 장비를 통하여 영상 정합을 수행할 제1 치아 영상 데이터와 제2 치아 영상 데이터가 획득되면, 뷰영상 생성부(30)는 영상 정합의 기준이 되는 특징점이 위치할 가능성이 큰 영역이 잘 나타나도록 제1 치아 영상 데이터와 제2 치아 영상 데이터에 대한 적절한 뷰 방향과 뷰 영상의 개수를 결정한다(S10, S20). 이때, 영상 데이터의 영상 좌표축 대비 환자의 방향(Orientation)이 틀어진 경우에는 뷰 방향과 뷰 영상의 개수를 결정하기 전에 영상 데이터의 기울기 등을 보정하는 단계가 선행될 수 있을 것이다. When the first tooth image data and the second tooth image data to be subjected to the image matching through the image equipment are acquired, the view
한편, 구체적인 뷰 방향과 뷰 영상의 개수는 방향기준 저장부(40)에 저장된 기준정보에 의하거나, 또는 영상특징 추출부(50)를 통해 추출된 후보점이나 후보영역의 위치 및 그 개수, 거리 등에 따라 적응적으로 결정될 수 있다. 참고로, 뷰 영상 생성을 위한 뷰 방향 및 개수는 제1 치아 영상 데이터와 제2 치아 영상 데이터에 대하여 동일하게 적용된다. On the other hand, the specific view direction and the number of view images are determined based on the reference information stored in the direction
예컨대, 뷰영상 생성부(30)는 방향기준 저장부(40)에 뷰 방향이 직접적으로 명시된 때에는 해당 뷰 방향에 따른 뷰 영상을 생성할 수 있으며, 방향기준 저장부(40)에 소정 조건에 따라 뷰 방향이 정의된 경우에는 연령, 성별, 인종 등의 환자정보와 치아의 유실 부분이나 진단명과 같은 환자의 진료정보를 활용하거나 주어진 치아 영상 데이터를 직접 처리하여 제1 치아 영상 데이터와 제2 치아 영상 데이터가 소정 조건을 만족하는지를 먼저 판단한 후 구체적인 뷰 방향을 결정할 수 있다.For example, when the view direction is directly specified in the direction
또 다른 예로서, 뷰영상 생성부(30)는 영상특징 추출부(50)를 통해 추출된 후보점이나 후보영역의 위치가 상대적으로 일 측면에 밀집된 경우에는 정면을 기준으로 해당 측면방향으로 각각 α도, β도, δ도 회전된 뷰 영상을 생성하는 등으로 다른 방향에 비하여 후보점이나 후보영역이 밀집된 일 측면방향에 집중하여 뷰 영상을 생성할 수 있을 것이다. 또한, 각 후보점이나 후보영역의 거리에 따라 각 뷰 영상 간의 회전각도 차이나 스케일을 달리 결정할 수 있다. 예컨대. 후보점 간의 거리가 가까울수록 각 뷰 영상 간의 회전각도 차이를 작게 결정할 수 있으며, 인접 후보점 부근이 명확하게 구분될 수 있도록 해당 부분이 확대되도록 뷰 영상의 스케일을 결정할 수 있을 것이다. As another example, when the positions of the candidate points or candidate regions extracted through the image
이와 같이, 뷰 영상의 방향, 개수, 스케일 등이 결정되면, 뷰영상 생성부(30)는 영상 좌표계 정보를 기초로 제1 치아 영상 데이터와 제2 치아 영상 데이터에 대하여 결정된 방향과 개수, 스케일에 대응하는 복수의 뷰 영상을 생성하고, 이를 디스플레이한다(S30, S40). When the direction, number, and scale of the view image are determined as described above, the view
사용자가 사용자 입력부(10)를 통하여 뷰 영상에 특징점을 입력하면, 영상 정합부(60)는 입력된 특징점을 기준으로 두 치아 영상 데이터를 정합한다(S50, S60). 정합은 영상의 특징을 기반으로 하여 정합을 수행하는 다양한 정합 알고리즘에 의할 수 있음은 전술된 바와 같다.When the user inputs a feature point to the view image through the
디스플레이부(20)에는 사용자가 확인할 수 있도록 영상 정합 결과가 표시되며(S70), 이때, 결과 표시창에 정합도에 따라 색상을 달리하는 등으로 정합 정확도를 객관적으로 파악할 수 있는 정량적인 표식을 부가할 수 있다. 이는 사용자가 정합 결과의 수정 필요 여부를 판단하는데 도움이 될 수 있다.The image matching result is displayed on the
도 3은 본 발명의 실시예에 따른 치아 영상 정합 장치(100)에 의하여 생성된 뷰 영상과 영상 정합 결과가 표시된 화면의 일 예로서, 제1 치아 영상 데이터는 구강 스캔 영상, 제2 치아 영상 데이터는 CT 영상인 예를 보여준다. FIG. 3 shows an example of a view image and a result of image matching generated by the tooth
도 3을 참조하면, A 영역은 제1 치아 영상 데이터에 대한 뷰 영상(301, 302, 303)이 표시된 영역이고, B 영역은 제2 치아 영상 데이터에 대한 뷰 영상(304, 305, 306)이 표시된 영역으로서, 왼편부터 순서대로 좌측 방향, 정면 방향, 우측 방향에 따른 뷰 영상(301 내지 306)이 분할된 화면에 표시된 예이다. Referring to FIG. 3, the area A is an area where the
제1 치아 영상 데이터와 제2 치아 영상 데이터의 각 뷰 영상 중 동일한 방향에 따른 뷰 영상은 서로 대응되는 위치에 표시되어 있다. 예컨대, 제1 치아 영상 데이터에 대한 좌측 방향 뷰 영상(301)과 제2 치아 영상 데이터에 대한 좌측 방향 뷰 영상(304)이 아래 위로 서로 대응되는 위치에 표시되어 있다. 이를 통해, 사용자가 두 치아 영상 데이터에 대해서 동일 위치에 대응하는 특징점을 쉽게 파악할 수 있다. 또한, 두 치아 영상 데이터의 스케일도 서로 대응되도록 뷰 영상을 생성함으로써 사용자가 더 직관적으로 특징점을 파악하도록 할 수 있다.The view images in the same direction among the respective view images of the first tooth image data and the second tooth image data are displayed at positions corresponding to each other. For example, a left-
참고로, 6개의 뷰 영상(301 내지 306)에 입력된 점(p1 내지 p6)은 사용자 입력부(10)를 통하여 입력된 특징점의 예시를 보여준다.For reference, the points p1 to p6 input to the six
상황에 따라 생성된 뷰 영상에 사용자가 입력하고자 하는 특징점 부근이 잘 나타나있지 않거나 뷰 영상 내에서 적절한 특징점을 찾기 어려운 경우를 대비하여 표시된 뷰 영상의 방향을 사용자가 수동으로 조절할 수 있는 조절수단(미도시)을 부가할 수 있다. Adjusting means for manually adjusting the direction of the displayed view image in case that the vicinity of the feature point to be inputted by the user is not clearly displayed in the generated view image or in the case where it is difficult to find an appropriate feature point in the view image Time) can be added.
한편, C 영역은 정합 결과를 보여주는 결과 영상(307)과 정합된 영상에서 VOI(Volumn of Interest)를 조정하기 위한 함수 형태의 사용자 인터페이스(User Interface, UI)(308)로서, 결과 영상(307)에서는 정합도를 서로 다른 색으로 표시하고 있다. The C region is a functional user interface (UI) 308 for adjusting the VOI (Volumn of Interest) in the matching image with the
사용자는 제공된 결과 영상을 기초로 정합 결과를 평가하여 필요한 경우에는 특징점의 위치를 변경하거나 새로운 특징점을 추가하여 종전의 영상 정합 결과를 수정할 수 있다. The user can evaluate the matching result based on the provided result image, modify the position of the minutiae point or add a new minutiae point if necessary to correct the previous image matching result.
전술된 실시예에서는 CT영상과 구강 스캔 영상의 정합이 이루어지는 것을 일 예로 들어 설명되었으나, CT영상-CT영상, 스캔 영상-스캔 영상, 자기공명영상-CT영상 등과 같이 2차원-2차원 영상, 2차원-3차원 영상, 3차원-3차원 영상의 다양한 조합에 대해서도 본 발명에 따른 치아 영상 정합 방법에 의해서 정합이 이루어질 수 있음은 물론이다. In the above-described embodiment, the CT image and the oral scan image are matched with each other. However, the CT image-CT image, the scan image-scan image, the MRI image-CT image, It is needless to say that various combinations of the 3D-3D image and the 3D-3D image can be matched by the tooth image matching method according to the present invention.
한편, 본 발명의 실시예에 따른 치아 영상 정합 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성되어 마그네틱 저장매체, 광학적 판독매체, 디지털 저장매체 등 다양한 기록 매체로도 구현될 수 있을 것이다.Meanwhile, the tooth image matching method according to the embodiment of the present invention may be realized by a program that can be executed by a computer, and may be implemented by various recording media such as a magnetic storage medium, an optical reading medium, and a digital storage medium.
이처럼, 본 발명에 따른 치아 영상 정합 방법, 이를 위한 장치, 및 이를 기록한 기록매체에 따르면, 사용자가 수동으로 객체의 방향이나 각도를 직접 변경하면서 영상 정합의 기준이 되는 포인트를 입력하지 않아도 되기 때문에 종래 기술에 비하여 사용자의 편의를 크게 증대시킬 수 있으며, 이에 수반하여 임플란트 계획 및 서지컬 가이드 설계의 효율성을 제고할 수 있는 효과가 있다.As described above, according to the tooth image matching method of the present invention, an apparatus therefor, and a recording medium on which the tooth image is recorded, the user does not need to manually input the point as the reference for image matching while manually changing the direction or angle of the object. It is possible to increase the convenience of the user significantly compared with the technique, and accordingly, the efficiency of the implant planning and the design of the surge guide can be enhanced.
본 명세서에 설명된 각종 기술들의 구현들은 디지털 전자 회로조직으로, 또는 컴퓨터 하드웨어, 펌웨어, 소프트웨어로, 또는 그들의 조합들로 구현될 수 있다. 구현들은 데이터 처리 장치, 예를 들어 프로그램가능 프로세서, 컴퓨터, 또는 다수의 컴퓨터들의 동작에 의한 처리를 위해, 또는 이 동작을 제어하기 위해, 컴퓨터 프로그램 제품, 즉 정보 캐리어, 예를 들어 기계 판독가능 저장 장치(컴퓨터 판독가능 매체) 또는 전파 신호에서 유형적으로 구체화된 컴퓨터 프로그램으로서 구현될 수 있다. 상술한 컴퓨터 프로그램(들)과 같은 컴퓨터 프로그램은 컴파일된 또는 인터프리트된 언어들을 포함하는 임의의 형태의 프로그래밍 언어로 기록될 수 있고, 독립형 프로그램으로서 또는 모듈, 구성요소, 서브루틴, 또는 컴퓨팅 환경에서의 사용에 적절한 다른 유닛으로서 포함하는 임의의 형태로 전개될 수 있다. 컴퓨터 프로그램은 하나의 사이트에서 하나의 컴퓨터 또는 다수의 컴퓨터들 상에서 처리되도록 또는 다수의 사이트들에 걸쳐 분배되고 통신 네트워크에 의해 상호 연결되도록 전개될 수 있다.Implementations of the various techniques described herein may be implemented in digital electronic circuitry, or in computer hardware, firmware, software, or combinations thereof. Implementations may be implemented in a computer program product, such as an information carrier, e.g., a machine readable storage device, such as a computer readable storage medium, for example, for processing by a data processing apparatus, Apparatus (computer readable medium) or as a computer program tangibly embodied in a propagation signal. A computer program, such as the computer program (s) described above, may be written in any form of programming language, including compiled or interpreted languages, and may be stored as a stand-alone program or in a module, component, subroutine, As other units suitable for use in the present invention. A computer program may be deployed to be processed on one computer or multiple computers at one site or distributed across multiple sites and interconnected by a communications network.
컴퓨터 프로그램의 처리에 적절한 프로세서들은 예로서, 범용 및 특수 목적 마이크로프로세서들 둘 다, 및 임의의 종류의 디지털 컴퓨터의 임의의 하나 이상의 프로세서들을 포함한다. 일반적으로, 프로세서는 판독 전용 메모리 또는 랜덤 액세스 메모리 또는 둘 다로부터 명령어들 및 데이터를 수신할 것이다. 컴퓨터의 요소들은 명령어들을 실행하는 적어도 하나의 프로세서 및 명령어들 및 데이터를 저장하는 하나 이상의 메모리 장치들을 포함할 수 있다. 일반적으로, 컴퓨터는 데이터를 저장하는 하나 이상의 대량 저장 장치들, 예를 들어 자기, 자기-광 디스크들, 또는 광 디스크들을 포함할 수 있거나, 이것들로부터 데이터를 수신하거나 이것들에 데이터를 송신하거나 또는 양쪽으로 되도록 결합될 수도 있다. 컴퓨터 프로그램 명령어들 및 데이터를 구체화하는데 적절한 정보 캐리어들은 예로서 반도체 메모리 장치들, 예를 들어, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 롬(Read Only Memory, ROM), 램(Random Access Memory, RAM), 플래시 메모리, EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 등을 포함한다. 프로세서 및 메모리는 특수 목적 논리 회로조직에 의해 보충되거나, 이에 포함될 수 있다.Processors suitable for processing a computer program include, by way of example, both general purpose and special purpose microprocessors, and any one or more processors of any kind of digital computer. Generally, a processor will receive instructions and data from a read-only memory or a random access memory or both. The elements of a computer may include at least one processor for executing instructions and one or more memory devices for storing instructions and data. Generally, a computer may include one or more mass storage devices for storing data, such as magnetic, magneto-optical disks, or optical disks, or may receive data from them, transmit data to them, . ≪ / RTI > Information carriers suitable for embodying computer program instructions and data include, for example, semiconductor memory devices, for example, magnetic media such as hard disks, floppy disks and magnetic tape, compact disk read only memory A magneto-optical medium such as a floppy disk, a read only memory (ROM), a random access memory (RAM) Access memory (RAM), flash memory, erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), and the like. The processor and memory may be supplemented or included by special purpose logic circuitry.
또한, 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용매체일 수 있고, 컴퓨터 저장매체를 포함할 수 있다.In addition, the computer-readable medium can be any available media that can be accessed by a computer, and can include computer storage media.
본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.While the specification contains a number of specific implementation details, it should be understood that they are not to be construed as limitations on the scope of any invention or claim, but rather on the description of features that may be specific to a particular embodiment of a particular invention Should be understood. Certain features described herein in the context of separate embodiments may be implemented in combination in a single embodiment. Conversely, various features described in the context of a single embodiment may also be implemented in multiple embodiments, either individually or in any suitable subcombination. Further, although the features may operate in a particular combination and may be initially described as so claimed, one or more features from the claimed combination may in some cases be excluded from the combination, Or a variant of a subcombination.
마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 장치 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 장치들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징 될 수 있다는 점을 이해하여야 한다.Likewise, although the operations are depicted in the drawings in a particular order, it should be understood that such operations must be performed in that particular order or sequential order shown to achieve the desired result, or that all illustrated operations should be performed. In certain cases, multitasking and parallel processing may be advantageous. Also, the separation of the various device components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the described program components and devices will generally be integrated together into a single software product or packaged into multiple software products It should be understood.
한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.It should be noted that the embodiments of the present invention disclosed in the present specification and drawings are only illustrative of specific examples for the purpose of understanding and are not intended to limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.
10: 사용자 입력부 20: 디스플레이부
30: 뷰영상 생성부 40: 방향기준 저장부
50: 영상특징 추출부 60: 영상 정합부10: user input unit 20: display unit
30: view image generation unit 40: direction reference storage unit
50: image feature extraction unit 60: image matching unit
Claims (11)
제1 치아 영상 데이터의 영상 좌표계 정보를 기초로 상기 제1 치아 영상 데이터에 대하여 서로 다른 방향에 각각 대응하는 복수의 뷰 영상을 생성하는 단계;
제2 치아 영상 데이터의 영상 좌표계 정보를 기초로 상기 제2 치아 영상 데이터에 대하여 상기 서로 다른 방향에 각각 대응하는 복수의 뷰 영상을 생성하는 단계;
상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터에 대한 상기 뷰 영상을 분할된 화면에 디스플레이하는 단계;
상기 복수의 뷰 영상 내에서 사용자 입력부를 통하여 영상 정합의 기준이 되는 특징점을 입력받는 단계; 및
입력된 상기 특징점을 기초로 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 정합을 수행하는 단계를 포함하며,
상기 뷰 영상을 분할된 화면에 디스플레이하는 단계에서, 상기 복수의 뷰 영상은 상기 화면의 서로 다른 위치에 각각 표시되며,
상기 뷰 영상을 생성하는 단계는, 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터를 기초로 상기 특징점으로 적합한 후보점 또는 상기 특징점이 위치하기에 적합한 후보영역을 추출하고, 추출된 상기 후보점 또는 상기 후보영역의 위치, 상기 후보점간 또는 상기 후보영역간 거리, 환자정보와 치아 유실 영역을 기초로 생성할 상기 뷰 영상의 방향, 개수, 및 스케일을 결정하는 것을 특징으로 하는 치아 영상 정합 방법.
A tooth image matching method for matching two tooth images,
Generating a plurality of view images corresponding to different directions with respect to the first tooth image data based on the image coordinate system information of the first tooth image data;
Generating a plurality of view images corresponding to the different directions of the second tooth image data based on the image coordinate system information of the second tooth image data;
Displaying the view image of the first tooth image data and the second tooth image data on a divided screen;
Receiving a feature point serving as a reference for image matching through the user input unit in the plurality of view images; And
And performing matching of the first tooth image data and the second tooth image data based on the input minutiae,
In the step of displaying the view image on the divided screen, the plurality of view images are displayed at different positions on the screen,
The generating of the view image may include extracting a candidate point suitable for the feature point or a candidate region for the feature point based on the first tooth image data and the second tooth image data, And the direction, number and scale of the view image to be generated based on the position of the candidate region, the distance between the candidate points or the candidate region, the patient information and the tooth loss region are determined.
상기 서로 다른 방향은 좌측방향, 우측방향, 및 정면방향 중 적어도 어느 한 방향을 포함하는 것을 특징으로 하는 치아 영상 정합 방법.
The method according to claim 1,
Wherein the different directions include at least one of a left direction, a right direction, and a front direction.
A computer-readable recording medium having recorded thereon a program for executing the method for matching teeth images according to claim 1 or 2.
제1 치아 영상 데이터와 제2 치아 영상 데이터를 기초로 영상 정합의 기준이 되는 특징점으로 적합한 후보점 또는 상기 특징점이 위치하기에 적합한 후보영역을 추출하는 영상특징 추출부;
상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 영상 좌표계 정보를 기초로 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터에 대하여 서로 다른 방향에 각각 대응하는 복수의 뷰 영상을 생성하는 뷰영상 생성부;
상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터에 대한 상기 복수의 뷰 영상을 분할된 화면에 표시하는 디스플레이부;
상기 복수의 뷰 영상 내에서 영상 정합의 기준이 되는 특징점을 입력받는 사용자 입력부; 및
입력된 상기 특징점을 기초로 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 정합을 수행하는 영상 정합부를 포함하며,
상기 뷰영상 생성부는, 상기 영상특징 추출부를 통해 추출된 상기 후보점 또는 상기 후보영역의 위치, 상기 후보점간 또는 상기 후보영역간 거리, 환자정보와 치아 유실 영역을 기초로 생성할 상기 뷰 영상의 방향, 개수, 및 스케일을 결정하고,
상기 디스플레이부는, 상기 복수의 뷰 영상을 상기 화면의 서로 다른 위치에 각각 표시하는 것을 특징으로 하는 치아 영상 정합 장치.
A tooth image matching apparatus for matching two tooth images,
A feature extractor for extracting a candidate point suitable as a reference point for image matching based on the first tooth image data and the second tooth image data or a candidate area suitable for positioning the feature point;
Generating a plurality of view images corresponding to different directions for the first tooth image data and the second tooth image data based on the image coordinate system information of the first tooth image data and the second tooth image data, An image generation unit;
A display unit for displaying the plurality of view images for the first tooth image data and the second tooth image data on a divided screen;
A user input unit for inputting a feature point serving as a reference of image matching in the plurality of view images; And
And an image matching unit for matching the first tooth image data and the second tooth image data based on the input minutiae,
The view image generation unit generates the view image based on the position of the candidate point or the candidate region extracted through the image feature extraction unit, the distance between the candidate points or the candidate region, the direction of the view image to be generated based on the patient information and the tooth loss region, The number, and the scale,
Wherein the display unit displays the plurality of view images at different positions on the screen, respectively.
상기 뷰영상 생성부는 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 스케일이 서로 대응되도록 상기 뷰 영상을 생성하는 것을 특징으로 하는 치아 영상 정합 장치.
5. The method of claim 4,
Wherein the view image generating unit generates the view image so that the scales of the first tooth image data and the second tooth image data correspond to each other.
상기 디스플레이부는 상기 영상특징 추출부를 통해 추출된 상기 후보점 또는 후보영역을 상기 뷰 영상에 표시하는 것을 특징으로 하는 치아 영상 정합 장치.
5. The method of claim 4,
Wherein the display unit displays the candidate point or candidate region extracted through the image feature extraction unit on the view image.
상기 뷰 영상의 방향을 결정하기 위한 기준정보를 저장하는 방향기준 저장부를 더 포함하며,
상기 뷰영상 생성부는 상기 방향기준 저장부에 저장된 상기 기준정보를 기초로 상기 뷰 영상을 생성하는 것을 특징으로 하는 치아 영상 정합 장치.
5. The method of claim 4,
Further comprising a direction reference storage for storing reference information for determining a direction of the view image,
Wherein the view image generating unit generates the view image based on the reference information stored in the direction reference storage unit.
상기 디스플레이부는 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 상기 각 뷰 영상 중 동일한 방향에 따른 뷰 영상은 서로 대응되는 위치에 표시하는 것을 특징으로 하는 치아 영상 정합 장치.
5. The method of claim 4,
Wherein the display unit displays the view images along the same direction among the view images of the first tooth image data and the second tooth image data at positions corresponding to each other.
상기 디스플레이부는 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 정합 결과를 표시하는 것을 특징으로 하는 치아 영상 정합 장치.
5. The method of claim 4,
Wherein the display unit displays the matching result of the first tooth image data and the second tooth image data.
상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터는 각각 CT 영상, 스캔 영상, 및 자기공명영상 중 하나인 치아 영상 정합 장치.
5. The method of claim 4,
Wherein the first tooth image data and the second tooth image data are one of a CT image, a scan image, and a magnetic resonance image, respectively.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170063955A KR101913586B1 (en) | 2017-05-24 | 2017-05-24 | Dental image registration method, apparatus, and recording medium thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170063955A KR101913586B1 (en) | 2017-05-24 | 2017-05-24 | Dental image registration method, apparatus, and recording medium thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101913586B1 true KR101913586B1 (en) | 2018-11-01 |
Family
ID=64398243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170063955A KR101913586B1 (en) | 2017-05-24 | 2017-05-24 | Dental image registration method, apparatus, and recording medium thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101913586B1 (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200100907A (en) * | 2019-02-18 | 2020-08-27 | 오스템임플란트 주식회사 | Method and apparatus for matching medical images |
WO2020171314A1 (en) * | 2019-02-21 | 2020-08-27 | 주식회사 디오 | Wax bite for scanning, and dental restoration manufacturing method using same |
KR20200120034A (en) | 2019-04-11 | 2020-10-21 | 주식회사 디오 | Method and apparatus for preprocessing computerized tomography image data |
KR20200120036A (en) | 2019-04-11 | 2020-10-21 | 주식회사 디오 | Method and apparatus for matching of images using tooth object |
KR102181711B1 (en) * | 2019-05-30 | 2020-11-24 | 주식회사 디오 | scanning purpose dental restoration and method for manufacturing therof |
KR20210000942A (en) * | 2019-06-26 | 2021-01-06 | 주식회사 디오 | Apparatus And Method For Dental Image Registration |
CN113243932A (en) * | 2020-02-12 | 2021-08-13 | 阿里巴巴集团控股有限公司 | Oral health detection system, related method, device and equipment |
KR102302587B1 (en) * | 2020-12-17 | 2021-09-16 | 이마고웍스 주식회사 | Method for determining accuracy of registration result of 3d dental ct image and 3d digital impression model |
CN113710189A (en) * | 2019-02-15 | 2021-11-26 | 尼奥西斯股份有限公司 | Method for registering imaging scans using a coordinate system and an associated system |
KR102334485B1 (en) * | 2020-08-20 | 2021-12-06 | 이마고웍스 주식회사 | Automated method for aligning 3d dental data and computer readable medium having program for performing the method |
KR20210151388A (en) * | 2020-06-05 | 2021-12-14 | 오스템임플란트 주식회사 | Method, Apparatus and Recording Medium For Displaying Tooth Measurement Information |
KR20230104074A (en) * | 2021-12-29 | 2023-07-07 | 이마고웍스 주식회사 | Automated method for tooth segmentation of three dimensional scan data and computer readable medium having program for performing the method |
WO2023191566A1 (en) * | 2022-04-01 | 2023-10-05 | 주식회사 레이 | Simulation method for movement of mandible |
US11978203B2 (en) | 2019-04-11 | 2024-05-07 | Dio Corporation | Dental object detection method, and image matching method and device using dental object |
US12023221B2 (en) | 2020-08-20 | 2024-07-02 | Imagoworks Inc. | Automated method for aligning 3D dental data and computer readable medium having program for performing the method |
US12062193B2 (en) | 2019-04-11 | 2024-08-13 | Dio Corporation | Apparatus for preprocessing image data |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003529406A (en) * | 1999-07-26 | 2003-10-07 | コンピュータライズド・メディカル・システムズ・インコーポレーテッド | Automatic image fusion / alignment system and method |
US20100124367A1 (en) | 2007-01-11 | 2010-05-20 | Sicat Gmbh & Co. Kg | Image registration |
KR101467346B1 (en) | 2013-08-30 | 2014-12-02 | 연세대학교 원주산학협력단 | Magnetic resonance imaging registration and composition method |
KR101613159B1 (en) * | 2014-12-31 | 2016-04-20 | 오스템임플란트 주식회사 | Automatic dental image registration method, apparatus, and recording medium thereof |
KR101692250B1 (en) | 2015-11-30 | 2017-01-03 | 오스템임플란트 주식회사 | Method for generating sectional image of tooth pairs, apparatus, and recording medium thereof |
-
2017
- 2017-05-24 KR KR1020170063955A patent/KR101913586B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003529406A (en) * | 1999-07-26 | 2003-10-07 | コンピュータライズド・メディカル・システムズ・インコーポレーテッド | Automatic image fusion / alignment system and method |
US20100124367A1 (en) | 2007-01-11 | 2010-05-20 | Sicat Gmbh & Co. Kg | Image registration |
KR101467346B1 (en) | 2013-08-30 | 2014-12-02 | 연세대학교 원주산학협력단 | Magnetic resonance imaging registration and composition method |
KR101613159B1 (en) * | 2014-12-31 | 2016-04-20 | 오스템임플란트 주식회사 | Automatic dental image registration method, apparatus, and recording medium thereof |
KR101692250B1 (en) | 2015-11-30 | 2017-01-03 | 오스템임플란트 주식회사 | Method for generating sectional image of tooth pairs, apparatus, and recording medium thereof |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113710189A (en) * | 2019-02-15 | 2021-11-26 | 尼奥西斯股份有限公司 | Method for registering imaging scans using a coordinate system and an associated system |
KR102234425B1 (en) * | 2019-02-18 | 2021-04-01 | 오스템임플란트 주식회사 | Method and apparatus for matching medical images |
KR20200100907A (en) * | 2019-02-18 | 2020-08-27 | 오스템임플란트 주식회사 | Method and apparatus for matching medical images |
WO2020171314A1 (en) * | 2019-02-21 | 2020-08-27 | 주식회사 디오 | Wax bite for scanning, and dental restoration manufacturing method using same |
US12062193B2 (en) | 2019-04-11 | 2024-08-13 | Dio Corporation | Apparatus for preprocessing image data |
KR20200120034A (en) | 2019-04-11 | 2020-10-21 | 주식회사 디오 | Method and apparatus for preprocessing computerized tomography image data |
KR20200120036A (en) | 2019-04-11 | 2020-10-21 | 주식회사 디오 | Method and apparatus for matching of images using tooth object |
KR102177886B1 (en) | 2019-04-11 | 2020-11-12 | 주식회사 디오 | Method and apparatus for preprocessing computerized tomography image data |
US11978203B2 (en) | 2019-04-11 | 2024-05-07 | Dio Corporation | Dental object detection method, and image matching method and device using dental object |
KR102181711B1 (en) * | 2019-05-30 | 2020-11-24 | 주식회사 디오 | scanning purpose dental restoration and method for manufacturing therof |
KR20210000942A (en) * | 2019-06-26 | 2021-01-06 | 주식회사 디오 | Apparatus And Method For Dental Image Registration |
KR102267488B1 (en) | 2019-06-26 | 2021-06-21 | 주식회사 디오 | Apparatus And Method For Dental Image Registration |
CN113243932A (en) * | 2020-02-12 | 2021-08-13 | 阿里巴巴集团控股有限公司 | Oral health detection system, related method, device and equipment |
KR20210151388A (en) * | 2020-06-05 | 2021-12-14 | 오스템임플란트 주식회사 | Method, Apparatus and Recording Medium For Displaying Tooth Measurement Information |
KR102363338B1 (en) | 2020-06-05 | 2022-02-16 | 오스템임플란트 주식회사 | Method, Apparatus and Recording Medium For Displaying Tooth Measurement Information |
KR102334485B1 (en) * | 2020-08-20 | 2021-12-06 | 이마고웍스 주식회사 | Automated method for aligning 3d dental data and computer readable medium having program for performing the method |
KR20220103902A (en) * | 2020-08-20 | 2022-07-25 | 이마고웍스 주식회사 | Automated method for aligning 3d dental data and computer readable medium having program for performing the method |
KR102453912B1 (en) | 2020-08-20 | 2022-10-14 | 이마고웍스 주식회사 | Automated method for aligning 3d dental data and computer readable medium having program for performing the method |
WO2022039316A1 (en) * | 2020-08-20 | 2022-02-24 | 이마고웍스 주식회사 | Method for automating dental three-dimensional data position alignment, and computer-readable recording medium having program for executing same on computer recorded thereon |
US12023221B2 (en) | 2020-08-20 | 2024-07-02 | Imagoworks Inc. | Automated method for aligning 3D dental data and computer readable medium having program for performing the method |
WO2022131419A1 (en) * | 2020-12-17 | 2022-06-23 | 이마고웍스 주식회사 | Method for determining registration accuracy of three-dimensional dental ct image and three-dimensional digital impression model, and computer-readable recording medium in which program for executing same in computer is recorded |
KR102302587B1 (en) * | 2020-12-17 | 2021-09-16 | 이마고웍스 주식회사 | Method for determining accuracy of registration result of 3d dental ct image and 3d digital impression model |
KR20230104074A (en) * | 2021-12-29 | 2023-07-07 | 이마고웍스 주식회사 | Automated method for tooth segmentation of three dimensional scan data and computer readable medium having program for performing the method |
KR102630009B1 (en) | 2021-12-29 | 2024-01-30 | 이마고웍스 주식회사 | Automated method for tooth segmentation of three dimensional scan data and computer readable medium having program for performing the method |
WO2023191566A1 (en) * | 2022-04-01 | 2023-10-05 | 주식회사 레이 | Simulation method for movement of mandible |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101913586B1 (en) | Dental image registration method, apparatus, and recording medium thereof | |
KR101613159B1 (en) | Automatic dental image registration method, apparatus, and recording medium thereof | |
US11961238B2 (en) | Tooth segmentation using tooth registration | |
US10881353B2 (en) | Machine-guided imaging techniques | |
EP3164075B1 (en) | Unified coordinate system for multiple ct scans of patient lungs | |
KR102130963B1 (en) | Apparatus and method for analyzing cephalic image | |
CN106157282A (en) | Image processing system and method | |
US11847730B2 (en) | Orientation detection in fluoroscopic images | |
JP2018068400A (en) | Dynamic image processing device | |
JP2019121283A (en) | Prediction model generation system and prediction system | |
CN114092475A (en) | Focal length determining method, image labeling method, device and computer equipment | |
JP6258084B2 (en) | Medical image display device, medical image display system, and medical image display program | |
CN112862955B (en) | Method, apparatus, device, storage medium and program product for establishing three-dimensional model | |
CN109087357A (en) | Scan orientation method, apparatus, computer equipment and computer readable storage medium | |
JP6734111B2 (en) | Finding information creation device and system | |
US11869203B2 (en) | Dental image registration device and method | |
US10299864B1 (en) | Co-localization of multiple internal organs based on images obtained during surgery | |
KR20230053888A (en) | Method, device and recording medium for displaying a screen according to a plurality of menus | |
JP2005253755A (en) | Tumor region setting method and tumor region setting system | |
JP2011182946A (en) | Medical image display and medical image display method | |
CN114830638A (en) | System and method for telestration with spatial memory | |
US20190192252A1 (en) | Surgical Instrument Positioning System and Positioning Method Thereof | |
CN117058309B (en) | Image generation method and system based on oral imaging | |
Millan-Arias et al. | General Cephalometric Landmark Detection for Different Source of X-Ray Images | |
US20240127570A1 (en) | Image analysis apparatus, image analysis method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |