Nothing Special   »   [go: up one dir, main page]

KR101913586B1 - Dental image registration method, apparatus, and recording medium thereof - Google Patents

Dental image registration method, apparatus, and recording medium thereof Download PDF

Info

Publication number
KR101913586B1
KR101913586B1 KR1020170063955A KR20170063955A KR101913586B1 KR 101913586 B1 KR101913586 B1 KR 101913586B1 KR 1020170063955 A KR1020170063955 A KR 1020170063955A KR 20170063955 A KR20170063955 A KR 20170063955A KR 101913586 B1 KR101913586 B1 KR 101913586B1
Authority
KR
South Korea
Prior art keywords
image
image data
tooth
view
matching
Prior art date
Application number
KR1020170063955A
Other languages
Korean (ko)
Inventor
최규옥
허희석
Original Assignee
오스템임플란트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오스템임플란트 주식회사 filed Critical 오스템임플란트 주식회사
Priority to KR1020170063955A priority Critical patent/KR101913586B1/en
Application granted granted Critical
Publication of KR101913586B1 publication Critical patent/KR101913586B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • A61B6/14
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a tooth image matching method, an apparatus for the same, and a recording medium for recording the same. According to the present invention, a plurality of view images each corresponding to different directions for tooth image data are generated and provided, thereby increasing user convenience by minimizing a position movement and rotation operation of an object by a user when matching a tooth image and improving the efficiency of implant planning and surgical guide design.

Description

치아 영상 정합 방법, 이를 위한 장치, 및 이를 기록한 기록매체{DENTAL IMAGE REGISTRATION METHOD, APPARATUS, AND RECORDING MEDIUM THEREOF}TECHNICAL FIELD [0001] The present invention relates to a tooth image registration method, a device for the same, and a recording medium on which the image registration method,

본 발명은 치아 영상 정합, 이를 위한 장치, 및 이를 기록한 기록매체에 관한 것으로, 더욱 상세하게는 영상 특징을 기반으로 치아 영상을 정합하는 치아 영상 정합 방법, 이를 위한 장치, 및 이를 기록한 기록매체에 관한 것이다.The present invention relates to a tooth image registration, an apparatus therefor, and a recording medium on which the image is registered. More particularly, the present invention relates to a tooth image registration method for registering tooth images based on image features, an apparatus therefor, and a recording medium will be.

컴퓨터 비전에서 하나의 장면이나 대상을 다른 시간이나 관점에서 촬영할 경우, 서로 다른 좌표계에 따른 영상이 얻어지게 된다. 영상 정합은 이와 같은 서로 다른 영상을 하나의 좌표계에 나타내기 위한 처리를 의미한다. 영상 정합을 통하여 서로 다른 측정 방식을 통해 얻은 영상의 대응 관계를 확인할 수 있다.When a scene or an object is photographed at a different time or viewpoint from a computer vision, images according to different coordinate systems are obtained. Image matching refers to a process for displaying such different images in one coordinate system. Through the image matching, it is possible to confirm the correspondence relationship between images obtained through different measurement methods.

치과용 수술 가이드(Surgical guide)의 디지털 설계시에는 임플란트 플래닝 단계로 진입하기 전에 일반적으로 CT 데이터와 스캔 데이터 간의 영상 정합 과정을 거치게 된다. 정합된 영상은 골조직과 신경관 위치 등을 파악하여 안전하고 최적의 임플란트 식립 위치를 결정하는 임플란트 플래닝 작업의 기초가 되므로 영상 정합의 정확성은 그 이후 절차진행에 있어 매우 중요한 의미를 가진다.In the digital design of a surgical guide, the image is usually subjected to image registration between CT data and scan data before entering the implant planning stage. The accuracy of the image matching is very important for the subsequent procedure because the matched image is the foundation of the implant planning work which determines the safe and optimal implant placement position by grasping the bone tissue and neural tube position.

치아 영상 정합시에는 사용자가 영상 정합의 기준이 되는 복수의 포인트를 입력하는 것이 필요한데, 종래 방식에 따르면, 사용자는 치아 영상의 방향이나 각도를 이리저리 변경하면서 적절한 포인트를 찾아 입력해야 한다. In order to match a tooth image, a user needs to input a plurality of points, which is a reference of image matching. According to the conventional method, the user must find and input an appropriate point while changing the direction or angle of the tooth image.

이와 같이, 영상 객체를 사용자가 원하는 위치로 이동시킬 때에는 아크볼(Arc-ball)이나 트랙볼(Trackball)과 같은 가상의 조작수단을 활용한다. 그러나, 이와 같은 조작수단에 의하면, 사용자가 원하는 방향으로 이동시키기까지 다수의 드래그(Drag) 동작이나 클릭 동작이 필요하기 때문에 시간이 많이 소요되고, 조작수단을 핸들링하는 것에 서투른 사용자는 의도치 않은 방향으로 영상 객체가 회전이 되어 많은 시행착오를 거쳐야 하는 문제점이 존재하였다. 뿐만 아니라, 정합 수행시마다 사용자가 치아 영상 객체를 돌려가며 적절한 포인트를 찾는 조작 동작이 반복되어야 하기 때문에 매우 비효율적이었다.As described above, when moving a video object to a desired position, a virtual operation means such as an arc-ball or a trackball is utilized. However, according to such an operation means, a large amount of time is required because a plurality of drag operations or click operations are required until the user moves in a desired direction, and a user who is uncomfortable in handling the operation means takes an unintended direction There is a problem that a lot of trial and error must be performed. In addition, it is very inefficient because the user must repeat the manipulation operation for finding the appropriate point by rotating the tooth image object each time the matching is performed.

전술된 바와 같은 종래 기술의 문제점으로 인하여 치아 영상 정합에 많은 시간이 소요되고 번거로움이 수반되었으며, 이는 곧 전반적인 디지털 설계 프로세스를 지연시키고 효율성을 저하시키는 요인으로 작용하였다.Due to the problems of the related art as described above, it takes a lot of time and cumbersome to match the teeth image, which is a factor that delays the overall digital design process and deteriorates the efficiency.

본 발명은 치아 영상 정합시 사용자가 객체의 방향이나 각도를 직접 변경하면서 영상 정합의 기준 포인트를 입력함으로써 영상 정합에 불필요한 시간이 소요되고 비효율성을 야기하는 종래 기술의 문제점을 해결하기 위하여 제안된 것으로서, 영상 정합시 사용자의 수동 조작을 최소화하여 효율성을 도모할 수 있는 치아 영상 정합 방법, 이를 위한 장치, 및 이를 기록한 기록매체를 제공하는데 목적이 있다.The present invention has been proposed in order to solve the problems of the related art that it takes a time unnecessary for the image matching and causes inefficiency by inputting the reference point of the image matching while directly changing the direction or angle of the object in the tooth image matching A method of matching a teeth image, an apparatus for the same, and a recording medium on which the method is recorded.

본 발명의 일 양태에 따른 치아 영상 정합 방법은 두 개의 치아 영상을 정합하는 치아 영상 정합 방법에 있어서, 제1 치아 영상 데이터의 영상 좌표계 정보를 기초로 상기 제1 치아 영상 데이터에 대하여 서로 다른 방향에 각각 대응하는 복수의 뷰 영상을 생성하는 단계; 제2 치아 영상 데이터의 영상 좌표계 정보를 기초로 상기 제2 치아 영상 데이터에 대하여 상기 서로 다른 방향에 각각 대응하는 복수의 뷰 영상을 생성하는 단계; 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터에 대한 상기 뷰 영상을 분할된 화면에 디스플레이하는 단계; 상기 복수의 뷰 영상 내에서 사용자 입력부를 통하여 영상 정합의 기준이 되는 특징점을 입력받는 단계; 및 입력된 상기 특징점을 기초로 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 정합을 수행하는 단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a tooth image matching method for matching two tooth images, the method comprising the steps of: Generating a plurality of view images respectively corresponding to the plurality of view images; Generating a plurality of view images corresponding to the different directions of the second tooth image data based on the image coordinate system information of the second tooth image data; Displaying the view image of the first tooth image data and the second tooth image data on a divided screen; Receiving a feature point serving as a reference for image matching through the user input unit in the plurality of view images; And performing matching of the first tooth image data and the second tooth image data based on the input minutiae points.

여기서, 상기 서로 다른 방향은 좌측방향, 우측방향, 및 정면방향 중 적어도 어느 한 방향을 포함할 수 있다.Here, the different directions may include at least one of a left direction, a right direction, and a front direction.

본 발명의 또 다른 양태에 따른 치아 영상 정합 장치는 두 개의 치아 영상을 정합하는 치아 영상 정합 장치에 있어서, 제1 치아 영상 데이터와 제2 치아 영상 데이터의 영상 좌표계 정보를 기초로 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터에 대하여 서로 다른 방향에 각각 대응하는 복수의 뷰 영상을 생성하는 뷰영상 생성부; 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터에 대한 상기 복수의 뷰 영상을 분할된 화면에 표시하는 디스플레이부; 상기 복수의 뷰 영상 내에서 영상 정합의 기준이 되는 특징점을 입력받는 사용자 입력부; 및 입력된 상기 특징점을 기초로 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 정합을 수행하는 영상 정합부를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a tooth image matching apparatus for matching two teeth images, the apparatus comprising: a first tooth image matching unit for matching the first tooth image and the second tooth image data based on the image coordinate system information of the first tooth image data and the second tooth image data; A view image generating unit generating a plurality of view images corresponding to different directions with respect to the data and the second tooth image data; A display unit for displaying the plurality of view images for the first tooth image data and the second tooth image data on a divided screen; A user input unit for inputting a feature point serving as a reference of image matching in the plurality of view images; And an image matching unit for matching the first tooth image data and the second tooth image data based on the input minutiae points.

이때, 상기 뷰영상 생성부는 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 스케일이 서로 대응되도록 상기 뷰 영상을 생성할 수 있다.At this time, the view image generating unit may generate the view image so that the scales of the first tooth image data and the second tooth image data correspond to each other.

한편, 상기 치아 영상 정합 장치는 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터를 기초로 상기 특징점으로 적합한 후보점 또는 상기 특징점이 위치하기에 적합한 후보영역을 추출하는 영상특징 추출부를 더 포함하고, 상기 뷰영상 생성부는 상기 후보점 또는 상기 후보영역의 위치를 기초로 상기 뷰 영상의 방향을 결정할 수 있다.The tooth image matching apparatus may further include a feature extraction unit extracting a candidate point suitable for the feature point or a candidate region suitable for positioning the feature point based on the first tooth image data and the second tooth image data, , The view image generating unit may determine the direction of the view image based on the position of the candidate point or the candidate region.

여기서, 상기 디스플레이부는 상기 영상특징 추출부를 통해 추출된 상기 후보점 또는 후보영역을 상기 뷰 영상에 표시하여 사용자가 특징점의 위치를 결정할 때 도움을 줄 수 있다.Here, the display unit may display the candidate points or candidate areas extracted through the image feature extracting unit on the view image, thereby helping the user to determine the location of the feature points.

또한, 상기 치아 영상 정합 장치는 상기 뷰 영상의 방향을 결정하기 위한 기준정보를 저장하는 방향기준 저장부를 더 포함하고, 상기 뷰영상 생성부는 상기 방향기준 저장부에 저장된 상기 기준정보를 기초로 상기 뷰 영상을 생성할 수도 있다.The tooth image matching apparatus may further include a direction reference storage unit for storing reference information for determining a direction of the view image, and the view image generating unit may generate a view image based on the reference information stored in the direction reference storage unit, It is possible to generate an image.

아울러, 상기 디스플레이부는 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 상기 각 뷰 영상 중 동일한 방향에 따른 뷰 영상은 서로 대응되는 위치에 표시할 수 있으며, 상기 디스플레이부는 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 정합 결과를 표시할 수 있다.In addition, the display unit may display the view images in the same direction among the view images of the first tooth image data and the second tooth image data at positions corresponding to each other, and the display unit displays the first tooth image data and the second tooth image data, And the result of matching of the second tooth image data can be displayed.

한편, 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터는 각각 CT 영상, 스캔 영상, 및 자기공명영상 중 하나가 적용될 수 있다.Meanwhile, one of the CT image, the scan image, and the magnetic resonance image may be applied to the first tooth image data and the second tooth image data, respectively.

이상에서 설명된 바와 같이, 본 발명에 따르면, 치아 영상 정합시 사용자에 의한 객체 조작을 최소화함으로써 사용자의 편의성을 증대시키고, 이에 수반하여 임플란트 계획 및 서지컬 가이드 설계의 효율성을 제고할 수 있는 효과가 있다.As described above, according to the present invention, it is possible to increase the convenience of the user by minimizing the object manipulation by the user in the tooth image registration, and to improve the efficiency of the implant planning and surge guide design have.

도 1은 본 발명의 실시예에 따른 치아 영상 정합 장치의 구성을 나타낸 블록도;
도 2는 본 발명의 실시예에 따른 치아 영상 정합 방법의 흐름도; 및
도 3은 본 발명의 실시예에 따른 치아 영상 정합 장치에 의하여 생성된 뷰 영상과 영상 정합 결과가 표시된 화면의 일 예이다.
1 is a block diagram showing a configuration of a tooth image matching apparatus according to an embodiment of the present invention;
2 is a flowchart of a tooth image matching method according to an embodiment of the present invention; And
3 is an example of a view image generated by the tooth image matching apparatus according to an embodiment of the present invention and a screen displaying a result of image matching.

이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, detailed description of well-known functions or constructions that may obscure the subject matter of the present invention will be omitted. It should be noted that the same constituent elements are denoted by the same reference numerals as possible throughout the drawings.

이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위한 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.The terms and words used in the present specification and claims should not be construed to be limited to ordinary or dictionary meanings and the inventor is not limited to the concept of terminology for describing his or her invention in the best way. It should be interpreted as meaning and concept consistent with the technical idea of the present invention. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention, and not all of the technical ideas of the present invention are described. Therefore, It is to be understood that equivalents and modifications are possible.

본 발명에 따른 치아 영상 정합 장치는 두 개의 치아 영상, 즉, 제1 치아 영상 데이터와 제2 치아 영상 데이터의 정합을 수행한다. 여기서, 제1 치아 및 제2 치아 영상 데이터는 이기종 센서를 통하여 획득되거나, 서로 다른 시점에 획득되는 등의 원인으로 말미암아 서로 다른 좌표계를 가지는 영상으로서, 각각 컴퓨터 단층촬영(Computerized tomography, CT) 영상, 모델 스캐너(Model scanner) 또는 구강 스캐너(Intra-oral scanner)를 통한 스캔 영상, 자기공명영상(Magnetic Resonance Image, MRI) 등을 포함하여 다양한 종류의 장비를 통해 촬영되는 2차원 영상, 3차원 영상, 또는 그 이상의 다차원 영상을 포괄한다.The tooth image matching apparatus according to the present invention performs matching between two tooth images, i.e., first tooth image data and second tooth image data. Here, the first and second tooth image data are images having different coordinate systems due to the reasons such as being acquired through the heterogeneous sensor or obtained at different points of time, and each of them is a computerized tomography (CT) image, 2-D images, 3-D images, and 3-D images taken through various types of equipment including a scan image through a model scanner or an intra-oral scanner, a magnetic resonance image (MRI) Or more multidimensional images.

도 1은 본 발명의 실시예에 따른 치아 영상 정합 장치(100)의 블록도이다. 도 1을 참조하면, 본 발명의 실시예에 따른 치아 영상 정합 장치(100)는 사용자 입력부(10), 디스플레이부(20), 뷰영상 생성부(30), 방향기준 저장부(40), 영상특징 추출부(50), 및 영상 정합부(60)를 포함한다.1 is a block diagram of a tooth image matching apparatus 100 according to an embodiment of the present invention. 1, a tooth image matching apparatus 100 according to an embodiment of the present invention includes a user input unit 10, a display unit 20, a view image generation unit 30, a direction reference storage unit 40, A feature extraction unit 50, and an image matching unit 60.

사용자 입력부(10)는 사용자로부터 치아 영상 정합 과정에서 필요한 각종 입력을 받기 위함으로, 마우스, 키보드, 버튼 등의 다양한 입력장치로 구현된다.The user input unit 10 is implemented by a variety of input devices such as a mouse, a keyboard, and a button in order to receive various inputs required by the user in the tooth image matching process.

디스플레이부(20)는 각종 정보를 입력받기 위한 메뉴화면을 비롯한 그래픽 사용자 인터페이스(Graphic User Interface, GUI) 및 결과화면 등을 표시하기 위한 것으로, 각종 디스플레이 장치로 구현될 수 있으며, 터치 스크린과 같이 사용자 입력부(10)와 디스플레이부(20)가 통합되어 하나의 디바이스로 구현될 수 있음은 물론이다. The display unit 20 displays a menu screen, a graphical user interface (GUI), a result screen, and the like for receiving various information. The display unit 20 may be implemented by various display devices, The input unit 10 and the display unit 20 may be integrated into one device.

뷰영상 생성부(30)는 제1 치아 영상 데이터의 영상 좌표계 정보와 제2 치아 영상 데이터의 영상 좌표계 정보를 획득하고, 이를 기초로 제1 치아 영상 데이터와 제2 치아 영상 데이터 각각에 대하여 복수의 뷰(View) 영상을 생성한다. 여기서, 뷰 영상은 소정의 방향 내지는 각도에서 객체를 바라본 영상으로서, 예컨대, 뷰 영상은 좌측면 영상, 우측면 영상, 정면 영상 등을 포함할 수 있으며, 반드시 위 3개 방향에 한정되는 것이 아니고, 상면 방향, 저면 방향 등을 비롯하여 다양한 방향 및 각도에 따른 영상을 포함할 수 있다. 생성되는 각 뷰 영상은 서로 다른 방향에 대응된다.The view image generating unit 30 acquires the image coordinate system information of the first tooth image data and the image coordinate system information of the second tooth image data and generates a plurality of image coordinate data for each of the first tooth image data and the second tooth image data, And generates a view image. Here, the view image is an image of an object viewed from a predetermined direction or angle. For example, the view image may include a left side image, a right side image, a front image, and the like, Direction, a bottom direction, and the like, and may include images according to various directions and angles. Each view image generated corresponds to a different direction.

이와 같이 뷰영상 생성부(30)는 각 치아 영상 데이터의 영상 좌표계 정보를 기초로 제1 치아 영상 데이터와 제2 치아 영상 데이터를 처리하여 서로 다른 방향에 따른 시점에서의 복수의 뷰 영상을 생성한다. 이때, 제1 치아 영상 데이터에 대한 뷰 영상과 제2 치아 영상 데이터에 대한 뷰 영상은 서로 동일한 방향에 대하여 생성된다. 예컨대, 제1 치아 영상 데이터에 대하여 좌측면 영상, 우측면 영상, 정면 영상으로 3개의 뷰 영상이 생성되었다고 가정하였을 때, 제2 치아 영상 데이터에 대한 뷰 영상도 이와 동일하게 좌측면, 우측면, 정면에 대응하는 뷰 영상이 생성된다.As described above, the view image generating unit 30 processes the first tooth image data and the second tooth image data based on the image coordinate system information of each tooth image data to generate a plurality of view images at different view points in different directions . At this time, the view image of the first tooth image data and the view image of the second tooth image data are generated in the same direction. For example, when it is assumed that three view images are generated from the left side image, the right side image, and the front side image with respect to the first tooth image data, the view image for the second tooth image data is also displayed on the left side, right side, A corresponding view image is generated.

한편, 뷰영상 생성부(30)는 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 영상 좌표계 정보를 기초로 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 스케일을 조절하여 두 영상 데이터의 스케일이 서로 대응되도록 뷰 영상을 생성할 수 있다.On the other hand, the view image generating unit 30 adjusts the scales of the first tooth image data and the second tooth image data based on the image coordinate system information of the first tooth image data and the second tooth image data, The view image can be generated so that the scales correspond to each other.

이와 같이, 뷰영상 생성부(30)가 제1 치아 영상 데이터와 제2 치아 영상 데이터에 대한 복수의 뷰 영상을 생성하기 위해서는 구체적인 뷰 방향과 뷰 영상의 개수를 결정하는 것이 필요한데, 이는 방향기준 저장부(40)와 영상특징 추출부(50)를 통해 제공되는 정보에 의하여 결정될 수 있다.In order to generate the plurality of view images for the first tooth image data and the second tooth image data, the view image generating unit 30 needs to determine the specific view direction and the number of view images, (40) and the image feature extraction unit (50).

먼저, 방향기준 저장부(40)는 뷰영상 생성부(30)가 뷰 영상을 생성하기 위한 뷰 방향에 관한 기준정보를 저장한다. 방향기준 저장부(40)는 좌측, 우측, 정면 등으로 모든 치아 영상 데이터에 관하여 일률적인 방향의 뷰 영상이 생성되도록 뷰 방향을 명시하여 저장할 수도 있으나, 촬영된 부위별로 뷰 방향에 관한 정보를 달리 저장할 수 있으며, 또는 환자의 연령, 성별, 구강 특성 등의 카테고리에 따라 뷰 방향에 관한 구체적인 기준을 저장할 수도 있다. 예컨대, 환자의 연령이 적어서 일부 치아가 아직 나지 않은 경우나 환자의 일부 치아가 유실된 경우에는 치아가 존재하는 영역이 포함되도록 뷰 방향에 관한 기준을 마련할 수 있다.First, the direction reference storage unit 40 stores reference information about a view direction for the view image generation unit 30 to generate a view image. The direction reference storage unit 40 may specify and store the view direction so that a uniform view image is generated with respect to all the teeth image data on the left side, the right side, the front side, etc. However, Or may store specific criteria regarding the view direction according to categories such as the patient's age, sex, oral characteristics, and the like. For example, a criterion for the view direction may be provided such that the age of the patient is so small that some of the teeth have not yet been removed, or that if a part of the teeth of the patient is lost, the area where the teeth are present is included.

뷰영상 생성부(30)는 방향기준 저장부(40)에 저장된 기준정보를 기초로 구체적인 방향을 결정하고, 결정된 방향에 따른 뷰 영상을 생성할 수 있다. 이때, 결정된 방향에 따라 생성되는 뷰 영상의 개수도 함께 결정될 것이다. The view image generating unit 30 may determine a specific direction based on the reference information stored in the direction reference storage unit 40 and generate a view image according to the determined direction. At this time, the number of view images generated according to the determined direction will also be determined.

뷰영상 생성부(30)는 방향기준 저장부(40)에 저장된 기준을 만족하는 구체적인 뷰 방향을 결정하기 위하여 환자의 개인정보나 진료정보가 입력되는 전자차트와 연동되어 각종 정보를 획득할 수도 있으며, 또는 사용자 입력부(10)를 통해 필요한 정보를 입력받거나 또는 치아 영상 데이터를 처리하여 직접 정보를 획득하도록 구현될 수도 있다.The view image generating unit 30 may acquire various information in cooperation with the electronic chart in which the patient's personal information or the medical care information is input in order to determine a specific view direction satisfying the criteria stored in the direction reference storage unit 40 Or the user input unit 10, or may process the tooth image data to acquire the direct information.

영상특징 추출부(50)는 제1 치아 영상 데이터와 제2 치아 영상 데이터를 분석하여 영상 정합의 기준이 되는 특징점(Control point)으로 적합한 후보점 또는 특징점이 위치하기에 적합한 후보영역을 추출한다. The image feature extraction unit 50 analyzes the first tooth image data and the second tooth image data and extracts a candidate region suitable for locating a candidate point or a feature point suitable as a reference point for image matching.

예컨대, 영상특징 추출부(50)는 영상 데이터의 처리를 통하여 각 영상 데이터에서 화소의 밝기값이 한 방향으로 급격히 변하는 부분인 에지(Edge)나 모든 방향으로 밝기값이 급격하게 변하는 부분인 코너(Corner)와 같이 영상 정합의 기준으로 적절한 후보점 또는 후보영역을 추출할 수 있다. 영상특징 추출부(50)는 영상에서 구조 및 형태분석, 그레이 스케일에 기반한 다양한 영상처리 알고리즘을 통하여 후보점 또는 후보영역을 추출할 수 있다.For example, the image feature extracting unit 50 extracts, from the image data, an edge, which is a part where the brightness value of the pixel suddenly changes in one direction, or a corner where the brightness value changes abruptly in all directions Corner), it is possible to extract an appropriate candidate point or candidate region based on the image matching standard. The image feature extraction unit 50 may extract candidate points or candidate regions through various image processing algorithms based on structure, shape analysis, and gray scale in the image.

이에, 뷰영상 생성부(30)는 영상특징 추출부(50)를 통해 추출된 후보점 또는 후보영역의 위치와 개수 등을 고려하여 생성할 뷰 영상의 구체적 방향과 뷰 영상의 개수를 결정할 수 있다. 예컨대, 영상특징 추출부(50)를 통해 후보점으로 전치, 양측의 제2 대구치 부근의 점이 추출되었다고 가정하면, 뷰영상 생성부(30)는 위 후보점이 잘 나타나는 뷰로서, 정면, 좌측면, 우측면 방향에 대한 3개의 영상을 뷰 영상으로 생성할 수 있을 것이다. The view image generating unit 30 may determine the specific direction of the view image to be generated and the number of view images considering the positions and the number of the candidate points or candidate regions extracted through the image feature extracting unit 50 . For example, assuming that a point near the second molar is transposed to the candidate point through the image feature extraction unit 50 and the points near the second molar on both sides are extracted, the view image generation unit 30 is a view in which the upper candidate point appears well, Three images of the right side direction can be generated as a view image.

이처럼, 뷰영상 생성부(30)는 추출된 후보점 또는 후보영역의 구체적 위치와 개수에 따라 추출된 후보점 또는 후보영역이 가장 잘 표현될 수 있는 뷰 방향과 생성할 뷰 영상의 적정 개수를 결정할 수 있으며, 이와 함께 생성될 뷰 영상의 스케일도 결정할 수 있을 것이다. 예컨대, 인접한 후보점이나 후보영역이 거리가 가까운 경우에는 사용자가 해당 부분을 쉽게 구분할 수 있도록 특정 부분이 확대된 뷰 영상을 생성할 수 있으며, 후보점이나 후보영역 간의 거리가 상대적으로 먼 경우에는 넓은 부분을 조망할 수 있도록 스케일을 조절하여 뷰 영상을 생성할 수 있다. As described above, the view image generation unit 30 determines the view direction in which the candidate points or candidate regions extracted according to the extracted specific positions and the number of candidate points or candidate regions are best represented, and the appropriate number of view images to be generated And the scale of the view image to be generated together with it. For example, when adjacent candidate points or candidate regions are close to each other, a view image in which a specific portion is enlarged can be generated so that the user can easily identify the corresponding portion. If the distance between the candidate point and the candidate region is relatively long, The view image can be generated by adjusting the scale so as to view the part.

한편, 본 발명의 실시예에 따른 치아 영상 정합 장치(100)는 이상에서 설명된 방향기준 저장부(40)와 영상특징 추출부(50) 중 어느 하나의 구성만을 취할 수도 있으며, 두 구성(40, 50)에 따른 정보를 종합하거나 하나의 구성에 따른 정보를 택일하여 뷰 방향이나 뷰 영상의 개수를 결정할 수 있다. 또는, 하나의 구성에 따른 정보를 우선적으로 활용하고, 해당 구성을 활용할 수 없는 경우에는 다른 구성을 활성화시킬 수 있다. 예컨대, 치아 영상 정합 장치(100)는 우선적으로 방향기준 저장부(40)에 저장된 기준정보를 기초로 뷰 영상을 생성하되, 기준정보를 적용할 수 없는 케이스일 때에는 영상특징 추출부(50)가 활성화되도록 제어할 수 있다. The tooth image matching apparatus 100 according to an embodiment of the present invention may take only one of the orientation reference storage unit 40 and the image feature extraction unit 50 as described above. , 50, or by selecting information according to one configuration, the number of view directions or view images can be determined. Alternatively, the information according to one configuration can be used preferentially, and in the case where the configuration can not be used, another configuration can be activated. For example, the tooth image matching apparatus 100 generates a view image based on the reference information stored in the direction reference storage unit 40, and when the reference information can not be applied, the image feature extraction unit 50 Can be controlled to be activated.

뷰영상 생성부(30)를 통해 생성된 제1 치아 영상 데이터와 제2 치아 영상 데이터에 대한 뷰 영상은 디스플레이부(20)를 통해 분할된 화면에 표시된다. The first and second tooth image data generated through the view image generation unit 30 and the view image of the second tooth image data are displayed on a screen divided through the display unit 20. [

사용자는 사용자 입력부(10)를 통하여 디스플레이부(20)에 표시된 각 뷰 영상에서 제1 치아 영상 데이터와 제2 치아 영상 데이터의 정합을 위한 기준이 되는 특징점을 입력할 수 있다. The user can input minutiae serving as criteria for matching the first tooth image data and the second tooth image data in each view image displayed on the display unit 20 through the user input unit 10. [

사용자는 제1 치아 영상 데이터의 뷰 영상과 제2 치아 영상 데이터의 뷰 영상에서 서로 동일한 위치라고 생각되는 부분을 특징점으로 입력한다. 예컨대, 사용자는 제1 치아 영상 데이터와 제2 치아 영상 데이터에서 상대적으로 명확하게 나타나는 치아 영역 내에서 특징점을 입력할 수 있다. 한편, 특징점의 위치가 특별히 제한되는 것은 아니지만, 특징점은 영상의 어느 한 부분에 집중되지 않고 전체 영상에서 골고루 배치되도록 입력하는 것이 바람직하다. 사용자는 디스플레이된 모든 뷰 영상에 대해서 적어도 하나 이상의 특징점을 입력할 수도 있으나, 일부의 뷰 영상에서만 특징점을 입력할 수도 있을 것이다.The user inputs a portion of the view image of the first tooth image data and the view image of the second tooth image data, which are considered to be the same position, as feature points. For example, the user can input the minutiae in the tooth area that appears relatively clearly in the first tooth image data and the second tooth image data. On the other hand, although the positions of the minutiae are not particularly limited, it is preferable to input the minutiae so that the minutiae are uniformly distributed in the entire image without concentrating on any one part of the image. The user may input at least one or more minutiae points for all the displayed view images, but the minutiae points may be input only in some view images.

이때, 디스플레이부(20)는 제1 치아 영상 데이터와 제2 치아 영상 데이터의 각 뷰 영상 중 동일한 방향에 따른 뷰 영상은 서로 대응되는 위치에 표시하여 사용자가 두 영상 데이터에서 동일한 부분을 쉽게 파악할 수 있도록 도울 수 있다.At this time, the display unit 20 displays the view images along the same direction among the respective view images of the first tooth image data and the second tooth image data at positions corresponding to each other, so that the user can easily grasp the same part in the two image data .

영상 정합부(60)는 사용자 입력부(10)를 통해 뷰 영상에 입력된 특징점을 기준으로 제1 치아 영상 데이터와 제2 치아 영상 데이터의 정합을 수행한다. 이때, 정합은 영상의 특징을 바탕으로 한 다양한 정합 알고리즘에 의하여 수행될 수 있다.The image matching unit 60 performs matching between the first tooth image data and the second tooth image data on the basis of the feature point input to the view image through the user input unit 10. At this time, the matching can be performed by various matching algorithms based on the characteristics of the image.

디스플레이부(20)는 치아 영상 데이터의 정합 결과를 표시하여 사용자로 하여금 확인할 수 있도록 한다. 정합 결과 표시시, 디스플레이부(20)는 정합 영상 내에서 정합이 어긋나거나 상대적으로 부정확한 부분을 색을 달리하여 표시하는 등으로 영상 정합 결과의 정확도를 정량적으로 파악할 수 있는 표식을 제공함으로써 사용자가 정합의 정확성 정도를 객관적으로 파악하도록 할 수 있을 것이다.The display unit 20 displays the matching result of the tooth image data so that the user can check the matching result. When the matching result is displayed, the display unit 20 provides a mark that quantitatively grasps the accuracy of the image matching result by, for example, matching out of the matching image or displaying a relatively inaccurate portion with different colors, The accuracy of the matching can be grasped objectively.

한편, 치아 영상 정합 장치(100)는 제1 치아 영상 데이터와 제2 치아 영상 데이터를 정합한 결과에 따른 정합 영상을 메모리(미도시)에 저장하여, 이후 임플란트 시술 계획을 수립하기 위한 시뮬레이션시 이를 로딩하여 활용할 수 있다.In the meantime, the tooth image matching apparatus 100 stores the matching image according to the result of matching the first tooth image data and the second tooth image data in a memory (not shown), and then, in a simulation for establishing an implant procedure plan And can be utilized by loading.

그리고, 영상특징 추출부(50)를 통해 추출된 후보점이나 후보 영역에 관한 정보를 저장하였다가 뷰 영상에 함께 표시해줌으로써 사용자가 특징점을 입력할 때 좀 더 적절한 포인트를 입력할 수 있도록 가이드해줄 수도 있을 것이며, 영상 정합이 완료된 이후 정합 결과의 수정이 필요할 때에도 저장된 정보를 제공하여 사용자가 특징점을 재선택하는데 도움을 줄 수도 있다.Then, information about candidate points or candidate regions extracted through the image feature extraction unit 50 is stored and displayed together with the view image, thereby guiding the user to input more appropriate points when the user inputs the feature points And may also assist the user in reselecting the feature point by providing stored information even when the registration result is required to be modified after the image registration is completed.

도 2는 본 발명의 실시예에 따른 치아 영상 정합 방법에 따른 정합 과정을 나타낸 흐름도이다. 이하, 도 2를 참조하여 도 1의 치아 영상 정합 장치(100) 구성의 유기적인 동작 과정을 살펴본다.2 is a flowchart illustrating a matching process according to a tooth image matching method according to an embodiment of the present invention. Hereinafter, an organic operation process of the configuration of the tooth image matching apparatus 100 of FIG. 1 will be described with reference to FIG.

영상 장비를 통하여 영상 정합을 수행할 제1 치아 영상 데이터와 제2 치아 영상 데이터가 획득되면, 뷰영상 생성부(30)는 영상 정합의 기준이 되는 특징점이 위치할 가능성이 큰 영역이 잘 나타나도록 제1 치아 영상 데이터와 제2 치아 영상 데이터에 대한 적절한 뷰 방향과 뷰 영상의 개수를 결정한다(S10, S20). 이때, 영상 데이터의 영상 좌표축 대비 환자의 방향(Orientation)이 틀어진 경우에는 뷰 방향과 뷰 영상의 개수를 결정하기 전에 영상 데이터의 기울기 등을 보정하는 단계가 선행될 수 있을 것이다. When the first tooth image data and the second tooth image data to be subjected to the image matching through the image equipment are acquired, the view image generating unit 30 generates an image in which the region where the feature point, The appropriate view direction and the number of view images for the first tooth image data and the second tooth image data are determined (S10, S20). In this case, if the orientation of the patient is different from that of the image coordinate axis of the image data, a step of correcting the slope of the image data and the like may be preceded before determining the number of view images and the number of view images.

한편, 구체적인 뷰 방향과 뷰 영상의 개수는 방향기준 저장부(40)에 저장된 기준정보에 의하거나, 또는 영상특징 추출부(50)를 통해 추출된 후보점이나 후보영역의 위치 및 그 개수, 거리 등에 따라 적응적으로 결정될 수 있다. 참고로, 뷰 영상 생성을 위한 뷰 방향 및 개수는 제1 치아 영상 데이터와 제2 치아 영상 데이터에 대하여 동일하게 적용된다. On the other hand, the specific view direction and the number of view images are determined based on the reference information stored in the direction reference storage unit 40 or the positions of the candidate points or candidate regions extracted through the image feature extraction unit 50, And the like. For reference, the view direction and the number for generating a view image are applied to the first tooth image data and the second tooth image data in the same manner.

예컨대, 뷰영상 생성부(30)는 방향기준 저장부(40)에 뷰 방향이 직접적으로 명시된 때에는 해당 뷰 방향에 따른 뷰 영상을 생성할 수 있으며, 방향기준 저장부(40)에 소정 조건에 따라 뷰 방향이 정의된 경우에는 연령, 성별, 인종 등의 환자정보와 치아의 유실 부분이나 진단명과 같은 환자의 진료정보를 활용하거나 주어진 치아 영상 데이터를 직접 처리하여 제1 치아 영상 데이터와 제2 치아 영상 데이터가 소정 조건을 만족하는지를 먼저 판단한 후 구체적인 뷰 방향을 결정할 수 있다.For example, when the view direction is directly specified in the direction reference storage unit 40, the view image generating unit 30 can generate a view image according to the view direction, When the view direction is defined, patient information such as age, sex, and race, and patient's medical information such as missing part or diagnosis name of the tooth are utilized or a given tooth image data is directly processed to obtain the first tooth image data and the second tooth image A specific view direction can be determined after first determining whether data satisfies a predetermined condition.

또 다른 예로서, 뷰영상 생성부(30)는 영상특징 추출부(50)를 통해 추출된 후보점이나 후보영역의 위치가 상대적으로 일 측면에 밀집된 경우에는 정면을 기준으로 해당 측면방향으로 각각 α도, β도, δ도 회전된 뷰 영상을 생성하는 등으로 다른 방향에 비하여 후보점이나 후보영역이 밀집된 일 측면방향에 집중하여 뷰 영상을 생성할 수 있을 것이다. 또한, 각 후보점이나 후보영역의 거리에 따라 각 뷰 영상 간의 회전각도 차이나 스케일을 달리 결정할 수 있다. 예컨대. 후보점 간의 거리가 가까울수록 각 뷰 영상 간의 회전각도 차이를 작게 결정할 수 있으며, 인접 후보점 부근이 명확하게 구분될 수 있도록 해당 부분이 확대되도록 뷰 영상의 스케일을 결정할 수 있을 것이다. As another example, when the positions of the candidate points or candidate regions extracted through the image feature extraction unit 50 are relatively densely arranged on one side, the view image generation unit 30 generates a plurality of The view image can be generated by concentrating the candidate points or the candidate regions in one side direction in which the candidate points or candidate regions are concentrated as compared with the other directions. In addition, the rotation angle difference or scale between each view image can be determined differently according to the distance between each candidate point and the candidate region. for example. The closer the distance between the candidate points is, the smaller the rotational angle difference between each view image can be determined, and the scale of the view image can be determined such that the corresponding portion is enlarged so that the vicinity of the adjacent candidate point can be clearly distinguished.

이와 같이, 뷰 영상의 방향, 개수, 스케일 등이 결정되면, 뷰영상 생성부(30)는 영상 좌표계 정보를 기초로 제1 치아 영상 데이터와 제2 치아 영상 데이터에 대하여 결정된 방향과 개수, 스케일에 대응하는 복수의 뷰 영상을 생성하고, 이를 디스플레이한다(S30, S40). When the direction, number, and scale of the view image are determined as described above, the view image generation unit 30 generates the view image based on the image coordinate system information, the direction, number, and scale determined for the first tooth image data and the second tooth image data A corresponding plurality of view images are generated and displayed (S30, S40).

사용자가 사용자 입력부(10)를 통하여 뷰 영상에 특징점을 입력하면, 영상 정합부(60)는 입력된 특징점을 기준으로 두 치아 영상 데이터를 정합한다(S50, S60). 정합은 영상의 특징을 기반으로 하여 정합을 수행하는 다양한 정합 알고리즘에 의할 수 있음은 전술된 바와 같다.When the user inputs a feature point to the view image through the user input unit 10, the image matching unit 60 aligns the two tooth image data based on the inputted feature point (S50, S60). As described above, matching can be performed by various matching algorithms that perform matching based on image characteristics.

디스플레이부(20)에는 사용자가 확인할 수 있도록 영상 정합 결과가 표시되며(S70), 이때, 결과 표시창에 정합도에 따라 색상을 달리하는 등으로 정합 정확도를 객관적으로 파악할 수 있는 정량적인 표식을 부가할 수 있다. 이는 사용자가 정합 결과의 수정 필요 여부를 판단하는데 도움이 될 수 있다.The image matching result is displayed on the display unit 20 so that the user can confirm the image matching result (S70). At this time, a quantitative marking that can objectively grasp the matching accuracy can be added to the result display window by changing the color according to the matching degree . This can help the user to determine whether the matching result needs to be modified.

도 3은 본 발명의 실시예에 따른 치아 영상 정합 장치(100)에 의하여 생성된 뷰 영상과 영상 정합 결과가 표시된 화면의 일 예로서, 제1 치아 영상 데이터는 구강 스캔 영상, 제2 치아 영상 데이터는 CT 영상인 예를 보여준다. FIG. 3 shows an example of a view image and a result of image matching generated by the tooth image matching apparatus 100 according to an embodiment of the present invention. The first tooth image data includes an oral scan image, a second tooth image data Shows an example of a CT image.

도 3을 참조하면, A 영역은 제1 치아 영상 데이터에 대한 뷰 영상(301, 302, 303)이 표시된 영역이고, B 영역은 제2 치아 영상 데이터에 대한 뷰 영상(304, 305, 306)이 표시된 영역으로서, 왼편부터 순서대로 좌측 방향, 정면 방향, 우측 방향에 따른 뷰 영상(301 내지 306)이 분할된 화면에 표시된 예이다. Referring to FIG. 3, the area A is an area where the view images 301, 302, and 303 are displayed for the first tooth image data, and the area B is the view images 304, 305, and 306 for the second tooth image data. And the view images 301 to 306 along the left direction, the front direction, and the right direction in order from the left side are displayed on the divided screen.

제1 치아 영상 데이터와 제2 치아 영상 데이터의 각 뷰 영상 중 동일한 방향에 따른 뷰 영상은 서로 대응되는 위치에 표시되어 있다. 예컨대, 제1 치아 영상 데이터에 대한 좌측 방향 뷰 영상(301)과 제2 치아 영상 데이터에 대한 좌측 방향 뷰 영상(304)이 아래 위로 서로 대응되는 위치에 표시되어 있다. 이를 통해, 사용자가 두 치아 영상 데이터에 대해서 동일 위치에 대응하는 특징점을 쉽게 파악할 수 있다. 또한, 두 치아 영상 데이터의 스케일도 서로 대응되도록 뷰 영상을 생성함으로써 사용자가 더 직관적으로 특징점을 파악하도록 할 수 있다.The view images in the same direction among the respective view images of the first tooth image data and the second tooth image data are displayed at positions corresponding to each other. For example, a left-side view image 301 for the first tooth image data and a left-side view image 304 for the second tooth image data are displayed at positions corresponding to each other. Thus, the user can easily grasp the minutiae corresponding to the same position with respect to the two tooth image data. In addition, the user can more intuitively grasp the feature points by generating the view images so that the scales of the two teeth image data correspond to each other.

참고로, 6개의 뷰 영상(301 내지 306)에 입력된 점(p1 내지 p6)은 사용자 입력부(10)를 통하여 입력된 특징점의 예시를 보여준다.For reference, the points p1 to p6 input to the six view images 301 to 306 show examples of the feature points input through the user input unit 10.

상황에 따라 생성된 뷰 영상에 사용자가 입력하고자 하는 특징점 부근이 잘 나타나있지 않거나 뷰 영상 내에서 적절한 특징점을 찾기 어려운 경우를 대비하여 표시된 뷰 영상의 방향을 사용자가 수동으로 조절할 수 있는 조절수단(미도시)을 부가할 수 있다. Adjusting means for manually adjusting the direction of the displayed view image in case that the vicinity of the feature point to be inputted by the user is not clearly displayed in the generated view image or in the case where it is difficult to find an appropriate feature point in the view image Time) can be added.

한편, C 영역은 정합 결과를 보여주는 결과 영상(307)과 정합된 영상에서 VOI(Volumn of Interest)를 조정하기 위한 함수 형태의 사용자 인터페이스(User Interface, UI)(308)로서, 결과 영상(307)에서는 정합도를 서로 다른 색으로 표시하고 있다. The C region is a functional user interface (UI) 308 for adjusting the VOI (Volumn of Interest) in the matching image with the resultant image 307 showing the matching result. The resultant image 307, The matching degrees are displayed in different colors.

사용자는 제공된 결과 영상을 기초로 정합 결과를 평가하여 필요한 경우에는 특징점의 위치를 변경하거나 새로운 특징점을 추가하여 종전의 영상 정합 결과를 수정할 수 있다. The user can evaluate the matching result based on the provided result image, modify the position of the minutiae point or add a new minutiae point if necessary to correct the previous image matching result.

전술된 실시예에서는 CT영상과 구강 스캔 영상의 정합이 이루어지는 것을 일 예로 들어 설명되었으나, CT영상-CT영상, 스캔 영상-스캔 영상, 자기공명영상-CT영상 등과 같이 2차원-2차원 영상, 2차원-3차원 영상, 3차원-3차원 영상의 다양한 조합에 대해서도 본 발명에 따른 치아 영상 정합 방법에 의해서 정합이 이루어질 수 있음은 물론이다. In the above-described embodiment, the CT image and the oral scan image are matched with each other. However, the CT image-CT image, the scan image-scan image, the MRI image-CT image, It is needless to say that various combinations of the 3D-3D image and the 3D-3D image can be matched by the tooth image matching method according to the present invention.

한편, 본 발명의 실시예에 따른 치아 영상 정합 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성되어 마그네틱 저장매체, 광학적 판독매체, 디지털 저장매체 등 다양한 기록 매체로도 구현될 수 있을 것이다.Meanwhile, the tooth image matching method according to the embodiment of the present invention may be realized by a program that can be executed by a computer, and may be implemented by various recording media such as a magnetic storage medium, an optical reading medium, and a digital storage medium.

이처럼, 본 발명에 따른 치아 영상 정합 방법, 이를 위한 장치, 및 이를 기록한 기록매체에 따르면, 사용자가 수동으로 객체의 방향이나 각도를 직접 변경하면서 영상 정합의 기준이 되는 포인트를 입력하지 않아도 되기 때문에 종래 기술에 비하여 사용자의 편의를 크게 증대시킬 수 있으며, 이에 수반하여 임플란트 계획 및 서지컬 가이드 설계의 효율성을 제고할 수 있는 효과가 있다.As described above, according to the tooth image matching method of the present invention, an apparatus therefor, and a recording medium on which the tooth image is recorded, the user does not need to manually input the point as the reference for image matching while manually changing the direction or angle of the object. It is possible to increase the convenience of the user significantly compared with the technique, and accordingly, the efficiency of the implant planning and the design of the surge guide can be enhanced.

본 명세서에 설명된 각종 기술들의 구현들은 디지털 전자 회로조직으로, 또는 컴퓨터 하드웨어, 펌웨어, 소프트웨어로, 또는 그들의 조합들로 구현될 수 있다. 구현들은 데이터 처리 장치, 예를 들어 프로그램가능 프로세서, 컴퓨터, 또는 다수의 컴퓨터들의 동작에 의한 처리를 위해, 또는 이 동작을 제어하기 위해, 컴퓨터 프로그램 제품, 즉 정보 캐리어, 예를 들어 기계 판독가능 저장 장치(컴퓨터 판독가능 매체) 또는 전파 신호에서 유형적으로 구체화된 컴퓨터 프로그램으로서 구현될 수 있다. 상술한 컴퓨터 프로그램(들)과 같은 컴퓨터 프로그램은 컴파일된 또는 인터프리트된 언어들을 포함하는 임의의 형태의 프로그래밍 언어로 기록될 수 있고, 독립형 프로그램으로서 또는 모듈, 구성요소, 서브루틴, 또는 컴퓨팅 환경에서의 사용에 적절한 다른 유닛으로서 포함하는 임의의 형태로 전개될 수 있다. 컴퓨터 프로그램은 하나의 사이트에서 하나의 컴퓨터 또는 다수의 컴퓨터들 상에서 처리되도록 또는 다수의 사이트들에 걸쳐 분배되고 통신 네트워크에 의해 상호 연결되도록 전개될 수 있다.Implementations of the various techniques described herein may be implemented in digital electronic circuitry, or in computer hardware, firmware, software, or combinations thereof. Implementations may be implemented in a computer program product, such as an information carrier, e.g., a machine readable storage device, such as a computer readable storage medium, for example, for processing by a data processing apparatus, Apparatus (computer readable medium) or as a computer program tangibly embodied in a propagation signal. A computer program, such as the computer program (s) described above, may be written in any form of programming language, including compiled or interpreted languages, and may be stored as a stand-alone program or in a module, component, subroutine, As other units suitable for use in the present invention. A computer program may be deployed to be processed on one computer or multiple computers at one site or distributed across multiple sites and interconnected by a communications network.

컴퓨터 프로그램의 처리에 적절한 프로세서들은 예로서, 범용 및 특수 목적 마이크로프로세서들 둘 다, 및 임의의 종류의 디지털 컴퓨터의 임의의 하나 이상의 프로세서들을 포함한다. 일반적으로, 프로세서는 판독 전용 메모리 또는 랜덤 액세스 메모리 또는 둘 다로부터 명령어들 및 데이터를 수신할 것이다. 컴퓨터의 요소들은 명령어들을 실행하는 적어도 하나의 프로세서 및 명령어들 및 데이터를 저장하는 하나 이상의 메모리 장치들을 포함할 수 있다. 일반적으로, 컴퓨터는 데이터를 저장하는 하나 이상의 대량 저장 장치들, 예를 들어 자기, 자기-광 디스크들, 또는 광 디스크들을 포함할 수 있거나, 이것들로부터 데이터를 수신하거나 이것들에 데이터를 송신하거나 또는 양쪽으로 되도록 결합될 수도 있다. 컴퓨터 프로그램 명령어들 및 데이터를 구체화하는데 적절한 정보 캐리어들은 예로서 반도체 메모리 장치들, 예를 들어, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 롬(Read Only Memory, ROM), 램(Random Access Memory, RAM), 플래시 메모리, EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 등을 포함한다. 프로세서 및 메모리는 특수 목적 논리 회로조직에 의해 보충되거나, 이에 포함될 수 있다.Processors suitable for processing a computer program include, by way of example, both general purpose and special purpose microprocessors, and any one or more processors of any kind of digital computer. Generally, a processor will receive instructions and data from a read-only memory or a random access memory or both. The elements of a computer may include at least one processor for executing instructions and one or more memory devices for storing instructions and data. Generally, a computer may include one or more mass storage devices for storing data, such as magnetic, magneto-optical disks, or optical disks, or may receive data from them, transmit data to them, . ≪ / RTI > Information carriers suitable for embodying computer program instructions and data include, for example, semiconductor memory devices, for example, magnetic media such as hard disks, floppy disks and magnetic tape, compact disk read only memory A magneto-optical medium such as a floppy disk, a read only memory (ROM), a random access memory (RAM) Access memory (RAM), flash memory, erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), and the like. The processor and memory may be supplemented or included by special purpose logic circuitry.

또한, 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용매체일 수 있고, 컴퓨터 저장매체를 포함할 수 있다.In addition, the computer-readable medium can be any available media that can be accessed by a computer, and can include computer storage media.

본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.While the specification contains a number of specific implementation details, it should be understood that they are not to be construed as limitations on the scope of any invention or claim, but rather on the description of features that may be specific to a particular embodiment of a particular invention Should be understood. Certain features described herein in the context of separate embodiments may be implemented in combination in a single embodiment. Conversely, various features described in the context of a single embodiment may also be implemented in multiple embodiments, either individually or in any suitable subcombination. Further, although the features may operate in a particular combination and may be initially described as so claimed, one or more features from the claimed combination may in some cases be excluded from the combination, Or a variant of a subcombination.

마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 장치 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 장치들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징 될 수 있다는 점을 이해하여야 한다.Likewise, although the operations are depicted in the drawings in a particular order, it should be understood that such operations must be performed in that particular order or sequential order shown to achieve the desired result, or that all illustrated operations should be performed. In certain cases, multitasking and parallel processing may be advantageous. Also, the separation of the various device components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the described program components and devices will generally be integrated together into a single software product or packaged into multiple software products It should be understood.

한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.It should be noted that the embodiments of the present invention disclosed in the present specification and drawings are only illustrative of specific examples for the purpose of understanding and are not intended to limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

10: 사용자 입력부 20: 디스플레이부
30: 뷰영상 생성부 40: 방향기준 저장부
50: 영상특징 추출부 60: 영상 정합부
10: user input unit 20: display unit
30: view image generation unit 40: direction reference storage unit
50: image feature extraction unit 60: image matching unit

Claims (11)

두 개의 치아 영상을 정합하는 치아 영상 정합 방법에 있어서,
제1 치아 영상 데이터의 영상 좌표계 정보를 기초로 상기 제1 치아 영상 데이터에 대하여 서로 다른 방향에 각각 대응하는 복수의 뷰 영상을 생성하는 단계;
제2 치아 영상 데이터의 영상 좌표계 정보를 기초로 상기 제2 치아 영상 데이터에 대하여 상기 서로 다른 방향에 각각 대응하는 복수의 뷰 영상을 생성하는 단계;
상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터에 대한 상기 뷰 영상을 분할된 화면에 디스플레이하는 단계;
상기 복수의 뷰 영상 내에서 사용자 입력부를 통하여 영상 정합의 기준이 되는 특징점을 입력받는 단계; 및
입력된 상기 특징점을 기초로 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 정합을 수행하는 단계를 포함하며,
상기 뷰 영상을 분할된 화면에 디스플레이하는 단계에서, 상기 복수의 뷰 영상은 상기 화면의 서로 다른 위치에 각각 표시되며,
상기 뷰 영상을 생성하는 단계는, 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터를 기초로 상기 특징점으로 적합한 후보점 또는 상기 특징점이 위치하기에 적합한 후보영역을 추출하고, 추출된 상기 후보점 또는 상기 후보영역의 위치, 상기 후보점간 또는 상기 후보영역간 거리, 환자정보와 치아 유실 영역을 기초로 생성할 상기 뷰 영상의 방향, 개수, 및 스케일을 결정하는 것을 특징으로 하는 치아 영상 정합 방법.
A tooth image matching method for matching two tooth images,
Generating a plurality of view images corresponding to different directions with respect to the first tooth image data based on the image coordinate system information of the first tooth image data;
Generating a plurality of view images corresponding to the different directions of the second tooth image data based on the image coordinate system information of the second tooth image data;
Displaying the view image of the first tooth image data and the second tooth image data on a divided screen;
Receiving a feature point serving as a reference for image matching through the user input unit in the plurality of view images; And
And performing matching of the first tooth image data and the second tooth image data based on the input minutiae,
In the step of displaying the view image on the divided screen, the plurality of view images are displayed at different positions on the screen,
The generating of the view image may include extracting a candidate point suitable for the feature point or a candidate region for the feature point based on the first tooth image data and the second tooth image data, And the direction, number and scale of the view image to be generated based on the position of the candidate region, the distance between the candidate points or the candidate region, the patient information and the tooth loss region are determined.
제1항에 있어서,
상기 서로 다른 방향은 좌측방향, 우측방향, 및 정면방향 중 적어도 어느 한 방향을 포함하는 것을 특징으로 하는 치아 영상 정합 방법.
The method according to claim 1,
Wherein the different directions include at least one of a left direction, a right direction, and a front direction.
제1항 또는 제2항에 따른 치아 영상 정합 방법을 실행하기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체.
A computer-readable recording medium having recorded thereon a program for executing the method for matching teeth images according to claim 1 or 2.
두 개의 치아 영상을 정합하는 치아 영상 정합 장치에 있어서,
제1 치아 영상 데이터와 제2 치아 영상 데이터를 기초로 영상 정합의 기준이 되는 특징점으로 적합한 후보점 또는 상기 특징점이 위치하기에 적합한 후보영역을 추출하는 영상특징 추출부;
상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 영상 좌표계 정보를 기초로 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터에 대하여 서로 다른 방향에 각각 대응하는 복수의 뷰 영상을 생성하는 뷰영상 생성부;
상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터에 대한 상기 복수의 뷰 영상을 분할된 화면에 표시하는 디스플레이부;
상기 복수의 뷰 영상 내에서 영상 정합의 기준이 되는 특징점을 입력받는 사용자 입력부; 및
입력된 상기 특징점을 기초로 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 정합을 수행하는 영상 정합부를 포함하며,
상기 뷰영상 생성부는, 상기 영상특징 추출부를 통해 추출된 상기 후보점 또는 상기 후보영역의 위치, 상기 후보점간 또는 상기 후보영역간 거리, 환자정보와 치아 유실 영역을 기초로 생성할 상기 뷰 영상의 방향, 개수, 및 스케일을 결정하고,
상기 디스플레이부는, 상기 복수의 뷰 영상을 상기 화면의 서로 다른 위치에 각각 표시하는 것을 특징으로 하는 치아 영상 정합 장치.
A tooth image matching apparatus for matching two tooth images,
A feature extractor for extracting a candidate point suitable as a reference point for image matching based on the first tooth image data and the second tooth image data or a candidate area suitable for positioning the feature point;
Generating a plurality of view images corresponding to different directions for the first tooth image data and the second tooth image data based on the image coordinate system information of the first tooth image data and the second tooth image data, An image generation unit;
A display unit for displaying the plurality of view images for the first tooth image data and the second tooth image data on a divided screen;
A user input unit for inputting a feature point serving as a reference of image matching in the plurality of view images; And
And an image matching unit for matching the first tooth image data and the second tooth image data based on the input minutiae,
The view image generation unit generates the view image based on the position of the candidate point or the candidate region extracted through the image feature extraction unit, the distance between the candidate points or the candidate region, the direction of the view image to be generated based on the patient information and the tooth loss region, The number, and the scale,
Wherein the display unit displays the plurality of view images at different positions on the screen, respectively.
제4항에 있어서,
상기 뷰영상 생성부는 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 스케일이 서로 대응되도록 상기 뷰 영상을 생성하는 것을 특징으로 하는 치아 영상 정합 장치.
5. The method of claim 4,
Wherein the view image generating unit generates the view image so that the scales of the first tooth image data and the second tooth image data correspond to each other.
삭제delete 제4항에 있어서,
상기 디스플레이부는 상기 영상특징 추출부를 통해 추출된 상기 후보점 또는 후보영역을 상기 뷰 영상에 표시하는 것을 특징으로 하는 치아 영상 정합 장치.
5. The method of claim 4,
Wherein the display unit displays the candidate point or candidate region extracted through the image feature extraction unit on the view image.
제4항에 있어서,
상기 뷰 영상의 방향을 결정하기 위한 기준정보를 저장하는 방향기준 저장부를 더 포함하며,
상기 뷰영상 생성부는 상기 방향기준 저장부에 저장된 상기 기준정보를 기초로 상기 뷰 영상을 생성하는 것을 특징으로 하는 치아 영상 정합 장치.
5. The method of claim 4,
Further comprising a direction reference storage for storing reference information for determining a direction of the view image,
Wherein the view image generating unit generates the view image based on the reference information stored in the direction reference storage unit.
제4항에 있어서,
상기 디스플레이부는 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 상기 각 뷰 영상 중 동일한 방향에 따른 뷰 영상은 서로 대응되는 위치에 표시하는 것을 특징으로 하는 치아 영상 정합 장치.
5. The method of claim 4,
Wherein the display unit displays the view images along the same direction among the view images of the first tooth image data and the second tooth image data at positions corresponding to each other.
제4항에 있어서,
상기 디스플레이부는 상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터의 정합 결과를 표시하는 것을 특징으로 하는 치아 영상 정합 장치.
5. The method of claim 4,
Wherein the display unit displays the matching result of the first tooth image data and the second tooth image data.
제4항에 있어서,
상기 제1 치아 영상 데이터와 상기 제2 치아 영상 데이터는 각각 CT 영상, 스캔 영상, 및 자기공명영상 중 하나인 치아 영상 정합 장치.
5. The method of claim 4,
Wherein the first tooth image data and the second tooth image data are one of a CT image, a scan image, and a magnetic resonance image, respectively.
KR1020170063955A 2017-05-24 2017-05-24 Dental image registration method, apparatus, and recording medium thereof KR101913586B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170063955A KR101913586B1 (en) 2017-05-24 2017-05-24 Dental image registration method, apparatus, and recording medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170063955A KR101913586B1 (en) 2017-05-24 2017-05-24 Dental image registration method, apparatus, and recording medium thereof

Publications (1)

Publication Number Publication Date
KR101913586B1 true KR101913586B1 (en) 2018-11-01

Family

ID=64398243

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170063955A KR101913586B1 (en) 2017-05-24 2017-05-24 Dental image registration method, apparatus, and recording medium thereof

Country Status (1)

Country Link
KR (1) KR101913586B1 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200100907A (en) * 2019-02-18 2020-08-27 오스템임플란트 주식회사 Method and apparatus for matching medical images
WO2020171314A1 (en) * 2019-02-21 2020-08-27 주식회사 디오 Wax bite for scanning, and dental restoration manufacturing method using same
KR20200120034A (en) 2019-04-11 2020-10-21 주식회사 디오 Method and apparatus for preprocessing computerized tomography image data
KR20200120036A (en) 2019-04-11 2020-10-21 주식회사 디오 Method and apparatus for matching of images using tooth object
KR102181711B1 (en) * 2019-05-30 2020-11-24 주식회사 디오 scanning purpose dental restoration and method for manufacturing therof
KR20210000942A (en) * 2019-06-26 2021-01-06 주식회사 디오 Apparatus And Method For Dental Image Registration
CN113243932A (en) * 2020-02-12 2021-08-13 阿里巴巴集团控股有限公司 Oral health detection system, related method, device and equipment
KR102302587B1 (en) * 2020-12-17 2021-09-16 이마고웍스 주식회사 Method for determining accuracy of registration result of 3d dental ct image and 3d digital impression model
CN113710189A (en) * 2019-02-15 2021-11-26 尼奥西斯股份有限公司 Method for registering imaging scans using a coordinate system and an associated system
KR102334485B1 (en) * 2020-08-20 2021-12-06 이마고웍스 주식회사 Automated method for aligning 3d dental data and computer readable medium having program for performing the method
KR20210151388A (en) * 2020-06-05 2021-12-14 오스템임플란트 주식회사 Method, Apparatus and Recording Medium For Displaying Tooth Measurement Information
KR20230104074A (en) * 2021-12-29 2023-07-07 이마고웍스 주식회사 Automated method for tooth segmentation of three dimensional scan data and computer readable medium having program for performing the method
WO2023191566A1 (en) * 2022-04-01 2023-10-05 주식회사 레이 Simulation method for movement of mandible
US11978203B2 (en) 2019-04-11 2024-05-07 Dio Corporation Dental object detection method, and image matching method and device using dental object
US12023221B2 (en) 2020-08-20 2024-07-02 Imagoworks Inc. Automated method for aligning 3D dental data and computer readable medium having program for performing the method
US12062193B2 (en) 2019-04-11 2024-08-13 Dio Corporation Apparatus for preprocessing image data

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003529406A (en) * 1999-07-26 2003-10-07 コンピュータライズド・メディカル・システムズ・インコーポレーテッド Automatic image fusion / alignment system and method
US20100124367A1 (en) 2007-01-11 2010-05-20 Sicat Gmbh & Co. Kg Image registration
KR101467346B1 (en) 2013-08-30 2014-12-02 연세대학교 원주산학협력단 Magnetic resonance imaging registration and composition method
KR101613159B1 (en) * 2014-12-31 2016-04-20 오스템임플란트 주식회사 Automatic dental image registration method, apparatus, and recording medium thereof
KR101692250B1 (en) 2015-11-30 2017-01-03 오스템임플란트 주식회사 Method for generating sectional image of tooth pairs, apparatus, and recording medium thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003529406A (en) * 1999-07-26 2003-10-07 コンピュータライズド・メディカル・システムズ・インコーポレーテッド Automatic image fusion / alignment system and method
US20100124367A1 (en) 2007-01-11 2010-05-20 Sicat Gmbh & Co. Kg Image registration
KR101467346B1 (en) 2013-08-30 2014-12-02 연세대학교 원주산학협력단 Magnetic resonance imaging registration and composition method
KR101613159B1 (en) * 2014-12-31 2016-04-20 오스템임플란트 주식회사 Automatic dental image registration method, apparatus, and recording medium thereof
KR101692250B1 (en) 2015-11-30 2017-01-03 오스템임플란트 주식회사 Method for generating sectional image of tooth pairs, apparatus, and recording medium thereof

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113710189A (en) * 2019-02-15 2021-11-26 尼奥西斯股份有限公司 Method for registering imaging scans using a coordinate system and an associated system
KR102234425B1 (en) * 2019-02-18 2021-04-01 오스템임플란트 주식회사 Method and apparatus for matching medical images
KR20200100907A (en) * 2019-02-18 2020-08-27 오스템임플란트 주식회사 Method and apparatus for matching medical images
WO2020171314A1 (en) * 2019-02-21 2020-08-27 주식회사 디오 Wax bite for scanning, and dental restoration manufacturing method using same
US12062193B2 (en) 2019-04-11 2024-08-13 Dio Corporation Apparatus for preprocessing image data
KR20200120034A (en) 2019-04-11 2020-10-21 주식회사 디오 Method and apparatus for preprocessing computerized tomography image data
KR20200120036A (en) 2019-04-11 2020-10-21 주식회사 디오 Method and apparatus for matching of images using tooth object
KR102177886B1 (en) 2019-04-11 2020-11-12 주식회사 디오 Method and apparatus for preprocessing computerized tomography image data
US11978203B2 (en) 2019-04-11 2024-05-07 Dio Corporation Dental object detection method, and image matching method and device using dental object
KR102181711B1 (en) * 2019-05-30 2020-11-24 주식회사 디오 scanning purpose dental restoration and method for manufacturing therof
KR20210000942A (en) * 2019-06-26 2021-01-06 주식회사 디오 Apparatus And Method For Dental Image Registration
KR102267488B1 (en) 2019-06-26 2021-06-21 주식회사 디오 Apparatus And Method For Dental Image Registration
CN113243932A (en) * 2020-02-12 2021-08-13 阿里巴巴集团控股有限公司 Oral health detection system, related method, device and equipment
KR20210151388A (en) * 2020-06-05 2021-12-14 오스템임플란트 주식회사 Method, Apparatus and Recording Medium For Displaying Tooth Measurement Information
KR102363338B1 (en) 2020-06-05 2022-02-16 오스템임플란트 주식회사 Method, Apparatus and Recording Medium For Displaying Tooth Measurement Information
KR102334485B1 (en) * 2020-08-20 2021-12-06 이마고웍스 주식회사 Automated method for aligning 3d dental data and computer readable medium having program for performing the method
KR20220103902A (en) * 2020-08-20 2022-07-25 이마고웍스 주식회사 Automated method for aligning 3d dental data and computer readable medium having program for performing the method
KR102453912B1 (en) 2020-08-20 2022-10-14 이마고웍스 주식회사 Automated method for aligning 3d dental data and computer readable medium having program for performing the method
WO2022039316A1 (en) * 2020-08-20 2022-02-24 이마고웍스 주식회사 Method for automating dental three-dimensional data position alignment, and computer-readable recording medium having program for executing same on computer recorded thereon
US12023221B2 (en) 2020-08-20 2024-07-02 Imagoworks Inc. Automated method for aligning 3D dental data and computer readable medium having program for performing the method
WO2022131419A1 (en) * 2020-12-17 2022-06-23 이마고웍스 주식회사 Method for determining registration accuracy of three-dimensional dental ct image and three-dimensional digital impression model, and computer-readable recording medium in which program for executing same in computer is recorded
KR102302587B1 (en) * 2020-12-17 2021-09-16 이마고웍스 주식회사 Method for determining accuracy of registration result of 3d dental ct image and 3d digital impression model
KR20230104074A (en) * 2021-12-29 2023-07-07 이마고웍스 주식회사 Automated method for tooth segmentation of three dimensional scan data and computer readable medium having program for performing the method
KR102630009B1 (en) 2021-12-29 2024-01-30 이마고웍스 주식회사 Automated method for tooth segmentation of three dimensional scan data and computer readable medium having program for performing the method
WO2023191566A1 (en) * 2022-04-01 2023-10-05 주식회사 레이 Simulation method for movement of mandible

Similar Documents

Publication Publication Date Title
KR101913586B1 (en) Dental image registration method, apparatus, and recording medium thereof
KR101613159B1 (en) Automatic dental image registration method, apparatus, and recording medium thereof
US11961238B2 (en) Tooth segmentation using tooth registration
US10881353B2 (en) Machine-guided imaging techniques
EP3164075B1 (en) Unified coordinate system for multiple ct scans of patient lungs
KR102130963B1 (en) Apparatus and method for analyzing cephalic image
CN106157282A (en) Image processing system and method
US11847730B2 (en) Orientation detection in fluoroscopic images
JP2018068400A (en) Dynamic image processing device
JP2019121283A (en) Prediction model generation system and prediction system
CN114092475A (en) Focal length determining method, image labeling method, device and computer equipment
JP6258084B2 (en) Medical image display device, medical image display system, and medical image display program
CN112862955B (en) Method, apparatus, device, storage medium and program product for establishing three-dimensional model
CN109087357A (en) Scan orientation method, apparatus, computer equipment and computer readable storage medium
JP6734111B2 (en) Finding information creation device and system
US11869203B2 (en) Dental image registration device and method
US10299864B1 (en) Co-localization of multiple internal organs based on images obtained during surgery
KR20230053888A (en) Method, device and recording medium for displaying a screen according to a plurality of menus
JP2005253755A (en) Tumor region setting method and tumor region setting system
JP2011182946A (en) Medical image display and medical image display method
CN114830638A (en) System and method for telestration with spatial memory
US20190192252A1 (en) Surgical Instrument Positioning System and Positioning Method Thereof
CN117058309B (en) Image generation method and system based on oral imaging
Millan-Arias et al. General Cephalometric Landmark Detection for Different Source of X-Ray Images
US20240127570A1 (en) Image analysis apparatus, image analysis method, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant