Nothing Special   »   [go: up one dir, main page]

KR100961661B1 - 수술용 항법 장치 및 그 방법 - Google Patents

수술용 항법 장치 및 그 방법 Download PDF

Info

Publication number
KR100961661B1
KR100961661B1 KR1020090015652A KR20090015652A KR100961661B1 KR 100961661 B1 KR100961661 B1 KR 100961661B1 KR 1020090015652 A KR1020090015652 A KR 1020090015652A KR 20090015652 A KR20090015652 A KR 20090015652A KR 100961661 B1 KR100961661 B1 KR 100961661B1
Authority
KR
South Korea
Prior art keywords
image data
reference image
comparison
imaging unit
data
Prior art date
Application number
KR1020090015652A
Other languages
English (en)
Inventor
최승욱
이민규
Original Assignee
주식회사 래보
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 래보 filed Critical 주식회사 래보
Priority to CN2010800075455A priority Critical patent/CN102316817B/zh
Priority to PCT/KR2010/000764 priority patent/WO2010093153A2/ko
Priority to US13/144,225 priority patent/US20110270084A1/en
Application granted granted Critical
Publication of KR100961661B1 publication Critical patent/KR100961661B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00149Holding or positioning arrangements using articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)

Abstract

수술용 항법 장치 및 그 방법이 개시된다. 본 발명에 따르면, 수술 전 촬상하여 생성한 환자의 기준 영상 데이터와 환자 위치 데이터를 이용하여 환자의 위치를 기준 영상 데이터에 정합하는 제1 정합부와, 환자 위치 데이터와 촬상부로부터 수신한 비교 영상 데이터를 실시간으로 정합하는 제2 정합부와, 환자 위치 데이터를 이용하여 비교 영상 데이터와 기준 영상 데이터를 실시간으로 정합하는 영상 처리부를 포함하는 수술용 항법 장치는 수술 중에 촬영되는 환부에 대한 영상을 실시간으로 제공하여 수술 전 촬영한 영상과 비교할 수 있도록 하며, 제공되는 영상은 내시경의 현재 위치 및 주변 구조물의 3D 형태로 출력될 수 있으므로, 의사의 편의성을 도모할 수 있는 효과가 있다.
수술, 로봇, 항법 장치, 영상.

Description

수술용 항법 장치 및 그 방법{Apparatus and Method of operating a medical navigation system}
본 발명은 의료용 기기 및 방법에 관한 것으로, 특히 수술용 항법 장치 및 방법에 관한 것이다.
의학적으로 수술이란 피부나 점막, 기타 조직을 의료 기계를 사용하여 자르거나 째거나 조작을 가하여 병을 고치는 것을 말한다. 특히, 수술부위의 피부를 절개하여 열고 그 내부에 있는 기관 등을 치료, 성형하거나 제거하는 개복 수술 등은 출혈, 부작용, 환자의 고통, 흉터 등의 문제로 인하여 최근에는 로봇(robot)을 사용한 수술이 대안으로서 각광받고 있다.
종래의 수술 방법 중 영상유도수술(IGS : image-guided surgery)은 수술장에서 수술도구의 위치를 추적하여 CT 또는 MR 등 환자의 진단 영상에 중첩하여 시각화함으로써 수술의 정확성과 안정성을 높일 수 있는 방법이다. 도 1은 종래 기술에 따른 수술용 항법 장치를 도시한 도면이다. 수술용 항법장치(100)는 적외선 카메 라(101)를 통해 프로브(102)에 부착된 적외선 반사구(103)의 위치를 인식함으로써, 수술용 항법장치(100)의 디스플레이부(104) 상에, 프로브(102)의 위치로부터 보이는 환자의 환부를 수술용 항법장치(100)에 미리 저장되어 있는 3차원 이미지 데이터 상에서의 대응하는 부분에 나타낸다. 환자의 환부를 더욱 상세히 관찰하기 위해 수술용 현미경(105)이 사용될 수 있다.
그러나 종래 기술에 따른 수술용 항법 장치는 실제로 수술에 사용하는 모든 인스트루먼트에 모두 위치 프로브가 달려있는 것이 아니므로 위치 확인을 위해서는 반드시 위치 확인이 가능한 특정 프로브를 사용하여야만 한다. 또한, 수술초기에 위치확인을 할 때에 수술용 항법 장치를 많이 사용하지만 위치 확인이 모두 끝나고 실제로 수술을 수행하는 수술 중간에는 미리 저장된 영상 데이터가 실제 수술 부위의 영상 데이터와 위치가 다르거나 변형되어 수술용 항법 장치를 많이 사용하지 않는 문제점이 있다.
전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 발명은 수술 중에 촬영되는 환부에 대한 영상을 실시간으로 제공하여 수술 전 촬영한 영상과 비교할 수 있도록 하는 수술용 항법 장치 및 그 작동 방법을 제공하기 위한 것이다.
또한, 본 발명은 내시경의 현재 위치 및 주변 구조물의 3D 형태를 수술 전에 촬영한 영상과 대비하여 제공함으로써 수술의 정확성 및 의사의 편의성을 도모할 수 있는 수술용 항법 장치 및 그 작동 방법을 제공하기 위한 것이다.
본 발명이 제시하는 이외의 기술적 과제들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.
본 발명의 일 측면에 따르면, 수술 전 촬상하여 생성한 환자의 기준 영상 데이터와 환자 위치 데이터를 이용하여 환자의 위치를 기준 영상 데이터에 정합하는 제1 정합부와, 환자 위치 데이터와 촬상부로부터 수신한 비교 영상 데이터를 실시간으로 정합하는 제2 정합부와, 환자 위치 데이터를 이용하여 비교 영상 데이터와 기준 영상 데이터를 실시간으로 정합하는 영상 처리부를 포함하는 수술용 항법 장치가 제공된다.
영상 처리부는 촬상부와 결합한 로봇 암의 로봇 위치 데이터와 환자 위치 데이터를 이용하여 비교 영상 데이터와 기준 영상 데이터를 정합할 수 있다.
또한, 영상 처리부는 환자 위치 데이터에 정합된 비교 영상 데이터와 기준 영상 데이터를 출력하도록 디스플레이부를 제어할 수 있다.
또한, 영상 처리부는 로봇 암으로부터 촬상부가 이격된 거리, 연장된 방향 및 바라보는 방향을 이용하여 비교 영상 데이터와 기준 영상 데이터를 정합할 수 있다.
여기서, 촬상부는 서로 다른 시차(parallax)를 가지는 복수의 렌즈를 이용하여 촬상 대상의 거리 정보를 생성하거나 하나의 렌즈를 이용하여 이동하면서 대상을 촬상하여 촬상 대상의 거리 정보를 생성할 수 있다.
본 발명의 다른 측면에 따르면, 수술용 항법 장치가 수술 중 실시간으로 영상을 처리하는 방법에 있어서, 수술 전 촬상하여 생성한 환자의 기준 영상 데이터와 환자 위치 데이터를 이용하여 환자의 위치를 기준 영상 데이터에 정합하는 단계와, 환자 위치 데이터와 촬상부로부터 수신한 비교 영상 데이터를 실시간으로 정합하는 단계와, 환자 위치 데이터를 이용하여 비교 영상 데이터와 기준 영상 데이터를 실시간으로 정합하는 단계를 포함하는 수술용 항법 장치의 작동 방법이 제공된다.
여기서, 기준 영상 데이터는 수술 전 촬상하여 생성한 환자의 진단 영상에 대한 데이터이며, 기준 영상 데이터와 비교 영상 데이터는 2D 또는 3D 영상 데이터이며, 촬상부는 내시경일 수 있다.
여기서, 비교 영상 데이터와 기준 영상 데이터의 정합 단계는, 촬상부와 결합한 로봇 암의 로봇 위치 데이터와 환자 위치 데이터를 이용하여 비교 영상 데이터와 기준 영상 데이터를 정합하는 단계를 더 포함할 수 있다.
또한, 비교 영상 데이터와 기준 영상 데이터의 정합 단계 이후, 환자 위치 데이터를 이용하여 정합된 비교 영상 데이터와 기준 영상 데이터를 출력하도록 디스플레이부를 제어하는 단계가 더 포함될 수 있으며, 여기서, 기준 영상 데이터는 촬상부가 바라보는 방향에 상응하여 출력될 수 있다.
또한, 비교 영상 데이터와 기준 영상 데이터의 정합 단계는, 로봇 암으로부터 촬상부가 이격된 거리, 연장된 방향 및 바라보는 방향을 이용하여 비교 영상 데이터와 기준 영상 데이터를 정합하는 단계를 더 포함할 수 있다.
또한, 환자 위치 데이터와 비교 영상 데이터의 정합 단계는, 촬상부가 서로 다른 시차를 가지는 복수의 렌즈를 이용하여 촬상 대상의 거리 정보를 생성하는 단계를 더 포함하거나, 하나의 렌즈를 이용하여 이동하면서 대상을 촬상하여 촬상 대상의 거리 정보를 생성하는 단계를 더 포함할 수 있다.
또한, 영상 처리부는 비교 영상 데이터에서 수술 진행에 상응하여 생성된 차이 영상 데이터를 추출하고, 기준 영상 데이터에서 차이 영상 데이터를 차감함으로써 기준 영상 데이터를 재구성하는 방법을 수행할 수 있다.
전술한 것 외의 다른 측면, 특징, 잇점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.
본 발명에 따른 수술용 항법 장치 및 그 작동 방법은 수술 중에 촬영되는 환부에 대한 영상을 실시간으로 제공하여 수술 전 촬영한 영상과 비교할 수 있도록 하며, 제공되는 영상은 내시경의 현재 위치 및 주변 구조물의 3D 형태로 출력될 수 있으므로, 수술의 정확성 및 의사의 편의성을 도모할 수 있는 효과가 있다.
또한, 본 발명에 따른 수술용 항법 장치 및 그 작동 방법에 따르면, 수술을 수행하는 의사는 수술 중에, 비교 영상 데이터로부터 구현되는 현재 촬상된 영상과 기준 영상 데이터로부터 구현되는 수술 전에 촬상된 영상을 서로 같은 위치, 방향에 대해서 볼 수 있으며, 수술이 얼마나 진행되었는지를 실시간으로 알 수 있는 장점이 있다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르 게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 2는 본 발명의 실시예에 따른 수술용 항법 장치를 도시한 도면이다. 도 2를 참조하면, 로봇 암(203), 수술용 인스트루먼트(205), 촬상부(207), 의사(210), 수술용 항법 장치(220)가 도시된다. 이하에서는 수술용 로봇을 이용하여 영상을 처리하는 방법을 중심으로 설명하지만, 본 발명은 이러한 로봇 수술에 한정되지 않으며, 예를 들면, 단지 카메라 기능만 구비된 수술 보조 로봇인 경우에도 본 발명이 적용될 수 있다.
본 실시예는 수술시 촬상된 영상들, 즉, 수술 전 촬상하여 생성한 환자의 진단 영상의 데이터와 수술 중 내시경에 의해 얻어진 영상 데이터를 서로 정합하여 수술 전과 수술 중의 환부에 대한 영상 정보를 실시간으로 제공함으로써, 수술의 정확성을 도모하고 의사가 편리하게 수술할 수 있도록 하는 영상 처리 방법을 특징 으로 한다.
수술 전 촬상하여 생성한 환자의 진단 영상은 환부에 대한 상태, 위치 등을 확인하기 위한 영상으로서 그 종류가 특별히 제한되지 않는다. 예를 들면, 진단 영상은 CT 영상, MRI 영상, PET 영상, X 레이 영상, 초음파 영상 등 다양한 영상을 포함할 수 있다.
로봇 암(203)에는 수술용 인스트루먼트(205), 내시경과 같은 촬상부(207)가 결합한다. 여기서, 내시경은 2D 또는 3D 내시경이 될 수 있으며, 이는 비경, 기관지경, 식도경, 위경, 십이지장경, 직장경, 방광경, 복강경, 흉강경, 종격경, 심장경 등을 포함할 수 있다. 이하에서는 촬상부(207)가 3D 내시경인 경우를 중심으로 설명한다.
수술용 항법 장치(220)는 의사(210)가 영상유도수술을 하는데 편의성을 제공하기 위한 장치이다. 수술용 항법 장치(220)는 수술 전 영상과 수술 중 영상을 서로 정합한 영상을 디스플레이부에 출력한다.
수술용 항법 장치(220)는 수술 전 촬상한 환자의 기준 영상 데이터, 환자의 위치 데이터 및 수술 중 환자의 환부에 대한 비교 영상 데이터를 이용하여 수술 전 영상과 수술 중 영상을 정합한다. 환자의 기준 영상 데이터는 수술 전에 환자에게 특수 마커를 부착한 상태에서 상술한 진단 영상을 촬상하는 소정의 의료기기에 의해 생성된다. 또한, 수술 직전에 환자 몸에 실제 부착된 마커 포인트의 위치와 기준 영상 데이터에 포함되는 마커 포인트 위치를 서로 정합하여 환자 위치 데이터는 기준 영상 데이터와 정합된다.
환자 위치 데이터는 환자의 환부에 위치하는 소정의 프로브의 위치를 파악함으로써 생성될 수 있다. 예를 들면, 프로브가 환자의 환부 또는 특정 지점에 위치하는 경우 소정의 카메라(예를 들면, 적외선 카메라)가 프로브의 특정 반사구(예를 들면, 적외선 반사구)를 인식하여 프로브의 위치 정보를 수술용 항법 장치(220)에 전송함으로써 환자 위치 데이터가 얻어질 수 있다. 본 실시예에 따른 환자 위치 데이터는 상술한 바와 다른 방법(예를 들면, 광학 추적 시스템(OTS : Optical Tracking System), 마그네틱 방식, 초음파 방식 등)에 의해 생성될 수 있음은 물론이다.
미리 생성되어 수술용 항법 장치(220)에 저장된 기준 영상 데이터와 환자 위치 데이터를 서로 정합하여 등록(registration)하는 방법은 다양하게 구현될 수 있으며, 본 발명은 특별한 방법에 한정되지 않는다. 예를 들면, 기준 영상 데이터의 좌표계, 환자 위치 데이터를 생성하기 위한 카메라의 좌표계 및 환자 위치 데이터의 좌표계를 서로 매핑함으로써 기준 영상 데이터와 환자 위치 데이터를 서로 정합할 수 있다. 이러한 등록 과정은 환자 위치 데이터 상의 점을 기준 영상 데이터 상의 점으로 변환시키는 과정이 될 수 있다.
이후 수술 중에 로봇 암(203)에 결합된 촬상부(207)가 촬영한 비교 영상 데이터와 상술한 환자 위치 데이터를 정합한다. 비교 영상 데이터는 환자의 환부를 촬상한 3D 내시경으로부터 생성된 영상 데이터로서 상술한 기준 영상 데이터와 정합되어 수술 중 실시간으로 디스플레이에 출력될 수 있다. 촬상부(207)는 로봇 암(203)에 결합되어 있으므로, 로봇 암(203)의 위치는 환자에 부착된 마커 포인트 를 기준으로 좌표로 식별 가능하다. 또한, 촬상부(207)가 로봇 암(203)의 일단으로부터 이격된 거리, 연장된 방향 및 바라보는 방향은 초기 설정값 및 변화값으로부터 산출될 수 있으므로, 촬상부(207)의 위치 좌표 및 방향도 로봇 암(203)의 로봇 위치 데이터와 환자 위치 데이터를 이용하여 식별 가능하다.
따라서 기준 영상 데이터는 환자 위치 데이터와 정합되며, 비교 영상 데이터도 환자 위치 데이터와 정합되므로, 결론적으로 비교 영상 데이터는 기준 영상 데이터와 정합될 수 있다. 이러한 영상 데이터는 2D 또는 3D로 구현될 수 있으므로, 촬상부(207)가 바라보는 방향에 상응하는 기준 영상 데이터가 출력될 수 있다. 예를 들면, 기준 영상 데이터에 상응하는 영상은 촬상부(207)가 바라보는 방향에 따라 재구성하여 출력될 수 있다. 이는 상술한 바와 같이 기준 영상 데이터의 좌표계, 환자 위치 데이터를 생성하기 위한 카메라의 좌표계, 환자 위치 데이터의 좌표계에 대해 산출되는 촬상부(207)의 위치 좌표 및 방향 정보를 이용하여 구현될 수 있다.
따라서 수술을 수행하는 의사는 수술 중에, 비교 영상 데이터로부터 구현되는 현재 촬상된 영상과 기준 영상 데이터로부터 구현되는 수술 전에 촬상된 영상을 서로 같은 위치, 방향에 대해서 볼 수 있으므로, 본 발명은 수술의 정확성 및 편의성을 도모할 수 있는 장점이 있다.
또한, 촬상부(207)의 위치 정보는 로봇 암(203)의 위치 정보와 비교하여 상대적으로 파악할 수 있으므로, 촬상부(207)의 일단에 대한 위치 및 바라보는 방향 정보는 로봇 암(203)의 위치 데이터를 이용하여 식별가능하다. 따라서 수술용 항법 장치(220)는 기준 영상 데이터 또는 비교 영상 데이터를 출력하면서, 촬상부(207)를 화면에 출력할 수 있다. 예를 들면, 촬상부(207)가 막대 형상인 경우 수술용 항법 장치(220)는 기준 영상 데이터가 구현하는 진단 영상에 촬상부(207)에 대응되는 막대 형상을 추가하여 표시할 수 있다.
여기서, 로봇 암(203), 수술용 인스트루먼트(205), 촬상부(207), 수술용 항법 장치(220)는 서로 유선 또는 무선으로 통신함으로써 정보를 송수신할 수 있다. 무선 통신이 구현되는 경우 전선에 의한 번거로움을 없앨 수 있으므로 보다 편리하게 수술을 할 수 있는 장점이 있다.
또한, 촬상부(207)는 서로 다른 시차(parallax)를 가지는 복수의 렌즈를 이용하여 촬상 대상의 거리 정보를 생성할 수 있다. 예를 들면, 촬상부(207)가 두개이며 좌우로 배열된 렌즈를 구비하고, 서로 다른 시차를 가지고 물체를 촬상하는 경우 왼쪽 영상과 오른쪽 영상의 컨버전스(convergence) 각도 차이를 이용하여 거리를 파악하고, 촬상 대상을 3D 형태로 파악할 수 있다. 수술용 항법 장치(220)는 이러한 3D 정보를 수신하여 비교 영상 데이터를 출력한다. 수술용 항법 장치(220)에 출력되는 영상은 수술 전에 촬영한 2D 영상 또는 3D의 재구성 영상이고, 촬상부(207)로부터 수신하여 출력하는 재구성 영상은 현재의 3D 형태이므로 의사는 수술이 얼마나 진행되었는지를 실시간으로 알 수 있는 장점이 있다.
또한, 다른 실시예에 따르면, 촬상부(207)는 하나의 렌즈를 이용하여 이동하면서 대상을 촬상함으로써 촬상 대상의 거리 정보를 생성할 수 있다. 예를 들면, 촬상부(207)는 동일 환부에 대해 이동하면서 서로 다른 시차를 가지고 물체를 촬상 함으로써, 상술한 바와 같이 3D 형태로 촬상 대상을 파악할 수 있다. 촬상부(207)가 전후진, 회전 등의 동작을 하면서 상술한 거리 정보를 생성하면, 촬상부(207)가 위치한 공간에 대한 정보를 이용하여 3D로 형태를 파악할 수 있다.
상술한 촬상 대상의 거리 정보로부터 구현한 3D 정보를 이용하여 수술의 진행 상태 정보를 진단 영상에서 획득할 수도 있다. 즉, 수술 전 획득한 진단 영상과 수술 중 촬영한 재구성한 영상을 비교하고 차이 영상을 도출한 후 진단 영상으로부터 해당 차이 영상을 차감하면 진단 영상을 재구성하여 현재 수술의 진행 상태 정보를 출력할 수 있다. 예를 들면, 환부가 종양이 형성된 부위이고, 진행되는 수술이 해당 종양을 제거하는 수술이라면, 상술한 차이 영상은 제거되는 종양에 상응하는 영상이며, 실시간으로 종양이 제거되는 진행 상태를 재구성된 진단 영상으로 출력할 수 있다.
이를 위해 본 실시예에 따른 수술용 항법 장치(220)는 수술 중 촬상한 비교 영상 데이터에서 수술 진행에 상응하여 생성된 차이 영상 데이터를 추출하고, 기준 영상 데이터에서 차이 영상 데이터를 차감함으로써 기준 영상 데이터를 재구성하고 이를 재구성된 진단 영상으로 출력할 수 있다. 차이 영상 데이터는 동일한 촬상 대상에 대한 기준 영상 데이터와 비교 영상 데이터를 서로 비교하여 추출하거나 또는 동일한 촬상 대상에 대한 복수의 비교 영상 데이터를 서로 비교하여 추출할 수 있다.
도 3은 본 발명의 실시예에 따른 수술용 항법 장치의 블록 구성도이다. 도 3을 참조하면, 제1 정합부(222), 제2 정합부(224), 영상 처리부(226), 디스플레이 부(228)를 포함하는 수술용 항법 장치(220)가 도시된다.
제1 정합부(222)는 수술 전 촬상하여 생성한 환자의 기준 영상 데이터와 환자 위치 데이터를 이용하여 환자의 위치를 기준 영상 데이터에 정합한다. 상술한 바와 같이 제1 정합부(222)는 미리 생성되어 수술용 항법 장치(220)에 저장된 기준 영상 데이터와 환자 위치 데이터를 서로 정합하여 등록(registration)하며, 예를 들면, 기준 영상 데이터의 좌표계, 상술한 환자 위치 데이터 생성을 위한 카메라의 좌표계 및 환자 위치 데이터의 좌표계를 서로 매핑함으로써 기준 영상 데이터와 환자 위치 데이터를 서로 정합할 수 있다.
제2 정합부(224)는 환자 위치 데이터와 촬상부로부터 수신한 비교 영상 데이터를 실시간으로 정합한다. 즉, 제2 정합부(224)는 수술 중에 로봇 암(203)에 결합된 촬상부(207)가 촬영한 비교 영상 데이터와 상술한 환자 위치 데이터를 정합한다. 예를 들면, 제2 정합부(224)는 환자 위치 데이터의 좌표계로부터 로봇 암(203) 및 촬상부(207)의 좌표값을 산출함으로써, 환자 위치 데이터와 비교 영상 데이터를 실시간으로 정합할 수 있다. 로봇 암(203)의 좌표계 또는 촬상부(207)의 좌표계를 환자 위치 데이터의 좌표계에 대해 미리 설정한 후 변화값을 적용하여 로봇 암(203) 및 촬상부(207)의 좌표값을 산출할 수 있음은 물론이다. 여기서, 제2 정합부(224)는 제1 정합부(222)와 표기상 다르게 표현하였으나, 동일한 장치로 구현될 수 있다. 즉, 제1 정합부(222)와 제2 정합부(224)는 기능상으로 다른 구성요소이지만, 실질적으로 동일한 장치에 구현되거나 구체적인 소스 코드만 달리 구현될 수 있다.
영상 처리부(226)는 환자 위치 데이터를 이용하여 비교 영상 데이터와 기준 영상 데이터를 실시간으로 정합한다. 정합된 비교 영상 데이터와 기준 영상 데이터는 의사가 비교하기 쉽게 인접한 디스플레이부(228)에 출력될 수 있다.
도 4는 본 발명의 실시예에 따른 수술용 항법 장치의 작동 방법의 흐름도이다.
단계 S410에서는, 제1 정합부(222)는 수술 전 촬상하여 생성한 환자의 기준 영상 데이터와 환자 위치 데이터를 이용하여 환자의 위치를 기준 영상 데이터에 정합한다. 이는 상술한 바와 같이 기준 영상 데이터의 좌표계, 환자 위치 데이터를 생성하기 위한 카메라의 좌표계 및 환자 위치 데이터의 좌표계를 서로 매핑함으로써 구현될 수 있다.
단계 S420에서는, 제2 정합부(224)는 환자 위치 데이터와 촬상부(207)로부터 수신한 비교 영상 데이터를 실시간으로 정합한다. 여기서, 촬상부(207)는 서로 다른 시차를 가지는 복수의 렌즈를 이용하거나 이동하면서 대상을 촬상하여 3D 영상을 구현하기 위해 촬상 대상의 거리 정보를 생성할 수 있다(단계 S422). 이러한 3D 영상은 기준 영상 데이터가 촬상부(207)가 바라보는 방향에 대해 출력되는데 이용될 수 있다.
단계 S430에서는, 영상 처리부(226)는 환자 위치 데이터를 이용하여 비교 영상 데이터와 기준 영상 데이터를 실시간으로 정합한다. 여기서, 영상 처리부(226)는 촬상부(207)와 결합한 로봇 암의 로봇 위치 데이터와 환자 위치 데이터를 이용 하여 비교 영상 데이터와 기준 영상 데이터를 정합할 수 있다(단계 S432). 또한, 영상 처리부(226)는 로봇 암(203)으로부터 촬상부(207)가 이격된 거리, 연장된 방향 및 바라보는 방향을 이용하여 비교 영상 데이터와 기준 영상 데이터를 정합할 수 있다(단계 S434).
단계 S440에서는, 수술용 항법 장치(220)는 환자 위치 데이터를 이용하여 정합된 비교 영상 데이터와 기준 영상 데이터를 출력하도록 디스플레이부를 제어하며, 이 경우 기준 영상 데이터는 상기 촬상부가 바라보는 방향에 상응하여 출력될 수 있다.
그 외 본 발명의 실시예에 따른 수술용 항법 장치에 대한 구체적인 장치 상세 설명, 임베디드 시스템, O/S 등의 공통 플랫폼 기술과 통신 프로토콜, I/O 인터페이스 등 인터페이스 표준화 기술 및 엑추에이터, 배터리, 카메라, 센서 등 부품 표준화 기술 등에 대한 구체적인 설명은 본 발명이 속하는 기술 분야의 통상의 지식을 가진자에게 자명한 사항이므로 생략하기로 한다.
본 발명의 실시예에 따른 수술용 항법 장치의 작동 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 즉, 기록 매체는 컴퓨터에 상술한 단계들을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 될 수 있다.
상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합한 형태로 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM, DVD와 같은 광기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.
상기한 바에서, 본 발명의 실시예에 따른 수술용 항법 장치는 수술용 로봇 및 영상유도수술 시스템의 구성을 일 실시예에 따라 기술하였으나, 반드시 이에 한정될 필요는 없고, 수동식 내시경을 사용하는 수술 시스템에도 적용될 수 있으며, 영상유도수술 시스템의 구성요소 중 어느 하나를 다르게 구현하더라도 전체적인 작용 및 효과에는 차이가 없다면 이러한 다른 구성은 본 발명의 권리범위에 포함될 수 있다.
예를 들면, 본 발명은 마스터 로봇에 구비된 마스터 인터페이스의 조작에 의해 슬레이브 로봇에 결합된 로봇 암, 수술용 인스트루먼트, 촬상부가 작동하는 마스터 슬레이브 구조를 가지는 수술용 로봇 시스템에도 적용될 수 있다.
해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
도 1은 종래 기술에 따른 수술용 항법 장치를 도시한 도면.
도 2는 본 발명의 실시예에 따른 수술용 항법 장치를 도시한 도면.
도 3은 본 발명의 실시예에 따른 수술용 항법 장치의 블록 구성도.
도 4는 본 발명의 실시예에 따른 수술용 항법 장치의 작동 방법의 흐름도.
<도면의 주요부분에 대한 부호의 설명>
100 : 수술용 항법장치 101 : 적외선 카메라
102 : 프로브 103 : 적외선 반사구
104 : 디스플레이부 105 : 수술용 현미경
203 : 로봇 암 205 : 수술용 인스트루먼트
207 : 촬상부 210 : 의사
220 : 수술용 항법 장치 222 : 제1 정합부
224 : 제2 정합부 226 : 영상 처리부
228 : 디스플레이부

Claims (22)

  1. 수술 전 촬상하여 생성한 환자의 진단 영상에 상응하는 기준 영상 데이터와 환자 위치 데이터를 이용하여 환자의 위치를 기준 영상 데이터에 정합하는 제1 정합부와;
    상기 환자 위치 데이터와 촬상부로부터 수신한 내시경 영상에 상응하는 비교 영상 데이터를 실시간으로 정합하는 제2 정합부와;
    상기 환자 위치 데이터를 이용하여 상기 비교 영상 데이터와 상기 기준 영상 데이터를 실시간으로 정합하는 영상 처리부와;
    상기 환자 위치 데이터에 정합된 상기 비교 영상 데이터와 상기 기준 영상 데이터를 출력하는 디스플레이부를 포함하는 수술용 항법 장치.
  2. 수술 전 촬상하여 생성한 환자의 진단 영상에 상응하는 기준 영상 데이터와 수술 중 촬상부로부터 수신한 내시경 영상에 상응하는 비교 영상 데이터를 실시간으로 정합하는 영상 처리부와;
    상기 정합된 상기 비교 영상 데이터와 상기 기준 영상 데이터를 출력하는 디스플레이부를 포함하되,
    상기 영상 처리부는 상기 촬상부의 위치 정보를 이용하여 상기 기준 영상 데이터 및 상기 비교 영상 데이터를 상기 촬상부가 결합하는 로봇 암의 좌표계에 정합하는 것을 특징으로 하는 수술용 항법 장치.
  3. 제1항 또는 제2항에 있어서,
    상기 기준 영상 데이터와 상기 비교 영상 데이터는 2D 또는 3D 영상 데이터인 수술용 항법 장치.
  4. 제1항 또는 제2항에 있어서,
    상기 촬상부는, 비경, 기관지경, 식도경, 위경, 십이지장경, 직장경, 방광경, 복강경, 흉강경, 종격경 및 심장경으로 이루어진 군으로부터 선택된 어느 하나 이상의 내시경인 것을 특징으로 하는 수술용 항법 장치.
  5. 제1항에 있어서,
    상기 영상 처리부는 상기 촬상부와 결합한 로봇 암의 로봇 위치 데이터와 상기 환자 위치 데이터를 이용하여 상기 비교 영상 데이터와 상기 기준 영상 데이터를 정합하는 수술용 항법 장치.
  6. 제5항에 있어서,
    상기 영상 처리부는 상기 로봇 암으로부터 상기 촬상부가 이격된 거리, 연장된 방향 및 바라보는 방향을 이용하여 상기 비교 영상 데이터와 상기 기준 영상 데이터를 정합하는 수술용 항법 장치.
  7. 제1항에 있어서,
    상기 영상 처리부는 상기 환자 위치 데이터에 정합된 상기 비교 영상 데이터 와 상기 기준 영상 데이터를 출력하도록 디스플레이부를 제어하는 수술용 항법 장치.
  8. 제2항 또는 제7항에 있어서,
    상기 기준 영상 데이터는 상기 촬상부가 바라보는 방향에 상응하여 출력되는 것을 특징으로 하는 수술용 항법 장치.
  9. 제1항 또는 제2항에 있어서,
    상기 촬상부는 서로 다른 시차를 가지는 복수의 렌즈를 이용하여 촬상 대상의 거리 정보를 생성하는 것을 특징으로 하는 수술용 항법 장치.
  10. 제1항 또는 제2항에 있어서,
    상기 촬상부는 하나의 렌즈를 이용하여 이동하면서 대상을 촬상하여 촬상 대상의 거리 정보를 생성하는 것을 특징으로 하는 수술용 항법 장치.
  11. 제1항 또는 제2항에 있어서,
    상기 영상 처리부는 상기 비교 영상 데이터와 상기 기준 영상 데이터간의 차이 영상 데이터를 추출하고, 상기 기준 영상 데이터에서 상기 차이 영상 데이터를 차감함으로써 상기 기준 영상 데이터를 재구성하는 것을 특징으로 하는 수술용 항법 장치.
  12. 수술용 항법 장치가 수술 중 실시간으로 영상을 처리하는 방법에 있어서,
    수술 전 촬상하여 생성한 환자의 진단 영상에 상응하는 기준 영상 데이터와 환자 위치 데이터를 이용하여 환자의 위치를 기준 영상 데이터에 정합하는 단계와;
    상기 환자 위치 데이터와 촬상부로부터 수신한 내시경 영상에 상응하는 비교 영상 데이터를 실시간으로 정합하는 단계와;
    상기 환자 위치 데이터를 이용하여 상기 비교 영상 데이터와 상기 기준 영상 데이터를 실시간으로 정합하는 단계와;
    상기 환자 위치 데이터에 정합된 상기 비교 영상 데이터와 상기 기준 영상 데이터를 출력하는 단계를 포함하는 수술용 항법 장치의 작동 방법.
  13. 수술 전 촬상하여 생성한 환자의 진단 영상에 상응하는 기준 영상 데이터와 수술 중 촬상부로부터 수신한 내시경 영상에 상응하는 비교 영상 데이터를 실시간으로 정합하는 단계-여기서, 상기 기준 영상 데이터 및 상기 비교 영상 데이터는 상기 촬상부의 위치 정보를 이용하여 상기 촬상부가 결합하는 로봇 암의 좌표계에 정합됨-;
    상기 정합된 상기 비교 영상 데이터와 상기 기준 영상 데이터를 출력하는 단계를 포함하는 수술용 항법 장치의 작동 방법.
  14. 제12항 또는 제13항에 있어서,
    상기 기준 영상 데이터와 상기 비교 영상 데이터는 2D 또는 3D 영상 데이터인 수술용 항법 장치의 작동 방법.
  15. 제12항 또는 제13항에 있어서,
    상기 촬상부는, 비경, 기관지경, 식도경, 위경, 십이지장경, 직장경, 방광경, 복강경, 흉강경, 종격경 및 심장경으로 이루어진 군으로부터 선택된 어느 하나 이상의 내시경인 것을 특징으로 하는 수술용 항법 장치의 작동 방법.
  16. 제12항에 있어서,
    상기 비교 영상 데이터와 상기 기준 영상 데이터의 정합 단계는,
    상기 촬상부와 결합한 로봇 암의 로봇 위치 데이터와 상기 환자 위치 데이터를 이용하여 상기 비교 영상 데이터와 상기 기준 영상 데이터를 정합하는 단계를 더 포함하는 수술용 항법 장치의 작동 방법.
  17. 제16항에 있어서,
    상기 비교 영상 데이터와 상기 기준 영상 데이터의 정합 단계는,
    상기 로봇 암으로부터 상기 촬상부가 이격된 거리, 연장된 방향 및 바라보는 방향을 이용하여 상기 비교 영상 데이터와 상기 기준 영상 데이터를 정합하는 단계를 더 포함하는 수술용 항법 장치의 작동 방법.
  18. 제12항에 있어서,
    상기 비교 영상 데이터와 상기 기준 영상 데이터의 정합 단계 이후,
    상기 환자 위치 데이터를 이용하여 정합된 상기 비교 영상 데이터와 상기 기준 영상 데이터를 출력하도록 디스플레이부를 제어하는 단계를 더 포함하는 수술용 항법 장치의 작동 방법.
  19. 제13항 또는 제18항에 있어서,
    상기 기준 영상 데이터는 상기 촬상부가 바라보는 방향에 상응하여 출력되는 것을 특징으로 하는 수술용 항법 장치의 작동 방법.
  20. 제12항에 있어서,
    상기 환자 위치 데이터와 상기 비교 영상 데이터의 정합 단계는,
    상기 촬상부가 서로 다른 시차를 가지는 복수의 렌즈를 이용하여 촬상 대상 의 거리 정보를 생성하는 단계를 더 포함하는 수술용 항법 장치의 작동 방법.
  21. 제12항에 있어서,
    상기 환자 위치 데이터와 상기 비교 영상 데이터의 정합 단계는,
    상기 촬상부가 하나의 렌즈를 이용하여 이동하면서 대상을 촬상하여 촬상 대상의 거리 정보를 생성하는 단계를 더 포함하는 수술용 항법 장치의 작동 방법.
  22. 제12항 또는 제13항에 있어서,
    상기 비교 영상 데이터와 상기 기준 영상 데이터의 정합 단계 이후,
    상기 비교 영상 데이터와 상기 기준 영상 데이터간의 차이 영상 데이터를 추출하는 단계; 및
    상기 기준 영상 데이터에서 상기 차이 영상 데이터를 차감함으로써 상기 기준 영상 데이터를 재구성하는 단계를 더 포함하는 수술용 항법 장치의 작동 방법.
KR1020090015652A 2009-02-12 2009-02-25 수술용 항법 장치 및 그 방법 KR100961661B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN2010800075455A CN102316817B (zh) 2009-02-12 2010-02-08 医疗导航系统的设备和操作方法
PCT/KR2010/000764 WO2010093153A2 (ko) 2009-02-12 2010-02-08 수술용 항법 장치 및 그 방법
US13/144,225 US20110270084A1 (en) 2009-02-12 2010-02-08 Surgical navigation apparatus and method for same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20090011256 2009-02-12
KR1020090011256 2009-02-12

Publications (1)

Publication Number Publication Date
KR100961661B1 true KR100961661B1 (ko) 2010-06-09

Family

ID=42369635

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090015652A KR100961661B1 (ko) 2009-02-12 2009-02-25 수술용 항법 장치 및 그 방법

Country Status (4)

Country Link
US (1) US20110270084A1 (ko)
KR (1) KR100961661B1 (ko)
CN (1) CN102316817B (ko)
WO (1) WO2010093153A2 (ko)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013062348A1 (ko) * 2011-10-26 2013-05-02 주식회사 고영테크놀러지 수술영상의 정합 방법
WO2013100517A1 (ko) * 2011-12-29 2013-07-04 재단법인 아산사회복지재단 수술 공간과 영상 공간의 정합방법
WO2014104767A1 (ko) * 2012-12-26 2014-07-03 가톨릭대학교 산학협력단 복합 실제 3차원 영상 제작방법 및 이를 위한 시스템
KR20140083913A (ko) * 2012-12-26 2014-07-04 가톨릭대학교 산학협력단 복합 실제 3차원 영상 제작방법 및 이를 위한 시스템
KR20150004538A (ko) * 2013-07-03 2015-01-13 현대중공업 주식회사 수술용 내비게이션의 측정 방향 설정 시스템 및 방법
KR20150008247A (ko) * 2013-07-11 2015-01-22 현대중공업 주식회사 로봇 수술 안전구역 확보 시스템
KR101492801B1 (ko) 2013-04-17 2015-02-12 계명대학교 산학협력단 Oct 영상과 심장 삼차원 영상의 정합을 통한 심장 수술 내비게이션 시스템 및 방법
KR20160031483A (ko) * 2016-03-07 2016-03-22 (주)미래컴퍼니 수술용 로봇의 움직임 제어/보상 방법 및 장치
WO2016043560A1 (ko) * 2014-09-19 2016-03-24 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법
WO2016099212A1 (ko) * 2014-12-19 2016-06-23 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 트래킹 방법
KR101727567B1 (ko) 2015-09-17 2017-05-02 가톨릭관동대학교산학협력단 복합 실제 3차원 영상 제작방법 및 이를 위한 시스템
CN113423358A (zh) * 2018-12-14 2021-09-21 阿克拉伦特公司 利用基于传感器的导航和内窥镜检查的组合的外科系统

Families Citing this family (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9254123B2 (en) 2009-04-29 2016-02-09 Hansen Medical, Inc. Flexible and steerable elongate instruments with shape control and support elements
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US20120071752A1 (en) 2010-09-17 2012-03-22 Sewell Christopher M User interface and method for operating a robotic medical system
EP2723270B1 (en) 2011-06-27 2019-01-23 Board of Regents of the University of Nebraska On-board tool tracking system of computer assisted surgery
US9498231B2 (en) 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US11911117B2 (en) 2011-06-27 2024-02-27 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9138166B2 (en) 2011-07-29 2015-09-22 Hansen Medical, Inc. Apparatus and methods for fiber integration and registration
US20130317519A1 (en) 2012-05-25 2013-11-28 Hansen Medical, Inc. Low friction instrument driver interface for robotic systems
TWM448255U (zh) * 2012-08-23 2013-03-11 Morevalued Technology Co Let 內視鏡膠囊裝置
US10149720B2 (en) 2013-03-08 2018-12-11 Auris Health, Inc. Method, apparatus, and a system for facilitating bending of an instrument in a surgical or medical robotic environment
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US11213363B2 (en) 2013-03-14 2022-01-04 Auris Health, Inc. Catheter tension sensing
US9173713B2 (en) 2013-03-14 2015-11-03 Hansen Medical, Inc. Torque-based catheter articulation
US9326822B2 (en) 2013-03-14 2016-05-03 Hansen Medical, Inc. Active drives for robotic catheter manipulators
US20140277334A1 (en) 2013-03-14 2014-09-18 Hansen Medical, Inc. Active drives for robotic catheter manipulators
US9629595B2 (en) 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US10105149B2 (en) 2013-03-15 2018-10-23 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9408669B2 (en) 2013-03-15 2016-08-09 Hansen Medical, Inc. Active drive mechanism with finite range of motion
US10376672B2 (en) 2013-03-15 2019-08-13 Auris Health, Inc. Catheter insertion system and method of fabrication
US20140276647A1 (en) 2013-03-15 2014-09-18 Hansen Medical, Inc. Vascular remote catheter manipulator
US20140276936A1 (en) 2013-03-15 2014-09-18 Hansen Medical, Inc. Active drive mechanism for simultaneous rotation and translation
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US9592095B2 (en) 2013-05-16 2017-03-14 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
WO2015024600A1 (en) * 2013-08-23 2015-02-26 Stryker Leibinger Gmbh & Co. Kg Computer-implemented technique for determining a coordinate transformation for surgical navigation
JP6257371B2 (ja) * 2014-02-21 2018-01-10 オリンパス株式会社 内視鏡システム及び内視鏡システムの作動方法
EP3243476B1 (en) 2014-03-24 2019-11-06 Auris Health, Inc. Systems and devices for catheter driving instinctiveness
US10046140B2 (en) 2014-04-21 2018-08-14 Hansen Medical, Inc. Devices, systems, and methods for controlling active drive systems
EP3443925B1 (en) 2014-05-14 2021-02-24 Stryker European Holdings I, LLC Processor arrangement for tracking the position of a work target
US10569052B2 (en) 2014-05-15 2020-02-25 Auris Health, Inc. Anti-buckling mechanisms for catheters
US9561083B2 (en) 2014-07-01 2017-02-07 Auris Surgical Robotics, Inc. Articulating flexible endoscopic tool with roll capabilities
US9744335B2 (en) 2014-07-01 2017-08-29 Auris Surgical Robotics, Inc. Apparatuses and methods for monitoring tendons of steerable catheters
US10792464B2 (en) 2014-07-01 2020-10-06 Auris Health, Inc. Tool and method for using surgical endoscope with spiral lumens
AU2015325052B2 (en) 2014-09-30 2020-07-02 Auris Health, Inc. Configurable robotic surgical system with virtual rail and flexible endoscope
US10314463B2 (en) 2014-10-24 2019-06-11 Auris Health, Inc. Automated endoscope calibration
CN104306072B (zh) * 2014-11-07 2016-08-31 常州朗合医疗器械有限公司 医疗导航系统及方法
US11819636B2 (en) 2015-03-30 2023-11-21 Auris Health, Inc. Endoscope pull wire electrical circuit
KR20160129311A (ko) * 2015-04-30 2016-11-09 현대중공업 주식회사 바늘삽입형 중재시술 로봇시스템
US9918798B2 (en) 2015-06-04 2018-03-20 Paul Beck Accurate three-dimensional instrument positioning
US10085815B2 (en) * 2015-07-24 2018-10-02 Albert Davydov Method for performing stereotactic brain surgery using 3D geometric modeling
CN113274140B (zh) 2015-09-09 2022-09-02 奥瑞斯健康公司 手术覆盖件
EP4070723A1 (en) 2015-09-18 2022-10-12 Auris Health, Inc. Navigation of tubular networks
US9949749B2 (en) 2015-10-30 2018-04-24 Auris Surgical Robotics, Inc. Object capture with a basket
US10639108B2 (en) 2015-10-30 2020-05-05 Auris Health, Inc. Process for percutaneous operations
US9955986B2 (en) 2015-10-30 2018-05-01 Auris Surgical Robotics, Inc. Basket apparatus
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US10454347B2 (en) 2016-04-29 2019-10-22 Auris Health, Inc. Compact height torque sensing articulation axis assembly
US10463439B2 (en) 2016-08-26 2019-11-05 Auris Health, Inc. Steerable catheter with shaft load distributions
US11241559B2 (en) 2016-08-29 2022-02-08 Auris Health, Inc. Active drive for guidewire manipulation
KR102555546B1 (ko) 2016-08-31 2023-07-19 아우리스 헬스, 인코포레이티드 길이 보존 수술용 기구
US9931025B1 (en) 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
CN116585031A (zh) 2017-03-22 2023-08-15 直观外科手术操作公司 用于智能种子配准的系统和方法
KR102558061B1 (ko) 2017-03-31 2023-07-25 아우리스 헬스, 인코포레이티드 생리적 노이즈를 보상하는 관강내 조직망 항행을 위한 로봇 시스템
WO2018208994A1 (en) 2017-05-12 2018-11-15 Auris Health, Inc. Biopsy apparatus and system
EP3624668A4 (en) 2017-05-17 2021-05-26 Auris Health, Inc. EXCHANGEABLE WORK CHANNEL
EP3641686A4 (en) * 2017-06-23 2021-03-24 Intuitive Surgical Operations, Inc. SYSTEMS AND PROCEDURES FOR NAVIGATION TO A DESTINATION DURING A MEDICAL OPERATION
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
US11026758B2 (en) 2017-06-28 2021-06-08 Auris Health, Inc. Medical robotics systems implementing axis constraints during actuation of one or more motorized joints
WO2019005872A1 (en) 2017-06-28 2019-01-03 Auris Health, Inc. INSTRUMENT INSERTION COMPENSATION
US10426559B2 (en) 2017-06-30 2019-10-01 Auris Health, Inc. Systems and methods for medical instrument compression compensation
US10145747B1 (en) 2017-10-10 2018-12-04 Auris Health, Inc. Detection of undesirable forces on a surgical robotic arm
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
EP3709927A4 (en) * 2017-11-16 2020-12-23 Intuitive Surgical Operations Inc. MASTER / SLAVE REGISTRATION AND CONTROL FOR REMOTE OPERATION
US10987179B2 (en) 2017-12-06 2021-04-27 Auris Health, Inc. Systems and methods to correct for uncommanded instrument roll
BR112020011444A2 (pt) 2017-12-11 2021-02-02 Auris Health, Inc. sistemas e métodos para arquiteturas de inserção baseadas em instrumentos
US12004849B2 (en) * 2017-12-11 2024-06-11 Covidien Lp Systems, methods, and computer-readable media for non-rigid registration of electromagnetic navigation space to CT volume
EP3684562A4 (en) 2017-12-14 2021-06-30 Auris Health, Inc. SYSTEM AND METHOD OF ESTIMATING THE LOCATION OF AN INSTRUMENT
WO2019125964A1 (en) 2017-12-18 2019-06-27 Auris Health, Inc. Methods and systems for instrument tracking and navigation within luminal networks
KR101862360B1 (ko) * 2017-12-28 2018-06-29 (주)휴톰 수술결과에 대한 피드백 제공방법 및 프로그램
KR20200118439A (ko) 2018-01-17 2020-10-15 아우리스 헬스, 인코포레이티드 개선된 로봇 아암을 갖는 수술 로봇 시스템
JP7301884B2 (ja) 2018-02-13 2023-07-03 オーリス ヘルス インコーポレイテッド 医療用器具を駆動するためのシステム及び方法
JP7305668B2 (ja) 2018-03-28 2023-07-10 オーリス ヘルス インコーポレイテッド 可変曲げ剛性プロファイルを有する医療用器具
MX2020010112A (es) 2018-03-28 2020-11-06 Auris Health Inc Sistemas y metodos para el registro de sensores de ubicacion.
MX2020010117A (es) 2018-03-28 2020-11-06 Auris Health Inc Sistemas y metodos para mostrar la ubicacion estimada de instrumento.
JP7250824B2 (ja) 2018-05-30 2023-04-03 オーリス ヘルス インコーポレイテッド 位置センサベースの分岐予測のためのシステム及び方法
MX2020012897A (es) 2018-05-31 2021-05-27 Auris Health Inc Sistemas roboticos y metodos para navegacion de la red luminal que detectan ruido fisiologico.
JP7371026B2 (ja) 2018-05-31 2023-10-30 オーリス ヘルス インコーポレイテッド 管状網の経路ベースのナビゲーション
CN110831538B (zh) 2018-05-31 2023-01-24 奥瑞斯健康公司 基于图像的气道分析和映射
EP3820373A4 (en) 2018-08-07 2022-04-27 Auris Health, Inc. COMBINATION OF STRAIN-BASED FORM MEASUREMENT WITH CATHETER CONTROL
CN112804933B (zh) 2018-09-26 2024-10-18 奥瑞斯健康公司 关节运动式医疗器械
WO2020069080A1 (en) 2018-09-28 2020-04-02 Auris Health, Inc. Devices, systems, and methods for manually and robotically driving medical instruments
EP3856064A4 (en) 2018-09-28 2022-06-29 Auris Health, Inc. Systems and methods for docking medical instruments
US12076100B2 (en) 2018-09-28 2024-09-03 Auris Health, Inc. Robotic systems and methods for concomitant endoscopic and percutaneous medical procedures
WO2020139973A1 (en) 2018-12-28 2020-07-02 Auris Health, Inc. Medical instrument with articulable segment
US10957043B2 (en) * 2019-02-28 2021-03-23 Endosoftllc AI systems for detecting and sizing lesions
CN113613580A (zh) 2019-03-22 2021-11-05 奥瑞斯健康公司 用于使医疗器械上的输入部对准的系统和方法
US11617627B2 (en) 2019-03-29 2023-04-04 Auris Health, Inc. Systems and methods for optical strain sensing in medical instruments
US11896330B2 (en) 2019-08-15 2024-02-13 Auris Health, Inc. Robotic medical system having multiple medical instruments
WO2021028883A1 (en) 2019-08-15 2021-02-18 Auris Health, Inc. Medical device having multiple bending sections
JP7451686B2 (ja) 2019-08-30 2024-03-18 オーリス ヘルス インコーポレイテッド 器具画像信頼性システム及び方法
WO2021038469A1 (en) 2019-08-30 2021-03-04 Auris Health, Inc. Systems and methods for weight-based registration of location sensors
WO2021064536A1 (en) 2019-09-30 2021-04-08 Auris Health, Inc. Medical instrument with capstan
CN118383870A (zh) 2019-12-31 2024-07-26 奥瑞斯健康公司 用于经皮进入的对准界面
JP2023508718A (ja) 2019-12-31 2023-03-03 オーリス ヘルス インコーポレイテッド 高度バスケット駆動モード
EP4084720A4 (en) 2019-12-31 2024-01-17 Auris Health, Inc. ALIGNMENT TECHNIQUES FOR PERCUTANE ACCESS
CN114901188A (zh) 2019-12-31 2022-08-12 奥瑞斯健康公司 动态滑轮系统
KR20220123273A (ko) 2019-12-31 2022-09-06 아우리스 헬스, 인코포레이티드 해부학적 특징부 식별 및 표적설정

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6135946A (en) 1997-06-23 2000-10-24 U.S. Philips Corporation Method and system for image-guided interventional endoscopic procedures
US6947786B2 (en) 2002-02-28 2005-09-20 Surgical Navigation Technologies, Inc. Method and apparatus for perspective inversion

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2000293A6 (es) * 1986-12-29 1988-02-01 Dominguez Montes Juan Instalacion y procedimiento para obtener imagenes tridimensionales en movimiento esto es tetradimimensionales tanto en color como en blanco y negro
US5631973A (en) * 1994-05-05 1997-05-20 Sri International Method for telemanipulation with telepresence
CA2142338C (en) * 1992-08-14 1999-11-30 John Stuart Bladen Position location system
JP3402690B2 (ja) * 1993-10-12 2003-05-06 オリンパス光学工業株式会社 測距装置を有するカメラ
US6466815B1 (en) * 1999-03-30 2002-10-15 Olympus Optical Co., Ltd. Navigation apparatus and surgical operation image acquisition/display apparatus using the same
JP2001061861A (ja) * 1999-06-28 2001-03-13 Siemens Ag 画像撮影手段を備えたシステムおよび医用ワークステーション
US7179221B2 (en) * 2002-03-28 2007-02-20 Fuji Photo Film Co., Ltd. Endoscope utilizing fiduciary alignment to process image data
FR2855292B1 (fr) * 2003-05-22 2005-12-09 Inst Nat Rech Inf Automat Dispositif et procede de recalage en temps reel de motifs sur des images, notamment pour le guidage par localisation
EP2316328B1 (en) * 2003-09-15 2012-05-09 Super Dimension Ltd. Wrap-around holding device for use with bronchoscopes
JP4686484B2 (ja) * 2004-02-10 2011-05-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ インターベンションデバイスの空間的ロードマップ生成方法、システム、及びその空間的精度を監視する品質管理システム
WO2007011306A2 (en) * 2005-07-20 2007-01-25 Bracco Imaging S.P.A. A method of and apparatus for mapping a virtual model of an object to the object
US9789608B2 (en) * 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
US20070016011A1 (en) * 2005-05-18 2007-01-18 Robert Schmidt Instrument position recording in medical navigation
CN1326092C (zh) * 2005-10-27 2007-07-11 上海交通大学 手术导航中基于基准面膜的多模式医学图像配准方法
US20070167744A1 (en) * 2005-11-23 2007-07-19 General Electric Company System and method for surgical navigation cross-reference to related applications
CN101099673A (zh) * 2007-08-09 2008-01-09 上海交通大学 采用红外反光球为标志点的手术器械定位方法
CN101327148A (zh) * 2008-07-25 2008-12-24 清华大学 用于被动式光学手术导航的器械识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6135946A (en) 1997-06-23 2000-10-24 U.S. Philips Corporation Method and system for image-guided interventional endoscopic procedures
US6947786B2 (en) 2002-02-28 2005-09-20 Surgical Navigation Technologies, Inc. Method and apparatus for perspective inversion

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101307944B1 (ko) * 2011-10-26 2013-09-12 주식회사 고영테크놀러지 수술영상의 정합 방법
WO2013062348A1 (ko) * 2011-10-26 2013-05-02 주식회사 고영테크놀러지 수술영상의 정합 방법
US9105092B2 (en) 2011-10-26 2015-08-11 Koh Young Technology Inc. Registration method of images for surgery
KR101441089B1 (ko) * 2011-12-29 2014-09-23 재단법인 아산사회복지재단 수술 공간과 영상 공간의 정합방법
WO2013100517A1 (ko) * 2011-12-29 2013-07-04 재단법인 아산사회복지재단 수술 공간과 영상 공간의 정합방법
WO2014104767A1 (ko) * 2012-12-26 2014-07-03 가톨릭대학교 산학협력단 복합 실제 3차원 영상 제작방법 및 이를 위한 시스템
KR20140083913A (ko) * 2012-12-26 2014-07-04 가톨릭대학교 산학협력단 복합 실제 3차원 영상 제작방법 및 이를 위한 시스템
KR101588014B1 (ko) 2012-12-26 2016-01-25 가톨릭관동대학교산학협력단 복합 실제 3차원 영상 제작방법 및 이를 위한 시스템
KR101492801B1 (ko) 2013-04-17 2015-02-12 계명대학교 산학협력단 Oct 영상과 심장 삼차원 영상의 정합을 통한 심장 수술 내비게이션 시스템 및 방법
KR20150004538A (ko) * 2013-07-03 2015-01-13 현대중공업 주식회사 수술용 내비게이션의 측정 방향 설정 시스템 및 방법
KR102191035B1 (ko) * 2013-07-03 2020-12-15 큐렉소 주식회사 수술용 내비게이션의 측정 방향 설정 시스템 및 방법
KR20150008247A (ko) * 2013-07-11 2015-01-22 현대중공업 주식회사 로봇 수술 안전구역 확보 시스템
KR102131696B1 (ko) 2013-07-11 2020-08-07 큐렉소 주식회사 로봇 수술 안전구역 확보 시스템
WO2016043560A1 (ko) * 2014-09-19 2016-03-24 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법
KR101638477B1 (ko) 2014-09-19 2016-07-11 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법
KR20160034104A (ko) * 2014-09-19 2016-03-29 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법
US11206998B2 (en) 2014-09-19 2021-12-28 Koh Young Technology Inc. Optical tracking system for tracking a patient and a surgical instrument with a reference marker and shape measurement device via coordinate transformation
WO2016099212A1 (ko) * 2014-12-19 2016-06-23 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 트래킹 방법
KR20160074912A (ko) * 2014-12-19 2016-06-29 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 트래킹 방법
KR101650821B1 (ko) 2014-12-19 2016-08-24 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 트래킹 방법
US10271908B2 (en) 2014-12-19 2019-04-30 Koh Young Technology Inc. Optical tracking system and tracking method for optical tracking system
KR101727567B1 (ko) 2015-09-17 2017-05-02 가톨릭관동대학교산학협력단 복합 실제 3차원 영상 제작방법 및 이를 위한 시스템
KR101662837B1 (ko) * 2016-03-07 2016-10-06 (주)미래컴퍼니 수술용 로봇의 움직임 제어/보상 방법 및 장치
KR20160031483A (ko) * 2016-03-07 2016-03-22 (주)미래컴퍼니 수술용 로봇의 움직임 제어/보상 방법 및 장치
CN113423358A (zh) * 2018-12-14 2021-09-21 阿克拉伦特公司 利用基于传感器的导航和内窥镜检查的组合的外科系统

Also Published As

Publication number Publication date
CN102316817B (zh) 2013-12-11
US20110270084A1 (en) 2011-11-03
CN102316817A (zh) 2012-01-11
WO2010093153A3 (ko) 2010-11-25
WO2010093153A2 (ko) 2010-08-19

Similar Documents

Publication Publication Date Title
KR100961661B1 (ko) 수술용 항법 장치 및 그 방법
US11730562B2 (en) Systems and methods for imaging a patient
US11622815B2 (en) Systems and methods for providing proximity awareness to pleural boundaries, vascular structures, and other critical intra-thoracic structures during electromagnetic navigation bronchoscopy
EP3138526B1 (en) Augmented surgical reality environment system
AU2022201732A1 (en) Methods and systems for using multi view pose estimation
JP2019507623A (ja) 画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法
JP2023133606A (ja) 細長いデバイスに関するシステム及び方法
JP2020535883A (ja) ロボットアームの境界を示すロボットシステム
JP6715823B2 (ja) X線スイートにおける画像統合及びロボット内視鏡制御
JP2018515253A (ja) 画像誘導手術のための位置合わせのシステム及び方法
JP2012527286A (ja) 電磁追跡内視鏡システムのためのマーカーなし追跡の位置合わせおよび較正
KR101598774B1 (ko) 수술용 영상 처리 장치 및 그 방법
US20230346479A1 (en) Alerting and mitigating divergence of anatomical feature locations from prior images to real-time interrogation
US20220202500A1 (en) Intraluminal navigation using ghost instrument information
US20240285351A1 (en) Surgical assistance system with improved registration, and registration method
JP7495242B2 (ja) 医用画像診断装置、手術支援ロボット装置、手術支援ロボット用制御装置及び制御プログラム
KR101492801B1 (ko) Oct 영상과 심장 삼차원 영상의 정합을 통한 심장 수술 내비게이션 시스템 및 방법
KR101114231B1 (ko) 수술용 영상 처리 장치 및 그 방법
US20240350121A1 (en) Systems and methods for three-dimensional imaging
US20210236213A1 (en) Systems and methods for determining an arrangement of explanted tissue and for displaying tissue information
AU2023226004A1 (en) Three-dimensional reconstruction of an instrument and procedure site
WO2023126754A1 (en) Three-dimensional model reconstruction
CN117323003A (zh) 用于创建通向肺部中目标的导航路径的锥形束计算机断层摄影集成及导航到目标的方法
WO2023228058A1 (en) Creating a navigation pathway to a target in the lung and method of navigating to the target
CN118475318A (zh) 二维图像配准

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130528

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140528

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150430

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160509

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170426

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180504

Year of fee payment: 9