Nothing Special   »   [go: up one dir, main page]

CN108601630A - 在脊柱区域和邻近胸廓、骨盆或头部的区域的外科手术期间的术中图控导航装置 - Google Patents

在脊柱区域和邻近胸廓、骨盆或头部的区域的外科手术期间的术中图控导航装置 Download PDF

Info

Publication number
CN108601630A
CN108601630A CN201680081174.2A CN201680081174A CN108601630A CN 108601630 A CN108601630 A CN 108601630A CN 201680081174 A CN201680081174 A CN 201680081174A CN 108601630 A CN108601630 A CN 108601630A
Authority
CN
China
Prior art keywords
detection device
data
operated
image data
subregion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201680081174.2A
Other languages
English (en)
Other versions
CN108601630B (zh
Inventor
D·J·杰森斯基
T·F·费克特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sam Mai AG
Original Assignee
Sam Mai AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sam Mai AG filed Critical Sam Mai AG
Publication of CN108601630A publication Critical patent/CN108601630A/zh
Application granted granted Critical
Publication of CN108601630B publication Critical patent/CN108601630B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/0507Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  using microwaves or terahertz waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0875Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of bone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • A61B8/5253Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode combining overlapping images, e.g. spatial compounding
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/17Guides or aligning means for drills, mills, pins or wires
    • A61B17/1739Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body
    • A61B17/1757Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body for the spine
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Rheumatology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Surgical Instruments (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种用于外科手术过程中,在脊柱区域和/或胸廓、骨盆或头部的邻近区域中的术中图控导航的装置(1),该装置包括非基于X射线的多个检测设备(11‑17),所述多个检测设备分别配置成围绕至少一个待操作对象(2)布置,所述多个检测设备(11‑17)在术中实时捕获图像数据和方位数据,所述图像数据和方位数据分别包括关于待操作对象(2)的至少一个子区域的至少外轮廓信息,以及包括关于所述子区域相对于相应的检测设备(11‑17)的位置信息。此外,设置定位设备(20),用于确定相应检测设备(11‑17)相对于静止参考系(30)的位置,以及与所述检测设备(11‑17)和所述定位设备(20)有效连接的数据处理设备(40),所述数据处理设备被配置成基于所述检测设备(11‑17)的相应的图像数据和方位数据,以及基于所述定位设备(20)的相应的位置数据,相对所述静止参考系(30)生成所述待操作对象(2)的虚拟的优选三维的实时图像(41),所述实时图像展示在图像显示设备(50)上。根据本发明,至少一个检测设备(13‑17)具有至少一个检测器件(13.1‑17.1),其被配置成朝向体内的布置在体内,以便捕获图像数据,所述图像数据包括关于所述对象(2)的至少一个子区域的至少外轮廓的信息。

Description

在脊柱区域和邻近胸廓、骨盆或头部的区域的外科手术期间 的术中图控导航装置
技术领域
本发明涉及根据权利要求1或16的前序部分所述的用于外科手术期间的术中图控导航的装置。
背景技术
现有技术中已知用于术中图控导航的各种装置和方法,其在手术期间使外科医生对所使用的器件或植入物相对于患者的定向可视。这些导航装置和方法的基本目标是在手术期间改善外科医生的三维空间定向,由此最终提高患者的安全性。众多导航系统是基于关联或分别参照(命名为配准)具有患者术中坐标系的术前图像数据(例如计算机断层扫描(CT)和/或磁共振成像(MRI)图像数据)。
原则上,这种配准方法从医学图像处理中是已知的。在那里它们用于以最好的方式关联同一场景或者至少相似场景的两个或更多个图像,以便从两者的结合中获得更好的信息。例如,为了能够重现骨骼结构(CT图像)和中性元素(MRI图像)之间的三维关系,因此例如良好显示软组织或脑结构的MRI图像与CT图像叠加。待记录的图像通常彼此不同,例如因为它们是从不同的位置,在不同的时刻或采用不同的方法(模态)获取的。为了记录,通常将其中一个图像设置为参考图像,而剩余的对象图像通过计算被补偿变换(例如基于最小化均方误差)优化调整至参考图像。
以类似的方式,针对图控导航中的配准过程,执行患者的坐标系和术前图像数据集之间的转换,所述转换基于特征或标记的识别,所述特征或标记可以展现在患者的术前图像数据以及患者的实际手术中。配准的结果通常是一种仿射变换,其包含旋转、平移和缩放图像数据至患者坐标系上。
为了表示患者坐标系,一方面使用所谓的解剖学标志或人造标志,另一方面使用术中成像方法。
借助解剖学标志进行配准需要在患者处选择合适的解剖点。在脊柱外科手术中,选择解剖标志使得解剖标志位于例如椎骨的骨表面。为了扫描骨表面,椎骨的骨表面通常是暴露的。所选特征应尽可能包围含操作区域,因为由此会提高配准的准确性。
然而,基于解剖标志的方法往往伴随着大量的时间消耗。因此,在显示正常骨骼时,标志的确切位置可能相对准确。相比之下,对于脊髓病变患者,如肿瘤,先天性、退行性或创伤性改变的患者,标志识别明显困难和不准确。这通常导致不理想的导航精度。另外,这个方法非常耗时。
改进设计展示了人造标志的使用,以及重现人造标志的术中成像方法。基于人造标志的系统通常由位置传感器、计算机、显示设备和用作人造标志的各种定位器组成。定位器是合适的参考体,其三维空间位置由所使用的位置传感器测量。例如,为了进行导航,将这些定位器(例如以骨螺钉形式)紧固在患者或植入物处。人造标志与解剖学标志相比较,人造标志的位置在图像数据和在现实中(例如在实际手术情况中在患者处)更加精确,从而记录精度被增加。但是,即使是人造标志也易于受到干扰。这些干扰主要是由于手术期间对患者的术中操作或者不经意的移动,从而导致的术中标志移动,这又使得需要非常费时的多次记录。随着认识到也许能够太晚注意到人造标志在手术过程中发生已经移动,最终降低了对导航的基本信任。
相反,使用术中成像方法,花费时间显著更小,并且具有图像数据的患者坐标系的配准更加可重现。尤其是,基于X射线的配准或基于2D或3D图像增强器的配准或术中CT在这里非常完善。例如借助软件算法,将术前所获得的、基于CT的脊柱二维或三维图像与术中的脊柱二维x射线图像相融合,或者在术中建立3D数据集(术中CT或3D图像增强器);特别地,手术医生可以凭此在术中实时地跟踪脊柱的三维数据集,例如手术器械的位置和所插入的植入物(例如螺钉)的位置。此外,借助X射线的术中成像还能够在手术过程中实现检查;并且必要时以此作为先导,利用X射线重复成像的方法,达到更高的辐射剂量,并且在大多情况下达到相当大的辐射剂量,实现修正所植入的植入物的位置。此外,利用术中成像方法可以评估和调整脊柱矫正器。然而,用于术中成像的许多设备通常非常不灵活并且占用大量位置,因此所述设备对患者周围的直接的操作区域具有非常局限的作用。另外,如上所述,作为附加缺点,在这些基于X射线辐射的成像方法中,增加了对患者和医务人员的辐射负荷。
作为其备选方案,基于超声波成像的术中导航方法和导航装置从现有技术中也是已知的,其中,取代上述的基于X射线的术中图像,将术中所获得的超声波数据集与手术前图像数据融合,以便优选地实时获得脊柱的三维数据集。这样的装置,例如由国际专利申请WO96/11624已知。在此,利用超声波头从外部(即例如放置在背部皮肤上)扫描直接邻近待手术骨区域的后部,从而于体外获得朝向身体内部方向的超声波数据集,。
然而在传统的基于X射线以及基于超声波的术中成像中,待操作对象仅以投影形式成像,或仅部分以轮廓图像的形式对部分区域成像。随后利用这些投影图像或局部区域图像作为参考,将其与术前图像数据叠加,然后在此基础上生成一个与术中图像数据相对应的虚拟实时图像。但是,这个虚拟图像并不能实时反映待操作对象本身,而是仅反映其实时位置。然而,由于投影图像或局部区域轮廓图像仅仅分别重现投影或一个部分区域,所以它们本身不适合整个待操作对象或当前术中情况的实时图像重现。
发明内容
因此本发明的目的在于,提供一种用于外科手术的术中图控导航的装置,该手术作用在脊柱区域和/或邻近脊柱区域的胸廓区域、骨盆区域或头部区域,所述装置允许创建待操作对象的虚拟的、优选三维的实时图像,所述实时图像为了导航而参考静止参考系。另外,所述装置不应在手术过程中阻碍手术医生,并且对术中干扰不敏感,因此始终保证足够的导航精度。
所述问题分别通过根据权利要求1或16所述的用于术中图控导航的装置来解决。本发明的优选实施例是从属权利要求的主题。
按照本发明,所述装置包括非基于X射线的多个检测设备,所述多个检测设备围绕至少一个待操作的对象布置,所述对象在所述脊柱的区域中和/或在与所述区域相邻的胸廓区域、骨盆区域或头部区域中,用于术中实时捕获图像数据和方位数据,所述图像数据和方位数据各自包括至少关于待操作对象的至少一个子区域的外轮廓,以及包括关于所述子区域相对于相应的检测设备的位置的信息。
在本发明中,待操作对象的三维表面理解为待操作骨区域的外轮廓。在本发明中,所述子区域相对于相应检测设备的位置被定义为待操作对象的所检测的三维表面相对于相应检测设备的空间分布,其中,所述分布/位置一方面包括距离,并且另一方面包括关于相应的检测设备的三维空间取向/校准。参考点“检测设备”被理解为,由此特别是检测设备的捕获部分,即实际的检测器件,是指例如传感装置。根据本发明,检测设备一方面确定距离,并且另一方面确定由其检测的的、待操作对象的三维表面区域,相对于检测设备的取向/定向。因此相应的位置数据包括距离数据和关于外轮廓数据的方向数据。
待操作对象可以基本但不排他地包括骨组织、其它支持组织和/或软组织(例如病理结构,占位病变或肿瘤)。在脊柱区域,待操作对象尤其可以包括脊柱本身的骨骼和/或软骨部分,如一个或多个椎骨,或者一个或多个椎骨的一个或多个部分(椎体横突,棘突,椎弓,肋根),骶骨(Os sacrum),尾骨(Os coccygis),和/或一个或多个椎间盘。
待操作对象可能位于颈椎(颈部),胸椎(胸部)和/或腰椎(腰部)的区域。此外,待操作对象可以包括一个或多个韧带或者韧带的一部分,如前纵韧带(ligamentumlongitudinale anterius),后纵韧带(ligamentum longitidinale posterius),一个或多个黄色带(黄韧带),一个或多个横突间横突韧带(ligamenta intertransversaria),一个或多个棘间韧带(ligamenta interspinalia)和/或棘上韧带(ligamentumsupraspinale)。待操作对象也可以位于靠近脊柱的骨盆区域,也就是说涉及例如骨盆的相邻部分,特别是骨盆环。同样,待操作对象可能位于邻近脊柱的胸部区域,特别是涉及一个或多个根椎骨上的肋骨的,一个或多个肋骨(区域),或者在发生巨大病变时,甚至涉及胸骨。同样,待操作对象可能位于邻近脊柱的头部区域。它在那里,尤其可以包括所谓的C0椎骨的区域,即枕骨(Os occipitale)或各自的枕骨部。待操作对象还可以包括在脊柱区域和/或在相邻的胸腔区域、骨盆区域或头部区域中的其它软组织,特别是神经元件或病理结构。
根据本发明,检测设备分别配置为用于获取图像数据,该图像数据至少包括关于待操作对象的信息,或其各子区域的外轮廓信息。根据检测设备的类型或各自的检测原理,以及根据待操作对象的结构,一个或多个这些非基于X射线的检测设备,除了配置成获取待操作对象的外轮廓外,有时也能够配置成获取关于待操作对象的内部结构的成像信息。因此,例如,基于超声波或太赫兹辐射的检测设备根据待操作对象的结构、构造和组织/材料,除了能够提供具有与材料相关的穿透深度或甚至穿透的外轮廓,还能够提供关于待操作对象的内部结构的信息。
根据本发明的装置还包括定位设备,所述定位设备配置成实时确定所述检测设备相对于静止参考系的各自位置,优选相对于手术室的静止参考系的相应位置数据。同样地,在这里参考点“检测设备”关于静止参考系的相对位置,应理解为:在该位置由此特别是检测设备的捕获部分,即实际的检测器件,是指例如传感装置。使用定位设备作为待操作对象与静止参考系之间的链条中的最后一个环节,总体上确保了,获取的待操作对象的每个子区域的三维表面的外轮廓数据,能够在空间上参考静止参考系,所述参考静止参考系借助于检测设备相对于各自的检测到的子区域的位置数据,以及进一步借助于检测设备相对于静止参考系的位置数据。因此,有关获取的待操作对象的三维表面的单个所检测的子区域如何相对于静止参考系定向的信息总是能得到。
此外,根据本发明,数据处理设备分别与多个检测设备和定位设备有效连接。数据处理设备配置成生成待操作对象的虚拟的图像,优选地生成三维实时图像,参考静止参考系的实时图像,并且具体而言基于检测设备的相应的图像数据和方位数据以及基于定位设备的相应的位置数据。
为了显示虚拟实时图像,根据本发明还设置了图像显示设备,所述图像显示设备与处理设备有效连接。
根据本发明,多个检测设备中的至少一个还具有至少一个检测味着:所述至少一个检测器件被配置成布置在体内朝向所述体内,以便捕获图像数据,所述图像数据至少包括关于待操作对象的至少一个子区域的外轮廓的信息。
在此,“朝向体内”意味着,在手术过程中,脊柱的相应的外轮廓或邻接脊柱的胸部区域、骨盆区域或头部区域的相应的外轮廓位于体内。因此,“朝向体内”不仅包括“中间”或“深入”,即朝向所述体的中部,特别是“腹侧”设置的子区域,而且还包括指向侧向、指向侧向斜后方、指向侧向斜前方、指向后方斜上方,指向后斜下方、指向前方斜上方、指向前方斜下方、指向侧向斜上方或指向侧向斜下方。这些位置和方向说明纯粹根据直立的患者定义。相应的子区域在手术过程中可能显露、、部分显露或完全被组织包围。
根据本发明,方式,其:使用多个检测设备的方式,取代仅使用一个受限的局部截取部分或投影,所述多个检测设备分布在操作位置周围并且其中至少一个尤其布置在体内;通过使用多个朝向所述体内的检查设备,可以从不同角度生成待操作对象的显著更全面的图像,所述图像尤其包括至少关于所述待操作对象的至少一个子区域的外轮廓的信息。理想情况下,甚至能够产生待操作对象的虚拟的、优选三维的实时全景图像或待操作对象的完整的实时3D外轮廓重构;本发明主要以该方式显著地改善导航准确性,以及提高操作者生的安全感,并且最终显著地提高患者的安全性。
特别地,根据本发明的装置所产生的虚拟实时图像是基于实际的实时图像数据,实时图像数据不仅允许跟踪操作区域相对于静止参考系的实时位置,而且也准原位地实时形象地重现待操作对象的实际外轮廓。因此有利地,不同于仅基于术前数据的方法和装置,或仅基于在手术的第一部分期间的数据,例如在访问阶段期间获取的数据的方法和装置,利用根据本发明的装置,其中除了位置数据之外,操作位置的虚拟图像利用根据本发明的装置,实时形象地获取关于待操作对象的外轮廓的术中变化,该术中变化位于操作位置的周围环境中。从而例如在操作区域中,原位地实时形象地捕获操作区域内执行的骨移除或其它组织移除、引入的操作工具的旋转、位置的修正/对准的调整等,凭借上述捕获进一步提高手术医生的导航精度和安全感,从某种程度而言,提高导航精度和提高操作安全感对本发明而言是重要的。
当然,不仅可以将一个检测设备设计成布置在体内或者在术中布置,而是至少两个,至少三个,至少四个,至少五个,至少六个,至少七个,至少八个,至少九个,至少十个,至少十一个,至少十二个或更多;特别是多个检测设备中的两个,三个,四个,五,六个,七个,八个,九个,十个,十一个,十二个检测设备。
多个检测设备的整体的数量和布置能够取决于待操作对象的尺寸和位置。例如,可能仅考虑脊柱的一小部分/区段受到手术的影响。针对这种情况,少量的检测设备可能就足够了,该检测设备布置在操作位置周围的狭窄区域中。在另一种情况下,手术可能涉及明显更大的区域,特别地该区域可以在脊柱的整个长度上延伸,因此需要更大量的检测设备,该检测设备沿着脊柱布置,分布在操作区域的整个长度上。
同样,根据位置的不同,特别是根据体内或外的布置位置的不同,多个检测设备的类型是不同的。例如能够考虑的是,布置在体内的检测设备是基于超声波的检测设备,而针对相同装置的布置在体外的检测设备是光学轮廓扫描仪。通过使用更多不同类型的多个检测设备,可以有利地获得关于待操作对象的更多和更详细的信息。
此外能够考虑的是,待操作对象的所述捕获的子区域部分重叠,所述子区域分别配属给不同的检测设备,也就是说,不同检测设备的检测区部分重叠。
虚拟实时图像的生成,基于此数据处理设备将各单独的图像数据集编译为总图像;该各单独的图像数据由检测设备所捕获,其至少分别重现待操作对象的子区域的外轮廓;该总图像至少为待操作对象的外轮廓。为此,一方面由检测设备所确定的数据被使用,该数据关于相应部分子区域相对于相应检测设备的方位,即取向和距离;并且另一方面,由定位设备所捕获的位置数据被使用,该数据关于相应的检测设备相对于静止参考系的方位,即取向和距离,这些信息用于从单个子区域的图像数据集中组合待操作对象的总图像。为此,可以在检测设备中使用特殊的图像记录、图像生成和/或图像处理软件,它们从图像数据集,即相关的方位数据或各自的位置数据,重构待操作对象的至少外轮廓的虚拟图像。为了将单个图像数据集三位准确地组合成总图像,数据处理设备能够尤其被配置成识别特定的图像区域,所述图像区域具有待操作对象的解剖上的突出特征,例如,棘突、横突、关节突、肋、凸耳肋或在脊柱、骨盆-胸部或枕区中的其它突出特征。甚至血管也可以用作解剖学上突出的特征,所述血管位于待操作对象的区域中,例如分别穿过椎间孔的椎动脉。优选地,数据处理设备可以配置为用于在来自不同检测设备的图像数据集中搜索相同的解剖学上突出的对象,并借助于这些解剖学上突出的对象的位置和取向,将不同检测设备的图像数据集在空间上彼此相关联或以正确方式在空间上相互排列。
原则上可以尤其使用已知的图像记录方法来生成虚拟实时图像。例如,记录方法能够包括以下步骤:在第一步骤中,实现所谓的特征提取。从待记录的图像数据集中,手动或自动检测待操作对象的解剖学上的突出的特征,例如刺突起或横向突起等。在第二步骤中,,建立所提取的特征点的对应关系,即所谓的特征匹配。例如,检测设备可以使用一个函数指出不同检测设备的实时图像数据集间的定性的相关性,所述函数随后在优化中被最小化或最大化。在第三步骤中,进行转换计算,在所述转换计算中选择合适的变换类型,例如仿射变换类型,投影变换类型等,并且计算变换参数。最后,在第四步骤中进行实际变换。为此,图像数据集使用在先前步骤中所计算的转换进行变换,其中,有时也可以使用内插技术。
根据本发明的第一有利的方案,除了可以将实时图像数据集成到虚拟实时图像的生成中之外,还可以将待操作对象在术前或在访问阶段期间所获得的图像数据一同集成到虚拟实时图像的生成中。因此,可以特别规定,所述数据处理设备被配置成将所述待操作对象的在术前或在访问阶段期间所获取的图像数据与所述检测设备的图像数据叠加,以便基于与所述检测设备的图像数据叠加的在术前或在访问阶段期间所获取的所述图像数据,从而生成所述待操作对象相对于所述静止参考系的虚拟实时图像。同样在这里也可以使用基本上已知的图像配准方法。通过术前所获取的图像数据的附加整合,可以有利地获得关于待操作对象的更多和更详细的信息。
然而原则上也能够考虑的是,对于重现待操作对象的图形,仅基于与外轮廓数据叠加的、术前所获取的图像数据来产生虚拟实时图像,而术中所获得的图像数据、方位数据和位置数据仅用于将所述虚拟实时图像实际参考到静止参考系。在这方面,根据本发明的一个独立构思,提供一种用于外科手术的、作用中在所述脊柱区域和/或邻近所述脊柱区域的胸廓区域、骨盆区域或头部区域的、术中图控的另外的导航装置,所述装置包括至少一个优选非基于x射线的检测设备,所述检测设备被配置成术中实时捕获图像数据和方位数据,所述图像数据和方位数据包括至少关于待操作对象的至少一个子区域的外轮廓的信息,以及关于所述子区域相对于所述检测设备的位置的信息。
所述装置还包括定位设备,所述定位设备被配置成实时确定对于所述至少一个检测设备相对于静止参考系位置的数据,此外,装置还包括数据处理设备,所述数据处理设备与至少一个检测设备和定位设备有效连接;所述数据处理设备被配置成将所述在术前或在访问阶段期间所获取的待操作对象的图像数据与所述至少一个检测设备的图像数据叠加,以便基于与所述检测设备的图像数据叠加的在术前或在访问阶段期间所获取的所述图像数据,且参考所述静止参考系来生成所述待操作对象的虚拟实时图像。同样在这里也可以使用基本上已知的图像配准方法。为了显示虚拟实时图像,此外设置了与数据处理设备有效连接的图像显示设备。同样在所述装置中,所述至少一个检测设备具有至少一个检测器件意指:所述至少一个检测器件被构安排布置在所述体内,以便捕获图像数据,所述图像数据至少包括关于待操作对象的至少一个子区域的外轮廓的信息;所述至少一个检测器件朝向所述体内。在这方面,至少一个检测设备主要用于跟踪操作区域相对于静止参考系的实时位置,办法是:所述至少一个检测设备,朝向体内检测待操作对象的至少一个子区域,并且该至少一个朝向体内的子区域用于作为术前或在访问阶段期间所获得的图像数据叠加的参考区域。
因此,根据权利要求1的装置和根据权利要求16的装置都基于相同的发明构思,即(所述)至少一个检测设备或相应的检测器件被配置成布置在所述体内,以便捕获图像数据,所述图像数据至少包括关于所述待操作对象的至少一个子区域的外轮廓的信息;所述至少一个检测器件朝向所述体内。从某种程度上说,根据本发明可见,检测设备或检测方式在体内的布置,使整个导航对术中干扰不敏感,从而始终保证足够的导航精度。由于在体内的布置,尤其尽管存在可能非常轻微的风险,即检测设备的检测区受到手术医生的干扰。相反地,所述至少一个能够布置在体内的检测设备有利地不影响手术医生对操作区域的可接近性。进一步地,检测器件允许在体内使用不同于例如X射线辐射(例如超声波)的其它成像模态。超声波尤其在颈椎区域具有很大的优势。因此,例如通过适当调整的装置,例如经食管超声心动图装置,颈椎可以从前方成像,由此可以识别重要结构(例如椎动脉或神经根)。同时,外科手术操作或其它操作所导致的颈椎的大活动性引起的椎骨(椎)的移动可以被不断补偿。另外,在体内的检测器件允许表示待操作对象的其它方面,所述其它方面不能通过对待操作对象的访问路径可见。这进一步导致了准确度的提高。
同样重要的是,归功于,定位设备的主动位置确定,布置在体内的检测设备能够不必被固定。确切地说,所述检测设备可以自由运动,因此导航对术中干扰(例如手术医生操纵患者、转移、呼吸或肠道运动等)。因为按照本发明,定位设备一方面连续地检测检测设备相对于静止参考系的相应位置。另一方面,检测设备本身实时地持久监测其相对于由其检测到的操作位置的子区域的位置。这使得可以将所捕获的外轮廓数据以及虚拟实时图像实时地参考静止参考系。
根据本发明的进一步有利的方案,能够布置在体内的至少一个检测设备是基于超声波的检测设备。基于超声波的检测设备特别适用于实时成像。
此外,基于超声波的检测设备允许通过软组织(如脂肪组织,肌肉组织和/或结缔组织)检测待操作对象的外轮廓。因此,它们特别适合于手术中未解剖的待操作对象的这样的子区域的图像捕获。此外,基于超声波的检测设备有时配置为实现在检测设备和所检测的对象之间的距离测量和方位测量,以及实现待操作对象的空间测量,使得所检测的子区域相对于检测设备的位置可以非常准确地被实时检测。基于超声波的检测设备还允许液体流动的多普勒超声测量。例如,重要的血管可以被识别为危险区或解剖标志。同样地,可以检测脑脊髓中的流体流动,尽管所述流体流动在大多情况下是极小的,但在手术中却是最重要的。
也能够考虑的是,所述至少一个可以布置在体内的检测设备是基于太赫兹辐射的检测设备。太赫兹光谱中的有机组织的大折射率允许非常高对比度的拍摄,并且可以补充常规拍摄技术。辐射是非电离的,并且可以安全地用于医疗和生物应用。根据材料/组织,太赫兹辐射在一些情况下还甚至能够提供关于待操作对象的内部结构的信息。例如,有关内部结构的信息可以帮助在健康细胞和肿瘤细胞之间进行区分。
特别地,根据本发明的进一步的方案,可以规定,能够布置在所述体内的所述至少一个检测设备,配置成通过预先形成的体腔引入所述体中,特别是通过鼻子、口腔、咽、食管、气管、胃肠道、膀胱或通过血管引入所述体中。对于这种应用,特别合适的是用于内窥镜超声检查内窥镜检测设备,例如胃肠内超声检查。最后提到的用于胃肠内超声检查的侦测器的定位/定向可以直接借助于内窥镜来实现,或者例如借助于朝向外部的电磁波(无线电)来实现。为了位置确定,能够尤其考虑方位传感器,该方位传感器有时能够测量在内窥镜处发生的加速度,以便从那里推断检测器件的方位和位置。
此外能够规定,能够布置在所述体内的所述至少一个检测设备被配置构造成,以手术方式插入组织中,例如脊椎旁肌肉组织或臀部肌肉的肌肉组织中,和/或插入脂肪组织中,例如硬膜外腔中。对于这样的应用,除了上述传统的内窥镜的超声波探头,特别合适的是所谓的超声微探头系统,超声微探头系统可以通过活检通道插入,并且具有比传统的超声内窥镜显著更薄的探子。
类似于可以布置在体内的至少一个检测设备,多个检测设备中的至少一个检测设备可以配置为布置在体外,朝向身体的外部,以便捕获图像数据,所述图像数据包括至少关于所述待操作对象的子区域的外轮廓的信息。
同样,还能够规定,所述至少一个能够布置在体外的检测设备是基于超声波的检测设备,或基于太赫兹辐射的检测设备。然而也能够考虑的是,所述至少一个能够布置在体外的检测设备被配置为光学轮廓扫描仪。
作为定位设备,考虑例如电磁定位设备,特别是光学定位设备,其中在每个检测设备处布置有被动位置标记或主动位置发送器,被动位置标记或主动位置发送器通过远程布置的位置标记识别装置或远程布置的接收器监视,所述位置标记识别装置或接收器接收位置发送器发射的信号。这样的定位设备原则上从现有技术中已知,例如用于脊柱外科手术的美敦力提供的以“StealthStation”品牌销售的定位设备。
如上所述,为了在术中向手术医生提供关于可能的操作工具的实时信息,以及提供操作工具相对于操作部位的位置和取向的实时信息,根据本发明的另一个方案可以规定,所述装置一方面包括至少一个操作工具;并且另一方面,定位设备还被配置成用于确定至少一个操作工具相对于静止参考系的位置,并且处理单元还被配置成将指示器叠加到表示至少一个操作工具及其相对于静止参考系的位置的虚拟实时图像中。
此外,在本发明的另一个有利的方案中可以规定,检测设备中的至少一个检测设备可以布置或分别布置在工作仪器处。为此,根据本发明的装置可以进一步包括工作仪器,所述工作仪器被设计为容纳至少一个检测设备或者布置在至少一个检测设备处。
为了保护装置的功能免受任何外部干扰,并且因此为手术医生保持恒定的安全感,根据本发明的另一个有利的方案可以规定,所述数据处理设备配置成在所述检测设备中的至少一个检测设备的所述图像数据、方位数据和/或位置数据确定临时失效时,基于在较早的时刻由所述检测设备在方位数据和位置数据确定起作用时所捕获的图像数据,在虚拟实时图像中生成待操作对象的由所述检测设备所捕获的区域,其中,将相应子区域的、在较早时刻所捕获的所述图像数据实时匹配到由其余的检测设备所捕获的子区域的当前位置。
如果仅检测设备中的一个或多个检测设备的方位数据确定和/或位置数据确定暂时失效,而不是所涉及的检测设备的图像捕获暂时失效,根据本发明的另一个方案可以规定,虽然仍基于所述当前所捕获的图像数据,在所述虚拟实时图像中生成所述待操作对象的由所述检测设备所捕获的子区域;然而将相应子区域的当前所捕获的图像数据,关于相对于静止参考系的位置而实时地适配到由其余检测设备检测到的子区域的当前位置。
此外能够规定,所述检测设备被配置成彼此通信,特别是交换关于所述检测设备的优选相对于静止参考系的相应的位置和/或方位的信息。另外能够规定,所述多个检测设备中的至少一个检测设备,尤其所述多个检测设备中的至少一个检测设备的至少一个检测器件配置成确定其它检测设备中的至少一个检测设备的位置和/或方位,定位设备或者分别确定至少一个其它检测设备的相应的检测器件相对所述至少一个检测期间的位置和/或方位,所述位置和/或方位为静止坐标系的位置和/或方位,定位设备所述确定位置和/或方位通过所述定位设备确定。
据此能够进一步改善导航精度。例如能够考虑的是,多个检测设备中的一个检测设备是超声波检测设备,所述超声波检测设备不仅设计用于获取关于待操作对象的至少一个子区域的图像数据和方位数据,而且也获取至少一个另外的检测设备相对所述超声波检测设备的方位数据和位置数据,优选的也是图像数据。
为了获得关于待操作对象的外轮廓并且尤其特别是内部结构的更多信息,根据本发明的另一个方案可以规定,所述装置还具有至少一个基于X射线的检测设备,所述检测设备被配置成术中实时捕获图像数据,所述图像数据包括关于所述待操作对象的至少一个子区域的外轮廓和内部结构的信息,其中,所述数据处理设备与基于X射线的所述检测设备有效连接,并且被配置成,使得基于X射线的检测设备的图像数据与非基于x射线的所述检测设备的图像数据叠加,以便基于彼此叠加的图像数据,且参考所述静止参考系来生成所述待操作对象的实时虚拟图像,所述虚拟实时图像包括关于所述待操作对象的所述外轮廓和内部结构的信息。也能够考虑的是,如上所述,附加地将在术前或在访问阶段期间所获取的图像数据与基于X射线的检测设备和基于非X射线的检测设备的上述术中数据叠加。
根据本发明的另一个方案也可以规定,所述装置还包括基于X射线的检测设备,所述检测设备被配置成术中实时捕获图像数据和方位数据,所述图像数据和方位数据包括关于待操作对象的至少一个子区域的外轮廓和内部结构的信息,以及包括关于所述子区域相对于基于X射线的所述检测设备的位置的信息,其中,所述定位设备还被配置成实时确定所述定位设备关于所述基于X射线设备的位置数据,所述位置数据为相对于所述静止参考系的位置数据;并且其中,所述数据处理设备与基于X射线的所述检测设备有效连接,并且被配置成,基于所述非基于X射线的所述检测设备的相应的所述图像数据和方位数据、基于所述基于X射线的检测设备的所述图像数据和方位数据,和基于各自所述定位设备的相应的所述位置数据,且参考所述静止参考系生成所述待操作对象的虚拟的,优选三维的实时图像,所述实时图像包括关于所述待操作对象的所述外轮廓和内部结构的信息。
优选地,基于X射线的检测设备尽可能低辐射或低剂量,以便把对患者和手术人员的辐射照射保持尽可能小。
根据本发明所设置的用于显示虚拟实时图像的图像显示设备可以例如具体为手术室中的固定监视器。然而也能够考虑的是,所述图像显示设备具体为便携式显示器,便携式显示器可以尤其布置在手术医生的手腕上,或在手术医生头部上的眼睛前面,或仪器/工具处。
附图说明
在下文借助附图解释本发明的进一步细节,以及特别是所提出的装置的示例性实施方式。
在附图中示出了:
图1示出根据本发明的装置的可能实施例的示意图;
图2示出根据图1的根据本发明的装置的细节视图;并且
图3示出根据本发明的装置的另一可能布置的示意图。
具体实施方式
图1和图2示出了根据本发明的装置的可能实施例,用于在脊柱3的区域中和/或在邻近胸腔、骨盆5或头部4的区域中的外科手术期间的术中图控导航。
装置1包括多个非基于X射线的检测设备11-17,所述检测设备分别布置在患者的脊柱3处,且分布在将待操作对象2周围。这些检测设备11-17中的每一个也配置成术中分别实时检测待操作对象2的至少一个子区域的外轮廓,以及检测所述子区域相对于相应的检测设备11-17的位置。
从图1和图2中可以看出,检测设备11和12或其所配属的检测器件11.1和12.1布置在体外,而检测设备13-17或其所配属的检测器件13.1-17.1布置在体内。在当前实施例中,检测设备13和14或其所配属的检测器件13.1和14.1被以手术的方式插入待操作的暴露的骨区域2周围的脊椎旁肌肉组织中。同样地,检测设备16的检测器件16.1以手术的形式经过腹腔引入到脊柱3的待操作骨区域2的前侧处。
相反,检测设备15的检测器件15.1具体为内窥镜,并且其通过口腔、咽腔和食管进入胃,以便在那里从胃或食管的方向捕获待操作的骨区域2的子区域的外轮廓。类似地,检测设备17的检测器件17.1具体为内窥镜,并且其经由直肠插入结肠内,以便在那里从体内捕获待操作骨区域2的另一子区域的外轮廓。
优选地,在本实施例中,所有在体内引入的检测设备13至17或其所配属的检测器件13.1-17.1具体为基于超声波的检测设备或检测器件。在本是实施例中,两个检测器件13.1和14.1在本实施例中具体为所谓的微型探子系统,所述微型探子系统可以通过相应的活检通道插入到脊椎旁肌肉组织中。相反,检测器件15.1和17.1具体为内窥镜超声波探头。
布置在体外的两个检测设备11和12或其所配属的检测器件11.1和12.1在本实施例中具体为光学轮廓扫描仪,光学轮廓扫描仪借助于扫描激光光学地扫描待操作骨区域2的外轮廓的各个子区域。
图1和2中的各条从检测设备11.1-17.1开始所绘制的虚线,分别代表相应检测设备11-17的相应检测区。可以看出,不同检测设备11-17的检测区可重叠。在本实施例中,检测区尤其重叠,使得能实现待操作骨区域2的几乎完整的全景表示。
所有检测设备11-17还被配置成自身采集其各自捕捉的子区域的位置。特别地,基于超声波的检测设备和光学轮廓扫描仪合适这种情况。这是将所检测的外轮廓数据联系至静止参考系先决条件。
为了确定各检测设备11-17相对于静止参考系30(例如相对于手术室静止的参考系30)的相应方位/位置,根据本发明的装置1还包括定位设备20。检测设备11-17的方位/位置指代每个检测器件11.1-17.1关于静止参考系30的方位/位置。
在当前实施例中,定位设备20具体为电磁位置识别系统。所述系统包括在每个检测设备处被动的位置标记11.2、12.2或位置发送器13.2-17.2,所述系统借助位于远处的组合式位置标记识别装置和位置发送器-接收器装置21被监视。所述组合装置配置为一方面用于实时检测和跟踪位置标记11.2和12.2的三维空间位置,并且从而实时检测和跟踪检测设备11和12的三维空间位置,并且另一方面用于接收由位置发送器13.2-17.2发出的位置信号,并且从中确定所配属的检测设备13-17的三维空间位置。
为了识别,位置标记11.2和12.2通常必须布置在体外。
相反,位置传感器13.2-17.2可以布置在体内和体外。在本实施例中,特别地,位置发送器16.2被配置成布置在体内,并且从那里向外部发送关于检测器件16.1的位置的信息的位置信号,从而位置信号能够在那里被位置发送器-接收器装置21接收。在当前实施例中,所有位置发送器13.2-17.2被设计为将相应的位置信号无线发送到位置发送器-接收器装置21。然而也能够考虑的是,在一个或多个位置传送器中的位置信号的传送是有线进行的。
由定位设备20确定的、检测设备13-17或各自的检测器件13.1-17.1相对于静止参考系30的方位数据,以及由检测器件13.1-17.1或由各检测设备13-17所捕获的待操作骨区域2的外轮廓处所检测的子区域的方位数据,都能提供给数据处理设备40。
此外,检测设备13-17向数据处理设备40分别发送图像数据,图像数据代表由其实时所捕获的待操作骨区域2的相应子区域的外轮廓或相应的外轮廓数据。为了所述数据传输的目的,检测设备13-17以及定位设备20与处理设备40有效连接。这种数据传输可以通过例如有线数据连接或通过无线数据连接进行。
数据处理设备40另外被配置成基于所传输的图像数据和方位数据,产生所述待操作骨区域的、参考所述静止参考系30的虚拟的优选三维的实时图像41,所述图像由相应的子区域的单个图像数据集组成。在本发明中,所述虚拟实时图像完全基于实际的实时图像数据,实时图像数据不仅允许跟踪操作区域相对于静止参考系30的实时位置,而且也准原位地在图像上实时至少重现待操作骨区域2的实际外轮廓。由于多个检测设备13-17布置在体内,以根据本发明的方式,可以生成待操作骨区域的相比于现有技术显著更全面的图像。由于检测设备15-17向着背侧方向进行检测,例如尤其能够获得关于待操作骨区域的至少一个朝向体内的子区域的外轮廓的信息。理想地,甚至可以生成待操作骨区域的外轮廓的虚拟实时全景图像。从而显著改善了导航准确度和手术医生的安全感。
由处理设备40产生的虚拟实时图像41可以显示在与此有效连接的图像显示设备50上。有利地,所述图像显示设备50在本实施例中被具体为便携式监视器或便携式显示器,该便携式监视器或便携式显示器可以尤其固定在手术医生的手腕处或以监视器眼镜的形式固定在手术医生的眼睛前面,或者固定在操作工具/器械处。
在当前实施例中,根据本发明的装置1还包括至少一个操作工具60,所述至少一个操作工具与检测设备13-17类似地配备有位置发送器或位置标记,通过位置发送器或位置标记可以确定操作工具60相对于静止参考系30的空间位置,并且因此可以确定待操作骨区域2的三维空间位置。为此,定位设备20还被设计成确定至少一个操作工具相对于静止参考系30的位置。此外,信号处理单元40还被配置成将指示符插入到虚拟实时图像41中,所述指示符表示至少一个操作工具60以及其相对于静止参考系30的位置。由此额外提高了手术医生的导航精度和安全感。
如尤其在图2中所示,可以规定,检测设备中的至少一个检测设备,在当前实施例中是检测设备12,布置在操作工具60上。为此,操作工具60特别设计有支架,以将检测设备12紧固在所述支架上。
为了保护装置的功能免受任何外部干扰,并且因此为手术医生保持恒定的安全感,所述数据处理设备40还配置成在检测设备11-17的所述图像捕获和/或方位确定/位置确定临时失效时,基于在较早的时刻由所述检测设备11-17在位置确定起作用时所捕获的图像数据,在虚拟实时图像41中的生成待操作骨区域2的、由所述检测设备11-17所捕获的子区域。对此,可以特别规定,将相应子区域的在较早时刻所捕获的所述图像数据实时匹配到由其余的检测设备11-17所捕获的子区域的当前位置。
如果只是检测设备11-17中的一个或多个检测设备的方位/位置确定暂时失效,而不是所涉及的检测设备11-17的图像捕获本身暂时失效,能够进一步规定,基于所述当前所捕获的图像数据,在所述虚拟实时图像41中生成所述待操作骨区域2的由相应所涉及的检测设备11-17所捕获的子区域。对此,将相应子区域的当前所捕获的图像数据,关于其相对于静止参考系41的位置而实时地适配到由其余检测设备检测到的子区域的当前位置。
根据本发明在体内的装置,图3示出了检测设备15-17或所配属的检测器件15.1-17.1的另外的可能的布置。根据本示例性方案,例如至少三个检测设备15-17的检测器件15.1-17.1分别侧向地布置在脊柱3左侧或右侧,并且被定向成使得它们捕获待操作骨区域2的以下区域的外轮廓,所述区域在远侧方向上朝向体部的左侧和右侧。当然,根据图3的检测设备15-17的布置可以被补充另外的检测设备,所述检测设备可以布置在体内或体外。特别地,根据图3的检测设备的特定布置也可以与根据图1和2的检测设备的布置组合。理想情况下,通过在体内和体外的相应“全方位”地布置检测设备,甚至可以产生待操作骨区域的外轮廓的虚拟实时全景图像,从而显著改善导航准确度和手术医生的安全感。

Claims (20)

1.一种用于手术期间的术中图控导航的装置,该手术应用在脊柱区域(3)和/或邻近胸廓、骨盆(5)或头部(4)的区域,所述装置包括:
不基于X射线的多个检测设备(11-17),所述多个检测设备分别被配置成围绕至少一个待操作对象(2)布置,所述待操作对象(2)位于脊柱的区域(3)中和/或在胸部、骨盆或头部的邻近区域中,并且所述多个检测设备被配置成在术中实时捕获图像数据和方位数据,所述图像数据和方位数据分别包括关于待操作对象(2)的至少一个子区域的至少外轮廓的信息,以及关于所述子区域相对于相应检测设备(11-17)的位置的信息;
定位设备(20),所述定位设备配置成实时确定所述检测设备(11-17)相对于静止参考系(30)的相应的位置数据;
与所述检测设备(11-17)和所述定位设备(20)有效连接的数据处理设备(40),所述数据处理设备配置为基于所述检测设备(11-17)的相应的图像数据和方位数据,以及基于所述定位设备(20)的相应的位置数据,相对所述静止参考系(30)生成所述待操作对象(2)的虚拟的优选三维的实时图像(41);
与所述数据处理设备(40)有效连接的,用于显示虚拟实时图像(41)的图像显示设备(50);
其特征在于,所述多个检测设备(13-17)中的至少一个检测设备包括至少一个检测器件(13.1-17.1),所述至少一个检测器件被设置成朝向体内地布置在体内,以便捕获图像数据,所述图像数据包括关于所述待操作对象(2)的至少一个子区域的至少外轮廓信息。
2.根据权利要求1所述的装置(1),其特征在于,
所述数据处理设备(40)配置成将待操作对象的术前获取的图像数据与所述检测设备(13-17)的图像数据叠加,以便基于与所述检测设备(13-17)的图像数据叠加的术前获取的图像数据,来生成所述待操作对象的参考所述静止参考系的虚拟实时图像。
3.根据权利要求1或2所述的装置(1),其特征在于,具有能够布置在体内的所述至少一个检测器件(13.1-17.1)的所述至少一个检测设备(13-17)是基于超声波的检测设备或基于太赫兹辐射的检测设备。
4.根据前述权利要求中任一项所述的装置(1),其特征在于,所述至少一个检测设备(13-17)的所述至少一个检测器件(13.1-17.1)能够布置在体内;所述至少一个检测器件被配置成通过预先形成的体腔引入身体中,特别是通过鼻子、口腔、咽、食管、气管、胃肠道、膀胱或血管引入身体中。
5.根据前述权利要求中任一项所述的装置(1),其特征在于,所述至少一个检测设备(13-17)的所述至少一个检测器件(13.1-17.1)能够布置在体内;所述至少一个检测器件(13.1-17.1)被配置成:以手术方式插入组织中,例如插入脊椎旁肌肉组织或臀部肌肉的肌肉组织中,和/或插入脂肪组织中,例如硬膜外腔中。
6.根据前述权利要求中任一项所述的装置(1),其特征在于,所述多个检测设备(11、12)中的至少一个检测设备和/或所述多个检测设备(11、12)中的至少一个检测设备的至少一个检测器件(11.1、12.1)被配置成朝向体外地布置在体外,以便捕获图像数据,所述图像数据包括关于待操作对象(2)的子区域的至少外轮廓信息。
7.根据权利要求6所述的装置(1),其特征在于,能够布置在体外的所述至少一个检测设备(11、12)和/或能够布置在体外的所述至少一个检测器件(11.1、12.1)是基于超声波的检测设备或光学轮廓扫描仪,或基于太赫兹辐射的检测设备。
8.根据前述权利要求中任一项所述的装置(1),其特征在于,所述装置(1)包括至少一个操作工具(60),其中,所述定位设备(20)还被配置成实时确定所述至少一个操作工具(60)相对于所述静止参考系(30)的位置数据,并且其中,所述数据处理单元(40)还配置成把表示所述操作工具(60)及所述操作工具的位置的指示符插入到所述虚拟实时图像(41)中。
9.根据前述权利要求8所述的装置,特别是根据权利要求8所述的装置,其特征在于,所述多个检测设备(11-17)中的至少一个检测设备和/或所述多个检测设备(11-17)中的至少一个检测设备的至少一个检测器件(11.1-17.1)被配置成布置在操作工具(60)上,尤其所述多个检测设备(11-17)中的至少一个检测设备和/或所述多个检测设备(11-17)中的至少一个检测设备的至少一个检测器件(11.1-17.1)布置在所述操作工具(60)上。
10.根据权利要求1至9中任一项所述的装置(1),其特征在于,所述数据处理设备(40)被配置成在所述检测设备(11-17)中的至少一个检测设备的图像数据确定、方位数据确定和/或位置数据确定临时失效时,基于在较早的时刻由所述检测设备(11-17)在方位数据确定和位置数据确定起作用时所捕获的图像数据,在虚拟实时图像(41)中生成待操作对象(2)的由所述检测设备(11-17)所捕获的子区域,其中,将相应子区域的在较早时刻所捕获的图像数据实时匹配到由其余的检测设备(11-17)所捕获的子区域的当前位置。
11.根据权利要求1至9中任一项所述的装置(1),其特征在于,所述数据处理设备(40)配置成在检测设备(11-17)的方位数据确定和/或位置数据确定临时失效时,基于当前所捕获的图像数据,在虚拟实时图像(41)中生成待操作对象(2)的由所述检测设备(11-17)所捕获的子区域,其中,将相应子区域的当前所捕获的图像数据实时匹配到由其余的检测设备(11-17)所捕获的子区域的当前位置。
12.根据权利要求1至11中任一项所述的装置(1),其特征在于,所述装置(1)还包括至少一个基于X射线的检测设备,所述检测设备被配置成术中实时捕获图像数据,所述图像数据包括关于待操作对象(2)的至少一个子区域的外轮廓和内部结构的信息,其中,所述数据处理设备(40)与基于X射线的检测设备有效连接,并且配置成,使得基于X射线的检测设备的图像数据与非基于x射线的检测设备(13-17)的图像数据叠加,以便基于彼此叠加的图像数据且参考所述静止参考系来生成待操作对象虚拟实时图像,所述虚拟实时图像包括关于待操作对象的外轮廓和内部结构的信息。
13.根据权利要求1至11中任一项所述的装置(1),其特征在于,所述装置(1)还包括至少一个基于X射线的检测设备,所述检测设备被配置成术中实时捕获图像数据和方位数据,所述图像数据和方位数据包括关于所述待操作对象(2)的至少一个子区域的外轮廓和内部结构的信息,以及关于所述子区域相对于基于X射线的所述检测设备的位置的信息,其中,所述定位设备(20)还配置成实时确定所述基于X射线的检测设备相对于所述静止参考系(30)的位置的数据,并且其中,所述数据处理设备(40)还与基于X射线的所述检测设备有效连接,并且被配置成,基于所述非基于X射线的所述检测设备(11-17)的相应的图像数据和方位数据、基于X射线的检测设备的图像数据和方位数据和所述定位设备(20)的相应的位置数据,且参考所述静止参考系(30)来生成待操作对象(2)的虚拟的,优选三维的实时图像(41),所述实时图像包括关于待操作对象的外轮廓和内部结构的信息。
14.根据前述权利要求中任一项所述的装置,其特征在于,所述检测设备(13-17)被配置成彼此通信,特别是交换关于所述检测设备的,优选相对于静止参考系(30)的各自的位置和/或方位的信息。
15.根据前述权利要求中任一项所述的装置,其特征在于,所述多个检测设备(13-17)中的至少一个检测设备,尤其所述多个检测设备(13-17)中的至少一个检测设备的至少一个检测器件(13.1-17.1)被配置成确定其它检测设备(13-17)中的至少一个检测设备相对的位置和/或方位,定位设备或者确定其它检测设备(13-17)中的至少一个检测设备的相应的检测器件(13.1-17.1)相对于所述装置的彼此相对的位置和/或方位,并且优选由此也通过所述位置相对于确定设备(20)确定相对于所述静止参考系(30)的位置和/或方位。
16.一种用于手术期间的术中图控导航的装置,该手术应用在脊柱区域和/或邻近胸廓、骨盆或头部的区域,所述装置包括:
至少一个检测设备,所述检测设备被配置成术中实时捕获图像数据和方位数据,所述图像数据和方位数据包括关于待操作对象的至少一个子区域的至少外轮廓信息以及关于所述子区域相对于基于X射线的所述检测设备的位置信息;
定位设备,所述定位设备配置成实时确定所述至少一个检测设备相对于静止参考系的位置的数据;
与所述至少一个检测设备和所述定位设备有效连接的数据处理设备,所述数据处理设备配置成将待操作对象的术前获取的图像数据与所述至少一个检测设备的图像数据叠加,以便基于与所述检测设备的图像数据叠加的术前获取的图像数据,参考所述静止参考系来生成待操作对象的虚拟实时图像;以及
与所述数据处理设备有效连接的,用于显示所述虚拟实时图像的图像显示设备;
其特征在于,所述至少一个检测设备包括至少一个检测器件,所述至少一个检测器件设计朝向体内成布置在体内,以便捕获图像数据,所述图像数据包括至少关于待操作对象的至少一个部分区域的外轮廓的信息。
17.根据权利要求16所述的装置,其特征在于,具有能够布置在体内的所述至少一个检测器件的所述至少一个检测设备是基于超声波的检测设备或基于太赫兹辐射的检测设备。
18.根据权利要求16或17所述的装置,其特征在于,所述至少一个检测设备的所述至少一个检测器件能够布置在体内;所述至少一个检测器件被配置成,通过预先形成的体腔引入身体中,特别是通过鼻子、口腔、咽、食管、气管、胃肠道、膀胱,或通过血管引入身体中。
19.根据权利要求16-18中任一项所述的装置,其特征在于,所述至少一个检测设备的所述至少一个检测器件能够布置在体内;所述至少一个检测器件,以手术方式插入组织中,例如插入脊椎旁肌肉组织或臀部肌肉的肌肉组织中,和/或插入脂肪组织中,例如硬膜外腔中。
20.根据权利要求16-19中任一项所述的装置,其特征在于,所述装置包括至少一个操作工具,其中,所述定位设备还被配置成实时确定所述至少一个操作工具相对于所述静止参考系的位置数据,并且其中,所述数据处理单元还被配置成把表示所述操作工具及所述操作工具的位置的指示符插入到所述虚拟实时图像中。
CN201680081174.2A 2015-12-22 2016-12-15 在脊柱区域和邻近胸廓、骨盆或头部的区域的外科手术期间的术中图控导航装置 Active CN108601630B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15405076.9A EP3184071A1 (de) 2015-12-22 2015-12-22 Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich
EP15405076.9 2015-12-22
PCT/CH2016/000155 WO2017106980A1 (de) 2015-12-22 2016-12-15 Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich

Publications (2)

Publication Number Publication Date
CN108601630A true CN108601630A (zh) 2018-09-28
CN108601630B CN108601630B (zh) 2022-06-14

Family

ID=55129498

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680081174.2A Active CN108601630B (zh) 2015-12-22 2016-12-15 在脊柱区域和邻近胸廓、骨盆或头部的区域的外科手术期间的术中图控导航装置

Country Status (6)

Country Link
US (1) US11426241B2 (zh)
EP (2) EP3184071A1 (zh)
JP (1) JP6700401B2 (zh)
CN (1) CN108601630B (zh)
ES (1) ES2937169T3 (zh)
WO (1) WO2017106980A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110060771A (zh) * 2019-04-16 2019-07-26 江苏信美医学工程科技有限公司 一种基于原位投影技术的远程手术导航方法和装置
CN110731817A (zh) * 2019-10-11 2020-01-31 浙江大学 一种基于光学扫描自动化轮廓分割匹配的无辐射经皮脊柱定位方法
CN111415404A (zh) * 2020-03-16 2020-07-14 广州柏视医疗科技有限公司 术中预设区域的定位方法、装置、存储介质及电子设备
CN111772584A (zh) * 2020-07-08 2020-10-16 莆田学院附属医院(莆田市第二医院) 一种智能脊柱数字化手术装置
CN111870268A (zh) * 2020-07-30 2020-11-03 上海联影医疗科技有限公司 一种限束装置的目标位置信息的确定方法和系统
CN114041826A (zh) * 2021-11-11 2022-02-15 苏州国科昂卓医疗科技有限公司 椎骨钉道血管成像方法、系统及椎骨钉道创建引导装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10695099B2 (en) 2015-02-13 2020-06-30 Nuvasive, Inc. Systems and methods for planning, performing, and assessing spinal correction during surgery
US11141221B2 (en) * 2015-11-19 2021-10-12 Eos Imaging Method of preoperative planning to correct spine misalignment of a patient
JP2019514450A (ja) 2016-03-02 2019-06-06 ニューヴェイジヴ,インコーポレイテッド 脊椎矯正外科計画のためのシステムおよび方法
US20220008141A1 (en) * 2016-10-04 2022-01-13 Petal Surgical, Inc. Enhanced reality medical guidance systems and methods of use
CN107595387B (zh) * 2017-07-28 2020-08-07 浙江大学 一种基于超声拓片技术的脊椎图像生成系统以及脊柱手术导航定位系统
US11127212B1 (en) * 2017-08-24 2021-09-21 Sean Asher Wilens Method of projecting virtual reality imagery for augmenting real world objects and surfaces
JP2021019967A (ja) * 2019-07-30 2021-02-18 春仁 上園 拡張現実情報表示方法、手術支援装置、及びプログラム
CN113052838B (zh) * 2021-04-26 2023-06-06 拉扎斯网络科技(上海)有限公司 置物检测方法、装置以及智能柜
US20230110791A1 (en) * 2021-09-29 2023-04-13 Cilag Gmbh International Instrument Control Imaging Systems for Visualization of Upcoming Surgical Procedure Steps
US20230289976A1 (en) * 2022-03-09 2023-09-14 Claire SooHoo Multi-component system for computerized x-ray vision to track motion during surgery

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010035871A1 (en) * 2000-03-30 2001-11-01 Johannes Bieger System and method for generating an image
US20090318756A1 (en) * 2008-06-23 2009-12-24 Southwest Research Institute System And Method For Overlaying Ultrasound Imagery On A Laparoscopic Camera Display
CN101862220A (zh) * 2009-04-15 2010-10-20 中国医学科学院北京协和医院 基于结构光图像的椎弓根内固定导航手术系统和方法
CN102036606A (zh) * 2008-04-18 2011-04-27 麦德托尼克公司 测绘结构的方法和装置
WO2013001031A2 (de) * 2011-06-28 2013-01-03 Scopis Gmbh Verfahren und vorrichtung zum darstellen eines objektes
CN202859314U (zh) * 2012-10-30 2013-04-10 华南理工大学 一种基于超声波的实时无线手术导航装置
CN103118601A (zh) * 2010-09-30 2013-05-22 皇家飞利浦电子股份有限公司 利用可跟踪的成像设备和成像工具进行分叉的检测
CN103237518A (zh) * 2010-10-28 2013-08-07 菲亚戈股份有限公司 在医学中用于光学仪器的导航附加部和方法
WO2014135592A1 (en) * 2013-03-05 2014-09-12 Ezono Ag System for image guided procedure
WO2015075720A1 (en) * 2013-11-21 2015-05-28 Elbit Systems Ltd. A medical optical tracking system

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5224376A (en) * 1989-12-08 1993-07-06 Digital Instruments, Inc. Atomic force microscope
JP3492697B2 (ja) 1994-10-07 2004-02-03 セントルイス ユニバーシティー 基準および局所化フレームを備える外科用案内装置
US5910827A (en) * 1997-02-26 1999-06-08 Kwan; Katherine W. Video signal decoding arrangement and method for improved error concealment
JP4472085B2 (ja) 2000-01-26 2010-06-02 オリンパス株式会社 手術用ナビゲーションシステム
DE10015815A1 (de) * 2000-03-30 2001-10-11 Siemens Ag System und Verfahren zur Erzeugung eines Bilddatensatzes
JP2003334163A (ja) * 2002-03-14 2003-11-25 Olympus Optical Co Ltd 内視鏡画像処理装置
US7835778B2 (en) * 2003-10-16 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for surgical navigation of a multiple piece construct for implantation
JP4152402B2 (ja) * 2005-06-29 2008-09-17 株式会社日立メディコ 手術支援装置
US8379734B2 (en) * 2007-03-23 2013-02-19 Qualcomm Incorporated Methods of performing error concealment for digital video
JP5307357B2 (ja) * 2007-05-17 2013-10-02 オリンパスメディカルシステムズ株式会社 超音波診断装置
US20110184684A1 (en) * 2009-07-21 2011-07-28 Eigen, Inc. 3-d self-correcting freehand ultrasound tracking system
ITTV20100133A1 (it) * 2010-10-08 2012-04-09 Teleios Srl Apparato e metodo per effettuare la mappatura di uno spazio tridimensionale in applicazioni medicali a scopo interventistico o diagnostico
CN103764061B (zh) * 2011-06-27 2017-03-08 内布拉斯加大学评议会 工具承载的追踪系统和计算机辅助外科方法
IN2014CN02547A (zh) * 2011-10-18 2015-07-31 Koninkl Philips Nv
JP2013202313A (ja) * 2012-03-29 2013-10-07 Panasonic Corp 手術支援装置および手術支援プログラム
US9509886B2 (en) * 2013-04-29 2016-11-29 Disney Enterprises, Inc. Flicker removal for high speed video
WO2015191871A1 (en) * 2014-06-11 2015-12-17 The Johns Hopkins University Synthetic aperture ultrasound system

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010035871A1 (en) * 2000-03-30 2001-11-01 Johannes Bieger System and method for generating an image
CN102036606A (zh) * 2008-04-18 2011-04-27 麦德托尼克公司 测绘结构的方法和装置
US20090318756A1 (en) * 2008-06-23 2009-12-24 Southwest Research Institute System And Method For Overlaying Ultrasound Imagery On A Laparoscopic Camera Display
CN101862220A (zh) * 2009-04-15 2010-10-20 中国医学科学院北京协和医院 基于结构光图像的椎弓根内固定导航手术系统和方法
CN103118601A (zh) * 2010-09-30 2013-05-22 皇家飞利浦电子股份有限公司 利用可跟踪的成像设备和成像工具进行分叉的检测
CN103237518A (zh) * 2010-10-28 2013-08-07 菲亚戈股份有限公司 在医学中用于光学仪器的导航附加部和方法
WO2013001031A2 (de) * 2011-06-28 2013-01-03 Scopis Gmbh Verfahren und vorrichtung zum darstellen eines objektes
CN202859314U (zh) * 2012-10-30 2013-04-10 华南理工大学 一种基于超声波的实时无线手术导航装置
WO2014135592A1 (en) * 2013-03-05 2014-09-12 Ezono Ag System for image guided procedure
CN105025787A (zh) * 2013-03-05 2015-11-04 伊卓诺股份有限公司 用于图像引导过程的系统
WO2015075720A1 (en) * 2013-11-21 2015-05-28 Elbit Systems Ltd. A medical optical tracking system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110060771A (zh) * 2019-04-16 2019-07-26 江苏信美医学工程科技有限公司 一种基于原位投影技术的远程手术导航方法和装置
CN110731817A (zh) * 2019-10-11 2020-01-31 浙江大学 一种基于光学扫描自动化轮廓分割匹配的无辐射经皮脊柱定位方法
CN110731817B (zh) * 2019-10-11 2021-04-13 浙江大学 一种基于光学扫描自动化轮廓分割匹配的无辐射经皮脊柱定位方法
CN111415404A (zh) * 2020-03-16 2020-07-14 广州柏视医疗科技有限公司 术中预设区域的定位方法、装置、存储介质及电子设备
CN111415404B (zh) * 2020-03-16 2021-06-29 广州柏视医疗科技有限公司 术中预设区域的定位方法、装置、存储介质及电子设备
CN111772584A (zh) * 2020-07-08 2020-10-16 莆田学院附属医院(莆田市第二医院) 一种智能脊柱数字化手术装置
CN111772584B (zh) * 2020-07-08 2022-08-09 莆田学院附属医院(莆田市第二医院) 一种智能脊柱数字化手术装置
CN111870268A (zh) * 2020-07-30 2020-11-03 上海联影医疗科技有限公司 一种限束装置的目标位置信息的确定方法和系统
CN114041826A (zh) * 2021-11-11 2022-02-15 苏州国科昂卓医疗科技有限公司 椎骨钉道血管成像方法、系统及椎骨钉道创建引导装置
CN114041826B (zh) * 2021-11-11 2024-01-30 苏州国科昂卓医疗科技有限公司 椎骨钉道血管成像方法、系统及椎骨钉道创建引导装置

Also Published As

Publication number Publication date
EP3393391A1 (de) 2018-10-31
JP2019502460A (ja) 2019-01-31
US11426241B2 (en) 2022-08-30
US20180368921A1 (en) 2018-12-27
JP6700401B2 (ja) 2020-05-27
EP3184071A1 (de) 2017-06-28
CN108601630B (zh) 2022-06-14
WO2017106980A1 (de) 2017-06-29
EP3393391B1 (de) 2022-11-02
ES2937169T3 (es) 2023-03-24

Similar Documents

Publication Publication Date Title
CN108601630A (zh) 在脊柱区域和邻近胸廓、骨盆或头部的区域的外科手术期间的术中图控导航装置
JP7116865B2 (ja) 測定システム
CN103997982B (zh) 将手术器械相对患者身体进行定位的机器人辅助装置
JP6040151B2 (ja) 3d患者画像からアクセス領域を決定する方法
US8320992B2 (en) Method and system for superimposing three dimensional medical information on a three dimensional image
JP5121401B2 (ja) 埋植物距離測定のシステム
KR101572487B1 (ko) 환자와 3차원 의료영상의 비침습 정합 시스템 및 방법
JP5328137B2 (ja) 用具又は埋植物の表現を表示するユーザ・インタフェイス・システム
EP1913893B1 (en) Apparatus for virtual endoscopy
US20110105895A1 (en) Guided surgery
US20080154120A1 (en) Systems and methods for intraoperative measurements on navigated placements of implants
US20230130653A1 (en) Apparatus and method for positioning a patient's body and tracking the patient's position during surgery
EP3788981B1 (en) Systems for providing surgical guidance
US20240245486A1 (en) Augmented Reality Surgical Assistance System
CN118369732A (zh) 解剖扫描、瞄准和可视化

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant