Nothing Special   »   [go: up one dir, main page]

JP2002510230A - 立体的画像ナビゲーション方法及び装置 - Google Patents

立体的画像ナビゲーション方法及び装置

Info

Publication number
JP2002510230A
JP2002510230A JP50581699A JP50581699A JP2002510230A JP 2002510230 A JP2002510230 A JP 2002510230A JP 50581699 A JP50581699 A JP 50581699A JP 50581699 A JP50581699 A JP 50581699A JP 2002510230 A JP2002510230 A JP 2002510230A
Authority
JP
Japan
Prior art keywords
image
data
virtual image
displaying
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP50581699A
Other languages
English (en)
Inventor
シャヒディ、ラミン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leland Stanford Junior University
Original Assignee
Leland Stanford Junior University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leland Stanford Junior University filed Critical Leland Stanford Junior University
Publication of JP2002510230A publication Critical patent/JP2002510230A/ja
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

(57)【要約】 記憶装置(202)を有し、外科用器具又は指針(109)、位置追跡システム(105、110、111)、及び表示装置(102)に接続された外科用ナビゲーションシステム。指針(109)の位置及び方向は、実時間で追跡され、コンピュータ(101)へ送られる。コンピュータの記憶装置(202)では、MRI、CT、その他の患者の立体スキャンからのデータがロードされ、このデータは、指針(109)の視点からの患者の人体組織構造の3次元的透視画像を実時間で動的に表示するために使用される。

Description

【発明の詳細な説明】 立体的画像ナビゲーション方法及び装置 技術分野 本発明は、ナビゲーション(navigation)を目的として3次元対象物の画像を 生成するための方法及び装置に関し、特に、内科及び外科用に上記画像を生成す るための方法及び装置に関する。 背景技術 内科及び外科分野では、人体組織の各部分の精密な画像化が益々重要な技術と なっている。侵入式の外科的処置による患者の外傷を小さくするために、小さい 切開部を通じて最小の侵入で体内に外科的処置を施すための技術が開発されてき た。このような処置では、外科医により、直接に見ることができなかったり、見 ずらい人体組織の部分に手術を施す必要がある。さらに、体内の幾つかの部分は 、非常に複雑な構造や非常に小さい構造を含んでおり、より繊細な処置を外科医 が施せるように、このような構造の可視性を高くする必要が ある。また、このような処置の計画を立てるとき、最適な外科手術的な軌道(ト ラジェクトリー(trajectory))を決定するために、体内のこのような構造の位 置及び方向を評価する必要がある。 近年、内部の人体組織構造の画像を得ることのできる新しい医療技術が開発さ れた。この技術は、伝統的なX線法と比較して大きな利点を有する。比較的新し い技術には、ミクロインパルス・レーダー(Microimpulse Radar)(MIR)、コ ンピュータ・トモグラフィー(CT)、磁気共鳴画像化(Magnetic Resonance Ima ging)(MRI)、ポジション・エミッション・トモグラフィー(Position Emissi on Tomography)(PET)、超音波(Ultrasound)(US)スキャン、及び様々なそ の他の技術がある。これらの方法は、それぞれ、他の技術と比較して、利点と欠 点を有する。例えば、MRI技術は、3次元画像を生成するのに有用であるが、特 定タイプの組織に実用できるだけであり、一方、CTスキャンは、他の人体組織構 造の画像を生成するのに有用である。対照的に、USスキャンは、比較的速く処置 を行えるが、その精度と信号対雑音(SN)比に限定される。 画像化の問題は、特に、患者の頭蓋骨の内側に繊細な外科 的処置を施すような神経外科分野において深刻である。上記技術は、頭蓋骨内の 構造の画像から様々な人体組織の特徴を精度良く突き止める外科医の能力を向上 させた。しかし、これは、2次元画像で外科医が見ているものを手術台上の実際 には3次元の患者と合致させる必要があることから、手術室のセッチング(sett ing)の際の助けとなるだけであった。神経外科医は、依然、神経外科医の人体 解剖学の知識の範囲に頼らざるおえない。 何年も前に、この問題に取り組んだ定位的(ステレオタクチック(stereotact ic))技術が開発された。この定位的脳外科診療では、診療用画像に用いる基準 点を与える基準フレームが患者の頭部に取り付けられる。このデバイスは、外科 用器具を、目標とする脳内腫瘍へと所望の軌道に沿わせて切り開くためのガイド をさらに含む。このように、従前の神経外科技術では、外科医は、さながら、濃 霧の中に、浅瀬、珊瑚礁、岩礁、氷山、等のような幾多の障害物を有する海原で 船を航海させる船長のようなものである。たとえ、船長がこれら障害物の非常に 良い地図を有していたとしても、船の正確な位置を地図上で追跡し続けなければ ならない、という不変的な問題がある。これと同様に、脳内構造を示す精密な画 像 スキャンを有する神経外科医は、依然、目標の位置へと不都合なくナビゲーショ ンを行うために、実際の外科手術的な軌道の位置決めを正確にできなければなら ない。手術室のセッチングの際に、外科医によって施される他の処置が神経に影 響を与えずに、この相互的な関係が行われることがさらに必要である。 このナビゲーションの問題は、米国特許第5383454号(Bucholz)(1 995年1月24日発行)で取り組まれている。この特許には、頭部画像上に頭 部内の外科用プローブの位置を指示するためのシステムが開示される。このシス テムは、定位的フレームを使用して、基準点を与え、これら基準点に関するプロ ーブの先端の位置を計測するための手段を与える。この情報は、コンピュータ手 段によって画像に変換される。 米国特許第5230623号(Guthrie)(1993年7月27日発行)には 、手術中の指針の位置を検出し、これをコンピュータ上に読み出し、グラフィッ ク表示装置に接続させることが開示される。この指針は、外科医が指針を手放さ ずにコンピュータの制御を行えるように“3次元マウス”としても使用できる。 米国特許第5617857号(Chaderら)(1997年4月8日発行)には、 位置検出システムの手段により医用器具の位置を相互作用的に追跡するための画 像化システム及び方法が記載されている。指針は、小形発光ダイオード(LED) を含んでおり、放射線センサの固定アレイが設けられ、これにより、LEDの放射 するパルスが検出され、この情報を使用して、指針の位置が動的に探知される。 参考文献として、米国特許第5622170号(Schulz)(1997年4月22 日発行)も挙げられる。これには、同様のシステムが、プローブで探られる対象 物(例えば、脳)の模型画像に関する侵入式外科用プローブの指針を表示するた めのコンピュータ表示装置に接続されることが開示される。 米国特許第5531227号(Schneider)(1996年7月2日発行)は、 脳をわたるナビゲーションを行えるように外科用プローブの表示を実時間で与え ることが望ましい、という多数の他の参考文献にみられる問題を明示的に取り扱 っている。この特許には、動的に実時間で外科医の視線に沿った画像を与えるた めのシステムが開示される。このシステムでは、表示される画像は、3次元デー タを再構成したものから再度薄切りしたスライス画像(ユーザーの特定する視線 に 沿った様々な位置でこの視線に直交する断面又は薄片)である。よって、視線の 視点が常に対象物の外側からのものであるが、仮想画像を定義するために使用さ れる断面は外科医により選定される対象物を通じる様々な薄片(又はスライス) を構成し得る。これら画像は、外科医の頭部に取り付けたビデオカメラのような 視線に沿って向けられる画像記録デバイスにより得られる実際の画像上に重ね合 わされ、合成画像が表示され得る。 上記システムは、様々な方法でナビゲーション問題に取り組もうとするもので あり、これらは仝て、手術室での処置中に外科医による抜粋的な映像化の特定レ ベルを要する共通の欠点を有する。外科医が目標とする腫瘍又は組織障害に向け て脳を通じて処置を行うとき、外科手術的な軌道の周囲の全ての構造について全 て知ることが望まれる。従前のシステムでは、備えられている表示装置は、この 情報の全てを単一の利便的な実時間表示に与えず、観察者は、頭の中で行う概念 的な周囲構造の描画を得るために、断片を寄せ集めたり、表示情報を再度方向付 けたりしなくてはならない。これらのことは、手術室のセッチングにおいて、実 用上、重大な不利点である。従前のシステムに欠落しているものは、他の特徴に より隠されている構造を含む3次元及び2次元で脳内の視線に沿った外科用プロ ーブの先に見える様々な構造を実時間で示す3次元表示である。 発明の開示 本発明は、外科手術中に、実時間で人体組織構造の3次元画像を表示するため の改良システム及び方法を提供する。外科医は、外科的処置を施している間、こ の構造にわたってナビゲーションを行える。また、このシステムは、外科的処置 の計画を立てるのに有用である。このシステムは、表示装置及び入力デバイス( 例えば、キーボード及びマウス)を接続したコンピュータを含む。また、このシ ステムは、コンピュータに接続される位置追跡システムも含む。コンピュータに は、外科医が使用する外科用プローブ又は器具も接続される。位置追跡システム は、使用の際、外科用器具の位置及び方向を指示するために、データを実時間で 連続的にコンピュータに与える。コンピュータには、CTやMRIのような画像化ス キャンにより生成された患者データを収納する記憶装置がさらに含まれ、患者デ ータから人体組織構造の2次元及び3次元画像が生成される。患者に関するこれ ら画像の登録 又はレジストレーション(registration)手段が与えられる。 コンピュータの記憶装置は、人体組織の画像の生成を制御するプログラムをさ らに与える。これらプログラムは、スキャン画像の分割を行うためのソフトウェ アを含み、様々なタイプの構造や組織を識別することができ、また、スキャンデ ータからの2次元及び3次元画像を再構成できる。このソフトウェアは、様々な 大きさや方向で表示でき、また、様々な位置や方向で薄切りにしたスライス平面 により生成される様々な断面映像を表示でき、これら全ては外科医によって制御 できる。 この画像生成ソフトウェアは、映像の位置及び方向を変えたり、対象の映像領 域にある様々なタイプの組織、構造及び表面の表示透明度又は不透明度を変える ためのユーザー制御(ユーザーにより制御される)手段を有し、人体組織構造の 透視画像である3次元画像を生成する、という重要な特徴を有する。これにより 、ユーザーは、画像の視軸にある表面や構造を効果的に“見通す(又はシースル ー(see through)する)”ことができ、特定の映像に潜んでいる他の構造を見 えるようにすることができる。 さらに、画像は、外科用プローブ又は器具を使用している ときに、その長手方向の軸に沿って、その先端から見ている外科用プローブ又は 器具の視点から生成される。よって、侵入式の外科用器具(例えば、外科用メス 、ピンセット)が人体の切開部に挿入されると、人体の内側の視点から人体組織 構造の3次元的透視映像が表示装置に表示される。これら画像は、全て、“大急 ぎ(又は、オン・ザ・フライ(on the fly))で“実時間で生成される。よって 、器具を移動したり回転させると、位置追跡システムが、器具の位置及び方向を 指示するデータをコンピュータへ連続的に与え、表示される画像は、器具が指し 示す構造を示すように、連続的に更新される。 また、それ自身で画像を生成できるプローブ又は器具(例えば、超音波プロー ブ、内視鏡、外科用顕微鏡、等)のために、システムは、その画像とスキャンデ ータから生成されたものとを統合するための手段を与える。ソフトウェアにより 、ユーザーは、これら器具から生成された“実際の画像”と、スキャンデータか ら生成された“仮想画像”とを重ね合わせることができる。 本発明の目的は、外科的処置を施している間に外科医が遭遇する人体組織構造 の3次元的透視画像を生成するためのシ ステム及び方法を提供することである。 本発明の第二の目的は、画像に対応する視点の位置及び方向を変えるためのユ ーザー制御手段を有する、上記画像を生成するためのシステム及び方法を提供す ることである。 本発明の他の目的は、表示される画像が、通常の映像に潜んでいる構造及び特 徴を示すことができるように、対象の映像領域にある構造及び表面の不透明度を 変えるためのユーザー制御手段を有する、上記画像を生成するためのシステム及 び方法を提供することである。 本発明の他の目的は、外科医の使用する器具の長手方向の軸に沿った方向にあ る器具の先端に位置する視点を有する、上記画像を生成するためのシステム及び 方法を提供することである。 本発明の他の目的は、表示される画像が、外科医の使用する器具の位置に連続 的に対応するように、実時間で上記画像を生成するためのシステム及び方法を提 供することである。 本発明の他の目的は、外科医の使用する画像生成器具により生成された画像と 、上記画像とを比較し、組み合わせるためのシステム及び方法を提供することで ある。 本発明のこれら及びその他の目的、利点、特性及び特徴 は、好適な実施例の詳細な説明と添付の図面を考察することによって、よりよく 理解され得る。 図面の簡単な説明 図1は、神経外科的処置を施している間、手術室で使用される本発明の装置の 概念的な透視図である。 図2は、本発明のコンピュータシステム及び光学追跡システムの概念的なブロ ック図である。 図3は、本発明の方法を実施する際に守られる手術前データを使用するナビゲ ーションプロトコルの概念的なブロック図である。 図4は、本発明の方法を実施する際に守られる超音波手術中データを使用する ナビゲーションプロトコルの概念的なブロック図である。 図5は、本発明の方法を実施する際に守られる内視鏡プロトコルの概念的なブ ロック図である。 図6は、本発明の手術前プロトコルを備えた手術前コンピュータプログラムの 概念的なフローチャートである。 図7は、本発明の超音波プロトコルを備えた手術前超音波コンピュータプログ ラムの概念的なフローチャートである。 図8は、本発明の内視鏡プロトコルを備えた手術中内視鏡コンピュータプログ ラムの概念的なフローチャートである。 図9は、本発明に従って生成した表示を示し、外側の視点からの頭部の3次元 的透視映像と、頭部の軸方向、前額方向、及び前後方向の断面映像を示す。 図10は、本発明に従って生成した表示を示し、内側の観視点からの頭部の3 次元的透視映像と、頭部の軸方向、前額方向、及び前後方向の断面映像を示す。 図11aは、本発明を実施するために使用した外科用プローブと人の頭蓋骨の プラスチック模型を示す。 図11bは、実施目的の模型の内部構造を示すために、頭蓋骨の上部を取り外 した図11aの頭蓋骨模型の他の形態を示す。 図12は、図11a及び図11bに示す頭蓋骨模型の、本発明により生成され た二つの表示の簡単な複写である。 図13は、図11a及び図11bの頭蓋骨の、本発明の他の二つの表示の簡単 な複写である。 図14は、実際の人の頭蓋骨の、本発明によって生成された合成表示の複写で ある。 発明を実施する最良の形態 図1は、神経外科的手術を施すか又はその計画を立てる際に使用されるような 本発明の装置を示す。この図では、患者の頭部(112)には腫瘍又は組織障害 (117)があり、これが、手術の目標となる対象物である。当業者に既知の関 連技術と同様の技術に従って予め得られたスキャンデータによって生成される画 像の登録又はレジストレーション(registration)ができるように、基準点マー カー(113)、(114)が頭部に取り付けられる。外科医に保持された外科 用プローブ又は器具(109)が、対象の組織に向けられる。コンピュータ(1 01)が、キーボード(103)及びマウス(104)を含むユーザー入力デバ イス、及びビデオ表示デバイス(好適に、カラーモニター)に接続される。表示 デバイス(102)は、手術中に外科医が容易に見ることのできる場所に配置さ れ、また、ユーザー入力デバイス(103)、(104)は、外科的処置を施し ている間、容易に手の届く範囲内に配置される。この装置は、さらに、位置追跡 システムをさらに含む。この位置追跡システムは、好適に、手術台を見渡せると ころに取り付けた検出ユニット(105)、及び外科用器具(109)に取り付 けた少なくとも 二つの発光ダイオード(LED)(110)、(111)を有する光学追跡システ ム(以下、OTS)である。これらLEDは、好適に、赤外線パルス信号を連続的に放 射し、この赤外線パルス信号は、外科用器具(109)から見えるところにある 検出ユニット(105)に取り付けた複数の赤外線検出器(106)、(107 )、(108)に検出される。器具(109)及び検出ユニット(105)は、 両方とも、コンピュータ(101)に接続され、コンピュータ(101)は、LE Dからのパルス放射のタイミング及び同期と、検出器(106)〜(108)で 受信した赤外線信号の記録及び処理とを制御する。OTSは、これら信号を処理し て、器具(109)の位置及び方向を指示するデータを生成するためのソフトウ ェアをさらに含む。OTSは、位置検出データを実時間で連続的に生成し、外科用 器具(109)が動くと、その位置及び方向が、検出ユニット(105)によっ て連続的に追跡され、コンピュータ(101)に記録される。OTSは、米国特許 第5617857号(Schulz)、同第5622170号(Schulz)に記載のシス テムと同様の商業的に入手可能の“Flashpoint 3-D Optical Localizer(商品名 )”(Image Guided Technologies社、Boulder、Colorado)のような既知のタイ プの ものが好適である。しかし、本発明は、このような特定のOTSに限定されず、音 波位置検出システムのような他の位置追跡システムも使用できる。 図1に示すように、外科用器具(109)は、先細形であり、長手方向の軸と 、対象の組織に指向される先端部(115)とを有する。この器具は、図1に破 線で示す円錐形の視野(116)を有する内視鏡であり得る。図示の器具は、患 者の頭部の外側の位置で保持される。頭蓋骨に切開部(118)が形成された場 合、器具は、この切開部を通じて挿入され得る。この位置を図1に破線で示す。 これら両方の位置では、器具は、LED(110)、(111)と検出ユニット( 105)との間の視線が遮られないように、保持される。内視鏡や他の光学式映 像化法の応用では、器具は、考察対象の領域に強い光を当てて際だたせるために 、レーザー式目標設定システム(図示せず)を含み得る。 図2は、位置追跡システムに接続したコンピュータシステムの概念的なブロッ ク図を示す。コンピュータ(101)は、中央演算処理ユニット(CPU)(20 1)を含み、このCPU(201)には、記憶装置(202)、ビデオ表示装置( 102)、キーボード及びマウス(103)、(10 4)、光学検出器(106)〜(108)、及び外科用器具(109)に取り付 けたLEDが接続されている。コンピュータの記憶装置は、位置追跡システムを作 動し、制御するためのソフトウェア手段を収納している。変形的な好適な実施例 では、OTSの構成成分(105)〜(109)は、コンピュータ(101)に接 続され且つ外科用器具(109)の位置及び方向を指示するデータを連続的に与 える他のコンピュータ又はコントローラに接続、制御され得る。 上記の本発明の装置は、図3〜5に示す外科的プロトコルを実施するために操 作される。図3は、本発明に従って外科的処置を行う間の画像を生成するために 、手術前データを処理するためのプロトコル(“pre-opプロトコル”)の概念的 なブロック図である。患者の頭部の3次元(3D)画像データは、当業者には既 知の従来の医用画像化技術の一つ又はそれ以上の技術から予め得られているもの と仮定する。好適に、このデータは、例えば、超音波スキャンデータと比較して 高精度、高精細度の画像が得られるCT、MIR及び/又はMRIスキャン技術から得ら れる。スキャンデータは、ディスクドライブ又はテープドライブのような付加的 な入力手段(図示せず)を通じてコンピュータ記憶装置(202)に ロード(load)、貯蔵される(符号301)。 患者データは、一般的に既知の技術に従ってレジストレーションされる(符号 302)。この手順は、全データ集合の3次元的なレジストレーション、又は順 次薄切りした二次元的なレジストレーションであり得る。3次元的なレジストレ ーションに従うと、その後、画像は、3次元ボクセル(voxel)データのアレイ を生成するために立体的(又はボリューメトリック(volumetric))又は平面的 描出化(レンダリング(rendering))を使用して記憶装置で再構成される(符 号303)。次に、一つ又はそれ以上の既知の分割技術を使用して、これらデー タを分割し(符号304)、異なったタイプの頭部の物質(骨、脳組織、血管構 造及び脳室構造、等)やその表面の位置のような様々な人体組織の特徴を識別す る。好適に、分割処理は、異なったタイプの構造に異なった表示色を指定するこ とを含み、これにより、カラービデオ表示装置でこれらの識別を容易に行うこと ができる。例えば、血管系統を青色で示し、骨を茶色で示す、等であり得る。好 適な実施例では、これらの色指定は、キーボード(103)及びマウス(104 )の手段によって、ユーザーが変えることができる。また、好適な実施例では、 表示の不透明 度は、キーボード(103)、マウス(104)又は他の入力デバイス(例えば 、音声入力デバイス)の手段によってユーザーが変えることができ、これにより 、ビデオ表示に潜んでいる特徴の識別をより容易に行うことができる。2次元的 なレジストレーションが行われる変形的なプロトコルでは、各2次元画像サンプ ルの分割が行われ(符号309)、次に、3次元データが、分割データの薄切り (又はスライス)から再構成される(符号310)。この変形的なプロトコルは 、図に破線で示される。 図3を参照して、pre-opプロトコルの次のフェーズは、表示されるべき画像を 定義するために、映像ベクトルの位置及び方向を決定することである(符号30 5)。この映像ベクトルは、外科用器具(109)の現在の位置及び方向を突き 止めるために、OTSを問いただすことによって得られる。次に、この情報ととも に、3次元スキャンデータが、結果的に得られる3次元的透視映像の位置決め及 び方向付けを行い、この映像を指示し、明晰にする表示画像の切断面及び基準マ ーカーを定義するために、処理される(符号306)。次に、この処理を行った 3次元的透視画像は、ビデオ表示装置(102)上に表示される(符号307) 。また、任意の切 断面の2次元(2D)断面映像のような他の2次元画像も、好適に、解明を目的 として、3次元的透視表示と一緒に表示される。 最後に、pre-opプロトコルは、連続的なループ処理であり、外科用器具(10 9)の位置及び方向に対応する映像ベクトルの位置の変化について、OTSが、繰 り返し問いただされる(符号308)。よって、表示される画像は、外科的処置 の間、連続的に更新され、結果的に得られる表示は、実時間で絶えず新たに供給 される。また、画像データも貯蔵又は一時的に記憶され、引き続くプロトコルに 従った他の使用に利用できるようになっている(符号311)。 外科用器具(109)は、その先端(105)に位置した超音波変換器を含み 、患者の頭部に接触し、それ自身で、超音波画像化データをスキャンし、検出す る。図4は、手術中(“intra-op”)超音波(“US”)プロトコルの概念的なブ ロック図であり、外科手術中のUS画像データを処理する。典型的に、超音波変換 器は、人体組織の対象の領域の平面扇形区域からデータを生成するフェーズド集 束アレイであり、変換器の中心軸(本明細書では、外科用器具(109)の長手 方向の軸上にある)が、スキャン区域の平面にある。この軸 に関して外科用器具及び変換器を回転させることにより、対象の領域の円錐形ボ リューム(volume)のUSスキャンデータが収集され、貯蔵される(符号401) 。この円錐は、変換器スキャンの“視野”を定義する。 変換器の位置及び方向は、OTSによって追跡され、決定され(符号402)、U Sデータを使用して、対象の領域の3次元intra-op画像データを再構成する(符 号403)。このデータは、pre-opデータの処理(306)と同様のやり方で処 理され(符号404)、次に、任意の所望の対応する超音波データの2次元画像 と一緒に3次元画像を生成するために使用される(符号405)。これらintra- op画像は、pre-opプロトコル(符号311)により生成されたpre-op画像と融合 され(符号406)、合成画像がさらに表示される。最後に、OTSは、連続的に ストローブ(strobe)され(符号407)、超音波画像は、連続的に新たに供給 される。 図5は、内視鏡が外科用器具(109)の先端(115)に配置される、intr a-opプロトコルの概念的なブロック図でありる。このプロトコルも、内視鏡の位 置で外科用顕微鏡を使用する処置に提供できる。画像データが、内視鏡又は顕微 鏡の視線(本明細書では、外科用器具(109)の長手方向の 軸)に直交する平面の2次元画像を表すCCDカメラ又は他の既知の技術を使用 して、得られる(符号501)。外科用器具の位置及び方向は、OTSによって追 跡され、決定され(符号502)、アナログ・ツー・デジタル(“A/D”)変換 がこのデータで行われる(符号503)。視点の位置は、OTSデータから決定さ れ(符号504)、内視鏡又は顕微鏡画像データが処理され(符号505)、表 示用の所望の画像が生成される(符号506)。これらintra-op画像は、pre-op プロトコル(符号311)によって生成されたpre-op画像と融合され(符号50 8)、合成画像がさらに表示される。最後に、OTSは、連続的にストローブされ (符号507)、超音波画像が絶えず新たに供給される。 上述したプロトコルは、コンピュータ(101)の記憶装置(202)に収納 されるプログラムモジュールにより供給される。図6は、pre-opプロトコルを供 給するプログラムのフローチャートの概念的なブロック図である。プログラムが 開始され(符号601)、予め得た患者のスキャンデータ(例えば、MRI又はCT データ)をコンピュータが受信し、ロードする。コンピュータは、OTSからのデ ータをさらに読み取り(符号603)、スキャンを行った患者データをレジ ストレーションする(符号604)。3次元立体的描出化に、スキャンデータを 使用して、3次元画像データに再構成され(符号605)、分割がこの再構成で 行われる(符号606)。図に破線で示す変形的な実施例では、分割が2次元ス ライスで行われ(符号615)、次に、これら分割スライスが、全3次元画像デ ータに再構成される。 プログラムは、次に、ユーザーが画像表示用の視野を選択できるように、キー ボード(103)又はマウス(104)からの入力データを読み取る(符号60 7)。次に、画像データは、任意に選択した基準マーカー、物質不透明度、カラ ー、又はプログラムによってユーザーに与えられる他の選択肢と一緒に、所望の 映像を生成するために、処理され、変換される(符号608)。また、ユーザー は、内視鏡、顕微鏡、超音波変換器、又は外科的手術中に使用される他の映像化 デバイスの視野を示す重ね合わせた円錐と一緒に頭部全体の3次元表示を要求で きる。次に、結果的に得られる処理済み画像は、好適に、ビデオ表示装置(10 2)上にカラーで表示される(符号609)。コンピュータは、次に、OTSデー タを読み取り(符号610)、外科用器具が移動したか否かを決定する(符号6 11)。外科用器具が移動した場 合、プログラム制御が、図6に示す、新しい視野の選択(符号607)及び引き 続く作業(608)〜(610)に戻る。器具の位置が変わらなかった場合、い ずれの予め貯蔵した表示画像を新しく供給して、表示される画像は貯蔵される( 符号612)。プログラムは、作業を中断するべきか否かについてのユーザーか らの要求をさらに捜し(符号613)、このような要求がなかった場合、作業( 611)及び(612)が繰り返される。よって、コンピュータは、ユーザーが 終了を要求するまで、作業のループが続けられる(符号614)。 図7は、超音波intra-opプロトコルを供給するプログラムのフローチャートの 概念的なブロック図である。プログラムが開始すると(符号701)、コンピュ ータが、外科用器具(109)の先端9115)のUS変換器からデータを受信し 、ロードする。このようなデータは、通常、対象の領域の位置を特定するために 、極座標や球面座標を使用して生成され、プログラムは、好適に、このデータを 直交座標系に変換する(符号703)。次に、OTSデータが、外科用器具(10 9)の位置及び方向を決定するために読み取られ(符号704)、整列したデー タスライスの集合体からのUSデータを 使用して、USスキャンデータを表す3次元画像データを再構成する(符号705 )。この画像データは、pre-opデータの処理(符号608)と同様のやり方で、 プログラムによって処理され、変換され(符号706)、結果的に得られる画像 が表示される(符号707)。 図6に示すpre-opプログラムと同様に、OTSが問いただされ(符号709)、 外科用器具が移動したか否かを決定し(符号713)、器具が移動した場合、新 しいUS表示画像が再構成される。好適な実施例では、プログラムは、対象の領域 の他のUSスキャンを行うか否かについてユーザーに問いかける(符号716)。 他のUSスキャンを行う場合、プログラム制御は、図7の作業(符号702)へ戻 り、新たなUSデータがUS変換器で得られる。他のUSスキャンが要求されなかった 場合(符号716)、プログラムは、作業(符号705)へ戻り、新しい3次元 画像が現在のUSスキャンデータから再構成される。 前回の問いかけから外科用器具が移動しなかったことをOTSの問いかけが決定 した場合(符号709)、US画像は、図6に示すプログラムによって得られたpr e-op画像と融合され(符号710)、組合わせた画像が表示される(符号71 1)。OTSは、外科用器具が移動したか否かについての決定をするために、再度 、問いかける(符号712)。外科用器具が移動した場合、プログラムは、新し いスキャンのユーザーの問いかけ(符号716)に戻る。そうでなければ、プロ グラムは、作業を中断するべきか否かについてのユーザーからの要求を捜し(符 号714)、このような要求がなかった場合、作業が繰り返される(符号713 )。よって、コンピュータは、図6のpre-opプログラムと同様、ユーザーが終了 を要求する(符号715)まで作業のループが続けられる。 内視鏡/顕微鏡intra-opプログラムは、図8に概念的なブロック図で示すフロ ーチャートを有する内視鏡intra-opプログラムにより好適に供給される。プログ ラムが開始すると(符号801)、コンピュータが、内視鏡から画像データを受 信し、ロードする(符号802)。このデータは、デジタル化され(符号803 )、好適に、ビデオ表示装置(102)に表示される(符号804)。OTSが問 いただされ(符号805)、内視鏡の位置及び方向を決定する情報を受信する( 符号806)。この情報を使用して、図6に示すpre-opプログラムによって得ら れたpre-opデータが検索され(符号80 7)、内視鏡の視点からの3次元仮想画像を再構成するために使用される(符号 808)。この画像は、図6に示すpre-opプログラムによる3次元画像表示と同 様のやり方で、表示される(符号809)。この画像は、作業(符号804)で 表示された内視鏡画像と融合される(符号810)。次に、OTSがストローブさ れ(符号812)、前回の問いかけから内視鏡が移動したか否かについて決定す る(符号813)。内視鏡が移動した場合、プログラム制御は作業(符号802 )へ戻り、内視鏡で受信した画像データを新たに供給する。そうでなければ、プ ログラムは、作業を中断するべきか否かについてのユーザーからの要求を捜し( 符号814)、このような要求がなかった場合、作業(符号813)が繰り返さ れる。よって、コンピュータは、図6、7のpre-op及びintra-opプログラムと同 様に、ユーザーが終了を要求するまで作業のループが続けられる(符号815) 。 上記のプログラムモジュールは、個別に設計され、これらは、個別に実行でき るようにも設計できる。よって、pre-opプログラムが終了した後、intra-opプロ グラムの一方又は両方を実行できる。しかし、好適に、これらプログラムは、外 科的手術中、並列に操作され、手術が継続すると、pre-opデー タ画像及びintra-opデータ画像が、全て、連続的に新たに供給される。既知のプ ログラム並列処理方法が、このために使用できる。 上記のプログラムは、好適に、コンピュータグラフィック応用に適応されるコ ンピュータ(101)上で行われる。これらプログラムに適応するコンピュータ は、シリコン・グラフィックス社(Silicon Graphics,Inc.、Mountain View,Ca lifornia)から商業的に入手可能である。上記のプログラムでの大半の個々の画 像処理作業を行うためのグラフィックソフトウェアモジュールも、他のソースと 同様、シリコン・グラフィック社から商業的に入手可能である。 図9は、患者の頭部(112)の内部にある目標とする組織障害又は腫瘍(1 17)に向けて指向した図1の外科用プローブ(109)を有する上記システム によって得られた3次元画像表示(901)の略図である。表示(901)の縁 部は、境界線(900)で示される。表示(901)は、プローブ(109)の 先端(115)からの透視映像である。この表示は、連続的に新たに供給され、 プローブ(109)が移動すると、表示される画像(901)が直ちに変わる。 ここで、プローブ(109)の全部が患者の頭部の外側に示 されるが、表示(901)は、脳及び目標とする腫瘍(117)のような内部の 人体組織構造を示す。本発明のシステムでは、表示特性は、内部構造を強調した り、あまり強調させないように、実時間で調整できる。これらの構造は、異なっ た物質に対して異なった色づけをして表示することにより識別できる。また、皮 膚、頭蓋骨及び脳細胞の表示不透明度は、目標とする腫瘍(117)に注目して 他の構造の詳細を与えたり強調するために減衰できる。表示(901)は、隠れ た構造を表面及び対象物を通じて見ることのできる“X線の目”を外科医に効果 的に与える。この表示では、頭部の内部構造の全体が考察、研究でき、切開前に 、外科手術的な軌道を計画立てることができる。さらに、外科用器具(109) がメスである場合、外科医は、最初の切開前に、表示(901)により、表面に 画されたいずれの構造も直ちに見ることができる。図9は、考察下の領域をより 明示、解明するための、在来の軸方向(902)、前額方向(903)及び前後 方向(904)の2次元表示も示す。 外科用器具(109)が内視鏡又はUS変換器である場合、視野(116)は、 内視鏡(109)から見える皮膚の表面と円錐形の視野(116)との交差部を 指示する準円形画像 (905)によって表示(901)に指示される。この円錐形の視野も、2次元 表示(902)〜(904)に完全に重ね合わされる。好適な実施例では、表示 は、視野(905)で内視鏡により見られる実際の画像、及び視野(905)に ある同一領域の3次元的透視画像を示すこともでき、これら補助的な画像は、好 適に、器具(109)がUS変換器であるときに含まれる。 患者の頭部に切開部(118)が形成された後、内視鏡が挿入され、目標とす る人体組織構造の内部映像が与えられる。図10は、目標とする組織障害又は腫 瘍(117)に向けて指向した図1の内視鏡(109)(図1に破線で示す変形 的な位置)を有する上記システムによって得られた3次元的画像表示(1001 )の略図である。表示(1001)の縁部は、境界線(1001)により示され る。表示(1001)は、内視鏡(109)の先端(115)を通過しその軸に 直交した切断平面を有する3次元的断面映像を与えるように処理されたものであ る。上記と同様に、内視鏡の視野(905)が、この表示に指示され、好適な実 施例では、補助的な表示が、視野(905)の内視鏡により見られる実際の画像 、及び視野(905)の同一の領域の3次元的透視画像も 示し、これら補助的な表示は、図10には示されていない。この図は、さらに好 適に、さらに明示、解明を目的とする在来の軸方向(1002)、前額方向(1 003)及び前後方向(1004)の2次元表示も含む。 図11a、11b、12及び13は、本発明の好適な実施例によって生成され る3次元表示をさらに示す。図11a、11bは、ベース部(1102)と、着 脱可能の上部(1101)とを有する頭蓋骨のプラスチック模型を示す。頭蓋骨 (1101)、(1102)は、スタンド(1106)上に固定される。また、 図11aは、本発明に従って表示を生成するためにOTS(図示せず)に接続したL ED(1105)を有する指針(1104)を示す。上部(1101)には複数の ホール(1103)が設けられ、指針(1104)が頭蓋骨の内部に進入できる ようになっている。図11bには、上部(1103)を取り外した頭蓋骨が示さ れる。内部構造(1107)のプラスチック模型が頭蓋骨の内部に作られ、これ ら内部構造は、図示のように、簡単に確認できる配置構成の固体である。 図11a、11bの頭蓋骨は、図12、13に示す表示を生成するために使用 される“pre-op”画像データを生成する ためにスキャンされる。図12、13の表示の縁部は、それぞれ、境界線(12 00)、(1300)で示される。図12は、図1に示す指針の一及び方向と同 様に、指針(1104)を上部中央の外部から頭蓋骨に向けた頭蓋骨の二つの表 示(1201)、(1202)の合成画である。表示(1201)は、この指針 の一からの3次元的透視映像である。表示(1202)は、これと同一の映像で あるが、頭蓋骨物質の表示不透明度が減衰されている。この不透明度の減衰によ り、図示のように、内部構造(1107)が鮮明に可視化される。実際に使用し ている間、システムは、外科医がこの不透明度を変えて実時間で画像を調整でき るようにし、頭蓋骨構造及び内部構造の両方を様々な態様で表示装置に可視化で きる。 ここで、表示(1201)に示す表面等高線は、有限サイズの描出化レイヤー (layer)又はボクセル(voxel)によって生成される。これら等高線は、データ をスムーシング(smoothing)したり、ボクセル又はレイヤーのサイズを小さく することによって小さくできる。 図13は、開口部(1103)のうちの一つを通じて進入させた指針(110 4)おる二つの表示の合成画である。 表示(1302)は、頭蓋骨内部の指針の先端からの映像である。表示(130 1)は、指針の軸に沿った頭蓋骨の外側からの構造全体の映像である。すなわち 、表示(1302)は表示(1301)の一部を実質的に拡大したものである。 表示(1301)は、指針の軸に垂直な指針の先端を通じる切断面で一部を切断 した頭蓋骨を示す。これら表示の両方は、本発明によって生成される3次元表示 の透視画法的特徴を鮮明に示す。 最後に、図14は、実際の人の頭部の、システムによって生成された表示の簡 単な合成画である。表示(1401)は、図示のように直交する切断面によって 定義された部分を切断した頭部全体の透視映像である。図14の表示の縁部は、 境界線(1400)で示される。この表示は、二つの切断面の交差線に沿って頭 部に向けて指向した内視鏡の視野も示し、内視鏡の先端は、円錐の頂点にある。 表示(1402)は、垂直方向の切断面によって生成された2次元断面映像であ り、表示(1403)は、水平方向の切断面によって生成された、これに対応す る断面映像である。さらに、表示(1402)、(1403)の画像はまた、表 示(1401)の3次元画像上で変換(回転及び拡大)され、重ね合わ される。 これら表示の両方は、円錐形の視野と切断面との交差部も指示する。表示(1 404)は、内視鏡で見られる実際の画像である。表示(1405)は、本発明 に従って立体的描出化によりスキャンデータから再構成された内視鏡画像の仮想 透視映像である。表示(1406)は、本発明に従って平面的描出化によりスキ ャンデータから再構成された、狭い視野を有する内視鏡の視点からの画像の仮想 透視映像である。この表示(1406)は、外科手術的な軌道を計画立てる際に 、外科用プローブと一緒に使用できる。表示(1407)は、表示(1406) (狭い視野)を拡大したものであり、顕微鏡を通じて見られ得る仮想画像を示す 。最後に、表示(1408)は、平面的描出化を使用するスキャンデータからの 頭部全体の分割3次元透視映像であり、表示(1409)は、現有のシステムで 可能な表示の潤沢な多様性及び可転性を示す。これら全ての表示は、実時間で同 時に外科医に提供され、オンラインで変えることができる。 以上の説明から明らかなように、本発明は、実際の外科的処置の間、人体組織 構造をわたってナビゲーションを行うための改良した手段を提供する。システム により、外科医は、 余分な手作業を要することなく、処置を行うのに使用する同一の器具と一緒に表 示を選択し、調節することができる。表示が実時間で直ちに与えられることから 、画像が、処置の中断を一切必要としない。また、このシステムによって与えら れる仮想画像は、在来の手段を通じて得られる画像と連続的に相互的に関連され る。 さらに、本発明が神経外科応用や他の外科的又は医学的診療応用に限定されな いことは、当業者には明らかであろう。例えば、本発明を具体化するシステムは 、“pre-op”スキャンデータが得られるように、人工衛星からの情報を利用する 実際の航海又は航空ナビゲーションにより得られ得る。指針デバイスは、船舶又 は航空機自身に代えられ、ビデオ表示装置は、特殊な画像化ゴーグル又はヘルメ ットに置換できる。 本発明の好適な実施例の以上の説明は、図説を目的として与えられただけのも のであり、開示される精密な形態に限定されない。多数の変更物及び変形物が上 記の教示からなされ得る。本発明の精神及び範囲は、以下の請求の範囲及び全て の等価物の範囲に定義されるべきである。
【手続補正書】特許法第184条の8第1項 【提出日】平成11年5月4日(1999.5.4) 【補正内容】 請求の範囲 1. 3次元対象物の画像を生成するための方法であって、 対象物の立体的な第一のスキャンデータを得る工程、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用する工程、 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための視野 及び視点を選択する工程、 前記視野とともに前記視点からの前記対象物の第一の3次元的透視画像を生成 するために、前記第一の仮想画像データを処理する工程、 前記第一の3次元的透視画像を表示する工程、 を含む方法。 2. 請求項1の方法であって、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用する工程は、 前記対象物の選択した特徴を識別するために、前記第一の仮想画像データを分 割する工程、 を含む、方法。 3. 請求項1の方法であって、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用する工程は、 前記第一の仮想画像データで表される前記対象物の特徴の位置を決定するため に、前記対象物に関して前記第一の仮想画像データのレジストレーションを行う 工程、 を含む、方法。 4. 請求項1の方法であって、 前記第一の3次元的透視画像を表示する前記工程に続けて、 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための他の 視点及び視野を選択する工程、 前記視野とともに前記他の視点からの前記対象物の第一の3次元的透視画像を 生成するために、前記第一の仮想画像データを処理する工程、及び 前記第一の3次元的透視画像を表示する工程、 を任意の所望とする回数だけ繰り返すことをさらに含む、方法。 5. 請求項1の方法であって、 対象物の立体的な第二のスキャンデータを得る工程、 前記第二のスキャンデータで構造情報を表す第二の仮想画像データを再構成す るために、前記第二のスキャンデータを使用する工程、 前記仮想画像データに基づいた前記対象物の画像を表示するために選択した前 記視点及び視野と一致するように前記第二の仮想画像データに基づいた前記対象 物の画像を表示するための視点及び視野を決定する工程、 前記視野とともに前記視点からの前記対象物の第二の3次元的透視画像を生成 するために、前記第二の仮想画像データを処理する工程、及び 前記第二の3次元的透視画像を表示する工程、 をさらに含む、方法。 6. 請求項5の方法であって、 前記第一の3次元的透視画像と、前記第二の3次元的透視画像とを融合し、組 合せ画像を表示する工程、 をさらに含む、方法。 7. 請求項1の方法であって、 対象物の第三のスキャンデータを得る工程、 前記第三のスキャンデータに基づいた前記対象物の第三の 画像表示するための視点及び視野を選択する工程、 前記第三の画像を表示する工程、 対象物の立体的な第一のスキャンデータを得る工程、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用する工程、 前記第三のスキャンデータに基づいた前記対象物の前記第三の画像を表示する ために選択した前記視点及び視野と一致するように前記第一の仮想画像に基づい た前記対象物の画像を表示するための視点及び視野を決定する工程、 前記視野とともに前記視点からの前記対象物の第一の画像を生成するために、 前記第一の仮想画像データを処理する工程、及び 前記第一の3次元的透視画像を表示する工程、 をさらに含む、方法。 8. 請求項7の方法であって、 前記第三の画像と前記第一の3次元的透視画像とを融合し、組合せ画像を表示 する工程、 をさらに含む、方法。 9. 3次元対象物の画像を生成するための装置であって、 記憶装置を有するコンピュータ、 前記コンピュータに接続した表示手段、 前記コンピュータに接続した入力手段、 前記コンピュータに接続され、ユーザーによって移動可能の指針手段、及び 前記コンピュータ及び前記指針手段に接続した位置追跡手段であって、この位 置追跡手段が、前記指針の位置及び方向を連続的に検出し、この位置及び方向を 前記コンピュータへ送る、位置追跡手段、 を含み、 前記コンピュータの記憶装置が、立体的な第一のスキャンデータを収納し、さ らに、プログラムを収納し、 このプログラムによって、前記コンピュータが、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用すること、 前記位置追跡手段によって検出された前記指針手段の位置及び方向であるべき 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための視点を 決定すること、 前記視点からの前記対象物の第一の3次元的透視画像を生 成するために、前記第一の仮想画像データを処理すること、及び 前記第一の3次元的透視画像を表示すること、 を行う、 ところの装置。 10. 請求項9の装置であって、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用することは、 前記対象物の選択した特徴を識別するために、前記第一の仮想画像データを分 割すること、 を含む、装置。 11. 請求項9の装置であって、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用することは、 前記第一の仮想画像データで表される前記対象物の特徴の位置を決定するため に、前記対象物に関して前記第一の仮想画像データのレジストレーションを行う こと、 を含む、装置。 12. 請求項9の装置であって、 前記プログラムが、 前記第一の3次元的透視画像を表示することに続けて、 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための他の 視点を選択すること、 前記他の視点からの前記対象物の第一の3次元的透視画像を生成するために、 前記第一の仮想画像データを処理すること、及び 前記第一の3次元的透視画像を表示すること、 を任意の所望とする回数だけ繰り返し、行う、 ところの装置。 13. 請求項9の装置であって、 前記プログラムが、 対象物の立体的な第二のスキャンデータを得ること、 前記第二のスキャンデータで構造情報を表す第二の仮想画像データを再構成す るために、前記第二のスキャンデータを使用すること、 前記仮想画像データに基づいた前記対象物の画像を表示するために選択した前 記視点と一致するように前記第二の仮想画像データに基づいた前記対象物の画像 を表示するための視 点を決定すること、 前記視点からの前記対象物の第二の3次元的透視画像を生成するために、前記 第二の仮想画像データを処理すること、及び 前記第二の3次元的透視画像を表示すること、 をさらに行う、 ところの装置。 14. 請求項13の装置であって、 前記プログラムが、 前記第一の3次元的透視画像と、前記第二の3次元的透視画像とを融合し、組 合せ画像を表示すること、 をを行う、 ところの装置。 15. 請求項9の装置であって、 前記プログラムが、 対象物の第二のスキャンデータを得ること、 前記第二のスキャンデータで構造情報を表す第二の仮想画像データを再構成す るために、前記第二のスキャンデータを使用すること、 前記仮想画像データに基づいた前記対象物の画像を表示す るために選択した前記視点と一致するように前記第二の仮想画像に基づいた前記 対象物の画像を表示するための視点を決定すること、 前記視点からの前記対象物の第二の画像を生成するために、前記第二の仮想画 像データを処理すること、及び 前記第二の画像を表示すること、 を行う、 ところの装置。 16. 請求項15の装置であって、 前記プログラムが、 前記第二の画像と前記第一の3次元的透視画像とを融合し、組合せ画像を表示 すること、 を行う、 ところの装置。 17. 請求項7の方法であって、 前記対象物の第三の画像を表示するための視点及び視野を選択するための工程 に続けて、 前記第三の画像が得られる対象物の領域に光をあて、明るくする工程、 をさらに含む、方法。 18. 請求項7の方法であって、 前記第三のスキャンデータを得る前記工程が、内視鏡によって行われる、 ところの方法。 19. 請求項7の方法であって、 前記第三のスキャンデータを得る前記工程が、顕微鏡によって行われる、 ところの方法。 20. 請求項7の方法であって、 前記第三のスキャンデータを得る前記工程が、CCDカメラによって行われる 、 ところの方法。 21. 請求項1、5又は7の方法であって、 前記視野とともに前記視点からの前記対象物の第一又は第二の3次元的透視画 像を生成するために、第一又は第二の画像データを処理する前記工程が、 前記対象物の断面映像を定義するために、少なくとも一つの切断平面を選択す る工程、及び 前記の少なくとも一つの切断平面によって決定された前記対象物の3次元的透 視切断画像を生成する工程、 を含む、 ところの方法。 22. 請求項1、5又は7の方法であって、 第一又は第二の仮想画像データを再構成するために、第一又は第二のスキャン データを使用する前記工程が、 これらの観察のために、前記3次元的透視画像に示される異なった構造の不透 明度を調節する工程、 を含む、 ところの方法。 23. 請求項1の方法であって、 前記第一のスキャンデータがMIRデータである、 ところの方法。 24. 請求項1の方法であって、 前記第一のスキャンデータがCTデータである、 ところの方法。 25. 請求項1の方法であって、 前記第一のスキャンデータがMRIデータである、 ところの方法。 26. 請求項1の方法であって、 前記第一のスキャンデータがPETデータである、 ところの方法。 27. 請求項1の方法であって、 前記第一のスキャンデータが超音波データである、 ところの方法。 28. 対象物のスキャンデータを使用して前記スキャンデータで構造情報を表 す画像データを再構成するためのプログラムを収納した記憶装置を有するコンピ ュータ、前記コンピュータに接続した表示手段、前記コンピュータに接続した入 力手段、前記コンピュータに接続され、ユーザーによって移動可能の指針手段、 及び前記コンピュータ及び前記指針手段に接続され、前記指針手段の位置及び方 向を検出し、前記位置及び方向を前記コンピュータへ送るための位置追跡手段、 を含む、3次元対象物の画像を生成するためのシステムにおいて、前記画像を生 成するための方法であって、 対象物の立体的な第一のスキャンデータを得る工程、 前記コンピュータの記憶装置に前記立体的な第一のスキャンデータをローディ ングする工程、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記コンピュータの前記プログラムを使用する工程、 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための視点 を選択するために、前記指針手段を使用する工程、 前記指針手段の位置及び方向を前記位置追跡手段で検出する工程、 前記視sn手段の前記位置及び方向を前記コンピュータへ送る工程、 前記画像を表示するための視野を選択する工程、 前記視野とともに前記視点からの前記対象物の第一の3次元的透視画像を生成 するために、前記第一の仮想画像データを前記コンピュータの手段で処理する工 程、 前記第一の3次元的透視画像を前記表示手段で表示する工程、 を含む方法。 29. 請求項28の方法であって、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記コンピュータで前記プログラムを使用する前記工程が、 前記対象物の選択した特徴を識別できるように、前記第一の仮想画像データを 分割するために、前記プログラムを使用 する工程、 を含む、 ところの方法。 30. 請求項28の方法であって、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記コンピュータで前記プログラムを使用する前記工程が、 前記第一の仮想画像データで表される前記対象物の特徴の位置を決定するため に、前記対象物に関して、前記第一の仮想画像データをレジストレーションする 工程、 を含む、 ところの方法。 31.請求項28の方法であって、 前記第一の3次元的透視画像を表示する前記工程に続けて、 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための他の 視点及び視野を選択するために、前記指針手段を使用する工程、 前記指針手段の位置及び方向を前記位置追跡手段で検出する工程、 前記指針手段の前記位置及び方向を前記コンピュータへ送る工程、 前記視野とともに前記他の視点からの前記対象物の第二の3次元的透視画像を 生成するために、前記第一の仮想画像データを前記コンピュータの手段で処理す る工程、及び 前記第二の3次元的透視画像を前記表示手段で表示する工程、 を任意の所望の回数だけ繰り返す、 ところの方法。 32. 請求項28の方法であって、 対象物の立体的な第二のスキャンデータを得る工程、 前記コンピュータの記憶装置に前記立体的なスキャンデータをローディングす る工程、 前記立体的な第二のスキャンデータで構造情報を表す第二の仮想画像データを 再構成するために、前記コンピュータで前記プログラムを使用する工程、 前記第一の仮想画像データに基づいた前記対象物の前記画像を表示するために 選択した前記視点及び視野と一致するように、前記第二の仮想画像データに基づ いた前記対象物の画像を表示するための視点及び視野を決定する工程、 前記視野とともに前記視点からの前記対象物の第二の3次元的透視画像を生成 するために、前記第二の加増画像データを前記コンピュータの手段で処理する工 程、及び 前記第二の3次元的透視画像を前記表示手段で表示する工程、 をさらに含む方法。 33. 請求項33の方法であって、 前記第二の3次元的透視画像と前記第一の3次元的透視画像とを融合し、組合 せ画像を表示する工程、 をさらに含む方法。 34. 対象物のスキャンデータを使用して前記スキャンデータで構造情報を表 す画像データを再構成するためのプログラムを収納した記憶装置を有するコンピ ュータ、前記コンピュータに接続した表示手段、前記コンピュータに接続した入 力手段、前記コンピュータに接続され、ユーザーによって移動可能の指針手段、 及び前記コンピュータ及び前記指針手段に接続され、前記指針手段の位置及び方 向を検出し、前記位置及び方向を前記コンピュータへ送るための位置追跡手段、 を含む、3次元対象物の画像を生成するためのシステムにおいて、3次元退場物 の画像を生成するための方法であっ て、 対象物の第三のスキャンデータを得る工程、 前記コンピュータの記憶装置に前記第二のスキャンデータをローディングする 工程、 前記第三のスキャンデータに基づいた前記対象物の第三の画像を表示するため の視点及び視野を選択する工程、 前記第三の画像を前記表示手段で表示する工程、 対象物の立体的な第一のスキャンデータを得る工程、 前記コンピュータの記憶装置に前記立体的な第一のスキャンデータをローディ ングする工程、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記コンピュータで前記プログラムを使用する工程、 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための視点 を選択するために、前記指針手段を使用する工程、 前記指針手段の位置及び方向を前記位置追跡手段で検出する工程、 前記指針手段の前記位置及び方向を前記コンピュータへ送る工程、 前記画像を表示するための視野を選択する工程、 前記視野とともに前記視点からの前記対象物の第一の3次元的透視画像を生成 するために、前記第一の仮想画像データを前記コンピュータの手段で処理する工 程、及び 前記第一の3次元的透視画像を前記表示手段で表示する工程、 を含む方法。 35. 請求項34の豊富であって、 前記第三の画像と前記第一の3次元的透視画像とを融合し、組合せ画像を表示 する工程、 をさらに含む方法。 36. 請求項34の方法であって、 前記対象物の第三の画像を表示するための視点及び視野を選択する前記工程に 続けて、 前記第三の画像が得られる対象物の領域に光をあて、明るくする工程、 をさらに含む方法。 37. 請求項34の方法であって、 前記第三のスキャンデータを得るための前記工程が、内視鏡の手段によって行 われる、 ところの方法。 38. 請求項34の方法であって、 前記第三のスキャンデータを得るための前記工程が、顕微鏡の手段によって行 われる、 ところの方法。 39. 請求項34の方法であって、 前記第三のスキャンデータを得るための前記工程が、CCDカメラの手段によ って行われる、 ところの方法。 40. 請求項28、32又は34の方法であって、 前記視野とともに前記視点からの前記対象物の第一又は第二の3次元的透視画 像を生成するために、第一又は第二の仮想画像データを処理する前記工程が、 前記対象物の断面映像を定義するために、少なくとも一つの切断平面を選択す る工程、及び 前記の少なくとも一つの切断平面によって決定された前記対象物の3次元的透 視断面画像を生成する工程、 を含む、 ところの方法。 41. 請求項28、32又は34の方法であって、 第一又は第二の仮想画像データを再構成するために、第一又は第二のスキャン データを使用する前記工程が、 これらの観察を容易に行えるように前記3次元的透視画像に示される異なった 構造の不透明度を調節する工程、 を含む、 ところの方法。 42. 請求項28の方法であって、 前記第一のスキャンデータが、MIRデータである、 ところの方法。 43. 請求項28の方法であって、 前記第一のスキャンデータが、CTデータである、 ところの方法。 44. 請求項28の方法であって、 前記第一のスキャンデータが、MRIデータである、 ところの方法。 45. 請求項28の方法であって、 前記第一のスキャンデータが、PETデータである、 ところの方法。 46. 請求項28の方法であって、 前記第一のスキャンデータが、超音波データである、 ところの方法。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) A61B 8/00 A61B 19/00 502 19/00 502 5/05 380

Claims (1)

  1. 【特許請求の範囲】 1. 3次元対象物の画像を生成するための方法であって、 対象物の立体的な第一のスキャンデータを得る工程、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用する工程、 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための視点 を選択する工程、 前記視点からの前記対象物の第一の3次元的透視画像を生成するために、前記 第一の仮想画像データを処理する工程、 前記第一の3次元的透視画像を表示する工程、 を含む方法。 2. 請求項1の方法であって、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用する工程は、 前記対象物の選択した特徴を識別するために、前記第一の仮想画像データを分 割する工程、 を含む、方法。 3. 請求項1の方法であって、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用する工程は、 前記第一の仮想画像データで表される前記対象物の特徴の位置を決定するため に、前記対象物に関して前記第一の仮想画像データのレジストレーションを行う 工程、 を含む、方法。 4. 請求項1の方法であって、 前記第一の3次元的透視画像を表示する前記工程に続けて、 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための他の 視点を選択する工程、 前記他の視点からの前記対象物の第一の3次元的透視画像を生成するために、 前記第一の仮想画像データを処理する工程、及び 前記第一の3次元的透視画像を表示する工程、 を任意の所望とする回数だけ繰り返すことをさらに含む、方法。 5. 請求項1の方法であって、 対象物の立体的な第二のスキャンデータを得る工程、 前記第二のスキャンデータで構造情報を表す第二の仮想画像データを再構成す るために、前記第二のスキャンデータを使用する工程、 前記仮想画像データに基づいた前記対象物の画像を表示するために選択した前 記視点と一致するように前記第二の仮想画像データに基づいた前記対象物の画像 を表示するための視点を決定する工程、 前記視点からの前記対象物の第二の3次元的透視画像を生成するために、前記 第二の仮想画像データを処理する工程、及び 前記第二の3次元的透視画像を表示する工程、 をさらに含む、方法。 6. 請求項5の方法であって、 前記第一の3次元的透視画像と、前記第二の3次元的透視画像とを融合し、組 合せ画像を表示する工程、 をさらに含む、方法。 7. 請求項1の方法であって、 対象物の第二のスキャンデータを得る工程、 前記第二のスキャンデータで構造情報を表す第二の仮想画像データを再構成す るために、前記第二のスキャンデータを 使用する工程、 前記仮想画像データに基づいた前記対象物の画像を表示するために選択した前 記視点と一致するように前記第二の仮想画像に基づいた前記対象物の画像を表示 するための視点を決定する工程、 前記視点からの前記対象物の第二の画像を生成するために、前記第二の仮想画 像データを処理する工程、及び 前記第二の画像を表示する工程、 をさらに含む、方法。 8. 請求項7の方法であって、 前記第二の画像と前記第一の3次元的透視画像とを融合し、組合せ画像を表示 する工程、 をさらに含む、方法。 9. 3次元対象物の画像を生成するための装置であって、 記憶装置を有するコンピュータ、 前記コンピュータに接続した表示手段、 前記コンピュータに接続した入力手段、 前記コンピュータに接続され、ユーザーによって移動可能の指針手段、及び 前記コンピュータ及び前記指針手段に接続した位置追跡手 段であって、この位置追跡手段が、前記指針の位置及び方向を連続的に検出し、 この位置及び方向を前記コンピュータへ送る、位置追跡手段、 を含み、 前記コンピュータの記憶装置が、立体的な第一のスキャンデータを収納し、さ らに、プログラムを収納し、 このプログラムによって、前記コンピュータが、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用すること、 前記位置追跡手段によって検出された前記指針手段の位置及び方向であるべき 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための視点を 決定すること、 前記視点からの前記対象物の第一の3次元的透視画像を生成するために、前記 第一の仮想画像データを処理すること、及び 前記第一の3次元的透視画像を表示すること、 を行う、 ところの装置。 10. 請求項9の装置であって、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用することは、 前記対象物の選択した特徴を識別するために、前記第一の仮想画像データを分 割すること、 を含む、装置。 11. 請求項9の装置であって、 前記第一のスキャンデータで構造情報を表す第一の仮想画像データを再構成す るために、前記第一のスキャンデータを使用することは、 前記第一の仮想画像データで表される前記対象物の特徴の位置を決定するため に、前記対象物に関して前記第一の仮想画像データのレジストレーションを行う こと、 を含む、装置。 12. 請求項9の装置であって、 前記プログラムが、 前記第一の3次元的透視画像を表示することに続けて、 前記第一の仮想画像データに基づいた前記対象物の画像を表示するための他の 視点を選択すること、 前記他の視点からの前記対象物の第一の3次元的透視画像 を生成するために、前記第一の仮想画像データを処理すること、及び 前記第一の3次元的透視画像を表示すること、 を任意の所望とする回数だけ繰り返し、行う、 ところの装置。 13. 請求項9の装置であって、 前記プログラムが、 対象物の立体的な第二のスキャンデータを得ること、 前記第二のスキャンデータで構造情報を表す第二の仮想画像データを再構成す るために、前記第二のスキャンデータを使用すること、 前記仮想画像データに基づいた前記対象物の画像を表示するために選択した前 記視点と一致するように前記第二の仮想画像データに基づいた前記対象物の画像 を表示するための視点を決定すること、 前記視点からの前記対象物の第二の3次元的透視画像を生成するために、前記 第二の仮想画像データを処理すること、及び 前記第二の3次元的透視画像を表示すること、 をさらに行う、 ところの装置。 14. 請求項13の装置であって、 前記プログラムが、 前記第一の3次元的透視画像と、前記第二の3次元的透視画像とを融合し、組 合せ画像を表示すること、 をを行う、 ところの装置。 15. 請求項9の装置であって、 前記プログラムが、 対象物の第二のスキャンデータを得ること、 前記第二のスキャンデータで構造情報を表す第二の仮想画像データを再構成す るために、前記第二のスキャンデータを使用すること、 前記仮想画像データに基づいた前記対象物の画像を表示するために選択した前 記視点と一致するように前記第二の仮想画像に基づいた前記対象物の画像を表示 するための視点を決定すること、 前記視点からの前記対象物の第二の画像を生成するために、前記第二の仮想画 像データを処理すること、及び 前記第二の画像を表示すること、 を行う、 ところの装置。 16. 請求項15の装置であって、 前記プログラムが、 前記第二の画像と前記第一の3次元的透視画像とを融合し、組合せ画像を表示 すること、 を行う、 ところの装置。
JP50581699A 1997-06-27 1998-06-26 立体的画像ナビゲーション方法及び装置 Ceased JP2002510230A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US88428997A 1997-06-27 1997-06-27
US08/884,289 1997-06-27
PCT/US1998/013391 WO1999000052A1 (en) 1997-06-27 1998-06-26 Method and apparatus for volumetric image navigation

Publications (1)

Publication Number Publication Date
JP2002510230A true JP2002510230A (ja) 2002-04-02

Family

ID=25384329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP50581699A Ceased JP2002510230A (ja) 1997-06-27 1998-06-26 立体的画像ナビゲーション方法及び装置

Country Status (3)

Country Link
EP (1) EP0999785A4 (ja)
JP (1) JP2002510230A (ja)
WO (1) WO1999000052A1 (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005518854A (ja) * 2002-02-28 2005-06-30 ヒユーストン・ステレオタクテイク・コンセプツ・インコーポレーテツド 位置的ガイダンスシステムからの可聴式フイードバック
JP2005211531A (ja) * 2004-01-30 2005-08-11 Olympus Corp バーチャル画像表示装置
JP2005529701A (ja) * 2002-06-18 2005-10-06 ボストン サイエンティフィック リミテッド 撮像装置の撮像パターンのコンピュータで生成した表示
JP2007050254A (ja) * 2005-08-17 2007-03-01 General Electric Co <Ge> 外科的画像データのリアルタイムの統合及び記録
JP2007304269A (ja) * 2006-05-10 2007-11-22 Kawasumi Lab Inc 頭部模型
JP2008093438A (ja) * 2006-10-12 2008-04-24 General Electric Co <Ge> 内視鏡を較正するためのシステム及び方法
JP2008541859A (ja) * 2005-05-23 2008-11-27 ザ ペン ステイト リサーチ ファンデーション 3d−2d姿勢推定に基づく案内方法及び生の気管支鏡検査への応用を有する3d−ctレジストレーション
JP2008284144A (ja) * 2007-05-17 2008-11-27 Hitachi Medical Corp 超音波治療等におけるリファレンス像表示方法及び超音波装置
JP2009018184A (ja) * 2001-02-13 2009-01-29 Mediguide Ltd 医療用撮像兼ナビゲーションシステム
JP2009273521A (ja) * 2008-05-12 2009-11-26 Niigata Univ 関節鏡手術ナビゲーションシステム
JP2010503439A (ja) * 2006-09-13 2010-02-04 ネクスティム リミテッド ナビゲーション脳刺激時に提示された対象を表示するために用いられる座標系の相互表示における誤差を補正するための方法及び機器
JP2010099471A (ja) * 2008-10-21 2010-05-06 Humanscan Co Ltd 患者位置監視装置
JP2011092687A (ja) * 2009-09-30 2011-05-12 Fujifilm Corp 診断支援システム、診断支援プログラムおよび診断支援方法
JP4728456B1 (ja) * 2010-02-22 2011-07-20 オリンパスメディカルシステムズ株式会社 医療機器
JP2011193885A (ja) * 2010-03-17 2011-10-06 Fujifilm Corp 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
WO2013027571A1 (ja) * 2011-08-19 2013-02-28 株式会社 東芝 超音波診断装置、医用画像処理装置および医用画像処理方法
JP2013509273A (ja) * 2009-10-30 2013-03-14 ザ・ジョンズ・ホプキンス・ユニバーシティー 外科的介入のための臨床上重要な解剖学的標識点の視覚的追跡/アノテーション
JP2015501183A (ja) * 2011-10-26 2015-01-15 コーニンクレッカ フィリップス エヌ ヴェ 血管ツリー画像の内視鏡的位置合わせ
JP2017086917A (ja) * 2015-11-16 2017-05-25 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. Ct画像に対して局所的に適用される透過法
KR20190024196A (ko) * 2017-08-31 2019-03-08 (주)레벨소프트 수술용 네비게이터를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
KR20200026850A (ko) * 2020-02-26 2020-03-11 (주)레벨소프트 수술용 네비게이터를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
US11183295B2 (en) 2017-08-31 2021-11-23 Gmeditec Co., Ltd. Medical image processing apparatus and medical image processing method which are for medical navigation device
JP2022502194A (ja) * 2018-10-04 2022-01-11 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 解剖学的境界を規定するためのグラフィカルユーザインターフェイス
JP2022521171A (ja) * 2019-02-12 2022-04-06 インテュイティブ サージカル オペレーションズ, インコーポレイテッド コンピュータ支援手術システムの手術セッション中の撮像デバイス視点の最適化を容易にするシステム及び方法

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6556695B1 (en) * 1999-02-05 2003-04-29 Mayo Foundation For Medical Education And Research Method for producing high resolution real-time images, of structure and function during medical procedures
CA2370960C (en) * 1999-04-20 2006-06-13 Synthes (U.S.A.) Device for the percutaneous obtainment of 3d-coordinates on the surface of a human or animal organ
US9572519B2 (en) 1999-05-18 2017-02-21 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
US7386339B2 (en) 1999-05-18 2008-06-10 Mediguide Ltd. Medical imaging and navigation system
JP4633210B2 (ja) * 1999-11-02 2011-02-16 オリンパス株式会社 手術用顕微鏡装置
AU4305201A (en) 1999-11-29 2001-06-04 Board Of Trustees Of The Leland Stanford Junior University Method and apparatus for transforming view orientations in image-guided surgery
DE19958407A1 (de) * 1999-12-02 2001-06-07 Philips Corp Intellectual Pty Anordnung zur Darstellung von Schichtbildern
ES2249316T3 (es) * 1999-12-10 2006-04-01 Iscience Corporation Tratamiento de patologias oculares.
US20010025183A1 (en) 2000-02-25 2001-09-27 Ramin Shahidi Methods and apparatuses for maintaining a trajectory in sterotaxi for tracking a target inside a body
FR2807549B1 (fr) * 2000-04-06 2004-10-01 Ge Med Sys Global Tech Co Llc Procede de traitement d'une image et dispositif associe
JP2001293006A (ja) * 2000-04-11 2001-10-23 Olympus Optical Co Ltd 手術ナビゲーション装置
DE1154380T1 (de) * 2000-05-11 2002-05-23 Mtt Medical Technology Transfer Ag, Freiburg Verfahren zum Simulieren eines Fluges durch Voxelvolumen
EP1315465A2 (en) 2000-09-07 2003-06-04 Cbyon, Inc. Virtual fluoroscopic system and method
US6907281B2 (en) 2000-09-07 2005-06-14 Ge Medical Systems Fast mapping of volumetric density data onto a two-dimensional screen
EP1365686A4 (en) 2000-09-23 2009-12-02 Ramin Shahidi METHOD AND SYSTEM FOR ENDOSCOPIC TARGETING
JP2002119507A (ja) * 2000-10-17 2002-04-23 Toshiba Corp 医用装置および医用画像収集表示方法
US6573891B1 (en) * 2000-10-23 2003-06-03 Siemens Corporate Research, Inc. Method for accelerating the generation and display of volume-rendered cut-away-views of three-dimensional images
JP5030335B2 (ja) * 2001-03-06 2012-09-19 オリンパス株式会社 医用画像表示装置
JP2003079637A (ja) * 2001-09-13 2003-03-18 Hitachi Medical Corp 手術ナビゲーションシステム
US6892090B2 (en) * 2002-08-19 2005-05-10 Surgical Navigation Technologies, Inc. Method and apparatus for virtual endoscopy
DE10252837B4 (de) * 2002-11-13 2005-03-24 Carl Zeiss Untersuchungssystem und Untersuchungsverfahren
US20060257006A1 (en) * 2003-08-21 2006-11-16 Koninklijke Philips Electronics N.V. Device and method for combined display of angiograms and current x-ray images
WO2006067676A2 (en) * 2004-12-20 2006-06-29 Koninklijke Philips Electronics N.V. Visualization of a tracked interventional device
US9789608B2 (en) * 2006-06-29 2017-10-17 Intuitive Surgical Operations, Inc. Synthetic representation of a surgical robot
DE102005051405B4 (de) * 2005-10-27 2007-08-23 Forschungszentrum Dresden - Rossendorf E.V. Messsensor
US8401620B2 (en) 2006-10-16 2013-03-19 Perfint Healthcare Private Limited Needle positioning apparatus and method
US8989842B2 (en) 2007-05-16 2015-03-24 General Electric Company System and method to register a tracking system with intracardiac echocardiography (ICE) imaging system
JP5859431B2 (ja) 2009-06-08 2016-02-10 エムアールアイ・インターヴェンションズ,インコーポレイテッド 準リアルタイムで可撓性体内装置を追跡し、動的視覚化を生成することができるmri誘導介入システム
WO2010148083A2 (en) 2009-06-16 2010-12-23 Surgivision, Inc. Mri-guided devices and mri-guided interventional systems that can track and generate dynamic visualizations of the devices in near real time
US20120190970A1 (en) 2010-11-10 2012-07-26 Gnanasekar Velusamy Apparatus and method for stabilizing a needle
CN105979879B (zh) * 2014-01-24 2023-01-17 皇家飞利浦有限公司 具有光学形状感测设备视角的虚拟图像

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4722056A (en) * 1986-02-18 1988-01-26 Trustees Of Dartmouth College Reference display systems for superimposing a tomagraphic image onto the focal plane of an operating microscope
CA2260688A1 (en) * 1989-11-21 1991-05-21 I.S.G. Technologies, Inc. Probe-correlated viewing of anatomical image data
US5261404A (en) * 1991-07-08 1993-11-16 Mick Peter R Three-dimensional mammal anatomy imaging system and method
EP1219259B1 (en) * 1993-04-22 2003-07-16 Image Guided Technologies, Inc. System for locating relative positions of objects
ATE252349T1 (de) * 1994-09-15 2003-11-15 Visualization Technology Inc System zur positionserfassung mittels einer an einem patientenkopf angebrachten referenzeinheit zur anwendung im medizinischen gebiet
US5776050A (en) * 1995-07-24 1998-07-07 Medical Media Systems Anatomical visualization system

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009018184A (ja) * 2001-02-13 2009-01-29 Mediguide Ltd 医療用撮像兼ナビゲーションシステム
JP2005518854A (ja) * 2002-02-28 2005-06-30 ヒユーストン・ステレオタクテイク・コンセプツ・インコーポレーテツド 位置的ガイダンスシステムからの可聴式フイードバック
JP2005529701A (ja) * 2002-06-18 2005-10-06 ボストン サイエンティフィック リミテッド 撮像装置の撮像パターンのコンピュータで生成した表示
JP4533638B2 (ja) * 2004-01-30 2010-09-01 オリンパス株式会社 バーチャル画像表示システム
JP2005211531A (ja) * 2004-01-30 2005-08-11 Olympus Corp バーチャル画像表示装置
JP2008541859A (ja) * 2005-05-23 2008-11-27 ザ ペン ステイト リサーチ ファンデーション 3d−2d姿勢推定に基づく案内方法及び生の気管支鏡検査への応用を有する3d−ctレジストレーション
JP2007050254A (ja) * 2005-08-17 2007-03-01 General Electric Co <Ge> 外科的画像データのリアルタイムの統合及び記録
JP2007304269A (ja) * 2006-05-10 2007-11-22 Kawasumi Lab Inc 頭部模型
JP2010503439A (ja) * 2006-09-13 2010-02-04 ネクスティム リミテッド ナビゲーション脳刺激時に提示された対象を表示するために用いられる座標系の相互表示における誤差を補正するための方法及び機器
JP2008093438A (ja) * 2006-10-12 2008-04-24 General Electric Co <Ge> 内視鏡を較正するためのシステム及び方法
JP2008284144A (ja) * 2007-05-17 2008-11-27 Hitachi Medical Corp 超音波治療等におけるリファレンス像表示方法及び超音波装置
JP2009273521A (ja) * 2008-05-12 2009-11-26 Niigata Univ 関節鏡手術ナビゲーションシステム
JP2010099471A (ja) * 2008-10-21 2010-05-06 Humanscan Co Ltd 患者位置監視装置
JP2011092687A (ja) * 2009-09-30 2011-05-12 Fujifilm Corp 診断支援システム、診断支援プログラムおよび診断支援方法
US9814392B2 (en) 2009-10-30 2017-11-14 The Johns Hopkins University Visual tracking and annotaton of clinically important anatomical landmarks for surgical interventions
JP2013509273A (ja) * 2009-10-30 2013-03-14 ザ・ジョンズ・ホプキンス・ユニバーシティー 外科的介入のための臨床上重要な解剖学的標識点の視覚的追跡/アノテーション
JP4728456B1 (ja) * 2010-02-22 2011-07-20 オリンパスメディカルシステムズ株式会社 医療機器
JP2011193885A (ja) * 2010-03-17 2011-10-06 Fujifilm Corp 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
WO2013027571A1 (ja) * 2011-08-19 2013-02-28 株式会社 東芝 超音波診断装置、医用画像処理装置および医用画像処理方法
JP2013059610A (ja) * 2011-08-19 2013-04-04 Toshiba Corp 超音波診断装置、医用画像処理装置および医用画像処理プログラム
US10456106B2 (en) 2011-08-19 2019-10-29 Toshiba Medical Systems Corporation Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing method
JP2015501183A (ja) * 2011-10-26 2015-01-15 コーニンクレッカ フィリップス エヌ ヴェ 血管ツリー画像の内視鏡的位置合わせ
JP2017086917A (ja) * 2015-11-16 2017-05-25 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. Ct画像に対して局所的に適用される透過法
JP7051286B2 (ja) 2015-11-16 2022-04-11 バイオセンス・ウエブスター・(イスラエル)・リミテッド Ct画像に対して局所的に適用される透過法
KR20190024196A (ko) * 2017-08-31 2019-03-08 (주)레벨소프트 수술용 네비게이터를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
KR102084251B1 (ko) * 2017-08-31 2020-03-03 (주)레벨소프트 수술용 네비게이터를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
US11676706B2 (en) 2017-08-31 2023-06-13 Gmeditec Co., Ltd. Medical image processing apparatus and medical image processing method which are for medical navigation device
US11183295B2 (en) 2017-08-31 2021-11-23 Gmeditec Co., Ltd. Medical image processing apparatus and medical image processing method which are for medical navigation device
JP2022502194A (ja) * 2018-10-04 2022-01-11 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 解剖学的境界を規定するためのグラフィカルユーザインターフェイス
JP7478143B2 (ja) 2018-10-04 2024-05-02 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 解剖学的境界を規定するためのグラフィカルユーザインターフェイス
JP2022521171A (ja) * 2019-02-12 2022-04-06 インテュイティブ サージカル オペレーションズ, インコーポレイテッド コンピュータ支援手術システムの手術セッション中の撮像デバイス視点の最適化を容易にするシステム及び方法
JP7494196B2 (ja) 2019-02-12 2024-06-03 インテュイティブ サージカル オペレーションズ, インコーポレイテッド コンピュータ支援手術システムの手術セッション中の撮像デバイス視点の最適化を容易にするシステム及び方法
KR102208577B1 (ko) 2020-02-26 2021-01-27 (주)레벨소프트 수술용 네비게이터를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
KR20200026850A (ko) * 2020-02-26 2020-03-11 (주)레벨소프트 수술용 네비게이터를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법

Also Published As

Publication number Publication date
WO1999000052A1 (en) 1999-01-07
EP0999785A4 (en) 2007-04-25
EP0999785A1 (en) 2000-05-17

Similar Documents

Publication Publication Date Title
JP2002510230A (ja) 立体的画像ナビゲーション方法及び装置
US6591130B2 (en) Method of image-enhanced endoscopy at a patient site
US11464575B2 (en) Systems, methods, apparatuses, and computer-readable media for image guided surgery
US20230233264A1 (en) Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US6690960B2 (en) Video-based surgical targeting system
US10398513B2 (en) Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
EP0741540B1 (en) Imaging device and method
US6049622A (en) Graphic navigational guides for accurate image orientation and navigation
EP2951779B1 (en) Three-dimensional image segmentation based on a two-dimensional image information
RU2707369C1 (ru) Способ подготовки и выполнения хирургической операции с использованием дополненной реальности и комплекс оборудования для её осуществления
WO1998038908A1 (en) Imaging device and method
JP2003509145A (ja) 医療画像をリアルタイムに描画する方法
JPH08280710A (ja) 実時間医用装置及び患者に医用手順を遂行するために操作者を支援する方法
Adams et al. An optical navigator for brain surgery
Stetten et al. C-Mode Real-time Tomographic Reflection for a Matrix Array Ultrasound Sonic Flashlight1

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050331

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080708

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20081008

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20081117

A313 Final decision of rejection without a dissenting response from the applicant

Free format text: JAPANESE INTERMEDIATE CODE: A313

Effective date: 20090217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090421