Nothing Special   »   [go: up one dir, main page]

JP6233913B2 - 内視鏡向けナビゲーション装置 - Google Patents

内視鏡向けナビゲーション装置 Download PDF

Info

Publication number
JP6233913B2
JP6233913B2 JP2013000661A JP2013000661A JP6233913B2 JP 6233913 B2 JP6233913 B2 JP 6233913B2 JP 2013000661 A JP2013000661 A JP 2013000661A JP 2013000661 A JP2013000661 A JP 2013000661A JP 6233913 B2 JP6233913 B2 JP 6233913B2
Authority
JP
Japan
Prior art keywords
endoscope
navigation
image
recognition
recognition marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013000661A
Other languages
English (en)
Other versions
JP2014131551A (ja
Inventor
晃 竹林
晃 竹林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2013000661A priority Critical patent/JP6233913B2/ja
Publication of JP2014131551A publication Critical patent/JP2014131551A/ja
Application granted granted Critical
Publication of JP6233913B2 publication Critical patent/JP6233913B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Endoscopes (AREA)

Description

本発明は、手術、処置、検査等に使用する内視鏡をナビゲーションする内視鏡向けナビゲーション装置に関する。
内視鏡(腹腔鏡、神経内視鏡を含む)を使用する手術、処置、検査等(以下、適宜単に「手術等」という。)において、術前に撮影した患者のCT(コンピュータ断層撮影装置)画像データ(DICOMデータ)を医用画像処理ソフトウェアに読み込んで患者の立体的CT画像を作製し、この中から罹患部位の位置を特定し、これを仮想内視鏡などのソフトウェアの画面上に表示して、この画像を参考にしながら手術等を行っている。
しかし、内視鏡を使用する手術等においては、複雑に分岐する血管や気管、消化器管の内面からの画像に基づいて目的部位に素早く到達するには、術者に充分な経験とスキルが要求される。そのため、さまざまな支援装置が開発されている。
その代表的なものは、内視鏡先端の現在位置を外部から表示するX線透視装置(X線TV)である(例えば、特許文献1〜3参照)。このX線透視装置で内視鏡先端の現在位置を確認しながら目的部位の手術等を行うものである。
特開2010−172350号公報 特開2008−029692号公報 特開平10−272093号公報
しかし、上述のX線透視装置には、以下のような問題がある。
(1)X線被曝量が大きいため、手術等の時間的制約がある。
(2)術前のCT画像で特定した目的部位の位置が必ずしも容易には見つからない。
そこで、本発明の目的は、X線被曝することなく内視鏡の先端位置を外部から表示することが可能で、術前のCT画像で特定した目的部位へ内視鏡が容易に到達することを可能にする内視鏡向けナビゲーション装置を提供することにある。
請求項1に係る発明は、内視鏡向けナビゲーション装置において、患者の管状の臓器の内側に挿入されて前記臓器の内側を撮影する内視鏡と、前記内視鏡が撮影中の映像を表示する表示装置と、前もって撮影済みのCT画像に基づいて前記臓器の内側の特定部位をAR認識用マーカとして予め登録し、前記内視鏡が撮影中の映像内の特定部位を予め登録された前記AR認識用マーカとして認識するとともに、認識した前記AR認識用マーカの位置及び姿勢に基づいて前記AR認識用マーカとの3次元的位置関係を保持しつつ、前記内視鏡のナビゲーション情報を、前記内視鏡が撮影中の前記臓器の内側の映像に重畳して前記表示装置に表示するAR画像処理装置と、を備え、前記ナビゲーション情報は、前記特定部位が前記AR認識用マーカが登録された分岐点であり、前記内視鏡が誤った経路に分岐した場合、前記誤った経路の前記分岐点よりも下流側に、別なAR認識用マーカを登録しておき、前記内視鏡が前記別なAR認識用マーカを撮影して前記AR画像処理装置がこれを認識した際に、誤った経路であることを示すナビゲーション情報である、ことを特徴とする。
ここで、ARとはAugmented Reality(拡張現実)の略称で、実写映像という現実情報に位置情報などの仮想情報を付加して情報の質や量を拡張することを意味する。
請求項2に係る発明は、請求項1に係る内視鏡向けナビゲーション装置において、前記内視鏡の先端部の移動経路に沿って複数の前記特定部位が、それぞれ前記AR認識用マーカとして予め登録されている、ことを特徴とする。
請求項3に係る発明は、請求項1又は2に係る内視鏡向けナビゲーション装置において、前記表示装置として、ヘッドマウント型のディスプレイを使用する、ことを特徴とする。
請求項4に係る発明は、請求項1ないし3のいずれか1項に係る内視鏡向けナビゲーション装置において、前記AR画像処理装置として3次元の空間構造を認識して記憶する機能を有するものを使用する、ことを特徴とする。
請求項1の発明によれば、内視鏡のナビゲーション情報、例えば、内視鏡先端の現在位置や目的部位への道標、目的部位における罹患組織の形などの必要な情報が、患者の管状の臓器(例えば、血管、気管、消化器管など)の内側(内面)の映像に重畳して表示装置に表示されるので、術者は表示されたナビゲーション情報に従って(ガイドされて)容易に内視鏡の先端部を目的部位へ到達させることができるとともに目的部位の手術、処置、検査等を比較的容易に行うことが可能となる。また、上述したX線透視装置とは異なり、X線は使用しないので、X線被曝が発生することはなく、手術時間等についての制約がない。
また、例えば、分岐点において誤った経路に分岐してしまった場合、誤った経路における、比較的分岐点に近い部位に、予め別なAR用認識用マーカを登録しておき、内視鏡がこのAR認識用マーカを撮影して、AR画像処理装置がこれを認識した際に、AR画像処理装置により、内視鏡が撮影中の映像に、誤った経路である旨を術者に伝えるナビゲーション情報を表示することができる。これにより、術者は速やかに現在の経路が誤った経路であることが分かり、速やかに正しい経路に戻ることができる。
請求項2の発明によれば、内視鏡の先端部を目的部位に、より確実に到達させることができる。
請求項3の発明によれば、内視鏡のナビゲーション情報がヘッドマウント型のディスプ
レイ上に表示されるので、術者は視点を移動させる必要がなく手術、処置、検査等に集中
することができる。
請求項4の発明によれば、内視鏡の映像から3次元の空間構造を認識して記憶する機能
(3Dマッピング機能)を有するため、内視鏡の先端部の現在位置や経路を確認すること
ができる。

内視鏡向けナビゲーション装置10の概要構成を説明する図である。 (A)は仮想内視鏡において、内視鏡の先端部15が特定部位(目的部位)Gに至るまでの経路Pを説明する図であり、(B)は特定部位(分岐点)CnにおけるAR認識用マーカMnを示す図であり、(C)は特定部位(目的部位)GにおけるAR認識用マーカMgを示す図である。 (A)は仮想内視鏡において、内視鏡の先端部15が特定部位(分岐点)Cnに到達したようすを説明する図であり、(B)は特定部位(分岐点)Cnにおける映像Lnとナビゲーション情報(立体画像)Snとが重畳されたようすを説明する図であり、(C)は内視鏡の先端部15が特定部位(目的部位)Gに到達したようすを説明する図であり、(D)は特定部位(目的部位)Gにおける映像Lgとナビゲーション情報(立体画像)Sgとが重畳されたようすを説明する図である。 (A)は仮想内視鏡において、内視鏡の先端部15が特定部位(目的部位)Gに至るまでの経路Pを説明する図であり、(B)は特定部位(複雑な部位)CnにおけるAR認識用マーカMnを示す図であり、(C)は特定部位(目的部位)GにおけるAR認識用マーカMgを示す図である。 (A)は仮想内視鏡において、内視鏡の先端部15が特定部位(複雑な部位)Cnに到達したようすを説明する図であり、(B)は特定部位(複雑な部位)Cnにおける映像Lnとナビゲーション情報(立体画像)Snとが重畳されたようすを説明する図であり、(C)内視鏡の先端部15が特定部位(目的部位)Gに到達したようすを説明する図であり、(D)は特定部位(目的部位)Gにおける映像Lgとナビゲーション情報(立体画像)Sgとが重畳されたようすを説明する図である。
以下、本発明を適用した実施形態を、図面に基づいて詳述する。なお、各図面において、同じ符号を付した部材等は、同一又は類似の構成のものであり、これらについての重複説明は適宜省略するものとする。また、各図面においては、説明に不要な部材等は適宜、図示を省略している。
<実施形態1>
図1〜図3を参照して本発明を適用した実施形態1に係る内視鏡向けナビゲーション装置10について説明する。
図1は、内視鏡向けナビゲーション装置10の概要構成を説明する図である。
内視鏡向けナビゲーション装置10は、図1に示すように、内視鏡11と、ヘッドマウント型のディスプレイ12と、AR画像処理装置17と、を備えて構成されている。
内視鏡11としては、例えば、光ファイバーを使用したフレキシブルタイプの電子式内視鏡を使用することができる。内視鏡の先端部15にはレンズが取り付けられており、また、基端部16には、レンズ及び光ファイバーを介して導いた光を受光する受光部、及び内視鏡11を操作するための操作部が設けられている。
なお、内視鏡11として、先端部15に小型のCCDカメラを取り付けたものを使用するようにしてもよい。
AR画像処理装置17は、内視鏡11及びヘッドマウント型のディスプレイ12と接続されており、画像認識ソフトウェア13及びARソフトウェア14がインストールされたコンピュータのハードウェアとして構成されている。また、AR画像処理装置17は3次元の空間構造を認識して記憶する機能(3Dマッピング機能)を有するものである。
ここで、ARソフトウェア14とは、3Dオブジェクトとして取り込んだ立体画像を、内視鏡11が撮影中の映像内のAR認識用マーカの位置及び姿勢に基づいて座標変換して、このAR認識用マーカとの3次元的位置関係を保ちながら、内視鏡11が撮影中の映像にリアルタイムでナビゲーション情報Snとして重畳してディスプレイ12に表示するソフトウェアである。
次に、上述構成の内視鏡向けナビゲーション装置10の作用(操作手順)について説明する。
ここでは、臓器Zの内側(内壁)Zaの内視鏡の先端部15の経路(移動経路)Pに沿って設けられた複数の特定部位C1,C2,C3,…,Cn(nは自然数)が、「分岐点」である場合について説明する。
図2(A)は仮想内視鏡において、内視鏡の先端部15が特定部位(目的部位)Gに至るまでの経路Pを説明する図であり、(B)は特定部位(分岐点)CnにおけるAR認識用マーカMnを示す図であり、(C)は特定部位(目的部位)GにおけるAR認識用マーカMgを示す図である。
図3(A)は仮想内視鏡において、内視鏡の先端部15が特定部位(分岐点)Cnに到達したようすを説明する図であり、(B)は特定部位(分岐点)Cnにおける映像Lnとナビゲーション情報(立体画像)Snとが重畳されたようすを説明する図であり、(C)は内視鏡の先端部15が特定部位(目的部位)Gに到達したようすを説明する図であり、(D)は特定部位(目的部位)Gにおける映像Lgとナビゲーション情報(立体画像)Sgとが重畳されたようすを説明する図である。
(1)患者の、手術対象となる管状の臓器ZのCT撮影を行う。
(2)得られたCT画像データ(DICOMデータ)を医用画像処理ソフトウェアに読み込んで、このソフトウェアでボリュームレンダリングされた臓器Zの立体的CT画像Aを得る。
(3)立体的CT画像Aを使用して手術等の対象となる特定部位(目的部位)Gの位置や形を特定するとともに、医用画像処理ソフトウェアの1つである仮想内視鏡を使用して臓器Zの内側Zaに特定部位(目的部位)Gにいたる最良の経路(移動経路)Pを求める。
(4)図2に示すように、経路Pの途中における分岐点などの特定部位C1,C2,C3,…,Cn,Gを決め、医用画像処理ソフトウェアの仮想内視鏡の画像により求めた特定部位C1,C2,C3,…,Cn,Gの画像をAR画像処理装置17によりAR認識用マーカM1,M2,M3,…,Mn,Mgとして登録する。
(5)AR認識用マーカM1,M2,M3,…,Mn,Mgのそれぞれに対応した道標や内視鏡の先端部15の現在位置、特定部位(目的部位)Gにおける罹患組織の形などのナビゲーション情報S1,S2,S3,…,Sn,Sgを3DオブジェクトとしてAR画像処理装置17に取り込む。
上述の特定部位(分岐点)Cnにおける道標としては、例えば、図3(B)に示すように進行方向を示す矢印を採用することができる。なお、矢印に加え、さらに、注意事項等を表示するようにしてもよい。また、特定部位(目的部位)Gの道標としては、図3(D)に示すように罹患組織の形や部位を明確にする着色等を採用することができる。
以上で術前の準備は完了する。
(6)患者の臓器Zの内側Zaに内視鏡11を挿入し、図3に示すように、内視鏡の先端部15が経路Pに沿った特定部位(分岐点)C1,C2,C3,…,Cnに順次に到達すると、内視鏡11によって映し出された映像L1,L2,L3,…,LnからAR画像処理装置17がAR認識用マーカM1,M2,M3,…,Mnとしてこれらを順次認識し、AR画像処理装置17によりそれぞれに対応したナビゲーション情報S1,S2,S3,…,Snが、臓器Zの内側Zaの映像L1,L2,L3,…,Lnに重畳されてヘッドマウント型のディスプレイ12上に表示される。
(7)術者はこれらのナビゲーション情報S1,S2,S3,…,Snをガイドとして内視鏡の先端部15を進行させて行く。この間、AR画像処理装置17の3次元の空間構造を認識する機能(3Dマッピング機能)により、ヘッドマウント型のディスプレイ12上の片隅に表示されたマップMP(図3(A)参照)により内視鏡11の先端部15の現在位置や経路Pを確認することができる。なお、図3(C)、図5(A),(C)では、マップMPの図示は省略している。
(8)内視鏡の先端部15が特定部位(目的部位)Gに達するとAR画像処理装置17がAR認識用マーカMgとしてこれを認識し、AR画像処理装置17によりナビゲーション情報Sgが、臓器Zの内側Zaの映像Lgに重畳されてヘッドマウント型のディスプレイ12上に表示される。
(9)術者は、ナビゲーション情報Sgを参考として特定部位(目的部位)Gの手術等を行う。
次に、図4(A)〜(C)、図5(A)〜(D)を参照して、臓器Zの内側Zaの特定部位C1,C2,C3,…,Cnが複雑に入り組んだ部位(例えば、腸の内壁)、また、特定部位Gが目的部位である場合について説明する。
ここで、図4(A)は仮想内視鏡において、内視鏡の先端部15が特定部位(目的部位)Gに至るまでの経路Pを説明する図であり、(B)は特定部位(複雑な部位)CnにおけるAR認識用マーカMnを示す図であり、(C)は特定部位(目的部位)GにおけるAR認識用マーカMgを示す図である。
図5(A)は仮想内視鏡において、内視鏡の先端部15が特定部位(複雑な部位)Cnに到達したようすを説明する図であり、(B)は特定部位(複雑な部位)Cnにおける映像Lnとナビゲーション情報(立体画像)Snとが重畳されたようすを説明する図であり、(C)は内視鏡の先端部15が特定部位(目的部位)Gに到達したようすを説明する図であり、(D)は特定部位(目的部位)Gにおける映像Lgとナビゲーション情報(立体画像)Sgとが重畳されたようすを説明する図である。
なお、上述の図2,図3を参照して説明した内容と同じ内容については、同じ符号を付して説明は省略するものとする。
内視鏡11が挿入される患者の臓器Zが、例えば腸である場合、その内側Zaが複雑な形状で入り組んでいて、例えば、図4(B)の特定部位CnのAR認識用マーカMn、図5(B)の内視鏡の先端部15が撮影中に映像Lnからも明らかなように、内視鏡の先端部15のその後の進行方向が不明りょうである。
そこで、図5(B)に示すように、内視鏡の先端部15のその後の進行方向についてのナビゲーション情報Snを、内視鏡11が撮影中の映像Lnに、ディスプレイ12(図1参照)上で重畳させて表示することにより、内視鏡の先端部15の進行方向を誤らないように、明確に指示することができる。
また、同様に、図4(C),図5(D)に示すように、臓器Zの内側Zaにできた腫瘍等の特定部位(目的部位)Gも複雑な形状の内側Zaに阻まれて確認が困難であるが、内視鏡11が撮影中の特定部位(目的部位)Gの映像Lgに、特定部位(目的部位)Gのナビゲーション情報Sgとして、例えば着色された映像を重畳するようにすれば、特定部位(目的部位)Gを間違うことなく、確定することができる。
以上説明した内視鏡向けナビゲーション装置10によると、以下のような効果を奏する。
(1)内視鏡の先端部15の現在位置や特定部位(目的部位)Gへの道標、特定部位(目的部位)Gにおける罹患組織の形などの必要なナビゲーション情報が、患者の管状の臓器Z(血管、気管、消化器管など)の内側Zaの映像に重畳してヘッドマウント型のディスプレイ12に表示されるので、術者は容易に内視鏡の先端部15を特定部位(目的部位)Gへ到達させることができるとともに特定部位Gの手術等(手術、処置、検査など)を比較的容易に行うことが可能となる。
(2)従来のX線透視装置を利用する場合と異なり、X線の被曝がまったくない。
以上説明した、特定部位Cnが分岐点である場合、次のようなナビゲーション情報Snを、内視鏡11が撮影中の映像に重畳表示するようにしてもよい。
例えば、特定部位Cnとしての分岐点の形状が複雑で、誤った経路に分岐してしまうおそれがある場合、誤った経路における、比較的分岐点に近い部位に、予め別なAR認識用マーカMx(不図示)を登録しておき、内視鏡11がこのAR認識用マーカMxを撮影して、AR画像処理装置17がこれを認識した際に、AR画像処理装置17により、内視鏡11が撮影中の映像に、誤った経路である旨を術者に伝えるナビゲーション情報Sx(不図示)を表示する。
これにより、術者は、速やかに現在の経路が誤った経路であることが分かり、速やかに
正しい経路Pに戻ることができる。
(3)AR画像処理装置17は内視鏡11の映像から3次元の空間構造を認識して記憶する機能(3Dマッピング機能)を有するので、内視鏡の先端部15の現在位置や経路を示すマップMPをヘッドマウント型のディスプレイ12の片隅に表示して確認することができる。
10 内視鏡向けナビゲーション装置
11 内視鏡
12 ディスプレイ(表示装置)
13 画像認識ソフトウェア
14 ARソフトウェア
15 内視鏡の先端部
17 AR画像処理装置
C1,C2,C3,…,Cn
分岐点(特定部位)
G 目的部位(特定部位)
L1,L2,L3,…,Ln,Lg
内視鏡11の映像
M1,M2,M3,…,Mn,Mg
AR認識用マーカ
S1,S2,S3,…,Sn,Sg
ナビゲーション情報
Z 臓器
Za 臓器の内側

Claims (4)

  1. 患者の管状の臓器の内側に挿入されて前記臓器の内側を撮影する内視鏡と、
    前記内視鏡が撮影中の映像を表示する表示装置と、
    前もって撮影済みのCT画像に基づいて前記臓器の内側の特定部位をAR認識用マーカとして予め登録し、前記内視鏡が撮影中の映像内の特定部位を予め登録された前記AR認識用マーカとして認識するとともに、認識した前記AR認識用マーカの位置及び姿勢に基づいて前記AR認識用マーカとの3次元的位置関係を保持しつつ、前記内視鏡のナビゲーション情報を、前記内視鏡が撮影中の前記臓器の内側の映像に重畳して前記表示装置に表示するAR画像処理装置と、を備え、
    前記ナビゲーション情報は、前記特定部位が前記AR認識用マーカが登録された分岐点であり、前記内視鏡が誤った経路に分岐した場合、前記誤った経路の前記分岐点よりも下流側に、別なAR認識用マーカを登録しておき、前記内視鏡が前記別なAR認識用マーカを撮影して前記AR画像処理装置がこれを認識した際に、誤った経路であることを示すナビゲーション情報である、
    ことを特徴とする内視鏡向けナビゲーション装置。
  2. 前記内視鏡の先端部の移動経路に沿って複数の前記特定部位が、それぞれ前記AR認識用マーカとして予め登録されている、
    ことを特徴とする請求項1に記載の内視鏡向けナビゲーション装置。
  3. 前記表示装置として、ヘッドマウント型のディスプレイを使用する、
    ことを特徴とする請求項1又は2に記載の内視鏡向けナビゲーション装置。
  4. 前記AR画像処理装置として3次元の空間構造を認識して記憶する機能を有するものを使用する、
    ことを特徴とする請求項1ないし3のいずれか1項に記載の内視鏡向けナビゲーション装置。
JP2013000661A 2013-01-07 2013-01-07 内視鏡向けナビゲーション装置 Expired - Fee Related JP6233913B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013000661A JP6233913B2 (ja) 2013-01-07 2013-01-07 内視鏡向けナビゲーション装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013000661A JP6233913B2 (ja) 2013-01-07 2013-01-07 内視鏡向けナビゲーション装置

Publications (2)

Publication Number Publication Date
JP2014131551A JP2014131551A (ja) 2014-07-17
JP6233913B2 true JP6233913B2 (ja) 2017-11-22

Family

ID=51410953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013000661A Expired - Fee Related JP6233913B2 (ja) 2013-01-07 2013-01-07 内視鏡向けナビゲーション装置

Country Status (1)

Country Link
JP (1) JP6233913B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106805934B (zh) * 2017-01-20 2019-05-07 杭州无创光电有限公司 增强现实无线电子内窥镜手术系统
JP6828465B2 (ja) 2017-01-30 2021-02-10 セイコーエプソン株式会社 内視鏡操作支援システム
US11058497B2 (en) * 2017-12-26 2021-07-13 Biosense Webster (Israel) Ltd. Use of augmented reality to assist navigation during medical procedures
CN108766504B (zh) * 2018-06-15 2021-10-22 上海理工大学 一种手术导航系统的人因评价方法
CN110706164A (zh) * 2019-09-03 2020-01-17 北京爱博同心医学科技有限公司 基于增强现实的管状视野图像变形显示方法及眼镜
CN112465763B (zh) * 2020-11-24 2024-10-01 深圳开立生物医疗科技股份有限公司 一种图像处理方法、装置、设备、介质和内窥镜系统
CN117017494B (zh) * 2023-08-29 2024-06-11 哈尔滨海鸿基业科技发展有限公司 一种淋巴静脉吻合术的成像导航系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4171833B2 (ja) * 2002-03-19 2008-10-29 国立大学法人東京工業大学 内視鏡誘導装置および方法
JP4009639B2 (ja) * 2002-07-31 2007-11-21 オリンパス株式会社 内視鏡装置、内視鏡装置のナビゲーション方法、内視鏡画像の表示方法、及び内視鏡用画像表示プログラム
JP2005211532A (ja) * 2004-01-30 2005-08-11 Olympus Corp 内視鏡手術システム
JP3820244B2 (ja) * 2003-10-29 2006-09-13 オリンパス株式会社 挿入支援システム
JP2007029232A (ja) * 2005-07-25 2007-02-08 Hitachi Medical Corp 内視鏡手術操作支援システム
JP5028191B2 (ja) * 2007-09-03 2012-09-19 オリンパスメディカルシステムズ株式会社 内視鏡装置
JP4922107B2 (ja) * 2007-09-03 2012-04-25 オリンパスメディカルシステムズ株式会社 内視鏡装置
CN102740755B (zh) * 2010-02-22 2015-04-22 奥林巴斯医疗株式会社 医疗设备

Also Published As

Publication number Publication date
JP2014131551A (ja) 2014-07-17

Similar Documents

Publication Publication Date Title
JP6233913B2 (ja) 内視鏡向けナビゲーション装置
US11800970B2 (en) Computerized tomography (CT) image correction using position and direction (P and D) tracking assisted optical visualization
US20210196393A1 (en) Dynamic 3d lung map view for tool navigation inside the lung
US11026747B2 (en) Endoscopic view of invasive procedures in narrow passages
US9782198B2 (en) Localization of robotic remote center of motion point using custom trocar
US10772684B2 (en) Spatial visualization of internal mammary artery during minimally invasive bypass surgery
JP5380348B2 (ja) 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
US20130250081A1 (en) System and method for determining camera angles by using virtual planes derived from actual images
US20150010225A1 (en) Invisible bifurcation detection within vessel tree images
JP2010517632A (ja) 内視鏡の継続的案内のためのシステム
JP2013039274A (ja) 画像処理表示装置及び画像処理表示プログラム
US20160066768A1 (en) Robotic control of an endoscope from anatomical features
US10951837B2 (en) Generating a stereoscopic representation
EP2584952A1 (en) System and method for real-time endoscope calibration
JP2014131552A (ja) 医療支援装置
US20220202500A1 (en) Intraluminal navigation using ghost instrument information
CN118475310A (zh) 使用机械连杆的定位系统配准
JP5613353B2 (ja) 医療装置
Chen et al. Video-guided calibration of an augmented reality mobile C-arm
KR20200132174A (ko) 증강현실 대장 내시경 시스템 및 이를 이용한 모니터링 방법
US20240156549A1 (en) Cavity modeling system and cavity modeling method
WO2023235224A1 (en) Systems and methods for robotic endoscope with integrated tool-in-lesion-tomosynthesis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171020

R150 Certificate of patent or registration of utility model

Ref document number: 6233913

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees