JP5906200B2 - Automatic placement of imaging planes in ultrasound imaging - Google Patents
Automatic placement of imaging planes in ultrasound imaging Download PDFInfo
- Publication number
- JP5906200B2 JP5906200B2 JP2012557634A JP2012557634A JP5906200B2 JP 5906200 B2 JP5906200 B2 JP 5906200B2 JP 2012557634 A JP2012557634 A JP 2012557634A JP 2012557634 A JP2012557634 A JP 2012557634A JP 5906200 B2 JP5906200 B2 JP 5906200B2
- Authority
- JP
- Japan
- Prior art keywords
- interventional
- dimensional image
- interventional object
- image
- longitudinal direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 58
- 238000012285 ultrasound imaging Methods 0.000 title claims description 17
- 238000000034 method Methods 0.000 claims description 30
- 238000004458 analytical method Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 3
- 238000002604 ultrasonography Methods 0.000 description 16
- 239000011159 matrix material Substances 0.000 description 4
- 239000003550 marker Substances 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000013152 interventional procedure Methods 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000010317 ablation therapy Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000007674 radiofrequency ablation Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 238000009991 scouring Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0833—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0833—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
- A61B8/0841—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
- A61B8/14—Echo-tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/463—Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/523—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/062—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Description
本発明は、互いに交差する少なくとも2つの2次元画像を用いる超音波撮像に関する方法、斯かる方法を実行するよう構成される超音波撮像デバイス、斯かる超音波撮像デバイスを含むシステム、斯かる方法を実行するコンピュータプログラム、及び斯かるコンピュータプログラムを格納するコンピュータ可読媒体に関する。 The present invention relates to a method for ultrasound imaging using at least two two-dimensional images intersecting each other, an ultrasound imaging device configured to carry out such a method, a system comprising such an ultrasound imaging device, and such a method. The present invention relates to a computer program to be executed, and a computer-readable medium storing such a computer program.
リアルタイム超音波は、例えば生検及び局所切除治療法(無線周波数切除を含む)といった介入的な手順を誘導するため、日常的に用いられる。メカニカル及びマトリクストランスデューサにおけるリアルタイムのマルチプラナ再構成(MPR)及びバイプレーン(bi-plane)超音波の最近の導入により、任意の平面においてリアルタイム生体構造情報を集めることが現在は可能である。バイプレーン超音波撮像において、2つの撮像平面が生成される。この平面は共に、トランスデューサのアクティブ開口と交差する。MPRは、生の画像データのセットから2次元画像を再構成する方法である。即ち、横断断面画像のセットから、異なる方向を持つ任意の画像が計算されることができる。例えば、正面、矢状又は傾斜断面画像である。MPRにおいて、トランスデューサ開口と交差しない、そのように決定された撮像平面は、C平面と呼ばれる。 Real-time ultrasound is routinely used to guide interventional procedures such as biopsy and local ablation therapy (including radio frequency ablation). With the recent introduction of real-time multiplanar reconstruction (MPR) and bi-plane ultrasound in mechanical and matrix transducers, it is now possible to collect real-time anatomy information in any plane. In biplane ultrasound imaging, two imaging planes are generated. Both planes intersect the transducer active aperture. MPR is a method for reconstructing a two-dimensional image from a set of raw image data. That is, any image with a different direction can be calculated from the set of cross-sectional images. For example, it is a front, sagittal or inclined cross-sectional image. In MPR, the imaging plane so determined that does not intersect the transducer aperture is called the C plane.
US2007/0073155A1号は、患者に針を挿入する前に、2次元超音波画像の撮像平面における針の目的地を調節可能に決めるコンパクトな超音波針誘導システム及び方法を記載する。このシステムにおいて、持針器は、検査の被写体の2次元画像を取得する超音波プローブに提供される。挿入の間、針の方向が変化しないと仮定すると、持針器の位置及び従って針の方向が分かれば、2次元画像と針との交差ポイントが決定されることができる。この交差ポイントは、ディスプレイ上に2次元画像を表示するときマークされることができる。しかしながら、このシステムは使用の際あまり柔軟でない。その結果、代替的な撮像方法及びシステムに対する必要性が存在する。 US2007 / 0073155A1 describes a compact ultrasonic needle guidance system and method that determines the needle destination in the imaging plane of a two-dimensional ultrasonic image to be adjustable before inserting the needle into a patient. In this system, a needle holder is provided for an ultrasound probe that acquires a two-dimensional image of a subject to be examined. Assuming that the direction of the needle does not change during insertion, knowing the position of the needle holder and thus the direction of the needle, the intersection point of the two-dimensional image and the needle can be determined. This intersection point can be marked when displaying a two-dimensional image on the display. However, this system is not very flexible in use. As a result, there is a need for alternative imaging methods and systems.
本発明の目的は、超音波撮像に関する代替的な方法及びシステムを提供することである。 An object of the present invention is to provide an alternative method and system for ultrasound imaging.
上記目的は、独立請求項に記載の方法及びシステムを用いて解決される。更なる有利な発展は、従属項に記載される。 The object is solved using the method and system described in the independent claims. Further advantageous developments are described in the dependent claims.
本発明のある実施形態によれば、超音波撮像に関する方法が提供される。そこでは、検査の対象物、例えば患者に含まれるターゲット領域へと移動される介入的な対象物、好ましくは針の長手方向と整列配置される第1の2次元画像が取得される。この整列は、介入的な対象物の長手軸が、実質的に又は正確に第1の画像の撮像平面に含まれることを意味する。更に、第1の2次元画像が取得される前又は後に、介入的な対象物の位置及び方向が自動的に決定される。このオーダーは、位置及び方向が決定される方法に依存する。好ましくは、これは、画像特徴解析を用いて、又は介入的な対象物を電磁気に追跡することにより、又は光学センサによる位置の決定により、実行されることができる。画像特徴解析を用いる場合、又は光学センサによる決定の場合、介入的な対象物の位置は、任意の画像を取得する前に決定されることができる。画像特徴解析を用いるとき、介入的な対象物の位置を決定する基礎として、少なくとも1つの画像が取得されなければならない。介入的な対象物の位置及び方向に基づき、第2の2次元画像の位置が、自動的に決定され、第2の2次元画像が取得される。第2の2次元画像は、介入的な対象物の長手方向と交差し、好ましくは、第1及び第2の画像の撮像平面は互いに垂直である。MPRが用いられる場合、介入的な対象物の長手軸に対しても垂直であるよう、C平面が選択される。「取得する」という用語は、バイプレーン超音波の場合において、トランスデューサ及びデータプロセッサを用いて画像を取得することを含むことができ、MPRの場合において、利用可能なデータベースから所望の画像を取得することを含むことができる。同様に、「取得デバイス」という用語は、トランスデューサだけでなく、利用可能なデータベースから所望の画像を取得するコンピュータ又はデータプロセッサのモジュールを含むことができる。 According to an embodiment of the invention, a method for ultrasound imaging is provided. There, an object to be examined, for example an interventional object that is moved to a target area included in a patient, is acquired, preferably a first two-dimensional image aligned with the longitudinal direction of the needle. This alignment means that the longitudinal axis of the interventional object is substantially or exactly included in the imaging plane of the first image. Furthermore, the position and orientation of the interventional object is automatically determined before or after the first two-dimensional image is acquired. This order depends on how the position and direction are determined. Preferably, this can be performed using image feature analysis, or by electromagnetically tracking an interventional object, or by position determination with an optical sensor. When using image feature analysis, or when determined by an optical sensor, the position of the interventional object can be determined prior to acquiring any image. When using image feature analysis, at least one image must be acquired as the basis for determining the location of the interventional object. Based on the position and direction of the interventional object, the position of the second two-dimensional image is automatically determined, and the second two-dimensional image is acquired. The second two-dimensional image intersects the longitudinal direction of the interventional object, and preferably the imaging planes of the first and second images are perpendicular to each other. When MPR is used, the C-plane is selected so that it is also perpendicular to the longitudinal axis of the interventional object. The term “acquire” can include acquiring images using a transducer and data processor in the case of biplane ultrasound, and in the case of MPR, acquiring the desired image from an available database. Can be included. Similarly, the term “acquisition device” can include not only transducers, but also modules of a computer or data processor that acquire a desired image from an available database.
この実施形態は、移動される介入的な対象物の運動が自動的に追跡されることを可能にする。その結果、検査下の対象物の所望の撮像が、表示されることができる。ここで、この撮像は、介入的な対象物の運動に対して固定される。こうして、撮像システムの処理は、より少ない参加者を必要とし、例えば外科医といったユーザは、他の作業に更に集中することができる。誘導のための真のリアルタイム撮像モダリティを提供するという点で、超音波は、コンピュータ断層撮影法(CT)に対して有利である。これにより、ターゲット領域に対して針を誘導するとき、介入放射線医により多くの自信が提供される。 This embodiment allows the movement of a moving interventional object to be automatically tracked. As a result, a desired image of the object under inspection can be displayed. Here, this imaging is fixed with respect to interventional object movement. Thus, the processing of the imaging system requires fewer participants and the user, for example a surgeon, can concentrate more on other tasks. Ultrasound is advantageous over computed tomography (CT) in that it provides a true real-time imaging modality for guidance. This provides more confidence to the interventional radiologist when guiding the needle against the target area.
更なる実施形態によれば、ある方法が提供され、そこでは、上記介入的な対象物の位置及び方向を決定するステップが、上記介入的な対象物の先端、特に針の先端の位置を決定するステップを含み、上記第2の画像が、上記先端の前方へ所定の距離分を遠ざけられるよう、上記第2の画像の位置が決定される。 According to a further embodiment, a method is provided, wherein the step of determining the position and orientation of the interventional object determines the position of the interventional object tip, in particular the needle tip. The position of the second image is determined such that the second image is moved a predetermined distance forward of the tip.
この点で、本発明の発明者らは、従来の方法及びシステムを用いるとき、介入的な対象物がその軌跡に沿ってどの障壁に遭遇するかについてユーザが良好な概要を得ていないことに気づいた。こうして、「仮想内視鏡」が超音波撮像デバイスに提供される。好ましくは、この方法は、平面が常に針先端のわずかに前方にあるよう、C平面(MPRが用いられるとき)又は横断平面(バイプレーン超音波を用いるとき)を調整するステップを含む。MPRを用いるとき、針シャフトは好ましくは常にC平面に垂直である。この撮像平面構成は特に、針先端の前方の即時的な景色に関する情報をユーザに提供する。これは、例えば主血管に当たることを回避するため、必要に応じてユーザが針軌跡を予想及び調整することを可能にする。 In this regard, the inventors of the present invention have found that when using conventional methods and systems, the user does not get a good overview of which barriers the interventional object encounters along its trajectory. Noticed. Thus, a “virtual endoscope” is provided for the ultrasound imaging device. Preferably, the method includes adjusting the C-plane (when MPR is used) or the transverse plane (when using bi-plane ultrasound) so that the plane is always slightly forward of the needle tip. When using MPR, the needle shaft is preferably always perpendicular to the C-plane. This imaging plane configuration particularly provides the user with information regarding the immediate scenery in front of the needle tip. This allows the user to anticipate and adjust the needle trajectory as needed, for example to avoid hitting the main blood vessel.
さらに他の実施形態によれば、上記介入的な対象物の位置及び方向が、反復的に決定され、上記第2の画像の位置が、上記介入的な対象物の変化する位置及び/又は方向に対して適合される。こうして、介入的な対象物が移動される間距離が一定に保たれるよう、介入的な対象物の位置及び上記調整の実行が定期的に追跡される。こうして、介入的な対象物が挿入される間、ユーザは景色情報の更新を得る。この更新は、所定の時間間隔内でリアルタイムに実行されることができる。 According to yet another embodiment, the position and direction of the interventional object is iteratively determined, and the position of the second image is determined by the changing position and / or direction of the interventional object. Is adapted to. Thus, the position of the interventional object and the execution of the adjustment are periodically tracked so that the distance remains constant while the interventional object is moved. Thus, the user gets an update of the landscape information while the interventional object is inserted. This update can be performed in real time within a predetermined time interval.
更なる実施形態によれば、この方法は完全に自動的である。一方、別の実施形態では、例えば、所望の距離の入力を要求することにより、この方法はユーザと相互作用する。 According to a further embodiment, the method is completely automatic. On the other hand, in another embodiment, the method interacts with the user, for example by requesting the input of the desired distance.
さらに他の実施形態によれば、この方法は、針先端の前の異なる距離に配置される複数の横断方向の平面を取得及び表示するステップを有する。ユーザは、現在の方向において針を保つ場合に、針の前の経路に何があるかについての追加的な概要を得ることができる。 According to yet another embodiment, the method includes obtaining and displaying a plurality of transverse planes that are located at different distances in front of the needle tip. The user can get an additional overview of what is in the path before the needle when keeping the needle in the current direction.
更に、本発明は、上記方法の少なくとも1つを実行するよう構成される超音波撮像デバイス、斯かる方法を実行するコンピュータプログラム、及び斯かるコンピュータプログラムを格納するコンピュータ可読媒体を提供する。これらはすべて、上述した実施形態と同じ利点を提供する。 Furthermore, the present invention provides an ultrasound imaging device configured to perform at least one of the above methods, a computer program for performing such a method, and a computer readable medium storing such a computer program. All these provide the same advantages as the embodiments described above.
本発明の要旨は、関心領域を含む少なくとも2つの撮像平面の表示を可能にする超音波信号が取得される方法を提供することと見られることができる。これらの撮像平面の1つは、針の主軸と整列配置され、他の平面は、これに対する横断方向にあり、針先端の前の所定の距離に配置される。 The gist of the present invention can be seen as providing a method by which ultrasound signals are acquired that allow the display of at least two imaging planes including the region of interest. One of these imaging planes is aligned with the main axis of the needle, and the other plane is transverse to it and positioned at a predetermined distance in front of the needle tip.
本発明のこれら及び他の側面が、以下に説明される実施形態から明らかとなり、これらの実施形態を参照して説明されることになる。 These and other aspects of the invention will be apparent from and will be elucidated with reference to the embodiments described hereinafter.
図1aは、本発明のある実施形態による撮像システム1を概略的に示す。図1aは、3次元表示における2つの撮像平面を更に示し、図1bは、トランスデューサのアクティブ開口から見られる、針の長手方向軸を含む平面に沿ったこれらの撮像平面の上面図投影を示す。図1a及び図1bは、バイプレーン超音波撮像の場合を例示的に示す。しかしながら、本発明の教示は、マルチプラナ再構成(MPR)においても同様に適用可能である。MPR及びバイプレーン超音波撮像において、少なくとも2つの垂直な撮像平面を同時に表示することが可能である。1つに平面は、例えば医療針といった介入デバイスの主軸に沿ったものであり、別の平面は、図1bの上面図において、介入デバイスの主軸に垂直に存在する。斯かる構成は、リアルタイム超音波誘導下で、ターゲット病巣へと介入デバイスを誘導するとき有益である。
FIG. 1a schematically illustrates an
図1aは、第1の撮像平面8、例えば方位角の平面に含まれる超音波信号を送信及び受信するトランスデューサ2を示す。更に、第2の撮像平面9に含まれる超音波信号を送信及び受信するトランスデューサ2が提供される。例えば、バイプレーン超音波の場合、横断平面又はバイプレーンが用いられ、MPRの場合、C平面が用いられる。トランスデューサ2は好ましくは、2Dアレイ・マトリクストランスデューサである。斯かる2Dアレイ・マトリクストランスデューサは、検査される対象物に面する表面上に、例えばチェス盤又はセグメント化されたリング状の態様で構成されるトランスデューサ要素のアレイを有する。これらのトランスデューサ要素の各々はそれ自身の送信受信チャネルを具備する。こうして、個別のトランスデューサ要素が、個別に制御されることができる。それらを適宜駆動することにより、結果として生じる超音波ビームは、傾けられる、(垂直軸又はトランスデューサのセンタービームに沿った軸の周りで)回転される、及び、以前のデバイスのようにトランスデューサを物理的に回転させる必要なしに、電子的に焦束されることができる。トランスデューサ2は、トランスデューサ2を制御するよう構成されるデータプロセッサ4に接続される。更に、データプロセッサ4は、トランスデューサ2により取得される超音波信号に対応する、それぞれ撮像平面8及び9に含まれる2次元画像10及び11を再構成する。画像10及び11は、例えば患者(図示省略)といった検査の対象物の再構成を提供する。対象物の特定のターゲット領域7、例えばターゲット病巣は、少なくとも第1の撮像平面8により交差される。これらの画像10及び11は、データプロセッサ4に接続されるディスプレイ5により表示可能である。また、撮像システム1は、撮像システム1を操作するためユーザに提供されるユーザインタフェース6を有する。
FIG. 1 a shows a transducer 2 that transmits and receives ultrasound signals contained in a
図1aは、針13を更に示す。この針は、他の任意の介入デバイスとすることもできる。第1の撮像平面8は、針13の長手方向軸14に揃えられるよう配置される。即ちこの長手軸は、第1の撮像平面8に含まれる。例えば従来技術において既知の形状認識アルゴリズムといった画像特徴解析を少なくとも第1の画像10に適用することにより、針13の位置及び方向、特にシャフト方向及び針先端15の位置が、画像10において自動的に認識されることができる。この目的のため、データプロセッサ4は、特徴解析方法を実行することができ、従って検出デバイスとして機能することができる。
FIG. 1 a further shows the
代替的な態様において、針13の位置及び方向、特にシャフト方向及び針先端15の位置は、自動先端追跡機能を実現するTraxtal, Inc.により導入される電磁気針先端追跡といった電磁気追跡により自動的に認識される。この目的のため、従来技術から知られるように、別々の電磁追跡デバイスが提供されなければならない。これらのデバイスは、データプロセッサ4に接続される。
In an alternative embodiment, the position and orientation of the
この情報は、第2の撮像平面9の位置及び/又は方向を決定するために、リアルタイムに用いられる。その結果、針先端15と、長手軸14が第2の撮像平面9と交差するポイントとの間の長手軸14に沿った距離である距離16分、針先端15のわずかに前方にこの平面が進められる。図1bにおいて、上面図への距離16の投影が示される。この場合、斯かる投影も、関連する距離として用いられることができる。この距離16は、トランスデューサ2の個別のトランスデューサ要素を制御することによりセットされることができる。その結果、結果として生じる超音波ビームが、垂直軸又はトランスデューサの中央ビームに沿った軸の周りで回転され、及び、傾き動作が、参照符号17でマークされる矢印により示されるように実現されるよう、軸12の周りで傾斜される。参照符号18は、第1及び第2の撮像平面の交差ラインを示す。MPRを用いる場合、第2の撮像平面9は、長手軸14に垂直であるよう追加的に選ばれることができる。針先端15及び第2の撮像平面9の間の好ましい距離は、必要に応じて針軌跡に対する調整をするのに十分な時間をユーザに与えるようなものにされるべきである。好ましい距離は、数ミリメートルから数センチメートルの間のいずれかである。この距離はより好ましくは、1〜5mmの範囲にあり、撮像システムにより自動的及び反復的に決定されるか、一度自動的に決定され、撮像手順の間一定に保たれるか、ユーザインタフェース6を用いてユーザにより決定されるかのいずれかである。この距離が自動的に決定される場合、それは、介入的な対象物のタイプ、介入的な対象物の移動する速度、検査の対象物及び/又はターゲット領域のタイプに基づき決定されることができる。この文脈において、実施形態は、第2の撮像平面9及び針先端15の間の距離を特定するために、ユーザ又はオペレータに対する革新的なインタフェースを有する。例えば、ユーザは、センチメートル又はミリメータで所望の距離を入力するよう促されることができる。この距離が入力されると、針先端15の所望の距離分前方で第2の撮像平面9を取得及び表示するため、撮像システムが起動される。
This information is used in real time to determine the position and / or orientation of the second imaging plane 9. As a result, this plane is slightly forward of the
針13の位置及び/又は方向を持つことで、長手軸16が第2の撮像平面9と交差するポイントが、ディスプレイ5に表示されるとき、取得された第2の画像11においてマークされることができる。使用の際、撮像平面8及び9は、生の超音波画像を実現するため、針の運動に追従することになる。マーカーは、例えば十字線により又は交差ポイントを囲む円により、生の超音波画像上に重畳される。こうして、針の予想された経路が表示されることができる。
By having the position and / or direction of the
本実施形態において、針先端15及びシャフト方向に関する情報は、トランスデューサ2(超音波スキャナ又はビーム形成器)をリアルタイムに駆動し、及び第2の撮像平面9(横断面)がどのように作成されるかを決定する。超音波撮像システム1がMPRモード(これは、4次元又はC平面モードができる)で動作するとき、トランスデューサは位置/方向を決定される必要がない。なぜなら、撮像平面の全てが集められているからである。この場合、調整はMPR画像再構成ステップに適用される。これは、超音波システム撮像システム上又は外部コンピュータ上で行われることができる。
In the present embodiment, information regarding the
上記に対する精練は、例えば周囲の生体構造といった検査の対象に関して針の軌跡がどのようなものになるかを予想することができるよう、針先端15へと平面を戻すため又は針先端15から平面を遠ざけるため、ユーザ又はオペレータが、針シャフトに沿って第2の撮像平面9を素早くスライドすることを可能にする。
The scouring with respect to the above is performed in order to return the plane to the
図2は、示された方法ステップを参照して、第2の撮像平面9の自動位置決めを行う上記の説明された方法を示すフローチャートである。この図において、針13の位置及び方向が、バイプレーン撮像を行うとき、画像特徴解析を用いて決定される場合が示される。第1のステップS100において、ユーザは、針13のシャフトに沿って、第1の撮像平面8を整列配置する。この目的のため、第1の画像10がディスプレイ5に表示される。この第1の撮像平面8は、針先端15も示す。その結果、次のステップS101において、画像特徴解析の適用により、針13の位置及び方向が決定される。最初に第1の画像8に垂直な(及びトランスデューサのアクティブ開口から見られる上面図において針シャフトに垂直な)追加的な画像が、ユーザにより針先端15に配置されるとき、より正確な位置及び方向データが実現されることができる。代替的に、ユーザによる第1の撮像平面8の整列に対して、この整列は、画像を取得し、針の存在、位置及び方向に対する特徴解析方法により画像を解析し、第1の撮像平面8の位置を更新し、及び針13が正確に長手軸14と整列配置されるまで、これを繰り返すことにより、自動的に実現されることができる。
FIG. 2 is a flow chart illustrating the above described method for automatic positioning of the second imaging plane 9 with reference to the indicated method steps. This figure shows a case where the position and direction of the
針13の決定された位置及び方向に基づき、及び特にシャフト方向及び針先端15の位置に基づき、ステップS102において、第2の撮像平面9の位置が自動的に決定される。この情報に基づき、第2のトランスデューサ3が、上記したように配置されることができる(例えば、傾けられる)。ステップS103において、第2の撮像平面9に含まれる画像が取得されることができる。この画像は、針13の予想された経路、即ち針先端15の所定の距離前方の画像を示す。ステップS104において、この第2の画像9はディスプレイ5に表示される。この場合、介入的な対象物の長手方向と第2の画像との交差がマークされる。少なくともステップS101〜S104は、針13の運動を追跡し、これに従って第2の撮像平面9の位置を適合させるため、反復的に実行される。また、第1のステップS100は、第1の画像10が第1の撮像平面10と整列配置される状態が保たれることを確実にするため、毎回、数時間おきに又は針の方向を変化させるとき、反復ループへと含まれることができる。
Based on the determined position and direction of the
針13の電磁気追跡を用いるとき、ステップS100及びS101の実行順が交換される。この場合、針13の位置及び方向が最初に決定される。この情報に基づき、第1及び第2の画像10及び11が実質的に同時に取得されることができる。ここで、第1の画像は、針13と整列配置され、第2の画像11は、針先端15の前で所定の距離分遠ざけられる。
When using electromagnetic tracking of the
この実施形態の変形例によれば、及び好ましくはMPR撮像に関連して、針が遭遇する何が、その軌跡を同じに留めるべきかに関するより多くの情報をユーザに提供するため、複数のC平面が同時に表示される。例えば、各C平面は、針シャフトに垂直とすることができ、針先端15の前方所与の距離のところに配置される。例えば、第1のC平面は、針先端15の前方2mmの所に配置され、第2のC平面は、針先端の前方5mmの所に配置され、第3のC平面は、針先端の前方20mmの所に配置される等である。針先端15の前方に存在する検査下の対象物の構造に関しユーザに提供される追加的な情報は、例えば主要な血管にあたることを避けるため、針の軌跡を初期に訂正するのに更に役に立つ。これは、バイプレーン超音波撮像を用いて実現されることもできる。この場合、複数の横断平面が、C平面の代わりに提供される。
According to a variation of this embodiment, and preferably in connection with MPR imaging, a plurality of C's are provided to provide the user with more information regarding what the needle encounters should keep its trajectory the same. A plane is displayed at the same time. For example, each C-plane can be perpendicular to the needle shaft and is located at a given distance in front of the
針先端15の前のこれらの複数の画像が、ディスプレイ5に表示されることができる。この場合、例えば十字線又は円といったマーカーは、それぞれ、針15の長手方向軸と交差する個別の表示と針15の長手方向軸との交差を示す。この接続において、針の長手方向軸又は投影された針の先端の軌跡は、赤い点又は赤い円として複数のC平面上に表示されることができる。この点又は円は、針先端15が実際に所与のC平面に接近するにつれて、より小さくなる。
These multiple images in front of the
針先端15の前のこれらの複数の画像は、ビデオシーケンスへと統合されることができる。こうして、外科医は、介入的な手順を中断し、針先端15の前で画像のビデオシーケンスを再生することができる。このように、オペレータは、針先端15の前方へ配置されるC平面のシーケンスを記録し、針軌跡を計画するためシーケンスを再生することができる。言い換えると、マーカーのサイズ及び/又は表示は、距離16に依存するものとすることができる。針を動かすとき、C平面の取得が数秒おき(例えば3秒おき)に繰り返される場合、マーカーの円は、継続的により小さくなり、取得が繰り返されるとき、突然大きくなる。
These multiple images in front of the
有利には、革新的なユーザインタフェース6が提供されることができる。このインタフェースを用いて、ユーザは、ディスプレイ5上に、第2の撮像平面9及び針先端15の間の距離16、ディスプレイ5に表示される横断平面/C平面の数(第2の平面+針13の長手方向と交差する追加的な面の総数)、及び針先端15に対する横断平面/C平面の位置を入力することができる。
Advantageously, an innovative user interface 6 can be provided. Using this interface, the user can see on the display 5 the distance 16 between the second imaging plane 9 and the
上記実施形態は、2Dアレイ・マトリクストランスデューサを参照することによって説明された。しかしながら、本発明は、圧電素子のアレイが関心ボリュームにわたり前後に機械的にスキャンされるような、機械的なトランスデューサを用いることで実現されることもできる。また、各撮像平面に対する別々のトランスデューサが可能である。 The above embodiments have been described with reference to 2D array matrix transducers. However, the present invention can also be realized by using mechanical transducers in which an array of piezoelectric elements is mechanically scanned back and forth across the volume of interest. Also, separate transducers for each imaging plane are possible.
本発明の教示は、上述の実施形態又は変形例の任意の組合せをカバーすることが明確に意図される。 The teachings of the present invention are specifically intended to cover any combination of the above-described embodiments or variations.
本発明が図面及び前述の記載において図示及び説明されたが、斯かる図示及び説明は、説明的又は例示的であると考えられるべきであり、拘束的なものではなく、本発明を開示された実施形態に限定することを目的とするものではない。特定の手段が相互に異なる従属項に述べられているという単なる事実は、これらの手段の組み合わせが有利に使用されることができないことを意味するものではない。請求項における任意の参照符号は、本発明の範囲を限定するものとして解釈されるべきではない。 While the invention has been illustrated and described in the drawings and foregoing description, such illustration and description are to be considered illustrative or exemplary and not restrictive; the invention has been disclosed. It is not intended to be limited to the embodiments. The mere fact that certain measures are recited in mutually different dependent claims does not indicate that a combination of these measured cannot be used to advantage. Any reference signs in the claims should not be construed as limiting the scope of the invention.
Claims (12)
検査の対象物に含まれるターゲット領域へと移動される介入的な対象物の長手方向に沿って配置され、該長手方向を含む第1の2次元画像を取得するステップと、
前記介入的な対象物の前記長手方向と交差する第2の2次元画像を取得するステップであって、前記第2の2次元画像の位置が、前記介入的な対象物の自動的に決定される位置及び方向に基づき、自動的に決定される、ステップと、を有し、
前記介入的な対象物の位置及び方向の前記決定が、前記介入的な対象物の先端の位置を決定するステップを含み、
取得される前記第2の2次元画像の位置が、前記決定された先端の位置から前方に所定の距離隔てたところに決定され、
前記距離が、前記介入的な対象物のタイプ、前記介入的な対象物の移動する速度、前記検査の対象物及び/又は前記ターゲット領域のタイプに基づき、自動的に決定される、方法。 In a method relating to ultrasonic imaging,
Obtaining a first two-dimensional image disposed along and including the longitudinal direction of an interventional object that is moved to a target region included in the object to be examined;
Obtaining a second two-dimensional image intersecting the longitudinal direction of the interventional object, wherein a position of the second two-dimensional image is automatically determined of the interventional object. Automatically determined based on the position and direction of
Determining the position and orientation of the interventional object comprises determining a position of a tip of the interventional object;
A position of the acquired second two-dimensional image is determined at a predetermined distance from the determined tip position ;
The method wherein the distance is automatically determined based on the type of interventional object, the speed of movement of the interventional object, the type of object to be examined and / or the type of the target area .
前記少なくとも1つの追加的な画像が、前記第2の2次元画像から所定の間隔隔てられて配置される、請求項1又は2に記載の方法。 Obtaining at least one further two-dimensional image intersecting the longitudinal direction of the interventional object;
The method according to claim 1 or 2, wherein the at least one additional image is arranged at a predetermined distance from the second two-dimensional image.
前記介入的な対象物の長手方向と交差する前記第2の2次元画像は、前記ディスプレイスクリーンに表示される、請求項1に記載の方法。 A first two-dimensional image aligned with the longitudinal direction of the interventional object to be moved to the target area included in the object to be examined is displayed on the display screen,
The method of claim 1, wherein the second two-dimensional image intersecting a longitudinal direction of the interventional object is displayed on the display screen.
第1及び第2の2次元画像を取得する取得デバイスと、
検査の対象物に含まれるターゲット領域へと移動される介入的な対象物の位置及び方向を決定する検出デバイスとを有し、
前記第1の2次元画像が、前記介入的な対象物の長手方向に沿って配置され、該長手方向を含み、
前記第2の2次元画像は、前記介入的な対象物の長手方向と交差し、
前記取得デバイスが、前記介入的な対象物の位置及び方向に基づき、一の位置で前記第2の2次元画像を取得するよう構成され、
前記検出デバイスが、前記介入的な対象物の先端の位置を決定するよう構成され、
前記取得デバイスは、前記決定された先端の位置から前方に所定の距離隔てた位置において前記第2の2次元画像を取得し、前記距離が、前記介入的な対象物のタイプ、前記介入的な対象物の移動する速度、前記検査の対象物及び/又は前記ターゲット領域のタイプに基づき、自動的に決定される、超音波撮像デバイス。 An ultrasound imaging device,
An acquisition device for acquiring first and second two-dimensional images;
A detection device for determining the position and direction of an interventional object that is moved to a target area included in the object to be examined,
The first two-dimensional image is disposed along a longitudinal direction of the interventional object and includes the longitudinal direction;
The second two-dimensional image intersects the longitudinal direction of the interventional object;
The acquisition device is configured to acquire the second two-dimensional image at a position based on the position and orientation of the interventional object;
The detection device is configured to determine a position of a tip of the interventional object;
The acquisition device acquires the second two-dimensional image at a predetermined distance forward from the determined tip position, and the distance is determined by the interventional object type, the interventional An ultrasound imaging device , automatically determined based on a moving speed of an object, the object to be examined and / or the type of the target area .
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US31551510P | 2010-03-19 | 2010-03-19 | |
US61/315,515 | 2010-03-19 | ||
PCT/IB2011/050964 WO2011114259A1 (en) | 2010-03-19 | 2011-03-08 | Automatic positioning of imaging plane in ultrasonic imaging |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013521920A JP2013521920A (en) | 2013-06-13 |
JP5906200B2 true JP5906200B2 (en) | 2016-04-20 |
Family
ID=43920800
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012557634A Active JP5906200B2 (en) | 2010-03-19 | 2011-03-08 | Automatic placement of imaging planes in ultrasound imaging |
Country Status (5)
Country | Link |
---|---|
US (1) | US9256947B2 (en) |
EP (1) | EP2547262B1 (en) |
JP (1) | JP5906200B2 (en) |
CN (1) | CN102811666B (en) |
WO (1) | WO2011114259A1 (en) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10687785B2 (en) | 2005-05-12 | 2020-06-23 | The Trustees Of Columbia Univeristy In The City Of New York | System and method for electromechanical activation of arrhythmias |
WO2011035312A1 (en) | 2009-09-21 | 2011-03-24 | The Trustees Of Culumbia University In The City Of New York | Systems and methods for opening of a tissue barrier |
WO2010014977A1 (en) | 2008-08-01 | 2010-02-04 | The Trustees Of Columbia University In The City Of New York | Systems and methods for matching and imaging tissue characteristics |
JP5906200B2 (en) * | 2010-03-19 | 2016-04-20 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Automatic placement of imaging planes in ultrasound imaging |
WO2012162664A1 (en) | 2011-05-26 | 2012-11-29 | The Trustees Of Columbia University In The City Of New York | Systems and methods for opening of a tissue barrier in primates |
ES2670812T3 (en) | 2011-09-06 | 2018-06-01 | Ezono Ag | Magnetic medical device and magnetization device |
DE102012204134B4 (en) | 2012-03-16 | 2021-02-11 | Siemens Healthcare Gmbh | Method for the automatic determination of imaging planes and magnetic resonance system |
US10123767B2 (en) | 2012-06-28 | 2018-11-13 | Koninklijke Philips N.V. | Ultrasonic guidance of multiple invasive devices in three dimensions |
WO2014059170A1 (en) | 2012-10-10 | 2014-04-17 | The Trustees Of Columbia University In The City Of New York | Systems and methods for mechanical mapping of cardiac rhythm |
US20160270758A1 (en) | 2012-12-03 | 2016-09-22 | Koninklijke Philips N.V. | Integration of ultrasound and x-ray modalities |
US9257220B2 (en) | 2013-03-05 | 2016-02-09 | Ezono Ag | Magnetization device and method |
US9459087B2 (en) | 2013-03-05 | 2016-10-04 | Ezono Ag | Magnetic position detection system |
GB201303917D0 (en) | 2013-03-05 | 2013-04-17 | Ezono Ag | System for image guided procedure |
WO2014167467A1 (en) * | 2013-04-12 | 2014-10-16 | Koninklijke Philips N.V. | Imaging apparatus for brachytherapy or biopsy |
US9247921B2 (en) * | 2013-06-07 | 2016-02-02 | The Trustees Of Columbia University In The City Of New York | Systems and methods of high frame rate streaming for treatment monitoring |
US10322178B2 (en) | 2013-08-09 | 2019-06-18 | The Trustees Of Columbia University In The City Of New York | Systems and methods for targeted drug delivery |
US10028723B2 (en) | 2013-09-03 | 2018-07-24 | The Trustees Of Columbia University In The City Of New York | Systems and methods for real-time, transcranial monitoring of blood-brain barrier opening |
DE112015002885T5 (en) * | 2014-06-17 | 2017-03-16 | Koninklijke Philips N.V. | Guidance device for a TEE probe |
JP2017527401A (en) * | 2014-09-18 | 2017-09-21 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Ultrasonic imaging device |
EP3220828B1 (en) | 2014-11-18 | 2021-12-22 | C.R. Bard, Inc. | Ultrasound imaging system having automatic image presentation |
CN107106124B (en) | 2014-11-18 | 2021-01-08 | C·R·巴德公司 | Ultrasound imaging system with automatic image rendering |
US10772602B2 (en) | 2014-11-25 | 2020-09-15 | Koninklijke Philips N.V. | System for monitoring a use of a medical device |
EP3236859B1 (en) * | 2014-12-24 | 2021-03-31 | Koninklijke Philips N.V. | Needle trajectory prediction for target biopsy |
US10849650B2 (en) * | 2015-07-07 | 2020-12-01 | Eigen Health Services, Llc | Transperineal needle guidance |
CN109788940B (en) * | 2016-09-30 | 2022-12-02 | 皇家飞利浦有限公司 | Tracking features of an interventional device |
WO2018178274A1 (en) * | 2017-03-29 | 2018-10-04 | Koninklijke Philips N.V. | Embedded virtual light source in 3d volume linked to mpr view crosshairs |
US10299764B2 (en) * | 2017-05-10 | 2019-05-28 | General Electric Company | Method and system for enhanced visualization of moving structures with cross-plane ultrasound images |
EP3813711B1 (en) * | 2018-06-26 | 2022-05-11 | Koninklijke Philips N.V. | Optimal imaging point of view based on intervention instrument loading |
WO2021028416A1 (en) * | 2019-08-15 | 2021-02-18 | Koninklijke Philips N.V. | Steerable multi-plane ultrasound imaging system |
EP3808279A1 (en) * | 2019-10-14 | 2021-04-21 | Koninklijke Philips N.V. | Steerable multi-plane ultrasound imaging system |
WO2022198615A1 (en) * | 2021-03-26 | 2022-09-29 | 中国科学院深圳先进技术研究院 | Calibration method and system for dual-arm robot puncture system |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6438401B1 (en) * | 2000-04-28 | 2002-08-20 | Alpha Intervention Technology, Inc. | Indentification and quantification of needle displacement departures from treatment plan |
US6733458B1 (en) * | 2001-09-25 | 2004-05-11 | Acuson Corporation | Diagnostic medical ultrasound systems and methods using image based freehand needle guidance |
US20040106869A1 (en) | 2002-11-29 | 2004-06-03 | Ron-Tech Medical Ltd. | Ultrasound tracking device, system and method for intrabody guiding procedures |
US7270634B2 (en) * | 2003-03-27 | 2007-09-18 | Koninklijke Philips Electronics N.V. | Guidance of invasive medical devices by high resolution three dimensional ultrasonic imaging |
JP4828802B2 (en) | 2004-05-12 | 2011-11-30 | 株式会社東芝 | Ultrasonic diagnostic equipment for puncture therapy |
US7066887B2 (en) * | 2003-10-21 | 2006-06-27 | Vermon | Bi-plane ultrasonic probe |
US7604601B2 (en) | 2005-04-26 | 2009-10-20 | Biosense Webster, Inc. | Display of catheter tip with beam direction for ultrasound system |
JP2007000226A (en) * | 2005-06-22 | 2007-01-11 | Toshiba Corp | Medical image diagnostic apparatus |
DE102005041602A1 (en) * | 2005-09-01 | 2007-04-05 | Siemens Ag | Method for displaying a medical implant in an image and medical imaging system |
US8852111B2 (en) | 2005-09-02 | 2014-10-07 | Ultrasound Ventures, Llc | Ultrasound guidance system |
DE102005045602B4 (en) * | 2005-09-23 | 2017-07-13 | Siemens Healthcare Gmbh | A method of supporting interventional medical intervention |
US20070161905A1 (en) * | 2006-01-12 | 2007-07-12 | Gynesonics, Inc. | Intrauterine ultrasound and method for use |
JP2007190199A (en) | 2006-01-19 | 2007-08-02 | Toshiba Corp | X-ray ct apparatus |
US8939911B2 (en) * | 2006-01-25 | 2015-01-27 | Kabushiki Kaisha Toshiba | Ultrasonic probe and apparatus for obtaining ultrasonic image |
US9002433B2 (en) * | 2006-04-20 | 2015-04-07 | General Electric Company | System and method for image-based interventional device tracking and scan plane guidance |
JP2008061858A (en) * | 2006-09-08 | 2008-03-21 | Toshiba Corp | Puncture treatment navigation apparatus |
US8303502B2 (en) * | 2007-03-06 | 2012-11-06 | General Electric Company | Method and apparatus for tracking points in an ultrasound image |
JP5231840B2 (en) * | 2007-04-23 | 2013-07-10 | 株式会社東芝 | Ultrasonic diagnostic apparatus and control program |
US8241220B2 (en) * | 2007-05-21 | 2012-08-14 | Siemens Medical Solutions Usa, Inc. | Biplane ultrasound imaging and corresponding transducer |
JP2009018115A (en) * | 2007-07-13 | 2009-01-29 | Toshiba Corp | Three-dimensional ultrasonograph |
JP5095304B2 (en) * | 2007-08-21 | 2012-12-12 | 株式会社東芝 | Ultrasonic diagnostic equipment |
JP5269376B2 (en) * | 2007-09-28 | 2013-08-21 | 株式会社東芝 | Image display apparatus and X-ray diagnostic treatment apparatus |
JP5416900B2 (en) * | 2007-11-22 | 2014-02-12 | 株式会社東芝 | Ultrasonic diagnostic apparatus and puncture support control program |
JP5183518B2 (en) | 2008-03-11 | 2013-04-17 | キヤノン株式会社 | Image shake correction apparatus, optical apparatus including the same, and imaging apparatus |
IT1392888B1 (en) * | 2008-07-24 | 2012-04-02 | Esaote Spa | DEVICE AND METHOD OF GUIDANCE OF SURGICAL UTENSILS BY ECOGRAPHIC IMAGING. |
WO2010073165A1 (en) * | 2008-12-23 | 2010-07-01 | Koninklijke Philips Electronics, N.V. | Automated three dimensional acoustic imaging for medical procedure guidance |
US8690776B2 (en) * | 2009-02-17 | 2014-04-08 | Inneroptic Technology, Inc. | Systems, methods, apparatuses, and computer-readable media for image guided surgery |
US8449466B2 (en) * | 2009-05-28 | 2013-05-28 | Edwards Lifesciences Corporation | System and method for locating medical devices in vivo using ultrasound Doppler mode |
US20100312094A1 (en) * | 2009-06-08 | 2010-12-09 | Michael Guttman | Mri-guided surgical systems with preset scan planes |
US8663110B2 (en) * | 2009-11-17 | 2014-03-04 | Samsung Medison Co., Ltd. | Providing an optimal ultrasound image for interventional treatment in a medical system |
JP5906200B2 (en) * | 2010-03-19 | 2016-04-20 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Automatic placement of imaging planes in ultrasound imaging |
EP2385474A1 (en) * | 2010-05-07 | 2011-11-09 | TomTec Imaging Systems GmbH | Method for analysing medical data |
US8526691B2 (en) * | 2010-06-09 | 2013-09-03 | Siemens Aktiengesellschaft | System and method for passive medical device navigation under real-time MRI guidance |
-
2011
- 2011-03-08 JP JP2012557634A patent/JP5906200B2/en active Active
- 2011-03-08 CN CN201180014677.5A patent/CN102811666B/en active Active
- 2011-03-08 EP EP11713070.8A patent/EP2547262B1/en active Active
- 2011-03-08 WO PCT/IB2011/050964 patent/WO2011114259A1/en active Application Filing
- 2011-03-08 US US13/635,460 patent/US9256947B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2011114259A1 (en) | 2011-09-22 |
CN102811666A (en) | 2012-12-05 |
CN102811666B (en) | 2014-12-17 |
JP2013521920A (en) | 2013-06-13 |
EP2547262B1 (en) | 2014-10-29 |
US20130195313A1 (en) | 2013-08-01 |
EP2547262A1 (en) | 2013-01-23 |
US9256947B2 (en) | 2016-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5906200B2 (en) | Automatic placement of imaging planes in ultrasound imaging | |
US6511418B2 (en) | Apparatus and method for calibrating and endoscope | |
US6517478B2 (en) | Apparatus and method for calibrating an endoscope | |
US9282947B2 (en) | Imager focusing based on intraoperative data | |
US10905396B2 (en) | Ultrasound imaging system having automatic image presentation | |
US8165660B2 (en) | System and method for selecting a guidance mode for performing a percutaneous procedure | |
CN106163408B (en) | Image registration and guidance using simultaneous X-plane imaging | |
JP6629031B2 (en) | Ultrasound diagnostic device and medical image diagnostic device | |
EP3285674B1 (en) | Direct visualization of a device location | |
US20060189842A1 (en) | Method for using variable direction of view endoscopy in conjunction with image guided surgical systems | |
US20100111389A1 (en) | System and method for planning and guiding percutaneous procedures | |
US20140107473A1 (en) | Laser Guidance System for Interventions | |
JPH07148180A (en) | Position judgement system and method | |
JP2019503820A (en) | Guidance, tracking and guidance system for positioning surgical instruments within a patient's body | |
EP3968861B1 (en) | Ultrasound system and method for tracking movement of an object | |
EP3673854B1 (en) | Correcting medical scans | |
JP6952740B2 (en) | How to assist users, computer program products, data storage media, and imaging systems | |
US20230098305A1 (en) | Systems and methods to produce tissue imaging biomarkers | |
JP4510415B2 (en) | Computer-aided display method for 3D objects | |
EP3738515A1 (en) | Ultrasound system and method for tracking movement of an object | |
Adams et al. | An optical navigator for brain surgery | |
US20080285707A1 (en) | System and Method for Medical Navigation | |
EP3024408B1 (en) | Wrong level surgery prevention | |
US20240156531A1 (en) | Method for creating a surgical plan based on an ultrasound view | |
CN118021446A (en) | Navigation method, electronic equipment, navigation system and robot system for optical hard lens surgery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150312 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150610 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5906200 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |