JP2022534916A - Passive Ultrasonic Sensor-Based Initialization for Image-Based Device Segmentation - Google Patents
Passive Ultrasonic Sensor-Based Initialization for Image-Based Device Segmentation Download PDFInfo
- Publication number
- JP2022534916A JP2022534916A JP2021570310A JP2021570310A JP2022534916A JP 2022534916 A JP2022534916 A JP 2022534916A JP 2021570310 A JP2021570310 A JP 2021570310A JP 2021570310 A JP2021570310 A JP 2021570310A JP 2022534916 A JP2022534916 A JP 2022534916A
- Authority
- JP
- Japan
- Prior art keywords
- medical device
- interventional medical
- image
- shape
- interventional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000011218 segmentation Effects 0.000 title claims description 39
- 238000000034 method Methods 0.000 claims abstract description 117
- 230000008569 process Effects 0.000 claims abstract description 71
- 238000012545 processing Methods 0.000 claims abstract description 42
- 230000015654 memory Effects 0.000 claims abstract description 33
- 238000002604 ultrasonography Methods 0.000 claims description 99
- 238000001914 filtration Methods 0.000 claims description 31
- 239000000523 sample Substances 0.000 claims description 24
- 238000003384 imaging method Methods 0.000 claims description 19
- 238000012285 ultrasound imaging Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 10
- 238000012800 visualization Methods 0.000 description 14
- 230000008439 repair process Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 210000001519 tissue Anatomy 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002792 vascular Effects 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 2
- 239000000969 carrier Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013152 interventional procedure Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 210000004115 mitral valve Anatomy 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000002033 PVDF binder Substances 0.000 description 1
- 208000031481 Pathologic Constriction Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000001746 atrial effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000001574 biopsy Methods 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000000747 cardiac effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 229920001577 copolymer Polymers 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229920002981 polyvinylidene fluoride Polymers 0.000 description 1
- 208000037804 stenosis Diseases 0.000 description 1
- 230000036262 stenosis Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Clinical applications
- A61B8/0833—Clinical applications involving detecting or locating foreign bodies or organic structures
- A61B8/0841—Clinical applications involving detecting or locating foreign bodies or organic structures for locating instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
- A61B8/4254—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/48—Diagnostic techniques
- A61B8/483—Diagnostic techniques involving the acquisition of a 3D volume of data
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Robotics (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
介入医療処置中の介入医用デバイスの形状を介入医用デバイスの位置に基づいて決定するためのコントローラ220は、命令を格納するメモリ221と、命令を実行するプロセッサ222とを含む。命令により、コントローラ220を含むシステム200は、介入医用デバイス201の位置を取得する(S320)ことと、介入医用デバイスを含むボリュームの像を取得する(S330)こととを含むプロセスを実施する。プロセスは、介入医用デバイス201の形状を含む介入医用デバイス201を識別するために、介入医用デバイス201の位置に基づいて、画像処理を像に付与する(S340)ことをさらに含む。プロセスは、介入医用デバイス201のセグメント化された表現を取得するために、介入医用デバイス201をセグメント化する(S350)ことをさらに含む。介入医用デバイス201のセグメント化された表現が像に重ね合わされる(S360)。
A controller 220 for determining the shape of an interventional medical device during an interventional medical procedure based on the position of the interventional medical device includes a memory 221 that stores instructions and a processor 222 that executes the instructions. Upon instruction, the system 200, including the controller 220, performs a process including obtaining the position of the interventional medical device 201 (S320) and obtaining an image of the volume containing the interventional medical device (S330). The process further includes applying image processing (S340) to the image based on the location of the interventional medical device 201 to identify the interventional medical device 201 including the geometry of the interventional medical device 201 . The process further includes segmenting the interventional medical device 201 to obtain a segmented representation of the interventional medical device 201 (S350). A segmented representation of the interventional medical device 201 is superimposed on the image (S360).
Description
超音波追跡技術は、超音波プローブからのイメージングビームが視野(FOV)を掃引するときにパッシブ超音波センサによって受け取られる信号を分析することによって、診断超音波Bモード画像の視野内のパッシブ超音波センサ(例えば、PZT、PVDF、コポリマー、又は他の圧電材料)の位置を推定する。パッシブ超音波センサは音圧センサであって、そのようなパッシブ超音波センサは、それが取り付けられている介入医用デバイスの位置を決定するために使用される。飛行時間測定は、超音波プローブのイメージングアレイからのパッシブ超音波センサの軸方向/半径方向距離を提供し、一方、振幅測定及び直接ビーム発射シーケンスの知識は、パッシブ超音波センサの横方向/角度位置を提供する。 Ultrasound tracking techniques detect passive ultrasound within the field of view for diagnostic ultrasound B-mode images by analyzing the signal received by a passive ultrasound sensor as an imaging beam from an ultrasound probe sweeps through the field of view (FOV). Estimate the position of the sensor (eg, PZT, PVDF, copolymer, or other piezoelectric material). Passive ultrasonic sensors are sound pressure sensors, such passive ultrasonic sensors are used to determine the position of an interventional medical device to which it is attached. Time-of-flight measurements provide the axial/radial distance of the passive ultrasonic sensor from the imaging array of the ultrasonic probe, while amplitude measurements and knowledge of the direct beam firing sequence provide the lateral/angular distance of the passive ultrasonic sensor. Provide location.
図1は、パッシブ超音波センサを使用して介入医用デバイスを追跡するための既知のシステムを示す。図1において、超音波プローブ102は、介入医用デバイス105の先端のパッシブ超音波センサ104を横切って掃引するイメージングビーム103を放出する。組織の画像107は、超音波プローブ102によってフィードバックされる。介入医用デバイス105の先端のパッシブ超音波センサ104の位置は、信号処理アルゴリズムによる決定の際に先端位置108として提供される。先端位置108は、オーバレイ画像109として組織の画像107に重ね合わされる。組織の画像107、先端位置108、及びオーバレイ画像109はすべてディスプレイ100に表示される。
FIG. 1 shows a known system for tracking interventional medical devices using passive ultrasound sensors. In FIG. 1, an
パッシブ超音波センサの既知の技術は、パッシブ超音波センサ104の位置を提供するが、介入医用デバイス105の形状を提供しない。例えば、心臓及び血管介入などの多くの臨床的状況では、介入医用デバイス105の形状を決定することは有利である。
Known technologies for passive ultrasonic sensors provide the position of the passive
本発明の目的は、この形状を少なくとも部分的に提供することである。 It is an object of the present invention to provide, at least in part, this shape.
本開示の一態様によれば、介入医療処置中の介入医用デバイスの形状を介入医用デバイスの位置に基づいて決定するためのコントローラは、命令を格納するメモリと、命令を実行するプロセッサとを含む。プロセッサによって実行されるとき、命令により、コントローラを含むシステムは、介入医用デバイスの位置を取得することと、介入医用デバイスを含むボリュームの像を取得することとを含むプロセスを実施する。プロセッサが命令を実行するときに実施されるプロセスは、介入医用デバイスの形状を含む介入医用デバイスを識別するために、介入医用デバイスの少なくとも1つのポイントの位置に基づいて、画像処理を像に付与することをさらに含む。プロセッサが命令を実行するときに実施されるプロセスは、介入医用デバイスのセグメント化された表現を取得するために介入医用デバイスをセグメント化することをさらに含む。介入医用デバイスのセグメント化された表現が像に重ね合わされる。 According to one aspect of the present disclosure, a controller for determining a shape of an interventional medical device during an interventional medical procedure based on a position of the interventional medical device includes a memory that stores instructions and a processor that executes the instructions. . When executed by the processor, the instructions cause the system, including the controller, to perform processes including obtaining a position of the interventional medical device and obtaining an image of a volume containing the interventional medical device. A process performed when the processor executes the instructions imparts image processing to the image based on the location of at least one point of the interventional medical device to identify the interventional medical device including the geometry of the interventional medical device. further comprising: Processes performed when the processor executes the instructions further include segmenting the interventional medical device to obtain a segmented representation of the interventional medical device. A segmented representation of the interventional medical device is superimposed on the image.
本開示の別の態様によれば、有形非一時的コンピュータ可読ストレージ媒体が、コンピュータプログラムを格納する。プロセッサによって実行されるとき、コンピュータプログラムは、有形非一時的コンピュータ可読ストレージ媒体を含むシステムに、介入医療処置中の介入医用デバイスの形状を決定するためのプロセスを介入医用デバイスの位置に基づいて実行させる。プロセッサが有形非一時的コンピュータ可読ストレージ媒体からのコンピュータプログラムを実行するときに実行されるプロセスは、介入医用デバイスの少なくとも1つのポイントの位置を取得することと、介入医用デバイスを含むボリュームの像を取得することとを含む。コンピュータプログラムがプロセッサによって実行されるときに実行されるプロセスは、介入医用デバイスの形状を含む介入医用デバイスを識別するために、介入医用デバイスの少なくとも1つのポイントの位置に基づいて、画像処理を像に付与することをさらに含む。コンピュータプログラムがプロセッサによって実行されるときに実行されるプロセスは、介入医用デバイスのセグメント化された表現を取得するために介入医用デバイスをセグメント化することをさらに含む。介入医用デバイスのセグメント化された表現が像に重ね合わされる。 According to another aspect of the disclosure, a tangible non-transitory computer-readable storage medium stores a computer program. When executed by a processor, the computer program causes a system including a tangible, non-transitory computer-readable storage medium to perform a process for determining the shape of an interventional medical device during an interventional medical procedure based on the position of the interventional medical device. Let A process executed when a processor executes a computer program from a tangible, non-transitory computer-readable storage medium includes obtaining a position of at least one point of an interventional medical device and imaging a volume containing the interventional medical device. and obtaining. The process performed when the computer program is executed by the processor performs image processing based on the position of at least one point of the interventional medical device to identify the interventional medical device including the geometry of the interventional medical device. further comprising granting to Processes performed when the computer program is executed by the processor further include segmenting the interventional medical device to obtain a segmented representation of the interventional medical device. A segmented representation of the interventional medical device is superimposed on the image.
本開示のさらなる別の態様によれば、超音波イメージングプローブを使用して突き止められたパッシブ超音波センサの位置に基づいて、介入医療処置中の介入医用デバイスの形状を決定するためのシステムには、超音波イメージングプローブ、パッシブ超音波センサ、及びコントローラが含まれる。超音波イメージングプローブは、介入医療処置中にビームを放出する。パッシブ超音波センサは、介入医療処置の間、介入医用デバイスに固定される。コントローラは、命令を格納するメモリと、命令を実行するプロセッサとを含む。プロセッサによって実行されるとき、命令により、システムは、超音波イメージングプローブからのビームの放出に基づいてパッシブ超音波センサの位置を取得することと、介入医用デバイス及びパッシブ超音波センサを含むボリュームの像を取得することとを含むプロセスを実行する。プロセッサが命令を実行するときに実施されるプロセスは、介入医用デバイスの形状及び介入医用デバイスの位置を含む介入医用デバイスを識別するために、パッシブ超音波センサの位置に基づいて、画像処理を像に付与することをさらに含む。プロセッサが命令を実行するときに実施されるプロセスは、介入医用デバイスのセグメント化された表現を取得するために介入医用デバイスをセグメント化することをさらに含む。介入医用デバイスのセグメント化された表現が、パッシブ超音波センサの位置と一緒に像に重ね合わされる。 According to yet another aspect of the present disclosure, a system for determining the shape of an interventional medical device during an interventional medical procedure based on the position of a passive ultrasound sensor located using an ultrasound imaging probe includes: , an ultrasound imaging probe, a passive ultrasound sensor, and a controller. An ultrasound imaging probe emits a beam during an interventional medical procedure. A passive ultrasound sensor is secured to an interventional medical device during an interventional medical procedure. The controller includes a memory that stores instructions and a processor that executes the instructions. When executed by a processor, the instructions direct the system to acquire the position of a passive ultrasound sensor based on the emission of a beam from an ultrasound imaging probe and to image a volume containing the interventional medical device and the passive ultrasound sensor. and performing a process including obtaining Processes performed when the processor executes the instructions perform image processing based on the position of the passive ultrasound sensor to identify the interventional medical device, including the geometry of the interventional medical device and the position of the interventional medical device. further comprising granting to Processes performed when the processor executes the instructions further include segmenting the interventional medical device to obtain a segmented representation of the interventional medical device. A segmented representation of the interventional medical device is superimposed on the image along with the position of the passive ultrasound sensor.
例示の実施形態は、添付の図面とともに読まれるとき、以下の詳細な説明から最もよく理解される。様々な特徴部は必ずしも一定の縮尺で描かれていないことが強調される。実際、寸法は、議論を明確にするために任意に増減されることがある。適用可能で実際に役立つ場合はいつでも、同様の参照番号は同様の要素を参照する。 The illustrative embodiments are best understood from the following detailed description when read in conjunction with the accompanying drawings. It is emphasized that the various features are not necessarily drawn to scale. In fact, dimensions may be arbitrarily increased or decreased for clarity of discussion. Like reference numerals refer to like elements wherever applicable and practical.
以下の詳細な説明では、限定ではなく説明のために、特定の詳細を開示する代表的な実施形態が、本教示による実施形態の完全な理解を提供するために記載される。既知のシステム、デバイス、材料、操作の方法、及び製造の方法の説明は、代表的な実施形態の説明を曖昧にしないようにするために省略されることがある。それにもかかわらず、当業者の範囲内にあるシステム、デバイス、材料、及び方法は、本教示の範囲内にあり、代表的な実施形態に従って使用される。本明細書で使用される用語は、特定の実施形態のみを説明するためのものであり、限定することを意図するものでないことを理解されたい。定義された用語は、本教示の技術分野において一般に理解され受け入れられている定義された用語の技術的及び科学的な意味に加えるものである。 In the following detailed description, for purposes of explanation and not limitation, representative embodiments disclosing specific details are set forth to provide a thorough understanding of embodiments in accordance with the present teachings. Descriptions of known systems, devices, materials, methods of operation, and methods of manufacture may be omitted so as not to obscure the description of the representative embodiments. Nevertheless, systems, devices, materials, and methods within the purview of those skilled in the art are within the present teachings and used in accordance with the exemplary embodiments. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting. The defined terms are in addition to their technical and scientific meanings as commonly understood and accepted in the technical field of the present teachings.
第1の、第2の、第3のなどの用語は、本明細書において、様々な要素又は構成要素を説明するために使用されるが、これらの要素又は構成要素は、これらの用語によって限定されるべきでないことを理解されよう。これらの用語は、ある要素又は構成要素を別の要素又は構成要素と区別するためにのみ使用される。したがって、以下で論じられる第1の要素又は構成要素は、本発明の概念の教示から逸脱することなく、第2の要素又は構成要素と呼ぶことができる。 The terms first, second, third, etc. are used herein to describe various elements or components, which elements or components are not limited by these terms. It should be understood that this should not be done. These terms are only used to distinguish one element or component from another. Thus, a first element or component discussed below could be termed a second element or component without departing from the teachings of the inventive concept.
本明細書で使用される用語は、特定の実施形態のみを説明するためのものであり、限定することを意図するものでない。本明細書及び添付の特許請求の範囲で使用されるとき、単数形の用語は、コンテキストが明確にそうでないことを示さない限り、単数形と複数形の両方を含むように意図される。追加として、本明細書で使用されるとき、「備える、含む、有する」、及び/又は「備えている、含んでいる、有している」という用語、及び/又は類似の用語は、明言された特徴、要素、及び/又は構成要素の存在を指定するが、1つ又は複数の他の特徴、要素、構成要素、及び/又はそのグループの存在を排除しない。本明細書で使用されるとき、「及び/又は」という用語は、関連する列挙された項目のうちの1つ又は複数のありとあらゆる組合せを含む。 The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting. As used in this specification and the appended claims, singular terms are intended to include both singular and plural unless the context clearly dictates otherwise. Additionally, as used herein, the terms "comprising, including, having," and/or "including, including, having," and/or similar terms are explicitly stated. The presence of any feature, element and/or component does not preclude the presence of one or more other features, elements, components and/or groups thereof. As used herein, the term "and/or" includes any and all combinations of one or more of the associated listed items.
特に明記しない限り、要素又は構成要素が、別の要素又は構成要素に「接続される」、「結合される」、又は「隣接する」と言われる場合、要素又は構成要素は、他の要素又は構成要素に直接接続又は結合される場合があり、或いは介在する要素又は構成要素が存在することがあることを理解されよう。すなわち、これら及び類似の用語は、1つ又は複数の中間要素又は構成要素が、2つの要素又は構成要素を接続するために利用されることがある場合を包含する。しかしながら、要素又は構成要素が別の要素又は構成要素に「直接接続される」と言われる場合、これは、2つの要素又は構成要素が、中間又は介在する要素又は構成要素なしに互いに接続される場合のみを包含する。 Unless otherwise specified, when an element or component is referred to as being “connected to,” “coupled,” or “adjacent to” another element or component, the element or component is referred to as the other element or component. It will be understood that components may be directly connected or coupled, or there may be intervening elements or components. That is, these and similar terms encompass where one or more intermediate elements or components may be utilized to connect two elements or components. However, when an element or component is said to be "directly connected" to another element or component, this means that the two elements or components are connected to each other without intermediate or intervening elements or components. Contains only cases.
前述に鑑みて、したがって、本開示は、様々な態様、実施形態、及び/又は特定の特徴又は副構成要素のうちの1つ又は複数を通して、以下で具体的に記すような利点のうちの1つ又は複数を引き出すように意図されている。限定ではなく説明のために、特定の詳細を開示する例示の実施形態が、本教示による実施形態の完全な理解を提供するために記載される。しかしながら、本明細書に開示される特定の詳細から逸脱する、本開示と一致する他の実施形態は、添付の特許請求の範囲の範囲内にとどまる。その上、よく知られている装置及び方法の説明は、例示の実施形態の説明を曖昧にしないように省略されることがある。そのような方法及び装置は本開示の範囲内にある。 In view of the foregoing, therefore, the present disclosure, through one or more of its various aspects, embodiments, and/or specific features or sub-components, achieves one of the advantages as specifically noted below. intended to bring out one or more For purposes of explanation and not limitation, example embodiments disclosing specific details are set forth to provide a thorough understanding of embodiments in accordance with the present teachings. However, other embodiments consistent with the present disclosure that depart from the specific details disclosed herein remain within the scope of the appended claims. Moreover, descriptions of well-known apparatus and methods may be omitted so as not to obscure the description of the example embodiments. Such methods and apparatus are within the scope of this disclosure.
本明細書に記載されるように、介入医用デバイス(例えば、ワイヤ)の形状は、パッシブ超音波センサの位置を使用して容易に取得される。形状は、パッシブ超音波センサの位置を識別するシステムを使用して定量化される。パッシブ超音波センサの位置は、例えば、空間フィルタリング、又は既知の形状との相互相関を使用してデバイスの形状を決定する画像処理アルゴリズムを初期化するために使用される。介入医用デバイスの形状が決定された後、可視化を強化するために、介入医用デバイスのメッシュが生成され重ね合わされる。 As described herein, the shape of an interventional medical device (eg, wire) is readily obtained using the position of passive ultrasound sensors. The shape is quantified using a system that identifies the positions of passive ultrasonic sensors. The position of the passive ultrasound sensor is used to initialize an image processing algorithm that determines the shape of the device using, for example, spatial filtering or cross-correlation with a known shape. After the geometry of the interventional medical device is determined, a mesh of the interventional medical device is generated and overlaid to enhance visualization.
図2は、代表的な実施形態による、画像ベースデバイスセグメンテーションのためのパッシブ超音波センサベース初期化のシステムを示す。 FIG. 2 illustrates a system for passive ultrasonic sensor-based initialization for image-based device segmentation, according to representative embodiments.
図2において、超音波システム200は、超音波イメージングプローブ210、コントローラ220、コンソール290、介入医用デバイス201、及びパッシブ超音波センサS1を含む。注意点として、超音波システム200は、介入医用デバイスの位置と、介入医用デバイスを含むボリュームの像とを取得するために使用されるコントローラ220を含むシステムを表す。しかしながら、他のタイプの位置及びイメージングシステムが、本明細書に記載される特徴を実行するために使用されてもよく、依然として、本開示の趣旨及び範囲内にある。同様に、超音波システム200は、介入医用デバイス201の位置に基づいて画像処理を像に付与すること、及び介入医用デバイスをセグメント化して介入医用デバイス201のセグメント化された表現を得ることのためのコントローラ220を含むシステムを表す。しかしながら、他のタイプのイメージングシステムが、本明細書に記載されるこれらの特徴を実行するために使用されてもよく、依然として、本開示の趣旨及び範囲内にある。したがって、本明細書に記載されるシステムは、超音波システムである必要はない。
In FIG. 2, ultrasound system 200 includes
コントローラ220は、命令を格納するメモリ221と、命令を実行するプロセッサ222とを含む。別の注意点として、本明細書に記載されるコントローラ220は、本明細書のコントローラ220に帰する1つ又は複数の特徴的な機能を実行するために各々がメモリ及びプロセッサの組合せを含む多数のデバイスに分散されてもよい。
コンソール290は、命令を格納するメモリ291と、命令を実行するプロセッサ292とを含む。コンソール290は、モニタ295と、タッチパネル296とをさらに含む。メモリ291及びプロセッサ292は、パッシブ超音波センサS1の位置を決定し、パッシブ超音波センサS1の位置をコントローラ220に提供するセンサユニットと考えることができる。代替として、メモリ及びプロセッサの別の組合せ(図示せず)が、パッシブ超音波センサS1からの電圧示度と超音波イメージングプローブ210からのビームのタイミングとを受け取り、パッシブ超音波センサS1の位置を決定してコントローラ220に提供するために使用されてもよい。
超音波システム200又は本明細書の記載と一致する他の実施形態を使用することによって、介入医用デバイス201の形状は、パッシブ超音波センサS1を使用して介入医用デバイス201の先端(又は介入医用デバイス201の別の位置)を突き止めることによって定量化される。介入医用デバイス201の先端は、2次元超音波空間又は3次元超音波空間におけるパッシブ超音波センサS1を使用して突き止められる。その後、空間フィルタリングなどの画像処理技法が超音波画像に付与されて、介入医用デバイス201の本体として潜在的に識別可能な構造が増強される。介入医用デバイス201は、パッシブ超音波センサS1の既知の位置の近くに現れる最も顕著なデバイス様構造に基づいて、セグメント化され、画像に重ね合わされる。
By using the ultrasound system 200 or other embodiments consistent with those described herein, the shape of the interventional
コントローラのプロセッサ222又はプロセッサ292は、有形であって、非一時的である。本明細書で使用される「非一時的」という用語は、状態の永遠の特性としてではなく、ある期間続く状態の特性として解釈されるべきである。「非一時的」という用語は、具体的には、搬送波若しくは信号、又はいつでもどこでも一時的にしか存在しない他の形態の特性などの一過性の特性を否定する。プロセッサは、製品及び/又は機械構成要素である。コントローラ220のプロセッサ222は、本明細書の様々な実施形態に記載されるような機能を実行するためにソフトウェア命令を実行するように構成される。コントローラ220のプロセッサ22は、汎用プロセッサとすることができ、又は特定用途向け集積回路(ASIC)の一部とすることができる。コントローラのプロセッサ222はまた、マイクロプロセッサ、マイクロコンピュータ、プロセッサチップ、コントローラ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、ステートマシン、又はプログラム可能論理デバイスとすることができる。コントローラのプロセッサ222はまた、フィールドプログラマブルゲートアレイ(FPGA)などのプログラマブルゲートアレイ(PGA)を含む論理回路、又は個別のゲート及び/又はトランジスタ論理を含む別のタイプの回路とすることができる。コントローラのプロセッサ222は、中央処理装置(CPU)、グラフィック処理ユニット(GPU)、又は両方とすることができる。追加として、本明細書に記載されるプロセッサは、多数のプロセッサ、パラレルプロセッサ、又は両方を含むことができる。多数のプロセッサは、単一デバイス又は多数のデバイスに含まれてもよいし、又は結合されてもよい。本明細書で使用される「プロセッサ」は、プログラム又は機械実行可能命令を実行することができる電子構成要素を包含する。「プロセッサ」を含むコンピューティングデバイスへの言及は、2つ以上のプロセッサ又は処理コアを含む可能性があると解釈されるべきである。プロセッサは、例えば、マルチコアプロセッサとすることができる。プロセッサはまた、単一のコンピュータシステム内のプロセッサの集合、又は多数のコンピュータシステム間に分散されたプロセッサの集合を指す。コンピューティングデバイスという用語は、さらに、各々が1つ又は複数のプロセッサを含むコンピューティングデバイスの集合又はネットワークを指す可能性があるように解釈されるべきである。多くのプログラムは、多数のプロセッサによって実行される命令を有しており、多数のプロセッサは、同じコンピューティングデバイス内にあることもあり、又は、さらに、多数のコンピューティングデバイスにわたって分散されることもある。
本明細書に記載されるメモリ221又はメモリ291などのメモリは、有形ストレージ媒体であり、それは、データ及び実行可能命令を格納し、命令がそこに格納されている間は非一時的である。本明細書で使用される「非一時的」という用語は、状態の永遠の特性としてではなく、ある期間続く状態の特性として解釈されるべきである。「非一時的」という用語は、具体的には、搬送波若しくは信号、又はいつでもどこでも一時的にしか存在しない他の形態の特性などの一過性の特性を否定する。本明細書に記載されるメモリは、製品及び/又は機械構成要素である。本明細書に記載されるメモリは、データ及び実行可能命令がコンピュータによって読み取られるコンピュータ可読媒体である。本明細書に記載されるメモリは、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、フラッシュメモリ、電気的プログラマブル読取り専用メモリ(EPROM)、電気的消去可能プログラマブル読取り専用メモリ(EEPROM)、レジスタ、ハードディスク、リムーバブルディスク、テープ、コンパクトディスク読取り専用メモリ(CD-ROM)、デジタルバーサタイルディスク(DVD)、フロッピーディスク(登録商標)、ブルーレイディスク、又は当技術分野で知られている他の形態のストレージ媒体である。メモリは、揮発性又は不揮発性、セキュア及び/又は暗号化、非セキュア及び/又は非暗号化とすることができる。「メモリ」は、コンピュータ可読ストレージ媒体の一例である。コンピュータメモリは、プロセッサに直接アクセス可能なメモリである。コンピュータメモリの例には、限定はしないが、RAMメモリ、レジスタ、及びレジスタファイルが含まれる。「コンピュータメモリ」又は「メモリ」への言及は、多数のメモリである可能性があると解釈されるべきである。メモリは、例えば、同じコンピュータシステム内の多数のメモリである。メモリはまた、多数のコンピュータシステム又はコンピューティングデバイス間に分散された多数のメモリである。
Memory, such as
便宜上、超音波システム200の特徴への参照は、一貫性の目的で他の実施形態において及び他の実施形態のために、本開示の全体を通して使用される。しかしながら、上記ように、超音波システム200は、本明細書に記載された機能及び機能性を実行するシステムの単なる一例である。 For convenience, reference to features of ultrasound system 200 is used throughout this disclosure in and for other embodiments for the purpose of consistency. However, as noted above, ultrasound system 200 is merely one example of a system that performs the functions and functionality described herein.
図3は、代表的な実施形態による、画像ベースデバイスセグメンテーションのためのパッシブ超音波センサベース初期化のプロセスを示す。 FIG. 3 illustrates a process of passive ultrasonic sensor-based initialization for image-based device segmentation, according to representative embodiments.
S310において、図3のプロセスは、超音波イメージングプローブからビームを放出することによって始まる。例えば、図2の超音波イメージングプローブ210は、S310においてビームのシーケンスの一部としてビームを放出する。
At S310, the process of FIG. 3 begins by emitting a beam from an ultrasound imaging probe. For example, the
次に、S320において、図3のプロセスは、超音波ボリュームに配置されたパッシブ超音波センサS1の位置を取得することに進む。パッシブ超音波センサS1の位置は、超音波像のために原点が設定された所定の3次元座標系において決定される。レジストレーションは、超音波像の3次元座標系を、他の3次元座標系、例えば、介入医用デバイス201が内視鏡などのイメージングデバイスである場合に介入医用デバイスの視点からの像のためを含む介入医用デバイス201などのための他の3次元座標系と位置合わせするために実行される。レジストレーションは、画像変換によってある座標系を他の座標系にインポートするために、2つの異なる基礎をなす座標系における像のランドマークを位置合わせすることによって実行される。レジストレーションはまた、例えば、各イメージング空間における共通のランドマークを識別することによって、又は別のイメージング空間における超音波トランスデューサの姿勢を識別することによって、2D又は3D超音波像を2D又は投影イメージング空間に位置合わせするために実行される。
Next, at S320, the process of FIG. 3 proceeds to obtain the position of the passive ultrasound sensor S1 located in the ultrasound volume. The position of the passive ultrasonic sensor S1 is determined in a predetermined three-dimensional coordinate system with an origin set for the ultrasonic image. Registration is performed by registering the three-dimensional coordinate system of the ultrasound image to another three-dimensional coordinate system, for example, the image from the viewpoint of the interventional medical device when the interventional
S330において、図3のプロセスは、次に、介入医用デバイス201及びパッシブ超音波センサS1を含む超音波ボリュームの像を取得することを含む。像は、介入医療処置中に超音波イメージングプローブ210によって放出された超音波ビームから生じる超音波像である。
At S330, the process of FIG. 3 next includes acquiring an image of the ultrasound volume that includes the interventional
S340において、図3のプロセスは、制約を使用して、介入医用デバイス201の形状と介入医用デバイス201の位置とを含む介入医用デバイス201を識別するために、パッシブ超音波センサS1の位置に基づいて、画像処理を像に付与することを含む。S340における画像処理は、介入医用デバイス201のポイントの位置に基づいて、又は介入医用デバイス201の少なくとも1つのポイントの位置に基づいて適用される。S340において使用される制約は、ピクセル強度の特性、相対的ピクセル位置、所定の形状、及び/又は寸法特性のうちの1つ又は複数を含む。一例として、介入医用デバイス201の位置に対応するピクセルのピクセル強度は、介入医療処置の対象者の解剖学的特徴に対応するピクセルのピクセル強度よりも高い。別の例として、探索は、パッシブ超音波センサS1の位置に対応するピクセルから、距離、ピクセル、又は何か他のもので測定された所定の範囲内のピクセルに限定される。画像処理は、ピクセルをフィルタリングして、所定の特性に基づいてピクセルを除去することを含み、その結果、オリジナル画像の残りの要素は、介入医用デバイス201をより良好に示す。すなわち、デバイス形状(すなわち、介入医用デバイス201)の要素は、フィルタリングの後に残っている。それゆえに、画像処理は、解剖学的特徴などの形状の表現を意図的に廃棄するが、廃棄がピクセル強度又はピクセル位置などに基づく限り、必ずしも形状に基づかない。
At S340, the process of FIG. 3 uses constraints to identify the interventional
他の例では、画像フィルタリングに使用される特性は、例えば、異なる形状をもつ異なる介入医用デバイスに対応する所定の形状のライブラリから選択された所定の形状を含む。別の例では、画像フィルタリングに使用される特性は、最小長又は最大長、幅、高さ、直径、半径、断面積、曲率などのような所定の形状の寸法特性を含む。例えば、介入医用デバイス201としてのワイヤは、非常に小さい断面図を有しており、ワイヤの探索は、非常に小さい断面に対応する閾値より小さい面積又は直径をもつ端部を探す。
In other examples, the characteristics used for image filtering include predetermined shapes selected from a library of predetermined shapes corresponding to, for example, different interventional medical devices having different shapes. In another example, properties used for image filtering include dimensional properties of a given shape such as minimum or maximum length, width, height, diameter, radius, cross-sectional area, curvature, and the like. For example, a wire as the interventional
S350において、図3のプロセスは、次に、介入医用デバイス201のセグメント化された表現を取得するために、介入医用デバイス201の形状又は介入医用デバイスの所定の形状を再構築しセグメント化することを含む。所定のデバイス形状は、所定の制約として使用され、その結果、所定のデバイス形状は、介入医用デバイス201の形状の候補として使用される。フィルタリングの後に残っているデバイス形状(すなわち、介入医用デバイス201)の要素は、デバイス形状の再構築のために使用される。セグメンテーションは、解剖学的特徴などの構造及び/又は介入医用デバイス201などの介入医用デバイスの表面の表現であり、例えば、構造の表面上の3次元(3D)座標でのポイントのセットと、隣接する3つのポイントのグループを接続することによって定義された三角形平面セグメントから成り、その結果、構造全体は、交差しない三角形の平面のメッシュで覆われる。構造の3次元モデルが、セグメント化によって取得される。S350に関して本明細書で説明されるセグメント化、及び他の実施形態での同様の操作は、3次元超音波ボリュームに存在する介入医用デバイス201、解剖学的構造、及び/又は他の構造にセグメンテーションを実行することを含む。
At S350, the process of FIG. 3 then reconstructs and segments the shape of the interventional
S360において、図3のプロセスは、パッシブ超音波センサS1の位置と一緒に介入医用デバイス201のセグメント化された表現を像に重ね合わせることを含む。
At S360, the process of FIG. 3 includes superimposing the segmented representation of the interventional
図3のプロセス及び本明細書の他の実施形態の特徴は、多くのタイプの介入処置に使用される。例えば、器質的心臓修復において、本明細書の特徴の使用法は、介入医用デバイス201を配置する間の正しい形状/経路を確実にするためにチェックするのに使用される。追加として又は代替として、本明細書の特徴の使用法は、介入医用デバイス201が中隔穿刺などの侵襲的処置中に所望の経路を通り過ぎたかどうかを検出するために使用される。例えば、基準マーカが、目標解剖学的構造の位置に配置されてもよい。器質的心臓修復のための本明細書に記載される特徴の追加又は代替の使用法として、僧帽弁又は他の移植組織の形状が、器質的心臓修復の間3次元で定量化される。
The process of FIG. 3 and features of other embodiments herein are used for many types of interventional procedures. For example, in structural heart repair, the use of features herein is used to check to ensure correct geometry/path during placement of interventional
図4は、代表的な実施形態による、画像ベースデバイスセグメンテーションのためのパッシブ超音波センサベース初期化での視覚化の進行を示す。 FIG. 4 shows a visualization progress in passive ultrasound sensor-based initialization for image-based device segmentation, according to a representative embodiment.
視覚化Aにおいて、図4の進行は、介入医用デバイス201の先端位置を示す。
In visualization A, the progression of FIG. 4 shows the tip position of interventional
視覚化Bにおいて、図4の進行は、画像処理の効果又は結果を示す。図4において、その効果により、像全体の詳細は大きく減少するが、介入医用デバイス201の詳細は大きく増大する。
In visualization B, the progression of FIG. 4 shows the effect or result of image processing. In FIG. 4, the effect is to greatly reduce the overall image detail, but greatly increase the detail of the interventional
視覚化Cにおいて、図4の進行は、オリジナル画像に重ね合わされた介入医用デバイス201を示す。すなわち、視覚化Bにおいて識別され強調表示された介入医用デバイス201が、視覚化Cにおいて重ね合わされる。当然、視覚化Bからの介入医用デバイス201の視覚化は、モデルのライブラリから抽出されたモデルによって十分に予想される形状を完全に生成するために、欠落したピクセルを埋めることなどによって増強される。それゆえに、視覚化Bで像全体の詳細を低減するために使用される画像処理は、介入医用デバイスの詳細を強化するために増強することをさらに含む。
In visualization C, the progression of FIG. 4 shows the interventional
図4において、介入医用デバイス201の形状は、パッシブ超音波センサS1の位置に基づいて初期化される画像処理から取得される。介入医用デバイス201の先端又は他の位置は、パッシブ超音波センサS1の追跡を使用して3Dボリュームに配置される。画像処理技法は、図4の実施形態において、管状構造がより鮮明に表示されるようにするために適用される。パッシブ超音波センサS1の位置の近くの最も高い強度の管状構造は、介入医用デバイス201の本体であると想定され、次いで、オリジナル画像に重ね合わされる。
In FIG. 4, the geometry of the interventional
一実施形態では、図4の進行を含むプロセスが、3次元ボリュームに適用される画像処理アルゴリズムで使用されて、介入医用デバイス201の位置が突き止められ、その視覚化が強化される。超音波イメージングプローブ210からの2次元イメージング平面を使用して、介入医用デバイス201を含む3次元空間が掃引される。続いて、結果として生じた像が分析されて、空間及び/又は空間内の介入医用デバイス201の3次元ボリュームモデルが取得される。空間及び/又は介入医用デバイス201の3次元ボリュームモデルは、次いで、セグメント化される。一例として、初期の2次元平面は、パッシブ超音波センサを含むように設定され、次いで、2次元平面は、パッシブ超音波センサのまわりを大まかに枢動するように漸増的に回転される。フィルタリング及びクラスタリングなどの2次元画像処理は、介入医用デバイス201の一部分を識別するために回転掃引の各フレームに実行される。各平面の介入医用デバイス201のビューを分析して、掃引からのどの平面が、デバイスの最良の表示、例えば、デバイスの最も長いセクションなどを提供するか、又はパッシブ超音波センサの近くの最末端部分を示すかが決定される。次いで、介入医用デバイスのセグメンテーションが表示される。
In one embodiment, the process comprising the progression of FIG. 4 is used with image processing algorithms applied to the three-dimensional volume to locate and enhance visualization of interventional
図5は、代表的な実施形態による、画像ベースデバイスセグメンテーションのためのパッシブ超音波センサベース初期化の別のプロセスを示す。 FIG. 5 illustrates another process of passive ultrasonic sensor-based initialization for image-based device segmentation, according to representative embodiments.
S510において、図5のプロセスは、超音波ボリューム内のパッシブ超音波センサS1の位置を取得することから開始する。 At S510, the process of FIG. 5 begins by obtaining the position of the passive ultrasound sensor S1 within the ultrasound volume.
S520において、図5のプロセスは、次に、フィルタ制約を設定し、制約を探索することを含む。すなわち、像内の介入医用デバイス201の探索は、パッシブ超音波センサS1の位置の特定から開始する。制約の探索は、所定の制約を満たす像内の領域の探索である。所定の制約を満たす領域は、パッシブ超音波センサからの指定された半径又は距離内にあり、所定の閾値よりも高いピクセル強度をもつそのような1つ又は複数のピクセルの特性を含む。一例では、所定の制約は、介入医用デバイス201の形状の一部である特定の形状、例えば、隅又は隅のセット、超音波像に現われる介入医用デバイス201のプロファイルにおける1つ又は複数の角度、及び他のタイプの制約などに対するものである。制約は、所定の制約であってもよく、介入医用デバイス201のタイプ、手術のタイプ、及び解剖学的特性を含む介入医療処置の対象者の特徴によって変わってもよい。
At S520, the process of FIG. 5 next includes setting filter constraints and searching for constraints. That is, searching for the interventional
S530において、図5のプロセスは、次に、フィルタ制約を使用してフィルタを超音波ボリュームに適用することに移る。コントローラ220、又はコントローラ220を含む超音波システム200によって実行されるプロセスは、介入医療処置の対象者の表現を削除するために超音波イメージングシステムからの像をフィルタリングすることを含む。例えば、画像処理で捜される対象物は介入医用デバイス201であるので、フィルタリングは、介入医療処置の対象者の組織、骨、及び他の解剖学的特徴の表現を削除するために実行される。
At S530, the process of FIG. 5 then moves to apply a filter to the ultrasound volume using the filter constraints. A process performed by
S540において、図5のプロセスは、パッシブ超音波センサの位置を取り囲む最大強度の領域を探索し、最大強度をもつポイントを識別することを含む。最大強度は、所定の閾値より上のピクセル強度、又は近傍のピクセルの強度の所定の閾値よりも大きい相対強度である。 At S540, the process of FIG. 5 includes searching regions of maximum intensity surrounding the location of the passive ultrasonic sensor and identifying the point with maximum intensity. The maximum intensity is the pixel intensity above a predetermined threshold, or the relative intensity of neighboring pixel intensities above a predetermined threshold.
S550において、図5のプロセスは、次に、隣接するポイントを接続することを含む。隣接するポイントは、閾値より上の強度をもち、パッシブ超音波センサS1の位置から所定の距離内にあるピクセルに対するものである。 At S550, the process of FIG. 5 next includes connecting adjacent points. Neighboring points are for pixels with intensities above the threshold and within a predetermined distance from the position of the passive ultrasonic sensor S1.
S560において、図5のプロセスは、介入医用デバイス201の形状を超音波像に重ね合わせることで終了する。重ね合わされた介入医用デバイス201は、介入医用デバイス201の表現であり、超音波像に載せられ、強調表示されたアウトラインなどによって強調表示される。
At S560, the process of FIG. 5 ends by superimposing the shape of the interventional
図5のプロセス及び本明細書の他の実施形態は、多くのタイプの介入処置に使用される。例えば、末梢血管介入において、本明細書の特徴は、介入医用デバイス201の座屈を検出するために、狭窄又は閉塞横断中のワイヤなどの介入医用デバイス201の形状をモニタするのに使用される。追加として又は代替として、本明細書の特徴は、介入医用デバイス201が血管壁を出たかどうかをチェックするために、血管に対するワイヤなどの介入医用デバイス201の進行を検出するために使用される。
The process of FIG. 5 and other embodiments herein are used for many types of interventional procedures. For example, in peripheral vascular interventions, the features herein are used to monitor the geometry of an interventional
図6は、代表的な実施形態による、画像ベースデバイスセグメンテーションのためのパッシブ超音波センサベース初期化の別のプロセスを示す。 FIG. 6 illustrates another process of passive ultrasonic sensor-based initialization for image-based device segmentation, according to representative embodiments.
図6のプロセスは、S610において、超音波ボリューム内のパッシブ超音波センサの位置を取得することから開始する。 The process of FIG. 6 begins at S610 by obtaining the position of the passive ultrasound sensor within the ultrasound volume.
次に、S620において、図6のプロセスは、フィルタ制約を設定し、介入医用デバイス201のモデルを識別することを含む。フィルタ制約は、所定の制約であるか、又は異なる介入医療処置ごとに動的に設定される制約である。フィルタ制約は、所定の制約を満たす領域を識別するために適用され、その結果、実行されるべき画像処理は、識別された領域でのみ実行されるか、又は、少なくとも、識別された領域で開始する。
Next, at S620, the process of FIG. 6 includes setting filter constraints and identifying a model of interventional
S630において、図6のプロセスは、次に、識別された介入医用デバイス201モデルの先端を超音波ボリューム内のパッシブ超音波センサの位置に固定することを含む。
At S630, the process of FIG. 6 next includes fixing the tip of the identified interventional
S640において、図6のプロセスは、超音波ボリューム内のパッシブ超音波センサS1の位置に対して介入医用デバイス201の最適な角度を決定することを含む。この角度は、超音波センサS1の位置を始点として、パッシブ超音波センサS1からの角度の方向に位置合わせして介入医用デバイス201を適所に配置するために使用される。
At S640, the process of FIG. 6 includes determining the optimal angle of interventional
S650において、図6のプロセスは、介入医用デバイス201の形状を超音波像に重ね合わせることで終わる。例えば、所定の構造の形状を介入医用デバイス201としてセグメント化することから生じるメッシュは、S640のプロセスに基づいて位置合わせされ、次いで、介入医用デバイス201の隅又は他の末端の表現が、パッシブ超音波像内又は上のパッシブ超音波センサS1の表現にオーバーラップするように配置される。
At S650, the process of FIG. 6 concludes by superimposing the geometry of the interventional
図7は、代表的な実施形態による、画像ベースデバイスセグメンテーションのためのパッシブ超音波センサベース初期化のためにビューを最適化するのに使用される2次元又はX面画像のセットを示す。 FIG. 7 shows a set of two-dimensional or X-plane images used to optimize views for passive ultrasound sensor-based initialization for image-based device segmentation, according to a representative embodiment.
図7に示されるように、5つの異なる2次元又はX面画像が、A、B、C、D、及びEとラベル付けされ、各々は、異なる視点のために介入医用デバイス201が変化しているビューを示す。最も完全なビューは、2次元又はX面画像「C」のビューであり、それは、介入医用デバイス201の最大量の詳細をもつビューに対応する。
As shown in FIG. 7, five different two-dimensional or X-plane images are labeled A, B, C, D, and E, each with varying interventional
図7の実施形態において、2次元又はX面ビューからの像を観察して、どれが介入医用デバイス201の最良の詳細を提供するかを確かめることができる。図7からの像は、介入医用デバイス201のセグメンテーションの前又は後に取得され、次いで、例えば、基礎をなす3次元超音波ボリューム上の介入医用デバイス201の最良の配置、方位、及び姿勢を識別又は確認するために使用される。図4のコンテキストで説明された例と一致する例として、初期の2次元平面は、パッシブ超音波センサを含むように設定され、次いで、2次元平面は、パッシブ超音波センサのまわりで概略的に枢動するように漸増的に回転される。位置がパッシブ超音波センサ以外の機構によって決定される実施形態において、介入医用デバイス201上のポイントの位置は、依然として、掃引の始点として使用される。フィルタリング及びクラスタリングなどの2次元画像処理は、介入医用デバイス201の一部分を識別するために回転掃引の各フレームで実行される。各平面の介入医用デバイス201のビューを分析して、掃引からのどの平面が、デバイスの最良の表示、例えば、デバイスの最も長いセクションなどを提供するか、又はパッシブ超音波センサの近くの最末端部分を示すかが決定される。次いで、介入医用デバイスのセグメンテーションが表示される。
In the embodiment of FIG. 7, images from two-dimensional or X-plane views can be observed to see which provides the best detail of the interventional
図8は、代表的な実施形態による、画像ベースデバイスセグメンテーションのためのパッシブ超音波センサベース初期化において超音波ボリューム内で重ね合わされた介入医用デバイス201のメッシュの可視化を示す。
FIG. 8 shows visualization of a mesh of an interventional
図8の実施形態において、介入医用デバイス201は、SHDデバイスであり、それは、メッシュにセグメント化され、3次元超音波ボリュームに重ね合わされる。介入医用デバイス201の形状は、既知であって、剛性であり、3次元超音波ボリュームの超音波像に適合される。パッシブ超音波センサの位置は、図8の介入医用デバイス201の適切な方位、姿勢、及び全体的配置を識別するために探索ボリュームを初期化するのに使用される。
In the embodiment of Figure 8, the interventional
図8の実施形態の一例として、介入医用デバイス201は、心房中隔穿刺ニードル又は僧帽弁修復デバイスの場合などでは剛性である。画像処理技法は、パッシブ超音波センサの近くの領域でデバイスの特定形状を探索するために使用される。次いで、既知のデバイスのメッシュは、図8に示されるような2次元又は3次元超音波画像に重ね合わされる。既知のデバイスの重ね合わされたメッシュが、超音波像に載せられ、色、輝度、又は他の視覚特性などによって強調表示されて、載せられたメッシュが、組合せ画像内で明確に区別される。
As an example of the embodiment of FIG. 8, the interventional
その結果、画像ベースデバイスセグメンテーションのためのパッシブ超音波センサベース初期化により、超音波像内の介入医用デバイス201を識別し、超音波像内又は上に介入医用デバイス201のモデルを配置することが可能になる。画像ベースセグメンテ-ションのためのパッシブ超音波センサベース初期化は、介入医用デバイス201が正しい姿勢で正しい経路に沿って配置されていることを保証することなど、例えば、介入医療処置(例えば、中隔穿刺又は慢性完全閉塞横断)中に不規則な経路を検出すること、及び/又は介入医療処置中に3次元で介入医用デバイス201を定量化することなどのために、いろんなやり方で使用される。
As a result, passive ultrasound sensor-based initialization for image-based device segmentation can identify the interventional
画像ベースデバイスセグメンテーションのためのパッシブ超音波センサベース初期化が、いくつかの例示的な実施形態を参照して説明されたが、使用された単語は、限定の単語ではなく、説明及び図示の単語であることを理解されたい。現在記載されているように及び修正されるように、添付の特許請求の範囲の範囲内で、その態様内の画像ベースデバイスセグメンテーションのためのパッシブ超音波センサベース初期化の範囲及び趣旨から逸脱することなく、変更が行われてもよい。画像ベースデバイスセグメンテーションのためのパッシブ超音波センサベース初期化が、特定の手段、材料、及び実施形態を参照して説明されたが、画像ベースデバイスセグメンテーションのためのパッシブ超音波センサベースの初期化は、開示された詳細に限定されるように意図されず、むしろ、画像ベースデバイスセグメンテーションのためのパッシブ超音波センサベース初期化は、添付の特許請求の範囲の範囲内にあるものなどのすべての機能的に同等の構造、方法、使用にまで及ぶ。 Although passive ultrasonic sensor-based initialization for image-based device segmentation has been described with reference to several exemplary embodiments, the words used are words of description and illustration, rather than words of limitation. It should be understood that Deviating from the scope and spirit of passive ultrasonic sensor-based initialization for image-based device segmentation within its aspects, as presently described and as amended, within the scope of the appended claims Changes may be made without Although passive ultrasonic sensor-based initialization for image-based device segmentation has been described with reference to specific means, materials, and embodiments, passive ultrasonic sensor-based initialization for image-based device segmentation is , is not intended to be limited to the details disclosed, but rather passive ultrasonic sensor-based initialization for image-based device segmentation is intended to cover all functions such as those falling within the scope of the appended claims. to substantially equivalent structures, methods, or uses.
例えば、上述の例は、器質的心臓修復又は末梢血管介入のための本明細書の特徴の使用法を説明している。本明細書の特徴の他の実際的な用途は、深部組織生検中のニードルなどの介入医用デバイス201の曲げを検出することを含む。本明細書の特徴の他の実際的な用途は、超音波とX線との間のレジストレーションのための信頼性の高い体内2次元投影基準を提供することを含む。
For example, the examples above illustrate the use of the features herein for organic heart repair or peripheral vascular intervention. Other practical applications of the features herein include detecting bending of interventional
以下の実施例が提供される。 The following examples are provided.
実施例1
介入医用デバイス(201)の位置に基づいて、介入医療処置中の介入医用デバイス(201)の形状を決定するためのコントローラ(220)であって、
命令を格納するメモリ(221)と、
命令を実行するプロセッサ(222)であって、プロセッサで実行されるとき、命令により、コントローラ(220)を含むシステムが、
介入医用デバイス(201)のポイントの位置を取得する(S320)ことと、
介入医用デバイス(201)を含むボリュームの像を取得する(S330)ことと、
介入医用デバイスの形状を含む介入医用デバイスを識別するために、介入医用デバイスの位置に基づいて、画像処理を像に付与する(S340)ことと、
介入医用デバイスのセグメント化された表現を取得するために介入医用デバイスをセグメント化する(S350)ことであって、介入医用デバイスのセグメント化された表現が像に重ね合わされる(S360)、セグメント化する(S350)ことと
を含むプロセスを実施する、プロセッサ(222)と
を含む、コントローラ(220)。
Example 1
A controller (220) for determining a shape of an interventional medical device (201) during an interventional medical procedure based on a position of the interventional medical device (201), comprising:
a memory (221) for storing instructions;
A processor (222) that executes instructions that, when executed on the processor, cause the system, including the controller (220), to:
obtaining (S320) the location of a point of the interventional medical device (201);
obtaining (S330) an image of a volume containing an interventional medical device (201);
applying image processing (S340) to the image based on the position of the interventional medical device to identify the interventional medical device, including the shape of the interventional medical device;
segmenting (S350) the interventional medical device to obtain a segmented representation of the interventional medical device, wherein the segmented representation of the interventional medical device is superimposed (S360) on the image; a controller (220), including a processor (222), which implements a process including: performing (S350);
実施例2
実施例1のコントローラ(220)であって、システムによって実施されるプロセスが、
超音波イメージングプローブからのビームの放出に基づいてパッシブ超音波センサの位置を取得する(S320)ことであって、介入医用デバイスの位置がパッシブ超音波センサの位置に対応する、取得する(S320)ことと、
像内の介入医用デバイスの探索をパッシブ超音波センサの位置から開始し(S340)、画像処理を像に付与するために所定の制約を満たす像内の領域を探索することと
をさらに含み、
介入医用デバイスのセグメント化された表現が、パッシブ超音波センサの位置と一緒に像に重ね合わされる、コントローラ(220)。
Example 2
The controller (220) of Example 1, wherein the process implemented by the system comprises:
Obtaining (S320) the position of the passive ultrasonic sensor based on the emission of the beam from the ultrasonic imaging probe, wherein the position of the interventional medical device corresponds to the position of the passive ultrasonic sensor (S320). and
starting (S340) searching for an interventional medical device in the image from the position of the passive ultrasound sensor and searching for a region in the image that satisfies predetermined constraints to apply image processing to the image;
A controller (220) in which the segmented representation of the interventional medical device is superimposed on the image together with the position of the passive ultrasound sensor.
実施例3
実施例2のコントローラ(220)であって、システムによって実施されるプロセスが、
介入医用デバイスの形状の一部分を含むと潜在的にみなす像内の領域を分離するために、所定の制約を像に適用する(S340)こと
をさらに含み、
所定の制約が、ピクセル強度の特性と、パッシブ超音波センサの位置に対するピクセル位置とを含む、コントローラ(220)。
Example 3
The controller (220) of Example 2, wherein the process implemented by the system comprises:
further comprising applying (S340) a predetermined constraint to the image to isolate regions within the image that are potentially considered to contain a portion of the geometry of the interventional medical device;
A controller (220) wherein the predetermined constraints include pixel intensity characteristics and pixel position relative to the position of the passive ultrasonic sensor.
実施例4
実施例2のコントローラ(220)であって、システムによって実施されるプロセスが、
介入医用デバイスの形状の一部分を含むと潜在的にみなす像内の領域を分離するために、所定の制約を像に適用する(S340)こと
をさらに含み、
所定の制約が、介入医用デバイスの形状の候補として使用される少なくとも1つの所定の形状を含む、コントローラ(220)。
Example 4
The controller (220) of Example 2, wherein the process implemented by the system comprises:
further comprising applying (S340) a predetermined constraint to the image to isolate regions within the image that are potentially considered to contain a portion of the geometry of the interventional medical device;
A controller (220), wherein the predetermined constraints include at least one predetermined shape to be used as a candidate shape for the interventional medical device.
実施例5
実施例2のコントローラ(220)であって、システムによって実施されるプロセスが、
介入医用デバイスの形状の一部分を含むと潜在的にみなす像内の領域を分離するために、所定の制約を像に適用する(S340)こと
をさらに含み、
所定の制約が、所定の形状の少なくとも1次元特性を含む、コントローラ(220)。
Example 5
The controller (220) of Example 2, wherein the process implemented by the system comprises:
further comprising applying (S340) a predetermined constraint to the image to isolate regions within the image that are potentially considered to contain a portion of the geometry of the interventional medical device;
A controller (220), wherein the predetermined constraint includes at least one-dimensional properties of the predetermined shape.
実施例6
実施例1のコントローラ(220)であって、システムによって実施されるプロセスが、
介入医用デバイスが挿入される介入医療処置の対象者の表現を削除するために像をフィルタリングする(S340)ことであって、介入医用デバイスの形状の要素が、フィルタリングの後に像に残っている、フィルタリングする(S340)ことと、
介入医用デバイスの形状の再構築を取得するために、フィルタリングの後に像に残っている介入医用デバイスの形状の要素に基づいて、介入医用デバイスの形状を再構築する(S350)ことと
をさらに含む、コントローラ(220)。
Example 6
The controller (220) of Example 1, wherein the process implemented by the system comprises:
filtering (S340) the image to remove a representation of a subject of an interventional medical procedure into which the interventional medical device is inserted, wherein elements of the shape of the interventional medical device remain in the image after filtering; filtering (S340);
Reconstructing (S350) the shape of the interventional medical device based on elements of the shape of the interventional medical device remaining in the image after filtering to obtain a reconstruction of the shape of the interventional medical device. , the controller (220).
実施例7
実施例6のコントローラ(220)であって、セグメント化が、介入医用デバイスの形状の再構築に実行され、介入医用デバイスのセグメント化された表現が、介入医用デバイスの形状の再構築のセグメント化された表現を含む、コントローラ(220)。
Example 7
The controller (220) of Example 6, wherein the segmentation is performed on the reconstruction of the shape of the interventional medical device, and the segmented representation of the interventional medical device is the segmentation of the reconstruction of the shape of the interventional medical device a controller (220), including the rendered representation.
実施例8
実施例1のコントローラ(220)であって、セグメント化が、画像処理に基づいて所定の形状に実行され、介入医用デバイスのセグメント化された表現が、介入医用デバイスの所定の形状のセグメント化された表現を含み、その結果、所定の形状のセグメント化された表現が像に重ね合わされる、コントローラ(220)。
Example 8
The controller (220) of Example 1, wherein the segmentation is performed into a predetermined shape based on image processing, and the segmented representation of the interventional medical device is segmented into the predetermined shape of the interventional medical device. A controller (220) that includes a representation of the shape so that a segmented representation of the predetermined shape is superimposed on the image.
実施例9
コンピュータプログラムを格納する有形非一時的コンピュータ可読ストレージ媒体であって、コンピュータプログラムは、プロセッサによって実行されるとき、有形非一時的コンピュータ可読ストレージ媒体を含むシステムに、介入医療処置中の介入医用デバイスの形状を決定するためのプロセスを介入医用デバイスの位置に基づいて実行させ、プロセッサ(222)が有形非一時的コンピュータ可読ストレージ媒体からのコンピュータプログラムを実行するときに実行されるプロセスが、
介入医用デバイスの位置を取得する(S320)ことと、
介入医用デバイスを含むボリュームの像を取得する(S330)ことと、
介入医用デバイスの形状を含む介入医用デバイスを識別するために、介入医用デバイスの少なくとも1つのポイントの位置に基づいて、画像処理を像に付与する(S340)ことと、
介入医用デバイスのセグメント化された表現を取得するために介入医用デバイスをセグメント化する(S350)ことであって、介入医用デバイスのセグメント化された表現が像に重ね合わされる(S360)、セグメント化する(S350)ことと
を含む、有形非一時的コンピュータ可読ストレージ媒体。
Example 9
A tangible, non-transitory computer-readable storage medium storing a computer program that, when executed by a processor, transfers to a system including the tangible, non-transitory computer-readable storage medium an interventional medical device during an interventional medical procedure. causing a process for determining a shape to be performed based on the position of the interventional medical device, the process being performed when the processor (222) executes a computer program from a tangible non-transitory computer-readable storage medium;
obtaining (S320) a location of an interventional medical device;
obtaining an image of a volume containing an interventional medical device (S330);
applying image processing to the image based on the position of at least one point of the interventional medical device to identify the interventional medical device including the shape of the interventional medical device (S340);
segmenting (S350) the interventional medical device to obtain a segmented representation of the interventional medical device, wherein the segmented representation of the interventional medical device is superimposed (S360) on the image; and (S350) a tangible non-transitory computer-readable storage medium.
実施例10
実施例9の有形非一時的コンピュータ可読ストレージ媒体であって、システムによって実施されるプロセスが、
像内の介入医用デバイスの探索を、パッシブ超音波センサの位置から開始し(S340)、画像処理を像に付与するために所定の制約を満たす像内の領域を探索すること
をさらに含む、有形非一時的コンピュータ可読ストレージ媒体。
Example 10
The tangible non-transitory computer-readable storage medium of Example 9, wherein the process performed by the system comprises:
searching for an interventional medical device in the image starting from the position of the passive ultrasound sensor (S340) and searching for regions in the image that satisfy predetermined constraints to apply image processing to the image; A non-transitory computer-readable storage medium.
実施例11
実施例10の有形非一時的コンピュータ可読ストレージ媒体であって、システムによって実施されるプロセスが、
超音波イメージングプローブからのビームの放出に基づいてパッシブ超音波センサの位置を取得する(S320)ことであって、介入医用デバイスの位置がパッシブ超音波センサの位置に対応する、取得する(S320)ことと、
介入医用デバイスの形状の一部分を含むと潜在的にみなす像内の領域を分離するために、所定の制約を像に適用する(S340)こと
をさらに含み、
所定の制約が、ピクセル強度の特性と、パッシブ超音波センサの位置に対するピクセル位置とを含み、
介入医用デバイスのセグメント化された表現が、パッシブ超音波センサの位置と一緒に像に重ね合わされる、有形非一時的コンピュータ可読ストレージ媒体。
Example 11
Example 10. The tangible non-transitory computer-readable storage medium of Example 10, wherein the process performed by the system comprises:
Obtaining (S320) the position of the passive ultrasonic sensor based on the emission of the beam from the ultrasonic imaging probe, wherein the position of the interventional medical device corresponds to the position of the passive ultrasonic sensor (S320). and
further comprising applying (S340) a predetermined constraint to the image to isolate regions within the image that are potentially considered to contain a portion of the geometry of the interventional medical device;
the predetermined constraints include pixel intensity characteristics and pixel positions relative to positions of the passive ultrasonic sensor;
A tangible non-transitory computer-readable storage medium in which a segmented representation of an interventional medical device is superimposed on an image together with the position of a passive ultrasound sensor.
実施例12
実施例10の有形非一時的コンピュータ可読ストレージ媒体であって、システムによって実施されるプロセスが、
介入医用デバイスの形状の一部分を含むと潜在的にみなす像内の領域を分離するために、所定の制約を像に適用する(S340)こと
をさらに含み、
所定の制約が、介入医用デバイスの形状の候補として使用される少なくとも1つの所定の形状を含む、有形非一時的コンピュータ可読ストレージ媒体。
Example 12
Example 10. The tangible non-transitory computer-readable storage medium of Example 10, wherein the process performed by the system comprises:
further comprising applying (S340) a predetermined constraint to the image to isolate regions within the image that are potentially considered to contain a portion of the geometry of the interventional medical device;
A tangible non-transitory computer-readable storage medium, wherein the predetermined constraints include at least one predetermined shape to be used as a candidate shape for an interventional medical device.
実施例13
実施例10の有形非一時的コンピュータ可読ストレージ媒体であって、システムによって実施されるプロセスが、
介入医用デバイスの形状の一部分を含むと潜在的にみなす像内の領域を分離するために、所定の制約を像に適用する(S340)こと
をさらに含み、
所定の制約が、所定の形状の少なくとも1次元特性を含む、有形非一時的コンピュータ可読ストレージ媒体。
Example 13
Example 10. The tangible non-transitory computer-readable storage medium of Example 10, wherein the process performed by the system comprises:
further comprising applying (S340) a predetermined constraint to the image to isolate regions within the image that are potentially considered to contain a portion of the geometry of the interventional medical device;
A tangible non-transitory computer-readable storage medium, wherein the predetermined constraint includes at least one dimensional characteristic of the predetermined shape.
実施例14
実施例9の有形非一時的コンピュータ可読ストレージ媒体であって、システムによって実施されるプロセスが、
介入医用デバイスが挿入される介入医療処置の対象者の表現を削除するために像をフィルタリングする(S340)ことであって、形状の要素が、フィルタリングの後に像に残っている、フィルタリングする(S340)ことと、
介入医用デバイスの形状の再構築を取得するために、フィルタリングの後に像に残っている介入医用デバイスの形状の要素に基づいて、介入医用デバイスの形状を再構築する(S350)ことと
をさらに含む、有形非一時的コンピュータ可読ストレージ媒体。
Example 14
The tangible non-transitory computer-readable storage medium of Example 9, wherein the process performed by the system comprises:
Filtering (S340) the image to remove representations of the subject of the interventional medical procedure into which the interventional medical device is inserted, where elements of shape remain in the image after filtering (S340). ) and
Reconstructing (S350) the shape of the interventional medical device based on elements of the shape of the interventional medical device remaining in the image after filtering to obtain a reconstruction of the shape of the interventional medical device. , a tangible non-transitory computer-readable storage medium.
実施例15
実施例14の有形非一時的コンピュータ可読ストレージ媒体であって、
セグメント化が、介入医用デバイスの形状の再構築に実行され、介入医用デバイスのセグメント化された表現が、介入医用デバイスの形状の再構築のセグメント化された表現を含む、有形非一時的コンピュータ可読ストレージ媒体。
Example 15
The tangible non-transitory computer-readable storage medium of Example 14, comprising:
A tangible non-transitory computer readable, wherein the segmentation is performed on the reconstruction of the shape of the interventional medical device, and the segmented representation of the interventional medical device comprises the segmented representation of the reconstruction of the shape of the interventional medical device storage medium.
実施例16
実施例9の有形非一時的コンピュータ可読ストレージ媒体であって、
セグメント化が、画像処理に基づいて所定の形状に実行され、介入医用デバイスのセグメント化された表現が、介入医用デバイスの所定の形状のセグメント化された表現を含み、その結果、所定の形状のセグメント化された表現が像に重ね合わされる、有形非一時的コンピュータ可読ストレージ媒体。
Example 16
The tangible non-transitory computer-readable storage medium of Example 9, comprising:
Segmentation is performed on the predetermined shape based on image processing, the segmented representation of the interventional medical device comprising a segmented representation of the predetermined shape of the interventional medical device, such that the predetermined shape A tangible non-transitory computer-readable storage medium on which the segmented representation is superimposed on the image.
実施例17
超音波イメージングプローブ(210)を使用して突き止められたパッシブ超音波センサ(S1)の位置に基づいて、介入医療処置中の介入医用デバイス(201)の形状を決定するためのシステム(200)であって、
介入医療処置中にビームを放出する超音波イメージングプローブ(210)と、
介入医療処置の間、介入医用デバイス(201)に固定されたパッシブ超音波センサ(S1)と、
命令を格納するメモリ(221)及び命令を実行するプロセッサ(222)を含むコントローラ(220)であって、
プロセッサ(222)によって実行されるとき、命令により、システムが、
超音波イメージングプローブからのビームの放出に基づいてパッシブ超音波センサの位置を取得する(S320)ことと、
介入医用デバイス及びパッシブ超音波センサを含むボリュームの像を取得する(S330)ことと、
介入医用デバイスの形状及び介入医用デバイスの位置を含む介入医用デバイスを識別するために、パッシブ超音波センサの位置に基づいて、画像処理を像に付与する(S340)ことと
介入医用デバイスのセグメント化された表現を取得するために介入医用デバイスをセグメント化する(S350)ことであって、介入医用デバイスのセグメント化された表現がパッシブ超音波センサの位置と一緒に像に重ね合わされる(S360)、セグメント化する(S350)ことと
を含むプロセスを実施する、コントローラ(220)と
を含む、システム(200)。
Example 17
A system (200) for determining the shape of an interventional medical device (201) during an interventional medical procedure based on the position of a passive ultrasound sensor (S1) located using an ultrasound imaging probe (210). There is
an ultrasound imaging probe (210) that emits a beam during an interventional medical procedure;
a passive ultrasonic sensor (S1) fixed to an interventional medical device (201) during an interventional medical procedure;
A controller (220) comprising a memory (221) for storing instructions and a processor (222) for executing the instructions,
When executed by processor (222), the instructions cause the system to:
obtaining (S320) the position of the passive ultrasonic sensor based on the emission of the beam from the ultrasonic imaging probe;
acquiring an image of a volume containing an interventional medical device and a passive ultrasound sensor (S330);
applying image processing (S340) to the image based on the position of the passive ultrasound sensor to identify the interventional medical device including the shape of the interventional medical device and the position of the interventional medical device; and segmenting the interventional medical device. segmenting (S350) the interventional medical device to obtain a rendered representation, wherein the segmented representation of the interventional medical device is superimposed on the image together with the positions of the passive ultrasound sensors (S360). , segmenting (S350).
実施例18
実施例17に記載のシステムであって、
パッシブ超音波センサの位置を決定し、パッシブ超音波センサの位置をコントローラ(220)に提供するセンサユニット(291/292)と、
コントローラ(220)によるセグメント化に基づいて介入医用デバイスのセグメント化された表現を表示し、センサユニットによって決定されたパッシブ超音波センサの位置を表示するディスプレイ(295)と
をさらに含む、システム。
Example 18
The system of Example 17, comprising:
a sensor unit (291/292) for determining the position of the passive ultrasonic sensor and providing the position of the passive ultrasonic sensor to the controller (220);
a display (295) displaying the segmented representation of the interventional medical device based on the segmentation by the controller (220) and displaying the position of the passive ultrasound sensor determined by the sensor unit.
実施例19
実施例17のシステムであって、システムによって実施されるプロセスが、
像内の介入医用デバイスの探索を、パッシブ超音波センサの位置から開始し(340)、画像処理を像に付与するために所定の制約を満たす像内の領域を探索すること
をさらに含む、システム。
Example 19
Example 17. The system of Example 17, wherein the process performed by the system comprises:
The system further comprising searching for an interventional medical device within the image starting from the position of the passive ultrasound sensor (340) and searching for regions within the image that satisfy predetermined constraints to apply image processing to the image. .
実施例20
実施例17のシステムであって、システムによって実施されるプロセスが、
介入医用デバイスが挿入される介入医療処置の対象者の表現を削除するために像をフィルタリングする(S340)ことであって、形状の要素が、フィルタリングの後に像に残っている、フィルタリングする(S340)ことと、
介入医用デバイスの形状の再構築を取得するために、フィルタリングの後に像に残っている形状の要素に基づいて、形状を再構築する(S350)ことと
をさらに含む、システム。
Example 20
Example 17. The system of Example 17, wherein the process performed by the system comprises:
Filtering (S340) the image to remove representations of the subject of the interventional medical procedure into which the interventional medical device is inserted, where elements of shape remain in the image after filtering (S340). ) and
reconstructing (S350) the shape based on the shape elements remaining in the image after filtering to obtain a reconstruction of the shape of the interventional medical device.
本明細書に記載された実施形態の図示は、様々な実施形態の構造の一般的な理解を提供するように意図される。図示は、本明細書に記載された本開示の要素及び特徴のすべての完全な説明として役立つようには意図されていない。多くの他の実施形態が、本開示を検討する際に当業者には明らかである。他の実施形態が、本開示から利用及び導出され、その結果、構造的及び論理的な置換及び変更が、本開示の範囲から逸脱することなく行われる。追加として、図示は、代表的なものにすぎず、一定の縮尺で描かれていないことがある。図示内の特定の比率は誇張されていることがあり、一方、他の比率は最小化されていることがある。その結果、本開示及び図は、限定ではなく例示と見なされるべきである。 The illustrations of the embodiments described herein are intended to provide a general understanding of the structure of the various embodiments. The illustrations are not intended to serve as a complete description of all of the elements and features of the disclosure described herein. Many other embodiments will be apparent to those of skill in the art upon reviewing the disclosure. Other embodiments may be utilized and derived from this disclosure, resulting in structural and logical substitutions and modifications without departing from the scope of this disclosure. Additionally, the illustrations are representative only and may not be drawn to scale. Certain proportions within the illustrations may be exaggerated, while other proportions may be minimized. As a result, the present disclosure and figures are to be considered illustrative rather than restrictive.
本開示の1つ又は複数の実施形態は、単に便宜のために、及び本出願の範囲を特定の発明又は発明の概念に自発的に限定することを意図することなしに、本明細書において、個別に及び/又は集合的に、「発明」という用語によって言及される。その上、特定の実施形態が本明細書に図示及び記載されているが、同じ又は同様の目的を達成するように設計された後続の構成が、図示の特定の実施形態の代わりに用いられてもよいことを理解されたい。本開示は、様々な実施形態のありとあらゆる後続の適応又は変形をカバーするように意図される。上述の実施形態と、本明細書に具体的に記載されていない他の実施形態との組合せは、説明を検討する際に当業者には明らかになる。 One or more embodiments of the present disclosure are disclosed herein merely for convenience and without the intention of voluntarily limiting the scope of this application to any particular invention or inventive concept: Individually and/or collectively referred to by the term "invention". Moreover, although specific embodiments are illustrated and described herein, subsequent constructions designed to accomplish the same or similar purposes may be substituted for the specific embodiments illustrated. It should be understood that This disclosure is intended to cover any and all subsequent adaptations or variations of various embodiments. Combinations of the above embodiments, and other embodiments not specifically described herein will be apparent to those of ordinary skill in the art upon reviewing the description.
本開示の要約書が、37 C.F.R. §1.72(b)に準拠するように提供され、特許請求の範囲の範囲又は意味を解釈又は限定するため使用されないという理解のもとで提出される。加えて、前述の「発明を実施するための形態」において、様々な特徴が、本開示を簡素化する目的で、一緒にグループ化されるか、又は単一の実施形態に記載されていることがある。本開示は、特許請求される実施形態が各請求項に明示的に詳述されるよりも多くの特徴を必要とするという意図を反映すると解釈されるべきでない。むしろ、以下の特許請求の範囲が示すように、本発明の主題は、開示された実施形態の任意のものの特徴のすべてよりも少ないものを対象とする。したがって、以下の特許請求の範囲は、「発明を実施するための形態」に組み込まれており、各請求項は、別個に特許請求される主題を定義するとして独立している。 An abstract of this disclosure is available at 37 C.F. F. R. It is provided to comply with § 1.72(b) and is submitted with the understanding that it will not be used to interpret or limit the scope or meaning of the claims. Additionally, in the foregoing Detailed Description, various features may be grouped together or described in a single embodiment for the purpose of streamlining the disclosure. There is This disclosure is not to be interpreted as reflecting an intention that the claimed embodiments require more features than are expressly recited in each claim. Rather, as the following claims reflect, inventive subject matter is directed to less than all features of any of the disclosed embodiments. Thus, the following claims are incorporated into this Detailed Description, with each claim standing on its own as defining separately claimed subject matter.
開示された実施形態の前出の説明は、当業者が本開示に記載された概念を実践することを可能にするために提供される。そのため、上述で開示された主題は、限定ではなく例示であると考えられるべきであり、添付の特許請求の範囲は、本開示の真の趣旨及び範囲に入るすべてのそのような変形、拡張、及び他の実施形態をカバーするように意図される。したがって、法律によって認められる最大の範囲において、本開示の範囲は、以下の特許請求の範囲及びその均等物の最も広い許容可能な解釈によって決定されるべきであり、前述の詳細な説明によって制限又は限定されないものとする。 The previous description of the disclosed embodiments is provided to enable any person skilled in the art to practice the concepts described in the present disclosure. For that reason, the above-disclosed subject matter is to be considered illustrative rather than limiting, and the appended claims cover all such modifications, extensions, and modifications that fall within the true spirit and scope of this disclosure. and other embodiments. Accordingly, the scope of the disclosure, to the fullest extent permitted by law, is to be determined by the broadest allowable interpretation of the following claims and their equivalents, either limited or limited by the preceding detailed description. shall not be limited.
Claims (22)
命令を格納するメモリと、
前記命令を実行するプロセッサとを含み、前記プロセッサで実行されるとき、前記命令により、前記コントローラを含むシステムが、
前記介入医用デバイスのポイントの位置を取得することと、
前記介入医用デバイスを含むボリュームの像を取得することと、
前記介入医用デバイスの前記形状を含む前記介入医用デバイスを識別するために、前記介入医用デバイスの前記位置に基づいて、画像処理を前記像に付与することと、
前記介入医用デバイスのセグメント化された表現を取得するために前記介入医用デバイスをセグメント化することであって、前記介入医用デバイスの前記セグメント化された表現が前記像に重ね合わされる、セグメント化することと、オプションとして、
表示のための前記セグメント化された表現が重ね合わされた前記像を、例えば、エンジニア、医師、又は患者などの前記システムのユーザに出力することと
を含むプロセスを実施する、コントローラ。 A controller for determining a shape of the interventional medical device during an interventional medical procedure based on a position of the interventional medical device, the controller comprising:
a memory for storing instructions;
a processor that executes the instructions, and when executed on the processor, the instructions cause a system including the controller to:
obtaining a position of a point of the interventional medical device;
acquiring an image of a volume containing the interventional medical device;
applying image processing to the image based on the position of the interventional medical device to identify the interventional medical device including the shape of the interventional medical device;
segmenting the interventional medical device to obtain a segmented representation of the interventional medical device, wherein the segmented representation of the interventional medical device is superimposed on the image; and optionally,
outputting the image overlaid with the segmented representation for display to a user of the system, eg, an engineer, a doctor, or a patient.
超音波イメージングプローブからのビームの放出に基づいてパッシブ超音波センサの位置を取得することであって、前記介入医用デバイスの前記位置が、前記パッシブ超音波センサの前記位置に対応する、取得することと、
前記像内の前記介入医用デバイスの探索を前記パッシブ超音波センサの前記位置から開始し、前記画像処理を前記像に付与するために所定の制約を満たす前記像内の前記領域を探索することと
をさらに含み、
前記介入医用デバイスの前記セグメント化された表現が、前記パッシブ超音波センサの前記位置と一緒に前記像に重ね合わされる、請求項1に記載のコントローラ。 The process performed by the system includes:
Obtaining a position of a passive ultrasonic sensor based on emission of a beam from an ultrasonic imaging probe, wherein the position of the interventional medical device corresponds to the position of the passive ultrasonic sensor. When,
searching for the interventional medical device within the image starting from the position of the passive ultrasound sensor and searching for the region within the image that satisfies predetermined constraints to apply the image processing to the image; further comprising
2. The controller of claim 1, wherein the segmented representation of the interventional medical device is superimposed on the image together with the position of the passive ultrasound sensor.
前記介入医用デバイスの前記形状の一部分を含むと潜在的にみなす前記像内の領域を分離するために、前記所定の制約を前記像に付与すること
をさらに含み、
前記所定の制約が、ピクセル強度の特性と、前記パッシブ超音波センサの前記位置に対するピクセル位置とを含む、請求項2に記載のコントローラ。 The process performed by the system includes:
further comprising imposing the predetermined constraint on the image to isolate regions within the image that are potentially considered to contain a portion of the shape of the interventional medical device;
3. The controller of claim 2, wherein the predetermined constraints include pixel intensity characteristics and pixel position relative to the position of the passive ultrasonic sensor.
前記介入医用デバイスの前記形状の一部分を含むと潜在的にみなす前記像内の領域を分離するために、前記所定の制約を前記像に付与すること
をさらに含み、
前記所定の制約が、前記介入医用デバイスの前記形状の候補として使用される少なくとも1つの所定の形状を含む、請求項2に記載のコントローラ。 The process performed by the system includes:
further comprising imposing the predetermined constraint on the image to isolate regions within the image that are potentially considered to contain a portion of the shape of the interventional medical device;
3. The controller of claim 2, wherein the predetermined constraints include at least one predetermined shape to be used as the shape candidate for the interventional medical device.
前記介入医用デバイスの前記形状の一部分を含むと潜在的にみなす前記像内の領域を分離するために、前記所定の制約を前記像に付与すること
をさらに含み、
前記所定の制約が、所定の形状の少なくとも1次元特性を含む、請求項2に記載のコントローラ。 The process performed by the system includes:
further comprising imposing the predetermined constraint on the image to isolate regions within the image that are potentially considered to contain a portion of the shape of the interventional medical device;
3. The controller of claim 2, wherein said predetermined constraint comprises at least one dimensional property of a predetermined shape.
前記介入医用デバイスが挿入される前記介入医療処置の対象者の表現を削除するために前記像をフィルタリングすることであって、前記介入医用デバイスの前記形状の要素が、前記フィルタリングの後に前記像に残っている、フィルタリングすることと、
前記介入医用デバイスの前記形状の再構築を取得するために、前記フィルタリングの後に前記像に残っている前記介入医用デバイスの前記形状の前記要素に基づいて、前記介入医用デバイスの前記形状を再構築することと
をさらに含む、請求項1に記載のコントローラ。 The process performed by the system includes:
filtering the image to remove a representation of a subject of the interventional medical procedure into which the interventional medical device is inserted, wherein elements of the shape of the interventional medical device are present in the image after the filtering; remaining filtering and
Reconstructing the shape of the interventional medical device based on the elements of the shape of the interventional medical device remaining in the image after the filtering to obtain a reconstruction of the shape of the interventional medical device. 3. The controller of claim 1, further comprising:
前記介入医用デバイスの位置を取得することと、
前記介入医用デバイスを含むボリュームの像を取得することと、
前記介入医用デバイスの前記形状を含む前記介入医用デバイスを識別するために、前記介入医用デバイスの少なくとも1つのポイントの位置に基づいて、画像処理を前記像に付与することと、
前記介入医用デバイスのセグメント化された表現を取得するために前記介入医用デバイスをセグメント化することであって、前記介入医用デバイスの前記セグメント化された表現が前記像に重ね合わされる、セグメント化することと
を含む、有形非一時的コンピュータ可読ストレージ媒体。 A tangible, non-transitory, computer-readable storage medium storing a computer program that, when executed by a processor, provides a system containing the tangible, non-transitory computer-readable storage medium for interventional medical intervention during an interventional medical procedure. causing a process for determining a shape of a device to be performed based on the position of said interventional medical device, said process being performed when said processor executes said computer program from said tangible non-transitory computer-readable storage medium; ,
obtaining a position of the interventional medical device;
acquiring an image of a volume containing the interventional medical device;
applying image processing to the image based on the position of at least one point of the interventional medical device to identify the interventional medical device including the shape of the interventional medical device;
segmenting the interventional medical device to obtain a segmented representation of the interventional medical device, wherein the segmented representation of the interventional medical device is superimposed on the image; A tangible, non-transitory computer-readable storage medium, comprising:
前記像内の前記介入医用デバイスの探索を、パッシブ超音波センサの位置から開始し、前記画像処理を前記像に付与するために所定の制約を満たす前記像内の領域を探索すること
をさらに含む、請求項9に記載の有形非一時的コンピュータ可読ストレージ媒体。 The process performed by the system includes:
Searching for said interventional medical device within said image starting from a position of a passive ultrasound sensor and searching for a region within said image that satisfies a predetermined constraint to apply said image processing to said image. 10. The tangible non-transitory computer-readable storage medium of claim 9.
超音波イメージングプローブからのビームの放出に基づいてパッシブ超音波センサの位置を取得することであって、前記介入医用デバイスの前記位置が前記パッシブ超音波センサの前記位置に対応する、取得することと、
前記介入医用デバイスの前記形状の一部分を含むと潜在的にみなす前記像内の領域を分離するために、前記所定の制約を前記像に適用することと
をさらに含み、
前記所定の制約が、ピクセル強度の特性と、前記パッシブ超音波センサの前記位置に対するピクセル位置とを含み、
前記介入医用デバイスの前記セグメント化された表現が、前記パッシブ超音波センサの前記位置と一緒に前記像に重ね合わされる、請求項10に記載の有形非一時的コンピュータ可読ストレージ媒体。 The process performed by the system includes:
obtaining a position of a passive ultrasonic sensor based on emission of a beam from an ultrasonic imaging probe, wherein the position of the interventional medical device corresponds to the position of the passive ultrasonic sensor; ,
applying the predetermined constraint to the image to isolate regions within the image that are potentially considered to contain a portion of the shape of the interventional medical device;
the predetermined constraints include pixel intensity characteristics and pixel locations relative to the location of the passive ultrasonic sensor;
11. The tangible non-transitory computer-readable storage medium of claim 10, wherein the segmented representation of the interventional medical device is superimposed on the image along with the position of the passive ultrasound sensor.
前記介入医用デバイスの前記形状の一部分を含むと潜在的にみなす前記像内の領域を分離するために、前記所定の制約を前記像に適用すること
をさらに含み、
前記所定の制約が、前記介入医用デバイスの前記形状の候補として使用される少なくとも1つの所定の形状を含む、請求項10に記載の有形非一時的コンピュータ可読ストレージ媒体。 The process performed by the system includes:
further comprising applying the predetermined constraint to the image to isolate regions within the image that are potentially considered to contain a portion of the shape of the interventional medical device;
11. The tangible non-transitory computer-readable storage medium of claim 10, wherein the predetermined constraints include at least one predetermined shape to be used as the shape candidate for the interventional medical device.
前記介入医用デバイスの前記形状の一部分を含むと潜在的にみなす前記像内の領域を分離するために、前記所定の制約を前記像に適用すること
をさらに含み、
前記所定の制約が、所定の形状の少なくとも1次元特性を含む、請求項10に記載の有形非一時的コンピュータ可読ストレージ媒体。 The process performed by the system includes:
further comprising applying the predetermined constraint to the image to isolate regions within the image that are potentially considered to contain a portion of the shape of the interventional medical device;
11. The tangible non-transitory computer-readable storage medium of claim 10, wherein said predetermined constraint comprises at least one dimensional property of a predetermined shape.
前記介入医用デバイスが挿入される前記介入医療処置の対象者の表現を削除するために前記像をフィルタリングすることであって、前記形状の要素が、前記フィルタリングの後に前記像に残っている、フィルタリングすることと、
前記介入医用デバイスの前記形状の再構築を取得するために、前記フィルタリングの後に前記像に残っている前記介入医用デバイスの前記形状の前記要素に基づいて、前記介入医用デバイスの前記形状を再構築することと
をさらに含む、請求項9に記載の有形非一時的コンピュータ可読ストレージ媒体。 The process performed by the system includes:
filtering the image to remove a representation of a subject of the interventional medical procedure into which the interventional medical device is inserted, wherein the shape elements remain in the image after the filtering. and
Reconstructing the shape of the interventional medical device based on the elements of the shape of the interventional medical device remaining in the image after the filtering to obtain a reconstruction of the shape of the interventional medical device. 10. The tangible non-transitory computer-readable storage medium of claim 9, further comprising:
前記介入医療処置中にビームを放出する超音波イメージングプローブと、
前記介入医療処置の間、前記介入医用デバイスに固定されたパッシブ超音波センサと、
命令を格納するメモリ及び前記命令を実行するプロセッサを含むコントローラであって、プロセッサによって実行されるとき、前記命令により、前記システムが、
前記超音波イメージングプローブからのビームの放出に基づいて前記パッシブ超音波センサの前記位置を取得することと、
前記介入医用デバイス及び前記パッシブ超音波センサを含むボリュームの像を取得することと、
前記介入医用デバイスの前記形状及び前記介入医用デバイスの位置を含む前記介入医用デバイスを識別するために、前記パッシブ超音波センサの前記位置に基づいて、画像処理を前記像に付与することと
前記介入医用デバイスのセグメント化された表現を取得するために前記介入医用デバイスをセグメント化することであって、前記介入医用デバイスの前記セグメント化された表現が、前記パッシブ超音波センサの前記位置と一緒に前記像に重ね合わされる、セグメント化することと
を含むプロセスを実施する、コントローラと、オプションとして、
前記コントローラからの前記セグメント化された表現を重ね合わされた前記像を受け取り、前記像を、例えば、エンジニア、医師、又は患者などの前記システムのユーザに表示するためのディスプレイと
を含む、システム。 1. A system for determining the shape of an interventional medical device during an interventional medical procedure based on the position of a passive ultrasonic sensor located using an ultrasonic imaging probe, said system comprising:
an ultrasound imaging probe that emits a beam during the interventional medical procedure;
a passive ultrasonic sensor secured to the interventional medical device during the interventional medical procedure;
A controller comprising a memory storing instructions and a processor executing the instructions, the instructions, when executed by the processor, causing the system to:
obtaining the position of the passive ultrasonic sensor based on the emission of beams from the ultrasonic imaging probe;
acquiring an image of a volume containing the interventional medical device and the passive ultrasound sensor;
applying image processing to the image based on the position of the passive ultrasound sensor to identify the interventional medical device including the shape of the interventional medical device and the position of the interventional medical device; segmenting the interventional medical device to obtain a segmented representation of the medical device, wherein the segmented representation of the interventional medical device is combined with the position of the passive ultrasonic sensor; superimposed on said image, a controller performing a process comprising segmenting; and optionally:
a display for receiving the image overlaid with the segmented representation from the controller and displaying the image to a user of the system, such as an engineer, physician, or patient.
前記コントローラによる前記セグメント化に基づいて前記介入医用デバイスの前記セグメント化された表現を表示し、前記センサユニットによって決定された前記パッシブ超音波センサの前記位置を表示するディスプレイと
をさらに含む、請求項17に記載のシステム。 a sensor unit for determining the position of the passive ultrasonic sensor and providing the position of the passive ultrasonic sensor to the controller;
a display displaying said segmented representation of said interventional medical device based on said segmentation by said controller and displaying said position of said passive ultrasound sensor determined by said sensor unit. 18. The system according to 17.
前記像内の前記介入医用デバイスの探索を、前記パッシブ超音波センサの前記位置から開始し、前記画像処理を前記像に付与するために所定の制約を満たす前記像内の前記領域を探索すること
をさらに含む、請求項17に記載のシステム。 The process performed by the system includes:
searching for the interventional medical device in the image starting from the position of the passive ultrasound sensor and searching the region in the image that satisfies predetermined constraints to apply the image processing to the image; 18. The system of claim 17, further comprising:
前記介入医用デバイスが挿入される前記介入医療処置の対象者の表現を削除するために前記像をフィルタリングすることであって、前記形状の要素が、前記フィルタリングの後に前記像に残っている、フィルタリングすることと、
前記介入医用デバイスの前記形状の再構築を取得するために、前記フィルタリングの後に前記像に残っている前記形状の要素に基づいて、前記形状を再構築することと
をさらに含む、請求項17に記載のシステム。 The process performed by the system includes:
filtering the image to remove a representation of a subject of the interventional medical procedure into which the interventional medical device is inserted, wherein the shape elements remain in the image after the filtering. and
and reconstructing the shape based on elements of the shape remaining in the image after the filtering to obtain a reconstruction of the shape of the interventional medical device. System as described.
前記介入医用デバイスのポイントの位置を受け取るか又は取得するステップと、
前記介入医用デバイスを含むボリュームの像を受け取るか又は取得するステップと、
前記介入医用デバイスの前記形状を含む前記介入医用デバイスを識別するために、前記介入医用デバイスの少なくとも1つのポイントの位置に基づいて、画像処理を前記像に付与するステップと、
前記介入医用デバイスのセグメント化された表現を取得するために前記介入医用デバイスをセグメント化するステップであって、前記介入医用デバイスの前記セグメント化された表現が前記像に重ね合わされる、セグメント化するステップと、オプションとして、
前記セグメント化された表現を重ね合わされた前記像を、例えば、エンジニア、医師、又は患者などの前記方法のユーザに提供するステップと
を有する、方法。 A method for determining the geometry of an interventional medical device during an interventional medical procedure, the method comprising:
receiving or obtaining a position of a point of the interventional medical device;
receiving or acquiring an image of a volume containing the interventional medical device;
applying image processing to the image based on the position of at least one point of the interventional medical device to identify the interventional medical device including the shape of the interventional medical device;
segmenting the interventional medical device to obtain a segmented representation of the interventional medical device, wherein the segmented representation of the interventional medical device is superimposed on the image; step and, optionally,
and providing the image overlaid with the segmented representations to a user of the method, for example an engineer, a doctor, or a patient.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962855013P | 2019-05-31 | 2019-05-31 | |
US62/855,013 | 2019-05-31 | ||
EP19189347.8 | 2019-07-31 | ||
EP19189347.8A EP3771435A1 (en) | 2019-07-31 | 2019-07-31 | Passive-ultrasound-sensor-based initialization for image-based device segmentation |
PCT/EP2020/063878 WO2020239514A1 (en) | 2019-05-31 | 2020-05-19 | Passive-ultrsound-sensor-based initialization for image-based device segmentantion |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022534916A true JP2022534916A (en) | 2022-08-04 |
JPWO2020239514A5 JPWO2020239514A5 (en) | 2023-05-26 |
Family
ID=70681869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021570310A Pending JP2022534916A (en) | 2019-05-31 | 2020-05-19 | Passive Ultrasonic Sensor-Based Initialization for Image-Based Device Segmentation |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3975863A1 (en) |
JP (1) | JP2022534916A (en) |
CN (1) | CN113950294B (en) |
WO (1) | WO2020239514A1 (en) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060253032A1 (en) * | 2005-04-26 | 2006-11-09 | Altmann Andres C | Display of catheter tip with beam direction for ultrasound system |
JP2012515013A (en) * | 2009-01-14 | 2012-07-05 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Monitoring device to monitor ablation treatment |
WO2012117381A1 (en) * | 2011-03-03 | 2012-09-07 | Koninklijke Philips Electronics N.V. | System and method for automated initialization and registration of navigation system |
US20130079628A1 (en) * | 2007-10-02 | 2013-03-28 | General Electric Company | Dynamic reference method and system for interventional procedures |
US20130281839A1 (en) * | 2011-01-13 | 2013-10-24 | Koninklijke Philips Electronics N.V. | Visualization of catheter of three-dimensional ultrasound |
JP2013542828A (en) * | 2010-11-18 | 2013-11-28 | コーニンクレッカ フィリップス エヌ ヴェ | Positioning device |
US20140187947A1 (en) * | 2012-12-31 | 2014-07-03 | General Electric Company | Ultrasound imaging system and method for identifying data from a shadow region |
WO2014155285A1 (en) * | 2013-03-28 | 2014-10-02 | Koninklijke Philips N.V. | Instrument localization in guided high dose rate brachytherapy |
WO2016092415A1 (en) * | 2014-12-09 | 2016-06-16 | Koninklijke Philips N.V. | Single-modality-based visual distinguishing of medical intervention device from tissue |
JP2016531707A (en) * | 2013-09-19 | 2016-10-13 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | High dose rate short range radiation therapy system |
JP2017520346A (en) * | 2014-07-16 | 2017-07-27 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Intelligent and real-time visualization of instruments and anatomy in interventional 3D imaging workflows |
JP2017535377A (en) * | 2014-12-01 | 2017-11-30 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Alignment of optical shape sensing tool |
WO2018178248A1 (en) * | 2017-03-30 | 2018-10-04 | Koninklijke Philips N.V. | Oss foreshortening detection systems |
WO2019162217A1 (en) * | 2018-02-22 | 2019-08-29 | Koninklijke Philips N.V. | Sensor-based shape identification |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015092628A1 (en) * | 2013-12-20 | 2015-06-25 | Koninklijke Philips N.V. | Ultrasound imaging systems and methods for tracking locations of an invasive medical device |
CN106133797B (en) * | 2014-03-21 | 2021-03-02 | 皇家飞利浦有限公司 | Medical viewing system with viewing plane determination |
WO2018234230A1 (en) * | 2017-06-19 | 2018-12-27 | Koninklijke Philips N.V. | Interleaved imaging and tracking sequences for ultrasound-based instrument tracking |
-
2020
- 2020-05-19 CN CN202080040310.XA patent/CN113950294B/en active Active
- 2020-05-19 EP EP20725568.8A patent/EP3975863A1/en active Pending
- 2020-05-19 WO PCT/EP2020/063878 patent/WO2020239514A1/en active Search and Examination
- 2020-05-19 JP JP2021570310A patent/JP2022534916A/en active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060253032A1 (en) * | 2005-04-26 | 2006-11-09 | Altmann Andres C | Display of catheter tip with beam direction for ultrasound system |
US20130079628A1 (en) * | 2007-10-02 | 2013-03-28 | General Electric Company | Dynamic reference method and system for interventional procedures |
JP2012515013A (en) * | 2009-01-14 | 2012-07-05 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Monitoring device to monitor ablation treatment |
JP2013542828A (en) * | 2010-11-18 | 2013-11-28 | コーニンクレッカ フィリップス エヌ ヴェ | Positioning device |
US20130281839A1 (en) * | 2011-01-13 | 2013-10-24 | Koninklijke Philips Electronics N.V. | Visualization of catheter of three-dimensional ultrasound |
WO2012117381A1 (en) * | 2011-03-03 | 2012-09-07 | Koninklijke Philips Electronics N.V. | System and method for automated initialization and registration of navigation system |
US20140187947A1 (en) * | 2012-12-31 | 2014-07-03 | General Electric Company | Ultrasound imaging system and method for identifying data from a shadow region |
WO2014155285A1 (en) * | 2013-03-28 | 2014-10-02 | Koninklijke Philips N.V. | Instrument localization in guided high dose rate brachytherapy |
JP2016531707A (en) * | 2013-09-19 | 2016-10-13 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | High dose rate short range radiation therapy system |
JP2017520346A (en) * | 2014-07-16 | 2017-07-27 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Intelligent and real-time visualization of instruments and anatomy in interventional 3D imaging workflows |
JP2017535377A (en) * | 2014-12-01 | 2017-11-30 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Alignment of optical shape sensing tool |
WO2016092415A1 (en) * | 2014-12-09 | 2016-06-16 | Koninklijke Philips N.V. | Single-modality-based visual distinguishing of medical intervention device from tissue |
JP2017536903A (en) * | 2014-12-09 | 2017-12-14 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Single-modality-based visual identification of medical intervention devices from an organization |
WO2018178248A1 (en) * | 2017-03-30 | 2018-10-04 | Koninklijke Philips N.V. | Oss foreshortening detection systems |
WO2019162217A1 (en) * | 2018-02-22 | 2019-08-29 | Koninklijke Philips N.V. | Sensor-based shape identification |
Also Published As
Publication number | Publication date |
---|---|
CN113950294A (en) | 2022-01-18 |
CN113950294B (en) | 2025-02-11 |
WO2020239514A1 (en) | 2020-12-03 |
EP3975863A1 (en) | 2022-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2718543T3 (en) | System and procedure for navigation based on merged images with late marker placement | |
JP5717942B2 (en) | Edge detection in ultrasound images | |
US20220249038A1 (en) | Determining Rotational Orientation Of A Deep Brain Stimulation Electrode In A Three-Dimensional Image | |
JP6395995B2 (en) | Medical video processing method and apparatus | |
JP5345290B2 (en) | Image registration using locally weighted adaptation | |
US8867808B2 (en) | Information processing apparatus, information processing method, program, and storage medium | |
US8126239B2 (en) | Registering 2D and 3D data using 3D ultrasound data | |
KR101932721B1 (en) | Method and Appartus of maching medical images | |
US9936896B2 (en) | Active system and method for imaging with an intra-patient probe | |
JP6620252B2 (en) | Correction of probe induced deformation in ultrasonic fusion imaging system | |
JP6393698B2 (en) | Data display and processing algorithms for 3D imaging systems | |
JP2007515242A (en) | System for guiding medical equipment into a patient's body | |
KR102106535B1 (en) | Method, apparatus and system for generating model representing deformation of shape and location of organ in respiration cycle | |
JP6644795B2 (en) | Ultrasound imaging apparatus and method for segmenting anatomical objects | |
US9990725B2 (en) | Medical image processing apparatus and medical image registration method using virtual reference point for registering images | |
JP7427008B2 (en) | Real-time tracking for merging ultrasound and X-ray images | |
EP3142587A1 (en) | Reconstruction-free automatic multi-modality ultrasound registration. | |
KR20130143434A (en) | Method and apparatus for tracking focus of high-intensity focused ultrasound | |
JP2013223620A (en) | Apparatus, method, and program for registration processing of medical image | |
US20160242745A1 (en) | Systems, Methods and Computer Readable Storage Media Storing Instructions for Image-Guided Interventions Based on Patient-Specific Models | |
JP7537432B2 (en) | Image-Based Device Tracking | |
CN113950294B (en) | Passive Ultrasonic Sensor-Based Initialization for Image-Based Device Segmentation | |
US12201471B2 (en) | Passive-ultrasound-sensor-based initialization for image-based device segmentation | |
US20230092430A1 (en) | Providing result image data | |
Azira | Development of a registration framework for echocardiography and computed tomography cardiovascular image fusion/Azira Khalil |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230518 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230518 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231225 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240321 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240708 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20250107 |