JP4703193B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP4703193B2 JP4703193B2 JP2005008225A JP2005008225A JP4703193B2 JP 4703193 B2 JP4703193 B2 JP 4703193B2 JP 2005008225 A JP2005008225 A JP 2005008225A JP 2005008225 A JP2005008225 A JP 2005008225A JP 4703193 B2 JP4703193 B2 JP 4703193B2
- Authority
- JP
- Japan
- Prior art keywords
- time
- image data
- series
- dimensional image
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 195
- 238000000605 extraction Methods 0.000 claims description 54
- 230000033001 locomotion Effects 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 6
- 230000003183 myoelectrical effect Effects 0.000 claims description 6
- 230000002123 temporal effect Effects 0.000 claims description 2
- 238000013500 data storage Methods 0.000 claims 1
- 238000000034 method Methods 0.000 description 37
- 230000008569 process Effects 0.000 description 25
- 239000000284 extract Substances 0.000 description 16
- 230000005540 biological transmission Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 239000000523 sample Substances 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 9
- 230000001360 synchronised effect Effects 0.000 description 9
- 230000017531 blood circulation Effects 0.000 description 7
- 238000003745 diagnosis Methods 0.000 description 7
- 101001053302 Homo sapiens Serine protease inhibitor Kazal-type 7 Proteins 0.000 description 6
- 102100024376 Serine protease inhibitor Kazal-type 7 Human genes 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 6
- 239000003550 marker Substances 0.000 description 6
- 238000001356 surgical procedure Methods 0.000 description 6
- 238000013480 data collection Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000002604 ultrasonography Methods 0.000 description 4
- 230000008602 contraction Effects 0.000 description 3
- 239000006185 dispersion Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 238000002432 robotic surgery Methods 0.000 description 3
- 108010076504 Protein Sorting Signals Proteins 0.000 description 2
- 210000003484 anatomy Anatomy 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000036982 action potential Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000004165 myocardium Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
Images
Landscapes
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
この発明は、超音波診断装置、X線CT装置、又はMRI装置等の医用画像診断装置により時系列的に撮像された3次元で表される医用画像を画像処理して表示するための画像処理装置に関する。 The present invention relates to image processing for processing and displaying a three-dimensional medical image captured in time series by a medical image diagnostic apparatus such as an ultrasonic diagnostic apparatus, an X-ray CT apparatus, or an MRI apparatus. Relates to the device.
超音波診断装置又はX線CT装置等の医用画像診断装置にて撮像された患者の医用画像を観察するために、画像表示及び画像処理が行える画像処理装置が用いられている。この画像処理装置は、2次元画像の表示に加え、3次元画像を観察することもできる。この観察の際には、画像同士を比較するため、例えば、各々の画像表示の観察角度及び拡大率を同じ状態にして観察することにより、画像同士の比較が容易になる。 In order to observe a medical image of a patient imaged by a medical image diagnostic apparatus such as an ultrasonic diagnostic apparatus or an X-ray CT apparatus, an image processing apparatus capable of image display and image processing is used. This image processing apparatus can observe a three-dimensional image in addition to displaying a two-dimensional image. In this observation, in order to compare the images, for example, the images can be easily compared by observing the images at the same observation angle and magnification rate.
また、3次元画像を表示する画像処理装置では、複数の3次元画像を表示することができるものがあり、複数の3次元画像を表示する際に、撮影時の撮影情報及び表示パラメータに基づいて同期させて表示するものが知られている(例えば特許文献1)。 In addition, some image processing apparatuses that display a three-dimensional image can display a plurality of three-dimensional images. When displaying a plurality of three-dimensional images, based on shooting information and display parameters at the time of shooting. One that displays in synchronization is known (for example, Patent Document 1).
しかしながら、従来の画像処理装置においては、所定の時間ごとに撮像された時系列的な3次元画像データを同期させて表示することは行われていない。そのため、医用画像診断装置にてスキャンが行なわれている最中に、いわゆるリアルタイムに複数の3次元画像データを同期させて表示させることは困難であり、また、異なる医用画像診断装置にて撮像された時系列的な3次元画像データを重畳させて表示することは困難であった。 However, in the conventional image processing apparatus, time-series three-dimensional image data captured every predetermined time is not displayed in synchronization. For this reason, it is difficult to display a plurality of three-dimensional image data in synchronism in real time while scanning is performed by the medical image diagnostic apparatus, and images are captured by different medical image diagnostic apparatuses. It has been difficult to display the time-series three-dimensional image data superimposed.
また、従来の画像処理装置においては、スキャン中に3次元画像データから観察したい領域を抽出して、抽出した観察領域に含まれる3次元画像同士を同期させて比較することが行われていなかった。そのため、時系列的な3次元画像データを扱う場合、特に、複数の時系列的な3次元画像データ同士を比較する場合に、各時相における3次元画像データを領域抽出する必要があるが、そのデータ量が膨大であるため、操作者は多大な労力と時間を費やす必要があった。これにより、例えば、術前と術後の時系列的な3次元画像データの比較や、典型症例との比較等が困難となっていた。 Further, in the conventional image processing apparatus, an area to be observed is extracted from the 3D image data during scanning, and the 3D images included in the extracted observation area are not synchronized and compared. . Therefore, when dealing with time-series three-dimensional image data, particularly when comparing a plurality of time-series three-dimensional image data, it is necessary to extract a region of the three-dimensional image data in each time phase. Since the amount of data is enormous, the operator has to spend a great deal of labor and time. This makes it difficult to compare time-series 3D image data before and after surgery, comparison with typical cases, and the like.
以上のように、従来技術に係る画像処理装置においては、スキャン中(リアルタイム)に時系列的な3次元画像データ同士を比較することができず、一旦保存した3次元画像データに対する処理のみが可能となるため、その応用が限られていた。 As described above, in the image processing apparatus according to the prior art, time-series 3D image data cannot be compared with each other during scanning (real time), and only processing for the temporarily stored 3D image data is possible. Therefore, its application was limited.
また、スキャン中(リアルタイム)に所望の観察領域に含まれる3次元画像の抽出が行われていなかったため、ロボット手術等の術中ナビゲーションシステムへの応用が困難となっていた。 In addition, since a three-dimensional image included in a desired observation area has not been extracted during scanning (real time), it has been difficult to apply to intraoperative navigation systems such as robotic surgery.
さらに、医用画像診断装置として例えば超音波診断装置を用いる場合、ストレスエコー方法により、心電信号(ECG信号)を利用して時系列的な断層像データを同期させて表示するものが知られている。しかしながら、従来の超音波診断装置においては、断層像データの位置が超音波プローブの位置に依存するため、複数の断層像データを比較する際に、各断層像データの座標系が異なるため、複数の断層像データの位置合わせを行って比較することが困難であり、更にこの位置合わせは、医師や技師等の経験や勘に頼っていた。また、ECG信号を利用して同期して表示する際に、断層像データから所望の観察領域を抽出して、その所望の観察領域に含まれる断層像同士をリアルタイムに比較することや、欠けている画像データを補間処理により求めることは行われていなかった。 Further, when an ultrasonic diagnostic apparatus is used as a medical image diagnostic apparatus, for example, an apparatus that displays time-sequential tomographic image data synchronously using an electrocardiogram signal (ECG signal) by a stress echo method is known. Yes. However, in the conventional ultrasonic diagnostic apparatus, since the position of the tomographic image data depends on the position of the ultrasonic probe, when comparing a plurality of tomographic image data, the coordinate system of each tomographic image data is different. It was difficult to compare the tomographic image data of each other and compare them, and this alignment relied on the experience and intuition of doctors and engineers. Further, when displaying in synchronization using the ECG signal, a desired observation area is extracted from the tomographic image data, and the tomographic images included in the desired observation area are compared in real time, or lacking. Obtaining image data by interpolation processing has not been performed.
この発明は上記の問題を解決するものであり、予め収集された時系列的な3次元画像データから抽出した観察領域の範囲に基づいて、スキャンにより時系列的に収集されている3次元画像データから時間ごとに所望の観察領域をリアルタイムに抽出することが可能な画像処理装置を提供することを目的とするものである。そのことにより、医用画像診断装置を用いて時系列的に収集される3次元画像データと、予め医用画像診断装置により収集されて保存されている時系列的な3次元画像データとを、表示装置にて表示して比較する際に、時間ごとに所望の観察領域に含まれる3次元画像同士の比較を容易にすることが可能な画像処理装置を提供することを目的とするものである。 The present invention solves the above-described problem, and the three-dimensional image data collected in time series by scanning based on the range of the observation area extracted from the time-series three-dimensional image data collected in advance. It is an object of the present invention to provide an image processing apparatus capable of extracting a desired observation region in real time from time to time. As a result, the display device displays three-dimensional image data collected in time series using the medical image diagnostic apparatus and time-series three-dimensional image data collected and stored in advance by the medical image diagnostic apparatus. It is an object of the present invention to provide an image processing apparatus capable of facilitating comparison of three-dimensional images included in a desired observation area every time when displayed and compared.
また、心電信号等の生体情報を用いることにより、複数の3次元画像データを時間的に同期させことが可能な画像処理装置を提供することを目的とするものである。その結果、複数の3次元画像データ同士の比較を容易にすることが可能な画像処理装置を提供することを目的とするものである。 It is another object of the present invention to provide an image processing apparatus capable of temporally synchronizing a plurality of three-dimensional image data by using biological information such as an electrocardiogram signal. As a result, an object of the present invention is to provide an image processing apparatus capable of easily comparing a plurality of three-dimensional image data.
また、抽出された観察領域に含まれる3次元画像の向き(座標系)を一致させたり、表示される画像の操作方法において、観察角度、拡大率等の表示操作を、比較する複数の3次元画像データで共通化したり、画像処理に用いられるオパシティ(画像の不透明度)等の表示パラメータを共通化することにより、時系列的な3次元画像データ同士の比較を容易にし、患部の経時変化や治療効果等の確認も容易であって、診察や診断の援助となる新たな医療情報の提供が可能な画像処理装置を提供することを目的とするものである。 In addition, a plurality of three-dimensional images for comparing the display angle, magnification, and other display operations in the operation method of the displayed image by matching the orientation (coordinate system) of the three-dimensional image included in the extracted observation region By sharing display parameters such as image data and display parameters such as opacity (image opacity) used for image processing, it is easy to compare time-series 3D image data, It is an object of the present invention to provide an image processing apparatus that can easily confirm a therapeutic effect and can provide new medical information for assisting diagnosis and diagnosis.
さらに、スキャン中に時系列的な3次元画像データから所望の観察領域をリアルタイムに抽出することが可能となることにより、スキャン中の時系列的な3次元画像データ、過去に収集された時系列的な3次元画像データ、又は被検体の実画像の比較が可能となるため、ロボット手術等の術中ナビゲーションシステムへの応用を可能とするものである。 Further, since it becomes possible to extract a desired observation area in real time from the time-series three-dimensional image data during the scan, the time-series three-dimensional image data during the scan, the time series collected in the past Since it is possible to compare typical three-dimensional image data or an actual image of a subject, it can be applied to an intraoperative navigation system such as robotic surgery.
請求項1に記載の発明は、時間ごとに変化する被検体の生体情報と共に所定時間ごとに収集される第1の時系列的な3次元画像データと、前記生体情報と共に前記所定時間ごとに予め収集された第2の時系列的な3次元画像データと、を受けて、前記生体情報に基づいて、前記第1の時系列的な3次元画像データと前記第2の時系列的な3次元画像データとを同期させる時間同期手段と、前記予め収集された前記第2の時系列的な3次元画像データから時相ごとに異なる第2の観察領域に含まれる3次元画像データを時相ごとに抽出し、前記時相ごとに異なる前記第2の観察領域に基づいて、前記第1の時系列的な3次元画像データに対する第1の観察領域を時相ごとに求め、前記第1の時系列的な3次元画像データから前記時相ごとに異なる前記第1の観察領域に含まれる3次元画像データを時相ごとに逐次、抽出する領域抽出手段と、前記第1の時系列的な3次元画像データ及び前記第2の時系列的な3次元画像データからそれぞれ時相ごとに抽出された3次元画像データを同期させて表示する表示手段と、を有する画像処理装置である。 According to the first aspect of the present invention, the first time-series three-dimensional image data collected every predetermined time together with the biological information of the subject changing with time, and the biological information together with the biological information in advance every predetermined time. In response to the collected second time-series three-dimensional image data, based on the biological information, the first time-series three-dimensional image data and the second time-series three-dimensional data Time synchronization means for synchronizing image data, and 3D image data included in a second observation region that differs for each time phase from the second time-series 3D image data collected in advance, for each time phase The first observation region for the first time-series three-dimensional image data is obtained for each time phase based on the second observation region that is different for each time phase, and the first time It differs from time-series 3D image data for each time phase. Sequential three-dimensional image data included in the first observation region for each time phase, a region extracting means for extracting said first time-series three-dimensional image data and the second time-series 3D An image processing apparatus having display means for synchronously displaying three-dimensional image data extracted for each time phase from image data .
請求項1に記載の発明によると、予め収集された時系列的な3次元画像データから抽出した領域の観察領域に基づいて、スキャンにより得られている時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データをリアルタイムに抽出することが可能となる。この発明を応用することにより、各時間における観察領域に含まれる3次元画像同士の比較を容易に行うことが可能となる。さらに、時間ごとに変化する生体情報に基づいて、予め収集された時系列的な3次元画像データと、スキャンにより得られている時系列的な3次元画像データとを同期させることが可能となる。これを応用することにより、同じ時間で収集された3次元画像同士の比較が可能となり、画像の比較が容易になる。また、請求項2に記載の発明によると、観察対象の変化に追従して抽出する観察領域の範囲を変更して、スキャンにより得られている時系列的な3次元画像データに適用することにより、その時系列的な3次元画像データに適合した範囲に含まれる3次元画像を抽出することが可能となる。また、請求項5に記載の発明によると、所定時間において3次元画像データが欠けている場合であっても、その所定時間の前後で収集された3次元画像データを用いて、その所定時間における3次元画像データを補間して生成することにより、その所定時間において3次元画像を比較することが可能となる。また、請求項6及び請求項7に記載の発明によると、時間ごとに座標系を一致させることにより、予め収集された時系列的な3次元画像データと、スキャンにより得られている時系列的な3次元画像データとの表示装置上における向き及び位置を時間ごとに一致させることが可能となる。この発明を応用することにより、3次元画像同士の比較が容易になる。また、請求項8及び請求項9に記載の発明によると、操作情報又は画像処理の内容を各時間における3次元画像に適用することにより、3次元画像同士の比較が容易になる。
According to the first aspect of the present invention, desired time-series three-dimensional image data obtained by scanning is desired based on an observation region extracted from pre-collected time-series three-dimensional image data. It becomes possible to extract the three-dimensional image data included in the observation area in real time. By applying this invention, it becomes possible to easily compare three-dimensional images included in the observation region at each time. Furthermore, based on biological information that changes with time, it is possible to synchronize time-series 3D image data collected in advance with time-series 3D image data obtained by scanning. . By applying this, it becomes possible to compare three-dimensional images collected at the same time, and the comparison of images becomes easy. According to the second aspect of the present invention, the range of the observation area to be extracted following the change of the observation target is changed and applied to the time-series three-dimensional image data obtained by scanning. Thus, it becomes possible to extract a 3D image included in a range suitable for the time-series 3D image data. According to the invention described in
以上のように、スキャン中にいわゆるリアルタイムに、時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データを抽出し、生体情報に基づいて時系列的な3次元画像データ同士を同期させ、更に、抽出された観察領域に含まれる3次元画像の向きや、表示装置に表示される3次元画像の角度や拡大率等の表示操作を、比較する時系列的な3次元画像データとの間で共通化することにより、時系列的な3次元画像データ同士の比較を容易にし、患部の経時変化や治療効果等の確認も容易にすることが可能となる。これにより、診断に有効な新たな情報を医師等に提供することが可能となる。 As described above, three-dimensional image data included in a desired observation area is extracted from time-series three-dimensional image data in a so-called real-time during scanning, and time-series three-dimensional image data are obtained based on biological information. Are further synchronized, and further, the time-series three-dimensional image for comparing the display operation such as the orientation of the three-dimensional image included in the extracted observation region and the angle and magnification of the three-dimensional image displayed on the display device. By sharing the data with each other, it is possible to easily compare time-series three-dimensional image data, and to easily check changes in the affected area over time, treatment effects, and the like. This makes it possible to provide new information effective for diagnosis to a doctor or the like.
また、この発明を応用することにより、過去に収集された時系列的な3次元画像データ同士の時間ごとの比較も容易になる。そして、異なる種類の医用画像診断装置にて収集された時系列的な3次元画像データの時間ごとの比較も可能となるため、例えば、術前と術後の患部の経時変化や治療効果等の確認を容易にすることができる。また、被検体の時系列的な3次元画像データと時間ごとに変化する典型症例との比較も容易にすることが可能となる。このように、診断に有効な新たな情報を医師等に提供することが可能となる。 In addition, by applying the present invention, time-series comparison of time-series three-dimensional image data collected in the past is facilitated. In addition, since time-series comparison of time-series three-dimensional image data collected by different types of medical image diagnostic apparatuses is possible, for example, changes over time in affected areas before and after surgery, treatment effects, etc. Confirmation can be facilitated. In addition, it is possible to easily compare the time-series three-dimensional image data of the subject with a typical case that changes with time. In this manner, new information effective for diagnosis can be provided to a doctor or the like.
さらに、この発明を応用することにより、術中に、観察したい領域に含まれる画像を抽出して表示装置に表示すること可能となるため、術者は術中にリアルタイムに臓器等の経時変化を観察することが可能となる。また、術中に、術前の時系列的な3次元画像との比較が可能となるため、治療等を行いつつ過去に収集された画像や実画像との比較も可能となる。 Furthermore, by applying the present invention, it becomes possible to extract an image included in the region to be observed and display it on the display device during the operation, so that the operator observes the temporal change of the organ and the like in real time during the operation. It becomes possible. Further, since it is possible to compare with a pre-operative time-series three-dimensional image during the operation, it is also possible to compare with an image or a real image collected in the past while performing treatment or the like.
[第1の実施の形態]
まず、この発明の第1の実施形態に係る画像処理装置について、図1乃至図18を参照しつつ説明する。
[First Embodiment]
First, an image processing apparatus according to a first embodiment of the present invention will be described with reference to FIGS.
(構成)
この発明の第1の実施形態に係る画像処理装置の構成について、図1及び図2を参照しつつ説明する。図1は、この発明の第1の実施形態に係る画像処理装置を備えた医用画像システムの概略構成を示すブロック図である。医用画像システムは、医用画像診断装置1、位置情報収集部6、生体情報収集部7、画像処理装置20及び記憶装置40を備えて構成されている。
(Constitution)
The configuration of the image processing apparatus according to the first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing a schematic configuration of a medical image system including an image processing apparatus according to the first embodiment of the present invention. The medical image system includes a medical image diagnostic apparatus 1, a position
医用画像診断装置1は、例えば、X線CT装置や超音波診断装置等で構成されている。図1には、X線CT装置の例が示されている。照射部2は、X線源、高電圧発生装置及びX線源制御装置等で構成され、被検体である撮影対象に向けてX線ビームを曝射するものである。X線源は、例えば、チャンネル方向とスライス方向(被検体の体軸方向)との2方向に広がるいわゆるコーンビームX線を発生する。検出器3は、照射部2から曝射され、被検体を透過したX線ビームを検出するX線検出器からなる。また、検出器3は、例えば、X線検出素子を互いに直交する2方向それぞれにアレイ状に複数個配列され、これにより2次元のX線検出器を成している。
The medical image diagnostic apparatus 1 is configured by, for example, an X-ray CT apparatus, an ultrasonic diagnostic apparatus, or the like. FIG. 1 shows an example of an X-ray CT apparatus. The
データ収集部4(DAS)は、検出器3の各X線検出素子と同様にアレイ状に配列されたデータ収集素子を有し、検出器3により検出されたX線ビームを、スキャン制御部(図示しない)により出力されたデータ収集制御信号に対応させて収集する。この収集されたデータがX線投影データとなる。
The data acquisition unit 4 (DAS) has data acquisition elements arranged in an array like each X-ray detection element of the
画像再構成部5は、データ収集部4から出力されるX線投影データを逆投影処理することにより、画像データを再構成する。この逆投影の方法は公知の方法と同じであり、例えばFeldkamp法と呼ばれる方法に代表される3次元画像再構成アルゴリズムによる再構成を行い、スライス方向に広い対象領域(ボリューム)内におけるX線吸収係数の3次元的分布データ(以下、ボリュームデータと称する)を再構成する。再構成されたボリュームデータは、データ処理装置(図示しない)にて、操作者の指示に基づき、任意断面の断層像、任意方向からの投影像、レンダリング処理による特定臓器の3次元表面画像等のいわゆる擬似3次元画像データに変換され、画像処理装置20に送られる。
The
位置情報収集部6は、例えば、磁気的又は光学的な原理により動作する3次元位置センサからなり、被検体(撮影対象)Pの3次元位置情報を収集し、その3次元位置情報を時間ごとに位置制御部33に出力する。つまり、位置情報収集部6は時系列的な3次元位置情報を収集して位置制御部33に出力する。なお、後述するが、3次元画像データから抽出される解剖学的特徴点も3次元位置情報とする。
The position
生体情報収集部7は、医用画像診断装置1にてスキャン中に、被検体の心電信号(ECG信号)、筋電信号(EMG信号)又は関節の動作情報等の生体情報を取得するものである。例えば心電計が用いられる場合は、生体情報収集部7は、被検体の心電信号(ECG信号)を検出し、検出された心電信号(ECG信号)をデジタル信号に変換する。そして、時系列的な3次元画像データと同時に得られる心電信号(ECG信号)は、時間ごとに収集される複数の3次元画像データの付帯情報として時間制御部34に出力され、更に生体情報記憶部43に保存される。なお、筋電信号(EMG信号)とは、筋の活動電位を皮膚表面から測定した信号である、また、関節の動作情報とは、意図的に被検体の関節を動かしたときのその関節がなす角度等を示すものであり、動かすことにより、時間ごとに変化して異なる角度となる。
The biological
画像処理装置20は、操作入力部21、画像表示部22及び制御部30を備えて構成されている。画像表示部22は、医用画像診断装置1にて収集された時系列的な3次元画像を表示する。操作入力部21は、画像表示部22に表示された時系列的な3次元画像に対する画像処理、計測、領域抽出等の操作を行うものであり、その操作に対応する信号がシステム制御部31に出力される。
The
制御部30は、システム制御部31、画像制御部32、位置制御部33、時間制御部34、領域制御部35及び操作制御部36を備えて構成されている。システム制御部31は、画像処理装置20の各部に接続されて、画像処理装置20全体の動作を制御するものである。
The
画像制御部32は、医用画像診断装置1から出力される時系列的な3次元画像データを制御するものである。具体的には、医用画像診断装置1にてスキャン中に、画像再構成部5から出力される時系列的な3次元画像データを読み込み、それと同時に、記憶装置40の画像記憶部41に記憶され、予め収集されている時系列的な3次元画像データを読み込んで、それらを位置制御部33に出力する。
The
位置制御部33は、医用画像診断装置1にて収集されている時系列的な3次元画像データの座標系と、画像記憶部41に保存されている時系列的な3次元画像データの座標系を一致させるものである。位置制御部33は、画像に表示されたマーカや解剖学的特徴点等の、時間ごとに少しずつ異なる時系列的な3次元位置情報を抽出し、その3次元位置情報を基準として各時間に収集された画像内にローカル座標を定義し、比較する3次元画像同士のローカル座標を一致させる。例えば、予め撮影時に被検体Pに補助具等を装着させ、その状態で撮像すると、画像中にマーカが表示されるため、このマーカを3次元位置情報として、位置制御部33は各画像においてローカル座標系を定義する。なお、解剖学的特徴点とは、例えば図4に示すような骨格上の特徴点を意味する。
The
具体的には、位置制御部33は、スキャン中の時系列的な3次元画像から3次元位置情報を抽出し、更に、画像記憶部41に保存されている3次元画像内の3次元位置情報を読み込む。そして、位置制御部33は、それら時系列的な3次元位置情報から各時間における3次元画像のローカル座標系を定義し、ローカル座標系を一致させる。
Specifically, the
また、位置制御部33は、3次元位置センサを備えた位置情報収集部6により収集された被検体(撮影対象)Pの時系列的な3次元位置情報を読み込み、その3次元位置情報を基準に各時間に収集された画像においてローカル座標系を定義して、各画像のローカル座標を一致させても良い。
Further, the
時間制御部34は、生体情報収集部7により収集された生体情報と、生体情報記憶部43に記憶されている生体情報とを読み込む。この生体情報は、時間ごとに変化する情報であり、上述した心電信号(ECG信号)や筋電信号(EMG信号)等が該当する。そして、時間制御部34は、読み込んだ生体情報に基づいて、スキャンにより得られている時系列的な3次元画像データと、画像記憶部41に保存されている時系列的な3次元画像データとを同期させる。つまり、同じ時刻(時相)に収集された3次元画像データを画像表示部22に同時に表示させるために、3次元画像データの付帯情報としての生体情報に基づいて、スキャンにより得られている時系列的な3次元画像データ及び予め収集されている時系列的な3次元画像データのうち、同じ時刻(時相)に収集された3次元画像データ同士を同期させ、画像表示部22は、同期させられた3次元画像データを同時に表示する。
The
さらに、スキャンにより得られている3次元画像データと予め収集された3次元画像データとで、単位時間当たり(例えば1秒当たり)の画像数が異なる場合は、単位時間当たりの画像数が少ない画像データに対して補間処理を行って、スキャンにより得られている3次元画像データと予め収集された3次元画像データとを同期させる。 Furthermore, when the number of images per unit time (for example, per second) differs between the three-dimensional image data obtained by scanning and the three-dimensional image data collected in advance, an image with a small number of images per unit time Interpolation processing is performed on the data to synchronize the three-dimensional image data obtained by scanning with the three-dimensional image data collected in advance.
領域制御部35は、3次元画像データから所望の観察領域に含まれる3次元画像データを抽出するものである。例えば、領域制御部35は、3次元画像のうち、所望の観察領域の範囲内の3次元画像を出力し、画像表示部22にて抽出された観察領域に含まれる3次元画像を表示するものである。この実施形態においては、領域制御部35は、領域情報記憶部44に記憶されている、予め収集された時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データを抽出した際の、その観察領域を示す情報(抽出領域情報)を読み込み、スキャンにより得られている時系列的な3次元画像データからその抽出領域情報に対応する領域に含まれる3次元画像データの抽出を行う。この抽出領域情報も時系列的なものであり、時間ごとに異なるものである。
The
なお、観察領域の指定は操作入力部21により行われる。例えば、操作入力部21に備えられているマウス等を操作者が操作することにより、画像表示部22に表示されている画像の観察したい領域(範囲)を指定すると、領域制御部35は、その指定された観察領域(範囲)に含まれる画像を抽出して画像表示部22に表示させる。そして、指定された観察領域を示す情報(抽出領域情報)は領域情報記憶部44に記憶される。このようにして、予め収集された時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データが抽出される。
The observation area is designated by the
操作制御部36は、操作情報記憶部45に記憶されている操作情報や画像処理のパラメータを読み込み、その操作情報や画像処理のパラメータを、スキャンにより得られている時系列的な3次元画像データに反映させる。この操作情報は、画像表示部22で表示される画像に対して行われる回転操作、移動又は拡大等の操作を示す情報である。また、画像処理のパラメータは、画像の不透明度を決定する係数であるオパシティ(Opacity)やコントラストや明るさ等を決定する係数であるパラメータ(WL/WW)等である。予め収集された時系列的な3次元画像データに対して行われた回転操作等の操作や画像処理を、スキャン中の時系列的な3次元画像データに対しても行い、画像表示部22に表示される画像の、回転角度や大きさや不透明度やコントラスト等を統一する。つまり、画像表示部22の画面上において、3次元画像の観察角度や拡大率や位置や不透明度やコントラスト等を統一して、観察を容易にするものである。この操作情報及び画像処理のパラメータも時系列的なものであり、時間ごとに異なるものである。
The
また、操作制御部36は、操作入力部21から入力された操作情報を、スキャンにより得られている時系列的な3次元画像データに反映するだけでなく、予め収集された時系列的な3次元画像データに対しても反映する。つまり、操作入力部21から操作情報が入力されると、操作制御部36は、画像表示部22に表示されている、スキャンにより得られている時系列的な3次元画像データ及び予め収集された時系列的な3次元画像データに、その操作情報を反映する。例えば、回転操作を示す情報が操作入力部21から入力されると、操作制御部36は、画像表示部22においてスキャンにより得られている時系列的な3次元画像データを回転させるとともに、予め収集された時系列的な3次元画像データを同じように回転させる。同様に、予め収集された時系列的な3次元画像データを回転させると、操作制御部36は、スキャンにより得られている時系列的な3次元画像データも回転させる。このように、画像表示部22に表示される画像の、観察角度や拡大率等を統一する。
In addition, the
さらに、操作制御部36は、スキャンにより得られている時系列的な3次元画像データに対してある画像処理が施されると、同じ画像処理を予め収集された時系列的な3次元画像データに施す。例えば、画像の不透明度やコントラストや明るさ等を統一するために、スキャンにより得られている時系列的な3次元画像データに対して施された画像処理のパラメータ(オパシティ等)と同じパラメータを用いて、予め収集された時系列的な3次元画像データに対して画像処理を施す。このように、画像表示部22に表示される画像の不透明度やコントラスト等を統一する。
Furthermore, when certain image processing is performed on the time-series three-dimensional image data obtained by scanning, the
画像表示部22は、画像制御部32、位置制御部33、時間制御部34、領域制御部35又は操作制御部36によって処理が施された時系列的な3次元画像データを表示する。
The
また、システム制御部31は、操作入力部21からの指示に従って、画像制御部32、位置制御部33、時間制御部34、領域制御部35及び操作制御部36の処理を個別に解除することもできる。つまり、システム制御部31の制御により、ある画像データに対しては、位置制御部33による処理のみを行い、その他の時間制御部34、領域制御部35等による処理を行わないようにしても良い。また、システム制御部31の制御により、ある画像データに対しては、位置制御部33、時間制御部34及び領域制御部35による処理を行い、操作制御部36による処理を行わないようにしても良い。この実施形態に係る画像処理装置20によると、このように全ての処理を行わず、指定された処理の情報のみを共有させて画像表示部22に画像を表示することができる。
Further, the
また、記憶装置40は、画像記憶部41、位置情報記憶部42、生体情報記憶部43、領域情報記憶部44及び操作情報記憶部45を備えて構成されている。
The
画像記憶部41には、医用画像診断装置1により予め所定時間ごとに収集された時系列的な3次元画像データが保存されている。例えば、X線CT装置、超音波診断装置又はMRI装置等により収集された、時間ごとに少しずつ異なる時系列的な3次元画像データが保存されている。この実施形態に係る医用画像診断装置1はX線CT装置を想定しているが、画像記憶部41には、X線CT装置により収集された画像データの他、別の装置、例えば、超音波診断装置やMRI装置等により収集された画像データが保存されていても良い。つまり、同じ診断装置で収集された画像データのみならず、別の診断装置で収集された画像データが保存されていても構わないことになる。例えば、異なる診断装置で収集された画像同士を比較するために、異なる診断装置で収集された画像データを保存しておく。
The
位置情報記憶部42には、解剖学的特徴点や予め撮像時に被検体に装着された補助具によるマーカ等により表される、時間ごとに少しずつ異なる時系列的な3次元位置情報が記憶されている。または、位置情報収集部6により収集された被検体Pの3次元位置情報が記憶されている。
The position
生体情報記憶部43には、心電信号(ECG)、筋電信号(EMG)又は関節動作情報等からなる時間ごとに変化する生体情報が記憶されている。この生体情報は、医用画像診断装置1によるスキャン中に同時に被検体Pから収集される情報であり、時間ごとに収集される複数の3次元画像データの付帯情報を成すものである。
The biological
領域情報記憶部44には、予め医用画像診断装置1により収集された時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データを抽出した際の、その観察領域の範囲を示す、時間ごとに異なる情報(領域抽出情報)が記憶されている。
The area
操作情報記憶部45には、予め医用画像診断装置1により収集された時系列的な3次元画像データに対して、画像表示部22の画面上で行われた操作を示す、時間ごとに異なる操作情報が記憶されている。
In the operation
なお、図1に示す例においては、X線CT装置としての医用画像診断装置1の外部に、この実施形態の特徴部分である画像処理装置20を設け、医用画像診断装置1から送られてくる画像データを処理しているが、この発明はその例に限定されることはない。例えば、医用画像診断装置1内(X線CT装置内)に画像処理装置20を設け、医用画像診断装置1の内部にて画像処理を行っても良い。つまり、医用画像診断装置1(X線CT装置)自体に画像処理装置20の機能を持たせて、医用画像診断装置1が画像処理を行っても良い。
In the example shown in FIG. 1, an
従って、医用画像診断装置1と画像処理装置20とをネットワーク等を介して接続し、医用画像診断装置1にて収集された画像データを画像処理装置20に送信して、画像処理装置20にて画像処理を行っても良く、また、医用画像診断装置1内に画像処理装置20を設け、医用画像診断装置1自体が画像処理を行っても良い。さらに、画像処理装置20ととともに記憶装置40も医用画像診断装置1に設けても良い。
Accordingly, the medical image diagnostic apparatus 1 and the
上述した例においては、医用画像診断装置1としてX線CT装置を用いているが、この他、超音波診断装置やMRI装置等を用いても良い。図2に、医用画像診断装置として超音波診断装置を用いた例を示す。図2のブロック図に示す医用画像システムにおいては、医用画像診断装置の構成のみが異なっている。図2に示す医用画像診断装置10は、超音波診断装置からなり、超音波プローブ11、送受信部12、信号処理部13及びDSC(デジタルスキャンコンバータ)14を備えて構成されている。
In the example described above, an X-ray CT apparatus is used as the medical image diagnostic apparatus 1, but an ultrasonic diagnostic apparatus, an MRI apparatus, or the like may also be used. FIG. 2 shows an example in which an ultrasonic diagnostic apparatus is used as a medical image diagnostic apparatus. In the medical image system shown in the block diagram of FIG. 2, only the configuration of the medical image diagnostic apparatus is different. A medical image
超音波プローブ11は、超音波を送受信する超音波振動子がマトリックス(格子)状に配置された2次元超音波プローブからなる。そして、走査(スキャン)することによって3次元的に超音波を送受信し、プローブの表面から放射状に広がる形状の3次元データをエコー信号として受信する。また、超音波プローブ2として1次元超音波プローブを用いた場合は、超音波プローブ2を機械的に走査することで3次元データを収集する。
The
送受信部12は送信部と受信部とからなり、超音波プローブ11に電気信号を供給して超音波を発生させるとともに、超音波プローブ11が受信したエコー信号を受信する。
The transmission /
送受信部12内の送信部は、図示しないクロック発生回路、送信遅延回路及びパルサ回路を備えている。クロック発生回路は、超音波信号の送信タイミングや送信周波数を決めるクロック信号を発生する回路である。送信遅延回路は、超音波の送信時に遅延を掛けて送信フォーカスを実施する回路である。パルサ回路は、各超音波振動子に対応した個別経路(チャンネル)の数分のパルサを内蔵し、遅延が掛けられた送信タイミングで駆動パルスを発生し、超音波プローブ12の各超音波振動子に供給するようになっている。
The transmission unit in the transmission /
また、送受信部12内の受信部は、図示しないプリアンプ回路、A/D変換回路及び受信遅延・加算回路を備えている。プリアンプ回路は、超音波プローブ11の各超音波振動子から出力されるエコー信号を受信チャンネルごとに増幅する。A/D変換回路は、増幅されたエコー信号をA/D変換する。受信遅延・加算回路は、A/D変換後のエコー信号に対して受信指向性を決定するのに必要な遅延時間を与え、加算する。その加算により、受信指向性に応じた方向からの反射成分が強調される。この受信部から出力される信号をRFデータと称する。
The reception unit in the transmission /
信号処理部13は、Bモード処理部、ドプラ処理部及びカラーモード処理部を備えている。送受信部12から出力されたRFデータは、いずれかの処理部にて所定の処理を施される。
The
Bモード処理部は、エコーの振幅情報の映像化を行い、エコー信号からBモード超音波ラスタデータを生成する。具体的には、RFデータに対してバンドパスフィルタ処理を行い、その後、出力信号の包絡線を検波し、検波されたデータに対して対数変換による圧縮処理を施す。その他、エッジ強調等の処理が行われる場合もある。このBモード処理部で生成されるデータをBモード超音波ラスタデータという。 The B-mode processing unit visualizes echo amplitude information and generates B-mode ultrasound raster data from the echo signal. Specifically, bandpass filter processing is performed on the RF data, and then the envelope of the output signal is detected, and compression processing by logarithmic transformation is performed on the detected data. In addition, processing such as edge enhancement may be performed. Data generated by the B-mode processing unit is referred to as B-mode ultrasonic raster data.
ドプラ処理部は、位相検波回路及びFFT演算回路等から構成され、RFデータからドプラ偏移周波数成分を取り出し、更にFFT処理等を施して血流情報を有するデータを生成する The Doppler processing unit is composed of a phase detection circuit, an FFT operation circuit, and the like, extracts Doppler shift frequency components from RF data, and further performs FFT processing to generate data having blood flow information.
カラーモード処理部は、動いている血流情報の映像化を行い、カラー超音波ラスタデータを生成する。血流情報には、速度、分散、パワー等の情報があり、血流情報は2値化情報として得られる。具体的には、カラーモード処理部は、位相検波回路、MTIフィルタ、自己相関器、及び流速・分散演算器から構成されている。このカラーモード処理部は、組織信号と血流信号とを分離するためのハイパスフィルタ処理(MTIフィルタ処理)が行われ、自己相関処理により血流の移動速度、分散、パワー等の血流情報を多点について求める。その他、組織信号を低減及び削減するための非線形処理が行われる場合もある。 The color mode processing unit visualizes the moving blood flow information and generates color ultrasonic raster data. Blood flow information includes information such as speed, dispersion, and power, and blood flow information is obtained as binarized information. Specifically, the color mode processing unit includes a phase detection circuit, an MTI filter, an autocorrelator, and a flow velocity / dispersion calculator. This color mode processing unit performs high-pass filter processing (MTI filter processing) to separate tissue signals and blood flow signals, and performs blood flow information such as blood flow velocity, dispersion, and power by autocorrelation processing. Ask for multiple points. In addition, non-linear processing for reducing and reducing tissue signals may be performed.
DSC14(Digital Scan Converter:デジタルスキャンコンバータ)は、直交座標系で表される画像を得るために、超音波ラスタデータを直交座標で表されるボクセルデータに変換する。DSC14は、上述した信号処理部13から出力された走査線信号列で表される信号処理後のデータを空間情報に基づいた座標系のデータに変換する(スキャンコンバージョン処理)。つまり、超音波走査に同期した信号列をテレビ走査方式の画像表示部22で表示できるようにするために、標準のテレビ走査に同期して読み出すことにより走査方式を変換している。
A DSC 14 (Digital Scan Converter: digital scan converter) converts ultrasonic raster data into voxel data represented by orthogonal coordinates in order to obtain an image represented by an orthogonal coordinate system. The
DSC14から出力されたボクセルデータは、ボリュームレンダリング処理回路(図示しない)によりボリュームレンダリング処理が施されて3次元画像データが生成される。この3次元画像データは画像制御部32を介して画像記憶部41に記憶されるとともに、画像表示部22により表示される。
The voxel data output from the
なお、医用画像診断装置10として超音波診断装置を用いた場合も、上述したX線CT装置の例と同様に、医用画像診断装置10(超音波診断装置)内に画像処理装置20を設け、医用画像診断装置10(超音波診断装置)内で画像処理を行っても良い。
Even when an ultrasonic diagnostic apparatus is used as the medical image
(動作)
次に、この発明の第1の実施形態に係る画像処理装置に動作について、図3乃至図18を参照しつつ説明する。まず、スキャンにより得られている時系列的な3次元画像データと、予め収集されて画像記憶部41に保存されている時系列的な3次元画像データとの座標系を一致させるための制御について、図3及び図4を参照しつつ説明する。図3は、この発明の第1の実施形態に係る画像処理装置による座標変換処理を順番に示すフローチャートである。図4は、この発明の第1の実施形態に係る画像処理装置による座標変換処理を説明するための図である。
(Operation)
Next, the operation of the image processing apparatus according to the first embodiment of the present invention will be described with reference to FIGS. First, control for matching the coordinate system between time-series 3D image data obtained by scanning and time-series 3D image data collected in advance and stored in the
まず、X線CT装置又は超音波診断装置等からなる医用画像診断装置1(10)により、時間的に少しずつ異なる時系列的な3次元画像データが収集され、図1又は図2に示す画像制御部32を介して画像記憶部41に保存される。この時系列的な3次元画像データは、画像制御部32からシステム制御部31を介して画像表示部22に出力され、画像表示部22にて時間ごとに少しずつ異なる3次元画像データが表示される。これにより、操作者は、3次元画像データを動画としていわゆるリアルタイムに観察することが可能となる。この画像記憶部41に保存されている時系列的な3次元画像データを、予め収集された時系列的な3次元画像データ(過去に収集された時系列的な3次元画像データ)とし、便宜的に「時系列的な3次元画像データA」と称する場合もある。
First, time-series three-dimensional image data that is slightly different in time is collected by the medical image diagnostic apparatus 1 (10) including an X-ray CT apparatus or an ultrasonic diagnostic apparatus, and the image shown in FIG. 1 or FIG. The image data is stored in the
そして、医用画像診断装置1(10)により、時間ごとに少しずつ異なる、新たな時系列的な3次元画像データを収集する。ここで、今現在スキャンにより得られている時系列的な3次元画像データを、便宜的に「時系列的な3次元画像データB」と称する場合もある。この新たな時系列的な3次元画像データBは、逐次、医用画像診断装置1(10)から画像処理装置20の画像制御部32に出力される。
The medical image diagnostic apparatus 1 (10) collects new time-series three-dimensional image data that is slightly different from time to time. Here, the time-series three-dimensional image data currently obtained by scanning may be referred to as “time-series three-dimensional image data B” for convenience. The new time-series three-dimensional image data B is sequentially output from the medical image diagnostic apparatus 1 (10) to the
そして、スキャンにより新たな時系列的な3次元画像データBを収集しているときに、画像制御部32は、画像記憶部41から予め収集された時系列的な3次元画像データAを読み込む。そして、画像制御部32は、予め収集された時系列的な3次元画像データAと、スキャンにより得られている時系列的な3次元画像データBとを位置制御部33に出力する。
Then, when new time-series three-dimensional image data B is collected by scanning, the
位置制御部33は、位置情報記憶部42に記憶されている、予め収集された時系列的な3次元画像データAにおける、時間ごとに少しずつ異なる時系列的な3次元位置情報を読み込む(ステップS01)。位置制御部33は、例えば図4に示すような、解剖学的特徴点(骨格上の特徴点)で表される時系列的な3次元位置情報を読み込む。この解剖学的特徴点で表される3次元位置情報は時間ごとに少しずつ異なるものである。
The
さらに、位置制御部33は、スキャンにより得られている時系列的な3次元画像データBにおける、時間ごとに少しずつ異なる時系列的な3次元位置情報を抽出する(ステップS02)。例えば、位置制御部33は、画像制御部32から送られるスキャンにより得られている時系列的な3次元画像データBから解剖学的特徴点(骨格上の特徴点)を抽出し、その解剖学的特徴点を3次元位置情報とする。この解剖学的特徴点で表される3次元位置情報も時間ごとに少しずつ異なるものである。
Further, the
そして、位置制御部33は、予め収集された時系列的な3次元画像データAの解剖学的特徴点と、スキャンにより得られている時系列的な3次元画像データBの解剖学的特徴点とを比較し、それらが一致しているか否かの判断を行う(ステップS03)。位置制御部33により、解剖学的特徴点が一致していないと判断された場合は(ステップS03、No)、例えば、スキャンにより得られている3次元画像データBから新たな解剖学的特徴点を抽出し、予め収集された3次元画像データAの解剖学的特徴点と一致させる(ステップS04)。
Then, the
位置制御部33により、解剖学的特徴点が一致すると判断された場合は(ステップS03、Yes)、位置制御部33は、各3次元画像データにおけるローカル座標系を定義する(ステップS05)。例えば、図4に示すように、位置制御部33により3点の解剖学的特徴点が抽出された場合、その3点で表される座標系をローカル座標系と定義する。図4(a)には、予め収集された3次元画像データAとその解剖学的特徴点が示され、図4(b)には、スキャンにより得られている3次元画像データBとその解剖学的特徴点が示されている。そして、位置制御部33は、図4(a)、(b)に示すように、3点の解剖学的特徴点に従ってローカル座標系を定義する。なお、複数の3次元画像の位置合わせを行う場合、一致させたい診断部位によって定義するローカル座標は異なる。
When the
そして、位置制御部33は、スキャンにより得られている3次元画像データBのローカル座標系を座標変換して、予め収集された3次元画像データAのローカル座標系に一致させる(ステップS06)。例えば、図4(c)に示すように、位置制御部33は、スキャンにより得られている時系列的な3次元画像データBのローカル座標系を座標変換して回転させ、更に移動させることにより、両者のローカル座標系を一致させる。これにより、そのローカル座標系で表される3次元画像データBも回転させられ、3次元画像データAと3次元画像データBの向き及び位置が一致することになる。
Then, the
このように両画像データの向き及び位置を一致させることができるため、スキャンにより得られている時系列的な3次元画像データBと、予め収集された時系列的な3次元画像データAとを画像表示部22に表示させると、両画像の向き及び位置が一致しているため、両画像の比較が容易になる。
Since the direction and position of both image data can be matched in this way, the time-series 3D image data B obtained by scanning and the time-series 3D image data A collected in advance are obtained. When the image is displayed on the
また、3次元位置情報として解剖学的特徴点を用いずに、3次元位置センサからなる位置情報収集部6により収集された被検体Pの3次元位置情報や、予め撮像時に被検体に装着させた補助具により撮像されたマーカ等により表される3次元位置情報を用いても良い。この場合、位置制御部33は、位置情報記憶部42に記憶されている、予め収集された時系列的な3次元画像データAにおける、3次元位置センサにより収集された被検体Pの3次元位置情報や、マーカ等により表される3次元位置情報を読み込む。
Further, without using anatomical feature points as the three-dimensional position information, the three-dimensional position information of the subject P collected by the position
さらに、位置制御部33は、位置情報収集部6から、スキャンにより得られている時系列的な3次元画像データBにおける、3次元位置センサにより収集された被検体Pの3次元位置情報や、マーカ等により表される3次元位置情報を読み込む。
Further, the
そして、位置制御部33は、3次元画像データAのマーカ等と3次元画像データBのマーカ等の位置及び向きを一致させる。このように、マーカ等の3次元位置情報を基準にして向き及び位置を調整することにより、3次元画像データAと3次元画像データBの向き及び位置が一致することになり、両画像の観察、比較が容易になる。
Then, the
このように各3次元画像データの向き及び位置が一致させられた後、各3次元画像データは時間制御部34に出力される。時間制御部34は、生体情報収集部7により収集される心電波形(ECG信号)等の生体情報に基づいて、スキャンにより得られている時系列的な3次元画像データBと、予め収集された時系列的な3次元画像データAとを同期させる。この時間制御部34による制御について、図5乃至図11を参照しつつ説明する。図5は、この発明の第1の実施形態に係る画像処理装置により、2つの時系列的な3次元画像データを同期させて表示する処理を順番に示すフローチャートである。
After the directions and positions of the three-dimensional image data are matched as described above, the three-dimensional image data is output to the
まず、時間制御部34は、位置制御部33から出力された3次元画像データAと3次元画像データBとを受け、更に、生体情報記憶部43に記憶されている、予め収集された3次元画像データAの付帯情報である生体情報を読み込む(ステップS10)。次に、時間制御部34は、生体情報収集部7から、スキャンにより得られている3次元画像データBの付帯情報である生体情報を読み込む(ステップS11)。
First, the
生体情報収集部7として、心電計を用いた場合は、被検体(撮影対象)Pの心電信号(ECG信号)が収集されるため、その心電信号(ECG信号)が生体情報となる。また、筋電計を用いた場合は、EMG信号が収集されるため、そのEMG信号が生体情報となる。その他、意図的に被検体の関節を動かしたときのその動きを示す関節動作情報を生体情報とすることもできる。
When an electrocardiograph is used as the biological
時間制御部34は、3次元画像データAの付帯情報としての生体情報と、3次元画像データBの付帯情報としての生体情報とが一致しているか否かの判断を行い(ステップS12)、生体情報が異なっている場合は(ステップS12、No)、時間制御部34は、生体情報を一致させる(ステップS13)。例えば、3次元画像データAの生体情報として筋電信号(EMG信号)が読み込まれ、3次元画像データBの生体情報として心電信号(ECG信号)が読み込まれた場合は、生体情報が異なっている。この場合、時間制御部34は、例えば、3次元画像データAの生体情報として心電信号(ECG信号)を生体情報記憶部43から読み込み、生体情報を一致させる。
The
この実施形態においては、生体情報収集部7に心電計を用いて、被検体Pの心電信号(ECG信号)を収集する場合について説明する。生体情報が一致している場合は(ステップS12、Yes)、時間制御部34は、その生体情報のタイムスケールを一致させ、互いの生体情報の時刻(時相)を一致させる(ステップS14)。ここで、生体情報として心電信号(ECG信号)を用いた場合において、タイムスケールを一致させる処理について図6及び図7を参照しつつ説明する。図6は、心電信号(ECG信号)を示す図である。図7は、この発明の第1の実施形態に係る画像処理装置により、2つの時系列的な3次元画像を同期させて表示する処理を説明するための図である。
In this embodiment, a case where an electrocardiograph is used for the biological
図6に示す、ECG1は、予め収集された時系列的な3次元画像データAを収集する際に、同時に収集された心電信号(ECG信号)である。また、ECG2は、スキャンにより得られている時系列的な3次元画像データBを収集している際に、同時に収集されている心電信号(ECG信号)である。この例においては、ECG2よりもECG1の方が心拍の間隔が短い。なお、図6に示すように、心電信号(ECG信号)には、「P」、「Q」、「R」、「S」、「T」、「U」と命名されたピークがある。 ECG1 shown in FIG. 6 is an electrocardiogram signal (ECG signal) collected at the same time when collecting time-series three-dimensional image data A collected in advance. ECG2 is an electrocardiogram signal (ECG signal) that is collected at the same time that time-series three-dimensional image data B obtained by scanning is collected. In this example, ECG1 has a shorter heartbeat interval than ECG2. As shown in FIG. 6, the electrocardiogram signal (ECG signal) has peaks named “P”, “Q”, “R”, “S”, “T”, “U”.
時間制御部34は、ECG1とECG2とを利用して、3次元画像データAと3次元画像データBのタイムスケールを一致させる。時間制御部34は、例えば、ECG信号のR波(ピークR)のみを抽出して、R波(ピークR)を一致させることにより、タイムスケールを一致させる。例えば図7に示すように、ECG1のR波(ピークR)が、ECG2のR波(ピークR)に一致するようにECG1の時間軸を延ばしてECG1’とする。また、R波(ピークR)のみならず、他のピークも使用してタイムスケールを一致させても良い。例えば、時間制御部34は、ECG1の各ピークが、ECG2の各ピークにそれぞれ一致するようにECG1の時間軸を延ばしてECG1’としても良い。このように、3次元画像データAと3次元画像データBのタイムスケールを一致させ、同じ時刻(時相)における3次元画像データ同士を同期させ、それらを画像表示部22に出力して画像表示部22にて同時に表示することで、同じ時刻(時相)にて収集された3次元画像同士の比較が可能となる。
The
そして、時間制御部34は、3次元画像データA及び3次元画像データBの単位時間当たり(例えば1秒当たり)の画像数をそれぞれ算出し、単位時間当たりの画像数が少ない方の画像データに対して補間処理を施して所定の時刻(時相)の3次元画像データを生成する。例えば、単位時間当たりの画像数が、3次元画像データAよりも3次元画像データBの方が多い場合は(ステップS15、Yes)、3次元画像データAに対して補間処理を施して、単位時間当たりの画像数を3次元画像データBに一致させる(ステップS17)。一方、単位時間当たりの画像数が、3次元画像データBよりも3次元画像データAの方が多い場合は(ステップS15、No)、3次元画像データBに対して補間処理を施して、単位時間当たりの画像数を3次元画像データAに一致させる(ステップS16)。
Then, the
ここでは、まず、3次元画像データAと3次元画像データBの単位時間当たりの画像数が同じ場合であって、補間処理を行わない場合について説明する。 Here, a case where the number of images per unit time of the three-dimensional image data A and the three-dimensional image data B is the same and the interpolation process is not performed will be described.
図7に示すように、予め収集された時系列的な3次元画像データAのうち、ピークPにて収集された3次元画像データを、画像データg11とし、ピークRにて収集された3次元画像データを、画像データg12とし、ピークTにて収集された3次元画像データを、画像データg13とする。さらに続けて、ピークRにて収集された3次元画像データを、画像データg14とし、ピークTにて収集された3次元画像データを、画像データg15とし、ピークPにて収集された3次元画像データを、画像データg16とする。 As shown in FIG. 7, among the time-series three-dimensional image data A collected in advance, the three-dimensional image data collected at the peak P is set as the image data g11, and the three-dimensional image collected at the peak R. The image data is image data g12, and the three-dimensional image data collected at the peak T is image data g13. Subsequently, the 3D image data collected at the peak R is set as image data g14, the 3D image data collected at the peak T is set as image data g15, and the 3D image collected at the peak P is collected. The data is image data g16.
また、スキャンにより得られている時系列的な3次元画像データBのうち、ピークPにて収集された3次元画像データを、画像データg21とし、ピークRにて収集された3次元画像データを、画像データg22とし、ピークTにて収集された3次元画像データを、画像データg23とする。さらに続けて、ピークRにて収集された3次元画像データを、画像データg24とし、ピークTにて収集された3次元画像データを、画像データg25とし、ピークPにて収集された3次元画像データを、画像データg26とする。 Also, among the time-series 3D image data B obtained by scanning, the 3D image data collected at the peak P is set as the image data g21, and the 3D image data collected at the peak R is used as the image data g21. Image data g22, and the three-dimensional image data collected at peak T is image data g23. Subsequently, the 3D image data collected at the peak R is set as image data g24, the 3D image data collected at the peak T is set as image data g25, and the 3D image collected at the peak P is collected. The data is image data g26.
そして、ECG1’とECG2の時刻(時相)が一致する3次元画像データA及び3次元画像データBを、画像表示部22にて同時に表示することで、同じ時刻(時相)の3次元画像データを表示して比較することが可能となる。このように同期表示することにより、予め収集された時系列的な3次元画像データAと、スキャンにより得られている時系列的な3次元画像データBとの比較が容易になる。
Then, the 3D image data A and the 3D image data B having the same time (time phase) of ECG1 ′ and ECG2 are simultaneously displayed on the
例えば、ピークRにて収集された画像データg12と画像データg22とを同時に表示することで、つまり、スキャンにより得られている画像データg22の表示のタイミングに合わせて予め収集された画像データg12を表示することで、ピークRにおける画像同士の比較が可能となる。 For example, by simultaneously displaying the image data g12 and the image data g22 collected at the peak R, that is, the image data g12 collected in advance in accordance with the display timing of the image data g22 obtained by scanning. By displaying, it is possible to compare images at the peak R.
次に、単位時間当たりの画像数が、3次元画像データAよりも3次元画像データBの方が多い場合(ステップS15、Yes)について説明する。この場合においては、ある時刻(時相)において収集された3次元画像データBに対応する3次元画像データAが欠けて存在しないため、3次元画像データAに対して補間処理を施して、その時刻(時相)における欠けている3次元画像データを生成して、その時刻(時相)の3次元画像データBに一致させる。 Next, the case where the number of images per unit time is larger in the three-dimensional image data B than in the three-dimensional image data A (step S15, Yes) will be described. In this case, since the three-dimensional image data A corresponding to the three-dimensional image data B collected at a certain time (time phase) is missing and does not exist, an interpolation process is performed on the three-dimensional image data A, The missing 3D image data at the time (time phase) is generated and matched with the 3D image data B at the time (time phase).
予め収集された時系列的な3次元画像データAを補間する場合について、図8及び図9を参照しつつ説明する。図8及び図9は、この発明の第1の実施形態に係る画像処理装置による画像補間処理を説明するための図である。 The case of interpolating time-series three-dimensional image data A collected in advance will be described with reference to FIGS. 8 and 9 are diagrams for explaining image interpolation processing by the image processing apparatus according to the first embodiment of the present invention.
図8に示すように、時間制御部34によりタイムスケールが延ばされた状態において、画像データg23に対応する画像データg13が存在しない。つまり、時刻(時相)t3(ピークT)における3次元画像データAが欠けて存在しない。従って、3次元画像データAと3次元画像データBとを比較する場合に、時刻(時相)t3(ピークT)における画像データ同士の比較が不可能となってしまう。そこで、時間制御部34は、時刻(時相)t3の前後の時刻(時相)t2、t4にて収集された画像データg12及びg14を用いて、時刻(時相)t3の欠けている画像データg13を補間して求める。
As shown in FIG. 8, there is no image data g13 corresponding to the image data g23 in a state where the time scale is extended by the
図9(a)に、時刻(時相)t2、t4におけるボリュームデータ内のボクセル位置とボクセル値との関係を示す。横軸は、ボリュームデータのボクセル位置を示し、縦軸はそのボクセル位置におけるボクセル値を示している。例えば、任意のボクセル位置nにおける時刻(時相)t2のボクセル値はv2となり、時刻(時相)t4のボクセル値はv4となる。 FIG. 9A shows the relationship between the voxel position and the voxel value in the volume data at times (time phases) t2 and t4. The horizontal axis indicates the voxel position of the volume data, and the vertical axis indicates the voxel value at the voxel position. For example, the voxel value at time (time phase) t2 at an arbitrary voxel position n is v2, and the voxel value at time (time phase) t4 is v4.
図9(b)に、任意のボクセル位置nにおける、時刻(時相)t2のボクセル値と、時刻(時相)t4のボクセル値とを示す。時刻(時相)t3におけるボクセル値v3は、ボクセル値v2とv4との間にあると推測されるため、ボクセル値v2とv4を結ぶ、ユーザ指定の関数「v=f(t)」により、時間制御部34は、時刻(時相)t3におけるボクセル値v3を算出する。この関数「v=f(t)」は、線形又は非線形の関数の指定が可能である。そして、時間制御部34は、全てのボクセル位置におけるボクセル値を算出し、時刻(時相)t3における欠けている画像データg13を生成する。
FIG. 9B shows a voxel value at time (time phase) t2 and a voxel value at time (time phase) t4 at an arbitrary voxel position n. Since the voxel value v3 at the time (time phase) t3 is estimated to be between the voxel values v2 and v4, the user-specified function “v = f (t)” connecting the voxel values v2 and v4 The
このように、画像データを補間して3次元画像データA及び3次元画像データBを、画像表示部22にて同時に表示することで、同じ時刻(時相)の3次元画像データを表示して比較することが可能となる。
Thus, by interpolating the image data and simultaneously displaying the 3D image data A and the 3D image data B on the
次に、単位時間当たりの画像数が、3次元画像データBよりも3次元画像データAの方が多い場合(ステップS15、No)について説明する。この場合においては、ある時刻(時相)において収集された3次元画像データAに対応する3次元画像データBが欠けて存在しないため、3次元画像データBに対して補間処理を施して、その時刻(時相)における画像データを生成して、3次元画像データAに一致させる。 Next, the case where the number of images per unit time is larger in the three-dimensional image data A than in the three-dimensional image data B (step S15, No) will be described. In this case, since the 3D image data B corresponding to the 3D image data A collected at a certain time (time phase) does not exist, interpolation processing is performed on the 3D image data B, Image data at the time (time phase) is generated and matched with the three-dimensional image data A.
スキャンにより得られている時系列的な3次元画像データBを補間する場合について、図10及び図11を参照しつつ説明する。図10及び図11は、この発明の第1の実施形態に係る画像処理装置による画像補間処理を説明するための図である。 A case of interpolating time-series three-dimensional image data B obtained by scanning will be described with reference to FIGS. 10 and 11 are diagrams for explaining image interpolation processing by the image processing apparatus according to the first embodiment of the present invention.
例えば図10に示すように、画像データg13に対応する画像データg23が欠けて存在しないものとする。つまり、時刻(時相)t3における3次元画像データBが欠けて存在しない。この場合も上述した補間方法により補間して時刻t3における3次元画像データBを生成すれば良いが、3次元画像データBは今現在、スキャンにより収集しているデータであるため、時刻t3における3次元画像データを表示するまでに、時刻t4における3次元画像データが収集されていなければ、時刻t3における3次元画像データを補間することができない。つまり、図10に時刻t0で表す現在の時刻においては、画像データg24以降のデータが存在しないため、時刻t0の段階においては、上述したように時刻t2と時刻t4における3次元画像データを用いて補間処理を行って、時刻(時相)t3における欠けている画像データg23を生成することはできない。 For example, as shown in FIG. 10, it is assumed that the image data g23 corresponding to the image data g13 is missing and does not exist. That is, the three-dimensional image data B at the time (time phase) t3 is missing and does not exist. In this case as well, the three-dimensional image data B at time t3 may be generated by interpolation using the above-described interpolation method. However, since the three-dimensional image data B is currently collected by scanning, 3 at time t3 If the 3D image data at time t4 has not been collected before the 3D image data is displayed, the 3D image data at time t3 cannot be interpolated. That is, since there is no data after the image data g24 at the current time represented by time t0 in FIG. 10, at the stage of time t0, as described above, the three-dimensional image data at time t2 and time t4 is used. It is not possible to generate missing image data g23 at time (time phase) t3 by performing interpolation processing.
そこで、スキャンにより現在得られている時系列的な3次元画像データBを補間する場合は、画像表示部22の表示更新のタイミングをずらすことによって、補間処理を完了して画像データを生成し、補完された画像データを表示する。
Therefore, when interpolating the time-series three-dimensional image data B currently obtained by scanning, by shifting the display update timing of the
この画像表示更新タイミングについて、図11を参照しつつ説明する。横軸を時間tとする。医用画像診断装置1のスキャンにより、所定時間ごとにデータ収集部4によりデータが収集され、画像再構成部5により次々とボリュームデータV1〜が再構成される。そして、例えばボリュームデータV1とV2との間の3次元画像データを補間して求める場合は、ボリュームデータV1、V2が再構成されると、時間制御部34はそのボリュームデータV1、V2を用いて、ボリュームデータV1とボリュームデータV2が収集される間のボリュームデータを補間して生成する。また、ボリュームデータV3が再構成され、ボリュームデータV2とV3と間の3次元画像データを補間して求める場合は、時間制御部34は、ボリュームデータV2、V3を用いて、ボリュームデータV2とV3の間のボリュームデータを補間して生成する。
The image display update timing will be described with reference to FIG. The horizontal axis is time t. Data is collected by the
そして、画像表示部22は、ボリュームデータV1に対応する3次元画像データを表示した後、ボリュームデータV2に対応する3次元画像データを表示する前に、補間されたボリュームデータに対応する3次元画像データを表示する。画像表示部22は、補間された3次元画像データが表示された一定時間後に、ボリュームデータV2に対応する3次元画像データを表示する。画像表示部22は表示更新の間隔を一定に保ちつつ、ボリュームデータV1に対応する3次元画像、V1とV2の補間により生成された3次元画像、ボリュームデータV2に対応する3次元画像、V2とV3の補間により生成された3次元画像、ボリュームデータV3に対応する3次元画像、・・・の順番で、3次元画像を表示する。
The
つまり、3次元画像V1が表示されてから次の画像が表示されるまでの間に、3次元画像V2を再構成し、3次元画像V1とV2を用いて補間し、それから補間された3次元画像の表示を行い、その後、3次元画像V2を表示する。 That is, after the three-dimensional image V1 is displayed and before the next image is displayed, the three-dimensional image V2 is reconstructed, interpolated using the three-dimensional images V1 and V2, and then interpolated three-dimensional. An image is displayed, and then a three-dimensional image V2 is displayed.
図10に示す画像データで説明すると、画像データg22を再構成し、画像データg22を表示している間に、スキャン及び再構成を行って画像データg24を再構成し、さらに、画像データg22と画像データg24と用いて補間された画像データg23を生成し、画像データg22の表示に続いて画像データg23を表示し、次に画像データg24を表示する。このように、表示更新のタイミングをずらすことで、補間された画像を表示することが可能となり、画像データg13との比較が可能となる。なお、画像表示部22は、一定時間後に表示を行うために必要なメモリ及びカウンタ等を備えている。
Referring to the image data shown in FIG. 10, the image data g22 is reconstructed, and while the image data g22 is displayed, scanning and reconstruction are performed to reconstruct the image data g24. Interpolated image data g23 is generated using the image data g24, the image data g23 is displayed following the display of the image data g22, and then the image data g24 is displayed. In this way, by shifting the display update timing, the interpolated image can be displayed and can be compared with the image data g13. The
時間制御部34により、予め収集された時系列的な3次元画像データAと、スキャンにより得られている3次元画像データBとが、同期させられて、領域制御部35に出力される。次に、この領域制御部35による制御について、図12乃至図15を参照しつつ説明する。図12は、この発明の第1の実施形態に係る画像処理装置により、時系列的な3次元画像から所望の領域を抽出する処理を順番に示すフローチャートである。図13乃至図15は、この発明の第1の実施形態に係る画像処理装置により、時系列的な3次元画像から所望の領域を抽出する処理を説明するための図である。
The
まず、領域制御部35は、予め収集された時系列的な3次元画像データAに対して施された領域抽出の範囲を示す情報(領域抽出情報)を領域情報記憶部44から読み込み(ステップS20)、さらに、スキャンにより得られている3次元画像データBを読み込む(ステップS21)。そして、領域制御部35は、読み込んだ領域抽出情報から3次元画像データBに対する領域抽出情報を算出し(ステップS22)、算出された領域抽出情報の範囲を3次元画像データBから抽出する(ステップS23)。なお、読み込まれた領域抽出情報は、時間ごとに少しずつ異なるものである。また、3次元画像データAと3次元画像データBとでは、抽出する観察領域にずれが生じる場合があるため、領域制御部35は、観察領域の範囲を微調整してそのずれを修正し、3次元画像データBに適合する領域抽出情報を算出する(ステップS22)。そして、領域制御部35は、微調整した領域抽出情報に基づいて、3次元画像データBからその微調整後の範囲に含まれる3次元画像データを抽出する(ステップS23)。
First, the
例えば、予め収集された時系列的な3次元画像データAが被検体の上半身(胸部)の画像を表している場合であって、過去において、その上半身の画像から心臓の部分を抽出して表示したものとする。その抽出した範囲を示す情報(領域抽出情報)が時間ごとに抽出情報記憶部44に記憶され、領域制御部35は各時間における領域抽出情報を読み込む。そして、領域制御部35は、その読み込んだ領域抽出情報をスキャンにより得られている時系列的な3次元画像データBに対して適用し、領域抽出情報を反映した範囲の3次元画像データを抽出する。
For example, when the time-series 3D image data A collected in advance represents an image of the upper body (chest) of the subject, in the past, a heart portion is extracted from the upper body image and displayed. Shall be. Information indicating the extracted range (region extraction information) is stored in the extraction
例えば、図13(a)に示すように、領域制御部35は、予め領域情報記憶部44に保存されている、各時刻(時相)の領域抽出情報を読み込む。そして、領域制御部35は、図13(b)に示す、時刻(時相)t1に収集された3次元画像データAに対してその領域抽出情報を適用して、図13(c)に示すように、その領域抽出情報の範囲の3次元画像データを抽出する。これと同様に、領域制御部35は、図13(b)に示す、時刻(時相)t1に収集されている3次元画像データBに対してその領域抽出情報を適用して、図13(c)に示すように、その領域抽出情報の範囲の3次元画像データを抽出する。時刻(時相)t2及びt3においても、同様に、それぞれの時刻(時相)において施された領域抽出の情報に従って、3次元画像データを抽出する。
For example, as illustrated in FIG. 13A, the
時系列的な3次元画像データに対して、時間ごとに異なる範囲の領域抽出が行われている場合は、領域抽出情報も時系列的に記憶されている。例えば、時刻(時相)t1における領域抽出情報と、時刻(時相)t2における領域抽出情報とは、その範囲が異なる場合がある。従って、領域制御部35は、時間ごとに異なる領域抽出情報を3次元画像データA、Bに適用して所望の観察領域の画像を抽出する。これにより、各時刻(時相)における観察領域に含まれる3次元画像同士の比較が可能となる。
In the case where region extraction in a different range for each time is performed on time-series three-dimensional image data, region extraction information is also stored in time series. For example, the region extraction information at time (time phase) t1 may be different from the region extraction information at time (time phase) t2. Therefore, the
また、領域制御部35は、予め収集された時系列的な3次元画像データAから抽出された時系列的な3次元画像データから、その抽出領域を示すマスク(抽出領域情報)を生成して、そのマスクをスキャンにより得られている時系列的な3次元画像データBに適用して所望の観察領域に含まれる3次元画像データを抽出しても良い。図14に示すように、領域制御部35は、予め収集された時系列的な3次元画像データAの各時刻において抽出された3次元画像データg31、g32、g33、g34・・・から、各時刻(時相)におけるマスク(抽出領域情報)m1、m2、m3、m4、・・・を生成し、各時刻(時相)に対応する3次元画像データBにそのマスク(抽出領域情報)m1、m2、m3、m4、・・・を適用して所望の観察領域に含まれる3次元画像データg41、g42、g43、g44、・・・を抽出する。これにより、各時刻(時相)における観察領域に含まれる3次元画像同士の比較が可能となる。
Further, the
予め収集された時系列的な3次元画像データAに対して施された領域抽出の範囲と同じ範囲の観察領域を、スキャンにより得られている時系列的な3次元画像データBから抽出する場合について説明したが、全く同じ範囲の観察領域を抽出することが適していない場合がある。例えば、心臓の画像を抽出する場合、心臓の収縮率により、図14に示すように、抽出する観察領域にずれが生じる場合がある。つまり、時刻t1、t2において予め収集された3次元画像データAの範囲よりも、スキャンにより得られている3次元画像データBの方が、大きさが小さいため、そのまま過去の観察領域を適用すると、ずれが生じる。具体的には、時刻(時相)t1における画像データg31よりも画像データg41の方が小さく、また、時刻(時相)t2における画像データg32よりも画像データg42の方が小さい。従って、3次元画像データAに適用したマスク(領域抽出情報)をそのまま3次元画像データBに適用すると、抽出領域のずれが生じる。 When an observation region having the same range as the region extraction range applied to the time-series 3D image data A collected in advance is extracted from the time-series 3D image data B obtained by scanning However, there are cases where it is not appropriate to extract observation regions in exactly the same range. For example, when an image of the heart is extracted, there may be a deviation in the extracted observation area as shown in FIG. 14 due to the contraction rate of the heart. That is, since the size of the three-dimensional image data B obtained by scanning is smaller than the range of the three-dimensional image data A collected in advance at the times t1 and t2, applying the past observation region as it is. Deviation occurs. Specifically, the image data g41 is smaller than the image data g31 at time (time phase) t1, and the image data g42 is smaller than the image data g32 at time (time phase) t2. Therefore, if the mask (region extraction information) applied to the three-dimensional image data A is applied to the three-dimensional image data B as it is, the extraction region shifts.
この場合、領域制御部35は、3次元画像データBに適合するマスク(領域抽出情報)を生成し(ステップS22)、その生成されたマスク(領域抽出情報)をスキャンにより得られている3次元画像データBに適用して所望の観察領域の3次元画像を抽出する(ステップS23)。領域制御部35は、例えば、観察対象である心臓の変化(例えば収縮率等)に追従して抽出領域の範囲(マスクの形状)を微調整して、3次元画像データBに適合するマスク(領域抽出情報)を生成する。例えば、モルフォロジカル・フィルタ処理を行うことにより、領域制御部35は心臓の収縮率等に基づいて、図15に示すように抽出領域の範囲(マスクの形状)を微調整(収縮又は拡張)して、3次元画像データBに適合するマスク(領域抽出情報)を生成する。そして、領域制御部35は、微調整された抽出領域の範囲を、スキャンにより得られている3次元画像データBに適用して所望の観察領域に含まれる3次元画像データを抽出する。このように、領域抽出情報を微調整してずれを補正し、その補正後の領域抽出情報を3次元画像データBに適用することで、3次元画像データBに適合した観察領域に含まれる画像を抽出することが可能となる。
In this case, the
このように、領域制御部35により、予め収集された時系列的な3次元画像データAに対して施された領域抽出の範囲に対応する領域を、スキャンにより得られている時系列的な3次元画像データBに適用して3次元画像データを抽出することにより、各時刻(時相)における観察領域に含まれる3次元画像同士の比較が可能となる。
As described above, the
領域制御部35により抽出された3次元画像データは、操作制御部36に出力される。この操作制御部36による制御について、図16及び図17を参照しつつ説明する。図16は、この発明の第1の実施形態に係る画像処理装置により、操作状態を一致させる処理を順番に示すフローチャートである。図17は、この発明の第1の実施形態に係る画像処理装置により、操作状態を一致させる処理を説明するための図である。
The 3D image data extracted by the
操作制御部36は、操作情報記憶部45に記憶されている、予め収集された時系列的な3次元画像データAに対して行われた操作の内容を示す情報(操作情報)を読み込む(ステップS30)。さらに、操作制御部36は、スキャンにより得られている時系列的な3次元画像データBを読み込む(ステップS31)。この操作情報や画像処理のパラメータは時系列的なものであり、時間ごとに異なるものである。
The
そして、操作制御部36は、読み込んだ操作情報を、予め収集された3次元画像データAに反映して、画像表示部22上の表示を変更する(ステップS32)。さらに、操作制御部36は、読み込んだ操作情報を、スキャンにより得られている3次元画像データBに反映して、画像表示部22上の表示を変更する(ステップS33)。この操作情報には、例えば、画像表示部22の画面上で画像を回転させる情報等が含まれており、操作制御部35は、例えばその回転させる情報を受けると、予め収集された3次元画像データA及びスキャンにより得られている3次元画像データBにその回転操作を反映させる。そして、操作制御部35から出力された3次元画像データA及び3次元画像データBは、システム制御部31を介して画像表示部22に出力され、3次元画像データAと3次元画像データBは、画面上で、同じように回転させられて表示される。このように、各3次元画像データに同じ操作を適用して向き及び位置を一致させることで、画像の比較、観察が容易になる。
Then, the
また、図17に示すように、操作入力部21から入力された、回転、移動又はズーム等の操作情報を3次元画像データA、Bに反映させても良い。例えば、3次元画像データAを回転させた場合、操作制御部35は、その回転操作を3次元画像データBに対しても行い、同じように3次元画像データBも回転させる。このように、各時刻における3次元画像データごとに同じ操作を適用することで、画像の比較、観察が容易になる。
Further, as shown in FIG. 17, operation information such as rotation, movement, or zoom input from the
また、3次元画像データA、Bの画像処理の内容を一致させる場合は、操作制御部36は、操作情報記憶部45に記憶されている、予め収集された時系列的な3次元画像データAに対して行われた画像処理のパラメータ(オパシティやWL/WW等)を読み込み、そのパラメータを用いて3次元画像データA、Bに対して画像処理を施す。これにより、3次元画像データA、Bの不透明度やコントラストや明るさ等が統一されるため、画像の比較、観察が容易になる。また、操作制御部36は、スキャンにより得られている3次元画像データBに対して施される画像処理を、予め収集された3次元画像データAに対して施しても良い。つまり、3次元画像データA、Bに対して同じパラメータを用いて画像処理を行っても良い。
When matching the contents of the image processing of the three-dimensional image data A and B, the
以上のように、各制御部により処理が施されて、予め収集された時系列的な3次元画像データAと、スキャンにより得られている時系列的な3次元画像データBとが画像表示部22に出力される。この画像表示部22における表示の内容を図18に示す。図18において、画像表示部22の画面上には、時間ごとに、予め収集された3次元画像データAと、スキャンにより得られている3次元画像データBとが同時に表示される。この表示内容は、上述した位置制御部33による処理により、ローカル座標系が一致しているものである。さらに、時間制御部34による処理により、例えば心電信号(ECG信号)に同期した3次元画像データが表示され、同じ時刻(時相)において収集された3次元画像データが同時に表示される。また、領域制御部35による処理により、互いに対応する領域が抽出された画像が表示されている。この例においては、関心領域として心臓の3次元画像が表示されている。さらに、操作制御部36による処理により、回転の向きやズームの倍率等が同じになる。
As described above, the time series 3D image data A that has been processed by each control unit and collected in advance, and the time series 3D image data B obtained by scanning are image display units. 22 is output. The contents displayed on the
画像表示部22の画面上には、時間ごとに少しずつ異なる3次元画像が表示され、操作者は動画として観察し、両画像を比較することができる。このように、この実施形態に係る画像処理装置20によると、スキャン中にいわゆるリアルタイムに、時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データを抽出し、生体情報に基づいて時系列的な3次元画像データ同士を同期させ、更に、抽出された観察領域に含まれる3次元画像の向きや、表示されている3次元画像の観察角度や拡大率等の表示操作や、画像処理の内容を、比較する時系列的な3次元画像データ同士で共通化することにより、時系列的な3次元画像データ同士の比較を容易にし、患部の経時変化や治療効果等の確認も容易にすることが可能となる。これにより、診断に有効な新たな情報を医師等に提供することが可能となる。
On the screen of the
また、医用画像診断装置として超音波診断装置を用いて、ストレスエコー法により画像を収集する場合、この実施形態に係る画像処理装置20を用いると、有効な情報を医師に提供することが可能となる。例えば、ストレスエコー法により、被検体にジョギングをさせ、ジョギングする前とジョギングする後とのそれぞれにおいて心筋の時系列的な3次元画像データを収集し、ジョギング前後の時系列的な3次元画像を比較する場合に、画像処理装置20によりジョギング前後の時系列的な3次元画像データを処理することにより、心臓の時系列的な3次元画像同士を容易に比較することが可能となる。
In addition, when an ultrasonic diagnostic apparatus is used as a medical image diagnostic apparatus and an image is collected by the stress echo method, it is possible to provide effective information to a doctor by using the
従来、ストレスエコー法により画像を収集する場合、スキャン中の時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データをリアルタイムに抽出することができなかったため、ジョギング後の時系列的な3次元画像データを収集しながら、ジョギング前後の時系列的な3次元画像の比較をリアルタイムに行うことができなかった。しかし、この実施形態に係る画像処理装置20を用いると、スキャン中の時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データをリアルタイムに抽出することができるため、ジョギング前後の時系列的な3次元画像の比較をリアルタイムに行うことが可能となる。
Conventionally, when images are collected by the stress echo method, it is impossible to extract in real time 3D image data included in a desired observation area from time-series 3D image data during scanning. While collecting serial 3D image data, it was not possible to compare time-series 3D images before and after jogging in real time. However, when the
また、システム制御部31は、操作入力部21からの指示に従って、画像制御部32、位置制御部33、時間制御部34、領域制御部35及び操作制御部36の処理を個別に解除することもできる。このように全ての処理を行わず、指定された処理のみを同期させて画像表示部22に画像を表示することができる。例えば、時間制御部34及び領域制御部35のみの処理を行って、時系列的な3次元画像データA、Bを時間的に同期させ、更に、所望の観察領域に含まれる3次元画像データを抽出して、画像表示部22に表示させることもできる。このように処理を行っても、観察領域に含まれる3次元画像同士を時系列的に比較することが可能となる。
Further, the
また、画像表示部22の画面上には、3次元画像以外に、生体情報の波形が表示される。この生体情報の波形には、現在表示している画像が収集された時刻(時相)を示すマーカが表示されるようにしても良い。さらに、画像表示部22の画面上に、各制御部の処理をON/OFFさせるための入力部をGUI(グラフィカルユーザインターフェース)として表示して、操作入力部21に設置されているマウス等によりON/OFFの切替を選択できるようにしても良い。また、位置制御部33にて用いられる3次元位置情報、時間制御部34にて用いられる生体情報、領域制御部35にて用いられる領域抽出情報、及び操作制御部36にて用いられる操作情報の具体的な内容が選択可能に表示されていても良い。例えば、操作入力部21に設置されているマウス等により、位置「骨領域の特徴点」が選択されると、上述した処理のように、骨領域の特徴点(解剖学的特徴点)が3次元位置情報として用いられ、時間「ECG」が選択されると、心電信号(ECG信号)が生体情報として用いられる。さらに、画面上に操作パネルを表示させ、3次元画像の拡大、移動、回転又は計測等の操作が選択されるようにしても良い。また、画面上に、画像処理のパラメータであるオパシティ(Opacity)のカーブや、コントラストや明るさを決定するパラメータであるWL/WWのカーブを表示しても良い。
In addition to the three-dimensional image, a waveform of biological information is displayed on the screen of the
また、この実施形態に係る画像処理装置を応用すると、異なる医用画像診断装置にて収集された時系列的な3次元画像データを比較することも可能となり、複数の3次元画像データ同士を重畳して画像表示部22に表示することによって、時系列的な合成画像(いわゆるFusion画像)を表示することが可能となる。例えば、超音波診断装置にて収集された時系列的な3次元画像データと、X線CT装置にて収集された時系列的な3次元画像データとに対して、領域抽出や生体情報に基づく同期処理等を施すことにより、各時間における所望の観察領域に含まれる3次元画像同士の比較が容易になる。また、被検体の時系列的な3次元画像データと時間ごとに変化する典型症例との比較も容易にすることが可能となる。このように、診断に有効な新たな情報を医師等に提供することが可能となる。
In addition, when the image processing apparatus according to this embodiment is applied, it is possible to compare time-series three-dimensional image data collected by different medical image diagnostic apparatuses, and superimpose a plurality of three-dimensional image data. By displaying on the
[第2の実施の形態]
次に、この発明の第2の実施形態に係る画像処理装置を備えた画像処理システムについて、図19を参照しつつ説明する。図19は、この発明の第2の実施形態に係る画像処理装置を備えた画像処理システムの概略構成を示すブロック図である。この第2の実施形態に係る画像処理装置20は、第1の実施形態に係る画像処理装置20と同じ構成を有するが、この実施形態においては、図19に示すように、画像処理装置20と医用画像診断装置1(10)とが接続されておらず、いわゆるリアルタイムに医用画像診断装置1から3次元画像データが入力されない。この場合は、複数の時系列的な3次元画像データを記憶装置40に保存しておき、保存された3次元画像データに対して上述した処理を施す。
[Second Embodiment]
Next, an image processing system including an image processing apparatus according to a second embodiment of the present invention will be described with reference to FIG. FIG. 19 is a block diagram showing a schematic configuration of an image processing system including an image processing apparatus according to the second embodiment of the present invention. The
上述したように、記憶装置40に保存されている複数の時系列的な3次元画像データに対して、生体情報により同期した3次元画像を画像表示部22に表示し、更に、一方の時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データを抽出した場合、その観察領域の範囲を他方の時系列的な3次元画像データに対しても適用して、所望の観察領域に含まれる3次元画像データを抽出して表示する。このとき、観察領域の範囲にずれがある場合は、その観察領域を微調整により収縮又は拡張し、微調整された観察領域を他方の3次元画像データに適用して所望の観察領域に含まれる3次元画像データを抽出する。その他、操作情報等を同期させて同じ表示操作が施された状態で画像表示部22に3次元画像を表示する。
As described above, for a plurality of time-series three-dimensional image data stored in the
これにより、異なる医用画像診断装置にて収集された時系列的な3次元画像データを比較することも可能となり、複数の3次元画像データ同士を重畳して画像表示部22に表示することによって、時系列的な合成画像(いわゆるFusion画像)を表示することが可能となる。例えば、超音波診断装置にて収集された時系列的な3次元画像データと、X線CT装置にて収集された時系列的な3次元画像データとに対して、領域抽出や生体情報に基づく同期処理等を施すことにより、各時間における所望の観察領域に含まれる3次元画像同士の比較が容易になる。また、被検体の時系列的な3次元画像データと時間ごとに変化する典型症例との比較も容易にすることが可能となる。このように、診断に有効な新たな情報を医師等に提供することが可能となる。
This makes it possible to compare time-series three-dimensional image data collected by different medical image diagnostic apparatuses. By superimposing a plurality of three-dimensional image data and displaying them on the
[第3の実施の形態]
次に、この発明の第3の実施形態に係る画像処理システムについて、図20を参照しつつ説明する。この実施形態に係る画像処理システムは、ロボット手術等を想定した術中ナビゲーションシステムに相当し、第1の実施形態に係る画像処理装置を備えることにより、実現可能となるものである。
[Third Embodiment]
Next, an image processing system according to a third embodiment of the present invention will be described with reference to FIG. The image processing system according to this embodiment corresponds to an intraoperative navigation system that assumes robotic surgery or the like, and can be realized by including the image processing apparatus according to the first embodiment.
図20に示すように、画像処理装置20には、術中ナビゲーション装置50が接続されている。さらに、画像処理装置20には、編集画像出力部37が備えられている。この編集画像出力部37は、画像処理装置20にて領域抽出や生体情報に基づく同期処理等が施された時系列的な3次元画像データを術中ナビゲーション装置50に出力する。
As shown in FIG. 20, an
術中ナビゲーション装置50は、操作入力部51、実画像収集部52、実画像出力部53、画像表示部54、制御部55及び重畳画像処理部56を備えて構成されている。
The
操作入力部51は、術者による操作により、手術に必要なメス等の手術器具57を操作する。また、操作入力部51は、術者の操作により、手術器具57と連動したロボットアームを操作することもできる。
The
実画像収集部52は、医用画像診断装置1の撮像対象である被検体Pの実画像を撮影するものであり、更に、術者の視点を追従することもでき、術者の挙動(視点の挙動)に追従して実画像を撮影することができる。画像出力部53は、実画像収集部52により収集された実画像に対して画像処理を行い、収集した実画像を鮮明な画像に変換して重畳画像処理部56に出力する。
The real
重畳画像処理部56は、画像出力部53から出力された実画像と、画像処理装置20の編集画像出力部37から出力された、領域抽出等の処理が施された時系列的な3次元画像データとを受け、それらを重ね合わせる。
The superimposed
制御部55は、術中ナビゲーション装置50全体を制御するものであり、主に、操作入力部51から出力される術者による操作情報や、重畳画像処理部56から出力される、実画像と時系列的な3次元画像データとが重畳された画像データ等を画像表示部54に受け渡す処理を行う。
The
画像表示部54は、術者の視点の移動に追従した実画像と、医用画像診断装置1にて収集され、画像処理装置20にて領域抽出や同期処理等が施された時系列的な3次元画像データとを、重畳して表示する。術者(手術ロボット操作者)は、この画像表示部54に表示された重畳画像を観察しながら、操作入力部51を介して手術器具57を操作して手術を行うことになる。
The
このように、画像処理装置20により領域抽出等が施された時系列的な3次元画像と実画像とを重畳して表示することにより、実画像では得られない、被検体内部に存在する臓器の移動や変形等の経時的変化等を、術者は手術中にリアルタイムに取得することが可能となる。例えば、術中の時系列的な3次元画像データと、術前の時系列的な3次元画像データとを、同期させて表示したり、観察したい部分の画像を抽出して表示したりすることにより、手術中に比較検討することが可能となる。
As described above, the time-series three-dimensional image subjected to region extraction or the like by the
1、10 医用画像診断装置
2 照射部
3 検出器
4 データ収集部
5 画像再構成部
6 位置情報収集部
7 生体情報収集部
11 超音波プローブ
12 送受信部
13 信号処理部
14 DSC(デジタルスキャンコンバータ)
20 画像処理装置
21 操作入力部
22 画像表示部
30 制御部
31 システム制御部
32 画像制御部
33 位置制御部
34 時間制御部
35 領域制御部
36 操作制御部
40 記憶装置
41 画像記憶部
42 位置情報記憶部
43 生体情報記憶部
44 領域情報記憶部
45 操作情報記憶部
DESCRIPTION OF
DESCRIPTION OF
Claims (9)
前記予め収集された前記第2の時系列的な3次元画像データから時相ごとに異なる第2の観察領域に含まれる3次元画像データを時相ごとに抽出し、前記時相ごとに異なる前記第2の観察領域に基づいて、前記第1の時系列的な3次元画像データに対する第1の観察領域を時相ごとに求め、前記第1の時系列的な3次元画像データから前記時相ごとに異なる前記第1の観察領域に含まれる3次元画像データを時相ごとに逐次、抽出する領域抽出手段と、
前記第1の時系列的な3次元画像データ及び前記第2の時系列的な3次元画像データからそれぞれ時相ごとに抽出された3次元画像データを同期させて表示する表示手段と、
を有する画像処理装置。 First time-series three-dimensional image data collected every predetermined time together with biological information of the subject that changes with time, and second time-series collected in advance along with the biological information every predetermined time Time synchronization means for receiving the three-dimensional image data and synchronizing the first time-series three-dimensional image data and the second time-series three-dimensional image data based on the biological information. When,
Three-dimensional image data included in the second observation region that differs for each time phase is extracted from the second time-series three-dimensional image data collected in advance for each time phase, and the different for each time phase Based on the second observation area, a first observation area for the first time-series three-dimensional image data is obtained for each time phase, and the time phase is calculated from the first time-series three-dimensional image data. Region extracting means for sequentially extracting, for each time phase , three-dimensional image data included in the first observation region that differs for each time ;
Display means for synchronizing and displaying the three-dimensional image data extracted for each time phase from the first time-series three-dimensional image data and the second time-series three-dimensional image data ;
An image processing apparatus.
請求項1に記載の画像処理装置。 Said region extraction means, to follow the temporal change of the observation target by changing the range of the first observation region, the first observation region after the change from the first time-series three-dimensional image data 3D image data contained in
The image processing apparatus according to claim 1 .
請求項1又は請求項2に記載の画像処理装置。 The time synchronization means is based on the biological information, and the three-dimensional data collected in the same time phase among the first time-series three-dimensional image data and the second time-series three-dimensional image data. Synchronize image data,
The image processing apparatus according to claim 1 .
請求項1乃至請求項3のいずれかに記載の画像処理装置。 The biological information includes electrocardiographic signals, myoelectric signals of the subject, or joint motion information that indicates joint motions in time series.
The image processing apparatus according to any one of claims 1 to 3.
請求項1乃至請求項4のいずれかに記載の画像処理装置。 The three-dimensional image data lacking the predetermined time of each of the first time-series three-dimensional image data or the second time-series three-dimensional image data is collected before and after the predetermined time. It further has an image interpolation means for generating by interpolation using the dimensional image data.
The image processing apparatus according to any one of claims 1 to 4.
前記3次元位置情報に基づいて、前記第1の時系列的な3次元画像データの座標系、又は、前記第2の時系列的な3次元画像データの座標系の少なくとも一方の座標系を変更して他方の座標系に一致させる位置制御手段を更に有する、
請求項1乃至請求項5のいずれかに記載の画像処理装置。 The first time-series three-dimensional image data and the second time-series three-dimensional image data are collected together with the three-dimensional position information of the subject that changes with time,
Based on the 3D position information, at least one of the coordinate system of the first time-series 3D image data or the coordinate system of the second time-series 3D image data is changed. And further has position control means for matching with the other coordinate system,
The image processing apparatus according to any one of claims 1 to 5.
請求項1乃至請求項5のいずれかに記載の画像処理装置。 Time-series three-dimensional position information that changes with time is extracted from the first time-series three-dimensional image data and the second time-series three-dimensional image data, and the three-dimensional position information is extracted. And changing the coordinate system of the first time-series 3D image data or the coordinate system of the second time-series 3D image data to change the other coordinate system. Further comprising position control means for matching the system,
The image processing apparatus according to any one of claims 1 to 5.
請求項1乃至請求項7のいずれかに記載の画像処理装置。 An operation or image processing performed on any one of the first time-series three-dimensional image data and the second time-series three-dimensional image data. Further has an operation control means for performing the other 3D image data.
The image processing apparatus according to any one of claims 1 to 7.
前記記憶手段に記憶されている操作情報が示す操作、又は画像処理情報が示す画像処理を、前記第1の時系列的な3次元画像データに対して行う操作制御手段と、を更に有する、
請求項1乃至請求項7のいずれかに記載の画像処理装置。 Operation information indicating the content of the operation performed on the second time-series 3D image data, or the content of the image processing performed on the second time-series 3D image data Storage means for storing image processing information indicating
Operation indicated by the operation information stored in said storage means, or the image processing by the image processing information indicates, further having an operation control means for performing relative to the first time-series three-dimensional image data,
The image processing apparatus according to any one of claims 1 to 7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005008225A JP4703193B2 (en) | 2005-01-14 | 2005-01-14 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005008225A JP4703193B2 (en) | 2005-01-14 | 2005-01-14 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006192151A JP2006192151A (en) | 2006-07-27 |
JP4703193B2 true JP4703193B2 (en) | 2011-06-15 |
Family
ID=36798667
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005008225A Expired - Fee Related JP4703193B2 (en) | 2005-01-14 | 2005-01-14 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4703193B2 (en) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8103070B2 (en) * | 2007-11-22 | 2012-01-24 | Toshiba Medical Visualization Systems Europe, Limited | Volume rendering apparatus and method |
JP5472891B2 (en) | 2008-01-21 | 2014-04-16 | 株式会社東芝 | Medical image processing device |
JP2011067279A (en) * | 2009-09-24 | 2011-04-07 | Ziosoft Inc | Medical image processor and medical image processing program |
US20110075896A1 (en) * | 2009-09-25 | 2011-03-31 | Kazuhiko Matsumoto | Computer readable medium, systems and methods for medical image analysis using motion information |
JP2011092547A (en) * | 2009-10-30 | 2011-05-12 | Ziosoft Inc | Medical image processor and medical image processing program |
JP5408493B2 (en) * | 2009-11-27 | 2014-02-05 | ザイオソフト株式会社 | Medical image processing apparatus and medical image processing program |
JP5661453B2 (en) * | 2010-02-04 | 2015-01-28 | 株式会社東芝 | Image processing apparatus, ultrasonic diagnostic apparatus, and image processing method |
JP2012000135A (en) * | 2010-06-14 | 2012-01-05 | Hitachi Medical Corp | Multi-modality dynamic image diagnostic apparatus |
WO2012050166A1 (en) * | 2010-10-15 | 2012-04-19 | 株式会社 東芝 | Medical image-processing apparatus and x-ray computer tomography apparatus |
CN103239253B (en) | 2012-02-14 | 2015-07-15 | 株式会社东芝 | Medical image diagnostic apparatus |
US9639666B2 (en) * | 2013-03-15 | 2017-05-02 | Covidien Lp | Pathway planning system and method |
US9459770B2 (en) | 2013-03-15 | 2016-10-04 | Covidien Lp | Pathway planning system and method |
US9925009B2 (en) | 2013-03-15 | 2018-03-27 | Covidien Lp | Pathway planning system and method |
JP5722984B2 (en) * | 2013-12-06 | 2015-05-27 | ザイオソフト株式会社 | Medical image processing apparatus and medical image processing program |
JP6327900B2 (en) * | 2014-03-24 | 2018-05-23 | キヤノン株式会社 | Subject information acquisition apparatus, breast examination apparatus and apparatus |
WO2017174351A1 (en) * | 2016-04-04 | 2017-10-12 | Koninklijke Philips N.V. | Imaging system and method |
JP7283985B2 (en) * | 2019-06-12 | 2023-05-30 | ザイオソフト株式会社 | MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD, AND MEDICAL IMAGE PROCESSING PROGRAM |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002125937A (en) * | 2000-10-24 | 2002-05-08 | Toshiba Corp | Image processor |
JP2002224116A (en) * | 2001-01-31 | 2002-08-13 | Matsushita Electric Ind Co Ltd | Ultrasound diagnostic device and image processing device |
JP2002301065A (en) * | 2001-04-04 | 2002-10-15 | Nemoto Kyorindo:Kk | Medical tomographic image display |
JP2004201730A (en) * | 2002-12-24 | 2004-07-22 | Hitachi Ltd | Generating method of three-dimensional profile using projection image in two or more directions |
JP2004283373A (en) * | 2003-03-20 | 2004-10-14 | Toshiba Corp | Analyzer of luminal structure |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0863577A (en) * | 1994-08-24 | 1996-03-08 | Toshiba Corp | Display device |
-
2005
- 2005-01-14 JP JP2005008225A patent/JP4703193B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002125937A (en) * | 2000-10-24 | 2002-05-08 | Toshiba Corp | Image processor |
JP2002224116A (en) * | 2001-01-31 | 2002-08-13 | Matsushita Electric Ind Co Ltd | Ultrasound diagnostic device and image processing device |
JP2002301065A (en) * | 2001-04-04 | 2002-10-15 | Nemoto Kyorindo:Kk | Medical tomographic image display |
JP2004201730A (en) * | 2002-12-24 | 2004-07-22 | Hitachi Ltd | Generating method of three-dimensional profile using projection image in two or more directions |
JP2004283373A (en) * | 2003-03-20 | 2004-10-14 | Toshiba Corp | Analyzer of luminal structure |
Also Published As
Publication number | Publication date |
---|---|
JP2006192151A (en) | 2006-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4703193B2 (en) | Image processing device | |
JP5269427B2 (en) | Ultrasonic diagnostic apparatus, diagnostic imaging apparatus, and program | |
JP5367215B2 (en) | Synchronization of ultrasound imaging data with electrical mapping | |
EP1809177B1 (en) | Method and apparatus for invasive device tracking using organ timing signal generated from mps sensors | |
US11653897B2 (en) | Ultrasonic diagnostic apparatus, scan support method, and medical image processing apparatus | |
JP5624258B2 (en) | Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program | |
JP6253970B2 (en) | Image processing apparatus, ultrasonic diagnostic apparatus, and image processing program | |
JP5105981B2 (en) | MEDICAL IMAGE PROCESSING DISPLAY DEVICE AND PROCESSING PROGRAM THEREOF | |
US9747689B2 (en) | Image processing system, X-ray diagnostic apparatus, and image processing method | |
JP5192697B2 (en) | Ultrasonic diagnostic equipment | |
JP4875416B2 (en) | Medical guide system | |
US11191524B2 (en) | Ultrasonic diagnostic apparatus and non-transitory computer readable medium | |
WO2014136899A1 (en) | Medical image diagnosis device, medical image processing device, and control program | |
US20150193962A1 (en) | Image processing system, x-ray diagnostic apparatus, and image processing method | |
JP5100084B2 (en) | Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program | |
JP6125380B2 (en) | Ultrasonic diagnostic apparatus, medical image processing apparatus, and image processing program | |
US20110301462A1 (en) | Ultrasonic diagnosis apparatus and ultrasonic image processing apparatus | |
JP2009247739A (en) | Medical image processing and displaying device, computer processing program thereof, and ultrasonic diagnosing equipment | |
JP5404066B2 (en) | Medical image display system | |
JP2008132109A (en) | Ultrasonic diagnostic system and method for referring past image data | |
JP5034054B2 (en) | Image processing apparatus, ultrasonic imaging apparatus including the same, and image processing method | |
JP2008289548A (en) | Ultrasonograph and diagnostic parameter measuring device | |
JP2008188288A (en) | Ultrasonic diagnostic equipment and ultrasonic image display device | |
JP4795672B2 (en) | Ultrasonic diagnostic equipment | |
JP5331313B2 (en) | Ultrasonic diagnostic equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080115 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20090212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100827 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110308 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4703193 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |