Nothing Special   »   [go: up one dir, main page]

JP4703193B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4703193B2
JP4703193B2 JP2005008225A JP2005008225A JP4703193B2 JP 4703193 B2 JP4703193 B2 JP 4703193B2 JP 2005008225 A JP2005008225 A JP 2005008225A JP 2005008225 A JP2005008225 A JP 2005008225A JP 4703193 B2 JP4703193 B2 JP 4703193B2
Authority
JP
Japan
Prior art keywords
time
image data
series
dimensional image
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005008225A
Other languages
Japanese (ja)
Other versions
JP2006192151A (en
Inventor
智司 若井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2005008225A priority Critical patent/JP4703193B2/en
Publication of JP2006192151A publication Critical patent/JP2006192151A/en
Application granted granted Critical
Publication of JP4703193B2 publication Critical patent/JP4703193B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

この発明は、超音波診断装置、X線CT装置、又はMRI装置等の医用画像診断装置により時系列的に撮像された3次元で表される医用画像を画像処理して表示するための画像処理装置に関する。   The present invention relates to image processing for processing and displaying a three-dimensional medical image captured in time series by a medical image diagnostic apparatus such as an ultrasonic diagnostic apparatus, an X-ray CT apparatus, or an MRI apparatus. Relates to the device.

超音波診断装置又はX線CT装置等の医用画像診断装置にて撮像された患者の医用画像を観察するために、画像表示及び画像処理が行える画像処理装置が用いられている。この画像処理装置は、2次元画像の表示に加え、3次元画像を観察することもできる。この観察の際には、画像同士を比較するため、例えば、各々の画像表示の観察角度及び拡大率を同じ状態にして観察することにより、画像同士の比較が容易になる。   In order to observe a medical image of a patient imaged by a medical image diagnostic apparatus such as an ultrasonic diagnostic apparatus or an X-ray CT apparatus, an image processing apparatus capable of image display and image processing is used. This image processing apparatus can observe a three-dimensional image in addition to displaying a two-dimensional image. In this observation, in order to compare the images, for example, the images can be easily compared by observing the images at the same observation angle and magnification rate.

また、3次元画像を表示する画像処理装置では、複数の3次元画像を表示することができるものがあり、複数の3次元画像を表示する際に、撮影時の撮影情報及び表示パラメータに基づいて同期させて表示するものが知られている(例えば特許文献1)。   In addition, some image processing apparatuses that display a three-dimensional image can display a plurality of three-dimensional images. When displaying a plurality of three-dimensional images, based on shooting information and display parameters at the time of shooting. One that displays in synchronization is known (for example, Patent Document 1).

特開2002−125937号公報JP 2002-125937 A

しかしながら、従来の画像処理装置においては、所定の時間ごとに撮像された時系列的な3次元画像データを同期させて表示することは行われていない。そのため、医用画像診断装置にてスキャンが行なわれている最中に、いわゆるリアルタイムに複数の3次元画像データを同期させて表示させることは困難であり、また、異なる医用画像診断装置にて撮像された時系列的な3次元画像データを重畳させて表示することは困難であった。   However, in the conventional image processing apparatus, time-series three-dimensional image data captured every predetermined time is not displayed in synchronization. For this reason, it is difficult to display a plurality of three-dimensional image data in synchronism in real time while scanning is performed by the medical image diagnostic apparatus, and images are captured by different medical image diagnostic apparatuses. It has been difficult to display the time-series three-dimensional image data superimposed.

また、従来の画像処理装置においては、スキャン中に3次元画像データから観察したい領域を抽出して、抽出した観察領域に含まれる3次元画像同士を同期させて比較することが行われていなかった。そのため、時系列的な3次元画像データを扱う場合、特に、複数の時系列的な3次元画像データ同士を比較する場合に、各時相における3次元画像データを領域抽出する必要があるが、そのデータ量が膨大であるため、操作者は多大な労力と時間を費やす必要があった。これにより、例えば、術前と術後の時系列的な3次元画像データの比較や、典型症例との比較等が困難となっていた。   Further, in the conventional image processing apparatus, an area to be observed is extracted from the 3D image data during scanning, and the 3D images included in the extracted observation area are not synchronized and compared. . Therefore, when dealing with time-series three-dimensional image data, particularly when comparing a plurality of time-series three-dimensional image data, it is necessary to extract a region of the three-dimensional image data in each time phase. Since the amount of data is enormous, the operator has to spend a great deal of labor and time. This makes it difficult to compare time-series 3D image data before and after surgery, comparison with typical cases, and the like.

以上のように、従来技術に係る画像処理装置においては、スキャン中(リアルタイム)に時系列的な3次元画像データ同士を比較することができず、一旦保存した3次元画像データに対する処理のみが可能となるため、その応用が限られていた。   As described above, in the image processing apparatus according to the prior art, time-series 3D image data cannot be compared with each other during scanning (real time), and only processing for the temporarily stored 3D image data is possible. Therefore, its application was limited.

また、スキャン中(リアルタイム)に所望の観察領域に含まれる3次元画像の抽出が行われていなかったため、ロボット手術等の術中ナビゲーションシステムへの応用が困難となっていた。   In addition, since a three-dimensional image included in a desired observation area has not been extracted during scanning (real time), it has been difficult to apply to intraoperative navigation systems such as robotic surgery.

さらに、医用画像診断装置として例えば超音波診断装置を用いる場合、ストレスエコー方法により、心電信号(ECG信号)を利用して時系列的な断層像データを同期させて表示するものが知られている。しかしながら、従来の超音波診断装置においては、断層像データの位置が超音波プローブの位置に依存するため、複数の断層像データを比較する際に、各断層像データの座標系が異なるため、複数の断層像データの位置合わせを行って比較することが困難であり、更にこの位置合わせは、医師や技師等の経験や勘に頼っていた。また、ECG信号を利用して同期して表示する際に、断層像データから所望の観察領域を抽出して、その所望の観察領域に含まれる断層像同士をリアルタイムに比較することや、欠けている画像データを補間処理により求めることは行われていなかった。   Further, when an ultrasonic diagnostic apparatus is used as a medical image diagnostic apparatus, for example, an apparatus that displays time-sequential tomographic image data synchronously using an electrocardiogram signal (ECG signal) by a stress echo method is known. Yes. However, in the conventional ultrasonic diagnostic apparatus, since the position of the tomographic image data depends on the position of the ultrasonic probe, when comparing a plurality of tomographic image data, the coordinate system of each tomographic image data is different. It was difficult to compare the tomographic image data of each other and compare them, and this alignment relied on the experience and intuition of doctors and engineers. Further, when displaying in synchronization using the ECG signal, a desired observation area is extracted from the tomographic image data, and the tomographic images included in the desired observation area are compared in real time, or lacking. Obtaining image data by interpolation processing has not been performed.

この発明は上記の問題を解決するものであり、予め収集された時系列的な3次元画像データから抽出した観察領域の範囲に基づいて、スキャンにより時系列的に収集されている3次元画像データから時間ごとに所望の観察領域をリアルタイムに抽出することが可能な画像処理装置を提供することを目的とするものである。そのことにより、医用画像診断装置を用いて時系列的に収集される3次元画像データと、予め医用画像診断装置により収集されて保存されている時系列的な3次元画像データとを、表示装置にて表示して比較する際に、時間ごとに所望の観察領域に含まれる3次元画像同士の比較を容易にすることが可能な画像処理装置を提供することを目的とするものである。   The present invention solves the above-described problem, and the three-dimensional image data collected in time series by scanning based on the range of the observation area extracted from the time-series three-dimensional image data collected in advance. It is an object of the present invention to provide an image processing apparatus capable of extracting a desired observation region in real time from time to time. As a result, the display device displays three-dimensional image data collected in time series using the medical image diagnostic apparatus and time-series three-dimensional image data collected and stored in advance by the medical image diagnostic apparatus. It is an object of the present invention to provide an image processing apparatus capable of facilitating comparison of three-dimensional images included in a desired observation area every time when displayed and compared.

また、心電信号等の生体情報を用いることにより、複数の3次元画像データを時間的に同期させことが可能な画像処理装置を提供することを目的とするものである。その結果、複数の3次元画像データ同士の比較を容易にすることが可能な画像処理装置を提供することを目的とするものである。   It is another object of the present invention to provide an image processing apparatus capable of temporally synchronizing a plurality of three-dimensional image data by using biological information such as an electrocardiogram signal. As a result, an object of the present invention is to provide an image processing apparatus capable of easily comparing a plurality of three-dimensional image data.

また、抽出された観察領域に含まれる3次元画像の向き(座標系)を一致させたり、表示される画像の操作方法において、観察角度、拡大率等の表示操作を、比較する複数の3次元画像データで共通化したり、画像処理に用いられるオパシティ(画像の不透明度)等の表示パラメータを共通化することにより、時系列的な3次元画像データ同士の比較を容易にし、患部の経時変化や治療効果等の確認も容易であって、診察や診断の援助となる新たな医療情報の提供が可能な画像処理装置を提供することを目的とするものである。   In addition, a plurality of three-dimensional images for comparing the display angle, magnification, and other display operations in the operation method of the displayed image by matching the orientation (coordinate system) of the three-dimensional image included in the extracted observation region By sharing display parameters such as image data and display parameters such as opacity (image opacity) used for image processing, it is easy to compare time-series 3D image data, It is an object of the present invention to provide an image processing apparatus that can easily confirm a therapeutic effect and can provide new medical information for assisting diagnosis and diagnosis.

さらに、スキャン中に時系列的な3次元画像データから所望の観察領域をリアルタイムに抽出することが可能となることにより、スキャン中の時系列的な3次元画像データ、過去に収集された時系列的な3次元画像データ、又は被検体の実画像の比較が可能となるため、ロボット手術等の術中ナビゲーションシステムへの応用を可能とするものである。   Further, since it becomes possible to extract a desired observation area in real time from the time-series three-dimensional image data during the scan, the time-series three-dimensional image data during the scan, the time series collected in the past Since it is possible to compare typical three-dimensional image data or an actual image of a subject, it can be applied to an intraoperative navigation system such as robotic surgery.

請求項1に記載の発明は、時間ごとに変化する被検体の生体情報と共に所定時間ごとに収集される第1の時系列的な3次元画像データと、前記生体情報と共に前記所定時間ごとに予め収集された第2の時系列的な3次元画像データと、を受けて、前記生体情報に基づいて、前記第1の時系列的な3次元画像データと前記第2の時系列的な3次元画像データとを同期させる時間同期手段と、前記予め収集された前記第2の時系列的な3次元画像データから時相ごとに異なる第2の観察領域に含まれる3次元画像データを時相ごとに抽出し、前記時相ごとに異なる前記第2の観察領域に基づいて、前記第1の時系列的な3次元画像データに対する第1の観察領域を時相ごとに求め、前記第1の時系列的な3次元画像データから前記時相ごとに異なる前記第1の観察領域に含まれる3次元画像データを時相ごとに逐次、抽出する領域抽出手段と、前記第1の時系列的な3次元画像データ及び前記第2の時系列的な3次元画像データからそれぞれ時相ごとに抽出された3次元画像データを同期させて表示する表示手段と、を有する画像処理装置である。 According to the first aspect of the present invention, the first time-series three-dimensional image data collected every predetermined time together with the biological information of the subject changing with time, and the biological information together with the biological information in advance every predetermined time. In response to the collected second time-series three-dimensional image data, based on the biological information, the first time-series three-dimensional image data and the second time-series three-dimensional data Time synchronization means for synchronizing image data, and 3D image data included in a second observation region that differs for each time phase from the second time-series 3D image data collected in advance, for each time phase The first observation region for the first time-series three-dimensional image data is obtained for each time phase based on the second observation region that is different for each time phase, and the first time It differs from time-series 3D image data for each time phase. Sequential three-dimensional image data included in the first observation region for each time phase, a region extracting means for extracting said first time-series three-dimensional image data and the second time-series 3D An image processing apparatus having display means for synchronously displaying three-dimensional image data extracted for each time phase from image data .

請求項1に記載の発明によると、予め収集された時系列的な3次元画像データから抽出した領域の観察領域に基づいて、スキャンにより得られている時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データをリアルタイムに抽出することが可能となる。この発明を応用することにより、各時間における観察領域に含まれる3次元画像同士の比較を容易に行うことが可能となる。さらに、時間ごとに変化する生体情報に基づいて、予め収集された時系列的な3次元画像データと、スキャンにより得られている時系列的な3次元画像データとを同期させることが可能となる。これを応用することにより、同じ時間で収集された3次元画像同士の比較が可能となり、画像の比較が容易になる。また、請求項に記載の発明によると、観察対象の変化に追従して抽出する観察領域の範囲を変更して、スキャンにより得られている時系列的な3次元画像データに適用することにより、その時系列的な3次元画像データに適合した範囲に含まれる3次元画像を抽出することが可能となる。また、請求項に記載の発明によると、所定時間において3次元画像データが欠けている場合であっても、その所定時間の前後で収集された3次元画像データを用いて、その所定時間における3次元画像データを補間して生成することにより、その所定時間において3次元画像を比較することが可能となる。また、請求項及び請求項に記載の発明によると、時間ごとに座標系を一致させることにより、予め収集された時系列的な3次元画像データと、スキャンにより得られている時系列的な3次元画像データとの表示装置上における向き及び位置を時間ごとに一致させることが可能となる。この発明を応用することにより、3次元画像同士の比較が容易になる。また、請求項及び請求項9に記載の発明によると、操作情報又は画像処理の内容を各時間における3次元画像に適用することにより、3次元画像同士の比較が容易になる。 According to the first aspect of the present invention, desired time-series three-dimensional image data obtained by scanning is desired based on an observation region extracted from pre-collected time-series three-dimensional image data. It becomes possible to extract the three-dimensional image data included in the observation area in real time. By applying this invention, it becomes possible to easily compare three-dimensional images included in the observation region at each time. Furthermore, based on biological information that changes with time, it is possible to synchronize time-series 3D image data collected in advance with time-series 3D image data obtained by scanning. . By applying this, it becomes possible to compare three-dimensional images collected at the same time, and the comparison of images becomes easy. According to the second aspect of the present invention, the range of the observation area to be extracted following the change of the observation target is changed and applied to the time-series three-dimensional image data obtained by scanning. Thus, it becomes possible to extract a 3D image included in a range suitable for the time-series 3D image data. According to the invention described in claim 5 , even if the 3D image data is missing at the predetermined time, the 3D image data collected before and after the predetermined time is used for the predetermined time. By generating the three-dimensional image data by interpolation, it is possible to compare the three-dimensional images at the predetermined time. According to the invention described in claims 6 and 7 , by matching the coordinate system for each time, the time-series three-dimensional image data collected in advance and the time-series obtained by scanning It is possible to match the direction and position of the three-dimensional image data on the display device with time. By applying this invention, it becomes easy to compare three-dimensional images. In addition, according to the invention described in claims 8 and 9, it is easy to compare the three-dimensional images by applying the operation information or the contents of the image processing to the three-dimensional images at each time.

以上のように、スキャン中にいわゆるリアルタイムに、時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データを抽出し、生体情報に基づいて時系列的な3次元画像データ同士を同期させ、更に、抽出された観察領域に含まれる3次元画像の向きや、表示装置に表示される3次元画像の角度や拡大率等の表示操作を、比較する時系列的な3次元画像データとの間で共通化することにより、時系列的な3次元画像データ同士の比較を容易にし、患部の経時変化や治療効果等の確認も容易にすることが可能となる。これにより、診断に有効な新たな情報を医師等に提供することが可能となる。   As described above, three-dimensional image data included in a desired observation area is extracted from time-series three-dimensional image data in a so-called real-time during scanning, and time-series three-dimensional image data are obtained based on biological information. Are further synchronized, and further, the time-series three-dimensional image for comparing the display operation such as the orientation of the three-dimensional image included in the extracted observation region and the angle and magnification of the three-dimensional image displayed on the display device. By sharing the data with each other, it is possible to easily compare time-series three-dimensional image data, and to easily check changes in the affected area over time, treatment effects, and the like. This makes it possible to provide new information effective for diagnosis to a doctor or the like.

また、この発明を応用することにより、過去に収集された時系列的な3次元画像データ同士の時間ごとの比較も容易になる。そして、異なる種類の医用画像診断装置にて収集された時系列的な3次元画像データの時間ごとの比較も可能となるため、例えば、術前と術後の患部の経時変化や治療効果等の確認を容易にすることができる。また、被検体の時系列的な3次元画像データと時間ごとに変化する典型症例との比較も容易にすることが可能となる。このように、診断に有効な新たな情報を医師等に提供することが可能となる。   In addition, by applying the present invention, time-series comparison of time-series three-dimensional image data collected in the past is facilitated. In addition, since time-series comparison of time-series three-dimensional image data collected by different types of medical image diagnostic apparatuses is possible, for example, changes over time in affected areas before and after surgery, treatment effects, etc. Confirmation can be facilitated. In addition, it is possible to easily compare the time-series three-dimensional image data of the subject with a typical case that changes with time. In this manner, new information effective for diagnosis can be provided to a doctor or the like.

さらに、この発明を応用することにより、術中に、観察したい領域に含まれる画像を抽出して表示装置に表示すること可能となるため、術者は術中にリアルタイムに臓器等の経時変化を観察することが可能となる。また、術中に、術前の時系列的な3次元画像との比較が可能となるため、治療等を行いつつ過去に収集された画像や実画像との比較も可能となる。   Furthermore, by applying the present invention, it becomes possible to extract an image included in the region to be observed and display it on the display device during the operation, so that the operator observes the temporal change of the organ and the like in real time during the operation. It becomes possible. Further, since it is possible to compare with a pre-operative time-series three-dimensional image during the operation, it is also possible to compare with an image or a real image collected in the past while performing treatment or the like.

[第1の実施の形態]
まず、この発明の第1の実施形態に係る画像処理装置について、図1乃至図18を参照しつつ説明する。
[First Embodiment]
First, an image processing apparatus according to a first embodiment of the present invention will be described with reference to FIGS.

(構成)
この発明の第1の実施形態に係る画像処理装置の構成について、図1及び図2を参照しつつ説明する。図1は、この発明の第1の実施形態に係る画像処理装置を備えた医用画像システムの概略構成を示すブロック図である。医用画像システムは、医用画像診断装置1、位置情報収集部6、生体情報収集部7、画像処理装置20及び記憶装置40を備えて構成されている。
(Constitution)
The configuration of the image processing apparatus according to the first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a block diagram showing a schematic configuration of a medical image system including an image processing apparatus according to the first embodiment of the present invention. The medical image system includes a medical image diagnostic apparatus 1, a position information collection unit 6, a biological information collection unit 7, an image processing device 20, and a storage device 40.

医用画像診断装置1は、例えば、X線CT装置や超音波診断装置等で構成されている。図1には、X線CT装置の例が示されている。照射部2は、X線源、高電圧発生装置及びX線源制御装置等で構成され、被検体である撮影対象に向けてX線ビームを曝射するものである。X線源は、例えば、チャンネル方向とスライス方向(被検体の体軸方向)との2方向に広がるいわゆるコーンビームX線を発生する。検出器3は、照射部2から曝射され、被検体を透過したX線ビームを検出するX線検出器からなる。また、検出器3は、例えば、X線検出素子を互いに直交する2方向それぞれにアレイ状に複数個配列され、これにより2次元のX線検出器を成している。   The medical image diagnostic apparatus 1 is configured by, for example, an X-ray CT apparatus, an ultrasonic diagnostic apparatus, or the like. FIG. 1 shows an example of an X-ray CT apparatus. The irradiation unit 2 includes an X-ray source, a high voltage generator, an X-ray source control device, and the like, and emits an X-ray beam toward an imaging target that is a subject. The X-ray source generates so-called cone beam X-rays that spread in two directions, for example, a channel direction and a slice direction (the body axis direction of the subject). The detector 3 is composed of an X-ray detector that detects an X-ray beam irradiated from the irradiation unit 2 and transmitted through the subject. In the detector 3, for example, a plurality of X-ray detection elements are arrayed in two directions orthogonal to each other, thereby forming a two-dimensional X-ray detector.

データ収集部4(DAS)は、検出器3の各X線検出素子と同様にアレイ状に配列されたデータ収集素子を有し、検出器3により検出されたX線ビームを、スキャン制御部(図示しない)により出力されたデータ収集制御信号に対応させて収集する。この収集されたデータがX線投影データとなる。   The data acquisition unit 4 (DAS) has data acquisition elements arranged in an array like each X-ray detection element of the detector 3, and scans the X-ray beam detected by the detector 3 with a scan control unit ( Data is collected in correspondence with the data collection control signal output by (not shown). This collected data becomes X-ray projection data.

画像再構成部5は、データ収集部4から出力されるX線投影データを逆投影処理することにより、画像データを再構成する。この逆投影の方法は公知の方法と同じであり、例えばFeldkamp法と呼ばれる方法に代表される3次元画像再構成アルゴリズムによる再構成を行い、スライス方向に広い対象領域(ボリューム)内におけるX線吸収係数の3次元的分布データ(以下、ボリュームデータと称する)を再構成する。再構成されたボリュームデータは、データ処理装置(図示しない)にて、操作者の指示に基づき、任意断面の断層像、任意方向からの投影像、レンダリング処理による特定臓器の3次元表面画像等のいわゆる擬似3次元画像データに変換され、画像処理装置20に送られる。   The image reconstruction unit 5 reconstructs image data by performing a back projection process on the X-ray projection data output from the data collection unit 4. This back projection method is the same as a known method. For example, reconstruction by a three-dimensional image reconstruction algorithm represented by a method called the Feldkamp method is performed, and X-ray absorption in a wide target region (volume) in the slice direction is performed. Coefficient three-dimensional distribution data (hereinafter referred to as volume data) is reconstructed. The reconstructed volume data is generated by a data processing device (not shown) such as a tomographic image of an arbitrary cross section, a projection image from an arbitrary direction, a three-dimensional surface image of a specific organ by a rendering process, based on an instruction from an operator. It is converted into so-called pseudo three-dimensional image data and sent to the image processing device 20.

位置情報収集部6は、例えば、磁気的又は光学的な原理により動作する3次元位置センサからなり、被検体(撮影対象)Pの3次元位置情報を収集し、その3次元位置情報を時間ごとに位置制御部33に出力する。つまり、位置情報収集部6は時系列的な3次元位置情報を収集して位置制御部33に出力する。なお、後述するが、3次元画像データから抽出される解剖学的特徴点も3次元位置情報とする。   The position information collection unit 6 includes, for example, a three-dimensional position sensor that operates based on a magnetic or optical principle, collects three-dimensional position information of the subject (imaging target) P, and obtains the three-dimensional position information for each time. To the position control unit 33. That is, the position information collection unit 6 collects time-series three-dimensional position information and outputs it to the position control unit 33. As will be described later, anatomical feature points extracted from the three-dimensional image data are also set as the three-dimensional position information.

生体情報収集部7は、医用画像診断装置1にてスキャン中に、被検体の心電信号(ECG信号)、筋電信号(EMG信号)又は関節の動作情報等の生体情報を取得するものである。例えば心電計が用いられる場合は、生体情報収集部7は、被検体の心電信号(ECG信号)を検出し、検出された心電信号(ECG信号)をデジタル信号に変換する。そして、時系列的な3次元画像データと同時に得られる心電信号(ECG信号)は、時間ごとに収集される複数の3次元画像データの付帯情報として時間制御部34に出力され、更に生体情報記憶部43に保存される。なお、筋電信号(EMG信号)とは、筋の活動電位を皮膚表面から測定した信号である、また、関節の動作情報とは、意図的に被検体の関節を動かしたときのその関節がなす角度等を示すものであり、動かすことにより、時間ごとに変化して異なる角度となる。   The biological information collection unit 7 acquires biological information such as an electrocardiographic signal (ECG signal), myoelectric signal (EMG signal), or joint motion information of the subject during scanning with the medical image diagnostic apparatus 1. is there. For example, when an electrocardiograph is used, the biological information collection unit 7 detects an electrocardiogram signal (ECG signal) of the subject and converts the detected electrocardiogram signal (ECG signal) into a digital signal. An electrocardiogram signal (ECG signal) obtained at the same time as the time-series 3D image data is output to the time control unit 34 as supplementary information of a plurality of 3D image data collected every time, and further the biological information. It is stored in the storage unit 43. The myoelectric signal (EMG signal) is a signal obtained by measuring the action potential of the muscle from the skin surface, and the motion information of the joint is the joint when the subject's joint is intentionally moved. It shows the angle to be made, and when it is moved, it changes with time and becomes a different angle.

画像処理装置20は、操作入力部21、画像表示部22及び制御部30を備えて構成されている。画像表示部22は、医用画像診断装置1にて収集された時系列的な3次元画像を表示する。操作入力部21は、画像表示部22に表示された時系列的な3次元画像に対する画像処理、計測、領域抽出等の操作を行うものであり、その操作に対応する信号がシステム制御部31に出力される。   The image processing apparatus 20 includes an operation input unit 21, an image display unit 22, and a control unit 30. The image display unit 22 displays a time-series three-dimensional image collected by the medical image diagnostic apparatus 1. The operation input unit 21 performs operations such as image processing, measurement, and region extraction on the time-series three-dimensional image displayed on the image display unit 22, and a signal corresponding to the operation is sent to the system control unit 31. Is output.

制御部30は、システム制御部31、画像制御部32、位置制御部33、時間制御部34、領域制御部35及び操作制御部36を備えて構成されている。システム制御部31は、画像処理装置20の各部に接続されて、画像処理装置20全体の動作を制御するものである。   The control unit 30 includes a system control unit 31, an image control unit 32, a position control unit 33, a time control unit 34, an area control unit 35, and an operation control unit 36. The system control unit 31 is connected to each unit of the image processing apparatus 20 and controls the operation of the entire image processing apparatus 20.

画像制御部32は、医用画像診断装置1から出力される時系列的な3次元画像データを制御するものである。具体的には、医用画像診断装置1にてスキャン中に、画像再構成部5から出力される時系列的な3次元画像データを読み込み、それと同時に、記憶装置40の画像記憶部41に記憶され、予め収集されている時系列的な3次元画像データを読み込んで、それらを位置制御部33に出力する。   The image control unit 32 controls time-series three-dimensional image data output from the medical image diagnostic apparatus 1. Specifically, the time-series three-dimensional image data output from the image reconstruction unit 5 is read during scanning by the medical image diagnostic apparatus 1 and is simultaneously stored in the image storage unit 41 of the storage device 40. The time-series three-dimensional image data collected in advance is read and output to the position control unit 33.

位置制御部33は、医用画像診断装置1にて収集されている時系列的な3次元画像データの座標系と、画像記憶部41に保存されている時系列的な3次元画像データの座標系を一致させるものである。位置制御部33は、画像に表示されたマーカや解剖学的特徴点等の、時間ごとに少しずつ異なる時系列的な3次元位置情報を抽出し、その3次元位置情報を基準として各時間に収集された画像内にローカル座標を定義し、比較する3次元画像同士のローカル座標を一致させる。例えば、予め撮影時に被検体Pに補助具等を装着させ、その状態で撮像すると、画像中にマーカが表示されるため、このマーカを3次元位置情報として、位置制御部33は各画像においてローカル座標系を定義する。なお、解剖学的特徴点とは、例えば図4に示すような骨格上の特徴点を意味する。   The position control unit 33 includes a coordinate system of time-series 3D image data collected by the medical image diagnostic apparatus 1 and a coordinate system of time-series 3D image data stored in the image storage unit 41. Are the same. The position control unit 33 extracts time-series three-dimensional position information that is slightly different from time to time, such as markers and anatomical feature points displayed in the image, and each time based on the three-dimensional position information. Local coordinates are defined in the collected images, and the local coordinates of the three-dimensional images to be compared are matched. For example, when an auxiliary tool or the like is previously attached to the subject P at the time of imaging and imaging is performed in that state, a marker is displayed in the image. Therefore, the position control unit 33 uses the marker as three-dimensional position information and the local control unit 33 in each image Define a coordinate system. The anatomical feature point means a feature point on the skeleton as shown in FIG.

具体的には、位置制御部33は、スキャン中の時系列的な3次元画像から3次元位置情報を抽出し、更に、画像記憶部41に保存されている3次元画像内の3次元位置情報を読み込む。そして、位置制御部33は、それら時系列的な3次元位置情報から各時間における3次元画像のローカル座標系を定義し、ローカル座標系を一致させる。   Specifically, the position control unit 33 extracts 3D position information from the time-series 3D image being scanned, and further, 3D position information in the 3D image stored in the image storage unit 41. Is read. And the position control part 33 defines the local coordinate system of the three-dimensional image in each time from these time-sequential three-dimensional position information, and makes a local coordinate system correspond.

また、位置制御部33は、3次元位置センサを備えた位置情報収集部6により収集された被検体(撮影対象)Pの時系列的な3次元位置情報を読み込み、その3次元位置情報を基準に各時間に収集された画像においてローカル座標系を定義して、各画像のローカル座標を一致させても良い。   Further, the position control unit 33 reads time-series three-dimensional position information of the subject (imaging target) P collected by the position information collecting unit 6 including the three-dimensional position sensor, and uses the three-dimensional position information as a reference. Alternatively, a local coordinate system may be defined in the images collected at each time to match the local coordinates of the images.

時間制御部34は、生体情報収集部7により収集された生体情報と、生体情報記憶部43に記憶されている生体情報とを読み込む。この生体情報は、時間ごとに変化する情報であり、上述した心電信号(ECG信号)や筋電信号(EMG信号)等が該当する。そして、時間制御部34は、読み込んだ生体情報に基づいて、スキャンにより得られている時系列的な3次元画像データと、画像記憶部41に保存されている時系列的な3次元画像データとを同期させる。つまり、同じ時刻(時相)に収集された3次元画像データを画像表示部22に同時に表示させるために、3次元画像データの付帯情報としての生体情報に基づいて、スキャンにより得られている時系列的な3次元画像データ及び予め収集されている時系列的な3次元画像データのうち、同じ時刻(時相)に収集された3次元画像データ同士を同期させ、画像表示部22は、同期させられた3次元画像データを同時に表示する。   The time control unit 34 reads the biological information collected by the biological information collection unit 7 and the biological information stored in the biological information storage unit 43. This biological information is information that changes with time, and corresponds to the above-described electrocardiogram signal (ECG signal), myoelectric signal (EMG signal), and the like. Then, the time control unit 34, based on the read biological information, time-series 3D image data obtained by scanning, and time-series 3D image data stored in the image storage unit 41, Synchronize. In other words, in order to display the 3D image data collected at the same time (time phase) on the image display unit 22 at the same time, it is obtained by scanning based on biological information as supplementary information of the 3D image data. Of the three-dimensional image data and the time-series three-dimensional image data collected in advance, the three-dimensional image data collected at the same time (time phase) are synchronized, and the image display unit 22 is synchronized. The displayed three-dimensional image data is displayed simultaneously.

さらに、スキャンにより得られている3次元画像データと予め収集された3次元画像データとで、単位時間当たり(例えば1秒当たり)の画像数が異なる場合は、単位時間当たりの画像数が少ない画像データに対して補間処理を行って、スキャンにより得られている3次元画像データと予め収集された3次元画像データとを同期させる。   Furthermore, when the number of images per unit time (for example, per second) differs between the three-dimensional image data obtained by scanning and the three-dimensional image data collected in advance, an image with a small number of images per unit time Interpolation processing is performed on the data to synchronize the three-dimensional image data obtained by scanning with the three-dimensional image data collected in advance.

領域制御部35は、3次元画像データから所望の観察領域に含まれる3次元画像データを抽出するものである。例えば、領域制御部35は、3次元画像のうち、所望の観察領域の範囲内の3次元画像を出力し、画像表示部22にて抽出された観察領域に含まれる3次元画像を表示するものである。この実施形態においては、領域制御部35は、領域情報記憶部44に記憶されている、予め収集された時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データを抽出した際の、その観察領域を示す情報(抽出領域情報)を読み込み、スキャンにより得られている時系列的な3次元画像データからその抽出領域情報に対応する領域に含まれる3次元画像データの抽出を行う。この抽出領域情報も時系列的なものであり、時間ごとに異なるものである。   The area control unit 35 extracts 3D image data included in a desired observation area from the 3D image data. For example, the region control unit 35 outputs a three-dimensional image within the range of a desired observation region among the three-dimensional images, and displays the three-dimensional image included in the observation region extracted by the image display unit 22. It is. In this embodiment, the area control unit 35 extracts 3D image data included in a desired observation area from previously collected time-series 3D image data stored in the area information storage unit 44. At this time, information indicating the observation area (extraction area information) is read, and the 3D image data included in the area corresponding to the extraction area information is extracted from the time-series 3D image data obtained by scanning. Do. This extracted area information is also time-series and varies from time to time.

なお、観察領域の指定は操作入力部21により行われる。例えば、操作入力部21に備えられているマウス等を操作者が操作することにより、画像表示部22に表示されている画像の観察したい領域(範囲)を指定すると、領域制御部35は、その指定された観察領域(範囲)に含まれる画像を抽出して画像表示部22に表示させる。そして、指定された観察領域を示す情報(抽出領域情報)は領域情報記憶部44に記憶される。このようにして、予め収集された時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データが抽出される。   The observation area is designated by the operation input unit 21. For example, when an operator operates a mouse or the like provided in the operation input unit 21 to specify a region (range) in which an image displayed on the image display unit 22 is to be observed, the region control unit 35 An image included in the designated observation area (range) is extracted and displayed on the image display unit 22. Information (extraction region information) indicating the designated observation region is stored in the region information storage unit 44. In this manner, 3D image data included in a desired observation area is extracted from time-series 3D image data collected in advance.

操作制御部36は、操作情報記憶部45に記憶されている操作情報や画像処理のパラメータを読み込み、その操作情報や画像処理のパラメータを、スキャンにより得られている時系列的な3次元画像データに反映させる。この操作情報は、画像表示部22で表示される画像に対して行われる回転操作、移動又は拡大等の操作を示す情報である。また、画像処理のパラメータは、画像の不透明度を決定する係数であるオパシティ(Opacity)やコントラストや明るさ等を決定する係数であるパラメータ(WL/WW)等である。予め収集された時系列的な3次元画像データに対して行われた回転操作等の操作や画像処理を、スキャン中の時系列的な3次元画像データに対しても行い、画像表示部22に表示される画像の、回転角度や大きさや不透明度やコントラスト等を統一する。つまり、画像表示部22の画面上において、3次元画像の観察角度や拡大率や位置や不透明度やコントラスト等を統一して、観察を容易にするものである。この操作情報及び画像処理のパラメータも時系列的なものであり、時間ごとに異なるものである。   The operation control unit 36 reads operation information and image processing parameters stored in the operation information storage unit 45, and uses the operation information and image processing parameters as time-series three-dimensional image data obtained by scanning. To reflect. The operation information is information indicating an operation such as a rotation operation, a movement, or an enlargement performed on the image displayed on the image display unit 22. Further, the image processing parameters include an opacity that is a coefficient for determining the opacity of the image, a parameter (WL / WW) that is a coefficient for determining contrast, brightness, and the like. Operations such as rotational operations and image processing performed on the time-series 3D image data collected in advance are also performed on the time-series 3D image data being scanned, and the image display unit 22 Unify the rotation angle, size, opacity, contrast, etc. of the displayed image. In other words, on the screen of the image display unit 22, the observation angle, the enlargement ratio, the position, the opacity, the contrast, and the like of the three-dimensional image are unified to facilitate observation. The operation information and image processing parameters are also time-series, and differ from time to time.

また、操作制御部36は、操作入力部21から入力された操作情報を、スキャンにより得られている時系列的な3次元画像データに反映するだけでなく、予め収集された時系列的な3次元画像データに対しても反映する。つまり、操作入力部21から操作情報が入力されると、操作制御部36は、画像表示部22に表示されている、スキャンにより得られている時系列的な3次元画像データ及び予め収集された時系列的な3次元画像データに、その操作情報を反映する。例えば、回転操作を示す情報が操作入力部21から入力されると、操作制御部36は、画像表示部22においてスキャンにより得られている時系列的な3次元画像データを回転させるとともに、予め収集された時系列的な3次元画像データを同じように回転させる。同様に、予め収集された時系列的な3次元画像データを回転させると、操作制御部36は、スキャンにより得られている時系列的な3次元画像データも回転させる。このように、画像表示部22に表示される画像の、観察角度や拡大率等を統一する。   In addition, the operation control unit 36 not only reflects the operation information input from the operation input unit 21 on the time-series three-dimensional image data obtained by scanning, but also collects time-series 3 collected in advance. This is also reflected in the dimensional image data. That is, when operation information is input from the operation input unit 21, the operation control unit 36 displays time-series three-dimensional image data obtained by scanning displayed in the image display unit 22 and previously collected. The operation information is reflected in the time-series three-dimensional image data. For example, when information indicating a rotation operation is input from the operation input unit 21, the operation control unit 36 rotates time-series 3D image data obtained by scanning in the image display unit 22 and collects in advance. The time-series three-dimensional image data thus rotated is rotated in the same manner. Similarly, when the time-series 3D image data collected in advance is rotated, the operation control unit 36 also rotates the time-series 3D image data obtained by scanning. In this way, the observation angle, the enlargement ratio, etc. of the image displayed on the image display unit 22 are unified.

さらに、操作制御部36は、スキャンにより得られている時系列的な3次元画像データに対してある画像処理が施されると、同じ画像処理を予め収集された時系列的な3次元画像データに施す。例えば、画像の不透明度やコントラストや明るさ等を統一するために、スキャンにより得られている時系列的な3次元画像データに対して施された画像処理のパラメータ(オパシティ等)と同じパラメータを用いて、予め収集された時系列的な3次元画像データに対して画像処理を施す。このように、画像表示部22に表示される画像の不透明度やコントラスト等を統一する。   Furthermore, when certain image processing is performed on the time-series three-dimensional image data obtained by scanning, the operation control unit 36 performs time-series three-dimensional image data collected in advance. To apply. For example, in order to unify the opacity, contrast, brightness, etc. of the image, the same parameters as the image processing parameters (opacity, etc.) applied to the time-series 3D image data obtained by scanning are set. The image processing is performed on the time-series three-dimensional image data collected in advance. In this way, the opacity and contrast of the image displayed on the image display unit 22 are unified.

画像表示部22は、画像制御部32、位置制御部33、時間制御部34、領域制御部35又は操作制御部36によって処理が施された時系列的な3次元画像データを表示する。   The image display unit 22 displays time-series three-dimensional image data processed by the image control unit 32, the position control unit 33, the time control unit 34, the region control unit 35, or the operation control unit 36.

また、システム制御部31は、操作入力部21からの指示に従って、画像制御部32、位置制御部33、時間制御部34、領域制御部35及び操作制御部36の処理を個別に解除することもできる。つまり、システム制御部31の制御により、ある画像データに対しては、位置制御部33による処理のみを行い、その他の時間制御部34、領域制御部35等による処理を行わないようにしても良い。また、システム制御部31の制御により、ある画像データに対しては、位置制御部33、時間制御部34及び領域制御部35による処理を行い、操作制御部36による処理を行わないようにしても良い。この実施形態に係る画像処理装置20によると、このように全ての処理を行わず、指定された処理の情報のみを共有させて画像表示部22に画像を表示することができる。   Further, the system control unit 31 may individually release the processing of the image control unit 32, the position control unit 33, the time control unit 34, the region control unit 35, and the operation control unit 36 in accordance with an instruction from the operation input unit 21. it can. That is, under the control of the system control unit 31, only certain processing by the position control unit 33 may be performed on certain image data, and other processing by the time control unit 34, the region control unit 35, etc. may not be performed. . Also, with the control of the system control unit 31, certain image data is processed by the position control unit 33, the time control unit 34, and the region control unit 35, and is not processed by the operation control unit 36. good. According to the image processing apparatus 20 according to this embodiment, it is possible to display an image on the image display unit 22 by not sharing all the processes as described above but sharing only the information of the designated process.

また、記憶装置40は、画像記憶部41、位置情報記憶部42、生体情報記憶部43、領域情報記憶部44及び操作情報記憶部45を備えて構成されている。   The storage device 40 includes an image storage unit 41, a position information storage unit 42, a biological information storage unit 43, a region information storage unit 44, and an operation information storage unit 45.

画像記憶部41には、医用画像診断装置1により予め所定時間ごとに収集された時系列的な3次元画像データが保存されている。例えば、X線CT装置、超音波診断装置又はMRI装置等により収集された、時間ごとに少しずつ異なる時系列的な3次元画像データが保存されている。この実施形態に係る医用画像診断装置1はX線CT装置を想定しているが、画像記憶部41には、X線CT装置により収集された画像データの他、別の装置、例えば、超音波診断装置やMRI装置等により収集された画像データが保存されていても良い。つまり、同じ診断装置で収集された画像データのみならず、別の診断装置で収集された画像データが保存されていても構わないことになる。例えば、異なる診断装置で収集された画像同士を比較するために、異なる診断装置で収集された画像データを保存しておく。   The image storage unit 41 stores time-series three-dimensional image data collected in advance by the medical image diagnostic apparatus 1 every predetermined time. For example, time-series three-dimensional image data collected by an X-ray CT apparatus, an ultrasonic diagnostic apparatus, an MRI apparatus, or the like, which is slightly different for each time, is stored. The medical image diagnostic apparatus 1 according to this embodiment is assumed to be an X-ray CT apparatus, but the image storage unit 41 includes other apparatuses such as ultrasonic waves in addition to image data collected by the X-ray CT apparatus. Image data collected by a diagnostic apparatus, an MRI apparatus, or the like may be stored. That is, not only image data collected by the same diagnostic apparatus but also image data collected by another diagnostic apparatus may be stored. For example, in order to compare images collected by different diagnostic apparatuses, image data collected by different diagnostic apparatuses is stored.

位置情報記憶部42には、解剖学的特徴点や予め撮像時に被検体に装着された補助具によるマーカ等により表される、時間ごとに少しずつ異なる時系列的な3次元位置情報が記憶されている。または、位置情報収集部6により収集された被検体Pの3次元位置情報が記憶されている。   The position information storage unit 42 stores time-series three-dimensional position information slightly different from time to time, which is represented by anatomical feature points or markers by an auxiliary tool previously attached to the subject at the time of imaging. ing. Alternatively, the three-dimensional position information of the subject P collected by the position information collecting unit 6 is stored.

生体情報記憶部43には、心電信号(ECG)、筋電信号(EMG)又は関節動作情報等からなる時間ごとに変化する生体情報が記憶されている。この生体情報は、医用画像診断装置1によるスキャン中に同時に被検体Pから収集される情報であり、時間ごとに収集される複数の3次元画像データの付帯情報を成すものである。   The biological information storage unit 43 stores biological information that changes with time, such as an electrocardiogram signal (ECG), a myoelectric signal (EMG), or joint motion information. This biological information is information collected from the subject P at the same time during the scan by the medical image diagnostic apparatus 1, and forms supplementary information of a plurality of three-dimensional image data collected every time.

領域情報記憶部44には、予め医用画像診断装置1により収集された時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データを抽出した際の、その観察領域の範囲を示す、時間ごとに異なる情報(領域抽出情報)が記憶されている。   The area information storage unit 44 stores the range of the observation area when the 3D image data included in the desired observation area is extracted from the time-series 3D image data collected by the medical image diagnostic apparatus 1 in advance. The information (area extraction information) that is different for each time is stored.

操作情報記憶部45には、予め医用画像診断装置1により収集された時系列的な3次元画像データに対して、画像表示部22の画面上で行われた操作を示す、時間ごとに異なる操作情報が記憶されている。   In the operation information storage unit 45, an operation that is performed on the screen of the image display unit 22 with respect to time-series three-dimensional image data collected in advance by the medical image diagnostic apparatus 1, and that varies with time. Information is stored.

なお、図1に示す例においては、X線CT装置としての医用画像診断装置1の外部に、この実施形態の特徴部分である画像処理装置20を設け、医用画像診断装置1から送られてくる画像データを処理しているが、この発明はその例に限定されることはない。例えば、医用画像診断装置1内(X線CT装置内)に画像処理装置20を設け、医用画像診断装置1の内部にて画像処理を行っても良い。つまり、医用画像診断装置1(X線CT装置)自体に画像処理装置20の機能を持たせて、医用画像診断装置1が画像処理を行っても良い。   In the example shown in FIG. 1, an image processing apparatus 20, which is a characteristic part of this embodiment, is provided outside the medical image diagnostic apparatus 1 as an X-ray CT apparatus, and is sent from the medical image diagnostic apparatus 1. Although image data is processed, the present invention is not limited to this example. For example, the image processing apparatus 20 may be provided in the medical image diagnostic apparatus 1 (in the X-ray CT apparatus) and image processing may be performed inside the medical image diagnostic apparatus 1. In other words, the medical image diagnostic apparatus 1 (X-ray CT apparatus) itself may have the function of the image processing apparatus 20 and the medical image diagnostic apparatus 1 may perform image processing.

従って、医用画像診断装置1と画像処理装置20とをネットワーク等を介して接続し、医用画像診断装置1にて収集された画像データを画像処理装置20に送信して、画像処理装置20にて画像処理を行っても良く、また、医用画像診断装置1内に画像処理装置20を設け、医用画像診断装置1自体が画像処理を行っても良い。さらに、画像処理装置20ととともに記憶装置40も医用画像診断装置1に設けても良い。   Accordingly, the medical image diagnostic apparatus 1 and the image processing apparatus 20 are connected via a network or the like, and the image data collected by the medical image diagnostic apparatus 1 is transmitted to the image processing apparatus 20, and the image processing apparatus 20 Image processing may be performed, or the image processing apparatus 20 may be provided in the medical image diagnostic apparatus 1, and the medical image diagnostic apparatus 1 itself may perform image processing. Further, the storage device 40 may be provided in the medical image diagnostic apparatus 1 together with the image processing apparatus 20.

上述した例においては、医用画像診断装置1としてX線CT装置を用いているが、この他、超音波診断装置やMRI装置等を用いても良い。図2に、医用画像診断装置として超音波診断装置を用いた例を示す。図2のブロック図に示す医用画像システムにおいては、医用画像診断装置の構成のみが異なっている。図2に示す医用画像診断装置10は、超音波診断装置からなり、超音波プローブ11、送受信部12、信号処理部13及びDSC(デジタルスキャンコンバータ)14を備えて構成されている。   In the example described above, an X-ray CT apparatus is used as the medical image diagnostic apparatus 1, but an ultrasonic diagnostic apparatus, an MRI apparatus, or the like may also be used. FIG. 2 shows an example in which an ultrasonic diagnostic apparatus is used as a medical image diagnostic apparatus. In the medical image system shown in the block diagram of FIG. 2, only the configuration of the medical image diagnostic apparatus is different. A medical image diagnostic apparatus 10 shown in FIG. 2 includes an ultrasonic diagnostic apparatus, and includes an ultrasonic probe 11, a transmission / reception unit 12, a signal processing unit 13, and a DSC (digital scan converter) 14.

超音波プローブ11は、超音波を送受信する超音波振動子がマトリックス(格子)状に配置された2次元超音波プローブからなる。そして、走査(スキャン)することによって3次元的に超音波を送受信し、プローブの表面から放射状に広がる形状の3次元データをエコー信号として受信する。また、超音波プローブ2として1次元超音波プローブを用いた場合は、超音波プローブ2を機械的に走査することで3次元データを収集する。   The ultrasonic probe 11 is a two-dimensional ultrasonic probe in which ultrasonic transducers that transmit and receive ultrasonic waves are arranged in a matrix (lattice). Then, ultrasonic waves are transmitted and received three-dimensionally by scanning, and three-dimensional data having a shape that spreads radially from the surface of the probe is received as an echo signal. Further, when a one-dimensional ultrasonic probe is used as the ultrasonic probe 2, three-dimensional data is collected by mechanically scanning the ultrasonic probe 2.

送受信部12は送信部と受信部とからなり、超音波プローブ11に電気信号を供給して超音波を発生させるとともに、超音波プローブ11が受信したエコー信号を受信する。   The transmission / reception unit 12 includes a transmission unit and a reception unit. The transmission / reception unit 12 supplies an electrical signal to the ultrasonic probe 11 to generate an ultrasonic wave and receives an echo signal received by the ultrasonic probe 11.

送受信部12内の送信部は、図示しないクロック発生回路、送信遅延回路及びパルサ回路を備えている。クロック発生回路は、超音波信号の送信タイミングや送信周波数を決めるクロック信号を発生する回路である。送信遅延回路は、超音波の送信時に遅延を掛けて送信フォーカスを実施する回路である。パルサ回路は、各超音波振動子に対応した個別経路(チャンネル)の数分のパルサを内蔵し、遅延が掛けられた送信タイミングで駆動パルスを発生し、超音波プローブ12の各超音波振動子に供給するようになっている。   The transmission unit in the transmission / reception unit 12 includes a clock generation circuit, a transmission delay circuit, and a pulsar circuit (not shown). The clock generation circuit is a circuit that generates a clock signal that determines the transmission timing and transmission frequency of the ultrasonic signal. The transmission delay circuit is a circuit that performs transmission focus with a delay when transmitting ultrasonic waves. The pulsar circuit incorporates pulsars corresponding to the number of individual paths (channels) corresponding to each ultrasonic transducer, generates a drive pulse at a delayed transmission timing, and each ultrasonic transducer of the ultrasonic probe 12. To supply.

また、送受信部12内の受信部は、図示しないプリアンプ回路、A/D変換回路及び受信遅延・加算回路を備えている。プリアンプ回路は、超音波プローブ11の各超音波振動子から出力されるエコー信号を受信チャンネルごとに増幅する。A/D変換回路は、増幅されたエコー信号をA/D変換する。受信遅延・加算回路は、A/D変換後のエコー信号に対して受信指向性を決定するのに必要な遅延時間を与え、加算する。その加算により、受信指向性に応じた方向からの反射成分が強調される。この受信部から出力される信号をRFデータと称する。   The reception unit in the transmission / reception unit 12 includes a preamplifier circuit, an A / D conversion circuit, and a reception delay / addition circuit (not shown). The preamplifier circuit amplifies the echo signal output from each ultrasonic transducer of the ultrasonic probe 11 for each reception channel. The A / D converter circuit A / D converts the amplified echo signal. The reception delay / adder circuit gives a delay time necessary for determining the reception directivity to the echo signal after A / D conversion, and adds the delay time. By the addition, the reflection component from the direction according to the reception directivity is emphasized. A signal output from the receiving unit is referred to as RF data.

信号処理部13は、Bモード処理部、ドプラ処理部及びカラーモード処理部を備えている。送受信部12から出力されたRFデータは、いずれかの処理部にて所定の処理を施される。   The signal processing unit 13 includes a B mode processing unit, a Doppler processing unit, and a color mode processing unit. The RF data output from the transmission / reception unit 12 is subjected to predetermined processing in any of the processing units.

Bモード処理部は、エコーの振幅情報の映像化を行い、エコー信号からBモード超音波ラスタデータを生成する。具体的には、RFデータに対してバンドパスフィルタ処理を行い、その後、出力信号の包絡線を検波し、検波されたデータに対して対数変換による圧縮処理を施す。その他、エッジ強調等の処理が行われる場合もある。このBモード処理部で生成されるデータをBモード超音波ラスタデータという。   The B-mode processing unit visualizes echo amplitude information and generates B-mode ultrasound raster data from the echo signal. Specifically, bandpass filter processing is performed on the RF data, and then the envelope of the output signal is detected, and compression processing by logarithmic transformation is performed on the detected data. In addition, processing such as edge enhancement may be performed. Data generated by the B-mode processing unit is referred to as B-mode ultrasonic raster data.

ドプラ処理部は、位相検波回路及びFFT演算回路等から構成され、RFデータからドプラ偏移周波数成分を取り出し、更にFFT処理等を施して血流情報を有するデータを生成する   The Doppler processing unit is composed of a phase detection circuit, an FFT operation circuit, and the like, extracts Doppler shift frequency components from RF data, and further performs FFT processing to generate data having blood flow information.

カラーモード処理部は、動いている血流情報の映像化を行い、カラー超音波ラスタデータを生成する。血流情報には、速度、分散、パワー等の情報があり、血流情報は2値化情報として得られる。具体的には、カラーモード処理部は、位相検波回路、MTIフィルタ、自己相関器、及び流速・分散演算器から構成されている。このカラーモード処理部は、組織信号と血流信号とを分離するためのハイパスフィルタ処理(MTIフィルタ処理)が行われ、自己相関処理により血流の移動速度、分散、パワー等の血流情報を多点について求める。その他、組織信号を低減及び削減するための非線形処理が行われる場合もある。   The color mode processing unit visualizes the moving blood flow information and generates color ultrasonic raster data. Blood flow information includes information such as speed, dispersion, and power, and blood flow information is obtained as binarized information. Specifically, the color mode processing unit includes a phase detection circuit, an MTI filter, an autocorrelator, and a flow velocity / dispersion calculator. This color mode processing unit performs high-pass filter processing (MTI filter processing) to separate tissue signals and blood flow signals, and performs blood flow information such as blood flow velocity, dispersion, and power by autocorrelation processing. Ask for multiple points. In addition, non-linear processing for reducing and reducing tissue signals may be performed.

DSC14(Digital Scan Converter:デジタルスキャンコンバータ)は、直交座標系で表される画像を得るために、超音波ラスタデータを直交座標で表されるボクセルデータに変換する。DSC14は、上述した信号処理部13から出力された走査線信号列で表される信号処理後のデータを空間情報に基づいた座標系のデータに変換する(スキャンコンバージョン処理)。つまり、超音波走査に同期した信号列をテレビ走査方式の画像表示部22で表示できるようにするために、標準のテレビ走査に同期して読み出すことにより走査方式を変換している。   A DSC 14 (Digital Scan Converter: digital scan converter) converts ultrasonic raster data into voxel data represented by orthogonal coordinates in order to obtain an image represented by an orthogonal coordinate system. The DSC 14 converts the signal-processed data represented by the scanning line signal sequence output from the signal processing unit 13 described above into coordinate system data based on the spatial information (scan conversion process). That is, the scanning method is converted by reading out in synchronization with the standard television scanning so that the signal sequence synchronized with the ultrasonic scanning can be displayed on the image display unit 22 of the television scanning method.

DSC14から出力されたボクセルデータは、ボリュームレンダリング処理回路(図示しない)によりボリュームレンダリング処理が施されて3次元画像データが生成される。この3次元画像データは画像制御部32を介して画像記憶部41に記憶されるとともに、画像表示部22により表示される。   The voxel data output from the DSC 14 is subjected to volume rendering processing by a volume rendering processing circuit (not shown) to generate three-dimensional image data. The three-dimensional image data is stored in the image storage unit 41 via the image control unit 32 and displayed by the image display unit 22.

なお、医用画像診断装置10として超音波診断装置を用いた場合も、上述したX線CT装置の例と同様に、医用画像診断装置10(超音波診断装置)内に画像処理装置20を設け、医用画像診断装置10(超音波診断装置)内で画像処理を行っても良い。   Even when an ultrasonic diagnostic apparatus is used as the medical image diagnostic apparatus 10, an image processing apparatus 20 is provided in the medical image diagnostic apparatus 10 (ultrasonic diagnostic apparatus), as in the above-described example of the X-ray CT apparatus. Image processing may be performed in the medical image diagnostic apparatus 10 (ultrasound diagnostic apparatus).

(動作)
次に、この発明の第1の実施形態に係る画像処理装置に動作について、図3乃至図18を参照しつつ説明する。まず、スキャンにより得られている時系列的な3次元画像データと、予め収集されて画像記憶部41に保存されている時系列的な3次元画像データとの座標系を一致させるための制御について、図3及び図4を参照しつつ説明する。図3は、この発明の第1の実施形態に係る画像処理装置による座標変換処理を順番に示すフローチャートである。図4は、この発明の第1の実施形態に係る画像処理装置による座標変換処理を説明するための図である。
(Operation)
Next, the operation of the image processing apparatus according to the first embodiment of the present invention will be described with reference to FIGS. First, control for matching the coordinate system between time-series 3D image data obtained by scanning and time-series 3D image data collected in advance and stored in the image storage unit 41 This will be described with reference to FIGS. FIG. 3 is a flowchart showing, in order, coordinate transformation processing by the image processing apparatus according to the first embodiment of the present invention. FIG. 4 is a view for explaining coordinate conversion processing by the image processing apparatus according to the first embodiment of the present invention.

まず、X線CT装置又は超音波診断装置等からなる医用画像診断装置1(10)により、時間的に少しずつ異なる時系列的な3次元画像データが収集され、図1又は図2に示す画像制御部32を介して画像記憶部41に保存される。この時系列的な3次元画像データは、画像制御部32からシステム制御部31を介して画像表示部22に出力され、画像表示部22にて時間ごとに少しずつ異なる3次元画像データが表示される。これにより、操作者は、3次元画像データを動画としていわゆるリアルタイムに観察することが可能となる。この画像記憶部41に保存されている時系列的な3次元画像データを、予め収集された時系列的な3次元画像データ(過去に収集された時系列的な3次元画像データ)とし、便宜的に「時系列的な3次元画像データA」と称する場合もある。   First, time-series three-dimensional image data that is slightly different in time is collected by the medical image diagnostic apparatus 1 (10) including an X-ray CT apparatus or an ultrasonic diagnostic apparatus, and the image shown in FIG. 1 or FIG. The image data is stored in the image storage unit 41 via the control unit 32. The time-series three-dimensional image data is output from the image control unit 32 to the image display unit 22 via the system control unit 31, and the image display unit 22 displays the three-dimensional image data that is slightly different for each time. The Thereby, the operator can observe the three-dimensional image data as a moving image in a so-called real time. The time-series 3D image data stored in the image storage unit 41 is used as time-series 3D image data collected in advance (time-series 3D image data collected in the past). In particular, it may be referred to as “time-series three-dimensional image data A”.

そして、医用画像診断装置1(10)により、時間ごとに少しずつ異なる、新たな時系列的な3次元画像データを収集する。ここで、今現在スキャンにより得られている時系列的な3次元画像データを、便宜的に「時系列的な3次元画像データB」と称する場合もある。この新たな時系列的な3次元画像データBは、逐次、医用画像診断装置1(10)から画像処理装置20の画像制御部32に出力される。   The medical image diagnostic apparatus 1 (10) collects new time-series three-dimensional image data that is slightly different from time to time. Here, the time-series three-dimensional image data currently obtained by scanning may be referred to as “time-series three-dimensional image data B” for convenience. The new time-series three-dimensional image data B is sequentially output from the medical image diagnostic apparatus 1 (10) to the image control unit 32 of the image processing apparatus 20.

そして、スキャンにより新たな時系列的な3次元画像データBを収集しているときに、画像制御部32は、画像記憶部41から予め収集された時系列的な3次元画像データAを読み込む。そして、画像制御部32は、予め収集された時系列的な3次元画像データAと、スキャンにより得られている時系列的な3次元画像データBとを位置制御部33に出力する。   Then, when new time-series three-dimensional image data B is collected by scanning, the image control unit 32 reads time-series three-dimensional image data A collected in advance from the image storage unit 41. Then, the image control unit 32 outputs the time-series three-dimensional image data A collected in advance and the time-series three-dimensional image data B obtained by scanning to the position control unit 33.

位置制御部33は、位置情報記憶部42に記憶されている、予め収集された時系列的な3次元画像データAにおける、時間ごとに少しずつ異なる時系列的な3次元位置情報を読み込む(ステップS01)。位置制御部33は、例えば図4に示すような、解剖学的特徴点(骨格上の特徴点)で表される時系列的な3次元位置情報を読み込む。この解剖学的特徴点で表される3次元位置情報は時間ごとに少しずつ異なるものである。   The position control unit 33 reads time-series three-dimensional position information slightly different from time to time in the time-series three-dimensional image data A collected in advance, which is stored in the position information storage unit 42 (step S01). The position control unit 33 reads time-series three-dimensional position information represented by anatomical feature points (feature points on the skeleton), for example, as shown in FIG. The three-dimensional position information represented by the anatomical feature points is slightly different from time to time.

さらに、位置制御部33は、スキャンにより得られている時系列的な3次元画像データBにおける、時間ごとに少しずつ異なる時系列的な3次元位置情報を抽出する(ステップS02)。例えば、位置制御部33は、画像制御部32から送られるスキャンにより得られている時系列的な3次元画像データBから解剖学的特徴点(骨格上の特徴点)を抽出し、その解剖学的特徴点を3次元位置情報とする。この解剖学的特徴点で表される3次元位置情報も時間ごとに少しずつ異なるものである。   Further, the position control unit 33 extracts time-series three-dimensional position information slightly different from time to time in the time-series three-dimensional image data B obtained by scanning (step S02). For example, the position control unit 33 extracts anatomical feature points (feature points on the skeleton) from the time-series three-dimensional image data B obtained by the scan sent from the image control unit 32, and the anatomy is extracted. The characteristic feature point is set as three-dimensional position information. The three-dimensional position information represented by the anatomical feature points is also slightly different from time to time.

そして、位置制御部33は、予め収集された時系列的な3次元画像データAの解剖学的特徴点と、スキャンにより得られている時系列的な3次元画像データBの解剖学的特徴点とを比較し、それらが一致しているか否かの判断を行う(ステップS03)。位置制御部33により、解剖学的特徴点が一致していないと判断された場合は(ステップS03、No)、例えば、スキャンにより得られている3次元画像データBから新たな解剖学的特徴点を抽出し、予め収集された3次元画像データAの解剖学的特徴点と一致させる(ステップS04)。   Then, the position control unit 33 analyzes the anatomical feature points of the time-series 3D image data A collected in advance and the anatomical feature points of the time-series 3D image data B obtained by scanning. And determine whether or not they match (step S03). If the position control unit 33 determines that the anatomical feature points do not match (step S03, No), for example, a new anatomical feature point is obtained from the three-dimensional image data B obtained by scanning. Are matched with the anatomical feature points of the three-dimensional image data A collected in advance (step S04).

位置制御部33により、解剖学的特徴点が一致すると判断された場合は(ステップS03、Yes)、位置制御部33は、各3次元画像データにおけるローカル座標系を定義する(ステップS05)。例えば、図4に示すように、位置制御部33により3点の解剖学的特徴点が抽出された場合、その3点で表される座標系をローカル座標系と定義する。図4(a)には、予め収集された3次元画像データAとその解剖学的特徴点が示され、図4(b)には、スキャンにより得られている3次元画像データBとその解剖学的特徴点が示されている。そして、位置制御部33は、図4(a)、(b)に示すように、3点の解剖学的特徴点に従ってローカル座標系を定義する。なお、複数の3次元画像の位置合わせを行う場合、一致させたい診断部位によって定義するローカル座標は異なる。   When the position control unit 33 determines that the anatomical feature points match (step S03, Yes), the position control unit 33 defines a local coordinate system in each three-dimensional image data (step S05). For example, as shown in FIG. 4, when three anatomical feature points are extracted by the position control unit 33, a coordinate system represented by the three points is defined as a local coordinate system. FIG. 4A shows pre-collected 3D image data A and its anatomical feature points, and FIG. 4B shows 3D image data B obtained by scanning and its anatomy. The characteristic points are shown. And the position control part 33 defines a local coordinate system according to three anatomical feature points, as shown to Fig.4 (a), (b). When aligning a plurality of three-dimensional images, the local coordinates defined differ depending on the diagnostic part to be matched.

そして、位置制御部33は、スキャンにより得られている3次元画像データBのローカル座標系を座標変換して、予め収集された3次元画像データAのローカル座標系に一致させる(ステップS06)。例えば、図4(c)に示すように、位置制御部33は、スキャンにより得られている時系列的な3次元画像データBのローカル座標系を座標変換して回転させ、更に移動させることにより、両者のローカル座標系を一致させる。これにより、そのローカル座標系で表される3次元画像データBも回転させられ、3次元画像データAと3次元画像データBの向き及び位置が一致することになる。   Then, the position control unit 33 performs coordinate conversion on the local coordinate system of the three-dimensional image data B obtained by scanning, and matches the local coordinate system of the three-dimensional image data A collected in advance (step S06). For example, as shown in FIG. 4C, the position control unit 33 performs coordinate conversion, rotation, and further movement of the local coordinate system of the time-series three-dimensional image data B obtained by scanning. , Make the local coordinate system of both match. As a result, the three-dimensional image data B represented by the local coordinate system is also rotated, and the directions and positions of the three-dimensional image data A and the three-dimensional image data B coincide.

このように両画像データの向き及び位置を一致させることができるため、スキャンにより得られている時系列的な3次元画像データBと、予め収集された時系列的な3次元画像データAとを画像表示部22に表示させると、両画像の向き及び位置が一致しているため、両画像の比較が容易になる。   Since the direction and position of both image data can be matched in this way, the time-series 3D image data B obtained by scanning and the time-series 3D image data A collected in advance are obtained. When the image is displayed on the image display unit 22, the direction and the position of both images coincide with each other, so that the comparison between both images is facilitated.

また、3次元位置情報として解剖学的特徴点を用いずに、3次元位置センサからなる位置情報収集部6により収集された被検体Pの3次元位置情報や、予め撮像時に被検体に装着させた補助具により撮像されたマーカ等により表される3次元位置情報を用いても良い。この場合、位置制御部33は、位置情報記憶部42に記憶されている、予め収集された時系列的な3次元画像データAにおける、3次元位置センサにより収集された被検体Pの3次元位置情報や、マーカ等により表される3次元位置情報を読み込む。   Further, without using anatomical feature points as the three-dimensional position information, the three-dimensional position information of the subject P collected by the position information collecting unit 6 composed of a three-dimensional position sensor, or previously attached to the subject at the time of imaging. Alternatively, three-dimensional position information represented by a marker or the like imaged by the auxiliary tool may be used. In this case, the position controller 33 stores the three-dimensional position of the subject P collected by the three-dimensional position sensor in the time-series three-dimensional image data A collected in advance and stored in the position information storage unit 42. Information, 3D position information represented by markers, etc. are read.

さらに、位置制御部33は、位置情報収集部6から、スキャンにより得られている時系列的な3次元画像データBにおける、3次元位置センサにより収集された被検体Pの3次元位置情報や、マーカ等により表される3次元位置情報を読み込む。   Further, the position control unit 33 receives the three-dimensional position information of the subject P collected by the three-dimensional position sensor in the time-series three-dimensional image data B obtained by scanning from the position information collecting unit 6, Reads three-dimensional position information represented by a marker or the like.

そして、位置制御部33は、3次元画像データAのマーカ等と3次元画像データBのマーカ等の位置及び向きを一致させる。このように、マーカ等の3次元位置情報を基準にして向き及び位置を調整することにより、3次元画像データAと3次元画像データBの向き及び位置が一致することになり、両画像の観察、比較が容易になる。   Then, the position control unit 33 matches the positions and orientations of the markers and the like of the 3D image data A with the markers and the like of the 3D image data B. In this way, by adjusting the direction and position with reference to the three-dimensional position information such as the marker, the directions and positions of the three-dimensional image data A and the three-dimensional image data B coincide with each other. , Making the comparison easier.

このように各3次元画像データの向き及び位置が一致させられた後、各3次元画像データは時間制御部34に出力される。時間制御部34は、生体情報収集部7により収集される心電波形(ECG信号)等の生体情報に基づいて、スキャンにより得られている時系列的な3次元画像データBと、予め収集された時系列的な3次元画像データAとを同期させる。この時間制御部34による制御について、図5乃至図11を参照しつつ説明する。図5は、この発明の第1の実施形態に係る画像処理装置により、2つの時系列的な3次元画像データを同期させて表示する処理を順番に示すフローチャートである。   After the directions and positions of the three-dimensional image data are matched as described above, the three-dimensional image data is output to the time control unit 34. The time control unit 34 is preliminarily collected with time-series three-dimensional image data B obtained by scanning based on biological information such as an electrocardiogram waveform (ECG signal) collected by the biological information collection unit 7. The time-series three-dimensional image data A is synchronized. The control by the time control unit 34 will be described with reference to FIGS. FIG. 5 is a flowchart showing, in order, processing for displaying two time-series three-dimensional image data in synchronization by the image processing apparatus according to the first embodiment of the present invention.

まず、時間制御部34は、位置制御部33から出力された3次元画像データAと3次元画像データBとを受け、更に、生体情報記憶部43に記憶されている、予め収集された3次元画像データAの付帯情報である生体情報を読み込む(ステップS10)。次に、時間制御部34は、生体情報収集部7から、スキャンにより得られている3次元画像データBの付帯情報である生体情報を読み込む(ステップS11)。   First, the time control unit 34 receives the three-dimensional image data A and the three-dimensional image data B output from the position control unit 33, and further stores the collected three-dimensional data stored in the biological information storage unit 43. Biometric information that is supplementary information of the image data A is read (step S10). Next, the time control unit 34 reads biological information, which is incidental information of the 3D image data B obtained by scanning, from the biological information collection unit 7 (step S11).

生体情報収集部7として、心電計を用いた場合は、被検体(撮影対象)Pの心電信号(ECG信号)が収集されるため、その心電信号(ECG信号)が生体情報となる。また、筋電計を用いた場合は、EMG信号が収集されるため、そのEMG信号が生体情報となる。その他、意図的に被検体の関節を動かしたときのその動きを示す関節動作情報を生体情報とすることもできる。   When an electrocardiograph is used as the biological information collecting unit 7, since an electrocardiographic signal (ECG signal) of the subject (imaging target) P is collected, the electrocardiographic signal (ECG signal) becomes biological information. . Moreover, when an electromyograph is used, since an EMG signal is collected, the EMG signal becomes biometric information. In addition, biological information may be joint motion information indicating the movement of the subject's joint when the subject is intentionally moved.

時間制御部34は、3次元画像データAの付帯情報としての生体情報と、3次元画像データBの付帯情報としての生体情報とが一致しているか否かの判断を行い(ステップS12)、生体情報が異なっている場合は(ステップS12、No)、時間制御部34は、生体情報を一致させる(ステップS13)。例えば、3次元画像データAの生体情報として筋電信号(EMG信号)が読み込まれ、3次元画像データBの生体情報として心電信号(ECG信号)が読み込まれた場合は、生体情報が異なっている。この場合、時間制御部34は、例えば、3次元画像データAの生体情報として心電信号(ECG信号)を生体情報記憶部43から読み込み、生体情報を一致させる。   The time control unit 34 determines whether or not the biological information as the supplementary information of the three-dimensional image data A matches the biological information as the supplementary information of the three-dimensional image data B (step S12). When the information is different (No at Step S12), the time control unit 34 matches the biological information (Step S13). For example, when a myoelectric signal (EMG signal) is read as biological information of the three-dimensional image data A and an electrocardiogram signal (ECG signal) is read as biological information of the three-dimensional image data B, the biological information is different. Yes. In this case, the time control unit 34 reads an electrocardiogram signal (ECG signal) from the biological information storage unit 43 as the biological information of the three-dimensional image data A, for example, and matches the biological information.

この実施形態においては、生体情報収集部7に心電計を用いて、被検体Pの心電信号(ECG信号)を収集する場合について説明する。生体情報が一致している場合は(ステップS12、Yes)、時間制御部34は、その生体情報のタイムスケールを一致させ、互いの生体情報の時刻(時相)を一致させる(ステップS14)。ここで、生体情報として心電信号(ECG信号)を用いた場合において、タイムスケールを一致させる処理について図6及び図7を参照しつつ説明する。図6は、心電信号(ECG信号)を示す図である。図7は、この発明の第1の実施形態に係る画像処理装置により、2つの時系列的な3次元画像を同期させて表示する処理を説明するための図である。   In this embodiment, a case where an electrocardiograph is used for the biological information collection unit 7 to collect an electrocardiogram signal (ECG signal) of the subject P will be described. When the biometric information matches (Yes in step S12), the time control unit 34 matches the time scales of the biometric information and matches the time (time phase) of the biometric information (step S14). Here, when an electrocardiogram signal (ECG signal) is used as biological information, a process for matching time scales will be described with reference to FIGS. FIG. 6 is a diagram showing an electrocardiogram signal (ECG signal). FIG. 7 is a diagram for explaining processing for synchronizing and displaying two time-series three-dimensional images by the image processing apparatus according to the first embodiment of the present invention.

図6に示す、ECG1は、予め収集された時系列的な3次元画像データAを収集する際に、同時に収集された心電信号(ECG信号)である。また、ECG2は、スキャンにより得られている時系列的な3次元画像データBを収集している際に、同時に収集されている心電信号(ECG信号)である。この例においては、ECG2よりもECG1の方が心拍の間隔が短い。なお、図6に示すように、心電信号(ECG信号)には、「P」、「Q」、「R」、「S」、「T」、「U」と命名されたピークがある。   ECG1 shown in FIG. 6 is an electrocardiogram signal (ECG signal) collected at the same time when collecting time-series three-dimensional image data A collected in advance. ECG2 is an electrocardiogram signal (ECG signal) that is collected at the same time that time-series three-dimensional image data B obtained by scanning is collected. In this example, ECG1 has a shorter heartbeat interval than ECG2. As shown in FIG. 6, the electrocardiogram signal (ECG signal) has peaks named “P”, “Q”, “R”, “S”, “T”, “U”.

時間制御部34は、ECG1とECG2とを利用して、3次元画像データAと3次元画像データBのタイムスケールを一致させる。時間制御部34は、例えば、ECG信号のR波(ピークR)のみを抽出して、R波(ピークR)を一致させることにより、タイムスケールを一致させる。例えば図7に示すように、ECG1のR波(ピークR)が、ECG2のR波(ピークR)に一致するようにECG1の時間軸を延ばしてECG1’とする。また、R波(ピークR)のみならず、他のピークも使用してタイムスケールを一致させても良い。例えば、時間制御部34は、ECG1の各ピークが、ECG2の各ピークにそれぞれ一致するようにECG1の時間軸を延ばしてECG1’としても良い。このように、3次元画像データAと3次元画像データBのタイムスケールを一致させ、同じ時刻(時相)における3次元画像データ同士を同期させ、それらを画像表示部22に出力して画像表示部22にて同時に表示することで、同じ時刻(時相)にて収集された3次元画像同士の比較が可能となる。   The time control unit 34 uses ECG1 and ECG2 to match the time scales of the three-dimensional image data A and the three-dimensional image data B. For example, the time control unit 34 extracts only the R wave (peak R) of the ECG signal and matches the R wave (peak R), thereby matching the time scales. For example, as shown in FIG. 7, the ECG1 time axis is extended to ECG1 'so that the ECG1 R wave (peak R) matches the ECG2 R wave (peak R). Further, not only the R wave (peak R) but also other peaks may be used to match the time scales. For example, the time control unit 34 may set ECG1 'by extending the time axis of ECG1 so that each peak of ECG1 matches each peak of ECG2. As described above, the time scales of the three-dimensional image data A and the three-dimensional image data B are matched, the three-dimensional image data at the same time (time phase) are synchronized, and output to the image display unit 22 for image display. By simultaneously displaying on the unit 22, it is possible to compare three-dimensional images collected at the same time (time phase).

そして、時間制御部34は、3次元画像データA及び3次元画像データBの単位時間当たり(例えば1秒当たり)の画像数をそれぞれ算出し、単位時間当たりの画像数が少ない方の画像データに対して補間処理を施して所定の時刻(時相)の3次元画像データを生成する。例えば、単位時間当たりの画像数が、3次元画像データAよりも3次元画像データBの方が多い場合は(ステップS15、Yes)、3次元画像データAに対して補間処理を施して、単位時間当たりの画像数を3次元画像データBに一致させる(ステップS17)。一方、単位時間当たりの画像数が、3次元画像データBよりも3次元画像データAの方が多い場合は(ステップS15、No)、3次元画像データBに対して補間処理を施して、単位時間当たりの画像数を3次元画像データAに一致させる(ステップS16)。   Then, the time control unit 34 calculates the number of images per unit time (for example, per second) of the three-dimensional image data A and the three-dimensional image data B, respectively, and determines the image data with the smaller number of images per unit time. Interpolation processing is performed on the three-dimensional image data at a predetermined time (time phase). For example, when the number of images per unit time is larger in the three-dimensional image data B than in the three-dimensional image data A (Yes in step S15), an interpolation process is performed on the three-dimensional image data A, and the unit The number of images per time is matched with the three-dimensional image data B (step S17). On the other hand, when the number of images per unit time is larger in the three-dimensional image data A than in the three-dimensional image data B (No in step S15), interpolation processing is performed on the three-dimensional image data B, and the unit The number of images per time is matched with the three-dimensional image data A (step S16).

ここでは、まず、3次元画像データAと3次元画像データBの単位時間当たりの画像数が同じ場合であって、補間処理を行わない場合について説明する。   Here, a case where the number of images per unit time of the three-dimensional image data A and the three-dimensional image data B is the same and the interpolation process is not performed will be described.

図7に示すように、予め収集された時系列的な3次元画像データAのうち、ピークPにて収集された3次元画像データを、画像データg11とし、ピークRにて収集された3次元画像データを、画像データg12とし、ピークTにて収集された3次元画像データを、画像データg13とする。さらに続けて、ピークRにて収集された3次元画像データを、画像データg14とし、ピークTにて収集された3次元画像データを、画像データg15とし、ピークPにて収集された3次元画像データを、画像データg16とする。   As shown in FIG. 7, among the time-series three-dimensional image data A collected in advance, the three-dimensional image data collected at the peak P is set as the image data g11, and the three-dimensional image collected at the peak R. The image data is image data g12, and the three-dimensional image data collected at the peak T is image data g13. Subsequently, the 3D image data collected at the peak R is set as image data g14, the 3D image data collected at the peak T is set as image data g15, and the 3D image collected at the peak P is collected. The data is image data g16.

また、スキャンにより得られている時系列的な3次元画像データBのうち、ピークPにて収集された3次元画像データを、画像データg21とし、ピークRにて収集された3次元画像データを、画像データg22とし、ピークTにて収集された3次元画像データを、画像データg23とする。さらに続けて、ピークRにて収集された3次元画像データを、画像データg24とし、ピークTにて収集された3次元画像データを、画像データg25とし、ピークPにて収集された3次元画像データを、画像データg26とする。   Also, among the time-series 3D image data B obtained by scanning, the 3D image data collected at the peak P is set as the image data g21, and the 3D image data collected at the peak R is used as the image data g21. Image data g22, and the three-dimensional image data collected at peak T is image data g23. Subsequently, the 3D image data collected at the peak R is set as image data g24, the 3D image data collected at the peak T is set as image data g25, and the 3D image collected at the peak P is collected. The data is image data g26.

そして、ECG1’とECG2の時刻(時相)が一致する3次元画像データA及び3次元画像データBを、画像表示部22にて同時に表示することで、同じ時刻(時相)の3次元画像データを表示して比較することが可能となる。このように同期表示することにより、予め収集された時系列的な3次元画像データAと、スキャンにより得られている時系列的な3次元画像データBとの比較が容易になる。   Then, the 3D image data A and the 3D image data B having the same time (time phase) of ECG1 ′ and ECG2 are simultaneously displayed on the image display unit 22 so that the 3D image at the same time (time phase) is displayed. Data can be displayed and compared. By synchronously displaying in this way, it becomes easy to compare the time-series 3D image data A collected in advance with the time-series 3D image data B obtained by scanning.

例えば、ピークRにて収集された画像データg12と画像データg22とを同時に表示することで、つまり、スキャンにより得られている画像データg22の表示のタイミングに合わせて予め収集された画像データg12を表示することで、ピークRにおける画像同士の比較が可能となる。   For example, by simultaneously displaying the image data g12 and the image data g22 collected at the peak R, that is, the image data g12 collected in advance in accordance with the display timing of the image data g22 obtained by scanning. By displaying, it is possible to compare images at the peak R.

次に、単位時間当たりの画像数が、3次元画像データAよりも3次元画像データBの方が多い場合(ステップS15、Yes)について説明する。この場合においては、ある時刻(時相)において収集された3次元画像データBに対応する3次元画像データAが欠けて存在しないため、3次元画像データAに対して補間処理を施して、その時刻(時相)における欠けている3次元画像データを生成して、その時刻(時相)の3次元画像データBに一致させる。   Next, the case where the number of images per unit time is larger in the three-dimensional image data B than in the three-dimensional image data A (step S15, Yes) will be described. In this case, since the three-dimensional image data A corresponding to the three-dimensional image data B collected at a certain time (time phase) is missing and does not exist, an interpolation process is performed on the three-dimensional image data A, The missing 3D image data at the time (time phase) is generated and matched with the 3D image data B at the time (time phase).

予め収集された時系列的な3次元画像データAを補間する場合について、図8及び図9を参照しつつ説明する。図8及び図9は、この発明の第1の実施形態に係る画像処理装置による画像補間処理を説明するための図である。   The case of interpolating time-series three-dimensional image data A collected in advance will be described with reference to FIGS. 8 and 9 are diagrams for explaining image interpolation processing by the image processing apparatus according to the first embodiment of the present invention.

図8に示すように、時間制御部34によりタイムスケールが延ばされた状態において、画像データg23に対応する画像データg13が存在しない。つまり、時刻(時相)t3(ピークT)における3次元画像データAが欠けて存在しない。従って、3次元画像データAと3次元画像データBとを比較する場合に、時刻(時相)t3(ピークT)における画像データ同士の比較が不可能となってしまう。そこで、時間制御部34は、時刻(時相)t3の前後の時刻(時相)t2、t4にて収集された画像データg12及びg14を用いて、時刻(時相)t3の欠けている画像データg13を補間して求める。   As shown in FIG. 8, there is no image data g13 corresponding to the image data g23 in a state where the time scale is extended by the time control unit 34. That is, the three-dimensional image data A at time (time phase) t3 (peak T) is missing and does not exist. Therefore, when the three-dimensional image data A and the three-dimensional image data B are compared, it becomes impossible to compare the image data at time (time phase) t3 (peak T). Therefore, the time control unit 34 uses the image data g12 and g14 collected at times (time phases) t2 and t4 before and after the time (time phase) t3, and an image lacking the time (time phase) t3. Data g13 is obtained by interpolation.

図9(a)に、時刻(時相)t2、t4におけるボリュームデータ内のボクセル位置とボクセル値との関係を示す。横軸は、ボリュームデータのボクセル位置を示し、縦軸はそのボクセル位置におけるボクセル値を示している。例えば、任意のボクセル位置nにおける時刻(時相)t2のボクセル値はv2となり、時刻(時相)t4のボクセル値はv4となる。   FIG. 9A shows the relationship between the voxel position and the voxel value in the volume data at times (time phases) t2 and t4. The horizontal axis indicates the voxel position of the volume data, and the vertical axis indicates the voxel value at the voxel position. For example, the voxel value at time (time phase) t2 at an arbitrary voxel position n is v2, and the voxel value at time (time phase) t4 is v4.

図9(b)に、任意のボクセル位置nにおける、時刻(時相)t2のボクセル値と、時刻(時相)t4のボクセル値とを示す。時刻(時相)t3におけるボクセル値v3は、ボクセル値v2とv4との間にあると推測されるため、ボクセル値v2とv4を結ぶ、ユーザ指定の関数「v=f(t)」により、時間制御部34は、時刻(時相)t3におけるボクセル値v3を算出する。この関数「v=f(t)」は、線形又は非線形の関数の指定が可能である。そして、時間制御部34は、全てのボクセル位置におけるボクセル値を算出し、時刻(時相)t3における欠けている画像データg13を生成する。   FIG. 9B shows a voxel value at time (time phase) t2 and a voxel value at time (time phase) t4 at an arbitrary voxel position n. Since the voxel value v3 at the time (time phase) t3 is estimated to be between the voxel values v2 and v4, the user-specified function “v = f (t)” connecting the voxel values v2 and v4 The time control unit 34 calculates the voxel value v3 at time (time phase) t3. This function “v = f (t)” can be specified as a linear or non-linear function. Then, the time control unit 34 calculates voxel values at all voxel positions, and generates missing image data g13 at time (time phase) t3.

このように、画像データを補間して3次元画像データA及び3次元画像データBを、画像表示部22にて同時に表示することで、同じ時刻(時相)の3次元画像データを表示して比較することが可能となる。   Thus, by interpolating the image data and simultaneously displaying the 3D image data A and the 3D image data B on the image display unit 22, the 3D image data at the same time (time phase) is displayed. It becomes possible to compare.

次に、単位時間当たりの画像数が、3次元画像データBよりも3次元画像データAの方が多い場合(ステップS15、No)について説明する。この場合においては、ある時刻(時相)において収集された3次元画像データAに対応する3次元画像データBが欠けて存在しないため、3次元画像データBに対して補間処理を施して、その時刻(時相)における画像データを生成して、3次元画像データAに一致させる。   Next, the case where the number of images per unit time is larger in the three-dimensional image data A than in the three-dimensional image data B (step S15, No) will be described. In this case, since the 3D image data B corresponding to the 3D image data A collected at a certain time (time phase) does not exist, interpolation processing is performed on the 3D image data B, Image data at the time (time phase) is generated and matched with the three-dimensional image data A.

スキャンにより得られている時系列的な3次元画像データBを補間する場合について、図10及び図11を参照しつつ説明する。図10及び図11は、この発明の第1の実施形態に係る画像処理装置による画像補間処理を説明するための図である。   A case of interpolating time-series three-dimensional image data B obtained by scanning will be described with reference to FIGS. 10 and 11 are diagrams for explaining image interpolation processing by the image processing apparatus according to the first embodiment of the present invention.

例えば図10に示すように、画像データg13に対応する画像データg23が欠けて存在しないものとする。つまり、時刻(時相)t3における3次元画像データBが欠けて存在しない。この場合も上述した補間方法により補間して時刻t3における3次元画像データBを生成すれば良いが、3次元画像データBは今現在、スキャンにより収集しているデータであるため、時刻t3における3次元画像データを表示するまでに、時刻t4における3次元画像データが収集されていなければ、時刻t3における3次元画像データを補間することができない。つまり、図10に時刻t0で表す現在の時刻においては、画像データg24以降のデータが存在しないため、時刻t0の段階においては、上述したように時刻t2と時刻t4における3次元画像データを用いて補間処理を行って、時刻(時相)t3における欠けている画像データg23を生成することはできない。   For example, as shown in FIG. 10, it is assumed that the image data g23 corresponding to the image data g13 is missing and does not exist. That is, the three-dimensional image data B at the time (time phase) t3 is missing and does not exist. In this case as well, the three-dimensional image data B at time t3 may be generated by interpolation using the above-described interpolation method. However, since the three-dimensional image data B is currently collected by scanning, 3 at time t3 If the 3D image data at time t4 has not been collected before the 3D image data is displayed, the 3D image data at time t3 cannot be interpolated. That is, since there is no data after the image data g24 at the current time represented by time t0 in FIG. 10, at the stage of time t0, as described above, the three-dimensional image data at time t2 and time t4 is used. It is not possible to generate missing image data g23 at time (time phase) t3 by performing interpolation processing.

そこで、スキャンにより現在得られている時系列的な3次元画像データBを補間する場合は、画像表示部22の表示更新のタイミングをずらすことによって、補間処理を完了して画像データを生成し、補完された画像データを表示する。   Therefore, when interpolating the time-series three-dimensional image data B currently obtained by scanning, by shifting the display update timing of the image display unit 22, the interpolation processing is completed and image data is generated, Display the complemented image data.

この画像表示更新タイミングについて、図11を参照しつつ説明する。横軸を時間tとする。医用画像診断装置1のスキャンにより、所定時間ごとにデータ収集部4によりデータが収集され、画像再構成部5により次々とボリュームデータV1〜が再構成される。そして、例えばボリュームデータV1とV2との間の3次元画像データを補間して求める場合は、ボリュームデータV1、V2が再構成されると、時間制御部34はそのボリュームデータV1、V2を用いて、ボリュームデータV1とボリュームデータV2が収集される間のボリュームデータを補間して生成する。また、ボリュームデータV3が再構成され、ボリュームデータV2とV3と間の3次元画像データを補間して求める場合は、時間制御部34は、ボリュームデータV2、V3を用いて、ボリュームデータV2とV3の間のボリュームデータを補間して生成する。   The image display update timing will be described with reference to FIG. The horizontal axis is time t. Data is collected by the data collection unit 4 every predetermined time by scanning of the medical image diagnostic apparatus 1, and volume data V1 is reconstructed one after another by the image reconstruction unit 5. For example, when interpolating three-dimensional image data between the volume data V1 and V2, when the volume data V1 and V2 are reconstructed, the time control unit 34 uses the volume data V1 and V2. The volume data V1 and the volume data V2 during the collection are interpolated and generated. When the volume data V3 is reconstructed and the three-dimensional image data between the volume data V2 and V3 is interpolated and obtained, the time control unit 34 uses the volume data V2 and V3, and the volume data V2 and V3. Interpolated between the volume data.

そして、画像表示部22は、ボリュームデータV1に対応する3次元画像データを表示した後、ボリュームデータV2に対応する3次元画像データを表示する前に、補間されたボリュームデータに対応する3次元画像データを表示する。画像表示部22は、補間された3次元画像データが表示された一定時間後に、ボリュームデータV2に対応する3次元画像データを表示する。画像表示部22は表示更新の間隔を一定に保ちつつ、ボリュームデータV1に対応する3次元画像、V1とV2の補間により生成された3次元画像、ボリュームデータV2に対応する3次元画像、V2とV3の補間により生成された3次元画像、ボリュームデータV3に対応する3次元画像、・・・の順番で、3次元画像を表示する。   The image display unit 22 displays the three-dimensional image data corresponding to the interpolated volume data after displaying the three-dimensional image data corresponding to the volume data V1 and before displaying the three-dimensional image data corresponding to the volume data V2. Display data. The image display unit 22 displays the three-dimensional image data corresponding to the volume data V2 after a predetermined time after the interpolated three-dimensional image data is displayed. The image display unit 22 maintains a constant display update interval, and a three-dimensional image corresponding to the volume data V1, a three-dimensional image generated by interpolation of V1 and V2, a three-dimensional image corresponding to the volume data V2, and V2. The three-dimensional image is displayed in the order of the three-dimensional image generated by the interpolation of V3, the three-dimensional image corresponding to the volume data V3, and so on.

つまり、3次元画像V1が表示されてから次の画像が表示されるまでの間に、3次元画像V2を再構成し、3次元画像V1とV2を用いて補間し、それから補間された3次元画像の表示を行い、その後、3次元画像V2を表示する。   That is, after the three-dimensional image V1 is displayed and before the next image is displayed, the three-dimensional image V2 is reconstructed, interpolated using the three-dimensional images V1 and V2, and then interpolated three-dimensional. An image is displayed, and then a three-dimensional image V2 is displayed.

図10に示す画像データで説明すると、画像データg22を再構成し、画像データg22を表示している間に、スキャン及び再構成を行って画像データg24を再構成し、さらに、画像データg22と画像データg24と用いて補間された画像データg23を生成し、画像データg22の表示に続いて画像データg23を表示し、次に画像データg24を表示する。このように、表示更新のタイミングをずらすことで、補間された画像を表示することが可能となり、画像データg13との比較が可能となる。なお、画像表示部22は、一定時間後に表示を行うために必要なメモリ及びカウンタ等を備えている。   Referring to the image data shown in FIG. 10, the image data g22 is reconstructed, and while the image data g22 is displayed, scanning and reconstruction are performed to reconstruct the image data g24. Interpolated image data g23 is generated using the image data g24, the image data g23 is displayed following the display of the image data g22, and then the image data g24 is displayed. In this way, by shifting the display update timing, the interpolated image can be displayed and can be compared with the image data g13. The image display unit 22 includes a memory, a counter, and the like necessary for performing display after a predetermined time.

時間制御部34により、予め収集された時系列的な3次元画像データAと、スキャンにより得られている3次元画像データBとが、同期させられて、領域制御部35に出力される。次に、この領域制御部35による制御について、図12乃至図15を参照しつつ説明する。図12は、この発明の第1の実施形態に係る画像処理装置により、時系列的な3次元画像から所望の領域を抽出する処理を順番に示すフローチャートである。図13乃至図15は、この発明の第1の実施形態に係る画像処理装置により、時系列的な3次元画像から所望の領域を抽出する処理を説明するための図である。   The time control unit 34 synchronizes the time-series 3D image data A collected in advance and the 3D image data B obtained by scanning, and outputs them to the region control unit 35. Next, the control by the area control unit 35 will be described with reference to FIGS. FIG. 12 is a flowchart showing, in order, processing for extracting a desired region from a time-series three-dimensional image by the image processing apparatus according to the first embodiment of the present invention. FIGS. 13 to 15 are diagrams for explaining processing for extracting a desired region from a time-series three-dimensional image by the image processing apparatus according to the first embodiment of the present invention.

まず、領域制御部35は、予め収集された時系列的な3次元画像データAに対して施された領域抽出の範囲を示す情報(領域抽出情報)を領域情報記憶部44から読み込み(ステップS20)、さらに、スキャンにより得られている3次元画像データBを読み込む(ステップS21)。そして、領域制御部35は、読み込んだ領域抽出情報から3次元画像データBに対する領域抽出情報を算出し(ステップS22)、算出された領域抽出情報の範囲を3次元画像データBから抽出する(ステップS23)。なお、読み込まれた領域抽出情報は、時間ごとに少しずつ異なるものである。また、3次元画像データAと3次元画像データBとでは、抽出する観察領域にずれが生じる場合があるため、領域制御部35は、観察領域の範囲を微調整してそのずれを修正し、3次元画像データBに適合する領域抽出情報を算出する(ステップS22)。そして、領域制御部35は、微調整した領域抽出情報に基づいて、3次元画像データBからその微調整後の範囲に含まれる3次元画像データを抽出する(ステップS23)。   First, the region control unit 35 reads from the region information storage unit 44 information (region extraction information) indicating a region extraction range applied to the time-series three-dimensional image data A collected in advance (step S20). Further, the three-dimensional image data B obtained by scanning is read (step S21). Then, the area control unit 35 calculates area extraction information for the 3D image data B from the read area extraction information (step S22), and extracts the range of the calculated area extraction information from the 3D image data B (step S22). S23). Note that the read area extraction information is slightly different from time to time. In addition, in the 3D image data A and the 3D image data B, there may be a deviation in the observation region to be extracted. Therefore, the region control unit 35 finely adjusts the range of the observation region to correct the deviation, Region extraction information suitable for the three-dimensional image data B is calculated (step S22). Then, based on the finely adjusted region extraction information, the region control unit 35 extracts the three-dimensional image data included in the fine-adjusted range from the three-dimensional image data B (Step S23).

例えば、予め収集された時系列的な3次元画像データAが被検体の上半身(胸部)の画像を表している場合であって、過去において、その上半身の画像から心臓の部分を抽出して表示したものとする。その抽出した範囲を示す情報(領域抽出情報)が時間ごとに抽出情報記憶部44に記憶され、領域制御部35は各時間における領域抽出情報を読み込む。そして、領域制御部35は、その読み込んだ領域抽出情報をスキャンにより得られている時系列的な3次元画像データBに対して適用し、領域抽出情報を反映した範囲の3次元画像データを抽出する。   For example, when the time-series 3D image data A collected in advance represents an image of the upper body (chest) of the subject, in the past, a heart portion is extracted from the upper body image and displayed. Shall be. Information indicating the extracted range (region extraction information) is stored in the extraction information storage unit 44 for each time, and the region control unit 35 reads the region extraction information at each time. Then, the region control unit 35 applies the read region extraction information to the time-series three-dimensional image data B obtained by scanning, and extracts the three-dimensional image data in a range reflecting the region extraction information. To do.

例えば、図13(a)に示すように、領域制御部35は、予め領域情報記憶部44に保存されている、各時刻(時相)の領域抽出情報を読み込む。そして、領域制御部35は、図13(b)に示す、時刻(時相)t1に収集された3次元画像データAに対してその領域抽出情報を適用して、図13(c)に示すように、その領域抽出情報の範囲の3次元画像データを抽出する。これと同様に、領域制御部35は、図13(b)に示す、時刻(時相)t1に収集されている3次元画像データBに対してその領域抽出情報を適用して、図13(c)に示すように、その領域抽出情報の範囲の3次元画像データを抽出する。時刻(時相)t2及びt3においても、同様に、それぞれの時刻(時相)において施された領域抽出の情報に従って、3次元画像データを抽出する。   For example, as illustrated in FIG. 13A, the region control unit 35 reads region extraction information at each time (time phase) stored in the region information storage unit 44 in advance. Then, the region control unit 35 applies the region extraction information to the three-dimensional image data A collected at time (time phase) t1 shown in FIG. Thus, the three-dimensional image data in the range of the region extraction information is extracted. Similarly, the region control unit 35 applies the region extraction information to the three-dimensional image data B collected at time (time phase) t1 shown in FIG. As shown in c), three-dimensional image data in the range of the region extraction information is extracted. Similarly, at the times (time phases) t2 and t3, the three-dimensional image data is extracted according to the region extraction information applied at each time (time phase).

時系列的な3次元画像データに対して、時間ごとに異なる範囲の領域抽出が行われている場合は、領域抽出情報も時系列的に記憶されている。例えば、時刻(時相)t1における領域抽出情報と、時刻(時相)t2における領域抽出情報とは、その範囲が異なる場合がある。従って、領域制御部35は、時間ごとに異なる領域抽出情報を3次元画像データA、Bに適用して所望の観察領域の画像を抽出する。これにより、各時刻(時相)における観察領域に含まれる3次元画像同士の比較が可能となる。   In the case where region extraction in a different range for each time is performed on time-series three-dimensional image data, region extraction information is also stored in time series. For example, the region extraction information at time (time phase) t1 may be different from the region extraction information at time (time phase) t2. Therefore, the area control unit 35 extracts the image of the desired observation area by applying the area extraction information that varies with time to the three-dimensional image data A and B. This makes it possible to compare three-dimensional images included in the observation area at each time (time phase).

また、領域制御部35は、予め収集された時系列的な3次元画像データAから抽出された時系列的な3次元画像データから、その抽出領域を示すマスク(抽出領域情報)を生成して、そのマスクをスキャンにより得られている時系列的な3次元画像データBに適用して所望の観察領域に含まれる3次元画像データを抽出しても良い。図14に示すように、領域制御部35は、予め収集された時系列的な3次元画像データAの各時刻において抽出された3次元画像データg31、g32、g33、g34・・・から、各時刻(時相)におけるマスク(抽出領域情報)m1、m2、m3、m4、・・・を生成し、各時刻(時相)に対応する3次元画像データBにそのマスク(抽出領域情報)m1、m2、m3、m4、・・・を適用して所望の観察領域に含まれる3次元画像データg41、g42、g43、g44、・・・を抽出する。これにより、各時刻(時相)における観察領域に含まれる3次元画像同士の比較が可能となる。   Further, the region control unit 35 generates a mask (extraction region information) indicating the extraction region from the time-series three-dimensional image data extracted from the time-series three-dimensional image data A collected in advance. The mask may be applied to time-series three-dimensional image data B obtained by scanning to extract three-dimensional image data included in a desired observation area. As shown in FIG. 14, the area control unit 35 uses each of the three-dimensional image data g31, g32, g33, g34... Extracted at each time of the time-series three-dimensional image data A collected in advance. Masks (extraction region information) m1, m2, m3, m4,... At time (time phase) are generated, and the mask (extraction region information) m1 is generated in the three-dimensional image data B corresponding to each time (time phase). , M2, m3, m4,... Are extracted to extract the three-dimensional image data g41, g42, g43, g44,. This makes it possible to compare three-dimensional images included in the observation area at each time (time phase).

予め収集された時系列的な3次元画像データAに対して施された領域抽出の範囲と同じ範囲の観察領域を、スキャンにより得られている時系列的な3次元画像データBから抽出する場合について説明したが、全く同じ範囲の観察領域を抽出することが適していない場合がある。例えば、心臓の画像を抽出する場合、心臓の収縮率により、図14に示すように、抽出する観察領域にずれが生じる場合がある。つまり、時刻t1、t2において予め収集された3次元画像データAの範囲よりも、スキャンにより得られている3次元画像データBの方が、大きさが小さいため、そのまま過去の観察領域を適用すると、ずれが生じる。具体的には、時刻(時相)t1における画像データg31よりも画像データg41の方が小さく、また、時刻(時相)t2における画像データg32よりも画像データg42の方が小さい。従って、3次元画像データAに適用したマスク(領域抽出情報)をそのまま3次元画像データBに適用すると、抽出領域のずれが生じる。   When an observation region having the same range as the region extraction range applied to the time-series 3D image data A collected in advance is extracted from the time-series 3D image data B obtained by scanning However, there are cases where it is not appropriate to extract observation regions in exactly the same range. For example, when an image of the heart is extracted, there may be a deviation in the extracted observation area as shown in FIG. 14 due to the contraction rate of the heart. That is, since the size of the three-dimensional image data B obtained by scanning is smaller than the range of the three-dimensional image data A collected in advance at the times t1 and t2, applying the past observation region as it is. Deviation occurs. Specifically, the image data g41 is smaller than the image data g31 at time (time phase) t1, and the image data g42 is smaller than the image data g32 at time (time phase) t2. Therefore, if the mask (region extraction information) applied to the three-dimensional image data A is applied to the three-dimensional image data B as it is, the extraction region shifts.

この場合、領域制御部35は、3次元画像データBに適合するマスク(領域抽出情報)を生成し(ステップS22)、その生成されたマスク(領域抽出情報)をスキャンにより得られている3次元画像データBに適用して所望の観察領域の3次元画像を抽出する(ステップS23)。領域制御部35は、例えば、観察対象である心臓の変化(例えば収縮率等)に追従して抽出領域の範囲(マスクの形状)を微調整して、3次元画像データBに適合するマスク(領域抽出情報)を生成する。例えば、モルフォロジカル・フィルタ処理を行うことにより、領域制御部35は心臓の収縮率等に基づいて、図15に示すように抽出領域の範囲(マスクの形状)を微調整(収縮又は拡張)して、3次元画像データBに適合するマスク(領域抽出情報)を生成する。そして、領域制御部35は、微調整された抽出領域の範囲を、スキャンにより得られている3次元画像データBに適用して所望の観察領域に含まれる3次元画像データを抽出する。このように、領域抽出情報を微調整してずれを補正し、その補正後の領域抽出情報を3次元画像データBに適用することで、3次元画像データBに適合した観察領域に含まれる画像を抽出することが可能となる。   In this case, the region control unit 35 generates a mask (region extraction information) suitable for the three-dimensional image data B (step S22), and the generated mask (region extraction information) is obtained by scanning. A three-dimensional image of a desired observation area is extracted by applying to the image data B (step S23). For example, the region control unit 35 finely adjusts the range (mask shape) of the extraction region following the change (for example, contraction rate) of the heart that is the observation target, and a mask that matches the 3D image data B ( Region extraction information). For example, by performing morphological filter processing, the region control unit 35 finely adjusts (shrinks or expands) the range (mask shape) of the extraction region as shown in FIG. 15 based on the contraction rate of the heart and the like. Thus, a mask (region extraction information) suitable for the three-dimensional image data B is generated. Then, the region control unit 35 extracts the three-dimensional image data included in the desired observation region by applying the finely adjusted range of the extraction region to the three-dimensional image data B obtained by scanning. In this way, by finely adjusting the region extraction information to correct the deviation, and applying the corrected region extraction information to the three-dimensional image data B, the image included in the observation region suitable for the three-dimensional image data B Can be extracted.

このように、領域制御部35により、予め収集された時系列的な3次元画像データAに対して施された領域抽出の範囲に対応する領域を、スキャンにより得られている時系列的な3次元画像データBに適用して3次元画像データを抽出することにより、各時刻(時相)における観察領域に含まれる3次元画像同士の比較が可能となる。   As described above, the region control unit 35 obtains the time series 3 obtained by scanning the region corresponding to the region extraction range applied to the time series three-dimensional image data A collected in advance. By extracting the three-dimensional image data by applying to the three-dimensional image data B, it is possible to compare the three-dimensional images included in the observation region at each time (time phase).

領域制御部35により抽出された3次元画像データは、操作制御部36に出力される。この操作制御部36による制御について、図16及び図17を参照しつつ説明する。図16は、この発明の第1の実施形態に係る画像処理装置により、操作状態を一致させる処理を順番に示すフローチャートである。図17は、この発明の第1の実施形態に係る画像処理装置により、操作状態を一致させる処理を説明するための図である。   The 3D image data extracted by the region control unit 35 is output to the operation control unit 36. The control by the operation control unit 36 will be described with reference to FIGS. FIG. 16 is a flowchart showing, in order, processing for matching operation states by the image processing apparatus according to the first embodiment of the present invention. FIG. 17 is a diagram for explaining processing for matching the operation states by the image processing apparatus according to the first embodiment of the present invention.

操作制御部36は、操作情報記憶部45に記憶されている、予め収集された時系列的な3次元画像データAに対して行われた操作の内容を示す情報(操作情報)を読み込む(ステップS30)。さらに、操作制御部36は、スキャンにより得られている時系列的な3次元画像データBを読み込む(ステップS31)。この操作情報や画像処理のパラメータは時系列的なものであり、時間ごとに異なるものである。   The operation control unit 36 reads information (operation information) stored in the operation information storage unit 45 indicating the content of the operation performed on the time-series 3D image data A collected in advance (step). S30). Further, the operation control unit 36 reads time-series three-dimensional image data B obtained by scanning (step S31). The operation information and image processing parameters are time-sequential and differ from time to time.

そして、操作制御部36は、読み込んだ操作情報を、予め収集された3次元画像データAに反映して、画像表示部22上の表示を変更する(ステップS32)。さらに、操作制御部36は、読み込んだ操作情報を、スキャンにより得られている3次元画像データBに反映して、画像表示部22上の表示を変更する(ステップS33)。この操作情報には、例えば、画像表示部22の画面上で画像を回転させる情報等が含まれており、操作制御部35は、例えばその回転させる情報を受けると、予め収集された3次元画像データA及びスキャンにより得られている3次元画像データBにその回転操作を反映させる。そして、操作制御部35から出力された3次元画像データA及び3次元画像データBは、システム制御部31を介して画像表示部22に出力され、3次元画像データAと3次元画像データBは、画面上で、同じように回転させられて表示される。このように、各3次元画像データに同じ操作を適用して向き及び位置を一致させることで、画像の比較、観察が容易になる。   Then, the operation control unit 36 changes the display on the image display unit 22 by reflecting the read operation information on the three-dimensional image data A collected in advance (step S32). Further, the operation control unit 36 reflects the read operation information in the three-dimensional image data B obtained by scanning, and changes the display on the image display unit 22 (step S33). The operation information includes, for example, information for rotating the image on the screen of the image display unit 22, and the operation control unit 35 receives, for example, the information for rotating the three-dimensional image collected in advance. The rotation operation is reflected in the data A and the three-dimensional image data B obtained by scanning. The 3D image data A and 3D image data B output from the operation control unit 35 are output to the image display unit 22 via the system control unit 31, and the 3D image data A and 3D image data B are , It is displayed in the same way on the screen. Thus, by comparing the direction and position by applying the same operation to each three-dimensional image data, comparison and observation of images are facilitated.

また、図17に示すように、操作入力部21から入力された、回転、移動又はズーム等の操作情報を3次元画像データA、Bに反映させても良い。例えば、3次元画像データAを回転させた場合、操作制御部35は、その回転操作を3次元画像データBに対しても行い、同じように3次元画像データBも回転させる。このように、各時刻における3次元画像データごとに同じ操作を適用することで、画像の比較、観察が容易になる。   Further, as shown in FIG. 17, operation information such as rotation, movement, or zoom input from the operation input unit 21 may be reflected in the three-dimensional image data A and B. For example, when the three-dimensional image data A is rotated, the operation control unit 35 performs the rotation operation on the three-dimensional image data B, and similarly rotates the three-dimensional image data B. In this way, by applying the same operation for each three-dimensional image data at each time, comparison and observation of images are facilitated.

また、3次元画像データA、Bの画像処理の内容を一致させる場合は、操作制御部36は、操作情報記憶部45に記憶されている、予め収集された時系列的な3次元画像データAに対して行われた画像処理のパラメータ(オパシティやWL/WW等)を読み込み、そのパラメータを用いて3次元画像データA、Bに対して画像処理を施す。これにより、3次元画像データA、Bの不透明度やコントラストや明るさ等が統一されるため、画像の比較、観察が容易になる。また、操作制御部36は、スキャンにより得られている3次元画像データBに対して施される画像処理を、予め収集された3次元画像データAに対して施しても良い。つまり、3次元画像データA、Bに対して同じパラメータを用いて画像処理を行っても良い。   When matching the contents of the image processing of the three-dimensional image data A and B, the operation control unit 36 stores the time-series three-dimensional image data A collected in advance stored in the operation information storage unit 45. The image processing parameters (opacity, WL / WW, etc.) performed on the image data are read, and image processing is performed on the three-dimensional image data A and B using the parameters. This unifies the opacity, contrast, brightness, and the like of the three-dimensional image data A and B, so that comparison and observation of images are facilitated. In addition, the operation control unit 36 may perform image processing performed on the three-dimensional image data A obtained by scanning, on the three-dimensional image data A collected in advance. That is, image processing may be performed on the three-dimensional image data A and B using the same parameters.

以上のように、各制御部により処理が施されて、予め収集された時系列的な3次元画像データAと、スキャンにより得られている時系列的な3次元画像データBとが画像表示部22に出力される。この画像表示部22における表示の内容を図18に示す。図18において、画像表示部22の画面上には、時間ごとに、予め収集された3次元画像データAと、スキャンにより得られている3次元画像データBとが同時に表示される。この表示内容は、上述した位置制御部33による処理により、ローカル座標系が一致しているものである。さらに、時間制御部34による処理により、例えば心電信号(ECG信号)に同期した3次元画像データが表示され、同じ時刻(時相)において収集された3次元画像データが同時に表示される。また、領域制御部35による処理により、互いに対応する領域が抽出された画像が表示されている。この例においては、関心領域として心臓の3次元画像が表示されている。さらに、操作制御部36による処理により、回転の向きやズームの倍率等が同じになる。   As described above, the time series 3D image data A that has been processed by each control unit and collected in advance, and the time series 3D image data B obtained by scanning are image display units. 22 is output. The contents displayed on the image display unit 22 are shown in FIG. In FIG. 18, on the screen of the image display unit 22, the three-dimensional image data A collected in advance and the three-dimensional image data B obtained by scanning are simultaneously displayed for each time. This display content is the same in the local coordinate system by the processing by the position control unit 33 described above. Further, by the processing by the time control unit 34, for example, 3D image data synchronized with an electrocardiogram signal (ECG signal) is displayed, and 3D image data collected at the same time (time phase) is displayed at the same time. In addition, an image in which regions corresponding to each other are extracted by the processing by the region control unit 35 is displayed. In this example, a three-dimensional image of the heart is displayed as the region of interest. Further, the processing by the operation control unit 36 makes the rotation direction, zoom magnification, and the like the same.

画像表示部22の画面上には、時間ごとに少しずつ異なる3次元画像が表示され、操作者は動画として観察し、両画像を比較することができる。このように、この実施形態に係る画像処理装置20によると、スキャン中にいわゆるリアルタイムに、時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データを抽出し、生体情報に基づいて時系列的な3次元画像データ同士を同期させ、更に、抽出された観察領域に含まれる3次元画像の向きや、表示されている3次元画像の観察角度や拡大率等の表示操作や、画像処理の内容を、比較する時系列的な3次元画像データ同士で共通化することにより、時系列的な3次元画像データ同士の比較を容易にし、患部の経時変化や治療効果等の確認も容易にすることが可能となる。これにより、診断に有効な新たな情報を医師等に提供することが可能となる。   On the screen of the image display unit 22, a slightly different three-dimensional image is displayed for each time, and the operator can observe as a moving image and compare both images. As described above, according to the image processing apparatus 20 according to this embodiment, the three-dimensional image data included in the desired observation region is extracted from the time-series three-dimensional image data in a so-called real time during the scan, and the biological information is obtained. Based on the time-series 3D image data, and further, display operations such as the orientation of the 3D image included in the extracted observation area, the viewing angle and magnification of the displayed 3D image, By sharing the content of image processing between time-series 3D image data to be compared, it is easy to compare time-series 3D image data and confirms changes over time in the affected area, treatment effects, etc. Can also be facilitated. This makes it possible to provide new information effective for diagnosis to doctors and the like.

また、医用画像診断装置として超音波診断装置を用いて、ストレスエコー法により画像を収集する場合、この実施形態に係る画像処理装置20を用いると、有効な情報を医師に提供することが可能となる。例えば、ストレスエコー法により、被検体にジョギングをさせ、ジョギングする前とジョギングする後とのそれぞれにおいて心筋の時系列的な3次元画像データを収集し、ジョギング前後の時系列的な3次元画像を比較する場合に、画像処理装置20によりジョギング前後の時系列的な3次元画像データを処理することにより、心臓の時系列的な3次元画像同士を容易に比較することが可能となる。   In addition, when an ultrasonic diagnostic apparatus is used as a medical image diagnostic apparatus and an image is collected by the stress echo method, it is possible to provide effective information to a doctor by using the image processing apparatus 20 according to this embodiment. Become. For example, the stress echo method is used to jog the subject and collect time-series 3D image data of the myocardium before and after jogging to obtain time-series 3D images before and after jogging. In the case of comparison, by processing time-series three-dimensional image data before and after jogging by the image processing device 20, it becomes possible to easily compare time-series three-dimensional images of the heart.

従来、ストレスエコー法により画像を収集する場合、スキャン中の時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データをリアルタイムに抽出することができなかったため、ジョギング後の時系列的な3次元画像データを収集しながら、ジョギング前後の時系列的な3次元画像の比較をリアルタイムに行うことができなかった。しかし、この実施形態に係る画像処理装置20を用いると、スキャン中の時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データをリアルタイムに抽出することができるため、ジョギング前後の時系列的な3次元画像の比較をリアルタイムに行うことが可能となる。   Conventionally, when images are collected by the stress echo method, it is impossible to extract in real time 3D image data included in a desired observation area from time-series 3D image data during scanning. While collecting serial 3D image data, it was not possible to compare time-series 3D images before and after jogging in real time. However, when the image processing apparatus 20 according to this embodiment is used, three-dimensional image data included in a desired observation area can be extracted in real time from time-series three-dimensional image data during scanning. It is possible to compare the time-series three-dimensional images in real time.

また、システム制御部31は、操作入力部21からの指示に従って、画像制御部32、位置制御部33、時間制御部34、領域制御部35及び操作制御部36の処理を個別に解除することもできる。このように全ての処理を行わず、指定された処理のみを同期させて画像表示部22に画像を表示することができる。例えば、時間制御部34及び領域制御部35のみの処理を行って、時系列的な3次元画像データA、Bを時間的に同期させ、更に、所望の観察領域に含まれる3次元画像データを抽出して、画像表示部22に表示させることもできる。このように処理を行っても、観察領域に含まれる3次元画像同士を時系列的に比較することが可能となる。   Further, the system control unit 31 may individually release the processing of the image control unit 32, the position control unit 33, the time control unit 34, the region control unit 35, and the operation control unit 36 in accordance with an instruction from the operation input unit 21. it can. In this way, it is possible to display an image on the image display unit 22 by synchronizing only the designated process without performing all the processes. For example, only the time control unit 34 and the region control unit 35 are processed to temporally synchronize the time-series 3D image data A and B, and further, the 3D image data included in the desired observation region It can also be extracted and displayed on the image display unit 22. Even if processing is performed in this way, three-dimensional images included in the observation region can be compared in time series.

また、画像表示部22の画面上には、3次元画像以外に、生体情報の波形が表示される。この生体情報の波形には、現在表示している画像が収集された時刻(時相)を示すマーカが表示されるようにしても良い。さらに、画像表示部22の画面上に、各制御部の処理をON/OFFさせるための入力部をGUI(グラフィカルユーザインターフェース)として表示して、操作入力部21に設置されているマウス等によりON/OFFの切替を選択できるようにしても良い。また、位置制御部33にて用いられる3次元位置情報、時間制御部34にて用いられる生体情報、領域制御部35にて用いられる領域抽出情報、及び操作制御部36にて用いられる操作情報の具体的な内容が選択可能に表示されていても良い。例えば、操作入力部21に設置されているマウス等により、位置「骨領域の特徴点」が選択されると、上述した処理のように、骨領域の特徴点(解剖学的特徴点)が3次元位置情報として用いられ、時間「ECG」が選択されると、心電信号(ECG信号)が生体情報として用いられる。さらに、画面上に操作パネルを表示させ、3次元画像の拡大、移動、回転又は計測等の操作が選択されるようにしても良い。また、画面上に、画像処理のパラメータであるオパシティ(Opacity)のカーブや、コントラストや明るさを決定するパラメータであるWL/WWのカーブを表示しても良い。   In addition to the three-dimensional image, a waveform of biological information is displayed on the screen of the image display unit 22. A marker indicating the time (time phase) when the currently displayed image is collected may be displayed on the waveform of the biological information. Further, an input unit for turning on / off the processing of each control unit is displayed on the screen of the image display unit 22 as a GUI (graphical user interface), and is turned on by a mouse or the like installed in the operation input unit 21. It may be possible to select switching of / OFF. Also, the three-dimensional position information used in the position control unit 33, the biological information used in the time control unit 34, the region extraction information used in the region control unit 35, and the operation information used in the operation control unit 36 Specific contents may be displayed so as to be selectable. For example, when the position “feature point of bone region” is selected by a mouse or the like installed in the operation input unit 21, the feature point (anatomical feature point) of the bone region is 3 as in the above-described processing. When the time “ECG” is selected, the electrocardiogram signal (ECG signal) is used as biological information. Furthermore, an operation panel may be displayed on the screen, and operations such as enlargement, movement, rotation, or measurement of a three-dimensional image may be selected. Further, an opacity curve as an image processing parameter and a WL / WW curve as a parameter for determining contrast and brightness may be displayed on the screen.

また、この実施形態に係る画像処理装置を応用すると、異なる医用画像診断装置にて収集された時系列的な3次元画像データを比較することも可能となり、複数の3次元画像データ同士を重畳して画像表示部22に表示することによって、時系列的な合成画像(いわゆるFusion画像)を表示することが可能となる。例えば、超音波診断装置にて収集された時系列的な3次元画像データと、X線CT装置にて収集された時系列的な3次元画像データとに対して、領域抽出や生体情報に基づく同期処理等を施すことにより、各時間における所望の観察領域に含まれる3次元画像同士の比較が容易になる。また、被検体の時系列的な3次元画像データと時間ごとに変化する典型症例との比較も容易にすることが可能となる。このように、診断に有効な新たな情報を医師等に提供することが可能となる。   In addition, when the image processing apparatus according to this embodiment is applied, it is possible to compare time-series three-dimensional image data collected by different medical image diagnostic apparatuses, and superimpose a plurality of three-dimensional image data. By displaying on the image display unit 22, a time-series composite image (so-called Fusion image) can be displayed. For example, based on region extraction and biological information for time-series 3D image data collected by an ultrasound diagnostic apparatus and time-series 3D image data collected by an X-ray CT apparatus By performing the synchronization process or the like, it becomes easy to compare three-dimensional images included in a desired observation area at each time. In addition, it is possible to easily compare the time-series three-dimensional image data of the subject with a typical case that changes with time. In this manner, new information effective for diagnosis can be provided to a doctor or the like.

[第2の実施の形態]
次に、この発明の第2の実施形態に係る画像処理装置を備えた画像処理システムについて、図19を参照しつつ説明する。図19は、この発明の第2の実施形態に係る画像処理装置を備えた画像処理システムの概略構成を示すブロック図である。この第2の実施形態に係る画像処理装置20は、第1の実施形態に係る画像処理装置20と同じ構成を有するが、この実施形態においては、図19に示すように、画像処理装置20と医用画像診断装置1(10)とが接続されておらず、いわゆるリアルタイムに医用画像診断装置1から3次元画像データが入力されない。この場合は、複数の時系列的な3次元画像データを記憶装置40に保存しておき、保存された3次元画像データに対して上述した処理を施す。
[Second Embodiment]
Next, an image processing system including an image processing apparatus according to a second embodiment of the present invention will be described with reference to FIG. FIG. 19 is a block diagram showing a schematic configuration of an image processing system including an image processing apparatus according to the second embodiment of the present invention. The image processing apparatus 20 according to the second embodiment has the same configuration as that of the image processing apparatus 20 according to the first embodiment, but in this embodiment, as shown in FIG. The medical image diagnostic apparatus 1 (10) is not connected, and three-dimensional image data is not input from the medical image diagnostic apparatus 1 in a so-called real time. In this case, a plurality of time-series three-dimensional image data is stored in the storage device 40, and the above-described processing is performed on the stored three-dimensional image data.

上述したように、記憶装置40に保存されている複数の時系列的な3次元画像データに対して、生体情報により同期した3次元画像を画像表示部22に表示し、更に、一方の時系列的な3次元画像データから所望の観察領域に含まれる3次元画像データを抽出した場合、その観察領域の範囲を他方の時系列的な3次元画像データに対しても適用して、所望の観察領域に含まれる3次元画像データを抽出して表示する。このとき、観察領域の範囲にずれがある場合は、その観察領域を微調整により収縮又は拡張し、微調整された観察領域を他方の3次元画像データに適用して所望の観察領域に含まれる3次元画像データを抽出する。その他、操作情報等を同期させて同じ表示操作が施された状態で画像表示部22に3次元画像を表示する。   As described above, for a plurality of time-series three-dimensional image data stored in the storage device 40, a three-dimensional image synchronized with biological information is displayed on the image display unit 22, and one time series is further displayed. When 3D image data included in a desired observation area is extracted from typical 3D image data, the range of the observation area is also applied to the other time-series 3D image data to obtain the desired observation. Three-dimensional image data included in the region is extracted and displayed. At this time, if there is a deviation in the range of the observation region, the observation region is contracted or expanded by fine adjustment, and the finely adjusted observation region is applied to the other three-dimensional image data and included in the desired observation region. Three-dimensional image data is extracted. In addition, a three-dimensional image is displayed on the image display unit 22 in a state where the same display operation is performed by synchronizing operation information and the like.

これにより、異なる医用画像診断装置にて収集された時系列的な3次元画像データを比較することも可能となり、複数の3次元画像データ同士を重畳して画像表示部22に表示することによって、時系列的な合成画像(いわゆるFusion画像)を表示することが可能となる。例えば、超音波診断装置にて収集された時系列的な3次元画像データと、X線CT装置にて収集された時系列的な3次元画像データとに対して、領域抽出や生体情報に基づく同期処理等を施すことにより、各時間における所望の観察領域に含まれる3次元画像同士の比較が容易になる。また、被検体の時系列的な3次元画像データと時間ごとに変化する典型症例との比較も容易にすることが可能となる。このように、診断に有効な新たな情報を医師等に提供することが可能となる。   This makes it possible to compare time-series three-dimensional image data collected by different medical image diagnostic apparatuses. By superimposing a plurality of three-dimensional image data and displaying them on the image display unit 22, A time-series composite image (a so-called Fusion image) can be displayed. For example, based on region extraction and biological information for time-series 3D image data collected by an ultrasound diagnostic apparatus and time-series 3D image data collected by an X-ray CT apparatus By performing the synchronization process or the like, it becomes easy to compare three-dimensional images included in a desired observation area at each time. In addition, it is possible to easily compare the time-series three-dimensional image data of the subject with a typical case that changes with time. In this manner, new information effective for diagnosis can be provided to a doctor or the like.

[第3の実施の形態]
次に、この発明の第3の実施形態に係る画像処理システムについて、図20を参照しつつ説明する。この実施形態に係る画像処理システムは、ロボット手術等を想定した術中ナビゲーションシステムに相当し、第1の実施形態に係る画像処理装置を備えることにより、実現可能となるものである。
[Third Embodiment]
Next, an image processing system according to a third embodiment of the present invention will be described with reference to FIG. The image processing system according to this embodiment corresponds to an intraoperative navigation system that assumes robotic surgery or the like, and can be realized by including the image processing apparatus according to the first embodiment.

図20に示すように、画像処理装置20には、術中ナビゲーション装置50が接続されている。さらに、画像処理装置20には、編集画像出力部37が備えられている。この編集画像出力部37は、画像処理装置20にて領域抽出や生体情報に基づく同期処理等が施された時系列的な3次元画像データを術中ナビゲーション装置50に出力する。   As shown in FIG. 20, an intraoperative navigation device 50 is connected to the image processing device 20. Further, the image processing apparatus 20 is provided with an edited image output unit 37. The edited image output unit 37 outputs time-series three-dimensional image data subjected to region extraction and synchronization processing based on biological information in the image processing device 20 to the intraoperative navigation device 50.

術中ナビゲーション装置50は、操作入力部51、実画像収集部52、実画像出力部53、画像表示部54、制御部55及び重畳画像処理部56を備えて構成されている。   The intraoperative navigation device 50 includes an operation input unit 51, a real image collection unit 52, a real image output unit 53, an image display unit 54, a control unit 55, and a superimposed image processing unit 56.

操作入力部51は、術者による操作により、手術に必要なメス等の手術器具57を操作する。また、操作入力部51は、術者の操作により、手術器具57と連動したロボットアームを操作することもできる。   The operation input unit 51 operates a surgical instrument 57 such as a scalpel necessary for surgery by an operation by an operator. Further, the operation input unit 51 can also operate a robot arm linked to the surgical instrument 57 by an operation of the surgeon.

実画像収集部52は、医用画像診断装置1の撮像対象である被検体Pの実画像を撮影するものであり、更に、術者の視点を追従することもでき、術者の挙動(視点の挙動)に追従して実画像を撮影することができる。画像出力部53は、実画像収集部52により収集された実画像に対して画像処理を行い、収集した実画像を鮮明な画像に変換して重畳画像処理部56に出力する。   The real image collection unit 52 captures a real image of the subject P that is the imaging target of the medical image diagnostic apparatus 1, and can also follow the operator's viewpoint, and the operator's behavior (viewpoint A real image can be taken following the behavior. The image output unit 53 performs image processing on the real image collected by the real image collection unit 52, converts the collected real image into a clear image, and outputs the image to the superimposed image processing unit 56.

重畳画像処理部56は、画像出力部53から出力された実画像と、画像処理装置20の編集画像出力部37から出力された、領域抽出等の処理が施された時系列的な3次元画像データとを受け、それらを重ね合わせる。   The superimposed image processing unit 56 and the real image output from the image output unit 53 and the time-series three-dimensional image output from the edited image output unit 37 of the image processing apparatus 20 and subjected to processing such as region extraction. Receive data and superimpose them.

制御部55は、術中ナビゲーション装置50全体を制御するものであり、主に、操作入力部51から出力される術者による操作情報や、重畳画像処理部56から出力される、実画像と時系列的な3次元画像データとが重畳された画像データ等を画像表示部54に受け渡す処理を行う。   The control unit 55 controls the intraoperative navigation device 50 as a whole. Mainly, the operation information output by the operator from the operation input unit 51 and the real image and time series output from the superimposed image processing unit 56 are used. A process of transferring image data or the like superimposed with typical three-dimensional image data to the image display unit 54 is performed.

画像表示部54は、術者の視点の移動に追従した実画像と、医用画像診断装置1にて収集され、画像処理装置20にて領域抽出や同期処理等が施された時系列的な3次元画像データとを、重畳して表示する。術者(手術ロボット操作者)は、この画像表示部54に表示された重畳画像を観察しながら、操作入力部51を介して手術器具57を操作して手術を行うことになる。   The image display unit 54 collects the actual image following the movement of the operator's viewpoint and the time series 3 collected by the medical image diagnostic apparatus 1 and subjected to region extraction, synchronization processing, and the like by the image processing apparatus 20. Dimensional image data is displayed superimposed. An operator (operating robot operator) operates the surgical instrument 57 via the operation input unit 51 while observing the superimposed image displayed on the image display unit 54.

このように、画像処理装置20により領域抽出等が施された時系列的な3次元画像と実画像とを重畳して表示することにより、実画像では得られない、被検体内部に存在する臓器の移動や変形等の経時的変化等を、術者は手術中にリアルタイムに取得することが可能となる。例えば、術中の時系列的な3次元画像データと、術前の時系列的な3次元画像データとを、同期させて表示したり、観察したい部分の画像を抽出して表示したりすることにより、手術中に比較検討することが可能となる。   As described above, the time-series three-dimensional image subjected to region extraction or the like by the image processing device 20 and the real image are displayed in an overlapping manner, so that an organ that is not obtained in the real image and exists inside the subject. It is possible for the surgeon to acquire changes over time such as movement and deformation of the body in real time during the operation. For example, by displaying the time-series 3D image data during surgery and the time-series 3D image data before surgery in synchronization with each other, or by extracting and displaying an image of a portion to be observed It becomes possible to conduct comparative studies during surgery.

この発明の第1の実施形態に係る画像処理装置を備えた医用画像システムの概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a medical image system including an image processing apparatus according to a first embodiment of the present invention. この発明の第1の実施形態に係る画像処理装置を備えた医用画像システムの概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a medical image system including an image processing apparatus according to a first embodiment of the present invention. この発明の第1の実施形態に係る画像処理装置による座標変換処理を順番に示すフローチャートである。It is a flowchart which shows the coordinate transformation process by the image processing apparatus which concerns on 1st Embodiment of this invention in order. この発明の第1の実施形態に係る画像処理装置による座標変換処理を説明するための図である。It is a figure for demonstrating the coordinate transformation process by the image processing apparatus which concerns on 1st Embodiment of this invention. この発明の第1の実施形態に係る画像処理装置により、2つの時系列的な3次元画像を同期させて表示する処理を順番に示すフローチャートである。4 is a flowchart illustrating, in order, processing for displaying two time-series three-dimensional images in synchronization by the image processing apparatus according to the first embodiment of the present invention. 心電信号(ECG信号)を示す図である。It is a figure which shows an electrocardiogram signal (ECG signal). この発明の第1の実施形態に係る画像処理装置により、2つの時系列的な3次元画像を同期させて表示する処理を説明するための図である。FIG. 6 is a diagram for explaining processing for displaying two time-series three-dimensional images in synchronization by the image processing apparatus according to the first embodiment of the present invention. この発明の第1の実施形態に係る画像処理装置による画像補間処理を説明するための図である。It is a figure for demonstrating the image interpolation process by the image processing apparatus which concerns on 1st Embodiment of this invention. この発明の第1の実施形態に係る画像処理装置による画像補間処理を説明するための図である。It is a figure for demonstrating the image interpolation process by the image processing apparatus which concerns on 1st Embodiment of this invention. この発明の第1の実施形態に係る画像処理装置による画像補間処理を説明するための図である。It is a figure for demonstrating the image interpolation process by the image processing apparatus which concerns on 1st Embodiment of this invention. この発明の第1の実施形態に係る画像処理装置による画像補間処理を説明するための図である。It is a figure for demonstrating the image interpolation process by the image processing apparatus which concerns on 1st Embodiment of this invention. この発明の第1の実施形態に係る画像処理装置により、時系列的な3次元画像から所望の観察領域を抽出する処理を順番に示すフローチャートである。4 is a flowchart showing, in order, processing for extracting a desired observation region from a time-series three-dimensional image by the image processing apparatus according to the first embodiment of the present invention. この発明の第1の実施形態に係る画像処理装置により、時系列的な3次元画像から所望の観察領域を抽出する処理を説明するための図である。It is a figure for demonstrating the process which extracts a desired observation area | region from a time-sequential 3D image by the image processing apparatus which concerns on 1st Embodiment of this invention. この発明の第1の実施形態に係る画像処理装置により、時系列的な3次元画像から所望の観察領域を抽出する処理を説明するための図である。It is a figure for demonstrating the process which extracts a desired observation area | region from a time-sequential 3D image by the image processing apparatus which concerns on 1st Embodiment of this invention. この発明の第1の実施形態に係る画像処理装置により、時系列的な3次元画像から所望の観察領域を抽出する処理を説明するための図である。It is a figure for demonstrating the process which extracts a desired observation area | region from a time-sequential 3D image by the image processing apparatus which concerns on 1st Embodiment of this invention. この発明の第1の実施形態に係る画像処理装置により、操作状態を一致させる処理を順番に示すフローチャートである。4 is a flowchart showing, in order, processes for matching operation states by the image processing apparatus according to the first embodiment of the present invention. この発明の第1の実施形態に係る画像処理装置により、操作状態を一致させる処理を説明するための図である。It is a figure for demonstrating the process which makes an operation state correspond by the image processing apparatus which concerns on 1st Embodiment of this invention. この発明の第1の実施形態に係る画像処理装置に設置されている画像表示部に表示される画像を示す図である。It is a figure which shows the image displayed on the image display part installed in the image processing apparatus which concerns on 1st Embodiment of this invention. この発明の第2の実施形態に係る画像処理装置を備えた画像処理システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image processing system provided with the image processing apparatus which concerns on 2nd Embodiment of this invention. この発明の第3の実施形態に係る画像処理装置を備えた画像処理システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image processing system provided with the image processing apparatus which concerns on 3rd Embodiment of this invention.

符号の説明Explanation of symbols

1、10 医用画像診断装置
2 照射部
3 検出器
4 データ収集部
5 画像再構成部
6 位置情報収集部
7 生体情報収集部
11 超音波プローブ
12 送受信部
13 信号処理部
14 DSC(デジタルスキャンコンバータ)
20 画像処理装置
21 操作入力部
22 画像表示部
30 制御部
31 システム制御部
32 画像制御部
33 位置制御部
34 時間制御部
35 領域制御部
36 操作制御部
40 記憶装置
41 画像記憶部
42 位置情報記憶部
43 生体情報記憶部
44 領域情報記憶部
45 操作情報記憶部
DESCRIPTION OF SYMBOLS 1, 10 Medical image diagnostic apparatus 2 Irradiation part 3 Detector 4 Data collection part 5 Image reconstruction part 6 Position information collection part 7 Biometric information collection part 11 Ultrasonic probe 12 Transmission / reception part 13 Signal processing part 14 DSC (digital scan converter)
DESCRIPTION OF SYMBOLS 20 Image processing apparatus 21 Operation input part 22 Image display part 30 Control part 31 System control part 32 Image control part 33 Position control part 34 Time control part 35 Area control part 36 Operation control part 40 Storage device 41 Image storage part 42 Position information storage Unit 43 Biological information storage unit 44 Area information storage unit 45 Operation information storage unit

Claims (9)

時間ごとに変化する被検体の生体情報と共に所定時間ごとに収集される第1の時系列的な3次元画像データと、前記生体情報と共に前記所定時間ごとに予め収集された第2の時系列的な3次元画像データと、を受けて、前記生体情報に基づいて、前記第1の時系列的な3次元画像データと前記第2の時系列的な3次元画像データとを同期させる時間同期手段と、
前記予め収集された前記第2の時系列的な3次元画像データから時相ごとに異なる第2の観察領域に含まれる3次元画像データを時相ごとに抽出し、前記時相ごとに異なる前記第2の観察領域に基づいて、前記第1の時系列的な3次元画像データに対する第1の観察領域を時相ごとに求め、前記第1の時系列的な3次元画像データから前記時相ごとに異なる前記第1の観察領域に含まれる3次元画像データを時相ごとに逐次、抽出する領域抽出手段と、
前記第1の時系列的な3次元画像データ及び前記第2の時系列的な3次元画像データからそれぞれ時相ごとに抽出された3次元画像データを同期させて表示する表示手段と、
を有する画像処理装置。
First time-series three-dimensional image data collected every predetermined time together with biological information of the subject that changes with time, and second time-series collected in advance along with the biological information every predetermined time Time synchronization means for receiving the three-dimensional image data and synchronizing the first time-series three-dimensional image data and the second time-series three-dimensional image data based on the biological information. When,
Three-dimensional image data included in the second observation region that differs for each time phase is extracted from the second time-series three-dimensional image data collected in advance for each time phase, and the different for each time phase Based on the second observation area, a first observation area for the first time-series three-dimensional image data is obtained for each time phase, and the time phase is calculated from the first time-series three-dimensional image data. Region extracting means for sequentially extracting, for each time phase , three-dimensional image data included in the first observation region that differs for each time ;
Display means for synchronizing and displaying the three-dimensional image data extracted for each time phase from the first time-series three-dimensional image data and the second time-series three-dimensional image data ;
An image processing apparatus.
前記領域抽出手段は、観察対象の時間的変化に追従して前記第1の観察領域の範囲を変化させ、前記第1の時系列的な3次元画像データから変化後の前記第1の観察領域に含まれる3次元画像データを抽出する、
請求項1に記載の画像処理装置。
Said region extraction means, to follow the temporal change of the observation target by changing the range of the first observation region, the first observation region after the change from the first time-series three-dimensional image data 3D image data contained in
The image processing apparatus according to claim 1 .
前記時間同期手段は、前記生体情報に基づいて、前記第1の時系列的な3次元画像データ及び前記第2の時系列的な3次元画像データのうち、同じ時相に収集された3次元画像データ同士を同期させる、
請求項1又は請求項2に記載の画像処理装置。
The time synchronization means is based on the biological information, and the three-dimensional data collected in the same time phase among the first time-series three-dimensional image data and the second time-series three-dimensional image data. Synchronize image data,
The image processing apparatus according to claim 1 .
前記生体情報は、前記被検体の心電信号、筋電信号又は関節の動作を時系列的に示す関節動作情報からなる、
請求項1乃至請求項のいずれかに記載の画像処理装置。
The biological information includes electrocardiographic signals, myoelectric signals of the subject, or joint motion information that indicates joint motions in time series.
The image processing apparatus according to any one of claims 1 to 3.
前記第1の時系列的な3次元画像データ又は前記第2の時系列的な3次元画像データのそれぞれの所定時間に欠けている3次元画像データを、前記所定時間の前後で収集された3次元画像データを用いて補間して生成する画像補間手段を更に有する、
請求項1乃至請求項のいずれかに記載の画像処理装置。
The three-dimensional image data lacking the predetermined time of each of the first time-series three-dimensional image data or the second time-series three-dimensional image data is collected before and after the predetermined time. It further has an image interpolation means for generating by interpolation using the dimensional image data.
The image processing apparatus according to any one of claims 1 to 4.
前記第1の時系列的な3次元画像データ及び前記第2の時系列的な3次元画像データは、時間ごとに変化する被検体の3次元位置情報とともに収集され、
前記3次元位置情報に基づいて、前記第1の時系列的な3次元画像データの座標系、又は、前記第2の時系列的な3次元画像データの座標系の少なくとも一方の座標系を変更して他方の座標系に一致させる位置制御手段を更に有する、
請求項乃至請求項のいずれかに記載の画像処理装置。
The first time-series three-dimensional image data and the second time-series three-dimensional image data are collected together with the three-dimensional position information of the subject that changes with time,
Based on the 3D position information, at least one of the coordinate system of the first time-series 3D image data or the coordinate system of the second time-series 3D image data is changed. And further has position control means for matching with the other coordinate system,
The image processing apparatus according to any one of claims 1 to 5.
前記第1の時系列的な3次元画像データ及び前記第2の時系列的な3次元画像データから、それぞれ時間ごとに変化する時系列的な3次元位置情報を抽出し、前記3次元位置情報に基づいて、前記第1の時系列的な3次元画像データの座標系、又は、前記第2の時系列的な3次元画像データの座標系の少なくとも一方の座標系を変更して他方の座標系に一致させる位置制御手段を更に有する、
請求項乃至請求項のいずれかに記載の画像処理装置。
Time-series three-dimensional position information that changes with time is extracted from the first time-series three-dimensional image data and the second time-series three-dimensional image data, and the three-dimensional position information is extracted. And changing the coordinate system of the first time-series 3D image data or the coordinate system of the second time-series 3D image data to change the other coordinate system. Further comprising position control means for matching the system,
The image processing apparatus according to any one of claims 1 to 5.
前記第1の時系列的な3次元画像データ又は前記第2の時系列的な3次元画像データのうち、いずれか一方の時系列的な3次元画像データに対して行われた操作又は画像処理を、他方の3次元画像データに対しても行う操作制御手段を更に有する、
請求項乃至請求項のいずれかに記載の画像処理装置。
An operation or image processing performed on any one of the first time-series three-dimensional image data and the second time-series three-dimensional image data. Further has an operation control means for performing the other 3D image data.
The image processing apparatus according to any one of claims 1 to 7.
前記第2の時系列的な3次元画像データに対して行われた操作の内容を示す操作情報、又は、前記第2の時系列的な3次元画像データに対して行われた画像処理の内容を示す画像処理情報を記憶する記憶手段と、
前記記憶手段に記憶されている操作情報が示す操作、又は画像処理情報が示す画像処理を、前記第1の時系列的な3次元画像データに対して行う操作制御手段と、を更に有する、
請求項乃至請求項のいずれかに記載の画像処理装置。
Operation information indicating the content of the operation performed on the second time-series 3D image data, or the content of the image processing performed on the second time-series 3D image data Storage means for storing image processing information indicating
Operation indicated by the operation information stored in said storage means, or the image processing by the image processing information indicates, further having an operation control means for performing relative to the first time-series three-dimensional image data,
The image processing apparatus according to any one of claims 1 to 7.
JP2005008225A 2005-01-14 2005-01-14 Image processing device Expired - Fee Related JP4703193B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005008225A JP4703193B2 (en) 2005-01-14 2005-01-14 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005008225A JP4703193B2 (en) 2005-01-14 2005-01-14 Image processing device

Publications (2)

Publication Number Publication Date
JP2006192151A JP2006192151A (en) 2006-07-27
JP4703193B2 true JP4703193B2 (en) 2011-06-15

Family

ID=36798667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005008225A Expired - Fee Related JP4703193B2 (en) 2005-01-14 2005-01-14 Image processing device

Country Status (1)

Country Link
JP (1) JP4703193B2 (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8103070B2 (en) * 2007-11-22 2012-01-24 Toshiba Medical Visualization Systems Europe, Limited Volume rendering apparatus and method
JP5472891B2 (en) 2008-01-21 2014-04-16 株式会社東芝 Medical image processing device
JP2011067279A (en) * 2009-09-24 2011-04-07 Ziosoft Inc Medical image processor and medical image processing program
US20110075896A1 (en) * 2009-09-25 2011-03-31 Kazuhiko Matsumoto Computer readable medium, systems and methods for medical image analysis using motion information
JP2011092547A (en) * 2009-10-30 2011-05-12 Ziosoft Inc Medical image processor and medical image processing program
JP5408493B2 (en) * 2009-11-27 2014-02-05 ザイオソフト株式会社 Medical image processing apparatus and medical image processing program
JP5661453B2 (en) * 2010-02-04 2015-01-28 株式会社東芝 Image processing apparatus, ultrasonic diagnostic apparatus, and image processing method
JP2012000135A (en) * 2010-06-14 2012-01-05 Hitachi Medical Corp Multi-modality dynamic image diagnostic apparatus
WO2012050166A1 (en) * 2010-10-15 2012-04-19 株式会社 東芝 Medical image-processing apparatus and x-ray computer tomography apparatus
CN103239253B (en) 2012-02-14 2015-07-15 株式会社东芝 Medical image diagnostic apparatus
US9639666B2 (en) * 2013-03-15 2017-05-02 Covidien Lp Pathway planning system and method
US9459770B2 (en) 2013-03-15 2016-10-04 Covidien Lp Pathway planning system and method
US9925009B2 (en) 2013-03-15 2018-03-27 Covidien Lp Pathway planning system and method
JP5722984B2 (en) * 2013-12-06 2015-05-27 ザイオソフト株式会社 Medical image processing apparatus and medical image processing program
JP6327900B2 (en) * 2014-03-24 2018-05-23 キヤノン株式会社 Subject information acquisition apparatus, breast examination apparatus and apparatus
WO2017174351A1 (en) * 2016-04-04 2017-10-12 Koninklijke Philips N.V. Imaging system and method
JP7283985B2 (en) * 2019-06-12 2023-05-30 ザイオソフト株式会社 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD, AND MEDICAL IMAGE PROCESSING PROGRAM

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002125937A (en) * 2000-10-24 2002-05-08 Toshiba Corp Image processor
JP2002224116A (en) * 2001-01-31 2002-08-13 Matsushita Electric Ind Co Ltd Ultrasound diagnostic device and image processing device
JP2002301065A (en) * 2001-04-04 2002-10-15 Nemoto Kyorindo:Kk Medical tomographic image display
JP2004201730A (en) * 2002-12-24 2004-07-22 Hitachi Ltd Generating method of three-dimensional profile using projection image in two or more directions
JP2004283373A (en) * 2003-03-20 2004-10-14 Toshiba Corp Analyzer of luminal structure

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863577A (en) * 1994-08-24 1996-03-08 Toshiba Corp Display device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002125937A (en) * 2000-10-24 2002-05-08 Toshiba Corp Image processor
JP2002224116A (en) * 2001-01-31 2002-08-13 Matsushita Electric Ind Co Ltd Ultrasound diagnostic device and image processing device
JP2002301065A (en) * 2001-04-04 2002-10-15 Nemoto Kyorindo:Kk Medical tomographic image display
JP2004201730A (en) * 2002-12-24 2004-07-22 Hitachi Ltd Generating method of three-dimensional profile using projection image in two or more directions
JP2004283373A (en) * 2003-03-20 2004-10-14 Toshiba Corp Analyzer of luminal structure

Also Published As

Publication number Publication date
JP2006192151A (en) 2006-07-27

Similar Documents

Publication Publication Date Title
JP4703193B2 (en) Image processing device
JP5269427B2 (en) Ultrasonic diagnostic apparatus, diagnostic imaging apparatus, and program
JP5367215B2 (en) Synchronization of ultrasound imaging data with electrical mapping
EP1809177B1 (en) Method and apparatus for invasive device tracking using organ timing signal generated from mps sensors
US11653897B2 (en) Ultrasonic diagnostic apparatus, scan support method, and medical image processing apparatus
JP5624258B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
JP6253970B2 (en) Image processing apparatus, ultrasonic diagnostic apparatus, and image processing program
JP5105981B2 (en) MEDICAL IMAGE PROCESSING DISPLAY DEVICE AND PROCESSING PROGRAM THEREOF
US9747689B2 (en) Image processing system, X-ray diagnostic apparatus, and image processing method
JP5192697B2 (en) Ultrasonic diagnostic equipment
JP4875416B2 (en) Medical guide system
US11191524B2 (en) Ultrasonic diagnostic apparatus and non-transitory computer readable medium
WO2014136899A1 (en) Medical image diagnosis device, medical image processing device, and control program
US20150193962A1 (en) Image processing system, x-ray diagnostic apparatus, and image processing method
JP5100084B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program
JP6125380B2 (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and image processing program
US20110301462A1 (en) Ultrasonic diagnosis apparatus and ultrasonic image processing apparatus
JP2009247739A (en) Medical image processing and displaying device, computer processing program thereof, and ultrasonic diagnosing equipment
JP5404066B2 (en) Medical image display system
JP2008132109A (en) Ultrasonic diagnostic system and method for referring past image data
JP5034054B2 (en) Image processing apparatus, ultrasonic imaging apparatus including the same, and image processing method
JP2008289548A (en) Ultrasonograph and diagnostic parameter measuring device
JP2008188288A (en) Ultrasonic diagnostic equipment and ultrasonic image display device
JP4795672B2 (en) Ultrasonic diagnostic equipment
JP5331313B2 (en) Ultrasonic diagnostic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080115

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110308

R150 Certificate of patent or registration of utility model

Ref document number: 4703193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees