JP2007135843A - Image processor, image processing program and image processing method - Google Patents
Image processor, image processing program and image processing method Download PDFInfo
- Publication number
- JP2007135843A JP2007135843A JP2005333211A JP2005333211A JP2007135843A JP 2007135843 A JP2007135843 A JP 2007135843A JP 2005333211 A JP2005333211 A JP 2005333211A JP 2005333211 A JP2005333211 A JP 2005333211A JP 2007135843 A JP2007135843 A JP 2007135843A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional
- image data
- region
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000009877 rendering Methods 0.000 claims abstract description 40
- 238000003745 diagnosis Methods 0.000 claims description 24
- 239000003550 marker Substances 0.000 claims description 5
- 208000024891 symptom Diseases 0.000 claims description 3
- 230000008685 targeting Effects 0.000 claims 1
- 230000003902 lesion Effects 0.000 abstract description 20
- 230000002093 peripheral effect Effects 0.000 abstract description 4
- 210000004204 blood vessel Anatomy 0.000 description 43
- 238000004458 analytical method Methods 0.000 description 38
- 238000004364 calculation method Methods 0.000 description 30
- 238000000034 method Methods 0.000 description 30
- 238000013500 data storage Methods 0.000 description 26
- 210000000988 bone and bone Anatomy 0.000 description 23
- 230000008569 process Effects 0.000 description 21
- 210000001519 tissue Anatomy 0.000 description 20
- 238000010586 diagram Methods 0.000 description 17
- 239000002872 contrast media Substances 0.000 description 14
- 239000011159 matrix material Substances 0.000 description 8
- 210000000709 aorta Anatomy 0.000 description 5
- 206010028980 Neoplasm Diseases 0.000 description 4
- 201000011510 cancer Diseases 0.000 description 4
- 210000003734 kidney Anatomy 0.000 description 4
- 210000001015 abdomen Anatomy 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008520 organization Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000004141 dimensional analysis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Abstract
Description
この発明は、X線CT装置、MRI装置、又は超音波診断装置などの医用画像診断装置にて収集された画像データに対して画像処理を施す画像処理装置に関する。特に、病変部の診断を行うための3次元情報を有する画像データを作成するための画像処理装置に関する。 The present invention relates to an image processing apparatus that performs image processing on image data collected by a medical image diagnostic apparatus such as an X-ray CT apparatus, an MRI apparatus, or an ultrasonic diagnostic apparatus. In particular, the present invention relates to an image processing apparatus for creating image data having three-dimensional information for diagnosing a lesion.
従来から、X線CT装置などの医用画像診断装置を用いて被検体のボリュームデータ(ボクセルデータ)を収集し、そのボリュームデータに対して所定の画像処理を施し、得られた画像を参照することで病変部の診断が行われている。 Conventionally, volume data (voxel data) of a subject is collected using a medical image diagnostic apparatus such as an X-ray CT apparatus, predetermined image processing is performed on the volume data, and the obtained image is referred to. The lesion is diagnosed at.
例えば、3次元画像を作成するための代表的な手法として、ボリュームレンダリング(Volume Rendering)が知られている。このボリュームレンダリングは、ボリュームデータに対して所定の視線方向(投影光線の投影方向)を決めて、任意の視点から光線追跡処理を行い、視線上のボクセル値(輝度値等)の積分値や重み付き累積加算値を投影面上の画像ピクセルに出力することによって、臓器等を立体的に抽出してボリュームレンダリング画像データ(以下、「VR画像データ」と称する場合がある)を作成する処理である。 For example, volume rendering is known as a representative technique for creating a three-dimensional image. In this volume rendering, a predetermined line-of-sight direction (projection direction of projected light) is determined for volume data, ray-tracing processing is performed from an arbitrary viewpoint, and an integrated value or weight of a voxel value (luminance value, etc.) on the line of sight This is a process for generating volume rendering image data (hereinafter sometimes referred to as “VR image data”) by three-dimensionally extracting an organ or the like by outputting a cumulative addition value to an image pixel on the projection plane. .
また、ボリュームレンダリングの他に、用途によって、MPR(Multi Plane Reconstruction)処理、MIP(Maximum Intensity Projection)処理、又は、MinIP(Minimum Intensity Projection)処理などが施される。以下、MPR処理によって得られた画像データを「MPR画像データ」と称し、MIP処理によって得られた画像データを「MIP画像データ」と称し、MinIP処理によって得られた画像データを「MinIP画像データ」と称することにする。 In addition to volume rendering, MPR (Multi Plane Construction) processing, MIP (Maximum Intensity Projection) processing, or MinIP (Minimum Intensity Projection) processing, etc. are performed depending on the application. Hereinafter, image data obtained by MPR processing is referred to as “MPR image data”, image data obtained by MIP processing is referred to as “MIP image data”, and image data obtained by MinIP processing is referred to as “MinIP image data”. I will call it.
MPR処理は、ボリュームデータを切断する任意の平面(切断平面)の画像データを求める処理である。MIP処理は、投影光線によって貫かれた各ボクセル値から最大値を計算し、得られた最大値を投影面上の画像ピクセルに出力する処理である。また、MinIP処理は、各ボクセル値から最小値を計算し、得られた最小値を投影面上の画像ピクセルに出力する処理である。 The MPR process is a process for obtaining image data of an arbitrary plane (cut plane) for cutting the volume data. The MIP process is a process of calculating a maximum value from each voxel value penetrated by the projection light and outputting the obtained maximum value to an image pixel on the projection plane. The MinIP process is a process of calculating a minimum value from each voxel value and outputting the obtained minimum value to an image pixel on the projection plane.
また、MPR画像を用いる診断では、厚み方向に複数のMPR画像を加算して平均することによって厚み付きMPR画像データを作成し、その厚み付きMPR画像を参照して診断を行う場合もある。 In the diagnosis using the MPR image, there is a case where the MPR image data with thickness is created by adding and averaging a plurality of MPR images in the thickness direction, and the diagnosis is performed with reference to the MPR image with thickness.
例えば、造影剤を用いて大動脈の動脈癌を診断する場合、造影剤が注入された血管(大動脈)及び骨(アバラ骨や背骨など)のCT値の範囲(およそ200以上)については、オパシティ(不透明度)を「1」にしてボリュームレンダリングを行うことによりVR画像データを作成する。そして、VR画像を表示装置に表示し、大動脈の大まかな形状と周辺領域に存在する組織(骨)との位置関係などを把握する。 For example, when diagnosing arterial cancer of the aorta using a contrast medium, the CT value range (approximately 200 or more) of blood vessels (aorta) and bones (such as avalan bone and spine) into which a contrast medium has been injected VR image data is created by performing volume rendering with (opacity) set to “1”. Then, the VR image is displayed on the display device, and the positional relationship between the rough shape of the aorta and the tissue (bone) existing in the peripheral region is grasped.
次に、病変部位である動脈癌の径や血管の内径などを視覚的に又は定量的に把握するために、ボリュームデータに対してMPR処理やMIP処理などを施してMPR画像データやMIP画像データなどを作成し、MPR画像やMIP画像などを表示装置に表示して詳細な診断を行う。MIP画像等はCT値が反映されているため、病変部の詳細な診断に有用である。 Next, in order to visually or quantitatively grasp the diameter of the arterial cancer that is the lesion site, the inner diameter of the blood vessel, etc., the MPR image data or MIP image data is subjected to MPR processing or MIP processing on the volume data. And the like, and MPR images and MIP images are displayed on the display device for detailed diagnosis. MIP images and the like reflect CT values and are useful for detailed diagnosis of lesions.
病変部と周辺組織との位置関係の把握や形状の大まかな把握のために、VR画像を用いることは有用であるが、一般的に、病変部の詳細な診断には用いられない。通常、VR画像についてはカラー画像として着色して表示するため、VR画像そのものには実際のCT値が反映されていないからである。また、ボリュームレンダリングを行う際のオパシティ(不透明度)を調整しても、動脈癌と血管内部との領域の区別を視覚的に判断することは困難だからである。従って、病変部の詳細な診断を行う場合にはMIP画像やMPR画像が用いられ、VR画像は補助的な画像として用いられていた。 Although it is useful to use the VR image for grasping the positional relationship between the lesioned part and the surrounding tissue and for roughly grasping the shape, it is generally not used for detailed diagnosis of the lesioned part. This is because a VR image is usually colored and displayed as a color image, and the actual CT value is not reflected in the VR image itself. Further, even if the opacity (opacity) at the time of volume rendering is adjusted, it is difficult to visually determine the distinction between the region of arterial cancer and the inside of the blood vessel. Therefore, when making a detailed diagnosis of a lesion, an MIP image or an MPR image is used, and a VR image is used as an auxiliary image.
詳細な診断を行う場合は、病変部を表す厚み付きMPR画像やMIP画像などを表示装置に表示し、その厚み付きMPR画像やMIP画像上で動脈癌の径や血管の内径などを計測している。 When making a detailed diagnosis, display a thick MPR image or MIP image representing the lesion on a display device, and measure the diameter of the arterial cancer or the inner diameter of the blood vessel on the MPR image or MIP image with thickness. Yes.
しかしながら、MIP画像では、投影方向(表示装置の画面の奥行き方向に相当する)のCT値が反映されて表示されており、また、厚み付きMPR画像では、その厚さ方向について所定の領域の情報のみが表示される。従って、こられの画像では、病変部と周辺領域に存在する組織との位置関係が把握し難く、手術の計画に用いる画像には適さない。 However, in the MIP image, the CT value in the projection direction (corresponding to the depth direction of the screen of the display device) is reflected, and in the MPR image with thickness, information on a predetermined region in the thickness direction is displayed. Only displayed. Therefore, these images are difficult to grasp the positional relationship between the lesioned part and the tissue existing in the peripheral region, and are not suitable for images used for surgical planning.
従来においては、位置関係を把握する場合はVR画像を表示装置に表示し、病変部の詳細な診断を行う場合は、VR画像からMIP画像に切り換えて表示装置に表示していた。また、VR画像とMIP画像とを表示装置に並べて表示することで、位置関係の把握と病変部の詳細な診断とを行っていた。さらに、VR画像とMPR画像とを合成して表示装置に表示する試みがなされている(例えば特許文献1)。 Conventionally, when grasping the positional relationship, a VR image is displayed on the display device, and when performing detailed diagnosis of a lesion, the VR image is switched to the MIP image and displayed on the display device. In addition, the VR image and the MIP image are displayed side by side on the display device, thereby grasping the positional relationship and performing detailed diagnosis of the lesion. Furthermore, an attempt is made to synthesize a VR image and an MPR image and display them on a display device (for example, Patent Document 1).
しかしながら、上述した従来技術に係る画像処理においては、MIP画像とVR画像とを表示装置に並べて表示したり、切り換えて表示したりしていたため、病変部の詳細な診断と、病変部についての位置関係の把握とを、別々の画面に表示された画像を観察しながら行う必要があった。そのため、医師などの診断者は、頭のなかでそれらの情報を整理しながら診断を行ったり、手術計画を作成したりする必要があったため、診断などが容易ではなかった。特に、従来技術に係る手法では、病変部と周辺組織との位置関係の把握が困難であった。 However, in the above-described conventional image processing, the MIP image and the VR image are displayed side by side or displayed on the display device, so that the detailed diagnosis of the lesioned part and the position of the lesioned part are performed. It was necessary to grasp the relationship while observing images displayed on separate screens. For this reason, a diagnosis person such as a doctor needs to make a diagnosis while organizing the information in his / her head or create an operation plan, so that the diagnosis is not easy. In particular, in the technique according to the prior art, it is difficult to grasp the positional relationship between the lesioned part and the surrounding tissue.
また、診断の際にMIP画像を使用する場合であって、注目する病変部の手前にCT値が近い骨などが存在する場合、その骨が病変部と重なって表示されてしまうため、病変部の観察が困難になる。 In addition, when a MIP image is used for diagnosis and there is a bone having a CT value close to the focused lesion, the bone is displayed overlapping the lesion. Observation becomes difficult.
この発明は上記の問題を解決するものであり、病変部と周辺組織との位置関係の把握を可能としつつ、病変部の詳細な画像を得ることが可能な画像処理装置、画像処理プログラム、及び画像処理方法を提供することを目的とする。 The present invention solves the above-described problem, an image processing apparatus capable of obtaining a detailed image of a lesioned part, an image processing program, and a grasping of a positional relationship between the lesioned part and surrounding tissue, and An object is to provide an image processing method.
請求項1に記載の発明は、医用画像診断装置にて収集されたボリュームデータに対して、所望の3次元関心領域を所定方向の視点から見た投影面に投影することで第1の3次元画像データを作成する第1の画像作成手段と、前記ボリュームデータのうち前記所望の3次元関心領域、及び前記所定方向の視点から見て前記所望の3次元関心領域の前後の領域、以外の領域を、前記投影面に投影することで第2の3次元画像データを作成する第2の画像作成手段と、前記第1の3次元画像データに基づく画像と前記第2の3次元画像データに基づく画像とを重畳させて表示手段に表示させる表示制御手段と、を有することを特徴とする画像処理装置である。 In the first aspect of the invention, the volume data collected by the medical image diagnostic apparatus is projected onto a projection plane viewed from a viewpoint in a predetermined direction with respect to the volume data collected by the medical image diagnostic apparatus. Regions other than first image creation means for creating image data, the desired three-dimensional region of interest in the volume data, and regions before and after the desired three-dimensional region of interest when viewed from the viewpoint in the predetermined direction Is projected onto the projection plane to produce second 3D image data, an image based on the first 3D image data, and the second 3D image data An image processing apparatus comprising: a display control unit configured to superimpose an image on a display unit.
請求項13に記載の発明は、コンピュータに、医用画像診断装置にて収集されたボリュームデータに対して、所望の3次元関心領域を所定方向の視点から見た投影面に投影することで第1の3次元画像データを作成する第1の画像作成機能と、前記ボリュームデータのうち前記所望の3次元関心領域を除くとともに、前記所定方向の視点から見て、前記所望の3次元関心領域の前後の領域を除く領域を、前記投影面に投影することで第2の3次元画像データを作成する第2の画像作成機能と、前記第1の3次元画像データに基づく画像と前記第2の3次元画像データに基づく画像とを重畳させて表示手段に表示させる表示制御機能と、を実行させることを特徴とする画像処理プログラムである。 According to the thirteenth aspect of the present invention, the first three-dimensional region of interest is projected onto a projection plane viewed from a viewpoint in a predetermined direction on the volume data collected by the medical image diagnostic apparatus. A first image creation function for creating the three-dimensional image data, and excluding the desired three-dimensional region of interest from the volume data, and before and after the desired three-dimensional region of interest when viewed from the viewpoint in the predetermined direction A second image creation function for creating second 3D image data by projecting an area other than the area onto the projection plane, an image based on the first 3D image data, and the second 3D An image processing program for executing a display control function for superimposing an image based on dimensional image data and displaying the image on a display unit.
請求項14に記載の発明は、医用画像診断装置にて収集されたボリュームデータに対して、所望の3次元関心領域を所定方向の視点から見た投影面に投影することで第1の3次元画像データを作成する第1の画像作成ステップと、前記ボリュームデータのうち前記所望の3次元関心領域を除くとともに、前記所定方向の視点から見て、前記所望の3次元関心領域の前後の領域を除く領域を、前記投影面に投影することで第2の3次元画像データを作成する第2の画像作成ステップと、前記第1の3次元画像データに基づく画像と前記第2の3次元画像データに基づく画像とを重畳させて表示手段に表示させる表示ステップと、を含むことを特徴とする画像処理方法である。 According to the fourteenth aspect of the present invention, the first three-dimensional image is projected on the volume data collected by the medical image diagnostic apparatus by projecting a desired three-dimensional region of interest onto a projection plane viewed from a viewpoint in a predetermined direction. A first image creation step for creating image data; and removing the desired three-dimensional region of interest from the volume data and viewing regions before and after the desired three-dimensional region of interest when viewed from the viewpoint in the predetermined direction A second image creating step of creating second 3D image data by projecting a region to be excluded onto the projection plane; an image based on the first 3D image data; and the second 3D image data A display step of superimposing an image based on the image and displaying the image on a display means.
この発明によると、関心領域に含まれる病変部については詳細な画像が得られ、さらに、病変部と周辺組織との位置関係についても容易に把握することが可能となる。 According to the present invention, a detailed image can be obtained for the lesioned part included in the region of interest, and the positional relationship between the lesioned part and the surrounding tissue can be easily grasped.
[第1の実施の形態]
この発明の第1の実施形態に係る画像処理装置の構成について図1を参照して説明する。図1は、この発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。
[First Embodiment]
The configuration of the image processing apparatus according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing the configuration of the image processing apparatus according to the first embodiment of the present invention.
この実施形態に係る画像処理装置1は、X線CT装置、MRI装置、又は超音波診断装置などの医用画像診断装置にて収集されたボリュームデータに対して、ボリュームレンダリングやMPR処理やMIP処理などを施すことにより、VR画像データやMIP画像データなどを生成する。画像処理装置1は、医用画像診断装置内に設置されていても良く、医用画像診断装置の外部に設置されていても良い。 The image processing apparatus 1 according to this embodiment performs volume rendering, MPR processing, MIP processing, etc. on volume data collected by a medical image diagnostic apparatus such as an X-ray CT apparatus, an MRI apparatus, or an ultrasonic diagnostic apparatus. To generate VR image data, MIP image data, and the like. The image processing apparatus 1 may be installed in the medical image diagnostic apparatus or may be installed outside the medical image diagnostic apparatus.
ボリュームデータ記憶部5には、X線CT装置などの医用画像診断装置にて収集され、再構成されたボリュームデータ(ボクセルデータ)が記憶されている。画像処理装置1はボリュームデータ記憶部5に記憶されているボリュームデータに対して画像処理を施すことにより所望の画像データを作成する。
The volume
入力部2は、マウスはキーボードなどの入力装置で構成されている。入力部2にて入力された操作情報は入力解析部3に出力される。 The input unit 2 includes an input device such as a keyboard as a mouse. The operation information input by the input unit 2 is output to the input analysis unit 3.
入力解析部3は、入力部2にて操作された操作内容を解読して、続いて行われる各種処理に必要なパラメータを算出する。例えば、表示部13に設定画面が表示されている状態で、その設定画面のボタンがマウス(入力部2)で押下されたり、表示部13に医用画像が表示されている状態で、その医用画像がマウス(入力部2)でドラッグされたりした場合に、入力解析部3はマウス(入力部2)による操作内容を解読して、続いて行われる各種処理に必要なパラメータを算出する。ここで、入力解析部2による具体的な処理について図2を参照して説明する。図2は、血管、周辺組織(骨)、及び表示部の画面の位置関係を説明するための模式図である。
The input analysis unit 3 decodes the operation content operated by the input unit 2 and calculates parameters necessary for various processes performed subsequently. For example, when the setting screen is displayed on the
2次元の関心領域(2DROI)の中心点を指定するモードにおいては、表示部13にVR画像が表示されている。そして、表示部13に表示されているVR画像上でマウス(入力部2)がクリックされると、入力解析部3は、そのクリックされた位置について、2次元の画面の座標系(直交座標系)における座標を求め、その座標を2DROIの中心点の座標とする。例えば、図2に示すように、表示部13の画面13a上でマウス(入力部2)にて点14が指定されると、入力解析部3は、その点14を2DROIの中心点として、2次元の画面の座標系(直交座標系)における座標を求める。2DROIの中心点14の座標は、ROI情報算出部4とROI情報記憶部6に出力され、ROI情報記憶部6に記憶される。
In the mode for designating the center point of the two-dimensional region of interest (2DROI), a VR image is displayed on the
2次元の関心領域(2DROI)の形状を指定するモードにおいては、表示部13に表示されているVR画像上でマウス(入力部2)がドラッグされると、入力解析部3は、そのドラッグされた範囲の形状及び大きさを2DROIの形状及び大きさとする。また、大きさについては、2DROIの形状が円形の場合、入力解析部3はその円の半径を求め、矩形状の場合は、矩形の各頂点の座標を求める。例えば、図2に示すように、表示部13の画面13a上でマウス(入力部2)がドラッグされることにより2DROI15が描画されると、入力解析部3は、2DROI15の形状及び大きさを求める。図2に示す例においては、2DROI15の形状は円形であるため、入力解析部3はその円の半径を求める。2DROI15の形状及び大きさを示す情報は、ROI情報算出部4とROI情報記憶部6に出力され、ROI情報記憶部6に記憶される。
In the mode for designating the shape of the two-dimensional region of interest (2DROI), when the mouse (input unit 2) is dragged on the VR image displayed on the
3次元の関心領域(3DROI)の投影方向の厚さを変更するモードにおいては、表示部13に表示されているVR画像上でマウス(入力部2)がドラッグされると、入力解析部3は、そのマウスの移動量に応じた厚さを、3次元関心領域(3DROI)の投影方向の厚さとする。例えば、厚み付きMPR画像の厚さを変更する場合、表示部13に表示されているVR画像上でマウス(入力部2)がドラッグされると、入力解析部3は、そのマウスの移動量に応じた厚さを、厚み付きMPR画像を作成する際の範囲とする。3DROIの投影方向への厚さを示す情報は、ROI情報算出部4に出力される。
In the mode of changing the thickness in the projection direction of the three-dimensional region of interest (3DROI), when the mouse (input unit 2) is dragged on the VR image displayed on the
2DROIを表示部13の画面上で移動させるモードにおいては、表示部13に表示されている2DROI15内でマウス(入力部2)がドラッグされると、入力解析部3は、2次元画面の座標系(直交座標系)における2DROIの中心点の座標を求める。例えば、図2に示すように、表示部13の画面13aに表示されている2DROI15内でマウス(入力部2)がドラッグされて2DROI15が移動させられると、入力解析部3は、2次元の画面の座標系における2DROI15の新たな中心点14の座標を求める。新たな中心点14の座標は、ROI情報算出部4とROI情報記憶部6に出力され、ROI情報記憶部6に記憶される。
In the mode in which the 2DROI is moved on the screen of the
表示部13に表示されているVR画像を回転させて表示させるモードにおいては、表示部13に表示されているVR画像上でマウス(入力部2)がドラッグされると、入力解析部3は、VR画像データの回転行列を求める。回転行例を示す情報は表示条件記憶部8に出力されて記憶される。
In the mode in which the VR image displayed on the
または、表示部13に表示されているオパシティカーブをマウス(入力部2)でドラッグすると、入力解析部3はボリュームレンダリングにおけるオパシティカーブ値を求める。オパシティカーブ値はVR条件記憶部7に出力されて記憶される。
Alternatively, when the opacity curve displayed on the
上記の各モードの変更については、表示部13に表示されている設定画面のモード指定ボタンを押下することにより、所望のモードを選択することができる。また、あるモードにおける入力や処理などが完了すると、自動的に次のモードが実行されるようにしても良い。さらに、マウス(入力部2)に設置されている複数のボタンを組み合わせ、異なる組み合わせに各モードの実行を割り当てておき、その組み合わせに従ってボタンを押下することで各モードを実行するようにしても良い。
Regarding the change of each mode, a desired mode can be selected by pressing a mode designation button on the setting screen displayed on the
ROI情報算出部4は、入力解析部3から2DROIの中心点14の座標、2DROIの形状及び大きさを示す情報を受けて、3次元関心領域(3DROI)のボリューム座標系(直交座標系)における位置、3DROIの形状及び大きさを求める。つまり、ROI情報算出部4は3DROIの位置及び範囲を求める。
The ROI information calculation unit 4 receives information indicating the coordinates of the
ROI情報算出部4における処理について図3を参照して説明する。図3は、3次元関心領域(3DROI)の範囲を求める処理を説明するための模式図である。ROI情報算出部4は、ボリュームデータにおいて、オパシティ(不透明度)が所定値以上(例えば0.8以上)に設定された領域を基準として3DROIの範囲を求める。ここでは、造影剤が注入された血管16が所定値以上のオパシティ(不透明度)が設定されているものとする。また、所定値以上のオパシティ(不透明度)が設定されている組織を、「不透明な組織」と称する場合がある。
Processing in the ROI information calculation unit 4 will be described with reference to FIG. FIG. 3 is a schematic diagram for explaining processing for obtaining a range of a three-dimensional region of interest (3DROI). The ROI information calculation unit 4 obtains a 3D ROI range based on an area in which the opacity (opacity) is set to a predetermined value or more (eg, 0.8 or more) in the volume data. Here, it is assumed that an opacity (opacity) greater than or equal to a predetermined value is set for the
ROI情報算出部4は、2DROI15の中心点14を、投影方向(画面の奥行き方向に相当する)に投影し、その投影方向に存在する不透明な組織(血管16)の中心点Pを3DROIの中心点とし、ボリューム座標系での中心点Pの座標を求める。つまり、ROI情報算出部4は、2DROI15の中心点14を投影方向に投影し、その投影方向に存在する、オパシティ(不透明度)の値が例えば0.8以上に設定された範囲の中心点Pを3DROIの中心点とする。また、図3に示す例においては、オパシティ(不透明度)が0.8以上に設定された範囲、つまり不透明な組織(血管16)の投影方向の厚さを厚さL1とする。
The ROI information calculation unit 4 projects the
さらに、ROI情報算出部4は3DROIの形状及び大きさを決定する。図3に示す例においては、3DROI18の形状は円柱状の形状をなしている。表示部13の画面13a上に描画された2DROI15の形状が円形状であるため、その円形状の2DROI15を投影方向(画面の奥行き方向)に投影することで円柱状が形成される。そして、投影方向の厚さが決定されることで、3DROI18の形状及び大きさが決定される。ここで、ROI情報算出部4は、3DROI18の投影方向(画面の奥行き方向)の厚さL2を、不透明な組織(血管16)の投影方向の厚さL1以上の厚さとする。この3DROI18の投影方向の厚さL2は、操作者によって任意に決定することができる。
Further, the ROI information calculation unit 4 determines the shape and size of the 3D ROI. In the example shown in FIG. 3, the shape of the
3DROI18の投影方向の厚さL2をROI情報算出部4が自動的に決定する場合は、以下の式にて厚さL2を求める。
3DROIの厚さL2=厚さL1×係数k
ここで、係数kは予め決定された定数であり、例えばk=1.5などの値が用いられる。
When the ROI information calculation unit 4 automatically determines the thickness L2 in the projection direction of the
3DROI thickness L2 = thickness L1 × factor k
Here, the coefficient k is a predetermined constant, and for example, a value such as k = 1.5 is used.
図3に示す3DROIの形状は円柱状であったが、円柱以外の形状であっても良い。例えば、表示部13の画面13a上に描画された2DROIの形状が矩形状であった場合は、3DROIの形状は角柱状となる。また、図6の模式図に示すように、3DROI18Aの形状を球状としても良い。3DROIの中心の座標の算出方法など、上述した方法と同じである。3DROI18Aは球状の形状をなしているため、投影方向の厚さL2は3DROI18Aの直径となる。
The shape of the 3DROI shown in FIG. 3 is a cylindrical shape, but may be a shape other than a cylindrical shape. For example, when the 2DROI shape drawn on the
以上のようにして求められた、3DROI18の中心点Pの座標、3DROIの形状を示す情報、及び3DROIの大きさを示す情報は、ROI情報記憶部6に出力されて記憶される。
The coordinates of the center point P of the
ROI情報記憶部6には、入力解析部2及びROI情報算出部4にて求められた関心領域(ROI)に関する情報が記憶されている。例えば、ROI情報算出部4にて求められた、3DROIの中心点Pについてボリューム座標系における座標、3DROIの形状を示す情報(例えば円柱状など)、及び、3DROIの大きさを示す情報がROI情報記憶部6に記憶される。3DROIの大きさを示す情報として、3DROIの投影方向(画面の奥行き方向)への厚さL2が記憶される。また、入力解析部2にて求められた、2DROIの中心点の座標、2DROIの形状及び大きさを示す情報(例えば、円形状の2DROIであれば、その円の半径など)が記憶される。
The ROI
VR条件記憶部7には、入力部2にて指定されて入力解析部3にて求められた、ボリュームレンダリングに用いられるオパシティカーブ値が記憶される。 The VR condition storage unit 7 stores an opacity curve value used for volume rendering, which is specified by the input unit 2 and obtained by the input analysis unit 3.
表示条件記憶部8には、入力部2にて指定されて入力解析部3にて求められた、ボリュームデータの回転行列が記憶される。
The display
2DROI画像データ作成部9は、ROI情報記憶部6に記憶されている2DROIの形状を示す情報(円形状の2DROIであれば、その円の半径など)に基づいて表示部13で表示するための2DROI画像データを作成する。
The 2DROI image data creation unit 9 displays information on the
VR画像データ作成部10は、ボリュームデータ記憶部5から操作者によって指定されたボリュームデータを読み込み、さらに、ROI情報記憶部6から3DROIの中心位置の座標、3DROIの形状を示す情報、及び、3DROIの大きさを示す情報を読み込み、ボリュームデータに対してボリュームレンダリングを施すことによりVR画像データを作成する。
The VR image
VR画像データ作成部10は、ボリュームデータのうち3DROI18が占める領域を除くとともに、投影方向(画面の奥行き方向)の視点から見て、3DROI18の前後の領域を除く領域を対象としてボリュームレンダリングを行う。つまり、3DROI18に含まれるボリュームデータ、及び、投影方向(画面の奥行き方向)における3DROI18の前後に存在するボリュームデータに対してはボリュームレンダリングを行わず、その他の領域にあるボリュームデータに対してボリュームレンダリングを施す。これにより、3DROI18が占める領域、及び投影方向(画面の奥行き方向)における3DROI18の前後の領域を含まないVR画像データが作成されることになる。なお、VR画像データ作成部10が、この発明の「第2の画像作成手段」の1例として機能する。VR画像データは表示制御部12に出力される。
The VR image
なお、ROI情報記憶部6に3DROIに関する情報が存在しなければ、VR画像データ作成部10は、ボリュームデータ全体に対してボリュームレンダリングを施すことにより、ボリュームデータ全体のVR画像データを作成する。
If there is no information related to 3DROI in the ROI
MIP画像データ作成部11は、ボリュームデータ記憶部5からボリュームデータを読み込み、さらに、ROI情報記憶部6から3DROIの中心位置の座標、3DROIの形状を示す情報、及び3DROIの大きさを示す情報を読み込み、3DROI内に存在するボリュームデータを対象としてMIP処理を施すことによりMIP画像データを作成する。このMIP画像データ作成部11が、この発明の「第1の画像作成手段」の1例として機能する。MIP画像データは表示制御部12に出力される。
The MIP image
具体的には、MIP画像データ作成部11は、図3に示すように、3DROI18内を対象としてMIP処理を施すことによりMIP画像データを作成する。
Specifically, as shown in FIG. 3, the MIP image
また、MIP画像データ作成部11は、MIP処理を行う代わりに、3DROI18が占める範囲を対象として、MinIP処理を施すことによりMinIP画像データを作成したり、MPR処理を施すことによりMPR画像データを作成したり、厚み付きMPR画像データを作成したりしても良い。
Further, the MIP image
なお、ROI情報記憶部6に3DROIに関連する情報が存在しない場合は、MIP画像データ作成部11はMIP処理やMPR処理などを行うことはない。
If there is no information related to 3DROI in the ROI
表示制御部12は、2DROI画像データ、VR画像データ、及びMIP画像データを重ねて表示部13の画面13a上に表示させる。このとき、MIP画像が作成されていれば、表示制御部12はVR画像とMIP画像とを重畳させて表示部13に表示させる。一方、MIP画像が作成されていない場合は、VR画像のみが表示部13に表示されることになる。また、MIP画像データ作成部11にて、MIP画像データの代わりに、MinIP画像データ、MPR画像データ、又は厚み付きMPR画像データが作成されていた場合は、表示制御部12はそれらの画像とVR画像とを重畳させて表示部13に表示させる。
The
表示部13は、液晶ディスプレイやCRTなどで構成されており、VR画像や、VR画像とMIP画像との重畳画像などを表示する。
The
画像処理装置1は、画像処理プログラムを読み込むことにより、入力解析部3の機能、ROI情報算出部4の機能、画像処理部に属する2DROI画像データ作成部9の機能、VR画像データ作成部10の機能、及びMIP画像データ作成部11の機能を実行する。
The image processing apparatus 1 reads the image processing program, thereby functioning the input analysis unit 3, function of the ROI information calculation unit 4, function of the 2DROI image data creation unit 9 belonging to the image processing unit, and function of the VR image
(作用)
次に、この発明の第1の実施形態に係る画像処理装置の動作(画像処理方法)について図4を参照して説明する。図4は、この発明の第1の実施形態に係る画像処理装置の動作を順番に示すフローチャートである。
(Function)
Next, the operation (image processing method) of the image processing apparatus according to the first embodiment of the present invention will be described with reference to FIG. FIG. 4 is a flowchart showing the operations of the image processing apparatus according to the first embodiment of the present invention in order.
画像処理装置1による処理を行う前提として、X線CT装置などの医用画像診断装置にて被検体のボリュームデータを予め収集して、そのボリュームデータをボリュームデータ記憶部5に記憶しておく。ここでは1例として、被検体の血管に造影剤を注入した状態でスキャンを行ない、造影剤が注入された血管を観察する場合について説明する。
As a premise for performing processing by the image processing apparatus 1, volume data of a subject is collected in advance by a medical image diagnostic apparatus such as an X-ray CT apparatus, and the volume data is stored in the volume
(ステップS01)
まず、ステップS01では、操作者が入力部2を用いて、造影剤が注入された血管及び骨のCT値の範囲(およそ200以上)が不透明となるようにオパシティ(不透明度)を設定する。
(Step S01)
First, in step S01, the operator uses the input unit 2 to set an opacity (opacity) so that the CT value range (approximately 200 or more) of the blood vessel and bone into which the contrast medium has been injected becomes opaque.
(ステップS02)
ステップS02では、VR画像データ作成部10がボリュームデータ記憶部5からボリュームデータを読み込み、そのボリュームデータに対してボリュームレンダリングを施すことによりVR画像データを作成する。このとき、VR画像データ作成部10は、ステップS01にて設定されたオパシティ(不透明度)でボリュームレンダリングを施し、VR画像データを作成する。ステップS01では、操作者が入力部2を用いてオパシティ(不透明度)を設定し、VR画像データ作成部10はそのオパシティ(不透明度)を用いてボリュームレンダリングを行ったが、予め設定されて画像処理装置1に記憶されているオパシティ(不透明度)を用いてボリュームレンダリングを行っても良い。
(Step S02)
In step S02, the VR image
VR画像データは表示制御部12に出力され、表示制御部12はそのVR画像データに基づくVR画像を表示部13に表示させる。血管や骨が不透明となるようにオパシティ(不透明度)が設定されているため、表示部13には血管や骨を表すVR画像が表示され、操作者は血管や骨を観察することができる。
The VR image data is output to the
(ステップS03)
ステップS03では、操作者が表示部13に表示されているVR画像を観察しながら、病変部を指定する。ここでは、造影剤が注入された血管に病変部が存在する場合について説明する。操作者は入力部2(マウス)を用いて表示部13の画面上の病変部をクリックする。例えば、骨と血管とが重なって表示部13に表示され、かつ、血管の手前に骨が存在する場合は、血管を観察できるようにVR画像を回転させて表示部13に表示させる。そして、血管が表示されている状態で、操作者はマウス(入力部2)を用いて血管上の病変部を指定する。
(Step S03)
In step S03, the operator designates a lesioned part while observing the VR image displayed on the
(ステップS04)
ステップS04では、入力解析部3が2次元の画面の座標系(直交座標系)における、クリックされた位置の座標を求め、この座標を2DROIの中心の座標とする。例えば、図2に示すように、表示部13の画面13a上でマウス(入力部2)にて2DROIの中心点14がクリックされると、入力解析部3は、その中心点14について、2次元の画面の座標系(直交座標系)における座標を求める。2DROIの中心点14の座標は、ROI情報算出部4及びROI情報記憶部6に出力され、ROI情報記憶部6に記憶される。
(Step S04)
In step S04, the input analysis unit 3 obtains the coordinates of the clicked position in the coordinate system (orthogonal coordinate system) of the two-dimensional screen, and uses these coordinates as the coordinates of the center of the 2DROI. For example, as shown in FIG. 2, when the
操作者によって中心点14が指定されると、表示制御部12はその中心点14を中心とした円形状のデフォルトの2DROI15を表示部13の画面13a上に表示させる。この2DROI15の形状及び大きさは操作者によって変えることができる。この場合、操作者がマウス(入力部2)をドラッグすると、入力解析部3は、そのドラッグされた範囲の形状及び大きさを2DROIの形状及び大きさとする。2DROI15の形状及び大きさを示す情報は、ROI情報算出部4及びROI情報記憶部6に出力され、ROI情報記憶部6に記憶される。また、2DROI15を移動させた場合は、入力解析部3は、画面の座標系(直交座標系)における2DROI15の新たな中心点14の座標を算出する。この新たな中心点14の座標は、ROI情報算出部4及びROI情報記憶部6に出力され、ROI情報記憶部6に記憶される。
When the
(ステップS05)
ステップS05では、ROI情報算出部4が3次元関心領域(3DROI)の中心の座標を求める。ROI情報算出部4は、入力解析部3から2DROI15の中心点14の座標を受けて、3DROIの中心の座標を求める。具体的には、ROI情報算出部4は、図3に示すように、2DROI15の中心点14を、投影方向(画面の奥行き方向)に投影し、その投影方向に存在する不透明な組織(血管16)の中心点Pを3DROIの中心点とし、その中心点Pのボリューム座標系(直交座標系)での座標を求める。ここでは、オパシティ(不透明度)が所定値(例えば0.8以上)に設定された範囲を不透明な組織とし、血管16がその範囲に含まれる。3DROIの中心の座標は、ROI情報記憶部6に出力されて記憶される。
(Step S05)
In step S05, the ROI information calculation unit 4 obtains the coordinates of the center of the three-dimensional region of interest (3DROI). The ROI information calculation unit 4 receives the coordinates of the
(ステップS06)
ステップS06では、ROI情報算出部4が3DROIの形状及び大きさを決定することで3DROIの範囲を決定する。図3に示すように、表示部13の画面13a上に描画された2DROI15の形状が円形状であるため、ROI情報算出部4は、その円形状の2DROI15を投影方向(画面の奥行き方向)に投影することで円柱状を形成する。そして、投影方向の厚さL2が決定されることで、3DROI18の形状及び大きさが決定される。
(Step S06)
In step S06, the ROI information calculation unit 4 determines the 3DROI range by determining the shape and size of the 3DROI. As shown in FIG. 3, since the shape of the
3DROI18の投影方向の厚さL2については、操作者によって任意に指定されても良く、ROI情報算出部4が自動的に決定しても良い。自動的に決定する場合は、図3に示すように不透明な組織(血管16)の投影方向の厚さを厚さL1とした場合、ROI情報算出部4は、3DROI18の厚さL2を式「厚さL2=厚さL1×係数k」によって求める。
The thickness L2 in the projection direction of the
以上のように3DROI18の範囲(形状及び大きさ)が決定されると、3DROI18の範囲を示す情報(形状及び大きさ)は、ROI情報記憶部6に出力されて記憶される。
When the range (shape and size) of the
(ステップS07)
ステップS07では、2DROI画像データ作成部9はROI情報記憶部6から2DROIの形状及び大きさを示す情報を読み込んで、その情報に基づいて2DROI画像データを作成する。
(Step S07)
In step S07, the 2DROI image data creation unit 9 reads information indicating the shape and size of the 2DROI from the ROI
またステップS07では、VR画像データ作成部10は、ボリュームデータ記憶部5からボリュームデータを読み込んで、そのボリュームデータに対してボリュームレンダリングを施すことによりVR画像データを作成する。このとき、ROI情報記憶部6に記憶されている3DROI18の中心点Pの座標、3DROI18の範囲を示す情報(形状及び大きさ)を読み込む。そして、VR画像データ作成部10は、ボリュームデータのうち3DROI18が占める領域を除くとともに、投影方向(画面の奥行き方向)の視点から見て、3DROI18の前後の領域を除く領域を対象としてボリュームレンダリングを行う。これにより、3DROI18が占める領域、及び投影方向(画面の奥行き方向)における3DROI18の前後の領域を含まないVR画像データが作成されることになる。
In step S07, the VR image
さらにステップS07では、MIP画像データ作成部11は、ボリュームデータ記憶部5からボリュームデータを読み込み、ROI情報記憶部6から3DROI18の中心点P
の座標、及び3DROI18の範囲を示す情報(形状及び大きさ)を読み込み、3DROI18内を対象としてMIP処理を施すことによりMIP画像データを作成する。具体的には、図3に示すように、MIP画像データ作成部11は、3DROI18内を対象としてMIP処理を施すことによりMIP画像データを作成する。なお、MIP処理の代わりに、MinIP処理、MPR処理、又は厚み付きMPR処理を行っても良い。
Further, in step S07, the MIP image
Are read and information (shape and size) indicating the range of
(ステップS08)
ステップS08では、表示制御部12が、2DROI画像データに基づく2DROI画像、VR画像データに基づくVR画像、及びMIP画像データに基づくMIP画像を重畳させて表示部13に表示させる。これにより、表示部13の画面には、VR画像上にMIP画像が重ねられて表示され、さらに2DROIマーカが表示される。
(Step S08)
In step S08, the
重畳表示された画像について図5を参照して説明する。図5は、この発明の第1の実施形態に係る画像処理装置によって重畳表示された画像を示す図である。表示部13の画面13a上には、VR画像21、MIP画像22、及び2DROI画像23が重畳されて表示されている。VR画像21には骨と造影剤が注入された血管とが表されており、MIP画像22には造影剤が注入された血管のうち3DROI18内に存在する血管が表されている。3DROI18内に存在する血管の手前側には骨が存在するが、3DROI18と重なる範囲については、ボリュームレンダリングが行われていないため、3DROI18内に存在する血管の手前側に存在する骨については描画されることはない。
The superimposed image will be described with reference to FIG. FIG. 5 is a diagram showing an image superimposed and displayed by the image processing apparatus according to the first embodiment of the present invention. On the
以上のように、3DROI18に含まれる領域についてはMIP処理が施されて、詳細な診断に適したMIP画像22が表示され、3DROI18の前後に存在する領域についてはボリュームレンダリングが施されないため、3DROI18内に存在する病変部の詳細な画像を観察することが可能となる。また、病変部の周辺組織についてはVR画像21として表示されるため、病変部と周辺組織との位置関係を容易に把握することが可能となる。これにより、病変部の詳細な診断を行いつつ、病変部と周辺組織との位置関係を容易に把握することが可能となる。
As described above, the MIP process is performed on the area included in the
なお、操作者が表示部13の画面上で2DROIを移動させたり、VR画像を回転させたりする場合は、以下に説明するステップS09の処理及びステップS10の処理が実行される。
Note that when the operator moves the 2DROI on the screen of the
(ステップS09)
ステップS09では、操作者が表示部13に表示されている2DROI画像23をマウス(入力部2)でドラッグして2DROI画像23を移動させる。入力解析部3は、その移動に伴って、2DROIの新たな中心の座標を求める(ステップS04)。そして、上述したようにステップS05からステップS08までの処理が実行されて、異なる関心領域のMIP画像が表示部13に表示されることになる。
(Step S09)
In step S09, the operator drags the
(ステップS10)
ステップS10では、操作者が表示部13に表示されているVR画像21をマウス(入力部2)でドラッグしてVR画像を回転させる。入力解析部3は、3DROI18の中心点Pを中心として、操作者によって指定された回転量だけ、VR画像が回転するように回転行列を求め、表示条件記憶部8に記憶させる。
(Step S10)
In step S10, the operator rotates the
VR画像データ作成部10は、この回転行列に従ってボリュームデータに対してボリュームレンダリングを施すことにより、指定された回転量だけ回転させられたVR画像データを作成する(ステップS07)。そして、上述したように、ステップS07にて2DROI画像データ及びMIP画像データが作成され、ステップS08にて合成されて表示部12に表示される。
The VR image
なお、表示部13の画面13a上の2DROIの位置、形状及び大きさについては変更されないため、新たに3DROIが作成され、その範囲についてMIP処理が施されてMIP画像データが作成される。それ以外の領域については、ボリュームレンダリングが施されてVR画像データが作成される。
Since the position, shape, and size of the 2DROI on the
上記のステップS09とステップS10における処理は、操作者によって操作が行われた場合のみ実行される。従って、この実施形態においては、ステップS09とステップS10における処理を実行しなくても、この発明の効果を奏することが可能である。 The processes in steps S09 and S10 are executed only when an operation is performed by the operator. Therefore, in this embodiment, it is possible to achieve the effects of the present invention without executing the processes in steps S09 and S10.
また、VR画像データ作成部10が実行するボリュームレンダリングは、平行投影法によるボリュームレンダリングであっても良く、等角投影法によるボリュームレンダリングであっても良い。さらに、3DROI18以外の領域においても、MIP画像データや厚み付きMPR画像データを作成しても良い。
The volume rendering executed by the VR image
(変形例)
次に、第1の実施形態に係る画像処理装置の変形例について説明する。操作者が入力部2を用いて表示部13の画面13a上の点を指定した場合に、その指定された点の位置に存在する診断部位に応じて、デフォルトの2DROIの形状及び大きさを決定しても良い。例えば、医用画像診断装置で収集したボリュームデータに、被検体のどの範囲をスキャンしたか示す情報(頭部、胸部、腹部、又は全身など)を付帯情報として予め付加しておく。そして、ボリュームデータの各領域(各クラスタ)と診断部位とを対応付けたクラスタリングデータを予め作成して記憶しておく。例えば、心臓や腎臓などを含む範囲で腹部をスキャンした場合、得られたボリュームデータの各領域(クラスタ)と診断部位(心臓や腎臓など)とを対応付けておく。さらに、各診断部位と2DROIの形状及び大きさとを対応付けておく。
(Modification)
Next, a modification of the image processing apparatus according to the first embodiment will be described. When the operator designates a point on the
ROI情報算出部4は、操作者によって指定された画面13a上の点が、ボリュームデータのどの領域(クラスタ)に属するかを判断し、クラスタリングデータに基づいて、その領域(クラスタ)に対応する診断部位(例えば心臓や腎臓など)を決定する。そして、ROI情報算出部4は、その診断部位(心臓や腎臓など)に対応付けられている2DROIをデフォルトの2DROIの形状及び大きさとする。例えば、腹部で大動脈が指定された場合、大動脈用に登録されている横幅約5cm、縦幅約10cmの楕円状の2DROIをデフォルトの2DROIとする。なお、デフォルトの2DROIの形状及び大きさは、操作者によって新たに登録できるようにしても良い。
The ROI information calculation unit 4 determines to which region (cluster) of the volume data the point on the
また、症状に合わせて3DROIの情報(形状及び大きさ)を予め設定しておき、その3DROIをデフォルトの3DROIとして用いても良い。 Also, 3DROI information (shape and size) may be set in advance according to the symptom, and the 3DROI may be used as the default 3DROI.
なお、診断部位や症状に合わせたデフォルトの2DROIや3DROIを特定するための情報を表示部13に表示させて、操作者にそれらを選択させるようにしても良い。
Information for specifying the default 2DROI or 3DROI according to the diagnosis site or symptom may be displayed on the
[第2の実施の形態]
次に、この発明の第2の実施形態に係る画像処理装置の構成について図7を参照して説明する。図7は、この発明の第2の実施形態に係る画像処理装置の構成を示すブロック図である。
[Second Embodiment]
Next, the configuration of an image processing apparatus according to the second embodiment of the present invention will be described with reference to FIG. FIG. 7 is a block diagram showing a configuration of an image processing apparatus according to the second embodiment of the present invention.
この第2の実施形態に係る画像処理装置30は、ROI情報算出部4の代わりにオブジェクトデータ作成部31を備えている点が第1の実施形態に係る画像処理装置1と異なる。そして、オブジェクトデータ作成部31にて作成されたオブジェクトデータは、オブジェクトデータ記憶部32に記憶される。また、入力解析部3は、第1の実施形態における処理に加えて、オブジェクトデータ作成の条件を作成する。オブジェクトデータ作成部31及びオブジェクトデータ記憶部32以外の構成については、第1の実施形態に係る画像処理装備1の構成と同じであり、同じ処理を実行することが可能である。
The
第2の実施形態に係る画像処理装置30は、3DROIの範囲の決定手法が第1の実施形態に係る画像処理装置1と異なり、VR画像にMIP画像やMPR画像などを重畳させて表示部13に表示される点は、第1の実施形態に係る画像処理装置1と同じである。
The
入力部2にてCT値の閾値が入力されると、入力解析部3は、その閾値以上のCT値を持つボクセルを「1」、その閾値未満のCT値を持つボクセルを「0」とするオブジェクトデータ作成条件を作成する。オブジェクトデータ作成条件は、オブジェクトデータ作成部31に出力される。
When the threshold value of the CT value is input by the input unit 2, the input analysis unit 3 sets “1” to a voxel having a CT value equal to or greater than the threshold and “0” to a voxel having a CT value less than the threshold. Create object data creation conditions. The object data creation condition is output to the object
また、入力部2にて3DROIについての膨張幅が入力されると、入力解析部3は、入力された幅を3DROIの膨張幅とし、その膨張幅をROI情報記憶部6に出力して記憶させる。
Also, when the expansion width for 3DROI is input at the input unit 2, the input analysis unit 3 sets the input width as the expansion width of 3DROI, and outputs the expansion width to the ROI
オブジェクトデータ作成部31は、入力解析部3から送られるオブジェクトデータ作成条件と、ボリュームデータ記憶部5に記憶されているボリュームデータとに基づいて、オブジェクトデータを作成する。例えば、オブジェクトデータ作成部31は、ボリュームデータについて、設定された閾値以上のCT値を持つボクセルを「1」とし、その閾値未満のCT値を持つボクセルを「0」としてオブジェクトデータを作成する。オブジェクトデータはオブジェクトデータ記憶部32に出力されて記憶される。
The object
造影剤が注入された血管の場合、CT値がおよそ200以上を閾値の範囲とすることにより、造影剤が注入された血管領域を表すオブジェクトデータを作成することができる。但し、血管領域のCT値の範囲には骨領域のCT値の範囲が重なるため、骨領域をMIP処理の対象領域としないように、オブジェクトデータから骨領域を削除して血管領域のみが抽出されたオブジェクトデータを作成する。血管領域のオブジェクトデータを抽出する方法は、既知の方法によって行われる。 In the case of a blood vessel into which a contrast agent has been injected, object data representing a blood vessel region into which a contrast agent has been injected can be created by setting a CT value of approximately 200 or more as a threshold range. However, since the CT value range of the bone region overlaps the CT value range of the blood vessel region, only the blood vessel region is extracted by deleting the bone region from the object data so that the bone region is not the target region of the MIP process. Create the object data. A method for extracting object data of a blood vessel region is performed by a known method.
2DROI画像データ作成部9は、オブジェクトデータ記憶部32に記憶されているオブジェクトデータと、ROI情報記憶部6に記憶されている膨張幅とを読み込み、オブジェクトデータをその膨張幅分だけ膨張させた範囲を、投影方向(画面に向かう方向)に投影し、得られた輪郭を2DROI画像データとする。例えば、図8の模式図に示すように、オブジェクトデータが占める範囲(血管16に相当する範囲)を膨張幅分だけ膨張させた範囲を3DROI33とし、その範囲を投影方向(画面13aに向かう方向)に投影して得られた輪郭34を2DROI画像とする。
The 2DROI image data creation unit 9 reads the object data stored in the object
VR画像データ作成部10は、ボリュームデータ記憶部5からボリュームデータを読み込み、図8の模式図に示すように、3DROI33を投影方向(画面の奥行き方向)に投影した領域についてはボリュームレンダリングを行わず、それ以外の領域に対してボリュームレンダリングを施す。これにより、3DROI33が占める領域、及び投影方向(画面の奥行き方向)における3DROI33の前後の領域を含まないVR画像データが作成されることになる。
The VR image
MIP画像データ作成部11は、ボリュームデータ記憶部5からボリュームデータを読み込み、オブジェクトデータ記憶部32からオブジェクトデータを読み込み、さらにROI情報記憶部6から膨張幅を読み込んで、オブジェクトデータをその膨張幅分だけ膨張させた範囲を3DROI33として、その3DROI33を対象としてMIP処理を施すことによりMIP画像データを作成する。
The MIP image
(作用)
次に、この発明の第2の実施形態に係る画像処理装置の動作(画像処理方法)について図9を参照して説明する。図9は、この発明の第2の実施形態に係る画像処理装置の動作を順番に示すフローチャートである。
(Function)
Next, the operation (image processing method) of the image processing apparatus according to the second embodiment of the present invention will be described with reference to FIG. FIG. 9 is a flowchart showing the operations of the image processing apparatus according to the second embodiment of the present invention in order.
第1の実施形態と同様に、医用画像診断装置にて被検体のボリュームデータを予め収集して、そのボリュームデータをボリュームデータ記憶部5に記憶しておく。
Similarly to the first embodiment, the volume data of the subject is collected in advance by the medical image diagnostic apparatus and the volume data is stored in the volume
(ステップS20)
まず、ステップS20では、操作者が、造影剤が注入された血管及び骨のCT値の範囲(およそ200以上)が不透明となるようにオパシティ(不透明度)を設定する。
(Step S20)
First, in step S20, the operator sets the opacity (opacity) so that the CT value range (approximately 200 or more) of the blood vessel and bone into which the contrast medium has been injected becomes opaque.
(ステップS21)
ステップS21では、VR画像データ作成部10がボリュームデータ記憶部5からボリュームデータを読み込み、そのボリュームデータに対してボリュームレンダリングを施すことによりVR画像データを作成する。このとき、VR画像データ作成部10は、ステップS20にて設定されたオパシティ(不透明度)でボリュームレンダリングを施し、VR画像データを作成する。このVR画像データは表示制御部12に出力され、表示制御部12はそのVR画像データに基づく画像を表示部13に表示させる。
(Step S21)
In step S21, the VR image
(ステップS22)
ステップS22では、入力部2にてCT値の閾値が入力され、入力解析部3が入力された閾値以上のCT値を持つボクセルを「1」、その閾値未満のCT値を持つボクセルを「0」とするオブジェクトデータ作成条件を作成する。オブジェクトデータ作成条件はオブジェクトデータ作成部31に出力される。
(Step S22)
In step S22, the threshold value of the CT value is input by the input unit 2, and the voxel having a CT value equal to or greater than the input threshold value is input by the input analysis unit 3 is “1”, and the voxel having a CT value less than the threshold value is “0”. Is created as an object data creation condition. The object data creation conditions are output to the object
(ステップS23)
ステップS23では、オブジェクトデータ作成部31がボリュームデータ記憶部5からボリュームデータを読み込み、入力解析部3から出力されたオブジェクトデータ作成条件に従って、オブジェクトデータを作成する。具体的には、オブジェクトデータ作成部31は、読み込んだボリュームデータについて、設定された閾値以上のCT値を持つボクセルを「1」とし、その閾値未満のCT値を持つボクセルを「0」としたオブジェクトデータを作成する。そして、オブジェクトデータ作成部31は、オブジェクトデータをオブジェクトデータ記憶部32に出力して記憶させる。
(Step S23)
In step S23, the object
(ステップS24)
ステップS24では、操作者が入力部2を用いて3DROIについての膨張幅を入力する。入力解析部3は入力された幅を3DROIの膨張幅とし、その膨張幅をROI情報記憶部6に出力して記憶させる。なお、3DROIの膨張幅の初期値を予め設定してROI情報記憶部6に記憶させておいても良い。膨張幅を予め設定した場合は、操作者は膨張幅を入力する必要がないため、ステップS24での処理は操作者によって膨張幅が入力されたときのみ実行される。
(Step S24)
In step S <b> 24, the operator inputs the expansion width for the 3DROI using the input unit 2. The input analysis unit 3 sets the input width as a 3DROI expansion width, and outputs the expansion width to the ROI
(ステップS25)
ステップS25では、MIP画像データ作成部11が、オブジェクトデータ記憶部22からオブジェクトデータを読み込み、ROI情報記憶部6から膨張幅を読み込んで、オブジェクトデータをその膨張幅分だけ膨張させた範囲を3DROIとする。例えば、図8の模式図に示すように、オブジェクトデータが占める範囲(血管16に相当する範囲)を膨張幅分だけ膨張させた範囲を3DROI33とする。
(Step S25)
In step S25, the MIP image
(ステップS26)
ステップS26では、MIP画像データ作成部11は、ボリュームデータ記憶部5からボリュームデータを読み込み、そのボリュームデータに対して3DROI33の範囲を対象としてMIP処理を施すことによりMIP画像データを作成する。
(Step S26)
In step S26, the MIP image
また、ステップS26では、VR画像データ作成部10は、ボリュームデータ記憶部5からボリュームデータを読み込み、そのボリュームデータに対してボリュームレンダリングを施すことによりVR画像データを作成する。このとき、図8の模式図に示すように、3DROI33を投影方向(画面の奥行き方向)に投影した領域についてはボリュームレンダリングを行わず、それ以外の領域に対してボリュームレンダリングを施す。これにより、3DROI33が占める領域、及び投影方向(画面の奥行き方向)における3DROI33の前後の領域を含まないVR画像データが作成されることになる。
In step S26, the VR image
また、2DROI画像データ作成部9は、オブジェクトデータ記憶部32に記憶されているオブジェクトデータを読み込み、さらにROI情報記憶部6から膨張幅を読み込んで、オブジェクトデータをその膨張幅分だけ膨張させた範囲(3DROI33が占める範囲)を、投影方向(画面に向かう方向)に投影して得られた輪郭を2DROI画像とする。例えば、図8に示すように、3DROI33を投影方向(画面13aに向かう方向)に投影した輪郭34を2DROI画像とする。
The 2DROI image data creation unit 9 reads the object data stored in the object
(ステップS27)
ステップS27では、表示制御部12が、2DROI画像データに基づく2DROI画像、VR画像データに基づくVR画像、及びMIP画像データに基づくMIP画像を重畳させて表示部13に表示される。これにより、表示部13の画面には、VR画像上にMIP画像が重ねられて表示され、さらに2DROIマーカが表示される。
(Step S27)
In step S27, the
重畳表示された画像について図10を参照して説明する。図10は、この発明の第2の実施形態に係る画像処理装置によって重畳表示された画像を示す図である。表示部13の画面13a上には、VR画像35、MIP画像36、及び2DROI画像37が重畳されて表示されている。VR画像35には骨と造影剤が注入された血管とが表されており、MIP画像36には造影剤が注入された血管のうち、3DROI33内に存在する血管が表されている。3DROI33内に存在する血管の手前側には骨が存在するが、3DROI33と重なる範囲については、ボリュームレンダリングが行われていないため、3DROI33内に存在する血管の手前側に存在する骨については描画されない。
The superimposed image will be described with reference to FIG. FIG. 10 is a diagram showing an image superimposed and displayed by the image processing apparatus according to the second embodiment of the present invention. On the
以上のように、3DROI33に含まれる領域についてはMIP処理が施されて、詳細な診断に適したMIP画像36が表示され、3DROI33の前後に存在する領域についてはボリュームレンダリングが施されないため、3DROI33内に存在する病変部の詳細な画像を観察することが可能となる。また、病変部の周辺組織についてはVR画像35として表示されるため、病変部と周辺組織との位置関係を容易に把握することが可能となる。これにより、病変部の詳細な診断を行いつつ、病変部と周辺組織との位置関係を容易に把握することが可能となる。
As described above, the MIP process is performed on the area included in the
なお、VR画像を回転させる場合は、以下に説明するステップS28の処理が実行される。 In the case of rotating the VR image, the process of step S28 described below is executed.
(ステップS28)
ステップS28では、操作者が表示部13に表示されているVR画像をマウス(入力部2)でドラッグしてVR画像を回転させる。入力解析部3は、所定の回転中心点を中心として、操作者によって指定された回転量だけ、VR画像が回転するように回転行列を求め、表示条件記憶部8に記憶させる。
(Step S28)
In step S28, the operator rotates the VR image by dragging the VR image displayed on the
VR画像データ作成部10は、この回転行列に従ってボリュームデータに対してボリュームレンダリングを施すことにより、指定された回転量だけ回転させられたVR画像データを作成する(ステップS26)。そして、上述したように、ステップS26にて2DROI画像データ、MIP画像データ、及びVR画像データが作成され、ステップS27にて合成されて表示部12に表示される。
The VR image
1 画像処理装置
2 入力部
3 入力解析部
4 ROI情報算出部
5 ボリュームデータ記憶部
6 ROI情報記憶部
7 VR条件記憶部
8 表示条件記憶部
9 2DROI画像データ作成部
10 VR画像データ作成部
11 MIP画像データ作成部
12 表示制御部
13 表示部
31 オブジェクトデータ作成部
32 オブジェクトデータ記憶部
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Input part 3 Input analysis part 4 ROI
Claims (14)
前記ボリュームデータのうち前記所望の3次元関心領域、及び前記所定方向の視点から見て前記所望の3次元関心領域の前後の領域、以外の領域を、前記投影面に投影することで第2の3次元画像データを作成する第2の画像作成手段と、
前記第1の3次元画像データに基づく画像と前記第2の3次元画像データに基づく画像とを重畳させて表示手段に表示させる表示制御手段と、
を有することを特徴とする画像処理装置。 A first image for generating first three-dimensional image data by projecting a desired three-dimensional region of interest onto a projection plane viewed from a viewpoint in a predetermined direction with respect to the volume data collected by the medical image diagnostic apparatus. Creating means;
A region other than the desired three-dimensional region of interest and the region before and after the desired three-dimensional region of interest when viewed from the viewpoint in the predetermined direction in the volume data is projected onto the projection plane, thereby generating a second A second image creation means for creating three-dimensional image data;
Display control means for superimposing an image based on the first three-dimensional image data and an image based on the second three-dimensional image data on a display means;
An image processing apparatus comprising:
前記第1の画像作成手段は、
前記2次元のROIマーカが占める範囲を前記所定方向に投影させ、前記ボリュームデータと交わる不透明な組織を基準として3次元関心領域の範囲を求め、前記3次元関心領域を前記投影面に投影することで第1の3次元画像データを作成することを特徴とする請求項1から請求項4のいずれかに記載の画像処理装置。 The display control means causes the display means to display an image based on the three-dimensional image data obtained by performing volume rendering on the entire range of the volume data, and further from the input means to the display means. Accepting designation of an arbitrary point on the screen, and displaying a two-dimensional ROI marker centered on the designated point on the screen of the display means,
The first image creating means includes
Projecting a range occupied by the two-dimensional ROI marker in the predetermined direction, obtaining a range of a three-dimensional region of interest on the basis of an opaque tissue intersecting with the volume data, and projecting the three-dimensional region of interest onto the projection plane 5. The image processing apparatus according to claim 1, wherein the first three-dimensional image data is created.
医用画像診断装置にて収集されたボリュームデータに対して、所望の3次元関心領域を所定方向の視点から見た投影面に投影することで第1の3次元画像データを作成する第1の画像作成機能と、
前記ボリュームデータのうち前記所望の3次元関心領域を除くとともに、前記所定方向の視点から見て、前記所望の3次元関心領域の前後の領域を除く領域を、前記投影面に投影することで第2の3次元画像データを作成する第2の画像作成機能と、
前記第1の3次元画像データに基づく画像と前記第2の3次元画像データに基づく画像とを重畳させて表示手段に表示させる表示制御機能と、
を実行させることを特徴とする画像処理プログラム。 On the computer,
A first image for generating first three-dimensional image data by projecting a desired three-dimensional region of interest onto a projection plane viewed from a viewpoint in a predetermined direction with respect to the volume data collected by the medical image diagnostic apparatus. Create function,
By excluding the desired three-dimensional region of interest from the volume data and projecting a region excluding the region before and after the desired three-dimensional region of interest from the viewpoint in the predetermined direction, A second image creation function for creating two three-dimensional image data;
A display control function for superimposing an image based on the first three-dimensional image data and an image based on the second three-dimensional image data on a display means;
An image processing program for executing
前記ボリュームデータのうち前記所望の3次元関心領域を除くとともに、前記所定方向の視点から見て、前記所望の3次元関心領域の前後の領域を除く領域を、前記投影面に投影することで第2の3次元画像データを作成する第2の画像作成ステップと、
前記第1の3次元画像データに基づく画像と前記第2の3次元画像データに基づく画像とを重畳させて表示手段に表示させる表示ステップと、
を含むことを特徴とする画像処理方法。 A first image for generating first three-dimensional image data by projecting a desired three-dimensional region of interest onto a projection plane viewed from a viewpoint in a predetermined direction with respect to the volume data collected by the medical image diagnostic apparatus. Creation steps,
By excluding the desired three-dimensional region of interest from the volume data and projecting a region excluding the region before and after the desired three-dimensional region of interest from the viewpoint in the predetermined direction, A second image creation step for creating two three-dimensional image data;
A display step of superimposing an image based on the first three-dimensional image data and an image based on the second three-dimensional image data on a display means;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005333211A JP4786307B2 (en) | 2005-11-17 | 2005-11-17 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005333211A JP4786307B2 (en) | 2005-11-17 | 2005-11-17 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007135843A true JP2007135843A (en) | 2007-06-07 |
JP4786307B2 JP4786307B2 (en) | 2011-10-05 |
Family
ID=38199409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005333211A Active JP4786307B2 (en) | 2005-11-17 | 2005-11-17 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4786307B2 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009106547A (en) * | 2007-10-30 | 2009-05-21 | Toshiba Corp | X-ray image diagnostic apparatus |
JP2009268735A (en) * | 2008-05-08 | 2009-11-19 | Toshiba Corp | Medical image processor |
JP2010200821A (en) * | 2009-02-27 | 2010-09-16 | Toshiba Corp | Ultrasonic diagnostic apparatus and image data generator |
JP2010274106A (en) * | 2009-04-28 | 2010-12-09 | Toshiba Corp | Image displaying device and diagnostic x-ray scanner |
JP2012161460A (en) * | 2011-02-07 | 2012-08-30 | Fujifilm Corp | Image processor, image processing method and image processing program |
JP2013248534A (en) * | 2013-09-17 | 2013-12-12 | Fujifilm Corp | Image processor, image processing method and image processing program |
JP2014010579A (en) * | 2012-06-28 | 2014-01-20 | Fujitsu Ltd | Visualizing program, visualizing method, and visualizing device |
US9123163B2 (en) | 2009-09-30 | 2015-09-01 | Fujifilm Corporation | Medical image display apparatus, method and program |
JP2016043066A (en) * | 2014-08-22 | 2016-04-04 | 株式会社リガク | Image processor, image processing method and image processing program |
US9478021B2 (en) | 2011-06-01 | 2016-10-25 | Hitachi, Ltd. | Image display device, image display system, and image display method |
JP2017080158A (en) * | 2015-10-29 | 2017-05-18 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
WO2018043594A1 (en) * | 2016-08-30 | 2018-03-08 | キヤノン株式会社 | Image processing device, image processing method, image processing program, and impage processing system |
US20210281121A1 (en) * | 2020-03-06 | 2021-09-09 | Honda Motor Co., Ltd. | Non-contact charging system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0916814A (en) * | 1995-06-30 | 1997-01-17 | Shimadzu Corp | Medical image display device |
JP2000090283A (en) * | 1998-09-09 | 2000-03-31 | Toshiba Iyo System Engineering Kk | Volume rendering image display method, image processor and storage medium storing program for the same method |
JP2005510326A (en) * | 2001-11-21 | 2005-04-21 | ウェイク フォーレスト ユニバーシティ ヘルス サイエンシーズ | Image report creation method and system |
JP2006055213A (en) * | 2004-08-17 | 2006-03-02 | Konica Minolta Medical & Graphic Inc | Image processor and program |
-
2005
- 2005-11-17 JP JP2005333211A patent/JP4786307B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0916814A (en) * | 1995-06-30 | 1997-01-17 | Shimadzu Corp | Medical image display device |
JP2000090283A (en) * | 1998-09-09 | 2000-03-31 | Toshiba Iyo System Engineering Kk | Volume rendering image display method, image processor and storage medium storing program for the same method |
JP2005510326A (en) * | 2001-11-21 | 2005-04-21 | ウェイク フォーレスト ユニバーシティ ヘルス サイエンシーズ | Image report creation method and system |
JP2006055213A (en) * | 2004-08-17 | 2006-03-02 | Konica Minolta Medical & Graphic Inc | Image processor and program |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009106547A (en) * | 2007-10-30 | 2009-05-21 | Toshiba Corp | X-ray image diagnostic apparatus |
JP2009268735A (en) * | 2008-05-08 | 2009-11-19 | Toshiba Corp | Medical image processor |
JP2010200821A (en) * | 2009-02-27 | 2010-09-16 | Toshiba Corp | Ultrasonic diagnostic apparatus and image data generator |
JP2010274106A (en) * | 2009-04-28 | 2010-12-09 | Toshiba Corp | Image displaying device and diagnostic x-ray scanner |
US9123163B2 (en) | 2009-09-30 | 2015-09-01 | Fujifilm Corporation | Medical image display apparatus, method and program |
US9892566B2 (en) | 2011-02-07 | 2018-02-13 | Fujifilm Corporation | Image processing apparatus, method and program |
JP2012161460A (en) * | 2011-02-07 | 2012-08-30 | Fujifilm Corp | Image processor, image processing method and image processing program |
US9478021B2 (en) | 2011-06-01 | 2016-10-25 | Hitachi, Ltd. | Image display device, image display system, and image display method |
JP2014010579A (en) * | 2012-06-28 | 2014-01-20 | Fujitsu Ltd | Visualizing program, visualizing method, and visualizing device |
JP2013248534A (en) * | 2013-09-17 | 2013-12-12 | Fujifilm Corp | Image processor, image processing method and image processing program |
JP2016043066A (en) * | 2014-08-22 | 2016-04-04 | 株式会社リガク | Image processor, image processing method and image processing program |
JP2017080158A (en) * | 2015-10-29 | 2017-05-18 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
WO2018043594A1 (en) * | 2016-08-30 | 2018-03-08 | キヤノン株式会社 | Image processing device, image processing method, image processing program, and impage processing system |
CN109643441A (en) * | 2016-08-30 | 2019-04-16 | 佳能株式会社 | Image processing apparatus, image processing method, image processing program, image processing system |
JPWO2018043594A1 (en) * | 2016-08-30 | 2019-06-24 | キヤノン株式会社 | Image processing apparatus, image processing method, image processing program, image processing system |
US10997775B2 (en) | 2016-08-30 | 2021-05-04 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and image processing system |
JP7123798B2 (en) | 2016-08-30 | 2022-08-23 | キヤノン株式会社 | Image processing device, image processing method, image processing program, image processing system |
US11494972B2 (en) | 2016-08-30 | 2022-11-08 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and image processing system |
US20210281121A1 (en) * | 2020-03-06 | 2021-09-09 | Honda Motor Co., Ltd. | Non-contact charging system |
Also Published As
Publication number | Publication date |
---|---|
JP4786307B2 (en) | 2011-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4786307B2 (en) | Image processing device | |
US11547499B2 (en) | Dynamic and interactive navigation in a surgical environment | |
JP4676021B2 (en) | Diagnosis support apparatus, diagnosis support program, and diagnosis support method | |
US7991108B2 (en) | Medical image processing apparatus, ultrasound imaging apparatus, X-ray CT (computed tomography) apparatus, and method of processing medical image | |
JP4653542B2 (en) | Image processing device | |
JP5224451B2 (en) | Projection image creation apparatus, method and program | |
JP5417609B2 (en) | Medical diagnostic imaging equipment | |
JP6051158B2 (en) | Cutting simulation apparatus and cutting simulation program | |
JP2007044121A (en) | Medical image display method and apparatus | |
US11646111B2 (en) | Medical image processing apparatus, medical image processing method and medical image processing system | |
JP4350226B2 (en) | 3D image processing device | |
JP4492645B2 (en) | Medical image display apparatus and program | |
JP2007275141A (en) | Image display device | |
JP2009268735A (en) | Medical image processor | |
WO2011040015A1 (en) | Device and method for displaying medical image and program | |
JPH0683940A (en) | Image display device | |
JP2008119252A (en) | Medical image generating apparatus, method, and program | |
JP2009106634A (en) | Medical image display device | |
US8111890B2 (en) | Medical image generating device, method and program | |
JP4526114B2 (en) | Luminal organ resection simulation method | |
JP7172086B2 (en) | Surgery simulation device and surgery simulation program | |
JP5484425B2 (en) | Ophthalmic apparatus, control method therefor, and computer program | |
JP2008206965A (en) | Medical image forming device, method and program | |
US11379976B2 (en) | Medical image processing apparatus, medical image processing method, and system for tissue visualization | |
EP4258216A1 (en) | Method for displaying a 3d model of a patient |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081117 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20090213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110621 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110713 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4786307 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140722 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |