JPH0620065A - Picture diagnosing device - Google Patents
Picture diagnosing deviceInfo
- Publication number
- JPH0620065A JPH0620065A JP17810492A JP17810492A JPH0620065A JP H0620065 A JPH0620065 A JP H0620065A JP 17810492 A JP17810492 A JP 17810492A JP 17810492 A JP17810492 A JP 17810492A JP H0620065 A JPH0620065 A JP H0620065A
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- shadow
- extracted
- pictures
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000004185 liver Anatomy 0.000 abstract description 16
- 210000002784 stomach Anatomy 0.000 abstract description 15
- 210000001835 viscera Anatomy 0.000 abstract 3
- 210000000056 organ Anatomy 0.000 description 16
- 238000000605 extraction Methods 0.000 description 6
- 210000003734 kidney Anatomy 0.000 description 6
- 238000010521 absorption reaction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000000034 method Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、画像診断装置に係り、
特に、複数のスライス断面画像情報から三次元画像を構
成し、その際に陰影を施すようにする画像診断装置に関
する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image diagnostic apparatus,
In particular, the present invention relates to an image diagnostic apparatus that constructs a three-dimensional image from a plurality of slice cross-sectional image information and shades it at that time.
【0002】[0002]
【従来の技術】この種の画像診断装置においては、ま
ず、被検体の例えば体軸方向に等間隔に沿った複数のス
ライス断面画像を構成する。次に、このスライス断面画
像情報から例えば胃、肝臓、腎臓等の臓器情報をたとえ
ば二値化抽出により抽出し、このように抽出された二値
化情報から前記胃、肝臓、腎臓等の三次元画像を構成す
るようにしている。2. Description of the Related Art In this type of image diagnostic apparatus, first, a plurality of slice cross-sectional images of a subject are formed at equal intervals, for example, in the body axis direction. Next, from this slice cross-sectional image information, for example, the organ information of the stomach, liver, kidney, etc. is extracted by, for example, binarization extraction, and from the binarized information thus extracted, the stomach, liver, kidney, etc., three-dimensional. I am trying to compose an image.
【0003】そして、この三次元画像の構成の際に、前
記胃、肝臓、腎臓等の表面に陰影を施す処理が同時にな
され、この陰影処理は、主として、前記三次元画像に対
する視点を定め、この視点までの距離を計測し、その計
測した距離に対応した輝度を定めることにより行なわれ
ていた。Then, in constructing this three-dimensional image, a process for shading the surfaces of the stomach, liver, kidneys, etc. is performed at the same time, and this shading process mainly determines a viewpoint for the three-dimensional image. This is done by measuring the distance to the viewpoint and determining the brightness corresponding to the measured distance.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、このよ
うに構成された画像診断装置は、主として視点までの距
離の情報に基づく陰影処理を行なっていたため、胃、肝
臓、腎臓等のそれぞれの主表面の材質あるいは組織の違
いが表れず、それぞれの胃、肝臓、腎臓等が全て同じ材
質あるいは組織であるかのように表示されていた。However, since the image diagnostic apparatus constructed as described above mainly performs the shadow processing based on the information on the distance to the viewpoint, the main surface of each of the stomach, the liver, the kidney, etc. is processed. There was no difference in material or tissue, and each stomach, liver, kidney, etc. were all displayed as if they were of the same material or tissue.
【0005】このため、臓器の形あるいは位置に基づい
てのみ、これは胃あるいは肝臓であるというような判断
をしていた。For this reason, it has been judged that this is the stomach or the liver only based on the shape or position of the organ.
【0006】このことから、陰影処理においても胃は胃
らしく、また肝臓は肝臓らしく施すようにし、これによ
り、胃、肝臓、腎臓等を明確に区別できることが要望さ
れていた。[0006] From this, it has been demanded that the stomach should be treated like a stomach and the liver should be treated like a liver even in the shadow treatment so that the stomach, the liver, the kidney and the like can be clearly distinguished.
【0007】それ故、本発明はこのような事情に基づい
てなされたものであり、その目的とするところのもの
は、それぞれの臓器を明確に区別できるように陰影を施
すことのできる画像診断装置を提供することにある。Therefore, the present invention has been made based on such a situation, and the object of the present invention is an image diagnostic apparatus capable of providing a shadow so that respective organs can be clearly distinguished. To provide.
【0008】[0008]
【課題を解決するための手段】このような目的を達成す
るために、本発明は、基本的には、複数のスライス断面
画像情報から三次元画像を構成し、その際に陰影を施す
ようにする画像診断装置において、前記陰影の処理に前
記各スライス断面画像情報の濃度値に対応する情報を含
ませるようにしたことを特徴とするものである。In order to achieve such an object, the present invention basically constructs a three-dimensional image from a plurality of slice cross-sectional image information, and applies a shadow at that time. The image diagnostic apparatus according to the present invention is characterized in that the shading processing includes information corresponding to a density value of each slice slice image information.
【0009】[0009]
【作用】このように構成した画像診断装置は、特に、各
スライス断面画像情報の濃度値、たとえばCT値を対応
する情報を加味して陰影処理を行なうようにしたもので
ある。In the image diagnostic apparatus thus constructed, the shading process is carried out in consideration of the density value of each slice cross-sectional image information, for example, the CT value.
【0010】ここで、CT値は、たとえばX線CT装置
の場合にはX線吸収の相対値であり、臓器の種類により
異なった値をとるものである。Here, the CT value is a relative value of X-ray absorption in the case of an X-ray CT apparatus, for example, and takes different values depending on the type of organ.
【0011】このため、陰影を施す際にこのCT値を加
味することにより、臓器の種類に応じた陰影を施すこと
ができるようになる。Therefore, by adding the CT value to the shadow, it is possible to apply the shadow according to the type of organ.
【0012】したがって、それぞれの臓器を明確に区別
できるように陰影を施すことができるようになる。Therefore, it becomes possible to apply shading so that the respective organs can be clearly distinguished.
【0013】[0013]
【実施例】図1は、本発明による画像診断装置の一実施
例を示す説明図である。DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is an explanatory diagram showing an embodiment of an image diagnostic apparatus according to the present invention.
【0014】同図は、画像診断装置に備えられる画像処
理装置内でマイクロコンピュータにより処理されるステ
ップ図であり、次の7段階のステップからなっているも
のである。FIG. 1 is a step diagram of processing by a microcomputer in the image processing apparatus provided in the image diagnostic apparatus, which is composed of the following seven steps.
【0015】ステップ(S)1.たとえば被検体の体軸
方向に沿って等間隔にスライスして得られるスライス断
面画像#1、#2、…、#nの情報がスライス数に応じ
て用意されている。そして、これら各スライス断面画像
#1、#2、…、#nの情報はそれぞれ各メモリにCT
値を含んだ輝度情報として格納されたものとなってい
る。 Step (S) 1. For example, information of slice cross-sectional images # 1, # 2, ..., #n obtained by slicing at equal intervals along the body axis direction of the subject is prepared according to the number of slices. Then, the information of these slice slice images # 1, # 2, ...
It is stored as brightness information including a value.
【0016】ここで、CT値は、X線CT装置で得られ
た断面画像の場合、1000×(組織のX線吸収係数−
水のX線吸収係数)/(水のX線吸収係数)で表せるも
のである。Here, the CT value is 1000 × (X-ray absorption coefficient of tissue-in the case of a cross-sectional image obtained by an X-ray CT apparatus.
It can be expressed by (X-ray absorption coefficient of water) / (X-ray absorption coefficient of water).
【0017】なお、この各スライス断面画像の情報は、
X線CT装置あるいは磁気共鳴イメージング装置等によ
って得られるものに適用できる。The information of each slice slice image is as follows:
It can be applied to those obtained by an X-ray CT apparatus or a magnetic resonance imaging apparatus.
【0018】ステップ(S)2.スライス断面画像#
1、#2、…、#nから順次輝度情報を読みだし、その
輝度情報をコンパレータを介して二値化する。そして、
その二値化した情報をそれぞれ前記スライス断面画像#
1、#2、…、#nに対応させた二値化抽出画像$1、
$2、…、$nとして得る。この二値化抽出画像$1、
$2、…、&nは臓器の部分が”1”情報として、また
それ以外の部分が”0”情報として構成される画像とな
っている。 Step (S) 2. Slice cross section image #
Luminance information is sequentially read from 1, # 2, ..., #n, and the luminance information is binarized via a comparator. And
The binarized information is applied to the slice section image #
Binarized extraction image $ 1 corresponding to 1, # 2, ..., #n,
Get as $ 2, ..., $ n. This binarized extracted image $ 1,
$ 2, ..., & n are images in which the organ portion is configured as "1" information and the other portions are configured as "0" information.
【0019】ステップ(S)3.二値化抽出画像$1、
$2、…、$nの二値化情報から演算によって、三次元
画像を構成するとともに、いわゆるディプス・シェーデ
ィングによって、該三次元画像に陰影が付加される。 Step (S) 3. Binary extraction image $ 1,
A three-dimensional image is constructed by calculation from the binarized information of $ 2, ..., And $ n, and a shadow is added to the three-dimensional image by so-called depth shading.
【0020】このディプス・シェーディングによる陰影
は従来から行なわれている処理であり、この従来の陰影
は、後述するように、本実施例で特に形成される陰影に
変換されるようになっている。The shadow by the depth shading is a conventionally performed process, and the conventional shadow is converted into a shadow formed in particular in this embodiment as described later.
【0021】ステップ(S)4.スティップ2.とほぼ
同時に行なわれ、前記スライス断面画像#1、#2、
…、#nから順次輝度情報を読みだし、その読みだしの
際に、前記二値化抽出画像$1、$2、…、$nの”
1”情報におけるアドレスと同一アドレスの情報、すな
わち、胃、肝臓等の臓器を構成する輝度(CT値を含
む)情報のみを抽出して切取抽出画像&1、&2、…、
&nを得る。 Step (S) 4. Stipp 2. And the slice cross-section images # 1, # 2,
..., the luminance information is sequentially read from #n, and at the time of reading, the binarized extracted images $ 1, $ 2, ...
The information of the same address as the address in the 1 "information, that is, only the luminance (including CT value) information that constitutes the organ such as the stomach and the liver is extracted and the cut-out extraction images & 1, & 2 ,.
& N.
【0022】図から明らかなように、この切取抽出画像
&1、&2、…、&nは、それぞれ二値化抽出画像$
1、$2、…、$nに対応するもので、臓器の情報はC
T値を含む輝度情報からなっている。As is clear from the figure, the cut-out extracted images & 1, & 2, ..., & n are respectively binarized extracted images $.
It corresponds to 1, $ 2, ..., $ n, and the information of the organ is C
It is composed of luminance information including a T value.
【0023】ステップ(S)5.ステップ3.とほぼ同
時に行なわれ、各切取抽出画像&1、&2、…、&nの
各輝度情報から選択された輝度情報によって画像を構成
する。 Step (S) 5. Step 3. Is performed almost at the same time, and an image is formed by the brightness information selected from the brightness information of each cut-out extracted image & 1, & 2, ...
【0024】このように構成された画像は、ステップ
3.で得られた三次元画像を同一視点から観た画像と同
一になっている。すなわち、ステップ3における三次元
画像がある視点から観た二次元画像である場合、該二次
元画像を構成する二値化抽出画像$1、$2、…、$n
における画素と同一のアドレスの輝度情報を切取抽出画
像&1、$2、…、$nから選択するようになってい
る。The image constructed in this way is processed in step 3. It is the same as the image viewed from the same viewpoint. That is, when the three-dimensional image in step 3 is a two-dimensional image viewed from a certain viewpoint, the binarized extracted images $ 1, $ 2, ..., $ n that form the two-dimensional image.
The luminance information of the same address as the pixel in is selected from the cut-out extracted image & 1, $ 2, ..., $ n.
【0025】そして、この際において、前記切取抽出画
像&1、$2、…、$nから選択される輝度情報は、次
式(1)によって新たな輝度に変換されて画像が構成さ
れるようになっている。At this time, the luminance information selected from the cut-out extracted image & 1, $ 2, ..., $ n is converted into new luminance by the following equation (1) so that the image is constructed. Has become.
【0026】 L=A+B・|cosi|δ1+C・|cose|δ2+D・L0 …(1) ここで、A、B、C、Dはそれぞれ定数で、L0は物体
の透明な時の後方物体の輝度である。L = A + B · | cosi | δ 1 + C · | cose | δ 2 + D · L 0 (1) where A, B, C, and D are constants, and L 0 is when the object is transparent. Is the brightness of the rear object of.
【0027】さらに、上記(1)式の数式的意味につい
て図2を用いて説明する。Further, the mathematical meaning of the above equation (1) will be described with reference to FIG.
【0028】同図は、切取抽出画像$1、$2、…、$
nに相当するCT画像に光線31を照射し、視点面34
に画像を形成する場合を想定した場合、前記CT画像の
P点に対する前記光線31の入射角をiとし、前記P点
の反射角に対する前記視点面34における相当箇所P’
までの角度をeとして前記(1)式を適用する。In the figure, the cut and extracted images $ 1, $ 2, ..., $
The CT image corresponding to n is irradiated with the light beam 31, and the viewpoint plane 34
Assuming that an image is formed on the CT image, the incident angle of the light ray 31 with respect to the point P of the CT image is i, and the corresponding position P ′ on the viewpoint plane 34 with respect to the reflection angle of the point P.
The above equation (1) is applied with an angle up to e.
【0029】そして、上記(1)式には、δ1、δ2の項
が含まれており、このδ1、δ2の項は、前記切取抽出画
像&1、$2、…、$nから選択される輝度(CT)情
報に基づいて求めるようになっている。[0029] Then, the above equation (1), [delta] 1, includes a [delta] 2 sections, the [delta] 1, [delta] 2 of the term, the cut extracted images & 1, $ 2, ..., from $ n It is designed to be obtained based on the selected luminance (CT) information.
【0030】図3は、前記輝度(CT)情報に基づいて
δ1、δ2を求めるマップを示すものであり、図中、点線
はδ1特性を、実線はδ2特性を示している。したがっ
て、一のCT値に対して、そのCT値のδ1の値が左側
縦軸から、またδ2の値が右側縦軸から特定できること
になる。FIG. 3 shows a map for obtaining δ 1 and δ 2 based on the luminance (CT) information. In the figure, the dotted line shows the δ 1 characteristic and the solid line shows the δ 2 characteristic. Therefore, for one CT value, the value of δ 1 of the CT value can be specified from the left vertical axis, and the value of δ 2 can be specified from the right vertical axis.
【0031】このため、上記(1)式はCT値に依存し
た輝度値を求める式になる。Therefore, the above equation (1) is an equation for obtaining the brightness value depending on the CT value.
【0032】なお、図3のδ1特性およびδ2特性は、そ
れぞれ経験則に基づいて定められるものである。The δ 1 characteristic and δ 2 characteristic in FIG. 3 are determined based on empirical rules.
【0033】このようなことから、ステップ5.におい
て形成される陰影は、CT値の情報を含んだものであ
り、たとえば、胃の表面に施される陰影と肝臓の表面に
施される陰影にはそれぞれ相違が生じ、したがって、そ
れぞれの臓器を明確に区別できるようになる。そして、
前記図3におけるδ1特性およびδ2特性の設定の仕方に
よっては、イメージ的にたとえば胃らしい陰影、あるい
は肝臓らしい陰影を表現させることができるようにな
る。From the above, step 5. The shadow formed in contains the CT value information. For example, the shadow on the surface of the stomach and the shadow on the surface of the liver are different from each other. You will be able to distinguish clearly. And
Depending on how to set the δ 1 characteristic and the δ 2 characteristic in FIG. 3, it is possible to express an image-like shadow like a stomach or a shadow like a liver.
【0034】ステップ(S)6.ステップ3.にて構成
した三次元画像の陰影をステップ5.にて構成した陰影
に変換する。この場合、それぞれのメモリの同一アドレ
スには臓器の同一箇所の情報が格納されていることか
ら、容易に変換することができる。 Step (S) 6. Step 3. The shadow of the three-dimensional image constructed in Step 5 is selected. Convert to the shadow constructed in. In this case, since the information of the same part of the organ is stored in the same address of each memory, it can be easily converted.
【0035】ステップ(S)7.これによって、それぞ
れの臓器には新たな陰影が施されることになり、たとえ
ば胃の場合には一目で胃と判るような陰影が施されるよ
うになり、肝臓の場合には一目で肝臓と判るような陰影
が施されるようになる。 Step (S) 7. As a result, a new shadow will be given to each organ, for example, in the case of the stomach, the shadow will be recognized at a glance, and in the case of the liver, the liver will appear at a glance. You can see the shadows.
【0036】なお、その後においては、このようにメモ
リに格納された三次元像情報をたとえばCRT等に出力
させるようになっている。After that, the three-dimensional image information thus stored in the memory is output to, for example, a CRT.
【0037】以上示した実施例によれば、特に、各スラ
イス断面画像#1、#2、…、#nにおける情報のCT
値を加味して陰影処理を行なうようにしたものである。According to the embodiment shown above, in particular, the CT of the information in each slice sectional image # 1, # 2, ..., #n.
The shading process is performed by adding the value.
【0038】CT値は、たとえばX線CT装置の場合に
はX線吸収の相対値であり、臓器の種類により異なった
値をとることから、陰影を施す際にこのCT値を加味す
ることにより、臓器の種類に応じた陰影を施すことがで
きるようになる。The CT value is, for example, in the case of an X-ray CT apparatus, a relative value of X-ray absorption, and since it takes a different value depending on the type of organ, it is possible to take this CT value into account when applying shadows. , It becomes possible to apply a shadow according to the type of organ.
【0039】したがって、それぞれの臓器を明確に区別
できるように陰影を施すことができるようになる。Therefore, it becomes possible to apply shading so that the respective organs can be clearly distinguished.
【0040】上述した実施例では、ステップ3.にて、
従来通りの陰影を施し、ステップ6.にて新たに形成し
た陰影に変換しているものであるが、必ずしもこれに限
定する必要はなく、前記の従来通りの陰影を施すことな
く新たに形成した陰影を付加するようにしてもよいこと
はいうまでもない。すなわち、図2における原画像を用
い、その等濃度面に対して本発明を適用してもよい。In the embodiment described above, step 3. At
Apply conventional shading, and step 6. Although it is converted to a newly formed shadow in the above, it is not necessarily limited to this, and a newly formed shadow may be added without applying the conventional shadow described above. Needless to say. That is, the present invention may be applied to the equal density surface using the original image in FIG.
【0041】要は、陰影の処理において、各スライス断
面画像情報の濃度値に対応する情報を加味させるように
すればよい。The point is that in the shadow processing, information corresponding to the density value of each slice cross-sectional image information may be added.
【0042】[0042]
【発明の効果】以上説明したことから明らかなように、
本発明による画像診断装置によれば、抽出された臓器の
三次元画像の陰影処理において、それぞれの臓器を明確
に区別できるように陰影を施すことができる。As is apparent from the above description,
According to the image diagnostic apparatus of the present invention, in the shadow processing of a three-dimensional image of an extracted organ, it is possible to apply a shadow so that each organ can be clearly distinguished.
【図1】本発明による画像診断装置の一実施例を示す説
明図である。FIG. 1 is an explanatory diagram showing an embodiment of an image diagnostic apparatus according to the present invention.
【図2】本発明による画像診断装置の一実施例に適用さ
れる数式の意味を示すための説明図である。FIG. 2 is an explanatory diagram showing the meaning of a mathematical formula applied to an embodiment of the image diagnostic apparatus according to the present invention.
【図3】本発明による画像診断装置の一実施例に適用さ
れる数式にCT値情報を加味する際に必要となるマップ
の説明図である。FIG. 3 is an explanatory diagram of a map required when CT value information is added to a mathematical formula applied to an embodiment of the image diagnostic apparatus according to the present invention.
#1、#2、…、#n スライス断面画像 $1、$2、…、$n 二値化抽出画像 &1、&2、…、&n 切取抽出画像 # 1, # 2, ..., #n Slice cross section image $ 1, $ 2, ..., $ n Binary extraction image & 1, & 2, ..., & n Cut extraction image
Claims (1)
画像を構成し、その際に陰影を施すようにする画像診断
装置において、前記陰影の処理に前記各スライス断面画
像情報の濃度値に対応する情報を含ませるようにしたこ
とを特徴とする画像診断装置。1. An image diagnostic apparatus for constructing a three-dimensional image from a plurality of slice cross-sectional image information and applying a shadow at that time corresponds to the density value of each slice cross-sectional image information in the processing of the shadow. An image diagnostic apparatus characterized by including information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP17810492A JPH0620065A (en) | 1992-07-06 | 1992-07-06 | Picture diagnosing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP17810492A JPH0620065A (en) | 1992-07-06 | 1992-07-06 | Picture diagnosing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0620065A true JPH0620065A (en) | 1994-01-28 |
Family
ID=16042722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP17810492A Pending JPH0620065A (en) | 1992-07-06 | 1992-07-06 | Picture diagnosing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0620065A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1011604A (en) * | 1996-06-19 | 1998-01-16 | Hitachi Medical Corp | Shading method by volume rendering method and device therefor |
WO2002063564A1 (en) * | 2001-02-02 | 2002-08-15 | Monolith Co.,Ltd. | Image area tracking method and apparatus |
JP2004215846A (en) * | 2003-01-14 | 2004-08-05 | Ziosoft Inc | Method and device for volume rendering image processing and program therefor |
KR100609743B1 (en) * | 1999-05-28 | 2006-08-09 | 엘지.필립스 엘시디 주식회사 | Method of Volumetric 3-Dimension Picture Display |
JP2008220862A (en) * | 2007-03-15 | 2008-09-25 | Aloka Co Ltd | Device and method for volume data processing |
US7853310B2 (en) | 1994-10-27 | 2010-12-14 | Wake Forest University Health Sciences | Automatic analysis in virtual endoscopy |
-
1992
- 1992-07-06 JP JP17810492A patent/JPH0620065A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7853310B2 (en) | 1994-10-27 | 2010-12-14 | Wake Forest University Health Sciences | Automatic analysis in virtual endoscopy |
US8275446B2 (en) | 1994-10-27 | 2012-09-25 | Wake Forest University Health Sciences | Automatic analysis in virtual endoscopy |
JPH1011604A (en) * | 1996-06-19 | 1998-01-16 | Hitachi Medical Corp | Shading method by volume rendering method and device therefor |
KR100609743B1 (en) * | 1999-05-28 | 2006-08-09 | 엘지.필립스 엘시디 주식회사 | Method of Volumetric 3-Dimension Picture Display |
WO2002063564A1 (en) * | 2001-02-02 | 2002-08-15 | Monolith Co.,Ltd. | Image area tracking method and apparatus |
JP2004215846A (en) * | 2003-01-14 | 2004-08-05 | Ziosoft Inc | Method and device for volume rendering image processing and program therefor |
JP4653938B2 (en) * | 2003-01-14 | 2011-03-16 | ザイオソフト株式会社 | Volume rendering image processing method, volume rendering image processing apparatus, and program |
JP2008220862A (en) * | 2007-03-15 | 2008-09-25 | Aloka Co Ltd | Device and method for volume data processing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5623560A (en) | Method for adjusting positions of radiation images | |
US5319551A (en) | Region extracting method and three-dimensional display method | |
US5166876A (en) | System and method for detecting internal structures contained within the interior region of a solid object | |
US5091960A (en) | High-speed image rendering method using look-ahead images | |
US4989142A (en) | Three-dimensional images obtained from tomographic slices with gantry tilt | |
EP0671707A2 (en) | Method for adjusting positions of radiation images | |
EP0968683A1 (en) | Method and apparatus for forming and displaying image from a plurality of sectional images | |
US20040202990A1 (en) | System and method for performing a virtual endoscopy | |
US5623528A (en) | Method for generating 3-dimensional images | |
US5533143A (en) | Method for determining the orientation in which an object was placed when the image of the object was recorded | |
US5841148A (en) | Image processing apparatus | |
US20050099416A1 (en) | Organ wall analysis with ray-casting | |
CN108876783B (en) | Image fusion method and system, medical equipment and image fusion terminal | |
US10339698B2 (en) | Method for discrimination and identification of objects of a scene by 3-D imaging | |
US6278760B1 (en) | Radiation image forming method and apparatus | |
JP2004174241A (en) | Image forming method | |
JPH0620065A (en) | Picture diagnosing device | |
JPH10118056A (en) | Method and apparatus for energy subtraction processing | |
JPH0242585A (en) | Method and apparatus for restructuring shape and position of object in space | |
JP4010034B2 (en) | Image creation device | |
WO2021228280A1 (en) | Target region positioning method and apparatus, device, medium, and program product | |
EP0373854B1 (en) | Apparatus and method for detecting internal structures contained within the interior region of a solid object | |
JPH1031753A (en) | Method for preparing three-dimensional image and medical image diagnostic device | |
JP2001216517A (en) | Object recognition method | |
JP3165538B2 (en) | Radiation image alignment method and apparatus |