Nothing Special   »   [go: up one dir, main page]

JP6087618B2 - Image processing system and image processing method - Google Patents

Image processing system and image processing method Download PDF

Info

Publication number
JP6087618B2
JP6087618B2 JP2012281813A JP2012281813A JP6087618B2 JP 6087618 B2 JP6087618 B2 JP 6087618B2 JP 2012281813 A JP2012281813 A JP 2012281813A JP 2012281813 A JP2012281813 A JP 2012281813A JP 6087618 B2 JP6087618 B2 JP 6087618B2
Authority
JP
Japan
Prior art keywords
image
parallax
rendering
data
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012281813A
Other languages
Japanese (ja)
Other versions
JP2013122770A (en
Inventor
塚越 伸介
伸介 塚越
智司 若井
智司 若井
快行 爰島
快行 爰島
豪 椋本
豪 椋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Medical Systems Corp filed Critical Toshiba Medical Systems Corp
Priority to JP2012281813A priority Critical patent/JP6087618B2/en
Publication of JP2013122770A publication Critical patent/JP2013122770A/en
Application granted granted Critical
Publication of JP6087618B2 publication Critical patent/JP6087618B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明の実施形態は、画像処理システム、装置、方法及びプログラムに関する。   Embodiments described herein relate generally to an image processing system, apparatus, method, and program.

従来、立体視用メガネ等の専用機器を用いて、2つの視点から撮影された2視差画像を立体視可能なモニタが実用化されている。また、近年、レンチキュラーレンズ等の光線制御子を用いて、複数の視点から撮影された多視差画像(例えば、9視差画像)を裸眼にて立体視可能なモニタが実用化されている。なお、立体視可能なモニタにて表示される2視差画像や9視差画像は、1視点から撮影された画像の奥行き情報を推定し、推定した情報を用いた画像処理により生成される場合もある。   Conventionally, a monitor capable of stereoscopically viewing a two-parallax image taken from two viewpoints using a dedicated device such as stereoscopic glasses has been put into practical use. In recent years, monitors that can stereoscopically view multi-parallax images (for example, 9 parallax images) taken from a plurality of viewpoints using a light beam controller such as a lenticular lens have been put into practical use. Note that a 2-parallax image or a 9-parallax image displayed on a stereoscopically viewable monitor may be generated by estimating the depth information of an image taken from one viewpoint and performing image processing using the estimated information. .

一方、X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置、超音波診断装置等の医用画像診断装置では、3次元の医用画像データ(以下、ボリュームデータ)を生成可能な装置が実用化されている。医用画像診断装置により生成されたボリュームデータからは、任意の視差角にて任意の視差数のボリュームレンダリング画像(視差画像)を生成することができる。そこで、ボリュームデータから生成された2次元のボリュームレンダリング画像を、近年実用化された立体視可能なモニタにて立体的に表示させることが検討されている。   On the other hand, a medical image diagnostic apparatus such as an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, or an ultrasonic diagnostic apparatus is practically capable of generating three-dimensional medical image data (hereinafter referred to as volume data). It has become. From the volume data generated by the medical image diagnostic apparatus, a volume rendering image (parallax image) having an arbitrary number of parallaxes can be generated at an arbitrary parallax angle. In view of this, it has been studied to display a two-dimensional volume rendering image generated from volume data in a stereoscopic manner on a stereoscopically visible monitor that has recently been put into practical use.

しかし、ボリュームレンダリング処理を観察者の要求に応じてリアルタイムに実行させるためには、ボリュームレンダリング処理を行なう装置に対して高い画像処理能力が要求される。   However, in order to execute the volume rendering process in real time according to the request of the observer, a high image processing capability is required for the apparatus that performs the volume rendering process.

特開2005−86414号公報JP 2005-84414 A

本発明が解決しようとする課題は、3次元の医用画像データから立体視用の画像を生成するために要する処理の負荷を軽減することができる画像処理システム、装置、方法及びプログラムを提供することである。   The problem to be solved by the present invention is to provide an image processing system, apparatus, method, and program capable of reducing the processing load required to generate a stereoscopic image from three-dimensional medical image data. It is.

実施形態の画像処理システムは、複数の立体表示装置と、画像処理装置とを備える。立体表示装置は、所定の視差数の視差画像を用いて構成される立体視画像を表示可能な装置である。画像処理装置は、3次元の医用画像データであるボリュームデータに対してレンダリング処理を行なうレンダリング処理部、前記レンダリング処理部が前記ボリュームデータから生成した前記複数の立体表示装置の前記所定の視差数のうち最大視差数以上の視差画像群を記憶部に格納させる格納制御部を備える。前記立体表示装置は、前記記憶部に格納された前記最大視差数以上の視差画像群の中から前記所定の視差数の視差画像を選択して構成される立体視画像を表示する。前記レンダリング処理部は、所定形状の図形を形成する直線若しくは曲線に基づいてレンダリング処理を実行するための視点を前記最大視差数以上設定することで、前記視差画像群を生成する。 An image processing system according to an embodiment includes a plurality of stereoscopic display devices and an image processing device. The stereoscopic display device is a device capable of displaying a stereoscopic image configured using parallax images having a predetermined number of parallaxes. An image processing apparatus includes: a rendering processing unit that performs rendering processing on volume data that is three-dimensional medical image data; and the predetermined number of parallaxes of the plurality of stereoscopic display devices generated from the volume data by the rendering processing unit. A storage control unit that stores a parallax image group having a number equal to or greater than the maximum number of parallaxes in the storage unit is provided. The stereoscopic display device displays a stereoscopic image configured by selecting a parallax image having the predetermined number of parallaxes from a group of parallax images having the maximum number of parallaxes or more stored in the storage unit. The rendering processing unit generates the parallax image group by setting a viewpoint for executing the rendering process based on a straight line or a curve forming a figure with a predetermined shape to be equal to or greater than the maximum number of parallaxes.

図1は、第1の実施形態に係る画像処理システムの構成例を説明するための図である。FIG. 1 is a diagram for explaining a configuration example of an image processing system according to the first embodiment. 図2は、2視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。FIG. 2 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using two parallax images. 図3は、9視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。FIG. 3 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using nine parallax images. 図4は、第1の実施形態に係るワークステーションの構成例を説明するための図である。FIG. 4 is a diagram for explaining a configuration example of the workstation according to the first embodiment. 図5は、図4に示すレンダリング処理部の構成例を説明するための図である。FIG. 5 is a diagram for explaining a configuration example of the rendering processing unit shown in FIG. 図6は、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of volume rendering processing according to the first embodiment. 図7は、第1の実施形態に係る端末装置の構成例を説明するための図である。FIG. 7 is a diagram for explaining a configuration example of the terminal device according to the first embodiment. 図8は、第1図形条件及び第1画像数条件により実行されるレンダリング処理を説明するための図である。FIG. 8 is a diagram for explaining a rendering process executed under the first graphic condition and the first image number condition. 図9は、第1図形条件及び第2画像数条件により実行されるレンダリング処理を説明するための図(1)である。FIG. 9 is a diagram (1) for explaining the rendering process executed under the first graphic condition and the second image number condition. 図10は、第1図形条件及び第2画像数条件により実行されるレンダリング処理を説明するための図(2)である。FIG. 10 is a diagram (2) for explaining the rendering process executed under the first graphic condition and the second image number condition. 図11は、第1図形条件の変形例を説明するための図である。FIG. 11 is a diagram for explaining a modified example of the first graphic condition. 図12は、端末装置における表示制御を説明するための図(1)である。FIG. 12 is a diagram (1) for explaining the display control in the terminal device. 図13は、端末装置における表示制御を説明するための図(2)である。FIG. 13 is a diagram (2) for explaining the display control in the terminal device. 図14は、端末装置における表示制御を説明するための図(3)である。FIG. 14 is a diagram (3) for explaining the display control in the terminal device. 図15は、第2図形条件を説明するための図である。FIG. 15 is a diagram for explaining the second graphic condition. 図16は、第1の実施形態に係る画像処理システムの画像格納処理を説明するための図である。FIG. 16 is a diagram for explaining image storage processing of the image processing system according to the first embodiment. 図17は、第1の実施形態に係る画像処理システムの画像表示処理を説明するための図である。FIG. 17 is a diagram for explaining image display processing of the image processing system according to the first embodiment. 図18は、第1の実施形態に係る第1の変形例を説明するための図である。FIG. 18 is a diagram for explaining a first modification according to the first embodiment. 図19は、第1の実施形態に係る第2の変形例を説明するための図である。FIG. 19 is a diagram for explaining a second modification example according to the first embodiment. 図20は、第1の実施形態に係る第3の変形例を説明するための図である。FIG. 20 is a diagram for explaining a third modification example according to the first embodiment. 図21は、動画データに付与されるプライベートタグを説明するための図(1)である。FIG. 21 is a diagram (1) for explaining private tags attached to moving image data. 図22は、動画データに付与されるプライベートタグを説明するための図(2)である。FIG. 22 is a diagram (2) for explaining a private tag attached to moving image data. 図23は、動画データに付与されるプライベートタグを説明するための図(3)である。FIG. 23 is a diagram (3) for explaining a private tag attached to the moving image data. 図24は、動画データに付与されるDICOM規格に準拠した付帯情報を説明するための図(1)である。FIG. 24 is a diagram (1) for explaining incidental information compliant with the DICOM standard assigned to moving image data. 図25は、動画データに付与されるDICOM規格に準拠した付帯情報を説明するための図(2)である。FIG. 25 is a diagram (2) for explaining incidental information compliant with the DICOM standard assigned to moving image data. 図26は、第2の実施形態に係る画像処理システムの画像表示処理を説明するための図である。FIG. 26 is a diagram for explaining image display processing of the image processing system according to the second embodiment. 図27は、第2の実施形態に係る変形例にて、動画データに付与されるプライベートタグを説明するための図である。FIG. 27 is a diagram for explaining a private tag attached to moving image data in a modification according to the second embodiment. 図28は、第2の実施形態に係る変形例にて、動画データに付与されるDICOM規格に準拠した付帯情報を説明するための図である。FIG. 28 is a diagram for explaining incidental information compliant with the DICOM standard attached to moving image data in a modification according to the second embodiment.

以下、添付図面を参照して、画像処理システムの実施形態を詳細に説明する。なお、以下の実施形態で用いる用語について説明する。「視差画像」とは、「立体視画像」を構成する個々の画像のことである。すなわち、「立体視画像」は、「視差角」が異なる複数の「視差画像」から構成される。また、「視差数」とは、立体表示モニタにて立体視されるために必要となる「視差画像」の数のことである。また、「視差角」とは、「立体視画像」を生成するために設定された各視点の位置の間隔とボリュームデータの位置とにより定まる角度のことである。また、以下で記載する「9視差画像」とは、9つの「視差画像」から構成される「立体視画像」のことである。また、以下で記載する「2視差画像」とは、2つの「視差画像」から構成される「立体視画像」のことである。   Hereinafter, embodiments of an image processing system will be described in detail with reference to the accompanying drawings. Terms used in the following embodiments will be described. A “parallax image” is an individual image constituting a “stereoscopic image”. That is, the “stereoscopic image” is composed of a plurality of “parallax images” having different “parallax angles”. The “parallax number” is the number of “parallax images” necessary for stereoscopic viewing on the stereoscopic display monitor. In addition, the “parallax angle” is an angle determined by the interval between the positions of the viewpoints set for generating the “stereoscopic image” and the position of the volume data. Further, the “9 parallax image” described below is a “stereoscopic image” composed of nine “parallax images”. In addition, a “two-parallax image” described below is a “stereoscopic image” composed of two “parallax images”.

(第1の実施形態)
まず、第1の実施形態に係る画像処理システムの構成例について説明する。図1は、第1の実施形態に係る画像処理システムの構成例を説明するための図である。
(First embodiment)
First, a configuration example of the image processing system according to the first embodiment will be described. FIG. 1 is a diagram for explaining a configuration example of an image processing system according to the first embodiment.

図1に示すように、第1の実施形態に係る画像処理システム1は、医用画像診断装置110と、画像保管装置120と、ワークステーション130と、端末装置140とを有する。図1に例示する各装置は、例えば、病院内に設置された院内LAN(Local Area Network)2により、直接的、又は間接的に相互に通信可能な状態となっている。例えば、画像処理システム1にPACS(Picture Archiving and Communication System)が導入されている場合、各装置は、DICOM(Digital Imaging and Communications in Medicine)規格に則って、医用画像等を相互に送受信する。   As shown in FIG. 1, the image processing system 1 according to the first embodiment includes a medical image diagnostic apparatus 110, an image storage apparatus 120, a workstation 130, and a terminal apparatus 140. Each apparatus illustrated in FIG. 1 is in a state where it can communicate with each other directly or indirectly by, for example, an in-hospital LAN (Local Area Network) 2 installed in a hospital. For example, when a PACS (Picture Archiving and Communication System) is introduced into the image processing system 1, each apparatus transmits and receives medical images and the like according to DICOM (Digital Imaging and Communications in Medicine) standards.

かかる画像処理システム1は、医用画像診断装置110により生成された3次元の医用画像データであるボリュームデータから立体視画像として利用可能な視差画像群を生成し、この視差画像群から選択して構成される立体視画像を立体視可能なモニタに表示することで、病院内に勤務する医師や検査技師に立体視可能な医用画像を提供する。ここで、立体視画像とは、一般的には、複数の視点から撮影された視差角の異なる複数の画像のことである。第1の実施形態においては、ワークステーション130が、ボリュームデータに対して種々の画像処理を行ない、視差画像群を生成する。また、第1の実施形態においては、ワークステーション130及び端末装置140が、立体視可能なモニタを有し、ワークステーション130にて生成された視差画像群から選択して構成される立体視画像をこのモニタに表示する。また、画像保管装置120は、医用画像診断装置110にて生成されたボリュームデータや、ワークステーション130にて生成された視差画像群を保管する。すなわち、ワークステーション130や端末装置140は、画像保管装置120からボリュームデータや視差画像群を取得し、これを処理したり、モニタに表示したりする。以下、各装置を順に説明する。   The image processing system 1 is configured by generating a parallax image group that can be used as a stereoscopic image from volume data that is three-dimensional medical image data generated by the medical image diagnostic apparatus 110, and selecting the parallax image group from the parallax image group. By displaying the stereoscopic image to be displayed on a stereoscopically visible monitor, a medical image that can be stereoscopically viewed is provided to doctors and laboratory technicians working in the hospital. Here, the stereoscopic image is generally a plurality of images with different parallax angles taken from a plurality of viewpoints. In the first embodiment, the workstation 130 performs various image processes on the volume data to generate a parallax image group. In the first embodiment, the workstation 130 and the terminal device 140 each have a stereoscopic monitor, and a stereoscopic image configured by selecting from a parallax image group generated by the workstation 130 is selected. Display on this monitor. Further, the image storage device 120 stores the volume data generated by the medical image diagnostic device 110 and the parallax image group generated by the workstation 130. In other words, the workstation 130 and the terminal device 140 acquire volume data and a parallax image group from the image storage device 120, process them, and display them on a monitor. Hereinafter, each device will be described in order.

医用画像診断装置110は、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置、SPECT装置とX線CT装置とが一体化されたSPECT−CT装置、PET装置とX線CT装置とが一体化されたPET−CT装置、又はこれらの装置群等である。また、第1の実施形態に係る医用画像診断装置110は、3次元の医用画像データ(ボリュームデータ)を生成可能である。   The medical image diagnostic apparatus 110 includes an X-ray diagnostic apparatus, an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, an ultrasonic diagnostic apparatus, a SPECT (Single Photon Emission Computed Tomography) apparatus, and a PET (Positron Emission computed Tomography). ) Apparatus, a SPECT-CT apparatus in which a SPECT apparatus and an X-ray CT apparatus are integrated, a PET-CT apparatus in which a PET apparatus and an X-ray CT apparatus are integrated, or a group of these apparatuses. Further, the medical image diagnostic apparatus 110 according to the first embodiment can generate three-dimensional medical image data (volume data).

具体的には、第1の実施形態に係る医用画像診断装置110は、被検体を撮影することによりボリュームデータを生成する。例えば、医用画像診断装置110は、被検体を撮影することにより投影データやMR信号等のデータを収集し、収集したデータから、被検体の体軸方向に沿った複数のアキシャル面の医用画像を再構成することで、ボリュームデータを生成する。例えば、医用画像診断装置110は、500枚のアキシャル面の医用画像を再構成する。この500枚のアキシャル面の医用画像群が、ボリュームデータとなる。   Specifically, the medical image diagnostic apparatus 110 according to the first embodiment generates volume data by imaging a subject. For example, the medical image diagnostic apparatus 110 collects data such as projection data and MR signals by photographing the subject, and uses the collected data to obtain medical images of a plurality of axial surfaces along the body axis direction of the subject. Volume data is generated by reconfiguration. For example, the medical image diagnostic apparatus 110 reconstructs 500 axial medical images. The 500 medical image groups on the axial plane serve as volume data.

また、第1の実施形態に係る医用画像診断装置110は、生成したボリュームデータを画像保管装置120に送信する。なお、医用画像診断装置110は、ボリュームデータを画像保管装置120に送信する際に、付帯情報として、例えば、患者を識別する患者ID、検査を識別する検査ID、医用画像診断装置110を識別する装置ID、医用画像診断装置110による1回の撮影を識別するシリーズID等を送信する。   Further, the medical image diagnostic apparatus 110 according to the first embodiment transmits the generated volume data to the image storage apparatus 120. The medical image diagnostic apparatus 110 identifies, for example, a patient ID for identifying a patient, an examination ID for identifying an examination, and the medical image diagnostic apparatus 110 as supplementary information when transmitting volume data to the image storage apparatus 120. A device ID, a series ID for identifying one shot by the medical image diagnostic device 110, and the like are transmitted.

画像保管装置120は、医用画像を保管するデータベースである。具体的には、第1の実施形態に係る画像保管装置120は、医用画像診断装置110から送信されたボリュームデータを記憶部に格納し、これを保管する。また、第1の実施形態においては、ワークステーション130が、ボリュームデータから視差画像群を生成し、生成した視差画像群を画像保管装置120に送信する。画像保管装置120は、ワークステーション130から送信された視差画像群を記憶部に格納し、これを保管する。なお、本実施形態は、大容量の画像を保管可能なワークステーション130を用いることで、図1に例示するワークステーション130と画像保管装置120とが統合される場合であっても良い。すなわち、本実施形態は、ワークステーション130そのものにボリュームデータもしくは視差画像群を記憶させる場合であっても良い。   The image storage device 120 is a database that stores medical images. Specifically, the image storage device 120 according to the first embodiment stores the volume data transmitted from the medical image diagnostic device 110 in a storage unit and stores it. In the first embodiment, the workstation 130 generates a parallax image group from the volume data, and transmits the generated parallax image group to the image storage device 120. The image storage device 120 stores the parallax image group transmitted from the workstation 130 in the storage unit and stores it. In the present embodiment, the workstation 130 illustrated in FIG. 1 and the image storage device 120 may be integrated by using the workstation 130 that can store a large-capacity image. That is, this embodiment may be a case where volume data or a parallax image group is stored in the workstation 130 itself.

なお、第1の実施形態において、画像保管装置120に保管されたボリュームデータや視差画像群は、患者ID、検査ID、装置ID、シリーズID等と対応付けて保管される。ワークステーション130や端末装置140は、操作者が入力した患者ID、検査ID、装置ID、シリーズID等を用いた検索を行なうことで、操作者が必要とするボリュームデータや視差画像群を画像保管装置120から取得する。   In the first embodiment, the volume data and the parallax image group stored in the image storage device 120 are stored in association with the patient ID, examination ID, device ID, series ID, and the like. The workstation 130 and the terminal device 140 store images of volume data and parallax images required by the operator by performing a search using the patient ID, examination ID, device ID, series ID, etc. input by the operator. Obtained from the device 120.

ワークステーション130は、医用画像に対して画像処理を行なう画像処理装置である。具体的には、第1の実施形態に係るワークステーション130は、画像保管装置120から取得したボリュームデータに対して種々のレンダリング処理を行ない、視差画像群を生成する。視差画像群とは、視差角の異なる複数の画像のことであり、例えば、9視差画像を裸眼にて立体視可能なモニタにて表示される立体視画像とは、視差角の異なる9枚の画像(視差画像)のことである。   The workstation 130 is an image processing apparatus that performs image processing on medical images. Specifically, the workstation 130 according to the first embodiment performs various rendering processes on the volume data acquired from the image storage device 120 to generate a parallax image group. The parallax image group is a plurality of images having different parallax angles. For example, nine parallax images displayed on a monitor capable of stereoscopically viewing nine parallax images with naked eyes are nine images having different parallax angles. An image (parallax image).

また、第1の実施形態に係るワークステーション130は、表示部として、立体視可能なモニタ(以下、立体表示モニタ)を有する。ワークステーション130は、視差画像群を生成し、生成した視差画像群を立体表示モニタに表示する。この結果、ワークステーション130の操作者は、立体表示モニタに表示された立体視可能な医用画像を確認しながら、視差画像群生成のための操作を行なうことができる。   In addition, the workstation 130 according to the first embodiment includes a stereoscopically visible monitor (hereinafter, stereoscopic display monitor) as a display unit. The workstation 130 generates a parallax image group and displays the generated parallax image group on the stereoscopic display monitor. As a result, the operator of the workstation 130 can perform an operation for generating a parallax image group while confirming a stereoscopically visible medical image displayed on the stereoscopic display monitor.

また、ワークステーション130は、生成した視差画像群を画像保管装置120に送信する。なお、ワークステーション130は、視差画像群を画像保管装置120に送信する際に、付帯情報として、例えば、患者ID、検査ID、装置ID、シリーズID等を送信する。また、視差画像群を画像保管装置120に送信する際に送信される付帯情報としては、視差画像群に関する付帯情報も挙げられる。視差画像群に関する付帯情報としては、視差画像の枚数(例えば、「9」)や、視差画像の解像度(例えば、「466×350画素」)等がある。   Further, the workstation 130 transmits the generated parallax image group to the image storage device 120. In addition, when transmitting the parallax image group to the image storage device 120, the workstation 130 transmits, for example, a patient ID, an examination ID, a device ID, a series ID, and the like as incidental information. Further, the incidental information transmitted when transmitting the parallax image group to the image storage device 120 includes incidental information regarding the parallax image group. The incidental information regarding the parallax image group includes the number of parallax images (for example, “9”), the resolution of the parallax images (for example, “466 × 350 pixels”), and the like.

端末装置140は、病院内に勤務する医師や検査技師に医用画像を閲覧させるための装置である。例えば、端末装置140は、病院内に勤務する医師や検査技師により操作されるPC(Personal Computer)やタブレット式PC、PDA(Personal Digital Assistant)、携帯電話等である。具体的には、第1の実施形態に係る端末装置140は、表示部として立体表示モニタを有する。また、端末装置140は、画像保管装置120から視差画像群を取得し、取得した視差画像群、又、取得した視差画像群から選択して構成される立体視画像を立体表示モニタに表示する。この結果、観察者である医師や検査技師は、立体視可能な医用画像を閲覧することができる。   The terminal device 140 is a device that allows a doctor or laboratory technician working in a hospital to view a medical image. For example, the terminal device 140 is a PC (Personal Computer), a tablet PC, a PDA (Personal Digital Assistant), a mobile phone, or the like operated by a doctor or laboratory technician working in a hospital. Specifically, the terminal device 140 according to the first embodiment includes a stereoscopic display monitor as a display unit. In addition, the terminal device 140 acquires a parallax image group from the image storage device 120, and displays the acquired parallax image group or a stereoscopic image selected and selected from the acquired parallax image group on the stereoscopic display monitor. As a result, a doctor or laboratory technician who is an observer can view a medical image that can be viewed stereoscopically.

ここで、ワークステーション130や端末装置140が有する立体表示モニタについて説明する。現在最も普及している一般的な汎用モニタは、2次元画像を2次元で表示するものであり、2次元画像を立体表示することができない。仮に、観察者が汎用モニタにて立体視を要望する場合、汎用モニタに対して画像を出力する装置は、平行法や交差法により観察者が立体視可能な2視差画像を並列表示させる必要がある。又は、汎用モニタに対して画像を出力する装置は、例えば、左目用の部分に赤色のセロハンが取り付けられ、右目用の部分に青色のセロハンが取り付けられたメガネを用いて余色法により観察者が立体視可能な画像を表示する必要がある。   Here, the stereoscopic display monitor included in the workstation 130 and the terminal device 140 will be described. A general-purpose monitor that is most popular at present displays a two-dimensional image in two dimensions, and cannot display a two-dimensional image in three dimensions. If an observer requests stereoscopic viewing on a general-purpose monitor, an apparatus that outputs an image to the general-purpose monitor needs to display two parallax images that can be viewed stereoscopically by the observer in parallel by the parallel method or the intersection method. is there. Alternatively, an apparatus that outputs an image to a general-purpose monitor, for example, uses an after-color method with an eyeglass that has a red cellophane attached to the left eye portion and a blue cellophane attached to the right eye portion. It is necessary to display a stereoscopically viewable image.

一方、立体表示モニタとしては、立体視用メガネ等の専用機器を用いることで、2視差画像(両眼視差画像とも称する)を立体視可能とするものがある。   On the other hand, as a stereoscopic display monitor, there is a stereoscopic display monitor that enables a stereoscopic view of a two-parallax image (also referred to as a binocular parallax image) by using dedicated equipment such as stereoscopic glasses.

図2は、2視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。図2に示す一例は、シャッター方式により立体表示を行なう立体表示モニタであり、モニタを観察する観察者が装着する立体視用メガネとしてシャッターメガネが用いられる。かかる立体表示モニタは、モニタにて2視差画像を交互に出射する。例えば、図2の(A)に示すモニタは、左目用の画像と右目用の画像を、120Hzにて交互に出射する。ここで、モニタには、図2の(A)に示すように、赤外線出射部が設置され、赤外線出射部は、画像が切り替わるタイミングに合わせて赤外線の出射を制御する。   FIG. 2 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using two parallax images. An example shown in FIG. 2 is a stereoscopic display monitor that performs stereoscopic display by a shutter method, and shutter glasses are used as stereoscopic glasses worn by an observer who observes the monitor. Such a stereoscopic display monitor emits two parallax images alternately on the monitor. For example, the monitor shown in FIG. 2A alternately emits a left-eye image and a right-eye image at 120 Hz. Here, as shown in FIG. 2A, the monitor is provided with an infrared emitting unit, and the infrared emitting unit controls the emission of infrared rays in accordance with the timing at which the image is switched.

また、赤外線出射部から出射された赤外線は、図2の(A)に示すシャッターメガネの赤外線受光部により受光される。シャッターメガネの左右それぞれの枠には、シャッターが取り付けられており、シャッターメガネは、赤外線受光部が赤外線を受光したタイミングに合わせて左右のシャッターそれぞれの透過状態及び遮光状態を交互に切り替える。以下、シャッターにおける透過状態及び遮光状態の切り替え処理について説明する。   Moreover, the infrared rays emitted from the infrared ray emitting portion are received by the infrared ray receiving portion of the shutter glasses shown in FIG. A shutter is attached to each of the left and right frames of the shutter glasses, and the shutter glasses alternately switch the transmission state and the light shielding state of the left and right shutters according to the timing when the infrared light receiving unit receives the infrared rays. Hereinafter, the switching process between the transmission state and the light shielding state in the shutter will be described.

各シャッターは、図2の(B)に示すように、入射側の偏光板と出射側の偏光板とを有し、更に、入射側の偏光板と出射側の偏光板との間に液晶相を有する。また、入射側の偏光板と出射側の偏光板とは、図2の(B)に示すように、互いに直交している。ここで、図2の(B)に示すように、電圧が印加されていない「OFF」の状態では、入射側の偏光板を通った光は、液晶層の作用により90度回転し、出射側の偏光板を透過する。すなわち、電圧が印加されていないシャッターは、透過状態となる。   As shown in FIG. 2B, each shutter has an incident-side polarizing plate and an output-side polarizing plate, and further, a liquid crystal phase is interposed between the incident-side polarizing plate and the output-side polarizing plate. Have Further, as shown in FIG. 2B, the incident-side polarizing plate and the outgoing-side polarizing plate are orthogonal to each other. Here, as shown in FIG. 2B, in the “OFF” state where no voltage is applied, the light that has passed through the polarizing plate on the incident side is rotated by 90 ° by the action of the liquid crystal layer, and is emitted on the outgoing side. Is transmitted through the polarizing plate. That is, a shutter to which no voltage is applied is in a transmissive state.

一方、図2の(B)に示すように、電圧が印加された「ON」の状態では、液晶層の液晶分子による偏光回転作用が消失するため、入射側の偏光板を通った光は、出射側の偏光板で遮られてしまう。すなわち、電圧が印加されたシャッターは、遮光状態となる。   On the other hand, as shown in FIG. 2B, in the “ON” state where a voltage is applied, the polarization rotation action caused by the liquid crystal molecules in the liquid crystal layer disappears. It will be blocked by the polarizing plate on the exit side. That is, the shutter to which the voltage is applied is in a light shielding state.

そこで、例えば、赤外線出射部は、モニタ上に左目用の画像が表示されている期間、赤外線を出射する。そして、赤外線受光部は、赤外線を受光している期間、左目のシャッターに電圧を印加せず、右目のシャッターに電圧を印加させる。これにより、図2の(A)に示すように、右目のシャッターが遮光状態となり、左目のシャッターが透過状態となるため、観察者の左目に左目用の画像が入射する。一方、赤外線出射部は、モニタ上に右目用の画像が表示されている期間、赤外線の出射を停止する。そして、赤外線受光部は、赤外線が受光されない期間、右目のシャッターに電圧を印加せず、左目のシャッターに電圧を印加させる。これにより、左目のシャッターが遮光状態となり、右目のシャッターが透過状態であるため、観察者の右目に右目用の画像が入射する。このように、図2に示す立体表示モニタは、モニタに表示される画像とシャッターの状態を連動させて切り替えることで、観察者が立体視可能な画像を表示させる。なお、2視差画像を立体視可能な立体表示モニタとしては、上記のシャッター方式以外にも、偏光メガネ方式を採用したモニタも知られている。   Therefore, for example, the infrared emitting unit emits infrared rays during a period in which an image for the left eye is displayed on the monitor. The infrared light receiving unit applies a voltage to the right-eye shutter without applying a voltage to the left-eye shutter during a period of receiving the infrared light. Accordingly, as shown in FIG. 2A, the right-eye shutter is in a light-shielding state and the left-eye shutter is in a transmissive state, so that an image for the left eye is incident on the left eye of the observer. On the other hand, the infrared ray emitting unit stops emitting infrared rays while the right-eye image is displayed on the monitor. The infrared light receiving unit applies a voltage to the left-eye shutter without applying a voltage to the right-eye shutter during a period in which no infrared light is received. Accordingly, the left-eye shutter is in a light-shielding state and the right-eye shutter is in a transmissive state, so that an image for the right eye is incident on the right eye of the observer. As described above, the stereoscopic display monitor illustrated in FIG. 2 displays an image that can be viewed stereoscopically by the observer by switching the image displayed on the monitor and the state of the shutter in conjunction with each other. As a stereoscopic display monitor capable of stereoscopically viewing a two-parallax image, a monitor adopting a polarized glasses method is also known in addition to the shutter method described above.

更に、近年実用化された立体表示モニタとしては、レンチキュラーレンズ等の光線制御子を用いることで、例えば、9視差画像等の多視差画像を観察者が裸眼にて立体視可能とするものがある。かかる立体表示モニタは、両眼視差による立体視を可能とし、更に、観察者の視点移動に合わせて観察される映像も変化する運動視差による立体視も可能とする。   Furthermore, as a stereoscopic display monitor that has been put into practical use in recent years, there is a stereoscopic display monitor that allows a viewer to stereoscopically view a multi-parallax image such as a 9-parallax image with the naked eye by using a light controller such as a lenticular lens. . Such a stereoscopic display monitor enables stereoscopic viewing based on binocular parallax, and also enables stereoscopic viewing based on motion parallax that also changes the image observed in accordance with the viewpoint movement of the observer.

図3は、9視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。図3に示す立体表示モニタには、液晶パネル等の平面状の表示面200の前面に、光線制御子が配置される。例えば、図3に示す立体表示モニタには、光線制御子として、光学開口が垂直方向に延びる垂直レンチキュラーシート201が表示面200の前面に貼り付けられている。なお、図3に示す一例では、垂直レンチキュラーシート201の凸部が前面となるように貼り付けられているが、垂直レンチキュラーシート201の凸部が表示面200に対向するように貼り付けられる場合であっても良い。   FIG. 3 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using nine parallax images. In the stereoscopic display monitor shown in FIG. 3, a light beam controller is arranged on the front surface of a flat display surface 200 such as a liquid crystal panel. For example, in the stereoscopic display monitor shown in FIG. 3, a vertical lenticular sheet 201 whose optical aperture extends in the vertical direction is attached to the front surface of the display surface 200 as a light beam controller. In the example shown in FIG. 3, the vertical lenticular sheet 201 is pasted so that the convex portion of the vertical lenticular sheet 201 becomes the front surface, but the convex portion of the vertical lenticular sheet 201 is pasted so as to face the display surface 200. There may be.

表示面200には、図3に示すように、縦横比が3:1であり、縦方向にサブ画素である赤(R)、緑(G)、青(B)の3つが配置された画素202がマトリクス状に配置される。図3に示す立体表示モニタは、9つの画像により構成される9視差画像を、所定フォーマット(例えば格子状)に配置した中間画像に変換したうえで、表示面200に出力する。すなわち、図3に示す立体表示モニタは、9視差画像にて同一位置にある9つの画素それぞれを、9列の画素202に割り振って出力させる。9列の画素202は、図3に示すように、視差角の異なる9つの画像を同時に表示する単位画素群203となる。   As shown in FIG. 3, the display surface 200 has an aspect ratio of 3: 1 and pixels in which three sub-pixels, red (R), green (G), and blue (B), are arranged in the vertical direction. 202 are arranged in a matrix. The stereoscopic display monitor shown in FIG. 3 converts a nine-parallax image composed of nine images into an intermediate image arranged in a predetermined format (for example, a lattice shape), and then outputs it to the display surface 200. That is, the stereoscopic display monitor shown in FIG. 3 assigns and outputs nine pixels at the same position in nine parallax images to nine columns of pixels 202. As shown in FIG. 3, the nine columns of pixels 202 constitute a unit pixel group 203 that simultaneously displays nine images having different parallax angles.

表示面200において単位画素群203として同時に出力された9視差画像は、例えば、LED(Light Emitting Diode)バックライトにより平行光として放射され、更に、垂直レンチキュラーシート201により、多方向に放射される。9視差画像の各画素の光が多方向に放射されることにより、観察者の右目及び左目に入射する光は、観察者の位置(視点の位置)に連動して変化する。すなわち、観察者の見る角度により、右目に入射する視差画像と左目に入射する視差画像とは、視差角が異なる。これにより、観察者は、例えば、図3に示す9つの位置それぞれにおいて、撮影対象を立体的に視認できる。また、観察者は、例えば、図3に示す「5」の位置において、撮影対象に対して正対した状態で立体的に視認できるとともに、図3に示す「5」以外それぞれの位置において、撮影対象の向きを変化させた状態で立体的に視認できる。なお、図3に示す立体表示モニタは、あくまでも一例である。9視差画像を表示する立体表示モニタは、図3に示すように、「RRR・・・、GGG・・・、BBB・・・」の横ストライプ液晶である場合であっても良いし、「RGBRGB・・・」の縦ストライプ液晶である場合であっても良い。また、図3に示す立体表示モニタは、図3に示すように、レンチキュラーシートが垂直となる縦レンズ方式である場合であっても良いし、レンチキュラーシートが斜めとなる斜めレンズ方式である場合であっても良い。   The nine parallax images simultaneously output as the unit pixel group 203 on the display surface 200 are emitted as parallel light by, for example, an LED (Light Emitting Diode) backlight, and further emitted in multiple directions by the vertical lenticular sheet 201. As the light of each pixel of the nine-parallax image is emitted in multiple directions, the light incident on the right eye and the left eye of the observer changes in conjunction with the position of the observer (viewpoint position). That is, the parallax angle between the parallax image incident on the right eye and the parallax image incident on the left eye differs depending on the viewing angle of the observer. Thereby, the observer can visually recognize the photographing object in three dimensions at each of the nine positions shown in FIG. 3, for example. In addition, for example, the observer can view the image three-dimensionally in a state of facing the object to be imaged at the position “5” shown in FIG. 3, and at each position other than “5” shown in FIG. It can be visually recognized in a three-dimensional manner with the direction of the object changed. Note that the stereoscopic display monitor shown in FIG. 3 is merely an example. As shown in FIG. 3, the stereoscopic display monitor that displays a nine-parallax image may be a horizontal stripe liquid crystal of “RRR..., GGG..., BBB. .. ”” May be used. The stereoscopic display monitor shown in FIG. 3 may be a vertical lens system in which the lenticular sheet is vertical as shown in FIG. 3 or a diagonal lens system in which the lenticular sheet is diagonal. There may be.

ここまで、第1の実施形態に係る画像処理システム1の構成例について簡単に説明した。なお、上述した画像処理システム1は、PACSが導入されている場合に限定されるものではない。例えば、画像処理システム1は、医用画像が添付された電子カルテを管理する電子カルテシステムが導入されている場合であっても良い。この場合、画像保管装置120は、電子カルテを保管するデータベースである。また、例えば、画像処理システム1は、HIS(Hospital Information System)、RIS(Radiology Information System)が導入されている場合であっても良い。また、画像処理システム1は、上述した構成例に限られるものではない。各装置が有する機能やその分担は、運用の形態に応じて適宜変更されて良い。   So far, the configuration example of the image processing system 1 according to the first embodiment has been briefly described. The image processing system 1 described above is not limited to the case where PACS is introduced. For example, the image processing system 1 may be a case where an electronic medical chart system that manages an electronic medical chart to which a medical image is attached is introduced. In this case, the image storage device 120 is a database that stores electronic medical records. For example, the image processing system 1 may be a case where HIS (Hospital Information System) and RIS (Radiology Information System) are introduced. The image processing system 1 is not limited to the configuration example described above. The functions and sharing of each device may be changed as appropriate according to the form of operation.

次に、第1の実施形態に係るワークステーション130の構成例について図4を用いて説明する。図4は、第1の実施形態に係るワークステーションの構成例を説明するための図である。なお、以下で用いる用語について、改めて説明すると、「立体視画像」とは、ボリュームデータに対してボリュームレンダリング処理を行なうことで生成された立体視用の画像群のことである。また、「視差画像」とは、「立体視画像」を構成する個々の画像のことである。すなわち、「立体視画像」は、「視差角」が異なる複数の「視差画像」から構成される。また、「視差数」とは、立体表示モニタにて立体視されるために必要となる「視差画像」の数のことである。また、「視差角」とは、「立体視画像」を生成するために設定された各視点の位置の間隔とボリュームデータの位置とにより定まる角度のことである。また、以下で記載する「9視差画像」とは、9つの「視差画像」から構成される「立体視画像」のことである。また、以下で記載する「2視差画像」とは、2つの「視差画像」から構成される「立体視画像」のことである。   Next, a configuration example of the workstation 130 according to the first embodiment will be described with reference to FIG. FIG. 4 is a diagram for explaining a configuration example of the workstation according to the first embodiment. The terms used below will be described again. The “stereoscopic image” is a group of stereoscopic images generated by performing volume rendering processing on volume data. The “parallax image” is an individual image constituting the “stereoscopic image”. That is, the “stereoscopic image” is composed of a plurality of “parallax images” having different “parallax angles”. The “parallax number” is the number of “parallax images” necessary for stereoscopic viewing on the stereoscopic display monitor. In addition, the “parallax angle” is an angle determined by the interval between the positions of the viewpoints set for generating the “stereoscopic image” and the position of the volume data. Further, the “9 parallax image” described below is a “stereoscopic image” composed of nine “parallax images”. In addition, a “two-parallax image” described below is a “stereoscopic image” composed of two “parallax images”.

第1の実施形態に係るワークステーション130は、画像処理等に適した高性能なコンピュータであり、図4に示すように、入力部131と、表示部132と、通信部133と、記憶部134と、制御部135と、レンダリング処理部136とを有する。   The workstation 130 according to the first embodiment is a high-performance computer suitable for image processing and the like, and as illustrated in FIG. 4, an input unit 131, a display unit 132, a communication unit 133, and a storage unit 134. And a control unit 135 and a rendering processing unit 136.

入力部131は、マウス、キーボード、トラックボール等であり、ワークステーション130に対する各種操作の入力を操作者から受け付ける。具体的には、第1の実施形態に係る入力部131は、レンダリング処理の対象となるボリュームデータを画像保管装置120から取得するための情報の入力を受け付ける。例えば、入力部131は、患者ID、検査ID、装置ID、シリーズID等の入力を受け付ける。また、第1の実施形態に係る入力部131は、レンダリング処理に関する条件(以下、レンダリング条件)の入力を受け付ける。   The input unit 131 is a mouse, a keyboard, a trackball, or the like, and receives input of various operations on the workstation 130 from an operator. Specifically, the input unit 131 according to the first embodiment receives input of information for acquiring volume data to be subjected to rendering processing from the image storage device 120. For example, the input unit 131 receives input of a patient ID, an examination ID, a device ID, a series ID, and the like. Further, the input unit 131 according to the first embodiment receives an input of a condition regarding rendering processing (hereinafter, rendering condition).

表示部132は、立体表示モニタとしての液晶パネル等であり、各種情報を表示する。具体的には、第1の実施形態に係る表示部132は、操作者から各種操作を受け付けるためのGUI(Graphical User Interface)や、立体視画像等を表示する。例えば、表示部132は、図2を用いて説明した立体表示モニタ(以下、2視差モニタと記載する)や、図5を用いて説明した立体表示モニタ(以下、9視差モニタと記載する)である。以下では、表示部132が9視差モニタである場合について説明する。   The display unit 132 is a liquid crystal panel or the like as a stereoscopic display monitor, and displays various information. Specifically, the display unit 132 according to the first embodiment displays a GUI (Graphical User Interface) for receiving various operations from the operator, a stereoscopic image, and the like. For example, the display unit 132 is the stereoscopic display monitor described with reference to FIG. 2 (hereinafter referred to as a 2-parallax monitor) or the stereoscopic display monitor described with reference to FIG. 5 (hereinafter referred to as a 9-parallax monitor). is there. Below, the case where the display part 132 is a 9 parallax monitor is demonstrated.

通信部133は、NIC(Network Interface Card)等であり、他の装置との間で通信を行う。   The communication unit 133 is a NIC (Network Interface Card) or the like, and performs communication with other devices.

記憶部134は、ハードディスク、半導体メモリ素子等であり、各種情報を記憶する。具体的には、第1の実施形態に係る記憶部134は、通信部133を介して画像保管装置120から取得したボリュームデータを記憶する。また、第1の実施形態に係る記憶部134は、レンダリング処理中のボリュームデータや、レンダリング処理が行なわれた立体視画像等を記憶する。   The storage unit 134 is a hard disk, a semiconductor memory element, or the like, and stores various types of information. Specifically, the storage unit 134 according to the first embodiment stores volume data acquired from the image storage device 120 via the communication unit 133. In addition, the storage unit 134 according to the first embodiment stores volume data during rendering processing, stereoscopic images that have undergone rendering processing, and the like.

制御部135は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路であり、ワークステーション130の全体制御を行なう。   The control unit 135 is an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array), and the entire workstation 130. Take control.

例えば、第1の実施形態に係る制御部135は、表示部132に対するGUIの表示や視差画像群の表示を制御する。また、例えば、制御部135は、画像保管装置120との間で通信部133を介して行なわれるボリュームデータや視差画像群の送受信を制御する。また、例えば、制御部135は、レンダリング処理部136によるレンダリング処理を制御する。また、例えば、制御部135は、ボリュームデータの記憶部134からの読み込みや、視差画像群の記憶部134への格納を制御する。   For example, the control unit 135 according to the first embodiment controls the display of the GUI and the display of the parallax image group on the display unit 132. For example, the control unit 135 controls transmission / reception of volume data and a parallax image group performed with the image storage device 120 via the communication unit 133. For example, the control unit 135 controls the rendering process performed by the rendering processing unit 136. For example, the control unit 135 controls reading of volume data from the storage unit 134 and storage of the parallax image group in the storage unit 134.

レンダリング処理部136は、制御部135による制御の下、画像保管装置120から取得したボリュームデータに対して種々のレンダリング処理を行ない、視差画像群を生成する。具体的には、第1の実施形態に係るレンダリング処理部136は、記憶部134からボリュームデータを読み込み、このボリュームデータに対して、まず前処理を行なう。次に、レンダリング処理部136は、前処理後のボリュームデータに対してボリュームレンダリング処理を行ない、視差画像群を生成する。続いて、レンダリング処理部136は、各種情報(目盛り、患者名、検査項目等)が描出された2次元画像を生成し、これを視差画像群それぞれに対して重畳することで、出力用の2次元画像を生成する。そして、レンダリング処理部136は、生成した視差画像群や出力用の2次元画像を記憶部134に格納する。なお、第1の実施形態において、レンダリング処理とは、ボリュームデータに対して行なう画像処理全体のことであり、ボリュームレンダリング処理とは、レンダリング処理の内、3次元の情報を反映した2次元画像(ボリュームレンダリング画像)を生成する処理のことである。   The rendering processing unit 136 performs various rendering processes on the volume data acquired from the image storage device 120 under the control of the control unit 135 to generate a parallax image group. Specifically, the rendering processing unit 136 according to the first embodiment reads volume data from the storage unit 134 and first performs preprocessing on the volume data. Next, the rendering processing unit 136 performs volume rendering processing on the pre-processed volume data to generate a parallax image group. Subsequently, the rendering processing unit 136 generates a two-dimensional image in which various kinds of information (scale, patient name, examination item, etc.) are drawn, and superimposes it on each of the parallax image groups, thereby outputting 2 for output. Generate a dimensional image. Then, the rendering processing unit 136 stores the generated parallax image group and the output two-dimensional image in the storage unit 134. In the first embodiment, the rendering process is the entire image process performed on the volume data, and the volume rendering process is a two-dimensional image (3D information reflecting three-dimensional information in the rendering process). (Volume rendering image) is generated.

図5は、図4に示すレンダリング処理部の構成例を説明するための図である。図5に示すように、レンダリング処理部136は、前処理部1361と、3次元画像処理部1362と、2次元画像処理部1363とを有する。前処理部1361は、ボリュームデータに対する前処理を行なう。3次元画像処理部1362は、前処理後のボリュームデータから視差画像群を生成する。2次元画像処理部1363は、立体視画像に各種情報が重畳された出力用の2次元画像を生成する。以下、各部を順に説明する。   FIG. 5 is a diagram for explaining a configuration example of the rendering processing unit shown in FIG. As illustrated in FIG. 5, the rendering processing unit 136 includes a preprocessing unit 1361, a 3D image processing unit 1362, and a 2D image processing unit 1363. The preprocessing unit 1361 performs preprocessing on the volume data. The three-dimensional image processing unit 1362 generates a parallax image group from the preprocessed volume data. The two-dimensional image processing unit 1363 generates a two-dimensional image for output in which various information is superimposed on the stereoscopic image. Hereinafter, each part is demonstrated in order.

前処理部1361は、ボリュームデータに対してレンダリング処理を行なう際に、種々の前処理を行なう処理部であり、画像補正処理部1361aと、3次元物体フュージョン部1361eと、3次元物体表示領域設定部1361fとを有する。   The preprocessing unit 1361 is a processing unit that performs various types of preprocessing when rendering processing is performed on volume data, and includes an image correction processing unit 1361a, a three-dimensional object fusion unit 1361e, and a three-dimensional object display area setting. Part 1361f.

画像補正処理部1361aは、2種類のボリュームデータを1つのボリュームデータとして処理する際に画像補正処理を行なう処理部であり、図5に示すように、歪み補正処理部1361b、体動補正処理部1361c及び画像間位置合わせ処理部1361dを有する。例えば、画像補正処理部1361aは、PET−CT装置により生成されたPET画像のボリュームデータとX線CT画像のボリュームデータとを1つのボリュームデータとして処理する際に画像補正処理を行なう。或いは、画像補正処理部1361aは、MRI装置により生成されたT1強調画像のボリュームデータとT2強調画像のボリュームデータとを1つのボリュームデータとして処理する際に画像補正処理を行なう。   The image correction processing unit 1361a is a processing unit that performs image correction processing when processing two types of volume data as one volume data, and as shown in FIG. 5, a distortion correction processing unit 1361b, a body motion correction processing unit, 1361c and an inter-image registration processing unit 1361d. For example, the image correction processing unit 1361a performs image correction processing when processing volume data of a PET image generated by a PET-CT apparatus and volume data of an X-ray CT image as one volume data. Alternatively, the image correction processing unit 1361a performs image correction processing when processing the volume data of the T1-weighted image and the volume data of the T2-weighted image generated by the MRI apparatus as one volume data.

歪み補正処理部1361bは、個々のボリュームデータにおいて、医用画像診断装置110によるデータ収集時の収集条件に起因するデータの歪みを補正する。また、体動補正処理部1361cは、個々のボリュームデータを生成するために用いられたデータの収集時期における被検体の体動に起因する移動を補正する。また、画像間位置合わせ処理部1361dは、歪み補正処理部1361b及び体動補正処理部1361cによる補正処理が行なわれた2つのボリュームデータ間で、例えば、相互相関法等を用いた位置合わせ(Registration)を行なう。   The distortion correction processing unit 1361b corrects the data distortion caused by the collection conditions at the time of data collection by the medical image diagnostic apparatus 110 in each volume data. Further, the body motion correction processing unit 1361c corrects the movement caused by the body motion of the subject at the time of collecting the data used for generating the individual volume data. Further, the inter-image registration processing unit 1361d performs registration (Registration) using, for example, a cross-correlation method between the two volume data subjected to the correction processing by the distortion correction processing unit 1361b and the body motion correction processing unit 1361c. ).

3次元物体フュージョン部1363eは、画像間位置合わせ処理部1361dにより位置合わせが行なわれた複数のボリュームデータをフュージョンさせる。なお、画像補正処理部1361a及び3次元物体フュージョン部1361eの処理は、単一のボリュームデータに対してレンダリング処理を行なう場合、省略される。   The three-dimensional object fusion unit 1363e fuses a plurality of volume data that has been aligned by the inter-image registration processing unit 1361d. Note that the processing of the image correction processing unit 1361a and the three-dimensional object fusion unit 1361e is omitted when rendering processing is performed on single volume data.

3次元物体表示領域設定部1361fは、操作者により指定された表示対象臓器に対応する表示領域を設定する処理部であり、セグメンテーション処理部1361gを有する。セグメンテーション処理部1361gは、操作者により指定された心臓、肺、血管等の臓器を、例えば、ボリュームデータの画素値(ボクセル値)に基づく領域拡張法により抽出する処理部である。   The three-dimensional object display region setting unit 1361f is a processing unit that sets a display region corresponding to the display target organ designated by the operator, and includes a segmentation processing unit 1361g. The segmentation processing unit 1361g is a processing unit that extracts organs such as the heart, lungs, and blood vessels designated by the operator by, for example, a region expansion method based on pixel values (voxel values) of volume data.

なお、セグメンテーション処理部1361gは、操作者により表示対象臓器が指定されなかった場合、セグメンテーション処理を行なわない。また、セグメンテーション処理部1361gは、操作者により表示対象臓器が複数指定された場合、該当する複数の臓器を抽出する。また、セグメンテーション処理部1361gの処理は、レンダリング画像を参照した操作者の微調整要求により再度実行される場合もある。   Note that the segmentation processing unit 1361g does not perform the segmentation process when the display target organ is not designated by the operator. The segmentation processing unit 1361g extracts a plurality of corresponding organs when a plurality of display target organs are designated by the operator. Further, the processing of the segmentation processing unit 1361g may be executed again in response to an operator fine adjustment request referring to the rendered image.

3次元画像処理部1362は、前処理部1361が処理を行なった前処理後のボリュームデータに対してボリュームレンダリング処理を行なう。ボリュームレンダリング処理を行なう処理部として、3次元画像処理部1362は、投影方法設定部1362aと、3次元幾何変換処理部1362bと、3次元物体アピアランス処理部1362fと、3次元仮想空間レンダリング部1362kとを有する。   The 3D image processing unit 1362 performs volume rendering processing on the pre-processed volume data processed by the preprocessing unit 1361. As a processing unit that performs volume rendering processing, a three-dimensional image processing unit 1362 includes a projection method setting unit 1362a, a three-dimensional geometric transformation processing unit 1362b, a three-dimensional object appearance processing unit 1362f, and a three-dimensional virtual space rendering unit 1362k. Have

投影方法設定部1362aは、視差画像群を生成するための投影方法を決定する。例えば、投影方法設定部1362aは、ボリュームレンダリング処理を平行投影法により実行するか、透視投影法により実行するかを決定する。   The projection method setting unit 1362a determines a projection method for generating a parallax image group. For example, the projection method setting unit 1362a determines whether to execute the volume rendering process by the parallel projection method or the perspective projection method.

3次元幾何変換処理部1362bは、ボリュームレンダリング処理が実行されるボリュームデータを3次元幾何学的に変換するための情報を決定する処理部であり、平行移動処理部1362c、回転処理部1362d及び拡大縮小処理部1362eを有する。平行移動処理部1362cは、ボリュームレンダリング処理を行なう際の視点位置が平行移動された場合に、ボリュームデータを平行移動させる移動量を決定する処理部であり、回転処理部1362dは、ボリュームレンダリング処理を行なう際の視点位置が回転移動された場合に、ボリュームデータを回転移動させる移動量を決定する処理部である。また、拡大縮小処理部1362eは、立体視画像の拡大や縮小が要求された場合に、ボリュームデータの拡大率や縮小率を決定する処理部である。   The three-dimensional geometric transformation processing unit 1362b is a processing unit that determines information for transforming volume data on which volume rendering processing is performed into a three-dimensional geometrical structure. The three-dimensional geometric transformation processing unit 1362b includes a parallel movement processing unit 1362c, a rotation processing unit 1362d, and an enlargement unit. A reduction processing unit 1362e is included. The parallel movement processing unit 1362c is a processing unit that determines the amount of movement to translate the volume data when the viewpoint position when performing the volume rendering processing is translated, and the rotation processing unit 1362d performs the volume rendering processing. This is a processing unit that determines the amount of movement by which the volume data is rotationally moved when the viewpoint position during the rotation is rotationally moved. The enlargement / reduction processing unit 1362e is a processing unit that determines an enlargement rate or reduction rate of volume data when enlargement or reduction of a stereoscopic image is requested.

3次元物体アピアランス処理部1362fは、3次元物体色彩処理部1362g、3次元物体不透明度処理部1362h、3次元物体材質処理部1362i及び3次元仮想空間光源処理部1362jを有する。3次元物体アピアランス処理部1362fは、これらの処理部により、例えば、操作者の要求に応じて、表示される立体視画像の表示状態を決定する処理を行なう。   The three-dimensional object appearance processing unit 1362f includes a three-dimensional object color processing unit 1362g, a three-dimensional object opacity processing unit 1362h, a three-dimensional object material processing unit 1362i, and a three-dimensional virtual space light source processing unit 1362j. The three-dimensional object appearance processing unit 1362f performs a process of determining the display state of the displayed stereoscopic image in response to an operator's request, for example, using these processing units.

3次元物体色彩処理部1362gは、ボリュームデータにてセグメンテーションされた各領域に対して着色される色彩を決定する処理部である。3次元物体不透明度処理部1362hは、ボリュームデータにてセグメンテーションされた各領域を構成する各ボクセルの不透過度(Opacity)を決定する処理部である。なお、ボリュームデータにおいて不透過度が「100%」とされた領域の後方の領域は、立体視画像において描出されないこととなる。また、ボリュームデータにおいて不透過度が「0%」とされた領域は、立体視画像において描出されないこととなる。   The three-dimensional object color processing unit 1362g is a processing unit that determines a color to be colored for each region segmented by the volume data. The three-dimensional object opacity processing unit 1362h is a processing unit that determines the opacity (Opacity) of each voxel constituting each region segmented by volume data. It should be noted that the area behind the area where the opacity is set to “100%” in the volume data is not drawn in the stereoscopic image. In addition, an area in which the opacity is “0%” in the volume data is not drawn in the stereoscopic image.

3次元物体材質処理部1362iは、ボリュームデータにてセグメンテーションされた各領域の材質を決定することで、この領域が描出される際の質感を調整する処理部である。3次元仮想空間光源処理部1362jは、ボリュームデータに対してボリュームレンダリング処理を行なう際に、3次元仮想空間に設置する仮想光源の位置や、仮想光源の種類を決定する処理部である。仮想光源の種類としては、無限遠から平行な光線を照射する光源や、視点から放射状の光線を照射する光源等が挙げられる。   The three-dimensional object material processing unit 1362i is a processing unit that determines the material of each region segmented by volume data and adjusts the texture when the region is rendered. The three-dimensional virtual space light source processing unit 1362j is a processing unit that determines the position of the virtual light source installed in the three-dimensional virtual space and the type of the virtual light source when performing volume rendering processing on the volume data. Examples of the virtual light source include a light source that emits parallel light rays from infinity and a light source that emits radial light rays from the viewpoint.

3次元仮想空間レンダリング部1362kは、ボリュームデータに対してボリュームレンダリング処理を行ない、視差画像群を生成する。また、3次元仮想空間レンダリング部1362kは、ボリュームレンダリング処理を行なう際、必要に応じて、投影方法設定部1362a、3次元幾何変換処理部1362b、3次元物体アピアランス処理部1362fにより決定された各種情報を用いる。   The three-dimensional virtual space rendering unit 1362k performs volume rendering processing on the volume data to generate a parallax image group. The three-dimensional virtual space rendering unit 1362k performs various types of information determined by the projection method setting unit 1362a, the three-dimensional geometric transformation processing unit 1362b, and the three-dimensional object appearance processing unit 1362f as necessary when performing the volume rendering process. Is used.

ここで、3次元仮想空間レンダリング部1362kによるボリュームレンダリング処理は、レンダリング条件に従って行なわれることになる。例えば、レンダリング条件は、「平行投影法」又は「透視投影法」である。また、例えば、レンダリング条件は、「基準の視点位置及び視差角」である。また、例えば、レンダリング条件は、「視点位置の平行移動」、「視点位置の回転移動」、「立体視画像の拡大」、「立体視画像の縮小」である。また、例えば、レンダリング条件は、「着色される色彩」、「透過度」、「質感」、「仮想光源の位置」、「仮想光源の種類」である。このようなレンダリング条件は、入力部131を介して操作者から受け付ける場合や、初期設定される場合が考えられる。いずれの場合も、3次元仮想空間レンダリング部1362kは、制御部135からレンダリング条件を受け付け、受け付けたレンダリング条件に従って、ボリュームデータに対するボリュームレンダリング処理を行なう。また、ボリュームレンダリング処理を行なう際、上述した投影方法設定部1362a、3次元幾何変換処理部1362b、3次元物体アピアランス処理部1362fが、このレンダリング条件に従って必要な各種情報を決定するので、3次元仮想空間レンダリング部1362kは、決定されたこれらの各種情報を用いて視差画像群を生成する。   Here, the volume rendering process by the three-dimensional virtual space rendering unit 1362k is performed according to the rendering conditions. For example, the rendering condition is “parallel projection method” or “perspective projection method”. For example, the rendering condition is “reference viewpoint position and parallax angle”. Further, for example, the rendering conditions are “translation of viewpoint position”, “rotation movement of viewpoint position”, “enlargement of stereoscopic image”, and “reduction of stereoscopic image”. Further, for example, the rendering conditions are “color to be colored”, “transparency”, “texture”, “position of virtual light source”, and “type of virtual light source”. Such a rendering condition may be accepted from the operator via the input unit 131 or may be initially set. In any case, the three-dimensional virtual space rendering unit 1362k receives a rendering condition from the control unit 135, and performs volume rendering processing on the volume data according to the received rendering condition. Further, when performing the volume rendering process, the above-described projection method setting unit 1362a, the three-dimensional geometric transformation processing unit 1362b, and the three-dimensional object appearance processing unit 1362f determine various pieces of necessary information according to the rendering conditions. The space rendering unit 1362k generates a parallax image group using the determined various pieces of information.

図6は、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図である。例えば、3次元仮想空間レンダリング部1362kが、図6の(A)に示すように、レンダリング条件として、平行投影法を受け付け、更に、基準の視点位置(5)と視差角「1度」とを受け付けたとする。かかる場合、3次元仮想空間レンダリング部1362kは、図6の(A)に示すように、視線方向に沿って無限遠から平行な光線を照射する光源を設定する。そして、3次元仮想空間レンダリング部1362kは、視差角が「1度」おきとなるように、視点の位置を(1)〜(9)に平行移動して、平行投影法により視差角が1度ずつ異なる9つの視差画像を生成する。   FIG. 6 is a diagram for explaining an example of volume rendering processing according to the first embodiment. For example, as shown in FIG. 6A, the three-dimensional virtual space rendering unit 1362k accepts the parallel projection method as a rendering condition, and further sets the reference viewpoint position (5) and the parallax angle “1 degree”. Suppose you accept. In such a case, the three-dimensional virtual space rendering unit 1362k sets a light source that emits parallel light rays from infinity along the line-of-sight direction, as shown in FIG. Then, the three-dimensional virtual space rendering unit 1362k translates the position of the viewpoint from (1) to (9) so that the parallax angle is every “1 degree”, and the parallax angle is 1 degree by the parallel projection method. Nine different parallax images are generated.

或いは、3次元仮想空間レンダリング部1362kが、図6の(B)に示すように、レンダリング条件として、透視投影法を受け付け、更に、基準の視点位置(5)と視差角「1度」とを受け付けたとする。かかる場合、3次元仮想空間レンダリング部1362kは、図6の(B)に示すように、視線方向を中心に光を3次元的に放射状に照射する点光源や面光源を各視点にて設定する。そして、3次元仮想空間レンダリング部1362kは、例えば、ボリュームデータの切断面の中心(重心)を中心に視差角が「1度」おきとなるように、視点の位置を(1)〜(9)に回転移動して、透視投影法により視差角が1度ずつ異なる9つの視差画像を生成する。なお、透視投影法を行なう場合、レンダリング条件によっては、視点(1)〜(9)は、平行移動される場合であってもよい。なお、視線方向は、図6の(A)及び(B)に示すように、視点からボリュームデータの切断面の中心(重心)に向かう方向となる。   Alternatively, as shown in FIG. 6B, the three-dimensional virtual space rendering unit 1362k accepts a perspective projection method as a rendering condition, and further sets the reference viewpoint position (5) and the parallax angle “1 degree”. Suppose you accept. In such a case, as shown in FIG. 6B, the three-dimensional virtual space rendering unit 1362k sets a point light source and a surface light source that irradiates light three-dimensionally radially around the line-of-sight direction at each viewpoint. . For example, the three-dimensional virtual space rendering unit 1362k sets the position of the viewpoint (1) to (9) so that the parallax angle is every “one degree” around the center (center of gravity) of the cut surface of the volume data. Nine parallax images having different parallax angles by 1 degree are generated by the perspective projection method. When performing the perspective projection method, the viewpoints (1) to (9) may be translated depending on the rendering conditions. As shown in FIGS. 6A and 6B, the line-of-sight direction is a direction from the viewpoint toward the center (center of gravity) of the cut surface of the volume data.

或いは、3次元仮想空間レンダリング部1362kは、図6の(C)に示すように、表示されるボリュームレンダリング画像の縦方向に対しては、視線方向を中心に光を2次元的に放射状に照射し、表示されるボリュームレンダリング画像の横方向に対しては、視線方向に沿って無限遠から平行な光線を照射する光源を設定することで、平行投影法と透視投影法とを併用したボリュームレンダリング処理を行なってもよい。   Alternatively, as shown in FIG. 6C, the three-dimensional virtual space rendering unit 1362k radiates light in a two-dimensional manner centering on the line-of-sight direction with respect to the vertical direction of the displayed volume rendering image. For the horizontal direction of the volume rendering image to be displayed, a volume rendering process that uses both the parallel projection method and the perspective projection method by setting a light source that emits parallel light rays from infinity along the viewing direction. May be performed.

このようにして生成された9つの視差画像が、立体視画像である。第1の実施形態において、9つの視差画像は、例えば、制御部135により所定フォーマット(例えば格子状)に配置した中間画像に変換され、9視差モニタである表示部132に出力される。すると、ワークステーション130の操作者は、立体表示モニタに表示された立体視可能な医用画像を確認しながら、立体視画像生成のための操作を行なうことができる。   The nine parallax images generated in this way are stereoscopic images. In the first embodiment, nine parallax images are converted into, for example, an intermediate image arranged in a predetermined format (for example, a grid) by the control unit 135 and output to the display unit 132 that is a nine-parallax monitor. Then, the operator of the workstation 130 can perform an operation for generating a stereoscopic image while confirming a stereoscopically viewable medical image displayed on the stereoscopic display monitor.

なお、図6の例では、レンダリング条件として、投影方法、基準の視点位置及び視差角を受け付けた場合を説明したが、レンダリング条件として、他の条件を受け付けた場合も同様に、3次元仮想空間レンダリング部1362kは、それぞれのレンダリング条件を反映しつつ、視差画像群を生成する。   In the example of FIG. 6, the case where the projection method, the reference viewpoint position, and the parallax angle are received as the rendering conditions has been described. However, the three-dimensional virtual space is similarly applied when other conditions are received as the rendering conditions. The rendering unit 1362k generates a parallax image group while reflecting each rendering condition.

また、3次元仮想空間レンダリング部1362kは、ボリュームレンダリングだけでなく、断面再構成法(MPR:Multi Planer Reconstruction)を行なってボリュームデータからMPR画像を再構成する機能も有する。なお、3次元仮想空間レンダリング部1362kは、「Curved MPR」を行なう機能や、「Intensity Projection」を行なう機能も有する。   The three-dimensional virtual space rendering unit 1362k has a function of reconstructing an MPR image from volume data by performing not only volume rendering but also a cross-section reconstruction method (MPR: Multi Planer Reconstruction). Note that the three-dimensional virtual space rendering unit 1362k also has a function of performing “Curved MPR” and a function of performing “Intensity Projection”.

続いて、3次元画像処理部1362がボリュームデータから生成した視差画像群は、アンダーレイ(Underlay)とされる。そして、各種情報(目盛り、患者名、検査項目等)が描出されたオーバーレイ(Overlay)がアンダーレイに対して重畳されることで、出力用の2次元画像とされる。2次元画像処理部1363は、オーバーレイ及びアンダーレイに対して画像処理を行なうことで、出力用の2次元画像を生成する処理部であり、図3に示すように、2次元物体描画部1363a、2次元幾何変換処理部1363b及び輝度調整部1363cを有する。例えば、2次元画像処理部1363は、出力用の2次元画像の生成処理に要する負荷を軽減するために、1枚のオーバーレイに対して9枚の視差画像(アンダーレイ)をそれぞれ重畳することで、出力用の2次元画像を9枚、生成する。   Subsequently, the parallax image group generated from the volume data by the three-dimensional image processing unit 1362 is set as an underlay. Then, an overlay (Overlay) on which various types of information (scale, patient name, examination item, etc.) are drawn is superimposed on the underlay, thereby obtaining a two-dimensional image for output. The two-dimensional image processing unit 1363 is a processing unit that generates an output two-dimensional image by performing image processing on the overlay and the underlay. As illustrated in FIG. 3, the two-dimensional object drawing unit 1363 a, A two-dimensional geometric transformation processing unit 1363b and a luminance adjustment unit 1363c are included. For example, the two-dimensional image processing unit 1363 superimposes nine parallax images (underlays) on one overlay in order to reduce the load required for generating a two-dimensional image for output. , Nine output two-dimensional images are generated.

2次元物体描画部1363aは、オーバーレイに描出される各種情報を描画する処理部であり、2次元幾何変換処理部1363bは、オーバーレイに描出される各種情報の位置を平行移動処理又は回転移動処理したり、オーバーレイに描出される各種情報の拡大処理又は縮小処理したりする処理部である。   The two-dimensional object drawing unit 1363a is a processing unit that draws various information drawn on the overlay, and the two-dimensional geometric transformation processing unit 1363b performs parallel movement processing or rotational movement processing on the position of the various information drawn on the overlay. Or a processing unit that performs an enlargement process or a reduction process of various types of information drawn on the overlay.

また、輝度調整部172cは、輝度変換処理を行なう処理部であり、例えば、出力先のモニタの諧調や、ウィンドウ幅(WW:Window Width)、ウィンドウレベル(WL:Window Level)等の画像処理用のパラメータに応じて、オーバーレイ及びアンダーレイの輝度を調整する処理部である。   The luminance adjustment unit 172c is a processing unit that performs luminance conversion processing, for example, for image processing such as gradation of an output destination monitor, window width (WW: Window Width), window level (WL: Window Level), and the like. The processing unit adjusts the brightness of the overlay and underlay according to the parameters.

レンダリング処理部136が生成した出力用の2次元画像は、例えば制御部135により一旦記憶部134に格納される。なお、本実施形態に係るレンダリング処理部136が生成した出力用の2次元画像は、各視差画像をアンダーレイとする立体視用の2次元画像群であり、かかる2次元画像群が、視差画像群となる。   The output two-dimensional image generated by the rendering processing unit 136 is temporarily stored in the storage unit 134 by the control unit 135, for example. Note that the output two-dimensional image generated by the rendering processing unit 136 according to the present embodiment is a stereoscopic two-dimensional image group in which each parallax image is an underlay, and the two-dimensional image group is a parallax image. Become a group.

また、出力用の2次元画像群(視差画像群)は、図4に示すように、例えば制御部135により、通信部133を介して画像保管装置120に送信される。   Further, as illustrated in FIG. 4, the output two-dimensional image group (parallax image group) is transmitted to the image storage device 120 via the communication unit 133, for example, by the control unit 135.

なお、制御部135は、例えば、レンダリング処理部136が生成した視差画像群が、当該視差画像群の生成元であるボリュームデータに対応付けて格納されるように制御する。   Note that the control unit 135 performs control so that, for example, the parallax image group generated by the rendering processing unit 136 is stored in association with the volume data that is the generation source of the parallax image group.

そして、第1の実施形態に係る端末装置140は、上述したように、病院内に勤務する医師や検査技師に医用画像を閲覧させるための装置であり、画像保管装置120からレンダリング処理部136が生成した視差画像群(出力用の2次元画像)を取得する。図7は、第1の実施形態に係る端末装置の構成例を説明するための図である。   As described above, the terminal device 140 according to the first embodiment is a device that allows a doctor or laboratory technician working in a hospital to view a medical image, and the rendering processing unit 136 from the image storage device 120. The generated parallax image group (output two-dimensional image) is acquired. FIG. 7 is a diagram for explaining a configuration example of the terminal device according to the first embodiment.

第1の実施形態に係る端末装置140は、図7に示すように、入力部141と、表示部142と、通信部143と、記憶部144と、制御部145と、2次元画像処理部146とを有する。   As illustrated in FIG. 7, the terminal device 140 according to the first embodiment includes an input unit 141, a display unit 142, a communication unit 143, a storage unit 144, a control unit 145, and a two-dimensional image processing unit 146. And have.

入力部141は、マウス、キーボード、トラックボール等であり、端末装置140に対する各種操作の入力を操作者から受け付ける。具体的には、第1の実施形態に係る入力部141は、操作者から立体視要求を受け付ける。例えば、入力部141は、立体視要求として、操作者が立体視を要望するボリュームデータを指定するための患者ID、検査ID、装置ID、シリーズID等の入力を受け付ける。   The input unit 141 is a mouse, a keyboard, a trackball, or the like, and receives input of various operations on the terminal device 140 from an operator. Specifically, the input unit 141 according to the first embodiment receives a stereoscopic request from the operator. For example, the input unit 141 accepts input of a patient ID, an examination ID, a device ID, a series ID, and the like for designating volume data for which the operator desires stereoscopic vision as a stereoscopic vision request.

表示部142は、立体表示モニタとしての液晶パネル等であり、各種情報を表示する。具体的には、第1の実施形態に係る表示部142は、操作者から各種操作を受け付けるためのGUI(Graphical User Interface)や、立体視画像等を表示する。例えば、表示部142は、図2を用いて説明した立体表示モニタ(以下、2視差モニタと記載する)や、図5を用いて説明した立体表示モニタ(以下、9視差モニタと記載する)である。以下では、表示部142が9視差モニタである場合について説明する。   The display unit 142 is a liquid crystal panel or the like as a stereoscopic display monitor, and displays various types of information. Specifically, the display unit 142 according to the first embodiment displays a GUI (Graphical User Interface) for receiving various operations from the operator, a stereoscopic image, and the like. For example, the display unit 142 is the stereoscopic display monitor described with reference to FIG. 2 (hereinafter referred to as a 2-parallax monitor) or the stereoscopic display monitor described with reference to FIG. 5 (hereinafter referred to as a 9-parallax monitor). is there. Below, the case where the display part 142 is a 9 parallax monitor is demonstrated.

通信部143は、NIC(Network Interface Card)等であり、他の装置との間で通信を行う。具体的には、第1の実施形態に係る通信部143は、入力部141が受け付けた立体視要求を画像保管装置120に送信する。また、第1の実施形態に係る通信部143は、立体視要求に応じて画像保管装置120が送信した視差画像群を受信する。   The communication unit 143 is a NIC (Network Interface Card) or the like, and performs communication with other devices. Specifically, the communication unit 143 according to the first embodiment transmits the stereoscopic request received by the input unit 141 to the image storage device 120. In addition, the communication unit 143 according to the first embodiment receives a parallax image group transmitted by the image storage device 120 in response to a stereoscopic request.

記憶部144は、ハードディスク、半導体メモリ素子等であり、各種情報を記憶する。具体的には、第1の実施形態に係る記憶部144は、通信部143を介して画像保管装置120から取得した視差画像群を記憶する。また、記憶部144は、通信部143を介して画像保管装置120から取得した視差画像群の付帯情報(視差数や解像度等)も記憶する。   The storage unit 144 is a hard disk, a semiconductor memory element, or the like, and stores various types of information. Specifically, the storage unit 144 according to the first embodiment stores a parallax image group acquired from the image storage device 120 via the communication unit 143. The storage unit 144 also stores incidental information (number of parallaxes, resolution, etc.) of the parallax image group acquired from the image storage device 120 via the communication unit 143.

制御部145は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路であり、端末装置140の全体制御を行なう。   The control unit 145 is an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array). Take control.

例えば、制御部145は、画像保管装置120との間で通信部143を介して行なわれる立体視要求や視差画像群の送受信を制御する。また、例えば、制御部145は、視差画像群の記憶部144への格納や、視差画像群の記憶部144からの読み込みを制御する。   For example, the control unit 145 controls transmission / reception of a stereoscopic request and a parallax image group that are performed with the image storage device 120 via the communication unit 143. For example, the control unit 145 controls storage of the parallax image group in the storage unit 144 and reading of the parallax image group from the storage unit 144.

また、第1の実施形態に係る制御部145は、表示部142に対するGUIの表示や視差画像群の表示を制御する。第1の実施形態に係る制御部145は、立体視画像を所定フォーマット(例えば格子状)に配置した中間画像に変換した上で9視差モニタである表示部142に表示する。   In addition, the control unit 145 according to the first embodiment controls the display of the GUI and the display of the parallax image group on the display unit 142. The control unit 145 according to the first embodiment converts the stereoscopic image into an intermediate image arranged in a predetermined format (for example, a lattice shape) and displays the converted image on the display unit 142 which is a 9-parallax monitor.

また、第1の実施形態に係る制御部145は、2次元画像処理部146による画像処理を制御する。   Further, the control unit 145 according to the first embodiment controls image processing by the two-dimensional image processing unit 146.

2次元画像処理部146は、図5を用いて説明した2次元画像処理部1363と同様の機能を有する。すなわち、2次元画像処理部146は、3次元画像処理部1362により生成されたアンダーレイとしての視差画像群に対して、オーバーレイを生成して重畳することで、表示部142に対する出力用の2次元画像を生成することができる。   The two-dimensional image processing unit 146 has the same function as the two-dimensional image processing unit 1363 described with reference to FIG. That is, the two-dimensional image processing unit 146 generates an overlay on the parallax image group as the underlay generated by the three-dimensional image processing unit 1362 and superimposes the two-dimensional image for output to the display unit 142. An image can be generated.

更に、第1の実施形態に係る2次元画像処理部146は、2つの視差画像それぞれの奥行き情報を用いて、補間処理により、当該2つの視差画像から新たな視差画像を生成する補間機能を有する。なお、2次元画像処理部146の補間機能については、後に詳述する。   Furthermore, the two-dimensional image processing unit 146 according to the first embodiment has an interpolation function for generating a new parallax image from the two parallax images by interpolation processing using depth information of each of the two parallax images. . The interpolation function of the two-dimensional image processing unit 146 will be described in detail later.

さて、上述したように、レンダリング処理部136は、制御部135による制御の下、ボリュームデータから視差画像群を生成する。また、端末装置140は、画像保管装置120から視差画像群を取得して表示部142に表示する。これにより、端末装置140の操作者である医師や検査技師は、各種情報(目盛り、患者名、検査項目等)が描出された状態で、立体視可能な医用画像を閲覧することができる。   As described above, the rendering processing unit 136 generates a parallax image group from the volume data under the control of the control unit 135. Further, the terminal device 140 acquires a parallax image group from the image storage device 120 and displays it on the display unit 142. As a result, a doctor or laboratory technician who is an operator of the terminal device 140 can browse a stereoscopically viewable medical image in a state where various information (scale, patient name, examination item, etc.) is drawn.

しかし、端末装置140からの立体視要求に応じて、リアルタイムでレンダリング処理部136がボリュームレンダリング処理を行なって視差画像群を生成するためには、ワークステーション130に高い画像処理能力が要求される。   However, in order for the rendering processing unit 136 to perform volume rendering processing in real time in response to a stereoscopic view request from the terminal device 140 to generate a parallax image group, the workstation 130 is required to have high image processing capability.

そこで、第1の実施形態に係るワークステーション130は、3次元の医用画像データから立体視用の画像を生成するために要する処理の負荷を軽減するように、制御部135のレンダリング処理制御が行なわれる。すなわち、第1の実施形態に係るワークステーション130は、制御部135の制御の下、レンダリング処理部136が所定の立体視モニタにて立体視するために必要となる視差数以上の画像群(視差画像群)をボリュームデータから生成する。そして、第1の実施形態に係るワークステーション130は、制御部135が、レンダリング処理部136が生成した視差画像群を画像保管装置120に格納するように制御する。そして、立体視モニタ(例えば、表示部142)は、画像保管装置120に格納された視差画像群の中から視差数の視差画像を選択して構成される立体視画像(例えば、9視差画像)を表示する。   Therefore, the workstation 130 according to the first embodiment performs rendering processing control of the control unit 135 so as to reduce the processing load required to generate a stereoscopic image from three-dimensional medical image data. It is. In other words, the workstation 130 according to the first embodiment has an image group (parallax) equal to or greater than the number of parallaxes required for the rendering processing unit 136 to perform stereoscopic viewing on a predetermined stereoscopic monitor under the control of the control unit 135. Image group) is generated from the volume data. In the workstation 130 according to the first embodiment, the control unit 135 performs control so that the parallax image group generated by the rendering processing unit 136 is stored in the image storage device 120. Then, the stereoscopic monitor (for example, the display unit 142) is a stereoscopic image (for example, nine-parallax image) configured by selecting a parallax image having the number of parallaxes from the parallax image group stored in the image storage device 120. Is displayed.

例えば、第1の実施形態に係るワークステーション130の操作者は、院内LAN2に接続される装置が有する立体視モニタそれぞれが必要とする視差数の情報から、視差数の最大値を取得する。そして、この操作者は、取得した最大値以上の視差画像から構成される視差画像群が生成されるように、制御部135に対して視差数を含む所定のレンダリング条件を設定する。以下では、端末装置140の表示部142の視差数「9」が最大値である場合について説明する。なお、本実施形態は、最大値が「18」や「2」である場合であっても適用可能である。   For example, the operator of the workstation 130 according to the first embodiment acquires the maximum value of the number of parallaxes from the information on the number of parallaxes required for each stereoscopic monitor included in the apparatus connected to the hospital LAN 2. Then, the operator sets a predetermined rendering condition including the number of parallaxes for the control unit 135 so that a parallax image group composed of parallax images equal to or greater than the acquired maximum value is generated. Hereinafter, a case where the number of parallaxes “9” of the display unit 142 of the terminal device 140 is the maximum value will be described. This embodiment is applicable even when the maximum value is “18” or “2”.

そして、制御部135は、視差数の情報とともに、予め設定されたレンダリング条件に基づいて、レンダリング処理部136のレンダリング処理を制御する。すなわち、制御部135は、所定形状の図形を形成する直線若しくは曲線に基づいてレンダリング処理を実行するための視点を視差数以上設定することで、視差画像群をレンダリング処理部136に生成させる。以下、第1の実施形態において設定される種々のレンダリング条件について説明する。   Then, the control unit 135 controls the rendering process of the rendering processing unit 136 based on the preset rendering condition together with the information on the number of parallaxes. That is, the control unit 135 causes the rendering processing unit 136 to generate a parallax image group by setting the viewpoint for executing the rendering process based on a straight line or a curve forming a figure having a predetermined shape to be equal to or greater than the number of parallaxes. Hereinafter, various rendering conditions set in the first embodiment will be described.

本実施形態のレンダリング条件として設定される上記の所定形状の図形は、ボリュームデータのレンダリング対象となる領域であるレンダリング領域と視点との位置関係により、以下の2つに大別される。すなわち、第1図形条件では、制御部135は、レンダリング領域外に視点が位置されるように所定形状の図形を設定する。そして、制御部135は、設定した図形を形成する直線若しくは曲線を用いて視差画像群をレンダリング処理部136に生成させる。また、第2図形条件では、制御部135は、所定形状の図形として、レンダリング領域内に視点が位置される図形を設定する。そして、制御部135は、設定した図形を形成する直線若しくは曲線を用いて視差画像群をレンダリング処理部136に生成させる。   The figure having the predetermined shape set as the rendering condition of the present embodiment is roughly classified into the following two types according to the positional relationship between the rendering area, which is an area to be rendered of volume data, and the viewpoint. That is, under the first graphic condition, the control unit 135 sets a graphic having a predetermined shape so that the viewpoint is located outside the rendering area. Then, the control unit 135 causes the rendering processing unit 136 to generate a parallax image group using a straight line or a curve that forms the set figure. In the second graphic condition, the control unit 135 sets a graphic whose viewpoint is located in the rendering area as a graphic having a predetermined shape. Then, the control unit 135 causes the rendering processing unit 136 to generate a parallax image group using a straight line or a curve that forms the set figure.

また、本実施形態のレンダリング条件としては、視差画像群を構成する視差画像の数により、以下の2つに大別される。すなわち、第1画像数条件では、制御部135は、立体視されるために必要となる視差数の視差画像から構成される視差画像群を生成させる。また、第2画像数条件では、制御部135は、立体視されるために必要となる視差数より大きい数の視差画像から構成される視差画像群を生成させる。   The rendering conditions of the present embodiment are roughly divided into the following two types depending on the number of parallax images constituting the parallax image group. That is, under the first image number condition, the control unit 135 generates a parallax image group including parallax images having the number of parallaxes necessary for stereoscopic viewing. Also, under the second image number condition, the control unit 135 generates a parallax image group including a larger number of parallax images than the number of parallaxes required for stereoscopic viewing.

ここで、本実施形態のレンダリング条件として第1図形条件が設定されている場合、第1図形条件は、更に、視点の設定法により、以下の2つに大別される。すなわち、第1視点設定条件では、制御部135は、所定形状の図形を形成する直線若しくは曲線に沿ってレンダリング処理を実行するための視点を視差数以上設定する。また、第2視点設定条件では、制御部135は、所定形状の図形を形成する直線若しくは曲線上に設定された点における接線に沿ってレンダリング処理を実行するための視点を視差数以上設定する。   Here, when the first graphic condition is set as the rendering condition of the present embodiment, the first graphic condition is further roughly divided into the following two depending on the viewpoint setting method. That is, under the first viewpoint setting condition, the control unit 135 sets the viewpoint for executing the rendering process along the straight line or the curve forming the figure having a predetermined shape to be equal to or more than the number of parallaxes. Further, under the second viewpoint setting condition, the control unit 135 sets the viewpoint for executing the rendering process along the tangent line at the point set on the straight line or the curve that forms the graphic having the predetermined shape to be equal to or more than the number of parallaxes.

なお、レンダリング条件としては、上述したように、視差角や、投影法、セグメンテーション条件等がある。以下では、視差角が「1度」と設定されている場合を説明する。ただし、視差角は、任意の値を設定することができる。例えば、視差角は、「0.5度」や「0.1度」、「3度」等であっても良い。   As described above, the rendering conditions include a parallax angle, a projection method, a segmentation condition, and the like. Hereinafter, a case where the parallax angle is set to “1 degree” will be described. However, the parallax angle can be set to an arbitrary value. For example, the parallax angle may be “0.5 degrees”, “0.1 degrees”, “3 degrees”, or the like.

まず、第1図形条件及び第1画像数条件により実行されるレンダリング処理を説明する。図8は、第1図形条件及び第1画像数条件により実行されるレンダリング処理を説明するための図である。例えば、制御部135は、第1図形条件により、レンダリング領域外に視点が位置される図形として、図8の(A)に示すように、正円を設定する。   First, the rendering process executed under the first graphic condition and the first image number condition will be described. FIG. 8 is a diagram for explaining a rendering process executed under the first graphic condition and the first image number condition. For example, the control unit 135 sets a perfect circle as illustrated in FIG. 8A as a graphic whose viewpoint is located outside the rendering area, based on the first graphic condition.

例えば、制御部135は、セグメンテーション処理部1361gが抽出したレンダリング領域の重心の位置を取得する。そして、制御部135は、重心を通る回転軸に対して直交する正円を設定する。ただし、制御部135は、正円がレンダリング領域の外部に位置するように、正円の半径を設定する。正円の半径は、制御部135がレンダリング領域の3次元空間座標に基づいて決定する場合であっても良いし、ワークステーション130の操作者が決定する場合であっても良い。また、正円の中心は、レンダリング領域の重心に限定されるものではなく、ワークステーション130の操作者により任意の位置に設定される場合であっても良い。例えば、正円の中心は、患部等の注目箇所に設定される場合であっても良い。かかる場合、ワークステーション130の操作者は、例えば、ボリュームデータを任意の切断面で切断したMPR画像を参照して患部の注目箇所を正円の中心として設定する。或いは、ワークステーション130として、例えば、病変部の候補領域を自動検出するコンピュータ読影支援診断システム(CAD:Computer Assisted Diagnosis)を搭載した装置を用いることで、ワークステーション130が患部の注目箇所を検出して、正円の中心を設定する場合であっても良い。   For example, the control unit 135 acquires the position of the center of gravity of the rendering area extracted by the segmentation processing unit 1361g. And the control part 135 sets the perfect circle orthogonal to the rotating shaft which passes through a gravity center. However, the control unit 135 sets the radius of the perfect circle so that the perfect circle is located outside the rendering area. The radius of the perfect circle may be determined by the control unit 135 based on the three-dimensional spatial coordinates of the rendering area, or may be determined by the operator of the workstation 130. Further, the center of the perfect circle is not limited to the center of gravity of the rendering area, and may be set at an arbitrary position by the operator of the workstation 130. For example, the center of the perfect circle may be set at a point of interest such as an affected area. In such a case, for example, the operator of the workstation 130 refers to an MPR image obtained by cutting the volume data at an arbitrary cut surface, and sets the attention site of the affected area as the center of a perfect circle. Alternatively, as the workstation 130, for example, by using a device equipped with a computer assisted diagnosis (CAD) that automatically detects a candidate region of a lesion, the workstation 130 detects an attention site of the affected area. The center of a perfect circle may be set.

そして、レンダリング処理部136は、制御部135の制御の下、視差角が「1度」となる9視差画像を生成する。   Then, under the control of the control unit 135, the rendering processing unit 136 generates a nine-parallax image whose parallax angle is “1 degree”.

例えば、制御部135は、第1視点設定条件が設定されている場合、図8の(B)に示すように、正円の周囲に沿って、視差角が1度となるように9個の視点を設定する。そして、第1視点設定条件が設定されている場合、レンダリング処理部136は、設定された9個の視点を用いて、図6の(B)で説明した透視投影法により9視差画像を生成する。なお、9個の視点の位置は、操作者、又は、制御部135により設定される。ただし、9個の視点における視線方向は、立体視表示が可能な条件を満たす必要がある。9個の視点における視線方向それぞれは、例えば、図6の(A)及び(B)に示すように、ボリュームデータの切断面の中心(重心)に向かう方向となるように設定される。   For example, when the first viewpoint setting condition is set, the control unit 135 has nine pieces so that the parallax angle becomes 1 degree along the circumference of the perfect circle as shown in FIG. Set the viewpoint. Then, when the first viewpoint setting condition is set, the rendering processing unit 136 generates nine parallax images by the perspective projection method described with reference to FIG. 6B using the set nine viewpoints. . Note that the positions of the nine viewpoints are set by the operator or the control unit 135. However, the line-of-sight directions at the nine viewpoints must satisfy a condition that enables stereoscopic display. For example, as shown in FIGS. 6A and 6B, the line-of-sight directions at the nine viewpoints are set so as to be directed toward the center (center of gravity) of the cut surface of the volume data.

また、制御部135は、第2視点設定条件が設定されている場合、図8の(C)に示すように、正円に基準点を設定し、設定した基準点を通る接線に沿って、視差角が1度となるように9個の視点を設定する。そして、第2視点設定条件が設定されている場合、レンダリング処理部136は、設定された9個の視点を用いて、図6の(A)で説明した平行投影法により9視差画像を生成する。なお、第2視点設定条件が設定されている場合、レンダリング処理部136は、図6の(C)で説明した投影法により9視差画像を生成しても良い。また、基準点の位置は、操作者、又は、制御部135により設定される。   In addition, when the second viewpoint setting condition is set, the control unit 135 sets a reference point in a perfect circle as shown in (C) of FIG. 8, along a tangent line passing through the set reference point, Nine viewpoints are set so that the parallax angle is 1 degree. When the second viewpoint setting condition is set, the rendering processing unit 136 generates nine parallax images by the parallel projection method described with reference to FIG. 6A using the set nine viewpoints. . Note that when the second viewpoint setting condition is set, the rendering processing unit 136 may generate a nine-parallax image by the projection method described in FIG. Further, the position of the reference point is set by the operator or the control unit 135.

続いて、第1図形条件及び第2画像数条件により実行されるレンダリング処理を説明する。図9及び図10は、第1図形条件及び第2画像数条件により実行されるレンダリング処理を説明するための図である。まず、例えば、制御部135は、第1図形条件により、図8で説明したように、レンダリング領域外に視点が位置される図形として正円を設定する。そして、第2画像数条件により設定される視差数は、「10」以上となる。   Next, the rendering process executed according to the first graphic condition and the second image number condition will be described. FIG. 9 and FIG. 10 are diagrams for explaining the rendering process executed under the first graphic condition and the second image number condition. First, for example, the control unit 135 sets a perfect circle as a figure whose viewpoint is located outside the rendering area, as described with reference to FIG. The number of parallaxes set according to the second image number condition is “10” or more.

ここで、制御部135は、第2画像数条件により視差数「11」が設定され、かつ、第1視点設定条件が設定されている場合、図9の(A)に示すように、正円の周囲に沿って、視差角が1度となるように11個の視点を設定する。そして、レンダリング処理部136は、設定された11個の視点を用いて、11個の視差画像から構成される視差画像群を生成する。   Here, when the parallax number “11” is set by the second image number condition and the first viewpoint setting condition is set, the control unit 135, as shown in FIG. 11 viewpoints are set so that the parallax angle becomes 1 degree. Then, the rendering processing unit 136 generates a parallax image group composed of 11 parallax images using the set 11 viewpoints.

また、制御部135は、第2画像数条件により視差数「360」が設定され、かつ、第1視点設定条件が設定されている場合、図9の(B)に示すように、正円の全周囲に沿って、視差角が1度となるように360個の視点を設定する。なお、図9の(B)では、作図の都合上、42個しか視点が描出されていないが、実際には、360個の視点が設定されている。そして、レンダリング処理部136は、設定された360個の視点を用いて、360個の視差画像から構成される視差画像群を生成する。以下、図9の(B)に示すように、レンダリング対象に対して生成された全周囲の視差画像のことを全周囲データと記載する。   In addition, when the parallax number “360” is set according to the second image number condition and the first viewpoint setting condition is set, the control unit 135, as shown in FIG. 360 viewpoints are set so that the parallax angle is 1 degree along the entire circumference. In FIG. 9B, only 42 viewpoints are drawn for the convenience of drawing, but actually 360 viewpoints are set. Then, the rendering processing unit 136 generates a parallax image group composed of 360 parallax images using the set 360 viewpoints. Hereinafter, as shown in FIG. 9B, the all-around parallax image generated for the rendering target is referred to as all-around data.

また、制御部135は、第2画像数条件及び第2視点設定条件が設定されている場合、所定形状の図形を形成する直線若しくは曲線上に設定された複数の点における各接線方向沿ってレンダリング処理を実行するための視点を設定する。例えば、制御部135は、第2画像数条件及び第2視点設定条件が設定されている場合、図10に示すように、正円に複数個の基準点を設定し(図中の斜線付きの丸を参照)、設定した複数の基準点を通る接線それぞれに沿って、視差角が1度となるように9個の視点を設定する。そして、レンダリング処理部136は、各接線において設定された9個の視点を用いて、図6の(A)で説明した平行投影法により9視差画像を基準点ごとに生成する。なお、レンダリング処理部136は、図6の(C)で説明した投影法により、基準点ごとの9視差画像を生成しても良い。また、各基準点の位置は、操作者、又は、制御部135により設定される。   In addition, when the second image number condition and the second viewpoint setting condition are set, the control unit 135 performs rendering along each tangent direction at a plurality of points set on a straight line or a curve that forms a graphic having a predetermined shape. Set the viewpoint for executing the process. For example, when the second image number condition and the second viewpoint setting condition are set, the control unit 135 sets a plurality of reference points on a perfect circle as shown in FIG. Nine viewpoints are set so that the parallax angle is 1 degree along each tangent line passing through the plurality of set reference points. Then, the rendering processing unit 136 generates nine parallax images for each reference point by the parallel projection method described with reference to FIG. 6A using the nine viewpoints set for each tangent. Note that the rendering processing unit 136 may generate nine parallax images for each reference point by the projection method described with reference to FIG. Further, the position of each reference point is set by the operator or the control unit 135.

なお、第1図形条件により設定される所定形状の図形は正円に限定されるものではない。図11は、第1図形条件の変形例を説明するための図である。   In addition, the figure of the predetermined shape set by the 1st figure conditions is not limited to a perfect circle. FIG. 11 is a diagram for explaining a modified example of the first graphic condition.

例えば、第1図形条件により設定される所定形状の図形は、図11の(A)に示すように、楕円である場合であっても良い。また、第1図形条件により設定される所定形状の図形は、多角形であっても良く、例えば、図11の(B)に示すように、6角形である場合であっても良い。   For example, the graphic having a predetermined shape set according to the first graphic condition may be an ellipse as shown in FIG. In addition, the graphic having a predetermined shape set according to the first graphic condition may be a polygon, for example, a hexagon as shown in FIG.

更に、第1図形条件により設定される所定形状の図形は、直線や曲線からなる閉じた図形である場合に限定されるものではない。例えば、第1図形条件により設定される所定形状の図形は、ポリライン(polyline)やスプライン(spline)曲線である場合でもよい。   Furthermore, the graphic of the predetermined shape set by the first graphic condition is not limited to a closed graphic consisting of a straight line or a curve. For example, the graphic having a predetermined shape set according to the first graphic condition may be a polyline or a spline curve.

また、制御部135は、第1図形条件により、所定形状の図形を複数設定する場合であっても良い。例えば、制御部135は、図11の(C)に示すように、レンダリング領域の重心を通る回転軸を3つ設定することで、3つの正円を設定し、各正円において視差画像群が生成されるように制御しても良い。なお、視点が位置される図形として正円を用いることで、以下に説明する利点がある。一般的には、任意視点におけるレンダリング画像は、必ずしも、当該視点における視差画像とはならない。しかし、例えば、視点が位置される図形が正円の場合、視差角の条件を適切に設定することで、正円上の任意視点におけるレンダリング画像は、当該視点における視差画像となる。すなわち、視点が位置される図形として正円を用いることで、視差画像群として生成する画像数を大幅に低減することができる。その結果、保存する視差画像群のデータ量を大幅に低減することができる。   In addition, the control unit 135 may set a plurality of figures having a predetermined shape according to the first figure condition. For example, as illustrated in FIG. 11C, the control unit 135 sets three rotation circles that pass through the center of gravity of the rendering area, thereby setting three perfect circles. You may control so that it may be produced | generated. In addition, there exists an advantage demonstrated below by using a perfect circle as a figure in which a viewpoint is located. In general, a rendering image at an arbitrary viewpoint is not necessarily a parallax image at the viewpoint. However, for example, when the figure where the viewpoint is located is a perfect circle, by appropriately setting the parallax angle condition, the rendered image at an arbitrary viewpoint on the perfect circle becomes a parallax image at the viewpoint. That is, by using a perfect circle as a figure where the viewpoint is located, the number of images generated as a parallax image group can be significantly reduced. As a result, the data amount of the parallax image group to be stored can be greatly reduced.

このように、制御部135は、第1図形条件において、第1画像数条件及び第2画像数条件と、第1視点設定条件及び第2視点設定条件との任意の組み合わせにて視差画像群を生成させる。   As described above, the control unit 135 sets the parallax image group in an arbitrary combination of the first image number condition and the second image number condition, and the first viewpoint setting condition and the second viewpoint setting condition in the first graphic condition. Generate.

そして、制御部135は、レンダリング処理部136が生成した視差画像群を、通信部133を介して、画像保管装置120に格納させる。具体的には、制御部135は、レンダリング処理部136が生成した視差画像群を、当該視差画像群の生成元であるボリュームデータに対応付けて画像保管装置120に格納させる。   Then, the control unit 135 causes the image storage device 120 to store the parallax image group generated by the rendering processing unit 136 via the communication unit 133. Specifically, the control unit 135 causes the image storage device 120 to store the parallax image group generated by the rendering processing unit 136 in association with the volume data that is the generation source of the parallax image group.

かかる処理により、視差画像群が格納された状態となり、例えば、端末装置140の操作者は、自身が参照したいボリュームデータを指定するだけで、当該ボリュームデータを表示部142にて立体視することができる。   With this processing, the parallax image group is stored, and for example, the operator of the terminal device 140 can stereoscopically view the volume data on the display unit 142 only by specifying the volume data that the terminal device 140 wants to refer to. it can.

そこで、端末装置140の制御部145は、以下の表示制御処理を行なう。すなわち、制御部145は、操作者が指定したボリュームデータの視差画像群を画像保管装置120から取得する。具体的には、制御部145は、操作者が指定したボリュームデータから生成された視差画像群から視差数の視差画像を画像保管装置120から取得する。例えば、制御部145は、端末装置140の操作者から入力部141を介して「患者ID、検査ID」等の付帯情報とともに立体視要求を受け付けると、付帯情報及び立体視要求を画像保管装置120に送信する。画像保管装置120は、受信した付帯情報に対応付けられたボリュームデータを検索し、更に、検索したボリュームデータに対応付けられた視差画像群を検索する。そして、画像保管装置120は、検索した視差画像群を端末装置140に送信する。   Therefore, the control unit 145 of the terminal device 140 performs the following display control process. That is, the control unit 145 obtains a parallax image group of volume data designated by the operator from the image storage device 120. Specifically, the control unit 145 acquires a parallax image having the number of parallaxes from the image storage device 120 from the parallax image group generated from the volume data designated by the operator. For example, when the control unit 145 receives a stereoscopic request together with additional information such as “patient ID and examination ID” from the operator of the terminal device 140 via the input unit 141, the control unit 145 sends the additional information and the stereoscopic request to the image storage device 120. Send to. The image storage device 120 searches for volume data associated with the received supplementary information, and further retrieves a parallax image group associated with the retrieved volume data. Then, the image storage device 120 transmits the searched parallax image group to the terminal device 140.

そして、制御部145は、取得した視差数の視差画像を用いて構成される立体視画像を9視差モニタである表示部142にて表示させるように制御する。図12〜図14は、端末装置における表示制御を説明するための図である。   Then, the control unit 145 performs control so that the stereoscopic image configured using the acquired parallax images of the number of parallaxes is displayed on the display unit 142 which is a 9-parallax monitor. 12-14 is a figure for demonstrating the display control in a terminal device.

例えば、図8を用いて説明した第1図形条件及び第1画像数条件により生成された視差画像群(9視差画像)を取得した場合、制御部145は、図12に示すように、9視差画像を3行3列の格子状に配列した中間画像に変換したうえで、表示部142に出力し、表示させる。なお、中間画像のフォーマットは、格子状に限定されるものではない。例えば、中間画像は、9視差画像を9視差モニタの仕様に応じた画素配置に並べ替えたフォーマットであれば良い。ここで、9視差モニタの仕様としては、縦ストライプ液晶、横ストライプ液晶、縦レンズ方式、斜めレンズ方式、斜めレンズの角度等が挙げられる。   For example, when the parallax image group (9 parallax images) generated based on the first graphic condition and the first image number condition described with reference to FIG. 8 is acquired, the control unit 145 displays 9 parallaxes as illustrated in FIG. The image is converted into an intermediate image arranged in a 3 × 3 grid, and then output to the display unit 142 for display. Note that the format of the intermediate image is not limited to a lattice shape. For example, the intermediate image may be in a format in which 9 parallax images are rearranged in a pixel arrangement according to the specifications of the 9 parallax monitor. Here, the specifications of the 9-parallax monitor include a vertical stripe liquid crystal, a horizontal stripe liquid crystal, a vertical lens system, an oblique lens system, an angle of an oblique lens, and the like.

一方、図9及び図10を用いて説明した第1図形条件及び第2画像数条件により生成された視差画像群を取得した場合、制御部145は、以下に説明する処理を行なう。すなわち、制御部145は、画像保管装置120から取得した視差画像群の画像数が視差数より大きい場合、当該取得した視差画像群から選択された視差数分の画像群を表示部142にて表示させるように制御する。   On the other hand, when the parallax image group generated based on the first graphic condition and the second image number condition described with reference to FIGS. 9 and 10 is acquired, the control unit 145 performs processing described below. That is, when the number of parallax image groups acquired from the image storage device 120 is larger than the number of parallaxes, the control unit 145 displays the image groups for the number of parallaxes selected from the acquired parallax image groups on the display unit 142. To control.

例えば、制御部145は、図13に示すように、全周囲データを取得した場合、視点位置が連続する9枚の視差画像を選択して格子状の中間画像に変換したうえで、表示部142に出力し、表示させる。なお、9視差画像の選択処理は、端末装置140の操作者により行なわれる場合であっても良い。また、9視差画像の選択処理は、予め、ワークステーション130により行なわれている場合であっても良い。なお、9視差画像の選択処理は、視点位置が連続する9枚の視差画像を選択する場合に限定されるものではない。例えば、9視差画像の選択処理は、連続する視点位置を2つごとに選択したり、3つごとに選択したりすることで行なわれる場合であっても良い。   For example, as illustrated in FIG. 13, the control unit 145 selects nine parallax images with continuous viewpoint positions and converts them into a grid-like intermediate image when acquiring all-around data, and then displays the display unit 142. Output to and display. Note that the 9-parallax image selection process may be performed by an operator of the terminal device 140. The 9-parallax image selection process may be performed by the workstation 130 in advance. Note that the selection process of nine parallax images is not limited to the case of selecting nine parallax images with continuous viewpoint positions. For example, the nine-parallax image selection process may be performed by selecting every two consecutive viewpoint positions or every third viewpoint position.

或いは、制御部145は、画像保管装置120から取得した視差画像群の画像数が視差数より大きい場合、当該取得した視差画像群から順次選択された視差数分の画像群を表示部142にて順次表示させるように制御する。具体的には、制御部145は、視差数の視差画像を順次選択することにより複数の立体視画像を表示部142にて順次表示させるように制御する。   Alternatively, when the number of parallax image groups acquired from the image storage device 120 is greater than the number of parallaxes, the control unit 145 causes the display unit 142 to display image groups for the number of parallaxes sequentially selected from the acquired parallax image groups. Control to display sequentially. Specifically, the control unit 145 controls the display unit 142 to sequentially display a plurality of stereoscopic images by sequentially selecting parallax images having the number of parallaxes.

例えば、制御部145は、図14に示すように、全周囲データを取得した場合、視点位置が連続する9枚の視差画像を、数枚ずつずらして順次選択する。そして、制御部145は、図14に示すように、選択した9視差画像を順次中間画像に変換したうえで、表示部142に順次出力し、表示させる。その結果、表示部142は、操作者がボリュームデータを回転させながら立体視観察ができる立体視画像を表示することができる。なお、9視差画像の選択処理は、端末装置140の操作者により行なわれる場合であっても良い。また、9視差画像の選択処理は、予め、ワークステーション130により行なわれている場合であっても良い。なお、視差画像群としてレンダリング処理部136が生成する画像は、必ずしも「視差数以上」である必要はない。具体的には、レンダリング処理部136が生成した「視差数未満」の視差画像から、上述した2次元画像処理部146の補間機能を用いて、「視差数以上」の視差画像を生成する場合であっても良い。例えば、2次元画像処理部146が、視点位置が隣接する2つの視差画像から補間処理により視差画像として代用できる画像を生成することで、「視差数以上」の視差画像を生成する場合であっても良い。すなわち、本実施形態は、制御部135の制御によりレンダリング処理部136が生成した「視差数未満」の視差画像から、制御部145の制御により2次元画像処理部146が補間処理により「視差数以上」の視差画像を生成する場合であっても良い。なお、2次元画像処理部146の補間機能については、後に詳述する。   For example, as illustrated in FIG. 14, when acquiring all-around data, the control unit 145 sequentially selects nine parallax images with consecutive viewpoint positions while shifting them by several. Then, as illustrated in FIG. 14, the control unit 145 sequentially converts the selected nine parallax images into intermediate images, and then sequentially outputs and displays them on the display unit 142. As a result, the display unit 142 can display a stereoscopic image that allows the operator to observe stereoscopically while rotating the volume data. Note that the 9-parallax image selection process may be performed by an operator of the terminal device 140. The 9-parallax image selection process may be performed by the workstation 130 in advance. Note that an image generated by the rendering processing unit 136 as a parallax image group does not necessarily have to be “the number of parallaxes or more”. Specifically, in the case of generating a parallax image of “greater than or equal to the number of parallaxes” from the parallax image of “less than the number of parallaxes” generated by the rendering processing unit 136 using the interpolation function of the two-dimensional image processing unit 146 described above. There may be. For example, the two-dimensional image processing unit 146 generates a parallax image “more than the number of parallaxes” by generating an image that can be substituted as a parallax image by interpolation processing from two parallax images with adjacent viewpoint positions. Also good. That is, in the present embodiment, the two-dimensional image processing unit 146 performs interpolation processing based on “less than the number of parallaxes” by the control of the control unit 145 from the “less than the number of parallaxes” generated by the rendering processing unit 136 under the control of the control unit 135. May be generated. The interpolation function of the two-dimensional image processing unit 146 will be described in detail later.

次に、第2図形条件について説明する。第2図形条件では、制御部135は、レンダリング領域内に視点が位置されるように所定形状の図形を設定する。図15は、第2図形条件を説明するための図である。例えば、第2図形条件は、大腸を撮影した3次元X線CT画像の表示法(CTC:CT Colonography)として広く用いられている仮想内視鏡(VE:Virtual Endoscopy)表示法が実行される場合に適用される図形条件である。   Next, the second graphic condition will be described. Under the second graphic condition, the control unit 135 sets a graphic having a predetermined shape so that the viewpoint is positioned in the rendering area. FIG. 15 is a diagram for explaining the second graphic condition. For example, the second graphic condition is when a virtual endoscopy (VE) display method widely used as a display method (CTC: CT Colonography) of a three-dimensional X-ray CT image obtained by imaging the large intestine is executed. Is a graphic condition applied to.

例えば、セグメンテーション処理部1361gは、大腸の管腔領域を抽出する。更に、セグメンテーション処理部1361gは、図15に示すように、管腔領域の芯線を抽出する。セグメンテーション処理部1361gにより抽出された芯線が第2図形条件にて用いられる所定形状の図形となる。そして、セグメンテーション処理部1361gは、図15に示すように、更に、抽出した芯線に所定間隔で複数の基準点を設定する(図中の白抜きの丸を参照)。   For example, the segmentation processing unit 1361 g extracts a lumen region of the large intestine. Further, the segmentation processing unit 1361g extracts the core line of the lumen region as shown in FIG. The core line extracted by the segmentation processing unit 1361g is a graphic having a predetermined shape used under the second graphic condition. Then, as shown in FIG. 15, the segmentation processing unit 1361g further sets a plurality of reference points at predetermined intervals on the extracted core line (see white circles in the figure).

かかる情報を取得した制御部135は、図15に示すように、芯線の各基準点が位置する場所に視点を設定し、視点を通り芯線に垂直となる平面において、設定した視点を中心として放射状に大腸内壁(管腔内壁)を1周囲で観察するための視線方向を設定する。基準点を中心に視線方向を360度回転させることにより、レンダリング処理部136は、各基準点において、大腸内壁(管腔内壁)を1周囲で立体視できる全周囲データを生成する。   As shown in FIG. 15, the control unit 135 that has acquired such information sets a viewpoint at a location where each reference point of the core line is located, and in a plane that passes through the viewpoint and is perpendicular to the core line, A line-of-sight direction for observing the inner wall of the large intestine (inner lumen wall) around one is set. By rotating the line-of-sight direction 360 degrees around the reference point, the rendering processing unit 136 generates all-around data that enables stereoscopic viewing of the inner wall of the large intestine (inner lumen wall) at each reference point.

このようにして生成されたVE表示法の視差画像群は、画像保管装置120に格納される。そして、制御部145は、VE表示法の視差画像群のセットを画像保管装置120から取得して、表示部142に表示させる。すなわち、制御部145は、各基準点にて生成された全周囲データから選択された9視差画像を中間画像に変換したうえで、表示部142に出力する。なお、第1図形条件は、視点の位置をレンダリング領域外に限定し、第2図形条件は、視点の位置をレンダリング領域内に限定したものであるが、第1の実施形態において設定される視点の位置は、これらに限定されるものではない。例えば、第1の実施形態は、視点の一部がレンダリング領域内に位置し、視点の一部がレンダリング領域外に位置するように図形を設定する第3図形条件により立体視画像に用いられる視差画像群が生成される場合であっても良い。なお、第3図形条件にて設定される図形は、正円や楕円、多角形、直線、ポリラインやスプライン曲線のいずれの場合であっても良い。   The VE display method parallax image group generated in this way is stored in the image storage device 120. Then, the control unit 145 acquires a set of parallax images in the VE display method from the image storage device 120 and causes the display unit 142 to display the set. That is, the control unit 145 converts the nine parallax images selected from the all-around data generated at each reference point into an intermediate image and outputs the intermediate image to the display unit 142. The first graphic condition limits the viewpoint position outside the rendering area, and the second graphic condition limits the viewpoint position within the rendering area, but the viewpoint set in the first embodiment. The position of is not limited to these. For example, in the first embodiment, the parallax used for the stereoscopic image by the third graphic condition in which the graphic is set so that a part of the viewpoint is located within the rendering area and the part of the viewpoint is located outside the rendering area. It may be a case where an image group is generated. The graphic set under the third graphic condition may be any of a perfect circle, an ellipse, a polygon, a straight line, a polyline, and a spline curve.

次に、図16及び図17を用いて第1の実施形態に係る画像処理システム1の処理について説明する。図16は、第1の実施形態に係る画像処理システムの画像格納処理を説明するための図である。また、図17は、第1の実施形態に係る画像処理システムの画像表示処理を説明するための図である。   Next, processing of the image processing system 1 according to the first embodiment will be described with reference to FIGS. 16 and 17. FIG. 16 is a diagram for explaining image storage processing of the image processing system according to the first embodiment. FIG. 17 is a diagram for explaining image display processing of the image processing system according to the first embodiment.

図16に示すように、第1の実施形態に係る画像処理システム1のワークステーション130は、処理対象となるボリュームデータが指定されたか否かを判定する(ステップS101)。ここで、ボリュームデータが指定されない場合(ステップS101否定)、ワークステーション130は、ボリュームデータが指定されるまで待機する。   As shown in FIG. 16, the workstation 130 of the image processing system 1 according to the first embodiment determines whether or not volume data to be processed is specified (step S101). Here, when the volume data is not designated (No at Step S101), the workstation 130 waits until the volume data is designated.

一方、ボリュームデータが指定された場合(ステップS101肯定)、制御部135は、指定されたボリュームデータを画像保管装置120から取得する(ステップS102)。そして、制御部135は、取得したボリュームデータに対するレンダリング条件を受け付けたか否かを判定する(ステップS103)。ここでレンダリング条件は、視差角、セグメンテーション条件等の他に、上述した図形条件、画像数条件、視点位置条件となる。   On the other hand, when the volume data is designated (Yes at Step S101), the control unit 135 acquires the designated volume data from the image storage device 120 (Step S102). Then, the control unit 135 determines whether or not a rendering condition for the acquired volume data has been received (step S103). Here, the rendering conditions are the graphic condition, the image number condition, and the viewpoint position condition described above in addition to the parallax angle and the segmentation condition.

レンダリング条件を受け付けない場合(ステップS103否定)、制御部135は、レンダリング条件を受け付けるまで待機する。一方、レンダリング条件を受け付けた場合(ステップS103肯定)、制御部135の制御により、レンダリング処理部136は、レンダリング条件に基づいて、ボリュームデータから視差画像群を生成する(ステップS104)。   When the rendering condition is not accepted (No at Step S103), the control unit 135 waits until the rendering condition is accepted. On the other hand, when the rendering condition is received (Yes at Step S103), the rendering processing unit 136 generates a parallax image group from the volume data based on the rendering condition under the control of the control unit 135 (Step S104).

そして、制御部135は、画像保管装置120が視差画像群を格納するように制御し(ステップS105)、処理を終了する。   Then, the control unit 135 controls the image storage device 120 to store the parallax image group (step S105), and ends the process.

その後、図17に示すように、第1の実施形態に係る画像処理システム1の端末装置140は、操作者により処理対象となるボリュームデータが指定されたか否かを判定する(ステップS201)。ここで、ボリュームデータが指定されない場合(ステップS201否定)、端末装置140は、ボリュームデータが指定されるまで待機する。   Thereafter, as illustrated in FIG. 17, the terminal device 140 of the image processing system 1 according to the first embodiment determines whether volume data to be processed is specified by the operator (step S <b> 201). Here, when the volume data is not designated (No at Step S201), the terminal device 140 stands by until the volume data is designated.

一方、ボリュームデータが指定された場合(ステップS201肯定)、制御部145は、指定されたボリュームデータに対応付けられた視差画像群を取得し(ステップS202)、取得した視差画像群が9視差画像であるか否かを判定する(ステップS203)。なお、制御部145は、取得した視差画像群を記憶部144に格納する。   On the other hand, when the volume data is designated (Yes at Step S201), the control unit 145 obtains a parallax image group associated with the designated volume data (Step S202), and the obtained parallax image group has nine parallax images. It is determined whether or not (step S203). The control unit 145 stores the acquired parallax image group in the storage unit 144.

ここで、取得した視差画像群が9視差画像である場合(ステップS203肯定)、制御部145は、9視差画像を中間画像に変換し(ステップS205)、表示部142にて表示させ(ステップS206)、処理を終了する。   Here, when the acquired parallax image group is a nine-parallax image (Yes at Step S203), the control unit 145 converts the nine-parallax image into an intermediate image (Step S205), and displays it on the display unit 142 (Step S206). ), The process is terminated.

一方、取得した視差画像群が10枚以上の視差画像群である場合(ステップS203否定)、制御部145は、9視差画像を選択して中間画像に変換し(ステップS204)、表示部142にて表示させ(ステップS206)、処理を終了する。なお、図14で例示した回転表示を行なう場合、制御部145は、ステップS204及びSステップ206の処理を繰り返して実行する。   On the other hand, when the acquired parallax image group is a group of 10 or more parallax images (No at Step S203), the control unit 145 selects nine parallax images and converts them into intermediate images (Step S204). Are displayed (step S206), and the process is terminated. Note that, when the rotation display illustrated in FIG. 14 is performed, the control unit 145 repeatedly executes the processes of step S204 and step S206.

上述してきたように、第1の実施形態では、第1図形条件や、第2図形条件等の様々なレンダリング条件により、予め、ボリュームデータから視差画像群を生成し記憶させておくことで、立体視要求を受け付けた場合に、リアルタイムでボリュームレンダリング処理を行なうことなく、立体視可能な画像群を提供することができる。従って、第1の実施形態では、高い画像処理能力を有するワークステーション130を設置する必要がなく、3次元の医用画像データから立体視用の画像を生成するために要する処理の負荷を軽減することができる。   As described above, in the first embodiment, by generating and storing a parallax image group from volume data in advance according to various rendering conditions such as the first graphic condition and the second graphic condition, a stereoscopic image is stored. When a viewing request is received, a stereoscopically viewable image group can be provided without performing volume rendering processing in real time. Therefore, in the first embodiment, it is not necessary to install a workstation 130 having high image processing capability, and the processing load required to generate a stereoscopic image from three-dimensional medical image data can be reduced. Can do.

なお、上記の第1の実施形態は、以下に説明する3つの変形例を行なっても良い。以下、図18〜図20を用いて第1の実施形態の変形例について説明する。図18は、第1の実施形態に係る第1の変形例を説明するための図である。   The first embodiment described above may be modified in the following three modifications. Hereinafter, a modification of the first embodiment will be described with reference to FIGS. FIG. 18 is a diagram for explaining a first modification according to the first embodiment.

第1の実施形態に係る第1の変形例は、端末装置140の操作者の要望に応じて立体視される画像の立体感を変更させるものである。例えば、視差角が1度の9視差画像と視差角が2度の9視差画像とを比較すると、視差角が2度の9視差画像の方が、立体感が増すことが知られている。そこで、第1の変形例に係る制御部145は、表示部142に対して立体視用に出力する視差数分の画像群の視差角を変更させる。すなわち、制御部145は、選択する所定数の視差数の視差画像相互間の視差角を変更させる。例えば、入力部141は、立体感レベルを調整するためのスライドバーを有し、スライドバーの位置は、視差角の値と対応付けられているとする。   The first modification according to the first embodiment is to change the stereoscopic effect of the stereoscopically viewed image in response to the request of the operator of the terminal device 140. For example, when comparing a 9-parallax image with a parallax angle of 1 degree and a 9-parallax image with a parallax angle of 2 degrees, it is known that a 9-parallax image with a parallax angle of 2 degrees has a higher stereoscopic effect. Therefore, the control unit 145 according to the first modification causes the display unit 142 to change the parallax angles of the image groups for the number of parallaxes to be output for stereoscopic viewing. That is, the control unit 145 changes the parallax angle between parallax images having a predetermined number of parallaxes to be selected. For example, it is assumed that the input unit 141 has a slide bar for adjusting the stereoscopic level, and the position of the slide bar is associated with the value of the parallax angle.

ここで、操作者から立体感を向上させるためにスライドさせたバーの位置が「視差角:2度」である場合、制御部145は、「視差角:2度」の画像群を「視差角:1度」の全周囲データから選択可能であると判定する。そして、制御部145は、図18の(A)に示すように、「視差角:1度」の全周囲データから、「視差角:2度」となるように、1つおきに視差画像を9枚選択し、選択した9枚の画像を表示部142に出力させる。   Here, when the position of the bar slid to improve the stereoscopic effect from the operator is “parallax angle: 2 degrees”, the control unit 145 displays the image group of “parallax angle: 2 degrees” as “parallax angle”. It is determined that selection is possible from all surrounding data of “1 degree”. Then, as shown in FIG. 18A, the control unit 145 generates every other parallax image so that the “parallax angle: 2 degrees” is obtained from the all-around data of “parallax angle: 1 degree”. Nine images are selected, and the selected nine images are output to the display unit 142.

また、操作者から立体感を低下させるためにスライドさせたバーの位置が「視差角:0.5度」である場合、制御部145は、「視差角:0.5度」の画像群全てを「視差角:1度」の全周囲データから選択不可であると判定する。すなわち、制御部145は、図18の(B)に示す黒丸で示す視点位置の視差画像が存在しないと判定する。そこで、制御部145は、2次元画像処理部146の補間機能を利用する。すなわち、2次元画像処理部146は、上述したように、2つの視差画像それぞれの奥行き情報用いて、補間処理により、当該2つの視差画像から新たな視差画像を生成する補間機能を有する。2次元画像処理部146が実行する補間処理の具体例について、以下、説明する。例えば、画像Aと画像Bとの中間に位置する画像Cを生成する場合、2次元画像処理部146は、画像Aから画像Bへの方向を示す「画像Aと画像BとのWarp Field」を「Mutual Information法」によって算出する。そして、2次元画像処理部146は、「Warp Field」における各画素ベクトルの中間点(画像Aから画像Bへのベクトルの半分)を画像Aに積算することで、画像Cを生成する。また、画像Aと画像Bとの中間に位置する画像ではなく、例えば、「2:1」の角度位置の画像Cが必要な場合は、2次元画像処理部146は、「2:1」の比率に位置する画像Aから画像Bへのベクトルの画素を用いて画像Cを生成する。なお、画像Aと画像Bとの角度間隔が狭い場合、2次元画像処理部146は、奥行き情報を用いずに、画像Aと画像Bとを足し合わせた後に、画素値を半分にするといった単純な補間処理を行なっても良い。   When the position of the bar slid to reduce the stereoscopic effect from the operator is “parallax angle: 0.5 degree”, the control unit 145 displays all the image groups having “parallax angle: 0.5 degree”. Are determined not to be selectable from all-around data of “parallax angle: 1 degree”. That is, the control unit 145 determines that there is no parallax image at the viewpoint position indicated by the black circle illustrated in FIG. Therefore, the control unit 145 uses the interpolation function of the two-dimensional image processing unit 146. That is, as described above, the two-dimensional image processing unit 146 has an interpolation function for generating a new parallax image from the two parallax images by interpolation processing using the depth information of each of the two parallax images. A specific example of the interpolation process executed by the two-dimensional image processing unit 146 will be described below. For example, when generating an image C positioned between the image A and the image B, the two-dimensional image processing unit 146 sets “Warp Field between the image A and the image B” indicating the direction from the image A to the image B. Calculated by “Mutual Information Method”. Then, the two-dimensional image processing unit 146 generates an image C by adding the intermediate point of each pixel vector in “Warp Field” (half of the vector from the image A to the image B) to the image A. For example, when the image C at the angular position “2: 1” is required instead of the image located between the images A and B, the two-dimensional image processing unit 146 selects “2: 1”. The image C is generated by using the vector pixels from the image A to the image B located at the ratio. When the angular interval between the image A and the image B is narrow, the two-dimensional image processing unit 146 simply adds the image A and the image B and halves the pixel value without using the depth information. An appropriate interpolation process may be performed.

制御部145は、図18の(B)に示す黒丸で示す視点位置の視差画像を隣接する取得済みの2つの視差画像から補間処理により生成するように2次元画像処理部146を制御する。すなわち、2次元画像処理部146は、黒丸で示す視点位置に隣接する2つ視点により生成されている2つの視差画像それぞれの奥行き情報を用いて、補間処理により、黒丸で示す視点位置に対応する新たな視差画像を生成する。これにより、制御部145は、「視差角:0.5度」となる9枚の画像を表示部142に出力させる。   The control unit 145 controls the two-dimensional image processing unit 146 so as to generate a parallax image at the viewpoint position indicated by a black circle illustrated in FIG. 18B from two adjacent acquired parallax images by interpolation processing. That is, the two-dimensional image processing unit 146 uses the depth information of each of the two parallax images generated by the two viewpoints adjacent to the viewpoint position indicated by the black circle, and corresponds to the viewpoint position indicated by the black circle by interpolation processing. A new parallax image is generated. Accordingly, the control unit 145 causes the display unit 142 to output nine images having “parallax angle: 0.5 degree”.

このように、第1の実施形態に係る第1の変形例では、レンダリング処理を再実行させることなく、操作者の要望に応じて立体視される画像の立体感を変更することができる。   As described above, in the first modification example according to the first embodiment, the stereoscopic effect of the stereoscopically viewed image can be changed according to the operator's request without performing the rendering process again.

次に、第1の実施形態に係る第2の変形例について図19を用いて説明する。図19は、第1の実施形態に係る第2の変形例を説明するための図である。   Next, a second modification according to the first embodiment will be described with reference to FIG. FIG. 19 is a diagram for explaining a second modification example according to the first embodiment.

第2の変形例において、レンダリング制御処理を行なう制御部135は、視差画像群を構成する各画像の解像度が、出力対象の立体表示モニタ(表示部142)の解像度より高くなるように、レンダリング処理部136を制御する。   In the second modification, the control unit 135 that performs the rendering control process performs the rendering process so that the resolution of each image constituting the parallax image group is higher than the resolution of the stereoscopic display monitor (display unit 142) to be output. The unit 136 is controlled.

例えば、制御部135は、予め、端末装置40から表示部142の解像度が「512ピクセル×512ピクセル」であることを取得する。かかる場合、制御部135は、例えば、レンダリング処理部136に対して「1024ピクセル×1024ピクセル」の解像度となるボリュームレンダリング画像を生成するように指示する。   For example, the control unit 135 acquires in advance from the terminal device 40 that the resolution of the display unit 142 is “512 pixels × 512 pixels”. In such a case, for example, the control unit 135 instructs the rendering processing unit 136 to generate a volume rendering image having a resolution of “1024 pixels × 1024 pixels”.

これにより、端末装置140の制御部145は、図19の(A)に示すように、「1024ピクセル×1024ピクセル」の9視差画像を取得する。制御部145は、表示部142に取得した9視差画像を出力するために、2次元画像処理部146が有する拡大縮小機能を利用する。例えば、制御部145の指示により、2次元画像処理部146は、近接する画素の画素値の平均値を算出する補間処理により、図19の(A)に示すように、「1024ピクセル×1024ピクセル」の9視差画像を「512ピクセル×512ピクセル」の9視差画像とする。   As a result, the control unit 145 of the terminal device 140 acquires a 9-parallax image of “1024 pixels × 1024 pixels” as illustrated in FIG. The control unit 145 uses the enlargement / reduction function of the two-dimensional image processing unit 146 in order to output the nine-parallax image acquired on the display unit 142. For example, according to an instruction from the control unit 145, the two-dimensional image processing unit 146 performs “1024 pixels × 1024 pixels” as illustrated in FIG. 19A by interpolation processing that calculates an average value of pixel values of adjacent pixels. The 9 parallax images of “512 pixels × 512 pixels”.

そして、制御部145は、図19の(A)に示すように、「512ピクセル×512ピクセル」の9視差画像を格子状に配置した中間画像に変換して表示部142に出力する。   Then, as illustrated in FIG. 19A, the control unit 145 converts the nine-parallax image of “512 pixels × 512 pixels” into an intermediate image arranged in a grid and outputs it to the display unit 142.

このように、高解像度の画像を低解像度に変換することで、以下の効果が奏することができる。すなわち、「512ピクセル×512ピクセル」の9視差画像を参照した操作者が拡大表示要求を要求した場合、制御部145は、2次元画像処理部146に対して9視差画像の拡大処理を指示することとなる。ここで、端末装置140の記憶部144には、原画像である「1024ピクセル×1024ピクセル」の9視差画像が格納されている。   Thus, the following effects can be produced by converting a high resolution image to a low resolution. That is, when an operator who refers to a 9-parallax image of “512 pixels × 512 pixels” requests an enlargement display request, the control unit 145 instructs the 2-dimensional image processing unit 146 to enlarge the 9-parallax image. It will be. Here, the storage unit 144 of the terminal device 140 stores nine parallax images of “1024 pixels × 1024 pixels” that are original images.

例えば、拡大要求された領域が原画像において「768ピクセル×768ピクセル」のサイズであるとする。かかる場合、2次元画像処理部146は、図19の(B)に示すように、原画像から「768ピクセル×768ピクセル」の領域を切り出して、「512ピクセル×512ピクセル」に縮小することで出力用の9視差画像を生成することができる。かかる9視差画像は、原画像が「512ピクセル×512ピクセル」の9視差画像である場合と比較して、解像度が低下していない。   For example, it is assumed that the area requested to be enlarged has a size of “768 pixels × 768 pixels” in the original image. In such a case, the two-dimensional image processing unit 146 cuts out an area of “768 pixels × 768 pixels” from the original image and reduces it to “512 pixels × 512 pixels” as shown in FIG. A 9-parallax image for output can be generated. The resolution of the 9-parallax image is not lowered as compared with the case where the original image is a 9-parallax image of “512 pixels × 512 pixels”.

すなわち、第3の変形例では、高解像度の視差画像群を生成しておくことで、表示先の立体視用のモニタにて立体視画像が拡大表示された場合に低解像度となることを回避することができる。   That is, in the third modification, by generating a high-resolution parallax image group, it is possible to avoid a low resolution when a stereoscopic image is enlarged and displayed on a stereoscopic monitor as a display destination. can do.

次に、第1の実施形態に係る第3の変形例について図20を用いて説明する。図20は、第1の実施形態に係る第3の変形例を説明するための図である。   Next, a third modification according to the first embodiment will be described with reference to FIG. FIG. 20 is a diagram for explaining a third modification example according to the first embodiment.

上記では、表示部142が9視差モニタである場合について説明したが、第1の実施形態は、表示部142が図2を用いて説明した2視差モニタである場合であっても適用可能である。例えば、制御部145が、図20に示すように、操作者が指定したボリュームデータに対応付けられた視差画像群として「視差角:1度」の9視差画像を取得したとする。かかる場合、制御部145は、図20に示すように、例えば、操作者が要求する「視差角:2度」となる2視差画像を9視差画像から選択し、表示部142に出力する。   Although the case where the display unit 142 is a nine-parallax monitor has been described above, the first embodiment is applicable even when the display unit 142 is the two-parallax monitor described with reference to FIG. . For example, as illustrated in FIG. 20, it is assumed that the control unit 145 has acquired a 9-parallax image having a “parallax angle of 1 degree” as a parallax image group associated with volume data designated by the operator. In such a case, as illustrated in FIG. 20, for example, the control unit 145 selects a 2-parallax image having a “parallax angle: 2 degrees” requested by the operator from 9 parallax images, and outputs the selected image to the display unit 142.

このように、制御部135の制御により、最大視差数以上の視差画像から構成される視差画像群を生成しておくことで、立体視モニタの立体視仕様に応じて立体視用の画像を表示させることができる。   In this way, by controlling the control unit 135 to generate a parallax image group composed of parallax images of the maximum number of parallaxes or more, a stereoscopic image is displayed according to the stereoscopic specification of the stereoscopic monitor. Can be made.

なお、上述した第1の実施形態及び第1の実施形態に係る変形例は、時系列に沿った複数のボリュームデータ(4Dデータ)が処理対象となる場合であっても適用可能である。かかる場合、制御部135は、時系列に沿った複数の視差画像群を生成させる。そして、制御部135は、複数の視差画像群を、4Dデータに対応付けて画像保管装置120に格納させる。そして、制御部145は、操作者が指定した4Dデータに対応付けられた複数の視差画像群を取得し、取得した複数の視差画像群を時系列に沿って個々の立体視画像に分割したうえで、表示部142にて立体視可能な動画として表示させることとなる。   Note that the first embodiment and the modification according to the first embodiment described above are applicable even when a plurality of volume data (4D data) along a time series is a processing target. In such a case, the control unit 135 generates a plurality of parallax image groups along the time series. Then, the control unit 135 causes the image storage device 120 to store a plurality of parallax image groups in association with 4D data. Then, the control unit 145 acquires a plurality of parallax image groups associated with the 4D data designated by the operator, divides the acquired plurality of parallax image groups into individual stereoscopic images along a time series. Thus, the display unit 142 displays the video as a stereoscopically viewable video.

(第2の実施形態)
第2の実施形態では、視差画像群を格納する際のデータ形式について説明する。
(Second Embodiment)
In the second embodiment, a data format for storing a parallax image group will be described.

第2の実施形態において、ワークステーション130の制御部135は、格納制御処理を行なう際に、医用画像を送受信するための標準規格に基づいて、視差画像群を動画形式の動画データとして画像保管装置120に格納するように制御する。   In the second embodiment, the control unit 135 of the workstation 130 performs the storage control process based on a standard for transmitting and receiving medical images as an image storage device using a parallax image group as moving image data in moving image format. It controls to store in 120.

すなわち、第2の実施形態に係る制御部135は、図1を用いて説明したように、画像処理システム1が、標準規格であるDICOM規格に準拠したPACSであることを利用して、視差画像群を格納する際のデータ形式を、DICOM準拠の動画データとして画像保管装置120に格納するように制御する。   That is, as described with reference to FIG. 1, the control unit 135 according to the second embodiment uses the fact that the image processing system 1 is a PACS compliant with the DICOM standard, which is a parallax image. The data format for storing the group is controlled to be stored in the image storage device 120 as moving image data compliant with DICOM.

更に、第2の実施形態に係る制御部135は、動画データとして格納した画像群が立体視用の画像群(視差画像群)であることを示す付帯情報として、プライベートタグを付与する。かかるプライベートタグが付与されることで、第2の実施形態に係る端末装置140の制御部145は、操作者が指定したボリュームデータの動画データを画像保管装置120から取得し、当該取得した動画データに付与された付帯情報に基づいて、当該動画データが視差画像群であるか否かを判定する。   Furthermore, the control unit 135 according to the second embodiment assigns a private tag as incidental information indicating that the image group stored as the moving image data is a stereoscopic image group (parallax image group). By giving such a private tag, the control unit 145 of the terminal device 140 according to the second embodiment acquires the moving image data of the volume data specified by the operator from the image storage device 120, and the acquired moving image data Whether or not the moving image data is a parallax image group is determined based on the incidental information given to.

例えば、第2の実施形態に係る端末装置140の制御部145は、入力部131が有する「立体表示ボタン」を操作者が押下した場合、取得した動画データが立体視用データ形式に変換可能であるか否かを判定する。変換可能であると判定した場合、制御部145は、立体視用のデータ形式に動画データを変換して表示部142に出力する。一方、変換不可であると判定した場合、制御部145は、動画データを表示部142にて動画表示させる。   For example, the control unit 145 of the terminal device 140 according to the second embodiment can convert the acquired moving image data into a stereoscopic data format when the operator presses the “stereoscopic display button” of the input unit 131. It is determined whether or not there is. When it is determined that conversion is possible, the control unit 145 converts the moving image data into a stereoscopic data format and outputs the converted data to the display unit 142. On the other hand, when it is determined that the conversion is impossible, the control unit 145 causes the display unit 142 to display the moving image data as a moving image.

図21〜図23は、動画データに付与されるプライベートタグを説明するための図である。例えば、制御部135は、図21の(A)に示すように、9つの画像を1つの長尺画像と結合することで、9視差画像を動画データとする。そして、制御部135は、図21の(A)に示すように、「プライベートタグ:立体視」を付帯情報として動画データに付与する。   21 to 23 are diagrams for explaining private tags attached to moving image data. For example, as illustrated in FIG. 21A, the control unit 135 combines nine images with one long image, thereby converting nine parallax images into moving image data. Then, as shown in FIG. 21A, the control unit 135 assigns “private tag: stereoscopic vision” to the moving image data as supplementary information.

制御部145は、例えば、立体表示ボタンが押下された場合、「プライベートタグ:立体視」が付与されていることから、取得した動画データが視差画像群であると判定する。そして、制御部145は、図21の(A)に示すように、動画データに格納されている画像群を格子状の中間画像に変換して表示部142に出力する。   For example, when the stereoscopic display button is pressed, the control unit 145 determines that the acquired moving image data is a parallax image group because “private tag: stereoscopic vision” is assigned. Then, as illustrated in FIG. 21A, the control unit 145 converts the image group stored in the moving image data into a grid-like intermediate image and outputs it to the display unit 142.

或いは、9視差画像に付与するプライベートタグとしては、図21の(B)に示すように、視差角の情報であっても良い。例えば、制御部135は、図21の(B)に示すように、「視差角:1度」を付帯情報として動画データに付与する。制御部145は、視差角の情報が付与されていることから、取得した動画データが立体視用の画像群(視差画像群)であると判定する。   Or as a private tag given to 9 parallax images, as shown to (B) of Drawing 21, information on parallax angle may be sufficient. For example, as illustrated in FIG. 21B, the control unit 135 assigns “parallax angle: 1 degree” to the moving image data as supplementary information. Since the information on the parallax angle is given, the control unit 145 determines that the acquired moving image data is a stereoscopic image group (parallax image group).

なお、端末装置140の操作者は、立体視用に表示された立体視画像を立体視できないことが回避できるように、自身が立体視できる視差角の閾値を予め設定しておいても良い。例えば、操作者が「視差角:2度以内」とする情報を予め設定していた場合、制御部145は、例えば、取得した動画データに「視差角:5度」が付与されているならば、立体視不可として判定する。   Note that the operator of the terminal device 140 may set in advance a parallax angle threshold at which the user can stereoscopically view the stereoscopic image displayed for stereoscopic viewing so that the stereoscopic viewing of the terminal device 140 can be avoided. For example, if the operator has previously set information that “parallax angle: within 2 degrees”, the control unit 145, for example, if “parallax angle: 5 degrees” is given to the acquired moving image data. It is determined that stereoscopic viewing is impossible.

また、図22に示すように、例えば、視差画像群が360枚の全周囲データである場合、制御部135は、360枚の全周囲データを1つの動画データとする。そして、制御部135は、図22に示すように、「プライベートタグ:全周囲データ」を付帯情報として動画データに付与する。制御部145は、例えば、立体表示ボタンが押下された場合、「プライベートタグ:全周囲データ」が付与されていることから、取得した動画データが視差画像群であると判定する。そして、制御部145は、図22に示すように、動画データに格納されている画像群から選択した9視差画像を格子状の中間画像に変換して表示部142に出力する。   As shown in FIG. 22, for example, when the parallax image group is 360 omnidirectional data, the control unit 135 sets the 360 omnidirectional data as one moving image data. Then, as shown in FIG. 22, the control unit 135 assigns “private tag: all-around data” to the moving image data as incidental information. For example, when the stereoscopic display button is pressed, the control unit 145 determines that the acquired moving image data is a parallax image group because “private tag: all-around data” is assigned. Then, as illustrated in FIG. 22, the control unit 145 converts the nine parallax images selected from the image group stored in the moving image data into a lattice-shaped intermediate image and outputs the image to the display unit 142.

或いは、図15を用いて説明した第2図形条件により生成された視差画像群を動画データとして保存する場合、制御部135は、図23に示すプライベートタグを付与する。すなわち、制御部135は、図23に示すように、「プライベートタグ:立体視」及び「プライベートタグ:全周囲データ」を付帯情報として動画データに付与する。更に、制御部135は、図23に示すように、動画データを基準点ごとの全周囲データに分割するための付帯情報として、異なる基準点の全周囲データの開始前の位置に「基準点フラグ」を挿入する。   Or when the parallax image group produced | generated by the 2nd figure conditions demonstrated using FIG. 15 is preserve | saved as moving image data, the control part 135 provides the private tag shown in FIG. That is, as shown in FIG. 23, the control unit 135 adds “private tag: stereoscopic view” and “private tag: all-around data” to the moving image data as supplementary information. Further, as shown in FIG. 23, the control unit 135, as supplementary information for dividing the moving image data into all-around data for each reference point, sets “reference point flag” at the position before the start of all-around data at different reference points. Is inserted.

かかる付帯情報により、制御部145は、取得した動画データが視差画像群であると判定する。そして、制御部145は、フラグごとに動画データを分割して、VE表示法の立体視画像を立体視用に変換して表示部142に出力する。   Based on such incidental information, the control unit 145 determines that the acquired moving image data is a parallax image group. Then, the control unit 145 divides the moving image data for each flag, converts the stereoscopic image of the VE display method for stereoscopic viewing, and outputs the stereoscopic image to the display unit 142.

このように、プライベートタグを用いることで、PACSが導入されている病院内で、DICOM規格に準拠した動画データとして視差画像群を送受信することができる。しかし、プライベートタグを用いる場合、ビューアである端末装置140にプライベートタグを認識させるための機能を付加する必要がある。しかし、PACSとして運用されている画像処理システム1に様々なプライベートタグ認識機能を追加することは、システムの変更が必要となる。   Thus, by using a private tag, a parallax image group can be transmitted and received as moving image data compliant with the DICOM standard in a hospital where PACS is introduced. However, when a private tag is used, it is necessary to add a function for causing the terminal device 140 as a viewer to recognize the private tag. However, adding various private tag recognition functions to the image processing system 1 operated as a PACS requires a system change.

そこで、第2の実施形態に係る制御部135は、視差画像群をDICOM規格に準拠して動画形式の動画データとし、更に、標準規格(DICOM規格)にて用いられる付帯情報を当該動画データに付与したうえで、画像保管装置120に格納するように制御する。そして、第2の実施形態に係る制御部145は、操作者が指定したボリュームデータの動画データを画像保管装置120から取得し、当該取得した動画データに付与された付帯情報に基づいて、当該動画データが視差画像群であるか否かを判定する。   Accordingly, the control unit 135 according to the second embodiment converts the parallax image group into moving image data in a moving image format in conformity with the DICOM standard, and further adds incidental information used in the standard (DICOM standard) to the moving image data. Then, control is performed so that the image is stored in the image storage device 120. Then, the control unit 145 according to the second embodiment acquires the moving image data of the volume data designated by the operator from the image storage device 120, and based on the incidental information given to the acquired moving image data, the moving image It is determined whether or not the data is a parallax image group.

以下、図24及び図25を用いて、視差画像群であると判定可能なDICOM規格に準拠した付帯情報の一例について説明する。図24及び図25は、動画データに付与されるDICOM規格に準拠した付帯情報を説明するための図である。   Hereinafter, an example of incidental information based on the DICOM standard that can be determined to be a parallax image group will be described with reference to FIGS. 24 and 25. 24 and 25 are diagrams for explaining supplementary information compliant with the DICOM standard assigned to moving image data.

例えば、制御部135は、図24に示すように、9つの画像を1つの長尺画像と結合することで、9視差画像を動画データとする。そして、制御部135は、図24に示すように、通常、DICOM規格にて付与される既存タグとしての付帯情報である「枚数:9」を動画データに付与する。制御部145は、例えば、立体表示ボタンが押下された場合、「枚数:9」が付与されていることから、取得した動画データが視差画像群であると判定する。そして、制御部145は、動画データに格納されている9視差画像を格子状の中間画像に変換して表示部142に出力する。   For example, as illustrated in FIG. 24, the control unit 135 combines nine images with one long image, thereby converting nine parallax images into moving image data. Then, as shown in FIG. 24, the control unit 135 normally adds “number of sheets: 9”, which is incidental information as an existing tag provided in the DICOM standard, to the moving image data. For example, when the stereoscopic display button is pressed, the control unit 145 determines that the acquired moving image data is a parallax image group because “number of sheets: 9” is assigned. Then, the control unit 145 converts the nine parallax images stored in the moving image data into a grid-like intermediate image and outputs the converted image to the display unit 142.

或いは、制御部135は、図25に示すように、視差画像群が360枚の全周囲データである場合、360枚の全周囲データを1つの動画データとする。そして、制御部135は、図25に示すように、通常、DICOM規格にて付与される既存タグとしての付帯情報である「枚数:360」を動画データに付与する。制御部145は、例えば、立体表示ボタンが押下された場合、「枚数:360」が付与されていることから、取得した動画データが視差画像群であると判定する。そして、制御部145は、図25に示すように、動画データに格納されている視差画像群から選択した9視差画像を格子状の中間画像に変換して表示部142に出力する。或いは、制御部145は、動画データに格納されている視差画像群から順次選択した9視差画像を格子状の中間画像に変換して表示部142に順次出力する。或いは、制御部145は、動画データに格納されている視差画像群から、特定範囲の連続データにおいて、順次選択した9視差画像を格子状の中間画像に変換して表示部142に順次出力する。例えば、制御部145は、動画データに格納されている360枚の全周囲データの「1枚目から180枚目」の視差画像群から順次選択した9視差画像を格子状の中間画像に変換して表示部142に順次出力する。   Alternatively, as illustrated in FIG. 25, when the parallax image group is 360 pieces of all-around data, the control unit 135 sets 360 pieces of all-around data as one moving image data. Then, as shown in FIG. 25, the control unit 135 normally adds “number of sheets: 360”, which is incidental information as an existing tag given in the DICOM standard, to the moving image data. For example, when the stereoscopic display button is pressed, the control unit 145 determines that the acquired moving image data is a parallax image group because “number of sheets: 360” is assigned. Then, as illustrated in FIG. 25, the control unit 145 converts the nine parallax images selected from the parallax image group stored in the moving image data into a lattice-shaped intermediate image and outputs the converted image to the display unit 142. Alternatively, the control unit 145 converts nine parallax images sequentially selected from the parallax image group stored in the moving image data into a grid-like intermediate image and sequentially outputs the converted images to the display unit 142. Alternatively, the control unit 145 converts the sequentially selected nine parallax images from a group of parallax images stored in the moving image data into a lattice-shaped intermediate image and sequentially outputs them to the display unit 142. For example, the control unit 145 converts nine parallax images sequentially selected from the “first to 180th” parallax images of 360 surrounding data stored in the moving image data into a grid-like intermediate image. Are sequentially output to the display unit 142.

次に、図26を用いて第2の実施形態に係る画像処理システム1の処理について説明する。図26は、第2の実施形態に係る画像処理システムの画像表示処理を説明するための図である。なお、第2の実施形態に係る画像処理システム1の画像格納処理は、図16を用いて説明したステップS105において、制御部135が視差画像群をDICOM規格に準拠した動画データとし、当該動画データに付帯情報を付与したうえで、画像保管装置120に格納させる以外は同様であるので説明を省略する。   Next, processing of the image processing system 1 according to the second embodiment will be described with reference to FIG. FIG. 26 is a diagram for explaining image display processing of the image processing system according to the second embodiment. Note that in the image storage processing of the image processing system 1 according to the second embodiment, in step S105 described with reference to FIG. 16, the control unit 135 sets the parallax image group as moving image data compliant with the DICOM standard, and the moving image data Since it is the same except that the supplementary information is added to and stored in the image storage device 120, the description is omitted.

図26に示すように、第2の実施形態に係る画像処理システム1の端末装置140は、操作者により処理対象となるボリュームデータが指定されたか否かを判定する(ステップS301)。ここで、ボリュームデータが指定されない場合(ステップS301否定)、端末装置140は、ボリュームデータが指定されるまで待機する。   As illustrated in FIG. 26, the terminal device 140 of the image processing system 1 according to the second embodiment determines whether volume data to be processed is specified by the operator (step S301). Here, when the volume data is not specified (No at Step S301), the terminal device 140 stands by until the volume data is specified.

一方、ボリュームデータが指定された場合(ステップS301肯定)、制御部145は、指定されたボリュームデータに対応付けられた動画データを取得し(ステップS302)、立体表示ボタンが押下されたか否かを判定する(ステップS303)。ここで、立体表示ボタンが押下されない場合(ステップS303否定)、制御部145は、立体表示ボタンが押下されるまで待機する。   On the other hand, when volume data is designated (Yes at Step S301), the control unit 145 acquires moving image data associated with the designated volume data (Step S302), and determines whether or not the stereoscopic display button has been pressed. Determination is made (step S303). If the stereoscopic display button is not pressed (No at Step S303), the control unit 145 waits until the stereoscopic display button is pressed.

一方、立体表示ボタンが押下された場合(ステップS303肯定)、制御部145は、付帯情報を参照して、立体視用データ形式である中間画像に変換可能であるか否かを判定する(ステップS304)。ここで、変換不可と判定した場合(ステップS304否定)、制御部135は、取得した動画データを動画表示させ(ステップS307)、処理を終了する。   On the other hand, when the stereoscopic display button is pressed (Yes at Step S303), the control unit 145 refers to the accompanying information and determines whether or not the stereoscopic image can be converted into an intermediate image that is a stereoscopic data format (Step S303). S304). If it is determined that conversion is not possible (No at Step S304), the control unit 135 displays the acquired moving image data as a moving image (Step S307), and ends the process.

一方、変換可能と判定した場合(ステップS304肯定)、制御部135は、動画データを中間画像に変換する(ステップS305)。そして、制御部135は、中間画像を表示部142に出力することで、立体視表示させ(ステップS306)、処理を終了する。   On the other hand, when it is determined that conversion is possible (Yes at Step S304), the control unit 135 converts the moving image data into an intermediate image (Step S305). Then, the control unit 135 outputs the intermediate image to the display unit 142 to display stereoscopically (step S306), and ends the process.

上述してきたように、第2の実施形態では、視差画像群をDICOM規格の動画データとして取り扱うことで、現在最も普及しているDICOM規格の院内システムにて、視差画像群から選択した立体視画像を表示可能とすることができる。また、第2の実施形態では、DICOM規格に銃準拠した既存タグを用いて立体視可能であるか否かを判定して表示させることができるので、現在最も普及しているDICOM規格の院内システムを変更させることなく、そのまま視差画像群から選択した立体視画像を表示するためのシステムとして運用することができる。なお、上記では、立体表示ボタンが押下されることで、制御部145による判定処理が行なわれる場合について説明した。しかし、第2の実施形態は、立体表示ボタンによる操作を判定処理の契機とするのではなく、動画データを取得した時点で制御部145による判定処理が行なわれる場合であっても良い。かかる場合、通常のDICOM規格に準拠したビューアを搭載する端末装置140において、制御部145により変換不可と判定された動画データは、動画として認識され、動画表示されることとなる。また、上記では、視差画像群をDICOM規格準拠した動画データとする場合について説明した。しかし、第2の実施形態は、DICOM規格に準拠した規格化データとして、例えば、全周囲データ等の360枚のデータを360枚のDICOM規格に準拠した静止画データとする場合であっても良い。かかる場合、制御部135は、360枚のDICOM静止画データを含むデータに、例えば、「枚数:360」の既存タグを付与する。そして、制御部145は、360枚のDICOM静止画データから、9視差画像を選択して、表示部142に出力する。例えば、制御部145は、立体表示ボタンが押下された場合、360枚のDICOM静止画データを含むデータに「枚数:360」の既存タグが付与されていることから、当該静止画データ群が視差画像群であると判定し、9視差画像を選択して、表示部142に出力する。   As described above, in the second embodiment, the stereoscopic image selected from the parallax image group in the DICOM standard hospital system currently most popular by handling the parallax image group as moving image data of the DICOM standard. Can be displayed. Further, in the second embodiment, since it is possible to determine and display whether or not stereoscopic viewing is possible using an existing tag compliant with the DICOM standard, it is possible to display the hospital system of the most popular DICOM standard at present. Can be operated as a system for displaying a stereoscopic image selected from the parallax image group without change. In the above description, the case where the determination process by the control unit 145 is performed by pressing the stereoscopic display button has been described. However, in the second embodiment, the operation by the stereoscopic display button is not triggered by the determination process, but the determination process by the control unit 145 may be performed when moving image data is acquired. In such a case, in the terminal device 140 equipped with a viewer conforming to the normal DICOM standard, the moving image data determined to be unconvertible by the control unit 145 is recognized as a moving image and displayed as a moving image. In the above description, the case where the parallax image group is moving image data compliant with the DICOM standard has been described. However, the second embodiment may be a case in which, for example, 360 pieces of data such as all-around data are used as still image data that conforms to 360 DICOM standards as standardized data that conforms to the DICOM standard. . In such a case, the control unit 135 adds, for example, an existing tag of “number of sheets: 360” to data including 360 DICOM still image data. Then, the control unit 145 selects nine parallax images from 360 pieces of DICOM still image data and outputs them to the display unit 142. For example, when the stereoscopic display button is pressed, the control unit 145 adds an existing tag of “number of sheets: 360” to data including 360 DICOM still image data. It determines with it being an image group, selects 9 parallax images, and outputs them to the display unit 142.

なお、上記の第2の実施形態は、以下に説明する変形例を行なっても良い。すなわち、第1の実施形態で説明したように、画像処理システム1は、4Dデータに対しても処理が可能であり、制御部135が生成させた時系列に沿った複数の視差画像群は、DICOM規格に準拠した動画データとして取り扱うことが可能である。   Note that the second embodiment described above may be modified as described below. That is, as described in the first embodiment, the image processing system 1 can process 4D data, and a plurality of parallax image groups along the time series generated by the control unit 135 are: It can be handled as moving image data compliant with the DICOM standard.

まず、制御部135は、第1の実施形態で説明したように、複数のボリュームデータが時系列に沿って生成されている場合、各ボリュームデータから時系列に沿った複数の視差画像群を生成させるようにレンダリング処理部136を制御する。   First, as described in the first embodiment, when a plurality of volume data is generated in time series, the control unit 135 generates a plurality of parallax image groups in time series from each volume data. The rendering processing unit 136 is controlled so that

そして、第2の実施形態に係る変形例では、制御部135は、レンダリング処理部136が生成した複数の視差画像群をDICOM規格に準拠した動画形式の動画データとする。ここで、第2の実施形態に係る変形例においても、付帯情報として、プライベートタグ、又は、既存タグを動画データに付与することができる。   In the modification according to the second embodiment, the control unit 135 sets the plurality of parallax image groups generated by the rendering processing unit 136 as moving image data in a moving image format conforming to the DICOM standard. Here, also in the modified example according to the second embodiment, a private tag or an existing tag can be added to the moving image data as incidental information.

まず、図8の(B)を用いて説明したレンダリング条件により時系列に沿った9視差画像群が生成された場合に付与されるプライベートタグの一例を、図27を用いて説明する。図27は、第2の実施形態に係る変形例にて、動画データに付与されるプライベートタグを説明するための図である。例えば、制御部135は、図27の(A)に示すように、時系列に沿った複数の9視差画像それぞれを、動画データとする。更に、制御部135は、各動画データに「プライベートタグ:立体視」を付与する。   First, an example of a private tag given when a group of 9 parallax images in time series is generated according to the rendering condition described with reference to FIG. 8B will be described with reference to FIG. FIG. 27 is a diagram for explaining a private tag attached to moving image data in a modification according to the second embodiment. For example, as illustrated in FIG. 27A, the control unit 135 sets each of a plurality of nine parallax images in time series as moving image data. Furthermore, the control unit 135 assigns “private tag: stereoscopic vision” to each moving image data.

また、制御部135は、各動画データに既存タグである時間情報を付与する。ここで、時間情報とは、動画データの生成元となったボリュームデータが撮影された時間であり、例えば、ミリ秒単位で刻まれた時刻の情報である。例えば、制御部135は、各動画データに既存タグである『「時間:t1」、「時間:t2」、「時間:t3」、・・・・・』を付与する。かかる動画データ群は、制御部135の格納制御により、生成元の4Dデータに対応付けて画像保管装置120に格納される。   Further, the control unit 135 gives time information that is an existing tag to each moving image data. Here, the time information is the time when the volume data that is the generation source of the moving image data is captured, for example, the time information that is recorded in milliseconds. For example, the control unit 135 assigns the existing tags “time: t1”, “time: t2”, “time: t3”,... The moving image data group is stored in the image storage device 120 in association with the generation source 4D data by the storage control of the control unit 135.

そして、制御部145は、操作者が指定した4Dデータに対応付けられた動画データ群を一括して取得し、取得した各動画データ全てに「プライベートタグ:立体視」が付与されていることから、立体視可能であると判定する。更に、制御部145は、取得した動画データ群に付与された既存タグの時間が、例えば、ミリ秒単位で刻まれた時刻であることから、動画データ群が動画表示用の時系列に沿った複数の視差画像群であると判定する。   And the control part 145 acquires the moving image data group matched with 4D data which the operator designated collectively, and "private tag: stereoscopic view" is provided to all the acquired moving image data. It is determined that stereoscopic viewing is possible. Furthermore, since the time of the existing tag given to the acquired moving image data group is, for example, the time recorded in units of milliseconds, the control unit 145 follows the time series for moving image display. It determines with it being a several parallax image group.

そして、制御部145は、図27の(A)に示すように、動画データ群を『「時間:t1」、「時間:t2」、「時間:t3」、・・・・・』の時系列に沿った複数の中間画像に変換し、表示部142に出力する。   Then, as shown in FIG. 27A, the control unit 145 sets the moving image data group as “time: t1”, “time: t2”, “time: t3”,... Are converted into a plurality of intermediate images along the line and output to the display unit 142.

或いは、制御部135は、時系列に沿った複数の9視差画像を1つの動画データとする。例えば、制御部135は、図27の(B)に示すように、時系列に沿った50個の9視差画像を1つの動画データとする。ただし、制御部135は、『「時間:t1」、「時間:t2」、「時間:t3」、・・・・・「時間:t50」』の50個の9視差画像を、視点位置ごとに分割する。   Or the control part 135 makes the several 9 parallax image along a time series one moving image data. For example, as illustrated in FIG. 27B, the control unit 135 sets 50 nine-parallax images in time series as one moving image data. However, the control unit 135 sets 50 “9 time parallax images” “time: t1”, “time: t2”, “time: t3”,... “Time: t50” for each viewpoint position. To divide.

そして、制御部135は、「時間:t1」〜「時間:t50」の視点(1)の視差画像を時系列に沿って並べる(図中の「1(t1)、1(t2)・・・・、1(t50)」を参照」。同様に、制御部135は、「時間:t1」〜「時間:t50」の視点(2)の視差画像を時系列に沿って並べる(図中の「2(t1)、2(t2)・・・・、2(t50)」を参照)。同様に、制御部135は、「時間:t1」〜「時間:t50」の視点(3)の視差画像を時系列に沿って並べる(図中の「3(t1)、3(t2)・・・・、3(t50)」を参照)。制御部135は、かかる並べ替えの処理を視点(4)〜視点(9)についても同様に行なう。   And the control part 135 arranges the parallax image of the viewpoint (1) of "time: t1"-"time: t50" along a time series ("1 (t1) in the figure, 1 (t2) ..." Similarly, the control unit 135 arranges the parallax images of the viewpoint (2) from “time: t1” to “time: t50” in time series (“ 2 (t1), 2 (t2), ..., 2 (t50) ") Similarly, the control unit 135 displays the parallax image at the viewpoint (3) from" time: t1 "to" time: t50 ". (Refer to “3 (t1), 3 (t2)... 3 (t50)” in the figure.) The control unit 135 views the rearrangement processing from the viewpoint (4). The same applies to the viewpoint (9).

そして、制御部135は、動画データに対して、動画表示用の視差画像群であることを示す「プライベートタグ:4D(50)」を付与する。なお、プライベートタグの「50」は、時系列に沿った50個の9視差画像が4D用のデータとして格納されていることを示す情報である。   Then, the control unit 135 assigns “private tag: 4D (50)” indicating that it is a parallax image group for moving image display to the moving image data. The private tag “50” is information indicating that 50 nine-parallax images in time series are stored as 4D data.

そして、制御部145は、操作者が指定した4Dデータに対応付けられた動画データを取得し、取得した動画データに「プライベートタグ:4D(50)」が付与されていることから、立体視可能であり、かつ、動画表示用の複数の視差画像群であると判定する。   Then, the control unit 145 acquires moving image data associated with the 4D data designated by the operator, and “private tag: 4D (50)” is added to the acquired moving image data, so that stereoscopic viewing is possible. And a plurality of parallax image groups for moving image display.

そして、制御部145は、図27の(B)に示すように、動画データを『「時間:t1」、「時間:t2」、「時間:t3」、・・・・・』の時系列に沿った複数の中間画像に変換し、表示部142に出力する。   Then, as shown in FIG. 27B, the control unit 145 sets the moving image data in a time series of ““ time: t1 ”,“ time: t2 ”,“ time: t3 ”,... The image is converted into a plurality of intermediate images along the line and output to the display unit 142.

ただし、上述したように、PACSとして運用されている画像処理システム1に様々なプライベートタグ認識機能を追加することは、システムの変更が必要となる。   However, as described above, adding various private tag recognition functions to the image processing system 1 operated as a PACS requires a system change.

そこで、本変形例においても、制御部135は、DICOM規格に準拠した付帯情報(既存タグ)を動画データに付与したうえで、画像保管装置120に格納するように制御する。図28は、第2の実施形態に係る変形例にて、動画データに付与されるDICOM規格に準拠した付帯情報を説明するための図である。   Therefore, also in this modification, the control unit 135 performs control so that incidental information (existing tag) conforming to the DICOM standard is attached to the moving image data and then stored in the image storage device 120. FIG. 28 is a diagram for explaining incidental information compliant with the DICOM standard attached to moving image data in a modification according to the second embodiment.

例えば、制御部135は、図28に示すように、時系列に沿った複数の9視差画像それぞれを、動画データとする。更に、制御部135は、各動画データに既存タグとして枚数を示す「9」を付与する。更に、制御部135は、各動画データに既存タグである時間情報を付与する。例えば、制御部135は、各動画データに既存タグである『「時間:t1」、「時間:t2」、「時間:t3」、・・・・・』を付与する。かかる動画データ群は、制御部135の格納制御により、生成元の4Dデータに対応付けて画像保管装置120に格納される。   For example, as illustrated in FIG. 28, the control unit 135 sets each of a plurality of nine parallax images in time series as moving image data. Further, the control unit 135 gives “9” indicating the number of sheets as an existing tag to each moving image data. Further, the control unit 135 gives time information that is an existing tag to each moving image data. For example, the control unit 135 assigns the existing tags “time: t1”, “time: t2”, “time: t3”,... The moving image data group is stored in the image storage device 120 in association with the generation source 4D data by the storage control of the control unit 135.

そして、制御部145は、操作者が指定した4Dデータの動画データを画像保管装置120から取得し、当該取得した動画データに付与された付帯情報に基づいて、当該動画データが動画表示用の時系列に沿った複数の視差画像群であるか否かを判定する。   Then, the control unit 145 acquires the moving image data of the 4D data designated by the operator from the image storage device 120, and when the moving image data is for moving image display based on the incidental information given to the acquired moving image data. It is determined whether or not there are a plurality of parallax image groups along the series.

制御部145は、取得した各動画データ全てに枚数が「9」であることを示す既存タグが付与されていることから、立体視可能であると判定する。更に、制御部145は、取得した動画データ群に付与された既存タグの時間が、ミリ秒単位で刻まれた時刻であることから、動画データ群が動画表示用の時系列に沿った複数の視差画像群であると判定する。   The control unit 145 determines that stereoscopic viewing is possible because an existing tag indicating that the number of sheets is “9” is assigned to all of the acquired moving image data. Furthermore, since the time of the existing tag given to the acquired moving image data group is the time recorded in milliseconds, the control unit 145 has a plurality of moving image data groups in time series for moving image display. It determines with it being a parallax image group.

そして、制御部145は、図28に示すように、動画データを『「時間:t1」、「時間:t2」、「時間:t3」、・・・・・』の時系列に沿った複数の中間画像に変換し、表示部142に出力する。   Then, as shown in FIG. 28, the control unit 145 converts the moving image data into a plurality of time series of ““ time: t1 ”,“ time: t2 ”,“ time: t3 ”,... The image is converted into an intermediate image and output to the display unit 142.

このように、第2の実施形態に係る変形例では、4Dデータを取り扱う場合であっても、現在最も普及しているDICOM規格の院内システムを変更させることなく、そのまま立体視画像を表示するためのシステムとして運用することができる。   As described above, in the modified example according to the second embodiment, even when 4D data is handled, a stereoscopic image is displayed as it is without changing the hospital system of the most popular DICOM standard. It can be operated as a system.

なお、上記実施形態においては、ワークステーション130が、制御部135により、視差画像群の生成制御及び格納制御を行ない、端末装置140が、制御部145により、立体視画像の取得及び表示制御を行なう場合について説明した。しかしながら、実施形態はこれに限られるものではない。例えば、ワークステーション130が、視差画像群の生成制御及び格納制御とともに、視差画像群の取得及び表示制御を行なう場合であっても良い。また、医用画像診断装置110や端末装置140が、視差画像群の生成制御及び格納制御と、視差画像群の取得及び表示制御とを行なう場合であっても良い。   In the above embodiment, the workstation 130 performs generation control and storage control of the parallax image group by the control unit 135, and the terminal device 140 performs acquisition and display control of the stereoscopic image by the control unit 145. Explained the case. However, the embodiment is not limited to this. For example, the workstation 130 may perform parallax image group acquisition and display control as well as parallax image group generation control and storage control. The medical image diagnostic apparatus 110 and the terminal apparatus 140 may perform the generation control and storage control of the parallax image group, and the acquisition and display control of the parallax image group.

また、医用画像診断装置110が視差画像群の生成制御及び格納制御を行ない、ワークステーション130や端末装置140が視差画像群の取得及び表示制御を行なう場合であってあっても良い。   The medical image diagnostic apparatus 110 may perform generation control and storage control of a parallax image group, and the workstation 130 and the terminal device 140 may perform acquisition and display control of a parallax image group.

また、上記実施形態においては、視差画像群の格納先が画像保管装置120である場合について説明した。しかしながら、実施形態はこれに限られるものではない。例えば、視差画像群の生成制御を行なった装置が格納制御を行なう対象は、自装置の記憶部である場合であっても良い。かかる場合、端末装置40は、例えば、ワークステーション130から視差画像群を取得する。   In the above embodiment, the case where the storage destination of the parallax image group is the image storage device 120 has been described. However, the embodiment is not limited to this. For example, the target of storage control by the device that has performed generation control of the parallax image group may be the storage unit of the device itself. In such a case, the terminal device 40 acquires a parallax image group from the workstation 130, for example.

すなわち、上記の実施形態で説明したレンダリング処理部136、制御部135、制御部145及び画像保管装置120の処理は、画像処理システム1に含まれる各装置の各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。   That is, the processing of the rendering processing unit 136, the control unit 135, the control unit 145, and the image storage device 120 described in the above embodiment is performed according to various loads and usage conditions of each device included in the image processing system 1. It can be configured to be functionally or physically distributed and integrated in arbitrary units. Further, all or any part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

なお、上記の実施形態で説明した画像処理方法は、あらかじめ用意された画像処理プログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。この画像処理プログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVD、Blu-ray Disc(登録商標)等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。   The image processing method described in the above embodiment can be realized by executing an image processing program prepared in advance on a computer such as a personal computer or a workstation. This image processing program can be distributed via a network such as the Internet. The program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, a DVD, or a Blu-ray Disc (registered trademark), and is read from the recording medium by the computer. Can also be implemented.

以上、説明したとおり、第1の実施形態、第1の実施形態に係る変形例、第2の実施形態及び第2の実施形態に係る変形例によれば、3次元の医用画像データから立体視用の画像を生成するために要する処理の負荷を軽減することができる。   As described above, according to the first embodiment, the modified example according to the first embodiment, the modified example according to the second embodiment and the second embodiment, stereoscopic vision is obtained from three-dimensional medical image data. It is possible to reduce the processing load required to generate the image for use.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1 画像処理システム
2 院内LAN(Local Area Network)
110 医用画像診断装置
120 画像保管装置
130 ワークステーション
131 入力部
132 表示部
133 通信部
134 記憶部
135 制御部
136 レンダリング処理部
140 端末装置
141 入力部
142 表示部
143 通信部
144 記憶部
145 制御部
146 2次元画像処理部
1 Image processing system 2 Hospital LAN (Local Area Network)
DESCRIPTION OF SYMBOLS 110 Medical diagnostic imaging apparatus 120 Image storage apparatus 130 Workstation 131 Input part 132 Display part 133 Communication part 134 Storage part 135 Control part 136 Rendering process part 140 Terminal apparatus 141 Input part 142 Display part 143 Communication part 144 Storage part 145 Control part 146 2D image processor

Claims (15)

所定の視差数の視差画像を用いて構成される立体視画像を表示可能な複数の立体表示装置と、
3次元の医用画像データであるボリュームデータに対してレンダリング処理を行なうレンダリング処理部、前記レンダリング処理部が前記ボリュームデータから生成した前記複数の立体表示装置の前記所定の視差数のうち最大視差数以上の視差画像群を記憶部に格納させる格納制御部を備えた画像処理装置と、
を備え、
前記立体表示装置は、前記記憶部に格納された前記最大視差数以上の視差画像群の中から前記所定の視差数の視差画像を選択して構成される立体視画像を表示し、前記レンダリング処理部は、所定形状の図形を形成する直線若しくは曲線に基づいてレンダリング処理を実行するための視点を前記最大視差数以上設定することで、前記視差画像群を生成することを特徴とする画像処理システム。
A plurality of stereoscopic display devices capable of displaying a stereoscopic image configured using parallax images having a predetermined number of parallaxes;
A rendering processing unit that performs rendering processing on volume data that is three-dimensional medical image data, and the rendering processing unit generates more than the maximum number of parallaxes among the predetermined number of parallaxes of the plurality of stereoscopic display devices generated from the volume data An image processing apparatus including a storage control unit that stores a group of parallax images in a storage unit;
With
The stereoscopic display device displays a stereoscopic image configured by selecting the parallax image having the predetermined parallax number from the parallax image group having the maximum parallax number or more stored in the storage unit, and performing the rendering process. The image processing system generates the parallax image group by setting a viewpoint for performing rendering processing based on a straight line or a curve forming a figure of a predetermined shape to be equal to or greater than the maximum number of parallaxes .
操作者が指定したボリュームデータから生成された前記最大視差数以上の視差画像群から前記所定の視差数の視差画像を前記記憶部から取得し、当該取得した前記所定の視差数の視差画像を用いて構成される立体視画像を前記立体表示装置にて表示させるように制御する表示制御部、を更に備えることを特徴とする請求項1に記載の画像処理システム。   The parallax image having the predetermined number of parallaxes is acquired from the parallax image group having the number of parallaxes or more generated from the volume data designated by the operator from the storage unit, and the acquired parallax images having the predetermined number of parallaxes are used. The image processing system according to claim 1, further comprising: a display control unit configured to control the stereoscopic image configured to be displayed on the stereoscopic display device. 前記レンダリング処理部は、前記ボリュームデータのレンダリング対象となる領域であるレンダリング領域外に視点が位置されるように前記所定形状の図形を設定し、当該設定した図形を形成する直線若しくは曲線に基づいて前記視差画像群を生成することを特徴とする請求項1又は2に記載の画像処理システム。   The rendering processing unit sets the figure of the predetermined shape so that the viewpoint is located outside the rendering area which is an area to be rendered of the volume data, and based on a straight line or a curve forming the set figure The image processing system according to claim 1, wherein the parallax image group is generated. 前記レンダリング処理部は、前記所定形状の図形を形成する直線若しくは曲線に沿ってレンダリング処理を実行するための視点を前記最大視差数以上設定することを特徴とする請求項1〜3のいずれか1つに記載の画像処理システム。   4. The rendering unit according to claim 1, wherein the rendering processing unit sets a viewpoint for executing the rendering process along the straight line or curve forming the figure having the predetermined shape to be equal to or greater than the maximum number of parallaxes. The image processing system described in 1. 前記レンダリング処理部は、前記所定形状の図形を形成する直線若しくは曲線上に設定された点における接線に沿ってレンダリング処理を実行するための視点を前記最大視差数以上設定することを特徴とする請求項1〜3のいずれか1つに記載の画像処理システム。   The rendering processing unit sets a viewpoint for performing a rendering process along a tangent at a point set on a straight line or a curve forming the figure of the predetermined shape to be equal to or greater than the maximum number of parallaxes. Item 4. The image processing system according to any one of Items 1 to 3. 前記レンダリング処理部は、前記所定形状の図形を形成する直線若しくは曲線上に設定された複数の点における各接線方向沿ってレンダリング処理を実行するための視点を設定することを特徴とする請求項1〜3のいずれか1つに記載の画像処理システム。   2. The rendering processing unit sets a viewpoint for performing rendering processing along each tangent direction at a plurality of points set on a straight line or a curve forming the figure having the predetermined shape. The image processing system as described in any one of -3. 前記レンダリング処理部は、前記ボリュームデータのレンダリング対象となる領域であるレンダリング領域内に視点が位置されるように前記所定形状の図形を設定し、当該設定した図形を形成する直線若しくは曲線に基づいて前記視差画像群を生成することを特徴とする請求項1又は2に記載の画像処理システム。   The rendering processing unit sets the figure of the predetermined shape so that the viewpoint is located in a rendering area which is an area to be rendered of the volume data, and based on a straight line or a curve forming the set figure The image processing system according to claim 1, wherein the parallax image group is generated. 前記レンダリング処理部は、前記所定形状の図形を複数設定することを特徴とする請求項1〜7のいずれか1つに記載の画像処理システム。   The image processing system according to claim 1, wherein the rendering processing unit sets a plurality of figures having the predetermined shape. 前記表示制御部は、前記記憶部から前記所定の視差数の視差画像を順次選択することにより複数の立体視画像を前記立体表示装置にて順次表示させるように制御することを特徴とする請求項2に記載の画像処理システム。   The display control unit performs control so that a plurality of stereoscopic images are sequentially displayed on the stereoscopic display device by sequentially selecting parallax images having the predetermined number of parallaxes from the storage unit. The image processing system according to 2. 前記表示制御部は、選択する前記所定数の視差数の視差画像相互間の視差角を変更させることを特徴とする請求項2に記載の画像処理システム。   The image processing system according to claim 2, wherein the display control unit changes a parallax angle between parallax images having the predetermined number of parallaxes to be selected. 前記レンダリング処理部は、前記視差画像群を構成する各画像の解像度が、前記所定の立体表示装置の解像度より高くなるように、当該視差画像群を生成することを特徴とする請求項1〜10のいずれか1つに記載の画像処理システム。   The rendering unit generates the parallax image group so that the resolution of each image constituting the parallax image group is higher than the resolution of the predetermined stereoscopic display device. The image processing system according to any one of the above. 前記レンダリング処理部は、前記視差画像群を、医用画像を送受信するための標準規格に基づく形式に規格化した規格化データとし、更に、前記格納制御部は、前記標準規格にて用いられる付帯情報を当該規格化データに付与したうえで、前記記憶部に格納するように制御し、前記表示制御部は、前記操作者が指定したボリュームデータの規格化データを前記記憶部から取得し、当該取得した規格化データに付与された付帯情報に基づいて、当該規格化データが前記視差画像群であるか否かを判定することを特徴とする請求項2に記載の画像処理システム。   The rendering processing unit uses the parallax image group as standardized data standardized in a format based on a standard for transmitting and receiving medical images, and the storage control unit includes additional information used in the standard Is added to the standardized data and controlled to be stored in the storage unit, and the display control unit acquires the standardized data of the volume data specified by the operator from the storage unit, The image processing system according to claim 2, wherein it is determined whether or not the standardized data is the parallax image group based on supplementary information given to the standardized data. 前記レンダリング処理部は、前記標準規格に基づいて、前記視差画像群を動画形式の動画データとし、更に、前記格納制御部は、前記標準規格にて用いられる付帯情報を当該動画データに付与したうえで、前記記憶部に格納するように制御し、前記表示制御部は、前記操作者が指定したボリュームデータの動画データを前記記憶部から取得し、当該取得した動画データに付与された付帯情報に基づいて、当該動画データが前記視差画像群であるか否かを判定することを特徴とする請求項12に記載の画像処理システム。   The rendering processing unit converts the parallax image group into moving image data in a moving image format based on the standard, and the storage control unit adds incidental information used in the standard to the moving image data. The display control unit obtains the moving image data of the volume data designated by the operator from the storage unit, and adds the additional information added to the acquired moving image data to the storage unit. The image processing system according to claim 12, wherein the image processing system determines whether or not the moving image data is the parallax image group. 前記レンダリング処理部は、複数のボリュームデータが時系列に沿って生成されている場合、各ボリュームデータから時系列に沿った複数の視差画像群を生成し、生成した前記複数の視差画像群を前記標準規格にて用いられる動画形式の動画データとし、更に、前記格納制御部は、前記標準規格にて用いられる付帯情報を当該動画データに付与したうえで、前記記憶部に格納するように制御し、前記表示制御部は、操作者が指定した複数のボリュームデータの動画データを前記記憶部から取得し、当該取得した動画データに付与された付帯情報に基づいて、当該動画データが動画表示用の時系列に沿った複数の視差画像群であるか否かを判定することを特徴とする請求項13に記載の画像処理システム。   When a plurality of volume data is generated in time series, the rendering processing unit generates a plurality of parallax image groups in time series from each volume data, and the generated plurality of parallax image groups The moving image data used in the standard is used as the moving image data, and the storage control unit controls the storage unit to store the incidental information used in the standard after adding the auxiliary information to the moving image data. The display control unit acquires moving image data of a plurality of volume data designated by an operator from the storage unit, and the moving image data is displayed for moving images based on incidental information attached to the acquired moving image data. The image processing system according to claim 13, wherein it is determined whether or not there are a plurality of parallax image groups along a time series. 所定の視差数の視差画像を用いて構成される立体視画像を表示可能な複数の立体表示装置に接続された画像処理装置が、3次元の医用画像データであるボリュームデータに対してレンダリング処理を行なうレンダリング処理部が前記ボリュームデータから生成した前記複数の立体表示装置の前記所定の視差数のうち最大視差数以上の視差画像群を記憶部に格納させるステップ、
を含み、
前記所定の視差数の視差画像を用いて構成される立体視画像を表示可能な前記立体表示装置が、前記記憶部に格納された前記最大視差数以上の視差画像群の中から前記所定の視差数の視差画像を選択して構成される立体視画像を表示するステップ、
を含み、
前記画像処理装置は、所定形状の図形を形成する直線若しくは曲線に基づいてレンダリング処理を実行するための視点を前記最大視差数以上設定することで、前記視差画像群を前記レンダリング処理部に生成させる、ことを特徴とする画像処理方法。
An image processing device connected to a plurality of stereoscopic display devices capable of displaying a stereoscopic image configured using parallax images having a predetermined number of parallaxes performs rendering processing on volume data that is three-dimensional medical image data. A step of causing a storage processing unit to store a parallax image group equal to or greater than a maximum parallax number among the predetermined parallax numbers of the plurality of stereoscopic display devices generated by the rendering processing unit from the volume data;
Including
The stereoscopic display device capable of displaying a stereoscopic image configured using parallax images having the predetermined number of parallaxes is configured to select the predetermined parallax from among a parallax image group having the number of parallaxes or more stored in the storage unit. Displaying a stereoscopic image configured by selecting a number of parallax images;
Including
The image processing apparatus causes the rendering processing unit to generate the parallax image group by setting a viewpoint for executing the rendering process based on a straight line or a curve forming a figure having a predetermined shape to be equal to or greater than the maximum number of parallaxes. An image processing method characterized by that.
JP2012281813A 2012-12-25 2012-12-25 Image processing system and image processing method Expired - Fee Related JP6087618B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012281813A JP6087618B2 (en) 2012-12-25 2012-12-25 Image processing system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012281813A JP6087618B2 (en) 2012-12-25 2012-12-25 Image processing system and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011085838A Division JP2012217591A (en) 2011-04-07 2011-04-07 Image processing system, device, method and program

Publications (2)

Publication Number Publication Date
JP2013122770A JP2013122770A (en) 2013-06-20
JP6087618B2 true JP6087618B2 (en) 2017-03-01

Family

ID=48774660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012281813A Expired - Fee Related JP6087618B2 (en) 2012-12-25 2012-12-25 Image processing system and image processing method

Country Status (1)

Country Link
JP (1) JP6087618B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09186957A (en) * 1995-12-28 1997-07-15 Canon Inc Image recording and reproducing device
JP2006101329A (en) * 2004-09-30 2006-04-13 Kddi Corp Stereoscopic image observation device and its shared server, client terminal and peer to peer terminal, rendering image creation method and stereoscopic image display method and program therefor, and storage medium

Also Published As

Publication number Publication date
JP2013122770A (en) 2013-06-20

Similar Documents

Publication Publication Date Title
JP5909055B2 (en) Image processing system, apparatus, method and program
JP6211764B2 (en) Image processing system and method
JP6058290B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
JP5808146B2 (en) Image processing system, apparatus and method
JP6058306B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
JP5666967B2 (en) Medical image processing system, medical image processing apparatus, medical image diagnostic apparatus, medical image processing method, and medical image processing program
JP6005905B2 (en) Image processing system, image processing apparatus, and image processing method
JP5818531B2 (en) Image processing system, apparatus and method
JP6430149B2 (en) Medical image processing device
JP5972533B2 (en) Image processing system and method
US9445082B2 (en) System, apparatus, and method for image processing
JP5921102B2 (en) Image processing system, apparatus, method and program
JP5797485B2 (en) Image processing apparatus, image processing method, and medical image diagnostic apparatus
JP5784379B2 (en) Image processing system, apparatus and method
JP6058301B2 (en) Image processing apparatus, image processing method, and medical image diagnostic apparatus
JP6017124B2 (en) Image processing system, image processing apparatus, medical image diagnostic apparatus, image processing method, and image processing program
JP6005913B2 (en) Notification device, notification method, and medical image diagnostic device
JP2012244420A (en) Image processing system, device, and method
JP5813986B2 (en) Image processing system, apparatus, method and program
JP6087618B2 (en) Image processing system and image processing method
JP5868051B2 (en) Image processing apparatus, image processing method, image processing system, and medical image diagnostic apparatus
JP5835980B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
JP2013013552A (en) Medical image diagnostic apparatus, and medical image processing device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150619

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150915

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151215

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160105

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160122

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160412

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161018

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170202

R150 Certificate of patent or registration of utility model

Ref document number: 6087618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees