Nothing Special   »   [go: up one dir, main page]

JP2012085833A - Image processing system for three-dimensional medical image data, image processing method for the same, and program - Google Patents

Image processing system for three-dimensional medical image data, image processing method for the same, and program Download PDF

Info

Publication number
JP2012085833A
JP2012085833A JP2010235277A JP2010235277A JP2012085833A JP 2012085833 A JP2012085833 A JP 2012085833A JP 2010235277 A JP2010235277 A JP 2010235277A JP 2010235277 A JP2010235277 A JP 2010235277A JP 2012085833 A JP2012085833 A JP 2012085833A
Authority
JP
Japan
Prior art keywords
image
image data
dimensional
candidate
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010235277A
Other languages
Japanese (ja)
Inventor
Hanae Yoshida
英恵 吉田
Michio Oikawa
道雄 及川
Miho Isokawa
美保 礒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP2010235277A priority Critical patent/JP2012085833A/en
Publication of JP2012085833A publication Critical patent/JP2012085833A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology for easily designating a three-dimensional interest region in medical image volume data on a two-dimensional image.SOLUTION: Designation of the three-dimensional interest region by a user is supported in an image display of three-dimensional medical image data in a three-dimensional medical image processing system. A candidate object to be displayed in the three-dimensional medical image data is selected according to user input, and visualization processing of the three-dimensional medical image data is performed to display an image that specifies the selected candidate object. An object for designating the three-dimensional interest region is selected according to user selection input to the displayed candidate object image. The user inputs interest region designation to the selected object.

Description

本発明は、3次元医用画像データの画像処理システム、その画像処理方法及びプログラムに関し、特に、医用画像ボリューム・データから生成した2次元画像上での3次元関心領域指定を支援する技術に関する。   The present invention relates to an image processing system for 3D medical image data, an image processing method thereof, and a program, and more particularly to a technique for supporting designation of a 3D region of interest on a 2D image generated from medical image volume data.

X線CT(X−ray Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置等に代表される医用画像検査装置を用いた診断では、医者が、撮影された3次元医用画像データ(以下、「医用画像ボリューム・データ」、「ボリューム・データ」ともいう)から得られる可視化画像を診断の補助として使用する場合がある。   In a diagnosis using a medical image inspection apparatus typified by an X-ray CT (X-ray Computed Tomography) apparatus or an MRI (Magnetic Resonance Imaging) apparatus, a doctor uses three-dimensional medical image data (hereinafter referred to as “medical use”). In some cases, a visualized image obtained from “image volume data” or “volume data” is used as a diagnostic aid.

可視化画像は、医用画像ボリューム・データに対して複数の医用画像処理アルゴリズムを用いて可視化処理を行うことで得られる。ここで用いる医用画像処理アルゴリズムとしては、入力ボリューム・データから必要な組織だけを抽出して表示する方法エッジを強調して表示する方法等、診断目的に応じた複数の方法が存在する。   The visualized image is obtained by performing visualization processing on the medical image volume data using a plurality of medical image processing algorithms. As a medical image processing algorithm used here, there are a plurality of methods according to the purpose of diagnosis, such as a method of extracting and displaying only a necessary tissue from input volume data and a method of highlighting and displaying an edge.

また近年、技術の進歩により、医用画像撮像装置が一度に撮影可能な断層画像(以下、「スライス画像」ともいう)の枚数が加速度的に増加しており、撮影結果として出力されるボリューム・データの量も膨大なサイズとなっている。   In recent years, the number of tomographic images (hereinafter also referred to as “slice images”) that can be photographed at once by the medical image capturing apparatus is increasing at an accelerating rate due to technological advancement. The amount of is also a huge size.

そのため、医用画像を使用した診断において、スライス画像ごとの読影に加えて、Volume Rendering(VR)、Maximum Intensity Projection(MIP)等の3次元再構成手法を用いて再構成した2次元画像を読影することが主流になっている。しかし、3次元の情報を持つ対象物の2次元画像において対象物の3次元位置を指定するには、2次元平面内の位置情報に加え、2次元平面上で奥行き方向の情報を扱う必要がある。   Therefore, in diagnosis using a medical image, in addition to interpretation for each slice image, a reconstructed two-dimensional image is read using a three-dimensional reconstruction method such as Volume Rendering (VR) or Maximum Intensity Projection (MIP). It has become mainstream. However, in order to specify the 3D position of an object in a 2D image of the object having 3D information, it is necessary to handle information in the depth direction on the 2D plane in addition to the position information in the 2D plane. is there.

読影医は、読影結果をレポートとして主治医へ報告するが、2次元画像上で3次元的な位置を表現することは難しく、そのことが原因となり、読影医−主治医間の情報交換がスムーズにいかない場合も多い。   The interpreting doctor reports the interpretation result to the attending doctor as a report, but it is difficult to express the three-dimensional position on the two-dimensional image, and this is the reason why the information exchange between the interpreting doctor and the attending doctor is smooth. Often not.

また、これまでは電子カルテ(レポート)と3次元医用画像データは個別に扱われていたが、近年は電子カルテと医用画像サーバであるPACS(Picture Archiving and Communication System)を一つのシステムとして利用する場合も増えてきており、2次元画像上で3次元位置を簡易に選択することができる方法が求められている。これらの要求に対し、次に述べるような技術が、先行技術として提案されている。   In the past, electronic medical records (reports) and 3D medical image data were handled separately, but in recent years, electronic medical records and a medical image server PACS (Picture Archiving and Communication System) are used as one system. The number of cases is increasing, and a method for easily selecting a three-dimensional position on a two-dimensional image is required. In response to these requirements, the following techniques have been proposed as prior art.

特許文献1は、医用スライス画像を積み上げて3次元対象物の画像を表示した場合、その画像上の指定した一点のスライス画像上での座標及びこの座標の属するスライス画像番号を求める技術であり、任意の視点で表示した3次元対象物の画像上での一点の座標と、回転によって得たその点の軌跡上の任意の一点の座標とから、コンピュータ内の処理により、そのスライス画像番号及び座標を算出する技術である。   Patent Document 1 is a technique for obtaining coordinates on a specified one slice image on the image and a slice image number to which the coordinates belong when a medical slice image is stacked and an image of a three-dimensional object is displayed. From the coordinates of a point on the image of the three-dimensional object displayed at an arbitrary viewpoint and the coordinates of an arbitrary point on the trajectory of the point obtained by rotation, the slice image number and coordinates are processed by the computer. Is a technique for calculating

特許文献2は、複数の2次元ウインドに基づいて、点の3次元座標を確定する画像処理方法である。特許文献3は、3次元データを平面上に投影した2次元画像を表示するとき、2次元画像中の注目点とその周囲の関心領域について、その他の領域との立体的な位置関係を任意の方向から表示できるようにすることを目的とした技術である。   Patent Document 2 is an image processing method for determining the three-dimensional coordinates of a point based on a plurality of two-dimensional windows. In Patent Literature 3, when a two-dimensional image obtained by projecting three-dimensional data onto a plane is displayed, a three-dimensional positional relationship between the attention point in the two-dimensional image and the surrounding region of interest is arbitrarily determined. This technology aims to enable display from the direction.

特開平6−274599号公報JP-A-6-274599 特開平8−212390号公報JP-A-8-212390 特開平9−81786号公報JP-A-9-81786

上述のように、2次元平面に投影された3次元画像に対して、3次元座標で表される点又は領域を2次元平面上で指定する方法として、複数の視点から投影された複数の投影画像を利用してそれを指定する方法がこれまでに提案されてきている。しかし、医療診断の対象となる生体は多くの組織及び器官からなる複雑な構成を有しており、医療診断においては、3次元関心領域を、2次元画像を用いてより迅速かつ容易に指定することができる技術が求められている。   As described above, as a method for designating a point or region represented by three-dimensional coordinates on a two-dimensional plane for a three-dimensional image projected on a two-dimensional plane, a plurality of projections projected from a plurality of viewpoints A method for designating an image using an image has been proposed. However, a living body to be medically diagnosed has a complicated structure composed of many tissues and organs. In medical diagnosis, a three-dimensional region of interest is specified more quickly and easily using a two-dimensional image. There is a need for technology that can do this.

本発明の一態様は、ユーザ入力を取得する入力取得部と、データ記憶装置と、画像処理部と、表示装置とを備える、3次元医用画像データの画像処理システムである。前記データ記憶装置は、前記3次元医用画像データを記憶する。前記画像処理部は、前記3次元医用画像データを可視化処理して、一つ又は複数の候補オブジェクトのそれぞれを明示する一つ又は複数の候補オブジェクト画像データを生成し、その一つ又は複数の候補オブジェクト画像データを前記データ記憶装置に記憶する。前記表示装置は、前記データ記憶装置に記憶されている前記一つ又は複数の候補オブジェクト画像データの画像を表示する 前記画像処理部は、前記表示された画像に対するユーザ選択入力に従って、前記一つ又は複数の候補オブジェクトから3次元関心領域を指定するためのオブジェクトを選択する。前記入力取得部は、前記選択したオブジェクトの表示画像に対する前記ユーザからの前記3次元関心領域の指定入力を受け付ける。   One aspect of the present invention is an image processing system for three-dimensional medical image data including an input acquisition unit that acquires user input, a data storage device, an image processing unit, and a display device. The data storage device stores the three-dimensional medical image data. The image processing unit visualizes the three-dimensional medical image data to generate one or a plurality of candidate object image data that clearly indicate one or a plurality of candidate objects, and the one or a plurality of candidates Object image data is stored in the data storage device. The display device displays an image of the one or more candidate object image data stored in the data storage device. The image processing unit is configured to display the one or the plurality of candidate object image data according to a user selection input for the displayed image. An object for designating a three-dimensional region of interest is selected from a plurality of candidate objects. The input acquisition unit receives a designation input of the three-dimensional region of interest from the user for the display image of the selected object.

本発明によれば、医用画像ボリューム・データにおける3次元関心領域を、2次元画像上で簡便に指定することができる。   According to the present invention, a three-dimensional region of interest in medical image volume data can be easily designated on a two-dimensional image.

本実施形態に係る医用画像処理システムの構成を模式的に示すシステム構成図である。1 is a system configuration diagram schematically illustrating a configuration of a medical image processing system according to an embodiment. 本実施形態において、画像処理装置で実行される3次元関心領域指定処理の一例を示すフローチャートである。In this embodiment, it is a flowchart which shows an example of the three-dimensional region-of-interest designation | designated process performed with an image processing apparatus. 本実施形態に係る医用画像処理システムの一部構成を模式的に示すブロック図である。It is a block diagram which shows typically a partial structure of the medical image processing system which concerns on this embodiment. 本実施形態において、3次元関心領域指定処理に利用する2次元指定位置と判定領域を説明する図である。In this embodiment, it is a figure explaining the two-dimensional designation | designated position and determination area | region used for a three-dimensional region-of-interest designation | designated process. 本実施形態において、オブジェクトを指定するステップにおける画面表示の一例を示す図である。It is a figure which shows an example of the screen display in the step which designates an object in this embodiment. 本実施形態において、オブジェクトを指定するステップにおける画面表示の一例を示す図である。It is a figure which shows an example of the screen display in the step which designates an object in this embodiment. 本実施形態において、オブジェクトを指定するステップにおける画面表示の一例を示す図である。It is a figure which shows an example of the screen display in the step which designates an object in this embodiment. 本実施形態において、オブジェクトを指定するステップにおける画面表示の一例を示す図である。It is a figure which shows an example of the screen display in the step which designates an object in this embodiment. 本実施形態において、オブジェクトを指定するステップにおける画面表示の一例を示す図である。It is a figure which shows an example of the screen display in the step which designates an object in this embodiment. 本実施形態において、オブジェクトを指定するステップにおける画面表示の一例を示す図である。It is a figure which shows an example of the screen display in the step which designates an object in this embodiment. 本実施形態において、オブジェクトを指定するステップにおける画面表示の他の例を示す図である。In this embodiment, it is a figure which shows the other example of the screen display in the step which designates an object. 本実施形態において、ボクセルの輝度の変化を利用してオブジェクトを抽出する方法を説明する図である。In this embodiment, it is a figure explaining the method of extracting an object using the change of the brightness | luminance of a voxel. 本実施形態において、ボクセルの輝度の分布を利用してオブジェクトを推定する方法を説明する図である。In this embodiment, it is a figure explaining the method of estimating an object using distribution of the brightness | luminance of a voxel. 本実施形態のボクセルの輝度分布を利用したオブジェクト推定処理が参照する、輝度とオブジェクトの対応を示すオブジェクト輝度対応表の一例である。It is an example of the object brightness | luminance correspondence table | surface which shows the response | compatibility of a brightness | luminance and an object which the object estimation process using the brightness distribution of the voxel of this embodiment refers.

以下に、本発明の実施形態を、図を参照しながら詳細に説明する。説明の明確化のため、以下の記載及び図面は、適宜、省略及び簡略化がなされている。又、各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略されている。   Embodiments of the present invention will be described below in detail with reference to the drawings. For clarity of explanation, the following description and drawings are omitted and simplified as appropriate. Moreover, in each drawing, the same code | symbol is attached | subjected to the same element and the duplication description is abbreviate | omitted as needed for clarification of description.

本実施形態の医用画像処理システムは、3次元医用画像データ(以下において医用画像ボリューム・データ又はボリューム・データとも呼ぶ)に対するユーザ(主に医師)の3次元関心領域(以下において関心領域とも呼ぶ)の指定を支援する。関心領域は、ボリューム・データが表す対象物において、ユーザが詳細な画像表示を行うことを望む領域である。   The medical image processing system of this embodiment is a user (mainly a doctor) three-dimensional region of interest (hereinafter also referred to as a region of interest) for three-dimensional medical image data (hereinafter also referred to as medical image volume data or volume data). Support the designation of The region of interest is a region where the user desires to display a detailed image on the object represented by the volume data.

医用画像処理システムは、ユーザ入力に応じてボリューム・データから一つ又は複数のオブジェクトの2次元画像を生成し、それらを表示する。オブジェクトは、医用画像処理システムにおいて、組織、器官又は器官における区域など、生体における一単位を表す。医用画像ボリューム・データおけるオブジェクトは、画像処理システムにおいて扱われる一纏まりのボクセルであり、生体における実際の組織や器官と一致することが好ましいが、一致していないこともある。   The medical image processing system generates two-dimensional images of one or a plurality of objects from volume data in response to user input and displays them. An object represents a unit in a living body, such as a tissue, organ, or area in an organ, in a medical image processing system. An object in medical image volume data is a group of voxels handled in the image processing system, and preferably matches an actual tissue or organ in a living body, but may not match.

本実施形態において、ユーザは、表示された一つ又は複数の表示されたオブジェクト画像から、少なくとも一つのオブジェクト画像を選択する。ユーザは、選択したオブジェクトの画像に対しする入力により関心領域を指定することができる。このように、ユーザによる関心領域の指定のため、ユーザ入力に応じてオブジェクトの画像を自動的に表示することで、ユーザは関心領域の指定を簡便かつ迅速に行うことができる。   In the present embodiment, the user selects at least one object image from one or more displayed object images. The user can specify a region of interest by input to the image of the selected object. As described above, the user can designate the region of interest simply and quickly by automatically displaying the image of the object according to the user input for the user to designate the region of interest.

図1は、本実施形態の医用画像処理システムの構成を模式的に示すブロック図である。図1に示すように、医用画像処理装置システム1は、医用画像ボリューム・データ及びそれに関わるデータを記憶する不揮発性記憶媒体を備える外部記憶装置10、X線CT装置やMRI装置等の医用画像撮像装置で撮像されたボリューム・データに対して画像処理を行う画像処理装置11、画像処理された画像を表示する表示装置12、各処理の開始等の指示や、画面に対する操作を入力する入力装置13を備える。   FIG. 1 is a block diagram schematically showing the configuration of the medical image processing system of the present embodiment. As shown in FIG. 1, the medical image processing apparatus system 1 includes medical image volume data and medical image imaging such as an external storage device 10 including a nonvolatile storage medium that stores data related thereto, an X-ray CT apparatus, an MRI apparatus, and the like. An image processing device 11 that performs image processing on the volume data captured by the device, a display device 12 that displays the image processed image, an input device 13 that inputs instructions for starting each process and operations on the screen Is provided.

入力装置13の典型的な例は、キーボード及びポインタ・デバイスである。画像処理装置11は、ネットワーク及びそのネットワークに接続された入出力用計算機を介して、表示装置12及び入力装置13に接続されてもよい。利用者は、入出力用計算機を介して、画像処理装置11にアクセスする。また、外部記憶装置10は、画像処理装置11に直接に又はネットワークを介して接続することができる。典型的には、外部記憶装置10は、磁気ディスクを備えるハードディスク・ドライブ又は半導体不揮発性記憶媒体を備えるフラッシュメモリ装置である。   Typical examples of the input device 13 are a keyboard and a pointer device. The image processing apparatus 11 may be connected to the display device 12 and the input device 13 via a network and an input / output computer connected to the network. The user accesses the image processing apparatus 11 via the input / output computer. The external storage device 10 can be connected to the image processing device 11 directly or via a network. Typically, the external storage device 10 is a hard disk drive including a magnetic disk or a flash memory device including a semiconductor nonvolatile storage medium.

画像処理装置11は、データの演算処理を実行するプロセッサであるCPU(Central Processing Unit)14とCPU14が処理するデータ(実行するプログラムを含む)を記憶する内部メモリ15とを含む。CPU14は、プログラムに従って動作することで、画像処理アルゴリズム実行部141、入力操作取得部142及び指定領域算出部143として機能する。さらに、画像処理アルゴリズム実行部141としての動作において、CPU14は、可視化処理実行部144及びオブジェクト処理実行部145として機能する。CPU14の処理の少なくとも一部は、GPU(Graphics Processing Unit)が行ってもよい。特に、画像処理アルゴリズム実行部141の処理の一部をGPUが行うことで、より高速な処理を実現できる。   The image processing apparatus 11 includes a CPU (Central Processing Unit) 14 that is a processor that executes data arithmetic processing, and an internal memory 15 that stores data (including a program to be executed) processed by the CPU 14. The CPU 14 functions as an image processing algorithm execution unit 141, an input operation acquisition unit 142, and a designated area calculation unit 143 by operating according to a program. Further, in the operation as the image processing algorithm execution unit 141, the CPU 14 functions as a visualization process execution unit 144 and an object process execution unit 145. At least part of the processing of the CPU 14 may be performed by a GPU (Graphics Processing Unit). In particular, faster processing can be realized by the GPU performing part of the processing of the image processing algorithm execution unit 141.

画像処理アルゴリズム実行部141において、可視化処理実行部144は、ボリューム・データに対して可視化処理を実行し表示装置に表示する。オブジェクト処理実行部145は、オブジェクトに対する処理やそれに関わる判断を行う。入力操作取得部142は、入力装置13からの入力を取得する。指定領域算出部143は、入力操作取得部142から得たユーザ入力に基づき、ボリューム・データにおいてユーザが指定した領域を算出する。これらの機能部の詳細は後述する。   In the image processing algorithm execution unit 141, the visualization process execution unit 144 executes a visualization process on the volume data and displays it on the display device. The object processing execution unit 145 performs processing on an object and determination related thereto. The input operation acquisition unit 142 acquires an input from the input device 13. The designated area calculation unit 143 calculates an area designated by the user in the volume data based on the user input obtained from the input operation acquisition unit 142. Details of these functional units will be described later.

CPU14は、内部メモリ15内のそれぞれの記憶領域に記憶されているプログラムから選択されたコマンドに従って動作する。従って、CPU14の動作により実現される機能部を主語とする説明は、プログラムを主語とした説明でもよい。プログラムの一部又は全部は、専用ハードウェアによって実現してもよい。プログラムは、プログラム配布サーバや、計算機読み取り可能媒体によって画像処理システム1にインストールすることができ、外部記憶装置10の記憶領域に記憶することができる。   The CPU 14 operates according to a command selected from a program stored in each storage area in the internal memory 15. Therefore, the description using the function unit realized by the operation of the CPU 14 as the subject may be the description using the program as the subject. Part or all of the program may be realized by dedicated hardware. The program can be installed in the image processing system 1 by a program distribution server or a computer-readable medium, and can be stored in a storage area of the external storage device 10.

データ記憶装置の一例である内部メモリ20は、典型的には、RAM(Random Access Memory)であり、メインメモリとキャッシュ・メモリを含む。内部メモリ20は、プログラムの他、ボリューム・データ及びそれに関わる情報(データ)を記憶する。具体的には、入力操作取得部142が取得したデータ、画像処理アルゴリズム実行部141及び指定領域算出部143が生成したデータを、それらの記憶領域に記憶する。ボリューム・データは、外部記憶装置10から内部メモリ15にロードされる。プログラム間のデータ転送は、内部メモリ15を介して行われる。   The internal memory 20, which is an example of a data storage device, is typically a RAM (Random Access Memory) and includes a main memory and a cache memory. The internal memory 20 stores volume data and related information (data) in addition to programs. Specifically, the data acquired by the input operation acquisition unit 142 and the data generated by the image processing algorithm execution unit 141 and the designated area calculation unit 143 are stored in those storage areas. Volume data is loaded from the external storage device 10 into the internal memory 15. Data transfer between programs is performed via the internal memory 15.

以下において、本実施形態の医用画像処理システム1において、ボリューム・データにおける3次元関心領域を指定する処理を説明する。医用画像処理システム1は、ボリューム・データの2次元可視化画像を表示し、その表示に対するユーザの入力に従って、一つ又は複数のオブジェクトの画像を表示する。   Hereinafter, a process for designating a three-dimensional region of interest in volume data in the medical image processing system 1 of the present embodiment will be described. The medical image processing system 1 displays a two-dimensional visualization image of volume data, and displays an image of one or a plurality of objects according to a user input for the display.

オブジェクトがボリューム・データにおいて定義されている場合、医用画像処理システム1は、定義されているオブジェクトの画像を表示する。オブジェクトがボリューム・データにおいて定義されていない場合、医用画像処理システム1は、ボリューム・データからオブジェクトを推定し、そのオブジェクトの画像を表示する。   When the object is defined in the volume data, the medical image processing system 1 displays an image of the defined object. When the object is not defined in the volume data, the medical image processing system 1 estimates the object from the volume data and displays an image of the object.

医用画像処理システム1は、複数のオブジェクトの画像を順次又は一括して表示する。ユーザは、一つのオブジェクト画像を選択し、その選択したオブジェクトの画像において関心領域を指定する。医用画像処理システム1は、指定された関心領域を表示する。   The medical image processing system 1 displays images of a plurality of objects sequentially or collectively. The user selects one object image and designates a region of interest in the image of the selected object. The medical image processing system 1 displays the designated region of interest.

図2のフローチャートに従って、2次元画像上で3次元関心領域を指定する処理の全体の流れを説明する。この処理の説明において、適宜、図3を参照する。図3は、図1に示す画像処理システム1における一部の構成を示し、その一部構成における本処理でのデータの流れを模式的に示している。   The overall flow of processing for designating a three-dimensional region of interest on a two-dimensional image will be described with reference to the flowchart of FIG. In the description of this process, FIG. 3 is referred to as appropriate. FIG. 3 shows a partial configuration of the image processing system 1 shown in FIG. 1, and schematically shows a data flow in this processing in the partial configuration.

図2に示すように、画像処理装置11は、入力装置13からの入力もしくは外部システム(を介した入力装置13)からの指示で、3次元領域指定処理を開始する(S10)。図3に示すように、外部記憶装置10から内部メモリ15にボリューム・データ151が転送される。   As shown in FIG. 2, the image processing apparatus 11 starts the three-dimensional region designation process in response to an input from the input device 13 or an instruction from the external system (the input device 13 via) (S10). As shown in FIG. 3, the volume data 151 is transferred from the external storage device 10 to the internal memory 15.

次に、可視化処理実行部144(画像処理アルゴリズム実行部141)は、内部メモリ15に記憶されているボリューム・データ151を取得し、そのボリューム・データに対して可視化処理を実行し、初期可視化画像データ152を生成する(S11)。図3に示すように、生成された初期可視化画像データ152は、内部メモリ15に記憶される。その後、初期可視化画像データ152は表示装置12に転送され、表示装置12が初期可視化画像を表示する(S12)。   Next, the visualization process execution unit 144 (image processing algorithm execution unit 141) acquires the volume data 151 stored in the internal memory 15, executes the visualization process on the volume data, and performs the initial visualization image. Data 152 is generated (S11). As shown in FIG. 3, the generated initial visualized image data 152 is stored in the internal memory 15. Thereafter, the initial visualized image data 152 is transferred to the display device 12, and the display device 12 displays the initial visualized image (S12).

ステップ12において可視化処理実行部144が行う可視化処理とは、ボリューム・データ151から2次元の可視化画像(データ)を生成する処理である。この可視化処理は、例えば、3次元可視化方法及び断面生成方法を使用することができる。   The visualization process performed by the visualization process execution unit 144 in step 12 is a process of generating a two-dimensional visualization image (data) from the volume data 151. For this visualization processing, for example, a three-dimensional visualization method and a cross-section generation method can be used.

3次元可視化方法の例は、ボクセル値から透明度を設定し、各視線上にあるボクセルにおける光の吸収と拡散を考慮してボクセルの光を加算し、対象物を立体的に表示するボリューム・レンダリング(Volume Rendering:VR)、各視線上にあるボクセルの最大のボクセル値を投影するMIP(Maximum Intensity Projection)等である。   An example of a three-dimensional visualization method is volume rendering in which transparency is set from the voxel values, the light of the voxels on each line of sight is added and the light of the voxels is added, and the object is displayed in three dimensions (Volume Rendering: VR), MIP (Maximum Intensity Projection) that projects the maximum voxel value of voxels on each line of sight.

断面生成方法の例は、Axial、Sagittal、Coronal等の規定された断面や任意断面での断面図を表示するMulti Planar Reformat(MPR)、任意曲面での断面図を表示するCureved Multi Planar Reformat(CMPR)等である。   Examples of the cross-section generation method include Multi Planar Reformat (MPR) for displaying a cross section of a specified cross section such as Axial, Sagittal, Coronal, etc. and a cross section of an arbitrary cross section. ) Etc.

可視化処理実行部144は、表示装置12を使用して初期可視化画像を表示する。この初期可視化画像データ152を生成する可視化処理(S11)の対象範囲及び使用する可視化手法は、予め設定されている、若しくは、ユーザが入力装置13を介してそれらを指定することができるようにしてもよい。   The visualization processing execution unit 144 displays an initial visualization image using the display device 12. The target range of the visualization process (S11) for generating the initial visualized image data 152 and the visualization method to be used are set in advance or can be specified by the user via the input device 13. Also good.

ユーザは、入力装置13によって、表示装置12に表示された2次元初期可視化画像における位置を指定する。入力操作取得部142は、表示装置12に表示された初期可視化画像に対して指定された指定2次元位置を入力装置13から受け取る。例えば、ユーザが入力装置13としてマウスを使用する場合、カーソルでの指定やクリック等で表示画面上において指定される2次元座標が、指定2次元位置である。この2次元位置は、可視化画像内における座標である。   The user designates a position in the two-dimensional initial visualized image displayed on the display device 12 by the input device 13. The input operation acquisition unit 142 receives the designated two-dimensional position designated for the initial visualized image displayed on the display device 12 from the input device 13. For example, when the user uses a mouse as the input device 13, two-dimensional coordinates designated on the display screen by designation with a cursor or clicking are the designated two-dimensional positions. This two-dimensional position is a coordinate in the visualized image.

入力操作取得部142は、指定2次元位置の2次元座標と、現在表示されている初期可視化画像の位置を1次元座標として取得し、指定領域算出部143にその情報を転送する。初期可視化画像の位置は、初期可視化画像が断面画像である場合はそのスライス位置、初期可視化画像がVR画像やMIP画像などの投影画像である場合は、その投影面の位置である。初期可視化画像の1次元座標が規定値である場合には、指定2次元位置の2次元座標のみを指定領域算出部143に送ればよい。   The input operation acquisition unit 142 acquires the two-dimensional coordinates of the designated two-dimensional position and the position of the currently displayed initial visualized image as one-dimensional coordinates, and transfers the information to the designated region calculation unit 143. The position of the initial visualized image is the slice position when the initial visualized image is a cross-sectional image, and the position of the projection plane when the initial visualized image is a projected image such as a VR image or MIP image. When the one-dimensional coordinates of the initial visualized image are specified values, only the two-dimensional coordinates of the designated two-dimensional position need be sent to the designated area calculation unit 143.

この1次元座標は、例えば、ボリューム・データ151における特定座標軸上の、初期可視化画像の中心位置の座標である。上述のように、この1次元座標(可視化画像位置)は、予め設定されている若しくはユーザの指定により決定される。1次元座標は、初期可視化画像上のいずれの点を基準として決定してもよく、上記指定座標を基準に決定してもよい。   This one-dimensional coordinate is, for example, the coordinate of the center position of the initial visualized image on a specific coordinate axis in the volume data 151. As described above, the one-dimensional coordinates (visualized image position) are set in advance or determined by the user's designation. The one-dimensional coordinates may be determined based on any point on the initial visualization image, or may be determined based on the designated coordinates.

指定領域算出部143は、指定2次元位置の2次元座標及び初期可視化画像の1次元座標から、ボリューム・データ151における3次元座標を算出する(S13)。さらに、指定領域算出部143は、算出した3次元座標を指定位置(初期位置)として、画像処理アルゴリズム実行部141のオブジェクト処理実行部145へ転送する。   The designated area calculation unit 143 calculates three-dimensional coordinates in the volume data 151 from the two-dimensional coordinates of the designated two-dimensional position and the one-dimensional coordinates of the initial visualized image (S13). Furthermore, the designated area calculation unit 143 transfers the calculated three-dimensional coordinates as the designated position (initial position) to the object processing execution unit 145 of the image processing algorithm execution unit 141.

可視化画像が平面の断面画像又は投影画像である例において、指定領域算出部143は、平面画像の中心位置における上記特定座標の座標、平面画像のボリューム・データにおける法線方向ベクトル及び指定2次元位置の2次元座標から、ボリューム・データにおける座標を算出することができる。画像が球面の一部である場合には、例えば、その画像の曲率中心のボリューム・データにおける座標を使用して座標を算出することができる。   In the example in which the visualized image is a planar cross-sectional image or projection image, the designated area calculation unit 143 includes the coordinates of the specific coordinates at the center position of the planar image, the normal direction vector in the volume data of the planar image, and the designated two-dimensional position. The coordinates in the volume data can be calculated from the two-dimensional coordinates. When the image is a part of a spherical surface, for example, the coordinates can be calculated using the coordinates in the volume data of the curvature center of the image.

指定領域算出部143は、取得した初期位置から判定領域を決定し、図3に示すように、その判定領域を特定するデータ153を内部メモリ15に記憶する。さらに、図2に示すように、オブジェクト処理実行部145は、その判定領域特定データ153が示す領域内に、ボリューム・データ151内で定義されているオブジェクトが存在するか否かを決定する(S14)。オブジェクトの少なくとも一部が判定領域内にあるとき、オブジェクト処理実行部145は、そのオブジェクトが判定領域内に存在していると判定する。   The designated area calculation unit 143 determines a determination area from the acquired initial position, and stores data 153 specifying the determination area in the internal memory 15 as illustrated in FIG. 3. Further, as shown in FIG. 2, the object processing execution unit 145 determines whether or not an object defined in the volume data 151 exists in the area indicated by the determination area specifying data 153 (S14). ). When at least a part of the object is in the determination area, the object processing execution unit 145 determines that the object exists in the determination area.

オブジェクトは、上述のように、対象物である生体の一単位であり、例えば皮膚、骨、血管、胃、肝臓、脳等といった器官や組織である。判定領域は、上記初期位置を含む、線、所定の外形を有する面又は所定の外形を有する立体領域である。判定領域及び定義されたオブジェクトの有無の決定方法の詳細は後述する。   As described above, an object is a unit of a living body that is an object, and is an organ or tissue such as skin, bone, blood vessel, stomach, liver, brain, or the like. The determination area is a line including the initial position, a surface having a predetermined outer shape, or a three-dimensional area having a predetermined outer shape. Details of the determination area and the method for determining the presence / absence of a defined object will be described later.

判定領域内において、ボリューム・データ151内で定義されているオブジェクトが存在しない場合、オブジェクト処理実行部145は、オブジェクト推定処理(S15)を実行する。オブジェクト推定処理は、ボリューム・データ151における判定領域内のオブジェクトを推定する。オブジェクト推定処理の詳細は、後に、図7〜図9を参照して説明する。   When there is no object defined in the volume data 151 in the determination area, the object process execution unit 145 executes an object estimation process (S15). In the object estimation process, an object in the determination area in the volume data 151 is estimated. Details of the object estimation process will be described later with reference to FIGS.

オブジェクト処理実行部145は、図3に示すように、判定領域内にあるオブジェクト(候補オブジェクト)を特定するデータ154を内部メモリ15に記憶する。なお、図2のフローチャートには示していないが、判定領域内にボリューム・データ151内で定義されたオブジェクトも推定されるオブジェクトも存在しない場合、ユーザは、オブジェクト選択をすることなく、関心領域を指定する(S18)。   As illustrated in FIG. 3, the object processing execution unit 145 stores data 154 for specifying an object (candidate object) in the determination area in the internal memory 15. Although not shown in the flowchart of FIG. 2, if neither the object defined in the volume data 151 nor the estimated object exists in the determination area, the user selects the area of interest without selecting an object. Specify (S18).

次に、図2に示すように、可視化処理実行部144は、候補オブジェクトの画像(候補オブジェクト画像)を表示する(S16)。具体的には、図3に示すように、可視化処理実行部144は、ボリューム・データ151と候補オブジェクト特定データ154から、候補オブジェクト画像データ155を生成し、内部メモリ15に記憶する。その候補オブジェクト画像データ155は表示装置12に送られる。   Next, as illustrated in FIG. 2, the visualization processing execution unit 144 displays a candidate object image (candidate object image) (S <b> 16). Specifically, as illustrated in FIG. 3, the visualization processing execution unit 144 generates candidate object image data 155 from the volume data 151 and the candidate object specifying data 154 and stores it in the internal memory 15. The candidate object image data 155 is sent to the display device 12.

表示装置12は、オブジェクト画像データが表すオブジェクトの画像を表示する。複数の候補オブジェクトが存在する場合、候補オブジェクト画像は順次表示又は一括表示される。候補オブジェクト画像の表示方法の詳細は、図5A〜図5F及び図6を参照して、後に説明する。   The display device 12 displays an image of the object represented by the object image data. When there are a plurality of candidate objects, the candidate object images are sequentially or collectively displayed. Details of the candidate object image display method will be described later with reference to FIGS. 5A to 5F and 6.

ユーザは、画像表示装置12に表示されているオブジェクトを視認し、そのオブジェクトを関心領域の指定のために使用するか否かを決定し、その決定を入力装置13により入力する(S17)。ユーザが表示された全ての候補オブジェクトの画像を使用しないと決定すると(S17におけるN)、処理は関心領域指定のステップ(S19)に移る。   The user visually recognizes the object displayed on the image display device 12, determines whether or not to use the object for designating the region of interest, and inputs the determination through the input device 13 (S17). If the user determines not to use all the displayed images of candidate objects (N in S17), the process proceeds to a region of interest designation step (S19).

ユーザが表示されたオブジェクトの画像を関心領域の指定において利用すると決定(入力)し(S17におけるY)、利用するオブジェクトの画像を入力装置13による選択する(S18)。典型的には、ユーザによる表示されている候補オブジェクト画像の選択が、そのオブジェクト画像の利用決定の入力である。   The user decides (inputs) that the displayed object image is to be used for designating the region of interest (Y in S17), and selects the object image to be used by the input device 13 (S18). Typically, selection of a displayed candidate object image by the user is an input for determining the use of the object image.

表示装置12が目的のオブジェクトを候補オブジェクトとして表示した時点で、ユーザは入力装置13により決定するという情報を入力する。入力操作取得部142は、候補オブジェクトが選択オブジェクトとして選択されたという情報を指定領域算出部143に転送する。指定領域算出部143は、その候補オブジェクトを選択オブジェクトとして定義する。   When the display device 12 displays the target object as a candidate object, the user inputs information to be determined by the input device 13. The input operation acquisition unit 142 transfers information that the candidate object has been selected as the selection object to the designated area calculation unit 143. The designated area calculation unit 143 defines the candidate object as a selected object.

その後、処理は、関心領域指定ステップ(S20)に移る。可視化処理実行部144は、選択されたオブジェクトの画像を、表示装置12により表示する。複数の候補オブジェクトの画像が画面上に表示される構成においては、典型的には、選択された一つのオブジェクトの拡大画像を新たに表示する。候補オブジェクトの画像が順次表示される構成においては、選択されたときの画像をそのまま使用する又は新たに選択画像を再表示する。   Thereafter, the process proceeds to a region of interest designation step (S20). The visualization process execution unit 144 displays an image of the selected object on the display device 12. In a configuration in which images of a plurality of candidate objects are displayed on the screen, typically, an enlarged image of one selected object is newly displayed. In the configuration in which the images of the candidate objects are sequentially displayed, the selected image is used as it is or a newly selected image is redisplayed.

ユーザは、表示されているオブジェクトの画像において、関心領域を指定するための入力を行う。オブジェクト画像における関心領域の指定方法の詳細は、後述する。可視化処理実行部144は、ユーザが入力装置13により指定した関心領域の画像を、表示装置12により表示する。   The user performs input for designating a region of interest in the displayed image of the object. Details of the method of specifying the region of interest in the object image will be described later. The visualization processing execution unit 144 displays an image of the region of interest designated by the user using the input device 13 on the display device 12.

具体的には、指定領域算出部143は、入力操作取得部142から取得した入力データとオブジェクト処理実行部145から取得した対象オブジェクトの座標データから、指定された関心領域を示すボリューム・データ151にける座標データを算出する。可視化処理実行部144は、指定領域算出部143から、算出された上記座標データを取得する。   Specifically, the designated region calculation unit 143 converts the input data acquired from the input operation acquisition unit 142 and the coordinate data of the target object acquired from the object processing execution unit 145 into volume data 151 indicating the specified region of interest. Calculate the coordinate data. The visualization process execution unit 144 acquires the calculated coordinate data from the designated area calculation unit 143.

可視化処理実行部144は、指定領域算出部143から取得した座標データとボリューム・データ151から、指定された関心領域の画像データ156を生成し、内部メモリ15に記憶する。関心領域画像データ156は、表示装置12に転送され、表示装置12は関心領域画像データが表す画像を表示する。   The visualization processing execution unit 144 generates image data 156 of the designated region of interest from the coordinate data acquired from the designated region calculation unit 143 and the volume data 151, and stores it in the internal memory 15. The region-of-interest image data 156 is transferred to the display device 12, and the display device 12 displays the image represented by the region-of-interest image data.

ユーザにとって所望の関心領域が表示されている場合(S20におけるY)、関心領域指定処理は終了(S21)する。所望の関心領域が表示されていない場合(S20におけるN)、ユーザは入力装置13により、関心領域指定処理を完了しないことを示す入力を行う。処理は、初期位置特定ステップ(S13)及びそれ以降のステップを再実行する。設計によっては、処理は、可視化処理ステップ(S11)又は可視化表示ステップ(S12)から開始してもよい。   If the region of interest desired by the user is displayed (Y in S20), the region of interest designating process ends (S21). When the desired region of interest is not displayed (N in S20), the user performs an input indicating that the region of interest designation process is not completed by the input device 13. The process re-executes the initial position specifying step (S13) and the subsequent steps. Depending on the design, the process may start from a visualization process step (S11) or a visualization display step (S12).

また、一つのボリューム・データに対して複数の関心領域を指定する場合、処理は、一旦終了(S21)した後、初期位置特定ステップ(S13)から開始する。上記と同様に、処理は、可視化処理ステップ(S11)又は可視化表示ステップ(S12)から開始してもよい。この場合、可視化処理実行部144は、例えば、すでに指定が完了している関心領域に対して色づけを行い、その領域が関心領域として既に指定されたことがあるということをユーザが視認できるようにすることが好ましい。   Further, when a plurality of regions of interest are designated for one volume data, the process is once ended (S21) and then started from the initial position specifying step (S13). Similarly to the above, the processing may be started from the visualization processing step (S11) or the visualization display step (S12). In this case, for example, the visualization processing execution unit 144 performs coloring on the region of interest that has already been specified so that the user can visually recognize that the region has already been specified as the region of interest. It is preferable to do.

また、好ましい構成において、既に関心領域として指定されている領域に含まれるボクセルを新たに指定する関心領域に含ませることができるか、若しくは一つのボクセルは一つの関心領域のみに属すのか、ということが設定可能である。指定領域算出部143は、既にいずれかの関心領域に属しているボクセルと、そうでないボクセルに対して異なる処理を行うように構成されていてもよい。   Also, in a preferred configuration, whether a voxel included in a region that has already been specified as a region of interest can be included in a newly specified region of interest, or whether one voxel belongs to only one region of interest Can be set. The designated region calculation unit 143 may be configured to perform different processing on voxels that already belong to any region of interest and voxels that do not.

<判定領域>
以下において、図2に示すフローチャートにおけるいくつかのステップの詳細を説明する。まず、ステップ14の判定ステップについて具体的に説明を行う。ステップ14は、判定領域(の少なくとも一部)と(少なくともその一部が)重なるオブジェクトを特定する。判定の対象となるオブジェクトは、ボリューム・データ151内で定義されているオブジェクトである。
<Judgment area>
Details of some steps in the flowchart shown in FIG. 2 will be described below. First, the determination step of Step 14 will be specifically described. Step 14 identifies an object that overlaps (at least a part of) the determination area (at least a part of). The object to be determined is an object defined in the volume data 151.

図4を参照して、判定領域の好ましい例を説明する。図4の左図は、頭部のボリューム・データをVRによって可視化表示した画像を模式的に示す図であり、ユーザが2次元位置を指定する初期可視化画像である。VR画像の投影面は、頭部の前に位置している。本例においては、頭部の外側から皮膚、頭骨、脳の各オブジェクトが示されている。   A preferable example of the determination area will be described with reference to FIG. The left diagram in FIG. 4 is a diagram schematically showing an image in which the volume data of the head is visualized and displayed by VR, and is an initial visualized image in which the user designates a two-dimensional position. The projection plane of the VR image is located in front of the head. In this example, skin, skull, and brain objects are shown from the outside of the head.

図4の左図において、図に向かって左から右にX軸が延び、上から下にY軸が延びてい
る。また、図の手前から奥に向かってZ軸が延びている。Z軸の方向は、初期可視化画像(の投影面)の法線方向と一致している。ユーザが指定した2次元位置21は×で示されている。さらに、判定領域23は円で囲まれた領域であり、その指定位置21を含んでいる。
In the left view of FIG. 4, the X axis extends from left to right and the Y axis extends from top to bottom as viewed in the figure. Further, the Z-axis extends from the front of the figure toward the back. The direction of the Z axis coincides with the normal direction of the initial visualized image (projection plane thereof). The two-dimensional position 21 designated by the user is indicated by x. Furthermore, the determination area 23 is an area surrounded by a circle and includes the designated position 21.

図4の右図は、同じ頭部のボリューム・データを、X軸方向を法線とする投影面において、VRによって可視化表示した画像を模式的に示す図である。図に向かって左から右にZ軸が延び、上から下にY軸が延びている。また、図の奥から手前に向かってX軸が延びている。本例において、指定位置21のZ座標は、ボリューム・データ151における最も手前の位置(Z=0)である。指定位置21からZ軸に沿って延びる直線は、判定直線22である。図4から理解されるように、判定領域23は、判定直線22を含み、Z軸に沿って延びる円筒内の領域(円柱形状の領域)である。   The right figure of FIG. 4 is a diagram schematically showing an image obtained by visualizing and displaying the volume data of the same head on the projection plane with the X-axis direction as a normal line. The Z axis extends from left to right as viewed in the figure, and the Y axis extends from top to bottom. Further, the X axis extends from the back of the figure toward the front. In this example, the Z coordinate of the designated position 21 is the frontmost position (Z = 0) in the volume data 151. A straight line extending from the designated position 21 along the Z axis is a determination straight line 22. As can be understood from FIG. 4, the determination region 23 is a region in a cylinder (columnar region) that includes the determination straight line 22 and extends along the Z axis.

オブジェクト処理実行部145は、判定領域23が少なくともその一部を含むオブジェクトを特定する。オブジェクトは、ボリューム・データ151において定義されている。オブジェクトは、ボリューム・データ内の一つ又は複数のボクセルから構成されており、オブジェクト内のボクセルは、そのオブジェクトに属すると定義されている。   The object processing execution unit 145 specifies an object whose determination area 23 includes at least a part thereof. The object is defined in the volume data 151. An object is composed of one or a plurality of voxels in volume data, and the voxels in the object are defined to belong to the object.

ボリューム・データ151においてオブジェクトを定義する手法の一つは、マスクを使用する。マスクは、そのマスクが関連付けられた領域を覆い、その領域を特定し他の領域から区別するデータである。マスクは、DICOM(Digital Imaging and COmmunication in Medicine)のタグ情報として保存してもよく、マスクの情報がボリューム・データとは別のフォーマットで保存されていてもよい。   One technique for defining objects in the volume data 151 uses a mask. The mask is data that covers an area associated with the mask, identifies the area, and distinguishes it from other areas. The mask may be stored as DICOM (Digital Imaging and Communication in Medicine) tag information, and the mask information may be stored in a format different from the volume data.

図4に示す好ましい例において、判定領域23は、指定位置21からZ軸に沿って延びる判定直線22を中心とする円柱状の立体領域である。オブジェクト処理実行部145は、判定領域23に含まれる各ボクセルについて、いずれかのオブジェクトに属していると定義されているか否かを判定する。判定領域23内のボクセルがオブジェクトに属すると定義されている場合、オブジェクト処理実行部145は、そのオブジェクトを表示すべき候補オブジェクトと決定する。   In the preferred example shown in FIG. 4, the determination area 23 is a cylindrical solid area centered on a determination straight line 22 extending from the designated position 21 along the Z axis. The object processing execution unit 145 determines whether each voxel included in the determination area 23 is defined as belonging to any object. When it is defined that the voxel in the determination area 23 belongs to the object, the object processing execution unit 145 determines that the object is a candidate object to be displayed.

判定領域は、典型的には、ユーザによる指定ない限り、対象物の一方の外端から他方の外端まで延びている。判定領域は、本例のような立体領域の他、連なるボクセルからなる線又は所定の形状を有する面でもよい。例えば、図4の例において、オブジェクト処理実行部145は、判定直線22を判定領域として使用することができる。判定直線22上のボクセルがオブジェクトに属する場合、オブジェクト処理実行部145は、そのオブジェクトを表示すべき候補オブジェクトと決定する。   The determination region typically extends from one outer end of the object to the other outer end unless specified by the user. The determination area may be a three-dimensional area as in this example, a line made of continuous voxels, or a surface having a predetermined shape. For example, in the example of FIG. 4, the object process execution unit 145 can use the determination line 22 as a determination region. When the voxel on the determination line 22 belongs to the object, the object processing execution unit 145 determines that the object is a candidate object to be displayed.

線は、判定領域の好ましい形状の一つである。線である判定領域は、ユーザが望む部分のみを含むことができる。判定領域と対象物との関係を把握しやすいように又処理の簡易性の点から、線は直線であることが好ましい。   The line is one of the preferable shapes of the determination region. The determination area, which is a line, can include only the part desired by the user. The line is preferably a straight line so that the relationship between the determination region and the object can be easily understood and from the viewpoint of simplicity of processing.

一方、判定領域が線である場合、指定位置の数ボクセルのずれによって、表示される候補オブジェクトが変わってしまう。そのため、さらに好ましい構成において、判定領域は所定の外形を有する立体領域である。これにより、指定位置のわずかなずれにより影響されることなく、ユーザが望む領域の候補オブジェクトを適切に表示することができる。   On the other hand, when the determination area is a line, the displayed candidate object changes due to a shift of several voxels at the designated position. Therefore, in a more preferable configuration, the determination area is a three-dimensional area having a predetermined outer shape. Thereby, it is possible to appropriately display candidate objects in an area desired by the user without being affected by a slight shift of the designated position.

判定領域と対象物との関係の把握容易性及び処理の簡易性の点から、立体領域は、ユーザ指定位置を含む直線方向において延び、その直線を法線とする断面形状が一定の立体であることが好ましい。典型的な断面形状は、図4の判断領域23のように、円である。   From the viewpoint of easy understanding of the relationship between the judgment area and the object and the simplicity of processing, the solid area is a solid that extends in the straight line direction including the user-specified position and has a constant cross-sectional shape with the straight line as a normal line. It is preferable. A typical cross-sectional shape is a circle as in the determination region 23 of FIG.

図4の例において、判定直線22の方向は、初期可視化画像(の投影面)の法線方向である。判定領域がユーザの指定2次元位置から延びる方向は、判定領域と対象物との関係を把握容易性及び処理の簡易性の点から、この方向であることが好ましい。同様に点から、判定直線の方向を、初期可視化画像における指定位置の視線方向と一致させてもよい。初期化可視化画像が断面である場合、指定位置における視線方向は、その法線方向である、設計によっては、判定直線の方向は、これらと異なる方向であってもよい。   In the example of FIG. 4, the direction of the determination straight line 22 is the normal direction of the initial visualized image (projection plane thereof). The direction in which the determination area extends from the two-dimensional position designated by the user is preferably this direction from the viewpoint of easy understanding of the relationship between the determination area and the object and the ease of processing. Similarly, from the point, the direction of the determination straight line may coincide with the line-of-sight direction of the designated position in the initial visualization image. When the initialized visualized image is a cross section, the line-of-sight direction at the designated position is the normal direction. Depending on the design, the direction of the determination straight line may be different from these directions.

また、判定領域の形状(外形及びその延びる方向を含む)は、予め設定されていてもよく、ユーザにより指定可能であってもよい。ユーザ指定可能な構成において、指定領域算出部143は、入力装置13によるユーザ入力に応じて判定領域の形状を決定する。例えば、ユーザは、直線及び円柱の一方の形状を選択する。直線を選択した場合には、その方向を指定し、円柱を選択した場合にその方向と断面の大きさを指定する。   In addition, the shape of the determination area (including the outer shape and the extending direction thereof) may be set in advance or may be specified by the user. In the configuration that can be designated by the user, the designated area calculation unit 143 determines the shape of the determination area according to the user input from the input device 13. For example, the user selects one of a straight line and a cylinder. When a straight line is selected, the direction is specified. When a cylinder is selected, the direction and the size of the cross section are specified.

<オブジェクトの選択>
次に、判定領域と重なる候補オブジェクト画像の表示及びユーザによる関心領域指定のためのオブジェクトの選択(S16〜S18)について具体的に説明を行う。まず、図4に示した例に従い、判断領域23内の候補オブジェクト画像の表示及びユーザによるオブジェクトの選択の例を説明する。
<Select object>
Next, the display of a candidate object image that overlaps the determination area and the selection of an object for specifying a region of interest by the user (S16 to S18) will be specifically described. First, according to the example shown in FIG. 4, an example of displaying a candidate object image in the determination area 23 and selecting an object by the user will be described.

図5A〜図5Fは、表示装置12の異なる画面表示を示している。本例において、表示装置12は、図5A〜図5Fの画像を順に画面上に表示する。図5A〜図5Fにおいて、表示装置12の画面は、判定領域23内の候補オブジェクトの画像を表示している。本例においては、皮膚31、頭骨32及び脳33が、判定領域23内のオブジェクトである。皮膚31が最も外側にあり、その内側に頭骨32があり、頭骨の内側に脳33がある。   5A to 5F show different screen displays of the display device 12. In this example, the display device 12 sequentially displays the images of FIGS. 5A to 5F on the screen. 5A to 5F, the screen of the display device 12 displays images of candidate objects in the determination area 23. In this example, the skin 31, the skull 32, and the brain 33 are objects in the determination region 23. The skin 31 is on the outermost side, the skull 32 is inside, and the brain 33 is inside the skull.

図5A〜図5Fの各図において、左図は頭部の前に設定した投影面に対する画像であり、右図は頭部の横に設定した投影面に対する画像である。本例において、左図及び右図は、3次元情報を有する2次元画像であり、VRやMIPの手法を使用して形成された画像である。図5A〜図5Fの左図は、候補オブジェクトを強調して表示している。右図は、候補オブジェクトを指示する候補位置24を表示している。これらの点は、図4と同様である。そのため、図5A〜図5Fには、図4におけるX、Y、Z軸が適用される。   5A to 5F, the left figure is an image with respect to the projection plane set in front of the head, and the right figure is an image with respect to the projection plane set beside the head. In this example, the left diagram and the right diagram are two-dimensional images having three-dimensional information, which are images formed using a VR or MIP technique. The left diagrams of FIGS. 5A to 5F show candidate objects in an emphasized manner. The right figure displays candidate positions 24 that indicate candidate objects. These points are the same as in FIG. Therefore, the X, Y, and Z axes in FIG. 4 are applied to FIGS. 5A to 5F.

表示装置12は、ユーザ入力に従って、図5A〜図5Fの画像を順に画面上に表示する。いずれかの画像においてオブジェクトをユーザが選択すると、画像処理装置11は、それ以降の画像を表示することなく、関心領域指定のステップ(図2におけるS19)に移る。画像処理装置11は、全ての画像を表示した後に、ユーザの選択を受け付けてもよい。   The display device 12 displays the images of FIGS. 5A to 5F in order on the screen according to the user input. When the user selects an object in any of the images, the image processing apparatus 11 proceeds to a region of interest designation step (S19 in FIG. 2) without displaying the subsequent images. The image processing apparatus 11 may accept the user's selection after displaying all the images.

表示装置12は、最初に、図5Aの画像を表示する。図5Aは、最も外側のオブジェクトである皮膚31を候補オブジェクトとして選択した画像を示している。可視化処理実行部144は、オブジェクト処理実行部145からオブジェクト31についての情報を取得し、図5Aにおける二つの画像51、52の画像データを生成する。   The display device 12 first displays the image of FIG. 5A. FIG. 5A shows an image in which skin 31 that is the outermost object is selected as a candidate object. The visualization process execution unit 144 acquires information about the object 31 from the object process execution unit 145, and generates image data of the two images 51 and 52 in FIG. 5A.

具体的には、オブジェクト処理実行部145は、指定位置21からZ方向に伸ばした直線(判断直線22)上において、指定位置21に最も近いオブジェクト31を特定する。ボリューム・データ151においてオブジェクトが定義されている場合にはボリューム・データ151に付随するオブジェクトの情報から、定義されていない場合にはボリューム・データ151において推定したオブジェクトに関する情報から、オブジェクト処理実行部145は、指定位置21に最も近いオブジェクトを特定することができる。   Specifically, the object processing execution unit 145 identifies the object 31 closest to the designated position 21 on the straight line (determination line 22) extended from the designated position 21 in the Z direction. When the object is defined in the volume data 151, the object processing execution unit 145 is obtained from the information about the object attached to the volume data 151, and from the information about the object estimated in the volume data 151 when the object is not defined. Can specify the object closest to the designated position 21.

可視化処理実行部144、オブジェクト31に関する情報をオブジェクト処理実行部145から取得し、図5Aに示す二つの画像51、52の画像データを生成する。右図52の画像データは、頭部の可視化画像のデータと、その画像における候補位置24を表示するデータと含む。候補位置24は、判定直線23と候補オブジェクトである皮膚31との交差位置であって、指定位置21に最も近い位置である。図5Aに示すように、右図52は、頭部の可視化画像に加え、候補位置24を示す図形を含む。   The visualization processing execution unit 144 acquires information related to the object 31 from the object processing execution unit 145, and generates image data of the two images 51 and 52 shown in FIG. 5A. The image data of the right figure 52 includes the data of the visualization image of the head and the data for displaying the candidate position 24 in the image. The candidate position 24 is an intersection position between the determination line 23 and the skin 31 that is a candidate object, and is a position closest to the designated position 21. As shown in FIG. 5A, the right diagram 52 includes a graphic showing the candidate position 24 in addition to the visualized image of the head.

可視化処理実行部144は、二つの画像51、52において候補オブジェクト31を明確に視認できるよう、候補オブジェクト31を明示する。図5Aの例は、模式的に、候補オブジェクト(皮膚)31の輪郭を実線で、それ以外のオブジェクトの輪郭を点線で表示している。   The visualization process execution unit 144 specifies the candidate object 31 so that the candidate object 31 can be clearly seen in the two images 51 and 52. In the example of FIG. 5A, the outline of the candidate object (skin) 31 is schematically displayed as a solid line, and the outlines of other objects are displayed as dotted lines.

好ましい構成において、可視化処理実行部144は、画像データ51、52の生成において、候補オブジェクト31に属するボクセルと、それら以外のボクセルとに対して、異なる可視化処理を行う。例えば、可視化処理実行部144は、候補オブジェクト31に属するボクセルをVRにより可視化処理し、他のボクセルをMIPにより可視化処理して、画像データ51、52を生成する(図5Aにおける実線はVR、点線はMIP)。   In a preferred configuration, the visualization process execution unit 144 performs different visualization processes on the voxels belonging to the candidate object 31 and other voxels in the generation of the image data 51 and 52. For example, the visualization processing execution unit 144 visualizes voxels belonging to the candidate object 31 with VR, and visualizes other voxels with MIP to generate image data 51 and 52 (solid lines in FIG. 5A are VR, dotted lines). Is MIP).

このように、候補オブジェクトとそれ以外の部分とに異なる可視化手法を適用して画像データを生成することで、可視化画像は、候補オブジェクトを他の部分共に表示すると共に、候補オブジェクトを他の部分から明確に区別して表示することができる。   In this way, by generating image data by applying different visualization methods to the candidate object and the other parts, the visualized image displays the candidate object together with the other parts, and also displays the candidate object from the other parts. It can be clearly distinguished and displayed.

可視化処理実行部144は、他の方法により、候補オブジェクトを区別して表示してもよい。例えば、可視化処理実行部144は、候補オブジェクト31に属するボクセルのみを表示して、他の部分(図5Aにおける点線部分)を表示しない。他の例において、可視化処理実行部144は、全てのボクセルに対して同じ可視化手法を適用するが、候補オブジェクトに属するボクセルに対しては、他のボクセルとは異なる色又は透明度を設定することで、候補オブジェクトを他の部分から区別して表示することができる。   The visualization process execution unit 144 may distinguish and display candidate objects by other methods. For example, the visualization process execution unit 144 displays only the voxels that belong to the candidate object 31, and does not display other parts (dotted line parts in FIG. 5A). In another example, the visualization processing execution unit 144 applies the same visualization method to all voxels, but sets a color or transparency different from other voxels for voxels belonging to the candidate object. Candidate objects can be displayed separately from other parts.

ユーザによる視認容易性の点から、左図51の画像データの生成と右図52の画像データの生成は、同様の可視化処理を使用することが好ましい。しかし、可視化処理実行部144は、二つの画像のデータ生成において、異なる可視化処理を使用してもよい。例えば、可視化処理実行部144は、右図52において、断面図を示してもよい。若しくは、左図51の画像データの生成においては候補オブジェクトとそれ以外の部分とに対して異なる可視化手法を適用し、右図52の画像データの生成においては全てのボクセルに同一の可視化手法を適用して、候補オブジェクトに他の部分と異なる透明度を設定してもよい。   From the viewpoint of ease of visual recognition by the user, it is preferable to use the same visualization process for the generation of the image data in the left diagram 51 and the generation of the image data in the right diagram 52. However, the visualization process execution unit 144 may use different visualization processes in the data generation of the two images. For example, the visualization process execution unit 144 may show a cross-sectional view in FIG. Alternatively, in the generation of the image data in the left figure 51, different visualization methods are applied to the candidate object and the other parts, and in the generation of the image data in the right figure 52, the same visualization method is applied to all the voxels. Thus, the candidate object may be set with a different transparency from other parts.

図5Aに示す最初の候補オブジェクト31を選択しない場合、ユーザは、入力装置13により、次の候補オブジェクトを表示することを指示する。例えば、入力装置13として、マウスのホイール又はテン・キーの矢印キーを使用して、ユーザは、判定直線22において候補位置24をZ軸正方向に一段進める指示を入力する。   When the first candidate object 31 shown in FIG. 5A is not selected, the user instructs the input device 13 to display the next candidate object. For example, using the mouse wheel or the arrow keys of the numeric keypad as the input device 13, the user inputs an instruction to advance the candidate position 24 in the positive direction of the Z axis on the determination line 22.

入力操作取得部142は、候補位置24が判定直線22上において、Z軸正方向へ一段進んだことをオブジェクト処理実行部145へ通知する。オブジェクト処理実行部145では、判定直線22上にある次のオブジェクト32を候補オブジェクトとして決定する。オブジェクト32は、頭骨である。   The input operation acquisition unit 142 notifies the object processing execution unit 145 that the candidate position 24 has advanced one step in the positive Z-axis direction on the determination line 22. The object processing execution unit 145 determines the next object 32 on the determination line 22 as a candidate object. The object 32 is a skull.

可視化処理実行部144は、オブジェクト処理実行部145から、頭骨オブジェクト32に関する情報を取得し、図5Bに示す二つの画像のデータを生成する。画像データの生成方法は、図5Aに示す画像51、52の画像データの生成と同様である。図5Bの画像53、54は、候補オブジェクト32を他の部分から区別して表示すると共に、候補オブジェクト32に対応する候補位置24を示す点を表示している。   The visualization process execution unit 144 acquires information related to the skull object 32 from the object process execution unit 145, and generates data of two images illustrated in FIG. 5B. The generation method of the image data is the same as the generation of the image data of the images 51 and 52 shown in FIG. 5A. The images 53 and 54 in FIG. 5B display the candidate object 32 while distinguishing it from other parts, and also display points indicating the candidate position 24 corresponding to the candidate object 32.

候補オブジェクト32を選択しない場合、ユーザは、候補位置24をZ軸正方向に一段進める指示を入力装置13から入力する。図5Bに示す画像データの生成と同様に、可視化処理実行部144は、オブジェクト処理実行部145から得たオブジェクト33の情報から、図5Cに示す画像の画像データを生成する。次の候補オブジェクト33は、脳である。   When the candidate object 32 is not selected, the user inputs an instruction to advance the candidate position 24 one step in the positive direction of the Z axis from the input device 13. Similar to the generation of the image data illustrated in FIG. 5B, the visualization processing execution unit 144 generates the image data of the image illustrated in FIG. 5C from the information on the object 33 obtained from the object processing execution unit 145. The next candidate object 33 is the brain.

このように、ユーザが入力装置13で一段階ずつ候補位置24を進めると、可視化処理実行部144は、図5A〜図5Fに示す画面表示1、2、3、4、5のように、表示画像を変化させる。表示装置12が目的のオブジェクトを候補オブジェクトとして表示すると、ユーザは入力装置13から表示されている候補オブジェクトを選択するという情報を入力する。入力操作取得部142は現在の候補オブジェクトが選択オブジェクトとして選択されたという情報を、指定領域算出部143に転送する。指定領域算出部143では、表示されている現在の候補オブジェクトを、選択オブジェクトとして定義する。   As described above, when the user advances the candidate position 24 step by step with the input device 13, the visualization processing execution unit 144 displays the screen display 1, 2, 3, 4, 5 as shown in FIGS. Change the image. When the display device 12 displays the target object as a candidate object, the user inputs information for selecting the candidate object displayed from the input device 13. The input operation acquisition unit 142 transfers information that the current candidate object has been selected as the selected object to the designated area calculation unit 143. The designated area calculation unit 143 defines the current candidate object being displayed as a selected object.

上記の例において、同一のオブジェクトを表示する画像は、同一の画像である。つまり、図5Aと図5Fとは同一の画像を示し、図5Bと図5Eとは同一の画像を示し、図5Cと図5Dとは同一の画像を示している。これと異なり、可視化処理実行部144は、図5A〜図5Fの左図において、候補位置24に応じて同一オブジェクトの異なる投影面の画像を表示してもよい。   In the above example, images displaying the same object are the same image. That is, FIGS. 5A and 5F show the same image, FIGS. 5B and 5E show the same image, and FIGS. 5C and 5D show the same image. Unlike this, the visualization processing execution unit 144 may display images of different projection planes of the same object in accordance with the candidate positions 24 in the left diagrams of FIGS. 5A to 5F.

好ましい構成において、可視化処理実行部144は、図5A〜図5Fに示すように、一つの画面において二つの画像を表示する。異なる方向からの画像を同時に表示することで、ユーザが候補オブジェクトをより的確に認識することができる。設計によっては、可視化処理実行部144は、一種類の画像のみを順次表示してもよい。例えば、上記例において、左図又は右図の一方のみを、順次表示する。   In a preferred configuration, the visualization processing execution unit 144 displays two images on one screen as shown in FIGS. 5A to 5F. By simultaneously displaying images from different directions, the user can recognize the candidate object more accurately. Depending on the design, the visualization processing execution unit 144 may sequentially display only one type of image. For example, in the above example, only one of the left diagram and the right diagram is sequentially displayed.

好ましくは、一種類の画像を表示する構成においては、可視化処理実行部144は、ユーザが初期位置を指定する初期可視化画像と同一方向の画像を表示する。その一種類の画像がVRやMIPを使用した投影面での画像ある場合、同一方向の画像は、投影面及び視線が同一である。上記例においては、上記例における左図の画像が、この画像に相当する。これにより、ユーザは、初期可視化画像との関係において、候補オブジェクトを視認することができる。   Preferably, in a configuration in which one type of image is displayed, the visualization processing execution unit 144 displays an image in the same direction as the initial visualization image in which the user specifies the initial position. When the one type of image is an image on a projection plane using VR or MIP, an image in the same direction has the same projection plane and line of sight. In the above example, the left image in the above example corresponds to this image. Thereby, the user can visually recognize the candidate object in relation to the initial visualized image.

異なる画像を同時に表示する構成においては、一方の画像は判定領域内にある候補オブジェクトの位置を明示することが好ましい。上記例においては、右図における判定直線22上の候補位置24の画像が、この位置を明示している。この画像の面は、上記例の右図ように判定領域と平行であることが好ましいが、平行でなくともよい。他方の画像は、初期可視化画像と同一方向であることが好ましい。   In a configuration in which different images are displayed at the same time, it is preferable that one of the images clearly indicates the position of the candidate object in the determination area. In the above example, the image of the candidate position 24 on the determination line 22 in the right figure clearly shows this position. The plane of this image is preferably parallel to the determination area as shown in the right figure of the above example, but it need not be parallel. The other image is preferably in the same direction as the initial visualized image.

可視化処理実行部144は、図5A〜図5Fに示す好ましい例とは異なる方法により、候補オブジェクトの画像を表示してもよい。好ましい他の構成において、可視化処理実行部144は、複数の候補オブジェクトの画像を画面において一括表示する。図6は、図4の例に従い、頭部のボリューム・データにおけるオブジェクトの画像を表示している。図6に示す表示画面は、判断領域23内の全ての候補オブジェクトを一括表示する例を示している。   The visualization process execution unit 144 may display the image of the candidate object by a method different from the preferred examples shown in FIGS. 5A to 5F. In another preferable configuration, the visualization processing execution unit 144 displays a plurality of candidate object images collectively on the screen. FIG. 6 displays an image of the object in the head volume data according to the example of FIG. The display screen shown in FIG. 6 shows an example in which all candidate objects in the determination area 23 are collectively displayed.

図6の画面は、初期可視化画像61及び候補オブジェクト画像62〜64を示している。皮膚、骨、脳のオブジェクト31〜33のそれぞれの一部が、判定領域23内のボクセルであり、候補オブジェクト画像62、63、64は、それぞれ、皮膚31、頭骨32、脳33を表示している。ユーザは、表示されている候補オブジェクト画像から、入力装置13を用いて、選択する候補オブジェクト画像を指定することができる。   The screen in FIG. 6 shows an initial visualization image 61 and candidate object images 62 to 64. A part of each of the skin, bone, and brain objects 31 to 33 is a voxel in the determination region 23, and the candidate object images 62, 63, and 64 display the skin 31, the skull 32, and the brain 33, respectively. Yes. The user can designate a candidate object image to be selected from the displayed candidate object images using the input device 13.

可視化処理実行部144は、オブジェクト処理実行145から、判定領域23内のボクセルが属する全てのオブジェクトの情報を受け取り、それらの画像を表示する。表示された各オブジェクトの画像には、この例が1:皮膚、2:骨、3:脳と示しているように、番号やアルファベットを付すことが好ましい。   The visualization processing execution unit 144 receives information on all objects to which the voxels in the determination area 23 belong from the object processing execution 145, and displays those images. It is preferable to attach numbers and alphabets to the displayed images of each object, as this example shows 1: skin, 2: bone, 3: brain.

可視化処理実行部144は、全ての候補オブジェクトの画像を一括表示することが好ましいが、判定領域23内の全ての候補オブジェクトの内、一部の複数オブジェクトの画像セットを画面上に表示してもよい。可視化処理実行部144は、ユーザ入力に応じて、別の画像セットを順次表示する。可視化処理実行部144は、初期可視化画像61も表示することが好ましいが、それを省略してもよい。可視化処理実行部144は、図5A〜図5Fに示す画像52を合わせて表示してもよい。   The visualization process execution unit 144 preferably displays all the candidate object images at once, but may display an image set of some of the plurality of object objects on the screen. Good. The visualization process execution unit 144 sequentially displays different image sets according to user input. The visualization processing execution unit 144 preferably displays the initial visualization image 61, but may omit it. The visualization process execution unit 144 may display the images 52 shown in FIGS. 5A to 5F together.

<オブジェクトの推定>
以下において、図2のフローチャートに示すオブジェクトの推定(S15)及び推定したオブジェクトの画像表示方法(S16)について具体的に説明する。好ましい推定方法は、ボリューム・データにおけるボクセルの輝度を利用する。以下においては、輝度の変化を利用してオブジェクトを推定する方法と、輝度の分布を利用してオブジェクトを推定する方法を説明する。
<Object estimation>
Hereinafter, the object estimation (S15) and the estimated object image display method (S16) shown in the flowchart of FIG. 2 will be described in detail. A preferred estimation method uses voxel brightness in the volume data. Hereinafter, a method for estimating an object using a change in luminance and a method for estimating an object using a luminance distribution will be described.

まず、図7を参照して、輝度の変化を利用してオブジェクトを推定する方法の一例を説明する。多くの場合、ボクセルの輝度値は、オブジェクトの境界で著しい変化を示す。つまり、隣接ボクセル間の輝度値の差分は、オブジェクトの境界で著しく大きくなる。そのため、オブジェクト処理実行部145は、ボクセル輝度値の変化を算出することで、オブジェクトを推定することができる。   First, an example of a method for estimating an object using a change in luminance will be described with reference to FIG. In many cases, the luminance value of a voxel shows a significant change at the boundary of the object. That is, the difference in luminance value between adjacent voxels becomes significantly large at the boundary of the object. Therefore, the object processing execution unit 145 can estimate the object by calculating the change in the voxel luminance value.

図7において、上段図は、図4と同様に、頭部、ユーザによる指定位置21、判定直線22及び判定領域23を、Z軸方向およびX軸方向から見たモデル図である。図7における中段図は、上段図の判定直線22上のボクセルの輝度Vを示すグラフのモデル図である。横軸がZ軸における座標、縦軸が輝度Vを表す。Z軸の各座標値において、輝度Vは、判定領域23内のZ軸に垂直な面を構成するボクセルの輝度値の平均値でもよい。   7, the upper diagram is a model diagram of the head, the user-specified position 21, the determination line 22, and the determination region 23 as seen from the Z-axis direction and the X-axis direction, as in FIG. The middle diagram in FIG. 7 is a model diagram of a graph showing the luminance V of the voxel on the determination line 22 in the upper diagram. The horizontal axis represents coordinates on the Z axis, and the vertical axis represents luminance V. In each coordinate value on the Z axis, the luminance V may be an average value of luminance values of voxels forming a plane perpendicular to the Z axis in the determination region 23.

図7における下段図は、隣接ボクセル間の輝度値の差を示すグラフのモデル図である。グラフにおける横軸はZ軸の座標、縦軸は輝度差分Vdifを示している。Z軸に垂直な面の輝度平均値を使用する場合、輝度差分Vdifは隣接面間における輝度平均値の差分である。Vdifが大きい位置は、Vが大きな変化を示す位置である。オブジェクト処理実行部145は、輝度差分Vdifが規定の閾値VDthを超える位置を、Zsとする。本例においては、オブジェクト処理実行部145は、六つの位置Z0〜Z5を検出する。これらの位置は、図5A〜図5Fに示した六つの候補位置に相当する。 The lower diagram in FIG. 7 is a model diagram of a graph showing a difference in luminance value between adjacent voxels. In the graph, the horizontal axis indicates the Z-axis coordinate, and the vertical axis indicates the luminance difference V dif . When the luminance average value of the surface perpendicular to the Z axis is used, the luminance difference V dif is a difference in luminance average value between adjacent surfaces. A position where V dif is large is a position where V shows a large change. The object processing execution unit 145 sets the position where the luminance difference V dif exceeds the specified threshold value VD th as Z s . In this example, the object processing execution unit 145 detects six positions Z 0 to Z 5 . These positions correspond to the six candidate positions shown in FIGS. 5A to 5F.

オブジェクト処理実行部145は、初期可視化画像における全ての画素について同様の処理を行い、頭部のボリューム・データにおけるオブジェクトの座標情報を得る。本例においては、皮膚、頭骨そして脳のそれぞれに相当するオブジェクトの座標情報を得る。可視化処理実行部144は、オブジェクト処理実行部145から、これらのオブジェクトの座標情報を取得し、図5A〜図5F及び図6に示す画像と略同様の画像のデータを生成し、ユーザ入力に応じて、それら画像を表示する。   The object processing execution unit 145 performs the same processing for all the pixels in the initial visualized image, and obtains the coordinate information of the object in the head volume data. In this example, coordinate information of objects corresponding to skin, skull, and brain is obtained. The visualization processing execution unit 144 acquires coordinate information of these objects from the object processing execution unit 145, generates image data that is substantially the same as the images shown in FIGS. 5A to 5F and FIG. 6, and responds to user input. Display these images.

好ましい構成において、オブジェクト処理実行部145は、上述のように、各オブジェクトの全体を示す座標データを算出する。他の構成において、オブジェクト処理実行部145は、判断領域22内におけるボクセルについてのみ上記処理を行う。これにより、オブジェクト推定のための処理量を小さくする。   In a preferred configuration, the object processing execution unit 145 calculates coordinate data indicating the entire object as described above. In another configuration, the object processing execution unit 145 performs the above processing only for voxels in the determination area 22. This reduces the processing amount for object estimation.

具体的には、オブジェクト処理実行部145は、初期可視化画像において判定領域23内にある画素について輝度変化を算出する。オブジェクト処理実行部145は、判定領域23に含まれる領域においてオブジェクトを推定し、各オブジェクトの座標データを生成する。可視化処理実行部144は、オブジェクト処理実行部145から取得したオブジェクト情報とボリューム・データとから、表示画像データを生成する。   Specifically, the object processing execution unit 145 calculates a luminance change for pixels in the determination area 23 in the initial visualized image. The object processing execution unit 145 estimates an object in an area included in the determination area 23 and generates coordinate data of each object. The visualization process execution unit 144 generates display image data from the object information acquired from the object process execution unit 145 and the volume data.

可視化処理実行部144は、図5A〜図5Fにおける右図または左図の画像データを生成し、その画像を表示する。この際、可視化処理実行部144は図5A〜図5Fにおける左右の図の同時に表示してもよい。可視化処理実行部144は、判断領域22内において、候補オブジェクトを強調して表示し、候補オブジェクトの部分を他の部分から区別する。可視化処理実行部144は、候補位置24も合わせて表示することが好ましい。   The visualization process execution unit 144 generates the image data of the right diagram or the left diagram in FIGS. 5A to 5F and displays the image. At this time, the visualization processing execution unit 144 may simultaneously display the left and right diagrams in FIGS. 5A to 5F. The visualization process execution unit 144 highlights and displays the candidate object in the determination area 22 and distinguishes the candidate object part from other parts. It is preferable that the visualization process execution unit 144 also displays the candidate position 24 together.

他の構成において、オブジェクト処理実行部145は、判定直線22上のボクセルについてのみ輝度変化を算出し、判定直線22上のみでオブジェクトを推定する。図7を参照して説明したように、オブジェクト処理実行部145は、判定直線22におけるオブジェクトの境界位置を検出する。可視化処理実行部144は、図5A〜図5Fにおける候補位置24を表示する。候補位置24の表示は候補オブジェクトを示しており、可視化処理実行部144は、候補位置24の表示により候補オブジェクトを他の部分から区別して表示する。   In another configuration, the object processing execution unit 145 calculates a luminance change only for voxels on the determination line 22 and estimates an object only on the determination line 22. As described with reference to FIG. 7, the object processing execution unit 145 detects the boundary position of the object on the determination line 22. The visualization process execution unit 144 displays the candidate position 24 in FIGS. 5A to 5F. The display of the candidate position 24 indicates a candidate object, and the visualization processing execution unit 144 displays the candidate object by distinguishing it from other parts by displaying the candidate position 24.

入力装置13を介してユーザが一つの候補位置を選択すると、指定領域算出部143は選択された候補位置を関心領域指定(S19)のための指定位置と定義する。画像処理アルゴリズム実行部141は、この位置を基準として関心領域指定のステップ(S19)を実行する。   When the user selects one candidate position via the input device 13, the designated area calculation unit 143 defines the selected candidate position as the designated position for the area of interest designation (S19). The image processing algorithm execution unit 141 executes a region of interest designation step (S19) based on this position.

次に、図8を参照して、ボクセルの輝度の分布を利用してオブジェクトを推定する(S15)方法を説明する。図8における上段図は、図7の上段図と同様に、頭部、ユーザによる指定位置21、判定直線22及び判定領域23を、Z軸方向およびX軸方向から見たモデル図である。図8における中段図は、上段図の判定直線22上のボクセルの輝度Vを示すグラフのモデル図である。横軸がZ軸における座標、縦軸が輝度Vを表す。Z軸の各座標値において、輝度Vは、判定領域23内のZ軸に垂直な面を構成するボクセルの輝度値の平均値でもよい。   Next, with reference to FIG. 8, a method for estimating an object using the distribution of luminance of voxels (S15) will be described. The upper diagram in FIG. 8 is a model diagram in which the head, the user-specified position 21, the determination line 22, and the determination region 23 are viewed from the Z-axis direction and the X-axis direction, as in the upper diagram of FIG. The middle diagram in FIG. 8 is a model diagram of a graph showing the luminance V of the voxel on the determination line 22 in the upper diagram. The horizontal axis represents coordinates on the Z axis, and the vertical axis represents luminance V. In each coordinate value on the Z axis, the luminance V may be an average value of luminance values of voxels forming a plane perpendicular to the Z axis in the determination region 23.

医用画像においては、オブジェクト即ち器官や組織が持つ輝度を、推測できることが多い。本推定方法は、この性質を利用する。図9に例示するような、オブジェクトとオブジェクトを構成するボクセルの輝度との間の対応表91を、画像処理アルゴリズム実行部141で利用できるように、予め用意しておく。オブジェクト輝度対応表91において、オブジェクト1、オブジェクト2、オブジェクト3は、それぞれ、皮膚オブジェクト31、脳オブジェクト33、頭骨オブジェクト32に対応する。   In medical images, it is often possible to estimate the brightness of an object, that is, an organ or tissue. This estimation method uses this property. As shown in FIG. 9, a correspondence table 91 between objects and the luminance of voxels constituting the objects is prepared in advance so that the image processing algorithm execution unit 141 can use the correspondence table 91. In the object luminance correspondence table 91, object 1, object 2, and object 3 correspond to skin object 31, brain object 33, and skull object 32, respectively.

オブジェクト処理実行部145は、判定直線22上の指定位置Z0からZ軸正方向に向かって、判定直線22上のボクセルの輝度を順次参照する。オブジェクト処理実行部145は、オブジェクト輝度対応表91を参照して、オブジェクトの輝度範囲内の最初のボクセルを検出すると、そのボクセルの座標値を、オブジェクト位置として保存する。図8の例においては、Z1〜Z7が示す位置(ボクセル)が、この条件を満たす位置である。 The object processing execution unit 145 sequentially refers to the luminance of the voxels on the determination line 22 from the designated position Z 0 on the determination line 22 in the positive direction of the Z axis. When the object processing execution unit 145 refers to the object luminance correspondence table 91 and detects the first voxel within the luminance range of the object, the object processing execution unit 145 stores the coordinate value of the voxel as the object position. In the example of FIG. 8, the positions (voxels) indicated by Z 1 to Z 7 are positions that satisfy this condition.

可視化処理実行部144は、オブジェクト処理実行部145からボクセル座標Z1〜Z7を取得し、図8右図又は左図の可視化画像と共に最初に指定された初期位置Z座標Z1〜Z7のボクセルを明示することで、候補オブジェクトを示す。例えば、ユーザが入力装置13により候補位置をZ方向へ移動する指示を入力すると、入力操作取得部142がその指示を取得し、オブジェクト処理実行部145へと送る。 The visualization processing execution unit 144 acquires the voxel coordinates Z 1 to Z 7 from the object processing execution unit 145, and the initial position Z coordinates Z 1 to Z 7 specified first together with the visualization image of the right diagram or the left diagram in FIG. Candidate objects are indicated by specifying voxels. For example, when the user inputs an instruction to move the candidate position in the Z direction using the input device 13, the input operation acquisition unit 142 acquires the instruction and sends it to the object processing execution unit 145.

この情報を得たオブジェクト処理実行部145は、候補位置がZ軸正方向へ一段進むごとに、前述したZ1〜Z7の座標を、順次、可視化処理実行部144へ送る。可視化処理実行部144は、取得した座標値のボクセルを他特別して表示することで、新たな候補位置を示す。 The object processing execution unit 145 having obtained this information sequentially sends the above-described coordinates of Z 1 to Z 7 to the visualization processing execution unit 144 each time the candidate position advances one step in the positive direction of the Z axis. The visualization process execution unit 144 displays a new candidate position by specially displaying the voxel of the acquired coordinate value.

このようにして、可視化処理実行部144は、表示する候補位置をZ0〜Z7へと移動する。表示候補位置が目的の位置に移動すると、ユーザは、入力装置13により表示されている候補位置を選択することを示す情報を入力する。入力操作取得部142は、表示されている候補位置を指定位置とする決定を指定領域算出部143に送る。指定領域算出部143は、その候補位置を指定位置と定義する。関心領域指定ステップ(S18)は、この指定位置に基づいて、関心領域を決定する。 In this way, the visualization process execution unit 144 moves the candidate position to be displayed from Z 0 to Z 7 . When the display candidate position moves to the target position, the user inputs information indicating that the candidate position displayed by the input device 13 is selected. The input operation acquisition unit 142 sends a determination that the displayed candidate position is the designated position to the designated area calculation unit 143. The designated area calculation unit 143 defines the candidate position as the designated position. A region of interest designation step (S18) determines a region of interest based on this designated position.

図8において、位置Z1〜Z7の全てのボクセルが、オブジェクト輝度対応表91に示す対応オブジェクトに実際に含まれるわけではない。具体的には、位置Z2及び位置Z6は、脳33内にはなく、皮膚31と頭骨32との境界近傍に現れる。明示するオブジェクトの種類を特定して表示しない場合、このような位置を明示することに問題はない。オブジェクトの境界位置近傍を明示することができれば、ユーザは、その位置を基準として、簡便に関心領域を指定することができるからである。 In FIG. 8, not all voxels at positions Z 1 to Z 7 are actually included in the corresponding objects shown in the object luminance correspondence table 91. Specifically, the position Z 2 and the position Z 6 do not exist in the brain 33 but appear near the boundary between the skin 31 and the skull 32. If the type of object to be specified is not specified and displayed, there is no problem in specifying such a position. This is because, if the vicinity of the boundary position of the object can be clearly indicated, the user can easily specify the region of interest based on the position.

可視化処理実行部144は、隣接位置間の距離を基準として、対応オブジェクト外の位置を特定し、その位置を表示すべき候補位置から除外してもよい。具体的には、オブジェクト処理実行部145は、対象位置とその次の位置との間の距離が規定の閾値以下である場合には、その対象位置を候補位置から除外する。   The visualization process execution unit 144 may specify a position outside the corresponding object on the basis of the distance between adjacent positions, and exclude the position from the candidate positions to be displayed. Specifically, the object processing execution unit 145 excludes the target position from the candidate positions when the distance between the target position and the next position is equal to or less than a predetermined threshold.

好ましい構成において、可視化処理実行部144は、図5A〜図5Fのように、異なる方向における画像を同時に表示することが好ましく、さらに、表示画像においてオブジェクトにおける候補位置以外部分も強調表示することが好ましい。例えば、可視化処理実行部144は、ボリューム・データにおけるボクセルの輝度を平滑化及び解析し、候補位置付近のボクセルにおいて候補位置と同一輝度を持つボクセルを強調して表示する。可視化処理実行部144は、例えば、指定位置が位置Z4である場合は、輝度V3をもつボクセルを強調する可視化表示を行う。 In a preferred configuration, the visualization processing execution unit 144 preferably displays images in different directions at the same time as shown in FIGS. 5A to 5F, and further highlights portions other than candidate positions in the object in the display image. . For example, the visualization processing execution unit 144 smoothes and analyzes the luminance of the voxel in the volume data, and highlights and displays the voxel having the same luminance as the candidate position in the voxels near the candidate position. For example, when the designated position is the position Z 4 , the visualization processing execution unit 144 performs visualization display that emphasizes the voxel having the luminance V 3 .

ボクセルを強調する可視化表示は、図2におけるステップ12について説明したように、その輝度値を持つボクセルにVRを適用しそれ以外のボクセルに対してはMIPを適応するように可視化手法を変えて表示する方法、同じ可視化手法において特定輝度値を持つボクセルとそれ以外のボクセルの色や透明度を変えて表示する方法などがある。   The visualization display that emphasizes the voxel is displayed by changing the visualization method so that VR is applied to the voxel having the luminance value and MIP is applied to the other voxels as described in step 12 in FIG. There is a method of changing the color and transparency of a voxel having a specific luminance value and other voxels in the same visualization method.

オブジェクト処理実行部145は、オブジェクト輝度対応表91を参照して、候補位置のオブジェクトの範囲を決定してもよい。オブジェクト処理実行部145は、候補位置から連続する範囲内において、対応輝度範囲内にあるボクセルを検出する。これらボクセルが構成する範囲を、オブジェクトの範囲と推定(決定)する。   The object processing execution unit 145 may determine the range of the object at the candidate position with reference to the object luminance correspondence table 91. The object processing execution unit 145 detects voxels within the corresponding luminance range within a range continuous from the candidate position. The range formed by these voxels is estimated (determined) as the range of the object.

オブジェクト処理実行部145は、判定領域23内又は頭部全体においてこの処理を行う。可視化処理実行部144は、この情報により、判定領域23内において、又は、図5A〜図5Fに示したように頭部全体において、オブジェクトを他の部分から区別して表示する。   The object process execution unit 145 performs this process in the determination area 23 or the entire head. Based on this information, the visualization processing execution unit 144 displays the object separately from other parts in the determination area 23 or in the entire head as shown in FIGS. 5A to 5F.

図7及び図8を参照して説明したボクセルの輝度に基づき推定されたオブジェクト(の少なくとも一部)は、ボリューム・データ内でオブジェクトが定義されている構成と異なり、実際のオブジェクト、つまり対象物の器官や組織と正確に一致するとは限らない。この構成におけるオブジェクト画像表示(S16)は、上述のように、オブジェクト処理実行部145が推定したオブジェクトの画像を表示する。   The object estimated based on the voxel brightness described with reference to FIGS. 7 and 8 (at least a part thereof) differs from the configuration in which the object is defined in the volume data, and is an actual object, that is, a target object. It may not exactly match the organs and tissues of In the object image display (S16) in this configuration, the object image estimated by the object processing execution unit 145 is displayed as described above.

オブジェクト画像表示(S16)は、その後のユーザによる関心領域指定(S18)の基準となる領域(位置)を特定するための処理である。そのため、表示する候補オブジェクトが、実際の対象物と必ずしも一致しなくともよい。しかし、関心領域の指定(S18)をより正確にサポートするためには、オブジェクト処理実行部145は、輝度に基づき推定することで候補オブジェクトを決定するのではなく、ボリューム・データ内の定義情報に従って候補オブジェクトを決定することが好ましい。なお、予め定義されているオブジェクトと推定したオブジェクトの双方を表示してもよい。   The object image display (S16) is a process for specifying a region (position) serving as a reference for the region of interest designation (S18) by the user thereafter. Therefore, the candidate object to be displayed does not necessarily match the actual target object. However, in order to more accurately support the specification of the region of interest (S18), the object processing execution unit 145 does not determine the candidate object by estimating based on the luminance, but according to the definition information in the volume data. It is preferable to determine candidate objects. Note that both the predefined object and the estimated object may be displayed.

<関心領域の指定>
次に、ユーザ入力に応じた関心領域の指定(S18)について、より詳細に説明を行う。ステップ18は、選択されたオブジェクト内で更に詳細に、関心領域の指定を行う。ユーザが表示された候補オブジェクトのいずれも利用しないという判定(S17におけるN)をした場合には、ユーザは、初期可視化画像において2次元指定位置を指定(S13)した後、ステップ14〜ステップ18をスキップして、本ステップ19を実行することになる。
<Specify region of interest>
Next, the region of interest designation (S18) according to the user input will be described in more detail. Step 18 specifies the region of interest in more detail within the selected object. If the user determines that none of the displayed candidate objects is to be used (N in S17), the user designates a two-dimensional designated position (S13) in the initial visualized image, and then performs steps 14 to 18 This step 19 is skipped and executed.

このステップ19において、ユーザは、入力装置13から、関心領域の形状、サイズ、位置を入力する。入力操作取得部142は入力装置13からの入力を取得し、指定領域算出部143は、入力操作取得部142から受け取ったユーザ入力から、関心領域を算出する。なお、関心領域の形状、位置、サイズの指定は、順序は不同であり、また関心領域の指定は表示装置に都度表示を行い、複数回の指定や修正も可能とするべきである。   In step 19, the user inputs the shape, size, and position of the region of interest from the input device 13. The input operation acquisition unit 142 acquires an input from the input device 13, and the designated region calculation unit 143 calculates a region of interest from the user input received from the input operation acquisition unit 142. It should be noted that the shape, position, and size of the region of interest are not specified in any order, and the region of interest should be displayed on the display device each time so that it can be specified and corrected multiple times.

最初に、形状指定について説明する。ユーザは、関心領域の形状として、点、多面体、球、円筒、円錐等の基本図形、フリーハンドで描画される閉曲線等を利用することができる。例えば、ユーザは、予め用意した基本図形の中から一つの図形を指定する。指定領域算出部143は、その選択図形を関心領域の形状と定義する。   First, shape specification will be described. The user can use a basic figure such as a point, polyhedron, sphere, cylinder, or cone, a closed curve drawn freehand, or the like as the shape of the region of interest. For example, the user designates one figure from basic figures prepared in advance. The designated region calculation unit 143 defines the selected figure as the shape of the region of interest.

フリーハンドによる閉曲線又は多面体を利用する方法の一例において、ユーザは、1視点の2次元平面上で2次元形状を描画し、指定領域算出部143は、その2次元形状を奥行き方向に伸ばした柱状の3次元形状を指定領域と定義する。他の例において、ユーザは、異なる複数視点からの断面画像、例えばMPR画像又はCMPR画像、において、それぞれ2次元形状を描画する。指定領域算出部143はそれらを輪郭とした3次元形状を関心領域の形状と定義する。   In an example of a method of using a freehand closed curve or polyhedron, the user draws a two-dimensional shape on a two-dimensional plane of one viewpoint, and the designated region calculation unit 143 extends the two-dimensional shape in the depth direction. Is defined as a designated area. In another example, the user draws a two-dimensional shape in each of cross-sectional images from different viewpoints, for example, an MPR image or a CMPR image. The designated area calculation unit 143 defines a three-dimensional shape having these as an outline as the shape of the region of interest.

好ましい他の指定方法は、自動抽出手法(自動抽出アルゴリズム)により、3次元領域を抽出する。典型的な自動抽出手法は、Region Growing法である。Region Growingとは、一点または複数点のシード点(起点)から、それに隣接する画素を参照し、輝度等の情報をもとに予め設定したGrowing条件に適合するか否かを判断し、適合する場合はその隣接画素を領域内とし、領域内の画素全てをシードとして領域を広げていく。   As another preferable designation method, a three-dimensional region is extracted by an automatic extraction method (automatic extraction algorithm). A typical automatic extraction method is the Region Growing method. Region Growing refers to one or a plurality of seed points (starting points) and refers to adjacent pixels, and determines whether or not a predetermined Growing condition is met based on information such as luminance. In this case, the adjacent pixels are set in the area, and the area is expanded using all the pixels in the area as a seed.

この場合、ユーザは、入力装置13によってシード点を指定する、もしくは初期可視化画像において指定した2次元位置(S13)をシード点として使用することができる。指定領域算出部143は、指定されたシード点、及び、予め定められた閾値及び条件もしくは入力装置13を介して調整された閾値及び条件を用いて、Region Growing処理を行う。他の自動抽出手法として、Watershed法やSnakes法などを利用することができる。   In this case, the user can use the two-dimensional position (S13) designated by the input device 13 or designated in the initial visualization image as the seed point. The designated region calculation unit 143 performs the Region Growing process using the designated seed point and a predetermined threshold and condition or a threshold and condition adjusted via the input device 13. As another automatic extraction method, a Watershed method, a Snakes method, or the like can be used.

この他、対象オブジェクトが指定されている場合には(S17におけるY及びS18におけるオブジェクト指定)、ユーザは、そのオブジェクトを、関心領域として指定することができる。入力装置13及び入力操作取得部142を介して、選択オブジェクトを3次元形状として指定する旨の入力を受け取った指定領域算出部143は、オブジェクト処理実行部145から現在のオブジェクトに属するボクセルの情報を受け取り、その領域を関心領域の形状と定義する。   In addition, when the target object is designated (Y in S17 and object designation in S18), the user can designate the object as a region of interest. Upon receiving an input for designating the selected object as a three-dimensional shape via the input device 13 and the input operation acquisition unit 142, the designated area calculation unit 143 obtains information on the voxels belonging to the current object from the object processing execution unit 145. And define the region as the shape of the region of interest.

関心領域の位置の指定は、ステップ13で指定された2次元位置を基準として使用することができる。そこから、MPR、CMPR等の複数視点から投影した複数の2次元画像の表示内での移動を繰り返して決定する。この他、MIPにより可視化された画面上で表示されている画素、即ち表示画面内で指定したXY位置のZ軸上の点、又は、判定領域23内での最大輝度の点を指定点として使用してもよい。関心領域のサイズの指定は、入力装置13、入力操作取得部142を介して行うが、例えばキーボードの方向キー、マウス・ホイールによる指定、直接数値による指定などを入力とする。   The position of the region of interest can be specified using the two-dimensional position specified in step 13 as a reference. From there, the movement in the display of a plurality of two-dimensional images projected from a plurality of viewpoints such as MPR and CMPR is repeatedly determined. In addition, the pixel displayed on the screen visualized by MIP, that is, the point on the Z axis at the XY position designated on the display screen or the point of the maximum luminance in the determination area 23 is used as the designated point. May be. The size of the region of interest is specified via the input device 13 and the input operation acquisition unit 142. For example, the direction key of the keyboard, the specification using the mouse / wheel, the specification using the numerical value, and the like are used as input.

選択オブジェクト及びその他の領域を含む画像において関心領域を指定する場合、ユーザが、いずれの領域において指定位置を移動するかを選択することができることが好ましい。一例において、候補オブジェクトにおける移動とそれ以外の領域における移動とに、入力装置13の異なる操作法を適用する。   When specifying a region of interest in an image including a selected object and other regions, it is preferable that the user can select which region the specified position is to be moved. In one example, different operation methods of the input device 13 are applied to the movement in the candidate object and the movement in other areas.

例えば、ホイールの回転のみの操作は選択オブジェクトにおける移動の入力であり、キーボードのキー(例えばCtrl)を押しながらのホイール回転は、選択オブジェクト以外の領域における移動の入力である。もしくは、ユーザは、入力装置13から、いずれか一方の領域を選択する入力をした後、入力装置13により指定位置を移動する。これらの判断は、入力操作取得部142が行う。   For example, an operation that only rotates the wheel is an input of movement in the selected object, and a wheel rotation while pressing a key (for example, Ctrl) on the keyboard is an input of movement in an area other than the selected object. Alternatively, the user moves the designated position with the input device 13 after inputting from the input device 13 to select one of the areas. These determinations are made by the input operation acquisition unit 142.

<関心領域データの記憶>
指定された関心領域の記憶において、指定領域算出部143は、ボリューム・データに関連付けて関心領域を定義し、内部メモリ20(及び、必要により、外部記憶装置10)へ記憶する。その方法の一例は、関心領域情報として、関心領域内のボクセルの3次元位置(3次元座標)の全てをボリューム・データに関連付けて記憶する。他の例は、ボリューム・データと同じボクセル数のマスク・データを生成し、関心領域内のボクセルと関心領域外のボクセルとに対して異なるマスク値を与え、そのマスク・データを記憶する。
<Storage of region of interest data>
In storing the designated region of interest, the designated region calculation unit 143 defines the region of interest in association with the volume data, and stores it in the internal memory 20 (and the external storage device 10 if necessary). An example of the method stores all the three-dimensional positions (three-dimensional coordinates) of voxels in the region of interest as the region-of-interest information in association with the volume data. Another example generates mask data having the same number of voxels as the volume data, gives different mask values to voxels in the region of interest and voxels outside the region of interest, and stores the mask data.

マスク・データの生成は、例えば、関心領域内のボクセルに値1を与え、関心領域外のボクセルに値0を与える。また、関心領域が球、立方体、円柱等の規定の形状である場合には、基準座標(中心の座標や特徴点(直方体の角など)の座標)、規定形状の情報、関心領域のサイズを記憶すれば、それらの情報によりボリューム・データから関心領域を再現することができる。   The generation of the mask data gives, for example, a value 1 to voxels in the region of interest and a value 0 to voxels outside the region of interest. If the region of interest has a specified shape such as a sphere, cube, or cylinder, the reference coordinates (center coordinates and feature points (rectangular corner coordinates)), specified shape information, and the size of the region of interest If stored, the region of interest can be reproduced from the volume data based on the information.

次に、Region Growing法のような3次元領域自動抽出方法で抽出した領域を関心領域とする場合には、その抽出方法における1つ又は複数の基準ボクセル(シード)を含むパラメータを記憶することにより、マスク・データを記憶するよりも少ないデータ量で同じ関心領域を定義することが可能である。なお、関心領域を3次元形状として拡大/縮小を行っている場合には、パラメータはその情報(拡大/縮小率)を含む。   Next, when a region extracted by a three-dimensional region automatic extraction method such as the Region Growing method is used as a region of interest, a parameter including one or a plurality of reference voxels (seed) in the extraction method is stored. It is possible to define the same region of interest with less data than storing mask data. Note that if the region of interest is enlarged / reduced with a three-dimensional shape, the parameter includes the information (enlargement / reduction rate).

この他、3次元領域自動抽出方法としてWatershed法を利用する場合、Region Growingのように、1つまたは複数の基準ボクセル(シード)と閾値を含むパラメータを記憶し、Snakes法を使用する場合には、エネルギー関数と複数の制御点を含むパラメータを記憶する。   In addition, when using the Watershed method as a three-dimensional region automatic extraction method, as in Region Growing, when storing parameters including one or more reference voxels (seeds) and thresholds, and using the Snakes method , Storing an energy function and parameters including a plurality of control points.

関心領域の記憶においては、関心領域の細部の情報が必要ないという場合もある。臓器や疾患部位を抽出しその最大径を計測する場合にはボクセル単位での正確さが求められるが、例えば、細部の形状や詳細な位置は必要なく、大まかな位置と大まかな3次元の範囲のみ記憶できればよいという場合もある。   In the storage of the region of interest, there is a case where detailed information on the region of interest is not necessary. When extracting an organ or diseased part and measuring its maximum diameter, accuracy in voxel units is required. For example, there is no need for a detailed shape or detailed position, but a rough position and a rough three-dimensional range. In some cases, it is only necessary to memorize only.

このように、関心領域の指定の際には細かく見ていたとしても、記憶時には情報量を落として関心領域(を定義するデータ)を記憶する場合には、指定領域算出部143は、複雑な3次元形状を予め設定されている規定形状へ変形させ、変形した関心領域(を定義するデータ)を記憶してもよい。例えば、指定領域算出部143は、基準位置の座標(例えば中心や特徴点の座標)、規定形状の情報、関心領域のサイズを記憶する。データ・サイズ、記憶データの扱い容易性、関心領域の数等、状況により適切な記憶方法が異なるため、利用目的に合わせた記憶方法をとることが重要である。   As described above, even when the region of interest is specified in detail, the specified region calculation unit 143 is complicated when storing the region of interest (data defining) by reducing the amount of information during storage. The three-dimensional shape may be deformed into a preset specified shape, and the deformed region of interest (data defining) may be stored. For example, the designated area calculation unit 143 stores the coordinates of the reference position (for example, the coordinates of the center and feature points), information on the prescribed shape, and the size of the area of interest. Since the appropriate storage method varies depending on the situation, such as the data size, the ease of handling the stored data, the number of regions of interest, etc., it is important to use a storage method that suits the purpose of use.

以上、本発明を添付の図面を参照して詳細に説明したが、本発明はこのような具体的構成に限定されるものではなく、添付した請求の範囲の趣旨内における様々な変更及び同等の構成を含むものである。   Although the present invention has been described in detail with reference to the accompanying drawings, the present invention is not limited to such specific configurations, and various modifications and equivalents within the spirit of the appended claims Includes configuration.

例えば、上述のように、画像処理装置は、ユーザ入力に応じて決定した判定領域と重なるオブジェクトを、候補オブジェクトとして表示することが好ましい。これにより、候補オブジェクトとして適切なオブジェクトを選択的に表示することができる。しかし、設計によっては、画像処理装置は、判定領域を使用しなくともよい。例えば、画像処理装置は、ボリューム・データにおいて定義されている全てのオブジェクトを順次又は一括表示してもよい。   For example, as described above, it is preferable that the image processing apparatus displays, as candidate objects, objects that overlap with the determination area determined according to the user input. As a result, an object suitable as a candidate object can be selectively displayed. However, depending on the design, the image processing apparatus may not use the determination area. For example, the image processing apparatus may sequentially or collectively display all objects defined in the volume data.

1 医用画像処理システム、10 外部記憶装置、11 画像処理装置、12 表示装置
13 入力装置、15 内部メモリ、20 内部メモリ
21 画像処理アルゴリズム実行部、21 2次元指定位置、22 判定直線
23 判定領域、24 候補位置、31 皮膚オブジェクト、31 皮膚オブジェクト
32 頭骨オブジェクト、33 脳オブジェクト、61 初期可視化画像
62〜64 候補オブジェクト画像、91 オブジェクト輝度対応表
141 画像処理アルゴリズム実行部、142 入力操作取得部
143 指定領域算出部、144 可視化処理実行部、145 オブジェクト処理実行部
151 ボリューム・データ、152 初期可視化画像データ
153 判定領域特定データ、154 候補オブジェクト特定データ
155 候補オブジェクト画像データ、156 関心領域画像データ
DESCRIPTION OF SYMBOLS 1 Medical image processing system, 10 External storage device, 11 Image processing apparatus, 12 Display apparatus 13 Input device, 15 Internal memory, 20 Internal memory 21 Image processing algorithm execution part, 21 Two-dimensional designation | designated position, 22 Determination straight line 23 Determination area | region, 24 candidate positions, 31 skin objects, 31 skin objects 32 skull objects, 33 brain objects, 61 initial visualization images 62 to 64 candidate object images, 91 object luminance correspondence table 141 image processing algorithm execution unit, 142 input operation acquisition unit 143 designated area Calculation unit, 144 Visualization processing execution unit, 145 Object processing execution unit 151 Volume data, 152 Initial visualization image data 153 Determination area specification data, 154 Candidate object specification data 155 Candidate object image data, 156 Heart area image data

Claims (15)

ユーザ入力を取得する入力取得部と、データ記憶装置と、画像処理部と、表示装置とを備える、3次元医用画像データの画像処理システムであって、
前記データ記憶装置は、前記3次元医用画像データを記憶し、
前記画像処理部は、前記3次元医用画像データを可視化処理して、一つ又は複数の候補オブジェクトのそれぞれを明示する一つ又は複数の候補オブジェクト画像データを生成し、その一つ又は複数の候補オブジェクト画像データを前記データ記憶装置に記憶し、
前記表示装置は、前記データ記憶装置に記憶されている前記一つ又は複数の候補オブジェクト画像データの画像を表示し、
前記画像処理部は、前記表示された画像に対するユーザ選択入力に従って、前記一つ又は複数の候補オブジェクトから3次元関心領域を指定するためのオブジェクトを選択し、
前記入力取得部は、前記選択したオブジェクトの表示画像に対する前記ユーザからの前記3次元関心領域の指定入力を受け付ける、画像処理システム。
An image processing system for three-dimensional medical image data, comprising an input acquisition unit for acquiring user input, a data storage device, an image processing unit, and a display device,
The data storage device stores the three-dimensional medical image data,
The image processing unit visualizes the three-dimensional medical image data to generate one or a plurality of candidate object image data that clearly indicate one or a plurality of candidate objects, and the one or a plurality of candidates Storing object image data in the data storage device;
The display device displays an image of the one or more candidate object image data stored in the data storage device;
The image processing unit selects an object for designating a three-dimensional region of interest from the one or more candidate objects according to a user selection input for the displayed image,
The input acquisition unit is an image processing system that receives a designation input of the three-dimensional region of interest from the user for a display image of the selected object.
前記画像処理部は、前記3次元医用画像データを可視化処理して初期可視化画像データを生成し、その初期可視化画像データを前記データ記憶装置に記憶し、
前記表示装置は、前記初期可視化画像データによる画像を表示し、
前記画像処理部は、表示されている前記初期可視化画像に対するユーザ入力に従って、前記3次元医用画像データにおける判定領域を決定し、
前記一つ又は複数の候補オブジェクトのそれぞれの一部は、前記判定領域に含まれる、請求項1に記載の画像処理システム。
The image processing unit visualizes the three-dimensional medical image data to generate initial visualized image data, stores the initial visualized image data in the data storage device,
The display device displays an image based on the initial visualized image data,
The image processing unit determines a determination region in the three-dimensional medical image data according to a user input with respect to the displayed initial visualized image,
The image processing system according to claim 1, wherein a part of each of the one or more candidate objects is included in the determination region.
前記判定領域は立体形状を有している、請求項2に記載の画像処理システム。   The image processing system according to claim 2, wherein the determination area has a three-dimensional shape. 前記判定領域は、前記初期可視化処理画像におけるユーザ指定の2次元位置を含む直線に沿って延び断面が一定形状の領域である、請求項3に記載の画像処理システム。   The image processing system according to claim 3, wherein the determination area is an area that extends along a straight line including a user-specified two-dimensional position in the initial visualization processing image and has a constant cross section. 前記一つ又は複数の候補オブジェクトは、前記3次元医用画像データ内に予め定義されている、請求項1〜4のいずれかに記載の画像処理システム。   The image processing system according to claim 1, wherein the one or more candidate objects are defined in advance in the three-dimensional medical image data. 前記画像処理部は、前記3次元医用画像データにおける一つ又は複数のオブジェクトをボクセル輝度に基づき推定し、
前記一つ又は複数の候補オブジェクトは、前記推定された一つ又は複数のオブジェクトに含まれる、請求項1〜4のいずれかに記載の画像処理システム。
The image processing unit estimates one or more objects in the three-dimensional medical image data based on voxel luminance;
The image processing system according to claim 1, wherein the one or more candidate objects are included in the estimated one or more objects.
前記画像処理システムは、前記判定領域におけるボクセルの輝度に基づき、前記判定領域における前記一つ又は複数のオブジェクトを推定し、
前記画像処理システムは、前記判定領域内で前記一つ又は複数の候補オブジェクトのそれぞれを明示する一つ又は複数の画像データを生成する、請求項2〜4のいずれかに記載の画像処理システム。
The image processing system estimates the one or more objects in the determination region based on voxel brightness in the determination region,
The image processing system according to claim 2, wherein the image processing system generates one or a plurality of image data that clearly indicates each of the one or a plurality of candidate objects in the determination region.
前記画像処理部は、前記一つ又は複数の候補オブジェクトのそれぞれについて、方向が異なる2つの候補オブジェクト画像データを生成して前記データ記憶装置に記憶し、
前記表示装置は、前記2つの候補オブジェクト画像を同時に表示する、請求項1〜7のいずれかに記載の画像処理システム。
The image processing unit generates two candidate object image data having different directions for each of the one or more candidate objects, and stores the candidate object image data in the data storage device,
The image processing system according to claim 1, wherein the display device displays the two candidate object images simultaneously.
前記画像処理部は、前記一つ又は複数の候補オブジェクトのそれぞれについて、方向が異なる2つの候補オブジェクト画像データを生成して前記データ記憶装置に記憶し、
前記表示装置は、前記2つの候補オブジェクト画像を同時に表示し、
前記2つの候補オブジェクト画像の一つは、前記判定領域において前記候補オブジェクトの位置を明示する、請求項2〜4のいずれかに記載の画像処理システム。
The image processing unit generates two candidate object image data having different directions for each of the one or more candidate objects, and stores the candidate object image data in the data storage device,
The display device simultaneously displays the two candidate object images;
The image processing system according to claim 2, wherein one of the two candidate object images clearly indicates a position of the candidate object in the determination area.
前記表示装置は、前記2つの候補オブジェクト画像の複数の組を順次表示する、請求項9に記載の画像処理システム。   The image processing system according to claim 9, wherein the display device sequentially displays a plurality of sets of the two candidate object images. 前記画像処理部は、前記3次元関心領域の画像データとして、3次元領域抽出処理のパラメータを前記データ記憶装置に記憶し、
前記画像処理部は、前記パラメータを使用して、前記3次元領域画像抽出処理により前記3次元医用画像データにおける前記3次元関心領域の画像データを生成する、請求項1〜10のいずれかに記載の画像処理システム。
The image processing unit stores, as image data of the three-dimensional region of interest, parameters of a three-dimensional region extraction process in the data storage device;
The said image processing part produces | generates the image data of the said three-dimensional region of interest in the said three-dimensional medical image data by the said three-dimensional area image extraction process using the said parameter. Image processing system.
医用画像処理システムにおける3次元医用画像データの画像表示において、ユーザによる3次元関心領域の指定を支援する処理をプロセッサに実行させるプログラムであって、前記処理は、
前記3次元医用画像データを可視化処理して、一つ又は複数の候補オブジェクトのそれぞれを明示する一つ又は複数の候補オブジェクト画像データを生成し、その一つ又は複数の候補オブジェクト画像データをデータ記憶装置に記憶し、
前記データ記憶装置に記憶されている前記一つ又は複数の候補オブジェクト画像データを表示装置に出力し、
表示された前記一つ又は複数の候補オブジェクト画像に対するユーザ選択入力に従って、前記一つ又は複数の候補オブジェクトから前記3次元関心領域を指定するためのオブジェクトを選択し、
前記選択したオブジェクトの画像表示に対する前記ユーザからの前記3次元関心領域の指定入力を受け付ける、ことを含むプログラム。
In the image display of 3D medical image data in a medical image processing system, a program for causing a processor to execute a process for supporting the designation of a 3D region of interest by a user.
Visualizing the three-dimensional medical image data to generate one or a plurality of candidate object image data specifying each of one or a plurality of candidate objects, and storing the one or a plurality of candidate object image data as data Memorize in the device,
Outputting the one or more candidate object image data stored in the data storage device to a display device;
According to a user selection input for the displayed one or more candidate object images, an object for specifying the three-dimensional region of interest from the one or more candidate objects,
Receiving a designation input of the three-dimensional region of interest from the user for the image display of the selected object.
前記処理は、
前記3次元医用画像データを可視化処理して初期可視化画像データを生成し、その画像データを前記データ記憶装置に記憶し、
前記初期可視化画像データを前記表示装置に出力し、
表示されている前記初期可視化画像に対するユーザ入力に従って、前記3次元医用画像データにおける判定領域を決定し、
前記一つ又は複数の候補オブジェクトのそれぞれの一部は、前記判定領域に含まれる、請求項12に記載のプログラム。
The process is
Visualizing the three-dimensional medical image data to generate initial visualized image data, storing the image data in the data storage device,
Outputting the initial visualized image data to the display device;
In accordance with a user input for the displayed initial visualized image, a determination region in the three-dimensional medical image data is determined,
The program according to claim 12, wherein a part of each of the one or more candidate objects is included in the determination area.
3次元医用画像データ処理システムにおける画像処理方法であって、
前記3次元医用画像データをデータ記憶装置に記憶し、
前記3次元医用画像データを可視化処理して一つ又は複数の候補オブジェクトのそれぞれを明示する一つ又は複数の候補オブジェクト画像データを生成し、その一つ又は複数の候補オブジェクト画像データを前記データ記憶装置に記憶し、
前記データ記憶装置に記憶されている前記一つ又は複数の候補オブジェクト画像データによる画像を表示し、
前記表示された一つ又は複数の画像に対するユーザ選択入力に従って、前記一つ又は複数の候補オブジェクトから3次元関心領域を指定するためのオブジェクトを選択し、
前記選択したオブジェクトの表示画像に対する前記ユーザからの前記3次元関心領域の指定入力を受け付ける、画像処理方法。
An image processing method in a three-dimensional medical image data processing system,
Storing the three-dimensional medical image data in a data storage device;
Visualizing the three-dimensional medical image data to generate one or a plurality of candidate object image data specifying each of one or a plurality of candidate objects, and storing the one or a plurality of candidate object image data in the data storage Memorize in the device,
Displaying an image based on the one or more candidate object image data stored in the data storage device;
According to a user selection input for the displayed one or more images, an object for designating a three-dimensional region of interest from the one or more candidate objects is selected,
An image processing method for receiving a designation input of the three-dimensional region of interest from the user for a display image of the selected object.
前記3次元医用画像データを可視化処理して初期可視化画像データを生成し、その初期可視化画像データを前記データ記憶装置に記憶し、
前記初期可視化画像データを表示し、
表示されている前記初期可視化画像に対するユーザ入力に従って、前記3次元医用画像データにおける判定領域を決定し、
前記一つ又は複数の候補オブジェクトのそれぞれの一部は、前記判定領域に含まれる、請求項14に記載の画像処理方法。
Visualizing the three-dimensional medical image data to generate initial visualized image data, storing the initial visualized image data in the data storage device,
Displaying the initial visualized image data;
In accordance with a user input for the displayed initial visualized image, a determination region in the three-dimensional medical image data is determined,
The image processing method according to claim 14, wherein a part of each of the one or more candidate objects is included in the determination area.
JP2010235277A 2010-10-20 2010-10-20 Image processing system for three-dimensional medical image data, image processing method for the same, and program Pending JP2012085833A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010235277A JP2012085833A (en) 2010-10-20 2010-10-20 Image processing system for three-dimensional medical image data, image processing method for the same, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010235277A JP2012085833A (en) 2010-10-20 2010-10-20 Image processing system for three-dimensional medical image data, image processing method for the same, and program

Publications (1)

Publication Number Publication Date
JP2012085833A true JP2012085833A (en) 2012-05-10

Family

ID=46258133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010235277A Pending JP2012085833A (en) 2010-10-20 2010-10-20 Image processing system for three-dimensional medical image data, image processing method for the same, and program

Country Status (1)

Country Link
JP (1) JP2012085833A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015015777A1 (en) * 2013-07-31 2015-02-05 富士フイルム株式会社 Medical image display control device, method of operation for same, and medical image display control program
JP2017108789A (en) * 2015-12-14 2017-06-22 東芝メディカルシステムズ株式会社 Image processing device
JP6225351B1 (en) * 2016-03-17 2017-11-08 朝日レントゲン工業株式会社 Image processing apparatus, image processing program, and image processing method
CN108875730A (en) * 2017-05-16 2018-11-23 中兴通讯股份有限公司 A kind of deep learning sample collection method, apparatus, equipment and storage medium
WO2024128085A1 (en) * 2022-12-12 2024-06-20 富士フイルム株式会社 Medical image processing device, medical image processing method, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015015777A1 (en) * 2013-07-31 2015-02-05 富士フイルム株式会社 Medical image display control device, method of operation for same, and medical image display control program
JP2015029518A (en) * 2013-07-31 2015-02-16 富士フイルム株式会社 Medical image display control apparatus, method of operating the same, and medical image display control program
US10062184B2 (en) 2013-07-31 2018-08-28 Fujifilm Corporation Medical image display control device, method of operation for same, and medical image display control program
JP2017108789A (en) * 2015-12-14 2017-06-22 東芝メディカルシステムズ株式会社 Image processing device
US11311248B2 (en) 2015-12-14 2022-04-26 Canon Medical Systems Corporation Image processing apparatus
US11903745B2 (en) 2015-12-14 2024-02-20 Canon Medical Systems Corporation Image processing apparatus
JP6225351B1 (en) * 2016-03-17 2017-11-08 朝日レントゲン工業株式会社 Image processing apparatus, image processing program, and image processing method
CN108875730A (en) * 2017-05-16 2018-11-23 中兴通讯股份有限公司 A kind of deep learning sample collection method, apparatus, equipment and storage medium
CN108875730B (en) * 2017-05-16 2023-08-08 中兴通讯股份有限公司 Deep learning sample collection method, device, equipment and storage medium
WO2024128085A1 (en) * 2022-12-12 2024-06-20 富士フイルム株式会社 Medical image processing device, medical image processing method, and program

Similar Documents

Publication Publication Date Title
US8103070B2 (en) Volume rendering apparatus and method
JP5312801B2 (en) Medical image viewing protocol
US9892566B2 (en) Image processing apparatus, method and program
JP5224451B2 (en) Projection image creation apparatus, method and program
US9678620B2 (en) Workflow for ambiguity guided interactive segmentation of lung lobes
US9349220B2 (en) Curve correction in volume data sets
US8970581B2 (en) System and method for interactive contouring for 3D medical images
US20120093388A1 (en) Medical image processing apparatus, method, and program
JP2008529578A5 (en)
US8588490B2 (en) Image-based diagnosis assistance apparatus, its operation method and program
CN107067398A (en) Complementing method and device for lacking blood vessel in 3 D medical model
JP6824845B2 (en) Image processing systems, equipment, methods and programs
RU2563158C2 (en) Improvements to curved planar reformation
CN107507212A (en) Digital brain method for visualizing, device, computing device and storage medium
Hachaj et al. Visualization of perfusion abnormalities with GPU-based volume rendering
JP2012085833A (en) Image processing system for three-dimensional medical image data, image processing method for the same, and program
JP4473578B2 (en) Method and apparatus for forming an isolated visualized body structure
US20150320507A1 (en) Path creation using medical imaging for planning device insertion
CN116997937A (en) Method for visualizing at least one region of an object in at least one interface
CN109242964B (en) Processing method and device of three-dimensional medical model
EP3607527B1 (en) Quantitative evaluation of time-varying data
JP5159195B2 (en) Medical image processing device
US12136181B2 (en) Method for visualizing at least a zone of an object in at least one interface
CN112529834B (en) Spatial distribution of pathology image patterns in 3D image data
EP4258216A1 (en) Method for displaying a 3d model of a patient

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120322