Nothing Special   »   [go: up one dir, main page]

JP2024023303A - Medical image processing system, medical image processing method and medical image processing program - Google Patents

Medical image processing system, medical image processing method and medical image processing program Download PDF

Info

Publication number
JP2024023303A
JP2024023303A JP2023194074A JP2023194074A JP2024023303A JP 2024023303 A JP2024023303 A JP 2024023303A JP 2023194074 A JP2023194074 A JP 2023194074A JP 2023194074 A JP2023194074 A JP 2023194074A JP 2024023303 A JP2024023303 A JP 2024023303A
Authority
JP
Japan
Prior art keywords
image
dimensional image
dimensional
input
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023194074A
Other languages
Japanese (ja)
Inventor
金吾 七戸
Kingo Shichinohe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nemoto Kyorindo Co Ltd
Original Assignee
Nemoto Kyorindo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nemoto Kyorindo Co Ltd filed Critical Nemoto Kyorindo Co Ltd
Publication of JP2024023303A publication Critical patent/JP2024023303A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To display an image through which a correspondence between a three-dimensional image and a second-dimensional image is easily grasped and which can effectively be used in diagnosis and medical treatment.SOLUTION: A medical image processing system 1 includes a display device 13, an input device 14, a data storage unit 12 for storing a data set which can create a three-dimensional image, and an image display control unit 11 for controlling the display of an image to the display device 13. The image display control unit 11 creates at least a three-dimensional image from the data set, simultaneously displays the created three-dimensional image and a second image having a different form from that of the three-dimensional image and associated with the three-dimensional image in the display device, creates an auxiliary image from information included in at least one of the three-dimensional image and the second image, and displays the auxiliary image in the other of the three-dimensional image and the second image.SELECTED DRAWING: Figure 1

Description

本発明は、被験者から得られた医用画像データの表示を処理する医用画像処理システム、医用画像処理方法および医用画像処理プログラムに関する。 The present invention relates to a medical image processing system, a medical image processing method, and a medical image processing program that process the display of medical image data obtained from a subject.

従来、CT装置等の撮像装置によって得られた医用画像を用いた診断および治療が行われている。撮像装置で得られた医用画像は、例えば、病変の有無の確認、手術前のシミュレーション、および手術中のナビゲーション等に利用される。医用画像として利用されるのは二次元画像および/または三次元画像である。上述した撮像装置によって取得される画像データは、複数のスライス画像データ、すなわち二次元画像データである。三次元画像は、複数の二次元画像データからボリュームデータを作成することによって得ることができる。例えば特許文献1、2には、二次元画像と三次元画像を同一の表示デバイスに表示できる医用画像表示装置が開示されている。 Conventionally, diagnosis and treatment have been performed using medical images obtained by imaging devices such as CT devices. Medical images obtained by an imaging device are used, for example, to confirm the presence or absence of a lesion, to simulate before surgery, and to navigate during surgery. Two-dimensional images and/or three-dimensional images are used as medical images. The image data acquired by the imaging device described above is a plurality of slice image data, that is, two-dimensional image data. A three-dimensional image can be obtained by creating volume data from a plurality of two-dimensional image data. For example, Patent Documents 1 and 2 disclose medical image display apparatuses that can display two-dimensional images and three-dimensional images on the same display device.

特開2004-357789号公報Japanese Patent Application Publication No. 2004-357789 特許第4971402号公報Patent No. 4971402

特許文献1、2に記載の発明では、三次元画像とそれに対応する二次元画像を同一の表示デバイスに表示するものであるが、二次元画像と三次元画像との対応関係をより詳細に知りたいという要求もある。例えば、動脈系の血管と静脈系の血管とが複雑に走行しているような部位では、二次元画像と三次元画像とを視覚的に対比することによって複数の血管同士の位置関係を把握するようなことも行われるが、二次元画像と三次元画像とが単に並べて表示されているだけでは、三次元画像と二次元画像との対応関係を把握しにくい場合があるなど、診断や治療に使用するには使い勝手が良いとはいえなかった。 In the inventions described in Patent Documents 1 and 2, a three-dimensional image and a corresponding two-dimensional image are displayed on the same display device. There are also demands. For example, in a region where arterial blood vessels and venous blood vessels run in a complex manner, the positional relationship between multiple blood vessels can be understood by visually comparing two-dimensional and three-dimensional images. However, if two-dimensional and three-dimensional images are simply displayed side by side, it may be difficult to understand the correspondence between the three-dimensional and two-dimensional images, making it difficult for diagnosis and treatment. It was not easy to use.

本発明は、同一の表示デバイスに表示される各種画像の対応関係を把握しやすく、診断や治療において有効に利用できる画像を表示させる医用画像処理装置等を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a medical image processing apparatus and the like that displays images that are easy to understand and that can be effectively used in diagnosis and treatment, making it easy to understand the correspondence between various images displayed on the same display device.

本発明の医用画像処理システムは、画像を表示する表示デバイスと、
操作者による入力を受け付ける入力デバイスと、
複数の解剖学的構造についての立体的配置を表す三次元画像を作成可能な少なくとも1つのデータセットを格納するデータ格納部と、
前記入力デバイスによって受け付けられた入力に従って前記表示デバイスへの前記画像の表示を制御する画像表示制御部と、
を有し、
前記画像表示制御部は、
前記データセットから少なくとも前記三次元画像を作成する処理と、
作成した前記三次元画像、および前記三次元画像とは形式が異なるが前記三次元画像と関連付けられた第二画像を前記表示デバイスに同時に表示させる処理と、
前記入力デバイスによって受け付けられた入力に応じて、または前記入力とは無関係に、前記三次元画像および前記第二画像の少なくとも一方に含まれる情報から補助画像を作成し、前記補助画像を前記三次元画像および前記第二画像の他方に表示させる処理と、
を行うように構成されている。
The medical image processing system of the present invention includes a display device that displays images;
an input device that accepts input from an operator;
a data storage unit storing at least one data set capable of creating a three-dimensional image representing a three-dimensional arrangement of a plurality of anatomical structures;
an image display control unit that controls display of the image on the display device according to input received by the input device;
has
The image display control section includes:
creating at least the three-dimensional image from the data set;
a process of simultaneously displaying the created three-dimensional image and a second image different in format from the three-dimensional image but associated with the three-dimensional image on the display device;
creating an auxiliary image from information included in at least one of the three-dimensional image and the second image in response to input received by the input device or independently of the input; processing for displaying on the other of the image and the second image;
is configured to do so.

本発明の医用画像処理方法は、画像を表示する表示デバイスと、操作者による入力を受け付ける入力デバイスと、複数の解剖学的構造についての立体的配置を表す三次元画像を作成可能な少なくとも1つのデータセットを格納するデータ格納部と、を用いる医用画像処理方法であって、
前記データセットから前記三次元画像を作成することと、
作成した前記三次元画像、および前記三次元画像とは形式が異なるが前記三次元画像と関連付けられた第二画像を前記表示デバイスに同時に表示させることと、
前記入力デバイスによって受け付けられた入力に応じて、または前記入力とは無関係に、前記三次元画像および前記第二画像の少なくとも一方に含まれる情報から補助画像を作成し、前記補助画像を前記三次元画像および前記第二画像の他方に表示させることと、
を含む。
The medical image processing method of the present invention includes a display device that displays an image, an input device that receives input from an operator, and at least one device that can create a three-dimensional image representing the three-dimensional arrangement of a plurality of anatomical structures. A medical image processing method using a data storage unit storing a data set,
creating the three-dimensional image from the dataset;
simultaneously displaying the created three-dimensional image and a second image, which has a different format from the three-dimensional image but is associated with the three-dimensional image, on the display device;
creating an auxiliary image from information included in at least one of the three-dimensional image and the second image in response to input received by the input device or independently of the input; displaying on the other of the image and the second image;
including.

本発明の医用画像処理プログラムは、データ格納部に格納された、複数の解剖学的構造についての立体的配置を表す三次元画像を作成可能な少なくとも1つのデータセットから作成された少なくとも前記三次元画像を表示デバイスに表示させる処理をコンピュータに実行させる医用画像処理プログラムであって、
前記コンピュータに、
前記データセットから前記三次元画像を作成させる処理と、
作成した前記三次元画像、および前記三次元画像とは形式が異なるが前記三次元画像と関連付けられた第二画像を前記表示デバイスに同時に表示させる処理と、
前記三次元画像および前記第二画像の少なくとも一方に含まれる情報から補助画像を作成させ、前記補助画像を前記三次元画像および前記第二画像の他方に表示させる処理と、
を実行させる。
The medical image processing program of the present invention includes at least one of the three-dimensional images created from at least one data set stored in a data storage unit and capable of creating a three-dimensional image representing the three-dimensional arrangement of a plurality of anatomical structures. A medical image processing program that causes a computer to execute processing for displaying an image on a display device,
to the computer;
a process of creating the three-dimensional image from the data set;
a process of simultaneously displaying the created three-dimensional image and a second image different in format from the three-dimensional image but associated with the three-dimensional image on the display device;
A process of creating an auxiliary image from information included in at least one of the three-dimensional image and the second image, and displaying the auxiliary image on the other of the three-dimensional image and the second image;
Execute.

(本発明で用いる用語の定義)
「解剖学的構造」とは、被写体内で認識可能な、例えば臓器、骨、血管等の対象物(オブジェクト)のことをいい、脂肪や、腫瘍等の病変等も含む。また、全体としてみれば1つの解剖学的構造であっても、複数の単位に分けられたり別個の役割等を有していたりする解剖学的構造については、複数の解剖学的構造として扱われることもある。例えば、肺は、上葉、中葉および下葉をそれぞれ別個の解剖学的構造として扱うことができ、また、血管は、動脈系血管と静脈系血管をそれぞれ別個の解剖学的構造として扱うことができる。
(Definitions of terms used in the present invention)
The term "anatomical structure" refers to objects that can be recognized within the subject, such as organs, bones, and blood vessels, and also includes fat, lesions such as tumors, and the like. Furthermore, even if it is one anatomical structure when viewed as a whole, anatomical structures that are divided into multiple units or have separate roles are treated as multiple anatomical structures. Sometimes. For example, the upper, middle, and lower lobes of the lung can be treated as separate anatomical structures, and the arterial and venous blood vessels can be treated as separate anatomical structures. can.

画像の表示における「半透明」とは、三次元画像での解剖学的構造の表示形態の一つであり、隠れていた他の解剖学的構造を視認できるように透過率が設定されていることを意味し、半透明とされる対象となる解剖学的構造をほとんど視認することができない状態での表示も含む。具体的な透過率としては、30%~90%の間とすることができる。 "Semi-transparent" in image display is a form of display of anatomical structures in three-dimensional images, and the transmittance is set so that other anatomical structures that are hidden can be seen. This includes displaying semi-transparent target anatomical structures in a state where they are hardly visible. The specific transmittance can be between 30% and 90%.

「二次元画像」とは、解剖学的構造の断面を表す画像を意味し、「三次元画像」とは、三次元の情報を二次元的に表した画像を意味する。「二次元画像」は、「断面画像」ということもある。 A "two-dimensional image" refers to an image that represents a cross section of an anatomical structure, and a "three-dimensional image" refers to an image that represents three-dimensional information two-dimensionally. A "two-dimensional image" is also sometimes referred to as a "cross-sectional image."

本発明によれば、互いに関連した複数種類の画像を表示デバイスに表示させる場合において、表示されている画像の対応関係を視覚的に把握しやすく、診断や治療において有効に利用できる画像を表示させることができる。 According to the present invention, when displaying a plurality of types of mutually related images on a display device, it is easy to visually grasp the correspondence between the displayed images, and images that can be effectively used in diagnosis and treatment are displayed. be able to.

本発明の一実施形態による医用画像処理システムのブロック図である。FIG. 1 is a block diagram of a medical image processing system according to an embodiment of the invention. 図1に示す表示デバイスに表示される初期画面の一例を示す図である。2 is a diagram showing an example of an initial screen displayed on the display device shown in FIG. 1. FIG. 図2に示す画面上への、三次元画像および二次元画像の表示の一例を示す図である。3 is a diagram showing an example of display of a three-dimensional image and a two-dimensional image on the screen shown in FIG. 2. FIG. 二次元画像における、着色画像の重ね合わせを説明する図である。FIG. 3 is a diagram illustrating superposition of colored images in a two-dimensional image. 表示デバイスへの、二次元画像が示す断面位置の、三次元画像への表示の一例を示す図である。FIG. 3 is a diagram illustrating an example of display of a cross-sectional position indicated by a two-dimensional image on a three-dimensional image on a display device. 図5に示す表示において、二次元画像上の位置を特定した場合の、二次元画像および三次元画像への表示の一例を示す図である。6 is a diagram showing an example of a display on a two-dimensional image and a three-dimensional image when a position on the two-dimensional image is specified in the display shown in FIG. 5. FIG. 三次元画像および二次元画像の両方への入力に対する並列処理の一例を説明する図である。FIG. 2 is a diagram illustrating an example of parallel processing for input to both a three-dimensional image and a two-dimensional image. 三次元画像および二次元画像の両方への入力に対する並列処理の一例を説明する図である。FIG. 2 is a diagram illustrating an example of parallel processing for input to both a three-dimensional image and a two-dimensional image. 三次元画像および二次元画像の両方への入力に対する並列処理の一例を説明する図である。FIG. 2 is a diagram illustrating an example of parallel processing for input to both a three-dimensional image and a two-dimensional image. 三次元画像上で指定した場所での二次元画像を二次元画像表示領域に表示する場合の手順の一例を説明する図であり、二次元画像に表示させる断面の位置を三次元画像上で指定した段階を示している。This is a diagram illustrating an example of the procedure for displaying a 2D image at a specified location on a 3D image in a 2D image display area, and the position of a cross section to be displayed on the 2D image is specified on the 3D image. It shows the stage of progress. 三次元画像上で指定した場所での二次元画像を二次元画像表示領域に表示する場合の手順の一例を説明する図であり、指定した場所での二次元画像が二次元画像表示領域に表示された段階を示している。This is a diagram illustrating an example of a procedure for displaying a two-dimensional image at a specified location on a three-dimensional image in the two-dimensional image display area, and the two-dimensional image at the specified location is displayed in the two-dimensional image display area. It shows the stages that have been completed. 図6に示した段階において、指定した場所が属する解剖学的構造を半透明で表示した例を示す図である。7 is a diagram illustrating an example in which the anatomical structure to which the specified location belongs is displayed semitransparently at the stage illustrated in FIG. 6. FIG. 三次元画像表示領域および二次元画像表示領域のサイズ変更を説明する図であり、二次元画像表示領域のサイズを拡大した状態を示す。FIG. 2 is a diagram illustrating changing the size of a three-dimensional image display area and a two-dimensional image display area, and shows a state in which the size of the two-dimensional image display area is expanded. 三次元画像表示領域および二次元画像表示領域のサイズ変更を説明する図であり、三次元画像表示領域のサイズを拡大した状態を示す。FIG. 3 is a diagram illustrating changing the size of a three-dimensional image display area and a two-dimensional image display area, and shows a state in which the size of the three-dimensional image display area is expanded. 本発明の他の実施形態による医用画像処理システムの表示画面の一例を示す図である。FIG. 7 is a diagram showing an example of a display screen of a medical image processing system according to another embodiment of the present invention. 図9に示す画面においてメニューボタンアイコンを操作することによって表示される画面の一例を示す図である。10 is a diagram showing an example of a screen displayed by operating a menu button icon on the screen shown in FIG. 9. FIG. 図9Aに示す画面から選択できる三次元画像のクリッピング機能を説明する図である。9A is a diagram illustrating a three-dimensional image clipping function that can be selected from the screen shown in FIG. 9A. FIG. 図9Aに示す画面から選択できる三次元画像のクリッピング機能を説明する図である。9A is a diagram illustrating a three-dimensional image clipping function that can be selected from the screen shown in FIG. 9A. FIG. 図9Aに示す画面から選択できる三次元画像のクリッピング機能を説明する図である。9A is a diagram illustrating a three-dimensional image clipping function that can be selected from the screen shown in FIG. 9A. FIG. 図9Aに示す画面から選択できる三次元画像のパースペクティブ表示機能を説明する図である。9A is a diagram illustrating a three-dimensional image perspective display function that can be selected from the screen shown in FIG. 9A. FIG. 図9Aに示す画面から選択できる三次元画像のパースペクティブ表示機能を説明する図である。9A is a diagram illustrating a three-dimensional image perspective display function that can be selected from the screen shown in FIG. 9A. FIG. 図9Aに示す画面から選択できる三次元画像のパースペクティブ表示機能を説明する図である。9A is a diagram illustrating a three-dimensional image perspective display function that can be selected from the screen shown in FIG. 9A. FIG. 図9Aに示す画面から選択できる三次元画像のスプリットウィンドウ表示機能を説明する図である。9A is a diagram illustrating a three-dimensional image split window display function that can be selected from the screen shown in FIG. 9A. FIG. 三次元画像の半透明表示および非表示機能を説明する図である。FIG. 3 is a diagram illustrating a translucent display and non-display function of a three-dimensional image. 三次元画像の半透明表示および非表示機能を説明する図である。FIG. 3 is a diagram illustrating a translucent display and non-display function of a three-dimensional image. 三次元画像の半透明表示および非表示機能を説明する図である。FIG. 3 is a diagram illustrating a translucent display and non-display function of a three-dimensional image. 三次元画像の半透明表示および非表示機能を説明する図である。FIG. 3 is a diagram illustrating a translucent display and non-display function of a three-dimensional image. 三次元画像の半透明表示および非表示機能を説明する図である。FIG. 3 is a diagram illustrating a translucent display and non-display function of a three-dimensional image. 三次元画像の半透明表示および非表示機能を説明する図である。FIG. 3 is a diagram illustrating a translucent display and non-display function of a three-dimensional image. 三次元画像の半透明表示および非表示機能を説明する図である。FIG. 3 is a diagram illustrating a translucent display and non-display function of a three-dimensional image. 血管支配領域の計算機能を説明する図である。FIG. 3 is a diagram illustrating a calculation function of a blood vessel controlled region. 本発明の他の形態による処置支援システムのブロック図である。FIG. 3 is a block diagram of a treatment support system according to another embodiment of the present invention.

図1を参照すると、画像表示制御部11と、データ格納部12と、表示デバイス13と、入力デバイス14とを少なくとも有する、本発明の一実施形態による医用画像処理システム1のブロック図が示されている。医用画像処理システム1は、これらに加えてデータ入出力インターフェース15、医用情報管理装置21、薬液注入装置22および撮像装置23をさらに有していてもよい。本形態の医用画像処理システム1は、三次元画像およびその三次元画像と関連付けられた他の種類の画像である第二画像を表示デバイス13に同時に表示できるように構成されるものであり、以下においては、第二画像が二次元画像である場合を例に挙げて説明する。 Referring to FIG. 1, a block diagram of a medical image processing system 1 according to an embodiment of the present invention is shown, which includes at least an image display control section 11, a data storage section 12, a display device 13, and an input device 14. ing. In addition to these, the medical image processing system 1 may further include a data input/output interface 15, a medical information management device 21, a liquid drug injection device 22, and an imaging device 23. The medical image processing system 1 of this embodiment is configured to be able to simultaneously display a three-dimensional image and a second image, which is another type of image associated with the three-dimensional image, on the display device 13, and includes the following: In the following, a case where the second image is a two-dimensional image will be described as an example.

表示デバイス13は、液晶ディスプレイおよび有機ELディスプレイなど、画像表示制御部11で作成された画像を表示できる任意のディスプレイであってよい。入力デバイス14は、例えば、キーボードやマウスなど、操作者による入力操作を受け付け、画像表示制御部11にデータ等を入力できる任意のデバイスであってよい。また、ディスプレイとタッチスクリーンとを組み合わせたタッチパネルを、表示デバイス13および入力デバイス14として用いることもできる。 The display device 13 may be any display capable of displaying the image created by the image display control section 11, such as a liquid crystal display or an organic EL display. The input device 14 may be any device, such as a keyboard or a mouse, that can accept input operations by an operator and input data and the like to the image display control section 11 . Further, a touch panel that is a combination of a display and a touch screen can also be used as the display device 13 and the input device 14.

さらに、入力デバイス14として、非接触で入力を行うことのできる非接触入力ユニットを組み合わせることもできる。非接触入力ユニットは、ジェスチャ認識技術を利用したものと音声認識技術を利用したものに分けることができる。 Furthermore, as the input device 14, a non-contact input unit that can perform input without contact can also be combined. Non-contact input units can be divided into those using gesture recognition technology and those using voice recognition technology.

ジェスチャ認識技術を利用した非接触入力ユニットの一例として、「Leapセンサ」(Leap Motion社製)が挙げられる。「Leapセンサ」は、操作者の指の動き等を非接触で認識できる入力デバイスであり、赤外線照射部と、赤外線カメラ等を有する。赤外線照射部から照射された赤外線が操作者の手に当たったときの反射光を赤外線カメラで撮影し、画像解析を行うことで、三次元空間内での操作者の手および指の位置、動作および形状等をリアルタイムで検出するものである。 An example of a non-contact input unit that uses gesture recognition technology is "Leap Sensor" (manufactured by Leap Motion). The "Leap sensor" is an input device that can recognize the movements of an operator's fingers in a non-contact manner, and includes an infrared irradiation unit, an infrared camera, and the like. An infrared camera captures the reflected light when the infrared rays emitted from the infrared irradiator hit the operator's hand, and performs image analysis to determine the position and movement of the operator's hand and fingers in three-dimensional space. It detects the shape, shape, etc. in real time.

ジェスチャ認識技術を利用した非接触入力ユニットの他の例として、「リアルセンス」(インテル社製)が挙げられる。「リアルセンス」は、RGBカメラおよび赤外線カメラから構成された3Dカメラ、赤外線センサ等をモジュール化したものであり、色情報の他に奥行情報を取得でき、操作者の指等の動作を三次元で認識可能である。 Another example of a non-contact input unit that uses gesture recognition technology is "RealSense" (manufactured by Intel). "RealSense" is a module that includes a 3D camera consisting of an RGB camera and an infrared camera, an infrared sensor, etc., and can acquire depth information in addition to color information, and can detect the movements of the operator's fingers etc. in 3D. It can be recognized by

本形態では、Leapセンサおよびリアルセンスのいずれも利用可能であり、いずれにおいても、入力のための操作者の動作は、タッチパネル上での操作者の動作(例えば、タップ、ダブルタップ、スワイプ、フリック、ピンチイン、ピンチアウトなど)と同じ動作に加え、奥行方向の動作も利用可能である。実際の入力動作に際しては、アクリル樹脂等からなる透明な平板を適宜位置に配置し、その平板を基準面として入力動作を行うようにすることで、奥行方向での位置ずれによる誤認識を防止することができる。 In this embodiment, both Leap sensor and RealSense can be used, and in both cases, the operator's operation for input is the operator's operation on the touch panel (e.g., tap, double tap, swipe, flick). In addition to the same actions as , pinch in, pinch out, etc., you can also use actions in the depth direction. During the actual input operation, a transparent flat plate made of acrylic resin or the like is placed at an appropriate position, and the input operation is performed using the flat plate as a reference surface to prevent misrecognition due to positional deviation in the depth direction. be able to.

音声認識技術を利用した非接触入力ユニットの例として、音声認識ユニットを挙げることができる。音声認識ユニットは、操作者が発生した音声を取得するマイクロフォンと、マイクロフォンが取得した音声を認識して操作用信号に変換する音声認識装置と、を有することができる。音声認識装置の設置場所は任意であってよいが、マイクロフォンは、操作者の近くに設置することが好ましい。 A voice recognition unit can be cited as an example of a non-contact input unit that uses voice recognition technology. The voice recognition unit can include a microphone that acquires the voice generated by the operator, and a voice recognition device that recognizes the voice acquired by the microphone and converts it into an operation signal. Although the voice recognition device may be installed at any location, it is preferable to install the microphone near the operator.

データ格納部12は、複数の解剖学的構造についての立体的配置を表す三次元画像を作成可能な少なくとも1つのデータセットを格納する。データ格納部12としては、HDD(Hard Disc Drive)、SSD(Solid State Drive)および各種メモリの少なくとも一種を含むことができる。データ格納部12には、これら二次元画像データおよび三次元画像データの他に、画像表示制御部11が行う処理に必要な少なくとも1つのプログラム、テーブル、データベース等が格納されていてもよい。 The data storage unit 12 stores at least one data set capable of creating a three-dimensional image representing the three-dimensional arrangement of a plurality of anatomical structures. The data storage unit 12 can include at least one of an HDD (Hard Disc Drive), an SSD (Solid State Drive), and various types of memory. In addition to these two-dimensional image data and three-dimensional image data, the data storage section 12 may store at least one program, table, database, etc. necessary for the processing performed by the image display control section 11.

データ格納部12に格納されるデータセットは、データ入出力インターフェース15を通じて医用情報管理装置21から取得することができる。データ入出力インターフェース15は、医用情報管理装置21と無線接続されるものであってもよいし有線接続されるものであってもよい。医用情報管理装置21としては、PACS(picture Archiving and CommunicationSystems)、RIS(Radiology Information System)およびHIS(Hospital Information System)等が挙げられる。 Data sets stored in the data storage unit 12 can be obtained from the medical information management device 21 through the data input/output interface 15. The data input/output interface 15 may be connected to the medical information management device 21 wirelessly or by wire. The medical information management device 21 includes PACS (Picture Archiving and Communication Systems), RIS (Radiology Information System), and HIS (Hospital Information System). m) etc.

医用情報管理装置21は、薬液注入装置22によって薬液(例えば造影剤)が注入され、撮像装置23によって撮像された被験者の医用画像データを管理する。薬液注入装置22としては、シリンジや薬液バッグ等に充填された造影剤等の薬液を、予め設定された注入条件に従って被験者に注入する任意の注入装置を用いることができる。撮像装置23は、CT(Computed Tomography)装置、MRI(Maganetic Resonance Imaging)装置、アンギオグラフィ装置、PET(Positoron Emission Tomography)装置、超音波診断装置等、画像データで構成された医用画像を撮像することのできる任意の装置であってよい。データ格納部12に格納されるデータセットは、撮像装置23から取得することもできる。 The medical information management device 21 manages medical image data of a subject in which a drug solution (for example, a contrast agent) is injected by a drug solution injection device 22 and imaged by an imaging device 23 . As the drug solution injection device 22, any injection device that injects a drug solution such as a contrast medium filled into a syringe, a drug solution bag, or the like into a subject according to preset injection conditions can be used. The imaging device 23 is a medical image composed of image data, such as a CT (Computed Tomography) device, an MRI (Magnetic Resonance Imaging) device, an angiography device, a PET (Positoron Emission Tomography) device, or an ultrasound diagnostic device. to image It may be any device capable of The data set stored in the data storage unit 12 can also be acquired from the imaging device 23.

ここで、データ格納部12に格納されるデータセットについて説明すると、データセットの例としては、複数の解剖学的構造についてのボリュームデータセットが挙げられる。ボリュームデータセットは、撮像装置23によって被験者に対して特定の方向(例えば、体軸方向、左右方向、前後方向、これらの少なくとも1つに対して傾斜した方向など)に一定の間隔(例えば1mm間隔)で連続的に撮影された複数(例えば300)のスライス画像データを体軸方向に配列して得られるデータセットである。また、データ格納部12に格納されるデータセットは、撮像装置23から直接または間接的に取得された生データであってもよい。この場合、画像表示処理部11は、データ格納部12に格納された生データの再構成を行い、任意の画像を得るように構成されることが好ましい。 Here, to explain the data sets stored in the data storage unit 12, an example of the data set is a volume data set regarding a plurality of anatomical structures. The volume data set is generated by the imaging device 23 at fixed intervals (for example, 1 mm intervals) in a specific direction (for example, the body axis direction, the left-right direction, the front-back direction, a direction inclined to at least one of these directions, etc.). ) is a data set obtained by arranging a plurality (for example, 300) slice image data sequentially photographed in the body axis direction. Further, the data set stored in the data storage unit 12 may be raw data obtained directly or indirectly from the imaging device 23. In this case, the image display processing section 11 is preferably configured to reconstruct the raw data stored in the data storage section 12 and obtain an arbitrary image.

ボリュームデータセットは複数のボクセルからなり、各ボクセルのボクセル値に基づく所定の処理により、複数の解剖学的構造を抽出することができる。そして、各ボクセルに対して、抽出した解剖学的構造ごとに透過率や色相が設定される。よって、各ボクセルは、座標情報、透過率情報および色相情報を含んでいる。このようにして解剖学的構造が抽出され、解剖学的構造ごとに透過率や色相が設定されたボリュームデータセットにレンダリング処理を行うことによって、三次元画像を作成することができる。レンダリング処理としては、ボリュームレンダリング(VR)、最大値投影法(MIP)などが挙げられる。 A volume data set consists of a plurality of voxels, and a plurality of anatomical structures can be extracted by predetermined processing based on the voxel value of each voxel. Transmittance and hue are then set for each voxel for each extracted anatomical structure. Therefore, each voxel includes coordinate information, transmittance information, and hue information. Anatomical structures are extracted in this way, and a three-dimensional image can be created by performing rendering processing on a volume data set in which transmittance and hue are set for each anatomical structure. Examples of rendering processing include volume rendering (VR) and maximum intensity projection (MIP).

解剖学的構造の抽出のための処理、各ボクセルに対する透過率や色相の設定、およびレンダリング処理など、ボリュームデータセットから三次元画像を作成するための各処理は公知の処理であってよいので、ここではそれらの詳細な説明は省略する。また、ボリュームデータセットにおける解剖学的構造の抽出、および透過率・色相の設定は、この画像表示制御部11で行ってもよいし、予め、解剖学的構造が抽出され透過率および色相が設定されたボリュームデータセットがデータ格納部12に格納されていてもよい。 Each process for creating a three-dimensional image from a volume data set, such as processing for extracting anatomical structures, setting transmittance and hue for each voxel, and rendering processing, may be a known process. A detailed explanation thereof will be omitted here. Further, extraction of the anatomical structure and setting of transmittance and hue in the volume data set may be performed by this image display control unit 11, or the anatomical structure is extracted in advance and the transmittance and hue are set. The volume dataset may be stored in the data storage unit 12.

解剖学的構造ごとに透過率および色相が設定されたボリュームデータセットは、解剖学的構造ごとに複数のレイヤーに分けられており、各ボクセルがレイヤー情報を含んでいてもよい。この場合、ボリュームデータセットは、解剖学的構造ごとの複数のレイヤー情報を持つ1つのデータファイルとしてデータ格納部12に格納されていてもよいし、それぞれレイヤー情報ごとに分けられた複数のデータファイルとしてデータ格納部12に格納されていてもよい。ボリュームデータセットがいずれの形態で格納されるかは、ボリュームデータセットの格納時に操作者が任意に選択できるようにしてもよい。 A volume data set in which transmittance and hue are set for each anatomical structure is divided into a plurality of layers for each anatomical structure, and each voxel may include layer information. In this case, the volume data set may be stored in the data storage unit 12 as one data file having multiple layer information for each anatomical structure, or multiple data files each separated by layer information. It may be stored in the data storage unit 12 as a. The format in which the volume data set is stored may be arbitrarily selected by the operator when the volume data set is stored.

ボリュームデータセットを任意の平面で切り出して再構成することによって、二次元画像を作成することができる。このような処理を、任意断面再構成(MPR)という。医療分野で用いられる二次元画像としては、基本的に、被験者の体軸方向に垂直なアキシャル断面、被験者の左右方向に垂直なサジタル断面および被験者の前後方向に垂直なコロナル断面がある。 A two-dimensional image can be created by cutting out a volume data set at an arbitrary plane and reconstructing it. Such processing is called arbitrary section reconstruction (MPR). Two-dimensional images used in the medical field basically include an axial section perpendicular to the subject's body axis direction, a sagittal section perpendicular to the left-right direction of the subject, and a coronal section perpendicular to the anteroposterior direction of the subject.

これらの二次元画像は、ボリュームデータセットから作成された、所望の断面位置における二次元画像データを用いて作成することができる。二次元画像データの作成は、データ格納部12に格納されたボリュームデータセットを用い、この画像表示制御部11で行うことができる。あるいは、ボリュームデータセットを用いて予め作成された複数の二次元画像データ(二次元画像データセット)が、その元となるボリュームデータセットとともにデータ格納部12に格納されてもよい。いずれの場合でも、ボリュームデータから二次元画像データが作成された段階で、ボリュームデータの各ボクセルの座標情報が二次元画像データに引き継がれ、したがって、共通のボリュームデータに基づく三次元画像および二次元画像は共通の座標データを持っている。また、二次元画像の表示に際しては、二次元画像データの補間処理がなされてもよい。 These two-dimensional images can be created using two-dimensional image data at desired cross-sectional positions created from the volume data set. Two-dimensional image data can be created by the image display control section 11 using a volume data set stored in the data storage section 12. Alternatively, a plurality of two-dimensional image data (two-dimensional image data set) created in advance using a volume data set may be stored in the data storage unit 12 together with the volume data set that is the source thereof. In either case, when two-dimensional image data is created from volume data, the coordinate information of each voxel of the volume data is carried over to the two-dimensional image data, and therefore three-dimensional images and two-dimensional images based on common volume data Images have common coordinate data. Furthermore, when displaying a two-dimensional image, interpolation processing may be performed on the two-dimensional image data.

例えば上記のアキシャル断面、サジタル断面およびコロナル断面といった複数の断面における二次元画像データセットがデータ格納部12に格納される場合、二次元画像データセットは、全ての断面についての複数の二次元画像データを有する1つのデータファイルとしてデータ格納部12に格納されていてもよいし、それぞれ各断面についての複数の二次元画像データを有する複数のデータファイルとしてデータ格納部12に格納されていてもよい。 For example, when two-dimensional image data sets for a plurality of cross-sections such as the above-mentioned axial cross-section, sagittal cross-section, and coronal cross-section are stored in the data storage unit 12, the two-dimensional image data set includes a plurality of two-dimensional image data for all cross-sections. may be stored in the data storage unit 12 as one data file having a plurality of two-dimensional image data for each cross section, or as a plurality of data files each having a plurality of two-dimensional image data for each cross section.

再び図1を参照すると、データ入出力インターフェース15と医用情報管理装置21との接続が有線接続であって、かつ、データ入出力インターフェース15がケーブル着脱式のコネクタである場合、およびデータ入出力インターフェース15と医用情報管理装置21との接続が無線接続である場合、医用画像処理端末10を医用画像処理システム1として構成することができる。医用画像処理端末10は、好ましくは、画像表示制御部11、データ格納部12、表示デバイス13、入力デバイス14およびデータ入出力インターフェース15を単一の筐体内に収めたものとして構成される。医用画像処理端末10は、タブレット端末や、タッチパネルディスプレイを有するノート型パーソナルコンピュータなど、可搬型の端末である。ただし、医用画像処理端末10は、表示デバイス13および入力デバイス14が画像表示制御部11と別体のユニットで構成されたワークステーションとして構成されていてもよい。 Referring to FIG. 1 again, if the connection between the data input/output interface 15 and the medical information management device 21 is a wired connection, and the data input/output interface 15 is a connector with a detachable cable, and the data input/output interface 15 and the medical information management device 21 is a wireless connection, the medical image processing terminal 10 can be configured as the medical image processing system 1. The medical image processing terminal 10 is preferably configured such that an image display control section 11, a data storage section 12, a display device 13, an input device 14, and a data input/output interface 15 are housed in a single housing. The medical image processing terminal 10 is a portable terminal such as a tablet terminal or a notebook personal computer having a touch panel display. However, the medical image processing terminal 10 may be configured as a workstation in which the display device 13 and the input device 14 are configured as a separate unit from the image display control section 11.

画像表示制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)を備えたコンピュータユニットで構成することができ、入力デバイス14によって受け付けられた入力に従って表示デバイス13への画像の表示を制御する種々の処理を実行する。画像表示制御部11で行われる処理は、コンピュータプログラムで実現してもよいし、論理回路によるハードウェアで実現してもよい。 The image display control section 11 can be configured with a computer unit including a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and controls the display device according to input received by the input device 14. Various processes for controlling the display of images on 13 are executed. The processing performed by the image display control unit 11 may be realized by a computer program or by hardware using a logic circuit.

画像表示制御部11で行われる処理をコンピュータプログラムで実現する場合、コンピュータプログラムは、前述したように、データ格納部12に格納することができる。データ格納部12に格納されたコンピュータプログラムは、画像表示制御部11のRAMにロードされることによって実行され、CPUなどのハードウェアと協働することによって各種処理が実行される。 When the processing performed by the image display control section 11 is implemented by a computer program, the computer program can be stored in the data storage section 12 as described above. The computer program stored in the data storage unit 12 is executed by being loaded into the RAM of the image display control unit 11, and various processes are executed by cooperating with hardware such as a CPU.

コンピュータプログラムは、コンピュータ読み取り可能な記録媒体に記憶させてもよい。コンピュータプログラムを記憶した記録媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は特に限定されず、例えば、メモリーカード、CD-ROM等の記録媒体であってもよい。記録媒体に記憶されたコンピュータプログラムは、適宜のリーダーを介してコンピュータユニットに実装することができる。適宜のリーダーとは、例えば、記録媒体がメモリーカードである場合はカードリーダ、記録媒体がCD-ROMである場合はCDドライブ、などが挙げられる。 The computer program may be stored on a computer readable recording medium. The recording medium that stores the computer program may be a non-transitory recording medium. The non-transitory recording medium is not particularly limited, and may be, for example, a memory card, a CD-ROM, or the like. A computer program stored on a recording medium can be implemented in a computer unit via a suitable reader. An appropriate reader includes, for example, a card reader when the recording medium is a memory card, a CD drive when the recording medium is a CD-ROM, and the like.

または、コンピュータプログラムは、外部のサーバから通信ネットワークを介してコンピュータユニットにダウンロードされたものであってもよい。 Alternatively, the computer program may be downloaded to the computer unit from an external server via a communications network.

画像表示制御部11は、画像の表示を制御する種々の処理を実行するため、入力判定部11a、表示処理部11bおよび補助画像処理部11cを、概念的な構成として有している。 The image display control section 11 conceptually includes an input determination section 11a, a display processing section 11b, and an auxiliary image processing section 11c in order to execute various processes for controlling the display of images.

入力判定部11aは、入力デバイス14が受け付けた入力を、入力を受け付けた入力デバイス14の種類、入力された信号の変化などから、表示デバイス13に表示されている画像に対してどのような処理を行うかを判定する。 The input determination unit 11a determines what kind of processing the input received by the input device 14 should be performed on the image displayed on the display device 13 based on the type of the input device 14 that received the input, changes in the input signal, etc. Determine whether to do so.

表示処理部11bは、主に、表示デバイス13の表示領域についての処理および表示領域内での画像表示についての処理を行う。これらの処理について、データ格納部12にボリュームデータセットが格納されている場合を例に挙げ、図2および図3をさらに参照して説明する。 The display processing unit 11b mainly performs processing regarding the display area of the display device 13 and processing regarding image display within the display area. These processes will be described using an example in which a volume data set is stored in the data storage unit 12 with further reference to FIGS. 2 and 3.

表示領域の処理では、表示処理部11bは、図2に示すように、表示デバイス13の画面における画像表示領域を、第1表示領域および第2表示領域、具体的には三次元画像表示領域100aおよび二次元画像表示領域100bに分けて表示させる。また、表示処理部11bは、入力デバイス14による入力操作に用いられるボタン(アイコン)および/または入力デバイス14からの入力に応じた各種マーク等を表示デバイス13表示させることもできる。 In the display area processing, the display processing unit 11b converts the image display area on the screen of the display device 13 into a first display area and a second display area, specifically, a three-dimensional image display area 100a, as shown in FIG. and two-dimensional image display area 100b. The display processing unit 11b can also cause the display device 13 to display buttons (icons) used for input operations using the input device 14 and/or various marks according to inputs from the input device 14.

表示領域内での画像表示についての処理では、図3に示すように、三次元画像表示領域100aに、データ格納部12に格納されているボリュームデータセットから作成された三次元画像300を表示させると同時に、二次元画像表示領域100bに、三次元画像300上で特定された位置に対応する二次元画像200を、データ格納部12に格納されているボリュームデータセットから作成し、表示させる処理を行う。 In the process of displaying an image within the display area, as shown in FIG. 3, a three-dimensional image 300 created from the volume data set stored in the data storage unit 12 is displayed in the three-dimensional image display area 100a. At the same time, a process is performed in which a two-dimensional image 200 corresponding to the position specified on the three-dimensional image 300 is created from the volume data set stored in the data storage unit 12 and displayed in the two-dimensional image display area 100b. conduct.

補助画像処理部11cは、二次元画像表示領域100bに表示されている二次元画像200の表示および三次元画像表示領域100aに表示されている三次元画像300への補助画像の表示の処理を行うものであり、特に、二次元画像200および三次元画像300の少なくとも一方に含まれる情報から補助画像を作成し、その補助画像を二次元画像200および三次元画像300の他方に表示させる処理を行うことができるように構成されている。この処理は、入力デバイス14が受け付けた入力に従った処理であってもよいし、入力デバイス14からの入力とは無関係に予め設定された手順に従った処理であってもよい。 The auxiliary image processing unit 11c performs processing for displaying the two-dimensional image 200 displayed in the two-dimensional image display area 100b and displaying the auxiliary image on the three-dimensional image 300 displayed in the three-dimensional image display area 100a. In particular, it creates an auxiliary image from information included in at least one of the two-dimensional image 200 and the three-dimensional image 300, and displays the auxiliary image on the other of the two-dimensional image 200 and the three-dimensional image 300. It is configured so that it can be done. This process may be a process according to the input received by the input device 14, or may be a process according to a preset procedure regardless of the input from the input device 14.

次に、上述した医用画像処理システム1による画像処理について、医用画像処理システム1をタブレット型の医用画像処理端末10に適用した場合を例に挙げて説明する。以下で説明するタブレット型の医用画像処理端末10は、画像表示制御部11、データ格納部12、表示デバイス13、入力デバイス14およびデータ入出力インターフェース15を1つの筐体に収め、表示デバイス13および入力デバイス14としてタッチパネルを備えた、可搬型の医用画像処理端末10である。 Next, image processing by the above-described medical image processing system 1 will be described using an example in which the medical image processing system 1 is applied to a tablet-type medical image processing terminal 10. A tablet-type medical image processing terminal 10 described below includes an image display control section 11, a data storage section 12, a display device 13, an input device 14, and a data input/output interface 15 in one housing. This is a portable medical image processing terminal 10 equipped with a touch panel as an input device 14.

医用画像処理端末10の電源が入れられ、医用画像処理プログラムが起動されると、以下に述べる一連の処理が、画像表示制御部11によって行われる。 When the medical image processing terminal 10 is powered on and the medical image processing program is started, a series of processes described below are performed by the image display control unit 11.

まず、表示処理部11bが、図2に示すように、医用画像処理端末10の表示デバイス13の画像表示領域を三次元画像表示領域100aと二次元画像表示領域100bとに分けて表示させる。また、表示処理部11bは、操作者による入力操作に用いられる各種アイコンを表示デバイス13に表示させる。表示デバイス13に表示させる各種アイコンとしては、画像データをデータ格納部12から読み出すのに用いられる少なくとも1つのデータ読み出しアイコン111、および入力デバイス14の選択に用いられる入力選択アイコン114等が含まれる。入力選択アイコン114は、入力デバイス14として、タッチパネルの他に、Leapセンサや音声認識ユニット等、他の入力デバイス14が接続されている場合に有効である。 First, as shown in FIG. 2, the display processing unit 11b divides the image display area of the display device 13 of the medical image processing terminal 10 into a three-dimensional image display area 100a and a two-dimensional image display area 100b and displays them. Furthermore, the display processing unit 11b causes the display device 13 to display various icons used for input operations by the operator. Various icons displayed on the display device 13 include at least one data read icon 111 used to read image data from the data storage section 12, an input selection icon 114 used to select the input device 14, and the like. The input selection icon 114 is effective when another input device 14 is connected as the input device 14, such as a Leap sensor or a voice recognition unit in addition to the touch panel.

操作者がデータ読み出しアイコン111をタップすると、この操作が入力判定部11aにて判定される。表示処理部11bは、データ格納部12からボリュームデータセットを読み出し、図3に示すように、二次元画像200および三次元画像300を作成し、それぞれ断面再構成処理あるいはレンダリング処理といった適宜処理を施し、二次元画像表示領域100bおよび三次元画像表示領域100aに表示させる。二次元画像表示領域100bに表示される二次元画像200は、三次元画像表示領域100aに表示される三次元画像300中の特定された位置に対応する二次元画像200である。 When the operator taps the data read icon 111, this operation is determined by the input determination section 11a. The display processing unit 11b reads the volume data set from the data storage unit 12, creates a two-dimensional image 200 and a three-dimensional image 300 as shown in FIG. 3, and performs appropriate processing such as cross-sectional reconstruction processing or rendering processing, respectively. , are displayed in the two-dimensional image display area 100b and the three-dimensional image display area 100a. The two-dimensional image 200 displayed in the two-dimensional image display area 100b is the two-dimensional image 200 corresponding to the specified position in the three-dimensional image 300 displayed in the three-dimensional image display area 100a.

このとき表示される三次元画像300の向き(被験者の前後方向から見た画像か、被験者の左右方向から見た画像か、または被験者の体軸方向から見た画像か)は、表示処理部11bによって予め定められていてもよいし、入力デバイス14から入力されるようにしてもよい。また、二次元画像200は、三次元画像300中の特定された位置に対応するものであるが、三次元画像300中のどの位置に対応するか、およびどの方向の断面か(被験者の体軸方向に垂直なアキシャル断面か、被験者の左右方向に垂直なサジタル断面か、または被験者の前後方向に垂直なコロナル断面か)は、表示処理部11bによって予め定められていてもよいし、入力デバイス14から入力されるようにしてもよい。一例として、三次元画像300は、被験者の正面から見た画像が表示され、二次元画像200は、三次元画像300の中心を通るアキシャル断面が表示されるように定めることができる。なお、三次元画像300の向きおよび二次元画像200の断面は、表示デバイス13に表示された表示切り替えアイコン112、113をタップすることによって任意に切り替えることができる。 The orientation of the three-dimensional image 300 displayed at this time (the image viewed from the front and rear directions of the subject, the image viewed from the left and right directions of the subject, or the image viewed from the body axis direction of the subject) is determined by the display processing unit 11b. It may be predetermined by , or may be input from the input device 14 . In addition, the two-dimensional image 200 corresponds to a specified position in the three-dimensional image 300, but it is also important to know which position in the three-dimensional image 300 it corresponds to and in which direction the cross section is taken (the body axis of the subject). The display processing unit 11b may predetermine whether the cross section is an axial cross section perpendicular to the subject, a sagittal cross section perpendicular to the left-right direction of the subject, or a coronal cross section perpendicular to the front-back direction of the subject. It may also be input from . As an example, the three-dimensional image 300 can be determined so that an image seen from the front of the subject is displayed, and the two-dimensional image 200 can be determined so that an axial section passing through the center of the three-dimensional image 300 is displayed. Note that the orientation of the three-dimensional image 300 and the cross-section of the two-dimensional image 200 can be arbitrarily switched by tapping the display switching icons 112 and 113 displayed on the display device 13.

また、表示処理部11bは、三次元画像表示領域100aに表示された三次元画像300および二次元画像領域100bに表示された二次元画像200の表示を、それぞれ個別に、または互いに連動して、および入力デバイス14からの入力に応じて、または予め定められた設定に従って処理する。以下、表示の処理のいくつかの例について説明する。 Further, the display processing unit 11b displays the three-dimensional image 300 displayed in the three-dimensional image display area 100a and the two-dimensional image 200 displayed in the two-dimensional image area 100b, individually or in conjunction with each other, and processes according to input from the input device 14 or according to predetermined settings. Some examples of display processing will be described below.

(三次元画像の回転、拡大・縮小、平行移動等)
三次元画像表示領域100aに表示されている三次元画像300は、入力デバイス14による所定の入力操作によって、任意の方向への回転、拡大・縮小、平行移動等、表示の変更が可能である。これらの表示の変更には、入力デバイス14がタッチパネルである場合、タッチパネル特有の操作を利用することができる。この操作が入力判定部11aで判定され、これによって表示処理部11bは、入力判定部11aでの判定結果に応じて、三次元画像300の表示を変更する。表示の変更としては、例えば、スワイプ操作によりスワイプ方向に応じて三次元画像300を回転させること、ピンチイン・ピンチアウト操作による三次元画像300の縮小・拡大などが挙げられる。また、2点をタッチした状態でスライドすることによって三次元画像300を平行移動させることもできる。
(Rotation, enlargement/reduction, parallel movement of three-dimensional images, etc.)
The display of the three-dimensional image 300 displayed in the three-dimensional image display area 100a can be changed by performing a predetermined input operation using the input device 14, such as rotation in any direction, enlargement/reduction, translation, etc. When the input device 14 is a touch panel, operations specific to the touch panel can be used to change these displays. This operation is determined by the input determination section 11a, and the display processing section 11b changes the display of the three-dimensional image 300 according to the determination result by the input determination section 11a. Examples of display changes include rotating the three-dimensional image 300 according to the swipe direction using a swipe operation, and reducing or enlarging the three-dimensional image 300 using a pinch-in/pinch-out operation. Furthermore, the three-dimensional image 300 can also be moved in parallel by sliding while touching two points.

(二次元画像の断面位置変更、拡大・縮小等)
二次元画像表示領域100bに表示されている二次元画像200も、入力デバイス14による所定の入力操作によって、三次元画像300と同様、断面位置の変更、拡大・縮小等、表示の変更が可能である。表示の変更として、例えば、二次元画像表示領域100b内の特定の領域(右端部など)で上下方向にスワイプ操作することによって、表示される二次元画像200が表す断面位置を変更することなどが挙げられる。また、三次元画像300と同様、ピンチイン・ピンチアウト動作によって二次元画像200を縮小・拡大表示させることも可能である。
(Changing the cross-sectional position of two-dimensional images, enlarging/reducing, etc.)
Similarly to the three-dimensional image 300, the display of the two-dimensional image 200 displayed in the two-dimensional image display area 100b, such as changing the cross-sectional position and enlarging/reducing, can be changed by predetermined input operations using the input device 14. be. As a display change, for example, the cross-sectional position represented by the displayed two-dimensional image 200 may be changed by performing a vertical swipe operation on a specific area (such as the right edge) within the two-dimensional image display area 100b. Can be mentioned. Further, similarly to the three-dimensional image 300, the two-dimensional image 200 can be displayed in a reduced or enlarged manner by pinch-in/pinch-out operations.

補助画像処理部11cは、二次元画像200および三次元画像300の少なくとも一方に含まれる情報から補助画像を作成し、作成した補助画像を二次元画像200および三次元画像300の他方に表示させる処理を行う。以下に、補助画像処理部11cによる処理のいくつかの例について説明する。 The auxiliary image processing unit 11c creates an auxiliary image from information included in at least one of the two-dimensional image 200 and the three-dimensional image 300, and displays the created auxiliary image on the other of the two-dimensional image 200 and the three-dimensional image 300. I do. Some examples of processing by the auxiliary image processing section 11c will be described below.

(二次元画像での特定の解剖学的構造のカラー表示)
一般に、三次元画像300は、解剖学的構造ごとに設定された複数のレイヤーで構成されており、座標情報の他に、これらレイヤーを示す情報である複数のレイヤー情報、およびレイヤーごと(解剖学的構造ごと)に異なる色相情報を持っている。これらの情報は、ボリュームデータセットから三次元画像300を作成した際に、ボリュームデータセットの各ボクセルから引き継いだ情報である。表示処理部11bは、これらの情報に従って三次元画像表示領域100aに三次元画像300を表示させる。したがって、三次元画像300は、レイヤーごとに異なる色相で表示される。
(Color display of specific anatomical structures in two-dimensional images)
In general, the three-dimensional image 300 is composed of multiple layers set for each anatomical structure, and in addition to coordinate information, multiple layer information indicating these layers and each layer (anatomical Each structure has different hue information. These pieces of information are information inherited from each voxel of the volume data set when the three-dimensional image 300 is created from the volume data set. The display processing unit 11b displays the three-dimensional image 300 in the three-dimensional image display area 100a according to this information. Therefore, the three-dimensional image 300 is displayed in different hues for each layer.

一方、二次元画像200は、例えばCT値の大小に応じた濃淡で表されるモノクロ画像である。このような二次元画像200において、複雑に配置された様々な解剖学的構造が表示されていると、二次元画像200の読影が困難になることがある。 On the other hand, the two-dimensional image 200 is a monochrome image represented by gradation depending on the magnitude of the CT value, for example. If such a two-dimensional image 200 displays various anatomical structures arranged in a complicated manner, it may become difficult to interpret the two-dimensional image 200.

そこで、補助画像処理部11cは、図3および図4に示すように、少なくとも1つのレイヤー301、302についての二次元画像201、202を補助画像として作成する。ここで作成する二次元画像201、202は、三次元画像300上で特定された位置に対応する二次元画像、すなわち二次元画像表示領域100bに表示されている二次元画像200と同じ断面での、各レイヤー301、302についての二次元画像201、202である。また、これら二次元画像201、202は、それぞれ対応するレイヤー301、302に設定される色相と同じ色相で表示されている。補助画像処理部11cは、作成した二次元画像201、202を、二次元画像表示領域100bに表示されている二次元画像200上に重ね合わせる。 Therefore, the auxiliary image processing unit 11c creates two-dimensional images 201 and 202 for at least one layer 301 and 302 as auxiliary images, as shown in FIGS. 3 and 4. The two-dimensional images 201 and 202 created here are two-dimensional images corresponding to the positions specified on the three-dimensional image 300, that is, images in the same cross section as the two-dimensional image 200 displayed in the two-dimensional image display area 100b. , two-dimensional images 201 and 202 for each layer 301 and 302. Furthermore, these two-dimensional images 201 and 202 are displayed in the same hue as the hue set in the corresponding layers 301 and 302, respectively. The auxiliary image processing unit 11c superimposes the created two-dimensional images 201 and 202 on the two-dimensional image 200 displayed in the two-dimensional image display area 100b.

以上の処理により、二次元画像200の特定の解剖学的構造が三次元画像300と同じ色相で表示されるので、二次元画像200での解剖学的構造の区別を視覚的に容易に行えるようになる。二次元画像200上に補助画像として表示するレイヤーは、予め定められていてもよいし、入力デバイス14によって入力されるようにしてもよい。 Through the above processing, specific anatomical structures in the two-dimensional image 200 are displayed in the same hue as the three-dimensional image 300, so that the anatomical structures in the two-dimensional image 200 can be easily distinguished visually. become. The layer displayed as an auxiliary image on the two-dimensional image 200 may be determined in advance, or may be input using the input device 14.

このような、二次元画像200への補助画像の表示は、脈管系に適用すると特に効果的である。血管は、その走行方向に垂直な断面では略円形として観察される。また、リンパ節もその断面は略円形として観察される。二次元画像200に略円形の解剖学的構造が表示されている場合、それが血管であるかリンパ節であるかを判断するには、二次元画像200をスクロール(断面位置を変更)させなければならない。リンパ節は球状であるのに対して血管はチューブ状であるので、スクロールすることによってその構造の違いを把握できるからである。 Such display of the auxiliary image on the two-dimensional image 200 is particularly effective when applied to the vascular system. Blood vessels are observed as approximately circular in cross section perpendicular to their running direction. Further, the lymph nodes are also observed to have a substantially circular cross section. When a roughly circular anatomical structure is displayed on the two-dimensional image 200, the two-dimensional image 200 must be scrolled (changed in cross-sectional position) in order to determine whether it is a blood vessel or a lymph node. Must be. This is because lymph nodes are spherical while blood vessels are tube-shaped, so by scrolling you can understand the differences in their structures.

そこで、三次元画像300において、動脈系血管に相当するレイヤー301を赤色で表示するとともに、静脈系血管に相当するレイヤー302を青色で表示する場合、レイヤー301に対応する赤色の二次元画像201およびレイヤー302に対応する青色の二次元画像202を二次元画像200に重ねて表示することで、二次元画像200上で動脈系血管と静脈系血管の区別を容易に行うことができる。そして、二次元画像表示領域100bに表示されている二次元画像200に、赤色にも青色にも着色されていない略円形の解剖学的構造が表示されていれば、二次元画像200をスクロールすることなく、その解剖学的構造がリンパ節であると推測することができる。 Therefore, in the three-dimensional image 300, if the layer 301 corresponding to the arterial blood vessels is displayed in red and the layer 302 corresponding to the venous blood vessels is displayed in blue, the red two-dimensional image 201 corresponding to the layer 301 and By displaying the blue two-dimensional image 202 corresponding to the layer 302 over the two-dimensional image 200, arterial blood vessels and venous blood vessels can be easily distinguished on the two-dimensional image 200. If the two-dimensional image 200 displayed in the two-dimensional image display area 100b displays a substantially circular anatomical structure that is not colored red or blue, the two-dimensional image 200 is scrolled. One can safely assume that the anatomical structure is a lymph node.

(二次元画像の断面位置を三次元画像へ表示)
二次元画像200および三次元画像300はそれぞれ被験者の体軸方向、左右方向および前後方向について互いに対応する座標情報を持っている。よって、二次元画像200および三次元画像300の座標情報を利用して、三次元画像表示領域100aに表示されている三次元画像300上で、二次元画像表示領域100bに表示されている二次元画像200に対応する断面位置を表すことができる。
(Display the cross-sectional position of the 2D image on the 3D image)
The two-dimensional image 200 and the three-dimensional image 300 each have coordinate information that corresponds to the subject's body axis direction, left-right direction, and front-back direction. Therefore, by using the coordinate information of the two-dimensional image 200 and the three-dimensional image 300, the two-dimensional image displayed in the two-dimensional image display area 100b is displayed on the three-dimensional image 300 displayed in the three-dimensional image display area 100a. A cross-sectional position corresponding to image 200 can be represented.

その一例を図5に示す。例えば、前述した二次元画像200の断面位置変更で述べた、二次元画像表示領域100b内の特定の領域(右端部など)でスワイプ操作がなされると、入力判定部11aは、スワイプ操作されている位置に応じて、体軸方向についてのみの座標が入力されたと判定する。このような、二次元画像表示領域100bでの任意の座標の入力が入力デバイス14(ここで説明する例ではタッチパネル)からなされると、補助画像処理部11cは、二次元画像表示領域100bに表示されている二次元画像200が表す断面に相当する平面画像310を、補助画像として、三次元画像表示領域100aの、入力された座標を通る位置に表示させる。平面画像310は、解剖学的構造が平面画像310によって隠れてしまわないように、半透明で表示することが好ましい。 An example is shown in FIG. For example, when a swipe operation is performed in a specific area (such as the right edge) in the two-dimensional image display area 100b as described in the above-mentioned change of the cross-sectional position of the two-dimensional image 200, the input determination unit 11a determines that the swipe operation has been performed. Depending on the position, it is determined that coordinates only in the body axis direction have been input. When such arbitrary coordinates in the two-dimensional image display area 100b are input from the input device 14 (touch panel in the example described here), the auxiliary image processing unit 11c displays the coordinates in the two-dimensional image display area 100b. A plane image 310 corresponding to the cross section represented by the two-dimensional image 200 is displayed as an auxiliary image at a position passing through the input coordinates in the three-dimensional image display area 100a. The planar image 310 is preferably displayed semitransparently so that the anatomical structure is not hidden by the planar image 310.

このように、二次元画像200が表す断面に相当する平面画像310を三次元画像表示領域100aに表示することで、二次元画像表示領域100bに表示されている二次元画像200が、三次元画像表示領域100aに表示されている三次元画像300のどの位置での断面を表しているかを直感的に把握することができる。 In this way, by displaying the plane image 310 corresponding to the cross section represented by the two-dimensional image 200 in the three-dimensional image display area 100a, the two-dimensional image 200 displayed in the two-dimensional image display area 100b becomes a three-dimensional image. It is possible to intuitively understand which position of the three-dimensional image 300 displayed in the display area 100a represents the cross section.

三次元画像表示領域100aには、上述した平面画像310と併せて、この平面画像310が通る断面での解剖学的構造の輪郭部に相当する位置にハイライト輪郭画像311を、補助画像としてさらに表示させてもよい。より詳しくは、二次元画像表示領域100bでの任意の座標の入力がなされると、補助画像処理部11cは、三次元画像表示領域100aに表示されている三次元画像300の、二次元画像表示領域100bに表示されている二次元画像200が表す断面での解剖学的構造の輪郭部を、この解剖学的構造の他の部分と異なる色相で表示させる。このように、解剖学的構造の輪郭部をハイライト表示させることによって、上述した効果をより良好に発揮することができる。「ハイライト表示」とは、対象となる解剖学的構造の色とは異なる、視覚的に区別可能な色相で表示することを意味する。 In the three-dimensional image display area 100a, in addition to the above-described planar image 310, a highlight contour image 311 is also displayed as an auxiliary image at a position corresponding to the contour of the anatomical structure in the cross section through which the planar image 310 passes. It may be displayed. More specifically, when arbitrary coordinates are input in the two-dimensional image display area 100b, the auxiliary image processing unit 11c displays a two-dimensional image of the three-dimensional image 300 displayed in the three-dimensional image display area 100a. The outline of the anatomical structure in the cross section represented by the two-dimensional image 200 displayed in the area 100b is displayed in a different hue from the other parts of the anatomical structure. By highlighting the outline of the anatomical structure in this manner, the above-mentioned effects can be better exhibited. "Highlighting" means displaying in a visually distinguishable hue that is different from the color of the target anatomical structure.

上述した例では、二次元画像表示領域100b上の特定の領域での入力操作によって、体軸方向の座標が入力される場合を説明したが、二次元画像200上をスワイプ操作すると、入力判定部11aは、スワイプ操作されている位置に応じて、左右方向(x軸方向)、前後方向(y軸方向)および体軸方向(z軸方向)についての座標情報が入力されたと判定する。このように二次元画像200上で任意の座標が入力された場合、補助画像処理部11cは、図5Aに示すように、三次元画像表示領域100aに表示されている三次元画像300の、入力された座標に対応する位置に、補助画像としてカーソル320を表示させる。これにより、二次元画像200上で特定された位置が三次元画像300上のどの位置に対応するかを直感的に把握することができる。 In the example described above, a case was explained in which coordinates in the body axis direction are input by inputting an input operation in a specific area on the two-dimensional image display area 100b, but when a swipe operation is performed on the two-dimensional image 200, the input determination unit 11a determines that coordinate information in the left-right direction (x-axis direction), front-back direction (y-axis direction), and body axis direction (z-axis direction) has been input according to the position where the swipe operation is performed. When arbitrary coordinates are input on the two-dimensional image 200 in this way, the auxiliary image processing unit 11c inputs the three-dimensional image 300 displayed in the three-dimensional image display area 100a, as shown in FIG. 5A. A cursor 320 is displayed as an auxiliary image at a position corresponding to the coordinates. Thereby, it is possible to intuitively understand which position on the three-dimensional image 300 the position specified on the two-dimensional image 200 corresponds to.

この場合、補助画像処理部11cは、二次元画像200上に、入力されている座標の、左右方向(x軸方向)での位置を表す線分210および前後方向(y軸方向)での位置を表す線分211を表示させることが好ましい。これら線分210、211の交点が、入力されている座標を示す。これにより、二次元画像200と三次元画像300との対応を視覚的に把握することができる。 In this case, the auxiliary image processing unit 11c displays a line segment 210 representing the position in the left-right direction (x-axis direction) and a position in the front-back direction (y-axis direction) of the input coordinates on the two-dimensional image 200. It is preferable to display a line segment 211 representing . The intersection of these line segments 210 and 211 indicates the input coordinates. This makes it possible to visually understand the correspondence between the two-dimensional image 200 and the three-dimensional image 300.

上述した、座標情報を利用した、平面画像310の表示、ハイライト輪郭画像311の表示、およびカーソル320の表示等は、それぞれ単独で行われるようにしてもよいし、2つ以上を組み合わせてもよい。 The above-mentioned display of the plane image 310, display of the highlight contour image 311, display of the cursor 320, etc. using coordinate information may be performed individually, or two or more may be performed in combination. good.

(複数の入力の並行処理)
入力デバイス14がタッチパネルである場合など、入力デバイス14が同時に複数の入力を受け付けることができる場合、画像表示制御部11は、二次元画像に関する入力および三次元画像に関する入力に従った処理を並行して実行することができる。以下、入力デバイス14がタッチパネルである場合の、複数の入力のへ並列処理の一例について説明する。
(Parallel processing of multiple inputs)
When the input device 14 can accept multiple inputs at the same time, such as when the input device 14 is a touch panel, the image display control unit 11 performs processing in parallel according to the input regarding the two-dimensional image and the input regarding the three-dimensional image. can be executed. An example of parallel processing of a plurality of inputs when the input device 14 is a touch panel will be described below.

医療画像処理端末10は、二次元画像表示領域100b上でのタッチパネルからの入力が受け付けられている状態で、さらに、三次元画像表示領域100a上でのタッチパネルの入力を受け付けることができるように構成される。画像表示制御部11は、二次元画像表示領域100bおよび三次元画像表示領域100aの両方からの入力を受け付けると、それぞれが受け付けた入力に従った所定の処理を同時に実行することができる。二次元画像表示領域100b上での入力が受け付けられている状態とは、二次元画像表示領域100b上で操作者によってタッチおよびスライドなどタッチパネルの操作が行なわれている状態を意味する。 The medical image processing terminal 10 is configured to be able to accept input from the touch panel on the two-dimensional image display area 100b and further receive input from the touch panel on the three-dimensional image display area 100a. be done. When the image display control unit 11 receives input from both the two-dimensional image display area 100b and the three-dimensional image display area 100a, it can simultaneously execute predetermined processes according to the inputs received by each. The state in which input is being accepted on the two-dimensional image display area 100b means the state in which the operator is performing touch panel operations such as touching and sliding on the two-dimensional image display area 100b.

例えば、図5Bに示すように、操作者が二次元画像表示領域100b上の任意の位置をタッチすることによって二次元画像表示領域100b上の座標を指定すると、前述したように、補助画像処理部11cは、平面画像310、ハイライト輪郭画像311、カーソル320などの補助画像の少なくとも1つを三次元画像領域100a上に表示させる。また、補助画像処理部11cは、指定した座標の位置を表す線分210、211を二次元画像表示領域100b上に表示させる。 For example, as shown in FIG. 5B, when the operator specifies coordinates on the two-dimensional image display area 100b by touching any position on the two-dimensional image display area 100b, the auxiliary image processing unit 11c displays at least one of auxiliary images such as a flat image 310, a highlighted contour image 311, and a cursor 320 on the three-dimensional image area 100a. Further, the auxiliary image processing unit 11c displays line segments 210 and 211 representing the specified coordinate position on the two-dimensional image display area 100b.

この状態で、操作者が三次元画像表示領域100a上で三次元画像の回転、拡大、縮小または平行移動などのための操作が入力として受け付けられると、画像表示制御部11は、三次元画像表示領域100aに補助画像の少なくとも1つを表示させながら、操作者による三次元画像表示領域100a上での操作に従った、三次元画像表示領域100a上に表示されている三次元画像の回転、拡大、縮小、または平行移動を含む処理を実行する。このとき、補助画像処理部11cは、例えば図5C~5Dに示すように、三次元画像表示領域100aに表示する補助画像(平面画像310、ハイライト輪郭画像311、カーソル320など)の位置を、三次元画像の回転、拡大、縮小または平行移動に対応して移動させる。 In this state, when the operator receives an input for rotating, enlarging, reducing or parallelly moving the three-dimensional image on the three-dimensional image display area 100a, the image display control unit 11 controls the three-dimensional image display area 100a. Rotating and enlarging the three-dimensional image displayed on the three-dimensional image display area 100a according to the operation on the three-dimensional image display area 100a by the operator while displaying at least one of the auxiliary images on the area 100a. Perform operations involving , reduction, or translation. At this time, the auxiliary image processing unit 11c determines the position of the auxiliary images (plane image 310, highlight outline image 311, cursor 320, etc.) displayed in the three-dimensional image display area 100a, as shown in FIGS. 5C to 5D, for example. Move the three-dimensional image in response to rotation, enlargement, reduction, or translation.

図5B~5Dに示した例では、二次元画像表示領域100b上での入力が変更されない場合を示した。しかし、二次元画像表示領域100b上での入力の変更を受け付けながら、三次元画像表示領域100a上での入力を受け付けることもできる。この場合も、画像表示制御部11は、二次元画像表示領域100b上での入力の変更に従った所定の処理の実行と、三次元画像表示領域100a上での入力に従った所定の処理を同時に実行することができる。ここで、二次元画像表示領域100b上での入力の変更は、座標位置の変更および前述した断面位置の変更等を含む。 In the examples shown in FIGS. 5B to 5D, the input on the two-dimensional image display area 100b is not changed. However, it is also possible to accept inputs on the three-dimensional image display area 100a while accepting changes in inputs on the two-dimensional image display area 100b. In this case as well, the image display control unit 11 executes a predetermined process according to a change in the input on the two-dimensional image display area 100b and a predetermined process according to the input on the three-dimensional image display area 100a. Can be executed simultaneously. Here, changing the input on the two-dimensional image display area 100b includes changing the coordinate position, changing the cross-sectional position described above, and the like.

(表示する二次元画像を三次元画像上で指定)
ここまで説明した例は、二次元画像表示領域100bに表示される二次元画像200の変更が、二次元画像表示領域100b内での入力操作等、二次元画像200に対する入力によるものであった。しかし、三次元画像300および二次元画像200は互いに対応する位置情報を持っているので、三次元画像300における座標の入力によって、補助画像として任意の二次元画像200を表示させることもできる。以下に、その一例を、図6および図6Aを参照して説明する。
(Specify the 2D image to be displayed on the 3D image)
In the example described so far, the two-dimensional image 200 displayed in the two-dimensional image display area 100b is changed by input to the two-dimensional image 200, such as an input operation within the two-dimensional image display area 100b. However, since the three-dimensional image 300 and the two-dimensional image 200 have position information that corresponds to each other, any two-dimensional image 200 can also be displayed as an auxiliary image by inputting coordinates in the three-dimensional image 300. An example will be described below with reference to FIGS. 6 and 6A.

まず、操作者が三次元画像表示領域100aに表示されている三次元画像300の解剖学的構造上の任意の座標を入力デバイス14により入力する。座標の入力は、入力デバイス14がタッチパネルである場合、三次元画像300上の任意の位置をタップすると、その操作を入力判定部11aが、タップした位置での座標が入力されたと判定することによって行うことができる。座標が入力されると、補助画像処理部11cは、入力された座標を含む二次元画像データをデータ格納部12から読み出し、図6に示すように、読み出した二次元画像データから作成した二次元画像のサムネイル400を補助画像として表示デバイス13に表示させる。 First, the operator inputs arbitrary coordinates on the anatomical structure of the three-dimensional image 300 displayed in the three-dimensional image display area 100a using the input device 14. When the input device 14 is a touch panel, when the input device 14 is a touch panel, when an arbitrary position on the three-dimensional image 300 is tapped, the input determination unit 11a determines that the coordinates at the tapped position have been input. It can be carried out. When the coordinates are input, the auxiliary image processing unit 11c reads two-dimensional image data including the input coordinates from the data storage unit 12, and as shown in FIG. The thumbnail 400 of the image is displayed on the display device 13 as an auxiliary image.

サムネイル400は、入力された座標を含む断面における解剖学的構造全体を表す必要はなく、入力された座標を中心とする所定の範囲の二次元画像であってよい。サムネイル400として表示される範囲の大きさは、予め設定しておくことができる。またサムネイル400は、既に表示されている二次元画像200および三次元画像300と区別できるよう、三次元画像表示領域100aおよび二次元画像表示領域100bとは別の領域に表示されることが好ましい。図6に示す例では、サムネイル400は、三次元画像表示領域100aと二次元画像表示領域100bとの間に、三次元画像表示領域100aおよび二次元画像表示領域100bにオーバーラップさせて表示されている。なお、入力された座標の三次元画像300上での位置を操作者が認識できるように、補助画像処理部11cは、三次元画像300上の入力された座標に対応する位置にポインタ330を表示させることが好ましい。 The thumbnail 400 does not need to represent the entire anatomical structure in a cross section including the input coordinates, and may be a two-dimensional image of a predetermined range centered on the input coordinates. The size of the range displayed as the thumbnail 400 can be set in advance. Furthermore, it is preferable that the thumbnail 400 be displayed in a different area from the three-dimensional image display area 100a and the two-dimensional image display area 100b so that it can be distinguished from the two-dimensional image 200 and three-dimensional image 300 that are already displayed. In the example shown in FIG. 6, the thumbnail 400 is displayed between the three-dimensional image display area 100a and the two-dimensional image display area 100b, overlapping the three-dimensional image display area 100a and the two-dimensional image display area 100b. There is. Note that the auxiliary image processing unit 11c displays a pointer 330 at a position corresponding to the input coordinates on the three-dimensional image 300 so that the operator can recognize the position of the input coordinates on the three-dimensional image 300. It is preferable to let

表示されたサムネイル400を承認する場合、操作者は入力デバイス14からその旨の入力を行う。入力デバイス14がタッチパネルである場合は、サムネイル400をタップすると、その操作を入力判定部11aが、サムネイル400を承認する意味を表す入力がなされたと判定し、これによってサムネイル400を承認する入力を行うことができる。サムネイル400を承認しない場合は、再び座標の入力を行う。 When approving the displayed thumbnail 400, the operator makes an input to that effect from the input device 14. When the input device 14 is a touch panel, when the thumbnail 400 is tapped, the input determination unit 11a determines that the input indicating approval of the thumbnail 400 has been made, and thereby performs an input to approve the thumbnail 400. be able to. If the thumbnail 400 is not approved, the coordinates are input again.

サムネイルが承認されると、補助画像処理部11cは、図6Aに示すように、サムネイルの表示を削除し、サムネイルとして表示されていた二次元画像200を二次元画像表示領域100bに表示させる。以上により、三次元画像300上で指定した座標での二次元画像200を表示させることができる。このように、二次元画像表示領域100bに表示させる二次元画像200を三次元画像300上で指定できるようにすることによって、所望の位置での二次元画像200をより簡単に表示させることができる。このような処理は、三次元画像300において気になる箇所を二次元画像200で詳細に確認したい場合に特に有効である。 When the thumbnail is approved, the auxiliary image processing unit 11c deletes the thumbnail display and displays the two-dimensional image 200 displayed as the thumbnail in the two-dimensional image display area 100b, as shown in FIG. 6A. As described above, it is possible to display the two-dimensional image 200 at the specified coordinates on the three-dimensional image 300. In this way, by allowing the two-dimensional image 200 to be displayed in the two-dimensional image display area 100b to be specified on the three-dimensional image 300, it is possible to more easily display the two-dimensional image 200 at a desired position. . Such processing is particularly effective when it is desired to check in detail a point of interest in the three-dimensional image 300 using the two-dimensional image 200.

二次元画像表示領域100bに表示させる二次元画像200を三次元画像300上で指定できるようにした場合、三次元画像300として表示される解剖学的構造のサイズ等によっては、意図した座標の指定が難しいことがある。そこで、例えば図7に示すように、三次元画像300の解剖学的構造上の任意の座標が指定(入力)されたとき、補助画像処理部11cは、指定された座標を含む解剖学的構造を半透明で表示させるようにすることが好ましい。これにより、指定した座標が意図した座標であるかどうかを容易に確認することができる。 When the two-dimensional image 200 to be displayed in the two-dimensional image display area 100b can be specified on the three-dimensional image 300, depending on the size of the anatomical structure displayed as the three-dimensional image 300, the intended coordinates may be specified. can be difficult. For example, as shown in FIG. 7, when arbitrary coordinates on the anatomical structure of the three-dimensional image 300 are specified (input), the auxiliary image processing unit 11c processes the anatomical structure including the specified coordinates. It is preferable to display it semi-transparently. This allows you to easily check whether the specified coordinates are the intended coordinates.

(三次元画像での解剖学的構造等の半透明表示)
補助画像処理部11cは、図5、図5Aおよび図7に示すように、三次元画像表示領域100aに表示される画像の一部を半透明で表示させることができる。図5および図5Aでは、二次元画像200が表す断面の位置を示す平面画像310、および三次元画像300として表示される解剖学的構造のうち平面画像310よりも下方の部分が半透明で表示されている。また、図7では、三次元画像300として表示される解剖学的構造のうち指定された解剖学的構造が半透明で表示されている。このように、三次元画像300において特定の表示を半透明で表示することで、解剖学的構造の状態等を容易に把握することができる。
(Semi-transparent display of anatomical structures, etc. in three-dimensional images)
The auxiliary image processing unit 11c can display a part of the image displayed in the three-dimensional image display area 100a semitransparently, as shown in FIGS. 5, 5A, and 7. 5 and 5A, a planar image 310 showing the position of the cross section represented by the two-dimensional image 200, and a portion of the anatomical structure displayed as the three-dimensional image 300 below the planar image 310 are displayed as translucent. has been done. Further, in FIG. 7, a specified anatomical structure among the anatomical structures displayed as the three-dimensional image 300 is displayed in a semi-transparent manner. In this way, by displaying a specific display semitransparently in the three-dimensional image 300, the state of the anatomical structure, etc. can be easily understood.

(画像表示領域のサイズ変更)
画像表示制御部11は、入力デバイス14からの入力に応じて、三次元画像表示領域100aおよび二次元画像表示領域100bのサイズを任意に変更するサイズ変更処理を行うようにしてもよい。サイズの変更について、入力デバイス14がタッチパネルである場合を例に挙げて説明する。
(Changing the size of the image display area)
The image display control unit 11 may perform size change processing to arbitrarily change the sizes of the three-dimensional image display area 100a and the two-dimensional image display area 100b in response to input from the input device 14. Changing the size will be explained using an example in which the input device 14 is a touch panel.

表示処理部11bは、図8Aに示すように、三次元画像表示領域100aと二次元画像表示領域100bとの境界部に、サイズ変更用アイコン115を表示させる。操作者は、入力デバイス14からの入力としてサイズ変更用アイコン115を左右方向にスワイプ操作すると、入力判定部11aはこの操作を画像表示領域のサイズ変更のための入力操作であると判定する。表示処理部11bは、その入力操作に応じて、具体的にはスワイプ操作方向に応じて、サイズ変更用アイコン115の表示位置を変更し、図8Aおよび図8Bに示すように、サイズ変更用アイコン115の位置が、三次元画像表示領域100aと二次元画像表示領域100bとの境界部となるように、三次元画像表示領域100aおよび二次元画像表示領域100bのサイズを変更する。また、それと同時に、補助画像処理部11cは、変更された三次元画像表示領域100aのサイズに合わせて三次元画像300のサイズを変更し、二次元画像表示領域100bのサイズに合わせて二次元画像200のサイズを変更する。このようなサイズの変更は、三次元画像300または二次元画像200を詳細に確認したい場合などに有効である。 The display processing unit 11b displays a size change icon 115 at the boundary between the three-dimensional image display area 100a and the two-dimensional image display area 100b, as shown in FIG. 8A. When the operator performs a swipe operation on the size change icon 115 in the left/right direction as an input from the input device 14, the input determination unit 11a determines this operation as an input operation for changing the size of the image display area. The display processing unit 11b changes the display position of the size change icon 115 according to the input operation, specifically, according to the swipe operation direction, and changes the size change icon 115 as shown in FIGS. 8A and 8B. The sizes of the three-dimensional image display area 100a and the two-dimensional image display area 100b are changed so that the position 115 becomes the boundary between the three-dimensional image display area 100a and the two-dimensional image display area 100b. At the same time, the auxiliary image processing unit 11c changes the size of the three-dimensional image 300 according to the changed size of the three-dimensional image display area 100a, and changes the size of the two-dimensional image 300 according to the size of the two-dimensional image display area 100b. Change the size of 200. Such a size change is effective when it is desired to check the three-dimensional image 300 or the two-dimensional image 200 in detail.

(表示に関する様々な機能)
医用画像処理システム1は、画像処理制御部11が実行する機能として、上述した以外にも、表示に関する様々な機能を持つことができる。これらの機能は、二次元画像および三次元画像がそれぞれ別個に持つこともできる。複数の機能を持つ場合、画像表示制御部11は、各種機能を呼び出すためのそれぞれの機能に対応した複数のアイコンを含む機能呼び出しアイコン群を表示デバイス13に表示させるように構成されることができる。この場合、三次元画像表示領域100aおよび二次元画像表示領域100bの十分な有効表示領域を確保するため、画像表示制御部11は、通常は機能呼び出しアイコン群を非表示とし、必要に応じて表示させるようにすることが好ましい。
(Various functions related to display)
The medical image processing system 1 can have various display-related functions in addition to those described above as functions executed by the image processing control unit 11. The two-dimensional image and the three-dimensional image can each have these functions separately. When having multiple functions, the image display control unit 11 can be configured to cause the display device 13 to display a function call icon group including a plurality of icons corresponding to the respective functions for calling various functions. . In this case, in order to ensure a sufficient effective display area of the three-dimensional image display area 100a and the two-dimensional image display area 100b, the image display control unit 11 normally hides the function call icon group and displays it as necessary. It is preferable that the

そのために、画像表示制御部11は、例えば図9に示すように、三次元画像表示領域100aおよび二次元画像表示領域100bに、それぞれメニューボタンアイコン500a、500bを表示させることができる。操作者がこれらメニューボタンアイコン500a、500bをタップすると、画像表示制御部11は、三次元画像表示領域100aおよび二次元画像表示領域100bに、機能呼び出しアイコン群を表示させる。ユーザがアイコン群の中から所望のアイコンをタップすることによって、タップされたアイコンに対応する機能が選択される。 To this end, the image display control unit 11 can display menu button icons 500a and 500b in the three-dimensional image display area 100a and the two-dimensional image display area 100b, respectively, as shown in FIG. 9, for example. When the operator taps these menu button icons 500a and 500b, the image display control unit 11 displays a group of function call icons in the three-dimensional image display area 100a and the two-dimensional image display area 100b. When the user taps a desired icon from the icon group, a function corresponding to the tapped icon is selected.

医用画像処理システム1が持つことのできる、表示に関する機能の種類および数は特に制限されず、任意であってよい。表示に関する機能の幾つかの例を以下に説明する。 The type and number of display-related functions that the medical image processing system 1 can have are not particularly limited and may be arbitrary. Some examples of display-related functions are described below.

(1)リバート機能
前述したように、三次元画像は、表示される向きおよびサイズを任意に変更することができ、また、二次元画像は、表示される断面位置およびサイズを任意に変更することができる。リバート機能とは、三次元画像および/または二次元画像の表示を初期化する機能である。表示を初期化するとは、表示処理部11bがデータ格納部12からデータセットを読み出し、適宜処理を実行して、三次元画像表示領域100aおよび二次元画像表示領域100bに最初に表示する初期画像を表示させることを意味する。
(1) Revert function As mentioned above, the displayed orientation and size of a three-dimensional image can be changed arbitrarily, and the displayed cross-sectional position and size of a two-dimensional image can be changed arbitrarily. Can be done. The revert function is a function that initializes the display of a three-dimensional image and/or a two-dimensional image. Initializing the display means that the display processing unit 11b reads the data set from the data storage unit 12, executes appropriate processing, and creates an initial image to be displayed first in the three-dimensional image display area 100a and the two-dimensional image display area 100b. It means to display.

図9Aに示すように、三次元画像表示領域100aおよび二次元画像表示領域100bにそれぞれリバートアイコン520、560が表示される。三次元画像表示領域100a上のリバートアイコン520がタップされると、画像表示制御部11は、三次元画像に対してリバート機能を実行する。二次元画像表示猟奇100b上のリバートアイコン560がタップされると、画像表示制御部11は、二次元画像に対してリバート機能を実行する。 As shown in FIG. 9A, revert icons 520 and 560 are displayed in the three-dimensional image display area 100a and the two-dimensional image display area 100b, respectively. When the revert icon 520 on the three-dimensional image display area 100a is tapped, the image display control unit 11 executes the revert function on the three-dimensional image. When the revert icon 560 on the two-dimensional image display device 100b is tapped, the image display control unit 11 performs a revert function on the two-dimensional image.

三次元画像表示領域100aまたは二次元画像表示領域100bのいずれか一方のみにリバートアイコン520または560が表示されてもよい。その場合、表示されたリバートアイコン520または560がタップされることによって、三次元画像および二次元画像の両方に対してリバート機能が実行されてもよい。また、画像の初期化に際しては、現在表示されている画像から初期画像へ一気に変化させてもよいし、漸次的に変化させてもよい。現在表示されている画像から初期画像へ漸次的に変化させることで、ユーザは現在表示されている画像と初期画像との対応を容易に把握できる。 The revert icon 520 or 560 may be displayed only in either the three-dimensional image display area 100a or the two-dimensional image display area 100b. In that case, the revert function may be performed on both the three-dimensional image and the two-dimensional image by tapping the displayed revert icon 520 or 560. Furthermore, when initializing the image, the currently displayed image may be changed to the initial image all at once, or may be changed gradually. By gradually changing the currently displayed image to the initial image, the user can easily understand the correspondence between the currently displayed image and the initial image.

(2)クリッピング機能
クリッピング機能とは、三次元画像表示領域100aに表示されている三次元画像の任意の一部を切り抜いて表示する機能である。図9Aに示す形態では、「BBox」と表示されたクリッピングアイコン530がタップされると、画像表示制御部11は、クリッピング処理を実行する。以下に、画像表示制御部11による三次元画像のクリッピング処理の一例を説明する。
(2) Clipping Function The clipping function is a function that cuts out and displays an arbitrary part of the three-dimensional image displayed in the three-dimensional image display area 100a. In the form shown in FIG. 9A, when the clipping icon 530 displayed as "BBox" is tapped, the image display control unit 11 executes the clipping process. An example of a three-dimensional image clipping process by the image display control unit 11 will be described below.

クリッピング処理が実行されると、図10Aに示すように、六面体の内側に解剖学的構造を配置した三次元画像600が、三次元画像表示領域100aに表示される。六面体は、その内側に位置する解剖学的構造をユーザが視認できるよう、半透明で表示される。また、図示した形態では、六面体は各面が長方形で構成された直方体であるが、各面の形状は、解剖学的構造の立体的形状に応じて任意であってよい。なお、ここでの説明では、三次元画像を大きく表示して視覚的な理解を容易にするため、三次元画像表示領域100aのサイズを大きくした状態で説明する。 When the clipping process is executed, as shown in FIG. 10A, a three-dimensional image 600 in which an anatomical structure is arranged inside a hexahedron is displayed in the three-dimensional image display area 100a. The hexahedron is displayed as semi-transparent so that the user can see the anatomical structures located inside the hexahedron. Further, in the illustrated form, the hexahedron is a rectangular parallelepiped with each face being rectangular, but the shape of each face may be arbitrary depending on the three-dimensional shape of the anatomical structure. Note that in the description here, the size of the three-dimensional image display area 100a is enlarged in order to display the three-dimensional image in a large size to facilitate visual understanding.

ユーザが三次元画像600のうちクリッピングしたい1つの面610をタップすると、タップした面610がアクティブとされる。三次元画像600のどの面がアクティブであるかユーザが視覚的に認識できるように、アクティブな面と他の面とを視覚的に区別することが好ましい。視覚的な区別のため、例えば図10Bに示すように、アクティブとされた面610を他の面と異なる色で表示することができる。あるいは、アクティブとされた面610の枠(辺)の色を他の面の枠(辺)と異なる色で表示したり、これらを組み合わせたりすることもできる。 When the user taps one surface 610 of the three-dimensional image 600 that is desired to be clipped, the tapped surface 610 is activated. It is preferable to visually distinguish the active surface from other surfaces so that the user can visually recognize which surface of the three-dimensional image 600 is active. For visual differentiation, the activated surface 610 may be displayed in a different color from the other surfaces, as shown in FIG. 10B, for example. Alternatively, the frame (side) of the active surface 610 may be displayed in a different color from the frames (sides) of other surfaces, or these may be combined.

ユーザが、アクティブとされた面610をタッチしたまま、表示されている三次元画像600のアクティブとされた面610に垂直な方向に対応する方向にスライドさせると、図10Cに示すように、三次元画像600はスライド方向に応じてクリッピングされる。このとき、クリッピングされた面に解剖学的構造が存在する場合、クリッピングされた面では解剖学的構造は断面で表示される。この状態で他の面がタップされると、タップされた他の面がアクティブとされ、上記と同様にして、三次元画像600をさらに他の面でクリッピングすることもできる。 When the user slides the active surface 610 in a direction corresponding to the direction perpendicular to the active surface 610 of the displayed three-dimensional image 600, as shown in FIG. 10C, the three-dimensional The original image 600 is clipped according to the sliding direction. At this time, if an anatomical structure exists on the clipped plane, the anatomical structure is displayed as a cross section on the clipped plane. When another surface is tapped in this state, the other tapped surface becomes active, and the three-dimensional image 600 can also be clipped with another surface in the same manner as described above.

ここでは、三次元画像表示領域100a上に表示される三次元画像の処理について説明したが、三次元画像のクリッピングに対応して、二次元画像表示領域100b上の二次元画像の表示を変更してもよい。例えば、三次元画像をクリッピングすることによって切り取られた部分が二次元画像表示領域100b上に二次元画像として表示されている場合、その切り取られた部分に対応する部分を、非表示としたり、他の色で表示させたりするなど、切り取られていない部分と視覚的に区別できる表示とすることができる。 Here, the processing of the three-dimensional image displayed on the three-dimensional image display area 100a has been described, but the display of the two-dimensional image on the two-dimensional image display area 100b can be changed in response to clipping of the three-dimensional image. It's okay. For example, when a portion cut out by clipping a three-dimensional image is displayed as a two-dimensional image on the two-dimensional image display area 100b, the portion corresponding to the cut portion may be hidden or It is possible to make the display visually distinguishable from the uncut portion, such as by displaying it in a different color.

(3)パースペクティブ表示機能
通常、三次元画像の表示には平行投影(「オーソグラフィック表示」ともいう)が用いられる。各部の寸法比率が正確に描画されるからである。パースペクティブ表示は、三次元画像を透視投影で表した、遠近感を出す表現方法の一つである。
(3) Perspective display function Parallel projection (also called "orthographic display") is usually used to display three-dimensional images. This is because the dimensional ratio of each part is drawn accurately. Perspective display is one of the expression methods that expresses a three-dimensional image using perspective projection to create a sense of perspective.

図9Aに示す形態では、機能選択用アイコンの1つとして、三次元画像を透視投影で表すパースペクティブアングルアイコン540を有する。ユーザがこのパースペクティブアングルアイコン540をタップすると、画像表示制御部11は、図11Aに示すように、三次元画像表示領域100aに画角調整アイコン700を表示させる。ユーザが画角調整アイコン700をタッチしたままスライドさせると、図11Bおよび図11Cに示すように、スライド量に応じて、三次元表示領域100aに表示されている三次元画像の画角が広くなり、近い位置にある部分はより大きく、遠い位置にある部分はより小さく表示される。これによって、三次元画像の遠近感が強調される。この際、画角調整アイコン700のスライド量に応じて、画角調整アイコン700のサイズ(例えば長さ)を変化させることで、パースペクティブ表示の程度をユーザが容易に把握できる。 The form shown in FIG. 9A includes a perspective angle icon 540 that represents a three-dimensional image in perspective projection as one of the function selection icons. When the user taps this perspective angle icon 540, the image display control unit 11 displays a view angle adjustment icon 700 in the three-dimensional image display area 100a, as shown in FIG. 11A. When the user slides the viewing angle adjustment icon 700 while touching it, the viewing angle of the three-dimensional image displayed in the three-dimensional display area 100a becomes wider according to the sliding amount, as shown in FIGS. 11B and 11C. , parts that are closer to each other are displayed larger, and parts that are farther away are displayed smaller. This emphasizes the perspective of the three-dimensional image. At this time, by changing the size (for example, length) of the view angle adjustment icon 700 according to the sliding amount of the view angle adjustment icon 700, the user can easily understand the degree of perspective display.

三次元画像を透視投影で表すことで、内視鏡で見た画像に近い画像を表示させることができる。よって、パースペクティブ表示機能は、内視鏡手術などにおいて、撮像装置から取得した画像を内視鏡によって得られた実際の臓器の画像と対比しながら処置を進めるなど、内視鏡手術などにおいて有効に利用できる。 By representing a three-dimensional image using perspective projection, it is possible to display an image that is close to the image seen through an endoscope. Therefore, the perspective display function is useful in endoscopic surgery, etc., such as when performing a procedure while comparing images obtained from an imaging device with images of actual organs obtained by an endoscope. Available.

(4)スプリットウィンドウ機能
医用画像処理システムは、スプリットウィンドウ機能を有することができる。その場合、図9Aに示すように、機能選択用のアイコン群は、スプリットウィンドウアイコン550を含んでいる。ユーザがスプリットウィンドウアイコン550をタップすることによって、画像表示制御部11は、スプリットウィンドウ機能を実行する。
(4) Split Window Function The medical image processing system can have a split window function. In that case, as shown in FIG. 9A, the function selection icon group includes a split window icon 550. When the user taps the split window icon 550, the image display control unit 11 executes the split window function.

スプリットウィンドウ機能とは、図12Aに示すように、三次元画像表示領域100aを複数の領域101a、102aに分割し、それぞれの領域101a、102aに三次元画像を表示させる機能である。各領域101a、102aに表示された三次元画像は、各領域101a、102a上でのユーザによる所定の操作に基づく画像表示制御部11の処理によって、向き、大きさ、表示する解剖学的構造などを独立して変更することができる。スプリットウィンドウ機能は、解剖学的構造を異なる同時に異なる向きから確認する場合に有効に利用することができる。 The split window function is a function that divides the three-dimensional image display area 100a into a plurality of areas 101a and 102a and displays a three-dimensional image in each area 101a and 102a, as shown in FIG. 12A. The three-dimensional images displayed in each region 101a, 102a are changed in direction, size, anatomical structure to be displayed, etc. by processing of the image display control unit 11 based on a predetermined operation by the user on each region 101a, 102a. can be changed independently. The split window function can be effectively used when viewing anatomical structures from different directions at the same time.

図12Aに示した形態では、三次元画像表示領域100aを左右に分割しているが、上下に分割してもよい。また、スプリットウィンドウアイコン550がタップされる都度、左右への分割、上下への分割および分割なしが切り替えられてもよい。さらに、三次元画像表示領域100aの分割数は3つ以上であってもよい。 In the form shown in FIG. 12A, the three-dimensional image display area 100a is divided horizontally, but it may be divided vertically. Further, each time the split window icon 550 is tapped, horizontal division, vertical division, and no division may be switched. Furthermore, the number of divisions of the three-dimensional image display area 100a may be three or more.

(5)シーン保存機能
医用画像処理システムは、シーン保存機能を有することができる。その場合、図9Aに示すように、機能選択用のアイコン群は、シーン保存アイコン570aおよび570bを含んでいる。ユーザがシーン保存アイコン570aまたは570bをタップすることによって、画像処理制御部11は、シーン保存機能を実行する。
(5) Scene storage function The medical image processing system can have a scene storage function. In that case, as shown in FIG. 9A, the function selection icon group includes scene save icons 570a and 570b. When the user taps the scene save icon 570a or 570b, the image processing control unit 11 executes the scene save function.

シーン保存機能とは、現在表示されている画像を医用画像処理システムに保存する機能、具体的には、現在表示されている画像について、向き、大きさ、位置および表示する対象といった、表示に必要な各種データを含むデータセットを、データ格納部12に新たに格納する機能である。三次元画像表示領域100a上のシーン保存アイコン570aがタップされることによって、そのときに三次元画像表示領域100a上に表示されている三次元画像のデータセットがデータ格納部12(図1参照)に格納され、二次元画像表示領域100b上のシーン保存アイオン570bがタップされることによって、その時に二次元画像表示領域100b上に表示されている二次元画像のデータセットがデータ格納部12に格納される。 The scene save function is a function that saves the currently displayed image in the medical image processing system. Specifically, the scene save function saves the currently displayed image in the medical image processing system. This is a function to newly store a data set including various types of data in the data storage unit 12. When the scene save icon 570a on the three-dimensional image display area 100a is tapped, the data set of the three-dimensional image displayed on the three-dimensional image display area 100a at that time is saved in the data storage unit 12 (see FIG. 1). By tapping the scene storage icon 570b on the two-dimensional image display area 100b, the data set of the two-dimensional image currently displayed on the two-dimensional image display area 100b is stored in the data storage unit 12. be done.

保存された画像は、サムネイル580として適宜位置、例えば、三次元画像は三次元画像表示領域100a、二次元画像は二次元画像表示領域100bに表示されることができる。ユーザが所望のサムネイル580をタップすると、画像処理制御部11は、対応するデータセットをデータ格納部12から読み出し、三次元画像表示領域100aまたは二次元画像表示領域100bに、三次元画像または二次元画像として表紙させる。これにより、この医用画像処理システムによる作業を中断した後、改めて作業を続行するよいな場合、中断前の画像に迅速にアクセスすることができる。 The saved images can be displayed as thumbnails 580 at appropriate positions, for example, a three-dimensional image can be displayed in the three-dimensional image display area 100a, and a two-dimensional image can be displayed in the two-dimensional image display area 100b. When the user taps a desired thumbnail 580, the image processing control unit 11 reads the corresponding data set from the data storage unit 12 and displays the 3D image or 2D image in the 3D image display area 100a or the 2D image display area 100b. Put it on the cover as an image. As a result, if it is desired to continue the work anew after the work with the medical image processing system has been interrupted, the image before the interruption can be quickly accessed.

ここでは、三次元画像表示領域100a用のシーン保存アイコン570aおよび二次元画像表示領域100b用のシーン保存アイコン570bの両方を有する場合について説明したが、いずれか一方のみであってもよい。 Here, a case has been described in which there is both a scene save icon 570a for the three-dimensional image display area 100a and a scene save icon 570b for the two-dimensional image display area 100b, but it is also possible to have only one of them.

(6)オブジェクトの非表示および非表示オブジェクトの再表示
医用画像処理システムは、オブジェクトの非表示機能を有することもできる。この場合、非常時とされたオブジェクトを再表示させる機能をさらに有することもできる。オブジェクトは、解剖学的構造であってよい。
(6) Hiding objects and redisplaying hidden objects The medical image processing system can also have an object hiding function. In this case, it is also possible to further have a function of redisplaying the object that has been declared an emergency. The object may be an anatomical structure.

例えば、図13Aに示す状態において、ユーザが、三次元画像表示領域100aに表示されている、複数のオブジェクトを含む三次元画像のうち任意のオブジェクト(肝臓の実質臓器)800をタップすることによって選択すると、図13Bに示すように、選択されたオブジェクト800は半透明で表示される。また、前述したように、選択されたオブジェクト800に対応する二次元画像のサムネイル400が表示されてもよい。選択されたオブジェクト800がもう一度タップされると、オブジェクト800の表示は半透明から元の表示、言い換えると透過率がゼロである非透過表示に戻される。このように、本形態では、オブジェクト800が選択される都度、オブジェクト800の表示が半透明表示と非透過表示とに切り替えられる。 For example, in the state shown in FIG. 13A, the user selects an arbitrary object (parenchymal organ of the liver) 800 by tapping it in the three-dimensional image that is displayed in the three-dimensional image display area 100a and includes a plurality of objects. Then, as shown in FIG. 13B, the selected object 800 is displayed semitransparently. Further, as described above, the thumbnail 400 of the two-dimensional image corresponding to the selected object 800 may be displayed. When the selected object 800 is tapped again, the display of the object 800 is changed from semi-transparent to the original display, in other words, to non-transparent display with zero transmittance. In this manner, in this embodiment, each time the object 800 is selected, the display of the object 800 is switched between translucent display and non-transparent display.

オブジェクト800の半透明表示は、透過度が異なる複数の半透明表示を含むことができる。この場合、オブジェクト800の半透明表示の切り替えは、ユーザがオブジェクト800をタップする都度、次第に透過度が増していくように切り替えられることが好ましい。 The semi-transparent display of object 800 can include a plurality of semi-transparent displays with different degrees of transparency. In this case, it is preferable that the translucent display of the object 800 be switched so that the transparency gradually increases each time the user taps the object 800.

オブジェクト800が選択されると、図13Bに示すように、選択されたオブジェクト800に対する追加の処理の選択用のアイコン群850がさらに表示されるようにすることもできる。追加の処理としては、例えば、選択したオブジェクトの非表示を含むことができる。この場合、アイコン群850は、非表示アイコン851を含むことができる。 When an object 800 is selected, a group of icons 850 for selecting additional processing for the selected object 800 may be further displayed, as shown in FIG. 13B. Additional processing may include, for example, hiding the selected object. In this case, the icon group 850 may include a hidden icon 851.

オブジェクト800が選択された状態でユーザが非表示アイコン851をタップすると、図13Cに示すように、選択されていたオブジェクト800は非表示とされ、他のオブジェクト801、802、803(例えば、肝動脈、肝静脈および門脈)のみが表示される。 When the user taps the hide icon 851 with the object 800 selected, the selected object 800 is hidden and other objects 801, 802, 803 (for example, the hepatic artery , hepatic vein and portal vein) are shown.

図13Cに示した状態で、ユーザが別のオブジェクト(肝動脈)801をタップすることによって選択すると、図13Dに示すように、そのオブジェクト801が半透明で表示され、さらに、前述したのと同様、アイコン群850が表示される。ここでさらにユーザが非表示アイコン851をタップすると、図13Dに示すように、選択されていたオブジェクト801は非表示とされ、他のオブジェクト802、803のみが表示される。 When the user selects another object (hepatic artery) 801 by tapping it in the state shown in FIG. 13C, the object 801 is displayed semitransparently as shown in FIG. , icon group 850 are displayed. When the user further taps the hide icon 851, the selected object 801 is hidden and only the other objects 802 and 803 are displayed, as shown in FIG. 13D.

ここでは、最初のオブジェクト800を非表示とした後に次のオブジェクト801を選択した場合について説明したが、最初のオブジェクト800を選択して半透明で表示された状態(図13B)で次のオブジェクト801を選択することもできる。この場合は、最初のオブジェクト800が半透明表示とされたまま次のオブジェクト801も半透明表示とされる。また、オブジェクト800、801、802、803を選択したときの初期設定は、半透明表示である必要はなく、非表示であってもよい。例えば、図13Aに示した状態においてオブジェクト800を選択すると、図13Cに示すように、選択されたオブジェクト800が非表示とされてもよい。この場合、追加の処理用の非表示アイコン851は不要である。 Here, a case has been described in which the next object 801 is selected after the first object 800 is hidden, but when the first object 800 is selected and displayed semitransparently (FIG. 13B), the next object You can also choose. In this case, the first object 800 is displayed semitransparently, and the next object 801 is also displayed semitransparently. Further, the initial setting when the objects 800, 801, 802, and 803 are selected does not have to be translucent display, and may be non-display. For example, when object 800 is selected in the state shown in FIG. 13A, the selected object 800 may be hidden as shown in FIG. 13C. In this case, the hidden icon 851 for additional processing is not required.

非表示とされたオブジェクトを再度表示させたい場合がある。しかしこの場合、表示させたいオブジェクトが画面上に存在していないので、オブジェクトを選択することができない。 There are times when you want to make a hidden object visible again. However, in this case, since the object to be displayed does not exist on the screen, the object cannot be selected.

そこで、医用画像処理システムは、非表示とされたオブジェクトを再表示させる機能を有することができる。再表示の機能は、例えば、メニューボタンアイコン500aから呼び出すことができる。図9Aに示したように、メニューボタンアイコン500aをタップすることによって表示される機能選択用のアイコンは、再表示アイコン510を含むことができる。ただし、非表示とされたオブジェクトが存在しない場合、再表示アイコン510は、機能呼び出しアイコンの他のアイコン(520~550)とは異なる色および/またはサイズで、言い換えると非アクティブな状態で表示される。非表示とされたオブジェクトが存在する場合、図13Fに示すように、再表示アイコン510は、機能呼び出しアイコン群の他のアイコンと同じ色およびサイズで、言い換えるとアクティブな状態で表示される。 Therefore, the medical image processing system can have a function of redisplaying the hidden object. The redisplay function can be called, for example, from the menu button icon 500a. As shown in FIG. 9A, the function selection icons displayed by tapping the menu button icon 500a may include a redisplay icon 510. However, if the hidden object does not exist, the unhide icon 510 is displayed in a different color and/or size than the other icons (520 to 550) of the function call icons, in other words in an inactive state. Ru. If there is a hidden object, the redisplay icon 510 is displayed in the same color and size as the other icons in the function call icon group, in other words in an active state, as shown in FIG. 13F.

アクティブな再表示アイコン510をユーザがタップすると、図13Gに示すように、非表示オブジェクトバー910が表示される。非表示オブジェクトバー910上には、非表示とされたオブジェクトが表示される。非表示とされたオブジェクトの表示形式は、リスト形式など任意であってよいが、ユーザが直感的に把握できるように、非表示とされたオブジェクトを表す画像のサムネイルを表示させることが好ましい。一形態では、図13Gに示すように、サムネイル901、902が表示される。これらのサムネイルのうち、ユーザが再表示させたいオブジェクトのサムネイルをタップすると、タップしたサムネイルに対応するオブジェクトが三次元画像表示領域100a上に再表示される。非表示オブジェクトバー910は、非表示オブジェクトの有無にかかわらず常時表示されてもよいし、非表示オブジェクトが存在する場合にはユーザからの入力を介することなく自動的に表示されるようにしてもよい。この場合、再表示アイコン510は不要である。 When the user taps the active redisplay icon 510, a hidden object bar 910 is displayed, as shown in FIG. 13G. Hidden objects are displayed on the hidden object bar 910. The display format of the hidden object may be arbitrary, such as a list format, but it is preferable to display a thumbnail of an image representing the hidden object so that the user can intuitively understand the display format. In one form, thumbnails 901 and 902 are displayed, as shown in FIG. 13G. Among these thumbnails, when the user taps the thumbnail of an object that he wants to redisplay, the object corresponding to the tapped thumbnail is redisplayed on the three-dimensional image display area 100a. The hidden object bar 910 may be displayed all the time regardless of whether there is a hidden object, or it may be displayed automatically without any input from the user when a hidden object is present. good. In this case, the redisplay icon 510 is not necessary.

(7)血管支配領域計算機能
三次元画像が実質臓器のオブジェクトおよび血管のオブジェクトを含んでいれば、その実質臓器の血管支配領域(血管が枝において複数の血管部分に分割されている場合は、分割された血管部分ごとの支配領域)を計算することができる。医用画像処理システムは、この血管支配領域計算機能を有することができる。血管支配領域の計算には、ボロノイ法など公知の方法を用いることができる。
(7) Blood vessel dominated region calculation function If the three-dimensional image includes a parenchymal organ object and a blood vessel object, the blood vessel dominated region of the parenchymal organ (if a blood vessel is divided into multiple blood vessel parts at a branch, The dominant region of each divided blood vessel segment can be calculated. A medical image processing system can have this blood vessel dominated region calculation function. A known method such as the Voronoi method can be used to calculate the blood vessel controlled region.

例えば図13Bに示すように、追加の処理の選択用のアイコン群850が分割アイコン852を含み、ユーザが分割アイコン852をタップするすることによって、画像処理制御部11が血管支配領域計算機能を実行するようにすることができる。図13Bに示す状態では、血管のオブジェクトとして、オブジェクト(動脈)801、オブジェクト(静脈)802およびオブジェクト(門脈)803を有しており、オブジェクト800(肝臓の実質臓器)800が選択されている。この状態でユーザが分割アイコン852をタップすると、画像処理制御部11が血管支配領域を計算し、オブジェクト(肝臓の実質臓器)800を血管のオブジェクト801、802、803の支配領域ごとに視覚的に区別できるように、帯ジェクト(肝臓の実質臓器)800の表示を変更する。血管支配領域の計算が終了すると、図14Aに示すように、計算結果950が表示される。 For example, as shown in FIG. 13B, an icon group 850 for selecting additional processing includes a division icon 852, and when the user taps the division icon 852, the image processing control unit 11 executes the blood vessel controlled region calculation function. You can do as you like. In the state shown in FIG. 13B, blood vessel objects include an object (artery) 801, an object (vein) 802, and an object (portal vein) 803, and an object 800 (liver parenchymal organ) 800 is selected. . When the user taps the division icon 852 in this state, the image processing control unit 11 calculates the blood vessel dominated area and visually displays the object (parenchymal organ of the liver) 800 for each dominated area of the blood vessel objects 801, 802, and 803. The display of the band project (liver parenchymal organ) 800 is changed so that it can be distinguished. When the calculation of the blood vessel controlled region is completed, the calculation result 950 is displayed as shown in FIG. 14A.

また、分割された実質臓器を再結合して表示させるため、例えば図13Bに示すように、追加の処理の選択用のアイコン群850が結合アイコン853を含み、ユーザが結合アイコン853をタップすることによって、画像処理制御部11が、分割された実質臓器を再結合する処理を実行するようにすることができる。 Furthermore, in order to recombine and display the divided parenchymal organs, for example, as shown in FIG. 13B, the icon group 850 for selecting additional processing includes a combination icon 853, and the user taps the combination icon 853. Accordingly, the image processing control unit 11 can perform a process of recombining the divided real organs.

以上、補助画像処理部11cが行う処理をメインに、画像表示制御部11が行ういくつかの処理について説明したが、上述した各処理は単独で行うこともできるし、任意の2つ以上を組み合わせて行うこともできる。 Above, we have explained some processes performed by the image display control unit 11, mainly focusing on the processes performed by the auxiliary image processing unit 11c, but each of the above-mentioned processes can be performed alone, or any two or more can be combined. You can also do it by

また、本発明は、上述した形態に限られるものではなく、本発明の技術的思想の範囲内で適宜変更することができる。その変更例について以下に説明する。 Moreover, the present invention is not limited to the above-described embodiments, and can be modified as appropriate within the scope of the technical idea of the present invention. An example of the change will be explained below.

(データ格納部に格納されるデータセット)
データ格納部12に格納されるデータセットは、撮像装置23によって撮像された複数のスライス画像データからなる二次元画像データセットであってもよい。この場合、表示処理部11bは、格納されている二次元画像データセットを用いて、二次元画像200を作成し、また、上述した適宜のレンダリング処理を行って三次元画像300を作成することができる。
(Data set stored in data storage)
The data set stored in the data storage unit 12 may be a two-dimensional image data set consisting of a plurality of slice image data captured by the imaging device 23. In this case, the display processing unit 11b may create the two-dimensional image 200 using the stored two-dimensional image data set, and may also perform the appropriate rendering processing described above to create the three-dimensional image 300. can.

(第二画像)
三次元画像とは形式が異なる第二画像としては、二次元画像に限られない。本発明で利用可能な第二画像は、実際の手術中のビデオ画像であってもよい。三次元画像は、手術の対象である臓器を含んでおり、このように手術中のビデオ画像と同時に、その臓器を含む三次元画像を表示させることで、三次元画像と実際の画像を見比べながら処置を進めていくことができる。ビデオ画像は、データ入出力インターフェース15を介して画像表示制御部11に取り込まれ、三次元画像300とともに表示デバイス13に表示させることができる。三次元画像300およびビデオ画像は表示デバイス13上での表示サイズが一致するように、必要に応じて一方または両者の表示サイズが拡大または縮小されることが好ましい。表示サイズの変更は、入力デバイス14を介しての操作者による入力によることもできるし、ビデオ画像が座標情報を含んでいれば、三次元画像の座標情報と一致するように、画像表示制御部11による処理によって自動的に表示サイズが変更されるようにすることもできる。
(Second image)
The second image, which has a different format from the three-dimensional image, is not limited to a two-dimensional image. The second image usable with the present invention may be a video image of the actual surgery. The 3D image includes the organ that is the target of surgery, and by displaying the 3D image that includes the organ at the same time as the video image during surgery, it is possible to compare the 3D image with the actual image. You can proceed with the treatment. The video image is taken into the image display control unit 11 via the data input/output interface 15 and can be displayed on the display device 13 together with the three-dimensional image 300. It is preferable that the display size of one or both of the three-dimensional image 300 and the video image be enlarged or reduced as necessary so that the display sizes on the display device 13 match. The display size can be changed by input by the operator via the input device 14, or if the video image includes coordinate information, the image display control unit changes the display size so that it matches the coordinate information of the three-dimensional image. It is also possible to automatically change the display size through the processing by 11.

また、第二画像の他の例として、人工心臓弁やステントなどの人工的な移植片や、手術中に使用する各種器具の二次元または三次元の画像が挙げられる。これら人工的な移植片や器具は、通常はCADデータに基づいて製造されるためCADデータが存在している。CADデータは、寸法に関する情報を含んでいるので、表示処理部11bが、この情報をボリュームデータセット等の座標情報と関連付けたうえで、ボリュームデータセットに基づいて作成された三次元画像と、CADデータに基づいて作成された画像とを互いに等しいサイズで表示デバイス1に表示させ、かつ、一方の画像に対する表示の向きや大きさの変更を他方の画像に連動して表示させることができる。これにより、人工的な移植片や器具が患者に適合するものであるかを術前にシミュレーションすることができる。CADデータは、データ格納部12に格納されていてもよいし、データ入出力インターフェース15を通じて外部から入手してもよい。また、ボリュームデータセット等に基づく三次元画像とCADデータに基づく画像とは、並べて表示させてもよいし、重ねて表示させてもよい。 Further, other examples of the second image include two-dimensional or three-dimensional images of artificial implants such as artificial heart valves and stents, and various instruments used during surgery. These artificial implants and devices are usually manufactured based on CAD data, so CAD data exists. Since the CAD data includes information regarding dimensions, the display processing unit 11b associates this information with coordinate information such as a volume data set, and then displays the three-dimensional image created based on the volume data set and the CAD data. Images created based on the data can be displayed on the display device 1 in the same size, and changes in the display direction and size of one image can be displayed in conjunction with the other image. This allows for preoperative simulation of the suitability of artificial implants and devices for the patient. The CAD data may be stored in the data storage section 12 or may be obtained from outside through the data input/output interface 15. Further, the three-dimensional image based on the volume data set or the like and the image based on CAD data may be displayed side by side or may be displayed overlapping each other.

(表示デバイス上での2つの表示領域の配置)
上述した形態では、表示デバイス13の画面を左右に分け、左側を第1表示領域、右側を第2表示領域とした場合について説明した。しかし、第1表示領域と第2表示領域の配置は左右逆であってもよい。また、入力デバイス14を介しての操作者による入力によって、左右を任意に切り替えられるようにしてもよい。
(Arrangement of two display areas on display device)
In the above embodiment, the screen of the display device 13 is divided into left and right parts, and the left side is the first display area and the right side is the second display area. However, the arrangement of the first display area and the second display area may be reversed left and right. Further, the left and right sides may be arbitrarily switched by an input by an operator via the input device 14.

さらに、医用画像処理システム1が可搬型の医用画像処理端末10である場合、医用画像処理端末10は向きを任意に変更できるので、例えば、医用画像処理端末10が横向きの場合は第1表示領域と第1表示領域を左右に配置し、医用画像処理端末10が縦向きの場合は第1表示領域と第2表示領域を上下に配置するなど、医用画像処理端末10の向きに応じて各表示領域の配置を変更するようにしてもよい。各表示領域の配置の向きの変更は、操作者による入力デバイス14を通じた入力によるものであってもよいし、医用画像処理端末10の向きを加速度センサ等の適宜センサで検出し、その検出結果に基づいて自動的に切り替わるようにしてもよい。 Further, when the medical image processing system 1 is a portable medical image processing terminal 10, the orientation of the medical image processing terminal 10 can be changed arbitrarily.For example, when the medical image processing terminal 10 is oriented horizontally, the first display area and the first display area are arranged on the left and right, and when the medical image processing terminal 10 is oriented vertically, the first display area and the second display area are arranged vertically, etc., depending on the orientation of the medical image processing terminal 10. The arrangement of the regions may also be changed. The orientation of the arrangement of each display area may be changed by an input by the operator through the input device 14, or by detecting the orientation of the medical image processing terminal 10 with an appropriate sensor such as an acceleration sensor, and the detection result is It may also be possible to automatically switch based on.

(三次元画像の表示における解剖学的構造の透過率)
三次元画像300においては、表示される解剖学的構造の数および/または表示の重要性に応じて半透明で表示させてもよい。この場合、透過率は、データセットが持つファイルごとに設定されていてもよいし、操作者が入力デバイス14からの入力を通じて任意に設定できるようにされていてもよい。また、解剖学的構造ごとに複数段階で透過率を設定することも可能である。
(Transmittance of anatomical structures in three-dimensional image display)
The three-dimensional image 300 may be displayed semitransparently depending on the number of anatomical structures displayed and/or the importance of the display. In this case, the transmittance may be set for each file included in the data set, or may be set arbitrarily by the operator through input from the input device 14. It is also possible to set the transmittance in multiple stages for each anatomical structure.

さらに、動脈系血管および静脈系血管が画面の奥行方向に少なくとも部分的に重なって表示される場合、複雑な形状の解剖学的構造が他の解剖学的構造と画面の奥行方向に少なくとも部分的に重なって表示される場合、あるいは多くの解剖学的構造が画面の奥行方向に少なくとも部分的に重なて表示される場合などでは、重なって表示される複数の解剖学的構造がいずれも半透明で表示されると、解剖学的構造の前後関係が把握しにくいことがある。このような場合は、半透明で表示されている解剖学的構造の奥に少なくとも部分的に重なって表示される解剖学的構造については、手前の解剖学的構造と重なっている部分を表示させないようにしてもよい。こうすることによって、半透明で表示されている解剖学的構造同士の前後関係を容易に把握することができる。この処理は、表示処理部11bによって行うことができる。 Furthermore, if arterial blood vessels and venous blood vessels are displayed at least partially overlapping in the depth direction of the screen, complex-shaped anatomical structures overlap at least partially in the depth direction of the screen with other anatomical structures. In cases where multiple anatomical structures are displayed overlapping each other, or where many anatomical structures are displayed at least partially overlapping in the depth direction of the screen, the overlapping anatomical structures are all partially overlapped. When displayed transparently, it may be difficult to understand the context of anatomical structures. In such cases, if an anatomical structure is displayed that at least partially overlaps the back of the anatomical structure that is displayed as translucent, the overlapping part of the anatomical structure in the foreground will not be displayed. You can do it like this. By doing so, it is possible to easily grasp the context of the anatomical structures displayed semitransparently. This processing can be performed by the display processing section 11b.

(データセットの時相)
撮像装置23によってボリュームデータセットといったデータセットを取得する場合、造影剤を被験者に注入し、造影剤による造影効果を利用する場合が多い。この場合、造影剤の注入から各血管に到達するまでの時間の相違に起因して、造影効果が現れる時間は、解剖学的構造の種類などによって異なることがある。例えば、通常、静脈は動脈より遅れて造影効果が現れる。よって、複数の解剖学的構造についてボリュームデータセットを取得する方法として、主に以下に示す2つの方法がある。
(temporal phase of the dataset)
When acquiring a data set such as a volume data set using the imaging device 23, a contrast agent is often injected into a subject and the contrast effect of the contrast agent is utilized. In this case, due to differences in the time from injection of the contrast medium until it reaches each blood vessel, the time at which a contrast effect appears may vary depending on the type of anatomical structure. For example, contrast effects usually appear later in veins than in arteries. Therefore, there are two main methods for acquiring volume data sets for a plurality of anatomical structures, as shown below.

第1の方法は、造影剤を注入して時刻t1後に撮像装置23により撮像動作を行い、それによって得られたデータに対して、時刻t1における標準的な造影効果値、例えばCT値に基づいて解剖学的構造の種類を判断する方法である。この場合、解剖学的構造ごとに分けられ、それぞれ同時刻に取得された複数のボリュームデータが作られる。 The first method is to inject a contrast agent, perform an imaging operation with the imaging device 23 after time t1, and use the data obtained thereby to perform an imaging operation based on a standard contrast effect value at time t1, for example, a CT value. It is a method of determining the type of anatomical structure. In this case, a plurality of volume data are created that are divided by anatomical structure and each acquired at the same time.

第2の方法は、造影剤を注入して時刻t1において撮像装置23により撮像動作を行い、例えば動脈系血管についてのボリュームデータを取得し、その後の時刻t2において再度撮像装置23により撮像動作を行い、例えば静脈系血管についてのボリュームデータを取得する方法である。この場合、解剖学的構造ごとに分けられ、それぞれ異なる時刻で取得された複数のボリュームデータが作られる。 In the second method, a contrast agent is injected and the imaging device 23 performs an imaging operation at time t1 to obtain volume data, for example, about an arterial blood vessel, and then at time t2, the imaging device 23 performs an imaging operation again. , for example, is a method of acquiring volume data about venous blood vessels. In this case, a plurality of volume data are created, separated by anatomical structure and acquired at different times.

本発明では、いずれの方法で得られたボリュームデータでも利用でき、それぞれ解剖学的構造ごとに分けられたボリュームデータがまとめ合わせられてボリュームデータセットが構成される。 In the present invention, volume data obtained by any method can be used, and a volume data set is constructed by combining the volume data separated by each anatomical structure.

ただし、第1の方法で得られたボリュームデータセットは、解剖学的構造ごとに造影効果値が異なるため、造影効果値が低い解剖学的構造については鮮明な画像が得られないことがある。また、第2の方法でられたボリュームデータセットは、解剖学的構造ごとに異なる時刻で取得されたデータであるため、時刻の違いに起因する被験者の呼吸や解剖学的構造の位置の変化などにより、解剖学的構造ごとの位置関係にずれが生じることがある。 However, since the volume data set obtained by the first method has different contrast effect values for each anatomical structure, clear images may not be obtained for anatomical structures with low contrast effect values. In addition, since the volume data set created by the second method is data acquired at different times for each anatomical structure, changes in the subject's breathing or the position of the anatomical structure due to the difference in time, etc. This may cause deviations in the positional relationship of each anatomical structure.

これらの不具合を解消するため、1回の撮像動作で複数の解剖学的構造について適切な造影効果が得られるような注入方法で造影剤を注入して得られたデータセットを用いることが好ましい。そこで、造影剤の注入フェーズを、目的とする複数の解剖学的構造に対応して複数のフェーズに分け、各フェーズで注入された造影剤がそれぞれ各解剖学的構造において1回の撮像動作時間の範囲内で適切な造影効果を与えるようにフェーズのインターバルが設定された注入方法で造影剤を注入することが好ましい。これにより、各解剖学的構造が鮮明に描写され、かつ、解剖学的構造同士の位置ずれのない画像を作成できるデータセットを得ることができる。 In order to eliminate these problems, it is preferable to use a data set obtained by injecting a contrast agent using an injection method that allows appropriate contrast effects to be obtained for a plurality of anatomical structures in a single imaging operation. Therefore, the contrast agent injection phase is divided into multiple phases corresponding to multiple target anatomical structures, and the contrast agent injected in each phase takes one imaging operation time for each anatomical structure. It is preferable to inject the contrast medium using an injection method in which the phase interval is set to provide an appropriate contrast effect within the range of . As a result, it is possible to obtain a data set in which each anatomical structure is clearly depicted and an image can be created without positional deviation between the anatomical structures.

上記の注入方法において、造影剤の注入量は、被験者の体重等に基づいて公知の方法で求めることができる。そして、求められた注入量が各フェーズに振り分けられる。各フェーズにおける造影剤の注入速度は、一定であってもよいし、時間の経過に従って増減させてもよい。また、各フェーズで注入速度が異なってもよい。インターバル時間は、10秒~120秒の間で設定することができる。また、各フェーズ間のインターバル中および/または最後のフェーズの後に生理食塩水を注入してもよい。 In the above injection method, the amount of contrast medium to be injected can be determined by a known method based on the subject's weight and the like. The determined injection amount is then distributed to each phase. The injection rate of the contrast medium in each phase may be constant or may be increased or decreased over time. Also, the injection rate may be different in each phase. The interval time can be set between 10 seconds and 120 seconds. Saline may also be injected during the interval between each phase and/or after the last phase.

(他のデバイスへの画像の出力)
表示処理部11bは、作成した三次元画像300および二次元画像200(第二画像)の少なくとも一方を、表示デバイス13に表示させるとともに、データ入出力インターフェース15を介して他のデバイスへデータとして出力するようにすることもできる。他のデバイスへの画像の出力のために、他のデバイスは、データ入出力インターフェース15を介して画像表示制御部11と有線または無線で接続される。
(Outputting images to other devices)
The display processing unit 11b displays at least one of the created three-dimensional image 300 and two-dimensional image 200 (second image) on the display device 13, and outputs it as data to another device via the data input/output interface 15. You can also do this. In order to output images to other devices, the other devices are connected to the image display control section 11 via a data input/output interface 15 by wire or wirelessly.

表示処理部11bが作成した画像を出力する他のデバイスの一例として、プロジェクション装置が挙げられる。図15に示すように、プロジェクション装置30は、光源31と、光源からの光により、データとして入力された画像に基づいた投影用画像を形成する画像形成処理部32と、画像形成処理部32から出射した光を投影する投影光学系33とを含むことができる。画像形成処理部32は、例えば液晶パネルなどの画像形成素子と、画像形成素子を制御するコントローラとを有することができる。プロジェクション装置30を、例えば、手術等の処置を受ける患者の身体上に画像を投影する位置に配置することで、プロジェクション装置30は、例えば医用画像処理端末10と組み合わせられて処置支援システムを構成することができる。 A projection device is an example of another device that outputs the image created by the display processing unit 11b. As shown in FIG. 15, the projection device 30 includes a light source 31, an image forming processing unit 32 that forms a projection image based on an image input as data using light from the light source, and a It can include a projection optical system 33 that projects the emitted light. The image forming processing section 32 can include, for example, an image forming element such as a liquid crystal panel, and a controller that controls the image forming element. By placing the projection device 30 at a position where it projects an image onto the body of a patient undergoing treatment such as surgery, the projection device 30 is combined with, for example, the medical image processing terminal 10 to configure a treatment support system. be able to.

このような処置支援システムでは、患者への処置に先立ち、その患者について予め取得しておいたデータセットを医用画像処理端末10のデータ格納部12に格納する。医用画像処理端末10の画像表示制御部11(具体的には表示処理部11b)は、前述した処理手順に従って、データ格納部12に格納されたデータセットから少なくとも三次元画像300を含む画像を作成する。作成された画像は、表示デバイス13に表示されるとともに、操作者の操作により、または自動でプロジェクション装置30に出力される。 In such a treatment support system, prior to treatment of a patient, a data set previously acquired for the patient is stored in the data storage unit 12 of the medical image processing terminal 10. The image display control unit 11 (specifically, the display processing unit 11b) of the medical image processing terminal 10 creates an image including at least the three-dimensional image 300 from the data set stored in the data storage unit 12 according to the processing procedure described above. do. The created image is displayed on the display device 13 and outputted to the projection device 30 by an operator's operation or automatically.

作成された画像がプロジェクション装置30に出力されると、プロジェクション装置30に出力された画像がプロジェクション装置30から患者の身体上に投影される。例えば三次元画像300がプロジェクション装置30に出力される場合、表示デバイス13に表示される三次元画像300と同じ三次元画像300が、プロジェクション装置30によって患者の身体上に投影される。操作者は、表示デバイス13に表示されている三次元画像300の、表示デバイス13上での表示サイズおよび位置を、入力デバイス14を適宜操作することによって、患者の身体上に投影された三次元画像300のサイズおよび位置が、患者の身体上の対応する部分で一致するように調整することができる。こうすることによって、患者への処置を、画像として患者の身体上に投影された解剖学的構造で確認しながら効率良く行うことができる。 When the created image is output to the projection device 30, the image output to the projection device 30 is projected from the projection device 30 onto the patient's body. For example, when the three-dimensional image 300 is output to the projection device 30, the same three-dimensional image 300 as the three-dimensional image 300 displayed on the display device 13 is projected onto the patient's body by the projection device 30. The operator adjusts the display size and position of the three-dimensional image 300 displayed on the display device 13 by appropriately operating the input device 14 to adjust the display size and position of the three-dimensional image 300 projected onto the patient's body. The size and position of image 300 can be adjusted to match on corresponding parts of the patient's body. By doing so, it is possible to efficiently perform treatment on a patient while checking the anatomical structure projected onto the patient's body as an image.

前述したように、三次元画像300においては解剖学的構造ごとに色相が設定されているが、実際の解剖学的構造の色味との関係によっては、身体上に表示された画像が見えにくい場合がある。そこで、画像表示制御部11は、表示処理部11bで作成した三次元画像300の解剖学的構造の色相を任意に設定できるように構成されることが好ましい。また、画像表示制御部11は、投影画像のサイズが確定したら、操作者の操作等によって、表示画像のサイズ変更、回転および移動のうち少なくとも1つあるいは2つ以上の任意の組み合わせをロックする機能(変更を不可とする機能)を有していてもよい。 As mentioned above, the hue is set for each anatomical structure in the three-dimensional image 300, but the image displayed on the body may be difficult to see depending on the relationship with the hue of the actual anatomical structure. There are cases. Therefore, it is preferable that the image display control section 11 is configured to be able to arbitrarily set the hue of the anatomical structure of the three-dimensional image 300 created by the display processing section 11b. The image display control unit 11 also has a function of locking at least one or any combination of two or more of the size change, rotation, and movement of the displayed image by an operator's operation etc. once the size of the projected image is determined. (a function that prohibits changes).

プロジェクション装置30は、画像を投影する対象である患者の身体の立体形状に応じて、例えば平面上に投影した場合と同じような投影画像が得られるような補正機能を有していてもよい。このような補正機能のために、例えば、いわゆる「プロジェクション・マッピング」を行うためのコンピュータプログラムを利用することができる。この場合、例えば、患者に対してグリッド(方眼)を投影し、それを解析してデータを取得し、そのデータを利用しつつ、想定される画像歪みを補正するように画像処理を行い、それにより患者の身体の立体形状に影響されずに画像が得られる。 The projection device 30 may have a correction function that can obtain a projected image similar to that when projected onto a plane, for example, depending on the three-dimensional shape of the body of the patient on which the image is projected. For such a correction function, for example, a computer program for performing so-called "projection mapping" can be used. In this case, for example, a grid is projected onto the patient, it is analyzed to obtain data, and while using that data, image processing is performed to correct expected image distortion. This allows images to be obtained without being affected by the three-dimensional shape of the patient's body.

(実寸表示機能)
三次元画像300の基となるデータセットがボリュームデータセットである場合、そのボリュームデータセットが持つ座標情報から各ボクセルの実際の寸法を求めることができる。一方、表示デバイス13は、表示される画像のサイズを表示デバイス13の画素ピッチに応じて適宜変更することで、画像を実寸で表示させることができる。したがって、ボリュームデータセットの1ボクセル当たりの実際の寸法を求め、求められた1ボクセル当たりの実際の寸法と表示デバイス13の画素ピッチとを対応させることで、表示デバイス13に画像を実寸大で表示させることができる。上記の実寸表示処理は、表示処理部11bによって行うことができる。また、画像表示制御部11は、実寸表示処理の実行後、操作者の操作等によって、表示画像のサイズ変更、回転および移動のうち少なくとも1つあるいは2つ以上の任意の組み合わせをロックする機能(変更を不可とする機能)を有していてもよい。
(actual size display function)
When the data set on which the three-dimensional image 300 is based is a volume data set, the actual dimensions of each voxel can be determined from the coordinate information possessed by the volume data set. On the other hand, the display device 13 can display the image in its actual size by appropriately changing the size of the displayed image according to the pixel pitch of the display device 13. Therefore, by determining the actual dimension per voxel of the volume data set and making the determined actual dimension per voxel correspond to the pixel pitch of the display device 13, the image is displayed in the actual size on the display device 13. can be done. The above actual size display processing can be performed by the display processing section 11b. In addition, the image display control unit 11 has a function of locking at least one or any combination of two or more of the size change, rotation, and movement of the displayed image by the operator's operation after executing the actual size display process. It may also have a function that makes it impossible to change.

表示デバイス13への画像の実寸表示は、操作者による操作によって行うことができる。操作者による操作のために、表示処理部11bは、実寸表示を実行させるための実寸表示用アイコンを表示デバイス13に表示させ、このアイコンを操作者がタップすることにより、上記の実寸表示処理を実行するようにすることができる。 The actual size display of the image on the display device 13 can be performed by an operation by the operator. For operation by the operator, the display processing unit 11b causes the display device 13 to display an actual size display icon for executing actual size display, and when the operator taps this icon, the above actual size display process is executed. You can make it run.

実寸表示処理に用いる画素ピッチは、表示デバイス13の仕様として定められている値を用いることができる。あるいは、表示デバイス13の画面サイズおよび縦横の画素数から画素ピッチを計算することもできる。 As the pixel pitch used in the actual size display process, a value defined as the specification of the display device 13 can be used. Alternatively, the pixel pitch can also be calculated from the screen size of the display device 13 and the number of vertical and horizontal pixels.

以上のように、表示デバイス13上に画像を実寸大で表示させることで、例えば、患者に人工心臓弁を移植する処置の準備段階において、表示デバイス13に患者の心臓付近のの断面画像を実寸大で表示させた状態で、移植する人工心臓弁(またはその実物体モデル)を、表示デバイス13に表示された画像上に置き、その人工心臓弁が患者に適合するサイズであるか等を確認するのに利用することができる。 As described above, by displaying an image in actual size on the display device 13, for example, in the preparation stage of a procedure for implanting an artificial heart valve in a patient, a cross-sectional image of the vicinity of the patient's heart can be displayed in the actual size on the display device 13. The artificial heart valve to be transplanted (or its physical model) is placed on the image displayed on the display device 13 while the artificial heart valve is displayed in a large size, and it is confirmed whether the artificial heart valve is of a size suitable for the patient, etc. It can be used for.

(付記)
以上、本発明について説明したが、本明細書は以下に記載された発明を開示する。ただし、本明細書の開示事項は以下の発明に限定されない。
(Additional note)
Although the present invention has been described above, this specification discloses the invention described below. However, the disclosure of this specification is not limited to the following invention.

[1] 画像を表示する表示デバイスと、
操作者による入力を受け付ける入力デバイスと、
複数の解剖学的構造についての立体的配置を表す三次元画像を作成可能な少なくとも1つのデータセットを格納するデータ格納部と、
前記入力デバイスによって受け付けられた入力に従って前記表示デバイスへの前記画像の表示を制御する画像表示制御部と、
を有し、
前記画像表示制御部は、
前記データセットから少なくとも前記三次元画像を作成する処理と、
作成した前記三次元画像、および前記三次元画像とは形式が異なるが前記三次元画像と関連付けられた第二画像を前記表示デバイスに同時に表示させる処理と、
前記入力デバイスによって受け付けられた入力に応じて、または前記入力とは無関係に、前記三次元画像および前記第二画像の少なくとも一方に含まれる情報から補助画像を作成し、前記補助画像を前記三次元画像および前記第二画像の他方に表示させる処理と、
を行うように構成されている医用画像処理システム。
[1] A display device that displays an image,
an input device that accepts input from an operator;
a data storage unit storing at least one data set capable of creating a three-dimensional image representing a three-dimensional arrangement of a plurality of anatomical structures;
an image display control unit that controls display of the image on the display device according to input received by the input device;
has
The image display control section includes:
creating at least the three-dimensional image from the data set;
a process of simultaneously displaying the created three-dimensional image and a second image different in format from the three-dimensional image but associated with the three-dimensional image on the display device;
creating an auxiliary image from information included in at least one of the three-dimensional image and the second image in response to input received by the input device or independently of the input; processing for displaying on the other of the image and the second image;
A medical image processing system configured to perform.

[2] 前記第二画像は、前記複数の解剖学的構造の断面を表す二次元画像である[1]に記載の医用画像処理システム。 [2] The medical image processing system according to [1], wherein the second image is a two-dimensional image representing a cross section of the plurality of anatomical structures.

[3] 前記三次元画像は、前記解剖学的構造ごとに設定された複数のレイヤーで構成され、
前記情報は、前記複数のレイヤーを示す情報である複数のレイヤー情報を含み、
前記画像表示制御部は、前記補助画像を表示させる処理において、
前記三次元画像を前記レイヤーごとに異なる色相で表示させる処理と、
前記複数のレイヤーのうち少なくとも1つのレイヤーについて、前記二次元画像が表す断面に対応する断面での前記三次元画像の断面画像を、前記補助画像として、前記三次元画像で表示された色と同じ色相で作成する処理と、
前記断面画像を前記二次元画像上に重ね合わせる処理と、
を行なうように構成されている[2]に記載の医用画像処理システム。
[3] The three-dimensional image is composed of a plurality of layers set for each anatomical structure,
The information includes a plurality of layer information that is information indicating the plurality of layers,
The image display control unit, in the process of displaying the auxiliary image,
a process of displaying the three-dimensional image in different hues for each layer;
For at least one layer among the plurality of layers, a cross-sectional image of the three-dimensional image at a cross-section corresponding to the cross-section represented by the two-dimensional image is used as the auxiliary image in the same color as that displayed in the three-dimensional image. Processing to create with hue,
A process of superimposing the cross-sectional image on the two-dimensional image,
The medical image processing system according to [2], which is configured to perform.

[4] 前記複数の解剖学的構造は、動脈系血管および静脈系血管を含み、
前記画像表示制御部は、前記断面画像を作成する処理において、前記動脈系血管として設定されたレイヤーおよび前記静脈系血管として設定されたレイヤーについて前記断面画像を作成する処理を行うように構成されている[3]に記載の医用画像処理システム。
[4] The plurality of anatomical structures include arterial blood vessels and venous blood vessels,
In the process of creating the cross-sectional image, the image display control unit is configured to perform a process of creating the cross-sectional image for a layer set as the arterial blood vessel and a layer set as the venous blood vessel. The medical image processing system according to [3].

[5] 前記情報は、前記三次元画像および前記二次元画像に共通の座標情報を含む、[2]から[4]のいずれかに記載の医用画像処理システム。 [5] The medical image processing system according to any one of [2] to [4], wherein the information includes coordinate information common to the three-dimensional image and the two-dimensional image.

[6] 前記画像表示制御部は、前記補助画像を表示させる処理において、前記二次元画像上の任意の座標が前記入力デバイスから入力されると、表示されている前記二次元画像が表す断面に対応する平面画像を、前記補助画像として、前記三次元画像上の前記入力された前記座標を通る位置に表示させる処理を含む処理を行う[5]に記載の医用画像処理システム。 [6] In the process of displaying the auxiliary image, when arbitrary coordinates on the two-dimensional image are input from the input device, the image display control section displays a cross section represented by the two-dimensional image being displayed. The medical image processing system according to [5], which performs processing including processing to display a corresponding planar image as the auxiliary image at a position passing through the inputted coordinates on the three-dimensional image.

[7] 前記画像表示制御部は、前記補助画像を表示させる処理において、前記二次元画像上の任意の座標が前記入力デバイスから入力されると、表示されている前記二次元画像が表す断面での前記解剖学的構造の輪郭部を他の部分と異なる色相で表したハイライト輪郭画像を、前記補助画像として、前記三次元画像上に表示させる処理を含む処理を行う[5]または[6]に記載の医用画像処理システム。 [7] In the process of displaying the auxiliary image, when arbitrary coordinates on the two-dimensional image are input from the input device, the image display control unit displays a cross section represented by the displayed two-dimensional image. [5] or [6] performing a process including a process of displaying a highlight contour image representing the contour of the anatomical structure in a hue different from other parts on the three-dimensional image as the auxiliary image. The medical image processing system described in ].

[8] 前記画像表示制御部は、前記補助画像を表示させる処理において、前記二次元画像上の任意の座標が前記入力デバイスから入力されると、前記三次元画像の、入力された前記座標に対応する位置に、前記補助画像としてカーソルを表示させる処理を含む処理を行う[5]から[7]のいずれかに記載の医用画像処理システム。 [8] In the process of displaying the auxiliary image, when arbitrary coordinates on the two-dimensional image are input from the input device, the image display control unit displays the input coordinates on the three-dimensional image. The medical image processing system according to any one of [5] to [7], which performs processing including displaying a cursor as the auxiliary image at a corresponding position.

[9] 前記画像表示制御部は、前記補助画像を表示させる処理において、前記三次元画像の前記解剖学的構造上の任意の座標が前記入力デバイスから入力されると、入力された前記座標に一致する前記座標情報を持つ前記二次元画像のサムネイルを、前記補助画像として前記二次元画像および前記三次元画像とは別に前記表示デバイスに表示させる処理を含む処理を行う[5]に記載の医用画像処理システム。 [9] In the process of displaying the auxiliary image, when arbitrary coordinates on the anatomical structure of the three-dimensional image are input from the input device, the image display control unit adjusts the coordinates to the input coordinates. The medical device according to [5], wherein the process includes displaying a thumbnail of the two-dimensional image having the matching coordinate information on the display device as the auxiliary image, separately from the two-dimensional image and the three-dimensional image. Image processing system.

[10] 前記画像表示制御部は、前記補助画像を表示させる処理において、前記サムネイルを承認する意味を表す入力が前記入力デバイスから入力されると、前記サムネイルを拡大表示させる処理をさらに行う[9]に記載の医用画像処理システム。 [10] In the process of displaying the auxiliary image, when an input indicating approval of the thumbnail is input from the input device, the image display control unit further performs a process of enlarging and displaying the thumbnail.[9 The medical image processing system described in ].

[11] 前記画像表示制御部は、前記入力デバイスからの入力によって前記三次元画像上の前記解剖学的構造の1つが指定されると、指定された前記解剖学的構造を半透明で表示する処理をさらに行うように構成されている[1]から[10]のいずれかに記載の医用画像処理システム。 [11] When one of the anatomical structures on the three-dimensional image is specified by input from the input device, the image display control unit displays the specified anatomical structure in a translucent manner. The medical image processing system according to any one of [1] to [10], which is configured to further perform processing.

[12] 前記画像表示制御部は、前記入力デバイスからの入力に応じて、前記三次元画像が表示される三次元画像表示領域および前記第二画像が表示される第二画像表示領域のサイズを変更する処理をさらに行うように構成されている[1]から[10]のいずれかに記載の医用画像処理システム。 [12] The image display control unit controls the size of a three-dimensional image display area in which the three-dimensional image is displayed and a second image display area in which the second image is displayed, in response to an input from the input device. The medical image processing system according to any one of [1] to [10], which is configured to further perform changing processing.

[13]
前記画像表示制御部は、前記サイズ変更処理において、
前記三次元画像表示領域と前記第二画像表示領域との間にサイズ変更用アイコンを表示させる処理と、
前記入力デバイスからの入力に応じて前記サイズ変更用アイコンの表示位置を変更する処理と、
前記サイズ変更用アイコンの表示位置に従って前記三次元画像表示領域および前記第二画像表示領域のサイズを変更する処理を行う[12]に記載の医用画像処理システム。
[13]
In the size change process, the image display control unit includes:
Displaying a size change icon between the three-dimensional image display area and the second image display area;
a process of changing the display position of the size change icon according to an input from the input device;
The medical image processing system according to [12], which performs a process of changing the size of the three-dimensional image display area and the second image display area according to the display position of the size change icon.

[14] 画像を表示する表示デバイスと、操作者による入力を受け付ける入力デバイスと、複数の解剖学的構造についての立体的配置を表す三次元画像を作成可能な少なくとも1つのデータセットを格納するデータ格納部と、を用いる医用画像処理方法であって、
前記データセットから前記三次元画像を作成することと、
作成した前記三次元画像、および前記三次元画像とは形式が異なるが前記三次元画像と関連付けられた第二画像を前記表示デバイスに同時に表示させることと、
前記入力デバイスによって受け付けられた入力に応じて、または前記入力とは無関係に、前記三次元画像および前記第二画像の少なくとも一方に含まれる情報から補助画像を作成し、前記補助画像を前記三次元画像および前記第二画像の他方に表示させることと、
を含む医用画像処理方法。
[14] A display device that displays an image, an input device that accepts input from an operator, and data that stores at least one data set that can create a three-dimensional image representing the three-dimensional arrangement of a plurality of anatomical structures. A medical image processing method using a storage unit,
creating the three-dimensional image from the dataset;
simultaneously displaying the created three-dimensional image and a second image different in format from the three-dimensional image but associated with the three-dimensional image on the display device;
creating an auxiliary image from information included in at least one of the three-dimensional image and the second image in response to input received by the input device or independently of the input; displaying on the other of the image and the second image;
A medical image processing method including.

[15] データ格納部に格納された、複数の解剖学的構造についての立体的配置を表す三次元画像を作成可能な少なくとも1つのデータセットから作成された少なくとも前記三次元画像を表示デバイスに表示させる処理をコンピュータに実行させる医用画像処理プログラムであって、
前記コンピュータに、
前記データセットから前記三次元画像を作成させる処理と、
作成した前記三次元画像、および前記三次元画像とは形式が異なるが前記三次元画像と関連付けられた第二画像を前記表示デバイスに同時に表示させる処理と、
前記三次元画像および前記第二画像の少なくとも一方に含まれる情報から補助画像を作成させ、前記補助画像を前記三次元画像および前記第二画像の他方に表示させる処理と、
を実行させる医用画像処理プログラム。
[15] Displaying on a display device at least the three-dimensional image created from at least one data set that is stored in the data storage unit and is capable of creating a three-dimensional image representing the three-dimensional arrangement of a plurality of anatomical structures. A medical image processing program that causes a computer to execute a process,
to the computer;
a process of creating the three-dimensional image from the data set;
a process of simultaneously displaying the created three-dimensional image and a second image different in format from the three-dimensional image but associated with the three-dimensional image on the display device;
A process of creating an auxiliary image from information included in at least one of the three-dimensional image and the second image, and displaying the auxiliary image on the other of the three-dimensional image and the second image;
A medical image processing program that executes.

[16] [15]に記載の医用画像処理プログラムを記憶している、コンピュータ読み取り可能な記録媒体。 [16] A computer-readable recording medium storing the medical image processing program according to [15].

1 医用画像処理システム
10 医用画像処理端末
11 画像表示制御部
11a 入力判定部
11b 表示処理部
11c 補助画像処理部
12 データ格納部
13 表示デバイス
14 入力デバイス
15 データ入出力インターフェース
21 医用情報管理装置
22 薬液注入装置
23 撮像装置
100a 三次元画像表示領域
100b 二次元画像表示領域
200 二次元画像
300 三次元画像
400 サムネイル
1 Medical Image Processing System 10 Medical Image Processing Terminal 11 Image Display Control Unit 11a Input Judgment Unit 11b Display Processing Unit 11c Auxiliary Image Processing Unit 12 Data Storage Unit 13 Display Device 14 Input Device 15 Data Input/Output Interface 21 Medical Information Management Device 22 Medical Solution Injection device 23 Imaging device 100a Three-dimensional image display area 100b Two-dimensional image display area 200 Two-dimensional image 300 Three-dimensional image
400 thumbnail

Claims (16)

画像を表示する表示デバイスと、
操作者による入力を受け付ける入力デバイスと、
複数の解剖学的構造についての立体的配置を表す三次元画像を作成可能な少なくとも1つのデータセットを格納するデータ格納部と、
前記入力デバイスによって受け付けられた入力に従って前記表示デバイスへの前記画像の表示を制御する画像表示制御部と、
を有し、
前記画像表示制御部は、
前記データセットから少なくとも前記三次元画像を作成する処理と、
作成した前記三次元画像、および前記三次元画像とは形式が異なるが前記三次元画像と関連付けられた第二画像を前記表示デバイスに同時に表示させる処理と、
前記入力デバイスによって受け付けられた入力に応じて、または前記入力とは無関係に、前記三次元画像および前記第二画像の少なくとも一方に含まれる情報から補助画像を作成し、前記補助画像を前記三次元画像および前記第二画像の他方に表示させる処理と、
を行うように構成されている医用画像処理システム。
a display device that displays images;
an input device that accepts input from an operator;
a data storage unit storing at least one data set capable of creating a three-dimensional image representing a three-dimensional arrangement of a plurality of anatomical structures;
an image display control unit that controls display of the image on the display device according to input received by the input device;
has
The image display control section includes:
creating at least the three-dimensional image from the data set;
a process of simultaneously displaying the created three-dimensional image and a second image different in format from the three-dimensional image but associated with the three-dimensional image on the display device;
creating an auxiliary image from information included in at least one of the three-dimensional image and the second image in response to input received by the input device or independently of the input; processing for displaying on the other of the image and the second image;
A medical image processing system configured to perform.
前記第二画像は、前記複数の解剖学的構造の断面を表す二次元画像である請求項1に記載の医用画像処理システム。 The medical image processing system according to claim 1, wherein the second image is a two-dimensional image representing a cross section of the plurality of anatomical structures. 前記三次元画像は、前記解剖学的構造ごとに設定された複数のレイヤーで構成され、
前記情報は、前記複数のレイヤーを示す情報である複数のレイヤー情報を含み、
前記画像表示制御部は、前記補助画像を表示させる処理において、
前記三次元画像を前記レイヤーごとに異なる色相で表示させる処理と、
前記複数のレイヤーのうち少なくとも1つのレイヤーについて、前記二次元画像が表す断面に対応する断面での前記三次元画像の断面画像を、前記補助画像として、前記三次元画像で表示された色と同じ色相で作成する処理と、
前記断面画像を前記二次元画像上に重ね合わせる処理と、
を行なうように構成されている請求項2に記載の医用画像処理システム。
The three-dimensional image is composed of a plurality of layers set for each anatomical structure,
The information includes a plurality of layer information that is information indicating the plurality of layers,
The image display control unit, in the process of displaying the auxiliary image,
a process of displaying the three-dimensional image in different hues for each layer;
For at least one layer among the plurality of layers, a cross-sectional image of the three-dimensional image at a cross-section corresponding to the cross-section represented by the two-dimensional image is used as the auxiliary image in the same color as that displayed in the three-dimensional image. Processing to create with hue,
A process of superimposing the cross-sectional image on the two-dimensional image,
The medical image processing system according to claim 2, wherein the medical image processing system is configured to perform the following.
前記複数の解剖学的構造は、動脈系血管および静脈系血管を含み、
前記画像表示制御部は、前記断面画像を作成する処理において、前記動脈系血管として設定されたレイヤーおよび前記静脈系血管として設定されたレイヤーについて前記断面画像を作成する処理を行うように構成されている請求項3に記載の医用画像処理システム。
The plurality of anatomical structures include arterial blood vessels and venous blood vessels,
In the process of creating the cross-sectional image, the image display control unit is configured to perform a process of creating the cross-sectional image for a layer set as the arterial blood vessel and a layer set as the venous blood vessel. The medical image processing system according to claim 3.
前記情報は、前記三次元画像および前記二次元画像に共通の座標情報を含む、請求項2から4のいずれか一項に記載の医用画像処理システム。 The medical image processing system according to any one of claims 2 to 4, wherein the information includes coordinate information common to the three-dimensional image and the two-dimensional image. 前記画像表示制御部は、前記補助画像を表示させる処理において、前記二次元画像上の任意の座標が前記入力デバイスから入力されると、表示されている前記二次元画像が表す断面に対応する平面画像を、前記補助画像として、前記三次元画像上の前記入力された前記座標を通る位置に表示させる処理を含む処理を行う請求項5に記載の医用画像処理システム。 In the process of displaying the auxiliary image, the image display control unit, when arbitrary coordinates on the two-dimensional image are input from the input device, displays a plane corresponding to a cross section represented by the displayed two-dimensional image. 6. The medical image processing system according to claim 5, wherein processing includes processing for displaying an image as the auxiliary image at a position passing through the inputted coordinates on the three-dimensional image. 前記画像表示制御部は、前記補助画像を表示させる処理において、前記二次元画像上の任意の座標が前記入力デバイスから入力されると、表示されている前記二次元画像が表す断面での前記解剖学的構造の輪郭部を他の部分と異なる色相で表したハイライト輪郭画像を、前記補助画像として、前記三次元画像上に表示させる処理を含む処理を行う請求項5または6に記載の医用画像処理システム。 In the process of displaying the auxiliary image, when arbitrary coordinates on the two-dimensional image are input from the input device, the image display control unit displays the anatomy in the cross section represented by the displayed two-dimensional image. 7. The medical device according to claim 5, wherein a process including a process of displaying a highlighted contour image representing a contour part of a medical structure in a hue different from other parts as the auxiliary image on the three-dimensional image is performed. Image processing system. 前記画像表示制御部は、前記補助画像を表示させる処理において、前記二次元画像上の任意の座標が前記入力デバイスから入力されると、前記三次元画像の、入力された前記座標に対応する位置に、前記補助画像としてカーソルを表示させる処理を含む処理を行う請求項5から7のいずれか一項に記載の医用画像処理システム。 In the process of displaying the auxiliary image, when arbitrary coordinates on the two-dimensional image are input from the input device, the image display control unit displays a position of the three-dimensional image corresponding to the input coordinate. 8. The medical image processing system according to claim 5, wherein the medical image processing system performs a process including a process of displaying a cursor as the auxiliary image. 前記画像表示制御部は、前記補助画像を表示させる処理において、前記三次元画像の前記解剖学的構造上の任意の座標が前記入力デバイスから入力されると、入力された前記座標に一致する前記座標情報を持つ前記二次元画像のサムネイルを、前記補助画像として前記二次元画像および前記三次元画像とは別に前記表示デバイスに表示させる処理を含む処理を行う請求項5に記載の医用画像処理システム。 In the process of displaying the auxiliary image, when arbitrary coordinates on the anatomical structure of the three-dimensional image are input from the input device, the image display control unit displays the coordinates corresponding to the input coordinates. 6. The medical image processing system according to claim 5, wherein processing includes processing for displaying a thumbnail of the two-dimensional image having coordinate information on the display device as the auxiliary image separately from the two-dimensional image and the three-dimensional image. . 前記画像表示制御部は、前記補助画像を表示させる処理において、前記サムネイルを承認する意味を表す入力が前記入力デバイスから入力されると、前記サムネイルを拡大表示させる処理をさらに行う請求項9に記載の医用画像処理システム。 10. The image display control unit further performs a process of enlarging and displaying the thumbnail when an input indicating approval of the thumbnail is input from the input device in the process of displaying the auxiliary image. medical image processing system. 前記画像表示制御部は、前記入力デバイスからの入力によって前記三次元画像上の前記解剖学的構造の1つが指定されると、指定された前記解剖学的構造を半透明で表示する処理をさらに行うように構成されている請求項1から10のいずれか一項に記載の医用画像処理システム。 When one of the anatomical structures on the three-dimensional image is specified by an input from the input device, the image display control unit further performs a process of displaying the specified anatomical structure in a translucent manner. 11. A medical image processing system according to any one of claims 1 to 10, configured to perform. 前記画像表示制御部は、前記入力デバイスからの入力に応じて、前記三次元画像が表示される三次元画像表示領域および前記第二画像が表示される第二画像表示領域のサイズを変更するサイズ変更処理をさらに行うように構成されている請求項1から10のいずれか一項に記載の医用画像処理システム。 The image display control unit changes the size of a three-dimensional image display area in which the three-dimensional image is displayed and a second image display area in which the second image is displayed in accordance with an input from the input device. The medical image processing system according to any one of claims 1 to 10, further configured to perform change processing. 前記画像表示制御部は、前記サイズ変更処理において、
前記三次元画像表示領域と前記第二画像表示領域との間にサイズ変更用アイコンを表示させる処理と、
前記入力デバイスからの入力に応じて前記サイズ変更用アイコンの表示位置を変更する処理と、
前記サイズ変更用アイコンの表示位置に従って前記三次元画像表示領域および前記第二画像表示領域のサイズを変更する処理を行う請求項12に記載の医用画像処理システム。
In the size change process, the image display control unit includes:
Displaying a size change icon between the three-dimensional image display area and the second image display area;
a process of changing the display position of the size change icon according to an input from the input device;
The medical image processing system according to claim 12, which performs a process of changing the sizes of the three-dimensional image display area and the second image display area according to the display position of the size change icon.
画像を表示する表示デバイスと、操作者による入力を受け付ける入力デバイスと、複数の解剖学的構造についての立体的配置を表す三次元画像を作成可能な少なくとも1つのデータセットを格納するデータ格納部と、を用いる医用画像処理方法であって、
前記データセットから前記三次元画像を作成することと、
作成した前記三次元画像、および前記三次元画像とは形式が異なるが前記三次元画像と関連付けられた第二画像を前記表示デバイスに同時に表示させることと、
前記入力デバイスによって受け付けられた入力に応じて、または前記入力とは無関係に、前記三次元画像および前記第二画像の少なくとも一方に含まれる情報から補助画像を作成し、前記補助画像を前記三次元画像および前記第二画像の他方に表示させることと、
を含む医用画像処理方法。
a display device that displays an image; an input device that receives input from an operator; and a data storage unit that stores at least one data set capable of creating a three-dimensional image representing a three-dimensional arrangement of a plurality of anatomical structures. A medical image processing method using,
creating the three-dimensional image from the dataset;
simultaneously displaying the created three-dimensional image and a second image, which has a different format from the three-dimensional image but is associated with the three-dimensional image, on the display device;
creating an auxiliary image from information included in at least one of the three-dimensional image and the second image in response to input received by the input device or independently of the input; displaying on the other of the image and the second image;
A medical image processing method including.
データ格納部に格納された、複数の解剖学的構造についての立体的配置を表す三次元画像を作成可能な少なくとも1つのデータセットから作成された少なくとも前記三次元画像を表示デバイスに表示させる処理をコンピュータに実行させる医用画像処理プログラムであって、
前記コンピュータに、
前記データセットから前記三次元画像を作成させる処理と、
作成した前記三次元画像、および前記三次元画像とは形式が異なるが前記三次元画像と関連付けられた第二画像を前記表示デバイスに同時に表示させる処理と、
前記三次元画像および前記第二画像の少なくとも一方に含まれる情報から補助画像を作成させ、前記補助画像を前記三次元画像および前記第二画像の他方に表示させる処理と、
を実行させる医用画像処理プログラム。
A process of displaying on a display device at least the three-dimensional image created from at least one data set stored in the data storage unit and capable of creating a three-dimensional image representing the three-dimensional arrangement of a plurality of anatomical structures. A medical image processing program that is executed by a computer,
to the computer;
a process of creating the three-dimensional image from the data set;
a process of simultaneously displaying the created three-dimensional image and a second image different in format from the three-dimensional image but associated with the three-dimensional image on the display device;
A process of creating an auxiliary image from information included in at least one of the three-dimensional image and the second image, and displaying the auxiliary image on the other of the three-dimensional image and the second image;
A medical image processing program that executes.
請求項15に記載の医用画像処理プログラムを記憶している、コンピュータ読み取り可能な記録媒体。 A computer-readable recording medium storing the medical image processing program according to claim 15.
JP2023194074A 2018-06-26 2023-11-15 Medical image processing system, medical image processing method and medical image processing program Pending JP2024023303A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018120835 2018-06-26
JP2018120835 2018-06-26
JP2019118271A JP7391348B2 (en) 2018-06-26 2019-06-26 Medical image processing system, medical image processing method, and medical image processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019118271A Division JP7391348B2 (en) 2018-06-26 2019-06-26 Medical image processing system, medical image processing method, and medical image processing program

Publications (1)

Publication Number Publication Date
JP2024023303A true JP2024023303A (en) 2024-02-21

Family

ID=69098905

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019118271A Active JP7391348B2 (en) 2018-06-26 2019-06-26 Medical image processing system, medical image processing method, and medical image processing program
JP2023194074A Pending JP2024023303A (en) 2018-06-26 2023-11-15 Medical image processing system, medical image processing method and medical image processing program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019118271A Active JP7391348B2 (en) 2018-06-26 2019-06-26 Medical image processing system, medical image processing method, and medical image processing program

Country Status (1)

Country Link
JP (2) JP7391348B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7555560B2 (en) * 2020-04-28 2024-09-25 株式会社根本杏林堂 Medical image processing apparatus, control method for medical image processing apparatus, and medical image processing program
CN111768827A (en) * 2020-08-17 2020-10-13 李青 Medical image processing method and device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5523681B2 (en) 2007-07-05 2014-06-18 株式会社東芝 Medical image processing device
JP5009391B2 (en) 2009-07-03 2012-08-22 富士フイルム株式会社 Diagnosis support apparatus, diagnosis support program, and diagnosis support method
JP6000672B2 (en) 2011-07-19 2016-10-05 東芝メディカルシステムズ株式会社 Image processing system, image storage device, and medical image diagnostic device

Also Published As

Publication number Publication date
JP2020000863A (en) 2020-01-09
JP7391348B2 (en) 2023-12-05

Similar Documents

Publication Publication Date Title
US10229753B2 (en) Systems and user interfaces for dynamic interaction with two-and three-dimensional medical image data using hand gestures
CN112740285B (en) Superposition and manipulation of medical images in a virtual environment
JP5224451B2 (en) Projection image creation apparatus, method and program
CN106569673B (en) Display method and display equipment for multimedia medical record report
JP6118325B2 (en) Interactive live segmentation with automatic selection of optimal tomographic slices
JP6208670B2 (en) Workflow for Lung Lobe Ambiguity Guide Interactive Segmentation
JP2024023303A (en) Medical image processing system, medical image processing method and medical image processing program
JP6051158B2 (en) Cutting simulation apparatus and cutting simulation program
JP5492024B2 (en) Region division result correction apparatus, method, and program
JPWO2007122896A1 (en) Medical image display system and medical image display program
CN106716496B (en) Visualizing a volumetric image of an anatomical structure
US11798249B1 (en) Using tangible tools to manipulate 3D virtual objects
CN114391158A (en) Method, computer program, user interface and system for analyzing medical image data in virtual multi-user collaboration
JP2007272889A (en) Image processing device
KR102376161B1 (en) Method and server for providing analysis of surgical procedures based on user interface
CA3109234A1 (en) A virtual tool kit for radiologists
Jadhav et al. Md-cave: An immersive visualization workbench for radiologists
JP2012085833A (en) Image processing system for three-dimensional medical image data, image processing method for the same, and program
US20150320507A1 (en) Path creation using medical imaging for planning device insertion
CN107329669B (en) Method and device for selecting human body sub-organ model in human body medical three-dimensional model
JP7555560B2 (en) Medical image processing apparatus, control method for medical image processing apparatus, and medical image processing program
CN110660470A (en) Method and presentation device for post-processing and displaying a three-dimensional angiographic image dataset
Fong et al. Development of a virtual reality system for Hepatocellular Carcinoma pre-surgical planning
JP2022145671A (en) Viewer, control method of the viewer and control program of the viewer
JP6902012B2 (en) Medical image display terminal and medical image display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240806

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20241003