JP2021041089A - Medical image processing device, x-ray image processing system and generation method of learning model - Google Patents
Medical image processing device, x-ray image processing system and generation method of learning model Download PDFInfo
- Publication number
- JP2021041089A JP2021041089A JP2019167627A JP2019167627A JP2021041089A JP 2021041089 A JP2021041089 A JP 2021041089A JP 2019167627 A JP2019167627 A JP 2019167627A JP 2019167627 A JP2019167627 A JP 2019167627A JP 2021041089 A JP2021041089 A JP 2021041089A
- Authority
- JP
- Japan
- Prior art keywords
- image
- ray
- specific portion
- dimensional
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000010801 machine learning Methods 0.000 claims abstract description 47
- 238000000605 extraction Methods 0.000 claims abstract description 29
- 239000000284 extract Substances 0.000 claims abstract description 12
- 238000002591 computed tomography Methods 0.000 claims description 104
- 239000003550 marker Substances 0.000 claims description 97
- 238000003384 imaging method Methods 0.000 claims description 44
- 210000000988 bone and bone Anatomy 0.000 claims description 40
- 230000008569 process Effects 0.000 claims description 29
- 238000004088 simulation Methods 0.000 claims description 11
- 230000009467 reduction Effects 0.000 abstract description 5
- 238000001959 radiotherapy Methods 0.000 description 34
- 238000002583 angiography Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 8
- 206010028980 Neoplasm Diseases 0.000 description 7
- 230000005855 radiation Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000001678 irradiating effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 239000000470 constituent Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 201000011510 cancer Diseases 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000013170 computed tomography imaging Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000002594 fluoroscopy Methods 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、医用画像処理装置、X線画像処理システム、および、学習モデルの生成方法に関する。 The present invention relates to a medical image processing apparatus, an X-ray image processing system, and a method of generating a learning model.
従来、被検者の特定部位を含むX線透視画像から特定部位の位置を検出し、特定部位に対して治療ビームを照射するために、特定部位の動きを追跡する放射線治療用追跡装置が知られている(たとえば、特許文献1参照)。 Conventionally, a radiotherapy tracking device that tracks the movement of a specific site in order to detect the position of the specific site from an X-ray fluoroscopic image including the specific site of the subject and irradiate the specific site with a treatment beam has been known. (See, for example, Patent Document 1).
上記特許文献1には、DRR(Digitally Reconstructed Radiography)画像作成部と、識別器学習部と、特定部位領域検出部とを備える放射線治療用追跡装置が開示されている。DRR画像作成部は、治療計画時に作成された特定部位を含む領域のCT画像データに対して仮想的透視投影を行うことによって、特定部位を含むDRR画像を作成する。識別器学習部は、DRR画像を入力とし、特定部位の領域を示す教師ラベル画像を出力として、機械学習を実行することにより、特定部位の領域を認識するための識別器を学習する。特定部位領域検出部は、特定部位を含むX線透視画像に対して、学習された識別器を使用して識別を行うことによって、特定部位の領域を検出する。上記特許文献1に記載の放射線治療用追跡装置は、上記の構成によって、予めDRR画像と教師ラベル画像とを機械学習することによって識別器を学習し、この識別器とX線透視画像とを利用して識別を実行することにより、特定部位の位置を検出する。そして、上記特許文献1に記載の放射線治療用追跡装置は、特定部位に対して治療ビームを照射するために、特定部位の動きを追跡する。 The above-mentioned Patent Document 1 discloses a radiotherapy tracking device including a DRR (Digitally Reconstructed Radiography) image creating unit, a discriminator learning unit, and a specific site region detecting unit. The DRR image creation unit creates a DRR image including a specific site by performing a virtual perspective projection on the CT image data of the region including the specific site created at the time of treatment planning. The discriminator learning unit learns a discriminator for recognizing a region of a specific region by executing machine learning by inputting a DRR image and outputting a teacher label image indicating a region of a specific region as an output. The specific site region detection unit detects the region of the specific region by discriminating the X-ray fluoroscopic image including the specific region by using the learned classifier. The radiotherapy tracking device described in Patent Document 1 learns a classifier by machine learning a DRR image and a teacher label image in advance according to the above configuration, and uses the classifier and an X-ray fluoroscopic image. By executing the identification, the position of a specific part is detected. Then, the radiotherapy tracking device described in Patent Document 1 tracks the movement of a specific site in order to irradiate the treatment beam to the specific site.
しかしながら、上記特許文献1に記載の放射線治療用追跡装置において、X線透視画像に含まれる構造物または部材(X線透視画像に含まれる構成物)が、CT画像データ(3次元データ)に基づいて生成されたDRR画像には含まれていない場合がある。構造物は、たとえば、被検体が載置される天板の一部とX線検出器のカバーとを含む。また、部材は、たとえば、被検体の体内に留置されるガイドワイヤおよびカテーテルを含む。また、被検体の体内に留置されているマーカーの位置または個数が、DRR画像を生成した時点とX線透視画像が撮影された時点とでは変化している場合がある。これらの場合では、X線透視画像とDRR画像とにおいて画像に含まれる構成物が異なることに起因して、DRR画像に基づく機械学習によって生成された識別器を用いてX線透視画像を識別する際に、識別の精度が低下する場合があると考えられる。そのため、X線透視画像(X線画像)とDRR画像(2次元投影画像)とにおいて、画像に含まれる構成物が異なる場合においても、機械学習によって生成された識別器(学習モデル)を用いて特定部位(特定部分)の抽出または除去の精度が低下することを抑制することが可能な医用画像処理装置、X線画像処理システム、および、学習モデルの生成方法の開発が望まれている。 However, in the radiotherapy tracking device described in Patent Document 1, the structure or member (structure included in the X-ray fluoroscopic image) included in the X-ray fluoroscopic image is based on CT image data (three-dimensional data). It may not be included in the DRR image generated in the above. The structure includes, for example, a part of the top plate on which the subject is placed and a cover of the X-ray detector. The member also includes, for example, a guide wire and a catheter that are placed in the body of the subject. In addition, the position or number of markers placed in the body of the subject may change between the time when the DRR image is generated and the time when the fluoroscopic image is taken. In these cases, the X-ray fluoroscopic image is identified using a classifier generated by machine learning based on the DRR image due to the difference in the components contained in the image between the X-ray fluoroscopic image and the DRR image. In some cases, it is considered that the accuracy of identification may decrease. Therefore, even if the components included in the X-ray fluoroscopic image (X-ray image) and the DRR image (two-dimensional projection image) are different, the classifier (learning model) generated by machine learning is used. It is desired to develop a medical image processing apparatus, an X-ray image processing system, and a learning model generation method capable of suppressing a decrease in the accuracy of extraction or removal of a specific part (specific part).
この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、X線画像と2次元投影画像とにおいて、画像に含まれる構成物が異なる場合においても、機械学習によって生成された学習モデルを用いて、特定部分の抽出または除去の精度が低下することを抑制することが可能な医用画像処理装置、X線画像処理システム、および、学習モデルの生成方法を提供することである。 The present invention has been made to solve the above-mentioned problems, and one object of the present invention is to use an X-ray image and a two-dimensional projected image even when the components contained in the images are different. , A medical image processing device capable of suppressing a decrease in the accuracy of extraction or removal of a specific part using a learning model generated by machine learning, an X-ray image processing system, and a method of generating a learning model. Is to provide.
上記目的を達成するために、この発明の第1の局面における医用画像処理装置は、3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、2次元投影画像に対して物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像と、入力教師画像と同じ領域における特定部分を示す画像または特定部分を除く画像である出力教師画像と、を生成する学習画像生成部と、入力教師画像および出力教師画像を用いて、機械学習を行うことにより、特定部分を抽出するか、または、特定部分を除去するための第1学習モデルを生成する学習モデル生成部と、学習済みの第1学習モデルに基づいて、X線撮影によって取得された被検体の特定部分を含むX線画像に対して、特定部分を抽出する処理と、特定部分を除去する処理とのいずれか一方を行う特定部分処理部と、を備える。なお、「X線画像」とは、X線透視画像およびX線撮影画像を含む。 In order to achieve the above object, the medical image processing apparatus according to the first aspect of the present invention relates to a region including a specific part of a subject acquired based on three-dimensional data having pixel value data in three dimensions. An image in which an object shape image including an image relating to a predetermined object separate from the subject is added to the dimensional projection image, and an image in which the object shape image is subtracted from the two-dimensional projection image. A learning image generator that generates an input teacher image including at least one, an image showing a specific part in the same area as the input teacher image, or an output teacher image that is an image excluding the specific part, and an input teacher image and an output teacher image. Based on a learning model generation unit that generates a first learning model for extracting a specific part or removing a specific part by performing machine learning using, and a trained first learning model. , A specific part processing unit that performs either a process of extracting a specific part or a process of removing a specific part of an X-ray image including a specific part of a subject acquired by X-ray imaging. Be prepared. The "X-ray image" includes a fluoroscopic image and an X-ray photographed image.
この発明の第2の局面における、X線画像処理システムは、3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、2次元投影画像に対して物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像と、入力教師画像と同じ領域における特定部分を示す画像または特定部分を除く画像である出力教師画像と、を生成する学習画像生成部と、入力教師画像および出力教師画像を用いて、機械学習を行うことにより、特定部分を抽出するか、または、特定部分を除去するための第1学習モデルを生成する学習モデル生成部と、X線撮影によって被検体の特定部分を含むX線画像を取得するX線撮影部と、学習済みの第1学習モデルに基づいて、特定部分を含むX線画像に対して、特定部分を抽出する処理と、特定部分を除去する処理とのいずれか一方を行う特定部分処理部と、を備える。 The X-ray image processing system in the second aspect of the present invention relates to a two-dimensional projected image of a region including a specific part of a subject acquired based on the three-dimensional data having pixel value data in three dimensions. , An input teacher that includes at least one of an image to which an object shape image including an image relating to a predetermined object separate from the subject is added and an image in which the object shape image is subtracted from the two-dimensional projected image. Machine learning using a learning image generator that generates an image and an image showing a specific part in the same area as the input teacher image or an image excluding the specific part, and an input teacher image and an output teacher image. By performing the above, a learning model generation unit that extracts a specific part or generates a first learning model for removing the specific part, and an X-ray image including a specific part of the subject are acquired by X-ray photography. Based on the X-ray imaging unit and the trained first learning model, either the process of extracting the specific part or the process of removing the specific part is performed on the X-ray image including the specific part. It is provided with a specific partial processing unit.
この発明の第3の局面における、学習モデルの生成方法は、3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、2次元投影画像に対して物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像を生成するステップと、3次元データに基づいて、入力教師画像と同じ領域における特定部分を示す画像または特定部分を除く画像である出力教師画像を生成するステップと、入力教師画像および出力教師画像を用いて、機械学習を行うことにより、特定部分を抽出するか、または、特定部分を除去するための第1学習モデルを生成するステップと、を備える。 The method of generating a learning model in the third aspect of the present invention is for a two-dimensional projected image of a region including a specific part of a subject acquired based on three-dimensional data having pixel value data in three dimensions. , An input teacher that includes at least one of an image to which an object shape image including an image relating to a predetermined object separate from the subject is added and an image in which the object shape image is subtracted from the two-dimensional projected image. A step to generate an image, a step to generate an output teacher image which is an image showing a specific part in the same area as the input teacher image or an image excluding the specific part based on 3D data, and an input teacher image and an output teacher image. It is provided with a step of extracting a specific part or generating a first learning model for removing the specific part by performing machine learning using the above.
上記第1の局面における医用画像処理装置と、上記第2の局面におけるX線画像処理システムとでは、学習画像生成部を、3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、2次元投影画像に対して上記物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像と、入力教師画像と同じ領域における特定部分を示す画像または特定部分を除く画像である出力教師画像と、を生成するように構成する。そして、学習モデル生成部を、上記入力教師画像および出力教師画像を用いて、機械学習を行うことにより、特定部分を抽出するか、または、特定部分を除去するための第1学習モデルを生成するように構成する。これにより、2次元投影画像に対して上記物体形状画像を加えることと減じることとの少なくとも一方を行うので、X線画像に含まれる構成物に対応するように2次元投影画像に含まれる構成物を変更することができる。つまり、2次元投影画像に含まれる構成物とX線画像に含まれる構成物との間に差異がある場合においても対応可能な学習モデルを生成することができる。たとえば、2次元投影画像に対してX線画像にのみ含まれる構成物を疑似的に含ませた画像(物体形状画像を含んだ画像)を入力教師画像として、機械学習を行うことによって学習モデルを生成することができる。このため、X線画像と2次元投影画像とにおいて、画像に含まれる構成物が異なる場合においても、機械学習によって生成された学習モデルを用いて、特定部分の抽出、または、特定部分の除去の精度が低下することを抑制することができる。 In the medical image processing apparatus in the first aspect and the X-ray image processing system in the second aspect, the learning image generation unit is acquired based on the three-dimensional data having the pixel value data in the three dimensions. An image in which an object shape image including an image of a predetermined object separate from the subject is added to a two-dimensional projected image of a region including a specific part of the sample, and an image of the above object with respect to the two-dimensional projected image. To generate an image with the shape image reduced, an input teacher image containing at least one of them, and an output teacher image that is an image showing a specific part in the same area as the input teacher image or an image excluding the specific part. Configure. Then, the learning model generation unit performs machine learning using the input teacher image and the output teacher image to extract a specific part or generate a first learning model for removing the specific part. It is configured as follows. As a result, at least one of adding and reducing the object shape image to the two-dimensional projected image is performed, so that the components included in the two-dimensional projected image correspond to the components included in the X-ray image. Can be changed. That is, it is possible to generate a learning model that can handle even when there is a difference between the constituents included in the two-dimensional projected image and the constituents included in the X-ray image. For example, a learning model is created by performing machine learning using an image (an image including an object shape image) in which a component contained only in an X-ray image is pseudo-included in a two-dimensional projected image as an input teacher image. Can be generated. Therefore, even when the components contained in the image are different between the X-ray image and the two-dimensional projected image, the learning model generated by machine learning is used to extract a specific part or remove the specific part. It is possible to suppress a decrease in accuracy.
また、この発明の上記第3の局面における学習モデルの生成方法では、3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、2次元投影画像に対して物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像を生成するステップと、3次元データに基づいて、入力教師画像と同じ領域における特定部分を示す画像または特定部分を除く画像である出力教師画像を生成するステップと、を備える。これにより、2次元投影画像に対して上記物体形状画像を加えることと減じることとの少なくとも一方を行うので、X線画像に含まれる構成物に対応するように2次元投影画像に含まれる構成物を変更することができる。つまり、2次元投影画像に含まれる構成物とX線画像に含まれる構成物との間に差異がある場合においても対応可能な学習モデルを生成することができる。たとえば、X線画像に含まれる構成物を疑似的に含ませた状態(物体形状画像を含んだ状態)の2次元投影画像を入力教師画像として、機械学習を行うことができる。その結果、X線画像と2次元投影画像とにおいて、画像に含まれる構成物が異なる場合においても、特定部分の抽出または除去の精度が低下することを抑制することが可能な学習モデルを提供することができる。 Further, in the method of generating a learning model in the third aspect of the present invention, a two-dimensional projected image of a region including a specific part of a subject acquired based on three-dimensional data having pixel value data in three dimensions is obtained. On the other hand, it includes at least one of an image to which an object shape image including an image relating to a predetermined object separate from the subject is added and an image in which the object shape image is subtracted from the two-dimensional projected image. It includes a step of generating an input teacher image and a step of generating an output teacher image which is an image showing a specific portion in the same region as the input teacher image or an image excluding the specific portion based on three-dimensional data. As a result, at least one of adding and reducing the object shape image to the two-dimensional projected image is performed, so that the components included in the two-dimensional projected image correspond to the components included in the X-ray image. Can be changed. That is, it is possible to generate a learning model that can handle even when there is a difference between the constituents included in the two-dimensional projected image and the constituents included in the X-ray image. For example, machine learning can be performed using a two-dimensional projected image in a state in which a component included in an X-ray image is pseudo-included (a state in which an object shape image is included) as an input teacher image. As a result, a learning model capable of suppressing a decrease in the accuracy of extraction or removal of a specific portion even when the components contained in the image are different between the X-ray image and the two-dimensional projection image is provided. be able to.
以下、本発明を具体化した実施形態を図面に基づいて説明する。 Hereinafter, embodiments embodying the present invention will be described with reference to the drawings.
[第1実施形態]
図1〜図11を参照して、本発明の第1実施形態によるX線画像処理システム100の構成について説明する。
[First Embodiment]
The configuration of the X-ray
(X線画像処理システムの構成)
図1に示すように、X線画像処理システム100は、放射線治療装置1と、治療計画装置2と、学習装置3と、X線撮影部4と、X線画像処理装置5と、を備える。なお、学習装置3およびX線画像処理装置5は、特許請求の範囲の「医用画像処理装置」の一例である。
(Configuration of X-ray image processing system)
As shown in FIG. 1, the X-ray
X線画像処理システム100は、放射線治療装置1によって、がんなどの腫瘍を含む特定部分Qを治療する際に、被検体Pの呼吸などによって位置が変化する特定部分Qを追跡する追跡装置として構成されている。
The X-ray
図2に示すように、放射線治療装置1は、天板11、ガントリー12、基台13、および、ヘッド14を備える。天板11は、放射線を照射される被検体Pが載置される。ガントリー12は、床面に配置されている基台13に対して移動可能に構成されている。ヘッド14は、ガントリー12に配置されており、被検体Pに対して治療ビームを照射する。そして、放射線治療装置1は、ガントリー12が基台13に対して回動することによって、ヘッド14から照射する治療ビームの被検体Pに対する照射方向を変更可能なように構成されている。
As shown in FIG. 2, the radiotherapy apparatus 1 includes a top plate 11, a
また、放射線治療装置1は、後述するX線画像処理装置5からの信号に基づいて、治療ビームを照射する位置および照射するタイミングを制御するように構成されている。具体的には、被検体Pの特定部分Qに治療ビームを照射する際に、被検体Pの呼吸などによって、特定部分Qの位置が変化する。放射線治療装置1は、X線画像処理装置5によって取得された特定部分Qの位置に基づく信号によって、特定部分Qに放射線(治療ビーム)を照射することが可能なように構成されている。 Further, the radiotherapy device 1 is configured to control the position and timing of irradiating the treatment beam based on a signal from the X-ray image processing device 5 described later. Specifically, when the treatment beam is irradiated to the specific portion Q of the subject P, the position of the specific portion Q changes due to the respiration of the subject P or the like. The radiotherapy apparatus 1 is configured so that the specific portion Q can be irradiated with radiation (treatment beam) by a signal based on the position of the specific portion Q acquired by the X-ray image processing apparatus 5.
治療計画装置2は、医師が被検体Pに対する放射線治療の計画を行うための装置である。すなわち、図示しないCT(Computed Tomography:コンピュータ断層撮影)装置によって、特定部分Qを含む領域についての3次元のCT画像データCが生成される。そして、治療計画装置2において、3次元のCT画像データCと被検体Pに関する診察情報とに基づいて、治療の計画が行われる。つまり、治療計画装置2は、3次元のCT画像データCと被検体Pに関する診察情報に基づいて、治療計画データを生成する。CT画像データCは、3次元における画素値データ(CT値)を有する3次元データである。CT値は、X線の透過しやすさを数値で表したものである。CT画像は、図3に示すように、被検体Pの体内についてのCT値の大小を濃淡で表した画像である。ここで、CT画像データCは、複数の2次元のCT画像に基づいて生成された3次元のボクセルデータである。また、治療計画装置2において、CT画像データC上の特定部分Qに対応する画素部分(ボクセル)が、医師によって特定部分Qとして指定される。そして、治療計画装置2は、指定された特定部分Qについての情報を含んだ状態のCT画像データCを記憶する。なお、CT画像データCは、特許請求の範囲の「3次元データ」の一例である。 The treatment planning device 2 is a device for a doctor to plan radiotherapy for a subject P. That is, a CT (Computed Tomography) device (not shown) generates three-dimensional CT image data C for a region including a specific portion Q. Then, in the treatment planning device 2, the treatment is planned based on the three-dimensional CT image data C and the medical examination information regarding the subject P. That is, the treatment planning device 2 generates treatment planning data based on the three-dimensional CT image data C and the examination information regarding the subject P. The CT image data C is three-dimensional data having pixel value data (CT value) in three dimensions. The CT value is a numerical value indicating the ease with which X-rays can be transmitted. As shown in FIG. 3, the CT image is an image showing the magnitude of the CT value of the subject P in the body in shades of light. Here, the CT image data C is three-dimensional voxel data generated based on a plurality of two-dimensional CT images. Further, in the treatment planning device 2, the pixel portion (voxel) corresponding to the specific portion Q on the CT image data C is designated as the specific portion Q by the doctor. Then, the treatment planning device 2 stores the CT image data C in a state including the information about the designated specific portion Q. The CT image data C is an example of "three-dimensional data" in the claims.
図1に示すように、学習装置3は、第1制御部30を含む。第1制御部30は、たとえば、CPU(Central Processing Unit)を有する。学習装置3は、ハードウェア的な構成として、たとえば、CPU、GPU(Graphics Processing Unit)、ROM(Read Only Memory)、および、RAM(Random Access Memory)などを有する。また、学習装置3は、記憶部として、HDD(Hard Disk Drive)または不揮発性のメモリなどを含んでいる。
As shown in FIG. 1, the learning device 3 includes a
図4に示すように、第1制御部30は、機能的な構成として、DRR画像生成部31、教師画像生成部32、および、学習モデル生成部33を含む。DRR画像生成部31、教師画像生成部32、および、学習モデル生成部33は、プログラム(ソフトウェア)として構成されている。すなわち、第1制御部30が、プログラム(ソフトウェア)を実行することによって、DRR画像生成部31、教師画像生成部32、および、学習モデル生成部33として機能するように構成されている。なお、DRR画像生成部31および教師画像生成部32は、特許請求の範囲の「学習画像生成部」の一例である。
As shown in FIG. 4, the
また、第1制御部30は、図5に示すように、治療計画装置2によって取得されたCT画像データCに基づいて、入力教師画像T1および出力教師画像T2を生成する処理を行うとともに、機械学習を行うことによって、特定部分Qを抽出するための第1学習モデルM1とマーカーEを抽出するための第2学習モデルM2(図11参照)とを生成する処理を行う。なお、第1学習モデルM1および第2学習モデルM2についての詳細は後述する。
Further, as shown in FIG. 5, the
X線撮影部4は、図2に示すように、X線撮影によって被検体Pの特定部分Qを含むX線透視画像Aを取得する。X線撮影部4は、X線照射部41と、X線検出部42とを含む。X線照射部41は、第1X線管41a、第2X線管41b、第3X線管41c、および、第4X線管41dを有する。また、X線検出部42は、第1X線検出器42a、第2X線検出器42b、第3X線検出器42c、および、第4X線検出器42dを有する。第1〜第4X線検出器42a〜42dは、それぞれ、たとえば、FPD(Flat Panel Detector)を有する。第1X線検出器42aは、第1X線管41aより照射されたX線を検出する。第1X線管41aと第1X線検出器42aとは、第1X線撮影系を構成する。同様に、第2X線検出器42bは、第2X線管41bより照射されたX線を検出する。第2X線管41bと第2X線検出器42bとは、第2X線撮影系を構成する。同様に、第3X線検出器42cは、第3X線管41cより照射されたX線を検出する。第3X線管41cと第3X線検出器42cとは、第3X線撮影系を構成する。同様に、第4X線検出器42dは、第4X線管41dより照射されたX線を検出する。第4X線管41dと第4X線検出器42dとは、第4X線撮影系を構成する。なお、X線透視画像Aは、特許請求の範囲の「X線画像」の一例である。
As shown in FIG. 2, the X-ray imaging unit 4 acquires an X-ray fluoroscopic image A including a specific portion Q of the subject P by X-ray imaging. The X-ray imaging unit 4 includes an
なお、放射線治療を行うために被検体Pの特定部分Qを含む領域をX線撮影する際には、第1〜第4X線撮影系の4つの撮影系のうちから2つの撮影系が選択されてX線撮影部4として使用される。 When X-ray imaging a region including a specific portion Q of the subject P for radiotherapy, two imaging systems are selected from the four imaging systems of the first to fourth X-ray imaging systems. It is used as an X-ray imaging unit 4.
図1に示すように、X線画像処理装置5は、第2制御部50および操作部53を含む。第2制御部50は、たとえば、CPUを有する。X線画像処理装置5は、ハードウェア的な構成として、たとえば、CPU、GPU、ROM、および、RAMなどを有する。また、X線画像処理装置5は、記憶部として、HDDまたは不揮発性のメモリなどを含んでいる。
As shown in FIG. 1, the X-ray image processing device 5 includes a
図4に示すように、第2制御部50は、機能的な構成として、特定部分処理部51、および、マーカー処理部52を含む。特定部分処理部51、および、マーカー処理部52は、プログラム(ソフトウェア)によって構成されている。すなわち、第2制御部50は、プログラム(ソフトウェア)を実行することによって、特定部分処理部51、および、マーカー処理部52として機能するように構成されている。
As shown in FIG. 4, the
X線画像処理装置5は、図5に示すように、学習装置3によって生成された第1学習モデルM1および第2学習モデルM2(図11参照)に基づいて、X線撮影部4によって撮影されたX線画像であるX線透視画像Aに対して、特定部分Qを抽出する処理を行う。X線透視は、一般X線撮影に比べて少ない量のX線を連続的に照射することによって、被ばく量の増加を抑制しながら、被検体Pの体内の様子を動画像として取得する方法である。X線画像処理装置5は、X線撮影部4によって撮影されたX線透視画像Aを入力データとして、学習装置3において機械学習によって生成された第1学習モデルM1および第2学習モデルM2を用いることによって、特定部分Qの位置を追跡するための出力画像Aαを取得する。そして、X線画像処理装置5は、取得した特定部分Qの位置に関する情報に基づいて、放射線治療装置1が治療ビームを照射する位置と、治療ビームを照射するタイミングとを制御するための信号を、放射線治療装置1に対して送信する。 As shown in FIG. 5, the X-ray image processing device 5 is photographed by the X-ray photographing unit 4 based on the first learning model M1 and the second learning model M2 (see FIG. 11) generated by the learning device 3. A process for extracting a specific portion Q is performed on the X-ray fluoroscopic image A which is an X-ray image. X-ray fluoroscopy is a method of continuously irradiating a smaller amount of X-rays than general X-ray photography to acquire a moving image of the inside of the subject P while suppressing an increase in the amount of exposure. is there. The X-ray image processing device 5 uses the first learning model M1 and the second learning model M2 generated by machine learning in the learning device 3 as input data of the X-ray fluoroscopic image A captured by the X-ray photographing unit 4. By doing so, the output image Aα for tracking the position of the specific portion Q is acquired. Then, the X-ray image processing device 5 outputs a signal for controlling the position at which the radiotherapy device 1 irradiates the treatment beam and the timing at which the treatment beam is radiated, based on the acquired information regarding the position of the specific portion Q. , Transmit to the radiotherapy device 1.
特定部分処理部51は、学習済みの第1学習モデルM1に基づいて、X線撮影によって取得された被検体Pの特定部分Qを含むX線透視画像Aに対して、特定部分Qを抽出する処理を行う。
The specific
マーカー処理部52は、学習済みの第2学習モデルM2に基づいて、X線撮影によって取得された被検体Pの特定部分Qを含むX線透視画像Aに対して、マーカーEを抽出することによって特定部分Qを抽出する処理を行う。
The
操作部53は、特定部分処理部51とマーカー処理部52とのいずれによって、処理を行うかを選択するための入力操作を受け付ける。具体的には、被検体Pの体内に留置されているマーカーEの位置および個数の少なくとも一方が、CT画像データCとX線透視画像Aとで変化している場合には、マーカーEの位置および個数によらず特定部分Qを抽出するために特定部分処理部51による処理が選択される。また、被検体Pの体内に留置されているマーカーEの位置および個数の両方が、CT画像データCとX線透視画像Aとで変化していない場合には、マーカーEを抽出するためにマーカー処理部52による処理が選択される。操作部53は、たとえば、マウスおよびキーボードを含む。
The
(第1実施形態における第1学習モデルの生成に関して)
ここで、本実施形態では、DRR画像生成部31によって、CT画像データCに基づいて、被検体Pの特定部分Qを含む領域についてのDRR画像Dが生成され取得される。そして、教師画像生成部32によって、取得されたDRR画像Dに対して、被検体Pとは別個の所定の物体に関する画像を含む物体形状画像Bが加えられている画像と、DRR画像Dに対して物体形状画像Bが減じられている画像との少なくとも一方を含む入力教師画像T1が生成される。また、教師画像生成部32によって、入力教師画像T1と同じ領域における特定部分Qを示す画像である出力教師画像T2が生成される。そして、学習モデル生成部33によって、入力教師画像T1および出力教師画像T2を用いて、機械学習を行うことにより、特定部分Qの抽出を行うための第1学習モデルM1を生成する。
(Regarding the generation of the first learning model in the first embodiment)
Here, in the present embodiment, the DRR
<DRR画像の生成に関して>
DRR画像生成部31は、図6に示すように、コンピュータ断層撮影による3次元データであるCT画像データCに基づいて、デジタル再構成シミュレーションによって特定部分Qを含むDRR画像Dを生成する。なお、DRR画像Dは、特許請求の範囲における「2次元投影画像」の一例である。
<Regarding DRR image generation>
As shown in FIG. 6, the DRR
DRR画像生成部31は、DRR画像Dを生成するにあたって、3次元仮想空間上において、仮想的なX線管41αと仮想的なX線検出器42αとを、CT画像データCに対してX線撮影を行うように配置することによって、仮想的なX線撮影系の3次元空間的配置(撮影ジオメトリ)を生成する。これらのCT画像データCと、CT画像データCに対する仮想的なX線撮影系の配置は、図2に示す実際の被検体PとX線照射部41とX線検出部42との配置と同一の撮影ジオメトリとなっている。ここで、撮影ジオメトリとは、被検体PとX線照射部41およびX線検出部42との3次元空間における幾何学的な配置関係を意味する。
In generating the DRR image D, the DRR
そして、DRR画像生成部31は、仮想的なX線管41αから仮想的なX線検出器42αに対してX線を照射することによって、CT画像データCを仮想的にX線撮影する。このとき、DRR画像生成部31は、X線管41αから照射されたX線が仮想的なX線検出器42αに到達するまでに通過した画素部分(ボクセル)におけるCT値の合計を加算することによってDRR画像Dにおける各画素値を計算する。
Then, the DRR
上記のようにして、DRR画像生成部31は、3次元における画素値データであるCT画像データCに対して、X線撮影部4によって取得される被検体PのX線透視画像Aと同一領域を同一角度から撮影したものとなるように、仮想的にX線撮影が行われたものとして2次元に投影することによってDRR画像Dを生成する。
As described above, the DRR
<入力教師画像および出力教師画像の生成に関して>
CT画像データCに基づいて生成されたDRR画像Dと、X線撮影部4によって撮影されたX線透視画像Aとでは、画像に含まれる構成物が異なる場合がある。たとえば、図7に示すように、X線検出部42に含まれるFPDのカバーFは、CT画像データCに基づいて生成されるDRR画像Dには含まれないが、X線透視画像Aには含まれる場合がある。このように、DRR画像Dに含まれる構成物とX線透視画像Aに含まれる構成物との間に差異がある場合、学習モデルを用いた特定部分Qの抽出の精度が低下する場合がある。そのため、DRR画像Dに含まれる構成物とX線透視画像Aに含まれる構成物との間に差異がある場合においても特定部分Qの抽出が精度よく行われるように、教師画像生成部32によって、DRR画像Dに対して処理を行う。言い換えると、DRR画像Dに含まれる構成物をX線透視画像Aに含まれる構成物に対応させた状態のDRR画像Dを入力教師画像T1として機械学習を行う。
<Regarding the generation of input teacher image and output teacher image>
The DRR image D generated based on the CT image data C and the X-ray fluoroscopic image A captured by the X-ray imaging unit 4 may have different components included in the image. For example, as shown in FIG. 7, the cover F of the FPD included in the
具体的には、教師画像生成部32は、図8に示すように、生成されたDRR画像Dに対して被検体Pとは別個の所定の物体に関する画像を含む物体形状画像Bが加えられている画像と、生成されたDRR画像Dに対して物体形状画像Bが減じられている画像との少なくとも一方を含む入力教師画像T1を生成する。教師画像生成部32は、生成されたDRR画像Dに対して2次元の物体形状画像Bを加えることと、生成されたDRR画像Dに対して2次元の物体形状画像Bを減じることとの少なくとも一方を行うことによって、入力教師画像T1を生成するように構成されている。
Specifically, as shown in FIG. 8, the teacher
物体形状画像Bは、X線透視画像Aに含まれる構成物を模した画像とX線透視画像Aに含まれる構成物を撮影した画像との少なくとも一方を含む。物体形状画像Bは、被検体Pとは別個の所定の物体として、X線を検出するための検出器(第1〜第4X線検出器42a〜42d)および被検体Pが載置されている天板11の少なくとも一方を含む構造物と、マーカーE、カテーテル、および、ステントの少なくとも1つを含む被検体Pの体内に留置される部材との少なくとも一方を含む。すなわち、物体形状画像Bは、DRR画像Dには含まれていないが、X線透視画像Aには含まれている構成物を含む画像である。また、物体形状画像Bは、前述した構造物および部材に限られず、放射線照射装置による治療ビームの散乱によるノイズを模した図形も含む。
The object shape image B includes at least one of an image imitating a component included in the X-ray fluoroscopic image A and an image obtained by photographing the component included in the X-ray fluoroscopic image A. In the object shape image B, detectors (first to
たとえば、X線透視画像Aに被検体Pとは別個の物体である構造物としてX線検出部42の一部であるFPDのカバーFが映りこむ場合、DRR画像Dに対してFPDのカバーFを模した物体形状画像Bを加えた画像を入力教師画像T1として機械学習を行う。この場合、物体形状画像Bは、FPDのカバーFを模した直線状の画像として表される。また、図9に示すように、放射線治療を行う際には、放射線治療装置1による治療ビームによる散乱線の影響で、X線透視画像Aに横線状のノイズが生じる場合がある。この場合は、直線状の画像である物体形状画像Bを横線としてDRR画像Dに加えることによって、治療ビームによるノイズを模すことができる。
For example, when the cover F of the FPD, which is a part of the
また、たとえば、図10に示すように、被検体Pの体内に金属で構成されたマーカーEが留置されている場合は、X線透視画像AとDRR画像Dとの両方にマーカーEが映りこむ。なお、マーカーEは、放射線治療を行う際に、被検体Pの特定部分Qの位置を特定するための印として、CT画像データCを取得する前に被検体Pの体内に穿刺などによって留置されるものである。しかし、CT画像データCを取得した時点から、放射線治療を行う時点までの間に、被検体Pの体内に留置していたマーカーEが脱落すること、および、マーカーEの位置が移動することなど、が起こる場合がある。そうした場合、CT画像データCに基づいて生成されたDRR画像Dに含まれるマーカーEの位置および個数と、X線透視画像Aに含まれるマーカーEの位置および個数と、に変化が現れることとなる。この変化がある場合には、学習モデルを用いた特定部分Qの抽出の精度が低下することがある。そのため、学習モデルを生成する際に、予めマーカーEの位置および個数が変更された複数のDRR画像Dを入力教師画像T1として、機械学習を行うことによってマーカーEの個数が変化している場合においても特定部分Qの抽出が可能な学習モデルを生成する。この場合、物体形状画像Bは、マーカーEを模した円形の画像で表される。そして、DRR画像Dに対してマーカーEを模した円形の画像を加えた入力教師画像T1を生成する。 Further, for example, as shown in FIG. 10, when the marker E made of metal is placed in the body of the subject P, the marker E is reflected in both the fluoroscopic image A and the DRR image D. .. The marker E is placed in the body of the subject P by puncture or the like before acquiring the CT image data C as a mark for specifying the position of the specific portion Q of the subject P when performing radiotherapy. It is a thing. However, between the time when the CT image data C is acquired and the time when the radiotherapy is performed, the marker E indwelled in the body of the subject P falls off, and the position of the marker E moves. , May occur. In such a case, the position and number of markers E included in the DRR image D generated based on the CT image data C and the position and number of markers E included in the fluoroscopic image A will change. .. When there is this change, the accuracy of extracting the specific part Q using the learning model may decrease. Therefore, when the learning model is generated, the number of markers E is changed by performing machine learning using a plurality of DRR images D whose positions and numbers of markers E are changed in advance as input teacher images T1. Also generates a learning model that can extract a specific part Q. In this case, the object shape image B is represented by a circular image imitating the marker E. Then, the input teacher image T1 is generated by adding a circular image imitating the marker E to the DRR image D.
このようにして、教師画像生成部32は、生成されたDRR画像Dに対して2次元の物体形状画像Bを加えることと、生成されたDRR画像Dに対して2次元の物体形状画像Bを減じることとの少なくとも一方を行うことによって、入力教師画像T1を生成するように構成されている。
In this way, the teacher
また、2次元の物体形状画像Bを用いる場合とは別に、3次元の画素値データを有するCT画像データCに3次元的に処理を行うことによって、X線透視画像Aに含まれる構成物に、DRR画像Dを対応させた状態で入力教師画像T1を生成する場合も考えられる。すなわち、教師画像生成部32は、コンピュータ断層撮影による3次元データであるCT画像データCに対して、3次元の物体形状画素値データを加えることと、3次元データに対して3次元の物体形状画素値データを減じることとの少なくとも一方を行った状態で、デジタル再構成シミュレーションにより2次元に投影することによって、入力教師画像T1を生成するように構成されている。
Further, apart from the case where the two-dimensional object shape image B is used, the CT image data C having the three-dimensional pixel value data is processed three-dimensionally to obtain the component included in the X-ray fluoroscopic image A. , It is also conceivable to generate the input teacher image T1 in a state where the DRR image D is associated with each other. That is, the teacher
たとえば、マーカーEが脱落および移動したX線透視画像Aを模したDRR画像Dを入力教師画像T1として生成する場合について考える。CT画像データCにおいて、被検体Pの体内に留置されたマーカーEは、金属であるため、被検体Pの体組織と比べて非常に高いCT値を示す。そのため、CT値に基づいて、体内にマーカーEを留置された状態で取得された被検体PについてのCT画像データCのうちからマーカーEを表す画素部分(ボクセル)を指定することが可能である。つまり、ある値(たとえば、CT値が1000)よりも大きい画素部分(ボクセル)をマーカーEとして指定する。そこで、指定されたマーカーEを示す画素部分(ボクセル)を除去することと、CT画像データ中の適当な位置にマーカーEと同じ値のCT値を加えることとを行う。このように、教師画像生成部32は、3次元データであるCT画像データCにおいて、物体形状画素値データ(マーカーEについてのCT値)を加えることと、物体形状画素値データを減じることとを行い、CT画像データC上で、仮想的にマーカーEの位置および個数を自由に変更させることが可能となる。そして、教師画像生成部32は、マーカーEの位置および個数を変更させた状態において、デジタル再構築シミュレーションによって、マーカーEの位置および個数が変更された複数の入力教師画像T1を生成する。
For example, consider a case where a DRR image D imitating an X-ray fluoroscopic image A in which the marker E is dropped and moved is generated as an input teacher image T1. In the CT image data C, since the marker E placed in the body of the subject P is a metal, it shows a very high CT value as compared with the body tissue of the subject P. Therefore, based on the CT value, it is possible to specify a pixel portion (voxel) representing the marker E from the CT image data C of the subject P acquired with the marker E placed in the body. .. That is, a pixel portion (voxel) larger than a certain value (for example, a CT value of 1000) is designated as the marker E. Therefore, the pixel portion (voxel) indicating the designated marker E is removed, and the CT value having the same value as the marker E is added to an appropriate position in the CT image data. In this way, the teacher
また、教師画像生成部32は、入力教師画像T1を生成する際、DRR画像Dに対して被検体Pとは別個の所定の物体に関する画像を含む物体形状画像Bを、ランダムな位置にランダムな大きさで加えることと、DRR画像Dに対して物体形状画像Bをランダムな位置にランダムな大きさで減じることと、の少なくとも一方を行うように構成されている。たとえば、直線で表された物体形状画像Bについて、位置、角度、線の太さ、画素値、および、本数などをランダムに変更させながらDRR画像Dに加えることによって入力教師画像T1を生成する。また、円形である物体形状画像Bについて、位置、大きさ(半径)、画素値、および、個数をランダムに変更させながらDRR画像Dに加えることによって入力教師画像T1を生成する。また、DRR画像Dに含まれるマーカーEの数をランダムに減少させることによって入力教師画像T1を生成する。
Further, when the teacher
上記のように、教師画像生成部32は、生成されたDRR画像Dのランダムな位置にランダムな大きさの2次元での物体形状画像Bを加えることと、2次元での物体形状画像Bを減じることと、3次元のCT画像データCに対して、3次元の物体形状画素値データを加えることと、3次元の物体形状データを減じることとを、それぞれ、ランダムに組み合わせることによって、複数のパターンの入力教師画像T1を生成する。
As described above, the teacher
図5に示すように、教師画像生成部32は、入力教師画像T1と同様に、DRR画像Dに基づいて出力教師画像T2を生成する。具体的には、CT画像データCのうちの医師によって登録された特定部分Qに関する画素部分(ボクセル)についてのみのDRR画像Dを生成する。すなわち、CT画像データC全体ではなく、特定部分Qのみに対して、仮想的なX線撮影を行う。その結果、得られた特定部分QについてのDRR画像Dを、特定部分Qを含む領域と特定部分Qを含まない領域との2つの領域に区分して、2値化した出力教師画像T2を生成する。なお、複数のDRR画像Dに基づいて複数の入力教師画像T1を生成する場合には、複数の入力教師画像T1のそれぞれに対応する複数の出力教師画像T2を生成する。すなわち、複数の入力教師画像T1の各々における撮影ジオメトリと同一の撮影ジオメトリを用いて、出力教師画像T2を生成する。言い換えると、複数の入力教師画像T1の各々に対して、入力教師画像T1と同じ領域における特定部分Qを示す画像を出力教師画像T2として生成する。
As shown in FIG. 5, the teacher
<第1学習モデルの生成に関して>
学習モデル生成部33は、図5に示すように、教師画像生成部32によって生成された入力教師画像T1を入力層として取得する。そして、学習モデル生成部33は、治療計画装置2において登録された特定部分Qの領域を表すように教師画像生成部32によって生成された2チャンネルのラベル画像である出力教師画像T2を出力層として取得する。そして、学習モデル生成部33は、入力層および出力層を用いて、機械学習を行う。学習モデル生成部33は、学習モデルとして使用する畳み込み層を学習することによって、第1学習モデルM1を生成する。そして、特定部分処理部51は、生成された第1学習モデルM1を用いて、X線透視画像Aにおける特定部分Qの領域を抽出する。X線透視画像Aを入力層として、学習モデル生成部33によって生成された第1学習モデルM1を用いることにより、出力層として2チャンネルのラベル画像である出力画像Aαを生成する。
<Regarding the generation of the first learning model>
As shown in FIG. 5, the learning
画像処理において、たとえば、画像内の各々の画素をクラスに分類する(ラベル付けする)手法であるセマンティック・セグメンテーションを用いて特定部分Qを抽出する。セマンティック・セグメンテーションの手法として、FCN(Fully Convolutional Network:全層畳み込みネットワーク)が用いられる。FCNにおいて用いられる畳み込みニューラルネットワークは、たとえば、図5のような構成となる。そして、中間層は、畳み込み層のみで構成されており、機械学習によってパラメータが決定される。 In image processing, for example, a specific part Q is extracted by using semantic segmentation, which is a method of classifying (labeling) each pixel in an image into classes. As a method of semantic segmentation, FCN (Full Convolutional Network) is used. The convolutional neural network used in FCN has, for example, the configuration shown in FIG. The intermediate layer is composed of only the convolution layer, and the parameters are determined by machine learning.
(第2学習モデルによるマーカーの抽出に関して)
続いて、図11を参照して、第2学習モデルM2に関して説明する。特定部分Qを抽出するために用いられた第1学習モデルM1と異なり、第2学習モデルM2は、被検体Pの体内に留置されたマーカーEを抽出するために用いられる。
(Regarding marker extraction by the second learning model)
Subsequently, the second learning model M2 will be described with reference to FIG. Unlike the first learning model M1 used to extract the specific portion Q, the second learning model M2 is used to extract the marker E placed in the body of the subject P.
第2学習モデルM2は、図11に示すように、特定部分Qを示すためのマーカーEが被検体Pの体内に留置された状態で生成された入力教師画像T1であるマーカー抽出用入力教師画像T11と、マーカーEの位置を示す画像であるマーカー抽出用出力教師画像T3を用いて、学習モデル生成部33によって機械学習を行うことにより生成される。
As shown in FIG. 11, the second learning model M2 is an input teacher image for marker extraction, which is an input teacher image T1 generated in a state where the marker E for showing the specific portion Q is placed in the body of the subject P. It is generated by performing machine learning by the learning
教師画像生成部32は、入力教師画像T1と同様に、DRR画像Dに基づいてマーカー抽出用出力教師画像T3を生成する。具体的には、CT画像データCのうちのマーカーEに対応する画素部分に対して、仮想的なX線管41αと仮想的なX線検出器42αによって、マーカーEを投影するように仮想的なX線撮影を行う。その結果、得られた画像を、マーカーEとマーカーE以外との2つの領域に区分して、2値化したマーカー抽出用出力教師画像T3を生成する。なお、複数のDRR画像Dに基づいて複数のマーカー抽出用入力教師画像T11を生成する場合には、出力教師画像T2と同様に、複数のマーカー抽出用入力教師画像T11のそれぞれに対応する複数のマーカー抽出用出力教師画像T3を生成する。
The teacher
学習モデル生成部33は、第1学習モデルM1の生成と同様に、マーカー抽出用入力教師画像T11を入力層として、マーカー抽出用出力教師画像T3を出力層として機械学習を行うことによってマーカーEを抽出するための第2学習モデルM2を生成する。なお、第2学習モデルM2を生成する際のアルゴリズムは、第1学習モデルM1と同様である。
Similar to the generation of the first learning model M1, the learning
上記のようにして生成された、第1学習モデルM1および第2学習モデルM2に基づいて、特定部分Qが抽出される。そして、抽出された特定部分Qの位置に基づいて、放射線治療装置1に対して、放射線を照射する位置および放射線を照射するタイミングを制御するための信号が送られる。 The specific portion Q is extracted based on the first learning model M1 and the second learning model M2 generated as described above. Then, a signal for controlling the position to irradiate the radiation and the timing to irradiate the radiation is sent to the radiotherapy device 1 based on the position of the extracted specific portion Q.
(第1学習モデルの生成方法に関して)
次に、図12を参照して、学習装置3による第1学習モデルM1の生成方法について説明する。
(Regarding the generation method of the first learning model)
Next, a method of generating the first learning model M1 by the learning device 3 will be described with reference to FIG.
まず、ステップ101において、CT画像データCが取得される。
First, in
次に、ステップ102において、CT画像データCに基づいて取得された被検体Pの特定部分Qを含む領域についてのDRR画像Dに対して、被検体Pとは別個の所定の物体に関する物体形状画像Bが加えられている画像と、DRR画像Dに対して物体形状画像Bが減じられている画像と、の少なくとも一方を含む入力教師画像T1が生成される。
Next, in
次に、ステップ103において、CT画像データCに基づいて、上記DRR画像Dと同じ領域における特定部分Qを示す画像である出力教師画像T2が生成される。
Next, in
次に、ステップ104において、入力教師画像T1および、出力教師画像T2を用いて、機械学習を行うことにより、特定部分Qを抽出するための第1学習モデルM1が生成される。
Next, in
(放射線治療時における特定部分抽出についての処理)
次に、図13を参照して、第1実施形態によるX線画像処理システム100による制御処理フローについて説明する。
(Processing for specific partial extraction during radiation therapy)
Next, with reference to FIG. 13, the control processing flow by the X-ray
まず、ステップ111において、学習装置3によって、治療計画装置2によって生成されたCT画像データCが取得される。 First, in step 111, the learning device 3 acquires the CT image data C generated by the treatment planning device 2.
次に、ステップ112において、DRR画像生成部31によってDRR画像Dが生成される。
Next, in
次に、ステップ113において、教師画像生成部32において、入力教師画像T1およびマーカー抽出用入力教師画像T11と、出力教師画像T2およびマーカー抽出用出力教師画像T3とが生成される。
Next, in
次に、ステップ114において、学習モデル生成部33において、第1学習モデルM1および第2学習モデルM2が生成される。
Next, in step 114, the learning
次に、ステップ115において、X線撮影部4において、X線透視画像Aが撮影される。
Next, in
次に、ステップ116において、X線透視画像Aと第1学習モデルM1および第2学習モデルM2とに基づいて、特定部分Qが抽出される。
Next, in
次に、ステップ117において、抽出された特定部分Qの位置情報にもとづいて、放射線治療装置1に対して、信号が送られる。 Next, in step 117, a signal is sent to the radiotherapy device 1 based on the extracted position information of the specific portion Q.
次に、ステップ118において、放射線治療装置1によって、放射線が照射される。
Next, in
(X線画像処理システムの使用例)
次に、図14を参照して、第1実施形態におけるX線画像処理システム100の使用例について説明する。本発明の第1実施形態によるX線画像処理システム100が用いられる放射線治療は、がんなどの腫瘍に対して放射線(たとえば、高エネルギーのX線)を照射することによって、がんなどの腫瘍を治療する方法である。
(Example of using X-ray image processing system)
Next, an example of using the X-ray
はじめに、放射線治療を行うための、治療計画および事前準備が行われる。まず、ステップ121において、医師により、治療を施す患部である特定部分Qの位置を示すための印となるマーカーEが、被検体Pの体内に穿刺などによって留置される。次に、ステップ122において、CT装置によって被検体PのCT画像データCが取得される。そして、ステップ123において、医師により、CT画像データCと、被検体Pの臨床検査および診察とに基づいて、治療計画装置2において治療の計画が行われる。そして、ステップ124において、学習装置3によって、取得されたCT画像データCに基づいて、X線透視画像Aにおける特定部分Qを抽出するための学習モデルが機械学習によって生成される。このようにして、治療計画および事前準備が行われる。
First, a treatment plan and advance preparations are made for radiation therapy. First, in
次に、実際に放射線治療を行う。まず、ステップ125において、放射線治療装置1に備え付けられた診察台の天板11に載置された被検体Pに対して、X線撮影部4によってX線撮影が行われ、X線透視画像Aが取得される。次に、ステップ126において、取得されたX線透視画像Aに対して前述の学習モデルを用いることによって、X線画像処理装置5によって特定部分Qが抽出される。そして、ステップ127において、抽出された特定部分Qの位置に基づいて、放射線を照射することによって、放射線治療が行われる。
Next, radiation therapy is actually performed. First, in
(第1実施形態の効果)
第1実施形態では、以下のような効果を得ることができる。
(Effect of the first embodiment)
In the first embodiment, the following effects can be obtained.
第1実施形態のX線画像処理システム100は、上記のように、学習画像生成部(DRR画像生成部31および教師画像生成部32)を、3次元における画素値データを有する3次元データ(CT画像データC)に基づいて取得された被検体Pの特定部分Qを含む領域についての2次元投影画像(DRR画像D)に対して、被検体Pとは別個の所定の物体に関する画像を含む物体形状画像Bが加えられている画像と、DRR画像Dに対して上記物体形状画像Bが減じられている画像と、の少なくとも一方を含む入力教師画像T1と、入力教師画像T1と同じ領域における特定部分Qを示す画像または特定部分Qを除く画像である出力教師画像T2と、を生成するように構成する。そして、学習モデル生成部33を、上記入力教師画像T1および出力教師画像T2を用いて、機械学習を行うことにより、特定部分Qを抽出するか、または、特定部分Qを除去するための第1学習モデルM1を生成するように構成する。これにより、DRR画像Dに対して物体形状画像Bを加えることと減じることとの少なくとも一方を行うので、X線透視画像Aに含まれる構成物に対応するようにDRR画像Dに含まれる構成物を変更することができる。つまり、DRR画像Dに含まれる構成物とX線透視画像Aに含まれる構成物との間に差異がある場合においても対応可能な第1学習モデルM1を生成することができる。たとえば、DRR画像Dに対してX線透視画像Aにのみ含まれる構成物を疑似的に含ませた画像(物体形状画像Bを含んだ画像)を入力教師画像T1として、機械学習を行うことによって第1学習モデルM1を生成することができる。このため、X線透視画像AとDRR画像Dとにおいて、画像に含まれる構成物が異なる場合においても、機械学習によって生成された第1学習モデルM1を用いて、特定部分Qの抽出、または、特定部分Qの除去の精度が低下することを抑制することができる。
In the X-ray
また、第1実施形態では、以下のように構成したことによって、更なる効果が得られる。 Further, in the first embodiment, a further effect can be obtained by configuring as follows.
また、第1実施形態では、物体形状画像Bは、所定の物体として、X線を検出するための検出器(第1〜第4X線検出器42a〜42d)および被検体Pが載置される天板11の少なくとも一方を含む構造物と、所定の物体として、マーカーE、ガイドワイヤ、および、カテーテルの少なくとも1つを含む被検体Pの体内に留置される部材と、の少なくとも一方を模した画像と、構造物と部材との少なくとも一方を撮影した画像と、の少なくとも一方を含む。このように構成すれば、たとえば、X線を検出するための検出器(第1〜第4X線検出器42a〜42d)および被検体Pが載置される天板11の少なくとも一方を含む構造物と、マーカーE、ガイドワイヤ、および、カテーテルの少なくとも1つを含む被検体Pの体内に留置される部材との少なくとも一方がX線画像(X線透視画像A)に含まれている場合においても、2次元投影画像(DRR画像D)に上記構造物および上記部材の少なくとも一方を加えることによって、X線透視画像Aに含まれる構成物に対応させるように入力教師画像T1を生成することができる。その結果、X線透視画像Aと、3次元データ(CT画像データC)に基づいて作成されたDRR画像Dとにおいて、画像に含まれる構成物が異なる場合においても、機械学習によって生成された第1学習モデルM1または第2学習モデルM2を用いて、特定部分Qを抽出すること、または、特定部分Qを除去することができる。
Further, in the first embodiment, in the object shape image B, a detector for detecting X-rays (first to
また、第1実施形態では、特定部分Qを示すためのマーカーEが被検体Pの体内に留置された状態で生成された入力教師画像T1であるマーカー抽出用入力教師画像T11と、マーカーEの位置を示す画像であるマーカー抽出用出力教師画像T3とを用いて、学習モデル生成部33によって機械学習を行うことにより生成された、第2学習モデルM2に基づいて、X線撮影によって取得された被検体Pの特定部分Qを含むX線画像(X線透視画像A)に対して、マーカーEを抽出することによって特定部分Qを抽出する処理と、特定部分Qを除去する処理とのいずれか一方を行うマーカー処理部52をさらに備え、特定部分処理部51とマーカー処理部52とのいずれによって、処理を行うかが選択可能なように構成されている。このように構成すれば、画像処理によってマーカーEを抽出することによって特定部分Qを抽出することと、画像処理によって直接的に特定部分Qを抽出することとのいずれの処理を行うかを選択することができる。その結果、マーカーEが脱落するなどしてマーカーEを抽出することができなくなった場合においても、直接的に特定部分Qを抽出することと特定部分Qを除去することとのいずれか一方を行うことができる。
Further, in the first embodiment, the marker extraction input teacher image T11, which is the input teacher image T1 generated in a state where the marker E for indicating the specific portion Q is placed in the body of the subject P, and the marker E Obtained by X-ray photography based on the second learning model M2 generated by performing machine learning by the learning
また、第1実施形態では、入力操作を受け付ける操作部53をさらに備え、操作部53に対する操作の入力を受け付けたことに基づいて、特定部分処理部51とマーカー処理部52とのいずれによって処理を行うかが選択可能なように構成されている。このように構成すれば、操作者が特定部分処理部51とマーカー処理部52とのいずれを用いるかということを操作部53に対する入力操作によって選択することができる。その結果、特定部分処理部51による出力結果とマーカー処理部52による出力結果とのいずれを用いるかを選択する際に、容易に選択することができる。
Further, in the first embodiment, the
また、第1実施形態では、学習画像生成部(DRR画像生成部31および教師画像生成部32)と学習モデル生成部33とを含む第1制御部30と、特定部分処理部51を含む第2制御部50(250)と、をさらに備える。これにより、第1学習モデルM1および第2学習モデルM2を生成する処理と、特定部分Qを抽出することと特定部分Qを除去することとの少なくとも一方を行う処理と、を別個の制御部によって行うことができる。その結果、被検体Pに対して放射線治療を行う時点よりも前の時点において、予め学習モデルの生成を行うことができるので、放射線治療に要する時間の増大を抑制できる。
Further, in the first embodiment, the
また、第1実施形態では、学習画像生成部(DRR画像生成部31および教師画像生成部32)は、入力教師画像T1を生成する際、2次元投影画像(DRR画像D)に対して被検体Pとは別個の所定の物体に関する画像を含む物体形状画像Bを、ランダムな位置にランダムな大きさで加えることと、DRR画像Dに対して物体形状画像Bをランダムな位置にランダムな大きさで減じることと、の少なくとも一方を行うように構成されている。このように構成すれば、X線透視画像Aに含まれる構造物および部材について、位置および大きさがどのような構成であっても、X線透視画像Aに対応させるようにDRR画像Dを構成することができる。その結果、入力教師画像T1に基づいて第1学習モデルM1を生成する際に、様々な構成のX線透視画像Aに対応させるように第1学習モデルM1を生成することができるため、X線透視画像Aに含まれる構成物の構成によらず、機械学習によって生成された第1学習モデルM1を用いて特定部分Qを精度よく抽出することと、特定部分Qを精度よく除去することとができる。
Further, in the first embodiment, when the learning image generation unit (DRR
また、第1実施形態では、学習画像生成部(DRR画像生成部31および教師画像生成部32)は、コンピュータ断層撮影による3次元データ(CT画像データC)に基づいて、2次元投影画像(DRR画像D)をデジタル再構成シミュレーションにより生成するとともに、生成されたDRR画像Dに対して2次元の物体形状画像Bを加えることと、生成されたDRR画像Dに対して2次元の物体形状画像Bを減じることと、の少なくとも一方を行うことによって、入力教師画像T1を生成するように構成されている。このように構成すれば、X線透視画像Aに含まれる構成物を模した2次元の物体形状画像Bに基づいて入力教師画像T1を生成する場合において、物体形状画像Bを直線状、曲線状、および、円状などの簡易な形状によって表すことができる。このため、DRR画像DをX線透視画像Aの構成に対応させることによって入力教師画像T1を生成する際に、容易に入力教師画像T1を生成することができる。その結果、DRR画像Dに基づく機械学習によって生成された第1学習モデルM1および第2学習モデルM2を用いて、特定部分Qを抽出する際および特定部分Qを除去する際の精度の低下を容易に抑制することができる。
Further, in the first embodiment, the learning image generation unit (DRR
また、第1実施形態では、学習画像生成部(DRR画像生成部31および教師画像生成部32)は、コンピュータ断層撮影による3次元データ(CT画像データC)に対して、3次元の物体形状画素値データを加えることと、CT画像データCに対して3次元の物体形状画素値データを減じることとの少なくとも一方を行った状態で、デジタル再構成シミュレーションにより2次元に投影することによって、入力教師画像T1を生成するように構成されている。このように構成すれば、CT画像データCにおいて、被検体Pの体内に留置される立体物を模した3次元モデルを、CT画像データC上の被検体Pの体内に加えた状態で、2次元投影画像(DRR画像D)を生成することによって入力教師画像T1を生成することができる。このため、治療時に、実際に被検体Pの体内に立体物(部材)を留置する場合に得られるX線透視画像Aに、より対応した入力教師画像T1を生成することができる。その結果、機械学習によって生成された第1学習モデルM1および第2学習モデルM2を用いて特定部分Qを抽出する際、または、特定部分Qを除去する際の精度の低下をより抑制することができる。
Further, in the first embodiment, the learning image generation unit (DRR
[第2実施形態]
図15〜図20を参照して、第2実施形態によるX線画像処理システム200の構成について説明する。この第2実施形態は、放射線治療において特定部分Qを抽出(追跡)するように構成した第1実施形態とは異なり、血管造影において、骨部Hである特定部分QをX線画像A2上から除去して表示するように構成されている。なお、図中において、上記第1実施形態と同様の構成の部分には、同一の符号を付して図示するとともに説明を省略する。ここで、第2実施形態では、特定部分Qは骨部Hを含む。
[Second Embodiment]
The configuration of the X-ray
(第2実施形態によるX線画像処理システムの構成)
図15および図16に示すように、本発明の第2実施形態によるX線画像処理システム200は、表示装置201、CT装置202、学習装置203、X線撮影部204、および、X線画像処理装置205を備える。図17に示すように、X線画像処理システム200は、血管造影の際に、DRR画像D201およびDRR画像D202を用いた機械学習によってX線画像A2から骨部Hを除去するように学習された第3学習モデルM3に基づいて、X線画像A2から骨部Hを除去するように構成されている。また、X線画像処理システム200は、DRR画像D201およびDRR画像D202に含まれる構成物とX線画像A2に含まれる構成物との間に差異がある場合においても、精度よく骨部Hを除去することが可能な第3学習モデルM3を生成するように構成されている。なお、第3学習モデルM3は、特許請求の範囲の「第1学習モデル」の一例である。
(Configuration of X-ray image processing system according to the second embodiment)
As shown in FIGS. 15 and 16, the X-ray
表示装置201は、X線画像処理装置205によって生成された血管造影画像Kを表示するように構成されている。
The
CT装置202は、被検体PについてのCT画像を生成する。
The
図15に示すように、学習装置203は、第1制御部230を含む。第1制御部230は、たとえば、CPUを有する。学習装置203は、ハードウェア的な構成として、たとえば、CPU、GPU、ROM、および、RAMなどを有する。また、学習装置203は、記憶部として、HDDまたは不揮発性のメモリなどを含んでいる。学習装置203は、CT装置202によって生成された2次元のCT画像に基づいて3次元のCT画像データCを生成する。そして、学習装置203は、生成されたCT画像データCに基づいて、第3学習モデルM3を生成する。
As shown in FIG. 15, the
図18に示すように、第1制御部230は、機能的な構成として、DRR画像生成部231、教師画像生成部232、および、学習モデル生成部233を含む。DRR画像生成部231、教師画像生成部232、および、学習モデル生成部233は、第1実施形態と同様に、プログラム(ソフトウェア)として構成されている。すなわち、第1制御部230が、プログラム(ソフトウェア)を実行することによって、DRR画像生成部231、教師画像生成部232、および、学習モデル生成部233として機能するように構成されている。なお、DRR画像生成部231および教師画像生成部232は、特許請求の範囲の「学習画像生成部」の一例である。
As shown in FIG. 18, the
DRR画像生成部231は、図17に示すように、第1実施形態と同様にCT装置202において取得されたCT画像によって生成された3次元のCT画像データCに基づいて、DRR画像D201を生成する。すなわち、血管造影を行う際に被検体Pに行われるX線撮影と同一の撮影ジオメトリによってCT画像データCに対して仮想的なX線撮影を行うことによって、DRR画像D201を生成する。また、DRR画像D201を生成した際と同一の撮影ジオメトリにおいて、CT画像データCを構成する画素部分(ボクセル)のうち骨部Hに対応する部分を除いた状態でDRR画像D202を生成する。たとえば、DRR画像D202を生成する際に、CT値が100を超えるボクセルを骨部Hであるとして、骨部Hを除くようにDRR画像D202を生成する。
As shown in FIG. 17, the DRR
教師画像生成部232は、図19に示すように、第1実施形態と同様に、生成されたDRR画像D201に対して被検体Pとは別個の所定の物体に関する画像を含む物体形状画像Bが加えられている画像である入力教師画像T201を生成する。また、入力教師画像T201と同じ領域における骨部Hを含む特定部分Qを除くように生成されたDRR画像D202に対して、入力教師画像T201と同じ位置に同じ大きさの物体形状画像Bが加えられている画像である出力教師画像T202を生成する。つまり、DRR画像生成部231によって、同一の領域について、同一の撮影ジオメトリによって取得された生成されたDRR画像D201およびDRR画像D202に対して、同じ位置に同じ大きさの物体形状画像Bが加えられている画像を、それぞれ、入力教師画像T201および出力教師画像T202として生成する。
As shown in FIG. 19, the teacher
学習モデル生成部233は、図20に示すように、入力教師画像T201を入力層とするとともに、出力教師画像T202を出力層として、機械学習を行い、第3学習モデルM3を生成する。また、この際、学習モデル生成部233は、物体形状画像Bの種類、個数、大きさ、画素値、濃度などをランダムに加えた複数の入力教師画像T201および出力教師画像T202によって機械学習を行う。
As shown in FIG. 20, the learning
X線撮影部204は、図16に示すように、X線照射部241と、X線検出部242と、天板243と、を含む。X線照射部241は、天板243に載置されている被検体Pに対してX線を照射する。X線検出部242は、X線照射部241によって照射されたX線を検出する。X線検出部242は、FPDを有する。天板243は、X線撮影が行われる被検体Pが載置される。
As shown in FIG. 16, the
図15に示すように、X線画像処理装置205は、第2制御部250を含む。第2制御部250は、たとえば、CPUを有する。X線画像処理装置205は、ハードウェア的な構成として、たとえば、CPU、GPU、ROM、および、RAMなどを有する。また、X線画像処理装置205は、記憶部として、HDDまたは不揮発性のメモリなどを含んでいる。
As shown in FIG. 15, the X-ray
図18に示すように、第2制御部250は、機能的な構成として、骨部処理部251を含む。骨部処理部251は、プログラム(ソフトウェア)によって構成されている。すなわち、第2制御部250は、プログラム(ソフトウェア)を実行することによって、骨部処理部251として機能するように構成されている。
As shown in FIG. 18, the
X線画像処理装置205は、機械学習によって学習済みの第3学習モデルM3を学習装置203より取得する。そして、骨部処理部251は、取得した第3学習モデルM3に基づいて、X線撮影部204によって撮影されたX線画像A2から骨部Hを除去した出力画像Aβ(図20参照)を生成するように構成されている。そして、X線画像処理装置205は、撮影された出力画像Aβを用いて、血管造影を行うことによって、骨部Hが除去された状態で血管造影を行うとともに、血管造影の結果である血管造影画像Kを表示装置201に表示させる。なお、骨部処理部251は、特許請求の範囲の「特定部分処理部」の一例である。
The X-ray
なお、第2実施形態のその他の構成については、第1実施形態と同様である。 The other configurations of the second embodiment are the same as those of the first embodiment.
(第2実施形態のX線画像処理システム200による制御処理)
次に、図21を参照して、第2実施形態によるX線画像処理システム200による制御処理フローについて説明する。
(Control processing by the X-ray
Next, with reference to FIG. 21, the control processing flow by the X-ray
まず、ステップ211において、CT装置202よりCT画像が取得される。そして、DRR画像生成部231によって3次元のCT画像データCが生成される。
First, in step 211, a CT image is acquired from the
次に、ステップ212において、DRR画像生成部231によってDRR画像D201およびDRR画像D202が生成される。
Next, in step 212, the DRR
次に、ステップ213において、入力教師画像T201および出力教師画像T202が生成される。
Next, in
次に、ステップ214において、第3学習モデルM3が生成される。
Next, in
次に、ステップ215において、X線撮影部204によって、X線画像A2が撮影される。
Next, in step 215, the X-ray image A2 is photographed by the
次に、ステップ216において、X線画像処理装置205によって、撮影されたX線画像A2において骨部Hが除去される。
Next, in
次に、ステップ217において、骨部Hが除去されたX線画像A2を用いて血管造影が行われ、血管造影を行った結果である血管造影画像Kが表示装置201に表示される。
Next, in
(第2実施形態の効果)
第2実施形態では、以下のような効果を得ることができる。
(Effect of the second embodiment)
In the second embodiment, the following effects can be obtained.
第2実施形態では、上記のように、特定部分Qは、骨部Hを含み、学習画像生成部(DRR画像生成部231および教師画像生成部232)は、入力教師画像T201と同じ領域における骨部Hを含む特定部分Qを除くように生成された2次元投影画像(DRR画像D201およびDRR画像D202)に対して、入力教師画像T201と同じ位置に同じ大きさの物体形状画像Bが加えられている画像と、骨部Hを含む特定部分Qを除くように生成されたDRR画像D201およびDRR画像D202に対して、同じ位置に同じ大きさの物体形状画像Bが減じられている画像と、の少なくとも一方を含むように出力教師画像T202を生成するように構成されている。このように構成すれば、入力教師画像T201と出力教師画像T202との両方に3次元データ(CT画像データC)に基づくDRR画像D201およびDRR画像D202を用いる場合でも、X線画像A2の構成に対応可能なように第3学習モデルM3を生成することができる。その結果、入力教師画像T201と出力教師画像T202との両方にCT画像データCに基づく2次元投影画像であるDRR画像D201およびDRR画像D202を用いる場合でも、入力教師画像T201の構成をX線画像A2の構成に対応させることによって、特定部分Q(骨部H)を抽出する際および特定部分Q(骨部H)を除去する際の精度が低下することを抑制することができる。
In the second embodiment, as described above, the specific portion Q includes the bone portion H, and the learning image generation unit (DRR
なお、第2実施形態のその他の効果は、上記第1実施形態と同様である。 The other effects of the second embodiment are the same as those of the first embodiment.
[変形例]
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
[Modification example]
It should be noted that the embodiments disclosed this time are exemplary in all respects and are not considered to be restrictive. The scope of the present invention is shown by the scope of claims rather than the description of the above-described embodiment, and further includes all modifications (modifications) within the meaning and scope equivalent to the scope of claims.
たとえば、上記第1実施形態では、X線画像処理システム100は、放射線治療装置1と、治療計画装置2とを備える例を示したが、本発明はこれに限られない。たとえば、放射線治療装置1と、治療計画装置2との少なくとも一方を備えないように構成されていてもよい。同様に、上記第2実施形態では、X線画像処理システム200は、CT装置202を備える例を示したが、本発明はこれに限られない。たとえば、CT装置202をX線画像処理システム200には備えずに、予め生成されたCT画像を取得するように構成してもよい。
For example, in the first embodiment, the X-ray
また、上記第2実施形態では、入力教師画像T201と出力教師画像T202との両方において、同じ位置に同じ大きさの物体形状画像Bが加えられている例を示したが、本発明はこれに限られない。たとえば、入力教師画像T201と出力教師画像T202との両方に対して、同じ位置に同じ大きさの物体形状画像Bが減じられていてもよい。すなわち、あらかじめ被検体Pの体内にカテーテルなどが留置されている状態でCT撮影を行った場合、DRR画像D201およびD202に含まれるカテーテルを表す画像をDRR画像D201およびD202から減じるようにして、入力教師画像T201および出力教師画像T202を生成してもよい。また、入力教師画像T201および出力教師画像T202を生成する際に、物体形状画像Bを加える処理と物体形状画像Bを減じる処理との両方を行ってもよい。 Further, in the second embodiment, an example is shown in which the object shape image B of the same size is added to the same position in both the input teacher image T201 and the output teacher image T202, but the present invention has been added to this. Not limited. For example, the object shape image B of the same size may be reduced at the same position with respect to both the input teacher image T201 and the output teacher image T202. That is, when CT imaging is performed with a catheter or the like placed in the body of the subject P in advance, the image representing the catheter included in the DRR images D201 and D202 is input so as to be subtracted from the DRR images D201 and D202. The teacher image T201 and the output teacher image T202 may be generated. Further, when generating the input teacher image T201 and the output teacher image T202, both the process of adding the object shape image B and the process of reducing the object shape image B may be performed.
また、上記第2実施形態では、マーカー処理部52および操作部53を備えない例を示したが、本発明はこれに限られない。たとえば、第2実施形態におけるX線画像処理システム200においても、被検体Pの体内にマーカーEを留置するとともに、マーカー処理部52および操作部53を備えるように構成してもよい。
Further, in the second embodiment, an example in which the
また、上記第1および第2実施形態では、DRR画像D(D201、D202)の生成を、学習装置3(203)において行う例を示したが、本発明はこれに限られない。たとえば、治療計画装置2などにおいて、DRR画像D(D201、D202)を生成するように構成されていてもよい。 Further, in the first and second embodiments, the example in which the DRR image D (D201, D202) is generated by the learning device 3 (203) is shown, but the present invention is not limited to this. For example, the treatment planning device 2 or the like may be configured to generate DRR images D (D201, D202).
また、上記第1および第2実施形態では、物体形状画像Bは、所定の物体として、X線を検出するための検出器(第1〜第4X線検出器42a〜42d)および被検体Pが載置される天板11(243)の少なくとも一方を含む構造物と、所定の物体として、マーカーE、ガイドワイヤ、および、カテーテルの少なくとも1つを含む被検体Pの体内に留置される部材と、の少なくとも一方を模した画像と、構造物と部材との少なくとも一方を撮影した画像と、の少なくとも一方を含む例を示したが、本発明はこれに限られない。たとえば、物体形状画像Bが、X線画像A2(X線透視画像A)にのみ含まれるノイズを模した画像となるように構成してもよい。
Further, in the first and second embodiments, the object shape image B includes detectors (first to
また、上記第1実施形態では、特定部分Qを示すためのマーカーEが被検体Pの体内に留置された状態で生成された入力教師画像T1であるマーカー抽出用入力教師画像T11と、マーカーEの位置を示す画像であるマーカー抽出用出力教師画像T3とを用いて、学習モデル生成部33によって機械学習を行うことにより生成された、第2学習モデルM2に基づいて、X線撮影によって取得された被検体Pの特定部分Qを含むX線画像(X線透視画像A)に対して、マーカーEを抽出することによって特定部分Qを抽出する処理と、特定部分Qを除去する処理とのいずれか一方を行うマーカー処理部52をさらに備え、特定部分処理部51とマーカー処理部52とのいずれによって、処理を行うかが選択可能なように構成されている例を示したが、本発明はこれに限られない。たとえば、被検体PにマーカーEを留置しない状態で行われたCT撮影に基づいてDRR画像Dを生成するようにしてもよい。すなわち、マーカー処理部52を備えず、特定部分処理部51による処理のみによって、特定部分Qを抽出または除去するように構成されていてもよい。
Further, in the first embodiment, the marker extraction input teacher image T11, which is the input teacher image T1 generated in a state where the marker E for indicating the specific portion Q is placed in the body of the subject P, and the marker E. Obtained by X-ray photography based on the second learning model M2 generated by performing machine learning by the learning
また、上記第1実施形態では、入力操作を受け付ける操作部53をさらに備え、操作部53に対する操作の入力を受け付けたことに基づいて、特定部分処理部51とマーカー処理部52とのいずれによって処理を行うかが選択可能なように構成されている
例を示したが、本発明はこれに限られない。たとえば、操作部53を備えずに、DRR画像DとX線透視画像A(X線画像)との両方において、同じ位置に同じ個数のマーカーEが含まれていることを検出した場合は、マーカー処理部52において処理を行うことを選択するとともに、同じ位置に同じ個数のマーカーEが検出されなかった場合は、特定部分処理部51において処理を行うことを選択するように自動的に制御可能なように構成していてもよい。
Further, in the first embodiment, the
また、上記第1および第2実施形態では、学習画像生成部(DRR画像生成部31、231および教師画像生成部32、232)と学習モデル生成部33(233)とを含む第1制御部30(230)と、特定部分処理部51(骨部処理部251)を含む第2制御部50(250)と、をさらに備える例を示したが、本発明はこれに限られない。たとえば、1つの制御部がDRR画像生成部31(231)、教師画像生成部32(232)、学習モデル生成部33(233)、および、特定部分処理部51(骨部処理部251)を備えるように構成してもよい。つまり、1つの制御部において、第1〜第3学習モデルM1〜M3の生成および特定部分Qの抽出または除去を行うように構成してもよい。また、DRR画像生成部31(231)、教師画像生成部32(232)、学習モデル生成部33(233)、および、特定部分処理部51(骨部処理部251)の機能ごとに個別にハードウェアを構成してもよい。
Further, in the first and second embodiments, the
また、上記第1および第2実施形態では、学習画像生成部(DRR画像生成部31、231および教師画像生成部32、232)は、入力教師画像T1(T201)を生成する際、2次元投影画像(DRR画像D、D201、D202)に対して被検体Pとは別個の所定の物体に関する画像を含む物体形状画像Bを、ランダムな位置にランダムな大きさで加えることと、DRR画像D(D201、D202)に対して物体形状画像Bをランダムな位置にランダムな大きさで減じることと、の少なくとも一方を行うように構成されている例を示したが、本発明はこれに限られない。たとえば、X線画像A2(X線透視画像A)に含まれる構成物について、予め位置を特定しておくことによってDRR画像D(D201、D202)の対応する場所に物体形状画像Bを加えることと、物体形状画像Bを減じることとを行うように構成してもよい。
Further, in the first and second embodiments, when the learning image generation unit (DRR
また、上記第2実施形態では、特定部分Qは、骨部Hを含み、学習画像生成部(DRR画像生成部231および教師画像生成部232)は、入力教師画像T201と同じ領域における骨部Hを含む特定部分Qを除くように生成された2次元投影画像(DRR画像D201、D202)に対して、入力教師画像T201と同じ位置に同じ大きさの物体形状画像Bが加えられている画像と、骨部Hを含む特定部分Qを除くように生成されたDRR画像D201(D202)に対して、同じ位置に同じ大きさの物体形状画像Bが減じられている画像と、の少なくとも一方を含むように出力教師画像T202を生成するように構成されている例を示したが、本発明はこれに限られない。たとえば、特定部分Qに骨部Hを含まないように構成されていてもよい。すなわち、被検体Pの腫瘍などを特定部分Qとして、入力教師画像T201と出力教師画像T202との両方に同じ位置に同じ大きさの物体形状画像Bを加えることによって、特定部分Qを抽出するように構成してもよい。
Further, in the second embodiment, the specific portion Q includes the bone portion H, and the learning image generation unit (DRR
また、上記第1および第2実施形態では、学習画像生成部(DRR画像生成部31、231および教師画像生成部32、232)は、コンピュータ断層撮影による3次元データ(CT画像データC)に基づいて、2次元投影画像(DRR画像D、D201、D202)をデジタル再構成シミュレーションにより生成するとともに、生成されたDRR画像D(D201、D202)に対して2次元の物体形状画像Bを加えることと、生成されたDRR画像D(D201、D202)に対して2次元の物体形状画像Bを減じることと、の少なくとも一方を行うことによって、入力教師画像T1(T201)を生成するように構成されている例を示したが、本発明はこれに限られない。コンピュータ断層撮影によるCT画像データCに基づいてDRR画像D(D201、D202)を生成するのではなく、MRI(Magnetic Resonance imaging:核磁気共鳴画像方)によって取得された被検体Pの体内画像から3次元モデルを取得し、取得された3次元モデルに基づいて2次元投影画像を生成するように構成してもよい。
Further, in the first and second embodiments, the learning image generation unit (DRR
また、上記第1および第2実施形態では、学習画像生成部(DRR画像生成部31、231および教師画像生成部32、232)は、コンピュータ断層撮影による3次元データ(CT画像データC)に対して、3次元の物体形状画素値データを加えることと、CT画像データCに対して3次元の物体形状画素値データを減じることとの少なくとも一方を行った状態で、デジタル再構成シミュレーションにより2次元に投影することによって、入力教師画像T1(T201)を生成するように構成されている例を示したが、本発明はこれに限られない。たとえば、CT画像を撮影する時点において、X線透視画像A(X線画像A2)に含まれる構成物を模した物体を被検体Pと同時に撮影することによって、CT画像データCに初めから物体形状画素値データが含まれるように構成してもよい。また、生成されたDRR画像D(D201、D202)に対して、2次元の物体形状画像Bを加えることと2次元の物体形状画像Bを減じることとを行う処理と、CT画像データCに対して、3次元の物体形状画素値データを加えることと3次元の物体形状画素値データを減じることとを行う処理と、の両方を行った状態で入力教師画像T1(T201)を生成するようにしてもよい。
[態様]
上記した例示的な実施形態は、以下の態様の具体例であることが当業者により理解される。
Further, in the first and second embodiments, the learning image generation unit (DRR
[Aspect]
It will be understood by those skilled in the art that the above exemplary embodiments are specific examples of the following embodiments.
(項目1)
3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、前記被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、前記2次元投影画像に対して前記物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像と、前記入力教師画像と同じ領域における前記特定部分を示す画像または前記特定部分を除く画像である出力教師画像と、を生成する学習画像生成部と、
前記入力教師画像および前記出力教師画像を用いて、機械学習を行うことにより、前記特定部分を抽出するか、または、前記特定部分を除去するための第1学習モデルを生成する学習モデル生成部と、
学習済みの前記第1学習モデルに基づいて、X線撮影によって取得された前記被検体の前記特定部分を含むX線画像に対して、前記特定部分を抽出する処理と、前記特定部分を除去する処理とのいずれか一方を行う特定部分処理部と、を備える、医用画像処理装置。
(Item 1)
An object containing an image relating to a predetermined object separate from the subject with respect to a two-dimensional projected image of a region including a specific part of the subject acquired based on the three-dimensional data having pixel value data in three dimensions. An input teacher image including at least one of an image to which a shape image is added and an image in which the object shape image is subtracted from the two-dimensional projected image, and the identification in the same region as the input teacher image. A learning image generation unit that generates an output teacher image that is an image showing a part or an image excluding the specific part, and
A learning model generation unit that extracts the specific portion or generates a first learning model for removing the specific portion by performing machine learning using the input teacher image and the output teacher image. ,
Based on the trained first learning model, a process of extracting the specific portion and removing the specific portion of the X-ray image including the specific portion of the subject acquired by X-ray imaging. A medical image processing apparatus including a specific partial processing unit that performs either processing.
(項目2)
前記物体形状画像は、前記所定の物体として、X線を検出するための検出器および前記被検体が載置される天板の少なくとも一方を含む構造物と、前記所定の物体として、マーカー、ガイドワイヤ、および、カテーテルの少なくとも1つを含む前記被検体の体内に留置される部材と、の少なくとも一方を模した画像と、前記構造物と前記部材との少なくとも一方を撮影した画像と、の少なくとも一方を含む、項目1に記載の医用画像処理装置。
(Item 2)
The object shape image includes a structure including at least one of a detector for detecting X-rays and a top plate on which the subject is placed as the predetermined object, and a marker and a guide as the predetermined object. At least one image of at least one of a wire and a member placed in the body of the subject including at least one of a catheter, and an image of at least one of the structure and the member. The medical image processing apparatus according to item 1, which includes one.
(項目3)
前記特定部分を示すためのマーカーが前記被検体の体内に留置された状態で生成された前記入力教師画像であるマーカー抽出用入力教師画像と、前記マーカーの位置を示す画像であるマーカー抽出用出力教師画像とを用いて、前記学習モデル生成部によって機械学習を行うことにより生成された、第2学習モデルに基づいて、X線撮影によって取得された前記被検体の前記特定部分を含むX線画像に対して、前記マーカーを抽出することによって前記特定部分を抽出する処理と、前記特定部分を除去する処理とのいずれか一方を行うマーカー処理部をさらに備え、
前記特定部分処理部と前記マーカー処理部とのいずれによって、処理を行うかが選択可能なように構成されている、項目1または2のいずれか1項に記載の医用画像処理装置。
(Item 3)
An input teacher image for marker extraction, which is an input teacher image generated in a state where a marker for indicating the specific portion is placed in the body of the subject, and a marker extraction output, which is an image showing the position of the marker. An X-ray image including the specific part of the subject acquired by X-ray photography based on the second learning model generated by performing machine learning by the learning model generation unit using the teacher image. On the other hand, a marker processing unit that performs either a process of extracting the specific portion by extracting the marker or a process of removing the specific portion is further provided.
The medical image processing apparatus according to any one of items 1 or 2, wherein the specific partial processing unit and the marker processing unit are configured to select whether to perform processing.
(項目4)
入力操作を受け付ける操作部をさらに備え、
前記操作部に対する操作の入力を受け付けたことに基づいて、前記特定部分処理部と前記マーカー処理部とのいずれによって処理を行うかが選択可能なように構成されている、項目3に記載の医用画像処理装置。
(Item 4)
It also has an operation unit that accepts input operations.
Item 3. The medical use according to item 3, wherein the specific partial processing unit or the marker processing unit can select which of the specific partial processing unit and the marker processing unit performs the processing based on the reception of the input of the operation to the operation unit. Image processing device.
(項目5)
前記学習画像生成部と前記学習モデル生成部とを含む第1制御部と、
前記特定部分処理部を含む第2制御部と、をさらに備える、項目1〜4のいずれか1項に記載の医用画像処理装置。
(Item 5)
A first control unit including the learning image generation unit and the learning model generation unit,
The medical image processing apparatus according to any one of items 1 to 4, further comprising a second control unit including the specific partial processing unit.
(項目6)
前記学習画像生成部は、前記入力教師画像を生成する際、前記2次元投影画像に対して前記被検体とは別個の前記所定の物体に関する画像を含む前記物体形状画像を、ランダムな位置にランダムな大きさで加えることと、前記2次元投影画像に対して前記物体形状画像をランダムな位置にランダムな大きさで減じることと、の少なくとも一方を行うように構成されている、項目1〜5のいずれか1項に記載の医用画像処理装置。
(Item 6)
When generating the input teacher image, the learning image generation unit randomly performs the object shape image including an image relating to the predetermined object separate from the subject with respect to the two-dimensional projected image at a random position. Items 1 to 5 are configured to perform at least one of adding in a large size and subtracting the object shape image to a random position with a random size with respect to the two-dimensional projected image. The medical image processing apparatus according to any one of the above items.
(項目7)
前記特定部分は、骨部を含み、
前記学習画像生成部は、前記入力教師画像と同じ領域における前記骨部を含む前記特定部分を除くように生成された前記2次元投影画像に対して、前記入力教師画像と同じ位置に同じ大きさの前記物体形状画像が加えられている画像と、前記骨部を含む前記特定部分を除くように生成された前記2次元投影画像に対して、同じ位置に同じ大きさの前記物体形状画像が減じられている画像と、の少なくとも一方を含むように前記出力教師画像を生成するように構成されている、項目1〜6のいずれか1項に記載の医用画像処理装置。
(Item 7)
The specific part includes the bone part and includes the bone part.
The learning image generation unit has the same size at the same position as the input teacher image with respect to the two-dimensional projected image generated so as to exclude the specific portion including the bone portion in the same region as the input teacher image. The object shape image of the same size is subtracted at the same position with respect to the image to which the object shape image of the above is added and the two-dimensional projection image generated so as to exclude the specific portion including the bone portion. The medical image processing apparatus according to any one of items 1 to 6, which is configured to generate the output teacher image so as to include at least one of the images.
(項目8)
前記学習画像生成部は、コンピュータ断層撮影による前記3次元データに基づいて、前記2次元投影画像をデジタル再構成シミュレーションにより生成するとともに、生成された前記2次元投影画像に対して2次元の前記物体形状画像を加えることと、前記生成された2次元投影画像に対して2次元の前記物体形状画像を減じることと、の少なくとも一方を行うことによって、前記入力教師画像を生成するように構成されている、項目1〜7のいずれか1項に記載の医用画像処理装置。
(Item 8)
The learning image generation unit generates the two-dimensional projection image by digital reconstruction simulation based on the three-dimensional data obtained by computer tomography, and the object is two-dimensional with respect to the generated two-dimensional projection image. It is configured to generate the input teacher image by doing at least one of adding a shape image and subtracting the two-dimensional object shape image from the generated two-dimensional projected image. The medical image processing apparatus according to any one of items 1 to 7.
(項目9)
前記学習画像生成部は、コンピュータ断層撮影による前記3次元データに対して、3次元の物体形状画素値データを加えることと、前記3次元データに対して3次元の前記物体形状画素値データを減じることとの少なくとも一方を行った状態で、デジタル再構成シミュレーションにより2次元に投影することによって、前記入力教師画像を生成するように構成されている、項目1〜8のいずれか1項に記載の医用画像処理装置。
(Item 9)
The learning image generation unit adds the three-dimensional object shape pixel value data to the three-dimensional data obtained by computer tomography, and subtracts the three-dimensional object shape pixel value data from the three-dimensional data. The item according to any one of items 1 to 8, wherein the input teacher image is generated by projecting the input teacher image in two dimensions by a digital reconstruction simulation in a state where at least one of the above is performed. Medical image processing device.
(項目10)
3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、前記被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、前記2次元投影画像に対して前記物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像と、前記入力教師画像と同じ領域における前記特定部分を示す画像または前記特定部分を除く画像である出力教師画像と、を生成する学習画像生成部と、
前記入力教師画像および前記出力教師画像を用いて、機械学習を行うことにより、前記特定部分を抽出するか、または、前記特定部分を除去するための第1学習モデルを生成する学習モデル生成部と、
X線撮影によって前記被検体の前記特定部分を含むX線画像を取得するX線撮影部と、
学習済みの前記第1学習モデルに基づいて、前記X線撮影部によって撮影された前記特定部分を含む前記X線画像に対して、前記特定部分を抽出する処理と、前記特定部分を除去する処理とのいずれか一方を行う特定部分処理部と、を備える、X線画像処理システム。
(Item 10)
An object containing an image relating to a predetermined object separate from the subject with respect to a two-dimensional projected image of a region including a specific part of the subject acquired based on the three-dimensional data having pixel value data in three dimensions. An input teacher image including at least one of an image to which a shape image is added and an image in which the object shape image is subtracted from the two-dimensional projected image, and the identification in the same region as the input teacher image. A learning image generation unit that generates an output teacher image that is an image showing a part or an image excluding the specific part, and
A learning model generation unit that extracts the specific portion or generates a first learning model for removing the specific portion by performing machine learning using the input teacher image and the output teacher image. ,
An X-ray imaging unit that acquires an X-ray image including the specific portion of the subject by X-ray imaging, and an X-ray imaging unit.
Based on the trained first learning model, a process of extracting the specific portion and a process of removing the specific portion from the X-ray image including the specific portion photographed by the X-ray photographing unit. An X-ray image processing system including a specific partial processing unit that performs either of the above.
(項目11)
3次元における画素値データを有する3次元データに基づいて取得された被検体の特定部分を含む領域についての2次元投影画像に対して、前記被検体とは別個の所定の物体に関する画像を含む物体形状画像が加えられている画像と、前記2次元投影画像に対して前記物体形状画像が減じられている画像と、の少なくとも一方を含む入力教師画像を生成するステップと、
前記3次元データに基づいて、前記入力教師画像と同じ領域における前記特定部分を示す画像または前記特定部分を除く画像である出力教師画像を生成するステップと、
前記入力教師画像および前記出力教師画像を用いて、機械学習を行うことにより、前記特定部分を抽出するか、または、前記特定部分を除去するための第1学習モデルを生成するステップと、を備える、学習モデルの生成方法。
(Item 11)
An object containing an image of a predetermined object separate from the subject with respect to a two-dimensional projected image of a region including a specific part of the subject acquired based on the three-dimensional data having pixel value data in three dimensions. A step of generating an input teacher image including at least one of an image to which a shape image is added and an image in which the object shape image is subtracted from the two-dimensional projected image.
A step of generating an output teacher image which is an image showing the specific portion in the same region as the input teacher image or an image excluding the specific portion based on the three-dimensional data.
It includes a step of extracting the specific portion or generating a first learning model for removing the specific portion by performing machine learning using the input teacher image and the output teacher image. , How to generate a learning model.
100、200 X線画像処理システム
1 放射線照射装置
2 治療計画装置
3、203 学習装置(医用画像処理装置)
4、204 X線撮影部
5、205 X線画像処理装置(医用画像処理装置)
11、243 天板
30、230 第1制御部
31、231 DRR画像生成部(学習画像生成部)
32、232 教師画像生成部(学習画像生成部)
33、233 学習モデル生成部
50、250 第2制御部
51 特定部分処理部
52 マーカー処理部
53 操作部
251 骨部処理部(特定部分処理部)
100, 200 X-ray image processing system 1 Irradiation device 2
4,204 X-ray imaging unit 5,205 X-ray image processing device (medical image processing device)
11,243
32, 232 Teacher image generation unit (learning image generation unit)
33, 233 Learning
Claims (11)
前記入力教師画像および前記出力教師画像を用いて、機械学習を行うことにより、前記特定部分を抽出するか、または、前記特定部分を除去するための第1学習モデルを生成する学習モデル生成部と、
学習済みの前記第1学習モデルに基づいて、X線撮影によって取得された前記被検体の前記特定部分を含むX線画像に対して、前記特定部分を抽出する処理と、前記特定部分を除去する処理とのいずれか一方を行う特定部分処理部と、を備える、医用画像処理装置。 An object containing an image relating to a predetermined object separate from the subject with respect to a two-dimensional projected image of a region including a specific part of the subject acquired based on the three-dimensional data having pixel value data in three dimensions. An input teacher image including at least one of an image to which a shape image is added and an image in which the object shape image is subtracted from the two-dimensional projected image, and the identification in the same region as the input teacher image. A learning image generation unit that generates an output teacher image that is an image showing a part or an image excluding the specific part, and
A learning model generation unit that extracts the specific portion or generates a first learning model for removing the specific portion by performing machine learning using the input teacher image and the output teacher image. ,
Based on the trained first learning model, a process of extracting the specific portion and removing the specific portion of the X-ray image including the specific portion of the subject acquired by X-ray imaging. A medical image processing apparatus including a specific partial processing unit that performs either processing.
前記特定部分処理部と前記マーカー処理部とのいずれによって、処理を行うかが選択可能なように構成されている、請求項1または2のいずれか1項に記載の医用画像処理装置。 An input teacher image for marker extraction, which is an input teacher image generated in a state where a marker for indicating the specific portion is placed in the body of the subject, and a marker extraction output, which is an image showing the position of the marker. An X-ray image including the specific part of the subject acquired by X-ray photography based on the second learning model generated by performing machine learning by the learning model generation unit using the teacher image. On the other hand, a marker processing unit that performs either a process of extracting the specific portion by extracting the marker or a process of removing the specific portion is further provided.
The medical image processing apparatus according to claim 1 or 2, wherein the specific partial processing unit and the marker processing unit are configured to select whether to perform processing.
前記操作部に対する操作の入力を受け付けたことに基づいて、前記特定部分処理部と前記マーカー処理部とのいずれによって処理を行うかが選択可能なように構成されている、請求項3に記載の医用画像処理装置。 It also has an operation unit that accepts input operations.
The third aspect of claim 3, wherein the specific partial processing unit or the marker processing unit can select which of the specific partial processing unit and the marker processing unit performs the processing based on the reception of the input of the operation to the operation unit. Medical image processing device.
前記特定部分処理部を含む第2制御部と、をさらに備える、請求項1〜4のいずれか1項に記載の医用画像処理装置。 A first control unit including the learning image generation unit and the learning model generation unit,
The medical image processing apparatus according to any one of claims 1 to 4, further comprising a second control unit including the specific partial processing unit.
前記学習画像生成部は、前記入力教師画像と同じ領域における前記骨部を含む前記特定部分を除くように生成された前記2次元投影画像に対して、前記入力教師画像と同じ位置に同じ大きさの前記物体形状画像が加えられている画像と、前記骨部を含む前記特定部分を除くように生成された前記2次元投影画像に対して、同じ位置に同じ大きさの前記物体形状画像が減じられている画像と、の少なくとも一方を含むように前記出力教師画像を生成するように構成されている、請求項1〜6のいずれか1項に記載の医用画像処理装置。 The specific part includes the bone part and includes the bone part.
The learning image generation unit has the same size at the same position as the input teacher image with respect to the two-dimensional projected image generated so as to exclude the specific portion including the bone portion in the same region as the input teacher image. The object shape image of the same size is subtracted at the same position with respect to the image to which the object shape image of the above is added and the two-dimensional projection image generated so as to exclude the specific portion including the bone portion. The medical image processing apparatus according to any one of claims 1 to 6, which is configured to generate the output teacher image so as to include at least one of the images.
前記入力教師画像および前記出力教師画像を用いて、機械学習を行うことにより、前記特定部分を抽出するか、または、前記特定部分を除去するための第1学習モデルを生成する学習モデル生成部と、
X線撮影によって前記被検体の前記特定部分を含むX線画像を取得するX線撮影部と、
学習済みの前記第1学習モデルに基づいて、前記X線撮影部によって撮影された前記特定部分を含む前記X線画像に対して、前記特定部分を抽出する処理と、前記特定部分を除去する処理とのいずれか一方を行う特定部分処理部と、を備える、X線画像処理システム。 An object containing an image relating to a predetermined object separate from the subject with respect to a two-dimensional projected image of a region including a specific part of the subject acquired based on the three-dimensional data having pixel value data in three dimensions. An input teacher image including at least one of an image to which a shape image is added and an image in which the object shape image is subtracted from the two-dimensional projected image, and the identification in the same region as the input teacher image. A learning image generation unit that generates an output teacher image that is an image showing a part or an image excluding the specific part, and
A learning model generation unit that extracts the specific portion or generates a first learning model for removing the specific portion by performing machine learning using the input teacher image and the output teacher image. ,
An X-ray imaging unit that acquires an X-ray image including the specific portion of the subject by X-ray imaging, and an X-ray imaging unit.
Based on the trained first learning model, a process of extracting the specific portion and a process of removing the specific portion from the X-ray image including the specific portion photographed by the X-ray photographing unit. An X-ray image processing system including a specific partial processing unit that performs either of the above.
前記3次元データに基づいて、前記入力教師画像と同じ領域における前記特定部分を示す画像または前記特定部分を除く画像である出力教師画像を生成するステップと、
前記入力教師画像および前記出力教師画像を用いて、機械学習を行うことにより、前記特定部分を抽出するか、または、前記特定部分を除去するための第1学習モデルを生成するステップと、を備える、学習モデルの生成方法。 An object containing an image of a predetermined object separate from the subject with respect to a two-dimensional projected image of a region including a specific part of the subject acquired based on the three-dimensional data having pixel value data in three dimensions. A step of generating an input teacher image including at least one of an image to which a shape image is added and an image in which the object shape image is subtracted from the two-dimensional projected image.
A step of generating an output teacher image which is an image showing the specific portion in the same region as the input teacher image or an image excluding the specific portion based on the three-dimensional data.
It includes a step of extracting the specific portion or generating a first learning model for removing the specific portion by performing machine learning using the input teacher image and the output teacher image. , How to generate a learning model.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019167627A JP2021041089A (en) | 2019-09-13 | 2019-09-13 | Medical image processing device, x-ray image processing system and generation method of learning model |
JP2023079096A JP2023103359A (en) | 2019-09-13 | 2023-05-12 | Learning device, x-ray image processing system, and learning model generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019167627A JP2021041089A (en) | 2019-09-13 | 2019-09-13 | Medical image processing device, x-ray image processing system and generation method of learning model |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023079096A Division JP2023103359A (en) | 2019-09-13 | 2023-05-12 | Learning device, x-ray image processing system, and learning model generation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021041089A true JP2021041089A (en) | 2021-03-18 |
Family
ID=74862575
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019167627A Pending JP2021041089A (en) | 2019-09-13 | 2019-09-13 | Medical image processing device, x-ray image processing system and generation method of learning model |
JP2023079096A Pending JP2023103359A (en) | 2019-09-13 | 2023-05-12 | Learning device, x-ray image processing system, and learning model generation method |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023079096A Pending JP2023103359A (en) | 2019-09-13 | 2023-05-12 | Learning device, x-ray image processing system, and learning model generation method |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP2021041089A (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016096902A (en) * | 2014-11-19 | 2016-05-30 | 株式会社東芝 | Medical image processing device, method, program and radiation therapy device |
JP2018082767A (en) * | 2016-11-21 | 2018-05-31 | 東芝エネルギーシステムズ株式会社 | Medical image processing device, medical image processing method, medical image processing program, dynamic body tracking device, and radiation therapy system |
JP2018089301A (en) * | 2016-12-07 | 2018-06-14 | 学校法人常翔学園 | Organism image processing device, output image production method, learning result production method and program |
JP2018169672A (en) * | 2017-03-29 | 2018-11-01 | 三菱電機インフォメーションシステムズ株式会社 | Method of creating teacher image, computer and program |
WO2019003434A1 (en) * | 2017-06-30 | 2019-01-03 | 株式会社島津製作所 | Tracking device for radiation treatment, position detection device, and method for tracking moving body |
US20190201106A1 (en) * | 2018-01-04 | 2019-07-04 | Holo Surgical Inc. | Identification and tracking of a predefined object in a set of images from a medical image scanner during a surgical procedure |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3590577B1 (en) * | 2017-03-03 | 2023-12-06 | University of Tsukuba | Object tracking device |
JP6881611B2 (en) * | 2018-01-09 | 2021-06-02 | 株式会社島津製作所 | Image creation device and trained model generation method |
US11132792B2 (en) * | 2018-02-22 | 2021-09-28 | Siemens Healthcare Gmbh | Cross domain medical image segmentation |
-
2019
- 2019-09-13 JP JP2019167627A patent/JP2021041089A/en active Pending
-
2023
- 2023-05-12 JP JP2023079096A patent/JP2023103359A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016096902A (en) * | 2014-11-19 | 2016-05-30 | 株式会社東芝 | Medical image processing device, method, program and radiation therapy device |
JP2018082767A (en) * | 2016-11-21 | 2018-05-31 | 東芝エネルギーシステムズ株式会社 | Medical image processing device, medical image processing method, medical image processing program, dynamic body tracking device, and radiation therapy system |
JP2018089301A (en) * | 2016-12-07 | 2018-06-14 | 学校法人常翔学園 | Organism image processing device, output image production method, learning result production method and program |
JP2018169672A (en) * | 2017-03-29 | 2018-11-01 | 三菱電機インフォメーションシステムズ株式会社 | Method of creating teacher image, computer and program |
WO2019003434A1 (en) * | 2017-06-30 | 2019-01-03 | 株式会社島津製作所 | Tracking device for radiation treatment, position detection device, and method for tracking moving body |
US20190201106A1 (en) * | 2018-01-04 | 2019-07-04 | Holo Surgical Inc. | Identification and tracking of a predefined object in a set of images from a medical image scanner during a surgical procedure |
Also Published As
Publication number | Publication date |
---|---|
JP2023103359A (en) | 2023-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7099459B2 (en) | Radiation therapy tracking device, position detection device and moving object tracking method | |
CN105658279B (en) | Radiotherapy apparatus, system and method | |
JP7022268B2 (en) | X-ray cone beam CT image reconstruction method | |
JP5345947B2 (en) | Imaging system and imaging method for imaging an object | |
CN109890462A (en) | Online angle Selection in rotation imaging and tracking system | |
CN109937072A (en) | Offline angle Selection in rotation imaging and tracking system | |
JP7113447B2 (en) | Medical Image Processing Apparatus, Treatment System, and Medical Image Processing Program | |
JP2012254243A (en) | Image collator, patient positioner and image verification method | |
US12059579B2 (en) | Medical image processing device, treatment system, and storage medium | |
WO2021171394A1 (en) | Learned model creation method, image generation method, and image processing device | |
JP6971537B2 (en) | Treatment planning device and treatment planning method | |
CN113874071B (en) | Medical image processing device, storage medium, medical device, and treatment system | |
JP6797555B2 (en) | Medical information processing device | |
JP7226207B2 (en) | Medical image processing apparatus, X-ray image processing system, and learning model generation method | |
JP2018153277A (en) | Fluoroscopic apparatus | |
JP2021041089A (en) | Medical image processing device, x-ray image processing system and generation method of learning model | |
EP4160538A1 (en) | Metal artifact reduction in computed tomography | |
WO2022190846A1 (en) | Medical image processing device, medical image processing method, medical image processing program, and radiation therapy device | |
JP6380237B2 (en) | Radioscopy equipment | |
JP7553264B2 (en) | Positioning device, radiation therapy device, positioning method, and computer program | |
JP6855173B2 (en) | X-ray CT device | |
WO2024117129A1 (en) | Medical image processing device, treatment system, medical image processing method, and program | |
WO2022107399A1 (en) | Positioning device, radiotherapy system, and positioning method | |
US20240298979A1 (en) | Collision avoidance when positioning a medical imaging device and a patient positioning apparatus | |
US20230100798A1 (en) | Adaptive auto-segmentation in computed tomography |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221018 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230214 |