Nothing Special   »   [go: up one dir, main page]

JP7544567B2 - Medical data processing device and medical data processing method - Google Patents

Medical data processing device and medical data processing method Download PDF

Info

Publication number
JP7544567B2
JP7544567B2 JP2020185234A JP2020185234A JP7544567B2 JP 7544567 B2 JP7544567 B2 JP 7544567B2 JP 2020185234 A JP2020185234 A JP 2020185234A JP 2020185234 A JP2020185234 A JP 2020185234A JP 7544567 B2 JP7544567 B2 JP 7544567B2
Authority
JP
Japan
Prior art keywords
medical data
state
time phase
data
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020185234A
Other languages
Japanese (ja)
Other versions
JP2022074841A (en
Inventor
一郎 佐久間
稔 小野
直輝 富井
恵理子 前田
岳人 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
University of Tokyo NUC
Original Assignee
Canon Medical Systems Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp, University of Tokyo NUC filed Critical Canon Medical Systems Corp
Priority to JP2020185234A priority Critical patent/JP7544567B2/en
Publication of JP2022074841A publication Critical patent/JP2022074841A/en
Application granted granted Critical
Publication of JP7544567B2 publication Critical patent/JP7544567B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本明細書及び図面に開示の実施形態は、医用データ処理装置及び医用データ処理方法に関する。 The embodiments disclosed in this specification and the drawings relate to a medical data processing device and a medical data processing method.

従来、医療の現場では、医用データを用いた診断、治療計画、治療効果判定等を実施又は支援するためのソフトウェアとして、自ら学習用データを収集して機械学習を行うことによって成長するソフトウェアが知られている。ここで、機械学習では、学習用データを用いて学習モデルを更新することによって、アルゴリズムの更新が行われる。 Conventionally, in the medical field, software that grows by collecting learning data and performing machine learning is known as software for implementing or supporting diagnosis, treatment planning, evaluation of treatment effectiveness, etc. using medical data. Here, in machine learning, algorithms are updated by updating the learning model using learning data.

しかしながら、このような機械学習を利用したソフトウェアでは、自ら学習用データを収集する際に課題に応じた適切な条件に基づいて学習用データを収集しなければ、学習モデルが適切に更新されず、その結果、ソフトウェアの性能が低下することがあり得る。 However, in software that uses machine learning, if the software does not collect learning data based on appropriate conditions for the task, the learning model will not be updated appropriately, and as a result, the performance of the software may decline.

なお、このような状況は、機械学習における学習モデルの更新処理に限って生じるものではなく、医用データを用いた各種の情報処理で同様に生じ得るものである。 Note that this situation does not occur only in the updating process of a learning model in machine learning, but can also occur in various types of information processing using medical data.

特表2019-533870号公報Special table 2019-533870 publication 特開2015-66318号公報JP 2015-66318 A 特開2012-157683号公報JP 2012-157683 A

Nakagomi K,Shimizu A,Kobatake H,Yakami M,Fujimoto K,Togashi K,“Multi-shape graph cuts with neighbor prior constraints and its application to lung segmentation from a chest CT volume”,Med Image Anal.2013,17(1):62-77,doi:10.1016/j.media.2012.08.002Nakagomi K, Shimizu A, Kobatake H, Yakami M, Fujimoto K, Togashi K, “Multi-shape graph cuts with neighbor prior constraints and its application to lung segmentation from a chest CT volume”, Med Image Anal. 2013, 17(1): 62-77, doi: 10. 1016/j. media. 2012.08.002

本明細書及び図面に開示の実施形態が解決しようとする課題の一つは、医用データを用いた情報処理をより適切に行えるようにすることである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置付けることもできる。 One of the problems that the embodiments disclosed in this specification and the drawings attempt to solve is to enable more appropriate information processing using medical data. However, the problems that the embodiments disclosed in this specification and the drawings attempt to solve are not limited to the above problem. Problems that correspond to the effects of each configuration shown in the embodiments described below can also be considered as other problems.

実施形態に係る医用データ処理装置は、取得部と、特定部と、選別部とを備える。取得部は、複数時相の医用データを取得する。特定部は、前記複数時相の医用データに含まれる所定時相の医用データにおける生体組織の動作状態を、前記所定時相の医用データと前記所定時相以外の時相に関するデータとに基づいて特定する。選別部は、前記動作状態に基づいて前記医用データを選別する。 The medical data processing device according to the embodiment includes an acquisition unit, an identification unit, and a selection unit. The acquisition unit acquires medical data of multiple time phases. The identification unit identifies the motion state of biological tissue in medical data of a specific time phase included in the medical data of multiple time phases based on the medical data of the specific time phase and data related to a time phase other than the specific time phase. The selection unit selects the medical data based on the motion state.

図1は、第1の実施形態に係る医用データ処理装置の構成を示す図である。FIG. 1 is a diagram showing the configuration of a medical data processing apparatus according to the first embodiment. 図2は、第1の実施形態に係る特定機能によって行われる動作状態の特定の例を説明するための図である。FIG. 2 is a diagram for explaining an example of specifying an operation state performed by a specific function according to the first embodiment. 図3は、第1の実施形態に係る医用データ処理装置の処理回路によって行われる処理の処理手順を示すフローチャートである。FIG. 3 is a flowchart showing a processing procedure performed by the processing circuit of the medical data processing device according to the first embodiment. 図4は、第1の実施形態の変形例2を説明するための図である。FIG. 4 is a diagram for explaining the second modification of the first embodiment. 図5は、第2の実施形態に係る医用データ処理装置の構成を示す図である。FIG. 5 is a diagram showing the configuration of a medical data processing apparatus according to the second embodiment. 図6は、第2の実施形態に係る医用データ処理装置の処理回路によって行われる処理の処理手順を示すフローチャートである。FIG. 6 is a flowchart showing a processing procedure performed by the processing circuit of the medical data processing device according to the second embodiment.

以下、図面を参照しながら、医用データ処理装置及び医用データ処理方法の実施形態について詳細に説明する。 Below, an embodiment of a medical data processing device and a medical data processing method will be described in detail with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態に係る医用データ処理装置の構成を示す図である。
First Embodiment
FIG. 1 is a diagram showing the configuration of a medical data processing apparatus according to the first embodiment.

例えば、図1に示すように、第1の実施形態に係る医用データ処理装置100は、X線CT(Computed Tomography)装置1及び医用画像保管装置2とネットワーク3を介して通信可能に接続されている。 For example, as shown in FIG. 1, the medical data processing device 100 according to the first embodiment is communicatively connected to an X-ray CT (Computed Tomography) device 1 and a medical image storage device 2 via a network 3.

なお、医用データ処理装置100は、X線CT装置1の他に、磁気共鳴イメージング(Magnetic Resonance Imaging:MRI)装置や超音波診断装置、PET(Positron Emission Tomography)装置、SPECT(Single Photon Emission Computed Tomography)装置等の他の医用画像診断装置とさらに接続されていてもよい。 In addition to the X-ray CT device 1, the medical data processing device 100 may be further connected to other medical image diagnostic devices such as a Magnetic Resonance Imaging (MRI) device, an ultrasound diagnostic device, a PET (Positron Emission Tomography) device, and a SPECT (Single Photon Emission Computed Tomography) device.

X線CT装置1は、被検体に関するCT画像を生成する。具体的には、X線CT装置1は、被検体を囲む円軌道上でX線管及びX線検出器を回転移動させることで、被検体を透過したX線の分布を表す投影データを収集する。そして、X線CT装置1は、収集された投影データに基づいて、CT画像を生成する。 The X-ray CT device 1 generates a CT image of a subject. Specifically, the X-ray CT device 1 collects projection data representing the distribution of X-rays that have passed through the subject by rotating an X-ray tube and an X-ray detector on a circular orbit that surrounds the subject. The X-ray CT device 1 then generates a CT image based on the collected projection data.

医用画像保管装置2は、被検体に関する各種の医用画像を保管する。具体的には、医用画像保管装置2は、ネットワーク3を介してX線CT装置1からCT画像を取得し、当該CT画像を自装置内の記憶回路に記憶させて保管する。例えば、医用画像保管装置2は、サーバやワークステーション等のコンピュータ機器によって実現される。また、例えば、医用画像保管装置2は、PACS(Picture Archiving and Communication System)等によって実現され、DICOM(Digital Imaging and Communications in Medicine)に準拠した形式でCT画像を保管する。 The medical image storage device 2 stores various medical images related to subjects. Specifically, the medical image storage device 2 acquires CT images from the X-ray CT device 1 via the network 3, and stores the CT images in a memory circuit within the device. For example, the medical image storage device 2 is realized by a computer device such as a server or a workstation. Also, for example, the medical image storage device 2 is realized by a PACS (Picture Archiving and Communication System) or the like, and stores CT images in a format that complies with DICOM (Digital Imaging and Communications in Medicine).

医用データ処理装置100は、被検体に関する各種の医用データを処理する。具体的には、医用データ処理装置100は、ネットワーク3を介してX線CT装置1又は医用画像保管装置2からCT画像を取得し、当該CT画像を処理する。例えば、医用データ処理装置100は、サーバやワークステーション等のコンピュータ機器によって実現される。 The medical data processing device 100 processes various medical data related to the subject. Specifically, the medical data processing device 100 acquires CT images from the X-ray CT device 1 or the medical image storage device 2 via the network 3, and processes the CT images. For example, the medical data processing device 100 is realized by computer equipment such as a server or a workstation.

例えば、医用データ処理装置100は、ネットワーク(NetWork:NW)インタフェース110と、記憶回路120と、入力インタフェース130と、ディスプレイ140と、処理回路150とを備える。 For example, the medical data processing device 100 includes a network (NetWork: NW) interface 110, a memory circuit 120, an input interface 130, a display 140, and a processing circuit 150.

NWインタフェース110は、医用データ処理装置100と、ネットワーク3を介して接続された他の装置との間で送受信される各種データの伝送及び通信を制御する。具体的には、NWインタフェース110は、処理回路150に接続されており、他の装置から受信したデータを処理回路150に送信、又は、処理回路150から受信したデータを他の装置に送信する。例えば、NWインタフェース110は、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。 The NW interface 110 controls the transmission and communication of various data sent and received between the medical data processing device 100 and other devices connected via the network 3. Specifically, the NW interface 110 is connected to the processing circuit 150, and transmits data received from other devices to the processing circuit 150, or transmits data received from the processing circuit 150 to other devices. For example, the NW interface 110 is realized by a network card, a network adapter, a NIC (Network Interface Controller), etc.

記憶回路120は、各種データ及び各種プログラムを記憶する。具体的には、記憶回路120は、処理回路150に接続されており、処理回路150から受信したデータを記憶、又は、記憶しているデータを読み出して処理回路150に送信する。例えば、記憶回路120は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等によって実現される。 The memory circuitry 120 stores various data and programs. Specifically, the memory circuitry 120 is connected to the processing circuitry 150, and stores data received from the processing circuitry 150, or reads out stored data and transmits it to the processing circuitry 150. For example, the memory circuitry 120 is realized by a semiconductor memory element such as a random access memory (RAM) or a flash memory, a hard disk, an optical disk, etc.

入力インタフェース130は、利用者から各種指示及び各種情報の入力操作を受け付ける。具体的には、入力インタフェース130は、処理回路150に接続されており、利用者から受け取った入力操作を電気信号へ変換して処理回路150に送信する。例えば、入力インタフェース130は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力インタフェース、及び音声入力インタフェース等によって実現される。なお、本明細書において、入力インタフェース130は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ送信する電気信号の処理回路も入力インタフェース130の例に含まれる。 The input interface 130 accepts input operations of various instructions and various information from the user. Specifically, the input interface 130 is connected to the processing circuit 150, converts the input operations received from the user into electrical signals, and transmits them to the processing circuit 150. For example, the input interface 130 is realized by a trackball, a switch button, a mouse, a keyboard, a touchpad that performs input operations by touching the operation surface, a touch screen in which a display screen and a touchpad are integrated, a non-contact input interface using an optical sensor, and a voice input interface. Note that in this specification, the input interface 130 is not limited to only those that have physical operation parts such as a mouse and a keyboard. For example, an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the device and transmits this electrical signal to a control circuit is also included as an example of the input interface 130.

ディスプレイ140は、各種情報及び各種データを表示する。具体的には、ディスプレイ140は、処理回路150に接続されており、処理回路150から受信した各種情報及び各種データを表示する。例えば、ディスプレイ140は、液晶モニタやCRT(Cathode Ray Tube)モニタ、タッチパネル等によって実現される。 The display 140 displays various information and data. Specifically, the display 140 is connected to the processing circuit 150, and displays various information and data received from the processing circuit 150. For example, the display 140 is realized by a liquid crystal monitor, a CRT (Cathode Ray Tube) monitor, a touch panel, etc.

処理回路150は、医用データ処理装置100の全体を制御する。例えば、処理回路150は、入力インタフェース130を介して利用者から受け付けた入力操作に応じて、各種処理を行う。また、例えば、処理回路150は、他の装置により送信されたデータをNWインタフェース110から受信し、受信したデータを記憶回路120に記憶する。また、例えば、処理回路150は、記憶回路120から受信したデータをNWインタフェース110に送信することで、当該データを他の装置に送信する。また、例えば、処理回路150は、記憶回路120から受信したデータをディスプレイ140に表示させる。 The processing circuitry 150 controls the entire medical data processing device 100. For example, the processing circuitry 150 performs various processes in response to input operations received from a user via the input interface 130. Also, for example, the processing circuitry 150 receives data transmitted by another device from the NW interface 110 and stores the received data in the memory circuitry 120. Also, for example, the processing circuitry 150 transmits the data received from the memory circuitry 120 to the NW interface 110, thereby transmitting the data to another device. Also, for example, the processing circuitry 150 displays the data received from the memory circuitry 120 on the display 140.

以上、本実施形態に係る医用データ処理装置100の構成について説明した。このような構成のもと、本実施形態に係る医用データ処理装置100は、医用データを用いて所定の情報処理を行う機能を有する。 The configuration of the medical data processing device 100 according to this embodiment has been described above. With this configuration, the medical data processing device 100 according to this embodiment has a function of performing predetermined information processing using medical data.

例えば、医療の現場では、医用画像を用いた診断、治療計画、治療効果判定等を実施又は支援するためのソフトウェアとして、自ら学習用データを収集して機械学習を行うことによって成長するソフトウェアが知られている。ここで、機械学習では、学習用データを用いて学習モデルを更新することによって、アルゴリズムの更新が行われる。 For example, in the medical field, software that grows by collecting learning data and performing machine learning is known as software for implementing or supporting diagnosis, treatment planning, and evaluation of treatment effectiveness using medical images. Here, in machine learning, algorithms are updated by updating the learning model using learning data.

しかしながら、このような機械学習を利用したソフトウェアでは、自ら学習用データを収集する際に課題に応じた適切な条件に基づいて学習用データを収集しなければ、学習モデルが適切に更新されず、その結果、ソフトウェアの性能が低下することがあり得る。 However, in software that uses machine learning, if the software does not collect learning data based on appropriate conditions for the task, the learning model will not be updated appropriately, and as a result, the performance of the software may decline.

具体的には、動作する生体組織は、異なる動作状態ごとに特徴的な形状や性質を示すことが知られている。例えば、心臓弁(大動脈弁、僧帽弁、三尖弁、肺動脈弁)は、完全な閉口状態から完全な開口状態に移行するまでの期間と、完全な開口状態から完全な閉口状態に移行するまでの期間とで振る舞いが異なることが知られている。そのため、このような動作する生体組織を対象とするソフトウェアは、収集した学習用データが生体組織の特定の動作状態を示すものに偏っていた場合に、偏重した学習によって学習モデルが更新されることになり、その結果、特定の動作状態以外の動作状態に対する性能が低下することがあり得る。 Specifically, it is known that moving biological tissues exhibit characteristic shapes and properties for each different operating state. For example, it is known that heart valves (aortic valve, mitral valve, tricuspid valve, pulmonary valve) behave differently in the period from when they transition from a completely closed state to a completely open state, and in the period from when they transition from a completely open state to a completely closed state. Therefore, in software targeting such moving biological tissues, if the collected learning data is biased toward data that indicates a specific operating state of the biological tissue, the learning model will be updated through biased learning, and as a result, performance for operating states other than the specific operating state may be degraded.

なお、このような状況は、機械学習における学習モデルの更新処理に限って生じるものではなく、医用データを用いた各種の情報処理で同様に生じ得るものである。 Note that this situation does not occur only in the updating process of a learning model in machine learning, but can also occur in various types of information processing using medical data.

このようなことから、本実施形態に係る医用データ処理装置100は、医用データを用いた情報処理をより適切に行えるように構成されている。 For these reasons, the medical data processing device 100 according to this embodiment is configured to more appropriately perform information processing using medical data.

具体的には、医用データ処理装置100は、処理回路150が有する処理機能として、取得機能151と、特定機能152と、選別機能153と、情報処理機能154とを有する。なお、取得機能151は、取得部の一例である。また、特定機能152は、特定部の一例である。また、選別機能153は、選別部の一例である。また、情報処理機能154は、情報処理部の一例である。 Specifically, the medical data processing device 100 has an acquisition function 151, a specification function 152, a selection function 153, and an information processing function 154 as processing functions possessed by the processing circuit 150. The acquisition function 151 is an example of an acquisition unit. The specification function 152 is an example of a specification unit. The selection function 153 is an example of a selection unit. The information processing function 154 is an example of an information processing unit.

ここで、取得機能151は、医用データを取得する。また、特定機能152は、取得機能151によって取得された医用データにおける生体組織の動作状態を取得する。また、選別機能153は、特定機能152によって取得された動作状態に基づいて医用データを選別する。そして、情報処理機能154は、選別機能153によって選別された医用データを用いて情報処理を行う。 Here, the acquisition function 151 acquires medical data. Furthermore, the identification function 152 acquires the motion state of the biological tissue in the medical data acquired by the acquisition function 151. Furthermore, the selection function 153 selects the medical data based on the motion state acquired by the identification function 152. Then, the information processing function 154 performs information processing using the medical data selected by the selection function 153.

このように、本実施形態では、生体組織の動作状態を考慮して医用データを選別することによって、医用データを用いた情報処理をより適切に行えるようにしている。 In this way, in this embodiment, by selecting medical data taking into account the operating state of the biological tissue, information processing using the medical data can be performed more appropriately.

以下、本実施形態に係る医用データ処理装置100が有する各機能について詳細に説明する。なお、以下では、医用データ処理装置100が、医用データを用いた情報処理として、X線CT装置1によって撮像されたCT画像を学習用データとして用いて、機械学習における学習モデルの更新処理を行う場合の例を説明する。また、以下では、対象の生体組織が心臓弁である場合、より具体的には、対象の生体組織が大動脈弁である場合の例を説明する。 Below, each function of the medical data processing device 100 according to this embodiment will be described in detail. In the following, an example will be described in which the medical data processing device 100 performs information processing using medical data, using CT images captured by the X-ray CT device 1 as learning data to perform an update process of a learning model in machine learning. In addition, in the following, an example will be described in which the target biological tissue is a heart valve, more specifically, the target biological tissue is an aortic valve.

取得機能151は、NWインタフェース110を介して、X線CT装置1又は医用画像保管装置2から大動脈弁を含むCT画像を取得する。 The acquisition function 151 acquires CT images including the aortic valve from the X-ray CT device 1 or the medical image storage device 2 via the NW interface 110.

本実施形態では、取得機能151は、X線CT装置1又は医用画像保管装置2から大動脈弁を含む複数時相のCT画像を取得する。 In this embodiment, the acquisition function 151 acquires CT images of multiple time phases including the aortic valve from the X-ray CT device 1 or the medical image storage device 2.

例えば、取得機能151は、入力インタフェース130を介して利用者から開始指示を受け付けた場合に、CT画像を取得する。または、取得機能151は、X線CT装置1又は医用画像保管装置2を監視し、新しいCT画像が撮像された場合に、当該CT画像を自動的に取得するようにしてもよい。 For example, the acquisition function 151 acquires a CT image when a start instruction is received from a user via the input interface 130. Alternatively, the acquisition function 151 may monitor the X-ray CT device 1 or the medical image storage device 2, and automatically acquire a new CT image when the new CT image is captured.

なお、ここでは、医用データとしてCT画像が用いられる場合の例を説明するが、実施形態はこれに限られない。例えば、本実施形態が対象とする医用データは、対象とする生体組織の動作に関する情報を取得可能又は予測可能なものであれば、どのような種類の医用データであってもよい。例えば、医用データは、超音波画像、MRI画像、X線画像、Angio画像、PET画像、SPECT画像のように他の医用画像診断装置によって撮像された医用画像であってもよい。この場合、医用画像は、2次元の医用画像であってもよいし、3次元の医用画像であってもよいし、それらを時間方向に複数撮像して得られた4次元画像であってもよい。または、医用データは、心電計、脳波計、脳磁計、心磁計、NIRS(Near Infrared Spectroscopy)脳波計等によって得られた電気、磁気又は近赤外線等の1次元の計測値の時間及び/又は空間方向の分布図等であってもよい。 Here, an example in which a CT image is used as medical data will be described, but the embodiment is not limited to this. For example, the medical data targeted by this embodiment may be any type of medical data as long as it is capable of acquiring or predicting information regarding the movement of the target biological tissue. For example, the medical data may be medical images captured by other medical image diagnostic devices, such as ultrasound images, MRI images, X-ray images, Angio images, PET images, and SPECT images. In this case, the medical images may be two-dimensional medical images, three-dimensional medical images, or four-dimensional images obtained by capturing multiple images of these in the time direction. Alternatively, the medical data may be a time and/or spatial distribution map of one-dimensional measurement values of electricity, magnetism, near-infrared rays, etc., obtained by an electrocardiograph, an electroencephalograph, a magnetoencephalograph, a magnetocardiograph, a NIRS (Near Infrared Spectroscopy) electroencephalograph, etc.

また、ここでは、対象の生体組織が大動脈弁である場合の例を説明するが、実施形態はこれに限られない。例えば、本実施形態が対象とする生体組織は、僧帽弁、三尖弁、肺動脈弁のように他の心臓弁であってもよい。 In addition, although an example in which the target biological tissue is an aortic valve will be described here, the embodiment is not limited to this. For example, the target biological tissue of this embodiment may be other heart valves such as the mitral valve, tricuspid valve, or pulmonary valve.

特定機能152は、取得機能151によって取得されたCT画像における大動脈弁の動作状態を特定する。 The identification function 152 identifies the operating state of the aortic valve in the CT image acquired by the acquisition function 151.

例えば、特定機能152は、大動脈弁の開閉状態を予め複数の状態に分類しておく。そして、特定機能152は、対象となるCT画像における大動脈弁の開閉状態が当該複数の状態のうちのいずれの状態に適応するかを判別し、判別した状態を当該CT画像における大動脈弁の動作状態として特定する。 For example, the identification function 152 classifies the open/closed state of the aortic valve into a plurality of states in advance. The identification function 152 then determines which of the plurality of states the open/closed state of the aortic valve in the target CT image corresponds to, and identifies the determined state as the operating state of the aortic valve in the CT image.

一般的に、大動脈弁は、主に心臓の収縮期初期から拡張期初期までの間の時点で開口し、拡張期初期から拡張期末期までの間の時点で閉口することが知られている。 It is generally known that the aortic valve opens mainly between early systole and early diastole, and closes between early diastole and end diastole.

そこで、例えば、特定機能152は、大動脈弁の開閉状態を開往期の状態及び閉往期の状態の二つの状態に分類しておく。ここで、開往期は、大動脈弁が完全な閉口状態から完全な開口状態に移行するまでの期間であり、閉往期は、大動脈弁が完全な開口状態から完全な閉口状態に移行するまでの期間である。そして、特定機能152は、対象となるCT画像における大動脈弁の開閉状態が当該二つの状態のどちらに適応するかを判別し、判別した状態を当該CT画像における大動脈弁の動作状態として特定する。 Therefore, for example, the identification function 152 classifies the open/closed state of the aortic valve into two states: an open state and a closed state. Here, the open state is the period from when the aortic valve transitions from a completely closed state to a completely open state, and the closed state is the period from when the aortic valve transitions from a completely open state to a completely closed state. The identification function 152 then determines which of the two states the open/closed state of the aortic valve in the target CT image corresponds to, and identifies the determined state as the operating state of the aortic valve in the CT image.

これにより、本実施形態では、一見、大動脈弁の開閉状態が同じように見えるCT画像であっても、動作状態が開往期の状態であると特定される場合と、閉往期の状態であると特定される場合とがあり得る。 As a result, in this embodiment, even if the CT images show the aortic valve in the same open and closed states at first glance, the operating state may be identified as being in the open phase or in the closed phase.

図2は、第1の実施形態に係る特定機能152によって行われる動作状態の特定の例を説明するための図である。 Figure 2 is a diagram illustrating an example of the identification of an operating state performed by the identification function 152 according to the first embodiment.

例えば、図2に示すように、特定機能152は、1回の心周期に含まれる複数の時相t1~t8のうち、大動脈弁が完全な閉口状態となるt1から完全な開口状態となるt4までの間のCT画像については、大動脈弁の動作状態が開往期の状態であると特定する。また、特定機能152は、大動脈弁が完全な開口状態となるt4から完全な閉口状態となるt8までの間のCT画像については、大動脈弁の動作状態が閉往期の状態であると特定する。一例を挙げると、例えば、図2に示す例において、t4~t8の間にあるt5のCT画像は、大動脈弁の動作状態が閉往期の状態であると特定される。 For example, as shown in FIG. 2, the identification function 152 identifies the operating state of the aortic valve as being in the open phase for CT images taken between t1, when the aortic valve is completely closed, and t4, when the aortic valve is completely open, among the multiple time phases t1 to t8 included in one cardiac cycle. The identification function 152 also identifies the operating state of the aortic valve as being in the closed phase for CT images taken between t4, when the aortic valve is completely open, and t8, when the aortic valve is completely closed. To give one example, in the example shown in FIG. 2, the CT image taken at t5 between t4 and t8 is identified as being in the closed phase.

ここで、特定機能152が大動脈弁の動作状態を特定する方法としては、各種の方法を用いることが可能である。 Here, various methods can be used by the identification function 152 to identify the operating state of the aortic valve.

本実施形態では、特定機能152は、取得機能151によって取得された複数時相のCT画像に含まれる所定時相のCT画像における大動脈弁の動作状態を、当該所定時相のCT画像と当該所定時相以外の時相に関するデータとに基づいて特定する。 In this embodiment, the identification function 152 identifies the operating state of the aortic valve in a CT image of a specific time phase included in the CT images of multiple time phases acquired by the acquisition function 151, based on the CT image of the specific time phase and data related to time phases other than the specific time phase.

なお、ここでいう所定時相以外の時相に関するデータは、所定時相のCT画像と同じ種類のデータであってもよいし、異なる種類のデータであってもよい。すなわち、所定時相以外の時相に関するデータは、CT画像であってもよいし、CT画像以外のデータであってもよい。 Note that the data relating to a time phase other than the specified time phase may be the same type of data as the CT image of the specified time phase, or may be a different type of data. In other words, the data relating to a time phase other than the specified time phase may be a CT image, or may be data other than a CT image.

例えば、特定機能152は、複数時相のCT画像が撮像された際に収集されたCT画像以外のデータを用いて、所定時相のCT画像における大動脈弁の動作状態を特定する。 For example, the identification function 152 identifies the operating state of the aortic valve in a CT image of a specific time phase using data other than the CT image collected when CT images of multiple time phases are captured.

一般的に、心臓のCT画像が撮像される際には、心臓の動きに合わせて撮像を行うために心電同期撮像が実施され、撮像時に計測された心電情報がCT画像のDICOMヘッダに格納されることが多い。 Generally, when CT images of the heart are taken, ECG-synchronized imaging is performed to synchronize the imaging with the movement of the heart, and the ECG information measured during imaging is often stored in the DICOM header of the CT image.

そこで、例えば、特定機能152は、複数時相のCT画像それぞれのDICOMヘッダから心電情報を取得し、取得した心電情報から、所定時相のCT画像における大動脈弁の動作状態を特定してもよい。または、特定機能152は、撮像が行われた際に計測される複数時相のCT画像に対応する心音情報を取得し、取得した心音情報から、所定時相のCT画像における大動脈弁の動作状態を特定してもよい。 Therefore, for example, the identification function 152 may acquire electrocardiogram information from the DICOM header of each of the CT images of multiple time phases, and identify the operating state of the aortic valve in the CT image of a specific time phase from the acquired electrocardiogram information. Alternatively, the identification function 152 may acquire cardiac sound information corresponding to the CT images of multiple time phases measured when imaging is performed, and identify the operating state of the aortic valve in the CT image of a specific time phase from the acquired cardiac sound information.

または、特定機能152は、複数時相のCT画像を用いて、所定時相のCT画像における大動脈弁の動作状態を特定してもよい。 Alternatively, the identification function 152 may use CT images of multiple time phases to identify the operating state of the aortic valve in a CT image of a specified time phase.

一般的に、1回の検査において複数の心位相が対象とされる場合には、複数の心位相に対応する複数時相のCT画像が再構成される。 Generally, when multiple cardiac phases are targeted in a single examination, CT images of multiple time phases corresponding to the multiple cardiac phases are reconstructed.

そこで、例えば、特定機能152は、1回の検査で再構成された複数時相のCT画像を用いて、動作状態の特定対象となる心位相のCT画像における大動脈弁の各弁葉の位置と、当該心位相と隣り合う心位相のCT画像における大動脈弁の各弁葉の位置とから各弁葉の動く方向を推測し、当該推測の結果に基づいて、特定対象の心位相のCT画像における大動脈弁の動作状態を特定してもよい。 Therefore, for example, the identification function 152 may use CT images of multiple time phases reconstructed in a single examination to estimate the direction of movement of each leaflet of the aortic valve from the position of each leaflet of the aortic valve in the CT image of the cardiac phase to be identified for its operating state and the position of each leaflet of the aortic valve in the CT image of the cardiac phase adjacent to that cardiac phase, and identify the operating state of the aortic valve in the CT image of the cardiac phase to be identified based on the result of this estimation.

ここで、特定機能152が大動脈弁の各弁葉の位置を取得する方法としては、各種の技術を用いることができる。例えば、特定機能152は、臓器セグメンテーションと呼ばれる臓器の領域を特定する手法を用いて各弁葉の位置を取得してもよいし、臓器の位置を学習させた学習モデルを用いて機械学習技術によって各弁葉の位置を取得してもよい。 Here, various techniques can be used as a method for the identification function 152 to acquire the position of each leaflet of the aortic valve. For example, the identification function 152 may acquire the position of each leaflet using a technique for identifying an organ region called organ segmentation, or may acquire the position of each leaflet through machine learning techniques using a learning model that has learned the positions of the organ.

または、特定機能152は、大動脈弁以外の別の臓器の情報を用いて、大動脈弁の動作状態を特定してもよい。例えば、特定機能152は、左心室の容積を用いて、大動脈弁の動作状態を特定してもよい。左心室は心臓の動きによってその容積が変化するため、左心室の容積又はその変化から心位相を推定することができ、その推定結果から大動脈弁の動作状態を特定することができる。 Alternatively, the identification function 152 may identify the operating state of the aortic valve using information on another organ other than the aortic valve. For example, the identification function 152 may identify the operating state of the aortic valve using the volume of the left ventricle. Because the volume of the left ventricle changes due to the movement of the heart, the cardiac phase can be estimated from the volume of the left ventricle or its change, and the operating state of the aortic valve can be identified from the estimation result.

選別機能153は、特定機能152によって特定された動作状態に基づいてCT画像を選別する。 The selection function 153 selects CT images based on the operating state identified by the identification function 152.

本実施形態では、選別機能153は、特定機能152によって特定された動作状態に基づいて、機械学習における学習モデルの更新処理で学習用データとして用いられるCT画像を選別する。 In this embodiment, the selection function 153 selects CT images to be used as learning data in the update process of the learning model in machine learning, based on the operating state identified by the identification function 152.

例えば、選別機能153は、特定機能152によって特定された動作状態を予め定められた条件と照合し、動作状態が当該条件を満たすCT画像を選別する。ここで、予め定められた条件とは、例えば、「大動脈弁の動作状態が閉往期の状態である」という条件である。この条件の場合、例えば、図2に示す例において、大動脈弁の動作状態が閉往期の状態であると特定されたt5の画像は、条件を満たさないため、選別されない。 For example, the selection function 153 compares the operating state identified by the identification function 152 with a predetermined condition, and selects CT images whose operating state satisfies the condition. Here, the predetermined condition is, for example, a condition that "the operating state of the aortic valve is in a closed state." In the case of this condition, for example, in the example shown in FIG. 2, the image at t5, which is identified as the operating state of the aortic valve being in a closed state, does not satisfy the condition, and is therefore not selected.

なお、ここで用いられる条件は、既に選別されて保管されている学習用データの数及び動作状態の割合から自動的に設定されてもよい。例えば、選別機能153は、既に選別されて保管されているCT画像における大動脈弁の多くが開往期の状態であった場合に、閉往期の状態の画像が少ないと判定して、上記の「大動脈弁の動作状態が閉往期の状態である」という条件を設定する。 The conditions used here may be automatically set based on the number of learning data already selected and stored and the proportion of operating states. For example, when most of the aortic valves in the CT images already selected and stored are in the open phase, the selection function 153 determines that there are few images in the closed phase, and sets the above-mentioned condition that "the operating state of the aortic valve is in the closed phase."

または、選別機能153は、開往期の状態と閉往期の状態との間で学習用データの数の割合を予め設定しておき、その割合になるように、特定の時期に自動的に条件を更新するようにしてもよい。例えば、選別機能153は、開往期の状態と閉往期の状態との割合が1:1に設定されている場合は、最初は動作状態に対する条件を設定せずに、全てのCT画像を対象として選別する。その後、選別機能153は、予め定められた所定の期間が経過した際に、保管されている学習用データの数を動作状態ごとに集計する。そして、選別機能153は、集計の結果、閉往期の状態の学習用データが所定数(例えば、開往期の状態の学習用データの数の半分)より少なかった場合に、閉往期の状態のデータを選別するように条件を設定する。または、選別機能153は、閉往期の状態の学習用データが所定数より少なかった場合に、開往期の状態のデータを選別しないように条件を設定してもよい。 Alternatively, the selection function 153 may set a ratio of the number of learning data between the open and closed states in advance, and automatically update the conditions at a specific time to achieve that ratio. For example, when the ratio of the open and closed states is set to 1:1, the selection function 153 initially selects all CT images without setting conditions for the operating state. After that, when a predetermined period of time has elapsed, the selection function 153 counts the number of stored learning data for each operating state. Then, when the result of the counting is that the number of learning data for the closed state is less than a predetermined number (e.g., half the number of learning data for the open state), the selection function 153 sets a condition to select data for the closed state. Alternatively, the selection function 153 may set a condition not to select data for the open state when the number of learning data for the closed state is less than a predetermined number.

そして、選別機能153は、選別されたCT画像を学習用データとして保管する。 Then, the selection function 153 stores the selected CT images as learning data.

例えば、選別機能153は、選別されたCT画像そのものを学習用データとして記憶回路120又は医用画像保管装置2に複製して保管する。または、選別機能153は、選別されたCT画像の保管位置を示す情報(アドレス)のみを学習用データの情報として保管し、CT画像そのものは医用画像保管装置2に保管しておいてもよい。または、選別機能153は、選別されたCT画像のDICOMヘッダ(例えば、プライベートタグ等)に、学習用データとして用いられることを示す印(フラグ)を直接設定してもよい。 For example, the selection function 153 copies and stores the selected CT image itself as learning data in the memory circuitry 120 or the medical image storage device 2. Alternatively, the selection function 153 may store only information (address) indicating the storage location of the selected CT image as learning data information, and store the CT image itself in the medical image storage device 2. Alternatively, the selection function 153 may directly set a mark (flag) in the DICOM header (e.g., a private tag, etc.) of the selected CT image to indicate that it will be used as learning data.

情報処理機能154は、選別機能153によって選別されたCT画像を用いて情報処理を行う。 The information processing function 154 performs information processing using the CT images selected by the selection function 153.

本実施形態では、情報処理機能154は、選別機能153によって選別されたCT画像を学習用データとして用いて、機械学習における学習モデルの更新処理を行う。 In this embodiment, the information processing function 154 uses the CT images selected by the selection function 153 as learning data to perform update processing of the learning model in machine learning.

例えば、情報処理機能154は、所定の条件に基づいて、学習を実行するか否かを判定する。 For example, the information processing function 154 determines whether or not to perform learning based on a specified condition.

例えば、情報処理機能154は、学習を実行するか否かを判定するための条件を予め設定しておき、当該条件を満たすか否かを判定することで、学習を実行するか否かを判定する。例えば、情報処理機能154は、選別機能153によって選別されて保管された学習用データの数を管理しておき、学習用データの数が予め定めた数を超えた場合に、学習を実行すると判定してもよい。このとき、学習用データの数は、全体の数であってもよいし、ある特定の動作状態に対応する学習用データの数であってもよい。 For example, the information processing function 154 may set in advance conditions for determining whether or not to execute learning, and may determine whether or not to execute learning by determining whether or not the conditions are met. For example, the information processing function 154 may manage the number of pieces of learning data selected and stored by the selection function 153, and may determine to execute learning when the number of pieces of learning data exceeds a predetermined number. In this case, the number of pieces of learning data may be the total number, or may be the number of pieces of learning data corresponding to a particular operating state.

または、情報処理機能154は、利用者から学習実行の指示を受け付け、当該指示を受け付けた場合に、学習を実行すると判定してもよい。このとき、例えば、情報処理機能154は、予め定義された所定のユーザインタフェースを介して、利用者から学習実行の指示を受け付けてもよい。 Alternatively, the information processing function 154 may receive an instruction to perform learning from a user, and when the instruction is received, determine to perform learning. At this time, for example, the information processing function 154 may receive an instruction to perform learning from a user via a predetermined user interface that is defined in advance.

または、情報処理機能154は、日時に基づいて、学習を実行するか否かを判定してもよい。例えば、情報処理機能154は、毎月、毎週又は毎日の予め決められた日、曜日又は時刻に学習実行が指示されるように設定され、当該指示を受け取った場合に、学習を実行すると判定してもよい。また、例えば、情報処理機能154は、学習を実行すると判定した時点、又は、後述する学習モデルの更新処理が完了した時点で、次に学習を実行する時期や条件を利用者に設定させるようにしてもよい。 Alternatively, the information processing function 154 may determine whether or not to execute learning based on the date and time. For example, the information processing function 154 may be set so that an instruction to execute learning is given on a predetermined day, day of the week, or time of each month, week, or day, and may determine to execute learning when the instruction is received. Also, for example, the information processing function 154 may have the user set the timing and conditions for executing the next learning at the time when it is determined that learning is to be executed or at the time when the update process for the learning model described below is completed.

そして、情報処理機能154は、学習を実行すると判定した場合に、選別機能153によって保管された学習用データを用いて学習モデルを更新することにより、アルゴリズムを更新する。 Then, when the information processing function 154 determines to perform learning, it updates the algorithm by updating the learning model using the learning data stored by the selection function 153.

例えば、前述したように、選別機能153によってCT画像のDICOMヘッダに学習用データとして用いられることを示す印(フラグ)が記載されている場合には、情報処理機能154は、医用画像保管装置20からDICOMヘッダに印が設定されているCT画像を検索することで、学習用データを特定する。 For example, as described above, if the selection function 153 writes a mark (flag) in the DICOM header of a CT image indicating that the image will be used as learning data, the information processing function 154 identifies the learning data by searching the medical image storage device 20 for CT images that have a mark set in the DICOM header.

以上、医用データ処理装置100の処理回路150が有する各処理機能について説明した。ここで、例えば、処理回路150は、プロセッサによって実現される。この場合、例えば、上述した各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路120に記憶される。そして、処理回路150は、記憶回路120に記憶された各プログラムを読み出して実行することで、各プログラムに対応する機能を実現する。換言すると、処理回路150は、各プログラムを読み出した状態で、図1に示す各処理機能を有することとなる。 The above describes each processing function possessed by the processing circuitry 150 of the medical data processing device 100. Here, for example, the processing circuitry 150 is realized by a processor. In this case, for example, each of the above-mentioned processing functions is stored in the memory circuitry 120 in the form of a program executable by a computer. Then, the processing circuitry 150 realizes the function corresponding to each program by reading and executing each program stored in the memory circuitry 120. In other words, when each program is read, the processing circuitry 150 has each processing function shown in FIG. 1.

図3は、第1の実施形態に係る医用データ処理装置100の処理回路150によって行われる処理の処理手順を示すフローチャートである。 Figure 3 is a flowchart showing the processing procedure performed by the processing circuit 150 of the medical data processing device 100 according to the first embodiment.

例えば、図3に示すように、まず、処理回路150は、X線CT装置1又は医用画像保管装置2から大動脈弁を含むCT画像を取得する(ステップS11)。このステップは、取得機能151に対応するステップである。例えば、処理回路150は、取得機能151に対応するプログラムを記憶回路120から読み出して実行することで、このステップを実行する。 For example, as shown in FIG. 3, first, the processing circuitry 150 acquires a CT image including the aortic valve from the X-ray CT device 1 or the medical image storage device 2 (step S11). This step corresponds to the acquisition function 151. For example, the processing circuitry 150 executes this step by reading out a program corresponding to the acquisition function 151 from the storage circuitry 120 and executing it.

続いて、処理回路150は、取得されたCT画像における大動脈弁の動作状態を特定する(ステップS12)。このステップは、特定機能152に対応するステップである。例えば、処理回路150は、特定機能152に対応するプログラムを記憶回路120から読み出して実行することで、このステップを実行する。 Next, the processing circuitry 150 identifies the operating state of the aortic valve in the acquired CT image (step S12). This step corresponds to the specific function 152. For example, the processing circuitry 150 executes this step by reading out a program corresponding to the specific function 152 from the memory circuitry 120 and executing it.

続いて、処理回路150は、特定された動作状態に基づいてCT画像を選別し(ステップS13,Yes)、選別されたCT画像を学習用データとして保管する(ステップS14)。一方、CT画像を選別しない場合には(ステップS13,No)、処理回路150は、ステップS11に戻り、次のCT画像を取得する。これらのステップは、選別機能153に対応するステップである。例えば、処理回路150は、選別機能153に対応するプログラムを記憶回路120から読み出して実行することで、これらのステップを実行する。 Then, the processing circuitry 150 selects a CT image based on the identified operating state (step S13, Yes) and stores the selected CT image as learning data (step S14). On the other hand, if a CT image is not selected (step S13, No), the processing circuitry 150 returns to step S11 and acquires the next CT image. These steps correspond to the selection function 153. For example, the processing circuitry 150 executes these steps by reading a program corresponding to the selection function 153 from the memory circuitry 120 and executing it.

続いて、処理回路150は、所定の条件に基づいて、学習を実行するか否かを判定し(ステップS15)、学習を実行すると判定した場合に(ステップS15,Yes)、保管された学習用データを用いて学習モデルを更新する(ステップS16)。一方、学習を実行しないと判定した場合には(ステップS15,No)、処理回路150は、ステップS11に戻り、次のCT画像を取得する。これらのステップは、情報処理機能154に対応するステップである。例えば、処理回路150は、情報処理機能154に対応するプログラムを記憶回路120から読み出して実行することで、これらのステップを実行する。 Then, the processing circuitry 150 determines whether or not to execute learning based on a predetermined condition (step S15), and if it is determined that learning is to be executed (step S15, Yes), it updates the learning model using the stored learning data (step S16). On the other hand, if it is determined that learning is not to be executed (step S15, No), the processing circuitry 150 returns to step S11 and acquires the next CT image. These steps correspond to the information processing function 154. For example, the processing circuitry 150 executes these steps by reading a program corresponding to the information processing function 154 from the memory circuitry 120 and executing it.

上述したように、第1の実施形態では、取得機能151は、CT画像を取得する。また、特定機能152は、取得機能151によって取得されたCT画像における大動脈弁の動作状態を特定する。また、選別機能153は、特定機能152によって特定された動作状態に基づいてCT画像を選別する。そして、情報処理機能154は、選別機能153によって選別されたCT画像を学習用データとして用いて、機械学習における学習モデルの更新処理を行う。 As described above, in the first embodiment, the acquisition function 151 acquires CT images. Furthermore, the identification function 152 identifies the operating state of the aortic valve in the CT images acquired by the acquisition function 151. Furthermore, the selection function 153 selects CT images based on the operating state identified by the identification function 152. Then, the information processing function 154 uses the CT images selected by the selection function 153 as learning data to perform an update process of the learning model in machine learning.

具体的には、第1の実施形態では、取得機能151は、複数時相のCT画像を取得する。また、特定機能152は、取得機能151によって取得された複数時相のCT画像に含まれる所定時相のCT画像における生体組織の動作状態を、当該所定時相のCT画像と当該所定時相以外の時相に関するデータとに基づいて特定する。また、選別機能153は、特定機能152によって特定された動作状態に基づいてCT画像を選別する。 Specifically, in the first embodiment, the acquisition function 151 acquires CT images of multiple time phases. The identification function 152 identifies the motion state of biological tissue in a CT image of a specific time phase included in the CT images of multiple time phases acquired by the acquisition function 151, based on the CT image of the specific time phase and data related to time phases other than the specific time phase. The selection function 153 selects CT images based on the motion state identified by the identification function 152.

このような構成によれば、大動脈弁の動作状態を考慮してCT画像を選別することによって、学習用データとして収集されるCT画像の偏重を防ぐことができる。したがって、第1の実施形態によれば、機械学習における学習モデルの更新処理をより適切に行えるようになる。これにより、例えば、機械学習を利用したソフトウェアが、最適な情報量で学習して成長できるようになり、医用画像を用いた診断や治療計画、治療効果判定をより正確に実施又は支援できるようになる。 According to this configuration, by selecting CT images taking into consideration the operating state of the aortic valve, it is possible to prevent bias in the CT images collected as learning data. Therefore, according to the first embodiment, it becomes possible to more appropriately perform the update process of the learning model in machine learning. As a result, for example, software using machine learning can learn and grow with an optimal amount of information, and it becomes possible to more accurately perform or support diagnosis, treatment planning, and treatment effect evaluation using medical images.

(第1の実施形態の変形例1)
なお、上述した第1の実施形態では、特定機能152が、所定時相のCT画像における大動脈弁の動作状態を、当該所定時相のCT画像と当該所定時相以外の時相に関するデータとに基づいて特定する場合の例を説明したが、実施形態はこれに限られない。
(Modification 1 of the first embodiment)
In the above-described first embodiment, an example has been described in which the identification function 152 identifies the operating state of the aortic valve in a CT image of a specified time phase based on the CT image of the specified time phase and data relating to time phases other than the specified time phase; however, the embodiment is not limited to this.

例えば、特定機能152は、取得機能151によって取得された所定時相のCT画像のみを用いて、当該CT画像における大動脈弁の動作状態を特定してもよい。 For example, the identification function 152 may identify the operating state of the aortic valve in a CT image by using only the CT image of a specific time phase acquired by the acquisition function 151.

この場合、例えば、取得機能151は、X線CT装置1又は医用画像保管装置2から大動脈弁を含む所定時相のCT画像を取得する。 In this case, for example, the acquisition function 151 acquires a CT image of a specified time phase including the aortic valve from the X-ray CT device 1 or the medical image storage device 2.

また、例えば、特定機能152は、大動脈弁の開閉状態を開口状態及び閉口状態の二つの状態に分類しておく。そして、特定機能152は、取得機能151によって取得されたCT画像における大動脈弁の開閉状態が当該二つの状態のどちらに適応するかを判別し、判別した状態を当該CT画像における大動脈弁の動作状態として特定する。 For example, the identification function 152 classifies the open/closed state of the aortic valve into two states: an open state and a closed state. The identification function 152 then determines which of the two states the open/closed state of the aortic valve in the CT image acquired by the acquisition function 151 corresponds to, and identifies the determined state as the operating state of the aortic valve in the CT image.

(第1の実施形態の変形例2)
また、上述した第1の実施形態では、対象の生体組織が心臓弁である場合の例を説明したが、実施形態はこれに限られない。例えば、本実施形態が対象とする生体組織は、時間方向の動き又は流れが存在する臓器や体液等であれば、どのような生体組織であってもよい。
(Modification 2 of the First Embodiment)
In the above-described first embodiment, the target biological tissue is a heart valve, but the embodiment is not limited thereto. For example, the target biological tissue of the present embodiment may be any biological tissue, such as an organ or a body fluid, that has a movement or flow in the time direction.

例えば、上述した実施形態は、対象の生体組織が肺である場合にも適用することができる。この場合、例えば、特定機能152は、肺の動作を吸気状態及び呼気状態の二つの状態に分類する。ここで、吸気状態は、呼吸によって肺が萎んだ状態から膨らんだ状態となるまでの期間の状態であり、呼気状態は、呼吸によって肺が膨らんだ状態から萎んだ状態となるまでの期間の状態である。そして、特定機能152は、対象となるCT画像における肺の動きが当該二つの状態のどちらに適応するかを判別し、判別した状態を当該CT画像における肺の動作状態として特定する。 For example, the above-described embodiment can also be applied when the target biological tissue is the lung. In this case, for example, the identification function 152 classifies the movement of the lung into two states: an inhalation state and an exhalation state. Here, the inhalation state is the state during the period when the lungs change from a deflated state to an expanded state due to breathing, and the exhalation state is the state during the period when the lungs change from an expanded state to a deflated state due to breathing. The identification function 152 then determines which of the two states the movement of the lungs in the target CT image corresponds to, and identifies the determined state as the movement state of the lungs in the CT image.

ここで、特定機能152が肺の動作状態を特定する方法としては、各種の方法を用いることが可能である。例えば、特定機能152は、撮像時に被検体の呼吸状態を監視するために用いられた機器から複数時相の呼吸情報を取得し、取得した呼吸情報から、所定時相のCT画像における肺の動作状態を特定してもよい。または、特定機能152は、複数時相のCT画像それぞれから既知の肺の領域抽出技術を用いて肺の体積を算出し、当該体積の変化に基づいて肺の動作状態を特定してもよい。 Here, various methods can be used as a method for the identification function 152 to identify the operating state of the lungs. For example, the identification function 152 may acquire respiratory information of multiple time phases from an instrument used to monitor the respiratory state of the subject during imaging, and identify the operating state of the lungs in a CT image of a specific time phase from the acquired respiratory information. Alternatively, the identification function 152 may calculate the volume of the lungs from each of the CT images of multiple time phases using a known lung area extraction technique, and identify the operating state of the lungs based on the change in the volume.

また、例えば、上述した実施形態は、X線によるビデオ嚥下造影検査にも適用することができる。ここで、嚥下造影検査は、X線透視下で造影剤を混ぜた食材を被検体(患者)が飲み込むことにより、嚥下機能を検査するものである。この場合、例えば、特定機能152は、嚥下造影検査における撮像時の被検体の動作を口腔相の状態、咽頭相の状態、及び、食道相の状態の3つの状態に分類することで、対象となるX線透視画像における被検体の動作状態を特定する。このとき、例えば、特定機能152は、造影剤を混ぜた食材の位置と食道の位置との相対的な位置関係に基づいて被検体の動作状態を分類してもよい。 For example, the above-described embodiment can also be applied to a video swallowing contrast examination using X-rays. Here, the swallowing contrast examination is an examination of the swallowing function by having the subject (patient) swallow food mixed with a contrast agent under X-ray fluoroscopy. In this case, for example, the identification function 152 identifies the subject's motion state in the target X-ray fluoroscopy image by classifying the subject's motion during imaging in the swallowing contrast examination into three states: oral phase state, pharyngeal phase state, and esophageal phase state. In this case, for example, the identification function 152 may classify the subject's motion state based on the relative positional relationship between the position of the food mixed with the contrast agent and the position of the esophagus.

また、例えば、上述した実施形態は、胃の内視鏡検査のように、臓器ではなく検査装置(内視鏡等)が動作する画像が得られる検査にも適用することができる。この場合、例えば、特定機能152は、画像に描出されている臓器の種類に基づいて、内視鏡等の検査装置の動作を食道期の状態、胃期の状態、及び、十二指腸期の状態のように分類することで、対象となる検査装置の動作状態を特定する。このとき、例えば、特定機能152は、既知の画像処理技術や機械学習技術を用いることによって、臓器の種類を特定してもよい。 For example, the above-described embodiment can also be applied to examinations that obtain images of the operation of an examination device (such as an endoscope) rather than an organ, such as an endoscopic examination of the stomach. In this case, for example, the identification function 152 identifies the operating state of the target examination device by classifying the operation of the examination device, such as an endoscope, into an esophageal phase state, a gastric phase state, and a duodenal phase state based on the type of organ depicted in the image. In this case, for example, the identification function 152 may identify the type of organ by using known image processing technology or machine learning technology.

(第1の実施形態の変形例3)
また、第1の実施形態では、特定機能152が、大動脈弁の開閉状態を開往期の状態及び閉往期の状態の二つの状態に分類する場合の例を説明したが、実施形態はこれに限られない。
(Modification 3 of the first embodiment)
In the first embodiment, an example has been described in which the specification function 152 classifies the open/closed state of the aortic valve into two states, an open state and a closed state, but the embodiment is not limited to this.

図4は、第1の実施形態の変形例2を説明するための図である。 Figure 4 is a diagram for explaining variant 2 of the first embodiment.

例えば、図4に示すように、開往期又は閉往期の大動脈弁は、直線的に動作するわけではなく、開く方向及び閉じる方向に無作為に動きながら動作状態を移行することが知られている。つまり、大動脈弁は、開往期又は閉往期それぞれにおいて、バタバタとはためいているように見えるように動作する。 For example, as shown in Figure 4, it is known that the aortic valve does not move linearly in the opening or closing phase, but moves randomly in the opening and closing directions to transition between operating states. In other words, the aortic valve moves in such a way that it appears to flutter wildly in the opening and closing phases, respectively.

そこで、例えば、特定機能152は、大動脈弁の開閉状態を、大動脈弁の開口方向に移動している期間の状態と、閉口方向に移動している期間の状態とに分類することで、対象となるCT画像における大動脈弁の動作状態を特定してもよい。 Therefore, for example, the identification function 152 may identify the operating state of the aortic valve in the target CT image by classifying the open/closed state of the aortic valve into a state during which the aortic valve is moving in the opening direction and a state during which the aortic valve is moving in the closing direction.

例えば、特定機能152は、1回の検査で再構成された複数時相のCT画像において、それぞれ僧帽弁の領域を抽出し、隣り合う時相の僧帽弁の弁輪部を変形位置合わせする。そして、特定機能152は、変形位置合わせした各時相における各弁葉の位置関係を比較することによって、弁葉の移動方向及び移動量を算出することができる。ここで、変形位置合わせは、既知の手法を用いることにより実現できる。例えば、affine変換法やFFD(Free Form Deformation)法、LDDMM(Large Deformation Diffeomorphic Metric Mapping)などを適用できる。 For example, the identification function 152 extracts the mitral valve region from each of the multiple time-phase CT images reconstructed in one examination, and deforms and aligns the annulus of the mitral valve in adjacent time phases. The identification function 152 can then calculate the movement direction and amount of movement of the leaflets by comparing the positional relationship of each leaflet in each time phase after deformation and alignment. Here, the deformation and alignment can be achieved by using a known method. For example, the affine transformation method, the FFD (Free Form Deformation) method, the LDDMM (Large Deformation Diffeomorphic Metric Mapping), etc. can be applied.

例えば、特定機能152は、1回の検査で再構成された複数時相のCT画像を用いて、各CT画像における大動脈弁の各弁葉の完全な閉口状態からの移動量を算出することで、各時相における大動脈の開く方向への移動量を算出する。その後、特定機能152は、時相ごとに算出された移動量を統計的に解析することで、大動脈弁の開く方向への移動量が増加傾向となる期間と、減少傾向となる期間とを特定する。そして、特定機能152は、大動脈弁の開く方向への移動量が増加傾向となる期間のCT画像については、大動脈弁の動作状態が開口方向に移動している期間の状態であると特定する。また、特定機能152は、大動脈弁の開く方向への移動量が減少傾向となる期間のCT画像については、大動脈弁の動作状態が閉口方向に移動している期間の状態であると特定する。 For example, the identification function 152 uses CT images of multiple time phases reconstructed in one examination to calculate the amount of movement of each leaflet of the aortic valve in each CT image from a completely closed state, thereby calculating the amount of movement of the aorta in the opening direction in each time phase. The identification function 152 then statistically analyzes the amount of movement calculated for each time phase to identify periods in which the amount of movement of the aortic valve in the opening direction tends to increase and periods in which the amount of movement tends to decrease. The identification function 152 then identifies CT images of periods in which the amount of movement of the aortic valve in the opening direction tends to increase as being in a state in which the operating state of the aortic valve is moving in the opening direction. The identification function 152 also identifies CT images of periods in which the amount of movement of the aortic valve in the opening direction tends to decrease as being in a state in which the operating state of the aortic valve is moving in the closing direction.

また、例えば、特定機能152は、大動脈弁の開閉状態を開往期の状態、閉往期の状態及び閉口期の状態の三つの状態に分類してもよい。つまり、大動脈弁の閉口状態は一定の期間があるので、開往期を「大動脈弁が閉口状態から開口状態に移行する時点(つまり、極僅かに開口した時点)」から「完全な開口状態の時点」までの期間とし、閉往期を大動脈弁が「完全な開口状態の時点」から「開口状態から閉口状態に移行する時点(つまり、極僅かに開口しており次の瞬間には閉口する時点)」までの期間とし、閉口期を閉口状態の期間とする。そして、特定機能152は、対象となるCT画像における大動脈弁の開閉状態が当該三つの状態のいずれに適応するかを判別し、判別した状態を当該CT画像における大動脈弁の動作状態として特定する。 For example, the identification function 152 may classify the open/closed state of the aortic valve into three states: an open state, a closed state, and a closed state. In other words, since the aortic valve is in a closed state for a certain period of time, the open state is defined as the period from "the point at which the aortic valve transitions from a closed state to an open state (i.e., the point at which it opens very slightly)" to "the point at which it is in a completely open state", the closed state is defined as the period from "the point at which the aortic valve transitions from an open state to a closed state (i.e., the point at which it opens very slightly and closes the next moment)", and the closed state is defined as the period of the closed state. Then, the identification function 152 determines which of the three states the open/closed state of the aortic valve in the target CT image corresponds to, and identifies the determined state as the operating state of the aortic valve in the CT image.

(第1の実施形態の変形例4)
また、上述した第1の実施形態では、選別機能153が、動作条件のみに基づいてCT画像を選別する場合の例を説明したが、実施形態はこれに限られない。例えば、選別機能153は、動作状態だけでなく他の条件をさらに用いて、CT画像を選別してもよい。
(Fourth Modification of the First Embodiment)
In the above-described first embodiment, the selection function 153 selects CT images based only on the operating conditions, but the embodiment is not limited to this. For example, the selection function 153 may select CT images using conditions other than the operating conditions.

この場合、例えば、取得機能151は、所定時相のCT画像の撮像条件、画像条件及び画質の少なくとも一つをさらに取得する。 In this case, for example, the acquisition function 151 further acquires at least one of the imaging conditions, image conditions, and image quality of a CT image of a specified time phase.

そして、選別機能153は、特定機能152によって取得された動作状態に加えて、取得機能151によって取得された撮像条件、画像条件及び画質の少なくとも一つにさらに基づいて、CT画像を選別する。 Then, the selection function 153 selects CT images based on at least one of the imaging conditions, image conditions, and image quality acquired by the acquisition function 151 in addition to the operating state acquired by the identification function 152.

例えば、選別機能153は、マトリックスサイズが1024×1024以上という撮像条件を用いてもよい。これにより、動作状態が条件を満たし、かつ、高空間分解能のCT画像のみを選別することができる。 For example, the selection function 153 may use an imaging condition of a matrix size of 1024 x 1024 or more. This makes it possible to select only CT images whose operating state meets the condition and has high spatial resolution.

または、選別機能153は、指定された造影時相を画像条件として用いてもよい。一般的に、各種臓器の描出能は造影剤を人体に注入してからの経過時間によって大きく変わることが知られている。したがって、造影時相を条件に加えることで、選別されるCT画像における各種臓器の描出能を一定に保つことができる。 Alternatively, the selection function 153 may use the specified contrast phase as an image condition. It is generally known that the imaging ability of various organs varies greatly depending on the time that has elapsed since the contrast agent was injected into the human body. Therefore, by adding the contrast phase as a condition, it is possible to maintain a constant imaging ability of various organs in the selected CT images.

または、選別機能153は、このような撮像条件及び画像条件を複数組み合わせて、CT画像を選別するための条件を設定してもよい。 Alternatively, the selection function 153 may set conditions for selecting CT images by combining multiple such imaging conditions and image conditions.

または、選別機能153は、画質を条件として用いてもよい。例えば、選別機能153は、既知の画像処理技術によってCT画像の画質を判定し、一定以上の画質であるCT画像のみを選別する。これにより、ノイズやアーチファクトによって臓器に関する十分な情報を得ることができないCT画像を除外することができる。 Alternatively, the selection function 153 may use image quality as a condition. For example, the selection function 153 determines the image quality of the CT images using known image processing techniques, and selects only CT images with image quality above a certain level. This makes it possible to exclude CT images from which sufficient information about organs cannot be obtained due to noise or artifacts.

または、選別機能153は、被検体(患者)に関する情報を条件として用いてもよい。例えば、選別機能153は、年齢や性別のような被検体の状態に関する条件を設定する。これにより、さらに偏りのない学習用データセットを構築することができる。 Alternatively, the selection function 153 may use information about the subject (patient) as a condition. For example, the selection function 153 sets conditions related to the subject's condition, such as age and gender. This makes it possible to construct a more unbiased learning dataset.

または、選別機能153は、病態に関する条件を用いてもよい。一般的に、多くのソフトウェアは、対象とする疾患を有しており、当該疾患を持つ臓器に対して適正に動作するように調整される。しかしながら、来院する患者の全体では、ソフトウェアが対象とする疾患を有さない患者の方が多い。そのため、病態に関する条件を設定しない場合、ソフトウェアは、正常な臓器に対しては高精度に動作するが、対象となる疾患を有する臓器に対しては精度が低下する可能性がある。 Alternatively, the selection function 153 may use conditions related to the pathology. Generally, most software has a target disease and is adjusted to operate appropriately for organs with that disease. However, among all patients who visit the hospital, there are more patients who do not have the disease that the software targets. Therefore, if conditions related to the pathology are not set, the software will operate with high accuracy for normal organs, but the accuracy may decrease for organs with the target disease.

そこで、例えば、選別機能153は、大動脈弁閉鎖不全症であるという条件を設定する。この場合、選別機能153は、ネットワーク3を介して接続された電子カルテシステムから病態に関する情報を取得して条件に対して判定してもよいし、既知の画像処理技術を用いてCT画像に描出されている大動脈弁の状態を自動的に特定して判定してもよい。 Therefore, for example, the selection function 153 sets the condition that the condition is aortic valve regurgitation. In this case, the selection function 153 may obtain information on the pathology from an electronic medical record system connected via the network 3 and make a judgment based on the condition, or may automatically identify and make a judgment on the state of the aortic valve depicted in the CT image using known image processing technology.

なお、上記のような様々な条件は、どのような組み合わせで設定されてもよいし、予め定義されたユーザインタフェースを用いて利用者が任意に設定できるようにしてもよい。いずれにしても、本実施形態は、動作状態以外の情報が条件としてどのように組み合わされても適用することができ、条件の組み合わせによって限定されるものではない。 The above various conditions may be set in any combination, or may be set by the user using a predefined user interface. In any case, this embodiment can be applied to any combination of conditions other than the operating state, and is not limited by the combination of conditions.

(第1の実施形態の変形例5)
また、上述した第1の実施形態では、選別機能153が、大動脈弁を対象とする場合に、開往期の状態と閉往期の状態との間で学習用データの数の割合を1:1に設定する場合の例を説明したが、実施形態はこれに限られない。
Fifth Modification of the First Embodiment
In addition, in the above-described first embodiment, an example has been described in which the selection function 153 sets the ratio of the number of learning data items between the open and closed states to 1:1 when targeting the aortic valve; however, the embodiment is not limited to this.

例えば、選別機能153は、大動脈弁の動作状態の複雑さに基づいて、学習用データの数の割合を変えてもよい。例えば、選別機能153は、開往期の状態と閉往期の状態との間で、学習用データの数の割合を100:1のように大きな差が生じるように設定してもよい。 For example, the selection function 153 may change the ratio of the number of pieces of learning data based on the complexity of the operating state of the aortic valve. For example, the selection function 153 may set the ratio of the number of pieces of learning data between the open and closed states so that there is a large difference, such as 100:1.

この場合、例えば、選別機能153は、大動脈弁の動作状態の複雑さを算出し、算出した複雑さに基づいてCT画像を選別してもよい。 In this case, for example, the selection function 153 may calculate the complexity of the operating state of the aortic valve and select CT images based on the calculated complexity.

一般的に、大動脈弁は、開往期と閉往期とで動きの複雑さが異なることが知られており、開往期よりも閉往期の方が複雑な動きをする。また、機械学習では、動きが複雑な状態であるほど学習することが難しく、より多くのデータ数を必要とする。 It is generally known that the complexity of the movement of the aortic valve differs between the opening and closing phases, with the closing phase exhibiting more complex movements than the opening phase. Furthermore, with machine learning, the more complex the movements, the more difficult it is to learn, and the more data is required.

そこで、例えば、選別機能153は、各動作状態における動作の複雑さに基づいて、学習用データの数の割合を設定するようにしてもよい。具体的には、選別機能153は、大動脈弁を対象とする場合に、閉往期の状態の学習用データの数が開往期の状態の学習用データと比べて多くなるように、それぞれの状態の割合を設定する。 Therefore, for example, the selection function 153 may set the ratio of the number of learning data based on the complexity of the operation in each operating state. Specifically, when the aortic valve is the target, the selection function 153 sets the ratio of each state so that the number of learning data for the closed state is greater than the number of learning data for the open state.

または、選別機能153は、既知の画像処理技術によってCT画像における生体組織の動きの複雑さを算出し、算出した複雑さの程度に応じて自動的に割合を設定するようにしてもよい。このとき、例えば、選別機能153は、CT画像から対象となる臓器を抽出し、抽出した臓器の動きを周波数解析することによって、動作状態の複雑さを算出する。 Alternatively, the selection function 153 may calculate the complexity of the movement of biological tissue in the CT image using known image processing technology, and automatically set a ratio according to the calculated degree of complexity. In this case, for example, the selection function 153 extracts the target organ from the CT image, and calculates the complexity of the motion state by frequency analysis of the movement of the extracted organ.

または、選別機能153は、対象となる複数の動作状態のCT画像を用いて、学習用データの数を変えながら機械学習によって単純な計算(例えば、直径の自動算出等)を実施することで、性能が安定するまでのデータ数(一般的に、複雑な動作状態の対象については性能が安定するまでに多数のデータを必要とする)を算出し、それぞれの動作状態における性能が安定するまでのデータ数の比に応じて、学習用データの数の割合を設定してもよい。 Alternatively, the selection function 153 may use CT images of multiple target operating states to perform simple calculations (e.g., automatic calculation of diameter) through machine learning while changing the number of pieces of learning data to calculate the number of pieces of data until performance stabilizes (generally, for a target with a complex operating state, a large number of pieces of data are required until performance stabilizes), and set the ratio of the number of pieces of learning data according to the ratio of the number of pieces of data until performance stabilizes in each operating state.

(第1の実施形態の変形例6)
また、上述した第1の実施形態では、情報処理機能154が、機械学習における学習モデルの更新処理を行う場合の例を説明したが、実施形態はこれに限られない。例えば、上述した実施形態は、機械学習における学習モデルの更新処理に限らず、医用データを用いた各種の情報処理に適用することができる。
(Sixth Modification of the First Embodiment)
In the above-described first embodiment, an example in which the information processing function 154 performs an update process of a learning model in machine learning has been described, but the embodiment is not limited to this. For example, the above-described embodiment is not limited to an update process of a learning model in machine learning, and can be applied to various information processing using medical data.

例えば、画像処理が実施される際に、事前に収集されたデータの統計学的情報に基づいて、画像処理に対して一部の制約や条件が設定される場合がある。 For example, when image processing is performed, some constraints or conditions may be set for the image processing based on statistical information of data collected in advance.

例えば、非特許文献1に記載されている技術では、graph cutsアルゴリズムに対して、事前に収集されたデータから構築される統計学的な形状モデルをgraph cutsの正則化項に導入することによって、より正確な肺の領域抽出を可能としている。 For example, the technology described in Non-Patent Document 1 enables more accurate extraction of lung regions by introducing a statistical shape model constructed from pre-collected data into the regularization term of the graph cuts algorithm.

このように、事前に収集されたデータに基づいて実施される画像処理において、自動的にデータを収集してアルゴリズムのモデルを更新する際に、上述した実施形態を適用することができる。 In this way, in image processing that is performed based on previously collected data, the above-described embodiment can be applied when automatically collecting data and updating the algorithm model.

(第2の実施形態)
次に、第2の実施形態について説明する。なお、以下では、第2の実施形態について、第1の実施形態と異なる点を中心に説明することとし、第1の実施形態と共通する内容については詳細な説明を省略する。
Second Embodiment
Next, a second embodiment will be described. In the following, the second embodiment will be described mainly with respect to the differences from the first embodiment, and detailed description of the contents common to the first embodiment will be omitted.

第2の実施形態では、機械学習で用いられる学習用データを増強する場合の例を説明する。 In the second embodiment, an example of augmenting learning data used in machine learning is described.

図5は、第2の実施形態に係る医用データ処理装置の構成を示す図である。 Figure 5 is a diagram showing the configuration of a medical data processing device according to the second embodiment.

例えば、図5に示すように、第2の実施形態に係る医用データ処理装置200は、NWインタフェース110と、記憶回路120と、入力インタフェース130と、ディスプレイ140と、処理回路250とを備える。 For example, as shown in FIG. 5, the medical data processing device 200 according to the second embodiment includes a network interface 110, a memory circuit 120, an input interface 130, a display 140, and a processing circuit 250.

本実施形態では、医用データ処理装置200は、処理回路250が有する処理機能として、取得機能151と、特定機能152と、選別機能153と、増強機能255と、情報処理機能254とを有する。なお、増強機能255は、増強部の一例である。また、情報処理機能254は、情報処理部の一例である。 In this embodiment, the medical data processing device 200 has an acquisition function 151, a specification function 152, a selection function 153, an enhancement function 255, and an information processing function 254 as processing functions possessed by the processing circuitry 250. The enhancement function 255 is an example of an enhancement section. The information processing function 254 is an example of an information processing section.

増強機能255は、特定機能152によって特定された動作状態に基づいて、選別機能153によって選別されたCT画像を用いて、学習用データを増強する。 The enhancement function 255 enhances the learning data using the CT images selected by the selection function 153 based on the operating state identified by the identification function 152.

例えば、増強機能255は、選別機能153によって選別されたCT画像について、動作状態に関する所定の条件に基づいて、学習用データの増強を実施するか否かを判定する。例えば、増強機能255は、院内で撮像される機会が少ない動作状態を条件として予め設定しておき、特定機能152によって特定された動作状態が当該条件と一致した場合に、学習用データの増強を実施すると判定する。 For example, the enhancement function 255 determines whether or not to enhance the learning data for the CT images selected by the selection function 153 based on a predetermined condition related to the operating state. For example, the enhancement function 255 pre-sets an operating state that is rarely imaged in the hospital as a condition, and determines to enhance the learning data when the operating state identified by the identification function 152 matches the condition.

そして、増強機能255は、学習用データの増強を実施すると判定した場合に、選別機能153によって選別されたCT画像を用いて、Data Augmentationによって学習用データを増強する。ここで、Data Augmentationは、学習用データに対して画像処理を実施することによって、学習用データを疑似的に増やす処理であり、一般的に、機械学習におけるデータ数の不足を補う手法として広く知られている。例えば、Data Augmentationを用いた手法として、収集された画像を回転又は平行移動させて臓器の描出位置が疑似的に変更された画像を複数作成することによって学習用データを増やす手法や、一つの画像からある特定の範囲の画像のみを複数抜き出すことによって学習用データを増やす手法、画素値を変更又は反転させた画像を複数作成することによって学習用データを増やす手法等が知られている。 When it is determined that the training data should be augmented, the augmentation function 255 augments the training data by data augmentation using the CT images selected by the selection function 153. Here, data augmentation is a process of artificially increasing the training data by performing image processing on the training data, and is generally known as a method for compensating for a lack of data in machine learning. For example, methods using data augmentation include a method of increasing the training data by rotating or translating the collected images to create multiple images in which the depiction position of the organ is pseudo-changed, a method of increasing the training data by extracting only multiple images of a specific range from one image, and a method of increasing the training data by creating multiple images in which the pixel values are changed or inverted.

なお、増強機能255がCT画像を増強する方法としては、上述した手法に限られず、各種の方法を用いることができる。 Note that the method by which the enhancement function 255 enhances the CT image is not limited to the above-mentioned method, and various other methods can be used.

そして、増強機能255は、増強された学習用データを保管する。 Then, the augmentation function 255 stores the augmented learning data.

例えば、増強機能255は、増強された学習用データを記憶回路120又は医用画像保管装置2に複製して保管する。または、増強機能255は、増強された学習用データの保管位置を示す情報(アドレス)のみを保管し、学習用データそのものは医用画像保管装置2に保管しておいてもよい。または、増強機能255は、学習用データとなるCT画像のDICOMヘッダ(例えば、プライベートタグ等)に、学習用データとして用いられることを示す印(フラグ)を直接設定してもよい。 For example, the enhancement function 255 copies and stores the augmented learning data in the memory circuitry 120 or the medical image storage device 2. Alternatively, the enhancement function 255 may store only information (address) indicating the storage location of the augmented learning data, and store the learning data itself in the medical image storage device 2. Alternatively, the enhancement function 255 may directly set a mark (flag) indicating that the data will be used as learning data in the DICOM header (e.g., a private tag, etc.) of the CT image that will be the learning data.

情報処理機能254は、増強機能255によって増強された学習用データ用いて、学習モデルの更新処理を行う。 The information processing function 254 uses the learning data augmented by the augmentation function 255 to perform update processing of the learning model.

本実施形態では、情報処理機能254は、増強機能255によって増強された学習用データを用いて、第1の実施形態で説明した情報処理機能154と同様に、機械学習における学習モデルの更新処理を行う。 In this embodiment, the information processing function 254 uses the learning data augmented by the augmentation function 255 to perform update processing of the learning model in machine learning, similar to the information processing function 154 described in the first embodiment.

以上、医用データ処理装置200の処理回路250が有する各処理機能について説明した。ここで、例えば、処理回路250は、プロセッサによって実現される。この場合、例えば、上述した各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路120に記憶される。そして、処理回路250は、記憶回路120に記憶された各プログラムを読み出して実行することで、各プログラムに対応する機能を実現する。換言すると、処理回路250は、各プログラムを読み出した状態で、図5に示す各処理機能を有することとなる。 The above describes each processing function possessed by the processing circuitry 250 of the medical data processing device 200. Here, for example, the processing circuitry 250 is realized by a processor. In this case, for example, each of the above-mentioned processing functions is stored in the memory circuitry 120 in the form of a program executable by a computer. Then, the processing circuitry 250 realizes the function corresponding to each program by reading and executing each program stored in the memory circuitry 120. In other words, when each program is read, the processing circuitry 250 has each processing function shown in FIG. 5.

図6は、第2の実施形態に係る医用データ処理装置200の処理回路250によって行われる処理の処理手順を示すフローチャートである。 Figure 6 is a flowchart showing the processing procedure performed by the processing circuit 250 of the medical data processing device 200 according to the second embodiment.

例えば、図6に示すように、処理回路250は、第1の実施形態で図3を参照して説明した示したステップS11~S14と同様の処理を行う(ステップ21~S24)。 For example, as shown in FIG. 6, the processing circuit 250 performs the same processing as steps S11 to S14 described with reference to FIG. 3 in the first embodiment (steps 21 to S24).

続いて、処理回路150は、動作状態に関する所定の条件に基づいて、学習用データの増強を実施するか否かを判定する(ステップS25)。そして、処理回路250は、学習用データの増強を実施すると判定した場合に(ステップS25,Yes)、選別されたCT画像を用いて、学習用データを増強し(ステップS26)、増強された学習用データを保管する(ステップS27)。一方、学習用データの増強を実施しないと判定した場合には(ステップS25,No)、処理回路150は、学習用データの増強は実施せずに、ステップS28へ進む。これらのステップは、増強機能255に対応するステップである。例えば、処理回路250は、増強機能255に対応するプログラムを記憶回路120から読み出して実行することで、これらのステップを実行する。 Next, the processing circuit 150 determines whether or not to enhance the learning data based on a predetermined condition related to the operating state (step S25). If the processing circuit 250 determines that the learning data is to be enhanced (step S25, Yes), the processing circuit 250 enhances the learning data using the selected CT image (step S26) and stores the enhanced learning data (step S27). On the other hand, if the processing circuit 250 determines that the learning data is not to be enhanced (step S25, No), the processing circuit 150 proceeds to step S28 without enhancing the learning data. These steps correspond to the enhancement function 255. For example, the processing circuit 250 executes these steps by reading a program corresponding to the enhancement function 255 from the memory circuit 120 and executing it.

続いて、処理回路250は、所定の条件に基づいて、学習を実行するか否かを判定し(ステップS28)、学習を実行すると判定した場合に(ステップS28,Yes)、保管された学習用データを用いて学習モデルを更新する(ステップS29)。一方、学習を実行しないと判定した場合には(ステップS28,No)、処理回路250は、ステップS21に戻り、次のCT画像を取得する。これらのステップは、情報処理機能254に対応するステップである。例えば、処理回路250は、情報処理機能254に対応するプログラムを記憶回路120から読み出して実行することで、これらのステップを実行する。 Then, the processing circuitry 250 determines whether or not to execute learning based on a predetermined condition (step S28), and if it is determined that learning is to be executed (step S28, Yes), it updates the learning model using the stored learning data (step S29). On the other hand, if it is determined that learning is not to be executed (step S28, No), the processing circuitry 250 returns to step S21 and acquires the next CT image. These steps correspond to the information processing function 254. For example, the processing circuitry 250 executes these steps by reading a program corresponding to the information processing function 254 from the memory circuitry 120 and executing it.

上述したように、第2の実施形態では、増強機能255は、特定機能152によって特定された動作状態に基づいて、選別機能153によって選別されたCT画像を用いて、学習用データを増強する。また、情報処理機能254は、増強機能255によって増強された学習用データを用いて、機械学習における学習モデルの更新処理を行う。 As described above, in the second embodiment, the enhancement function 255 enhances the learning data using the CT images selected by the selection function 153 based on the operating state identified by the identification function 152. In addition, the information processing function 254 uses the learning data enhanced by the enhancement function 255 to perform an update process of the learning model in machine learning.

このような構成によれば、例えば、そもそも院内で撮像される機会が少ない動作状態の学習用データを増強することができ、動作状態に応じた適切な学習用データを収集できるようになる。 With this configuration, for example, it is possible to increase the amount of learning data for operating states that are rarely imaged in the hospital, and to collect appropriate learning data according to the operating state.

また、前述した第1の実施形態の変形例5を第2の実施形態と組み合わせることによって、動きが複雑な状態の学習用データを増強することができ、複雑さの異なる複数の動作状態を含む対象に対して効果的な学習を行うことができるようになる。 In addition, by combining the above-mentioned variant 5 of the first embodiment with the second embodiment, it is possible to increase the amount of learning data for states with complex movements, enabling effective learning for targets that include multiple motion states with different degrees of complexity.

(第2の実施形態の変形例1)
なお、上述した第2の実施形態では、増強機能255が、動作状態に関する所定の条件に基づいて、学習用データの増強を実施するか否かを判定する場合の例を説明したが、実施形態はこれに限られない。
(Variation 1 of the second embodiment)
In the above-mentioned second embodiment, an example was described in which the enhancement function 255 determines whether or not to enhance the learning data based on certain conditions related to the operating state, but the embodiment is not limited to this.

例えば、増強機能255は、特定機能152によって特定された動作状態に応じて、学習用データを増強する増強方法を変更するようにしてもよい。 For example, the enhancement function 255 may change the enhancement method for enhancing the learning data depending on the operating state identified by the identification function 152.

この場合、例えば、増強機能255は、動作状態が一定の範囲のCT画像については、所定の増強方法(例えば、画像反転)で学習用データの増強を実施し、動作状態が他の範囲のデータについては、当該所定の増強とは異なる増強方法(例えば、画素値変更)で学習用データを実施するようにしてもよい。 In this case, for example, the enhancement function 255 may enhance the learning data using a predetermined enhancement method (e.g., image inversion) for CT images with a certain range of operating states, and enhance the learning data using a different enhancement method (e.g., pixel value change) for data with a different range of operating states.

なお、増強機能255が学習用データを増強する際の増強の種類及び分類の数は上述した例に限られず、各種の増強の種類及び分類の数を用いることができる。 Note that the types of augmentation and the number of categories when the augmentation function 255 augments the learning data are not limited to the above example, and various types of augmentation and the number of categories can be used.

(第2の実施形態の変形例2)
また、上述した第2の実施形態では、増強機能255が、選別機能153によって選別されたCT画像を用いて学習用データを増強する場合の例を説明したが、実施形態はこれに限られない。
(Modification 2 of the second embodiment)
In addition, in the above-mentioned second embodiment, an example was described in which the enhancement function 255 enhances learning data using CT images selected by the selection function 153, but the embodiment is not limited to this.

例えば、増強機能255は、特定機能152によって特定された動作状態に基づいて、選別機能153によって選別されたCT画像ではなく、取得機能151によって取得されたCT画像を用いて学習用データを増強するようにしてもよい。この場合、取得機能151が、取得したCT画像を学習用データとして保管することとすれば、処理回路250は、選別機能153を有さなくてもよい。 For example, the enhancement function 255 may enhance the learning data using the CT images acquired by the acquisition function 151, instead of the CT images selected by the selection function 153, based on the operating state identified by the identification function 152. In this case, if the acquisition function 151 stores the acquired CT images as learning data, the processing circuit 250 does not need to have the selection function 153.

なお、上述した実施形態及び変形例で説明した医用データ処理装置の構成は、クラウド等のネットワークを介したサーバによって実現されてもよい。また、上述した実施形態及び変形例で説明した医用データ処理装置の構成は、X線CT装置等の医用画像診断装置のコンソール装置や医用画像保管装置に適用することも可能である。この場合、上述した取得機能、特定機能、選別機能、情報処理機能及び増強機能と同等の機能が、医用画像診断装置のコンソール装置に含まれる処理回路や医用画像保管装置に含まれる処理回路に実装される。 The configuration of the medical data processing device described in the above-mentioned embodiment and modified example may be realized by a server via a network such as the cloud. The configuration of the medical data processing device described in the above-mentioned embodiment and modified example may also be applied to a console device of a medical image diagnostic device such as an X-ray CT device or a medical image storage device. In this case, functions equivalent to the above-mentioned acquisition function, identification function, selection function, information processing function, and enhancement function are implemented in a processing circuit included in the console device of the medical image diagnostic device or a processing circuit included in the medical image storage device.

また、上述した実施形態及び変形例において、処理回路は、単一のプロセッサによって実現されるものに限られず、複数の独立したプロセッサを組み合わせて構成され、各プロセッサがプログラムを実行することによって各処理機能を実現するものであってもよい。また、処理回路が有する各処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。また、処理回路が有する各処理機能は、回路等のハードウェアとソフトウェアとの混合によって実現されても構わない。また、ここでは、各処理機能に対応するプログラムが単一の記憶回路に記憶される場合の例を説明したが、実施形態はこれに限られない。例えば、各処理機能に対応するプログラムが複数の記憶回路に分散して記憶され、処理回路が、各記憶回路から各プログラムを読み出して実行する構成としても構わない。 In the above-described embodiment and modified examples, the processing circuit is not limited to being realized by a single processor, but may be configured by combining multiple independent processors, with each processor executing a program to realize each processing function. Each processing function of the processing circuit may be realized by being appropriately distributed or integrated into a single or multiple processing circuits. Each processing function of the processing circuit may be realized by a mixture of hardware and software such as circuits. Here, an example has been described in which a program corresponding to each processing function is stored in a single storage circuit, but the embodiment is not limited to this. For example, a configuration in which a program corresponding to each processing function is distributed and stored in multiple storage circuits, and a processing circuit reads out and executes each program from each storage circuit may be used.

また、上述した実施形態及び変形例では、本明細書における取得部、特定部、選別部、情報処理部及び増強部を、それぞれ、処理回路の取得機能、特定機能、選別機能、情報処理機能及び増強機能によって実現する場合の例を説明したが、実施形態はこれに限られない。例えば、本明細書における取得部、特定部、選別部、情報処理部及び増強部は、実施形態で述べた取得機能、特定機能、選別機能、情報処理機能及び増強機能によって実現する他にも、ハードウェアのみ、ソフトウェアのみ、又は、ハードウェアとソフトウェアとの混合によって同機能を実現するものであっても構わない。 In addition, in the above-mentioned embodiment and modified example, examples have been described in which the acquisition unit, identification unit, selection unit, information processing unit, and enhancement unit in this specification are realized by the acquisition function, identification function, selection function, information processing function, and enhancement function of the processing circuit, respectively, but the embodiment is not limited to this. For example, in addition to being realized by the acquisition function, identification function, selection function, information processing function, and enhancement function described in the embodiment, the acquisition unit, identification unit, selection unit, information processing unit, and enhancement unit in this specification may also realize the same functions by hardware only, software only, or a combination of hardware and software.

また、上述した実施形態の説明で用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。ここで、記憶回路にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、プロセッサは、回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。また、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて一つのプロセッサとして構成され、その機能を実現するようにしてもよい。 The term "processor" used in the description of the above-mentioned embodiment means, for example, a circuit such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an Application Specific Integrated Circuit (ASIC), or a programmable logic device (for example, a Simple Programmable Logic Device (SPLD), a Complex Programmable Logic Device (CPLD), and a Field Programmable Gate Array (FPGA)). Here, instead of storing a program in a memory circuit, the program may be directly built into the circuit of the processor. In this case, the processor realizes its function by reading and executing the program built into the circuit. In addition, each processor in this embodiment is not limited to being configured as a single circuit for each processor, but may be configured as a single processor by combining multiple independent circuits to realize its function.

ここで、プロセッサによって実行されるプログラムは、ROM(Read Only Memory)や記憶回路等に予め組み込まれて提供される。なお、このプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD(Compact Disk)-ROM、FD(Flexible Disk)、CD-R(Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な非一過性の記憶媒体に記録されて提供されてもよい。また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納され、ネットワーク経由でダウンロードされることによって提供又は配布されてもよい。例えば、このプログラムは、上述した各処理機能を含むモジュールで構成される。実際のハードウェアとしては、CPUが、ROM等の記憶媒体からプログラムを読み出して実行することにより、各モジュールが主記憶装置上にロードされて、主記憶装置上に生成される。 Here, the program executed by the processor is provided in advance in a ROM (Read Only Memory) or a storage circuit. The program may be provided in a format that can be installed in these devices or in a format that can be executed, recorded on a non-transient storage medium that can be read by a computer, such as a CD (Compact Disk)-ROM, a FD (Flexible Disk), a CD-R (Recordable), or a DVD (Digital Versatile Disk). The program may also be provided or distributed by being stored on a computer connected to a network such as the Internet and downloaded via the network. For example, the program is composed of modules including each of the above-mentioned processing functions. In terms of actual hardware, the CPU reads and executes the program from a storage medium such as a ROM, and each module is loaded onto the main storage device and generated on the main storage device.

また、上述した実施形態及び変形例において、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散又は統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合して構成することができる。更に、各装置にて行なわれる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、或いは、ワイヤードロジックによるハードウェアとして実現され得る。 In addition, in the above-mentioned embodiment and modified examples, each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. In other words, the specific form of distribution or integration of each device is not limited to that shown in the figure, and all or part of it can be functionally or physically distributed or integrated in any unit depending on various loads, usage conditions, etc. Furthermore, each processing function performed by each device can be realized in whole or in any part by a CPU and a program analyzed and executed by the CPU, or can be realized as hardware using wired logic.

また、上述した実施形態及び変形例において説明した各処理のうち、自動的に行なわれるものとして説明した処理の全部又は一部を手動的に行なうこともでき、或いは、手動的に行なわれるものとして説明した処理の全部又は一部を公知の方法で自動的に行なうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Furthermore, among the processes described in the above-mentioned embodiments and variations, all or part of the processes described as being performed automatically can be performed manually, or all or part of the processes described as being performed manually can be performed automatically using known methods. In addition, the information including the processing procedures, control procedures, specific names, various data, and parameters shown in the above documents and drawings can be changed as desired unless otherwise specified.

なお、本明細書において扱う各種データは、典型的にはデジタルデータである。 The various data discussed in this specification are typically digital data.

以上説明した少なくとも一つの実施形態によれば、医用データを用いた情報処理をより適切に行えるようにすることができる。 According to at least one of the embodiments described above, it is possible to more appropriately perform information processing using medical data.

いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, and modifications can be made without departing from the spirit of the invention. These embodiments and their modifications are within the scope of the invention and its equivalents as set forth in the claims, as well as the scope and spirit of the invention.

100,200 医用データ処理装置
150,250 処理回路
151 取得機能
152 特定機能
153 選別機能
154,254 情報処理機能
255 増強機能
100, 200 Medical data processing device 150, 250 Processing circuit 151 Acquisition function 152 Identification function 153 Selection function 154, 254 Information processing function 255 Amplification function

Claims (20)

複数時相の医用データを取得する取得部と、
前記複数時相の医用データに含まれる所定時相の医用データにおける生体組織の動作状態を、前記所定時相の医用データと前記所定時相以外の時相に関するデータとに基づいて特定する特定部と、
前記特定部によって特定された動作状態に基づいて、特定の動作状態に偏重しないように前記医用データを選別する選別部と、
前記選別部によって選別された医用データを学習用データとして用いて、機械学習における学習モデルの更新処理を行う情報処理部と、
を備える、医用データ処理装置。
An acquisition unit that acquires medical data of multiple time phases;
an identification unit that identifies a motion state of a living tissue in medical data of a predetermined time phase included in the medical data of the plurality of time phases based on the medical data of the predetermined time phase and data related to a time phase other than the predetermined time phase;
a selection unit that selects the medical data based on the motion state identified by the identification unit so as not to place too much weight on a specific motion state ;
An information processing unit that uses the medical data selected by the selection unit as learning data to perform an update process of a learning model in machine learning;
A medical data processing device comprising:
前記動作状態に基づいて、前記選別部によって選別された医用データを用いて、前記学習用データを増強する増強部をさらに備える、
前記情報処理部は、前記増強部によって増強された学習用データを用いて、前記学習モデルの更新処理を行う、
請求項に記載の医用データ処理装置。
and an augmenting unit that augments the learning data using the medical data selected by the selecting unit based on the operating state.
The information processing unit performs an update process of the learning model by using the learning data augmented by the augmentation unit.
The medical data processing device according to claim 1 .
前記生体組織は、心臓弁であり、
前記動作状態は、前記心臓弁の開閉状態である、
請求項1又は2に記載の医用データ処理装置。
the biological tissue is a heart valve;
The operating state is an open/closed state of the heart valve.
3. The medical data processing device according to claim 1 or 2 .
前記特定部は、心臓弁の開閉状態を開往期の状態及び閉往期の状態の二つの状態に分類し、前記医用データにおける心臓弁の開閉状態が当該二つの状態のどちらに適応するかを判別し、判別した状態を当該医用データにおける心臓弁の動作状態として特定する、
請求項に記載の医用データ処理装置。
the identification unit classifies an open/closed state of the cardiac valve into two states, an open state and a closed state, determines which of the two states the open/closed state of the cardiac valve in the medical data corresponds to, and identifies the determined state as the operating state of the cardiac valve in the medical data.
The medical data processing device according to claim 3 .
前記特定部は、心臓弁の開閉状態を開往期の状態、閉往期の状態及び閉口期の状態の三つの状態に分類し、前記医用データにおける心臓弁の開閉状態が当該三つの状態のいずれに適応するかを判別し、判別した状態を当該医用データにおける心臓弁の動作状態として特定する、
請求項に記載の医用データ処理装置。
the identification unit classifies the open/closed state of the cardiac valve into three states, an open state, a closed state, and a closed state, determines which of the three states the open/closed state of the cardiac valve in the medical data corresponds to, and identifies the determined state as the operating state of the cardiac valve in the medical data.
The medical data processing device according to claim 3 .
前記生体組織は、肺であり、
前記特定部は、肺の動作を吸気状態及び呼気状態の二つの状態に分類し、前記医用データにおける肺の動きが当該二つの状態のどちらに適応するかを判別し、判別した状態を当該医用データにおけるの動作状態として特定する、
請求項1又は2に記載の医用データ処理装置。
the biological tissue is lung;
the identification unit classifies lung motion into two states, an inhalation state and an exhalation state, determines which of the two states the lung motion in the medical data corresponds to, and identifies the determined state as the lung motion state in the medical data.
3. The medical data processing device according to claim 1 or 2 .
前記選別部は、第1の動作状態よりも動きが複雑な第2の動作状態の医用データが前記第1の動作状態の医用データと比べて多くなるように前記第1の動作状態と前記第2の動作状態との間で前記医用データを選別する数の割合を変える
請求項1~のいずれか一つに記載の医用データ処理装置。
the selection unit changes a ratio of the number of medical data to be selected between the first motion state and the second motion state such that the number of medical data in a second motion state, which is a more complicated motion than the first motion state, is greater than the number of medical data in the first motion state;
The medical data processing device according to any one of claims 1 to 6 .
前記選別部は、前記生体組織の複数の動作状態の医用データを学習用データとして用いて、当該学習用データの数を変えながら機械学習によって所定の計算を実施することで、性能が安定するまでのデータ数を算出し、それぞれの動作状態における性能が安定するまでのデータ数の比に応じて、それぞれの動作状態の間で前記医用データを選別する数の割合を変える、
請求項1~6のいずれか一つに記載の医用データ処理装置。
the selection unit uses medical data of the biological tissue in a plurality of motion states as learning data, and performs a predetermined calculation by machine learning while changing the number of the learning data to calculate the number of data until the performance is stabilized, and changes the ratio of the number of the medical data to be selected between each motion state according to the ratio of the number of data until the performance is stabilized in each motion state ;
7. The medical data processing device according to claim 1 .
前記取得部は、前記所定時相の医用データの撮像条件、画像条件及び画質の少なくとも一つをさらに取得し、
前記選別部は、前記動作状態に加えて、前記撮像条件、画像条件及び画質の少なくとも一つにさらに基づいて、前記医用データを選別する、
請求項1~のいずれか一つに記載の医用データ処理装置。
The acquisition unit further acquires at least one of imaging conditions, image conditions, and image quality of the medical data of the predetermined time phase;
The selection unit selects the medical data based on at least one of the imaging conditions, the image conditions, and the image quality in addition to the operating state.
The medical data processing device according to any one of claims 1 to 8 .
前記選別部は、指定された造影時相を前記画像条件として用いる、
請求項に記載の医用データ処理装置。
The selection unit uses a designated contrast phase as the image condition.
The medical data processing device according to claim 9 .
前記選別部は、前記動作状態に加えて、被検体に関する情報を条件としてさらに用いて、前記医用データを選別する、
請求項に記載の医用データ処理装置。
The selection unit selects the medical data by further using information on the subject as a condition in addition to the operating state.
The medical data processing device according to claim 9 .
前記選別部は、前記動作状態に加えて、病態に関する条件をさらに用いて、前記医用データを選別する、
請求項に記載の医用データ処理装置。
The selection unit selects the medical data by using conditions related to a pathological condition in addition to the operating state.
The medical data processing device according to claim 9 .
前記所定時相以外の時相に関するデータは、前記所定時相の医用データを取得したモダリティと同じモダリティで取得されたデータである、
請求項1~12のいずれか一つに記載の医用データ処理装置。
The data relating to a time phase other than the predetermined time phase is data acquired by the same modality as the modality used to acquire the medical data of the predetermined time phase.
The medical data processing device according to any one of claims 1 to 12 .
前記特定部は、前記複数時相の医用データを用いて、前記所定時相の医用データにおける前記生体組織の位置と、当該所定時相と隣り合う時相の医用データにおける前記生体組織の位置とから前記生体組織の動く方向を推測し、当該推測の結果に基づいて、前記所定時相の医用データにおける前記生体組織の動作状態を特定する、
請求項13に記載の医用データ処理装置。
the identification unit uses the medical data of the multiple time phases to estimate a moving direction of the biological tissue from a position of the biological tissue in the medical data of the predetermined time phase and a position of the biological tissue in the medical data of a time phase adjacent to the predetermined time phase, and identifies a motion state of the biological tissue in the medical data of the predetermined time phase based on a result of the estimation.
The medical data processing device according to claim 13 .
前記所定時相以外の時相に関するデータは、前記所定時相の医用データを取得したモダリティ以外の手段で取得されたデータである、
請求項1~12のいずれか一つに記載の医用データ処理装置。
The data relating to a time phase other than the predetermined time phase is data acquired by a means other than the modality that acquired the medical data of the predetermined time phase.
The medical data processing device according to any one of claims 1 to 12 .
前記特定部は、前記所定時相以外の時相に関するデータとして、前記複数時相の医用データが収集された際に収集された心電情報又は心音情報に基づいて、前記所定時相の医用データにおける前記生体組織の動作状態を特定する、
請求項15に記載の医用データ処理装置。
the identifying unit identifies a motion state of the biological tissue in the medical data of the predetermined time phase based on electrocardiogram information or phonocardiogram information collected when the medical data of the multiple time phases is collected as data related to a time phase other than the predetermined time phase;
The medical data processing device according to claim 15 .
前記特定部は、前記所定時相以外の時相に関するデータとして、前記所定時相の医用データにおける前記生体組織以外の生体組織の情報に基づいて、前記所定時相の医用データにおける前記生体組織の動作状態を特定する、
請求項15に記載の医用データ処理装置。
the identification unit identifies a motion state of the biological tissue in the medical data of the predetermined time phase based on information of biological tissue other than the biological tissue in the medical data of the predetermined time phase as data related to a time phase other than the predetermined time phase;
The medical data processing device according to claim 15 .
医用データを取得する取得部と、
前記医用データにおける生体組織の動作状態を特定する特定部と、
前記特定部によって特定された動作状態に基づいて、特定の動作状態に偏重しないように前記医用データを選別する選別部と、
前記選別部によって選別された医用データを学習用データとして用いて、機械学習における学習モデルの更新処理を行う情報処理部と、
を備える、医用データ処理装置。
An acquisition unit for acquiring medical data;
An identification unit that identifies a motion state of biological tissue in the medical data;
a selection unit that selects the medical data based on the motion state identified by the identification unit so as not to place too much weight on a specific motion state ;
An information processing unit that uses the medical data selected by the selection unit as learning data to perform an update process of a learning model in machine learning ;
A medical data processing device comprising:
前記生体組織は、心臓弁であり、
前記特定部は、心臓弁の開閉状態を開口状態及び閉口状態の二つの状態に分類し、前記医用データにおける心臓弁の開閉状態が当該二つの状態のどちらに適応するかを判別し、判別した状態を当該医用データにおける心臓弁の動作状態として特定する、
請求項18に記載の医用データ処理装置。
the biological tissue is a heart valve;
the identification unit classifies an open/closed state of the cardiac valve into two states, an open state and a closed state, determines which of the two states the open/closed state of the cardiac valve in the medical data corresponds to, and identifies the determined state as the operating state of the cardiac valve in the medical data.
20. The medical data processing device according to claim 18.
複数時相の医用データを取得し、
前記複数時相の医用データに含まれる所定時相の医用データにおける生体組織の動作状態を、前記所定時相の医用データと前記所定時相以外の時相に関するデータとに基づいて特定し、
特定された動作状態に基づいて、特定の動作状態に偏重しないように前記医用データを選別する選別
選別された医用データを学習用データとして用いて、機械学習における学習モデルの更新処理を行う、
ことを含む、医用データ処理方法。
Acquire medical data from multiple time phases,
Identifying a motion state of living tissue in medical data of a predetermined time phase included in the medical data of the plurality of time phases based on the medical data of the predetermined time phase and data relating to a time phase other than the predetermined time phase;
Selecting the medical data based on the identified operating state so as not to give weight to a specific operating state ;
The selected medical data is used as learning data to update the learning model in machine learning.
A medical data processing method comprising:
JP2020185234A 2020-11-05 2020-11-05 Medical data processing device and medical data processing method Active JP7544567B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020185234A JP7544567B2 (en) 2020-11-05 2020-11-05 Medical data processing device and medical data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020185234A JP7544567B2 (en) 2020-11-05 2020-11-05 Medical data processing device and medical data processing method

Publications (2)

Publication Number Publication Date
JP2022074841A JP2022074841A (en) 2022-05-18
JP7544567B2 true JP7544567B2 (en) 2024-09-03

Family

ID=81606177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020185234A Active JP7544567B2 (en) 2020-11-05 2020-11-05 Medical data processing device and medical data processing method

Country Status (1)

Country Link
JP (1) JP7544567B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014087635A (en) 2012-10-01 2014-05-15 Toshiba Corp Image processor and x-ray ct device
JP2015109962A (en) 2013-11-08 2015-06-18 株式会社東芝 Medical image processing apparatus, x-ray computerized tomography apparatus, and medical image processing method
JP2016116659A (en) 2014-12-19 2016-06-30 株式会社東芝 Medical image processing device, treatment system, medical image processing method, and medical image processing program
JP2019084152A (en) 2017-11-08 2019-06-06 国立大学法人 東京大学 Medical image display method and medical image display apparatus
JP2020025702A (en) 2018-08-10 2020-02-20 キヤノンメディカルシステムズ株式会社 X-ray ct apparatus, work station, and program
JP2020511262A (en) 2017-03-24 2020-04-16 パイ メディカル イメージング ビー ヴイPie Medical Imaging B.V. Method and system for assessing vascular occlusion based on machine learning
WO2020137745A1 (en) 2018-12-28 2020-07-02 キヤノン株式会社 Image processing device, image processing system, image processing method, and program
JP2020112937A (en) 2019-01-09 2020-07-27 株式会社日立製作所 Computer and image processing method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014087635A (en) 2012-10-01 2014-05-15 Toshiba Corp Image processor and x-ray ct device
JP2015109962A (en) 2013-11-08 2015-06-18 株式会社東芝 Medical image processing apparatus, x-ray computerized tomography apparatus, and medical image processing method
JP2016116659A (en) 2014-12-19 2016-06-30 株式会社東芝 Medical image processing device, treatment system, medical image processing method, and medical image processing program
JP2020511262A (en) 2017-03-24 2020-04-16 パイ メディカル イメージング ビー ヴイPie Medical Imaging B.V. Method and system for assessing vascular occlusion based on machine learning
JP2019084152A (en) 2017-11-08 2019-06-06 国立大学法人 東京大学 Medical image display method and medical image display apparatus
JP2020025702A (en) 2018-08-10 2020-02-20 キヤノンメディカルシステムズ株式会社 X-ray ct apparatus, work station, and program
WO2020137745A1 (en) 2018-12-28 2020-07-02 キヤノン株式会社 Image processing device, image processing system, image processing method, and program
JP2020112937A (en) 2019-01-09 2020-07-27 株式会社日立製作所 Computer and image processing method

Also Published As

Publication number Publication date
JP2022074841A (en) 2022-05-18

Similar Documents

Publication Publication Date Title
JP7225295B2 (en) MEDICAL IMAGE DISPLAY APPARATUS, METHOD AND PROGRAM
US10304198B2 (en) Automatic medical image retrieval
JP6867117B2 (en) Medical image processing method and medical image processing device
JP6542004B2 (en) Medical image processing apparatus and medical image processing system
US20090012382A1 (en) Method and system for detection of obstructions in vasculature
JP2011092685A (en) Diagnosis support system, diagnostic support program and diagnostic support method
TWI840465B (en) System and method for determining radiation parameters and non-transitory computer-readable storage medium thereof
JP5415245B2 (en) MEDICAL IMAGE DISPLAY DEVICE, METHOD, AND PROGRAM
KR20150104889A (en) Apparatus por processing a medical image and method for processing a medical image
JP2022076477A (en) Medical information processing equipment, medical information processing system and medical information processing method
JP2006102353A (en) Apparatus, method and program for analyzing joint motion
Pradhan et al. Conditional generative adversarial network model for conversion of 2 dimensional radiographs into 3 dimensional views
KR102254365B1 (en) Medical image processing method
JP2010264234A (en) System and method for promoting utilization of medical information
JP7544567B2 (en) Medical data processing device and medical data processing method
US20240074738A1 (en) Ultrasound image-based identification of anatomical scan window, probe orientation, and/or patient position
US12079988B2 (en) Medical image reconstruction apparatus and method for screening for plurality of types of lung diseases
US20220139564A1 (en) Medical data processing device, medical data processing method, and non-transitory computer-readable recording medium
US20210304409A1 (en) Image processing apparatus, image processing method, and storage medium
US11062452B2 (en) Image processing apparatus, image processing method and non-transitory computer-readable medium
US20160310094A1 (en) Medical image processing apparatus
US20230169653A1 (en) Medical image processing apparatus, medical image processing method, and storage medium
JP7513495B2 (en) Medical information processing device, medical information processing method, and medical information processing program
JP2020512874A (en) Quantitative evaluation of time-varying data
US20240320842A1 (en) Providing a result dataset

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20201125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220727

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240822

R150 Certificate of patent or registration of utility model

Ref document number: 7544567

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150