WO2020110775A1 - 画像処理装置、画像処理方法、及びプログラム - Google Patents
画像処理装置、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- WO2020110775A1 WO2020110775A1 PCT/JP2019/044868 JP2019044868W WO2020110775A1 WO 2020110775 A1 WO2020110775 A1 WO 2020110775A1 JP 2019044868 W JP2019044868 W JP 2019044868W WO 2020110775 A1 WO2020110775 A1 WO 2020110775A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- unit
- segmentation
- image
- medical image
- image processing
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 109
- 238000003672 processing method Methods 0.000 title claims abstract description 14
- 230000011218 segmentation Effects 0.000 claims abstract description 196
- 238000013135 deep learning Methods 0.000 claims abstract description 26
- 230000006870 function Effects 0.000 claims description 47
- 230000003902 lesion Effects 0.000 claims description 26
- 201000010099 disease Diseases 0.000 claims description 21
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 21
- 238000000034 method Methods 0.000 claims description 17
- 238000006243 chemical reaction Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 16
- 238000003709 image segmentation Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 18
- 210000004072 lung Anatomy 0.000 description 15
- 238000013527 convolutional neural network Methods 0.000 description 14
- 201000009794 Idiopathic Pulmonary Fibrosis Diseases 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 239000000470 constituent Substances 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 208000036971 interstitial lung disease 2 Diseases 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 206010067472 Organising pneumonia Diseases 0.000 description 5
- 206010042953 Systemic sclerosis Diseases 0.000 description 5
- 201000009805 cryptogenic organizing pneumonia Diseases 0.000 description 5
- 230000029058 respiratory gaseous exchange Effects 0.000 description 5
- 201000009594 Systemic Scleroderma Diseases 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 201000004071 non-specific interstitial pneumonia Diseases 0.000 description 4
- 208000029523 Interstitial Lung disease Diseases 0.000 description 3
- 206010035664 Pneumonia Diseases 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 208000000785 Invasive Pulmonary Aspergillosis Diseases 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000002600 positron emission tomography Methods 0.000 description 2
- 238000004549 pulsed laser deposition Methods 0.000 description 2
- 238000002601 radiography Methods 0.000 description 2
- 230000000241 respiratory effect Effects 0.000 description 2
- 206010039073 rheumatoid arthritis Diseases 0.000 description 2
- 201000003066 Diffuse Scleroderma Diseases 0.000 description 1
- 206010061218 Inflammation Diseases 0.000 description 1
- 208000019693 Lung disease Diseases 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 201000009267 bronchiectasis Diseases 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000001496 desquamative effect Effects 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000005338 frosted glass Substances 0.000 description 1
- 239000005337 ground glass Substances 0.000 description 1
- 230000004054 inflammatory process Effects 0.000 description 1
- 210000000936 intestine Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 201000003651 pulmonary sarcoidosis Diseases 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Definitions
- Medical image segmentation based on anatomical features using deep learning is known.
- the segmentation of a medical image classifies pixels or the like into a specific class based on the characteristics of local regions around pixels or voxels.
- Patent Document 3 does not describe processing of medical images, and does not describe segmentation for classifying images into pixels into specific classes. The same applies to Patent Document 4.
- the lesion may be applied with an image pattern having characteristics that can be distinguished from normal human tissue.
- the third aspect may be configured such that, in the image processing apparatus according to any one of the first aspect and the second aspect, the global feature classification unit applies a disease name as a global feature.
- the segmentation unit can extract the features of the medical image in which unnecessary dimensions including noise are reduced.
- An image processing method is that a deep learning is applied to perform a segmentation step of classifying a medical image into a specific class based on a local feature of the medical image, and a deep learning is applied to perform a medical treatment.
- This is an image processing method shared with the second lower layer which is a lower layer.
- the image processing apparatus 12 when the CT image of the lung is input, the image processing apparatus 12 automatically determines whether each pixel in the CT image of the lung belongs to a class that is a medically known image pattern.
- a discriminating device that classifies the images will be described. Examples of medically known image patterns include the lesions listed above.
- the image storage unit 80 stores the medical image acquired by using the image acquisition unit 40.
- the segmentation mask storage unit 84 stores the segmentation mask generated as a result of the segmentation.
- the global feature storage unit 86 stores the global feature for each medical image classified by using the classification network 46.
- the display control unit 60 transmits, to the display device 24, a signal indicating information to be displayed using the display device 24.
- An example of the information displayed using the display device 24 is a classification map that represents a medical image that has been segmented.
- the storage device 104 stores various data non-temporarily.
- the storage device 104 may be externally attached to the outside of the image processing device 12.
- a large-capacity semiconductor memory device may be applied instead of or in combination with the storage device 104.
- the first encoder unit 220 and the decoder unit 222 are configured by combining a convolutional filter and an activation unit.
- the first encoder unit 220 generates a low resolution feature amount map from the CT image 200. That is, the first higher layer 220B of the first encoder unit 220 performs a process specialized for segmentation on the processing result of the first lower layer 220A to generate a feature amount map.
- the second encoder unit 230 of the classification network 46 includes an input layer 2300, a first intermediate layer 2301, a second intermediate layer 2302, a third intermediate layer 2303, a fourth intermediate layer 2304, a fifth intermediate layer 2305, and an output layer. 2310.
- the middle layer of the segmentation network 42 shares weights with the corresponding middle layer of the classification network 46.
- the middle layer of segmentation network 42 may share weights with the middle layer of classification network 46, which performs the same convolution.
- the lower layer which is an intermediate layer closer to the input layer of the segmentation network 42, shares the weight with the lower layer of the classification network 46. Accordingly, in the segmentation of the CT image 200, the information applied to the extraction of the global feature of the CT image 200 can be used, and the robustness of the segmentation of the CT image 200 can be improved.
- FIG. 7 is a schematic diagram of a neural network applied to the image processing apparatus according to the second embodiment.
- the segmentation network 42A shown in FIG. 7 includes a coupling unit 226 between the first encoder unit 220 and the decoder unit 222.
- the upsampling unit 2400 shown in the embodiment is an example of a conversion unit that expands the output image of the second encoder unit according to the output image of the first encoder unit.
- the robustness of the segmentation network 42 can be improved.
- a disease name other than IPF is extracted as global information of the CT image 200.
- the segmentation network 42 may be configured not to extract the IPL-specific honeycomb as a local feature.
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Surgery (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
医用画像のセグメンテーションにおける誤りを抑制し得る画像処理装置、画像処理方法、及びプログラムを提供する。深層学習を適用して、医用画像(200)の局所の特徴に基づき医用画像を特定のクラスに分類するセグメンテーションを行うセグメンテーション部(42)と、深層学習を適用して、医用画像を医用画像の全体の特徴であるグローバル特徴に分類するグローバル特徴分類部(46)と、を備え、セグメンテーション部は、低次層である第一低次層の重みを、グローバル特徴分類部における低次層である第二低次層と共有する。
Description
本発明は画像処理装置、画像処理方法、及びプログラムに係り、特に医用画像のセグメンテーションに関する。
深層学習を用いた解剖学的特徴に基づく医用画像のセグメンテーションが知られている。医用画像のセグメンテーションは、ピクセル又はボクセルの周辺の局所領域の特徴に基づき、ピクセル等を特定のクラスに分類する。
特許文献1は、被検体の医用画像から傷病部位の検出を行うシステムが記載されている。同文献に記載のシステムは、別々の方式を用いて生成された二種類の医用画像に対して傷病部位の特徴を指定し、指定された特徴に対応する領域等を傷病部位として検出する。
特許文献2は、医用画像を取得し、医用画像の画像特性を取得し、画像特性に依存して医用画像をカテゴリ化し、カテゴリに依存してセグメンテーションアルゴリズムを選択し、選択されたセグメンテーションアルゴリズムを用いて医用画像をセグメント化するシステムが記載されている。
特許文献3は、画像分類用のCNN(Convolutional Neural Network)が記載されている。同文献に記載のCNNは、画像データを受信し、粗いカテゴリCNNを用いて、画像の粗いカテゴリ又は粗いカテゴリの重みを決定し、一以上の精密カテゴリCNNを用いて画像の精密カテゴリを決定する分類モジュールを備える。
特許文献4は、第一階層の機械学習認識装置と第二階層の機械学習認識装置と階層的に接続したシステムが記載されている。同文献に記載の第二階層の機械学習認識装置は、第一階層の機械学習認識装置における中間層のデータを入力としている。
しかしながら、医用画像のセグメンテーションにおいて、分類したクラスに誤りが発生することがあり得る。例えば、局所的な大きさの領域の情報に基づくセグメンテーションを実施した場合、不正確でノイズの多いセグメンテーションの結果が生成されることが懸念される。
具体的には、肺のGGOパターンは、正常な肺よりも高いCT値を持つ領域として定義される。一方、IPF患者は呼吸を十分にすることができないため、IPF患者の肺のCT値は高くなり、局所的な大きさの領域のみの情報に基づくセグメンテーションを実施した場合に、正常な肺の領域がGGCパターンとして認識されてしまうことがある。
すなわち、CT値のみを用いて正常な肺領域であるか又はGGO領域であるかを判定することは困難である。なお、GGOは擦りガラス影を表す英語表記であるGround Glass Opacityの省略語である。CTはコンピュータ断層撮影を表す英語表記であるComputed Tomographyの省略語である。
特許文献1に記載のシステムは、医用画像から特定の傷病部位を検出するものである。すなわち、特許文献1は医用画像の全体の特徴から医用画像の傷病名を特定するクラシフィケーションを開示するものであって、医用画像をピクセルごとに特定のクラスに分類するセグメンテーションを開示ものではない。
特許文献2に記載のシステムは、医用画像のセグメンテーションを実施する際に、医用画像の画像特性に基づきセグメンテーションアルゴリズムを選択しているが、セグメンテーションアルゴリズムがピクセル等の局所領域の特徴に基づきセグメンテーションを実施する場合は、セグメンテーションの結果に誤りが生じ得る。
特許文献3には、医用画像の処理に関する記載はなく、また、画像をピクセルごとに特定のクラスに分類するセグメンテーションに関する記載はない。特許文献4についても同様である。
本発明はこのような問題点に鑑みてなされたもので、医用画像のセグメンテーションにおける誤りを抑制し得る画像処理装置、画像処理方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、次の発明態様を提供する。
第1態様に係る画像処理装置は、深層学習を適用して、医用画像の局所の特徴に基づき医用画像を特定のクラスに分類するセグメンテーションを行うセグメンテーション部と、深層学習を適用して、医用画像を医用画像の全体の特徴であるグローバル特徴に分類するグローバル特徴分類部と、を備え、セグメンテーション部は、低次層である第一低次層の重みを、グローバル特徴分類部における低次層である第二低次層と共有する画像処理装置である。
第1態様によれば、グローバル特徴部の低次層と重みを共有した低次層を有するセグメンテーション部を用いて医用画像のセグメンテーションが実施される。これにより、グローバル特徴が反映されたセグメンテーションが実施され、医用画像のセグメンテーションにおけるクラスの分類の誤りを抑制し得る。
医用画像を取得する医用画像取得部を備える態様が好ましい。取得した医用画像を記憶する医用画像記憶部を備える態様が好ましい。
セグメンテーション部は、医用画像から局所領域の特徴を抽出し、局所の特徴ごとに分類した特徴量マップを生成し得る。
局所領域又は局所は、一ピクセルから構成される態様が含まれ得る。局所領域ごと又は局所ごとは、ピクセルごとの概念が含まれ得る。
第一低次層は、セグメンテーション部の中間層のうち、入力層の次層を含む一以上の層を適用し得る。第二低次層は、グローバル特徴分類部の中間層のうち、医用画像から特徴を抽出する際に、セグメンテーション部の第一低次層と同じ特徴を抽出する層を適用し得る。
第2態様は、第1態様の画像処理装置において、セグメンテーション部は、クラスとして病変を適用する構成としてもよい。
第2態様によれば、医用画像の病変を抽出するセグメンテーションを実施し得る。
病変は、正常な人体組織と区別し得る特徴を有する画像パターンを適用し得る。
第3態様は、第1態様又は第2態様のいずれか一態様の画像処理装置において、グローバル特徴分類部は、グローバル特徴として疾患名を適用する構成としてもよい。
第3態様によれば、医用画像に対応する疾患名が反映されたセグメンテーションが実施される。
第4態様は、第1態様から第3態様のいずれか一態様の画像処理装置において、グローバル特徴分類部は、グローバル特徴として医用画像の撮像条件を適用する構成としてもよい。
第4態様によれば、医用画像に対応する撮像条件が反映されたセグメンテーションが実施される。
グローバル特徴分類部は、一つの医用画像について、異なる複数の種類のグローバル特徴を適用してもよい。
第5態様は、第1態様から第4態様のいずれか一態様の画像処理装置において、セグメンテーション部は、医用画像の特徴を圧縮する第一エンコーダ部、及び第一エンコーダ部を用いて圧縮した医用画像の特徴を復元するデコーダ部を備え、グローバル特徴分類部は、医用画像の特徴を圧縮する第二エンコーダ部を備え、セグメンテーション部は、第一低次層の重みとして第一エンコーダ部に適用される重みを、第二エンコーダ部に適用される重みと共有する構成としてもよい。
第5態様によれば、セグメンテーション部は、ノイズ等が含まれる不要な次元が削減された医用画像の特徴を抽出し得る。
第6態様は、第5態様の画像処理装置において、第一エンコーダ部の出力画像よりも圧縮させた第二エンコーダ部の出力画像を、第一エンコーダ部の出力画像に対応して伸長させる変換部と、第一エンコーダ部の出力画像と変換部の出力画像とを結合する結合部と、を備えた構成としてもよい。
第6態様によれば、第二エンコーダ部の出力画像を第一エンコーダ部の出力画像に対応して伸長させる。これにより、第一エンコーダ部の出力画像と第二エンコーダ部の出力画像とを結合し得る。
第7態様は、第6態様の画像処理装置において、第二エンコーダ部は、一次元の特徴ベクトルを出力する出力部よりも前段の中間層であり、前記第一エンコーダ部と重みを非共有の中間層の出力画像を前記変換部へ送信する構成としてもよい。
第7態様によれば、出力部よりも前段の中間層の出力画像は、第二エンコーダ部の出力部から出力される一次元ベクトルに対して情報量が落ちていない。これにより、一定の情報量が維持された出力画像を伸長し、第一エンコーダ部の出力画像へ結合し得る。
第8態様は、第6態様又は第7態様の画像処理装置において、変換部は、前記変換部の入力画像及び前記結合部の出力画像を学習セットとして学習を実施した深層学習器を適用する構成としてもよい。
第8態様によれば、変換部及び結合部の処理を高精度化し得る。
第9態様は、第1態様から第8態様のいずれか一態様の画像処理装置において、セグメンテーション部は、グローバル特徴分類部と重みを共有した層について、セグメンテーション部のセグメンテーション結果、グローバル特徴分類部の分類結果、及びセグメンテーション部に入力される医用画像を学習セットとして学習を実施した深層学習器を適用する構成としてもよい。
第9態様によれば、グローバル特徴を参照してロバスト性を向上させたセグメンテーション部を実現し得る。
第10態様は、第9態様の画像処理装置において、セグメンテーション部は、グローバル特徴分類部と重みを共有しない層について、医用画像及びセグメンテーション部を適用したセグメンテーション結果を学習セットとして再学習を実施した深層学習器を適用する構成としてもよい。
第10態様によれば、効率的なセグメンテーション部の再学習を実施し得る。
第11態様は、第1態様から第8態様のいずれか一態様の画像処理装置において、グローバル特徴分類部は、前記セグメンテーション部と重みを共有した層について、前記グローバル特徴分類部の入力画像及び前記グローバル特徴分類部の分類結果をセットとして学習を実施した深層学習器を適用する構成としてもよい。
第11態様によれば、学習セットの情報量が抑制された効率のよい学習が可能となる。
第12の態様に係る画像処理方法は、深層学習を適用して、医用画像の局所の特徴に基づき医用画像を特定のクラスに分類するセグメンテーションを行うセグメンテーション工程と、深層学習を適用して、医用画像を医用画像の全体の特徴であるグローバル特徴に分類するグローバル特徴分類工程と、を含み、セグメンテーション工程は、セグメンテーション部の低次層である第一低次層の重みを、グローバル特徴分類部における低次層である第二低次層と共有する画像処理方法である。
第12態様によれば、第1態様と同様の効果を得ることが可能である。
第12態様において、第2態様から第11態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担う画像処理方法の構成要素として把握することができる。
第13態様に係るプログラムは、コンピュータに、深層学習を適用して、医用画像の局所の特徴に基づき医用画像を特定のクラスに分類するセグメンテーションを行うセグメンテーション機能、及び深層学習を適用して、医用画像を医用画像の全体の特徴であるグローバル特徴に分類するグローバル特徴分類機能を実現させるプログラムであって、セグメンテーション機能は、セグメンテーション部における低次層である第一低次層の重みを、グローバル特徴分類部における低次層である第二低次層と共有するプログラムである。
第13態様によれば、第1態様と同様の効果を得ることが可能である。
第13態様において、第2態様から第11態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う構成要素は、これに対応する処理や機能を担うプログラムの構成要素として把握することができる。
本発明によれば、グローバル特徴部の低次層と重みを共有した低次層を有するセグメンテーション部を用いて医用画像のセグメンテーションが実施される。これにより、グローバル特徴が反映されたセグメンテーションが実施され、医用画像のセグメンテーションにおけるクラスの分類の誤りを抑制し得る。
以下、添付図面に従って本発明の好ましい実施の形態について詳説する。本明細書では、同一の構成要素には同一の参照符号を付して、重複する説明は適宜省略することとする。
[医用画像処理システムの全体構成]
図1は実施形態に係る医療情報システムの概略構成図である。医療情報システム10は、画像処理装置12、モダリティ14、及び画像データベース16を備える。画像処理装置12、モダリティ14、及び画像データベース16は、ネットワーク18を介して通信可能に接続される。
図1は実施形態に係る医療情報システムの概略構成図である。医療情報システム10は、画像処理装置12、モダリティ14、及び画像データベース16を備える。画像処理装置12、モダリティ14、及び画像データベース16は、ネットワーク18を介して通信可能に接続される。
画像処理装置12は、医療機関に具備されるコンピュータを適用可能である。画像処理装置12は、入力装置としてマウス20及びキーボード22が接続される。また、画像処理装置12は表示装置24が接続される。
モダリティ14は、被写体の検査対象部位を撮像し、医用画像を生成する撮像装置である。モダリティ14の例として、X線撮像装置、CT装置、MRI装置、PET装置、超音波装置、及び平面X線検出器を用いたCR装置が挙げられる。モダリティ14として内視鏡装置を適用してもよい。
なお、MRIは磁気共鳴画像を表すMagnetic Resonance Imagingの省略語である。PET装置は陽電子放射断層撮影を表すPositron Emission Tomographyの省略語である。平面X線検出器はFPD(flat panel detector)と呼ばれることがある。CRはコンピュータX線撮影装置を表すComputed Radiographyの省略語である。
医用画像のフォーマットは、DICOM規格を適用可能である。医用画像は、DICOM規格において規定された付帯情報が付加されてもよい。なお、DICOMはDigital Imaging and COmmunicationsin Medicineの省略語である。
ここで、本明細書おける画像という用語には、写真等の画像自身の意味の他に、画像を表す信号である画像データの意味が含まれ得る。
画像データベース16は、大容量ストレージ装置を備えるコンピュータを適用可能である。コンピュータはデータベース管理システムの機能を提供するソフトウェアが組み込まれる。データベース管理システムは、DBMS(Data Base Management System)と呼ばれることがある。
ネットワーク18は、LAN(Local Area Network)を適用可能である。ネットワーク18はWAN(Wide Area Network)を適用してもよい。ネットワーク18の通信プロトコルは、DICOM規格を適用可能である。なお、ネットワーク18は公衆回線網に接続可能に構成されてもよいし、専用回線網に接続可能に構成されてもよい。ネットワーク18は、有線でもよいし、無線でもよい。
[画像処理装置]
〔画像処理装置の機能〕
図2は図1に示す画像処理装置の機能ブロック図である。図2に示す画像処理装置12は、深層学習等を適用して医用画像のセグメンテーションマスクを生成する。医用画像のセグメンテーションの一例として、肺組織を気管支拡張症、蜂巣肺、すりガラス影、網状肺、及び線状肺など、正常な組織と区別し得る組織である病変に分類する例が挙げられる。
〔画像処理装置の機能〕
図2は図1に示す画像処理装置の機能ブロック図である。図2に示す画像処理装置12は、深層学習等を適用して医用画像のセグメンテーションマスクを生成する。医用画像のセグメンテーションの一例として、肺組織を気管支拡張症、蜂巣肺、すりガラス影、網状肺、及び線状肺など、正常な組織と区別し得る組織である病変に分類する例が挙げられる。
セグメンテーションされた医用画像は、病変ごとの体積計算等に利用される。病変ごとの体積変化は、間質性肺疾患等の肺疾患の進行の指標となる。
本実施形態では、画像処理装置12として、肺のCT画像が入力された場合に、肺のCT画像における各ピクセルが、医学的に知られている画像パターンであるクラスに属するか否かを自動的に分類する判別装置を説明する。医学的に知られている画像パターンの例として、先に列挙した病変が挙げられる。
画像処理装置12は、画像取得部40、セグメンテーションネットワーク42、及びクラシフィケーションネットワーク46を備える。画像処理装置12は、記憶部50、表示制御部60、及び入力制御部62を備える。
画像取得部40、セグメンテーションネットワーク42、クラシフィケーションネットワーク46、記憶部50、表示制御部60、及び入力制御部62は、バス52を介して通信可能に接続される。以下、画像処理装置12の各部について詳細に説明する。
画像取得部40は処理対象の医用画像を取得する。画像処理装置12は、取得した医用画像を記憶部50へ記憶する。図2には画像データベース16から医用画像を取得する態様を例示する。
画像取得部40は図1に示すモダリティ14から医用画像を取得してもよいし、ネットワーク18を経由して図示しないストレージ装置から医用画像を取得してもよい。また、画像取得部40は情報記憶媒体を介して医用画像を取得してもよい。
セグメンテーションネットワーク42は、特徴量抽出部70及びセグメンテーションマスク生成部74を備える。セグメンテーションネットワーク42は、画像取得部40を用いて取得した医用画像に対してセグメンテーションを実施するニューラルネットワークである。実施形態に示すセグメンテーションネットワーク42は、セグメンテーション部の一例である。
すなわち、セグメンテーションネットワーク42は、医用画像におけるピクセルごとの特徴量を抽出し、ピクセルごとの特徴量であるローカル特徴に基づき、各ピクセルの分類を実施し、医用画像のセグメンテーションマスクを生成する。セグメンテーションマスクは符号210を付して図4に示す。
なお、複数の連続するピクセルは医用画像の局所領域を構成する。すなわち、セグメンテーションネットワーク42は、医用画像の局所領域ごとのローカル特徴に基づき、局所領域ごとに分類を実施し得る。以下、ピクセルごとの処理は、局所領域ごとの処理と読み替えが可能である。
本実施形態ではローカル特徴として病変を例示する。本明細書における病変は、病変パターン及び所見等と呼ばれる場合がある。
クラシフィケーションネットワーク46は、医用画像の全体の特徴を表すグローバル特徴を適用して、医用画像を分類するニューラルネットワークである。実施形態に示すクラシフィケーションネットワーク46は、グローバル特徴分類部の一例である。
医用画像のグローバル特徴は、入力装置21を用いて入力された情報を適用してもよいし、医用画像の付帯情報を適用してもよい。本実施形態は、グローバル特徴の例として、疾患名及び医用画像の撮像条件を示す。グローバル特徴は一つ以上であれば種類数に制限はない。
記憶部50は画像処理装置12における各種データを記憶する。記憶部50は、画像記憶部80、セグメンテーションマスク記憶部84、グローバル特徴記憶部86、及びプログラム記憶部88を備える。記憶部50は、複数の記憶装置を適用してもよいし、複数の記憶領域に区画された一つの記憶装置を適用してもよい。記憶部50は画像処理装置12の外部に具備される一つ以上の記憶装置を適用してもよい。
画像記憶部80は、画像取得部40を用いて取得した医用画像を記憶する。セグメンテーションマスク記憶部84はセグメンテーションの結果として生成されるセグメンテーションマスクを記憶する。グローバル特徴記憶部86はクラシフィケーションネットワーク46を用いて分類される医用画像ごとのグローバル特徴を記憶する。
プログラム記憶部88は画像処理装置12において実行される各種プログラムが記憶される。画像処理装置12は、図3に示すハードウェアを用いて各種プログラムを実行して、画像処理装置12の各種機能を実現する。
表示制御部60は、表示装置24を用いて表示させる情報を表す信号を、表示装置24へ送信する。表示装置24を用いて表示させる情報の一例として、セグメンテーションが実施された医用画像を表す分類マップが挙げられる。
分類マップは、入力されたに医用画像に対して適用して、セグメンテーションマスクを生成し得る。セグメンテーションマスク記憶部84はセグメンテーションの結果として分類マップを記憶してもよい。
入力制御部62は、入力装置21から送信される入力情報を表す信号を、画像処理装置12に適用される形式の信号に変換する。入力情報を表す信号は装置各部へ適宜送信される。
〔画像処理部のハードウェア構成〕
〈全体構成〉
図3は図1に示す画像処理装置のハードウェアの構成を示すブロック図である。画像処理装置12は、図3に示すハードウェアを用いて規定のプログラムを実行し、各種機能を実現し得る。
〈全体構成〉
図3は図1に示す画像処理装置のハードウェアの構成を示すブロック図である。画像処理装置12は、図3に示すハードウェアを用いて規定のプログラムを実行し、各種機能を実現し得る。
画像処理装置12は、プロセッサ100、メモリ102、ストレージ装置104、ネットワークコントローラ106、及び電源装置108を備える。また、画像処理装置12は、ディスプレイコントローラ110、入出力インターフェース112、及び入力コントローラ114を備える。
プロセッサ100、メモリ102、ストレージ装置104、ネットワークコントローラ106、ディスプレイコントローラ110、入出力インターフェース112、及び入力コントローラ114は、バス52を介してデータ通信が可能に接続される。
〈プロセッサ〉
プロセッサ100は、画像処理装置12の全体制御部、各種演算部、及び記憶制御部として機能する。プロセッサ100は、メモリ102に具備されるROM(read only memory)に記憶されるプログラムを実行する。
プロセッサ100は、画像処理装置12の全体制御部、各種演算部、及び記憶制御部として機能する。プロセッサ100は、メモリ102に具備されるROM(read only memory)に記憶されるプログラムを実行する。
プロセッサ100は、ネットワークコントローラ106を介して外部の記憶装置からダウンロードされたプログラムを実行してもよい。外部の記憶装置は、ネットワーク18を介して画像処理装置12と通信可能に接続されていてもよい。
プロセッサ100は、メモリ102に具備されるRAM(random access memory)を演算領域とし、各種プログラムと協働して各種処理を実行する。これにより、画像処理装置12の各種機能が実現される。
プロセッサ100は、ストレージ装置104からのデータの読み出し、及びストレージ装置104へのデータの書き込みを制御する。プロセッサ100は、ネットワークコントローラ106を介して、外部の記憶装置から各種データを取得してもよい。プロセッサ100は、取得した各種データを用いて、演算等の各種処理を実行可能である。
プロセッサ100は、一つ又は二つ以上のデバイスが含まれてもよい。プロセッサ100の例として、FPGA(Field Programmable Gate Array)及びPLD(Programmable Logic Device)等が挙げられる。FPGA及びPLDは、製造後に回路構成を変更し得るデバイスである。
プロセッサ100の他の例として、ASIC(Application Specific Integrated Circuit)が挙げられる。ASICは、特定の処理を実行させるために専用に設計された回路構成を備える。
プロセッサ100は、同じ種類の二つ以上のデバイスを適用可能である。例えば、プロセッサ100は二つ以上のFPGAを用いてもよいし、二つ以上のPLDを用いてもよい。プロセッサ100は、異なる種類の二つ以上デバイスを適用してもよい。例えば、プロセッサ100は一つ以上のFPGAと一つ以上のASICとを適用してもよい。
複数のプロセッサ100を備える場合、複数のプロセッサ100は一つのデバイスを用いて構成してもよい。複数のプロセッサ100を一つのデバイスで構成する一例として、一つ以上のCPU(Central Processing Unit)とソフトウェアとの組合せを用いて一つのプロセッサを構成し、このプロセッサが複数のプロセッサ100として機能する形態がある。なお、本明細書におけるソフトウェアはプログラムと同義である。
CPUに代わり又はCPUと併用して、画像処理に特化したデバイスであるGPU(Graphics Processing Unit)を適用してもよい。複数のプロセッサ100が一つのデバイスを用いて構成される代表例として、コンピュータが挙げられる。
一つのデバイスを用いて複数のプロセッサ100を構成する他の例として、複数のプロセッサ100を含むシステム全体の機能を一つのICチップで実現するデバイスを使用する形態が挙げられる。複数のプロセッサ100を含むシステム全体の機能を一つのICチップで実現するデバイスの代表例として、SoC(System On Chip)が挙げられる。なお、ICは、Integrated Circuitの省略語である。
このように、プロセッサ100は、ハードウェア的な構造として、各種のデバイスを一つ以上用いて構成される。
〈メモリ〉
メモリ102は、図示しないROM、及び図示しないRAMを備える。ROMは、画像処理装置12において実行される各種プログラムを記憶する。ROMは、各種プログラムの実行に用いられるパラメータ、及びファイル等を記憶する。RAMは、データの一時記憶領域、及びプロセッサ100のワーク領域等として機能する。
メモリ102は、図示しないROM、及び図示しないRAMを備える。ROMは、画像処理装置12において実行される各種プログラムを記憶する。ROMは、各種プログラムの実行に用いられるパラメータ、及びファイル等を記憶する。RAMは、データの一時記憶領域、及びプロセッサ100のワーク領域等として機能する。
〈ストレージ装置〉
ストレージ装置104は、各種データを非一時的に記憶する。ストレージ装置104は、画像処理装置12の外部に外付けされてもよい。ストレージ装置104に代わり、又はこれと併用して、大容量の半導体メモリ装置を適用してもよい。
ストレージ装置104は、各種データを非一時的に記憶する。ストレージ装置104は、画像処理装置12の外部に外付けされてもよい。ストレージ装置104に代わり、又はこれと併用して、大容量の半導体メモリ装置を適用してもよい。
〈ネットワークコントローラ〉
ネットワークコントローラ106は、外部装置との間のデータ通信を制御する。データ通信の制御は、データ通信のトラフィックの管理が含まれてもよい。ネットワークコントローラ106を介して接続されるネットワーク18は、LAN(Local Area Network)などの公知のネットワークを適用し得る。
ネットワークコントローラ106は、外部装置との間のデータ通信を制御する。データ通信の制御は、データ通信のトラフィックの管理が含まれてもよい。ネットワークコントローラ106を介して接続されるネットワーク18は、LAN(Local Area Network)などの公知のネットワークを適用し得る。
〈電源装置〉
電源装置108は、UPS(Uninterruptible Power Supply)などの大容量型の電源装置が適用される。電源装置108は停電等に起因して商用電源が遮断された際に、画像処理装置12へ電源を供給する。
電源装置108は、UPS(Uninterruptible Power Supply)などの大容量型の電源装置が適用される。電源装置108は停電等に起因して商用電源が遮断された際に、画像処理装置12へ電源を供給する。
〈ディスプレイコントローラ〉
ディスプレイコントローラ110は、プロセッサ100から送信される指令信号に基づいて表示装置24を制御するディスプレイドライバーとして機能する。
ディスプレイコントローラ110は、プロセッサ100から送信される指令信号に基づいて表示装置24を制御するディスプレイドライバーとして機能する。
〈入出力インターフェース〉
入出力インターフェース112は、画像処理装置12と外部機器とを通信可能に接続する。入出力インターフェース112は、USB(Universal Serial Bus)などの通信規格を適用し得る。
入出力インターフェース112は、画像処理装置12と外部機器とを通信可能に接続する。入出力インターフェース112は、USB(Universal Serial Bus)などの通信規格を適用し得る。
〈入力コントローラ〉
入力コントローラ114は、入力装置21を用いて入力された信号の形式を画像処理装置12の処理に適した形式に変換する。入力コントローラ114を介して入力装置21から入力された情報は、プロセッサ100を介して各部へ送信される。
入力コントローラ114は、入力装置21を用いて入力された信号の形式を画像処理装置12の処理に適した形式に変換する。入力コントローラ114を介して入力装置21から入力された情報は、プロセッサ100を介して各部へ送信される。
なお、図3に示す画像処理装置12のハードウェア構成は一例であり、適宜、追加、削除、及び変更が可能である。
〔第一実施形態に係るセグメンテーションの詳細な説明〕
次に、第一実施形態に係る医用画像のセグメンテーションについて説明する。例えば、肺のCT画像から一つ以上の病変を抽出するセグメンテーションは、熟練した観察者でも非常に困難な作業である。一方、疾患名及び撮像の際の呼吸の状態等のグローバル情報を使用した場合、グローバル情報と病変との関連付けを利用して、セグメンテーションマスクから特定の病変の存在を除外することが可能である。
次に、第一実施形態に係る医用画像のセグメンテーションについて説明する。例えば、肺のCT画像から一つ以上の病変を抽出するセグメンテーションは、熟練した観察者でも非常に困難な作業である。一方、疾患名及び撮像の際の呼吸の状態等のグローバル情報を使用した場合、グローバル情報と病変との関連付けを利用して、セグメンテーションマスクから特定の病変の存在を除外することが可能である。
そこで、病変が適用されるローカル情報と、疾患名等が適用されるグローバル情報とを組み合わせた学習セットを用いて学習を実施した判別装置を適用して、良好なロバスト性を有する医用画像のセグメンテーションを実施し得る。
図4は第一実施形態に係る画像処理装置に適用されるニューラルネットワークの模式図である。セグメンテーションネットワーク42は、医用画像である肺のCT画像200のセグメンテーションを実施して、セグメンテーションマスク210を生成する。なお、以下の説明では、肺のCT画像200はCT画像200と記載する。
セグメンテーションネットワーク42は、第一エンコーダ部220及びデコーダ部222を備える。CT画像200は、図2に示す画像取得部40を介して第一エンコーダ部220の入力画像として設定される。
セグメンテーションネットワーク42の入力として設定されたCT画像200は、第一低次層220A及び第一高次層220Bの処理を経て、デコーダ部222の入力として設定される。セグメンテーションネットワーク42の第一エンコーダ部220の第一低次層220Aは、クラシフィケーションネットワーク46の第二エンコーダ部230の第二低次層230A及び第三エンコーダ部240の第三低次層240Aのそれぞれと重みを共有する。なお、重みはウエイト、パラメータ、及び係数等と呼ばれる場合があり得る。
すなわち、第一エンコーダ部220の第一低次層220Aと、第二エンコーダ部230の第二低次層230Aとは、同一の重みを適用してCT画像200の処理を実施する。換言すると、第一エンコーダ部220の第一低次層220Aと、第二エンコーダ部230の第二低次層230Aとは、CT画像200に対して同一の処理を実施し、同一の処理結果を生成する。第一エンコーダ部220の第一低次層220Aと、第三エンコーダ部240の第三低次層240Aとについても同様である。
第一エンコーダ部220及びデコーダ部222は、畳み込みフィルタと活性化ユニットとを組み合わせて構成される。第一エンコーダ部220は、CT画像200から低解像度の特徴量マップを生成する。すなわち、第一エンコーダ部220の第一高次層220Bは、第一低次層220Aの処理結果に対して、セグメンテーションに特化した処理を実施して特徴量マップを生成する。
デコーダ部222は、第一エンコーダ部220を用いて生成した特徴量マップをCT画像200と同じサイズに変換する。セグメンテーションネットワーク42から出力されるセグメンテーションマスク210は、ピクセルごとの病変が存在する確率を表す確率マップを適用し得る。
図5は図4に示す第一エンコーダ部の一例を示す模式図である。図5に示す第一エンコーダ部220の出力部224は、CT画像200における病変を表す特徴量マップを出力する。
図5には、特徴量マップに適用されるCT画像200における病変を列挙した病変情報202を示す。図4に示すデコーダ部222は、特徴量マップをCT画像200と同じサイズに変換したセグメンテーションマスク210を出力する。
ここでいう同じという概念は、完全同一に限定されない。例えば、処理が可能な範囲の違いを有するサイズを、同じサイズに含めることが可能である。本明細書における同じ及び同一という概念は、特に説明をしない場合は上記の概念を適用する。
図4に示すクラシフィケーションネットワーク46は、複数のニューラルネットワークを備える。複数のニューラルネットワークとして、第二エンコーダ部230を備えるニューラルネットワーク、及び第三エンコーダ部240を備えるニューラルネットワークを例示する。クラシフィケーションネットワーク46は、異なるグローバル特徴が適用される三つ以上のエンコーダを備えてもよいし、一つのエンコーダを備えてもよい。
クラシフィケーションネットワーク46は、医用画像の全体の特徴を表すグローバル特徴を出力する。第二エンコーダ部230は、グローバル特徴として疾患名が適用される。すなわち、第二エンコーダ部230の第二高次層230Bは、第二低次層230Aの処理結果に対して、第二エンコーダ部230に適用されるクラシフィケーションに特化した処理を実施して、CT画像200の疾患名を抽出する。第二出力層232は、CT画像200の疾患名を出力する。
図4には、疾患名の例として、特発性肺線維症、サルコイドーシス、非特異性間質性肺炎を図示する。なお、図4に示すIPFは、特発性肺線維症を表す英語表記であるIdiopathic Pulmonary Fibrosisの省略語である。NSIPは、非特異性間質性肺炎を表す英語表記であるNonspecific interstitial pneumo- niaの省略語である。
第三エンコーダ部240は、グローバル特徴としてCT画像200を撮像する際の呼吸条件が適用される。第三エンコーダ部240の第三高次層240Bは、第三低次層240Aの処理結果に対して、第三エンコーダ部240に適用されるクラシフィケーションに特化した処理を実施して、CT画像200を撮像する際の呼吸条件を抽出する。第三出力層242は、CT画像200を撮像する際の呼吸条件を出力する。図4には、CT画像200を撮像における呼吸条件として、呼気及び吸気を例示する。
第二エンコーダ部230及び第三エンコーダ部240は、第一エンコーダ部220と同様に、畳み込みフィルタと活性化ユニットとを組み合わせて構成される。セグメンテーションネットワーク42の出力が確率マップであるのに対して、クラシフィケーションネットワーク46の出力は、CT画像200の全体に対応するグローバル特徴の存在確率を表す確率ベクトルである。
すなわち、第二エンコーダ部230の第二出力層232は、CT画像200の全体に対応する疾患名の存在確率を出力する。また、第三エンコーダ部240の第三出力層242は、CT画像200の全体に対応する撮像の際における呼吸条件の存在確率を出力する。
クラシフィケーションネットワーク46は、セグメンテーションネットワーク42におけるデコーダ部222を使用せず、全結合層を適用して低解像度の特徴量マップを一次元の特徴ベクトルに変換する。
セグメンテーションネットワーク42の学習に適用されるセグメンテーションの誤差は、セグメンテーションネットワーク42から出力されるセグメンテーションマスク210と、セグメンテーションの正解データとの比較から計算される。
クラシフィケーションネットワーク46の学習に適用されるクラシフィケーションの誤差は、クラシフィケーションの結果であるグローバル特徴と、クラシフィケーションの正解データとの比較から計算される。
セグメンテーションネットワーク42及びクラシフィケーションネットワーク46の総誤差は、セグメンテーションネットワーク42及びクラシフィケーションネットワーク46のそれぞれの誤差を使用して計算される。
セグメンテーションネットワーク42の重み及びクラシフィケーションネットワーク46の重みは、バックプロパゲーションを適用して更新される。このように、画像処理装置12は、ピクセルごとの特徴を表すローカル特徴と、医用画像全体の特徴を表すグローバル特徴とを一括して学習し得る。
例えば、セグメンテーションネットワーク42の再学習の際に、クラシフィケーションネットワーク46と重みを共有した層は、セグメンテーションの結果、クラシフィケーションの結果、及びCT画像200を学習セットとし得る。
一方、セグメンテーションネットワーク42の低次層の重みとクラシフィケーションネットワーク46の低次層の重みが共有されるように、セグメンテーションネットワーク42、及びクラシフィケーションネットワーク46の再学習を個別に実施してもよい。
セグメンテーションネットワーク42の再学習の際に、クラシフィケーションネットワーク46と重みを共有していない層は、セグメンテーションの結果及びCT画像200を学習セットとし得る。
再学習が実施されたセグメンテーションネットワーク42は、セグメンテーション部のセグメンテーション結果、グローバル特徴分類部の分類結果、及び入力医用画像を学習セットとして再学習を実施した深層学習器の一例である。
クラシフィケーションネットワーク46に適用される第二エンコーダ部230及び第三エンコーダ部240は、同一の構成を適用し得る。第二エンコーダ部230及び第三エンコーダ部240は、異なる構成を適用してもよい。
〔畳み込みニューラルネットワークの適用例〕
図6は第一実施形態に係る画像処理装置に適用される畳み込みニューラルネットワークの模式図である。畳み込みニューラルネットワークは、英語表記であるConvolutional Neural Networkの省略語を用いてCNNと表現される場合があり得る。なお、説明の簡素化のために、図6では図5に示すクラシフィケーションネットワーク46のうち第三エンコーダ部240の図示を省略する。
図6は第一実施形態に係る画像処理装置に適用される畳み込みニューラルネットワークの模式図である。畳み込みニューラルネットワークは、英語表記であるConvolutional Neural Networkの省略語を用いてCNNと表現される場合があり得る。なお、説明の簡素化のために、図6では図5に示すクラシフィケーションネットワーク46のうち第三エンコーダ部240の図示を省略する。
符号DはCT画像200のアキシャル数を表す。なお、図6の簡素化のために、CT画像200の処理を模式的に示す部分ではアキシャル数Dの図示を省略する。図8も同様である。
符号HはCT画像200の縦方向のサイズを表す。符号WはCT画像200の横方向のサイズを表す。H×WはCT画像200のサイズを表す。CT画像200のサイズは画素数を適用し得る。例えば、Hは縦方向の画素数と、Wは横方向の画素数とし得る。
セグメンテーションネットワーク42の第一エンコーダ部220は、入力層2200、第一中間層2201、第二中間層2202、及び第三中間層2203を備える。第一中間層2201、第二中間層2202、及び第三中間層2203を総称して中間層と呼ぶ場合がある。中間層は畳み込み層とプーリング層とを繰り返す構成を適用し得る。
第一中間層2201は、入力層2200を介して取得したCT画像200を畳み込む。第一中間層2201は、(H/2)×(W/2)のサイズを有する画像を生成する。
同様に、第二中間層2202は、第一中間層2201から出力された画像を畳み込み、(H/4)×(W/4)のサイズを有する画像を生成する。
更に、第三中間層2203は、第二中間層2202から出力された画像を畳み込み、(H/8)×(W/8)のサイズを有する画像を生成する。図6に示す第一中間層2201、第二中間層2202、及び第三中間層2203は、図4に示す第一低次層220Aに相当する。なお、図6では図4に示す第一高次層220Bの図示を省略する。
デコーダ部222は、第五中間層2205及び出力層2210を備える。図示を省略するが、デコーダ部222は第五中間層2205の前段に図示しない第四中間層を備える。
デコーダ部222は、第一エンコーダ部220の出力画像をCT画像200と同じサイズに変換する。例えば、第五中間層2205は、(H/2)×(W/2)のサイズを有する画像を、H×Wのサイズを有する画像に変換する。
クラシフィケーションネットワーク46の第二エンコーダ部230は、入力層2300、第一中間層2301、第二中間層2302、第三中間層2303、第四中間層2304、第五中間層2305、及び出力層2310を備える。
第一中間層2301、第二中間層2302、及び第三中間層2303は、図4に示す第二低次層230A及び第三低次層240Aに相当する。第四中間層2304及び第五中間層2305は、図4に示す第二高次層230B及び第三高次層240Bに相当する。また、図6に示すクラシフィケーションネットワーク46の出力層2310は図5に示す第二出力層232に相当する。
第二エンコーダ部230の第一中間層2301から第三中間層2303までは、第一エンコーダ部220の第一中間層2201から第三中間層2303までと同様のシーケンスを適用して畳み込みを実施する。一方、第二エンコーダ部230の第四中間層2304及び第五中間層2305は、第二エンコーダ部230に適用されるクラシフィケーションに特化したシーケンスを適用して畳み込みを実施する。
出力層2310は全結合層を適用して、CT画像200のグローバル特徴を表す一次元ベクトルを出力する。図6に示す出力層2310は、CT画像200のグローバル特徴らしさを表す確率ベクトル260を出力する。図6に示す確率ベクトル260は、IPFである確率が60.5パーセント、COP(Cryptogenic Organizing Pneumonia)である確率が20.2パーセント、LIP(Iymphocyitc interstitiaI pneumonia)である確率が10パーセントであることを表す。
図6に示すように、セグメンテーションネットワーク42の第一中間層2201は、クラシフィケーションネットワーク46の第一中間層2301と重みを共有する。また、セグメンテーションネットワーク42の第二中間層2202は、クラシフィケーションネットワーク46の第二中間層2302と重みを共有する。
更に、セグメンテーションネットワーク42の第三中間層2203は、クラシフィケーションネットワーク46の第三中間層2303と重みを共有する。すなわち、セグメンテーションネットワーク42の低次層は、クラシフィケーションネットワーク46の低次層と重みを共有する。
すなわち、セグメンテーションネットワーク42の中間層の少なくとも一部は、クラシフィケーションネットワーク46の対応する中間層と重みを共有する。例えば、セグメンテーションネットワーク42の中間層は、同じ畳み込みを実施するクラシフィケーションネットワーク46の中間層と重みを共有し得る。
CT画像200から病変を抽出する場合と、CT画像200から疾患名を抽出する場合とは、入力層により近い中間層では同じ特徴に注目する。そこで、セグメンテーションネットワーク42の入力層により近い中間層である低次層において、クラシフィケーションネットワーク46の低次層と重みを共有する。これにより、CT画像200のセグメンテーションにおいて、CT画像200のグローバル特徴の抽出に適用される情報を利用することができ、CT画像200のセグメンテーションのロバスト性を向上し得る。
各ネットワークにおける低次層は、実験及びシミュレーション等を適用して規定し得る。すなわち、重みを共有する層を適宜変更しながら、良好な結果が得られた場合に重みを共有した一以上の層を低次層として規定し得る。
また、セグメンテーションネットワーク42の再学習を実施する際に、ローカル情報とグローバル情報とを一緒に学習する。これにより、セグメンテーションネットワーク42はより高いロバスト性を確保し得る。
[第一実施形態に係る画像処理装置の作用効果]
上記の如く構成された第一実施形態に係る画像処理装置12によれば、以下の作用効果を得ることが可能である。
上記の如く構成された第一実施形態に係る画像処理装置12によれば、以下の作用効果を得ることが可能である。
〔1〕
セグメンテーションネットワーク42の第一エンコーダ部220は、クラシフィケーションネットワーク46の第二エンコーダ部230及び第三エンコーダ部240の少なくともいずれかと重みを共有する。これにより、セグメンテーションネットワーク42は、クラシフィケーションネットワーク46に適用される医用画像の特徴抽出が利用でき、セグメンテーションのロバスト性を向上し得る。
セグメンテーションネットワーク42の第一エンコーダ部220は、クラシフィケーションネットワーク46の第二エンコーダ部230及び第三エンコーダ部240の少なくともいずれかと重みを共有する。これにより、セグメンテーションネットワーク42は、クラシフィケーションネットワーク46に適用される医用画像の特徴抽出が利用でき、セグメンテーションのロバスト性を向上し得る。
〔2〕
セグメンテーションネットワーク42の再学習の際に、セグメンテーションネットワーク42に適用されるローカル情報と、クラシフィケーションネットワーク46に適用されるグローバル情報とを一緒に学習する。これにより、セグメンテーションネットワーク42はより高いロバスト性を確保し得る。
セグメンテーションネットワーク42の再学習の際に、セグメンテーションネットワーク42に適用されるローカル情報と、クラシフィケーションネットワーク46に適用されるグローバル情報とを一緒に学習する。これにより、セグメンテーションネットワーク42はより高いロバスト性を確保し得る。
〔3〕
セグメンテーションネットワーク42の低次層は、クラシフィケーションネットワーク46の低次層と重みを共有する。これにより、クラシフィケーションネットワーク46の低次層において抽出される医用画像の特徴をセグメンテーションネットワーク42の低次層が利用し得る。
セグメンテーションネットワーク42の低次層は、クラシフィケーションネットワーク46の低次層と重みを共有する。これにより、クラシフィケーションネットワーク46の低次層において抽出される医用画像の特徴をセグメンテーションネットワーク42の低次層が利用し得る。
[第二実施形態に係る画像処理装置]
〔第二実施形態に係るセグメンテーションの詳細な説明〕
図7は第二実施形態に係る画像処理装置に適用されるニューラルネットワークの模式図である。図7に示すセグメンテーションネットワーク42Aは、第一エンコーダ部220とデコーダ部222との間に結合部226を備える。
〔第二実施形態に係るセグメンテーションの詳細な説明〕
図7は第二実施形態に係る画像処理装置に適用されるニューラルネットワークの模式図である。図7に示すセグメンテーションネットワーク42Aは、第一エンコーダ部220とデコーダ部222との間に結合部226を備える。
結合部226は、第一エンコーダ部220の出力画像と第二エンコーダ部230出力画像とを結合する。また、結合部226は、第一エンコーダ部220の出力画像と第三エンコーダ部240の出力画像とを結合する。
結合部226は、出力画像をデコーダ部222へ送信する。デコーダ部222は、入力画像のサイズ変換を実施して、CT画像200と同じサイズのセグメンテーションマスク210を生成する。
セグメンテーションの誤差は、クラシフィケーションの誤差、及びセグメンテーションとクラシフィケーションとの総誤差は、第一実施形態に係る画像処理装置12と同様に計算される。
セグメンテーションネットワーク42Aの重み及びクラシフィケーションネットワーク46の重みは、バックプロパゲーションを適用して更新される。第二実施形態に係る画像処理装置は、第一実施形態に係る画像処理装置12と同様に、ピクセルごとの特徴を表すローカル特徴と、医用画像全体の特徴を表すグローバル特徴とを一括して学習し得る。
もちろん、セグメンテーションネットワーク42Aの低次層の重みとクラシフィケーションネットワーク46の低次層の重みが共有されるように、セグメンテーションネットワーク42A、及びクラシフィケーションネットワーク46の再学習を個別に実施してもよい。
〔畳み込みニューラルネットワークの適用例〕
図8は第二実施形態に係る画像処理装置に適用される畳み込みニューラルネットワークの模式図である。第二エンコーダ部230の第五中間層2305の出力画像は、アップサンプリング部2400へ送信される。なお、第五中間層2305は、一次元の特徴ベクトルを出力する出力部よりも前段の中間層であり、第一エンコーダ部と重みを非共有の中間層の一例である。
図8は第二実施形態に係る画像処理装置に適用される畳み込みニューラルネットワークの模式図である。第二エンコーダ部230の第五中間層2305の出力画像は、アップサンプリング部2400へ送信される。なお、第五中間層2305は、一次元の特徴ベクトルを出力する出力部よりも前段の中間層であり、第一エンコーダ部と重みを非共有の中間層の一例である。
アップサンプリング部2400は、第五中間層2305の出力画像のサイズ変換を実施して、第五中間層2305の出力画像を第三中間層2203の出力画像と同じサイズに変換する。アップサンプリング部2400はサイズ変換がされた第五中間層2305の出力画像を結合部226へ送信する。
結合部226は、第三中間層2203の出力画像とアップサンプリング部2400の出力画像とを結合させ、結合させた画像をデコーダ部222の第四中間層2204へ送信する。デコーダ部222は、結合部226の出力画像のサイズ変換を実施して、CT画像200と同じサイズを有するセグメンテーションマスク210を生成する。
クラシフィケーションネットワーク46の高次層の出力画像は、セグメンテーションネットワーク42に適用される画像よりも圧縮させており、小サイズである。そこで、アップサンプリング部2400は、クラシフィケーションネットワーク46の出力画像を拡大させる。結合部226は、サイズを変換したクラシフィケーションネットワーク46の高次層の出力画像とセグメンテーションネットワーク42の第一エンコーダ部220の出力画像とを結合する。
なお、実施形態に示すアップサンプリング部2400は、第二エンコーダ部の出力画像を第一エンコーダ部の出力画像に対応して伸長させる変換部の一例である。
本実施形態では、第五中間層2305の出力画像をアップサンプリング部2400へ送信する態様を例示したが、第四中間層2304など、第二エンコーダ部230の第二低次層230Aの出力画像であり、出力層2310よりも前段の層の出力画像をアップサンプリング部2400へ送信してもよい。
出力層2310よりも前段の層である第五中間層2305等の出力画像は、出力層2310から出力される一次元特徴ベクトルと比較して情報量が落ちていないので、一定の情報量が維持された画像を、第一エンコーダ部220の出力画像と結合させることが可能となる。
アップサンプリング部2400の入力画像は、学習を用いて規定し得る。すなわち、各中間層の出力画像と、結合部226から出力される画像とを学習セットとして学習を実施して、アップサンプリング部2400の入力画像を出力させる中間層を規定し得る。
[第二実施形態に係る画像処理装置の作用効果]
上記の如く構成された第二実施形態に係る画像処理装置によれば、以下の作用効果を得ることが可能である。
上記の如く構成された第二実施形態に係る画像処理装置によれば、以下の作用効果を得ることが可能である。
〔1〕
セグメンテーションネットワーク42の第一エンコーダ部220の出力画像と、クラシフィケーションネットワーク46の第二エンコーダ部230の出力画像とを結合する結合部226を備える。これにより、クラシフィケーションネットワーク46が抽出した医用画像の特徴を用いた、セグメンテーションネットワーク42の医用画像のセグメンテーションが可能となる。
セグメンテーションネットワーク42の第一エンコーダ部220の出力画像と、クラシフィケーションネットワーク46の第二エンコーダ部230の出力画像とを結合する結合部226を備える。これにより、クラシフィケーションネットワーク46が抽出した医用画像の特徴を用いた、セグメンテーションネットワーク42の医用画像のセグメンテーションが可能となる。
〔2〕
第二エンコーダ部230の出力画像を、セグメンテーションネットワーク42の第一エンコーダ部220の出力画像と同じサイズに変換するアップサンプリング部2400を備える。これにより、第一エンコーダ部220の出力画像と第二エンコーダ部230の出力画像との結合が可能となる。
第二エンコーダ部230の出力画像を、セグメンテーションネットワーク42の第一エンコーダ部220の出力画像と同じサイズに変換するアップサンプリング部2400を備える。これにより、第一エンコーダ部220の出力画像と第二エンコーダ部230の出力画像との結合が可能となる。
〔3〕
第二エンコーダ部230の出力層2310よりも前段の中間層であり、第一エンコーダ部220の中間層と重みが非共有の中間層の出力画像に対してアップサンプリングを実施し、第一エンコーダ部220の出力画像と結合させる。これにより、一定の情報量が維持された第二エンコーダ部230の中間層の出力画像をアップサプリングして、第一エンコーダ部220の出力画像と結合させることが可能となる。
第二エンコーダ部230の出力層2310よりも前段の中間層であり、第一エンコーダ部220の中間層と重みが非共有の中間層の出力画像に対してアップサンプリングを実施し、第一エンコーダ部220の出力画像と結合させる。これにより、一定の情報量が維持された第二エンコーダ部230の中間層の出力画像をアップサプリングして、第一エンコーダ部220の出力画像と結合させることが可能となる。
[ローカル特徴とグローバル特徴との対応関係]
図9は疾患名と病変との対応関係を示すテーブルの一例を示す図である。図9に示すテーブル250は、図1に示す画像データベース16に記憶し得る。
図9は疾患名と病変との対応関係を示すテーブルの一例を示す図である。図9に示すテーブル250は、図1に示す画像データベース16に記憶し得る。
医用画像のグローバル特徴である疾患名と、医用画像の局所領域の特徴である病変とは密接な関係がある。図9に示すように、疾患名にごとに存在し得る病変、及び疾患名にごとに存在し得ない病変がある。
図9に示すテーブル250を参照して、セグメンテーションネットワーク42を学習させることで、セグメンテーションネットワーク42のロバスト性を向上し得る。CT画像200のグローバル情報としてIPF以外の疾患名が抽出された場合を考える。IPFに特有の蜂巣肺をローカル特徴として抽出しないように、セグメンテーションネットワーク42を構成し得る。
なお、図9に示すRAは関節リウマチの英語表記である、Rheumatoid arthritisの省略語である。SScは、全身性強皮症の英語表記である、Systemic sclerosisの省略語である。PSSは、進行性全身性強皮症の英語表記である、Progressive Systemic Sclerosisの省略語である。
OPは、器質性肺炎の英語表記である、Organizing Pneumoniaの省略語である。COPは、特発性器質性肺炎の英語表記である、Cryptogenic Organizing Pneumoniaの省略語である。
DIPは、剥離性間質性肺炎の英語表記である、DesquamativeInterstitial Pneumoniaeの省略語である。CNPAは、慢性壊死性肺アスペルギルス症の英語表記である、Chronic Necrotizing Pulmonary Aspergillosisの省略語である。IPFは、特発性肺線維症の英語表記である、Idiopathic Pulmonary Fibrosisの省略語である。UIPは、通常型間質性肺炎の英語表記である、Usual Interstitial Pneumoniaの省略語である。
[画像処理方法への適用例]
第一実施形態に画像処理装置12及び第二実施形態に係る画像処理装置は、画像処理装置12等における各部に対応する工程を含む画像処理方法として構成可能である。
第一実施形態に画像処理装置12及び第二実施形態に係る画像処理装置は、画像処理装置12等における各部に対応する工程を含む画像処理方法として構成可能である。
CT画像200のセグメンテーションを実施する画像処理方法は、CT画像200を取得する医用画像取得工程を含み得る。画像処理方法は、CT画像200のクラシフィケーションを実施するクラシフィケーション工程を含み得る。CT画像200のセグメンテーションを実施するセグメンテーション工程は、第一低次層の重みをクラシフィケーション工程における第二低次層の重みと共有する。
セグメンテーション工程は、CT画像200の特徴を圧縮してCT画像200のピクセルごとの特徴を抽出する第一エンコード工程を含み得る。セグメンテーション工程は、第一エンコード工程において抽出した特徴を復元してセグメンテーションマスクを生成するデコード工程を含み得る。クラシフィケーション工程は、CT画像200の特徴を圧縮してCT画像200の全体の特徴を抽出する第二エンコード工程を含み得る。
画像処理方法は、クラシフィケーション工程における中間層の出力画像をセグメンテーション工程における中間層の出力画像のサイズに変換する変換工程を含み得る。また、画像処理方法は、変換工程の出力画像をセグメンテーション工程における中間層の出力画像に結合する結合工程を含み得る。なお、実施形態に示すクラシフィケーション工程は、グローバル特徴分類工程の一例である。
[プログラムへの適用例]
第一実施形態に画像処理装置12及び第二実施形態に係る画像処理装置は、コンピュータを用いて、画像処理装置12等における各部に対応する機能を実現させるプログラムとして構成可能である。
第一実施形態に画像処理装置12及び第二実施形態に係る画像処理装置は、コンピュータを用いて、画像処理装置12等における各部に対応する機能を実現させるプログラムとして構成可能である。
各部に対応する機能の例として、CT画像200を取得する医用画像取得機能、CT画像200のクラシフィケーションを実施するクラシフィケーション機能が挙げられる。また、各部に対応する機能の例として、CT画像200のセグメンテーションを実施するセグメンテーション機能であり、第一低次層の重みをクラシフィケーション機能における第二低次層の重みと共有するセグメンテーション機能が挙げられる。
セグメンテーション機能は、CT画像200の特徴を圧縮してCT画像200のピクセルごとの特徴を抽出する第一エンコード機能を備え得る。セグメンテーション機能は、第一エンコード機能を用いて抽出した特徴を復元してセグメンテーションマスクを生成するデコード機能を備え得る。
クラシフィケーション機能は、CT画像200の特徴を圧縮してCT画像200の全体の特徴を抽出する第二エンコード機能を備え得る。
更に、各部に対応する機能の例として、クラシフィケーションネットワーク46中間層の出力画像を、セグメンテーションネットワーク42における中間層の出力画像と同じサイズに変換する変換機能が挙げられる。
更に、各部に対応する機能の例として、変換機能を用いて変換した画像をセグメンテーションネットワーク42における中間層の出力画像に結合する結合機能が挙げられる。なお、実施形態に示すクラシフィケーション機能は、グローバル特徴分類機能の一例である。
[他の医用画像への適用例]
本実施形態では、医用画像として肺のCT画像を例示したが、脳、胃、及び腸など肺以外の臓器の医用画像を用いてもよい。また、医用画像は二次元画像に限定されない。医用画像は三次元画像でもよい。三次元画像の場合、ボクセルごとの特徴に基づくセグメンテーションが実施される。
本実施形態では、医用画像として肺のCT画像を例示したが、脳、胃、及び腸など肺以外の臓器の医用画像を用いてもよい。また、医用画像は二次元画像に限定されない。医用画像は三次元画像でもよい。三次元画像の場合、ボクセルごとの特徴に基づくセグメンテーションが実施される。
〔グローバル特徴の変形例〕
本実施形態では、グローバル特徴として疾患名及び撮像の際の呼吸条件を例示したが、グローバル特徴は、クラスのセグメンテーションと関連する特徴又はクラス分類に影響する特徴等を表す情報であればよい。例えば、体格、年齢、性別、及び既往症等の被検体に関する情報をグローバル特徴として適用してもよい。体格は、身長及び体重等の身体のサイズ表す情報を適用し得る。
本実施形態では、グローバル特徴として疾患名及び撮像の際の呼吸条件を例示したが、グローバル特徴は、クラスのセグメンテーションと関連する特徴又はクラス分類に影響する特徴等を表す情報であればよい。例えば、体格、年齢、性別、及び既往症等の被検体に関する情報をグローバル特徴として適用してもよい。体格は、身長及び体重等の身体のサイズ表す情報を適用し得る。
〔クラスの変形例〕
本実施形態では、セグメンテーションのクラスとして病変を例示したが、クラスは炎症、腫瘍、及び非腫瘍等の画像パターンの特徴等を適用し得る。また、医用画像を生成するモダリティごとに標準分類が存在する場合は、モダリティごとの標準分類をクラスに適用し得る。
本実施形態では、セグメンテーションのクラスとして病変を例示したが、クラスは炎症、腫瘍、及び非腫瘍等の画像パターンの特徴等を適用し得る。また、医用画像を生成するモダリティごとに標準分類が存在する場合は、モダリティごとの標準分類をクラスに適用し得る。
また、セグメンテーションはマルチクラス分類を適用し得る。マルチクラス分類は、ピクセルごとに、複数のクラスのそれぞれのクラスらしさを表す確率をピクセルごとに算出する。
[実施形態及び変形例等の組み合わせについて]
上述した実施形態で説明した構成要素、及び適用例等で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
上述した実施形態で説明した構成要素、及び適用例等で説明した構成要素は、適宜組み合わせて用いることができ、また、一部の構成要素を置き換えることもできる。
以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成要件を変更、追加、削除することが可能である。本発明は以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で当該分野の通常の知識を有する者により、多くの変形が可能である。
10 医療情報システム
12 画像処理装置
14 モダリティ
16 画像データベース
18 ネットワーク
20 マウス
21 入力装置
22 キーボード
24 表示装置
40 画像取得部
42 セグメンテーションネットワーク
42A セグメンテーションネットワーク
46 クラシフィケーションネットワーク
50 記憶部
52 バス
60 表示制御部
62 入力制御部
70 特徴量抽出部
74 セグメンテーションマスク生成部
80 画像記憶部
84 セグメンテーションマスク記憶部
86 グローバル特徴記憶部
88 プログラム記憶部
100 プロセッサ
102 メモリ
104 ストレージ装置
106 ネットワークコントローラ
108 電源装置
110 ディスプレイコントローラ
112 入出力インターフェース
114 入力コントローラ
200 CT画像
210 セグメンテーションマスク
220 第一エンコーダ部
222 デコーダ部
224 出力部
226 結合部
230 第二エンコーダ部
232 第二出力層
240 第三エンコーダ部
242 第三出力層
250 テーブル
2200 入力層
2201 第一中間層
2202 第二中間層
2203 第三中間層
2204 第四中間層
2205 第五中間層
2210 出力層
2300 入力層
2301 第一中間層
2302 第二中間層
2303 第三中間層
2304 第四中間層
2305 第五中間層
2310 出力層
2400 アップサンプリング部
12 画像処理装置
14 モダリティ
16 画像データベース
18 ネットワーク
20 マウス
21 入力装置
22 キーボード
24 表示装置
40 画像取得部
42 セグメンテーションネットワーク
42A セグメンテーションネットワーク
46 クラシフィケーションネットワーク
50 記憶部
52 バス
60 表示制御部
62 入力制御部
70 特徴量抽出部
74 セグメンテーションマスク生成部
80 画像記憶部
84 セグメンテーションマスク記憶部
86 グローバル特徴記憶部
88 プログラム記憶部
100 プロセッサ
102 メモリ
104 ストレージ装置
106 ネットワークコントローラ
108 電源装置
110 ディスプレイコントローラ
112 入出力インターフェース
114 入力コントローラ
200 CT画像
210 セグメンテーションマスク
220 第一エンコーダ部
222 デコーダ部
224 出力部
226 結合部
230 第二エンコーダ部
232 第二出力層
240 第三エンコーダ部
242 第三出力層
250 テーブル
2200 入力層
2201 第一中間層
2202 第二中間層
2203 第三中間層
2204 第四中間層
2205 第五中間層
2210 出力層
2300 入力層
2301 第一中間層
2302 第二中間層
2303 第三中間層
2304 第四中間層
2305 第五中間層
2310 出力層
2400 アップサンプリング部
Claims (14)
- 深層学習を適用して、医用画像の局所の特徴に基づき前記医用画像を特定のクラスに分類するセグメンテーションを行うセグメンテーション部と、
深層学習を適用して、前記医用画像を前記医用画像の全体の特徴であるグローバル特徴に分類するグローバル特徴分類部と、
を備え、
前記セグメンテーション部は、低次層である第一低次層の重みを、前記グローバル特徴分類部における低次層である第二低次層と共有する画像処理装置。 - 前記セグメンテーション部は、前記クラスとして病変を適用する請求項1に記載の画像処理装置。
- 前記グローバル特徴分類部は、前記グローバル特徴として疾患名を適用する請求項1又は2に記載の画像処理装置。
- 前記グローバル特徴分類部は、前記グローバル特徴として医用画像の撮像条件を適用する請求項1から3のいずれか一項に記載の画像処理装置。
- 前記セグメンテーション部は、前記医用画像の特徴を圧縮する第一エンコーダ部、及び前記第一エンコーダ部を用いて圧縮した医用画像の特徴を復元するデコーダ部を備え、
前記グローバル特徴分類部は、前記医用画像の特徴を圧縮する第二エンコーダ部を備え、
前記セグメンテーション部は、前記第一低次層の重みとして前記第一エンコーダ部に適用される重みを、前記第二エンコーダ部に適用される重みと共有する請求項1から4のいずれか一項に記載の画像処理装置。 - 前記第一エンコーダ部の出力画像よりも圧縮させた前記第二エンコーダ部の出力画像を、前記第一エンコーダ部の出力画像に対応して伸長させる変換部と、
第一エンコーダ部の出力画像と前記変換部の出力画像とを結合する結合部と、
を備えた請求項5に記載の画像処理装置。 - 前記第二エンコーダ部は、一次元の特徴ベクトルを出力する出力部よりも前段の中間層であり、前記第一エンコーダ部と重みを非共有の中間層の出力画像を前記変換部へ送信する請求項6に記載の画像処理装置。
- 前記変換部は、前記変換部の入力画像及び前記結合部の出力画像を学習セットとして学習を実施した深層学習器を適用する請求項6又は7に記載の画像処理装置。
- 前記セグメンテーション部は、前記グローバル特徴分類部と重みを共有した層について、前記セグメンテーション部のセグメンテーション結果、前記グローバル特徴分類部の分類結果、及び前記セグメンテーション部に入力される前記医用画像を学習セットとして学習を実施した深層学習器を適用する請求項1から8のいずれか一項に記載の画像処理装置。
- 前記セグメンテーション部は、前記グローバル特徴分類部と重みを共有しない層について、前記医用画像及び前記セグメンテーション部を適用したセグメンテーション結果を学習セットとして再学習を実施した深層学習器を適用する請求項9に記載の画像処理装置。
- 前記グローバル特徴分類部は、前記セグメンテーション部と重みを共有した層について、前記グローバル特徴分類部の入力画像及び前記グローバル特徴分類部の分類結果をセットとして学習を実施した深層学習器を適用する請求項1から8のいずれか一項に記載の画像処理装置。
- 深層学習を適用して、医用画像の局所の特徴に基づき前記医用画像を特定のクラスに分類するセグメンテーションを行うセグメンテーション工程と、
深層学習を適用して、前記医用画像を前記医用画像の全体の特徴であるグローバル特徴に分類するグローバル特徴分類工程と、
を含み、
前記セグメンテーション工程は、セグメンテーション部の低次層である第一低次層の重みを、グローバル特徴分類部における低次層である第二低次層と共有する画像処理方法。 - コンピュータに、
深層学習を適用して、医用画像の局所の特徴に基づき前記医用画像を特定のクラスに分類するセグメンテーションを行うセグメンテーション機能、及び
深層学習を適用して、前記医用画像を前記医用画像の全体の特徴であるグローバル特徴に分類するグローバル特徴分類機能を実現させるプログラムであって、
前記セグメンテーション機能は、セグメンテーション部における低次層である第一低次層の重みを、グローバル特徴分類部における低次層である第二低次層と共有するプログラム。 - 非一時的かつコンピュータ読取可能な記憶媒体であって、前記記憶媒体に格納された指令がコンピュータによって読み取られた場合に、
深層学習を適用して、医用画像の局所の特徴に基づき前記医用画像を特定のクラスに分類するセグメンテーションを行うセグメンテーション機能と、
深層学習を適用して、前記医用画像を前記医用画像の全体の特徴であるグローバル特徴に分類するグローバル特徴分類機能と、を含む画像処理機能であって、
前記セグメンテーション機能は、セグメンテーション部における低次層である第一低次層の重みを、グローバル特徴分類部における低次層である第二低次層と共有する、画像処理機能をコンピュータに実行させる記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020558347A JP7114737B2 (ja) | 2018-11-30 | 2019-11-15 | 画像処理装置、画像処理方法、及びプログラム |
US17/326,340 US11983879B2 (en) | 2018-11-30 | 2021-05-21 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-225020 | 2018-11-30 | ||
JP2018225020 | 2018-11-30 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US17/326,340 Continuation US11983879B2 (en) | 2018-11-30 | 2021-05-21 | Image processing apparatus, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020110775A1 true WO2020110775A1 (ja) | 2020-06-04 |
Family
ID=70852978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/044868 WO2020110775A1 (ja) | 2018-11-30 | 2019-11-15 | 画像処理装置、画像処理方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11983879B2 (ja) |
JP (1) | JP7114737B2 (ja) |
WO (1) | WO2020110775A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113421276A (zh) * | 2021-07-02 | 2021-09-21 | 深圳大学 | 一种图像处理方法、装置及存储介质 |
JP2023527510A (ja) * | 2020-06-05 | 2023-06-29 | ディープマインド テクノロジーズ リミテッド | ブートストラッピングされた潜在表現を使用する自己教師付き表現学習 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11037330B2 (en) * | 2017-04-08 | 2021-06-15 | Intel Corporation | Low rank matrix compression |
US11544854B2 (en) * | 2020-12-09 | 2023-01-03 | Elekta Limited | Automatic contour adaptation using three sub-networks of a neural network |
US20230031245A1 (en) * | 2021-07-23 | 2023-02-02 | Teradici Co. | Encoder changes |
CN115187819B (zh) * | 2022-08-23 | 2023-05-16 | 北京医准智能科技有限公司 | 图像分类模型的训练方法、装置、电子设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018175226A (ja) * | 2017-04-10 | 2018-11-15 | 富士フイルム株式会社 | 医用画像分類装置、方法およびプログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7738683B2 (en) | 2005-07-22 | 2010-06-15 | Carestream Health, Inc. | Abnormality detection in medical images |
JP5307605B2 (ja) | 2009-04-10 | 2013-10-02 | アイカ工業株式会社 | 水性樹脂組成物およびそれを用いた接着方法 |
JP5919287B2 (ja) | 2010-10-25 | 2016-05-18 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 医用画像のセグメンテーションのためのシステム |
US9767385B2 (en) * | 2014-08-12 | 2017-09-19 | Siemens Healthcare Gmbh | Multi-layer aggregation for object detection |
US10387773B2 (en) | 2014-10-27 | 2019-08-20 | Ebay Inc. | Hierarchical deep convolutional neural network for image classification |
US10049451B2 (en) * | 2015-12-02 | 2018-08-14 | The Cleveland Clinic Foundation | Automated lesion segmentation from MRI images |
JP6714690B2 (ja) | 2016-04-26 | 2020-06-24 | 株式会社日立製作所 | 情報処理システム、情報処理システムの運用方法、および機械学習演算器 |
US9589374B1 (en) * | 2016-08-01 | 2017-03-07 | 12 Sigma Technologies | Computer-aided diagnosis system for medical images using deep convolutional neural networks |
US10846326B2 (en) * | 2016-11-30 | 2020-11-24 | Optim Corporation | System and method for controlling camera and program |
-
2019
- 2019-11-15 WO PCT/JP2019/044868 patent/WO2020110775A1/ja active Application Filing
- 2019-11-15 JP JP2020558347A patent/JP7114737B2/ja active Active
-
2021
- 2021-05-21 US US17/326,340 patent/US11983879B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018175226A (ja) * | 2017-04-10 | 2018-11-15 | 富士フイルム株式会社 | 医用画像分類装置、方法およびプログラム |
Non-Patent Citations (3)
Title |
---|
IIZUKA, SATOSHI ET AL.: "Let there be color!: joint end-to-end learning of global and local image priors for automatic image colorization with simultaneous classification", ACM TRANSACTIONS ON GRAPHICS (TOG, vol. 35, no. 4, July 2016 (2016-07-01), pages 3 - 5, XP058275859 * |
WANG, X. S. ET AL.: "ChestX-ray8: Hospital-scale chest X-ray database and benchmarks on weakly- supervised classification and localization of common thorax diseases", IEEE CVPR 2017, 14 December 2017 (2017-12-14), pages 2097 - 2106, XP081148506, Retrieved from the Internet <URL:https://arxiv.org/abs/1705.02315> [retrieved on 20200115] * |
ZHUGE, J. J. ET AL.: "Automatic colorization using fully convolutional networks", JOURNAL OF ELECTRONIC IMAGING, vol. 27, no. 4, 27 July 2018 (2018-07-27), pages 3 - 5, XP055711761 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023527510A (ja) * | 2020-06-05 | 2023-06-29 | ディープマインド テクノロジーズ リミテッド | ブートストラッピングされた潜在表現を使用する自己教師付き表現学習 |
JP7494316B2 (ja) | 2020-06-05 | 2024-06-03 | ディープマインド テクノロジーズ リミテッド | ブートストラッピングされた潜在表現を使用する自己教師付き表現学習 |
CN113421276A (zh) * | 2021-07-02 | 2021-09-21 | 深圳大学 | 一种图像处理方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP7114737B2 (ja) | 2022-08-08 |
US11983879B2 (en) | 2024-05-14 |
US20210272290A1 (en) | 2021-09-02 |
JPWO2020110775A1 (ja) | 2021-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020110775A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
Eslami et al. | Image-to-images translation for multi-task organ segmentation and bone suppression in chest x-ray radiography | |
US10304198B2 (en) | Automatic medical image retrieval | |
Gang et al. | Dimensionality reduction in deep learning for chest X-ray analysis of lung cancer | |
US10580159B2 (en) | Coarse orientation detection in image data | |
EP3611699A1 (en) | Image segmentation using deep learning techniques | |
US10803354B2 (en) | Cross-modality image synthesis | |
EP1996959A2 (en) | System and method of automatic prioritization and analysis of medical images | |
JP2018175226A (ja) | 医用画像分類装置、方法およびプログラム | |
KR102202398B1 (ko) | 영상처리장치 및 그의 영상처리방법 | |
JP7101809B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US20180365876A1 (en) | Method, apparatus and system for spine labeling | |
US11327773B2 (en) | Anatomy-aware adaptation of graphical user interface | |
WO2020085336A1 (ja) | 重み画像生成装置、方法およびプログラム、判別器学習装置、方法およびプログラム、領域抽出装置、方法およびプログラム並びに判別器 | |
JP7456928B2 (ja) | 胸部x線画像の異常表示制御方法、異常表示制御プログラム、異常表示制御装置、及びサーバ装置 | |
Lee et al. | MGB-net: orbital bone segmentation from head and neck CT images using multi-graylevel-bone convolutional networks | |
US20150043809A1 (en) | Automatic Segmentation of Articulated Structures | |
US11734849B2 (en) | Estimating patient biographic data parameters | |
US20240127613A1 (en) | Disease label creation device, disease label creation method, disease label creation program, learning device, and disease detection model | |
US20230274439A1 (en) | Method and system for determining a change of an anatomical abnormality depicted in medical image data | |
WO2020137092A1 (ja) | 領域特定装置、方法およびプログラム | |
WO2020174770A1 (ja) | 領域特定装置、方法およびプログラム、学習装置、方法およびプログラム、並びに識別器 | |
WO2022137855A1 (ja) | 情報処理装置、方法およびプログラム | |
US20240111804A1 (en) | Image search device, image search method, and image search program | |
US20230368880A1 (en) | Learning apparatus, learning method, trained model, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19889791 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2020558347 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19889791 Country of ref document: EP Kind code of ref document: A1 |