Nothing Special   »   [go: up one dir, main page]

JP7515502B2 - 陽電子放射断層撮影を用いた腫瘍セグメンテーションのための深層畳み込みニューラルネットワーク - Google Patents

陽電子放射断層撮影を用いた腫瘍セグメンテーションのための深層畳み込みニューラルネットワーク Download PDF

Info

Publication number
JP7515502B2
JP7515502B2 JP2021555453A JP2021555453A JP7515502B2 JP 7515502 B2 JP7515502 B2 JP 7515502B2 JP 2021555453 A JP2021555453 A JP 2021555453A JP 2021555453 A JP2021555453 A JP 2021555453A JP 7515502 B2 JP7515502 B2 JP 7515502B2
Authority
JP
Japan
Prior art keywords
dimensional segmentation
mask
generating
layer
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021555453A
Other languages
English (en)
Other versions
JP2022525198A (ja
Inventor
ニルス グスタフ トーマス ベングトソン,
リチャード アラン デュレイ カラノ,
クレスピニー, アレクサンダー ジェームズ ド
ジル オー. フレデリクソン,
モハメド スカンダー ジェマー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Genentech Inc
Original Assignee
Genentech Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Genentech Inc filed Critical Genentech Inc
Publication of JP2022525198A publication Critical patent/JP2022525198A/ja
Application granted granted Critical
Publication of JP7515502B2 publication Critical patent/JP7515502B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10084Hybrid tomography; Concurrent acquisition with multiple different tomographic modalities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Optics & Photonics (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Physiology (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

関連出願の相互参照
本出願は、全ての目的に関して参照によりその内容全体が本明細書に組み込まれる、「陽電子放射断層撮影を用いた腫瘍セグメンテーションのための深層畳み込みニューラルネットワーク(DEEP CONVOLUTIONAL NEURAL NETWORKS FOR TUMOR SEGMENTATION WITH POSITRON EMISSION TOMOGRAPHY)」という名称の2019年7月31日に出願した米国仮出願第62/880,898号、および「フルデオキシグルコース陽電子放射断層撮影を用いた自動化腫瘍セグメンテーション(AUTOMATED TUMOR SEGMENTATION WITH FLUORODEOXYGLUCOSE POSITRON EMISSION TOMOGRAPHY)」という名称の2019年3月15日に出願した米国仮出願第62/819,275号の優先権および利益を主張するものである。
本開示は、自動化腫瘍セグメンテーションに関し、特に、画像および病巣の代謝解析に深層畳み込みニューラルネットワークを使用して、陽電子放射断層撮影画像において腫瘍をセグメント化するシステムおよび方法に関する。
陽電子放射断層撮影(PET)は、PETイメージングまたはPETスキャンとも呼ばれ、組織および臓器がどのように機能しているかを明らかにする助けとなる、一種の核医学イメージングテストである。PETスキャンは、放射性薬剤(トレーサ)を使用してこの活性を示す。トレーサは、PETスキャンで検出することができる放射性タグに結合された、またはそれで標識された分子である。トレーサは、どの臓器または組織が検査されているかに応じて、注射、嚥下、または吸入されてもよい。トレーサは、代謝活性が高いかまたは体内で特定のタンパク質に結合している、身体の面積(例えば、がん性腫瘍もしくは炎症領域)に集まり、そこが疾病の面積に対応する場合が多い。PETスキャンでは、これらの面積は輝点として現れる。最も一般的に使用される放射性トレーサは、フルオロデオキシグルコース(FDG)であり、グルコースに類似した分子である。FDG-PETでは、周囲よりも代謝活性が高い組織または面積が輝点として現れる。例えば、がん細胞は、高い率でグルコースを吸収することがあり、代謝活性が高い。この高い率はPETスキャンで見ることができ、他のイメージングテストで腫瘍が見られるよりも前に、医療提供者が腫瘍を識別することが可能になる。PETスキャンは、多くのタイプのがん、心臓病、胃腸疾患、内臓疾患、神経疾患、および体内の他の異常を含む、様々な疾病を診断しその重症度を判断する助けとなり得る。
様々な実施形態では、対象の複数の陽電子放射断層撮影(PET)スキャンおよび複数のコンピュータ断層撮影(CT)または磁気共鳴イメージング(MRI)スキャンを取得することと、PETスキャンおよびCTまたはMRIスキャンを前処理して、対象の第1の面または領域に対する標準化画像の第1のサブセットと対象の第2の面または領域に対する標準化画像の第2のサブセットとを生成することであって、標準化画像の第1のサブセットおよび標準化画像の第2のサブセットがPETスキャンおよびCTまたはMRIスキャンからの情報を組み込む、標準化画像の第1のサブセットと第2のサブセットとを生成することと、標準化画像の第1のサブセットを入力とする畳み込みニューラルネットワークアーキテクチャの一部として実現される第1の二次元セグメンテーションモデルを使用して、第1の二次元セグメンテーションマスクを生成することであって、第1の二次元セグメンテーションモデルが、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第1のレイヤから複数レイヤ離れたレイヤに直接供給する、第1のレイヤを含む第1の残差ブロックを使用する、第1の二次元セグメンテーションマスクを生成することと、標準化画像の第2のサブセットを入力とする畳み込みニューラルネットワークアーキテクチャの一部として実現される第2の二次元セグメンテーションモデルを使用して、第2の二次元セグメンテーションマスクを生成することであって、第2の二次元セグメンテーションモデルが、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第2のレイヤから複数レイヤ離れたレイヤに直接供給する、第2のレイヤを含む第2の残差ブロックを使用する、第2の二次元セグメンテーションマスクを生成することと、第1の二次元セグメンテーションマスクおよび第2の二次元セグメンテーションマスクからの情報を組み合わせることによって、最終の画像化されたマスクを生成することと、を含む、コンピュータ実装方法が提供される。
いくつかの実施形態では、第1のレイヤおよび第2のレイヤは、1つまたは複数の拡大レベルで分離可能な畳み込みが実施されるピラミッドレイヤである。
いくつかの実施形態では、方法は更に、最終の画像化されたマスクを使用して、総代謝腫瘍量(TMTV)を決定することと、TMTVを提供することと、を含む。
いくつかの実施形態では、方法は更に、PETスキャンおよびCTまたはMRIスキャンを入力とする三次元臓器セグメンテーションモデルを使用して、三次元臓器マスクを生成することと、最終の画像化されたマスクおよび三次元臓器マスクを使用して、三次元臓器セグメンテーションの1つまたは複数の臓器に関して、代謝腫瘍量(MTV)および病巣の数を決定することと、1つまたは複数の臓器に関するMTVおよび病巣の数を提供することと、を含む。
いくつかの実施形態では、方法は更に、TMTV、MTV、および病巣の数のうち1つまたは複数を入力とする分類器を使用して、TMTV、MTV、および病巣の数のうち1つまたは複数に基づいて対象に対する臨床予測を生成することであって、臨床予測が、対象の無増悪生存(PFS)の尤度、対象の病期、および対象を治験に含む選択決定のうち1つである、臨床予測を生成することを含む。
いくつかの実施形態では、方法は更に、ユーザによって、対象の複数のPETスキャンおよびCTまたはMRIスキャンを、畳み込みニューラルネットワークアーキテクチャを備えるデータ処理システムに入力することと、最終の画像化されたマスクを提供することと、ユーザによって、最終の画像化されたマスク、TMTV、MTV、および病巣の数のうち1つまたは複数を、コンピューティングデバイスのディスプレイ上に受信することと、を含む。
いくつかの実施形態では、方法は更に、ユーザによって、最終の画像化されたマスク、TMTV、MTV、および病巣の数のうち1つまたは複数に基づいて、治療を対象に施すことを含む。
いくつかの実施形態では、方法は更に、ユーザによって、最終の画像化されたマスク、TMTV、MTV、および病巣の数のうち1つまたは複数に基づいて、診断を対象に提供することを含む。
様々な実施形態では、対象の複数の陽電子放射断層撮影(PET)スキャンおよび複数のコンピュータ断層撮影(CT)または磁気共鳴イメージング(MRI)スキャンを取得することと、PETスキャンおよびCTまたはMRIスキャンを前処理して、PETスキャンおよびCTまたはMRIスキャンからの情報を組み込んだ標準化画像を生成することと、標準化画像を入力とする畳み込みニューラルネットワークアーキテクチャの一部として実現される1つまたは複数の二次元セグメンテーションモデルを使用して、1つまたは複数の二次元セグメンテーションマスクを生成することと、二次元セグメンテーションマスクからのセグメントと関連付けられた画像データのパッチを入力とする畳み込みニューラルネットワークアーキテクチャの一部として実現される1つまたは複数の三次元セグメンテーションモデルを使用して、1つまたは複数の三次元セグメンテーションマスクを生成することと、1つまたは複数の二次元セグメンテーションマスクおよび1つまたは複数の三次元セグメンテーションマスクからの情報を組み合わせることによって、最終の画像化されたマスクを生成することと、を含む、コンピュータ実装方法が提供される。
いくつかの実施形態では、1つまたは複数の三次元セグメンテーションモデルは、第1の三次元セグメンテーションモデルと第2の三次元セグメンテーションモデルとを含み、画像データのパッチは、第1のセグメントと関連付けられた画像データの第1のパッチと第2のセグメントと関連付けられた画像データの第2のパッチとを含み、1つまたは複数の三次元セグメンテーションマスクを生成することは、画像データの第1のパッチを入力とする第1の三次元セグメンテーションモデルを使用して、第1の三次元セグメンテーションマスクを生成することと、画像データの第2のパッチを入力とする第2の三次元セグメンテーションモデルを使用して、第2の三次元セグメンテーションマスクを生成することと、を含む。
いくつかの実施形態では、方法は更に、標準化画像においてキャプチャされた領域または身体の構成要素の位置を基準点として査定することと、基準点に基づいて、領域または身体を複数の解剖学的領域に分割することと、複数の解剖学的領域に対する位置ラベルを生成することと、位置ラベルを二次元セグメンテーションマスク内に組み込むことと、位置ラベルに基づいて、第1のセグメントが複数の解剖学的領域のうち第1の解剖学的領域内に位置すると判定することと、位置ラベルに基づいて、第2のセグメントが複数の解剖学的領域のうち第2の解剖学的領域内に位置すると判定することと、第1のセグメントが第1の解剖学的領域内に位置するとの判定に基づいて、第1のセグメントと関連付けられた画像データの第1のパッチを第1の三次元セグメンテーションマスクに入力することと、第2のセグメントが第2の解剖学的領域内に位置するとの判定に基づいて、第2のセグメントと関連付けられた画像データの第2のパッチを第2の三次元セグメンテーションマスクに入力することと、を含む。
いくつかの実施形態では、標準化画像は、対象の第1の面または領域に対する標準化画像の第1のサブセットと、対象の第2の面または領域に対する標準化画像の第2のサブセットとを含み、標準化画像の第1のサブセットおよび標準化画像の第2のサブセットは、PETスキャンおよびCTまたはMRIスキャンからの情報を組み込み、1つまたは複数の二次元セグメンテーションモデルは、第1の二次元セグメンテーションモデルと第2の二次元セグメンテーションモデルとを含み、1つまたは複数の二次元セグメンテーションマスクを生成することは、標準化画像の第1のサブセットを入力とする実現された第1の二次元セグメンテーションモデルを使用して、第1の二次元セグメンテーションマスクを生成することであって、第1の二次元セグメンテーションモデルが、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第1のレイヤから複数レイヤ離れたレイヤに直接供給する、第1のレイヤを含む第1の残差ブロックを使用する、第1の二次元セグメンテーションマスクを生成することと、標準化画像の第2のサブセットを入力とする第2の二次元セグメンテーションモデルを使用して、第2の二次元セグメンテーションマスクを生成することであって、第2の二次元セグメンテーションモデルが、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第2のレイヤから複数レイヤ離れたレイヤに直接供給する、第2のレイヤを含む第2の残差ブロックを使用する、第2の二次元セグメンテーションマスクを生成することと、を含む。
いくつかの実施形態では、第1のレイヤおよび第2のレイヤは、1つまたは複数の拡大レベルで分離可能な畳み込みが実施されるピラミッドレイヤである。
いくつかの実施形態では、方法は更に、最終の画像化されたマスクを使用して、総代謝腫瘍量(TMTV)を決定することと、TMTVを提供することと、を含む。
いくつかの実施形態では、方法は更に、PETスキャンおよびCTまたはMRIスキャンを入力とする三次元臓器セグメンテーションモデルを使用して、三次元臓器マスクを生成することと、最終の画像化されたマスクおよび三次元臓器マスクを使用して、三次元臓器セグメンテーションの1つまたは複数の臓器に関して、代謝腫瘍量(MTV)および病巣の数を決定することと、1つまたは複数の臓器に関するMTVおよび病巣の数を提供することと、を含む。
いくつかの実施形態では、方法は更に、TMTV、MTV、および病巣の数のうち1つまたは複数を入力とする分類器を使用して、TMTV、MTV、および病巣の数のうち1つまたは複数に基づいて対象に対する臨床予測を生成することであって、臨床予測が、対象の無増悪生存(PFS)の尤度、対象の病期、および対象を治験に含む選択決定のうち1つである、臨床予測を生成することを含む。
いくつかの実施形態では、方法は更に、ユーザによって、対象の複数のPETスキャンおよびCTまたはMRIスキャンを、畳み込みニューラルネットワークアーキテクチャを備えるデータ処理システムに入力することと、最終の画像化されたマスクを提供することと、ユーザによって、最終の画像化されたマスク、TMTV、MTV、および病巣の数のうち1つまたは複数を、コンピューティングデバイスのディスプレイ上に受信することと、を含む。
いくつかの実施形態では、方法は更に、ユーザによって、最終の画像化されたマスク、TMTV、MTV、および病巣の数のうち1つまたは複数に基づいて、治療を対象に施すことを含む。
いくつかの実施形態では、方法は更に、ユーザによって、最終の画像化されたマスク、TMTV、MTV、および病巣の数のうち1つまたは複数に基づいて、診断を対象に提供することを含む。
いくつかの実施形態では、1つまたは複数のデータプロセッサと、1つまたは複数のデータプロセッサで実行されると、1つまたは複数のデータプロセッサに本明細書に開示する1つまたは複数の方法の一部もしくは全てを実施させる命令を含む、非一時的コンピュータ可読記憶媒体とを含む、システムが提供される。
いくつかの実施形態では、非一時的機械可読記憶媒体において有形的に具体化され、1つまたは複数のデータプロセッサに本明細書に開示する1つまたは複数の方法の一部もしくは全てを実施させるように構成された命令を含む、コンピュータプログラム製品が提供される。
本開示のいくつかの実施形態は、1つまたは複数のデータプロセッサを含むシステムを含む。いくつかの実施形態では、システムは、1つまたは複数のデータプロセッサで実行されると、1つまたは複数のデータプロセッサに、本明細書に開示する1つまたは複数の方法の一部もしくは全てならびに/あるいは1つまたは複数のプロセスの一部もしくは全てを実施させる命令を含む、非一時的コンピュータ可読記憶媒体を含む。本開示のいくつかの実施形態は、1つまたは複数のデータプロセッサに、本明細書に開示する1つまたは複数の方法の一部もしくは全てならびに/あるいは1つまたは複数のプロセスの一部もしくは全てを実施させるように構成された命令を含む、非一時的機械可読記憶媒体において有形的に具体化されたコンピュータプログラム製品を含む。
用いられている用語および表現は、説明の用語として非限定的に使用されるものであり、かかる用語および表現の使用において、図示され記載される特徴およびそれらの部分のいかなる等価物も除外しようとするものではなく、請求される発明の範囲内で様々な修正が可能であることが認識される。したがって、請求される本発明は実施形態および任意の特徴によって具体的に開示されているが、本明細書に開示する概念の修正および変形を当業者であれば用いることができ、かかる修正および変形は、添付の特許請求の範囲によって定義される本発明の範囲内にあるとみなされることが理解されるべきである。
本開示は添付図面と併せて記載される。
様々な実施形態による、カスケード畳み込みニューラルネットワークを使用する自動化腫瘍セグメンテーションのための一例のコンピューティング環境を示す図である。 様々な実施形態による、畳み込みニューラルネットワーク(CNN)アーキテクチャを表す例示の概略図である。 様々な実施形態による、CNNアーキテクチャを表す例示の概略図である。 様々な実施形態による、CNNアーキテクチャを表す例示の詳述概略図である。 様々な実施形態による例示のUネットを示す図である。 様々な実施形態による残差ブロックを示す図である。 様々な実施形態によるピラミッドレイヤを示す図である。 様々な実施形態によるVネットを示す図である。 様々な実施形態によるVネットを示す図である。 様々な実施形態によるVネットを示す図である。 様々な実施形態による、抽出した総代謝腫瘍体積(TMTV)を決定するプロセスを示す図である。 様々な実施形態による、対象の無増悪生存(PFS)の尤度、治療の臨床効率、対象の病期、および/または対象を治験に含む選択決定を予測するプロセスを示す図である。 様々な実施形態による、リンパ腫を病期分類するルガノ分類を含んでもよい、自動化治療終了時応答査定を提供するプロセスを示す図である。 様々な実施形態によるセグメンテーション結果を示す図である。 様々な実施形態によるセグメンテーション結果を示す図である。 様々な実施形態によるセグメンテーション結果を示す図である。 様々な実施形態による、予測されたマスクから腫瘍体積および標準化取込値(SUV)maxをそれぞれ示す図である。 様々な実施形態による、予後に対するTMTVの関連性を示すクラスタのカプランマイヤー推定量を示す図である。 様々な実施形態による、自動化TMTVが手動TMTV査定と一致するベースラインの予後測定基準を提供することを示す図である。 様々な実施形態による、ベースラインTMTVが非小細胞肺がん(NSCLC)およびメラノーマの予後であることを示す図である。 様々な実施形態による、GOYA研究における節外病変と無増悪生存確率との関連性のカプランマイヤー分析を示す図である。 様々な実施形態による、GOYA研究における節外病変と無増悪生存確率との関連性のカプランマイヤー分析を示す図である。 様々な実施形態による、GOYA研究における節外病変と無増悪生存確率との関連性のカプランマイヤー分析を示す図である。 様々な実施形態による、GALLIUM研究における節外病変と無増悪生存確率との関連性のカプランマイヤー分析を示す図である。 様々な実施形態による、GALLIUM研究における節外病変と無増悪生存確率との関連性のカプランマイヤー分析を示す図である。 様々な実施形態による、GALLIUM研究における節外病変と無増悪生存確率との関連性のカプランマイヤー分析を示す図である。
添付図面中、同様の構成要素および/または特徴は同じ参照符号を有する場合がある。更に、同じタイプの様々な構成要素は、参照符号の後に、ダッシュと同様の構成要素同士を区別する第2の符号とを付けることによって、区別することができる。第1の参照符号のみが明細書で使用される場合、その説明は、第2の参照符号にかかわらず、同じ第1の参照符号を有する同様の構成要素のいずれにも適用可能である。
I.概説
本開示は、自動化腫瘍セグメンテーションの技術について記載する。より具体的には、本開示のいくつかの実施形態は、画像および病巣の代謝解析に深層畳み込みニューラルネットワークを使用して、陽電子放射断層撮影画像において腫瘍をセグメント化するシステムおよび方法を提供する。
標準化取込値(SUV)の使用は、現在は臨床PET/CT腫瘍学イメージングにおいて一般的であり、治療に対する対象の応答を査定することにおいて特別な役割を有する。正常組織へのフルオロデオキシグルコース(FDG)の蓄積が増加することは多くのがんにおいて有用なマーカーであるため、FDGを腫瘍学イメージングに使用することは、全ての陽電子放射断層撮影(PET)/コンピュータ断層撮影(CT)(PET/CT)イメージング手順の大部分を占める。それに加えて、PET/CTイメージングは、治療に対する個々の応答の定量的モニタおよび新薬治療の評価ツールとして一層重要になってきている。例えば、FDG蓄積の変化は、治療に対する応答を査定するためのイメージングバイオマーカーとして有用であることが示されている。腫瘍内におけるFDG蓄積の速度および/または総量を測定するいくつかの方法がある。PETスキャナは、FDG濃度に直接関係するin vivo放射能濃度[kBq/ml]を測定するように設計されている。しかしながら、一般的には、これは関心の対象であるFDGの相対組織取込みである。実際に生じるばらつきの2つの最も顕著なソースは、注入されたFDGの量および対象のサイズである。これらのばらつきを相殺するため、FDG取込みの相対基準としてSUVが使用される。理想的には、SUVの使用によって、放射性トレーサの注入量およびその消費量による、信号のばらつきの可能性が低減され、それを式(1)で定義する。
式中、activityは、関心領域(ROI)内でPETスキャナによって測定された放射能活性濃度[kBq/ml]、doseは、注入された放射標識FDGの減衰補正した量[Bq]、weightは、トレーサの分配量の代わりに使用される対象の重量[g]である。SUVを相対組織/臓器取込みの測定値として使用することで、対象間の比較が容易になり、診断の基礎として提案されてきている。
しかしながら、SUVを決定する際におけるバイアスおよびばらつきの多数の潜在的なソースがある。それらのバイアスおよびばらつきのソースの1つは、PET画像でトレーサ取込みを解析するのに使用される解析方法に起因するものである。分解能の損失または境界定義の不確実性がない理想的な場合、PETスキャンのROI内における平均SUVの計算によって、対応する組織に対する中間SUVの信頼性が高い推定値が生成されるであろう。それでもなお、局所および全身PET-CTは、大型であり、各画像の腫瘍ボクセルの比率が低いため、困難である。局所および全身PET-CTはまた、FDG-PETの分解能が低くCTのコントラストが低いことにより、困難をもたらす。これらの影響は、平均SUVが計算されるべきROIの境界を定義する、腫瘍セグメンテーションに関する問題の一因となり、最終的に、平均SUVを計算する際におけるバイアスおよびばらつきを作り出す。
PETスキャンからの腫瘍および部分構造の自動セグメンテーションは、腫瘍の正確で再現性がある描写の可能性を有し、それによって、腫瘍のより効率的で良好な診断、手術計画、および治療査定を提供することができる。最も自動化された腫瘍セグメンテーション方法は、手動で設計された特徴を使用する。これらの方法は、従来の機械学習パイプラインを実現し、それにしたがって、特徴は、最初に抽出され、次に、訓練手順がそれらの特徴の性質に影響しない分類器に与えられる。タスクに適応した特徴表現を設計する代替の方策は、複雑になっていく特徴の階層をドメイン内データから直接学習することである。しかしながら、PETスキャンからの腫瘍の正確な自動セグメンテーションは、いくつかの理由から、困難なタスクである。第一に、腫瘍と正常組織との間の境界は、特異的(例えば、脳)および非特異的(例えば、血液プール)な高代謝活性領域、低分解能画像における異質性(例えば、臓器の可変の密度および代謝)、疎なシグナリング(例えば、腫瘍組織が一般に画像の約1%未満を表す)、ならびに腫瘍から分化される非常に多くの身体構造により、曖昧な場合が多い。第二に、腫瘍は、サイズ、形状、および局在性に関して、対象全体で大きく異なる。これにより、顔認識またはナビゲーションなど、他の多くの用途で堅牢な画像解析に一般に使用される形状および局在性に対して、強い事前確率を使用することが妨げられる。
これらの限定および課題に対処するため、本実施形態の自動化腫瘍セグメンテーションに関する技術は、高速であって、モデルが局所および全身PET-CTまたはPET-MRIのサイズおよび曖昧な性質の両方に取り組むことを可能にする、畳み込みニューラルネットワークアーキテクチャを使用することを含む。本開示の1つの実例的実施形態は、対象の複数の陽電子放射断層撮影(PET)スキャンおよび複数のコンピュータ断層撮影(CT)または磁気共鳴イメージング(MRI)スキャンを取得することと、PETスキャンおよびCTまたはMRIスキャンを前処理して、対象の第1の面または領域に対する標準化画像の第1のサブセットと対象の第2の面または領域に対する標準化画像の第2のサブセットとを生成することと、を含む、方法を対象とする。標準化画像の第1のサブセットおよび標準化画像の第2のサブセットは、PETスキャンおよびCTまたはMRIスキャンからの情報を組み込む。方法は更に、標準化画像の第1のサブセットを入力とする畳み込みニューラルネットワークアーキテクチャの一部として実現される第1の二次元セグメンテーションモデルを使用して、第1の二次元セグメンテーションマスクを生成することを含んでもよい。第1の二次元セグメンテーションモデルは、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第1のレイヤから複数レイヤ離れたレイヤに直接供給する、第1のレイヤを含む第1の残差ブロックを使用する。方法は更に、標準化画像の第2のサブセットを入力とする畳み込みニューラルネットワークアーキテクチャの一部として実現される第2の二次元セグメンテーションモデルを使用して、第2の二次元セグメンテーションマスクを生成することを含んでもよい。第2の二次元セグメンテーションモデルは、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第2のレイヤから複数レイヤ離れたレイヤに直接供給する、第2のレイヤを含む第2の残差ブロックを使用する。方法は更に、第1の二次元セグメンテーションマスクおよび第2の二次元セグメンテーションマスクからの情報を組み合わせることによって、最終の画像化されたマスクを生成することを含んでもよい。
本開示の別の実例的実施形態は、対象の陽電子放射断層撮影(PET)スキャンおよびコンピュータ断層撮影(CT)または磁気共鳴イメージング(MRI)スキャンを取得することと、PETスキャンおよびCTまたはMRIスキャンを前処理して標準化画像を生成することと、標準化画像を入力とする畳み込みニューラルネットワークアーキテクチャの一部として実現される二次元セグメンテーションモデルを使用して、二次元セグメンテーションマスクを生成することと、二次元セグメンテーションマスクからのセグメントと関連付けられた画像データのパッチを入力とする畳み込みニューラルネットワークアーキテクチャの一部として実現される三次元セグメンテーションモデルを使用して、三次元セグメンテーションマスクを生成することと、二次元セグメンテーションマスクおよび三次元セグメンテーションマスクからの情報を組み合わせることによって、最終の画像化されたマスクを生成することと、を含む、方法を対象とする。いくつかの例では、1つまたは複数の三次元セグメンテーションモデルは、第1の三次元セグメンテーションモデルと第2の三次元セグメンテーションモデルとを含み、画像データのパッチは、第1のセグメントと関連付けられた画像データの第1のパッチと第2のセグメントと関連付けられた画像データの第2のパッチとを含み、1つまたは複数の三次元セグメンテーションマスクを生成することは、(i)画像データの第1のパッチを入力とする第1の三次元セグメンテーションモデルを使用して、第1の三次元セグメンテーションマスクを生成することと、(ii)画像データの第2のパッチを入力とする第2の三次元セグメンテーションモデルを使用して、第2の三次元セグメンテーションマスクを生成することと、を含む。
有利には、これらの方策は、画像における局所および全体の特性を最適に混合することを可能にする二次元セグメンテーションモデル(修正されたUネット)と、任意に、高速かつ正確な方式で対象の体積セグメンテーションを実施する三次元セグメンテーションモデル(修正されたVネット)とを利用する、畳み込みニューラルネットワークアーキテクチャを含む。これらの方策はまた、マルチスピード残差学習およびマルチスケールピラミッド学習に適応する。更に、チャネルごとのフィルタおよびそれに続くポイントごとの畳み込みによって、浅層ネットワークの限界を克服する詳細な学習を可能にする。この解決策は、全身PET-CTまたはPET-MRIに拡張可能であり、治療の臨床効率を評価し、複数のタイプのがんにおけるTMTVを査定し、全身FDG-PET腫瘍量を迅速に査定し、無増悪生存(PFS)を予測し、治療する対象を病期分類するとともに治験する対象を選択し、治療終了時応答査定(例えば、ルガノ)を自動化することを可能にする。
II.定義
本明細書で使用するとき、動作が何かに「基づく」という場合、その動作がその何かの少なくとも一部に少なくとも部分的に基づくことを意味する。
本明細書で使用するとき、「実質的に」、「約」、および「およそ」という用語は、当業者によって理解されるように、指定されるものの必ずしも全体ではないが大部分であること(および指定されるもの全体を含むこと)と定義される。開示するいずれの実施形態においても、「実質的に」、「約」、または「およそ」という用語は、指定されるもの「の『パーセンテージ』以内」と置き換えられてもよく、その場合、パーセンテージは0.1、1、5、および10パーセントを含む。
III.自動化腫瘍セグメンテーションの技術
画像セグメンテーションは、画像を、形状、サイズ、色などの異なる特徴における類似を示す部分に分離する手順である。腫瘍のセグメンテーションによって、身体の領域(例えば、脳または肺)内における主要のサイズおよび位置を可視化することが可能になり、また、PETまたは単光子放射コンピュータ断層撮影(SPECT)画像におけるトレーサ取込み解析の基礎を提供してもよい。腫瘍セグメンテーションの絶対的基準は、長い間、時間が掛かって労働集約的であり、したがって大規模研究には適さない手動セグメンテーションであった。腫瘍セグメンテーションのプロセスを完全にまたは部分的に自動化する試みのため、かなりの研究が行われてきた。例えば、閾値処理、領域拡張法、ファジークラスタリング、流域アルゴリズムの使用などの画像セグメンテーション技術が、異常組織(例えば、腫瘍塊)を、脳の白質(WM)、灰白質(GM)、および脳脊髄液(CSF)などの正常組織から分離するのに使用されてきた。それでもなお、腫瘍の形状、位置、およびサイズが多岐にわたるため、セグメンテーションのプロセスは依然として困難である。
多くのイメージング技術からの情報を組み合わせるマルチモーダルイメージング技術(PET/CT、PET/磁気共鳴イメージング(MRI)、およびSPECT/CTなど)は、腫瘍セグメンテーションの精度を改善する助けとなり得る。PETと組み合わせて、更なる画像診断法が、対象の体内の代謝または生化学活性、および生理学的プロセスに関する情報、ならびに画像に関する他の詳細な情報を提供してもよい。
本明細書では、二次元および三次元畳み込みニューラルネットワーク(CNN)を使用するモデルを組み込んで、腫瘍をセグメント化し、病巣に関する代謝情報をPET(またはSPECT)およびCT(またはMRI)画像(スキャン)から抽出する、エンドツーエンド方法を開示する。本明細書で使用するとき、「スキャン」は対象の身体を通る単一面における信号の図式的表現である。開発したモデルは、計算量的に軽量であり(例えば、平均的なデスクトップコンピューティングデバイス上で稼働し、例えば数分以内などで、オンデマンドで予測を返すことができる)、全身スキャンのサイズ、腫瘍と健康な組織との間の極度の不均衡、および入力画像の異質性(例えば、臓器の変動する密度および代謝)に適応するように構築される。モデルは、腫瘍セグメンテーションに関して、閾値設定方法、エッジベースのセグメンテーション方法、または領域ベースのセグメンテーション方法など、手動での介入(例えば、シーズの手動選択またはバウンディングボックスの手動識別)に依存する従来のアルゴリズムに匹敵する性能を有する。
PET、SPECT、PET/CT、PET/MRI、およびSPECT/CTによって得られる腫瘍代謝情報は、治療の臨床効率を評価するのに使用されてもよい。腫瘍代謝情報は、例として、リンパ腫(例えば、非ホジキンリンパ腫(NHL))および肺がんの対象を含むがそれらに限定されない、複数のタイプのがんでTMTVを査定するのに使用されてもよい。方法は、放射線科医が全身PETまたはSPECT腫瘍量を迅速に査定するツールであってもよい。方法はまた、無増悪生存(PFS)を予測するのに使用されてもよい。方法はまた、治療する対象を病期分類するとともに治験する対象を選択するのに使用されてもよい。モデルの出力は更に、自動化治療終了時応答査定(例えば、ルガノ)を実施するのに使用することができる。
III.A.コンピューティング環境例
図1は、様々な実施形態による、深層畳み込みニューラルネットワークを使用する腫瘍セグメンテーションのための一例のコンピューティング環境100(即ち、データ処理システム)を示している。コンピューティング環境100は、二次元CNNモデル、三次元CNNモデル、またはそれらの組合せを訓練し実行するのに、深層畳み込みニューラルネットワーク(CNN)システム105を含むことができる。より具体的には、CNNシステム105は、それぞれのCNNモデルを訓練することができる、分類器サブシステム110a~nを含むことができる。いくつかの実施形態では、分類器サブシステム110a~nに対応する各CNNモデルは、一組の入力画像要素115a~n内の、1つまたは複数のPETスキャン、CTスキャン、MRIスキャン、またはそれらの任意の組合せに基づいて別個に訓練される。いくつかの例では、一組の入力画像要素115a~nのPETスキャン、CTスキャン、またはMRIスキャンは、画像検出器によって、1つまたは複数の部分(例えば、身体のスライス:横断スキャン、冠状スキャン、および矢状スキャン、ならびに/あるいは解剖学的部分もしくは領域:頭頚部、胸部、および腹部・骨盤)に分割されてもよく、それによって、分類器サブシステム110a~nがそれぞれ、PETスキャン、SPECTスキャン、CTスキャン、またはMRIスキャンのそれぞれの部分を処理して訓練し展開してもよい。
いくつかの実施形態では、入力画像要素115a~nはそれぞれ、身体の一部分もしくは領域または全身(例えば、全身スキャン)を描写する、1つまたは複数のデジタル画像を含んでもよい。入力画像要素115a~nはそれぞれ、デジタル画像に対応する基礎を成す画像データが得られた1つまたは複数の時点(例えば、ベースラインもしくは治療前、治療中、治療後など)における単一の対象に対応することができる。基礎を成す画像データは、1つまたは複数のPETスキャン、SPECTスキャン、CTスキャン、MRIスキャン、またはそれらの任意の組合せを含むことができる。このように、いくつかの例では、単一の入力画像要素115a~nが、身体の異なる(例えば、重なり合うもしくは重なり合わない)部分または領域あるいは全身のスライスをそれぞれ描写する、複数のPETスキャン、SPECTスキャン、CTスキャン、MRIスキャン、またはそれらの任意の組合せに対応する画像を含むことができる。いくつかの実施形態では、全身のいくつかの部分または領域をキャプチャするために身体の異なる部分または領域あるいは全身のスライスと関連付けられた、複数のPETスキャン、SPECTスキャン、CTスキャン、MRIスキャン、またはそれらの任意の組合せに対応する複数の画像を互いに縫合して、画像のモンタージュが形成される。このように、いくつかの例では、単一の入力画像要素115a~nが単一の縫合画像を含むことができる。
単一の入力画像要素115a~nで表される身体の部分または領域としては、身体の1つまたは複数の中枢領域(頭頚部、胸部、腹部・骨盤を含む)、ならびに任意に、身体の1つまたは複数の末梢領域(例えば、脚、足、腕、または手など)を挙げることができる。それに加えて、身体の仮想のスライス、フィールド、面、または投影を、単一の入力画像要素115a~nに表すことができる。例えば、PET-CTイメージング技術に関して、両方のデバイス(PETスキャナおよびCTスキャナ)からの連続画像が同じセッションで取得され組み合わされて、単一または複数の重畳された(位置合わせされた)画像にされてもよい。このように、体内の代謝または生体活性の空間分布を示す、PETスキャナによって得られる機能性イメージングを、CTスキャナによって得られる解剖学的イメージングとより精密に整列または相関させることができる。いくつかの実施形態では、単一の入力画像要素115a~nは、PETスキャンおよびCTまたはMRIスキャンを含む。上記に関して、また、PETスキャンおよびCTスキャンに関する実施例ならびに実施形態は、本明細書では単に例証目的で記載されるものであり、他のイメージング方法およびそれらの代替例が当業者に提案されるであろうことが理解される。例えば、異なるトレーサもしくは角度構成を有するPETスキャンまたはCTスキャンは、身体の異なる構造または領域をキャプチャしてもよく、身体を病理学的および/または解剖学的により深く理解するため、これらのタイプのイメージング技術のうち1つまたは複数が、SPECTおよびMRIなどの他のイメージング技術と組み合わされてもよい。
入力画像要素115a~nは、1つまたは複数の訓練用入力画像要素115a~dと、検証用入力画像要素115e~gと、ラベルなし入力画像要素115h~nとを含むことができる。訓練用グループ、検証用グループ、および標識なしグループに対応する入力画像要素に、必ずしも同時にアクセスする必要はないことが認識されるであろう。例えば、最初の訓練用および検証用入力画像要素が、最初にアクセスされ、モデルを訓練するのに使用されてもよく、ラベルなし入力画像要素が続いて(例えば、単一のもしくは複数の後続の時間に)アクセスまたは受信されてもよい。更に、入力画像要素115a~gはそれぞれ、モデル訓練プロセスの特定の事例(例えば、k-分割交差検証を実施するときなど)に応じて、訓練または検証のためにアクセスされ使用されてもよい。
いくつかの例では、CNNモデルは、教師あり訓練を使用して訓練することができ、訓練用入力画像要素115a~dおよび検証用入力画像要素115e~gをそれぞれ、腫瘍の存在および/または重症度の「適正な」解釈を識別する、1つまたは複数のラベルと関連付けることができる。ラベルは、別の方法としてまたはそれに加えて、基礎を成すスキャンが得られた時に対応する時点、またはその後の時点(例えば、スキャンが得られた時間から既定の持続時間後)における、腫瘍の存在および/または重症度に関して、対応する入力画像要素またはその中のピクセルもしくはボクセルを分類するのに使用されてもよい。いくつかの例では、CNNモデルは、教師なし訓練を使用して訓練することができ、訓練用入力画像要素115a~dおよび検証用入力画像要素115e~gはそれぞれ、1つまたは複数のラベルと必ずしも関連付けられる必要はない。ラベルなし画像要素115h~nはそれぞれ、1つまたは複数のラベルと必ずしも関連付けられる必要はない。
CNNモデルは、訓練用入力画像要素115a~d(および訓練の進捗をモニタする検証用入力画像要素115e~h)、損失関数、ならびに/あるいは勾配降下法を使用して訓練することができる。入力画像データ要素が、身体の異なる部分、フィールド、面、またはスライスにそれぞれ対応する複数の基礎を成すスキャンに対応する例では、一組のCNNモデルをそれぞれ、身体の特定の部分、フィールド、面、またはスライスに対応する画像データを処理するように訓練することができる。
いくつかの実施形態では、分類器サブシステム110a~nは、特徴抽出器120、パラメータデータストア125、分類器130、および訓練器135を含み、それらが集合的に、訓練データ(例えば、訓練用入力画像要素115a~d)を使用した、CNNモデルの訓練(例えば、教師ありもしくは教師なし訓練中におけるCNNモデルのパラメータの学習)に使用される。いくつかの実施形態では、分類器サブシステム110a~nは、入力レイヤで訓練用入力画像要素115a~dからの訓練データにアクセスする。特徴抽出器120は、訓練用入力画像要素115a~dの特定の部分で検出される関連する特徴(例えば、エッジ)を抽出するように、訓練データを前処理してもよい。分類器130は、抽出された特徴を受信し、それらの特徴を、1つまたは複数のCNNモデルにおける一組の隠れレイヤと関連付けられた重みにしたがって、1つもしくは複数の腫瘍をセグメント化し、任意に治療の臨床効率を示し、TMTVを査定し、全身PET腫瘍量を査定し、PFSを予測し、治療する対象を病期分類するとともに治験する対象を選択し、治療終了時応答査定(例えば、ルガノ)を自動化し、またはそれらの組合せを行う、1つまたは複数の出力測定基準へと変換することができる。訓練器135は、訓練用入力画像要素115a~dに対応する訓練データを使用して、1つもしくは複数のパラメータの学習を容易にすることによって、特徴抽出器120および/または分類器130を訓練してもよい。例えば、訓練器135は、逆伝播技術を使用して、分類器130によって使用されるCNNモデルの一組の隠れレイヤと関連付けられた重みの学習を容易にすることができる。逆伝播は、例えば、確率的勾配降下(SGD)アルゴリズムを使用して、隠れレイヤのパラメータを累積的に更新してもよい。学習済みパラメータは、例えば、パラメータデータストア125に格納することができる、重み、バイアス、線形回帰、および/または他の隠れレイヤ関連パラメータを含んでもよい。
訓練済みCNNモデルのアンサンブル(「CNNアンサンブル」、例えば、入力画像における異なる特徴、対象、または測定基準を識別する(それらは次に、画像マスクおよび/または出力測定基準として組み合わされる)ように個別に訓練された複数の訓練済みCNNモデル)を展開して、ラベルなし入力画像要素115h~nを処理して、1つまたは複数の腫瘍をセグメント化し、任意に、治療の臨床効率を示し、TMTVを査定し、全身FDG-PET腫瘍量を査定し、PFSを予測し、治療する対象を病期分類するとともに治験する対象を選択し、治療終了時応答査定(例えば、ルガノ)を自動化し、またはそれらの組合せを行う、1つまたは複数の出力測定基準を予測することができる。より具体的には、訓練済みの特徴抽出器120は、ラベルなし入力画像要素の特徴表現を生成してもよく、それを次に、訓練済みの分類器130によって処理することができる。いくつかの実施形態では、分類器サブシステム110a~nにおけるCNNモデルの拡大を活用する、1つもしくは複数の畳み込みブロック、畳み込みレイヤ、残差ブロック、またはピラミッドレイヤに基づいて、画像特徴をラベルなし入力画像要素115h~nから抽出することができる。特徴は、画像の特徴ベクトルなど、特徴表現で組織化することができる。CNNモデルは、CNNモデルの完全接続レイヤを含む、隠れレイヤにおけるパラメータの分類およびそれに続く調節に基づいて、特徴タイプを学習するように訓練することができる。いくつかの実施形態では、畳み込みブロック、畳み込みレイヤ、残差ブロック、またはピラミッドレイヤによって抽出された画像特徴は、1つまたは複数の画像処理操作(例えば、エッジ検出、画像分解能の先鋭化)が実施された、スキャンの1つまたは複数の部分を表す値の行列である特徴マップを含む。これらの特徴マップは、CNNモデルの完全接続レイヤによる処理のために平坦化されてもよく、それにより、腫瘍に関する現在または将来の予測に対応する、腫瘍マスクまたは1つもしくは複数の測定基準を出力する。
例えば、入力画像要素をCNNモデルの入力レイヤに供給することができる。入力レイヤは、特定のピクセルまたはボクセルと対応するノードを含むことができる。第1の隠れレイヤは一組の隠れノードを含むことができ、それらはそれぞれ複数の入力レイヤノードに接続される。後に続く隠れレイヤのノードは、同様に、複数のピクセルまたはボクセルに対応する情報を受信するように構成することができる。このように、隠れレイヤを、複数のピクセルまたはボクセルにわたって延在する特徴の検出を学習するように構成することができる。1つまたは複数の隠れレイヤはそれぞれ、畳み込みブロック、畳み込みレイヤ、残差ブロック、またはピラミッドレイヤを含むことができる。CNNモデルは更に、1つまたは複数の完全接続レイヤ(例えば、ソフトマックスレイヤ)を含むことができる。
訓練用入力画像要素115a~d、検証用入力画像要素115e~g、および/またはラベルなし入力画像要素115h~nの少なくとも一部は、1つまたは複数のイメージングシステム160を使用して収集されそこから受信されたデータを含んでもよく、あるいはそこから導き出されたものであってもよい。イメージングシステム160は、画像データ(例えば、PETスキャン、CTスキャン、MRIスキャン、またはそれらの任意の組合せ)を収集するように構成された、システムを含むことができる。イメージングシステム160は、PETスキャナと、任意にCTスキャナおよび/またはMRIスキャナとを含んでもよい。PETスキャナは、検査されている臓器または組織内の放射性核種によって放射された光子(亜原子粒子)を検出するように構成されてもよい。PETスキャンで使用される放射性核種は、特定の臓器または組織によってその代謝プロセス中に自然に使用される化学物質に、放射性原子を付着させることによって作られてもよい。例えば、脳のPETスキャンでは、脳はその代謝にグルコースを使用するので、放射性原子(例えば、18Fなどの放射性フッ素)をグルコース(血糖)に付着させて、FDGが作成されてもよい。スキャンの目的に応じて、他の放射性トレーサおよび/または物質が、画像スキャニングに使用されてもよい。例えば、臓器または組織の血流および灌流が関心対象である場合、放射性核種は、一種の放射性酸素、炭素、窒素、またはガリウムであってもよく、感染性疾患が関心対象である場合、放射性原子は、ソルビトール(例えば、フルオロデオキシソルビトール(FDS))に付着されてもよく、腫瘍学が関心対象である場合、放射性原子はミソニダゾール(例えば、フルオロミソニダゾール(FMISO))に付着されてもよい。PETスキャナによって収集された生データは、一対の検出器による消滅光子のほぼ同時(一般的に、互いに6~12ナノ秒のウィンドウ内)の検出を表す「同時発生事象」のリストである。各同時発生事象は、陽電子放射がそれに沿って発生する、2つの検出器を接続する空間内のライン(即ち、同時計数線(LOR))を表す。同時発生事象は、サイノグラムと呼ばれる投影画像にグループ化することができる。サイノグラムは、コンピュータ解析において、検査されている臓器または組織における代謝プロセスの二次元画像および三次元画像を再構築するのに使用される。二次元PET画像および/または三次元PET画像は、一組の入力画像要素115a~nに含まれてもよい。しかしながら、PETスキャニングで収集されるサイノグラムは、解剖学的構造に関してCTまたはMRIスキャンよりもはるかに品質が低く、ノイズが多い画像となる場合がある。
解剖学的構造に関するPETスキャニングの欠点を克服するため、PETスキャンは、CTまたはMRIスキャンと並行して読み取られることが増えており、その組合せ(「位置合わせ」と呼ばれる)によって、詳細な解剖学および代謝両方の情報(即ち、構造が何であるか、およびそれが生化学的に何を行っているか)が得られる。PETイメージングは、別個の解剖学的イメージングとの組合せで最も有用なので、CTまたはMRI、PETスキャナなどが、ハイエンドの多列検出器CTまたはMRIスキャナと統合されて利用可能である。2つのスキャンを、特定の対象の位置が2つのタイプのスキャン間で変化しない同じセッション中に、連続して実施することができる。これにより、二組の画像をより精密に位置合わせすることが可能になるので、PETイメージングにおける異常の面積を、CTまたはMRI画像上の解剖学的構造とより完璧に相関させることができる。
CTスキャナは、狭いX線ビームを生成する電動X線源を特定の対象に向け、X線源およびX線ビームを身体の周りで迅速に回転させるように構成されてもよい。X線源のちょうど反対側に位置するデジタルX線検出器は、身体から出るX線を検出し、信号を生成し、その信号がスキャナのコンピュータによって処理されて、身体の二次元断面画像、即ち「スライス」が生成される。これらのスライスは、断層画像としても知られ、従来のX線よりも詳細な情報を含む。各画像スライスに表される組織の厚さは、使用されるCTスキャナによって異なる場合があるが、通常は1~10ミリメートルの範囲である。完全なスライスが完成すると、二次元画像が格納され、対象を保持する電動ベッドがガントリ内へと漸増的に前進させられる。次に、X線スキャニングプロセスが複数回繰り返されて、回転軸の周りで得られる一連の二次元画像が生成される。一連の二次元画像がスキャナのコンピュータによって収集されると、二次元画像を一緒にコンピュータ解析によってデジタル的に「スタック」して、対象の三次元画像を再構築することができる。二次元画像および/または再構築された三次元画像によって、基本構造ならびに潜在的な腫瘍または異常をより簡単に特定し位置決めすることが可能になる。CTスキャニングが、PET-CTスキャナの一部として、または別個のCTスキャナとして特定の対象のイメージングに使用される場合、PETおよびCTスキャニングからの二組の二次元画像および/または再構築された三次元画像(あるいは位置合わせされた一組の二次元画像および/または再構築された三次元画像)が、CNNモデルを訓練する一組の入力画像要素115a~n内に含まれる。
MRIスキャナは、強力磁界および電波を使用して、三次元の詳細な解剖学的画像を生成するように構成されてもよい。より具体的には、磁界は、組織または身体内のプロトンをその磁界と整列させる。次に、高周波電流が組織または身体を通してパルス化されると、プロトンが刺激され、均衡状態からスピンアウトして、磁界の引張りに対抗して歪む。高周波電界が切れると、プロトンが磁界と再整列するので、MRIセンサは放出されたエネルギーを検出することができる。プロトンが磁界と再整列するのにかかる時間、ならびに放出されるエネルギーの量は、環境および分子の化学的性質に応じて変化する。コンピューティングデバイスは、様々なタイプの組織間の違いをそれらの磁気特性に基づいて判断し、一連の二次元画像を生成することができる。一連の二次元画像がスキャナのコンピュータによって収集されると、二次元画像を一緒にコンピュータ解析によってデジタル的に「スタック」して、対象の三次元画像を再構築することができる。二次元画像および/または再構築された三次元画像によって、基本構造ならびに潜在的な腫瘍または異常をより簡単に特定し位置決めすることが可能になる。MRIスキャニングが、PET-MRIスキャナの一部として、または別個のMRIスキャナとして特定の対象のイメージングに使用される場合、PETおよびCTスキャニングからの二組の二次元画像および/または再構築された三次元画像(あるいは位置合わせされた一組の二次元画像および/または再構築された三次元画像)が、CNNモデルを訓練する一組の入力画像要素115a~n内に含まれる。
いくつかの例では、訓練用入力画像要素115a~dおよび/または検証用入力画像要素115e~gと関連付けられたラベルが、1つまたは複数のプロバイダシステム170から受信されていてもよく、あるいは受信されたデータから導き出されてもよく、プロバイダシステムはそれぞれ、特定の対象と関連付けられた、医師、看護師、病院、薬剤師など(例えば)と関連付けられてもよい。受信データは、特定の対象に対応する1つまたは複数の診療記録(例えば)を含んでもよい。診療記録は、対象と関連付けられた1つもしくは複数の入力画像要素が収集された時間に対応する期間、または後に続く規定された期間に対して、対象が腫瘍を有していたか否か、ならびに/あるいは対象の腫瘍の進行段階(例えば、標準スケールに沿った、および/またはTMTVなどの測定基準を特定することによる)を示す、専門家の診断または特性決定(例えば)を示してもよい。受信データは更に、対象と関連付けられた1つまたは複数の入力画像要素内における主要の位置のピクセルまたはボクセルを含んでもよい。このように、診療記録は、各訓練/検証用入力画像要素に対して、1つもしくは複数のラベルを含んでもよく、またはそれを特定するのに使用されてもよい。診療記録は更に、対象に対して行われてきた1つまたは複数の治療(例えば、薬物治療)のそれぞれ、および対象が治療を受けていた期間を示してもよい。いくつかの例では、1つまたは複数の分類器サブシステムに入力される画像またはスキャンは、プロバイダシステム170から受信される。例えば、プロバイダシステム170は、画像またはスキャンをイメージングシステム160から受信してもよく、次に画像またはスキャンを(例えば、対象識別子および1つもしくは複数のラベルとともに)CNNシステム105に送信してもよい。
いくつかの実施形態では、イメージングシステム160の1つもしくは複数で受信または収集されたデータは、プロバイダシステム170の1つもしくは複数で受信または収集されたデータと集約されてもよい。例えば、CNNシステム105は、イメージングシステム160から受信した画像データをプロバイダシステム170から受信したラベルデータと関連付けるように、対象および/または期間の対応するもしくは同一の識別子を特定してもよい。CNNシステム105は更に、メタデータまたは自動画像解析を使用してデータを処理して、特定のデータ成分がどの分類器サブシステムに供給されるべきかを決定してもよい。例えば、イメージングシステム160から受信した画像データは、全身または身体の複数領域に対応してもよい。メタデータ、自動整列、および/または画像処理は、各画像について、画像がどの領域に対応するかを示してもよい。例えば、自動整列および/または画像処理は、画像が、血管および/または肺もしくは肝臓などの特定の臓器と関連付けられた形状に対応する画像特性を有するか否かを検出することを含んでもよい。プロバイダシステム170から受信されるラベル関連データは、領域特異的または対象特異的であってもよい。ラベル関連データが領域特異的である場合、メタデータまたは自動化解析(例えば、自然言語処理もしくはテキスト解析を使用する)を使用して、特定のラベル関連データがどの領域に対応するかを特定することができる。ラベル関連データが対象特異的である場合、(所与の対象に対する)同一のラベルデータが、訓練中に各分類器サブシステムに供給されてもよい。
いくつかの実施形態では、コンピューティング環境100は更に、訓練、試験、検証、または使用例の目的で対象と関連付けられた入力画像を解析する、CNNシステム105の能力を要求および/または調整しているユーザと関連付けることができる、ユーザデバイス180を含むことができる。ユーザは、医師、(例えば、治験と関連付けられた)研究者、対象、医療専門家などであってもよい。このように、いくつかの例では、プロバイダシステム170は、ユーザデバイス180を含んでもよく、ならびに/あるいはその役割を果たしてもよいことが認識されるであろう。CNNシステム105が入力画像を解析する能力は、ユーザとは異なってもよい(ただし必ずしもそうでなくてもよい)、特定の対象(例えば、人間)と関連付けられてもよい。能力は、ユーザデバイス180が能力に対する要求をCNNシステムに通信することによって実現されてもよい。要求は、特定の対象に関する情報(例えば、非特定化された対象識別子など、対象の名前もしくは他の識別子)を含んでもよく、ならびに/あるいはその情報を伴ってもよい。要求は、対象に対応する入力画像データなどのデータをそこから収集する、1つまたは複数の他のシステムの識別子を含んでもよい。いくつかの例では、ユーザデバイス180からの通信は、一組の特定の対象において表される各対象と関連付けられた入力画像を解析する、CNNシステム105の能力に対する要求と対応して、一組の特定の対象それぞれの識別子を含む。
要求を受信すると、CNNシステム105は、ラベルなし入力画像要素に対する要求(例えば、対象の識別子を含む)を、1つもしくは複数の対応するイメージングシステム160および/またはプロバイダシステム170に送ることができる。次に、訓練済みCNNアンサンブルは、ラベルなし入力画像要素を処理して、1つまたは複数の腫瘍をセグメント化し、PFSと関連付けられたTMTV(定量的腫瘍量パラメータ)などの測定基準を生成することができる。特定された各対象の結果は、腫瘍のセグメント化、ならびに/あるいは分類器サブシステム110a~nによって展開される訓練済みCNNアンサンブルの1つまたは複数のCNNモデルからの、1つもしくは複数の出力測定基準を含んでもよく、またはそれに基づいてもよい。例えば、腫瘍セグメンテーションおよび/または測定基準は、1つもしくは複数のCNNの完全接続レイヤによって生成される出力を含んでもよく、あるいはそれに基づいてもよい。いくつかの例では、かかる出力は更に、(例えば)ソフトマックス機能を使用して処理されてもよい。更に、出力および/または更に処理された出力は次に、集約技術(例えば、ランダムフォレスト集約)を使用して集約されて、1つまたは複数の対象特異的な測定基準を生成してもよい。1つまたは複数の結果(例えば、面特異的な出力、および/または1つもしくは複数の対象特異的な出力、および/またはそれらの処理済みのものを含む)は、ユーザデバイス180に送信され、ならびに/あるいはそれに有効であってもよい。いくつかの例では、CNNシステム105とユーザデバイス180との間の通信の一部または全ては、ウェブサイトを介して行われる。CNNシステム105は、認証解析に基づいて、結果、データ、および/または処理リソースへのアクセスを管理してもよいことが認識されるであろう。
明示的に示されていないが、コンピューティング環境100は更に、開発者と関連付けられた開発者デバイスを含んでもよいことが認識されるであろう。開発者デバイスからの通信は、どのタイプの入力画像要素がCNNシステム105の各CNNモデルに使用されるか、使用されるニューラルネットワークの数およびタイプ、各ニューラルネットワークのハイパーパラメータ、例えば学習速度および隠れレイヤの数、ならびにデータ要求がどのようにフォーマット化されるか、および/またはどの訓練データが使用されるか(例えば、またどのように訓練データへのアクセスを得るか)を示してもよい。
III.B.モデルの概要
図2Aは、様々な実施形態による、腫瘍セグメンテーションのCNNアーキテクチャ(例えば、図1に関して記載したCNNシステム105の部分)を表す例示の概略図200を示している。いくつかの実施形態では、入力画像要素205は、1つまたは複数の画像源(例えば、図1に関して記載したような、イメージングシステム160またはプロバイダシステム170)から得られる。入力画像要素205は、1つまたは複数の時点(例えば、ベースラインもしくは治療前、治療中、治療後など)で得られた、対象(例えば、患者)の身体の部分もしくは領域または全身(例えば、全身スキャン)を描写する、1つまたは複数のデジタル画像を含む。基礎を成す画像データは、二次元および/または再構築された三次元PET画像、CT画像、MRI画像、または得られたそれらの任意の組合せを含むことができる。このように、いくつかの例では、単一の入力画像要素205が、身体の異なる(例えば、重なり合うもしくは重なり合わない)部分または領域あるいは全身のスライスをそれぞれ描写する、複数のPETスキャン、SPECTスキャン、CTスキャン、MRIスキャン、またはそれらの任意の組合せに対応する画像を含むことができる。いくつかの実施形態では、全身のいくつかの部分または領域をキャプチャするために身体の異なる部分または領域あるいは全身のスライスと関連付けられた、複数のPETスキャン、SPECTスキャン、CTスキャン、MRIスキャン、またはそれらの任意の組合せに対応する複数の画像を互いに縫合して、画像のモンタージュが形成される。このように、いくつかの例では、単一の入力画像要素205が単一の縫合画像を含むことができる。
入力画像要素205は、ピクセルまたはボクセル値の1つもしくは複数のアレイまたは行列として構造化される。所与のピクセルまたはボクセル位置は、(例えば)全体強度値、ならびに/あるいは1つもしくは複数のグレーレベルおよび/または色(例えば、RGB値)それぞれに関する強度値と関連付けられる。例えば、入力画像要素205の各画像は、第1の2つの次元のサイズがピクセルでの各画像の幅および高さに対応する、三次元行列としての構造であってもよい。第3の次元のサイズは、各画像と関連付けられた色チャネルに基づいてもよい(例えば、第3の次元は、赤、緑、および青の色画像の3つのチャネルに対応する3であることができる)。
入力画像要素205は、入力画像要素205全体の標準化画像データを生成する、CNNアーキテクチャの前処理サブシステム210への入力として提供される。前処理は、身体のスライス(例えば、冠状、軸方向、および矢状スライス)または領域に対する、画像または入力画像要素205のサブセットを選択することと、均一なピクセル間隔(例えば、1.0mm)およびスライス厚さ(例えば、2mm)に関して、画像または入力画像要素205のサブセットの幾何学的再サンプリング(例えば、補間)を実施することを含んでもよい。全ての画像の画像強度値は、ノイズおよび潜在的なアーチファクトを除去するように、指定範囲(例えば、-1000~3000ハンスフィールド単位)まで切り捨てられてもよい。間隔、スライス厚さ、および単位の標準化によって、入力画像要素205の全ての画像にわたって、各ピクセルが一定の面積を有し、各ボクセルが一定の体積を有することが担保される。前処理サブシステム210からの出力は、身体のスライス(例えば、冠状、軸方向、および矢状スライス)または領域の標準化画像のサブセットである。
腫瘍セグメンテーションは、1つまたは複数の訓練済みCNNモデル215(例えば、図1に関して記載したような分類器サブシステム110aと関連付けられたCNNモデル)を備える、セマンティックセグメンテーションモデルアーキテクチャを使用して実施されてもよい。セマンティックセグメンテーションでは、CNNモデル215は、各ピクセルを所望のラベルで分類することによって、画像内の異なる対象(例えば、腫瘍組織および正常組織)の位置および形状を特定する。例えば、腫瘍組織は腫瘍とラベリングされ、赤に色付けされ、正常組織は正常とラベリングされ、緑に色付けされ、背景ピクセルは背景とラベリングされ、黒に色付けされる。前処理サブシステム210からの標準化画像のサブセットが、1つまたは複数の訓練済みCNNモデル215への入力として使用される。いくつかの例では、単一の訓練済みCNNモデルが、標準化画像のサブセット全てを処理するのに使用される。他の例では、一組の訓練済みCNNモデル(例えば、CNNアンサンブル)が使用され、各CNNモデルは、身体の異なるスライス(冠状、軸方向、および矢状スライス)または領域から派生する画像を処理するように訓練済みである。例えば、冠状スライスからの標準化画像のサブセットが、一組の訓練済みCNNモデルの第1のCNNに対する入力として使用されてもよく、矢状スライスからの標準化画像のサブセットが、一組の訓練済みCNNモデルの第2のCNNに対する入力として使用されてもよい。
訓練済みCNNモデル215は、最初に標準化画像の低次元表現を取得し、次にその低次元表現をアップサンプリングして、各画像の二次元セグメンテーションマスク220を生成するように構成された、Uネットなどの二次元セグメンテーションモデルである。本明細書に詳細に記載するように、Uネットは、拡張パスで補足された縮小パスを備える。縮小パスは、異なる分解能で動作する異なる段階に分割される。各段階は、低次元表現を生成する1~3つの畳み込みレイヤを備える。拡張パスは、低次元表現をアップサンプリングして二次元セグメンテーションマスク220を生成する。拡張パスにおける連続レイヤのプーリング操作はアップサンプリング演算子に置き換えられ、これらの連続レイヤは二次元セグメンテーションマスク220の分解能を増加させる。二次元セグメンテーションマスク220は、全てのピクセルが分類された(例えば、ピクセル強度値のいくつかがゼロであり、他のものが非ゼロである)、高分解能(本明細書で使用するとき、「高分解能」は、UネットまたはVネットの縮小パスによって処理された低次元表現よりも多数のピクセルもしくはボクセルを有する画像を指す)のマスク画像である。非ゼロピクセルは、標準化画像のサブセットからの、画像または画像の部分(例えば、PET-CTもしくはPET-MRIスキャン)中に存在する組織の位置を表す。例えば、ピクセルが背景と分類された場合は常に、マスク画像内のピクセルの強度は背景値(例えば、ゼロ)に設定される。ピクセルが腫瘍組織と分類された場合は常に、マスク画像内のピクセルの強度は腫瘍値(例えば、非ゼロ)に設定される。二次元セグメンテーションマスク220は、基礎を成すCTまたはMRIスキャン内の解剖学的構造に対して、PETスキャン内で特定された腫瘍組織の位置を表す非ゼロピクセルを示す(例えば、図2Cの二次元セグメンテーションマスク220を参照)。腫瘍組織の位置を表す非ゼロピクセルは、入力画像要素205からの画像内の腫瘍組織の様々な例を示すセグメンテーションの1つまたは複数の例として、グループ化されラベリングされる。
二次元セグメンテーションマスク220は、特徴抽出器225(例えば、図1に関して記載したような、特徴抽出器120)に入力され、特徴抽出器225は、関連する特徴を二次元セグメンテーションマスク220から抽出する。特徴抽出は次元縮小のプロセスであり、それによって最初のデータセット(例えば、二次元セグメンテーションマスク220)が、更に処理するのにより管理しやすい関連する特徴に縮小される。関連する特徴は、テクスチャ特徴(例えば、コントラスト、非類似度、クラスタシェード、クラスタプロミネンスなど)、形状特徴(例えば、面積、偏心性、範囲など)、予後シグネチャ(例えば、腫瘍特徴を疾患の起こり得る結果または過程に結合する)などを含んでもよく、それらは、二次元セグメンテーションマスク220内のピクセルを更に分類する際の助けとなり得る。テクスチャ特徴は、グレーレベル同時生起行列または類似の技術を使用して抽出されてもよい。形状特徴は、領域性質関数または類似の技術を使用して抽出されてもよい。予後シグネチャは、k平均クラスタ化または類似の技術を使用して抽出されてもよい。
特徴抽出器225および二次元セグメンテーションマスク220から抽出された関連する特徴は、分類器230(例えば、図1に関して記載したような分類器130)に入力され、分類器230は、関連する特徴を変換し、二次元セグメンテーションマスク220を組み合わせて最終マスク画像235にする。分類器230は、関連する特徴を使用して、二次元セグメンテーションマスク220におけるピクセルの分類を改良し、(例えば、平均または他の統計関数を使用して)二次元セグメンテーションマスク220を組み合わせて、最終マスク画像235を生成してもよい。最終マスク画像235は、分類されたピクセル(例えば、図2Cの最終マスク画像235を参照)に基づいて、全てのピクセルが分類され、セグメンテーションアウトライン、ボーダー、透明パッチなどが指定されたセグメント(例えば、腫瘍組織)の周りおよび/または上に重ねられる、高分解能マスク画像である。いくつかの例では、分類器230は更に、最終マスク画像235から得られたデータを、治療の臨床効率を示し、TMTVを査定し、全身PET腫瘍量を査定し、PFSを予測し、治療する対象を病期分類するとともに治験する対象を選択し、治療終了時応答査定(例えば、ルガノ)を自動化し、またはそれらの組合せを行う、1つまたは複数の出力測定基準に変換する。1つの特定の例では、分類(例えば、分類器を使用する)を予後シグネチャに対して実施して、分類器の設計に応じた所望の形態の出力を得ることができる。例えば、分類器235は、TMTVを抽出し、PFSを予測し、治療する対象を病期分類し、ならびに/または治験する対象を選択するように、ラベル付き訓練データに対して訓練することができる。
図2Bは、様々な実施形態による、腫瘍セグメンテーションの代替のCNNアーキテクチャ(例えば、図1に関して記載したCNNシステム105の部分)を表す例示の概略図250を示している。図2Bに示されるCNNアーキテクチャは、図2Aに示されるCNNアーキテクチャと同様であるが、この場合は、構成要素検出モデル255および三次元セグメンテーションモデル260を組み込んでいる。したがって、同様の構成要素、動作、および用語については、可能であれば、簡潔にするため、例示の概略図250の説明では繰り返さない。いくつかの実施形態では、入力画像要素205は、1つまたは複数の画像源(例えば、図1に関して記載したような、イメージングシステム160もしくはプロバイダシステム170)から取得される。入力画像要素205は、1つまたは複数の時点(例えば、ベースラインもしくは治療前、治療中、治療後など)で得られた、対象(例えば、患者)の身体の部分もしくは領域または全身(例えば、全身スキャン)を描写する、1つまたは複数のデジタル画像を含む。基礎を成す画像データは、二次元および/または再構築された三次元PET画像、CT画像、MRI画像、または得られたそれらの任意の組合せを含むことができる。入力画像要素205は、入力画像要素205にわたる標準化画像データを生成する、CNNアーキテクチャの前処理サブシステム210に対する入力として提供される。前処理サブシステム210からの出力は、身体の領域のスライス(例えば、冠状、軸方向、および矢状スライス)の標準化画像のサブセットである。
腫瘍セグメンテーションは、1つまたは複数の訓練済みCNNモデル215(例えば、図1に関して記載したように、分類器サブシステム110aと関連付けられたCNNモデル)と、構成要素検出モデル255と、1つまたは複数の訓練済みCNNモデル260(例えば、図1に関して記載したような、分類器サブシステム110bと関連付けられたCNNモデル)とを備える、セマンティックセグメンテーションモデルアーキテクチャを使用して実施されてもよい。前処理サブシステム210からの標準化画像のサブセットは、1つまたは複数の訓練済みCNNモデル215に対する入力として使用される。訓練済みCNNモデル215は、最初に標準化画像の低次元表現を取得し、次にその低次元表現をアップサンプリングして、二次元セグメンテーションマスク220を生成するように構成された、Uネットなどの二次元セグメンテーションモデルである。
前処理サブシステム210からの標準化画像(具体的には、二次元セグメンテーションマスク220を生成するのに使用される標準化画像)は、構成要素検出モデル255に対する入力として使用される。構成要素検出モデル255は、標準化画像でキャプチャされた領域または身体の構成要素の位置を基準点として自動的に査定し、基準点を使用して、領域または身体を複数の解剖学的領域に分割する。その後、構成要素検出モデルは、複数の解剖学的領域に対して位置ラベルを生成し、位置ラベルを二次元セグメンテーションマスク内に組み込んでもよい。例えば、肺に対して基準点の上にあり、肺に対して基準点の遠位側にあるセグメントは、頭頚部としてラベリングされてもよく、肝臓に対して基準点の上にあり、肺に対して基準点の近位側にあるセグメントは、胸部としてラベリングされてもよく、肺に対して基準点にあり、肝臓に対して基準点の近位側にあるセグメントは、腹部・骨盤としてラベリングされてもよい。
二次元セグメンテーションマスク220内のセグメントに対応する画像データのパッチは、1つまたは複数の訓練済みCNNモデル260に対する入力として使用される。各セグメントは、基礎を成す画像における分類された対象に対するピクセルごとまたはボクセルごとのマスクである。各セグメントに対する画像データのパッチは、パッチのピクセルサイズおよびスライス厚さの両方から導き出される、a(幅)×b(高さ)×c(奥行)として表現される固定サイズのボクセルを有する、画像データの体積を含む。パッチは、セグメントのボーダー(即ち、腫瘍組織などのセグメントの一部として分類される、ピクセルもしくはボクセル)、セグメントを包含するように生成された座標を有するバウンディングボックス、あるいはボーダーもしくはバウンディングボックスに、所定数のピクセルまたはボクセルのバッファゾーンを加えて、セグメント全体が画像データのパッチ内に含まれることを担保したものとして規定されてもよい。システム処理またはCNNモデル260は、複数の解剖学的領域にマーカーとして提供されるラベルを使用して、CNNモデル260(例えば、頭頚部領域など、指定された解剖学的領域からのスキャンに対して具体的に訓練されたCNNモデル)を選択するのに入力される二次元セグメンテーションマスク220内のセグメントを選択する。例えば、頭頚部の位置ラベルによって特定されたセグメントのサブセットに対応するパッチのサブセットは、頭頚部スキャンに対して訓練された第1のCNNへの入力として使用されてもよく、胸部の位置ラベルによって特定されたセグメントのサブセットに対応するパッチのサブセットは、胸部スキャンに対して訓練された第2のCNNへの入力として使用されてもよく、腹部・骨盤の位置ラベルによって特定されたセグメントのサブセットに対応するパッチのサブセットは、腹部・骨盤スキャンに対して訓練された第3のCNNへの入力として使用されてもよい。
訓練済みCNNモデル260は、最初にセグメントに対応する画像データの各パッチの低分解能特徴マップを取得し、次に低分解能特徴マップをアップサンプリングして、画像データの各パッチの三次元セグメンテーションマスク265を生成するように構成された、Vネットなどの三次元セグメンテーションモデルである。本明細書に詳細に記載するように、Vネットは、拡張パスで補足された縮小パスを備える。縮小パスは、異なる分解能で動作する異なる段階に分割される。各段階は1つまたは複数の畳み込みレイヤを備える。各段階で、残差関数が学習される。各段階の入力は、残差関数の学習を可能にするために、畳み込みレイヤで使用され、非線形性によって処理され、その段階の最後の畳み込みレイヤの出力に追加される。このアーキテクチャは、Uネットなどの非残差学習ネットワークと比較して収束が担保される。各段階で実施される畳み込みは、n×n×nボクセルのサイズを有する体積カーネルを使用する。ボクセル(体積要素または体積ピクセル)は、三次元空間内の構造格子における値、サンプル、またはデータ点を表す。
拡張パスは、必要な情報を集めて組み立てて、画像データの各パッチに対する三次元セグメンテーションマスク265を出力するために、より低分解能の特徴マップの特徴を抽出し、空間支持を拡大する。各段階で、前のレイヤで用いられたn×n×nのカーネルの半数が関与する、入力のサイズと、続いて1~3つの畳み込みレイヤのサイズとを増加させるために、逆畳み込み操作が用いられる。ネットワークの縮小部分と同様に、残差関数が学習される。各三次元セグメンテーションマスク265は、全てのボクセルが分類される(例えば、ボクセル強度値のいくつかがゼロであり、他のものが非ゼロである)、高分解能マスク画像である。非ゼロボクセルは、標準化画像のサブセットからの、画像または画像の部分(例えば、PET-CTもしくはPET-MRIスキャン)中に存在する組織の位置を表す。例えば、ボクセルが背景と分類された場合は常に、マスク画像内のボクセルの強度は背景値(例えば、ゼロ)に設定される。ボクセルが腫瘍組織と分類された場合は常に、マスク画像内のボクセルの強度は腫瘍値(例えば、非ゼロ)に設定される。三次元セグメンテーションマスク265は、基礎を成すCTまたはMRIスキャン内の解剖学的構造に対して、PETスキャン内で特定された腫瘍組織の位置を表す非ゼロボクセルを示す。腫瘍組織の位置を表す非ゼロボクセルは、画像データのパッチ内の腫瘍組織の様々な例を示す1つまたは複数のセグメントとして、グループ化されラベリングされる。
画像データの各パッチに対する二次元セグメンテーションマスク220および三次元セグメンテーションマスク265は、特徴抽出器225(例えば、図1に関して記載したような、特徴抽出器120)に入力され、特徴抽出器225は、関連する特徴を二次元セグメンテーションマスク220および各三次元セグメンテーションマスク265から抽出する。抽出された関連する特徴、二次元セグメンテーションマスク220、および三次元セグメンテーションマスク265は、分類器230(例えば、図1に関して記載したような分類器130)に入力され、分類器230は、関連する特徴、二次元セグメンテーションマスク220、および三次元セグメンテーションマスク265を変換し、組み合わせて最終マスク画像235にする。より具体的には、分類器230は、関連する特徴を使用して、二次元セグメンテーションマスク220および三次元セグメンテーションマスク265それぞれにおけるピクセルおよびボクセルの分類を改良する。
その後、分類器は、改良された二次元セグメンテーションマスク220および三次元セグメンテーションマスク265を組み合わせ(例えば、ピクセルおよび/またはボクセル値を平均し)て、最終マスク画像235を生成する。最終マスク画像235は、分類されたピクセルおよびボクセル(例えば、図2Cの最終マスク画像235を参照)に基づいて、全てのピクセルおよびボクセルが分類され、セグメンテーションアウトライン、ボーダー、透明パッチなどがセグメント(例えば、腫瘍組織)の周りおよび/または上に重ねられる、高分解能マスク画像である。いくつかの例では、分類器230は更に、最終マスク画像235から得られたデータを、治療の臨床効率を示し、TMTVを査定し、全身PET腫瘍量を査定し、PFSを予測し、治療する対象を病期分類するとともに治験する対象を選択し、治療終了時応答査定(例えば、ルガノ)を自動化し、またはそれらの組合せを行う、1つまたは複数の出力測定基準に変換する。1つの特定の例では、分類(例えば、分類器を使用する)を予後シグネチャに対して実施して、分類器の設計に応じた所望の形態の出力を得ることができる。例えば、分類器235は、TMTVを抽出し、PFSを予測し、治療する対象を病期分類し、ならびに/または治験する対象を選択するように、ラベル付き訓練データに対して訓練することができる。
図2Cは、様々な実施形態による、入力画像要素205(前処理サブシステム210によって標準化)と、二次元セグメンテーションモデル215と、構成要素検出モデル255と、領域ラベルを有する二次元セグメンテーションマスク220と、三次元セグメンテーションモデル265と、予測最終マスク画像235とを含む、図2Bとは別のモデルアーキテクチャの図である。図2Cのモデルアーキテクチャでは、(i)本明細書のIII.Cで更に説明するような、二次元セグメンテーションモデル215を使用して、二次元腫瘍マスク内の腫瘍の第1の予測を生成する、二次元セグメンテーション270と、(ii)本明細書のIII.Dで更に説明するような、入力画像要素205(前処理サブシステム210によって標準化)内の解剖学的領域を特定し、ステップ(i)で得られた二次元セグメンテーションマスク220内の対応する解剖学的領域の位置ラベルを提供する、構成要素および領域検出275と、(iii)本明細書のIII.Eで更に説明するような、解剖学的領域それぞれに対して三次元セグメンテーション280を別個に実施して、最終マスク画像235に組み合わせることができる複数の三次元腫瘍マスクを生成する、それぞれの三次元セグメンテーションモデル265を使用した、二次元セグメンテーションマスク220の解剖学的領域それぞれ(ステップ(ii)で特定)における、(ステップ(i)からの)腫瘍に対する第1の予測の改良との、3つの動作を実施するモデル215/255/265が示されている。
III.C.二次元セグメンテーションのための例示的なUネット
二次元セグメンテーションは、修正されたUネットを個別に使用して、入力画像(例えば、標準化PETスキャン、CTスキャン、MRIスキャン、またはそれらの任意の組合せ)から特徴を抽出して、高分解能の特徴を有する二次元セグメンテーションマスクを生成する。図3に示されるように、Uネット300は、縮小パス305および拡張パス310を含んで、U字形のアーキテクチャを得ている。縮小パス305は、畳み込みの繰返し適用(例えば、3×3の畳み込み(パッドなしの畳み込み))と、そのそれぞれに続く、ダウンサンプリングのための正規化線形ユニット(ReLU)および最大プーリング動作(例えば、刻み幅2を有する2×2の最大プーリング)を含む、CNNネットワークである。畳み込み動作の入力は、三次元体積(即ち、サイズn×nチャネルの入力画像(nは入力特徴の数))、およびそれぞれサイズ(f×f×チャネル(fは任意の数、例えば3もしくは5))の、一組の「k」フィルタ(カーネルまたは特徴抽出器とも呼ばれる)である。畳み込み動作の出力も、サイズ(m×m×k(Mは出力特徴の数、kは畳み込みカーネルサイズ))の三次元体積(出力画像もしくは特徴マップとも呼ばれる)である。
縮小パス315の各ブロック315は、1つまたは複数の畳み込みレイヤ(グレーの水平矢印によって示される)を含み、特徴チャネルの数は、例えば、畳み込みプロセスが入力画像の深度を増加させるにつれて、(例えば、第1のプロセスでは、開始時のチャネル数に応じて)1から64に変化する。各ブロック315間で下を指しているグレーの矢印は、入力画像のサイズを半分にする最大プーリングプロセスである。各ダウンサンプリングステップまたはプーリング動作において、特徴チャネルの数は二倍にされてもよい。縮小の間、画像データの空間情報は低減され、特徴情報は増加される。このように、プーリングの前、例えば572×572の画像中に存在した情報は、プーリング後、(ほぼ)同じ情報が今度は例えば284×284の画像中に存在する。ここで、畳み込み動作が後に続くプロセスまたはレイヤに再び適用されたとき、後に続くプロセスまたはレイヤのフィルタは、より大きいコンテキストを見ることができるようになり、即ち、入力画像がネットワークのより深部へと進行するにしたがって、入力画像のサイズは低減されるが、受信フィールドは増加する(受信フィールド(コンテキスト)は、任意の所与の時点においてカーネルもしくはフィルタがカバーする入力画像の面積である)。ブロック315が実施されると、ブロック320で更に二回の畳み込みが実施されるが、最大プーリングはない。ブロック320後の画像は、例えば、28×28×1024にリサイズされている(このサイズは単なる例示であり、プロセス320終了時のサイズは、入力画像の開始サイズ(サイズn×n×チャネル)に応じて異なることができる)。
拡張パス310は、縮小パス305からの特徴および空間情報を組み合わせる(縮小パス305からの特徴マップをアップサンプリングする)、CNNネットワークである。本明細書に記載するように、二次元セグメンテーションの出力は、単なる分類ラベルまたはバウンディングボックスのパラメータではない。その代わりに、出力(二次元セグメンテーションマスク)は、全てのピクセルが分類されている完全な高分解能画像である。プーリングレイヤおよび緻密レイヤを有する通常の畳み込みネットワークが使用された場合、CNNネットワークは、「where」情報を失い、画像セグメンテーションに対して許容不能な「what」情報のみを保持する。画像セグメンテーションの場合、「what」ならびに「where」両方の情報が必要である。このように、画像をアップサンプリングすること、即ち、「where」情報を回復するように、低分解能画像を高分解能画像に変換することが必要とされている。上向きの白い矢印によって表される転位された畳み込みは、特徴マップをアップサンプリングし、画像のサイズを拡張するのに拡張パス310内で使用されてもよい、例示のアップサンプリング技術である。
ブロック325の転位された畳み込みの後、画像は28×28×1024から56×56×512にアップサイズされ、次に、画像は縮小パスからの対応する画像と連結されて(縮小パス305からの水平のグレーのバー330を参照)、併せてサイズ56×56×1024の画像を作る。連結する理由は、より精密な予測を得るために、前のレイヤからの情報を組み合わせるためである(即ち、縮小パス305からの高分解能特徴が、拡張パス310からのアップサンプリングされた出力と組み合わされる)。このプロセスは、二次元セグメンテーションマスクとしてマルチチャネルセグメンテーションを生成する、チャネルの数を半分にする逆畳み込み(アップサンプリング演算子)、縮小パス305からの対応するクロップされた特徴マップとの連結、正規化線形ユニット(ReLU)がそれぞれ後に続く畳み込みの繰返し適用(例えば、2回の3×3の畳み込み)、およびブロック335の最終畳み込み(例えば、1回の1×1の畳み込み)のシーケンスとして継続する。局所化のために、Uネット300は、完全接続レイヤを有さない各畳み込みの有効部を使用し、即ち、セグメンテーションマップは、全コンテキストが入力画像で利用可能なピクセルのみを含み、縮小ブロックの間に学習したコンテキスト特徴と拡張ブロックで学習した局所化特徴とを結合するスキップ接続を使用する。
二次元セグメンテーションのみが実施される場合、Uネットから出力される二次元セグメンテーションマスクは、特徴抽出器への入力として使用され、特徴抽出器は、関連する特徴を二次元セグメンテーションマスクから抽出する。関連する特徴および二次元セグメンテーションマスクは、分類器に入力され、分類器は、関連する特徴および二次元セグメンテーションマスクを最終マスク画像に変換する。分類器は、関連する特徴を使用して、二次元セグメンテーションマスクにおけるピクセルの分類を改良し、最終マスク画像を生成してもよい。最終マスク画像は、分類されたピクセルに基づいて、全てのピクセルが分類され、セグメンテーションアウトライン、ボーダー、透明パッチなどが指定されたセグメント(例えば、腫瘍組織)の周りおよび/または上に重ねられる、高分解能マスク画像である。
従来のUネットアーキテクチャでは、縮小および拡張パスのブロックは、畳み込みを実施するため、畳み込みレイヤ(例えば、一般的に2つもしくは3つのレイヤ)によって単純に構成される。しかしながら、様々な実施形態によれば、ブロック(例えば、ブロック315)は、逆伝播中により大きい勾配を1つまたは複数のレイヤに伝播する、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して1つもしくは複数のレイヤから複数レイヤ離れたレイヤに直接供給する、1つまたは複数のレイヤを含む残差ブロックである。特定の例では、残差ブロックの1つまたは複数のレイヤは、1つまたは複数の拡大レベルで分離可能な畳み込みが実施されるピラミッドレイヤである。
図4Aは、図3に示されるブロック315の1つのレイヤ構造を示している。図示されるように残差ブロック400は、複数の畳み込みレイヤ405を備えてもよい(図示される実施形態では、単一の畳み込みレイヤはそれぞれ、2つ以上のピラミッドレイヤ320と置き換えられる)。残差ブロック400を含むネットワーク(例えば、ResNet)では、1つまたは複数のレイヤ405(図示される実施形態では、各レイヤはピラミッドレイヤである)は、次のレイヤ(A、B、C…)に直接、また更に離れた、例えば複数レイヤ離れたレイヤ(D、E…)に直接供給する。残差ブロック400をネットワークで使用することは、畳み込みまたはピラミッドレイヤの数を増加させることによって起こる劣化の問題(レイヤの数が増加し続けた場合、最初は精度が向上するが、ある地点で飽和し始め、次第に劣化する)を克服する助けとなる。残差ブロック400は、スキップ接続または残差接続を使用して、これらの追加レイヤのいくつかをスキップし、それによって最終的に、逆伝播中により大きい勾配が最初のレイヤに伝播する。スキップによってネットワークが有効に単純化され、最初の訓練段階で使用されるレイヤが少なくなる。これにより、伝播するレイヤが少なくなるので、勾配の消失による影響を低減することによって学習が高速化する(即ち、マルチスピード残差学習)。次に、ネットワークは、特徴空間を学習するにつれて、スキップしたレイヤを徐々に復元する。経験的証拠が、残差ブロックによって正確さが得られ、最適化がより簡単になることを示している。
図4Bは、様々な実施形態による、図4Aの単一のピラミッドレイヤ405を示している。ピラミッドレイヤ405は、複数の異なるスケール(「拡大ブロック」)、この例では4つのレベルで、拡大された(アトラス)分離可能な畳み込みを使用してもよい。ピラミッドレイヤ405は、対象(例えば、腫瘍)検出の精度を向上するために、複数の異なるスケールで同じ画像を備える。ピラミッドレイヤ405の分離可能な畳み込みは、分離可能な深度ごとの畳み込み、即ち、入力の各チャネルに対して独立して実施される空間畳み込みであり、それに続いてポイントごとの畳み込みが、例えば1×1の畳み込みが実施されて、深度ごとの畳み込みによって出力されるチャネルが新しいチャネル空間上に投影される。分離可能な深度ごとの畳み込みは、一般的な二次元畳み込みを使用する場合よりも、収束速度の大きい利得とモーダルサイズの大幅な低減とをもたらす。拡大された(アトラス)畳み込みは、カーネル要素の間に空間を挿入することによってカーネルを膨張させる。カーネル要素間の間隔に関するこの追加のパラメータI(拡大率)は、カーネルがどの程度拡幅するかを示す。これにより、受信フィールドが「広がった」フィルタが作られ、それによって受信フィールドのサイズがカーネルサイズに対して増加する。いくつかの実施形態では、拡大率は4つの拡大レベルである。他の実施形態では、より多数または少数の拡大レベルを、例えば6つの拡大レベルを使用することができる。拡大された(アトラス)畳み込みは、カーネルサイズを増加させることなく、また分解能を損失することなく受信フィールドを拡張し、これは、ピラミッドレイヤ405のように、複数の拡大された畳み込みが互いに積み重ねられる場合に特に有効である。
畳み込みレイヤ出力415は、拡大ブロック420(拡大1、2、4、および8としてラベリングされる)の出力である。図4Bの図示される例は4つの拡大ブロックを仮定し、各拡大ブロックが(同じ色の)2つのチャネルを出力するので、チャネル出力の合計数は8である。各拡大ブロックによって出力されるチャネルの数は、問題の残差ブロックに応じて変わってもよい。図4Bの例は、図3の左上の残差ブロック315または右上の残差ブロック335を示している。いくつかの実施形態では、残差ブロック405のピラミッドレイヤ410の各拡大ブロック415によって出力されるチャネルそれぞれの数は、残差ブロック405のフィルタの数kを4で割ったものに等しい。
III.D.例示的な構成要素および領域の検出ならびにラベリング
PETスキャン、CTスキャン、およびMRIスキャンは、臓器の密度および代謝にばらつきがあるので、身体内におけるスキャンの位置に応じて非常に異質であり得る。下流の処理においてこのばらつきを制限するために、構成要素検出モデルは、スキャンで描写される領域または身体を、複数の解剖学的領域に、例えば頭頚部、胸部、および腹部・骨盤を含む3つの領域に分割するように構成される。構成要素検出モデルは、二次元セグメンテーションマスクでキャプチャされた領域または身体の構成要素(例えば、肝臓および肺)の位置を基準点として自動的に査定し、基準点を使用して、領域または身体を複数の解剖学的領域に分割する。その後、構成要素検出モデルは、複数の解剖学的領域に対して位置ラベルを生成し、位置ラベルを二次元セグメンテーションマスク内に組み込んでもよい。下流の処理は、ラベルをマーカーとして使用して、CNNモデル(例えば、頭頚部領域からのスキャンに対して具体的に訓練されたCNNモデル)を選択することによって、二次元セグメンテーションマスク内のセグメントを選択してもよい。この分割およびラベリングによって、イメージング空間が狭くなり、異なる解剖学的領域に対して訓練されるCNNモデルを選択することが可能になって、CNNモデルの学習全体が改善される。
以下のものなどの方策は、肝臓を検出するのに使用されてもよい。構成要素検出モデルは、閾値(例えば、閾値2.0SUV)を用いてスキャンを閾値処理し、穴(例えば、画像の背景の穴)を埋めるため、既定の半径(例えば、8mm)の構造要素を用いた形態学的閉鎖および開放を使用した後、所定の面積または体積(例えば、500mm)よりも大きい接続された構成要素を探すことによって、脳がスキャン(例えば、PETスキャン)内に存在するかを決定する、チェックを実施してもよい。形態学的閉鎖は、両方の操作に対して同じ構造要素を使用する拡大およびその後の浸食を含む、数学演算子である。形態学的開放は、両方の操作に対して同じ構造要素を使用する浸食およびその後の拡大を含む、数学演算子である。拡大演算子は2つのデータ片を入力とする。第1のものは拡大されるべき画像である。第2のものは、構造要素として知られる(カーネルとしても知られる)、(通常は小さい)一組の座標点である。この構造要素が、入力画像に対する拡大の正確な作用を決定する。画像に対する拡大演算子の基本的作用は、前景ピクセル(例えば、一般的に、白いピクセル)の領域の境界を徐々に拡大することである。このように、前景ピクセルの面積はサイズが成長し、一方でそれらの領域内の穴は小さくなる。浸食演算子は2つのデータ片を入力とする。第1のものは浸食されるべき画像である。第2のものは、構造要素として知られる(カーネルとしても知られる)、(通常は小さい)一組の座標点である。この構造要素が、入力画像に対する浸食の正確な作用を決定する。画像に対する浸食演算子の基本的作用は、前景ピクセル(例えば、一般的に、白いピクセル)の領域の境界を浸食していくことである。このように、前景ピクセルの面積はサイズが収縮し、それらの面積内の穴は大きくなる。構成要素検出モデルは、画像の右下部分を見て、所定の閾値(例えば、所定の閾値1.0SUV)を使用して、(例えば、閉鎖もしくは開放動作を使用して)穴を満たし、接続された構成要素を浸食演算子で浸食し、質量中心が矢状軸の最後の三分の1にある、最も上にある接続された構成要素を見る。この接続された構成要素の質量中心は肝臓内にある。他の実施形態では、上述した用語に対する代替の値、および/または代替の方法が使用されてもよい。
以下のものなどの方策は、肺の質量中心を検出するのに使用されてもよい。構成要素検出モデルは、所定のスケール(例えば、CTスキャンの場合は-300ハンスフィールド(HU))で画像を閾値セグメント化して、バイナリマスクを取得し、画像内で特定可能な最大の接続された構成要素の数(例えば、8)を保持してもよい。各スライス(例えば、矢状、軸方向、冠状など)において、構成要素検出モデルは、スライス境界に隣接する選択された領域を除去し、残りの接続された構成要素を浸食して漏れを回避し、2つの最大の接続された構成要素のみを保持してもよい。モデルは、2つの最大の残っている接続された構成要素の質量中心を、肺の質量中心とする(残っている2つの最大の構成要素は肺であると推論する)。他の実施形態では、上述した用語に対する代替の値、および/または代替の方法が使用されてもよい。
あるいは、構成要素検出モデルは、臓器セグメンテーションを使用して、PETスキャン、CTスキャン、またはMRIスキャンで描写される領域または身体内の臓器など、構成要素の位置を査定して、領域または身体内の臓器に対する1つもしくは複数の基準点を取得してもよい。いくつかの例では、臓器セグメンテーションは、それに加えてまたはその代わりに、脾臓、肝臓、肺、および腎臓などの1つまたは複数の臓器に対して、臓器特異的な測定に使用されてもよい。以下のものなどの方策は、1つまたは複数の臓器をセグメント化するのに使用されてもよい。構成要素検出モデル(例えば、三次元臓器セグメンテーションのためのVネットなど、三次元畳み込みニューラルネットワーク)は、ダウンサンプリングおよびアップサンプリングのサブネットワークを含んでもよく、スキップ接続が高分解能情報を最終セグメンテーションに伝播する。いくつかの例では、ダウンサンプリングサブネットワークは、ダウンサンプリング畳み込みによって接続される複数の密な特徴スタックのシーケンスであってもよく、各スキップ接続は、対応する密な特徴スタック出力の単一の畳み込みであってもよく、アップサンプリングネットワークは、最終セグメンテーション分解能への双線形アップサンプリングを含む。構成要素検出モデルの出力は、入力スキャンに対する臓器セグメンテーションマスクであろう。
領域または身体の構成要素(例えば、肝臓および肺)が検出されると、構成要素は、領域または身体を複数の解剖学的領域に分割するのに、二次元セグメンテーションマスク内の基準点として使用されてもよい。構成要素検出モデルは、複数の解剖学的領域に対して位置ラベルを生成し、位置ラベルを二次元セグメンテーションマスクに組み込んでもよい。結果として、二次元セグメンテーションマスクは、複数の解剖学的領域に対するラベルを含んでもよい。下流の処理は、ラベルをマーカーとして使用して、CNNモデル(例えば、頭頚部領域からのスキャンに対して具体的に訓練されたCNNモデル)を選択することによって、二次元セグメンテーションマスク内のセグメントを選択してもよい。
III.D.三次元セグメンテーションのための例示的なVネット
複数の別個のサブモデルの体積CNNシステムに基づいた三次元セグメンテーションは、各解剖学的区画に対して個別に、画像データのパッチから特徴を抽出する。画像データのパッチは、二次元セグメンテーションマスク内のセグメントに対応する。各パッチは、パッチのピクセルサイズおよびスライス厚さの両方から導き出される、固定サイズのボクセルを有する画像データの体積を含む。パッチは、セグメントのボーダー(即ち、腫瘍組織などのセグメンテーションの一部として分類されるピクセル)、セグメントを包含するように生成された座標を有するバウンディングボックス、あるいはボーダーもしくはバウンディングボックスに、所定数のピクセルまたはボクセルのバッファゾーンを加えて、セグメント全体が画像データのパッチ内に含まれることを担保したものとして規定されてもよい。システム処理または複数の別個のサブモデルのCNNシステムは、複数の解剖学的領域にマーカーとして提供されるラベルを使用して、CNNモデル(例えば、頭頚部領域など、指定された解剖学的領域からのスキャンに対して具体的に訓練されたCNNモデル)を選択するのに入力される二次元セグメンテーションマスク内のセグメントを選択する。
図5に示されるように、二次元セグメンテーションマスクにおいてラベリングされた解剖学的領域のそれぞれに対して、解剖学的領域のそれぞれと関連付けられたパッチ内の画像データを改良するのに、別個のVネット500a~nが使用されてもよい。パッチ内の画像データの改良は、パッチそれぞれにおけるボクセルに対して体積データを分類することを含む(即ち、二次元空間内でピクセルを分類した二次元セグメンテーション、および三次元セグメンテーションを、三次元空間内におけるボクセルの分類に追加する)。例えば、画像データの各パッチは、ピクセルおよびボクセル値の行列とみなすことができ、行列の各ピクセルおよびボクセルの面積に値を割り当てることができる。いくつかの例では、画像データのパッチは、0から1の範囲のピクセルまたはボクセル値を有する白黒特性、ならびに/あるいは0から255の範囲の3つの割り当てられたRGBピクセルまたはボクセル値を有するカラー特性を含む。分類をボクセルに割り当てるために、各Vネット500a~nは、画像データのパッチに対して、以下に詳細に記載するような、(1)畳み込み、(2)非線形変換(例えば、ReLU)、(3)プーリングまたはサブサンプリング、および(4)分類(完全接続レイヤ)という一連の操作を実施する。
各Vネット500は、ダウンサンプリングのための圧縮パス505と、信号をその元のサイズに達するまで復元するアップサンプリングのための復元パス510とを含む。圧縮パス510は、異なる分解能で動作する異なるブロック515に分割される。各ブロック515は1つまたは複数の畳み込みレイヤを備えてもよい。レイヤそれぞれにおける畳み込みは、適切なパディングで適用されてもよい。各ブロック515は、残差接続を介して残差関数を学習するように構成されてもよく、各ブロック515の入力は、残差関数の学習を可能にするために、(i)畳み込みレイヤで使用され、非線形性によって処理され、(ii)そのブロックの最後の畳み込みレイヤの出力に追加される。各ブロック515で実施される畳み込みは、5×5×5ボクセルなど、所定のサイズを有する体積カーネルを使用する。画像データが圧縮パス510に沿って異なるブロック515を通って進むにつれて、画像データの分解能が低減される。これは、適切な刻み幅(例えば、2スライド)で適用される2×2×2ボクセル幅のカーネルなど、所定サイズのカーネルを用いた畳み込みによって実施される。第2の動作は、重なり合わない体積パッチのみを考慮することによって特徴を抽出するので、結果として得られる特徴マップのサイズは半分になる(サブサンプリングされる)。この戦略はレイヤをプーリングするのと同様の目的に役立つ。プーリング動作を畳み込み動作と置き換えることで、プーリングレイヤの出力をそれらの入力に戻すマッピングの切替えが逆伝播に不要なので、メモリフットプリントが小さいネットワークがもたらされる。圧縮パス505の段階はそれぞれ、前のレイヤまたはブロックからの特徴の数の複数倍である特徴の数を計算する。
復元パス510は、マルチチャネル体積セグメンテーションを三次元セグメンテーションマスクとして出力するのに必要な情報を集めて組み立てるために、特徴を抽出し、低分解能特徴マップの空間支持を拡張する、異なるブロック520に分割される。復元パス515の各ブロック520の後、入力のサイズと、続いて前のレイヤで用いられた5×5×5のカーネルなど、カーネルの半数が関与する1つまたは複数の畳み込みレイヤのサイズとを増加させるために、逆畳み込み動作が用いられてもよい。圧縮パス510と同様に、復元パス515の畳み込み段階において残差関数が学習されてもよい。それに加えて、圧縮パス510の初期段階から抽出された特徴は、水平接続525によって示されるように、復元パス515に転送されてもよい。一番最後の畳み込みレイヤによって計算された、1×1×1のカーネルサイズなどの適切なカーネルサイズを有し、入力体積と同じサイズの出力を作成する(2つの体積は画像データの元の入力パッチと同じ分解能を有する)、2つの特徴マップは、各ボクセルが前景または背景などの分類に属する確率を出力するソフトマックスレイヤによって処理されてもよい。
PETスキャン、CTスキャン、およびMRIスキャンなどの画像データでは、関心の解剖学的構造(例えば、腫瘍)がスキャンの非常に小さい領域のみを占めることは珍しくない。これにより、多くの場合、学習プロセスが、予測が背景に向かって強力にバイアスされるネットワークをもたらす、損失係数の極小値に捕捉される。例えば、体積内における負のボクセルの平均割合は99.5%であり、単一のスライスでは常に80%よりも高い。結果として、前景領域はないか、または部分的にのみ検出される場合が多い。画像の不均衡な性質に対処するために、ダイス類似係数(DSC)に基づいた目的関数を、式(2)に示されるように、二次元に対する重み付き交差エントロピーとともに、ソフトマックスレイヤで使用することができる。
式中、Vはボクセル空間、Tは一組の正のボクセル、Pは一組の予測された正のボクセルを指し、yは三次元セグメンテーションマスクにおけるボクセルvの値、y_hatは予測三次元セグメンテーションマスクにおけるボクセルvの値である。
三次元では、式(3)に示されるように、DSCを、損失関数における感度および平均絶対誤差とともに使用することができる。
式中、Vはボクセル空間、Tは一組の正のボクセル、Pは一組の予測された正のボクセルを指し、yは三次元セグメンテーションマスクにおけるボクセルvの値、y_hatは予測三次元セグメンテーションマスクにおけるボクセルvの値である。
図5は、3つのVネット500(それぞれ2つのパスを有する)を使用して、二次元セグメンテーションマスクからの画像データのパッチを改良することを示しているが、異なる数のVネットおよび畳み込みレイヤが使用されてもよい(例えば、CNNシステムによってこれらの動作を繰り返すことの一倍または複数倍の効果を有してもよい)ことが認識されるであろう。例えば、出力は、腫瘍セグメンテーションに関する現在または将来の予測の決定に関して、画像データのパッチから特徴を抽出するのに、5つ以上の畳み込みレイヤを適用することによって決定することができる。
二次元セグメンテーションおよび三次元セグメンテーションが実施される場合、二次元セグメンテーションマスクおよび三次元セグメンテーションマスクは、特徴抽出器への入力として使用され、特徴抽出器は、関連する特徴を二次元セグメンテーションマスクおよび三次元セグメンテーションマスクから抽出する。特徴抽出器から抽出された関連する特徴、二次元セグメンテーションマスク、および三次元セグメンテーションマスクは、分類器に入力され、分類器は、抽出された関連する特徴、二次元セグメンテーションマスク、および三次元セグメンテーションマスクを変換して最終マスク画像にする。例えば、分類器は、関連する特徴を使用して、二次元セグメンテーションマスクおよび三次元セグメンテーションマスクそれぞれにおけるピクセルの分類を改良する。その後、分類器は、改良された二次元セグメンテーションマスクおよび三次元セグメンテーションマスクを組み合わせて、最終マスク画像を生成する。例えば、最終マスク画像は、改良された二次元セグメンテーションマスクおよび三次元セグメンテーションマスクを平均化する(または1つもしくは複数の他の統計的操作を適用する)ことによって得られてもよい。最終マスク画像は、分類されたピクセルおよびボクセルに基づいて、全てのピクセルおよびボクセルが分類され、セグメンテーションアウトライン、ボーダー、透明パッチなどが指定されたセグメント(例えば、腫瘍組織)の周りおよび/または上に重ねられる、高分解能マスク画像である。
IV.抽出および予測の技術
図6は、様々な実施形態による、抽出したTMTVを決定するプロセス600を示している。
プロセス600は、ブロック605で始まり、対象の複数のPET(またはSPECT)スキャン(例えば、FDG-PETスキャン)および対象の複数のCTまたはMRIスキャンにアクセスされる。PETスキャンおよび対応するCTまたはMRIスキャンは、対象の身体の少なくとも一部または対象の全身を描写することができる。例えば、PETスキャンおよび対応するCTまたはMRIスキャンは、肺、肝臓、脳、心臓、またはそれらの組合せを含む、身体の1つまたは複数の臓器を描写してもよい。任意に、ブロック610で、PETスキャンおよび対応するCTまたはMRIスキャンは、身体のスライス(例えば、環状、軸方向、および矢状スライス)または領域に対する標準化画像またはスキャンのサブセットを生成するように、前処理されてもよい。
ブロック615で、CNNアーキテクチャを使用して、PETスキャンおよび対応するCTまたはMRIスキャンが出力(例えば、最終マスク画像)に変換される。いくつかの実施形態では、CNNアーキテクチャは、本明細書に詳細に記載するような、修正されたUネットなど、1つまたは複数の二次元セグメンテーションモデルを含む。二次元セグメンテーションモデルは、PETスキャンおよび対応するCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットから、二次元セグメンテーションマスクを生成するように構成される。二次元セグメンテーションモデルは複数の残差ブロックを使用し、各残差ブロックは、PETスキャンおよび対応するCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットに対して、分離可能な畳み込みおよび複数の拡大を有して、二次元セグメンテーションマスクを生成する。二次元セグメンテーションマスクは、特徴抽出器および分類器を使用して改良され、その後(例えば、平均または他の統計関数を使用して)組み合わされて、全てのピクセルが分類された最終マスク画像を生成してもよく、分類されたピクセルに基づいて、セグメンテーションアウトライン、ボーダー、透明パッチなどが、指定されたセグメント(例えば、腫瘍組織)の周りおよび/または上に重ねられる。
他の実施形態では、CNNアーキテクチャは、本明細書に詳細に記載するような、1つまたは複数の二次元セグメンテーションモデルおよび複数の三次元セグメンテーションモデルを含む。二次元セグメンテーションモデルは、PETスキャンおよび対応するCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットから、二次元セグメンテーションマスクを生成するように構成される。三次元セグメンテーションモデルは、PETスキャンおよび対応するCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットから、三次元セグメンテーションマスクを生成するように構成される。三次元セグメンテーションモデルは、残差接続およびマルチターム損失を、PETスキャンおよび対応するCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットに対して使用して、三次元セグメンテーションマスクを生成してもよい。二次元セグメンテーションマスクおよび三次元セグメンテーションマスクは、特徴抽出器および分類器を使用して改良され、その後(例えば、平均または他の統計関数を使用して)組み合わされて、全てのピクセルおよびボクセルが分類された最終マスク画像を生成してもよく、分類されたピクセルおよびボクセルに基づいて、セグメンテーションアウトライン、ボーダー、透明パッチなどが、指定されたセグメント(例えば、腫瘍組織)の周りおよび/または上に重ねられる。
CNNアーキテクチャが、1つまたは複数の二次元セグメンテーションモデルおよび複数の三次元セグメンテーションモデルを使用する場合、CNNアーキテクチャは、PETスキャンおよびCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットで描写される領域または身体を、複数の解剖学的領域に、例えば頭頚部、胸部、腹部・骨盤を含む3つの領域に分割してもよい。CNNアーキテクチャは、PETスキャンおよびCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットでキャプチャされた領域または身体の構成要素の位置を基準点として自動的に査定し、基準点を使用して、領域または身体を複数の解剖学的領域に分割する。その後、CNNアーキテクチャは、複数の解剖学的領域に対して位置ラベルを生成し、位置ラベルを二次元セグメンテーションマスク内に組み込んでもよい。二次元セグメンテーションマスク内のセグメントと関連付けられた画像パッチは、異なる三次元セグメンテーションモデル(アーキテクチャを共有してもよいが、異なる学習済みパラメータを有する)によって処理される、複数の解剖学的領域および画像それぞれに分割することができる。
ブロック620で、TMTVは最終マスク画像から抽出されてもよい。いくつかの例では、CNNアーキテクチャは、PETスキャンからのSUV値を含む、PETスキャンおよびCTまたはMRIスキャンから抽出した特徴に基づいて、各解剖学的領域内の腫瘍をセグメント化する。代謝腫瘍体積(MTV)は、セグメント化された各腫瘍に対して決定されてもよい。所与の対象に対するTMTVは、セグメント化された腫瘍全てから決定されてもよく、個々のMTV全ての合計を表す。
ブロック625で、TMTVが出力される。例えば、TMTVは、別のデバイスに対して局所的に提示または送信されてもよい。TMTVは、対象の識別子とともに出力されてもよい。いくつかの例では、TMTVは、最終マスク画像、ならびに/あるいはTMTVの抽出に寄与した画像領域、特徴、および/または検出を特定する他の情報とともに出力される。その後、抽出されたTMTVに基づいて、診断が提供されてもよく、ならびに/あるいは対象に治療が施されてもよく、または対象に治療が施されていてもよい。
図7は、様々な実施形態による、対象の無増悪生存(PFS)の尤度、治療の臨床効率、対象の病期、および/または対象を治験に含む選択決定を予測するプロセス700を示している。
プロセス700は、ブロック705で始まり、対象の複数のPET(またはSPECT)スキャン(例えば、FDG-PETスキャン)および対象の複数のCTまたはMRIスキャンにアクセスされる。PETスキャンおよび対応するCTまたはMRIスキャンは、対象の身体の少なくとも一部または対象の全身を描写することができる。例えば、PETスキャンおよび対応するCTまたはMRIスキャンは、肺、肝臓、脳、心臓、またはそれらの組合せを含む、身体の1つまたは複数の臓器を描写してもよい。任意に、ブロック710で、PETスキャンおよび対応するCTまたはMRIスキャンは、身体のスライス(例えば、環状、軸方向、および矢状スライス)または領域に対する標準化画像またはスキャンのサブセットを生成するように、前処理されてもよい。
ブロック715で、CNNアーキテクチャを使用して、PETスキャンおよび対応するCTまたはMRIスキャンが出力(例えば、最終マスク画像)に変換される。いくつかの実施形態では、CNNアーキテクチャは、本明細書に詳細に記載するような、修正されたUネットなど、1つまたは複数の二次元セグメンテーションモデルを含む。二次元セグメンテーションモデルは、PETスキャンおよび対応するCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットから、二次元セグメンテーションマスクを生成するように構成される。二次元セグメンテーションモデルは複数の残差ブロックを使用し、各残差ブロックは、PETスキャンおよび対応するCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットに対して、分離可能な畳み込みおよび複数の拡大を有して、二次元セグメンテーションマスクを生成する。二次元セグメンテーションマスクは、特徴抽出器および分類器を使用して改良され、その後(例えば、平均または他の統計関数を使用して)組み合わされて、全てのピクセルが分類された最終マスク画像を生成してもよく、分類されたピクセルに基づいて、セグメンテーションアウトライン、ボーダー、透明パッチなどが、指定されたセグメント(例えば、腫瘍組織)の周りおよび/または上に重ねられる。
他の実施形態では、CNNアーキテクチャは、本明細書に詳細に記載するような、1つまたは複数の二次元セグメンテーションモデルおよび複数の三次元セグメンテーションモデルを含む。二次元セグメンテーションモデルは、PETスキャンおよび対応するCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットから、二次元セグメンテーションマスクを生成するように構成される。三次元セグメンテーションモデルは、PETスキャンおよび対応するCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットから、三次元セグメンテーションマスクを生成するように構成される。三次元セグメンテーションモデルは、残差接続およびマルチターム損失を、PETスキャンおよび対応するCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットに対して使用して、三次元セグメンテーションマスクを生成してもよい。二次元セグメンテーションマスクおよび三次元セグメンテーションマスクは、特徴抽出器および分類器を使用して改良され、その後(例えば、平均または他の統計関数を使用して)組み合わされて、全てのピクセルおよびボクセルが分類された最終マスク画像を生成してもよく、分類されたピクセルおよびボクセルに基づいて、セグメンテーションアウトライン、ボーダー、透明パッチなどが、指定されたセグメント(例えば、腫瘍組織)の周りおよび/または上に重ねられる。
CNNアーキテクチャが、1つまたは複数の二次元セグメンテーションモデルおよび複数の三次元セグメンテーションモデルを使用する場合、CNNアーキテクチャは、PETスキャンおよびCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットで描写される領域または身体を、複数の解剖学的領域に、例えば頭頚部、胸部、腹部・骨盤を含む3つの領域に分割してもよい。CNNアーキテクチャは、PETスキャンおよびCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットでキャプチャされた領域または身体の構成要素の位置を基準点として自動的に査定し、基準点を使用して、領域または身体を複数の解剖学的領域に分割する。その後、CNNアーキテクチャは、複数の解剖学的領域に対して位置ラベルを生成し、位置ラベルを二次元セグメンテーションマスク内に組み込んでもよい。二次元セグメンテーションマスク内のセグメントと関連付けられた画像パッチは、異なる三次元セグメンテーションモデル(アーキテクチャを共有してもよいが、異なる学習済みパラメータを有する)によって処理される、複数の解剖学的領域および画像それぞれに分割することができる。
任意に、ブロック720で、別個の三次元CNNを使用して、PETスキャンおよび対応するCTまたはMRIスキャンが、臓器セグメンテーションと関連付けられた出力に変換される。三次元CNNは、PETスキャンおよび対応するCTスキャンから三次元臓器マスクを生成するように構成された、三次元セグメンテーションモデルを含んでもよい。三次元セグメンテーションモデルは、ダウンサンプリングおよびアップサンプリングサブネットワークを使用してもよく、スキップ接続を用いて、より高い分解能情報を伝播して三次元臓器マスクを生成する。
ブロック725で、TMTVは最終マスク画像から抽出されてもよい。いくつかの例では、CNNアーキテクチャは、PETスキャンからのSUV値を含む、PETスキャンおよびCTまたはMRIスキャンから抽出した特徴に基づいて、各解剖学的領域内の腫瘍をセグメント化する。代謝腫瘍体積(MTV)は、セグメント化された腫瘍それぞれに対して決定されてもよい。所与の対象のTMTVは、全てのセグメント化された腫瘍から決定されてもよく、個々のMTV全ての合計を表す。任意に、臓器ごとのMTVおよび病巣の数(例えば、病巣の数>1mL)など、臓器特異的な測定値は、最終マスク画像および三次元臓器マスクから抽出されてもよい。臓器の病変は、ノイズ低減の目的で、自動化臓器MTV>0.1mLとして規定されてもよい。
ブロック730で、抽出されたTMTV、(例えば、各器官の)抽出されたMTV、および臓器ごとの病巣数のうち1つまたは複数が分類器に入力されて、対象に対する臨床予測が生成される。いくつかの例では、臨床予測測定基準は、最終マスク出力および/または抽出されたTMTVの少なくとも一部を入力として使用する、分類器の出力として得られる。他の例では、臨床予測測定基準は、三次元臓器マスク出力、抽出されたMTV、および/または病巣の数の少なくとも一部のうち1つまたは複数を入力とする、分類器の出力として得られる。臨床予測測定基準は臨床予測に対応し得る。いくつかの例では、臨床予測は、対象の無増悪生存(PFS)の尤度、対象の病期、および/または対象を治験に含む選択決定である。PFSを査定するのにカプランマイヤー分析が使用されてもよく、臓器特異的な病変の予後値を推定するのに、コックス比例ハザードモデルが使用されてもよい。
ブロック735で、臨床予測が出力される。例えば、臨床予測は、別のデバイスに対して局所的に提示または送信されてもよい。臨床予測は、対象の識別子とともに出力されてもよい。いくつかの例では、臨床予測は、TMTV、TMV、病巣の数、最終マスク出力、三次元臓器マスク出力、ならびに/あるいは臨床予測に寄与した画像領域、特徴、および/または検出を特定する他の情報とともに出力される。その後、診断が提供されてもよく、ならびに/あるいは対象に治療が施されてもよく、または対象に臨床予測に基づいて治療が施されていてもよい。
図8は、様々な実施形態による、リンパ腫を病期分類するルガノ分類を含んでもよい、自動化治療終了時応答査定を提供するプロセス800を示している。
プロセス800は、ブロック805で始まり、対象の複数のPET(またはSPECT)スキャン(例えば、FDG-PETスキャン)および対象の複数のCTまたはMRIスキャンにアクセスされる。PETスキャンおよび対応するCTまたはMRIスキャンは、対象の身体の少なくとも一部または対象の全身を描写することができる。例えば、PETスキャンおよび対応するCTまたはMRIスキャンは、肺、肝臓、脳、心臓、またはそれらの組合せを含む、身体の1つまたは複数の臓器を描写してもよい。任意に、ブロック810で、PETスキャンおよび対応するCTまたはMRIスキャンは、身体のスライス(例えば、環状、軸方向、および矢状スライス)または領域に対する標準化画像またはスキャンのサブセットを生成するように、前処理されてもよい。
ブロック815で、CNNアーキテクチャを使用して、PETスキャンおよび対応するCTまたはMRIスキャンが出力(例えば、最終マスク画像)に変換される。いくつかの実施形態では、CNNアーキテクチャは、本明細書に詳細に記載するような、修正されたUネットなど、1つまたは複数の二次元セグメンテーションモデルを含む。二次元セグメンテーションモデルは、PETスキャンおよび対応するCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットから、二次元セグメンテーションマスクを生成するように構成される。二次元セグメンテーションモデルは複数の残差ブロックを使用し、各残差ブロックは、PETスキャンおよび対応するCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットに対して、分離可能な畳み込みおよび複数の拡大を有して、二次元セグメンテーションマスクを生成する。二次元セグメンテーションマスクは、特徴抽出器および分類器を使用して改良され、その後(例えば、平均または他の統計関数を使用して)組み合わされて、全てのピクセルが分類された最終マスク画像を生成してもよく、分類されたピクセルに基づいて、セグメンテーションアウトライン、ボーダー、透明パッチなどが、指定されたセグメント(例えば、腫瘍組織)の周りおよび/または上に重ねられる。
他の実施形態では、CNNアーキテクチャは、本明細書に詳細に記載するような、1つまたは複数の二次元セグメンテーションモデルおよび複数の三次元セグメンテーションモデルを含む。二次元セグメンテーションモデルは、PETスキャンおよび対応するCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットから、二次元セグメンテーションマスクを生成するように構成される。三次元セグメンテーションモデルは、PETスキャンおよび対応するCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットから、三次元セグメンテーションマスクを生成するように構成される。三次元セグメンテーションモデルは、残差接続およびマルチターム損失を、PETスキャンおよび対応するCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットに対して使用して、三次元セグメンテーションマスクを生成してもよい。二次元セグメンテーションマスクおよび三次元セグメンテーションマスクは、特徴抽出器および分類器を使用して改良され、その後(例えば、平均または他の統計関数を使用して)組み合わされて、全てのピクセルおよびボクセルが分類された最終マスク画像を生成してもよく、分類されたピクセルおよびボクセルに基づいて、セグメンテーションアウトライン、ボーダー、透明パッチなどが、指定されたセグメント(例えば、腫瘍組織)の周りおよび/または上に重ねられる。
CNNアーキテクチャが、1つまたは複数の二次元セグメンテーションモデルおよび複数の三次元セグメンテーションモデルを使用する場合、CNNアーキテクチャは、PETスキャンおよびCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットで描写される領域または身体を、複数の解剖学的領域に、例えば頭頚部、胸部、腹部・骨盤を含む3つの領域に分割してもよい。CNNアーキテクチャは、PETスキャンおよびCTもしくはMRIスキャン、または標準化画像もしくはスキャンのサブセットでキャプチャされた領域または身体の構成要素の位置を基準点として自動的に査定し、基準点を使用して、領域または身体を複数の解剖学的領域に分割する。その後、CNNアーキテクチャは、複数の解剖学的領域に対して位置ラベルを生成し、位置ラベルを二次元セグメンテーションマスクに組み込んでもよい。二次元セグメンテーションマスク内のセグメントと関連付けられた画像パッチは、異なる三次元セグメンテーションモデル(アーキテクチャを共有してもよいが、異なる学習済みパラメータを有する)によって処理される、複数の解剖学的領域および画像それぞれに分割することができる。
ブロック820で、TMTVは最終マスク画像から抽出されてもよい。いくつかの例では、CNNアーキテクチャは、PETスキャンからのSUV値を含む、PETスキャンおよびCTまたはMRIスキャンから抽出した特徴に基づいて、各解剖学的領域内の腫瘍をセグメント化する。代謝腫瘍体積(MTV)は、セグメント化された腫瘍それぞれに対して決定されてもよい。所与の対象のTMTVは、全てのセグメント化された腫瘍から決定されてもよく、個々のMTV全ての合計を表す。
ブロック825で、抽出されたTMTVが分類器に入力されて、TMTVに基づいて自動化治療終了応答査定が生成される。自動化治療終了応答査定は、腫瘍の予測された現在または将来の発生、進行の速度または程度に対応することができる。自動化治療終了応答査定は、特定の尺度(例えば、腫瘍悪性度)に沿った(例えば)進行スコアを含んでもよい。いくつかの例では、自動化治療終了応答査定および/または出力は、既定の時点およびベースライン時点における進行スコアの差を含む。いくつかの例では、自動化治療終了応答査定および/または出力は、対象の腫瘍が既定の期間内に少なくとも既定の量進行するか否かに関する予測を表すバイナリ値など、バイナリインジケータを含む。いくつかの例では、自動化治療終了応答査定は、リンパ腫を病期分類するルガノ分類に対する予測を含む。
ブロック830で、自動化治療終了応答査定が出力される。例えば、自動化治療終了応答査定は、別のデバイスに対して局所的に提示または送信されてもよい。自動化治療終了応答査定は、対象の識別子とともに出力されてもよい。いくつかの例では、自動化治療終了応答査定は、TMTV、最終マスク出力、ならびに/あるいは自動化治療終了応答査定に寄与した画像領域、特徴、および/または検出を特定する他の情報とともに出力される。その後、診断が提供されてもよく、ならびに/あるいは対象に治療が施されてもよく、または対象に自動化治療終了応答査定に基づいて治療が施されていてもよい。
V.実施例
様々な実施形態で実現されるシステムおよび方法は、以下の実施例を参照することによってより良く理解することができる。
V.A.実施例1-びまん性大細胞型b細胞リンパ腫および濾胞性リンパ腫における総代謝腫瘍量の全自動測定
FDG-PET/CTスキャンによるベースラインTMTVは、びまん性大細胞型b細胞リンパ腫(DLBCL)および濾胞性リンパ腫(FL)など、リンパ腫における無増悪生存の予後として示される。
V.B.データ
データセットは、リンパ腫および肺がん対象の150万を超える画像の、複数の部位から収集された合計3,506件の全身(胸部・腹部・骨盤を含む)FDG-PET/CTスキャンで構成される。このデータセットは、1595件の完全グランドトゥルースを有する非ホジキンリンパ腫対象、1133件のDLBCL対象および562件のFL対象、ならびに158件の部分グランドトゥルースを有する非小細胞肺がん(NSCLC)対象のスキャンを含む。データはDICOMフォーマットで格納した。
NHLの対象における2つのフェーズ3治験(Goya、N=1401、NCT01287741;および、Gallium、N=595、NCT01332968)からデータを得た。FDG-PETで画像診断し、三次元腫瘍輪郭を半自動的に規定した。前処理後、合計870件(Goyaのみ)のベースラインスキャンおよび関連するセグメンテーションマスクを、アルゴリズム訓練に使用した。それに加えて、別の一組の無作為に選択した400件のデータセット(Goya250件、Gallium150件)を試験目的で提供した。
V.C.前処理
前処理には、PETスキャンおよびCTスキャン、2×2×2mmの等方性ボクセルサイズを得るための再サンプリングスキャン、ならびにDICOMヘッダの情報を使用してPETのためのSUVを導き出すことを含めた。セグメンテーションマスクは、CNNアーキテクチャを訓練するためのグランドトゥルースとして、RTStructファイルから再構築した。
1133件のDLBCL対象を訓練データセットとして使用した。これには、合計で861,053件の冠状スライス、770,406件の矢状スライス、および971,265件の軸方向スライス、ならびに13,942件の個々の腫瘍を含む。試験セットは、合計で1066件のFL対象のスキャンと、316件のNSCLC対象スキャンとで構成された。
2つの理由から、この分割を採用し、データのかかる大部分を試験用に保持した。1つの懸念事項は、モデルを別のタイプのがんにまで拡張できるのを検証できることであった。そのため、全ての濾胞性リンパ腫対象を試験セットに保持した。それに加えて、データセットの肺がん対象用には、最大5つの病巣のみをセグメント化していた。その結果、偽陰性のデータに対する訓練を回避するために、これらのスキャンは訓練セットからは除外し、これらのスキャンに対するアルゴリズムの性能を検証するのに感度を使用していた。
V.D.訓練手順
最良のハイパーパラメータセットを決定するために、実験を実施した。学習率にばらつきを持たせ(疎密調整)、各ネットワークに対して可変の学習率(コサインアニーリング)を試験した。二次元CNNの場合、実験には、3×3および5×5の2つのカーネルサイズの試験を含めたが、5×5のカーネルサイズは性能の向上には結び付かず、モデルの速度を遅くする。また、Uネットの最適深さを決定する実験を実施した。深さを6から7に増加させても性能測定基準は改善しなかった。軸方向スライスに対する予測は、高活性を多数の偽陽性(例えば、腎臓、心臓、膀胱)に結び付くため、除去した。
冠状面からの画像またはスキャンの処理と関連付けられた二次元ネットワーク、および矢状面からの画像またはスキャンの処理と関連付けられた二次元ネットワークを、RMSProp最適化装置、160,000回の反復、およびバッチサイズ8を使用して、2つのNvidia Quadro P6000グラフィック処理装置(GPU)において訓練した。学習率は、80,000回の反復に対して1e-5でセットし、各20,000回の反復後に2で割った。80%を超えるスライスがいかなる腫瘍も有していない。ヌル予測に収束するのを回避するため、データセットを再均衡させて、健康なスライスが約10%の比率(各ビューに対して98,000件の訓練スライス)に達するようにした。
Vネットは、最適化装置(例えば、Bauer C,Sun S,Sun W,et.al.Automated measurement of uptake in cerebellum,liver,and aortic arch in full-body FDG PET/CT scans.Med Phys.2012;39(6):3112-23,https://doi.org/10.1118/1.4711815に開示される、最適化装置)、学習率1e-4を使用して、200,000回の反復に対して訓練し、学習率は、100,000回の反復に対して1e-4、50,000回の反復に対して1e-4=2、および50,000回の反復に対して1e-4=4をセットした。
腫瘍は手動でセグメント化し、有資格の放射線科医が相互評価した。放射線科医の腫瘍セグメンテーションと比較して、モデルは、1,470スキャンの試験セットに対して92.7%の平均ボクセル感度、および1,064スキャンに対して88.6%の三次元ダイスコアを報告している。
V.E.セグメンテーション結果
三次元セグメンテーションを実施するため、モデルは、本明細書で考察する二次元セグメンテーションモデルから得られる、二次元セグメンテーションマスクにおいて特定されたセグメントと関連付けられた、画像データのパッチを使用する。FDG-PETおよびCTまたはMRIの両方が、CNNアーキテクチャに対する入力として使用される。二次元セグメンテーションマスクにおいて接続された構成要素は、肝臓および胸部内の基準に対するそれらの相対位置に応じてラベリングされる。それらの解剖学的領域それぞれに対して、別個のVネットを使用して二次元セグメンテーションを改良した。一例の実施形態では、ネットワークは、4つのダウンサンプリングブロックと3つのアップサンプリングブロックとを含み、レイヤはReLuアクティベーションおよび3×3×3のカーネルサイズを使用する。この例示の実施形態では、パッチは、頭部または頚部では32×32×32×2、胸部では64×64×64×2、腹部では96×96×96×2である。
セグメンテーション結果が表1および図9A~図9Fに提示されている。図9A~図9Fでは、各部分図について、この例示の実施形態にしたがって、左側がグランドトゥルース、右側が予測である。CTおよびSUVの両方が入力として使用されて、各モダリティによって提供される構造情報および代謝情報を活用する。図9A~図9Fに示される例では、入力サイズは448×512×2である。第1のレイヤの畳み込みの数は8であり、ダウンサンプリングブロックに沿って2倍にされる。冠状面および矢状面それぞれに対して、別個のネットワークが使用された。これらの肺がんスキャンの例では、最大5つのみの病巣がセグメント化されているので、これらのスキャンの感度が報告されている。方法は、手動の介入に頼る従来のアルゴリズムよりも正確である(DSCはそれぞれ0.732と0.85)。方法は、全身FDG-PET/CTスキャンに適用可能であり、モデルがDLBCL対象に対して訓練されている場合は、FL対象およびNSCLC対象に移行させることができる。
V.F.総代謝腫瘍体積およびSUVmaxの比較
図10Aおよび図10Bは、この例示の実施形態による、予測されたマスクからの腫瘍体積およびSUVmaxをそれぞれ示している。腫瘍体積およびSUVmaxは予後値を有するものとして示されている。具体的には、アルゴリズム予測TMTV値に対するk平均クラスタ化によって、低速からより高速のPFSを有するシグネチャが特定された。k平均の方策で、予測されたベースラインTMTVに基づいて、4つの別個のクラスタが特定された。図11Aおよび図11Bは、例示の実施形態による、予後に対するTMTVの関連性を示す、これらのクラスタのカプランマイヤー推定量を示している。対象レベルでは、これらのクラスタは、単純なTMTV四分位または最大SUVまたは総腫瘍代謝量を使用するクラスタよりも弁別的であった。図12Aおよび図12Bは、自動化TMTVが手動TMTV査定と一致するベースラインの予後測定基準を提供することを示している。これらの予後測定基準を自動的かつ正確に定量化できることによって、他の臨床マーカーと迅速に統合することが可能になり、治験の層別化、および時間とコストの削減が容易になり得る。図13Aおよび図13Bは、ベースラインTMTVがNSCLCおよび黒色腫の予後であることを示している。
V.G.実施例2-びまん性大細胞型b細胞リンパ腫および濾胞性リンパ腫における節外性病変の自動化査定の独立した予後値
DLBCLおよびFLにおいてFDG-PET/CTによって検出されるような、節外性疾患の存在は、不十分な成果と関連付けられる。FDG-PET/CTを使用して腫瘍を検出し、リンパ腫の代謝活性を査定するのには、正確で再現可能な定量的画像読影ツールが必要である。本明細書で考察する様々な態様によれば、モデルアーキテクチャは、PET/CT画像における完全自動化腫瘍および臓器セグメンテーション、ならびに臓器(肝臓、脾臓、および腎臓)特異的な代謝腫瘍量に基づいた、DLBCLおよびFLを有する対象の予後診断のために提供される。
V.H.データ
データセットは、合計で、DLBCLにおけるGOYA研究(NCT01287741)からの1,139件の治療前PET/CTスキャンと、FLにおけるGALLIUM研究(NCT01332968)からの541件の治療前スキャンとで構成される。データはDICOMフォーマットで格納した。
V.I.方法
二次元および三次元カスケード畳み込みニューラルネットワークを備える画像処理パイプラインを、GOYAデータセットに対して訓練し、GALLIUMデータセットで試験して腫瘍セグメンテーションを行った。三次元カスケード畳み込みニューラルネットワークはまた、肝臓、脾臓、および腎臓セグメンテーション(それぞれ、検証DSC=0.94、0.95、および0.91)に関して、公衆利用可能なデータセットに対して訓練を行った。セグメンテーションにより、脾臓、肝臓、および腎臓に関して、総代謝腫瘍体積(TMTV)の抽出および臓器特異的な測定が可能になった(代謝腫瘍体積[MTV]および病巣の数>1mL)。臓器の病変は、ノイズ低減の目的で、自動化臓器MTV>0.1mLとして規定された。無増悪生存(PFS)を査定するのにカプランマイヤー分析が使用され、臓器特異的な病変の予後値を推定するのに、コックス比例ハザードモデルが使用された。
V.J.結果
GOYA研究からの治療前PET/CTスキャンの自動化解析により、肝臓および/または脾臓内における≧2の病巣>1mLの存在は、単変量解析におけるより低いPFSと関連付けられることが示された(ハザード比HR=1.73、95%信頼区間CI=1.29~2.32、p=0.0002)。この関連性は、TMTV>中央値および肝臓/脾臓内の≧2の病巣(HR=1.52、95%CI=1.10~2.07、p=0.009)に対して調節した後、また国際予後指標(IPI)、起始細胞(COO)、およびイメージング由来の特徴(≧2の節外部位、HR=1.49、95%CI=1.02~2.18、p=0.037)に対して調節した後、多変量解析で維持された。カプランマイヤー分析でも、節外性の病変(肝臓および/または脾臓内の≧2の節外性病巣)がGOYAにおける不十分なPFSと顕著に関連付けられることが実証された(図14A)。肝臓および腎臓の病変は両方とも、DLBCLにおける単変量解析(それぞれ、HR=1.48、95%CI=1.13~1.94、p=0.004、およびHR=1.44、95%CI=1.08~1.91、p=0.013、ならびに図14Bおよび図14C)により、予後であったが、脾臓の病変は予後ではなかった。多変量解析でも、イメージング由来の因子に対する調節を行う際、PFSに関する肝臓および腎臓の病変の予後値が確認された(それぞれ、HR=1.40、95%CI=1.06~1.85、p=0.017、およびHR=1.34、95%CI=1.00~1.80、p=0.049)。
GALLIUM研究からのFLを有する対象では、肝臓および/または脾臓の≧2の病巣>1mLは、単変量解析(HR=1.61、95%CI=1.09~2.38、p=0.017)によって、またカプランマイヤー分析によってPFSと関連付けられた(図14D)。肝臓および脾臓の病変は両方とも、単変量解析(それぞれ、HR=1.64、95%CI=1.12~2.38、p=0.010、およびHR=1.67、95%CI=1.16~2.40、p=0.006、ならびに図14Eおよび図14F)により、予後であったが、FLにおいて腎臓の病変は予後ではなかった。イメージング由来の特徴を調節する際、多変量解析により、脾臓の病変はPFSに関して予後のままである(HR=1.51、95%CI=1.03~2.21、p=0.034)ことが示されたが、肝臓の病変は顕著な関係性がなくなっていた(HR=1.44、95%CI=0.97~2.14、p=0.068)。濾胞性リンパ腫国際予後指標(FLIPI)を調節する際、肝臓の病変は予後のままであった(HR=1.52、95%CI=1.03~2.23、p=0.036)。
GOYAからのDLBCLを有する対象では、PET/CTの自動化解析により、肝臓および/または脾臓内における≧2の節外性の病巣の存在は、独立予後因子であり、予後値をTMTV>中央値、IPI、およびCOOに加えることが実証された。DLBCLにおいて脾臓の病変のみが予後ではなかった。FLを有する対象では、節外性の病変(肝臓および/または脾臓において≧2の病巣)、および脾臓の病巣の存在は、独立予後因子であった。
VI.追加の検討事項
本開示のいくつかの実施形態は、1つまたは複数のデータプロセッサを含むシステムを含む。いくつかの実施形態では、システムは、1つまたは複数のデータプロセッサで実行されると、1つまたは複数のデータプロセッサに、本明細書に開示する1つまたは複数の方法の一部もしくは全てならびに/あるいは1つまたは複数のプロセスの一部もしくは全てを実施させる命令を含む、非一時的コンピュータ可読記憶媒体を含む。本開示のいくつかの実施形態は、1つまたは複数のデータプロセッサに、本明細書に開示する1つまたは複数の方法の一部もしくは全てならびに/あるいは1つまたは複数のプロセスの一部もしくは全てを実施させるように構成された命令を含む、非一時的機械可読記憶媒体において有形的に具体化されたコンピュータプログラム製品を含む。
用いられている用語および表現は、説明の用語として非限定的に使用されるものであり、かかる用語および表現の使用において、図示され記載される特徴およびそれらの部分のいかなる等価物も除外しようとするものではなく、請求される発明の範囲内で様々な修正が可能であることが認識される。したがって、請求される本発明は実施形態および任意の特徴によって具体的に開示されているが、本明細書に開示する概念の修正および変形を当業者であれば用いることができ、かかる修正および変形は、添付の特許請求の範囲によって定義される本発明の範囲内にあるとみなされることが理解されるべきである。
次に続く記載は好ましい例示的実施形態のみを提供するものであり、本開示の範囲、適用可能性、または構成を限定しようとするものではない。それよりもむしろ、好ましい例示的実施形態の次に続く記載は、様々な実施形態を実現するのを可能にする記載を当業者に提供する。添付の特許請求の範囲に記述される趣旨および範囲から逸脱することなく、要素の機能および配置の様々な変更が行われてもよいことが理解される。
実施形態の徹底した理解を提供するため、具体的な詳細が以下の記載において付与される。しかしながら、実施形態はこれらの具体的な詳細なしに実践されてもよいことが理解されるであろう。例えば、回路、システム、ネットワーク、プロセス、および他の構成要素は、不要な詳細で実施形態を不明瞭にしないように、ブロック図の形態で構成要素として示されることがある。他の例では、良く知られている回路、プロセス、アルゴリズム、構造、および技術は、実施形態を不明瞭にするのを回避するために、不要な詳細なしで示されることがある。

Claims (39)

  1. 対象の複数の陽電子放射断層撮影(PET)スキャンおよび複数のコンピュータ断層撮影(CT)または磁気共鳴イメージング(MRI)スキャンを取得することと、
    前記PETスキャンおよび前記CTまたはMRIスキャンを前処理して、前記対象の第1の面または領域に対する標準化画像の第1のサブセットと前記対象の第2の面または領域に対する標準化画像の第2のサブセットとを生成することであって、前記標準化画像の第1のサブセットおよび前記標準化画像の第2のサブセットが前記PETスキャンおよび前記CTまたはMRIスキャンからの情報を組み込む、前記標準化画像の第1のサブセットと第2のサブセットとを生成することと、
    前記標準化画像の第1のサブセットを入力とする畳み込みニューラルネットワークアーキテクチャの一部として実現される第1の二次元セグメンテーションモデルを使用して、第1の二次元セグメンテーションマスクを生成することであって、前記第1の二次元セグメンテーションモデルが、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第1のレイヤから複数レイヤ離れたレイヤに直接供給する、前記第1のレイヤを含む第1の残差ブロックを使用する、前記第1の二次元セグメンテーションマスクを生成することと、
    前記標準化画像の第2のサブセットを入力とする前記畳み込みニューラルネットワークアーキテクチャの一部として実現される第2の二次元セグメンテーションモデルを使用して、第2の二次元セグメンテーションマスクを生成することであって、前記第2の二次元セグメンテーションモデルが、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第2のレイヤから複数レイヤ離れたレイヤに直接供給する、前記第2のレイヤを含む第2の残差ブロックを使用する、前記第2の二次元セグメンテーションマスクを生成することと、
    前記第1の二次元セグメンテーションマスクおよび前記第2の二次元セグメンテーションマスクからの情報を組み合わせることによって、最終の画像化されたマスクを生成することと、を含む、方法。
  2. 前記第1のレイヤおよび前記第2のレイヤが、1つまたは複数の拡大レベルで分離可能な畳み込みが実施されるピラミッドレイヤである、請求項1に記載の方法。
  3. (i)前記最終の画像化されたマスクを使用して、総代謝腫瘍量(TMTV)を決定することと、前記TMTVを提供すること;および/または
    (ii)前記PETスキャンおよび前記CTまたはMRIスキャンを入力とする三次元臓器セグメンテーションモデルを使用して、三次元臓器マスクを生成することと、
    前記最終の画像化されたマスクおよび前記三次元臓器マスクを使用して、前記三次元臓器セグメンテーションの1つまたは複数の臓器に関して、代謝腫瘍量(MTV)および病巣の数を決定することと、
    前記1つまたは複数の臓器に関する前記MTVおよび病巣の数を提供すること、
    を更に含む、請求項1または2に記載の方法。
  4. 前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数を入力とする分類器を使用して、前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数に基づいて前記対象に対する臨床予測を生成することを更に含み、
    前記臨床予測が、
    前記対象の無増悪生存(PFS)の尤度、
    前記対象の病期、および、
    前記対象を治験に含む選択決定、のうち1つである、請求項3に記載の方法。
  5. ユーザによって、前記対象の前記複数のPETスキャンおよびCTまたはMRIスキャンを、前記畳み込みニューラルネットワークアーキテクチャを備えるデータ処理システムに入力することと、
    前記最終の画像化されたマスクを提供することと、
    前記ユーザによって、前記最終の画像化されたマスク、前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数を、コンピューティングデバイスのディスプレイ上に受信することと、を更に含む、請求項3または4に記載の方法。
  6. 非一時的機械可読記憶媒体において有形的に具体化され、1つまたは複数のデータプロセッサに動作を実施させるように構成された命令を含む、コンピュータプログラム製品であって、前記動作が、
    対象の複数の陽電子放射断層撮影(PET)スキャンおよび複数のコンピュータ断層撮影(CT)または磁気共鳴イメージング(MRI)スキャンを取得することと、
    前記PETスキャンおよび前記CTまたはMRIスキャンを前処理して、前記対象の第1の面または領域に対する標準化画像の第1のサブセットと前記対象の第2の面または領域に対する標準化画像の第2のサブセットとを生成することであって、前記標準化画像の第1のサブセットおよび前記標準化画像の第2のサブセットが前記PETスキャンおよび前記CTまたはMRIスキャンからの情報を組み込む、前記標準化画像の第1のサブセットと第2のサブセットとを生成することと、
    前記標準化画像の第1のサブセットを入力とする畳み込みニューラルネットワークアーキテクチャの一部として実現される第1の二次元セグメンテーションモデルを使用して、第1の二次元セグメンテーションマスクを生成することであって、前記第1の二次元セグメンテーションモデルが、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第1のレイヤから複数レイヤ離れたレイヤに直接供給する、前記第1のレイヤを含む第1の残差ブロックを使用する、前記第1の二次元セグメンテーションマスクを生成することと、
    前記標準化画像の第2のサブセットを入力とする前記畳み込みニューラルネットワークアーキテクチャの一部として実現される第2の二次元セグメンテーションモデルを使用して、第2の二次元セグメンテーションマスクを生成することであって、前記第2の二次元セグメンテーションモデルが、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第2のレイヤから複数レイヤ離れたレイヤに直接供給する、前記第2のレイヤを含む第2の残差ブロックを使用する、前記第2の二次元セグメンテーションマスクを生成することと、
    前記第1の二次元セグメンテーションマスクおよび前記第2の二次元セグメンテーションマスクからの情報を組み合わせることによって、最終の画像化されたマスクを生成することと、を含む、コンピュータプログラム製品。
  7. 前記第1のレイヤおよび前記第2のレイヤが、1つまたは複数の拡大レベルで分離可能な畳み込みが実施されるピラミッドレイヤである、請求項に記載のコンピュータプログラム製品。
  8. 前記動作が、
    (i)前記最終の画像化されたマスクを使用して、総代謝腫瘍量(TMTV)を決定することと、前記TMTVを提供すること;および/または
    (ii)前記PETスキャンおよび前記CTまたはMRIスキャンを入力とする三次元臓器セグメンテーションモデルを使用して、三次元臓器マスクを生成することと、
    前記最終の画像化されたマスクおよび前記三次元臓器マスクを使用して、前記三次元臓器セグメンテーションの1つまたは複数の臓器に関して、代謝腫瘍量(MTV)および病巣の数を決定することと、
    前記1つまたは複数の臓器に関する前記MTVおよび病巣の数を提供すること、
    を更に含む、請求項またはに記載のコンピュータプログラム製品。
  9. 前記動作が、
    前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数を入力とする分類器を使用して、前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数に基づいて前記対象に対する臨床予測を生成することを更に含み、
    前記臨床予測が、
    前記対象の無増悪生存(PFS)の尤度、
    前記対象の病期、および、
    前記対象を治験に含む選択決定、のうち1つである、請求項に記載のコンピュータプログラム製品。
  10. 記対象の前記複数のPETスキャンおよびCTまたはMRIスキャンは、前記畳み込みニューラルネットワークアーキテクチャを備えるデータ処理システムに、ユーザによって入力され
    前記動作が、前記最終の画像化されたマスクを提供することを更に含み
    記最終の画像化されたマスク、前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数は、コンピューティングデバイスのディスプレイ上に受信される、請求項8または9に記載のコンピュータプログラム製品。
  11. 1つまたは複数のデータプロセッサと、
    前記1つまたは複数のデータプロセッサで実行されると、前記1つまたは複数のデータプロセッサに動作を実施させる命令を含む、非一時的コンピュータ可読記憶媒体と、を備え、前記動作が、
    対象の複数の陽電子放射断層撮影(PET)スキャンおよび複数のコンピュータ断層撮影(CT)または磁気共鳴イメージング(MRI)スキャンを取得することと、
    前記PETスキャンおよび前記CTまたはMRIスキャンを前処理して、前記対象の第1の面または領域に対する標準化画像の第1のサブセットと前記対象の第2の面または領域に対する標準化画像の第2のサブセットとを生成することであって、前記標準化画像の第1のサブセットおよび前記標準化画像の第2のサブセットが前記PETスキャンおよび前記CTまたはMRIスキャンからの情報を組み込む、前記標準化画像の第1のサブセットと第2のサブセットとを生成することと、
    前記標準化画像の第1のサブセットを入力とする畳み込みニューラルネットワークアーキテクチャの一部として実現される第1の二次元セグメンテーションモデルを使用して、第1の二次元セグメンテーションマスクを生成することであって、前記第1の二次元セグメンテーションモデルが、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第1のレイヤから複数レイヤ離れたレイヤに直接供給する、前記第1のレイヤを含む第1の残差ブロックを使用する、前記第1の二次元セグメンテーションマスクを生成することと、
    前記標準化画像の第2のサブセットを入力とする前記畳み込みニューラルネットワークアーキテクチャの一部として実現される第2の二次元セグメンテーションモデルを使用して、第2の二次元セグメンテーションマスクを生成することであって、前記第2の二次元セグメンテーションモデルが、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第2のレイヤから複数レイヤ離れたレイヤに直接供給する、前記第2のレイヤを含む第2の残差ブロックを使用する、前記第2の二次元セグメンテーションマスクを生成することと、
    前記第1の二次元セグメンテーションマスクおよび前記第2の二次元セグメンテーションマスクからの情報を組み合わせることによって、最終の画像化されたマスクを生成することと、を含む、システム。
  12. 前記第1のレイヤおよび前記第2のレイヤが、1つまたは複数の拡大レベルで分離可能な畳み込みが実施されるピラミッドレイヤである、請求項11に記載のシステム。
  13. 前記動作が、
    (i)前記最終の画像化されたマスクを使用して、総代謝腫瘍量(TMTV)を決定することと、前記TMTVを提供すること;および/または
    (ii)前記PETスキャンおよび前記CTまたはMRIスキャンを入力とする三次元臓器セグメンテーションモデルを使用して、三次元臓器マスクを生成することと、
    前記最終の画像化されたマスクおよび前記三次元臓器マスクを使用して、前記三次元臓器セグメンテーションの1つまたは複数の臓器に関して、代謝腫瘍量(MTV)および病巣の数を決定することと、
    前記1つまたは複数の臓器に関する前記MTVおよび病巣の数を提供すること、
    を更に含む、請求項11または12に記載のシステム。
  14. 前記動作が、
    前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数を入力とする分類器を使用して、前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数に基づいて前記対象に対する臨床予測を生成することを更に含み、
    前記臨床予測が、
    前記対象の無増悪生存(PFS)の尤度、
    前記対象の病期、および、
    前記対象を治験に含む選択決定、のうち1つである、請求項13に記載のシステム。
  15. 記対象の前記複数のPETスキャンおよびCTまたはMRIスキャン、前記畳み込みニューラルネットワークアーキテクチャを備えるデータ処理システムにユーザによって入力され
    前記動作が、前記最終の画像化されたマスクを提供することを更に含み
    前記最終の画像化されたマスク、前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数、コンピューティングデバイスのディスプレイ上に受信される、請求項13または14に記載のシステム。
  16. 対象の複数の陽電子放射断層撮影(PET)スキャンおよび複数のコンピュータ断層撮影(CT)または磁気共鳴イメージング(MRI)スキャンを取得することと、
    前記PETスキャンおよび前記CTまたはMRIスキャンを前処理して、前記PETスキャンおよび前記CTまたはMRIスキャンからの情報を組み込んだ標準化画像を生成することと、
    前記標準化画像を入力とする畳み込みニューラルネットワークアーキテクチャの一部として実現される1つまたは複数の二次元セグメンテーションモデルを使用して、1つまたは複数の二次元セグメンテーションマスクを生成することと、
    前記二次元セグメンテーションマスクからのセグメントと関連付けられた画像データのパッチを入力とする前記畳み込みニューラルネットワークアーキテクチャの一部として実現される1つまたは複数の三次元セグメンテーションモデルを使用して、1つまたは複数の三次元セグメンテーションマスクを生成することと、
    前記1つまたは複数の二次元セグメンテーションマスクおよび前記1つまたは複数の三次元セグメンテーションマスクからの情報を組み合わせることによって、最終の画像化されたマスクを生成することと、を含む、方法。
  17. 前記1つまたは複数の三次元セグメンテーションモデルが、第1の三次元セグメンテーションモデルと第2の三次元セグメンテーションモデルとを含み、
    画像データの前記パッチが、第1のセグメントと関連付けられた画像データの第1のパッチと、第2のセグメントと関連付けられた画像データの第2のパッチとを含み、
    前記1つまたは複数の三次元セグメンテーションマスクの前記生成が、画像データの前記第1のパッチを入力とする前記第1の三次元セグメンテーションモデルを使用して、第1の三次元セグメンテーションマスクを生成することと、画像データの前記第2のパッチを入力とする前記第2の三次元セグメンテーションモデルを使用して、第2の三次元セグメンテーションマスクを生成することと、を含む、請求項16に記載の方法。
  18. 前記標準化画像においてキャプチャされた領域または身体の構成要素の位置を基準点として査定することと、
    前記基準点に基づいて、前記領域または身体を複数の解剖学的領域に分割することと、
    前記複数の解剖学的領域に対する位置ラベルを生成することと、
    前記位置ラベルを前記二次元セグメンテーションマスク内に組み込むことと、
    前記位置ラベルに基づいて、前記第1のセグメントが前記複数の解剖学的領域のうち第1の解剖学的領域内に位置すると判定することと、
    前記位置ラベルに基づいて、前記第2のセグメントが前記複数の解剖学的領域のうち第2の解剖学的領域内に位置すると判定することと、
    前記第1のセグメントが前記第1の解剖学的領域内に位置するとの前記判定に基づいて、前記第1のセグメントと関連付けられた画像データの前記第1のパッチを前記第1の三次元セグメンテーションマスクに入力することと、
    前記第2のセグメントが前記第2の解剖学的領域内に位置するとの前記判定に基づいて、前記第2のセグメントと関連付けられた画像データの前記第2のパッチを前記第2の三次元セグメンテーションマスクに入力することと、を更に含む、請求項17に記載の方法。
  19. 前記標準化画像が、前記対象の第1の面または領域に対する標準化画像の第1のサブセットと前記対象の第2の面または領域に対する標準化画像の第2のサブセットとを含み、前記標準化画像の第1のサブセットおよび前記標準化画像の第2のサブセットが前記PETスキャンおよび前記CTまたはMRIスキャンからの情報を組み込み、
    前記1つまたは複数の二次元セグメンテーションモデルが、第1の二次元セグメンテーションモデルと第2の二次元セグメンテーションモデルとを含み、
    前記1つまたは複数の二次元セグメンテーションマスクの前記生成が、
    前記標準化画像の第1のサブセットを入力とする実装される前記第1の二次元セグメンテーションモデルを使用して、第1の二次元セグメンテーションマスクを生成することであって、前記第1の二次元セグメンテーションモデルが、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第1のレイヤから複数レイヤ離れたレイヤに直接供給する、前記第1のレイヤを含む第1の残差ブロックを使用する、前記第1の二次元セグメンテーションマスクを生成することと、
    前記標準化画像の第2のサブセットを入力とする前記第2の二次元セグメンテーションモデルを使用して、第2の二次元セグメンテーションマスクを生成することであって、前記第2の二次元セグメンテーションモデルが、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第2のレイヤから複数レイヤ離れたレイヤに直接供給する、前記第2のレイヤを含む第2の残差ブロックを使用する、前記第2の二次元セグメンテーションマスクを生成することと、を含む、請求項1617、または18に記載の方法。
  20. 前記第1のレイヤおよび前記第2のレイヤが、1つまたは複数の拡大レベルで分離可能な畳み込みが実施されるピラミッドレイヤである、請求項19に記載の方法。
  21. (i)前記最終の画像化されたマスクを使用して、総代謝腫瘍量(TMTV)を決定することと、前記TMTVを提供すること;および/または
    (ii)前記PETスキャンおよび前記CTまたはMRIスキャンを入力とする三次元臓器セグメンテーションモデルを使用して、三次元臓器マスクを生成することと、
    前記最終の画像化されたマスクおよび前記三次元臓器マスクを使用して、前記三次元臓器セグメンテーションの1つまたは複数の臓器に関して、代謝腫瘍量(MTV)および病巣の数を決定することと、
    前記1つまたは複数の臓器に関する前記MTVおよび病巣の数を提供すること
    を更に含む、請求項16から20のいずれか一項に記載の方法。
  22. 前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数を入力とする分類器を使用して、前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数に基づいて前記対象に対する臨床予測を生成することを更に含み、
    前記臨床予測が、
    前記対象の無増悪生存(PFS)の尤度、
    前記対象の病期、および、
    前記対象を治験に含む選択決定、のうち1つである、請求項21に記載の方法。
  23. ユーザによって、前記対象の前記複数のPETスキャンおよびCTまたはMRIスキャンを、前記畳み込みニューラルネットワークアーキテクチャを備えるデータ処理システムに入力することと、
    前記最終の画像化されたマスクを提供することと、
    前記ユーザによって、前記最終の画像化されたマスク、前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数を、コンピューティングデバイスのディスプレイ上に受信することと、を更に含む、請求項21または22に記載の方法。
  24. 非一時的機械可読記憶媒体において有形的に具体化され、1つまたは複数のデータプロセッサに動作を実施させるように構成された命令を含む、コンピュータプログラム製品であって、前記動作が、
    対象の複数の陽電子放射断層撮影(PET)スキャンおよび複数のコンピュータ断層撮影(CT)または磁気共鳴イメージング(MRI)スキャンを取得することと、
    前記PETスキャンおよび前記CTまたはMRIスキャンを前処理して、前記PETスキャンおよび前記CTまたはMRIスキャンからの情報を組み込んだ標準化画像を生成することと、
    前記標準化画像を入力とする畳み込みニューラルネットワークアーキテクチャの一部として実現される1つまたは複数の二次元セグメンテーションモデルを使用して、1つまたは複数の二次元セグメンテーションマスクを生成することと、
    前記二次元セグメンテーションマスクからのセグメントと関連付けられた画像データのパッチを入力とする前記畳み込みニューラルネットワークアーキテクチャの一部として実現される1つまたは複数の三次元セグメンテーションモデルを使用して、1つまたは複数の三次元セグメンテーションマスクを生成することと、
    前記1つまたは複数の二次元セグメンテーションマスクおよび前記1つまたは複数の三次元セグメンテーションマスクからの情報を組み合わせることによって、最終の画像化されたマスクを生成することと、を含む、コンピュータプログラム製品。
  25. 前記1つまたは複数の三次元セグメンテーションモデルが、第1の三次元セグメンテーションモデルと第2の三次元セグメンテーションモデルとを含み、
    画像データの前記パッチが、第1のセグメントと関連付けられた画像データの第1のパッチと、第2のセグメントと関連付けられた画像データの第2のパッチとを含み、
    前記1つまたは複数の三次元セグメンテーションマスクの前記生成が、画像データの前記第1のパッチを入力とする前記第1の三次元セグメンテーションモデルを使用して、第1の三次元セグメンテーションマスクを生成することと、画像データの前記第2のパッチを入力とする前記第2の三次元セグメンテーションモデルを使用して、第2の三次元セグメンテーションマスクを生成することと、を含む、請求項24に記載のコンピュータプログラム製品。
  26. 前記動作が、
    前記標準化画像においてキャプチャされた領域または身体の構成要素の位置を基準点として査定することと、
    前記基準点に基づいて、前記領域または身体を複数の解剖学的領域に分割することと、
    前記複数の解剖学的領域に対する位置ラベルを生成することと、
    前記位置ラベルを前記二次元セグメンテーションマスク内に組み込むことと、
    前記位置ラベルに基づいて、前記第1のセグメントが前記複数の解剖学的領域のうち第1の解剖学的領域内に位置すると判定することと、
    前記位置ラベルに基づいて、前記第2のセグメントが前記複数の解剖学的領域のうち第2の解剖学的領域内に位置すると判定することと、
    前記第1のセグメントが前記第1の解剖学的領域内に位置するとの前記判定に基づいて、前記第1のセグメントと関連付けられた画像データの前記第1のパッチを前記第1の三次元セグメンテーションマスクに入力することと、
    前記第2のセグメントが前記第2の解剖学的領域内に位置するとの前記判定に基づいて、前記第2のセグメントと関連付けられた画像データの前記第2のパッチを前記第2の三次元セグメンテーションマスクに入力することと、を更に含む、請求項25に記載のコンピュータプログラム製品。
  27. 前記標準化画像が、前記対象の第1の面または領域に対する標準化画像の第1のサブセットと前記対象の第2の面または領域に対する標準化画像の第2のサブセットとを含み、前記標準化画像の第1のサブセットおよび前記標準化画像の第2のサブセットが前記PETスキャンおよび前記CTまたはMRIスキャンからの情報を組み込み、
    前記1つまたは複数の二次元セグメンテーションモデルが、第1の二次元セグメンテーションモデルと第2の二次元セグメンテーションモデルとを含み、
    前記1つまたは複数の二次元セグメンテーションマスクの前記生成が、
    前記標準化画像の第1のサブセットを入力とする前記第1の二次元セグメンテーションモデルを使用して、第1の二次元セグメンテーションマスクを生成することであって、前記第1の二次元セグメンテーションモデルが、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第1のレイヤから複数レイヤ離れたレイヤに直接供給する、前記第1のレイヤを含む第1の残差ブロックを使用する、前記第1の二次元セグメンテーションマスクを生成することと、
    前記標準化画像の第2のサブセットを入力とする前記第2の二次元セグメンテーションモデルを使用して、第2の二次元セグメンテーションマスクを生成することであって、前記第2の二次元セグメンテーションモデルが、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第2のレイヤから複数レイヤ離れたレイヤに直接供給する、前記第2のレイヤを含む第2の残差ブロックを使用する、前記第2の二次元セグメンテーションマスクを生成することと、を含む、請求項2425、または26に記載のコンピュータプログラム製品。
  28. 前記第1のレイヤおよび前記第2のレイヤが、1つまたは複数の拡大レベルで分離可能な畳み込みが実施されるピラミッドレイヤである、請求項27に記載のコンピュータプログラム製品。
  29. 前記動作が、
    (i)前記最終の画像化されたマスクを使用して、総代謝腫瘍量(TMTV)を決定することと、前記TMTVを提供すること;および/または
    (ii)前記PETスキャンおよび前記CTまたはMRIスキャンを入力とする三次元臓器セグメンテーションモデルを使用して、三次元臓器マスクを生成することと、
    前記最終の画像化されたマスクおよび前記三次元臓器マスクを使用して、前記三次元臓器セグメンテーションの1つまたは複数の臓器に関して、代謝腫瘍量(MTV)および病巣の数を決定することと、
    前記1つまたは複数の臓器に関する前記MTVおよび病巣の数を提供すること
    を更に含む、請求項24から28のいずれか一項に記載のコンピュータプログラム製品。
  30. 前記動作が、
    前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数を入力とする分類器を使用して、前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数に基づいて前記対象に対する臨床予測を生成することを更に含み、
    前記臨床予測が、
    前記対象の無増悪生存(PFS)の尤度、
    前記対象の病期、および、
    前記対象を治験に含む選択決定、のうち1つである、請求項29に記載のコンピュータプログラム製品。
  31. 記対象の前記複数のPETスキャンおよびCTまたはMRIスキャン、前記畳み込みニューラルネットワークアーキテクチャを備えるデータ処理システムに、ユーザによって入力され
    前記動作が、前記最終の画像化されたマスクを提供することを更に含み
    記最終の画像化されたマスク、前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数、コンピューティングデバイスのディスプレイ上に受信される、請求項24から30のいずれか一項に記載のコンピュータプログラム製品。
  32. 1つまたは複数のデータプロセッサと、
    前記1つまたは複数のデータプロセッサで実行されると、前記1つまたは複数のデータプロセッサに動作を実施させる命令を含む、非一時的コンピュータ可読記憶媒体と、を備え、前記動作が、
    対象の複数の陽電子放射断層撮影(PET)スキャンおよび複数のコンピュータ断層撮影(CT)または磁気共鳴イメージング(MRI)スキャンを取得することと、
    前記PETスキャンおよび前記CTまたはMRIスキャンを前処理して、前記PETスキャンおよび前記CTまたはMRIスキャンからの情報を組み込んだ標準化画像を生成することと、
    前記標準化画像を入力とする畳み込みニューラルネットワークアーキテクチャの一部として実現される1つまたは複数の二次元セグメンテーションモデルを使用して、1つまたは複数の二次元セグメンテーションマスクを生成することと、
    前記二次元セグメンテーションマスクからのセグメントと関連付けられた画像データのパッチを入力とする前記畳み込みニューラルネットワークアーキテクチャの一部として実現される1つまたは複数の三次元セグメンテーションモデルを使用して、1つまたは複数の三次元セグメンテーションマスクを生成することと、
    前記1つまたは複数の二次元セグメンテーションマスクおよび前記1つまたは複数の三次元セグメンテーションマスクからの情報を組み合わせることによって、最終の画像化されたマスクを生成することと、を含む、システム。
  33. 前記1つまたは複数の三次元セグメンテーションモデルが、第1の三次元セグメンテーションモデルと第2の三次元セグメンテーションモデルとを含み、
    画像データの前記パッチが、第1のセグメントと関連付けられた画像データの第1のパッチと、第2のセグメントと関連付けられた画像データの第2のパッチとを含み、
    前記1つまたは複数の三次元セグメンテーションマスクの前記生成が、画像データの前記第1のパッチを入力とする前記第1の三次元セグメンテーションモデルを使用して、第1の三次元セグメンテーションマスクを生成することと、画像データの前記第2のパッチを入力とする前記第2の三次元セグメンテーションモデルを使用して、第2の三次元セグメンテーションマスクを生成することと、を含む、請求項32に記載のシステム。
  34. 前記動作が、
    前記標準化画像においてキャプチャされた領域または身体の構成要素の位置を基準点として査定することと、
    前記基準点に基づいて、前記領域または身体を複数の解剖学的領域に分割することと、
    前記複数の解剖学的領域に対する位置ラベルを生成することと、
    前記位置ラベルを前記二次元セグメンテーションマスク内に組み込むことと、
    前記位置ラベルに基づいて、前記第1のセグメントが前記複数の解剖学的領域のうち第1の解剖学的領域内に位置すると判定することと、
    前記位置ラベルに基づいて、前記第2のセグメントが前記複数の解剖学的領域のうち第2の解剖学的領域内に位置すると判定することと、
    前記第1のセグメントが前記第1の解剖学的領域内に位置するとの前記判定に基づいて、前記第1のセグメントと関連付けられた画像データの前記第1のパッチを前記第1の三次元セグメンテーションマスクに入力することと、
    前記第2のセグメントが前記第2の解剖学的領域内に位置するとの前記判定に基づいて、前記第2のセグメントと関連付けられた画像データの前記第2のパッチを前記第2の三次元セグメンテーションマスクに入力することと、を更に含む、請求項33に記載のシステム。
  35. 前記標準化画像が、前記対象の第1の面または領域に対する標準化画像の第1のサブセットと前記対象の第2の面または領域に対する標準化画像の第2のサブセットとを含み、前記標準化画像の第1のサブセットおよび前記標準化画像の第2のサブセットが前記PETスキャンおよび前記CTまたはMRIスキャンからの情報を組み込み、
    前記1つまたは複数の二次元セグメンテーションモデルが、第1の二次元セグメンテーションモデルと第2の二次元セグメンテーションモデルとを含み、
    前記1つまたは複数の二次元セグメンテーションマスクの前記生成が、
    前記標準化画像の第1のサブセットを入力とする前記第1の二次元セグメンテーションモデルを使用して、第1の二次元セグメンテーションマスクを生成することであって、前記第1の二次元セグメンテーションモデルが、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第1のレイヤから複数レイヤ離れたレイヤに直接供給する、前記第1のレイヤを含む第1の残差ブロックを使用する、前記第1の二次元セグメンテーションマスクを生成することと、
    前記標準化画像の第2のサブセットを入力とする前記第2の二次元セグメンテーションモデルを使用して、第2の二次元セグメンテーションマスクを生成することであって、前記第2の二次元セグメンテーションモデルが、(i)後続のレイヤに直接供給する、および(ii)スキップ接続を使用して第2のレイヤから複数レイヤ離れたレイヤに直接供給する、前記第2のレイヤを含む第2の残差ブロックを使用する、前記第2の二次元セグメンテーションマスクを生成することと、を含む、請求項3233、または34に記載のシステム。
  36. 前記第1のレイヤおよび前記第2のレイヤが、1つまたは複数の拡大レベルで分離可能な畳み込みが実施されるピラミッドレイヤである、請求項35に記載のシステム。
  37. 前記動作が、
    (i)前記最終の画像化されたマスクを使用して、総代謝腫瘍量(TMTV)を決定することと、前記TMTVを提供すること;および/または
    (ii)前記PETスキャンおよび前記CTまたはMRIスキャンを入力とする三次元臓器セグメンテーションモデルを使用して、三次元臓器マスクを生成することと、
    前記最終の画像化されたマスクおよび前記三次元臓器マスクを使用して、前記三次元臓器セグメンテーションの1つまたは複数の臓器に関して、代謝腫瘍量(MTV)および病巣の数を決定することと、
    前記1つまたは複数の臓器に関する前記MTVおよび病巣の数を提供すること
    を更に含む、請求項32から36のいずれか一項に記載のシステム。
  38. 前記動作が、
    前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数を入力とする分類器を使用して、前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数に基づいて前記対象に対する臨床予測を生成することを更に含み、
    前記臨床予測が、
    前記対象の無増悪生存(PFS)の尤度、
    前記対象の病期、および、
    前記対象を治験に含む選択決定、のうち1つである、請求項37に記載のシステム。
  39. 記対象の前記複数のPETスキャンおよびCTまたはMRIスキャンは、前記畳み込みニューラルネットワークアーキテクチャを備えるデータ処理システムに、ユーザによって入力され
    前記動作が、前記最終の画像化されたマスクを提供することを更に含み
    記最終の画像化されたマスク、前記TMTV、前記MTV、および前記病巣の数のうち1つまたは複数、コンピューティングデバイスのディスプレイ上に受信される、請求項37または38に記載のシステム。
JP2021555453A 2019-03-15 2020-03-14 陽電子放射断層撮影を用いた腫瘍セグメンテーションのための深層畳み込みニューラルネットワーク Active JP7515502B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962819275P 2019-03-15 2019-03-15
US62/819,275 2019-03-15
US201962880898P 2019-07-31 2019-07-31
US62/880,898 2019-07-31
PCT/US2020/022864 WO2020190821A1 (en) 2019-03-15 2020-03-14 Deep convolutional neural networks for tumor segmentation with positron emission tomography

Publications (2)

Publication Number Publication Date
JP2022525198A JP2022525198A (ja) 2022-05-11
JP7515502B2 true JP7515502B2 (ja) 2024-07-12

Family

ID=70228847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021555453A Active JP7515502B2 (ja) 2019-03-15 2020-03-14 陽電子放射断層撮影を用いた腫瘍セグメンテーションのための深層畳み込みニューラルネットワーク

Country Status (5)

Country Link
US (1) US12115015B2 (ja)
EP (1) EP3939002A1 (ja)
JP (1) JP7515502B2 (ja)
CN (1) CN113711271A (ja)
WO (1) WO2020190821A1 (ja)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10340046B2 (en) 2016-10-27 2019-07-02 Progenics Pharmaceuticals, Inc. Network for medical image analysis, decision support system, and related graphical user interface (GUI) applications
US10973486B2 (en) 2018-01-08 2021-04-13 Progenics Pharmaceuticals, Inc. Systems and methods for rapid neural network-based image segmentation and radiopharmaceutical uptake determination
WO2020144134A1 (en) 2019-01-07 2020-07-16 Exini Diagnostics Ab Systems and methods for platform agnostic whole body image segmentation
CA3134745A1 (en) 2019-04-24 2020-10-29 Progenics Pharmaceuticals, Inc. Systems and methods for interactive adjustment of intensity windowing in nuclear medicine images
CA3136127A1 (en) 2019-04-24 2020-10-29 Progenics Pharmaceuticals, Inc. Systems and methods for automated and interactive analysis of bone scan images for detection of metastases
US11042969B2 (en) * 2019-05-23 2021-06-22 Adobe Inc. Automatic synthesis of a content-aware sampling region for a content-aware fill
US11564621B2 (en) 2019-09-27 2023-01-31 Progenies Pharmacenticals, Inc. Systems and methods for artificial intelligence-based image analysis for cancer assessment
US11900597B2 (en) 2019-09-27 2024-02-13 Progenics Pharmaceuticals, Inc. Systems and methods for artificial intelligence-based image analysis for cancer assessment
US11544407B1 (en) 2019-09-27 2023-01-03 Progenics Pharmaceuticals, Inc. Systems and methods for secure cloud-based medical image upload and processing
US11334995B2 (en) * 2019-11-27 2022-05-17 Shanghai United Imaging Intelligence Co., Ltd. Hierarchical systems and methods for image segmentation
CN111340768B (zh) * 2020-02-21 2021-03-09 之江实验室 一种基于pet/ct智能诊断系统的多中心效应补偿方法
US11386988B2 (en) 2020-04-23 2022-07-12 Exini Diagnostics Ab Systems and methods for deep-learning-based segmentation of composite images
US11321844B2 (en) 2020-04-23 2022-05-03 Exini Diagnostics Ab Systems and methods for deep-learning-based segmentation of composite images
US11501107B2 (en) 2020-05-07 2022-11-15 Adobe Inc. Key-value memory network for predicting time-series metrics of target entities
EP3923183B1 (en) * 2020-06-11 2024-07-24 Tata Consultancy Services Limited Method and system for video analysis
US11721428B2 (en) 2020-07-06 2023-08-08 Exini Diagnostics Ab Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions
CN112348839B (zh) * 2020-10-27 2024-03-15 重庆大学 一种基于深度学习的图像分割方法及系统
CN112365980B (zh) * 2020-11-16 2024-03-01 复旦大学附属华山医院 脑肿瘤多靶点辅助诊断与前瞻性治疗演化可视化方法及系统
WO2022108882A1 (en) * 2020-11-20 2022-05-27 The Johns Hopkins University Methods and related aspects for pathology prognosis
CN112489060B (zh) * 2020-12-07 2022-05-10 北京医准智能科技有限公司 一种用于肺炎病灶分割的系统及方法
CN112382388A (zh) * 2020-12-14 2021-02-19 中南大学 一种压疮不良事件的预警方法
CN112633348B (zh) * 2020-12-17 2022-03-15 首都医科大学附属北京天坛医院 一种检测脑动静脉畸形并判断其弥散性的方法和装置
CN112699937B (zh) * 2020-12-29 2022-06-21 江苏大学 基于特征引导网络的图像分类与分割的装置、方法、设备及介质
KR102283265B1 (ko) * 2020-12-31 2021-07-29 가천대학교 산학협력단 스케일 확장 기반의 컨볼루션 신경망을 이용한 대장 질환 분류 방법 및 그 장치
CN112950639B (zh) * 2020-12-31 2024-05-10 山西三友和智慧信息技术股份有限公司 一种基于SA-Net的MRI医学图像分割方法
US11854192B2 (en) 2021-03-03 2023-12-26 International Business Machines Corporation Multi-phase object contour refinement
US11776132B2 (en) 2021-03-03 2023-10-03 International Business Machines Corporation Multi-phase object contour refinement
US11923071B2 (en) 2021-03-03 2024-03-05 International Business Machines Corporation Multi-phase object contour refinement
JP7462188B2 (ja) 2021-03-12 2024-04-05 株式会社スペック・システム 医用画像処理装置、医用画像処理方法、およびプログラム
EP4064179A1 (en) * 2021-03-24 2022-09-28 Koninklijke Philips N.V. Masking unwanted pixels in an image
CN113012170B (zh) * 2021-03-25 2022-02-15 推想医疗科技股份有限公司 一种食管肿瘤区域分割及模型训练方法、装置及电子设备
CN112991522B (zh) * 2021-03-30 2023-03-24 华南理工大学 一种个性化二尖瓣自动建模方法、系统及设备
CN113192076B (zh) * 2021-04-09 2022-03-15 湖北工业大学 联合分类预测和多尺度特征提取的mri脑肿瘤图像分割方法
US11367289B1 (en) 2021-07-16 2022-06-21 Motional Ad Llc Machine learning-based framework for drivable surface annotation
CN113838026B (zh) * 2021-09-22 2024-02-02 中南大学 非小细胞肺癌检测方法、装置、计算机设备和存储介质
CN113920313B (zh) * 2021-09-29 2022-09-09 北京百度网讯科技有限公司 图像处理方法、装置、电子设备及存储介质
CN114419111A (zh) * 2021-11-26 2022-04-29 复影(上海)医疗科技有限公司 基于mri影像的原发性肝细胞癌病灶筛查和分割方法及系统
EP4202827A1 (en) * 2021-12-21 2023-06-28 Koninklijke Philips N.V. System and method for classifying lesions
EP4453860A1 (en) * 2021-12-21 2024-10-30 Koninklijke Philips N.V. System and method for classifying lesions
CN114334130B (zh) * 2021-12-25 2023-08-22 浙江大学 一种基于脑对称性的pet分子影像计算机辅助诊断系统
US20230237612A1 (en) * 2022-01-26 2023-07-27 Intuitive Research And Technology Corporation Determining volume of a selectable region using extended reality
DE102022201003B3 (de) * 2022-01-31 2023-06-22 Siemens Healthcare Gmbh Verfahren zum Festlegen einer Aufnahmetrajektorie
CN114764811B (zh) * 2022-03-14 2024-07-09 什维新智医疗科技(上海)有限公司 一种基于动态超声视频的病灶区域实时分割装置
CN114882051B (zh) * 2022-04-25 2024-07-16 大连理工大学 一种基于多模态影像的盆腔骨肿瘤的自动分割及三维重建方法
CN114972853B (zh) * 2022-05-16 2024-09-06 中南大学湘雅医院 一种针对中耳疾病的智能分类处理方法
WO2024002221A1 (zh) * 2022-06-30 2024-01-04 武汉联影智融医疗科技有限公司 介入手术影像辅助方法、系统、装置及存储介质
WO2024010882A1 (en) * 2022-07-06 2024-01-11 The Johns Hopkins University System and method for coarse-to-fine segmentation of images to detect kidney and renal growths
GB2621332B (en) * 2022-08-08 2024-09-11 Twinn Health Ltd A method and an artificial intelligence system for assessing an MRI image
CN115239688B (zh) * 2022-08-09 2024-03-12 四川大学华西医院 基于磁共振对比增强3d-t1wi图像的脑转移瘤识别方法与系统
JP2024032079A (ja) 2022-08-29 2024-03-12 富士通株式会社 病変検出方法および病変検出プログラム
WO2024046142A1 (en) * 2022-08-30 2024-03-07 Subtle Medical, Inc. Systems and methods for image segmentation of pet/ct using cascaded and ensembled convolutional neural networks
WO2024054961A1 (en) * 2022-09-08 2024-03-14 The Trustees Of Columbia University In The City Of New York Frequency-and-phase correction for magnetic resonance spectroscopy
WO2024077293A1 (en) * 2022-10-07 2024-04-11 Washington University Convolutional neural network classification of pretreatment biopsies
CN116168823A (zh) * 2022-12-09 2023-05-26 深圳大学 基于pet/ct影像的肺癌全身检测方法及相关装置
US20240281981A1 (en) * 2023-02-17 2024-08-22 Altos Labs, Inc. Semantic segmentation of sparse multi-dimensional tensors
CN116843648B (zh) * 2023-07-04 2024-07-05 北京大学口腔医学院 基于锥形束ct影像的髁突骨改建三维自动定量测量系统
CN116630358B (zh) * 2023-07-25 2023-09-26 潍坊医学院附属医院 一种脑部肿瘤ct影像的阈值分割方法
CN117541797B (zh) * 2023-12-21 2024-05-31 浙江飞图影像科技有限公司 用于胸部ct平扫的交互式三维支气管分割系统及方法
CN118000975B (zh) * 2024-02-04 2024-09-17 首都医科大学附属北京积水潭医院 一种关节骨肿瘤假体的数字化生成方法和装置
CN118021474B (zh) * 2024-04-11 2024-07-05 南昌东森牙科器材有限公司 基于图像处理的牙种植体模型成型方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050065421A1 (en) 2003-09-19 2005-03-24 Siemens Medical Solutions Usa, Inc. System and method of measuring disease severity of a patient before, during and after treatment
CN103942785A (zh) 2014-04-09 2014-07-23 苏州大学 一种基于图割的pet和ct图像的肺肿瘤分割方法
US20180165808A1 (en) 2016-06-27 2018-06-14 University Of Central Florida Research Foundation, Inc. System and method for image-based quantification of white and brown adipose tissue at the whole-body, organ and body-region levels
WO2018200493A1 (en) 2017-04-25 2018-11-01 The Board Of Trustees Of The Leland Stanford Junior University Dose reduction for medical imaging using deep convolutional neural networks
CN109308728A (zh) 2018-10-25 2019-02-05 上海联影医疗科技有限公司 正电子发射型计算机断层扫描图像处理方法及装置
US20190057778A1 (en) 2017-08-16 2019-02-21 The Johns Hopkins University Abnormal Tissue Detection Via Modal Upstream Data Fusion

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8467856B2 (en) * 2009-07-17 2013-06-18 Koninklijke Philips Electronics N.V. Anatomy modeling for tumor region of interest definition
CA3099443A1 (en) * 2017-11-02 2019-05-09 Airworks Solutions, Inc. Methods and apparatus for automatically defining computer-aided design files using machine learning, image analytics, and/or computer vision
US11551353B2 (en) * 2017-11-22 2023-01-10 Arterys Inc. Content based image retrieval for lesion analysis
EP3537447A1 (en) * 2018-03-07 2019-09-11 Koninklijke Philips N.V. Display of medical image data
US10762398B2 (en) * 2018-04-30 2020-09-01 Elekta Ab Modality-agnostic method for medical image representation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050065421A1 (en) 2003-09-19 2005-03-24 Siemens Medical Solutions Usa, Inc. System and method of measuring disease severity of a patient before, during and after treatment
CN103942785A (zh) 2014-04-09 2014-07-23 苏州大学 一种基于图割的pet和ct图像的肺肿瘤分割方法
US20180165808A1 (en) 2016-06-27 2018-06-14 University Of Central Florida Research Foundation, Inc. System and method for image-based quantification of white and brown adipose tissue at the whole-body, organ and body-region levels
WO2018200493A1 (en) 2017-04-25 2018-11-01 The Board Of Trustees Of The Leland Stanford Junior University Dose reduction for medical imaging using deep convolutional neural networks
US20190057778A1 (en) 2017-08-16 2019-02-21 The Johns Hopkins University Abnormal Tissue Detection Via Modal Upstream Data Fusion
CN109308728A (zh) 2018-10-25 2019-02-05 上海联影医疗科技有限公司 正电子发射型计算机断层扫描图像处理方法及装置

Also Published As

Publication number Publication date
US12115015B2 (en) 2024-10-15
WO2020190821A1 (en) 2020-09-24
CN113711271A (zh) 2021-11-26
JP2022525198A (ja) 2022-05-11
US20210401392A1 (en) 2021-12-30
EP3939002A1 (en) 2022-01-19

Similar Documents

Publication Publication Date Title
JP7515502B2 (ja) 陽電子放射断層撮影を用いた腫瘍セグメンテーションのための深層畳み込みニューラルネットワーク
US11967072B2 (en) Three-dimensional object segmentation of medical images localized with object detection
Ramon et al. Improving diagnostic accuracy in low-dose SPECT myocardial perfusion imaging with convolutional denoising networks
Bi et al. Automatic detection and classification of regions of FDG uptake in whole-body PET-CT lymphoma studies
US11443433B2 (en) Quantification and staging of body-wide tissue composition and of abnormal states on medical images via automatic anatomy recognition
CN113240719A (zh) 用于表征医学图像中的解剖特征的方法和系统
Li et al. DenseX-net: an end-to-end model for lymphoma segmentation in whole-body PET/CT images
US12073492B2 (en) Method and system for generating attenuation map from SPECT emission data
US20080021301A1 (en) Methods and Apparatus for Volume Computer Assisted Reading Management and Review
CN103562960B (zh) 用于生成图像的图像区域与元素类之间的分配的装置
WO2016033458A1 (en) Restoring image quality of reduced radiotracer dose positron emission tomography (pet) images using combined pet and magnetic resonance (mr)
Wei et al. Automated lung segmentation and image quality assessment for clinical 3-D/4-D-computed tomography
Li et al. Multienergy cone-beam computed tomography reconstruction with a spatial spectral nonlocal means algorithm
Dharmalingham et al. A model based segmentation approach for lung segmentation from chest computer tomography images
Baydoun et al. Dixon-based thorax synthetic CT generation using generative adversarial network
Xu et al. Improved cascade R-CNN for medical images of pulmonary nodules detection combining dilated HRNet
Dhalia Sweetlin et al. Patient-Specific Model Based Segmentation of Lung Computed Tomographic Images.
Kikuchi et al. A myocardial extraction method using deep learning for 99mTc myocardial perfusion SPECT images: A basic study to reduce the effects of extra-myocardial activity
Suji et al. A survey and taxonomy of 2.5 D approaches for lung segmentation and nodule detection in CT images
Garcia et al. Multimodal breast parenchymal patterns correlation using a patient-specific biomechanical model
Azimi et al. Deep learning-based partial volume correction in standard and low-dose positron emission tomography-computed tomography imaging
Rastgarpour et al. The status quo of artificial intelligence methods in automatic medical image segmentation
EP4439445A1 (en) Device, system and method for generating a medical image of a region of interest of a subject indicating contrast-enhanced regions
Bangara et al. Tumor detection by color segmentation of PET/CT liver images
Deenadhayalan et al. Computed Tomography Image based Classification and Detection of Lung Diseases with Image Processing Approach

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240521

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240702

R150 Certificate of patent or registration of utility model

Ref document number: 7515502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150