JP2023525743A - 各画像が捕捉された特定のビューに敏感な方法で医療画像内の解剖学的構造を自動的に識別する - Google Patents
各画像が捕捉された特定のビューに敏感な方法で医療画像内の解剖学的構造を自動的に識別する Download PDFInfo
- Publication number
- JP2023525743A JP2023525743A JP2022567788A JP2022567788A JP2023525743A JP 2023525743 A JP2023525743 A JP 2023525743A JP 2022567788 A JP2022567788 A JP 2022567788A JP 2022567788 A JP2022567788 A JP 2022567788A JP 2023525743 A JP2023525743 A JP 2023525743A
- Authority
- JP
- Japan
- Prior art keywords
- image
- machine learning
- ultrasound
- view
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000003484 anatomy Anatomy 0.000 title claims description 17
- 238000010801 machine learning Methods 0.000 claims abstract description 33
- 238000002059 diagnostic imaging Methods 0.000 claims abstract description 5
- 230000000007 visual effect Effects 0.000 claims abstract 7
- 238000002604 ultrasonography Methods 0.000 claims description 55
- 238000000034 method Methods 0.000 claims description 26
- 238000012549 training Methods 0.000 claims description 19
- 210000000056 organ Anatomy 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 2
- 238000012800 visualization Methods 0.000 claims 4
- 239000000470 constituent Substances 0.000 claims 2
- 230000000916 dilatatory effect Effects 0.000 claims 1
- 230000003362 replicative effect Effects 0.000 claims 1
- 230000007246 mechanism Effects 0.000 abstract description 58
- 238000012545 processing Methods 0.000 abstract description 8
- 239000000523 sample Substances 0.000 description 31
- 238000010586 diagram Methods 0.000 description 21
- 230000033001 locomotion Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 14
- 230000009471 action Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 9
- 239000000463 material Substances 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 210000005240 left ventricle Anatomy 0.000 description 5
- 239000012528 membrane Substances 0.000 description 5
- 210000005241 right ventricle Anatomy 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 210000004115 mitral valve Anatomy 0.000 description 4
- 210000000591 tricuspid valve Anatomy 0.000 description 4
- 230000002861 ventricular Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000012285 ultrasound imaging Methods 0.000 description 3
- 210000000709 aorta Anatomy 0.000 description 2
- 230000001143 conditioned effect Effects 0.000 description 2
- 229920001971 elastomer Polymers 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 229910052451 lead zirconate titanate Inorganic materials 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 210000003157 atrial septum Anatomy 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000000747 cardiac effect Effects 0.000 description 1
- 239000000919 ceramic Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000002837 heart atrium Anatomy 0.000 description 1
- HFGPZNIAWCZYJU-UHFFFAOYSA-N lead zirconate titanate Chemical compound [O-2].[O-2].[O-2].[O-2].[O-2].[Ti+4].[Zr+4].[Pb+2] HFGPZNIAWCZYJU-UHFFFAOYSA-N 0.000 description 1
- 210000005246 left atrium Anatomy 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 210000005245 right atrium Anatomy 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 229920002803 thermoplastic polyurethane Polymers 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 210000000596 ventricular septum Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Clinical applications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Clinical applications
- A61B8/0833—Clinical applications involving detecting or locating foreign bodies or organic structures
- A61B8/085—Clinical applications involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Clinical applications
- A61B8/0883—Clinical applications for diagnosis of the heart
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
- A61B8/14—Echo-tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/463—Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/467—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
- A61B8/468—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/467—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
- A61B8/469—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5223—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/44—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
- A61B8/4427—Device being portable or laptop-like
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/031—Recognition of patterns in medical or anatomical images of internal organs
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Theoretical Computer Science (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Cardiology (AREA)
- Physiology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
Abstract
Description
(関連出願に対する相互参照)
本出願は、2020年5月11日に出願された「CLASSIFYING OUT-OF-DISTRIBUTION RESULTS FROM OBJECT DETECTION OR SEGMENTATION OF ULTRASOUND IMAGES」と題する米国仮特許出願第63/022,986号、及び2020年6月26日に出願された 「AUTOMATICALLY IDENTIFYING ANATOMICAL STRUCTURES IN MEDICAL IMAGES IN A MANNER THAT IS SENSITIVE TO THE PARTICULAR VIEW IN WHICH EACH IMAGE IS CAPTURED」と題する米国非仮特許出願第16/913,322号の利益を主張し、これらの両方は、参照によりその全体が本明細書に組み込まれる。
本出願は、2020年5月11日に出願された「CLASSIFYING OUT-OF-DISTRIBUTION RESULTS FROM OBJECT DETECTION OR SEGMENTATION OF ULTRASOUND IMAGES」と題する米国仮特許出願第63/022,986号、及び2020年6月26日に出願された 「AUTOMATICALLY IDENTIFYING ANATOMICAL STRUCTURES IN MEDICAL IMAGES IN A MANNER THAT IS SENSITIVE TO THE PARTICULAR VIEW IN WHICH EACH IMAGE IS CAPTURED」と題する米国非仮特許出願第16/913,322号の利益を主張し、これらの両方は、参照によりその全体が本明細書に組み込まれる。
本出願が参照により組み込まれる文書と矛盾する場合、本出願が管理する。
超音波撮像は、有用な医療画像化モダリティである。例えば、患者の身体の内部構造は、治療的介入の前、最中、又は後に画像化され得る。医療専門家は、典型的には、「トランスデューサ」と呼ばれる携帯型超音波プローブを患者に近接して保持し、必要に応じてトランスデューサを移動させて、患者の関心領域内の1つ以上の標的構造を視覚化することができる。トランスデューサは、体の表面上に配置されてもよく、又はいくつかの手順では、トランスデューサが患者の体内に挿入される。医療専門家は、三次元容積の二次元断面などの、スクリーン上の所望の表現を得るために、トランスデューサの動きを座標化する。
器官若しくは他の組織又は身体特徴(体液、骨、関節など)の特定のビューは臨床的に有意であり得る。そのようなビューは、標的器官、診断目的などに応じて、超音波オペレータが捕捉すべきビューとして臨床基準で規定され得る。
いくつかの超音波画像では、画像内で視覚化された解剖学的構造を識別することが有用である。例えば、特定の器官を示す超音波画像ビューでは、器官内の構成構造を識別することが有用であり得る。一例として、心臓のいくつかのビューでは、左及び右の心房、左心室及び右心室、並びに大動脈、僧帽弁、肺、及び三尖弁などの構成構造が可視である。
既存のソフトウェア解決策は、そのような構造を自動的に識別しようとしてきた。これらの既存の解決策は、それぞれが可視である境界ボックスを指定することによって構造を「検出」すること、又は画像内の各構造の境界を追跡することによって構造を「セグメント化」することを求める。
本発明者らは、超音波画像に示される器官の構成構造を自動的に識別するための従来のアプローチが重大な欠点を有することを認識した。特に、これらの従来のアプローチは、しばしば偽陽性を生成する。すなわち、これらは画像内に実際には存在しない構造を識別する。これは、心臓の4つの弁など、器官が同様のサイズ及び形状の複数の構造を含む場合に特に一般的である。場合によっては、従来のアプローチは、識別された構造を閾値よりも高い信頼値を有するものに制限する信頼閾値動作パラメータを大幅に上昇させることによって、偽陽性の問題を低減又は排除しようとする。ほとんど又は全ての偽陽性を排除するために、この信頼閾値は、反対の問題、すなわち、実際に見える構造が識別結果から除外される偽陰性を作り出すほど高く設定されなければならない。
これらの欠点を認識することに応答して、本発明者らは、各画像が捕捉された特定のビューに敏感な方法(「機構」)で、超音波及び画像などの医療画像内の解剖学的構造を自動的に識別するソフトウェア及び/又はハードウェア機構を考案及び実施した。そうすることにより、機構は、偽陰性の発生を最小限に抑えるように、信頼閾値動作パラメータを比較的低く設定することができる。同時に、機構は、識別された構造を、画像が捕捉されたビューにおいて典型的に見える構造に限定することによって、偽陽性の発生を最小限に抑える。いくつかの実施形態では、機構は、画像認識機械学習技術を使用して各画像が捕捉されたビューを自動的に決定する。
以下で更に説明する機構の動作の一例では、機構は、画像認識機械学習技術を使用して、人間の心臓の画像内の5つの候補構造を識別する。機構は、画像認識機械学習技術を使用して、この画像を心臓の「心尖部四腔」ビューからのものとして分類する。この分類に基づいて、機構は、このビューから捕捉された心臓の画像で識別されることができる構造のリストにアクセスする。許可された構造のこのリストを5つの識別された候補構造と比較することにより、機構は、識別された候補構造のうちの4つのみがリストに存在すると判定する。これに応答して、機構は、5つの識別された候補構造の中から、リスト内に存在する4つのみを識別する。
上述の方法のいくつか又は全てで動作することにより、機構は、従来よりも高い精度で医療画像内の解剖学的構造を自動的に識別する。
更に、機構は、特定のタスクを実行するために必要な動的表示領域、処理、ストレージ、及び/又はデータ伝送リソースを低減することなどによってコンピュータ又は他のハードウェアの機能を改善し、それによって、タスクをより少ない能力、容量性、及び/又は高価なハードウェア装置、及び/又はより短い待ち時間で実行すること、及び/又は他のタスクを実行する際に使用するための保存リソースのより多くの保存を可能にする。例えば、有意に少ない偽陽性で可視化された全ての構造をより頻繁に識別することによって初期医療画像の有用性を最大化することにより、機構は、再画像化が必要である多くのケースを回避する。再画像化の必要性を低減することにより、全体的に、追加の画像を捕捉し、追加の自動構造識別の追加ラウンドを実行するために機構が消費するメモリ及び処理リソースが少なくなる。
図1は、本開示の1つ以上の実施形態による、生理学的感知装置10の概略図である。装置10は、図示した実施形態では、ケーブル17によってハンドヘルドコンピューティング装置14に電気的に結合されたプローブ12を含む。ケーブル17は、プローブ12をコンピューティング装置14に取り外し可能に接続するコネクタ18を含む。ハンドヘルドコンピューティング装置14は、タブレットコンピュータ、スマートフォンなどの、ディスプレイを有する任意のポータブルコンピューティング装置であってもよい。いくつかの実施形態では、プローブ12は、ハンドヘルドコンピューティング装置14に電気的に結合されている必要はないが、ハンドヘルドコンピューティング装置14とは独立して動作してもよく、プローブ12は、無線通信チャネルを介してハンドヘルドコンピューティング装置14と通信してもよい。
プローブ12は、超音波信号を標的構造に向けて送信し、超音波信号の送信に応答して標的構造から戻って来たエコー信号を受信するように構成されている。プローブ12は、様々な実施形態では、超音波信号を伝送し、その後のエコー信号を受信することができるトランスデューサ素子のアレイ(例えば、トランスデューサアレイ)を含み得る超音波センサ20を含む。
装置10は、処理回路及び駆動回路を更に含む。部分的には、処理回路は、超音波センサ20からの超音波信号の送信を制御する。駆動回路は、例えば、処理回路から受信した制御信号に応答して、超音波信号の送信を駆動するための超音波センサ20に動作可能に結合される。駆動回路及びプロセッサ回路は、プローブ12及びハンドヘルドコンピューティング装置14の一方又は両方に含まれてもよい。装置10はまた、例えば、パルス波動作モード又は連続波動作モードで超音波信号を送信するための駆動回路に電力を供給する電源を含む。
プローブ12の超音波センサ20は、超音波信号を送信する1つ以上の送信トランスデューサ素子と、超音波信号の送信に応答して標的構造から戻って来るエコー信号を受信する1つ以上の受信トランスデューサ素子と、を含んでもよい。いくつかの実施形態では、超音波センサ20のトランスデューサ素子の一部又は全部は、第1の期間中に送信トランスデューサ素子として機能し、第1の期間とは異なる第2の期間中に受信トランスデューサ素子として機能してもよい(すなわち、同じトランスデューサ素子が異なる時間に、超音波信号を送信し、エコー信号を受信するために使用可能であってもよい)。
図1に示すコンピューティング装置14は、ディスプレイ画面22及びユーザインターフェース24を含む。ディスプレイ画面22は、LCD又はLEDディスプレイ技術を含むがこれに限定されない、任意の種類のディスプレイ技術を組み込んだディスプレイであってもよい。ディスプレイ画面22を使用して、超音波信号の送信に応答して受信されたエコー信号から得られたエコーデータから生成された1つ以上の画像を表示し、いくつかの実施形態では、ディスプレイ画面22は、例えば、カラードプライメージング(CDI)モードで提供され得るようなカラーフロー画像情報を表示するために使用されてもよい。更に、いくつかの実施形態では、ディスプレイ画面22は、取得又は調整された聴診信号を表す波形などの音声波形を表示するために使用されてもよい。
いくつかの実施形態では、ディスプレイ画面22は、画面にタッチするユーザから入力を受け取ることができるタッチスクリーンであってもよい。そのような実施形態では、ユーザインターフェース24は、タッチを介してユーザ入力を受信することが可能な、ディスプレイ画面22の一部分又は全体を含んでもよい。いくつかの実施形態では、ユーザインターフェース24は、超音波装置10のユーザから入力を受け取ることが可能な1つ以上のボタン、ノブ、スイッチなどを含んでもよい。いくつかの実施形態では、ユーザインターフェース24は、音声コマンドなどの可聴入力を受け取ることができるマイクロフォン30を含んでもよい。
コンピューティング装置14は、取得又は調整された聴診信号又はエコー信号の可聴表現、ドップラー超音波撮像中の血流、又は装置10の動作から導出された他の特徴を出力するために使用され得る1つ以上のオーディオスピーカ28を更に含み得る。
プローブ12は、プローブ12の外側部分を形成するハウジングを含む。ハウジングは、ハウジングの遠位端付近に位置するセンサ部分、及びハウジングの近位端と遠位端との間に位置するハンドル部分を含む。ハンドル部分は、センサ部分に対して近位側に位置する。
ハンドル部分は、使用中にプローブ12を保持、制御、及び操作するためにユーザによって把持される、ハウジングの一部分である。ハンドル部分は、1つ以上の滑り止めなどの把持機構を含んでもよく、いくつかの実施形態では、ハンドル部分は、ハンドル部分の遠位側又は近位側のハウジングの部分と同じ一般形状を有してもよい。
ハウジングは、例えば、駆動回路、処理回路、発振器、ビーム形成回路、フィルタリング回路などの電子機器を含む、プローブ12の内部電子構成要素及び/又は回路を取り囲む。ハウジングは、感知面などのプローブ12の外部に配置された部分を取り囲むか、又は少なくとも部分的に取り囲むように形成され得る。ハウジングは、水分、液体、又は他の流体がハウジングに入ることが防止されるように、封止されたハウジングであり得る。ハウジングは、任意の好適な材料で形成されてもよく、いくつかの実施形態では、ハウジングはプラスチック材料で形成される。ハウジングは、単一の部品(例えば、内部構成素子を取り囲むように成形される単一の材料)で形成されてもよく、あるいは、互いに接合されるか又は別の方法で互いに取り付けられる、2つ以上の部品(例えば、上側半体及び下側半体)で形成されてもよい。
いくつかの実施形態では、プローブ12は、動きセンサを含む。動きセンサは、プローブ12の動きを感知するように動作可能である。動きセンサは、プローブ12内又はプローブ12上に含まれ、例えば、プローブ12の動きを感知するための1つ以上の加速度計、磁力計、又はジャイロスコープを含んでもよい。例えば、動きセンサは、プローブ12の動きを感知することが可能な圧電式、ピエゾ抵抗式、又は静電容量式の加速度計のいずれかを含んでもよい。いくつかの実施形態では、動きセンサは、3つの軸のうちのいずれかの周りの動きを感知することが可能な3軸動きセンサである。いくつかの実施形態では、2つ以上の動きセンサ16がプローブ12内又はプローブ12上に含まれる。いくつかの実施形態では、動きセンサは、少なくとも1つの加速度計及び少なくとも1つのジャイロスコープを含む。
動きセンサは、プローブ12のハウジング内に少なくとも部分的に収容されてもよい。いくつかの実施形態では、動きセンサは、プローブ12の感知面に又は感知面の近くに配置される。いくつかの実施形態では、感知面は、超音波撮像又は聴診感知などのための検査中に患者と動作可能に接触する表面である。超音波センサ20及び1つ以上の聴診センサは、感知面上、その中、又はその近くに配置される。
いくつかの実施形態では、超音波センサ20のトランスデューサアレイは、トランスデューサ素子の一次元(1D)アレイ又は二次元(2D)アレイである。トランスデューサアレイは、例えばチタン酸ジルコン酸鉛(lead zirconate titanate、PZT)などの圧電セラミックを含んでもよく、又は微小電気機械システム(microelectromechanical system、MEMS)に基づいたものであってもよい。例えば、様々な実施形態では、超音波センサ20は、微小電気機械システム(MEMS)ベースの圧電超音波トランスデューサである圧電微小加工超音波トランスデューサ(PMUT)を含み得るか、又は、超音波センサ20は、静電容量の変化に起因してエネルギー変換が提供される静電容量式微小加工超音波トランスデューサ(CMUT)を含み得る。
超音波センサ20は、トランスデューサアレイ上に配置することができ、かつ感知面の一部を形成することができる超音波集束レンズを更に含み得る。集束レンズは、トランスデューサアレイから患者に向かって送信された超音波ビームを集束させるように、及び/又は患者からトランスデューサアレイへと反射された超音波ビームを集束させるように動作可能な任意のレンズであってよい。いくつかの実施形態では、超音波集束レンズは、湾曲した表面形状を有し得る。超音波集束レンズは、所望の用途、例えば所望の動作周波数などに応じて、異なる形状を有してもよい。超音波集束レンズは、任意の好適な材料で形成されてもよく、いくつかの実施形態では、超音波集束レンズは、室温加硫(RTV)ゴム材料で形成される。
いくつかの実施形態では、第1の膜及び第2の膜は、超音波センサ20の互いに反対の側に隣接して位置付けられ、感知面の一部を形成する。膜は、任意の好適な材料で形成されてもよく、いくつかの実施形態では、膜は、室温加硫(RTV)ゴム材料で形成される。いくつかの実施形態では、膜は、超音波集束レンズと同じ材料で形成される。
図2は、コンピュータシステム及び機構が動作する他の装置の少なくともいくつかに典型的に組み込まれた構成要素のうちのいくつかを示すブロック図である。様々な実施形態では、これらのコンピュータシステム及び他の装置200は、サーバコンピュータシステム、他の構成のクラウドコンピューティングプラットフォーム又は仮想マシン、デスクトップコンピュータシステム、ラップトップコンピュータシステム、ネットブック、携帯電話、携帯情報端末、テレビ、カメラ、自動車コンピュータ、電子メディアプレーヤ、生理学的感知装置、及び/又はそれらの関連する表示装置などを含むことができる。様々な実施形態では、コンピュータシステム及び装置は、コンピュータプログラムを実行し、及び/又は機械学習モデルを訓練若しくは適用するための、CPU、GPU、TPU、NNP、FPGA、若しくはASICなどのプロセッサ201、機構及び関連データを含む、それらが使用されている間にプログラム及びデータを記憶するためのコンピュータメモリ202、カーネルを含むオペレーティングシステム、装置ドライバ、プログラム及びデータを持続的に記憶するためのハードドライブ又はフラッシュドライブなどの永続的記憶装置203、コンピュータ可読媒体に記憶されたプログラム及びデータを読み取るための、フロッピー、CD-ROM、又はDVDドライブなどのコンピュータ可読媒体ドライブ204、インターネット又は別のネットワーク、及びスイッチ、ルータ、リピータ、電気ケーブル及び光ファイバ、発光器及び受信器、無線送信器及び受信器などのそのネットワークハードウェアを介してなど、データを送信及び/又は受信するためにコンピュータシステムを他のコンピュータシステムに接続するためのネットワーク接続205、のうちの0以上を含む。上記のように構成されたコンピュータシステムは、典型的には、機構の動作を支持するために使用されるが、当業者は、機構が様々なタイプ及び構成の装置を使用して実装され、様々な構成要素を有することを理解するであろう。
図3は、医療画像のビューを予測し、構造を検出するために1つ以上の機械学習モデルを訓練するために、いくつかの実施形態において機構によって実行されるプロセスを示すフロー図である。いくつかの実施形態では、このプロセスはサーバ上で実行される。動作301では、機構はモデルを初期化する。
図4は、いくつかの実施形態において機構によって使用されるモデルアーキテクチャを示すモデル図である。モデルアーキテクチャ400は、構造検出及びビュー分類の両方のために機構によって使用される共有層410、構造検出を実行するためにのみ機構によって使用されるオブジェクト検出層430、及びビュー分類を実行するためにのみ機構によって使用される分類器層450を含む。層の各々について、図4は、層タイプ及び層サイズを示す。層タイプは、以下の略語で表される。
例えば、タイプ略語「Conv」で示される層411は、畳み込み層である。層サイズは、ピクセル毎の出力値の数×水平方向のピクセル数×垂直方向のピクセル数という寸法で表される。例えば、寸法16×320×320で示される層411は、320ピクセル×320ピクセルの矩形アレイにおいてピクセル当たり16個の値を出力する。
図3に戻ると、動作302において、機構は訓練データにアクセスする。いくつかの実施形態では、訓練データは以下のように取得される。3~5秒の長い超音波ビデオクリップが捕捉され、専門の超音波検査技師又は心臓専門医によって注釈が付けられる。全ての可能なビューにわたって均等に分配された100以上のビデオクリップの手動キュレーションされたテストセットは、最終評価のために確保される。残りのデータのうち、10%は訓練中に検証セットとして保持される。検証セットは、装置タイプ及びビューによって等しく階層化される。残りのデータは訓練に使用される。モデル前処理のために、入力画像は320×320ピクセルにサイズ変更され、ピクセル値は0.0~1.0の間でスケーリングされる。訓練データのみの場合、訓練入力の多様性を高めるために、入力画像もランダムに増強される。増強変換は、様々な実施形態において、とりわけ、水平又は垂直、回転、スケーリング(ズームイン/アウト)、並進、ぼかし、コントラスト/輝度スケーリング、及びランダムな画素ロップアウトを反転させることを含む。
動作303では、機構は、アクセスされた訓練データを使用してモデルを訓練する。いくつかの実施形態では、モデル訓練は、2段階プロセスである。まず、モデルはオブジェクト検出タスクについてのみ訓練され、分類器層は使用されない。次いで、モデルは分類タスクについて訓練され、共有層のネットワーク重量パラメータは凍結され、オブジェクト検出層は使用されない。いくつかの実施形態では、各ステップについて、機構は、ADAMオプティマイザを使用して1000エポックで512のバッチサイズでネットワークを訓練し、指数関数的に減衰する学習速度は0.001で始まり、0.0001で終わる。
動作304では、機構は、訓練されたモデルを記憶する。いくつかの実施形態では、動作304は、訓練中に決定されたニューラルネットワーク接続重みを保存することを含む。いくつかの実施形態では、動作304は、訓練されたモデルを、いくつかの携帯型撮像装置の各々などの生成画像を評価するために使用される装置に分配することを含む。動作304の後、このプロセスは終了する。いくつかの実施形態では、このプロセスは、モデル精度を改善すること、新しいビュー、構造、撮像モダリティ、又は装置設計を追加すること、などを含む様々な目的のために繰り返すことができる。
当業者は、図3に示す動作及び以下に論じられる任意のフロー図は、様々な方法で変更され得ることを理解するであろう。例えば、動作の順序は並べ替えてもよく、いくつかの動作は、並列に実行されてもよく、図示された動作は省略されてもよく、又は他の動作が含まれてもよく、示された動作は、部分動作に分割されてもよく、又は複数の示された動作は、単一の動作に組み合わされてもよい、などである。
図5は、作成中の患者画像を処理するために、いくつかの実施形態において機構によって実行されるプロセスを示すフロー図である。いくつかの実施形態では、機構は、1つ以上の携帯型撮像装置の各々に対してこのプロセスを実行する。いくつかの実施形態では、機構は、これらの携帯型撮像装置のうちの1つによって捕捉された各患者画像に関してこのプロセスを実行する。いくつかの実施形態では、機構は、1つ以上の物理サーバ、及び/又は仮想クラウドサーバなどの1つ以上の仮想サーバでこのプロセスを実行する。動作501において、機構は患者画像にアクセスする。いくつかの実施形態では、患者画像は、超音波センサによって同時に捕捉された超音波画像である。
図6は、機構によってアクセスされるサンプル患者画像を示す医療画像図である。患者画像600は、超音波画像である。以下に論じられる図7及び図9にも示されるこの超音波画像は、特許図面においてより容易かつ忠実に生成されるように、グレースケール反転されている。
図5に戻ると、動作502において、機構は、患者画像によって表されるビューと、どの構造が視覚化可能(すなわち、可視)であるか及びそれらの位置の両方を予測するために、動作501においてアクセスされた患者画像を1つ以上の訓練された機械学習モデルにかける。
図7は、機構によって識別された構造を示すために注釈付けされた、サンプル患者画像を示す医療画像図である。特に、患者画像700は、各々が中央にドット及び境界矩形で示される以下の構造:右心室流出路701、右心室702、左心室703、三尖弁704、及び僧帽弁705を示すように注釈が付けられている。サンプル患者画像を処理する際に、機構はまた、それが心尖部四腔ビュー(図示せず)を表すと判定する。
図5に戻ると、動作503において、機構は、動作502で予測されたビューの許容可能な構造のリストにアクセスする。
図8は、様々なビューの許容構造のリストを記憶するために、いくつかの実施形態において機構によって使用される許可された構造表のサンプル内容を示す表図である。許容構造の表800は、各々がビューとそのビューで許可された構造との様々な組み合わせに対応する、行801~828などの行から構成される。各行は、ビューを識別するビュー列851と、ビューの構造を識別及びラベル付けする許容構造列852とに分割される。例えば、行808は、心尖部四腔ビューにおいて、僧帽弁が許容構造であることを示す。様々な実施形態において、許容構造の表に示されるリストは、編集上の裁量の問題として手動で生成され、訓練画像上のラベルから自動的にコンパイルされる。
特定のビューの許容構造のリストにアクセスするために、機構は、そのビューがビュー列で発生する許容構造の表の行を選択し、選択された行から、許容構造の列で発生する構造を抽出する。予測ビューが心尖部四腔ビューである実施例の文脈では、機構は、以下の10個の許容構造、すなわち大動脈、心房中隔、心室中隔、左心房、左心室、左心室流出路、僧帽弁、右心房、右心室、及び三尖弁を得るために行809~818を選択する。
図8は、その内容及び構成が人間の読み手によってより理解しやすくなるように設計された表を示しているが、当業者は、この情報を記憶するために機構によって使用される実際のデータ構造が、例えばそれらが異なる方法で構成することができ、示されているよりも多い又は少ない情報を含むことができ、符号化、圧縮、暗号化、及び/又は索引付けでき、示されているよりもはるかに多数の行を含むことができるという点で、示された表とは異なり得ることを理解するであろう。
図5に戻ると、動作504において、機構は、動作503でアクセスした許容構造のリストにないものを除外するために、動作502で予測された可視構造をフィルタリングする。実施例の文脈において、機構は、心尖部四腔ビューについて動作503でアクセスしたリストと以下の予測構造、すなわち右心室、左心室、三尖弁、及び僧帽弁を一致させる。右心室流出路が一致しない場合、機構はこの構造を除外し、上に列挙した4つの構造のみが残る。動作505では、機構は、動作501でアクセスした患者画像を増強して、動作504のフィルタリングによって除外されなかった動作502で予測された可視構造の全てを識別する。
図9は、機構によって識別された構造を示すために注釈付けされ、予測ビューに許可された構造にフィルタリングされたサンプル患者画像を示す医療画像図である。図9を図6と比較することによって、機構が右心室902、左心室903、三尖弁904、及び僧帽弁905の注釈を追加していることが分かる。いずれの場合も、示される注釈は、構造の完全名称又は略語、構造の中心のドット、及び境界矩形を含む。これらの注釈は、心尖部四腔ビューには許容されない、図7に示す左心室流出路701を省略している。いくつかの実施形態(図示せず)では、機構は、患者画像に注釈を付ける一部として、各識別された構造の境界をトレースする。
図5に戻ると、動作506において、機構は、患者画像を生成した医療撮像装置に統合又は接続された表示装置上などに、動作505で作成された拡張画像を表示させる。いくつかの実施形態(図示せず)では、機構はまた、拡張画像を永続的に記憶し、及び/又は記憶、レビュー、及び/又は分析のためにそれを他の場所に送信する。動作506の後、このプロセスは終了する。
図10は、いくつかの実施形態において機構内で発生するデータフローを示すデータフロー図である。データフロー1000では、患者画像1001は、オブジェクト検出ネットワーク1010及びビュー分類器ネットワーク1030の両方に供される。上述のように、様々な実施形態では、これらのネットワークは独立しているか、交差するか、又は識別可能に合体されている。オブジェクト検出ネットワークは、患者画像で検出された構造のリスト1020を生成する。ビュー分類器ネットワークは、患者画像のビュー分類1040を生成する。このビュー分類から、機構は、許容構造のリスト1050を生成する。機構は、許容構造のリストを使用して、検出された構造のリストをフィルタリングし、検出された構造のフィルタリングされたリスト1060を取得する。機構は、検出された構造のフィルタリングされたリストを使用して、フィルタリングされた構造のリストを識別するために拡張された患者画像のコピー1070を生成する。
上に記載した様々な実施形態を組み合わせ、更なる実施形態を提供することができる。米国特許、本明細書で言及され、及び/又は出願データシートに列挙された米国特許出願公開、米国特許明細書、外国の特許、外国の特許明細書及び非特許刊行物は全て、その全体が参考として本明細書に援用される。実施形態の態様を改変し、必要な場合には、様々な特許、明細書及び刊行物の概念を使用して、更なる実施形態を提供することができる。
上記の発明を実施するための形態を考慮して、これら及び他の変更を実施形態に行うことができる。一般的に、以下の特許請求の範囲において、使用される用語は、特許請求の範囲を、明細書及び特許請求の範囲に開示される具体的な実施形態に限定するものと解釈すべきではないが、このような特許請求の範囲によって権利が与えられる全均等物の範囲に沿った全ての可能な実施形態を含むと解釈すべきである。したがって、特許請求の範囲は、本開示によって制限されるものではない。
Claims (25)
- システムであって、
超音波感知装置と、
コンピューティング装置であって、
前記超音波感知装置によって感知された超音波エコーデータを人から直接受信するように構成された通信インターフェースであって、前記受信された超音波エコーデータは超音波画像を含む、通信インターフェースと、
メモリであって、
超音波画像内の生理学的構造を識別するように訓練された1つ以上の第1のニューラルネットワークを記憶し、
超音波画像を特定のビューで捕捉されたものとして分類するように訓練された1つ以上の第2のニューラルネットワークを記憶し、
超音波ビューのセットの各々について、前記超音波ビュー内で識別するために許容された解剖学的構造のリストを記憶するように構成されている、メモリと、
プロセッサであって、
前記受信された超音波画像に、前記1つ以上の訓練された第1のニューラルネットワークを適用して、前記受信された超音波画像内の生理学的構造のセットを識別し、
前記受信された超音波画像に、前記1つ以上の訓練された第2のニューラルネットワークを適用して、前記受信された超音波画像を特定のビューで捕捉されたものとして分類し、
前記分類されたビューの許容された解剖学的構造のリストにアクセスし、
前記受信された超音波画像内で識別された前記生理学的構造のセット内で、前記アクセスされたリスト内に存在するもののみを選択するように構成されている、プロセッサと、
表示装置であって、
前記受信された超音波画像を表示し、
前記セットの前記選択された生理学的構造を視覚的に示す前記超音波画像の注釈を共に表示するように構成されている表示装置と、を備える、前記コンピューティング装置と、を備える、システム。 - 前記超音波感知装置はトランスデューサを備える、請求項1に記載のシステム。
- 前記超音波ビューのセットの各々は、特定の器官を対象とするビューであり、前記超音波ビューのセットの各々について列挙された前記許容された解剖学的構造は、その器官の構成構造である、請求項1に記載のシステム。
- コンピューティングシステムに方法を実行させるように構成されたコンテンツを集合的に有するコンピュータ可読媒体の1つ以上のインスタンスであって、前記方法は、
医療撮像画像にアクセスすることと、
画像が対応するビューを認識するように訓練された第1の機械学習モデルにアクセスすることと、
前記アクセスされた画像に前記第1の機械学習モデルを適用して、前記アクセスされた画像が対応するビューを認識することと、
前記認識されたビューに対応する画像の許容された解剖学的特徴のリストにアクセスすることと、
画像内で視覚化された解剖学的特徴のセットのうちのいずれかを識別するように訓練された第2の機械学習モデルにアクセスすることと、
前記アクセスされた画像に前記第2の機械学習モデルを適用して、前記アクセスされた画像内で視覚化された前記解剖学的特徴のセットのいずれかを識別することと、
前記識別された解剖学的特徴をフィルタリングして、前記アクセスされたリスト上にないものを除外することと、
前記アクセスされた画像を、前記フィルタリングされた識別された解剖学的特徴の各々の視覚的表示と重ね合わせて表示させることと、を含む、コンピュータ可読媒体の1つ以上のインスタンス。 - フィルタリングされた識別された解剖学的特徴の各重ね合わされた視覚的表示は、前記フィルタリングされた識別された解剖学的特徴の前記アクセスされた画像内の視覚化内の少なくとも1つの点を識別する、請求項4に記載のコンピュータ可読媒体の1つ以上のインスタンス。
- フィルタリングされた識別された解剖学的特徴の各重ね合わされた視覚的表示は、前記フィルタリングされた識別された解剖学的特徴の前記アクセスされた画像内の視覚化を含む境界ボックスである、請求項4に記載のコンピュータ可読媒体の1つ以上のインスタンス。
- フィルタリングされた識別された解剖学的特徴の各重ね合わされた視覚的表示は、前記フィルタリングされた識別された解剖学的特徴の前記アクセスされた画像内の視覚化の境界のトレースである、請求項4に記載のコンピュータ可読媒体の1つ以上のインスタンス。
- フィルタリングされた識別された解剖学的特徴の各重ね合わされた視覚的表示は、前記フィルタリングされた識別された解剖学的特徴の前記アクセスされた画像内の視覚化のカバーマップオーバーレイである、請求項4に記載のコンピュータ可読媒体の1つ以上のインスタンス。
- フィルタリングされた識別された解剖学的特徴の各重ね合わされた視覚的表示は、前記フィルタリングされた識別された解剖学的特徴がそれによって既知である名前である、請求項4に記載のコンピュータ可読媒体の1つ以上のインスタンス。
- 前記認識されたビューは特定の器官を対象とし、前記認識されたビューのために列挙された前記許容された解剖学的特徴は、その器官の構成構造を備える、請求項4に記載のコンピュータ可読媒体の1つ以上のインスタンス。
- 前記認識されたビューは特定の器官を対象とし、前記認識されたビューのために列挙された前記許容された解剖学的特徴は、その器官のランドマークを備える、請求項4に記載のコンピュータ可読媒体の1つ以上のインスタンス。
- 前記方法は、
前記第1の機械学習モデルを訓練することと、
前記第2の機械学習モデルを訓練することと、を更に含む、請求項4に記載のコンピュータ可読媒体の1つ以上のインスタンス。 - 前記アクセスされた医療撮像画像は超音波画像である、請求項4に記載のコンピュータ可読媒体の1つ以上のインスタンス。
- 機械学習モデルを訓練するためのコンピューティングシステムにおける方法であって、
注釈付き超音波画像訓練観察の本体にアクセスすることと、
注釈付き訓練観察の前記本体の少なくとも一部を使用して、第1の機械学習モデルを訓練して、超音波画像に基づいて、それが表すビューを予測させることと、
注釈付き訓練観察の前記本体の少なくとも一部を使用して、第2の機械学習モデルを訓練して、超音波画像に基づいて、それが視覚化する解剖学的構造を予測させることと、
前記訓練された第1及び第2の機械学習モデルを永続的に記憶することであって、それにより、生成された超音波画像は、それが表すビューを予測するために第1の機械学習モデルに供されることができ、及びそれが視覚化する解剖学的構造を予測するために第2の機械学習モデルに供されることができる、ことと、を含む、方法。 - 前記生成された超音波画像を前記第2の機械学習モデルに供することによって予測される前記解剖学的構造をフィルタリングして、前記生成された超音波画像を前記第1の機械学習モデルに供することによって予測される前記ビューについて記憶された前記表示によって示されない解剖学的構造を除外することができるように、超音波画像によって表される複数のビューの各々について、前記ビューを表す超音波画像内で視覚化可能であると予想される1つ以上の解剖学的構造の表示を永続的に記憶すること、
を更に備える、請求項14に記載の方法。 - 前記第2の機械学習モデルの一部は、前記第1の機械学習モデルと共有され、
前記第2のモデルは、前記第2の機械学習モデルの前記共有部分の訓練された状態を含む前記第2の機械学習モデルの訓練された状態を取得するように訓練され、
前記第2のモデルが訓練された後、前記第2の機械学習モデルと共有されない前記第1の機械学習モデルの一部は、前記第1の機械学習モデルと共有される前記第2の機械学習モデルの前記一部の前記訓練された状態を使用して訓練される、請求項14に記載の方法。 - 注釈付き超音波画像訓練観察を複製し、それらについて予測される前記ビュー及び構造に意味的に影響を及ぼすべきではない1つ以上の方法で前記複製超音波画像を修正することによって、前記注釈付き超音波画像訓練観察の前記本体を拡張することを更に含む、請求項14に記載の方法。
- データ構造を集合的に記憶するコンピュータ可読媒体の1つ以上のインスタンスであって、前記データ構造は、
機械学習モデルであって、
放射線画像に基づいて、それが表すビューを予測するように訓練された第1の部分と、
放射線画像に基づいて、それが視覚化する解剖学的構造を予測するように訓練された第2の部分と、を備え、
それにより、前記モデルは、それが表すビュー及びそれが視覚化する解剖学的構造を予測するために、区別された放射線画像に適用することができる、機械学習モデルを備える、コンピュータ可読媒体の1つ以上のインスタンス。 - 前記モデルの前記第1及び前記第2の部分がそれに基づいて予測するように訓練される前記放射線画像は超音波画像である、請求項18に記載のコンピュータ可読媒体の1つ以上のインスタンス。
- 前記モデルの前記第1及び第2の部分は別個である、請求項18に記載のコンピュータ可読媒体の1つ以上のインスタンス。
- 前記モデルの前記第1及び第2の部分は、共有部分で交差する、請求項18に記載のコンピュータ可読媒体の1つ以上のインスタンス。
- 前記モデルの前記第1及び第2の部分の各々は、1つ以上の人工ニューラルネットワークから構成される、請求項18に記載のコンピュータ可読媒体の1つ以上のインスタンス。
- 前記データ構造は、
区別された放射線画像によって視覚化されると予測される解剖学的構造がフィルタリングされて、区別された放射線画像が表すと予測されるビューのリストにない解剖学的構造を除外することができるように、1つ以上のビューの各々について、ビューを表す放射線画像内でその表示が許容されている構造のリストを更に備える、請求項18に記載のコンピュータ可読媒体の1つ以上のインスタンス。 - 前記モデルの前記第2の部分が前記区別された放射線画像に適用される場合、前記区別された放射線画像が前記第1のモデルによって表すように予測されるビューにも適用できるように、前記モデルの前記第2の部分はビューを独立変数としてとる、請求項18に記載のコンピュータ可読媒体の1つ以上のインスタンス。
- 前記モデルは、前記モデルの第2の部分が前記区別された放射線画像に適用される場合、前記区別された放射線画像が表すと前記第1のモデルによって予測される前記ビューの第2の部分が適用のために選択され得るように、複数のビューの各々について異なる第2の部分を含む、請求項18に記載のコンピュータ可読媒体の1つ以上のインスタンス。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063022986P | 2020-05-11 | 2020-05-11 | |
US63/022,986 | 2020-05-11 | ||
US16/913,322 | 2020-06-26 | ||
US16/913,322 US11523801B2 (en) | 2020-05-11 | 2020-06-26 | Automatically identifying anatomical structures in medical images in a manner that is sensitive to the particular view in which each image is captured |
PCT/US2021/031415 WO2021231230A1 (en) | 2020-05-11 | 2021-05-07 | Automatically identifying anatomical structures in medical images in a manner that is sensitive to the particular view in which each image is captured |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023525743A true JP2023525743A (ja) | 2023-06-19 |
Family
ID=78411648
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022567788A Pending JP2023525743A (ja) | 2020-05-11 | 2021-05-07 | 各画像が捕捉された特定のビューに敏感な方法で医療画像内の解剖学的構造を自動的に識別する |
Country Status (4)
Country | Link |
---|---|
US (1) | US11523801B2 (ja) |
EP (1) | EP4149362A4 (ja) |
JP (1) | JP2023525743A (ja) |
WO (1) | WO2021231230A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11532084B2 (en) | 2020-05-11 | 2022-12-20 | EchoNous, Inc. | Gating machine learning predictions on medical ultrasound images via risk and uncertainty quantification |
US11636593B2 (en) * | 2020-11-06 | 2023-04-25 | EchoNous, Inc. | Robust segmentation through high-level image understanding |
US12144686B2 (en) | 2021-10-25 | 2024-11-19 | EchoNous, Inc. | Automatic depth selection for ultrasound imaging |
US12213840B2 (en) | 2022-03-14 | 2025-02-04 | EchoNous, Inc. | Automatically establishing measurement location controls for doppler ultrasound |
WO2023242072A1 (en) * | 2022-06-17 | 2023-12-21 | Koninklijke Philips N.V. | Supplemented ultrasound |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8092388B2 (en) * | 2007-09-25 | 2012-01-10 | Siemens Medical Solutions Usa, Inc. | Automated view classification with echocardiographic data for gate localization or other purposes |
JP6187444B2 (ja) | 2014-03-20 | 2017-08-30 | 株式会社村田製作所 | 電力増幅モジュール |
EP3380859A4 (en) * | 2015-11-29 | 2019-07-31 | Arterys Inc. | AUTOMATED SEGMENTATION OF CARDIAC VOLUME |
EP3471623B1 (en) * | 2016-06-20 | 2023-01-25 | Butterfly Network, Inc. | Automated image acquisition for assisting a user to operate an ultrasound device |
US9589374B1 (en) | 2016-08-01 | 2017-03-07 | 12 Sigma Technologies | Computer-aided diagnosis system for medical images using deep convolutional neural networks |
RU2019125590A (ru) * | 2017-01-19 | 2021-02-19 | Нью Йорк Юниверсити | Система и способ ультразвукового анализа |
WO2018140596A2 (en) | 2017-01-27 | 2018-08-02 | Arterys Inc. | Automated segmentation utilizing fully convolutional networks |
US11245887B2 (en) * | 2017-09-14 | 2022-02-08 | Samsung Electronics Co., Ltd. | Electronic device and operation method therefor |
ES2966394T3 (es) * | 2017-12-11 | 2024-04-22 | Hologic Inc | Sistema de localización por ultrasonidos con marcadores de sitio de biopsia avanzados |
EP3536245A1 (en) * | 2018-03-08 | 2019-09-11 | Koninklijke Philips N.V. | A system and method of identifying characteristics of ultrasound images |
WO2019178404A1 (en) * | 2018-03-14 | 2019-09-19 | The Regents Of The University Of California | Automated cardiac function assessment by echocardiography |
CN112040876B (zh) | 2018-04-20 | 2024-10-11 | 皇家飞利浦有限公司 | 自适应超声扫描 |
US11540796B2 (en) * | 2018-05-23 | 2023-01-03 | Case Western Reserve University | Prediction of risk of post-ablation atrial fibrillation based on radiographic features of pulmonary vein morphology from chest imaging |
US10631791B2 (en) * | 2018-06-25 | 2020-04-28 | Caption Health, Inc. | Video clip selector for medical imaging and diagnosis |
WO2020020809A1 (en) | 2018-07-26 | 2020-01-30 | Koninklijke Philips N.V. | Ultrasound system with an artificial neural network for guided liver imaging |
US11446008B2 (en) * | 2018-08-17 | 2022-09-20 | Tokitae Llc | Automated ultrasound video interpretation of a body part with one or more convolutional neural networks |
US10751029B2 (en) * | 2018-08-31 | 2020-08-25 | The University Of British Columbia | Ultrasonic image analysis |
EP3846696A1 (en) * | 2018-09-05 | 2021-07-14 | Koninklijke Philips N.V. | Fat layer identification with ultrasound imaging |
JP7290231B2 (ja) * | 2018-12-11 | 2023-06-13 | エコ.エーアイ プライベート リミテッド | 心臓病の自動化された心臓測定および診断、予測、および予後のために2dおよびドップラーモダリティ心エコー図画像を認識および分析する自動臨床ワークフロー |
US10430946B1 (en) | 2019-03-14 | 2019-10-01 | Inception Institute of Artificial Intelligence, Ltd. | Medical image segmentation and severity grading using neural network architectures with semi-supervised learning techniques |
CN113905670A (zh) * | 2019-05-31 | 2022-01-07 | 皇家飞利浦有限公司 | 引导式超声成像 |
US20210345986A1 (en) * | 2020-05-11 | 2021-11-11 | EchoNous, Inc. | Automatic evaluation of ultrasound protocol trees |
US11532084B2 (en) * | 2020-05-11 | 2022-12-20 | EchoNous, Inc. | Gating machine learning predictions on medical ultrasound images via risk and uncertainty quantification |
US11636593B2 (en) * | 2020-11-06 | 2023-04-25 | EchoNous, Inc. | Robust segmentation through high-level image understanding |
-
2020
- 2020-06-26 US US16/913,322 patent/US11523801B2/en active Active
-
2021
- 2021-05-07 EP EP21804492.3A patent/EP4149362A4/en active Pending
- 2021-05-07 JP JP2022567788A patent/JP2023525743A/ja active Pending
- 2021-05-07 WO PCT/US2021/031415 patent/WO2021231230A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
US20210345992A1 (en) | 2021-11-11 |
US11523801B2 (en) | 2022-12-13 |
EP4149362A1 (en) | 2023-03-22 |
EP4149362A4 (en) | 2024-05-01 |
WO2021231230A1 (en) | 2021-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11523801B2 (en) | Automatically identifying anatomical structures in medical images in a manner that is sensitive to the particular view in which each image is captured | |
JP7361470B2 (ja) | ユーザによる超音波装置の操作を援助するための自動画像取得 | |
US10893850B2 (en) | Methods and apparatuses for guiding collection of ultrasound data using motion and/or orientation data | |
US20190142388A1 (en) | Methods and apparatus for configuring an ultrasound device with imaging parameter values | |
US11532084B2 (en) | Gating machine learning predictions on medical ultrasound images via risk and uncertainty quantification | |
US11559279B2 (en) | Methods and apparatuses for guiding collection of ultrasound data using motion and/or orientation data | |
US11636593B2 (en) | Robust segmentation through high-level image understanding | |
US20200037986A1 (en) | Methods and apparatuses for guiding collection of ultrasound data using motion and/or orientation data | |
CN110310271A (zh) | 颈动脉斑块的性质判别方法、存储介质及超声装置 | |
JP2023525741A (ja) | 超音波プロトコルツリーの自動評価 | |
KR20190002957A (ko) | 컨볼루션 신경망을 이용한 혈관내 초음파 영상에서의 혈관벽 및 루멘 영역화 방법 | |
US12144686B2 (en) | Automatic depth selection for ultrasound imaging | |
US20230263501A1 (en) | Determining heart rate based on a sequence of ultrasound images | |
US12144682B2 (en) | Automation-assisted venous congestion assessment in point of care ultrasound | |
US20230148991A1 (en) | Automatically detecting and quantifying anatomical structures in an ultrasound image using a customized shape prior | |
EP4368114A1 (en) | Systems and methods for transforming ultrasound images | |
US12213840B2 (en) | Automatically establishing measurement location controls for doppler ultrasound | |
US20230342922A1 (en) | Optimizing ultrasound settings |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240408 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20241128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250114 |