CN110619945A - 针对机器学习网络的输入的训练的量的表征 - Google Patents
针对机器学习网络的输入的训练的量的表征 Download PDFInfo
- Publication number
- CN110619945A CN110619945A CN201910530142.1A CN201910530142A CN110619945A CN 110619945 A CN110619945 A CN 110619945A CN 201910530142 A CN201910530142 A CN 201910530142A CN 110619945 A CN110619945 A CN 110619945A
- Authority
- CN
- China
- Prior art keywords
- machine learning
- training
- training data
- input
- values
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 159
- 238000010801 machine learning Methods 0.000 title claims abstract description 70
- 238000012512 characterization method Methods 0.000 title abstract description 3
- 230000006870 function Effects 0.000 claims abstract description 71
- 238000000034 method Methods 0.000 claims description 32
- 238000013507 mapping Methods 0.000 claims description 17
- 230000004044 response Effects 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000003066 decision tree Methods 0.000 claims description 9
- 238000009826 distribution Methods 0.000 claims description 8
- 238000002059 diagnostic imaging Methods 0.000 claims description 7
- 238000012706 support-vector machine Methods 0.000 claims description 7
- 238000003064 k means clustering Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 description 20
- 238000012545 processing Methods 0.000 description 13
- 238000002591 computed tomography Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 210000000056 organ Anatomy 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 210000003484 anatomy Anatomy 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000009206 nuclear medicine Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 238000004393 prognosis Methods 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 238000003325 tomography Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 230000000747 cardiac effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000004195 computer-aided diagnosis Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000002596 diffuse optical imaging Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000009533 lab test Methods 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 230000003211 malignant effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000012633 nuclear imaging Methods 0.000 description 1
- 238000012014 optical coherence tomography Methods 0.000 description 1
- 239000011295 pitch Substances 0.000 description 1
- 238000002600 positron emission tomography Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/245—Classification techniques relating to the decision surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7796—Active pattern-learning, e.g. online learning of image or video features based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/945—User interactive design; Environments; Toolboxes
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Public Health (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Probability & Statistics with Applications (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Image Analysis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
针对机器学习网络的输入的训练的量的表征。基于相对于用于训练模型的训练数据或模型本身的当前输入,通知用户机器学习模型的可靠性。在医学情况下,将针对当前患者的数据与用于训练预测模型的训练数据和/或与预测模型的决策函数进行比较。比较指示相对于当前患者的训练内容,因此向用户提供关于针对当前情况的预测的可靠性的信息。该指示处理当前患者的数据与训练数据或相对于预测模型的变化,允许用户看到预测模型相对于当前患者训练得有多好。该指示是对通过将预测模型应用于当前患者的数据的任何全局置信度输出的补充。
Description
背景技术
本实施例涉及机器学习。机器学习算法已经示出对医学图像的计算机辅助诊断的巨大前途。用于概括、分类和/或区分不同临床发现的算法的能力取决于训练数据的质量和数量。然而,不同的疾病或其他临床指征(indication)以不同的患病率发生,导致针对不同情况的训练数据的不同可用性。对于机器学习模型的应用,其中与针对特定患者的数据相比,训练数据可能是不同的,看起来不切实际的结果可以被呈现给用户。例如,在器官分割的情况下,机器学习分割可能产生看起来不切实际的器官轮廓,其中在训练中使用具有相似器官结构的不足的训练数据。这导致用户和应用之间的信任方面的中断。
为了克服这个问题,可以收集更多的训练数据。然而,对于某些情况,可能无法获得足够的训练数据。另一种方法是应用基于规则或手动编程的应用,但是这样的应用具有用于对某些患者情况进行概括的有限的能力。
发明内容
通过介绍,以下描述的优选的实施例包括用于表征训练的量的方法、系统、指令和计算机可读介质。基于相对于用于训练模型的训练数据或模型本身的当前输入,通知用户机器学习模型的可靠性。在医学情况下,将针对当前患者的数据与用于训练预测模型的训练数据和/或与预测模型的决策函数进行比较。比较指示相对于当前患者的训练内容,因此向用户提供关于针对当前情况的预测的可靠性的信息。该指示处理当前患者的数据与训练数据或相对于预测模型的变化,允许用户看到预测模型相对于当前患者训练得有多好。该指示是对通过将预测模型应用于当前患者的数据的任何全局置信度输出的补充。
在第一方面中,提供了一种用于表征医学系统中的训练的量的方法。医学成像扫描仪扫描患者。将机器学习网络的输入特征的值应用于机器学习网络。所述值是针对患者的,并且所述值中的至少一个来自扫描。所述应用导致机器学习网络的输出。确定患者的输入特征的值与(a)针对用于训练机器学习网络的训练数据的输入特征的值和/或(b)机器学习网络的决策函数的一个或多个相对位置。显示由机器学习网络输出的图像和相对于针对患者的值的训练的量。训练的量是相对位置的函数。
在第二方面中,提供了一种用于表征机器学习预测模型相对于输入样本的训练的量的系统。提供存储器,用于存储参数的值的训练数据、参数的值的输入样本和机器学习预测模型。处理器被配置成响应于参数的值的输入样本的输入,从机器学习预测模型输出,以及从针对输入样本的参数的值与训练数据的参数的值和/或与机器学习预测模型的决策函数的比较确定机器学习预测模型的训练的量。显示器被配置成输出机器学习预测模型相对于输入样本的训练的量的图像。
在第三方面中,提供了一种表征训练的量的方法。将训练数据映射在特征空间中,其中训练数据的每个样本由地面实情(ground truth)标记。将不在训练数据中的针对当前样本的输入映射在特征空间中。从特征空间中的训练数据确定针对当前样本的输入的距离的度量。将度量显示为针对用训练数据训练的机器学习预测模型的训练的量。
通过以下权利要求来限定本发明,并且在该部分中没有什么应被看作是对那些权利要求的限制。以下结合优选的实施例讨论本发明的另外的方面和优势,并且之后可以独立地或组合地要求保护本发明的另外的方面和优势。
附图说明
部件和图不一定按比例,代之以将重点置于说明本发明的原理。此外,在图中,相同的参考标号贯穿不同的视图表示相应的部分。
图1是用于表征预测模型相对于当前输入的训练的量的方法的一个实施例;
图2图示了训练数据和当前样本的示例映射;
图3A-D图示了用于确定相对于当前样本的训练的量的不同方法,其中使用了不同类型的预测模型;以及
图4是用于表征机器学习预测模型相对于输入样本的训练的量的系统的一个实施例的框图。
具体实施方式
为了帮助机器学习预测模型的用户理解给定预测的可靠性,提供了置信度度量。对于机器学习算法,相关训练的量由度量来表征。度量可以测量当前输入特征矢量与训练数据的特征矢量的距离。度量可以测量当前输入特征矢量与训练数据的特征空间中的决策函数的距离。度量可以测量相对于当前输入特征矢量的错误分类的训练数据的量。该度量可以测量当前样本的附近的训练数据点的密度。
图1示出了用于表征相对于具体输入的训练的量的方法的一个实施例。不是依赖于从机器学习预测模型本身输出的置信度的任何全局指示,而是将用于预测的输入特征矢量与预测模型或训练数据的决策函数进行比较,以指示训练的量或预测模型相对于具体输入特征矢量被训练得有多好。如果当前样本远离决策函数,并且很好地驻留在一个分类区域中,则较少数量的训练数据点可能是足够的。相反,如果当前样本位于决策函数的附近,则可能需要相邻训练数据点的更高局部密度,以确保高置信度的分类。
在下面的示例中,表征了相对于医学成像或在医学系统中的训练的量。可以提供非医学实施例,诸如用于配电、图像处理、工业控制或其中使用机器学习预测模型的其他环境。
由图4的系统或另一系统来实现该方法。例如,该方法由计算机、服务器、医学成像器或其他处理器实现。医学成像器在动作10中扫描。图像或其他处理器(例如,服务器、计算机或医学成像器的处理器)在动作12中应用,在动作14中确定,在动作17中的阈值化,并输出到显示设备,其在动作18中显示。可以使用不同的设备。
可以提供附加的、不同的或更少的动作。例如,诸如在其中没有成像数据的情况下使用非成像数据或在非医学实施例中,不提供动作10的扫描。作为另一示例,在动作18中,输出是到存储器(例如,病历)和/或计算机网络而不是显示器。在又一示例中,在输出是没有任何阈值化的度量本身的情况下,不使用动作17。作为又一示例,诸如相对于输入的训练的量太低或者指示可能预测不良的情况下,不提供动作12。
动作按所示顺序(例如,从上到下或数字)或其他顺序执行。例如,可以在动作18之后应用动作17,在动作18中,度量被显示,并且然后显示的度量被阈值化,以便然后指示相对于训练的量的关注的级别。作为另一示例,动作12可以在动作18之后执行或者根本不执行。
在动作10中,医学成像扫描仪扫描患者。医学成像扫描仪是任何医学成像器,诸如计算断层摄影术(CT)、磁共振(MR)、C臂、超声、x射线、光声断层摄影术、光学相机、深度相机、漫射光学成像、磁性粒子成像、光学相干断层摄影术、核医学或用于扫描患者的内部和/或外部的其他医学扫描仪。
沿着平面或在体积中扫描患者。诸如x射线、电磁脉冲、声学或其他之类的能量可以被传输到患者中。在通过患者时能量被检测,和/或从患者接收或检测对能量的响应。替代地,扫描测量来自患者内的辐射。检测到的响应、能量或辐射是扫描数据。
扫描数据可以作为扫描的部分来处理。例如,应用重建。重建可以通过患者内的位置来确定患者的响应,针对对于患者的体积或平面中的体素或像素。对于MR,用傅立叶变换重建k空间数据。对于CT,通过计算断层摄影术来重建来自相对于患者的不同方向的投影图像。对于核医学,通过断层摄影术来重建检测到的沿着响应的线的辐射。
可以获得非扫描数据。来自其他传感器的数据、实验室结果、历史、发现或其他信息通过接收或查找获得。获得具有或不具有其他数据的成像或扫描数据。替代地,获得没有成像或扫描数据的其他数据。获取针对机器学习模型的输入特征矢量的数据。
在动作12中,处理器将机器学习网络的输入特征的值应用于机器学习网络。从动作10中获得的信息获得或导出的输入特征矢量被输入到机器学习网络。在医学示例中,输入诸如从扫描数据(例如,图像处理)或扫描数据本身(例如,图像)导出的针对患者的特征的值。可以输入来自扫描之外的源的特征的值。
机器学习网络是用机器学习算法训练的任何预测模型。可以使用任何类型的机器学习和相应的机器学习网络。例如,可以使用具有神经网络架构的深度学习,诸如卷积神经网络、深度信念网络、深度残差学习、强化学习、循环神经网络、递归神经网络、特征金字塔网络、Siamese网络和/或生成对抗网络。可以使用概率提升树、支持矢量机、贝叶斯分类器、k均值聚类、决策树、归纳编程或其他网络和相应的训练。
预测模型用于执行任何图像或其他处理功能。预测模型被训练以提供临床发现。例如,预测模型被训练以检测对象(例如,器官或肿瘤)、分割对象、记录不同扫描、模拟功能(例如,心血流量)、融合来自不同扫描的信息、确定诊断、确定预后、推荐治疗、多材料分解和/或其他操作。在一个实施例中,预测模型响应于扫描数据的输入(例如,来自患者的医学成像的一个或多个图像的输入)来输出图像分析(例如,检测或分割)。
使用训练数据来训练预测模型。收集许多样本,诸如数百或数千个输入数据的样本和已知或地面实情输出数据,以进行训练。机器学习算法被应用于基于看不见的输入特征矢量来训练预测模型以输出。可以将与训练样本相同类型但没有地面实情的数据输入到训练的预测模型,从而导致预测响应的输出(例如,响应于患者的图像的输入而输出分割或检测到的对象)。训练数据和新输入数据的基于学习的评估算法被用于创建预测模型。然后,预测模型可以被应用于看不见的输入,诸如扫描或来自对其他患者的扫描的特征。
图2示出了训练数据的示例表示。在该简化的示例中,存在用于预测二元输出(例如,良性或恶性肿瘤)的两个特征(例如,大小和形状)。圆圈表示良性,并且星表示恶性。每个圆圈和星表示训练数据的一个样本(例如,总共14个样本)。可以提供多得多的特征、地面实情输出和/或样本。示例特征或参数包括扫描数据(例如,图像)、来自扫描数据的特征(例如,Haar小波)、图像分辨率、剂量、对比度、使用的重建内核、患者年龄、患者性别、患者BMI、患者身高、纹理度量(诸如平均强度、最大强度、最小强度、均匀性、熵(灰度级分布的不规则性)、灰度直方图分布的标准偏差、偏斜度(直方图的不对称性)、峭度(直方图的平坦度)和熵(矩阵的随机性))、能量/角秒矩(像素重复/有序性和共生矩阵的测量值)、不相似性(矩阵中每个元素有多不同的测量结果)、相关性(灰度线性相关性的测量结果)、游程矩阵(run-length matrix)(特定方向上的纹理)、邻域灰度差异矩阵(三个或更多像素之间的空间关系)、对比度(图像中的局部变化的数量)、粗糙度(边缘密度的测量结果)、繁忙度(busyness)(灰度级变化的空间速率的测量结果)和/或其他参数。
如图2中所示,图的特征(例如,样本参数)空间的一些区域包括来自样本的更密集的表示。特征空间的一些区域具有更稀疏的表示。从该训练数据训练的预测模型在预测输出时可能更好,其中看不见的输入特征矢量在比稀疏采样区域更密集采样的区域中。不是仅提供输出而不管看不见的输入处的密度,而是用户还可以被提供关于与看不见的输入相似的训练数据的量的信息,以更好地判断输出的可能可靠性。
预测模型可以输出概率。该全局置信度分数反映了预测的各方面,包括训练数据关于地面实情的可分离性。因此,全局置信度较不直接或根本不表示相对于当前(看不见的)输入样本的训练的量。
训练的网络或预测模型被存储在存储器中。存储训练的人工智能(即机器学习的网络)。训练的结果是矩阵或其他预测模型(例如,过滤器内核、节点链接和/或权重)。预测模型表示通过机器训练学习的知识。
一旦训练,机器学习的网络就由机器应用,所述机器诸如计算机、处理器或服务器。机器使用针对患者的输入数据(即扫描数据、临床信息、来自图像处理的结果、患者信息和/或从其导出的信息)和机器学习网络来生成特定于该患者的输出。将输入特征矢量(例如,图像或其他扫描数据的输入)中的值应用到机器学习网络导致网络的输出。
在某些情况下,输出可能是不准确的。在用户可以查看结果并告知的情况下,则用户知道尝试另一种方法。准确性的缺乏可能对用户来说是不明显的,或者可能需要用户不允许的随时间推移的精确研究。可以表征关于针对患者的输入特征矢量的训练的量,以向用户提供关于预测模型的输出的可靠性的更多信息。
在动作14中,处理器确定患者的输入特征的值与训练数据的相对位置。训练数据可以由其自身和/或预测模型的机器学习网络的决策函数来表示。确定当前输入的值与(a)针对用于训练预测模型的训练数据的输入的值和/或(b)机器学习网络的决策函数的相对位置。相对位置指示预测模型的输出的置信度水平。
相对位置可以是密度、距离或与最靠近的、一组最靠近的、其他子集或所有训练数据或决策函数的相似性的其他测量值。例如,测量从M个最靠近的训练数据样本到针对当前患者的样本的距离。作为另一个示例,测量给定区域内的密度或以针对当前患者的样本为中心的总特征空间的%。
动作15和16表示用于确定预测模型相对于当前输入的训练的量的一个实施例。可以使用其他方法,诸如使用搜索或查找而不是映射。在另一实施例中,机器学习网络被用于基于训练数据或决策函数和当前输入特征矢量来确定量。
在动作15中,处理器将训练数据映射在特征空间中,其中训练数据的每个样本由地面实情标记。可以在训练预测模型之前或之后执行该映射。通过保留输出标签来将训练数据映射在参数空间中。图2图示了映射的一个实施例。映射可以是N维表示,其中N是表示不同特征或参数的数量的整数。可以以任何方式(诸如列表)格式化映射。
代替训练数据的样本或者除了训练数据的样本之外,映射可以是决策函数的。机器学习创建决策函数。得到的预测模型可以被用于映射出决策函数。在一个实施例中,使用输入特征矢量的值组合的常规搜索来确定区分输出的特征空间中的位置。在另一个实施例中,机器学习导致可以被用作映射的学习预测模型的参数化。
图3A-D示出了决策函数的示例映射。图3A示出了表示双特征空间中的二元地面实情之间的区别的虚线。该线可以是弯曲的。在N维空间中,线可以是通过训练学习的弯曲的或其他表面。该表示可以被用于支持矢量机或神经网络。图3B示出了来自k均值聚类的决策函数。如由地面实情表示的那样,聚类被标记。图3C示出了针对决策树的决策函数。多种线、曲线和/或表面表示决策函数的各个部分。图3D示出了针对贝叶斯模型的决策函数。嵌套圆圈表示与学习的分布不同的标准偏差的量。决策函数的其他表示可以被用于相同或其他类型的机器学习。
处理器将不在训练数据中的当前样本的输入映射在特征空间中。当前情况被映射在相同的参数空间中,但没有地面实情。图3A-D各自示出两个示例。在具有二元地面实情且仅两个特征的该简化特征空间中,当前输入特征矢量的两个示例被示出为菱形。在图2的训练数据的映射中示出了这些当前样本的映射(即,图3A-D示出了与图2相同的训练数据的映射)。
在动作16中,处理器从训练数据确定针对当前样本的输入的特征空间中的距离的度量。距离的度量表示当前样本与训练数据和/或决策函数的相对位置。距离是概念或实际距离。例如,确定欧几里德距离。作为另一示例,距离由当前样本周围的区域中的训练数据样本和/或决策函数的密度表示。在又一个实施例中,距离的度量是当前样本周围的预定区域(由特征空间中的范围或特征空间的动态范围的百分比定义)内的训练样本的计数。当前样本的相对位置指示训练的量。
该距离是针对患者的输入特征的子集和训练数据的。例如,识别与当前样本最靠近的M个样本。图3B示出了识别最靠近的三个。M可以是任何整数,诸如3或更大。子集可以针对区域,诸如以当前样本为中心的圆圈或其他形状。区域内的训练数据样本和/或决策函数的部分被用于确定距离。在替代实施例中,距离是针对整个特征空间的,诸如相对于针对整个空间或针对另一区域的平均密度的区域的平均距离或平均密度。
相对位置(例如,距离的度量)可以使用没有地面实情的训练数据的样本。测量当前样本到训练数据的样本的距离,而不管地面实情标签。在其他实施例中,距离的度量是地面实情的函数。例如,最靠近的样本的地面实情对计算进行加权。在具有二元地面实情的欧几里德距离中,一个地面实情可能是负的并且另一个是正的。实际距离的平均值反映了地面实情。在所有M个最靠近的样本具有相同的地面实情的情况下,则距离是最小的。在M个最靠近的样本包括二元地面实情的两者的情况下,则距离更靠近于最小置信度的阈值。地面实情标签可以被用作权重,提供与置信度阈值相比的加权距离。在地面实情在一定范围内(例如,非二元)是连续的情况下,则加权可以同样线性地映射到不同的权重(例如,代替负和正或者除了负和正之外,权重的大小改变)。在其他实施例中,距离的单独度量使用地面实情。针对训练数据的局部(例如,区域内)样本的地面实情的方差或其他统计测量值指示训练数据的量。较大的方差可能指示训练数据的量不足,因为边界可能较不清楚。
当前样本与相邻训练样本的相对位置或度量或距离是预测模型相对于当前样本被训练得有多好的测量值。预测模型相对于当前样本被训练得有多好的较不直接的测量值是与由用训练数据的训练产生的决策函数的相对位置或距离的度量。
在当前样本的距离或相对位置来自决策函数的情况下,则使用到决策函数的最靠近部分的实际距离。可以使用区域或局部密度的测量值,诸如区域内决策函数的位置的长度或数量。
图3A-D示出了相对于训练数据的样本的当前样本。距离的度量基于当前样本和训练数据之间的相对位置、实际距离、密度和/或其他函数,而不使用决策函数。
图3A-D还示出了相对于决策函数的当前样本。根据基础算法,使用决策函数检索置信度度量可以是不同的。图3A示出了其中机器学习网络是支持矢量机或神经网络的一个示例。相对位置被确定为到支持矢量机或神经网络的决策函数的距离(即,点线)。支持矢量机和神经网络旨在确定决策函数(主要是针对支持矢量机的直线和针对神经网络通过位置映射的更复杂的位置)。在这些情况下,度量强调到决策函数的距离。在图3A中,一个当前样本在决策函数上,因此表示训练的量中的低置信度。另一个当前样本离得更远,因此表示训练的量中的更高置信度。
图3B示出了其中利用k均值聚类来训练机器学习网络的一个示例。相对位置被确定为到训练数据的数量M个(例如,M=3))最靠近值的距离。K均值聚类依赖于到某个数量的最靠近训练数据点的距离。大的平均距离表示训练数据的量中的低置信度,并且短的平均距离表示高置信度。左上角中的当前样本位于较小密度区域中,因此具有较长的距离的度量。左下角中的当前样本位于更密集的区域中,因此具有更短的距离的度量。
图3C示出了其中机器学习网络是决策树的一个示例。相对位置被确定为到决策树的决策函数的距离。找到到决策树的最靠近的分段式直线段的距离。决策树构建具有分段式直线段的决策函数。更远离决策函数的当前样本表示更高置信度(例如,参见左下角中的当前样本)。更靠近决策函数的当前样本表示更低置信度(例如,参见决策函数的段上的当前样本)。
图3D示出了其中机器学习网络是贝叶斯模型的一个示例。相对位置被确定为到贝叶斯模型的决策函数的距离。贝叶斯的模型基于概率分布。分布函数的中心中的当前样本表示训练的量中的高置信度(例如,左下角分布的中心附近的当前样本)。其中函数与分布重叠和/或间隔开的位置中的当前样本表示较低置信度(例如,重叠中的当前样本)。
可以使用当前样本与训练数据的距离或相对位置的其他度量。可以使用与当前输入到训练数据点的距离、到决策函数的距离和/或由于决策函数导致的错误分类的训练数据的量有关的任何度量。在训练中,决策函数可能不将所有训练样本分类到它们的地面实情类别中。这可能由于样本中的变化而发生,其中机器训练不具有对变化进行调整的能力。错误分类可能是有目的的,诸如其中样本是有噪声的且训练避免考虑异常值。当前样本周围的区域中的错误分类的训练样本的数量指示相对于当前样本的错误分类的训练数据的量。可以使用所有训练样本的总数。可以使用除计数之外的其他函数,诸如局部密度、错误分类与分类的比率或者到最靠近的错误分类样本的欧几里德距离。
可以直接计算度量,诸如平均欧几里德距离或区域距离。在其他实施例中,训练的量被确定为距离的函数。距离(例如,实际距离或密度)是度量的函数中的变量。可以使用任何函数,诸如基于由预测模型输出的全局置信度来应用权重或具有另一个变量。
在动作17中,处理器将相对位置阈值化。将表示当前样本与训练数据的相对位置的距离的度量与一个或多个阈值进行比较。阈值是表示置信度的水平的预定值。例如,表示较低置信度的度量的值与表示较高置信度的度量的值被区分开。将度量与预定阈值进行比较,使得可以确定警告的级别。如果度量低于置信度阈值,则向用户生成相对于当前样本的训练的量中的较低置信度的警告。度量可以与置信度具有相反关系,因此在度量中高于度量阈值时生成警告。
在动作18中,处理器生成图像。该图像包括机器学习网络的输出。例如,来自扫描的解剖结构的图像与一个或多个图形一起输出,用于来自预测模型输出的检测、分割或其他临床发现。在另一示例中,包括在图像中的患者的部分基于来自预测模型的输出,诸如输出分割的器官的图像。在其他示例中,输出是指示推荐、风险、测量结果或其他信息的字母数字文本。该信息可以是报告的部分或具有或不具有患者的图像表示的单独图像。
该图像还包括相对于针对患者的当前样本的训练的量。例如,度量被用作针对用训练数据训练的机器学习预测模型的训练的量。相对于输入特征矢量的当前样本的训练的量作为度量来输出。输出颜色、图形或其他指示的度量和/或编码的值(例如,相对于一个或多个阈值的值)。该输出向用户指示当前样本与训练数据的相对位置。用户可以使用该信息来确定要多大程度地依赖于来自预测模型的输出。这帮助诊断、预后和/或治疗。
图像可以包括全局置信度。例如,输出百分比或基于百分比的颜色以指示全局置信度,预测模型被训练以输出所述全局置信度。相对于当前样本(例如,距离的度量)的训练的量可以是一个置信度值,并且全局置信度可以是另一个置信度值。这些不同的置信度值一起被输出在相同图像上或分离地输出在不同的图像上。
生成的图像被映射到颜色或灰度,并加载到显示平面或缓冲器。图像从显示平面被读出到显示屏。图像可以在任何用户界面上输出,所述用户界面诸如监视器、平板计算机、智能电话、智能手表或投影仪。用户界面向用户显示度量。
在一个实施例中,用户界面上的图像以数字(例如字母数字)、以拇指向上或拇指向下(或其他二元指示)或指示相对训练的量的其他图形将度量指示为置信度条、交通灯(traffic light)。度量的指示可以是解剖结构的图像和/或颜色的注释或者预测模型和/或解剖结构的图像的输出的其他调制。在一个实施例中,相对训练的量被显示为警告。例如,当前样本与训练数据的相对位置被阈值化。如果置信度低于置信度阈值或者距离高于距离阈值,则输出警告。可以使用任何警告,诸如二元指示、交通灯、相对于置信度条的阈值的指示、使预测模型的输出闪烁或着色或消息。
处理器可以在相同或不同的图像中输出具有训练的量的推荐。训练的量被用于选择推荐,诸如使用动作17中的阈值化的结果来确定推荐。可以针对相对于当前样本和/或不同情况的不同训练的量进行不同的推荐。针对低置信度(例如,高距离)的示例推荐可以包括使用附加的后处理算法、以不同模态获取附加图像、执行附加实验室测试和/或以相同模态但不同扫描和/或重建参数获取附加图像(例如,对于CT,使用不同间距、mAs、kV、注射速率、对比度浓度、旋转时间、内核、切片厚度等)。以相同模态获取附加图像可以改善某些特性,诸如空间分辨率、光谱分辨率、伪像减少、时间分辨率等。
图4示出了用于表征机器学习预测模型相对于输入样本的训练的量的系统的一个实施例的框图。通过与训练数据、预测模型的决策函数和/或错误分类的训练数据的相对量进行比较来确定相对于输入样本的训练的量(例如,输入特征矢量的特征的值)。
该系统包括一个或多个医学成像器42、处理器44、存储器47(例如,病历数据库)和显示器48。可以提供附加的、不同的或更少的部件。例如,在医学成像器42上和/或为处理器44提供用户界面或输入设备。在另一示例中,提供网络或网络连接,诸如用于联网不同部件(例如,医学成像器42与处理器44和/或处理器44与存储器47)。
存储器47、处理器44和/或显示器48是服务器、工作站或计算机的部分。在一个实施例中,存储器47、处理器44和/或显示器48是服务器或工作站。存储器47可以是与处理器44分离的计算机的部分,诸如在云托管的电子健康记录或电子病历系统中。医学成像器42和处理器44处于不同的设施处,诸如彼此远离,或者处于相同的设施处。
医学成像器42是磁共振(MR)、计算断层摄影术(CT)、x射线、超声或核医学(例如,正电子发射断层摄影术或单光子计算断层摄影术)或另一扫描仪。在其他实施例中,医学成像器42是多模态设备,诸如核医学和x射线或CT的组合。在又一其他实施例中,使用有创、其他无创或微创成像系统。
医学成像器42被配置成扫描患者。相同的成像器42可以被用于在不同时间扫描不同的患者。其他成像器42可以被用于扫描其他患者。医学成像器42被配置成将扫描数据输出到处理器44。扫描数据是在任何处理的阶段处由扫描产生的数据。例如,提供无需重建的数据。对于CT,数据可以是针对多个投影的检测器测量结果,而无需重建为针对具体空间位置的值。对于MR,数据可以是傅立叶变换之前的k空间数据,以确定针对具体空间位置的值。对于核成像,数据可以是在断层摄影之前的响应的线值,以分配具体空间位置。作为另一个示例,提供了重建之后的数据。过滤、检测、扫描转换和/或其他图像处理可以被应用于数据或可以不被应用于数据,以与处理器44通信。医学成像器42提供图像数据(例如,扫描数据)作为由以针对生成图像的任何处理的量的扫描产生的数据。图像数据可以被格式化以用于显示,诸如RGB值,或者可以是扫描格式(例如,标量值)。
存储器47是随机存取存储器、系统存储器、高速缓存存储器、硬盘驱动器、光学介质、磁介质、闪存驱动器、缓冲器、数据库、其组合或者用于存储训练数据(例如,参数或特征的值)的其他现在已知或以后开发的存储器设备,该训练数据具有或不具有地面实情、针对给定患者的输入特征或参数矢量的值、一个或多个阈值和/或机器学习预测模型或网络45。存储器47是与处理器44或医学成像器42相关联的计算机的部分,或者是用于通过计算机网络访问的分离或远程数据库。
存储器47或其他存储器替代地或附加地是存储表示可由编程的处理器44和/或医学成像器42执行的指令的数据的非暂时性计算机可读存储介质。在诸如高速缓存、缓冲器、RAM、可移动介质、硬盘驱动器或其他计算机可读存储介质之类的非暂时性计算机可读存储介质或存储器上提供用于实现在本文中讨论的过程、方法和/或技术的指令。非暂时性计算机可读存储介质包括各种类型的易失性的和非易失性的存储介质。响应于存储在计算机可读存储介质中或存储在计算机可读存储介质上的指令的一个或多个集合,执行在图中图示的或在本文中描述的功能、动作或任务。功能、动作或任务独立于特定类型的指令集合、存储介质、处理器或处理策略,并且可以由单独或组合操作的软件、硬件、集成电路、固件、微代码以及诸如此类执行。同样地,处理策略可以包括多处理、多任务、并行处理以及诸如此类。
在一个实施例中,将指令存储在可移动介质设备上,以供本地或远程系统读取。在其他实施例中,将指令存储在远程位置中,用于通过计算机网络或在电话线上传送。在又一其他实施例中,将指令存储在给定计算机、CPU、GPU、张量处理单元(TPU)、神经处理单元、AI加速器或系统内。
处理器44是通用处理器、控制处理器、数字信号处理器、专用集成电路、现场可编程门阵列或用于应用机器学习网络45和/或确定相对于输入样本的训练的量的其他硬件处理器。在一个实施例中,处理器44是计算机、工作站、服务器或被配置成应用图像处理和/或导出特定于患者的发现的其他设备的部分。处理器44可以是计算设备的网络,所述计算设备诸如多个计算机或服务器。处理器44由软件、硬件和/或固件配置。
处理器44被配置成从机器学习预测模型输出。针对机器学习网络45的参数的值的输入样本被输入到机器学习网络45。响应于针对给定患者的输入样本的输入,机器学习网络45生成如训练的输出。输出可以是检测、分割、测量结果、推荐、诊断、预后或其他临床发现。输出可以是或基于置信度(例如,全局置信度)的概率。预测模型输出该概率。
处理器44被配置成确定机器学习预测模型的训练的量。除了使用机器学习网络45之外,处理器44还将当前输入样本与被用于训练机器学习网络45的训练数据进行比较。将针对输入样本的参数的值与训练数据的参数的值和/或机器学习预测模型的决策函数进行比较。另一个比较是关于输入样本的值与错误分类的训练数据的值的。特征空间中的相对位置被用于比较。映射46是关于训练数据、决策函数和/或错误分类的训练样本的。映射位于特征空间中,诸如由特征的值定义的位置。针对当前患者的值被用于识别来自映射46的信息。识别的信息指示训练的量。找到针对当前患者的值与针对特征的全部或子集的映射内容(例如,与训练数据的值)的距离。距离是映射位置之间的矢量差、相对于针对患者的当前值的邻域密度、当前值的邻域中的多个映射位置和/或其他度量。
显示器48是监视器、LCD、投影仪、等离子显示器、CRT、打印机或用于显示机器学习预测模型相对于输入样本的训练的量的图像的其他现在已知或以后开发的设备。可以与其他信息一起显示相对训练的量,诸如输出或从机器学习网络45的输出导出的信息。该量可以连同解剖结构的图像一起指示。
显示器48接收来自处理器44、医学成像扫描仪42或存储器47的输出。处理器44格式化用于显示的数据(例如,映射到RGB值)并将图像存储在缓冲器中,配置显示器48。显示器48使用缓冲器中的图像来生成用于查看的图像。图像包括图形、字母数字文本、解剖扫描和/或其他信息。显示器48位于医学成像器42、处理器44、医生的计算机或其他位置处。
虽然以上通过参考各种实施例已经描述了本发明,但是应当理解,在不脱离本发明的范围的情况下,可以做出许多改变和修改。因此旨在将前述的详细描述视为说明性的而不是限制性的,并且要理解,包括所有等同物的以下的权利要求旨在限定本发明的精神和范围。
Claims (20)
1.一种用于表征医学系统中的训练的量的方法,所述方法包括:
通过医学成像扫描仪扫描患者;
将机器学习网络的输入特征的值应用于机器学习网络,所述值是针对患者的,所述值中的至少一个来自扫描,所述应用导致机器学习网络的输出;
确定患者的输入特征的值与(a)针对用于训练机器学习网络的训练数据的输入特征的值和/或(b)机器学习网络的决策函数的相对位置;以及
显示由机器学习网络输出的图像和相对于针对患者的值的训练的量,训练的量是相对位置的函数。
2.如权利要求1所述的方法,其中确定相对位置包括确定距离。
3.如权利要求1所述的方法,其中确定相对位置包括确定密度。
4.如权利要求1所述的方法,其中确定包括确定与针对训练数据的输入特征的值的相对位置。
5.如权利要求1所述的方法,其中确定包括确定与决策函数的相对位置。
6.如权利要求1所述的方法,进一步包括:确定由于相对于患者的输入特征的值的决策函数而导致的训练数据的错误分类的训练数据的量。
7.如权利要求1所述的方法,其中显示包括将训练的量显示为第一置信度,并将由机器学习网络提供的全局置信度与输出一起显示或将由机器学习网络提供的全局置信度显示为输出。
8.如权利要求1所述的方法,其中显示包括在置信度条上显示训练的量、作为交通灯、作为接受的二元指示或字母数字地显示。
9.如权利要求1所述的方法,进一步包括对相对位置进行阈值化,其中显示包括在相对位置高于阈值的情况下将所述量显示为警告。
10.如权利要求1所述的方法,其中机器学习网络是支持矢量机或神经网络,其中确定包括将相对位置确定为到支持矢量机或神经网络的决策函数的距离,所述决策函数是线或表面。
11.如权利要求1所述的方法,其中机器学习网络是k均值聚类,其中确定包括将相对位置确定为到训练数据的多个最靠近值的距离。
12.如权利要求1所述的方法,其中机器学习网络是决策树,其中确定包括将相对位置确定为到决策树的决策函数的距离,决策树的决策函数是分段式直线段。
13.如权利要求1所述的方法,其中机器学习网络是贝叶斯模型,其中确定包括将相对位置确定为到贝叶斯模型的决策函数的距离,决策函数包括概率分布。
14.如权利要求1所述的方法,其中确定包括针对患者的输入特征的子集和训练数据进行确定。
15.一种用于表征机器学习预测模型相对于输入样本的训练的量的系统,所述系统包括:
存储器,用于存储参数的值的训练数据、参数的值的输入样本和机器学习预测模型;
处理器,其被配置成响应于参数的值的输入样本的输入,从机器学习预测模型输出,以从针对输入样本的参数的值与训练数据的参数的值和/或与机器学习预测模型的决策函数的比较来确定机器学习预测模型的训练的量;以及
显示器,其被配置成输出机器学习预测模型相对于输入样本的训练的量的图像。
16.如权利要求15所述的系统,其中处理器被配置成将训练的量确定为距离。
17.如权利要求15所述的系统,其中显示器被配置成显示具有来自机器学习预测模型的量和输出的图像。
18.一种表征训练的量的方法,所述方法包括:
将训练数据映射在特征空间中,其中训练数据的每个样本由地面实情标记;
将不在训练数据中的针对当前样本的输入映射在特征空间中;
从特征空间中的训练数据确定针对当前样本的输入的距离的度量;以及
将度量显示为针对用训练数据训练的机器学习预测模型的训练的量。
19.如权利要求18所述的方法,其中确定度量包括确定针对当前样本的输入与训练数据的多个最靠近样本的欧几里德距离,欧几里德距离由最靠近样本的地面实情加权。
20.如权利要求18所述的方法,进一步包括:从用训练数据训练的机器学习预测模型的决策函数确定针对当前样本的输入的距离的度量。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/012151 | 2018-06-19 | ||
US16/012,151 US11630995B2 (en) | 2018-06-19 | 2018-06-19 | Characterization of amount of training for an input to a machine-learned network |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110619945A true CN110619945A (zh) | 2019-12-27 |
CN110619945B CN110619945B (zh) | 2024-04-26 |
Family
ID=68840199
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910530142.1A Active CN110619945B (zh) | 2018-06-19 | 2019-06-19 | 针对机器学习网络的输入的训练的量的表征 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11630995B2 (zh) |
CN (1) | CN110619945B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111738980A (zh) * | 2020-05-14 | 2020-10-02 | 上海依智医疗技术有限公司 | 一种医学影像的显示方法、计算机设备及存储介质 |
WO2021135557A1 (zh) * | 2019-12-30 | 2021-07-08 | 清华大学 | 一种人工智能多模成像分析装置 |
CN113814989A (zh) * | 2020-06-19 | 2021-12-21 | 周世海 | 一种可形变组合式机器人及其控制系统 |
US20220114395A1 (en) * | 2019-11-14 | 2022-04-14 | Zoox, Inc. | Depth data model training with upsampling, losses and loss balancing |
CN114945925A (zh) * | 2020-01-24 | 2022-08-26 | 西门子医疗有限公司 | 用于根据可配置模块的医学机器人生成的机器学习网络 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210005324A1 (en) * | 2018-08-08 | 2021-01-07 | Hc1.Com Inc. | Methods and systems for a health monitoring command center and workforce advisor |
US12027243B2 (en) | 2017-02-17 | 2024-07-02 | Hc1 Insights, Inc. | System and method for determining healthcare relationships |
US11481690B2 (en) | 2016-09-16 | 2022-10-25 | Foursquare Labs, Inc. | Venue detection |
JP7376593B2 (ja) * | 2018-12-31 | 2023-11-08 | インテル・コーポレーション | 人工知能を利用した安全保障システム |
EP4035090A1 (en) * | 2019-09-24 | 2022-08-03 | Google LLC | Distance-based learning confidence model |
US20230298751A1 (en) * | 2020-04-10 | 2023-09-21 | The University Of Tokyo | Prognosis Prediction Device and Program |
CN111739635A (zh) * | 2020-06-10 | 2020-10-02 | 四川大学华西医院 | 一种用于急性缺血性卒中的诊断辅助模型及图像处理方法 |
CN111785366B (zh) * | 2020-06-29 | 2023-05-26 | 平安科技(深圳)有限公司 | 患者治疗方案的确定方法、装置及计算机设备 |
CN112183751B (zh) * | 2020-11-09 | 2024-09-20 | 东软教育科技集团有限公司 | 神经网络模型预测置信度校准方法、系统及存储介质 |
CN112862130B (zh) * | 2021-02-03 | 2023-11-03 | 北京戴纳实验科技有限公司 | 一种结合冰箱对样本的存储管理方法 |
CN115761366B (zh) * | 2022-11-28 | 2025-06-06 | 电子科技大学长三角研究院(湖州) | 补充缺失特征的零样本图片分类方法、系统、设备及介质 |
CN116050673B (zh) * | 2023-03-31 | 2023-08-01 | 深圳市城市交通规划设计研究中心股份有限公司 | 基于CNN-BiLSTM的城市公交客流短时预测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020589A (zh) * | 2012-11-19 | 2013-04-03 | 山东神思电子技术股份有限公司 | 一种单训练样本人脸识别方法 |
US20160140300A1 (en) * | 2013-06-12 | 2016-05-19 | University Health Network | Method and system for automated quality assurance and automated treatment planning in radiation therapy |
US20170200067A1 (en) * | 2016-01-08 | 2017-07-13 | Siemens Healthcare Gmbh | Deep Image-to-Image Network Learning for Medical Image Analysis |
CN107492090A (zh) * | 2016-06-09 | 2017-12-19 | 西门子保健有限责任公司 | 根据合成数据利用机器学习的基于图像的肿瘤表型分析 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180043182A1 (en) * | 2015-03-06 | 2018-02-15 | Duke University | Systems and methods for automated radiation treatment planning with decision support |
US10265040B2 (en) * | 2015-07-13 | 2019-04-23 | Scott Anderson Middlebrooks | Method and apparatus for adaptive computer-aided diagnosis |
US11056243B2 (en) * | 2015-12-21 | 2021-07-06 | Elekta Ab (Publ) | Systems and methods for optimizing treatment planning |
-
2018
- 2018-06-19 US US16/012,151 patent/US11630995B2/en active Active
-
2019
- 2019-06-19 CN CN201910530142.1A patent/CN110619945B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020589A (zh) * | 2012-11-19 | 2013-04-03 | 山东神思电子技术股份有限公司 | 一种单训练样本人脸识别方法 |
US20160140300A1 (en) * | 2013-06-12 | 2016-05-19 | University Health Network | Method and system for automated quality assurance and automated treatment planning in radiation therapy |
US20170200067A1 (en) * | 2016-01-08 | 2017-07-13 | Siemens Healthcare Gmbh | Deep Image-to-Image Network Learning for Medical Image Analysis |
CN107492090A (zh) * | 2016-06-09 | 2017-12-19 | 西门子保健有限责任公司 | 根据合成数据利用机器学习的基于图像的肿瘤表型分析 |
Non-Patent Citations (2)
Title |
---|
SHENG-HUI WANG 等: "Error-Resilient Reconfigurable Boosting Extreme Learning Machine for ECG Telemonitoring Systems", 《IEEE XPLORE》 * |
雷咏梅 等: "一种基于支持向量机的并行训练策略", 《上海大学学报(自然科学版)》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220114395A1 (en) * | 2019-11-14 | 2022-04-14 | Zoox, Inc. | Depth data model training with upsampling, losses and loss balancing |
US11681046B2 (en) * | 2019-11-14 | 2023-06-20 | Zoox, Inc. | Depth data model training with upsampling, losses and loss balancing |
WO2021135557A1 (zh) * | 2019-12-30 | 2021-07-08 | 清华大学 | 一种人工智能多模成像分析装置 |
CN114945925A (zh) * | 2020-01-24 | 2022-08-26 | 西门子医疗有限公司 | 用于根据可配置模块的医学机器人生成的机器学习网络 |
CN111738980A (zh) * | 2020-05-14 | 2020-10-02 | 上海依智医疗技术有限公司 | 一种医学影像的显示方法、计算机设备及存储介质 |
CN111738980B (zh) * | 2020-05-14 | 2023-08-04 | 北京深睿博联科技有限责任公司 | 一种医学影像的显示方法、计算机设备及存储介质 |
CN113814989A (zh) * | 2020-06-19 | 2021-12-21 | 周世海 | 一种可形变组合式机器人及其控制系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110619945B (zh) | 2024-04-26 |
US11630995B2 (en) | 2023-04-18 |
US20190385738A1 (en) | 2019-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110619945B (zh) | 针对机器学习网络的输入的训练的量的表征 | |
US10643331B2 (en) | Multi-scale deep reinforcement machine learning for N-dimensional segmentation in medical imaging | |
US10043088B2 (en) | Image quality score using a deep generative machine-learning model | |
Chan et al. | Effective pneumothorax detection for chest X‐ray images using local binary pattern and support vector machine | |
US10489907B2 (en) | Artifact identification and/or correction for medical imaging | |
US10984905B2 (en) | Artificial intelligence for physiological quantification in medical imaging | |
US10499857B1 (en) | Medical protocol change in real-time imaging | |
US11398304B2 (en) | Imaging and reporting combination in medical imaging | |
US10522253B2 (en) | Machine-learnt prediction of uncertainty or sensitivity for hemodynamic quantification in medical imaging | |
CN106796621B (zh) | 图像报告注释识别 | |
US11386555B2 (en) | Assessment of arterial calcifications | |
CN111666966B (zh) | 医学成像中基于人工智能的材料分解 | |
EP3477551B1 (en) | Machine-learnt prediction of uncertainty or sensitivity for hemodynamic quantification in medical imaging | |
US20230154614A1 (en) | Technique for determining an indication of a medical condition | |
Agnello et al. | Unsupervised tissue classification of brain MR images for voxel‐based morphometry analysis | |
CN119487545A (zh) | 分析医学图像 | |
WO2022207443A1 (en) | Reinforced attention | |
US20140314294A1 (en) | Shape-Based Image Segmentation | |
US20230368913A1 (en) | Uncertainty Estimation in Medical Imaging | |
Lee et al. | Automatic segmentation for pulmonary nodules in CT images based on multifractal analysis | |
US12333773B2 (en) | Explaining a model output of a trained model | |
CN116420165A (zh) | 通过具有和不具有形状先验的分割结果来检测解剖异常 | |
CN111145141B (zh) | 使用经训练的网络检测梗塞 | |
JP2025517107A (ja) | 放射線データおよびメタデータに基づく医療画像プロトコルの識別 | |
US20220351000A1 (en) | Method and apparatus for classifying nodules in medical image data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20240830 Address after: German Phu F Haim Patentee after: Siemens Medical AG Country or region after: Germany Address before: Erlangen Patentee before: Siemens Healthineers AG Country or region before: Germany |