CN111178542A - 基于机器学习建模的系统和方法 - Google Patents
基于机器学习建模的系统和方法 Download PDFInfo
- Publication number
- CN111178542A CN111178542A CN201911398071.0A CN201911398071A CN111178542A CN 111178542 A CN111178542 A CN 111178542A CN 201911398071 A CN201911398071 A CN 201911398071A CN 111178542 A CN111178542 A CN 111178542A
- Authority
- CN
- China
- Prior art keywords
- machine learning
- trained
- learning model
- computing device
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 308
- 238000000034 method Methods 0.000 title claims abstract description 77
- 238000012549 training Methods 0.000 claims abstract description 221
- 238000004891 communication Methods 0.000 claims description 23
- 238000011156 evaluation Methods 0.000 claims description 7
- 238000012804 iterative process Methods 0.000 claims 2
- 230000006870 function Effects 0.000 description 35
- 238000009826 distribution Methods 0.000 description 30
- 238000004422 calculation algorithm Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 239000013598 vector Substances 0.000 description 13
- 238000013527 convolutional neural network Methods 0.000 description 9
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 7
- 238000002591 computed tomography Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 4
- 239000002131 composite material Substances 0.000 description 4
- 230000007812 deficiency Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 206010058467 Lung neoplasm malignant Diseases 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 201000005202 lung cancer Diseases 0.000 description 3
- 208000020816 lung neoplasm Diseases 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- ZOKXTWBITQBERF-UHFFFAOYSA-N Molybdenum Chemical compound [Mo] ZOKXTWBITQBERF-UHFFFAOYSA-N 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 210000000481 breast Anatomy 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 210000004072 lung Anatomy 0.000 description 2
- 229910052750 molybdenum Inorganic materials 0.000 description 2
- 239000011733 molybdenum Substances 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 description 1
- 101150013568 US16 gene Proteins 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011976 chest X-ray Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000009365 direct transmission Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Electrically Operated Instructional Devices (AREA)
- Image Analysis (AREA)
Abstract
一种基于机器学习建模的方法,所述方法包括第一计算装置可以从多个第二计算装置中获取用于计算任务的多个训练后的第一机器学习模型。多个训练后的第一机器学习模型的至少部分参数值可以彼此不同。所述方法还包括第一计算装置可以获取多个训练样本。所述方法进一步包括第一计算装置可以基于多个训练样本,通过学习多个训练后的第一机器学习模型,进一步确定训练后的第二机器学习模型。
Description
优先权声明
本申请要求于2019年11月18日提交的美国申请US16/686,539的优先权,其内容通过引用结合于此。
技术领域
本申请通常涉及基于机器学习建模,并且更具体地涉及用于通过机器学习的基于多阶段训练的建模系统和方法。
背景技术
基于机器学习建模取决于训练数据的可用性,而训练数据又涉及数据隐私和安全性的问题。例如,多所医院中的每所医院都有大量数据,其中包括患者的医疗数据,这些数据可以用于训练模型,例如,用于各种计算任务的深度网络模型。为了保护患者的隐私,医院所获取的医疗数据集不得与第三方,例如,开发此类模型的另一所医院、供应商或制造商共享。为了利用多所医院的医疗数据集,通常使用分布式学习技术训练模型。使用常规的分布式学习技术,针对某种计算任务的深度网络模型的训练过程可能涉及不同训练站点(例如,多个医院)之间共享参数、权重和/或梯度,这可能会导致巨大的网络带宽消耗,并降低训练过程的效率。在不同的训练地点进行训练的同一计算任务的深度网络模型需要具有相同的结构以共享参数、权重和/或梯度,这可能导致无法在不同医院之间使用或训练不同结构的模型。因此,期望提供用于分布式学习的系统和方法,以有效地训练深度网络以提高精度。
发明内容
根据本申请的一个方面,提供一种基于机器学习建模的方法。该方法可以由与多个第二计算装置通信的第一计算装置实施。所述方法包括可以从多个第二计算装置获取用于计算任务的多个训练后的第一机器学习模型。多个训练后的第一机器学习模型的至少部分参数值可以彼此不同。该方法还包括获取多个训练样本。该方法进一步包括可以基于多个训练样本,通过从多个训练后的第一机器学习模型中学习来确定训练后的第二机器学习模型。
根据本申请的另一方面,提供了一种基于机器学习建模的系统。该系统可以包括存储可执行指令的至少一个存储设备,以及与所述至少一个存储设备通信的处理器,当执行所述可执行指令时,使所述系统执行如上所述基于机器学习建模的方法。
根据本申请的另一方面,提供了一种存储指令的非暂时性计算机可读介质。所述指令在由至少一个处理器执行时,可使所述至少一个处理器实现一种方法。该方法可以包括从多个第二计算装置获取用于计算任务的多个训练后的第一机器学习模型。多个训练后的第一机器学习模型的至少部分参数值可以彼此不同。该方法还可以包括获取多个训练样本。该方法可以进一步包括:基于多个训练样本,通过学习多个训练后的第一机器学习模型中确定训练后的第二机器学习模型。
附图说明
本申请将通过示例性实施例进行进一步描述。这些示例性实施例将通过附图进行详细描述。附图未按比例绘制。这些实施例是非限制性的示例性实施例,在这些实施例中,各图中相同的编号表示相似的结构,其中:
图1是根据本申请的一些实施例所示的分布式学习系统的示例性示意图。
图2是根据本申请的一些实施例所示的示例性计算设备的硬件和/或软件组件的示意图,在其上可以实现第一计算装置和/或第二计算装置;
图3是根据本申请的一些实施例所示的示例性移动设备的硬件和/或软件组件的示意图;
图4是根据本申请的一些实施例所示的示例性第一计算装置或第二计算装置的框图;
图5是根据本申请的一些实施例所示的确定用于计算任务的训练后的机器学习模型的示意性流程图。
图6是根据本申请的一些实施例所示的确定训练后的第二机器学习模型的示意性流程图。
图7是根据本申请的一些实施例所示的示例性的老师-学生训练架构的示意图。
图8是根据本申请的一些实施例所示的用于生成训练样本的示例性流程图。
图9是根据本申请的一些实施例所示的示例性第三机器学习模型的示意图;以及
图10是根据本申请的一些实施例所示的示例性的组合模型,其包括多个训练后的第三机器学习模型。
具体实施方式
以下描述是为了使本领域的普通技术人员能够实施和利用本申请并且该描述是在特定的应用场景及其要求的环境下提供的。对于本领域的普通技术人员来讲,显然可以对所披露的实施例作出各种改变,并且在不偏离本申请的原则和范围的情况下,本申请中所定义的普遍原则可以适用于其他实施例和应用场景。因此,本申请并不限于所描述的实施例,而应该被给予与权利要求一致的最广泛的范围。
本文提供了用于基于机器学习建模系统和方法。系统可以包括可以与多个第二计算装置(例如,工作器(workers))通信的第一计算装置(例如,总部服务器(headquarterssever))。第一计算装置(例如,总部服务器)可以包括存储可执行指令的至少一个存储设备,以及与至少一个存储设备通信的至少一个处理器。当执行可执行指令时,第一计算装置(例如,总部服务器)可以从多个第二计算装置获取多个训练后的第一机器学习模型。第一计算装置(例如,总部服务器)也可以获取多个训练样本,并基于多个训练样本和多个训练后的第一机器学习模型,并利用老师-学生训练技术(teacher-student网络架构)确定训练后的第二机器学习模型。第一计算装置(例如,总部服务器)可以进一步将训练后的第二机器学习模型发送到多个第二计算装置中的至少一个。
基于老师-学生训练技术,可以进行多阶段的建模或模型训练,一阶段训练是在医院(训练站点)级别,另一阶段训练在总部服务器级别。在医院级别利用各医院可用的数据进行训练获取每个训练后的第一机器学习模型之后,第一计算装置(例如,总部服务器)可以直接从多个第二计算装置(例如,workers)中获取多个训练后的第一机器学习模型。如本文所披露的基于老师-学生训练技术老师-学生训练技术的多阶段建模可以避免不同医院共享患者数据,从而避免涉及数据隐私和安全性问题。如本文披露的基于老师-学生训练技术的多阶段建模也可以避免在训练多个训练后的第一机器学习模型期间,多个第二计算装置(例如,workers)之间和/或第一计算装置(例如,总部服务器)与多个第二计算装置之间共享参数/梯度,大大减少网络带宽消耗和依赖性。此外,如本文所披露的基于老师-学生训练技术的多阶段建模,各个医院级别的模型训练可以并行进行,而无需同步各个医院的模型训练进度,因此可以提高模型训练的效率。此外,多个训练后的第一机器学习模型不需要为了可以共享参数/梯度而具有相同的结构,从而允许各种第二计算装置自由地训练不同结构的模型。可以基于一个或以上因素选择不同结构的模型。例如,基于各种训练站点可获取的数据的数据结构,第二计算装置的硬件和软件,在各个第二计算装置或训练站点上进行的先前训练等,或其组合。第一计算装置(例如,总部服务器)可以基于多个训练后的第一机器学习模型,使用老师-学生训练技术来进一步训练学生模型(即,训练后的第二机器学习模型)。在学生模型的训练过程中,训练后的第一机器学习模型可以作为老师模型。通过利用多所医院的大量患者数据,学生模型可以从多个老师模型中学习,从而获取比多个老师模型(即,训练后的第一机器学习模型)更好的性能和通用性,而无需在医院之间直接传输患者数据,从而避免了损害数据隐私和安全性和/或违反相关法律或法规的风险,和/或减少网络带宽消耗和依赖性。
在一些实施例中,第一计算装置(例如,总部服务器)还可以从多个第二计算装置获取多个生成模型(生成器)。每个生成模型可以由多个第二计算装置中的其中一个第二计算装置训练,该第二计算装置可以训练每个生成模型并且学习仅可用于该第二计算装置的数据的概率分布。每个生成模型可以被配置为生成用来训练学生模型的训练样本。因此,系统可以利用分布在多个训练站点(例如,医院、医疗机构等)的数据来训练用于生成训练样本的生成模型。该系统和方法可以基于生成模型生成的训练样本来训练学生模型,从而弥补了第一计算装置的训练样本的不足(例如,由于禁止或避免共享各个医院的患者数据导致的训练样不足),并提高了学生模型的准确性。
本申请的各种实施例是参考利用各个医院可获取的患者数据进行建模或模型训练来描述。应当理解,这是出于说明的目的,而不是要进行限制。本文所披露的基于老师-学生训练技术的多阶段建模可以用于其他应用,例如,金融行业、安全行业等。多阶段建模可以包括:基于在多个单独的训练站点处可用的数据,在第二计算装置进行训练;以及将在第二计算装置上训练得到的老师模型发送到第一计算装置进行进一步的训练,以提供训练后的学生模型。在各种第二计算装置上训练的老师模型可以具有不同的结构。本文所述的基于老师-学生训练技术的多阶段建模的各种好处包括:例如,通过利用多个训练站点上可用的大量数据来提高学生模型的性能,但避免了多个训练站点之间直接传输数据的需要,从而避免了危害数据隐私和安全性和/或违反相关法律或法规的风险,提高了训练过程的效率,第二种计算装置可以自由地训练不同架构的模型,和/或减少网络带宽消耗和依赖性。在一些实施例中,为了弥补第一计算装置可用的训练样本的不足(例如,由于禁止或避免不同训练站点共享数据导致的数据不足)并提高学生模型的准确性。
图1是根据本申请的一些实施例所示的分布式学习系统100的示例性示意图。在一些实施例中,分布式学习系统100可以是医疗系统(例如,成像系统、治疗系统)、安全系统、智能运输系统(ITS)、监视系统、工业控制系统、身份识别(ID)系统等。为了简洁起见,可以采用医疗系统来描述本申请。仅作为示例,分布式学习系统100可以包括一个或以上第二计算装置110、第一计算装置120、存储设备130、一个或以上终端设备140和网络150。分布式学习系统100中的组件可以以一种或多种各种方式连接。仅作为示例,存储设备130可以直接连接到第一计算装置120(如连接存储设备130和第一计算装置120的虚线箭头所示),也可以通过网络150连接到第一计算装置120。又例如,第一计算装置120可以直接连接到终端设备140(如连接第一计算装置120和终端设备140的虚线箭头所示)或通过网络150连接到终端设备140。
一个或以上第二计算装置110可以包括第二计算装置111、第二计算装置112、…、以及第二计算装置K。在一些实施例中,第二计算装置也可以被称为workers。一个或以上第二计算装置可以位于不同的地理位置或属于不同的实体(例如,不同的医院)。包括第二计算装置在内的地理位置(例如,医院)也可以称为训练站点。在一些实施例中,第二计算装置可以通过无线连接、有线连接或其组合连接到分布式学习系统100(例如,第一计算装置120)的一个或以上部件和/或与之通信。例如,第二计算装置可以经由网络150向第一计算装置120发送数据/信息(例如,训练后的机器学习模型)。又例如,第二计算装置可以通过网络150从第一计算装置120接收数据/信息(例如,训练后的第二机器学习模型)。在一些实施例中,第二计算装置彼此不连接或不通信,并且分别运行以执行本申请中描述的示例性方法/系统。例如,一个或以上第二计算装置110不会彼此共享信息/数据。
第二计算装置(例如,第二计算装置111)可以处理从医疗设备(例如,MR设备、CT设备、PET设备等)(未显示)、终端140和/或存储设备130获取的数据和/或信息。在一些实施例中,第二计算装置可以使用训练后的机器学习模型来执行任务(也称为计算任务)。该任务可以包括基于图像的计算任务,例如,图像分类、图像分割、图像去噪、图像识别、图像增强、图像超分辨率处理、图像伪影去除、图像诊断等。在一些实施例中,第二计算装置可以基于多个第二计算装置110中仅一个第二计算装置可用的数据,生成一个或以上训练后的机器学习模型等。例如,第二计算装置可以基于第二计算装置110中仅一个第二计算装置可用的数据(即,训练样本)生成用于计算任务的训练后的机器学习模型。又例如,第二计算装置可以基于第二计算装置110中仅一个第二计算装置可用的数据(即,训练样本)生成生成模型等。生成模型的训练过程中可以学习用于训练生成模型的训练样本的概率分布。生成模型可以基于概率分布生成与用于训练生成模型的每个训练样本相似的一个或多个训练样本。如本文所使用的,由成像设备(例如,CT设备、MR设备等)通过扫描对象获取的训练样本也可以被称为真实数据。由生成模型生成的训练样本也可以被称为模拟数据。
在一些实施例中,第二计算装置可以包括一个或以上处理器和存储器。存储器可以存储医学数据集或数据库,该医学数据集或数据库包括仅第二计算装置自身可用的多个图像。在一些实施例中,第二计算装置可以包括多个计算设备(例如,计算机或计算单元(也被称为计算节点))。多个计算机或计算单元可以经由无线连接或有线连接彼此连接和/或彼此通信。第二计算装置可以使用多个计算设备来处理数据和/或信息,例如,执行一个或以上计算任务,训练机器学习模型等。在一些实施例中,第二计算装置可以使用多个计算设备利用分布式学习技术训练机器学习模型。仅作为示例,第二计算装置的多个计算设备之一可以用作参数服务器(parameter server,PS)。其他计算设备可以担任训练器(workers)。参数服务器可以将用于具有初始化参数的机器学习模型的副本分发给每个worker。对于每次迭代,每个worker都可以基于训练样本训练机器学习模型,以生成一组本地参数,并将该本地参数传输到参数服务器。参数服务器可以通过平均由多个workers生成的多组本地参数来确定一组全局参数,并将该组全局参数发送给每个worker以更新该组本地参数。在训练过程结束时,具有由多个计算设备中的每个计算设备生成的全局参数组的机器学习模型可以指定为训练后的机器学习模型。又例如,第二计算装置可以将具有初始化参数的机器学习模型的不同部分分配给多个计算设备中的每个计算设备。例如,机器学习模型的每一层都可以分配给一个计算设备。多个计算设备中的每个计算设备可以基于相同的训练样本来训练机器学习模型的所分配部分,以生成机器学习模型的所分配部分的参数,并将该参数传递给第二计算装置。第二计算装置可以结合每个计算设备生成的参数以获取训练后的机器学习模型。
每个计算设备可以包括至少一个处理器和至少一个存储设备。在这里描述的一些实施例中,计算设备可以是任何合适的计算机,例如膝上型计算机、平板计算机、台式计算机等。至少一个存储设备可以存储数据(例如,机器学习模型的参数)、指令和/或任何其他信息。在一些实施例中,计算设备中的至少一个存储设备可以存储用于训练机器学习模型的训练样本。在一些实施例中,存储设备可以存储至少一个处理器可以执行或用于执行本申请中描述的示例性系统/方法的算法和/或指令。
第一计算装置120可以处理从第二计算装置110、终端140和/或存储设备130获取的数据和/或信息。例如,第一计算装置120可以从第二计算装置110获取用于计算任务的多个训练后的第一机器学习模型。第一计算装置120还可获取多个训练样本。第一计算装置120还可以基于多个训练样本和多个训练后的第一机器学习模型,利用老师-学生训练技术来确定训练后的第二机器学习模型。又例如,第一计算装置120可以从第二计算装置获取多个训练后的第三机器学习模型(即,生成模型)。第一计算装置120可以基于多个训练后的第三机器学习模型中的至少一个生成多个训练样本的至少一部分,用于训练第二机器学习模型。在一些实施例中,第一计算装置可以作为总部(headquarters)。每个第二计算装置都可以充当训练器(worker)。在一些实施例中,第一计算装置120可以包括多个计算机或计算单元(也被称为计算节点)。多个计算机或计算单元可以经由无线连接或有线连接彼此连接和/或彼此通信。
训练后的第二机器学习模型可以基于至少部分不同于确定原始训练后的第二机器学习模型的原始样本集的样本集和/或基于训练后的第一机器学习模型的更新不时进行更新,例如,周期性地或不定期地。例如,训练后的第二机器学习模型可以基于包括不在原始样本集中的新样本的样本集进行更新。又例如,可以基于与先前版本的训练后的第一机器学习模型有关的至少部分的训练后的第一机器学习模型的的更新来更新训练后的第二机器学习模型等,或其组合。在一些实施例中,训练后的第一机器学习模型可以基于至少部分不同于确定原始训练后的第一机器学习模型的原始样本集的样本集,可以不定期地(例如,定期或不定期)进行更新。一个或以上第二计算装置110可以同步或不同步地更新训练后的第一机器学习模型。
第一计算装置120可以包括一个或以上处理器。在一些实施例中,第一计算装置120可以是计算机、用户控制台、单个服务器或服务器组等。服务器组可以是集中式或分布式的。在一些实施例中,第一计算装置120可以是本地的或远程的。例如,第一计算装置120可以经由网络150访问存储在第二计算装置110、终端140和/或存储设备130中的信息和/或数据。又例如,第一计算装置120可以直接连接到终端140和/或存储设备130以访问存储的信息和/或数据。在一些实施例中,第一计算装置120可以在云平台上实现。仅作为示例,该云平台可以包括私有云、公共云、混合云、社区云、分布云、内部云、多层云等或其任意组合。
存储设备130可以存储数据、指令和/或任何其他信息。在一些实施例中,存储设备130可以存储从分布式学习系统100的一个或以上组件获取的数据(例如,第二计算装置110、终端140和/或第一计算装置120)。例如,存储设备可以存储第一计算装置120获取的训练后的第一机器学习模型、训练后的第三机器学习模型和/或训练样本。又例如,存储设备130可以存储用于生成训练后的第二机器学习模型等的算法和/或模型。在一些实施例中,存储设备130可以存储第一计算装置120可以执行或用来执行本申请中描述的示例性方法/系统的数据和/或指令。在一些实施例中,存储设备130可以包括大容量存储器、可移动存储器、易失性读写内存、只读内存(ROM)等或其任意组合。在一些实施例中,所述存储设备130可在云端平台上执行。仅作为示例,该云平台可以包括私有云、公共云、混合云、社区云、分布云、内部云、多层云等或其任意组合。
在一些实施例中,存储设备130可以连接到网络150,以与分布式学习系统100中的一个或以上其他组件通信(例如,终端140、第一计算装置120等)。分布式学习系统100中的一个或以上组件可以通过网络150访问存储在存储设备130中的数据或指令。在一些实施例中,存储设备130可以直接连接到分布式学习系统100中的一个或以上其他组件或与之通信(例如,第一计算装置120、终端140等)。在一些实施例中,存储设备130可以是第一计算装置120的一部分。
终端140可以包括移动设备140-1、平板计算机140-2、膝上型计算机140-3等,或其任意组合。在一些实施例中,移动设备140-1可以包括智能家居设备、可穿戴设备、智能移动设备、虚拟现实设备、增强现实设备等,或其任意组合。在一些实施例中,终端140可以是第一计算装置120的一部分。
在一些实施例中,终端140可以经由用户接口向第二计算装置110和/或第一计算装置120之一发送和/或接收信息。在一些实施例中,用户界面可以是在终端140上实现的应用程序的形式。用户接口可以被配置为促进终端140和与终端140相关联的用户之间的通信。在一些实施例中,用户可以通过用户界面提供对模型训练的请求的输入。终端140可以将对模型训练的请求发送到第二计算装置110和/或第一计算装置120。第二计算装置110和/或第一计算装置120可以执行本申请中其他地方所述的模型训练过程。
网络150可以包括可以促进分布式学习系统100的信息和/或数据的交换的任何合适的网络。在一些实施例中,第二计算装置110、存储设备130、终端140、第一计算装置120等可通过网络150与分布式学习系统100的一个或以上其他组件通信信息和/或数据。例如,第一计算装置120可以经由网络150从第二计算装置110获取一个或以上训练后的第一机器学习模型。又例如,第一计算装置120可以经由网络150从终端140获取用户指令。作为又一示例,第二计算装置110可以经由网络150从第一计算装置120接收训练后的第二机器学习模型。网络150可以是和/或包括公共网络(例如,因特网)、专用网络(例如,局域网(LAN)、广域网(WAN))等)、有线网络(例如以太网络)、无线网络(例如802.11网络、Wi-Fi网络等)、蜂窝网络(例如、长期演进(LTE)网络、帧中继网络、虚拟专用网(“VPN”)、卫星网络、电话网络、路由器、集线器、交换机、服务器计算机和/或其任何组合。在一些实施例中,网络150可以包括一个或以上网络接入点。例如,网络150可以包括有线和/或无线网络接入点,诸如基站和/或互联网交换点,通过它们可以将分布式学习系统100的一个或以上组件连接到网络150以交换数据和/或信息。
关于分布式学习系统100的以上描述仅出于说明的目的而提供,而无意于限制本申请的范围。对于本领域的普通技术人员来说,可以根据本申请的描述,做出各种各样的变化和修改。例如,分布式学习系统100的组装和/或功能可以根据特定的实施方案而改变或改变。
图2是根据本申请的一些实施例所示的示例性计算设备200的硬件和/或软件组件的示意图,在其上可以实现第一计算装置120和/或第二计算装置110。
如图2所示,计算设备200可以包括处理器210、存储器220、输入/输出(I/O)230和通信端口240。处理器210可以根据本文描述的技术执行计算机指令(程序代码)并执行第一计算装置120的功能。所述计算机指令可以包括,例如,执行在此描述的特定功能的例程、程序、对象、组件、信号、数据结构、过程、模块和功能。在一些实施例中,处理器210可以执行从终端140获取的指令。仅仅为了说明,在计算设备200中仅描述了一个处理器。但是,应注意,本申请中的计算设备200还可包括多个处理器。因此,如本申请中所述由一个处理器执行的步骤和/或方法步骤也可以由多个处理器共同或分别执行。例如,在本申请中如果计算设备200的处理器执行步骤A和步骤B,则应该理解,步骤A和步骤B也可以由计算设备200中的两个或以上不同的处理器共同地或单独地执行(例如,第一处理器执行步骤A并且第二处理器执行步骤B,或者第一处理器和第二处理器共同执行步骤A和B)。存储器220可以存储从第二计算装置110、终端140、存储设备130或分布式学习系统100的任何其他组件获取的数据/信息。在一些实施例中,存储器220可以包括大容量存储设备、可移动存储设备、易失性读写内存、只读内存(ROM)等或其任意组合。例如,大容量存储器可以包括磁盘、光盘、固态硬盘等。在一些实施例中,存储器220可以存储一个或以上程序和/或指令以执行在本申请中描述的示例性方法。例如,存储器220可以存储用于第一计算装置120的程序,用于确定训练后的第二机器学习模型。输入/输出230可以输入或输出信号、数据和/或信息。在一些实施例中,输入/输出230可以使用户与第一计算装置120交互。在一些实施例中,输入/输出230可以包括输入设备和输出设备。通信端口240可以与网络(例如,网络150)连接以促进数据通信。通信端口240可以在第一计算装置120和第二计算装置110、终端140或存储设备130之间建立连接。该连接可以是有线连接、无线连接或两者的组合,以实现数据传输和接收。在一些实施例中,通信端口240可以是专门设计的通信端口。例如,通信端口240可以根据医学数字成像和通信(DICOM)协议来设计。在一些实施例中,可以在与计算设备200相同或相似的计算设备上实现第二计算装置(例如,第二计算装置111、第二计算装置112,…或第二计算装置K)。
图3是根据本申请的一些实施例所示的示例性移动设备300的硬件和/或软件组件的示意图。如图3所示,移动设备300可以包括通信平台310、显示器320、图形处理单元(GPU)330、中央处理单元(CPU)340、输入/输出350、内存360和存储单元370。在一些实施例中,任何其他合适的组件,包括但不限于系统总线或控制器(未示出),也可以包括在移动设备300内。在一些实施例中,可将移动操作系统361(例如,iOS、Android、Windows Phone等)和一个或以上应用程序362从存储模块370加载到内存360中,以便由CPU 340执行。应用程序362可以包括浏览器或任何其他合适的移动应用程序,用于从第一计算装置120接收和渲染与图像处理有关的信息或其他信息。可以经由输入/输出350来实现与信息流的用户交互,并经由网络150将其提供给第一计算装置120和/或分布式学习系统100的其他组件。
为了实施本申请描述的各种模块、单元及其功能,计算机硬件平台可用作本文中描述的一个或以上组件的硬件平台。这样的计算机的硬件元件、操作系统和编程语言本质上是常规的,并且假定本领域普通技术人员充分熟悉并适应这些技术以产生如本文所述的图像。一台包含用户接口元素的计算机能够被用作个人计算机(personal computer(PC))或其他类型的工作站或终端设备,被适当程序化后也可以作为服务器使用。可知,本领域技术人员应熟悉该计算机装置的结构、程序设计和一般操作,因此,图3对其应是不解自明的。
图4是根据本申请的一些实施例所示的示例性第一计算装置120或第二计算装置110的框图。在一些实施例中,第一计算装置120或第二计算装置110可以在图2所示的计算设备200(例如,处理器210)或图3所示的CPU 340上实现。如图4所示,第一计算装置120或第二计算装置110可以包括获取模块402、训练模块404、传输模块406和存储模块408。上述每个模块可以是设计为,例如,根据存储在一个或以上存储介质中的指令执行某些操作的硬件电路和/或硬件电路和一个或以上存储介质的任意组合。
获取模块402可以从分布式学习系统100的一个或以上组件中获取数据/信息。对于第一计算装置120,获取模块402可以从第二计算装置110获取多个训练后的模型(例如,用于计算任务的训练后的第一机器学习模型和/或生成模型)。获取模块402还可以从存储设备(例如,存储设备130、存储器220、存储单元370或存储模块408)和/或第三方(例如,公共医学图像数据库)的数据资源中获取多个训练样本的至少一部分。在一些实施例中,获取模块402可以基于生成模型获取多个训练样本的至少一部分。对于第二计算装置110,获取模块402可以获取仅用于第二计算装置110的训练样本。关于训练模型和训练样本可以参考在本申请的其他地方的描述(例如,图5和图8及其描述)。
训练模块404可以被配置为训练一个或以上机器学习模型。对于第一计算装置120,训练模块404可以通过使用第二训练样本训练第二机器学习模型来确定训练后的第二机器学习模型(例如,本申请的其他地方描述的学生模型)。对于第二计算装置110,训练模块404可以通过使用第一训练样本训练第一机器学习模型来确定训练后的第一机器学习模型(例如,本申请的其他地方描述的老师模型),和/或通过使用第三训练样本训练第三机器学习模型来确定生成模型。关于训练过程可以参考在本申请的其他地方的描述(例如,图5-10及其描述)。
传输模块406可以被配置为在第一计算装置120或第二计算装置110与分布式学习系统100的其他组件之间进行数据/信息交换。对于第一计算装置120,传输模块406可以向第二计算装置110发送获取训练后的第一机器学习模型和/或生成模型的请求,并向第二计算装置110发送训练后的第二机器学习模型。传输模块406还可以向存储设备130发送获取第二训练样本的请求。对于第二计算装置110,传输模块406可以从第一计算装置120接收获取训练后的第一机器学习模型和/或生成模型的请求,并从第一计算装置120接收训练后的第二机器学习模型。
存储模块408可以存储信息/数据。该信息可以包括程序、软件、算法、机器学习模型、训练数据、控制参数等,或其组合。对于第一计算装置120,存储模块408可以存储第二训练样本、第二机器学习模型、训练后的第二机器学习模型等。在一些实施例中,存储模块408可以存储程序和/或指令以使第一计算装置120执行本申请中描述的示例性方法。例如,存储模块408可以存储可以由第一计算装置120执行以获取第二训练样本、训练后的第一机器学习模型、生成模型、训练后的第二机器学习模型的程序和/或指令,和/或将训练后的第二机器学习模型传输到第二计算装置。对于第二计算装置110,存储模块408可以存储第一训练样本/第三训练样本、第一机器学习模型、生成模型、训练后的第一机器学习模型、生成模型等。在一些实施例中,存储模块408可以存储一个或以上程序和/或指令以使第二计算装置110执行本申请中描述的示例性方法。例如,存储模块408可以存储可以由第二计算装置110执行的程序和/或指令以获取第一训练样本/第三训练样本,训练第一机器学习模型/第三机器学习模型,和/或将训练后的第一机器学习模型/训练后的第三机器学习模型发送到第一计算装置120。
应该注意的是,上述仅出于说明性目的而提供,并不旨在限制本申请的范围。显然,对于具有本领域普通技能的人,可以在本申请书的教导下进行多种变化和修改。然而,这些变化和修改不会背离本申请的范围。例如,可以在第一计算装置120和/或第二计算装置110中省略存储模块408。又例如,可以将一些其他组件/模块添加到第一计算装置120和/或第二计算装置110中。
图5是根据本申请的一些实施例所示的确定用于计算任务的训练后的机器学习模型的示例性步骤的示意性流程图。
在步骤501中,第一计算装置120(例如,获取模块402)可以从多个第二计算装置(例如,第二计算装置111、第二计算装置112、…、第二计算装置N)中获取用于计算任务的多个训练后的第一机器学习模型。在一些实施例中,第一计算装置120也可以被称为总部(headquarters)。第一计算装置120可以包括服务器、计算机、工作站、一个或以上计算单元(例如GPU、计算机卡等)等。在一些实施例中,第二计算装置110也可以被称为训练器(worker)。第二计算装置可以包括服务器、计算机、工作站、一个或以上计算单元(例如GPU、计算机卡等)等。关于第二计算装置可以参考在本申请的其他地方的描述。在一些实施例中,计算任务可以包括图像分类、图像分割、图像去噪、图像识别、图像增强、图像伪影去除等。例如,计算任务可以包括与基于医学图像的肺癌预测相关的图像分类。也就是说,多个训练后的第一机器学习模型都可以被配置为根据输入的图像(例如,胸部X射线图像、CT图像、PET图像或MR图像)预测肺癌。多个训练后的第一机器学习模型中的每个训练后的第一机器学习模型都可以产生预测结果,包括输入的图像是否指示肺癌。
在一些实施例中,训练后的第一机器学习模型中的至少一个可以包括监督学习模型、半监督学习模型、无监督学习模型等。在一些实施例中,可以基于深度学习模型来构建训练后的第一机器学习模型。示例性深度学习模型可以包括卷积神经网络(CNN)模型、完整卷积神经网络(FCN)模型、生成对抗网络(GAN)模型、反向传播(BP)模型、径向基函数(RBF)模型、深度信念网(DBN)模型、艾尔曼模型等,或其组合。多个训练后的第一机器学习模型基于相同类型或不同类型的机器学习模型来构建。例如,从第二计算装置111获取的训练后的第一机器学习模型可以是基于CNN模型构建的,并且从第二计算装置112获取的训练后的第一机器学习模型可以是基于FCN模型来构建的。又例如,从第二计算装置111和第二计算装置112获取的训练后的第一机器学习模型可以都是基于CNN模型来构建的。在一些实施例中,多个训练后的第一机器学习模型的结构参数可以部分或完全不同。示例性结构参数可以包括层内核的大小、层的总数(或数量)、每层中节点的数量(或数量)、学习率、最小批次大小、步长等。例如,基于相同类型的机器学习模型(例如,CNN)构建的两个训练后的第一机器学习模型可以包括相同或不同的层总数,相同或不同的最小批次大小等。在一些实施例中,多个训练后的第一机器学习模型中的多个学习参数(例如,两个节点之间的连接权值、与节点有关的偏差矢量等)可以部分或完全不同。
在一些实施例中,多个第二计算装置可以位于不同的地理位置或属于不同的实体(例如,不同的医院或医疗机构)。第二计算装置可以通过使用多个第一训练样本训练第一机器学习模型来提供训练后的第一机器学习模型。在多个第二计算装置中,每个第二计算装置用来训练第一机器学习模型的第一训练样本仅可用于其自身,即在多个第二计算装置中,不共享训练数据。例如,可以从一个存储系统/设备(例如,医院中的图片存档和通信(PAC)系统)获取多个第二计算装置中仅其中一个第二计算装置可用的第一训练样本。可以使用训练算法和多个第一训练样本对第一机器学习模型进行训练。示例性训练算法可以包括梯度下降算法、牛顿算法、拟牛顿算法、莱文贝格-马夸特算法、共轭梯度算法等,或其组合。多个训练后的第一机器学习模型中可以使用相同或不同的训练算法来训练。在一些实施例中,在多个训练后的第一机器学习模型的训练过程中,多个第二计算装置可以不相互通信,也就是说,多个第二计算装置不会共享任何数据。在一些实施例中,多个训练后的第一机器学习模型中的至少一个训练后的第一机器学习模型可以由多个第二计算装置中的一个第二计算装置利用分布式学习技术生成。分布式学习技术可以参考在本申请的其他地方的描述(例如,图1及其描述)。
在步骤503中,第一计算装置120(例如,获取模块402)可以获取多个训练样本。如本文所述的,由第一计算装置120获取的多个训练样本也可以被称为第二训练样本。在一些实施例中,第一计算装置120从存储设备(例如,存储设备130、存储器220、存储单元370)和/或第三方(例如,公共医学图像数据库,例如,肺图像数据库(LIDC)、乳腺钼靶筛查数字数据库(DDSM)等)的数据资源中获取多个第二训练样本的至少一部分。
在一些实施例中,第一计算装置120根据从多个第二计算装置获取的多个生成模型(也称为训练后的第三机器学习模型)生成多个第二训练样本的至少一部分。可以从每个第二计算装置获取一个生成模型。生成模型可以由第二计算装置使用多个第三训练样本来获取,该多个第三训练样本仅可以由多个第二计算装置中的一个第二计算装置使用。例如,生成模型可以由第二计算装置通过使用多个第三训练样本训练第三机器学习模型生成。可以通过从多个第三训练样本中学习来训练生成模型以产生多个第二训练样本的至少一部分。例如,可以训练生成模型以学习多个第三训练样本的概率分布,并基于概率分布生成多个第二训练样本的至少一部分。生成模型生成的第二训练样本也可以被称为真实类似数据或模拟数据。在一些实施例中,同一第二计算装置用来训练生成模型的的多个第三训练样本与用来训练第一机器学习模型的多个第一训练样本相同。在一些实施例中,同一第二计算装置用来训练生成模型的多个第三训练样本的至少一部分可与用来第一机器学习模型的每个第一训练样本不同。在一些实施例中,同一第二计算装置用来训练生成模型的多个第三训练样本可以是用来训练第一机器学习模型的多个第一训练样本的子集。在一些实施例中,同一第二计算装置用来训练第一机器学习模型的多个第一训练样本可以是用来训练生成模型的多个第三训练样本的子集。
在一些实施例中,由第二计算装置提供的生成模型可以基于变分自编码器(VA)、解变分自编码器、生成对抗网络(GAN)模型等或其任意组合来构建。在一些实施例中,同一第二计算装置获取的生成模型和训练后的第一机器学习模型可以基于相同类型或不同类型的机器学习模型来构建。例如,从第二计算装置111获取的训练后的第一机器学习模型可以是基于CNN模型构建的,并且从第二计算装置111获取的生成模型可以是基于生成对抗网络模型来构建的。又例如,从第二计算装置111获取的训练后的第一机器学习模型和生成模型都可以是基于GAN模型构建的。可以基于相同类型或不同类型的机器学习模型来构建多个生成模型中。例如,从第二计算装置111获取的生成模型可以是基于变分自编码器构建的,从第二计算装置112获取的生成模型可以是基于GAN模型构建的。又例如,从第二计算装置111和第二计算装置112获取的生成模型可以都是基于GAN模型构建的。在一些实施例中,多个生成模型的构建参数可以部分或完全不同。例如,基于相同类型的机器学习模型(例如,GAN模型)构建的两个生成模型可以包括相同或不同的层总数,相同或不同的最小批次大小等。在一些实施例中,多个训练后的第一机器学习模型中的多个学习参数(例如,两个节点之间的连接权值,与节点有关的偏差矢量等)可以部分或完全不同。多个生成模型的产生和/或应用可以参考在本申请的其他地方的描述(例如,图8-10,及其描述)。
在一些实施例中,多个训练样本可以包括第一部分和第二部分。第一部分的训练样本仅可用于第一计算装置120。例如,第一部分的训练样本可以从只有第一计算装置120可以访问的存储设备或数据库(例如,医院中的图片存档和通讯系统)获取,和/或从第三方(例如,公共医学图像数据库,例如,肺图像数据库联盟(LIDC)、乳腺钼靶筛查数字数据库(DDSM)等)的数据源获取。如本申请中所描述的,多个训练样本的第二部分可以由一个或多个生成模型生成。
在步骤505中,第一计算装置120(例如,训练模块404)可以根据多个训练样本和多个训练后的第一机器学习模型,确定训练后的第二机器学习模型。训练后的第二机器学习模型可以基于本申请中其他地方描述的深度学习模型来构建。多个训练后的第二机器学习模型和多个训练后的第一机器学习模型中的至少一个可以基于相同类型或不同类型的机器学习模型来构建。例如,多个训练后的第一机器学习模型中的至少一个可以基于CNN模型来构建,并且训练后的第二机器学习模型中可以基于FCN模型来构建。又例如,多个训练后的第一机器学习模型中的至少一个和训练后的第二机器学习模型都可以基于CNN模型构建。在一些实施例中,多个训练后的第一机器学习模型中的至少一个和训练后的第二机器学习模型的结构参数可以部分或完全不同。例如,训练后的第二机器学习模型包含的层总数、层的内核大小等可以小于多个训练后的第一机器学习模型中的一个训练后的第一机器学习模型的层总数、层的内核大小等。
可以通过老师-学生训练技术从一个或以上老师模型中学习来训练学生模型并生成训练后的学生模型。老师模型和学生模型可以执行类似的计算任务。例如,老师模型和学生模型都可以被配置为基于未进行衰减校正的图像的输入生成经衰减校正后的图像的输出。又例如,老师模型和学生模型都可以被配置为基于计算机断层摄影(CT)图像的输入生成模拟磁共振(MR)图像的输出。与一个或以上老师模型相比,学生模型可以具有更简单的体系结构和/或更好的性能(例如,更高的准确性)。使用老师-学生训练技术,多个训练后的第一机器学习模型可以作为老师模型,而训练后的第二机器学习模型可以是经过训练的学生模型,即,可以通过向多个训练后的第一机器学习模型学习来确定训练后的第二机器学习模型。
在一些实施例中,使用老师-学生训练技术,第一计算装置120可以基于多个训练后的第一机器学习的输出来训练后的第二机器学习模型。例如,第一计算装置120可以将多个第二训练样本中的每个第二训练样本分别输入到多个训练后的第一机器学习模型和第二机器学习模型,以分别获取每个第二训练样本对应的多个参考输出和预估输出。第一计算装置120可以基于每个训练样本对应的多个训练后的第一机器学习模型的参考输出,以及第二机器学习模型的预估输出,通过迭代来更新第二机器学习模型的参数值来训练后的第二机器学习模型。关于训练后的第二机器学习模型可以参考在本申请的其他地方的描述(例如,图6-7及其描述)。
在507中,第一计算装置120(例如,传输模块406)可以将训练后的第二机器学习模型传输到多个第二计算装置中的至少一个。在一些实施例中,多个第二计算装置中的至少一个可以使用训练后的第二机器学习模型来执行计算任务。在一些实施例中,多个第二计算装置中的至少一个可以使用接收到的训练后的第二机器学习模型来更新训练后的第一机器学习模型。在一些实施例中,多个第二计算装置中的至少一个可以将接收到的训练后的第二机器学习模型发送到客户端终端(例如,终端140、成像设备的图像后处理工作站)以执行计算任务。
图6是根据本申请的一些实施例所示的确定训练后的第二机器学习模型的示例性步骤的示意性流程图。
在601中,第一计算装置120(例如,训练模块404)可以初始化包括一个或以上参数的第二机器学习模型。可以如结合步骤505所述获取第二机器学习模型。
在一些实施例中,第二机器学习模型的一个或以上参数可以包括多个结构参数和多个学习参数。第二机器学习模型的示例性结构参数可以包括卷积核的大小、层数、每层中的节点数、学习率、最小批次大小、步长等。第二机器学习模型的示例性学习参数可以包括两个节点之间的连接权值、与节点有关的偏差矢量等。两个节点之间的连接权值可以反映一个节点的输出值作为另一个连接节点的输入值的比例。在一些实施例中,第二机器学习模型的连接权重可以被初始化为一定范围,例如,-1到1内的随机值。在一些实施例中,第二机器学习模型的所有连接权重可以是一定范围,例如,从-1到1内的相同的值,例如0。与节点有关的偏差向量可以用于控制偏离原点的节点的输出值。在一些实施例中,可以将第二机器学习模型中的节点的偏差向量初始化为0到1范围内的随机值。在一些实施例中,可以基于高斯随机算法、Xavier算法等对第二机器学习模型的参数进行初始化。在一些实施例中,结合图5所示的步骤501描述,可以基于多个训练后的第一机器学习模型中的至少一个的学习参数来初始化学习参数。例如,第一计算装置120可以将训练后的第一机器学习模型的学习参数的至少一部分指定为第二机器学习模型的参数的初始值。
在603中,第一计算装置120(例如,训练模块404)可以向每个训练后的第一机器学习模型和第二机器学习模型输入训练样本。可以如结合图5所示的步骤501所描述的那样获取多个训练后的第一机器学习模型。训练样本也可以称为“第二训练样本”,如图5所示的步骤503所述。在一些实施例中,多个训练后的第一机器学习模型和第二机器学习模型可以共享相同的输入层。可以经由相同的输入层将训练样本发送到每个训练后的第一机器学习模型和第二机器学习模型。
在步骤605中,第一计算装置120(例如,训练模块404)可以基于训练样本,使用多个训练后的第一机器学习模型生成参考输出,利用第二机器学习模型生成预估输出。所述多个训练后的第一机器学习模型可以基于输入的训练样本生成多个参考输出。在一些实施例中,多个训练后的第一机器学习模型和/或第二机器学习模型可以从输入的训练样本中提取图像特征(例如,低级特征(例如,边缘特征、纹理特征)、高级特征(例如,语义特征)或复杂特征(例如,深层次特征))。多个训练后的第一机器学习模型和/或第二机器学习模型可以基于图像特征生成参考输出和/或预估输出。在一些实施例中,多个训练后的第一机器学习模型和第二机器学习模型可以共享一个或以上相同的特征提取层(例如,一个或以上卷积层)。由一个或以上相同特征提取层提取的图像特征可被发送到每个训练后的第一机器学习模型和第二机器学习模型中的其他层(例如,隐藏层),以分别生成参考输出和预估输出。
在步骤607中,第一计算装置120(例如,训练模块404)可以通过评估预估输出和参考输出之间的差异来获取评估结果。
在一些实施例中,预估输出和参考输出可以被输入到评估层(例如,损失函数层),以评估每个训练后的第一机器学习模型中参考输出和第二机器学习模型的预估输出之间的差异。在一些实施例中,可以基于损失函数确定预估输出和参考输出之间差异的评估结果。在一些实施例中,预估输出与参考输出之间的差异可以包括平均差异(或平均误差)。对预估输出和参考输出之间的差异的评估可以包括确定与平均误差有关的损失函数的值。例如,可以通过平均多个训练后的第一机器学习模型的参考输出确定平均输出。可以基于损失函数比较预估输出和平均输出来确定平均误差。又例如,可以基于损失函数来确定由多个训练后的第一机器学习模型生成的参考输出和第二机器学习模型生成的预估输出之间的多个误差。可以通过基于损失函数对多个误差求平均来确定平均误差。
在一些实施例中,预估输出与参考输出之间的差异可以包括总差异(即,总误差)。对预估输出和参考输出之间的差异的评估可以包括确定与总差异有关的损失函数的值。总差异可以包括多个误差,每个误差对应每个训练后的第一机器学习模型的参考输出和第二机器学习模型。
在步骤609中,第一计算装置120(例如,训练模块404)可以确定是否满足终止条件。如果满足终止条件,则步骤609可以进行步骤613。如果不满足终止条件,则步骤609可以进行步骤611。终止条件可以指示第二机器学习模型是否被充分训练。
在一些实施例中,终止条件可以与损失函数的值有关。例如,如果损失函数(例如,损失函数的值)的值最小或小于阈值(例如,常数),则可以满足终止条件。又例如,如果损失函数的值收敛,则可以满足终止条件。在一些实施例中,如果两次或以上连续迭代中的损失函数(例如,损失函数的值)的值的变化等于或小于一个阈值(例如,常数),则可以认为收敛。在一些实施例中,如果损失函数(例如,损失函数的值)与目标值之间的差等于或小于阈值(例如,常数),则可以认为收敛。在一些实施例中,当在训练步骤中执行指定的迭代次数(或计数)时,可以满足终止条件。
在611中,第一计算装置120(例如,训练模块404)可以更新第二机器学习模型的至少一些参数值。在一些实施例中,可以调整多个学习参数中的至少一个。例如,可以调整至少一些节点的参数值,直到损失函数的值满足条件(例如,超过阈值)。在一些实施例中,可以基于反向传播算法来调整第二机器学习模型的多个学习参数。示例性反向传播算法可以包括随机梯度下降算法、Adam算法、Adagrad算法、Adadelta算法、RMSprop算法等,或其组合。在一些实施例中,第一计算装置120可以通过执行反向传播神经网络训练过程的迭代来更新参数的值,例如,随机梯度下降反向传播训练技术。例如,第一计算装置120可以向第二机器学习模型中的输出层以下的每一层反向传播确定的损失函数的值以调整第二机器学习模型每一层的参数。
在613中,第一计算装置120(例如,训练模块404)可以确定训练后的第二机器学习模型。在一些实施例中,可以基于更新的参数来确定训练后的第二机器学习模型。
在一些实施例中,可以对多个训练样本重复步骤600以改善或优化第二机器学习模型,直到满足终止条件为止。在步骤600的不同循环中,可以将不同的训练样本输入第二机器学习模型。在一些实施例中,终止条件可以是已经分析了特定数量的训练样本。在一些实施例中,终止条件可以是已经执行了特定次数的迭代。
应该注意的是,上述仅出于说明性目的而提供,并不旨在限制本申请的范围。对于本领域的普通技术人员来说,可以根据本申请的描述,做出各种各样的变化和修改。然而,这些变化和修改不会背离本申请的范围。在一些实施例中,可以省略一个或以上步骤,并且/或者可以添加一个或以上其他步骤。例如,步骤605和步骤607可以被集成为一个步骤。又例如,可以省略步骤603。
图7是根据本申请的一些实施例所示的示例性老师-学生训练架构的示意图。
如图7所示,老师-学生训练框架700可以包括用作老师模型的多个训练后的第一机器学习模型(例如,训练后的第一机器学习模型703-1、训练后的第一机器学习模型703-2、…、训练后的第一机器学习模型703-n)。第二机器学习模型705(也被称为学生模型)可以从多个训练后的第一机器学习模型中学习。多个训练后的第一机器学习模型可以包括在训练第一机器学习模型之后确定的多个参数。例如,训练后的第一机器学习模型703-1可包含参数WA1,训练后的第一机器学习模型703-2可包含参数WA2、…、以及训练后的第一机器学习模型703-n可以包含参数WAn。
在训练过程中,可以使用一个或以上参数WB初始化第二机器学习模型705。可以基于多个训练样本和多个训练后的第一机器学习模型来训练后的第二机器学习模型705。具体地,可以由输入层702将训练样本输入到多个训练后的第一机器学习模型和第二机器学习模型705。多个训练后的第一机器学习模型可以根据训练样本分别生成多个参考输出(即,参考输出707-1、参考输出707-2、…、和参考输出707-n)。第二机器学习模型705可以基于训练样本生成预估输出709。多个参考输出和预估输出709可以被输入到配置有损失函数(即,成本函数)的损失函数层711中。损失函数的值可以基于参考输出(即,参考输出707-1、参考输出707-2以及参考输出707-n)和预估输出709确定。损失函数的值可以表示参考输出(即,参考输出707-1、参考输出707-2,…和参考输出707-n)与预估输出709之间的误差或差异。损失函数的值可以被传输到第二机器学习模型705的每一层。可以通过基于损失函数的值调整参数WB来更新第二机器学习模型705。可以通过执行反向传播训练过程的迭代(例如,随机梯度下降反向传播训练技术)来更新参数WB的值,以确定第二机器学习模型的参数WB的更新值。也就是说,由损失函数层711确定的误差可以反向传播到第二机器学习模型的输出层下方的每一层,以便调整第二机器学习模型的每一层的参数。
图8是根据本申请的一些实施例所示的用于生成一个或以上训练样本的示例性步骤的示意性流程图。在一些实施例中,可以结合图5中的步骤503描述根据步骤800获取多个训练样本的至少一部分。
在步骤801中,第一计算装置120(例如,获取模块402)可以从多个第二计算装置(workers)(例如,第二计算装置110)获取多个训练后的第三机器学习模型(也称为生成模型)。
每个训练后的第三机器学习模型可以由一个第二计算装置使用在多个第二装置中仅该第二计算装置可用的多个第三训练样本训练第三机器学习模型生成。第三训练样本可以包括通过成像装置扫描对象而生成的图像(例如,CT图像、MR图像、PET图像等)。在第三机器学习模型的训练过程中,第三机器学习模型可以基于输入的第三训练样本学习生成模拟图像。例如,第三机器学习模型可以从输入的第三训练样本中提取图像特征,并基于提取的图像特征生成模拟图像。再例如,第三机器学习模型可以生成与第三训练样本相对应的概率分布(例如,正态分布),并从概率分布中采样以生成模拟图像。在训练过程结束时,第三机器学习模型可以生成多个第三训练样本的多个概率分布,并将多个概率分布合并为一个综合概率分布。训练后的第三机器学习模型可以从综合概率分布中采集样本,并基于该样本生成模拟图像。
在一些实施例中,第三机器学习模型可以包括第一神经网络(也称为编码器),该第一神经网络具有要通过训练进行优化的第一组参数。第一神经网络可以被配置为从每个第三训练样本中提取图像特征,并且基于概率分布(例如,正态分布)将所提取的图像特征描述为潜在空间(或向量空间)中的特征向量。第三机器学习模型可以包括第二神经网络(也称为解码器),该第二神经网络具有要通过训练进行优化的第二组参数。第二神经网络模型可以被配置为基于从潜在空间(即,概率分布)中提取的样本(例如,特征向量)生成估计图像。可以通过执行多次迭代以更新第一组参数和第二组参数来获取第三训练学习模型。对于每次迭代,可以将第三训练样本输入到第三机器学习模型中。第一神经网络可以通过处理提取的图像特征来学习并生成第三训练样本的概率分布。第二神经网络可以从概率分布中采样以获取特征向量并对特征向量进行解码以生成估计图像。第三机器学习模型可以基于损失函数将估计图像与输入的第三训练样本进行比较。损失函数可以指示估计图像与第三训练样本之间的相似度或差异度。如果当前迭代中损失函数的值超过一个阈值,可以调整和/或更新第一组参数和/或第二组参数,以使损失函数(例如,预估输出图像和输入的参考图像(即第三样本)之间的差异程度)的值小于阈值。因此,在下一次迭代中,可以将另一个第三训练样本输入到第三机器学习模型中以训练如上所述的第三机器学习模型。然后,可以执行多次迭代以更新第一组参数和/或第二组参数,直到满足终止条件为止。具有多个概率分布(或一个单一概率分布)的训练后的第二神经网络可以指定为训练后的第三机器学习模型。
在步骤803中,第一计算装置120(例如,获取模块402)可以将多个训练后的第三机器学习模型集成到组合模型中。在一些实施例中,可以通过共享一个或以上层(例如输入层)将多个训练后的第三机器学习模型集成到组合模型中。在一些实施例中,组合模型可以包括目标概率分布。目标概率分布可以包括多个综合概率分布的组合,每个综合概率分布可以由多个训练后的第三机器学习模型中的某个训练后的第三机器学习模型生成。
如图10所示,可以提供示例性的组合模型1000,其包括多个训练后的第三机器学习模型。组合模型中的训练后的第三机器学习模型(即训练后的第三机器学习模型1003-1、训练后的第三机器学习模型1003-2、…、训练后的第三机器学习模型1003-N)可以共享同一输入层1001。多个训练后的第三机器学习模型可以根据输入层1001的输入生成多个输出(即,输出1005-1、输出1005-2、…、输出1005-N)。
在步骤805中,第一计算装置120(例如,获取模块402)可以从由多个训练后的第三机器学习模型中的至少一个生成的概率分布中采样以获取样本。在一些实施例中,概率分布可以包括标准正态分布。样本可以从概率分布中随机采样。该样本可以包括特征向量。
在步骤807中,第一计算装置120(例如,获取模块402)可以通过将样本输入到组合模型中生成一个或以上训练样本。多个训练后的第三机器学习模型可以根据输入的样本生成一个或以上训练样本(例如,输出1005-1、输出1005-2、…、、输出1005-N)。由组合模型生成的对应于同一样本的一个或以上训练样本可以彼此不同。可以重复步骤805-807,直到训练样本的数量达到计数阈值为止。多个训练后的第三机器学习模型(即,生成模型)生成的训练样本可以用作老师模型(例如,图5-6中描述的训练后的第一机器学习模型)和学生模型(例如,图5-6中描述的第二机器学习模型)的输入。学生模型可以基于多个训练样本向老师模型学习,其中至少一部分可以由生成模型生成。
图9是根据本申请的一些实施例所示的示例性第三机器学习模型的示意图。如图9所示,第三机器学习模型可以包括变分自编码器。第三机器学习可以包括输入层901、编码器网络903、解码器网络911和输出层913。在生成模型900的训练过程中,编码器网络903可以对输入(例如,图像)进行编码以生成概率分布,并且解码器网络911可以通过从概率分布中采样生成输出。编码器网络903和解码器网络911的参数可以迭代更新,直到满足终止条件为止,如图8所示。在训练过程结束之后,可以通过从第三机器学习900中删除编码器网络903来确定生成模型(即训练后的第三机器学习模型)。生成模型还可以包括优化的参数,例如均值矢量和标准偏差矢量,可以用于处理从概率分布提取的样本以解码生成图像。
上文已对基本概念做了描述,显然,对于阅读此申请后的本领域的普通技术人员来说,上述发明披露仅作为示例,并不构成对本申请的限制。虽然此处并未明确说明,但本领域的普通技术人员可能会对本申请进行各种修改、改进和修正。该类修改、改进和修正在本申请中被建议,所以该类修改、改进、修正仍属于本申请示范实施例的精神和范围。最后,应当理解的是,本申请中所述实施例仅用以说明本申请实施例的原则。其他的变形也可能属于本申请的范围。因此,作为示例而非限制,本申请实施例的替代配置可视为与本申请的教导一致。相应地,本申请的实施例不仅限于本申请明确介绍和描述的实施例。
Claims (10)
1.一种基于机器学习建模的方法,由与多个第二计算装置通信的第一计算装置实施,其特征在于,所述方法包括:
从所述多个第二计算装置中获取用于计算任务的多个训练后的第一机器学习模型,所述多个训练后的第一机器学习模型的至少部分参数值彼此不同;
获取多个训练样本;以及
基于所述多个训练样本,通过学习所述多个训练后的第一机器学习模型确定训练后的第二机器学习模型。
2.根据权利要求1所述的方法,其特征在于,所述多个第二计算装置中的至少一个第二计算装置包括多个计算单元,所述多个训练后的第一机器学习模型中的一个训练后的第一机器学习模型由所述至少一个第二计算装置通过使用所述多个计算单元利用分布式学习技术提供。
3.根据权利要求1所述的方法,其特征在于,所述多个训练后的第一机器学习模型中的至少一个训练后的第一机器学习模型由所述多个第二计算装置中的一个第二计算装置通过利用多个第一训练样本训练第一机器学习模型获取,所述多个第一训练样本仅可用于所述多个第二计算装置中的所述一个第二计算装置。
4.根据权利要求1所述的方法,其特征在于,所述多个训练后的第一机器学习模型中的至少两个训练后的机器学习模型基于相同的机器学习模型或不同的机器学习模型来构建。
5.根据权利要求1所述的方法,其特征在于,基于所述多个训练样本,通过学习所述多个训练后的第一机器学习模型确定训练后的第二机器学习模型包括:
基于与所述多个训练样本中的每个训练样本对应的所述多个训练后的第一机器学习模型的参考输出,使用所述多个训练样本训练第二机器学习模型以获取所述训练后的第二机器学习模型。
6.根据权利要求5所述的方法,其特征在于,基于与所述多个训练样本中的每个训练样本对应的所述多个训练后的第一机器学习模型的参考输出,使用所述多个训练样本来训练所述第二机器学习模型包括:
初始化所述第二机器学习模型的参数值;以及
基于与所述多个训练样本中的每个训练样本对应的所述多个训练后的第一机器学习模型中的所述参考输出,所述多个训练样本,通过执行迭代过程更新所述第二机器学习模型的所述参数值来训练所述第二机器学习模型,对于所述迭代过程的每次迭代,
将所述多个训练样本中的训练样本输入到每个训练后的第一机器学习模型;
基于所述训练样本,使用所述每个训练后的第一机器学习模型生成所述参考输出;
将所述训练样本和所述参考输出输入到所述第二机器学习模型中;
基于所述训练样本生成所述第二机器学习模型的预估输出;
通过评估所述预估输出和所述参考输出之间的差异来获取评估结果;以及
基于所述评估结果,更新所述第二机器学习模型的所述参数值中至少部分参数值。
7.根据权利要求1所述的方法,其特征在于,获得多个训练样本包括:
从所述多个第二计算装置获取多个训练后的第三机器学习模型;以及
基于所述多个训练后的第三机器学习模型,生成所述多个训练样本的至少一部分,其中,每个训练后的第三机器学习模型被配置为生成所述多个训练样本的一部分。
8.根据权利要求7所述的方法,其特征在于,所述多个训练后的第三机器学习模型中的每个训练后的第三机器学习模型是由所述多个第二计算装置中的一个第二计算装置通过使用所述多个第三训练样本训练所述第三机器学习模型生成,所述多个第三训练样本仅可用于所述多个第二计算装置中的所述一个第二计算装置。
9.一种基于机器学习建模的系统,包括:
存储可执行指令的至少一个存储设备,以及
与所述至少一个存储设备通信的处理器,当执行所述可执行指令时,使所述系统执行如权利要求1-8任一所述的基于机器学习建模的方法。
10.一种基于机器学习建模的系统,包括:
与多个第二计算装置通信的第一计算装置,所述第一计算装置包括:
获取模块,被配置为从所述多个第二计算装置中获取多个训练后的第一机器学习模型,并获取多个训练样本,其中所述多个训练后的第一机器学习模型的至少部分参数值彼此不同;以及
确定模块,被配置为基于所述多个训练样本,通过学习所述多个训练后的第一机器学习模型确定训练后的第二机器学习模型。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/686,539 | 2019-11-18 | ||
US16/686,539 US11604984B2 (en) | 2019-11-18 | 2019-11-18 | Systems and methods for machine learning based modeling |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111178542A true CN111178542A (zh) | 2020-05-19 |
CN111178542B CN111178542B (zh) | 2024-05-24 |
Family
ID=70647385
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911398071.0A Active CN111178542B (zh) | 2019-11-18 | 2019-12-30 | 基于机器学习建模的系统和方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11604984B2 (zh) |
CN (1) | CN111178542B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221717A (zh) * | 2021-05-06 | 2021-08-06 | 支付宝(杭州)信息技术有限公司 | 一种基于隐私保护的模型构建方法、装置及设备 |
WO2021197223A1 (zh) * | 2020-11-13 | 2021-10-07 | 平安科技(深圳)有限公司 | 一种模型压缩方法、系统、终端及存储介质 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210077482A (ko) * | 2019-12-17 | 2021-06-25 | 엘지전자 주식회사 | 복수의 갱신 정보를 융합하여 인공 지능 모델을 갱신하는 인공 지능 서버 및 그 방법 |
US11551083B2 (en) | 2019-12-17 | 2023-01-10 | Soundhound, Inc. | Neural network training from private data |
CN113127667A (zh) * | 2019-12-30 | 2021-07-16 | 阿里巴巴集团控股有限公司 | 图像处理方法及装置、图像分类方法及装置 |
CN113438481B (zh) * | 2020-03-23 | 2024-04-12 | 富士通株式会社 | 训练方法、图像编码方法、图像解码方法及装置 |
US11620576B1 (en) * | 2020-06-22 | 2023-04-04 | Amazon Technologies, Inc. | Systems and methods for knowledge transfer in machine learning |
US20220019944A1 (en) * | 2020-07-16 | 2022-01-20 | Singulos Research Inc. | System and method for identifying and mitigating ambiguous data in machine learning architectures |
WO2022055964A1 (en) * | 2020-09-08 | 2022-03-17 | Hired, Inc. | Generating realistic counterfactuals with residual generative adversarial nets |
US11928182B1 (en) * | 2020-11-30 | 2024-03-12 | Amazon Technologies, Inc. | Artificial intelligence system supporting semi-supervised learning with iterative stacking |
US11558451B2 (en) * | 2021-04-19 | 2023-01-17 | International Business Machines Corporation | Machine learning based application deployment |
WO2022261950A1 (en) * | 2021-06-18 | 2022-12-22 | Huawei Cloud Computing Technologies Co., Ltd. | System and method for model composition of neural networks |
US20230016368A1 (en) * | 2021-07-15 | 2023-01-19 | International Business Machines Corporation | Accelerating inferences performed by ensemble models of base learners |
WO2023009721A1 (en) * | 2021-07-30 | 2023-02-02 | Electrifai, Llc | Systems and methods for adapting machine learning models |
CN113657613B (zh) * | 2021-08-23 | 2024-08-30 | 北京易真学思教育科技有限公司 | 预测模型训练方法、数据处理装置和系统 |
WO2023028996A1 (en) * | 2021-09-03 | 2023-03-09 | Huawei Technologies Co., Ltd. | Methods and devices for ensuring the reproducibility of software systems |
US11748640B2 (en) * | 2021-09-29 | 2023-09-05 | o9 Solutions, Inc. | Hierarchical tournament-based machine learning predictions |
US11450225B1 (en) * | 2021-10-14 | 2022-09-20 | Quizlet, Inc. | Machine grading of short answers with explanations |
US11599794B1 (en) * | 2021-10-20 | 2023-03-07 | Moffett International Co., Limited | System and method for training sample generator with few-shot learning |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106548190A (zh) * | 2015-09-18 | 2017-03-29 | 三星电子株式会社 | 模型训练方法和设备以及数据识别方法 |
CN109034365A (zh) * | 2018-07-06 | 2018-12-18 | 电子科技大学 | 深度学习模型的训练方法及装置 |
CN109716346A (zh) * | 2016-07-18 | 2019-05-03 | 河谷生物组学有限责任公司 | 分布式机器学习系统、装置和方法 |
CN109784359A (zh) * | 2018-11-27 | 2019-05-21 | 北京邮电大学 | 图像生成方法、装置、设备及可读存储介质 |
WO2019109613A1 (en) * | 2017-12-07 | 2019-06-13 | Shenzhen United Imaging Healthcare Co., Ltd. | Systems and methods for image processing |
US20190198156A1 (en) * | 2017-12-21 | 2019-06-27 | International Business Machines Corporation | Medical Image Classification Based on a Generative Adversarial Network Trained Discriminator |
CN109993299A (zh) * | 2017-12-29 | 2019-07-09 | 中兴通讯股份有限公司 | 数据训练方法及装置、存储介质、电子装置 |
CN110135185A (zh) * | 2018-02-08 | 2019-08-16 | 苹果公司 | 使用生成式对抗网络进行私有化的机器学习 |
US20190279293A1 (en) * | 2018-03-08 | 2019-09-12 | Capital One Services, Llc | Image analysis and identification using machine learning with output estimation |
US20190311298A1 (en) * | 2018-04-09 | 2019-10-10 | Here Global B.V. | Asynchronous parameter aggregation for machine learning |
CN110460600A (zh) * | 2019-08-13 | 2019-11-15 | 南京理工大学 | 可抵御生成对抗网络攻击的联合深度学习方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2020115475A (ru) * | 2017-10-13 | 2021-11-16 | Роберт ЦИННЕР | Система, контроллер и способ декортикации |
EP3629520B1 (en) * | 2018-09-28 | 2023-08-23 | Permutive Limited | Fast and efficient classification system |
US11087025B2 (en) * | 2018-12-10 | 2021-08-10 | Sap Se | Differential privacy processing of IoT streaming data using generative adversarial networks |
US11010637B2 (en) * | 2019-01-03 | 2021-05-18 | International Business Machines Corporation | Generative adversarial network employed for decentralized and confidential AI training |
US11790264B2 (en) * | 2019-06-19 | 2023-10-17 | Google Llc | Systems and methods for performing knowledge distillation |
US20200410288A1 (en) * | 2019-06-26 | 2020-12-31 | Here Global B.V. | Managed edge learning in heterogeneous environments |
US11574253B2 (en) * | 2019-08-01 | 2023-02-07 | Microsoft Technology Licensing, Llc | Distributed training for deep learning models |
KR20190107621A (ko) * | 2019-09-02 | 2019-09-20 | 엘지전자 주식회사 | 상황 인식에 기반한 어플리케이션 추천을 위한 장치 및 제어 방법 |
US11710045B2 (en) * | 2019-10-01 | 2023-07-25 | Samsung Display Co., Ltd. | System and method for knowledge distillation |
-
2019
- 2019-11-18 US US16/686,539 patent/US11604984B2/en active Active
- 2019-12-30 CN CN201911398071.0A patent/CN111178542B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106548190A (zh) * | 2015-09-18 | 2017-03-29 | 三星电子株式会社 | 模型训练方法和设备以及数据识别方法 |
CN109716346A (zh) * | 2016-07-18 | 2019-05-03 | 河谷生物组学有限责任公司 | 分布式机器学习系统、装置和方法 |
WO2019109613A1 (en) * | 2017-12-07 | 2019-06-13 | Shenzhen United Imaging Healthcare Co., Ltd. | Systems and methods for image processing |
US20190198156A1 (en) * | 2017-12-21 | 2019-06-27 | International Business Machines Corporation | Medical Image Classification Based on a Generative Adversarial Network Trained Discriminator |
CN109993299A (zh) * | 2017-12-29 | 2019-07-09 | 中兴通讯股份有限公司 | 数据训练方法及装置、存储介质、电子装置 |
CN110135185A (zh) * | 2018-02-08 | 2019-08-16 | 苹果公司 | 使用生成式对抗网络进行私有化的机器学习 |
US20190279293A1 (en) * | 2018-03-08 | 2019-09-12 | Capital One Services, Llc | Image analysis and identification using machine learning with output estimation |
US20190311298A1 (en) * | 2018-04-09 | 2019-10-10 | Here Global B.V. | Asynchronous parameter aggregation for machine learning |
CN109034365A (zh) * | 2018-07-06 | 2018-12-18 | 电子科技大学 | 深度学习模型的训练方法及装置 |
CN109784359A (zh) * | 2018-11-27 | 2019-05-21 | 北京邮电大学 | 图像生成方法、装置、设备及可读存储介质 |
CN110460600A (zh) * | 2019-08-13 | 2019-11-15 | 南京理工大学 | 可抵御生成对抗网络攻击的联合深度学习方法 |
Non-Patent Citations (3)
Title |
---|
ROHAN ANIL 等: "LARGE SCALE DISTRIBUTED NEURAL NETWORK TRAINING THROUGH ONLINE DISTILLATION", 《ARXIV》, vol. 2018, 9 April 2018 (2018-04-09) * |
宋匡时 等: "一个轻量级分布式机器学习系统的设计与实现", 计算机工程, 22 May 2019 (2019-05-22) * |
邢源: "面向大数据的机器学习算法支撑平台设计与实现", 《知网》, vol. 2019, no. 8, 15 August 2019 (2019-08-15) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021197223A1 (zh) * | 2020-11-13 | 2021-10-07 | 平安科技(深圳)有限公司 | 一种模型压缩方法、系统、终端及存储介质 |
CN113221717A (zh) * | 2021-05-06 | 2021-08-06 | 支付宝(杭州)信息技术有限公司 | 一种基于隐私保护的模型构建方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
US11604984B2 (en) | 2023-03-14 |
US20210150330A1 (en) | 2021-05-20 |
CN111178542B (zh) | 2024-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111178542B (zh) | 基于机器学习建模的系统和方法 | |
KR102318772B1 (ko) | 도메인 분리 뉴럴 네트워크들 | |
US11295208B2 (en) | Robust gradient weight compression schemes for deep learning applications | |
CN109255830B (zh) | 三维人脸重建方法和装置 | |
US10223788B2 (en) | Skin lesion segmentation using deep convolution networks guided by local unsupervised learning | |
CN109997168B (zh) | 用于生成输出图像的方法和系统 | |
EP4035096A1 (en) | Decentralised artificial intelligence (ai)/machine learning training system | |
CN111046027A (zh) | 时间序列数据的缺失值填充方法和装置 | |
CN110570426A (zh) | 使用深度学习的图像联合配准和分割 | |
US12061991B2 (en) | Transfer learning with machine learning systems | |
JP2023533907A (ja) | 自己注意ベースのニューラルネットワークを使用した画像処理 | |
US11403807B2 (en) | Learning hybrid (surface-based and volume-based) shape representation | |
EP4386579A1 (en) | Retrieval model training method and apparatus, retrieval method and apparatus, device and medium | |
KR20220107940A (ko) | 의료 영상의 병변 평가 방법 | |
KR20230144597A (ko) | 엑스퍼트의 혼합을 사용한 이미지 프로세싱 | |
US20220414453A1 (en) | Data augmentation using brain emulation neural networks | |
Wu et al. | Semiautomatic segmentation of glioma on mobile devices | |
CN118379735A (zh) | 经由弯曲平面重新格式化改进图像注释的简易性 | |
KR102454742B1 (ko) | 뇌 피질 영역의 두께를 분석하는 방법 | |
CN112132230B (zh) | 图像分类方法及装置 | |
CN115146788A (zh) | 分布式机器学习模型的训练方法、装置、电设备存储介质 | |
US11158059B1 (en) | Image reconstruction based on edge loss | |
Mira et al. | Machine Learning (ML) as a Service (MLaas): Enhancing IoT with Intelligence, Adaptive Online Deep and Reinforcement Learning, Model Sharing, and Zero-knowledge Model Verification | |
US20240164736A1 (en) | Methods, systems, storage media and apparatus for training a biomedical image analysis model to increase prediction accuracy of a medical or cosmetic condition | |
KR20230175117A (ko) | 딥러닝 모델의 학습을 위한 의료 데이터의 처리 방법, 프로그램 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TG01 | Patent term adjustment | ||
TG01 | Patent term adjustment |