CN112749728A - 学生模型训练方法、装置、计算机设备及存储介质 - Google Patents
学生模型训练方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN112749728A CN112749728A CN202010812947.8A CN202010812947A CN112749728A CN 112749728 A CN112749728 A CN 112749728A CN 202010812947 A CN202010812947 A CN 202010812947A CN 112749728 A CN112749728 A CN 112749728A
- Authority
- CN
- China
- Prior art keywords
- sample data
- label
- labels
- model
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请提供了一种学生模型训练方法、装置、计算机设备及存储介质,属于人工智能技术领域。方法包括:获取教师模型对样本数据集中的多个样本数据分别进行预测得到的多个第一标签;根据教师模型,分别确定多个第一标签的可信度信息,可信度信息用于表示对应的第一标签的可信程度;根据样本数据集、多个第一标签以及多个第一标签的可信度信息,对学生模型进行训练。上述技术方案,使得学生模型在基于样本数据集和样本数据集中的样本数据的第一标签进行训练时,能够根据第一标签的可信度信息来进行区分训练,降低可信程度低的第一标签对训练的影响,从而提高学生模型的学习效率。
Description
技术领域
本申请涉及人工智能技术领域,特别涉及一种学生模型训练方法、装置、计算机设备及存储介质。
背景技术
在人工智能技术领域,较大、较复杂的模型虽然通常具有很好的性能,但是也存在很多的冗余信息,因此运算量以及资源的消耗都非常多。知识蒸馏作为一种模型压缩的方法,能够减少模型训练过程中的运算量和资源消耗,被广泛应用于图像识别、机器翻译以及命名实体识别等领域。
目前,知识蒸馏方法首先训练一个参数量较大、性能较高的教师模型,然后利用该教师模型对训练数据进行前项解码,然后将教师模型解码得到的软标签,作为训练目标,训练一个参数量较小的学生模型,使得学生模型的性能逼近教师模型。其中,软标签用于表示训练数据被预测为不同结果的概率。
上述技术方案存在的问题是,教师模型解码得到的软标签可能存在错误,而学生模型无法确定软标签是否正确,只能不加以区分的进行训练,导致学生模型的学习效率较低。
发明内容
本申请实施例提供了一种学生模型训练方法、装置、计算机设备及存储介质,能够降低可信程度低的第一标签对训练的影响,从而提高学生模型的学习效率。所述技术方案如下:
一方面,提供了一种学生模型训练方法,所述方法包括:
获取教师模型对样本数据集中的多个样本数据分别进行预测得到的多个第一标签,一个第一标签用于表示一个样本数据的预测结果,所述教师模型由所述样本数据集训练得到;
根据所述教师模型,分别确定所述多个第一标签的可信度信息,所述可信度信息用于表示对应的第一标签的可信程度;
根据所述样本数据集、所述多个第一标签以及所述多个第一标签的可信度信息,对学生模型进行训练。
另一方面,提供了一种学生模型训练装置,所述装置包括:
标签获取模块,用于获取教师模型对样本数据集中的多个样本数据分别进行预测得到的多个第一标签,一个第一标签用于表示一个样本数据的预测结果,所述教师模型由所述样本数据集训练得到;
信息确定模块,用于根据所述教师模型,分别确定所述多个第一标签的可信度信息,所述可信度信息用于表示对应的第一标签的可信程度;
第一模型训练模块,用于根据所述样本数据集、所述多个第一标签以及所述多个第一标签的可信度信息,对学生模型进行训练。
在一种可选的实现方式中,所述信息确定模块,包括:
预测子模块,用于对于任一样本数据,根据被设置为目标状态的所述教师模型,对所述样本数据进行目标次数的预测,所述目标状态用于指示所述教师模型中的至少一个神经节点被设置为失活状态,所述失活状态用于表示神经节点的输出为0;
信息确定子模块,用于根据所述样本数据被预测为所述第一标签的多个第一概率值,确定所述第一标签的可信度信息。
在一种可选的实现方式中,所述预测子模块,用于每次预测时,随机将所述教师模型中的至少一个神经节点设置为失活状态;根据包括至少一个已设置为失活状态的神经节点的教师模型,对所述样本数据进行预测。
在一种可选的实现方式中,所述信息确定子模块,用于根据所述样本数据被预测为所述第一标签的多个第一概率值,获取第二概率值,将所述第二概率值作为所述第一标签的可信度信息,所述第二概率值为所述多个第一概率值的方差。
在一种可选的实现方式中,所述根据所述样本数据集、所述多个第一标签以及所述多个第一标签的可信度信息,对学生模型进行训练,包括:
根据所述多个第一标签的可信度信息,确定所述多个第一标签的标签权重;
根据所述样本数据集、所述多个第一标签以及所述多个第一标签的标签权重,对学生模型进行训练。
在一种可选的实现方式中,所述装置还包括:
数据输入模块,用于将所述样本数据集中的多个样本数据分别输入所述教师模型;
解码模块,用于对于任一样本数据,根据所述教师模型对所述样本数据进行前项解码,得到所述样本数据的软标签,所述软标签用于表示所述样本数据被预测为不同标签的概率;
标签确定模块,用于根据所述样本数据的软标签,确定概率最大的标签作为所述样本数据的第一标签。
在一种可选的实现方式中,所述装置还包括:
第二模型训练模块,用于根据所述样本数据集中的多个样本数据和所述多个样本数据已被标注的第二标签进行模型训练,得到所述教师模型。
另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器用于存储至少一段程序代码,所述至少一段程序代码由所述处理器加载并执行以实现本申请实施例中的学生模型训练方法中所执行的操作。
另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一段程序代码,所述至少一段程序代码由所述处理器加载并执行以实现如本申请实施例中学生模型训练方法中所执行的操作。
另一方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机程序代码,该计算机程序代码存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机程序代码,处理器执行该计算机程序代码,使得该计算机设备执行上述各方面或者各方面的各种可选实现方式中提供的学生模型训练方法。
本申请实施例提供的技术方案带来的有益效果是:
在本申请实施例中,通过获取各样本数据的第一标签,能够得到教师模型对各样本数据的预测结果,再根据教师模型,分别确定用于表示第一标签的可信程度的可信度信息,使得学生模型在基于样本数据集和样本数据集中的样本数据的第一标签进行训练时,能够根据第一标签的可信度信息来进行区分训练,降低可信程度低的第一标签对训练的影响,从而提高学生模型的学习效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本申请实施例提供的学生模型训练方法的实施环境示意图;
图2是根据本申请实施例提供的一种学生模型训练方法的流程图;
图3是根据本申请实施例提供的另一种学生模型训练方法的流程图;
图4是根据本申请实施例提供的另一种学生模型训练方法的流程图;
图5是根据本申请实施例提供的一种学生模型训练装置的框图;
图6是根据本申请实施例提供的一种终端的结构框图;
图7是根据本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
下面简单介绍一下本申请实施例可能用到的技术。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能云服务,一般也被称作是AIaaS(AI as a Service,中文为“AI即服务”)。这是目前主流的一种人工智能平台的服务方式,具体来说AIaaS平台会把几类常见的AI服务进行拆分,并在云端提供独立或者打包的服务。这种服务模式类似于开了一个AI主题商城:所有的开发者都可以通过API接口的方式来接入使用平台提供的一种或者是多种人工智能服务,部分资深的开发者还可以使用平台提供的AI框架和AI基础设施来部署和运维自已专属的云人工智能服务。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR(Optical Character Recognition,光学字符识别)、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D(3-Dimension,三维)技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
自然语言处理(Nature Language Processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。
命名实体识别(Named Entity Recognition,简称NER),又称作“专名识别”,是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等。简单的讲,就是识别自然文本中的实体指称的边界和类别。
下面介绍一下本申请实施例提供的学生模型训练方法的实施环境,图1是根据本申请实施例提供的学生模型训练方法的实施环境示意图。该实施环境包括:终端110和服务器120。
终端110和服务器120可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。终端110可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端110可以安装和运行有支持数据上传的应用程序。该应用程序可以是相册类应用程序、社交类应用程序、购物类应用程序以及检索类应用程序等。示意性的,终端110是用户使用的终端,终端110中运行的应用程序内登录有用户账户。
服务器120可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。服务器120用于为终端110运行的应用程序提供后台服务。
可选地,服务器120承担主要模型训练工作,终端110承担次要模型训练工作;或者,服务器120承担次要模型训练工作,终端110承担主要模型训练工作;或者,服务器120或终端110分别可以单独承担模型训练工作。
终端110可以泛指多个终端中的一个,本实施例仅以终端110来举例说明。本领域技术人员可以知晓,上述终端的数量可以更多或更少。比如上述终端可以仅为一个,或者上述终端为几十个或几百个,或者更多数量,此时上述图像分类方法的实施环境还包括其他终端。本申请实施例对终端的数量和设备类型不加以限定。
可选的,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-up Language,HTML)、可扩展标记语言(Extensible MarkupLanguage,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure Socket Layer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(Internet ProtocolSecurity,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
本申请实施例提供的学生模型训练方法,能够广泛应用于训练基于神经网络的模型。
在一种可选的实现方式中,本申请实施例提供的学生模型训练方法,能够用于中文命名实体识别场景,下面以训练中文命名实体识别模型的场景进行介绍。
首先,通过公开的中文命名实体数据集训练得到一个教师模型,该教师模型的结构较为复杂。然后通过教师模型分别对该中文命名实体数据集中的中文命名实体进行预测,获取预测得到的第一标签,即各中文命名实体被预测为的标签。然后再确定各第一标签的可信度信息,从而确定各第一标签的可信程度。基于各第一标签的可信程度,根据与训练教师模型相同的中文命名实体数据集以及对应的第一标签,训练学生模型。能够根据第一标签的可信度信息来进行区分训练,降低可信程度低的第一标签对训练的影响,从而提高学生模型的学习效率。
在一种可选的实现方式中,本申请实施例提供的学生模型训练方法,还能够应用于英德翻译场景,下面以训练英德翻译模型的场景进行介绍。
首先,通过公开的英德翻译数据集训练得到一个教师模型,该教师模型的结构较为复杂。然后通过教师模型分别对该英德翻译数据集中的英文词汇进行预测,获取预测得到的第一标签,即各英文词汇被预测为的德文词汇。然后在确定各第一标签的可信度信息,从而确定各第一标签的可信程度。基于各第一标签的可信程度,根据与训练教师模型相同的英德翻译数据集以及对应的第一标签,训练学生模型。能够根据第一标签的可信度信息来进行区分训练,降低可信程度低的第一标签对训练的影响,从而提高学生模型的学习效率。
图2是根据本申请实施例提供的一种学生模型训练方法的流程图,如图2所示,该学生模型训练方法包括以下步骤:
201、获取教师模型对样本数据集中的多个样本数据分别进行预测得到的多个第一标签,一个第一标签用于表示一个样本数据的预测结果,该教师模型由该样本数据集训练得到。
在本申请实施例中,根据模型的应用场景,能够获取相应的样本数据集,该样本数据集包括已标注的多个样本数据。根据该样本数据集中的多个样本数据,能够训练得到一个结构较为复杂的教师模型。然后基于已训练完毕的教师模型,对该样本数据集中的多个样本数据进行预测,能够得到各样本数据的预测结果,即每个样本数据被教师模型预测为的第一标签,一个样本数据对应一个第一标签。可选的,不同样本数据对应同一种类的第一标签,或者不同样本数据对应不同种类的第一标签。
需要说明的是,根据模型的应用场景不同,样本数据集中的样本数据的类型也不同。可选的,样本数据集中的样本数据为已标注类别的图像数据,如标注为狗的狗图片,标注为汽车的汽车图片,或者标注有图片所包含文字的广告图片等。可选的,样本数据集中的样本数据为已标注对应内容的文本数据,如已标注对应的英文的中文文本,已标注有对应德文的英文文本,或者已标注有对应中文的英文文本等。可选的,样本数据集中的样本数据为已标注的音频数据、视频数据等,本申请实施例对此不进行限制。
202、根据该教师模型,分别确定该多个第一标签的可信度信息,该可信度信息用于表示对应的第一标签的可信程度。
在本申请实施例中,对于任一选定的样本数据,能够根据被设置为目标状态的教师模型,对该样本数据进行目标次数的预测,来确定该样本数据被预测为对应的第一标签的概率值,从而确定该第一标签的可信程度。其中,目标状态用于指示教师模型中的至少一个神经节点被设置为失活状态,该失活状态用于表示神经节点的输出为0。
203、根据样本数据集、该多个第一标签以及该多个第一标签的可信度信息,对学生模型进行训练。
在本申请实施例中,能够基于样本数据集以及该样本数据集中的多个样本数据对应的第一标签对学生模型进行训练,在训练时,能够根据第一标签的可信度信息,确定各第一标签的权重,从而对第一标签进行区分训练,降低可信程度低的第一标签对训练的影响。
在本申请实施例中,通过获取各样本数据的第一标签,能够得到教师模型对各样本数据的预测结果,再根据教师模型,分别确定用于表示第一标签的可信程度的可信度信息,使得学生模型在基于样本数据集和样本数据集中的样本数据的第一标签进行训练时,能够根据第一标签的可信度信息来进行区分训练,降低可信程度低的第一标签对训练的影响,从而提高学生模型的学习效率。
图3是根据本申请实施例提供的另一种学生模型训练方法的流程图,如图3所示,在本申请实施例中以应用于计算机设备为例进行说明。该学生模型训练方法包括以下步骤:
301、计算机设备根据样本数据集中的多个样本数据和该多个样本数据已被标注的第二标签进行模型训练,得到教师模型。
在本申请实施例中,计算机设备能够根据模型的应用场景,获取相应的样本数据集,该样本数据集包括已标注有第二标签的多个样本数据。
例如,教师模型为用于命名实体识别的模型时,计算机设备能够获取带有标注的训练语料作为教师模型的样本数据集。
可选的,对于样本数据集中的任一已标注的样本数据,通过(x,y)来表示,其中,x表示样本数据,y表示样本数据已标注的第二标签,也即y是x对应的真实标签。相应的,教师模型的训练目标能够通过以下公式(1)来表示。
ft=∑(x,y)∈(x,Y)p(y|x,θt) (1);
其中,ft表示教师模型训练目标值,(x,y)表示样本数据和第二标签,(X,Y)表示样本数据集,p(y|x,θt)表示将x预测为y的概率值,θt表示教师模型的参数。
302、计算机设备获取教师模型对样本数据集中的多个样本数据分别进行预测得到的多个第一标签,一个第一标签用于表示一个样本数据的预测结果。
在本申请实施例中,计算机设备能够将多个样本数据,分别输入训练得到的教师模型中,由该教师模型对该多个样本数据进行预测,得到每个样本数据对应的第一标签。计算机设备能够实时通过教师模型对多个样本数据进行预测,从而获取多个样本数据的多个第一标签,也能够获取已存储的多个样本数据以及每个样本数据的第一标签。
在一种可选的实现方式中,教师模型对该多个样本数据进行预测,得到每个样本数据对应的第一标签的步骤可以为:计算机设备能够将样本数据集中的多个样本数据分别输入教师模型。对于任一样本数据,计算机设备能够根据该教师模型对该样本数据进行前项解码,得到该样本数据的软标签,该软标签用于表示该样本数据被预测为不同标签的概率。计算机设备能够根据样本数据的软标签,确定概率最大的标签作为样本数据的第一标签。通过基于教师模型对输入的样本数据进行前项解码,然后从前项解码得到的软标签中选取概率最大的标签作为样本数据的第一标签,使得该第一标签能够较为准确的表示教师模型对样本数据的预测结果。
例如,计算机设备将标注为狗的样本图像,输入到用于图像识别的教师模型中,教师模型对该样本图像进行预测,输出的软标签为(0.8,0.1,0.1,0,0),该软标签表示预测为狗的概率为0.8,预测为猫的概率为0.1,预测为兔子的概率为0.1,预测为汽车的概率为0,预测为房子的概率为0。则计算机设备将狗作为该样本图像的第一标签。
303、计算机设备根据教师模型,分别确定多个第一标签的可信度信息,该可信度信息用于表示对应的第一标签的可信程度。
在本申请实施例中,计算机设备能够通过将教师模型中的部分神经节点设置为失活状态,即使该神经节点的输出为0,然后通过包括已设置为失活状态的神经节点的教师模型,对各样本数据进行预测,来确定该样本数据的第一标签的可信程度。可选的,对同一样本数据进行预测时,教师模型中每次被设置为失活状态的神经节点不同;而对不同样本数据进行预测时,教师模型中每次被设置为失活状态的神经节点能够相同或者不同。
相应的,本步骤可以通过以下子步骤3031和3032实现。
3031、对于任一样本数据,计算机设备根据被设置为目标状态的教师模型,对该样本数据进行目标次数的预测。
其中,该目标状态用于指示教师模型中的至少一个神经节点被设置为失活状态,该失活状态用于表示神经节点的输出为0。
可选的,在每次预测时,计算机设备能够随机将教师模型中的至少一个神经节点设置为失活状态,然后,根据包括至少一个已设置为失活状态的神经节点的教师模型,对该样本数据进行性预测。由于每次预测时是随机将神经节点设置为失活状态,使得每次预测时教师模型的输出不会完全一致,从而增加了预测结果的多样性,从而能够基于教师模型的输出,较为准确的确定第一标签的可信程度。
3032、计算机设备根据样本数据被预测为第一标签的多个第一概率值,确定第一标签的可信度信息。
对于任一样本数据,计算机设备能够根据该样本数据被预测为第一标签的多个第一概率值,获取第二概率值,该第二概率值为该多个第一概率值的方差,将该第二概率值作为该第一标签的可信度信息。通过确定多次预测得到的第一概率值的方差,能够用该方差较为准确的表示第一标签的可信程度。
可选的,上述计算机设备确定第一标签的可信程度的方式被称为蒙特卡洛丢弃采样。对于任一给定的样本数据和该样本数据对应的第一标签yt,计算机设备能够通过教师模型对该样本数据x进行目标次数,如K次的预测,每次预测得到的第一概率值能够表示为pxi(i>0 and i<K),i和K均为正整数。相应的,该第一标签的可信程度,即第二概率值的计算过程,能够通过以下公式(3)和(4)来表示。
其中,ux表示多个第一概率值的方差,K表示预测的目标次数,Pxi表示样本数据x第i次被预测为第一标签的概率,E(px)表示多个第一概率值的均值。
其中,E(px)表示多个第一概率值的均值,K表示预测的目标次数,pxi表示样本数据x第i次被预测为第一标签的概率。
304、计算机设备根据样本数据集、多个第一标签以及该多个第一标签的可信度信息,对学生模型进行训练。
在本申请实施例中,计算机设备在对学生模型进行训练时,能够根据每个第一标签的可信度信息,确定该第一标签的标签权重。然后,根据样本数据集、多个第一标签以及多个第一标签的标签权重,对学生模型进行训练。通过确定第一标签的标签权重,能够提高可信程度高的第一标签对训练的影响,降低可信程度低的第一标签对训练的影响,从而提高学生模型的学习效率。
可选的,第一标签的标签权重表示为cx。该标签权重也能够称为教师模型对该第一标签的置信度打分。相应的,该标签权重cx能够通过以下公式(5)计算得到。
其中,cx表示标签权重,ux表示多个第一概率值的方差,E(px)表示多个第一概率值的均值。
相应的,学生模型的训练目标能够通过以下公式(6)来表示:
其中,fobj表示学生模型训练目标值,(x,y)表示样本数据和第二标签,(X,Y)表示样本数据集,P(x|y,θ)表示将x预测为y的概率值,θ表示学生模型的参数,(x,yt)表示样本数据和第一标签,(X,Yt)表示样本数据集中的多个样本数据和多个第一标签,p(x|yt,θ)表示将x预测为yt的概率值,cx表示标签权重。
需要说明的是,本申请实施例提供的学生模型训练方法,能够适用于基于神经网络的模型,因此不对模型的网络结构和模型参数进行限制。
需要说明的是,上述步骤301至步骤304是本申请实施例提供的一种可选的实现方式,相应的,本申请实施例提供的学生模型的训练方法还能够通过其他方式实现。可选的,参见图4所示,图4是根据本申请实施例提供的另一种学生模型训练方法的流程图。如图4所示,包括以下步骤:401、用标注语料训练教师模型,该标注语料为包括已标注的样本数据的样本数据集;402、教师模型进行前项解码,得到软标签,根据软标签确定第一标签;403、根据蒙特卡洛采样确定不确定性度量,其中,该不确定性度量能够用上述第一标签的可信度来表示;404、根据样本数据集、第一标签和不确定性度量训练学生模型。
需要说明的是,为了验证本申请实施例提供的学生模型训练方法的有效性,以及广泛适用性,本申请设计了实验一和实验二进行测试。
实验一、将本申请实施例提供的学生模型训练方法,针对中文命名实体识别任务进行测试。实验设计:待训练的模型采用Bi-LSTM(Bi-directional Long Short-TermMemory,由前向LSTM与后向LSTM组合而成)+CRF(Conditional Random Feld,条件随机场)网络结构。模型训练和测试过程中均采用的是公开的msra数据集(一个自然语言处理数据集)。其中,教师模型的词向量维度设置为512,LSTM网络的层数为4层,隐层向量维度设置为512;学生模型的词向量维度设置为200,LSTM网络层数为1层,隐层向量维度设置为200。测试结果用F1值作为最终评价指标,F1值=正确率*召回率*2/(正确率+召回率),由此可见,F1值越高则表示性能越好。实验一的实验结果参见表1所示。
表1
测试系统 | F1值 |
教师模型 | 93.1 |
基于现有知识蒸馏方式得到的学生模型 | 90.25 |
基于本申请提供的方法得到的学生模型 | 92.6 |
根据表1示出的实验结果可知,在中文命名实体识别任务上,基于本申请提供的学生模型训练方法得到的学生模型,在性能上优于基于现有知识蒸馏方式得到的学生模型,更接近于教师模型的性能。
实验二、将本申请实施例提供的学生模型训练方法,针对英德翻译任务进行测试。实验设计:待训练的模型采用Transformer(一种自然语言处理模型)网络结构。模型训练时训练数据集采用WMT16-Ende(一种英德翻译数据集)数据集,测试时测试数据集采用Newstest 2014(一种测试数据)数据集。其中,教师模型的词向量维度设置为1024,模型层数设置为12;学生模型的词向量维度设置为256,模型层数设置为6层。测试结果用BLEU值(Bilingual Evaluation Understudy,双语评价研究)作为最终评价指标,BLEU值越高表示性能越好。实验二的实验结果参见表2所示。
表2
测试系统 | BLEU值 |
教师模型 | 29.34 |
基于现有知识蒸馏方式得到的学生模型 | 26.15 |
基于本申请提供的方法得到的学生模型 | 28.62 |
根据表2示出的实验结果可知,在英德翻译任务上,基于本申请提供的学生模型训练方法得到的学生模型,在性能上优于基于现有知识蒸馏方式得到的学生模型,更接近于教师模型的性能。
综合上述两个实验的测试结果可知,本申请实施例提供的学生模型训练方法能够广泛的适用于不同模型的训练,且能够有效的提高训练得到的学生模型的效率和性能。
在本申请实施例中,通过获取各样本数据的第一标签,能够得到教师模型对各样本数据的预测结果,再根据教师模型,分别确定用于表示第一标签的可信程度的可信度信息,使得学生模型在基于样本数据集和样本数据集中的样本数据的第一标签进行训练时,能够根据第一标签的可信度信息来进行区分训练,降低可信程度低的第一标签对训练的影响,从而提高学生模型的学习效率。
图5是根据本申请实施例提供的一种学生模型训练装置的框图。该装置用于执行上述学生模型训练方法执行时的步骤,参见图5,装置包括:标签获取模块501、信息确定模块502和第一模型训练模块503。
标签获取模块501,用于获取教师模型对样本数据集中的多个样本数据分别进行预测得到的多个第一标签,一个第一标签用于表示一个样本数据的预测结果,该教师模型由该样本数据集训练得到;
信息确定模块502,用于根据该教师模型,分别确定该多个第一标签的可信度信息,该可信度信息用于表示对应的第一标签的可信程度;
第一模型训练模块503,用于根据该样本数据集、该多个第一标签以及该多个第一标签的可信度信息,对学生模型进行训练。
在一个可选的实现方式中,该信息确定模块502,包括:
预测子模块5021,用于对于任一样本数据,根据被设置为目标状态的该教师模型,对该样本数据进行目标次数的预测,该目标状态用于指示该教师模型中的至少一个神经节点被设置为失活状态,该失活状态用于表示神经节点的输出为0;
信息确定子模块5022,用于根据该样本数据被预测为该第一标签的多个第一概率值,确定该第一标签的可信度信息。
在一个可选的实现方式中,该预测子模块,用于每次预测时,随机将该教师模型中的至少一个神经节点设置为失活状态;根据包括至少一个已设置为失活状态的神经节点的教师模型,对该样本数据进行预测。
在一个可选的实现方式中,该信息确定子模块,用于根据该样本数据被预测为该第一标签的多个第一概率值,获取第二概率值,将该第二概率值作为该第一标签的可信度信息,该第二概率值为该多个第一概率值的方差。
在一个可选的实现方式中,该第一模型训练模块503,用于根据该多个第一标签的可信度信息,确定该多个第一标签的标签权重;根据该样本数据集、该多个第一标签以及该多个第一标签的标签权重,对学生模型进行训练。
在一个可选的实现方式中,该装置还包括:
数据输入模块504,用于将该样本数据集中的多个样本数据分别输入该教师模型;
解码模块505,用于对于任一样本数据,根据该教师模型对该样本数据进行前项解码,得到该样本数据的软标签,该软标签用于表示该样本数据被预测为不同标签的概率;
标签确定模块506,用于根据该样本数据的软标签,确定概率最大的标签作为该样本数据的第一标签。
在一个可选的实现方式中,该装置还包括:
第二模型训练模块507,用于根据该样本数据集中的多个样本数据和该多个样本数据已被标注的第二标签进行模型训练,得到该教师模型。
在本申请实施例中,通过获取各样本数据的第一标签,能够得到教师模型对各样本数据的预测结果,再根据教师模型,分别确定用于表示第一标签的可信程度的可信度信息,使得学生模型在基于样本数据集和样本数据集中的样本数据的第一标签进行训练时,能够根据第一标签的可信度信息来进行区分训练,降低可信程度低的第一标签对训练的影响,从而提高学生模型的学习效率。
需要说明的是:上述实施例提供的学生模型训练装置在进行模型训练时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的学生模型训练装置与学生模型训练方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
在本申请实施例中,计算机设备能够被配置为终端或者服务器,当计算机设备被配置为终端时,可以由终端作为执行主体来实施本申请实施例提供的技术方案,当计算机设备被配置为服务器时,可以由服务器作为执行主体来实施本申请实施例提供的技术方案,也可以通过终端和服务器之间的交互来实施本申请提供的技术方案,例如服务器通过终端采集样本数据,基于采集到的样本数据进行教师模型和学生模型的训练,本申请实施例对此不作限定。
计算机设备被配置为终端时,图6是根据本申请实施例提供的一种终端600的结构框图。可选的,该终端600是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(MovingPicture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端600还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端600包括有:处理器601和存储器602。
处理器601可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器601可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器601也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器601可以集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器601还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器602可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器602还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器602中的非暂态的计算机可读存储介质用于存储至少一个程序代码,该至少一个程序代码用于被处理器601所执行以实现本申请中方法实施例提供的学生模型训练方法。
在一些实施例中,终端600还可选包括有:外围设备接口603和至少一个外围设备。处理器601、存储器602和外围设备接口603之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口603相连。具体地,外围设备包括:射频电路604、显示屏605、摄像头组件606、音频电路607、定位组件608和电源609中的至少一种。
外围设备接口603可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器601和存储器602。在一些实施例中,处理器601、存储器602和外围设备接口603被集成在同一芯片或电路板上;在一些其他实施例中,处理器601、存储器602和外围设备接口603中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路604用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路604通过电磁信号与通信网络以及其他通信设备进行通信。射频电路604将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路604包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路604可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路604还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏605用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏605是触摸显示屏时,显示屏605还具有采集在显示屏605的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器601进行处理。此时,显示屏605还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏605可以为一个,设置在终端600的前面板;在另一些实施例中,显示屏605可以为至少两个,分别设置在终端600的不同表面或呈折叠设计;在另一些实施例中,显示屏605可以是柔性显示屏,设置在终端600的弯曲表面上或折叠面上。甚至,显示屏605还可以设置成非矩形的不规则图形,也即异形屏。显示屏605可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件606用于采集图像或视频。可选地,摄像头组件606包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件606还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路607可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器601进行处理,或者输入至射频电路604以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端600的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器601或射频电路604的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路607还可以包括耳机插孔。
定位组件608用于定位终端600的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件608可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源609用于为终端600中的各个组件进行供电。电源609可以是交流电、直流电、一次性电池或可充电电池。当电源609包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端600还包括有一个或多个传感器610。该一个或多个传感器610包括但不限于:加速度传感器611、陀螺仪传感器612、压力传感器613、指纹传感器614、光学传感器615以及接近传感器616。
加速度传感器611可以检测以终端600建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器611可以用于检测重力加速度在三个坐标轴上的分量。处理器601可以根据加速度传感器611采集的重力加速度信号,控制显示屏605以横向视图或纵向视图进行用户界面的显示。加速度传感器611还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器612可以检测终端600的机体方向及转动角度,陀螺仪传感器612可以与加速度传感器611协同采集用户对终端600的3D动作。处理器601根据陀螺仪传感器612采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器613可以设置在终端600的侧边框和/或显示屏605的下层。当压力传感器613设置在终端600的侧边框时,可以检测用户对终端600的握持信号,由处理器601根据压力传感器613采集的握持信号进行左右手识别或快捷操作。当压力传感器613设置在显示屏605的下层时,由处理器601根据用户对显示屏605的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器614用于采集用户的指纹,由处理器601根据指纹传感器614采集到的指纹识别用户的身份,或者,由指纹传感器614根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器601授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器614可以被设置在终端600的正面、背面或侧面。当终端600上设置有物理按键或厂商Logo时,指纹传感器614可以与物理按键或厂商Logo集成在一起。
光学传感器615用于采集环境光强度。在一个实施例中,处理器601可以根据光学传感器615采集的环境光强度,控制显示屏605的显示亮度。具体地,当环境光强度较高时,调高显示屏605的显示亮度;当环境光强度较低时,调低显示屏605的显示亮度。在另一个实施例中,处理器601还可以根据光学传感器615采集的环境光强度,动态调整摄像头组件606的拍摄参数。
接近传感器616,也称距离传感器,通常设置在终端600的前面板。接近传感器616用于采集用户与终端600的正面之间的距离。在一个实施例中,当接近传感器616检测到用户与终端600的正面之间的距离逐渐变小时,由处理器601控制显示屏605从亮屏状态切换为息屏状态;当接近传感器616检测到用户与终端600的正面之间的距离逐渐变大时,由处理器601控制显示屏605从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图6中示出的结构并不构成对终端600的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
计算机设备被配置为服务器时。图7是根据本申请实施例提供的一种服务器的结构示意图,该服务器700可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(Central Processing Units,CPU)701和一个或一个以上的存储器702,其中,所述存储器702中存储有至少一条程序代码,所述至少一条程序代码由所述处理器701加载并执行以实现上述各个方法实施例提供的目标访问行为检测方法。当然,该服务器还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器还可以包括其他用于实现设备功能的部件,在此不做赘述。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质应用于计算机设备,该计算机可读存储介质中存储有至少一段程序代码,该至少一段程序代码由处理器加载并执行以实现上述实施例的学生模型训练方法中计算机设备所执行的操作。
本申请实施例还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机程序代码,该计算机程序代码存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机程序代码,处理器执行该计算机程序代码,使得该计算机设备执行上述各方面或者各方面的各种可选实现方式中提供的学生模型训练方法。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来程序代码相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (15)
1.一种学生模型训练方法,其特征在于,所述方法包括:
获取教师模型对样本数据集中的多个样本数据分别进行预测得到的多个第一标签,一个第一标签用于表示一个样本数据的预测结果,所述教师模型由所述样本数据集训练得到;
根据所述教师模型,分别确定所述多个第一标签的可信度信息,所述可信度信息用于表示对应的第一标签的可信程度;
根据所述样本数据集、所述多个第一标签以及所述多个第一标签的可信度信息,对学生模型进行训练。
2.根据权利要求1所述的方法,其特征在于,所述根据所述教师模型,分别确定所述多个第一标签的可信度信息,包括:
对于任一样本数据,根据被设置为目标状态的所述教师模型,对所述样本数据进行目标次数的预测,所述目标状态用于指示所述教师模型中的至少一个神经节点被设置为失活状态,所述失活状态用于表示神经节点的输出为0;
根据所述样本数据被预测为所述第一标签的多个第一概率值,确定所述第一标签的可信度信息。
3.根据权利要求2所述的方法,其特征在于,所述根据被设置为目标状态的所述教师模型,对所述样本数据进行目标次数的预测,包括:
每次预测时,随机将所述教师模型中的至少一个神经节点设置为失活状态;
根据包括至少一个已设置为失活状态的神经节点的教师模型,对所述样本数据进行预测。
4.根据权利要求2所述的方法,其特征在于,所述根据所述样本数据被预测为所述第一标签的多个第一概率值,确定所述第一标签的可信度信息,包括:
根据所述样本数据被预测为所述第一标签的多个第一概率值,获取第二概率值,将所述第二概率值作为所述第一标签的可信度信息,所述第二概率值为所述多个第一概率值的方差。
5.根据权利要求1所述的方法,其特征在于,所述根据所述样本数据集、所述多个第一标签以及所述多个第一标签的可信度信息,对学生模型进行训练,包括:
根据所述多个第一标签的可信度信息,确定所述多个第一标签的标签权重;
根据所述样本数据集、所述多个第一标签以及所述多个第一标签的标签权重,对学生模型进行训练。
6.根据权利要求1所述的方法,其特征在于,所述获取教师模型对所述样本数据集中的多个样本数据分别进行预测得到的多个第一标签之前,所述方法还包括:
将所述样本数据集中的多个样本数据分别输入所述教师模型;
对于任一样本数据,根据所述教师模型对所述样本数据进行前项解码,得到所述样本数据的软标签,所述软标签用于表示所述样本数据被预测为不同标签的概率;
根据所述样本数据的软标签,确定概率最大的标签作为所述样本数据的第一标签。
7.根据权利要求1所述的方法,其特征在于,所述获取教师模型对所述样本数据集中的多个样本数据分别进行预测得到的多个第一标签之前,所述方法还包括:
根据所述样本数据集中的多个样本数据和所述多个样本数据已被标注的第二标签进行模型训练,得到所述教师模型。
8.一种学生模型训练装置,其特征在于,所述装置包括:
标签获取模块,用于获取教师模型对样本数据集中的多个样本数据分别进行预测得到的多个第一标签,一个第一标签用于表示一个样本数据的预测结果,所述教师模型由所述样本数据集训练得到;
信息确定模块,用于根据所述教师模型,分别确定所述多个第一标签的可信度信息,所述可信度信息用于表示对应的第一标签的可信程度;
第一模型训练模块,用于根据所述样本数据集、所述多个第一标签以及所述多个第一标签的可信度信息,对学生模型进行训练。
9.根据权利要求8所述的装置,其特征在于,所述信息确定模块,包括:
预测子模块,用于对于任一样本数据,根据被设置为目标状态的所述教师模型,对所述样本数据进行目标次数的预测,所述目标状态用于指示所述教师模型中的至少一个神经节点被设置为失活状态,所述失活状态用于表示神经节点的输出为0;
信息确定子模块,用于根据所述样本数据被预测为所述第一标签的多个第一概率值,确定所述第一标签的可信度信息。
10.根据权利要求9所述的装置,其特征在于,所述预测子模块,用于每次预测时,随机将所述教师模型中的至少一个神经节点设置为失活状态;根据包括至少一个已设置为失活状态的神经节点的教师模型,对所述样本数据进行预测。
11.根据权利要求9所述的装置,其特征在于,所述信息确定子模块,用于根据所述样本数据被预测为所述第一标签的多个第一概率值,获取第二概率值,将所述第二概率值作为所述第一标签的可信度信息,所述第二概率值为所述多个第一概率值的方差。
12.根据权利要求8所述的装置,其特征在于,所述第一模型训练模块,用于根据所述多个第一标签的可信度信息,确定所述多个第一标签的标签权重;根据所述样本数据集、所述多个第一标签以及所述多个第一标签的标签权重,对学生模型进行训练。
13.根据权利要求8所述的装置,其特征在于,所述装置还包括:
数据输入模块,用于将所述样本数据集中的多个样本数据分别输入所述教师模型;
解码模块,用于对于任一样本数据,根据所述教师模型对所述样本数据进行前项解码,得到所述样本数据的软标签,所述软标签用于表示所述样本数据被预测为不同标签的概率;
标签确定模块,用于根据所述样本数据的软标签,确定概率最大的标签作为所述样本数据的第一标签。
14.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器用于存储至少一段程序代码,所述至少一段程序代码由所述处理器加载并执行权利要求1至7任一权利要求所述的学生模型训练方法。
15.一种存储介质,其特征在于,所述存储介质用于存储至少一段程序代码,所述至少一段程序代码用于执行权利要求1至7任一权利要求所述的学生模型训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010812947.8A CN112749728A (zh) | 2020-08-13 | 2020-08-13 | 学生模型训练方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010812947.8A CN112749728A (zh) | 2020-08-13 | 2020-08-13 | 学生模型训练方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112749728A true CN112749728A (zh) | 2021-05-04 |
Family
ID=75645264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010812947.8A Pending CN112749728A (zh) | 2020-08-13 | 2020-08-13 | 学生模型训练方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112749728A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113392984A (zh) * | 2021-06-29 | 2021-09-14 | 北京百度网讯科技有限公司 | 用于训练模型的方法、装置、设备、介质和产品 |
CN113850012A (zh) * | 2021-06-11 | 2021-12-28 | 腾讯科技(深圳)有限公司 | 数据处理模型生成方法、装置、介质及电子设备 |
CN114021720A (zh) * | 2021-09-30 | 2022-02-08 | 联想(北京)有限公司 | 一种标签筛选方法及装置 |
CN114330510A (zh) * | 2021-12-06 | 2022-04-12 | 北京大学 | 模型训练方法、装置、电子设备和存储介质 |
CN115049074A (zh) * | 2022-06-20 | 2022-09-13 | 腾讯科技(深圳)有限公司 | 模型训练方法、装置、电子设备、存储介质 |
CN115099988A (zh) * | 2022-06-28 | 2022-09-23 | 腾讯科技(深圳)有限公司 | 模型训练方法、数据处理方法、设备及计算机介质 |
CN115482440A (zh) * | 2022-11-09 | 2022-12-16 | 荣耀终端有限公司 | 样本数据获取方法、模型训练方法、电子设备及介质 |
CN117236409A (zh) * | 2023-11-16 | 2023-12-15 | 中电科大数据研究院有限公司 | 基于大模型的小模型训练方法、装置、系统和存储介质 |
WO2024036847A1 (zh) * | 2022-08-16 | 2024-02-22 | 北京百度网讯科技有限公司 | 图像处理方法和装置、电子设备和存储介质 |
WO2024187413A1 (zh) * | 2023-03-15 | 2024-09-19 | 华为技术有限公司 | 模型训练方法和通信装置 |
WO2024207762A1 (zh) * | 2023-04-03 | 2024-10-10 | 蚂蚁区块链科技(上海)有限公司 | 一种数据识别方法及相关设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190034764A1 (en) * | 2017-07-31 | 2019-01-31 | Samsung Electronics Co., Ltd. | Method and apparatus for generating training data to train student model using teacher model |
US20200134506A1 (en) * | 2018-10-29 | 2020-04-30 | Fujitsu Limited | Model training method, data identification method and data identification device |
CN111126592A (zh) * | 2018-10-30 | 2020-05-08 | 三星电子株式会社 | 输出预测结果、生成神经网络的方法及装置和存储介质 |
CN111460150A (zh) * | 2020-03-27 | 2020-07-28 | 北京松果电子有限公司 | 一种分类模型的训练方法、分类方法、装置及存储介质 |
-
2020
- 2020-08-13 CN CN202010812947.8A patent/CN112749728A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190034764A1 (en) * | 2017-07-31 | 2019-01-31 | Samsung Electronics Co., Ltd. | Method and apparatus for generating training data to train student model using teacher model |
US20200134506A1 (en) * | 2018-10-29 | 2020-04-30 | Fujitsu Limited | Model training method, data identification method and data identification device |
CN111126592A (zh) * | 2018-10-30 | 2020-05-08 | 三星电子株式会社 | 输出预测结果、生成神经网络的方法及装置和存储介质 |
CN111460150A (zh) * | 2020-03-27 | 2020-07-28 | 北京松果电子有限公司 | 一种分类模型的训练方法、分类方法、装置及存储介质 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113850012A (zh) * | 2021-06-11 | 2021-12-28 | 腾讯科技(深圳)有限公司 | 数据处理模型生成方法、装置、介质及电子设备 |
CN113850012B (zh) * | 2021-06-11 | 2024-05-07 | 腾讯科技(深圳)有限公司 | 数据处理模型生成方法、装置、介质及电子设备 |
CN113392984B (zh) * | 2021-06-29 | 2022-10-14 | 北京百度网讯科技有限公司 | 用于训练模型的方法、装置、设备、介质和产品 |
CN113392984A (zh) * | 2021-06-29 | 2021-09-14 | 北京百度网讯科技有限公司 | 用于训练模型的方法、装置、设备、介质和产品 |
CN114021720A (zh) * | 2021-09-30 | 2022-02-08 | 联想(北京)有限公司 | 一种标签筛选方法及装置 |
CN114330510A (zh) * | 2021-12-06 | 2022-04-12 | 北京大学 | 模型训练方法、装置、电子设备和存储介质 |
CN115049074A (zh) * | 2022-06-20 | 2022-09-13 | 腾讯科技(深圳)有限公司 | 模型训练方法、装置、电子设备、存储介质 |
CN115049074B (zh) * | 2022-06-20 | 2024-10-18 | 腾讯科技(深圳)有限公司 | 模型训练方法、装置、电子设备、存储介质 |
CN115099988A (zh) * | 2022-06-28 | 2022-09-23 | 腾讯科技(深圳)有限公司 | 模型训练方法、数据处理方法、设备及计算机介质 |
WO2024036847A1 (zh) * | 2022-08-16 | 2024-02-22 | 北京百度网讯科技有限公司 | 图像处理方法和装置、电子设备和存储介质 |
CN115482440A (zh) * | 2022-11-09 | 2022-12-16 | 荣耀终端有限公司 | 样本数据获取方法、模型训练方法、电子设备及介质 |
WO2024187413A1 (zh) * | 2023-03-15 | 2024-09-19 | 华为技术有限公司 | 模型训练方法和通信装置 |
WO2024207762A1 (zh) * | 2023-04-03 | 2024-10-10 | 蚂蚁区块链科技(上海)有限公司 | 一种数据识别方法及相关设备 |
CN117236409A (zh) * | 2023-11-16 | 2023-12-15 | 中电科大数据研究院有限公司 | 基于大模型的小模型训练方法、装置、系统和存储介质 |
CN117236409B (zh) * | 2023-11-16 | 2024-02-27 | 中电科大数据研究院有限公司 | 基于大模型的小模型训练方法、装置、系统和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112749728A (zh) | 学生模型训练方法、装置、计算机设备及存储介质 | |
CN111104980B (zh) | 确定分类结果的方法、装置、设备及存储介质 | |
CN112069414A (zh) | 推荐模型训练方法、装置、计算机设备及存储介质 | |
CN110544272A (zh) | 脸部跟踪方法、装置、计算机设备及存储介质 | |
CN112884770B (zh) | 图像分割处理方法、装置及计算机设备 | |
CN111897996A (zh) | 话题标签推荐方法、装置、设备及存储介质 | |
CN113515942A (zh) | 文本处理方法、装置、计算机设备及存储介质 | |
CN112733970B (zh) | 图像分类模型处理方法、图像分类方法及装置 | |
CN112036331A (zh) | 活体检测模型的训练方法、装置、设备及存储介质 | |
CN112989767B (zh) | 医学词语标注方法、医学词语映射方法、装置及设备 | |
WO2022193973A1 (zh) | 图像处理方法、装置、电子设备、计算机可读存储介质及计算机程序产品 | |
CN111598160A (zh) | 图像分类模型的训练方法、装置、计算机设备及存储介质 | |
CN113392180A (zh) | 文本处理方法、装置、设备及存储介质 | |
CN113516143A (zh) | 文本图像匹配方法、装置、计算机设备及存储介质 | |
CN114281956A (zh) | 文本处理方法、装置、计算机设备及存储介质 | |
CN113822263A (zh) | 图像标注方法、装置、计算机设备及存储介质 | |
CN113569042A (zh) | 文本信息分类方法、装置、计算机设备及存储介质 | |
CN111914180A (zh) | 基于图结构的用户特征确定方法、装置、设备及介质 | |
CN111931075B (zh) | 一种内容推荐方法、装置、计算机设备及存储介质 | |
CN114328815A (zh) | 文本映射模型的处理方法、装置、计算机设备及存储介质 | |
CN113722422A (zh) | 模型训练方法、文本标签生成方法、装置、设备及介质 | |
CN114281936A (zh) | 分类方法、装置、计算机设备及存储介质 | |
CN112287070A (zh) | 词语的上下位关系确定方法、装置、计算机设备及介质 | |
CN111353513B (zh) | 一种目标人群筛选的方法、装置、终端和存储介质 | |
CN110990549A (zh) | 获取答案的方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40043537 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |