CN110909784B - 一种图像识别模型的训练方法、装置及电子设备 - Google Patents
一种图像识别模型的训练方法、装置及电子设备 Download PDFInfo
- Publication number
- CN110909784B CN110909784B CN201911122421.0A CN201911122421A CN110909784B CN 110909784 B CN110909784 B CN 110909784B CN 201911122421 A CN201911122421 A CN 201911122421A CN 110909784 B CN110909784 B CN 110909784B
- Authority
- CN
- China
- Prior art keywords
- image sample
- trained
- cnn model
- loss
- labeled
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 70
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000000605 extraction Methods 0.000 claims abstract description 24
- 238000013527 convolutional neural network Methods 0.000 claims description 280
- 230000006870 function Effects 0.000 claims description 92
- 239000013598 vector Substances 0.000 claims description 52
- 238000004891 communication Methods 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 238000002372 labelling Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供了一种图像识别模型的训练方法、装置及电子设备,其中,该方法包括:将获取的已标注图像样本和未标注图像样本输入CNN模型的特征提取层中,分别提取已标注图像样本的特征和未标注图像样本的特征;通过将已标注图像样本的特征和未标注图像样本的特征输入至待训练CNN模型的损失层,获得待训练CNN模型中损失函数的损失值;基于损失函数的损失值对待训练CNN模型中的参数进行调整,得到训练后的CNN模型。这样,采用一部分已标注图像样本和一部分未标注图像样本对CNN模型进行训练,无须采用大量的已标注图像样本对CNN模型进行训练,可以减少人工标注的图像的数量,降低人工标注的工作量,提高模型训练的效率。
Description
技术领域
本发明涉及数据处理技术领域,特别是涉及一种图像识别模型的训练方法、装置及电子设备。
背景技术
随着深度学习技术的发展,极大的推动了机器视觉技术的应用,例如,将深度学习技术应用于机器视觉领域后,可以使得图像识别、目标检测和实例分割等机器视觉任务的性能显著提高。
在应用基于图像识别的机器视觉技术时,通常是先采用已标注的图像作为训练样本对图像识别模型进行训练,然后再采用训练好的图像识别模型处理机器视觉任务。通常情况下,标注图像样本越多,训练的图像识别模型越好,对机器视觉任务处理的精确度也较高。
然而,发明人在实现本发明的过程中发现,现有技术至少存在如下问题:
在现有技术中,为了训练该图像识别模型,往往需要对大量的图像进行人工标注以得到图像样本,由于人工进行标注比较麻烦,使得人工标注的工作量较大,模型训练的效率低。
发明内容
本发明实施例的目的在于提供一种图像识别模型的训练方法、装置及电子设备,以实现减少人工标注的图像的数量,降低人工标注的工作量,提高模型训练的效率。具体技术方案如下:
在本发明实施例的一个方面,本发明实施例提供了一种图像识别模型的训练方法,该方法包括:
获取已标注图像样本和未标注图像样本;
将已标注图像样本和未标注图像样本输入CNN(Convolutional NeuralNetworks,卷积神经网络)模型的特征提取层中,分别提取已标注图像样本的特征和未标注图像样本的特征;
通过将已标注图像样本的特征和未标注图像样本的特征输入至待训练CNN模型的损失层,获得待训练CNN模型中损失函数的损失值;
基于损失函数的损失值,对待训练CNN模型中的参数进行调整,得到训练后的CNN模型。
可选的,已标注图像样本为标注了类别的图像样本,已标注图像样本中的标注对象与未标注图像样本不同;
在通过将已标注图像样本的特征和未标注图像样本的特征输入至待训练CNN模型的损失层,获得待训练CNN模型的损失函数的损失值之前,该图像识别模型的训练方法还包括:
基于每个类别的已标注图像样本的类别,在待训练CNN模型对应的权重向量中,确定该已标注图像样本类别的权重,其中,待训练CNN模型对应的权重向量包括每个类别对应的权重,待训练CNN模型对应的权重向量,至少为预先设置的初始权重向量;
通过将已标注图像样本的特征和未标注图像样本的特征输入至所述待训练CNN模型的损失层,获得所述待训练CNN模型的损失函数的损失值,包括:
通过将每个类别的已标注图像样本的特征、该已标注图像样本所属类别的权重、多个类别的权重和未标注图像样本的特征,输入至待训练CNN模型的损失层,获得待训练CNN模型的损失函数的损失值。
可选的,通过将每个类别的已标注图像样本的特征、该已标注图像样本所属类别的权重、多个类别的权重和未标注图像样本的特征,输入至待训练CNN模型的损失层,获得CNN模型中损失函数的损失值,包括:
将第i个已标注图像样本的特征fi、第i个已标注图像样本的特征fi所属类别li的权重wli、第j个类别的权重wj以及未标注图像样本中第u个未标注图像样本的特征fu,输入至待训练CNN模型的损失层,以使得损失层通过以下公式:
计算待训练CNN模型中损失函数的损失值L,其中,n为已标注图像样本的总数,K为已标注图像样本的类别的总数,U为未标注图像样本的总数,wli和wj分别为预设权重向量W中的第li列向量和第j列向量,1≤li≤K。
可选的,在基于损失函数的损失值,对待训练CNN模型中的参数进行调整,得到训练后的CNN模型之前,该方法还包括:
基于损失函数的损失值判断待训练CNN模型是否收敛;
如果是,将待训练CNN模型作为训练完成的CNN模型;
如果否,则执行基于损失函数的损失值,对待训练CNN模型中的参数进行调整,得到训练后的CNN模型的步骤,并将训练后的CNN模型作为待训练CNN模型,返回执行将已标注图像样本和未标注图像样本输入待训练CNN模型的特征提取层中,分别提取已标注图像样本的特征和未标注图像样本的特征的步骤。
在本发明实施的又一方面,本发明实施例还提供了一种图像识别模型的训练装置,该装置包括:
样本获取模块,用于获取已标注图像样本和未标注图像样本;
特征识别模块,用于将已标注图像样本和未标注图像样本输入待训练CNN模型的特征提取层中,分别提取已标注图像样本的特征和未标注图像样本的特征;
损失值计算模块,用于通过将已标注图像样本的特征和未标注图像样本的特征输入至CNN的损失层,获得待训练CNN模型中损失函数的损失值;
参数调整模块,用于基于损失函数的损失值,对待训练CNN模型中的参数进行调整,得到训练后的CNN模型。
可选的,已标注图像样本为标注了类别的图像样本,已标注图像样本中的标注对象与未标注图像样本不同;
可选的,该图像识别模型的训练装置还包括:权重确定模块,用于:
基于每个类别的已标注图像样本的类别,在待训练CNN模型对应的权重向量中,确定该已标注图像样本类别的权重,其中,待训练CNN模型对应的权重向量包括每个类别对应的权重,待训练CNN模型对应的权重向量,至少为预先设置的初始权重向量;
可选的,损失值计算模块,具体用于:
通过将每个类别的已标注图像样本的特征、该已标注图像样本所属类别的权重、多个类别的权重和未标注图像样本的特征,输入至待训练CNN模型的损失层,获得待训练CNN模型中损失函数的损失值。
可选的,损失值计算模块,具体用于:
将第i个已标注图像样本的特征fi、第i个已标注图像样本的特征fi所属类别li的权重wli、第j个类别的权重wj以及未标注图像样本中第u个未标注图像样本的特征fu,输入至待训练CNN模型的损失层,以使得损失层通过以下公式:
计算待训练CNN模型中损失函数的损失值L,其中,n为已标注图像样本的总数,K为已标注图像样本的类别的总数,U为未标注图像样本的总数,wli和wj分别为预设权重向量W中的第li列向量和第j列向量,1≤li≤K。
可选的,该图像识别模型的训练装置还包括:
判断模块,用于基于损失函数的损失值判断待训练CNN模型是否收敛;如果是,触发模型确定模块,如果否,触发参数调整模块;
触发模型确定模块,用于将待训练CNN模型作为训练完成的CNN模型;
参数调整模块,还用于将训练后的CNN模型作为待训练CNN模型,并触发特征识别模块。
在本发明实施的又一方面,本发明实施例还提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述任一所述的图像识别模型的训练方法的步骤。
在本发明实施的又一方面,本发明实施例还提供了一种计算机可读存储介质,计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述任一所述的图像识别模型的训练方法。
在本发明实施的又一方面,本发明实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一所述的图像识别模型的训练方法。
本发明实施例提供的一种图像识别模型的训练方法、装置及电子设备,可以在获取到已标注图像样本和未标注图像样本后,将已标注图像样本和未标注图像样本输入待训练CNN模型的特征提取层中,从而可以分别提取已标注图像样本的特征和未标注图像样本的特征;然后通过将已标注图像样本的特征和未标注图像样本的特征输入至待训练CNN模型的损失层,可以获得CNN模型中损失函数的损失值;进而基于损失函数的损失值,对待训练CNN模型中的参数进行调整,得到训练后的CNN模型。
这样,可以实现采用一部分已标注图像样本和一部分未标注图像样本对CNN模型进行训练,无须采用大量的已标注图像样本对CNN模型进行训练,从而可以减少人工标注的图像的数量,降低人工标注的工作量,提高模型训练的效率,进而可以减少获取已标注图像样本的困难度,减少训练CNN模型的困难度。当然,实施本发明的任一产品或方法必不一定需要同时达到以上的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明实施例的一种图像识别模型的训练方法第一种实施方式的流程图;
图2为图1所示的图像识别模型的训练方法的训练过程示意图;
图3为本发明实施例的一种图像识别模型的训练方法第二种实施方式的流程图;
图4为本发明实施例的一种图像识别模型的训练装置的结构示意图;
图5为本发明实施例的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行描述。
为了解决现有技术存在的问题,本发明实施例提供了一种图像识别模型的训练方法、装置及电子设备,以实现减少人工标注的图像的数量,降低人工标注的工作量,提高模型训练的效率。
下面,首先对本发明实施例的一种图像识别模型的训练方法进行介绍,如图1所示,为本发明实施例的一种图像识别模型的训练方法第一种实施方式的流程图,该方法可以包括:
S110,获取已标注图像样本和未标注图像样本。
在一些示例中,本发明实施例的一种图像识别模型的训练方法可以应用于一电子设备,该电子设备可以包括个人电脑、智能手机以及服务器等。
用户在使用该电子设备进行图像识别之前,可以先对设置在该电子设备中的CNN模型进行训练,以得到训练好的CNN模型,然后可以使用该训练好的CNN模型进行图像识别。
当用户在对预先设置在该电子设备中的CNN模型进行训练时,可以先设置已标注图像样本和未标注图像样本,因此,该电子设备可以获取到已标注图像样本和未标注图像样本。
在又一些示例中,为了保证训练得到的CNN模型的识别准确率,在设置该已标注图像样本和未标注图像样本时,可以使该已标注图像样本中的标注对象和未标注图像样本不同,这样可以使得该已标注图像样本的内容和未标注图像样本的内容是完全不同的。
可以理解的是,这里的待训练CNN模型可以是首次进行训练的CNN模型,也可以是多次训练后,即将再次进行训练的CNN模型。
S120,将已标注图像样本和未标注图像样本输入CNN模型的特征提取层中,分别提取已标注图像样本的特征和未标注图像样本的特征。
在得到该已标注图像样本和未标注图像样本后,可以将该已标注图像样本和未标注图像样本输入到待训练CNN模型的特征提取层中,该待训练CNN模型可以分别对该已标注图像样本和未标注图像样本进行特征识别,从而可以得到该已标注图像样本的特征和未标注图像样本的特征。
可以理解的是,该待训练CNN模型可以是预先设置的还未进行训练的CNN模型,也可以是经过至少一次训练后的CNN模型。
在又一些示例中,该特征提取层可以是一层,也可以是多层,这都是可以的,该特征提取层的层数可以根据实际需要进行设置,这里不作限定。
S130,通过将已标注图像样本的特征和未标注图像样本的特征输入至待训练CNN模型的损失层,获得待训练CNN模型中损失函数的损失值。
S140,基于损失函数的损失值,对待训练CNN模型中的参数进行调整,得到训练后的CNN模型。
在得到已标注图像样本的特征和未标注图像样本的特征后,可以将该已标注图像样本的特征和未标注图像样本的特征输入至待训练CNN模型的损失层,这样,该损失层可以基于已标注图像样本的特征和未标注图像样本的特征,来计算待训练CNN模型中损失函数的损失值。当该损失层输出该待训练CNN模型的损失函数的损失值后,可以基于该损失函数的损失值,来调整该待训练CNN模型中的参数,以达到对该待训练CNN模型进行训练的目的。
在一些示例中,在基于已标注图像样本的特征和未标注图像样本的特征,来计算待训练CNN模型的损失函数的损失值时,可以基于已标注图像样本的特征和未标注图像样本的特征,通过各种损失函数的公式进行计算,从而可以得到该待训练CNN模型的损失函数的损失值。这里不对损失函数的公式进行限定,只要能够基于已标注图像样本的特征和未标注图像样本的特征,计算得到待训练CNN模型的损失函数的损失值即可。这里不再赘述。
为了更清楚的说明本发明实施例,这里,结合图2所示的训练过程进行说明,如图2所示,可以将已标注图像样本210和未标注图像样本220输入到待训练CNN模型230中,该待训练CNN模型230的特征提取层可以分别输出该已标注图像样本的特征240和未标注图像样本的特征250。然后可以将该已标注图像样本的特征240和未标注图像样本的特征250输入至该待训练CNN模型的损失层,该损失层可以基于该已标注图像样本的特征240和未标注图像样本的特征250,来计算该待训练CNN模型230中损失函数的损失值260。最后,在得到该损失值260后,可以采用该损失值260对该待训练CNN模型230中的参数进行调整,从而可以得到训练后的CNN模型。
本发明实施例提供的一种图像识别模型的训练方法,可以在获取到已标注图像样本和未标注图像样本后,将已标注图像样本和未标注图像样本输入待训练CNN模型的特征提取层中,从而可以分别提取已标注图像样本的特征和未标注图像样本的特征;然后通过将已标注图像样本的特征和未标注图像样本的特征输入至待训练CNN模型的损失层,可以获得CNN模型中损失函数的损失值;进而基于损失函数的损失值,对待训练CNN模型中的参数进行调整,得到训练后的CNN模型。
这样,可以实现采用一部分已标注图像样本和一部分未标注图像样本对CNN模型进行训练,无须采用大量的已标注图像样本对CNN模型进行训练,从而可以减少人工标注的图像的数量,降低人工标注的工作量,提高模型训练的效率,进而可以减少获取已标注图像样本的困难度,减少训练CNN模型的困难度。
在图1所示的一种图像识别模型的训练方法的基础上,本发明实施例还提供了一种可能的实现方式,如图3所示,为本发明实施例的一种图像识别模型的训练方法第二种实施方式的流程图,该方法可以包括:
S110,获取已标注图像样本和未标注图像样本。
其中,已标注图像样本中的标注对象与未标注图像样本不同。
S120,将已标注图像样本和未标注图像样本输入待训练CNN模型的特征提取层中,分别提取已标注图像样本提取的特征和未标注图像样本的特征。
在一些示例中,如果待训练CNN模型是从输入的待识别图像中,识别出不同类别的目标对象的多分类模型,则已标注图像样本为对图像中对象标注了类别的图像样本。例如:某个图像样本中包含了人物和车辆的样本,则标注出该图像样本中,包含人物类别和车辆类别的目标对象。
如果待训练CNN模型的作用是从输入的待识别图像中,识别是否包含车辆的二分类模型,则已标注图像样本为标注是否包含车辆的图像样本。例如:某个图像样本中包含了车辆,则对该图像样本标注为1,即包含车辆;另一个图像样本中不包含车辆,则对该图像样本标注为0,即不包含车辆。
S131,基于每个类别的已标注图像样本的类别,在待训练CNN模型对应的权重向量中,确定该已标注图像样本类别的权重,其中,待训练CNN模型对应的权重向量包括每个类别对应的权重,待训练CNN模型对应的权重向量,至少为预先设置的初始权重向量;
S132,通过将每个类别的已标注图像样本的特征、该已标注图像样本所属类别的权重、多个类别的权重和未标注图像样本的特征,输入至待训练CNN模型的损失层,获得待训练CNN模型中损失函数的损失值。
S150,基于损失函数的损失值判断待训练CNN模型是否收敛;如果是,则执行步骤S160,如果否,则执行步骤S140。
S160,将待训练CNN模型作为训练完成的CNN模型;
S140,基于损失函数的损失值,对待训练CNN模型中的参数进行调整,得到训练后的CNN模型。并执行步骤S170。
S170,将训练后的CNN模型作为待训练CNN模型,返回执行步骤S120。
在图3所示的实施例中,在得到不同类别的已标注图像样本后,可以将该已标注图像样本和未标注图像样本输入到上述的待训练CNN模型的特征提取层中,从而可以得到每个已标注图像样本的特征和未标注图像样本的特征。
然后可以将基于该每个类别的已标注图像样本的特征和未标注图像样本的特征输入至上述的待训练CNN模型的损失层,来获得该待训练CNN模型中损失函数的损失值。
在一些示例中,在计算该待训练CNN模型的损失函数的损失值时,可以先基于每个类别的已标注图像样本的类别,在待训练CNN模型对应的权重向量中,确定出该已标注图像样本的权重,然后基于每个类别的已标注图像样本的特征、该已标注图像样本所属类别的权重、多个类别的权重和未标注图像样本的特征,计算待训练CNN模型的损失函数的损失值。
在一些示例中,当该待训练CNN模型为设置的初始CNN模型时,则该待训练CNN模型还未进行训练,则该待训练CNN模型对应的权重向量可以是预先设置的初始权重向量。
当该待训练CNN模型为经过训练的CNN模型时,则该待训练CNN模型对应的权重向量可以是:基于该待训练CNN模型上次训练得到的损失值,然后采用梯度下降算法,对该待训练CNN模型上次训练前的CNN模型对应的权重向量求导计算得到的权重向量。
例如,假设该待训练CNN模型是第10次训练后的CNN模型,则该第10次训练后的CNN模型对应的权重向量,可以是基于第9次训练后的CNN模型训练后的损失值,采用梯度下降算法,对该第9次训练前的CNN模型对应的权重向量进行求导,计算得到的权重向量。
在一些示例中,在通过将每个类别的已标注图像样本的特征、该已标注图像样本所属类别的权重、多个类别的权重和未标注图像样本的特征,输入至待训练CNN模型的损失层,获得待训练CNN模型中损失函数的损失值时,可以将第i个已标注图像样本的特征fi、第i个已标注图像样本的特征fi所属类别li的权重wli、第j个类别的权重wj以及未标注图像样本中第u个未标注图像样本的特征fu,输入至待训练CNN模型的损失层,以使得损失层通过以下公式:
计算待训练CNN模型中损失函数的损失值L。
其中,n为已标注图像样本的总数,K为已标注图像样本的类别的总数,U为未标注图像样本的总数,wli和wj分别为预设权重向量W中的第li列向量和第j列向量,1≤li≤K。
可以理解的是,fi和fu可以是以向量的形式来表示已标注图像样本的特征和未标注图像样本的特征,因此,该公式中的fi·fu可以反映出第i个已标注图像样本的与第u个未标注图像样本的之间的相似程度,当fi·fu越小,可以说明第i个已标注图像样本的与第u个未标注图像样本越相似,则损失值越小。
在又一些示例中,在通过将每个类别的已标注图像样本的特征、该已标注图像样本所属类别的权重、多个类别的权重和未标注图像样本的特征,输入至待训练CNN模型的损失层,获得待训练CNN模型的损失函数的损失值时,可以将第i个已标注图像样本的特征fi、第i个已标注图像样本的特征fi所属类别的权重wi、第j个类别的权重wj以及未标注图像样本中第u个未标注图像样本的特征fu,输入至待训练CNN模型的损失层,以使得损失层通过以下公式:
计算待训练CNN模型中损失函数的损失值L,其中,θyi=arccos(fi·wi),s,m分别为该损失函数中的预先设置的超参数,例如,该s可以取值为32,该m可以取值为0.5,yi表示第i个已标注图像样本所属的类别,1≤yi≤K,θj=arccos(fi·wj),θu=arccos(fi·fu)。
可以理解的是,这里的两个损失函数公式仅为:对计算得到该待训练CNN模型的损失函数的损失值的举例说明,并非用于限定,在每个类别的已标注图像样本的特征、该已标注图像样本所属类别的权重、多个类别的权重和未标注图像样本的特征,计算待训练CNN模型的损失函数的损失值时,还可以采用其他损失函数公式。
在一些示例中,这里的待训练CNN模型可以是首次进行训练的CNN模型,也可以是多次训练后,即将再次进行训练的CNN模型,当进行多次训练后,为了确定该多次训练后的CNN模型是否作为训练完成的CNN模型,可以基于损失函数的损失值判断待训练CNN模型是否收敛。
当该待训练CNN模型为多次训练后,即将再次进行训练的CNN模型时,则该待训练CNN模型可以是通过本发明实施例的一种图像识别模型训练方法训练得到的CNN模型,也即该待训练CNN模型是对上次的待训练CNN模型进行参数调整后得到的CNN模型。
在又一些示例中,在基于该损失函数的损失值判断待训练CNN模型是否收敛时,可以先获取上次的待训练CNN模型的损失函数的损失值;
然后将上次的待训练CNN模型的损失函数的损失值与该待训练CNN模型的损失函数的损失值进行对比。
当上次的待训练CNN模型的损失函数的损失值和该待训练CNN模型的损失函数的损失值的差值较小时,例如,该差值小于一个预设阈值时,则可以说明待训练CNN模型收敛,进而可以说明该待训练的CNN模型进行图像识别的识别结果,与上次的待训练CNN模型进行图像识别的识别结果基本相同,因此,则可以将待训练CNN模型作为训练完成的CNN模型。
当上次的待训练CNN模型的损失函数的损失值和该待训练CNN模型的损失函数的损失值的差值较大时,则说明该待训练CNN模型不收敛,还需要继续训练,则可以基于该待训练CNN模型的损失函数的损失值,来对该待训练CNN模型进行参数调整,得到训练后的CNN模型。然后将训练后的CNN模型作为待训练CNN模型,返回执行步骤S120。
通过本发明实施例,可以及时确定出待训练CNN模型是否可以作为训练完成的CNN模型,从而可以避免对该待训练CNN模型进行多次效果不明显的训练,避免训练时间过长,从而可以节省训练过程的时间开销。
在一些示例中,在选择未标注图像样本和已标注图像样本时,该已标注图像样本的类别要具有较远的距离,例如,该已标注图像样本的类别之间距离大于预设距离阈值,该未标注图像样本与已标注图像样本也要有较远的距离,例如,未标注图像样本的类别与已标注图像样本的类别之间距离大于预设距离阈值。这样,可以使得训练得到的CNN模型可以缩小类内距离,扩展类间距离。
相应于上述的方法实施例,本发明实施例还提供了一种图像识别模型的训练装置,如图4所示,为本发明实施例的一种图像识别模型的训练装置的结构示意图,该图像识别模型的训练装置可以包括:
样本获取模块410,用于获取已标注图像样本和未标注图像样本;
特征识别模块420,用于将已标注图像样本和未标注图像样本输入待训练CNN模型的特征提取层中,分别提取已标注图像样本的特征和未标注图像样本的特征;
损失值计算模块430,用于通过将已标注图像样本的特征和未标注图像样本的特征输入至待训练CNN模型的损失层,获得待训练CNN模型中损失函数的损失值;
参数调整模块440,用于基于损失函数的损失值,对待训练CNN模型中的参数进行调整,得到训练后的CNN模型。
本发明实施例提供的一种图像识别模型的训练装置,可以在获取到已标注图像样本和未标注图像样本后,将已标注图像样本和未标注图像样本输入待训练CNN模型的特征提取层中,从而可以分别提取已标注图像样本的特征和未标注图像样本的特征;然后通过将已标注图像样本的特征和未标注图像样本的特征输入至待训练CNN模型的损失层,可以获得CNN模型中损失函数的损失值;进而基于损失函数的损失值,对待训练CNN模型中的参数进行调整,得到训练后的CNN模型。
这样,可以实现采用一部分已标注图像样本和一部分未标注图像样本对CNN模型进行训练,无须采用大量的已标注图像样本对CNN模型进行训练,从而可以减少人工标注的图像的数量,降低人工标注的工作量,提高模型训练的效率,进而可以减少获取已标注图像样本的困难度,减少训练CNN模型的困难度。
在一些示例中,已标注图像样本为标注了类别的图像样本,已标注图像样本中的标注对象与未标注图像样本不同;
在一些示例中,该图像识别模型的训练装置,还可以包括:权重确定模块,用于:
基于每个类别的已标注图像样本的类别,在待训练CNN模型对应的权重向量中,确定该已标注图像样本类别的权重,其中,待训练CNN模型对应的权重向量包括每个类别对应的权重,待训练CNN模型对应的权重向量,至少为预先设置的初始权重向量;
在一些示例中,损失值计算模块430,具体用于:
通过将每个类别的已标注图像样本的特征、该已标注图像样本所属类别的权重、多个类别的权重和未标注图像样本的特征,输入至待训练CNN模型的损失层,获得待训练CNN模型中损失函数的损失值。
在一些示例中,损失值计算模块430,具体用于:
将第i个已标注图像样本的特征fi、第i个已标注图像样本的特征fi所属类别li的权重wli、第j个类别的权重wj以及未标注图像样本中第u个未标注图像样本的特征fu,输入至待训练CNN模型的损失层,以使得损失层通过以下公式:
计算待训练CNN模型中损失函数的损失值L,其中,n为已标注图像样本的总数,K为已标注图像样本的类别的总数,U为未标注图像样本的总数,wli和wj分别为预设权重向量W中的第li列向量和第j列向量,1≤li≤K。
在一些示例中,该图像识别模型的训练装置,还可以包括:
判断模块,用于基于损失函数的损失值判断待训练CNN模型是否收敛;如果是,触发模型确定模块,如果否,触发参数调整模块;
触发模型确定模块,用于将待训练CNN模型作为训练完成的CNN模型;
参数调整模块440,还用于将训练后的CNN模型作为待训练CNN模型,并触发特征识别模块420。
本发明实施例还提供了一种电子设备,如图5所示,包括处理器501、通信接口502、存储器503和通信总线504,其中,处理器501,通信接口502,存储器503通过通信总线504完成相互间的通信,
存储器503,用于存放计算机程序;
处理器501,用于执行存储器503上所存放的程序时,执行上述实施例中任一所述的图像识别模型的训练方法,例如,可以实现如下步骤:
获取已标注图像样本和未标注图像样本,其中,已标注图像样本中的标注对象与未标注图像样本不同;
将已标注图像样本和未标注图像样本输入CNN模型的特征提取层中,分别提取已标注图像样本的特征和未标注图像样本的特征;
通过将已标注图像样本的特征和未标注图像样本的特征输入至待训练CNN模型的损失层,获得待训练CNN模型中损失函数的损失值;
基于损失函数的损失值,对待训练CNN模型中的参数进行调整,得到训练后的CNN模型。
本发明实施例提供的一种电子设备,可以在获取到已标注图像样本和未标注图像样本后,将已标注图像样本和未标注图像样本输入待训练CNN模型的特征提取层中,从而可以分别提取已标注图像样本的特征和未标注图像样本的特征;然后通过将已标注图像样本的特征和未标注图像样本的特征输入至待训练CNN模型的损失层,可以获得CNN模型中损失函数的损失值;进而基于损失函数的损失值,对待训练CNN模型中的参数进行调整,得到训练后的CNN模型。
这样,可以实现采用一部分已标注图像样本和一部分未标注图像样本对CNN模型进行训练,无须采用大量的已标注图像样本对CNN模型进行训练,从而可以减少人工标注的图像的数量,降低人工标注的工作量,提高模型训练的效率,进而可以减少获取已标注图像样本的困难度,减少训练CNN模型的困难度。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,简称RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的图像识别模型的训练方法,例如,可以实现如下步骤:
获取已标注图像样本和未标注图像样本,其中,已标注图像样本中的标注对象与未标注图像样本不同;
将已标注图像样本和未标注图像样本输入CNN模型的特征提取层中,分别提取已标注图像样本的特征和未标注图像样本的特征;
通过将已标注图像样本的特征和未标注图像样本的特征输入至待训练CNN模型的损失层,获得待训练CNN模型中损失函数的损失值;
基于损失函数的损失值,对待训练CNN模型中的参数进行调整,得到训练后的CNN模型。
本发明实施例提供的一种计算机可读存储介质,可以在获取到已标注图像样本和未标注图像样本后,将已标注图像样本和未标注图像样本输入待训练CNN模型的特征提取层中,从而可以分别提取已标注图像样本的特征和未标注图像样本的特征;然后通过将已标注图像样本的特征和未标注图像样本的特征输入至待训练CNN模型的损失层,可以获得CNN模型中损失函数的损失值;进而基于损失函数的损失值,对待训练CNN模型中的参数进行调整,得到训练后的CNN模型。
这样,可以实现采用一部分已标注图像样本和一部分未标注图像样本对CNN模型进行训练,无须采用大量的已标注图像样本对CNN模型进行训练,从而可以减少人工标注的图像的数量,降低人工标注的工作量,提高模型训练的效率,进而可以减少获取已标注图像样本的困难度,减少训练CNN模型的困难度。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的图像识别模型的训练方法,例如,可以实现如下步骤:
获取已标注图像样本和未标注图像样本,其中,已标注图像样本中的标注对象与未标注图像样本不同;
将已标注图像样本和未标注图像样本输入CNN模型的特征提取层中,分别提取已标注图像样本的特征和未标注图像样本的特征;
通过将已标注图像样本的特征和未标注图像样本的特征输入至待训练CNN模型的损失层,获得待训练CNN模型中损失函数的损失值;
基于损失函数的损失值,对待训练CNN模型中的参数进行调整,得到训练后的CNN模型。
本发明实施例提供的一种包含指令的计算机程序产品,可以在获取到已标注图像样本和未标注图像样本后,将已标注图像样本和未标注图像样本输入待训练CNN模型的特征提取层中,从而可以分别提取已标注图像样本的特征和未标注图像样本的特征;然后通过将已标注图像样本的特征和未标注图像样本的特征输入至待训练CNN模型的损失层,可以获得CNN模型中损失函数的损失值;进而基于损失函数的损失值,对待训练CNN模型中的参数进行调整,得到训练后的CNN模型。
这样,可以实现采用一部分已标注图像样本和一部分未标注图像样本对CNN模型进行训练,无须采用大量的已标注图像样本对CNN模型进行训练,从而可以减少人工标注的图像的数量,降低人工标注的工作量,提高模型训练的效率,进而可以减少获取已标注图像样本的困难度,减少训练CNN模型的困难度。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (7)
1.一种图像识别模型的训练方法,其特征在于,所述方法包括:
获取已标注图像样本和未标注图像样本;
将所述已标注图像样本和所述未标注图像样本输入待训练卷积神经网络CNN模型的特征提取层中,分别提取所述已标注图像样本的特征和所述未标注图像样本的特征;
通过将每个类别的所述已标注图像样本的特征、该已标注图像样本所属类别的权重、多个类别的权重和所述未标注图像样本的特征,输入至所述待训练CNN模型的损失层,获得所述待训练CNN模型中损失函数的损失值;
基于所述损失函数的损失值,对所述待训练CNN模型中的参数进行调整,得到训练后的CNN模型;
所述通过将每个类别的所述已标注图像样本的特征、该已标注图像样本所属类别的权重、多个类别的权重和所述未标注图像样本的特征,输入至所述待训练CNN模型的损失层,获得所述待训练CNN模型中损失函数的损失值,包括:
将第i个已标注图像样本的特征fi、所述第i个已标注图像样本的特征fi所属类别li的权重wli、第j个类别的权重wj以及所述未标注图像样本中第u个未标注图像样本的特征fu,输入至所述待训练CNN模型的损失层,以使得所述损失层通过以下公式:
计算所述待训练CNN模型中损失函数的损失值L,其中,所述n为所述已标注图像样本的总数,所述K为所述已标注图像样本的类别的总数,所述U为所述未标注图像样本的总数,所述wli和所述wj分别为预设权重向量W中的第li列向量和第j列向量,1≤li≤K;
或者,
所述通过将每个类别的所述已标注图像样本的特征、该已标注图像样本所属类别的权重、所述多个类别的权重和所述未标注图像样本的特征,输入至所述待训练CNN模型的损失层,获得所述待训练CNN模型中损失函数的损失值,包括:
将第i个已标注图像样本的特征fi、所述第i个已标注图像样本的特征fi所属类别li的权重wli、第j个类别的权重wj以及所述未标注图像样本中第u个未标注图像样本的特征fu,输入至所述待训练CNN模型的损失层,以使得所述损失层通过以下公式:
计算所述待训练CNN模型中损失函数的损失值L,其中,所述θyi=arccos(fi·wi),所述s,m分别为该损失函数中的预先设置的超参数,所述yi表示第i个已标注图像样本所属的类别,1≤yi≤K,θj=arccos(fi·wj),θu=arccos(fi·fu)。
2.根据权利要求1所述的方法,其特征在于,所述已标注图像样本为标注了类别的图像样本,所述已标注图像样本中的标注对象与所述未标注图像样本不同;
在所述通过将所述已标注图像样本的特征和所述未标注图像样本的特征输入至所述待训练CNN模型的损失层,获得所述待训练CNN模型中损失函数的损失值之前,所述方法还包括:
基于每个类别的所述已标注图像样本的类别,在所述待训练CNN模型对应的权重向量中,确定该已标注图像样本所述类别的权重,其中,所述待训练CNN模型对应的权重向量包括每个类别对应的权重,所述待训练CNN模型对应的权重向量,至少为预先设置的初始权重向量。
3.根据权利要求1所述的方法,其特征在于,在所述基于所述损失函数的损失值,对所述待训练CNN模型中的参数进行调整,得到训练后的CNN模型之前,所述方法还包括:
基于所述损失函数的损失值判断所述待训练CNN模型是否收敛;
如果是,将所述待训练CNN模型作为训练完成的CNN模型;
如果否,则执行基于所述损失函数的损失值,对所述待训练CNN模型中的参数进行调整,得到训练后的CNN模型的步骤,并将所述训练后的CNN模型作为所述待训练CNN模型,返回执行所述将所述已标注图像样本和所述未标注图像样本输入待训练CNN模型的特征提取层中,分别提取所述已标注图像样本的特征和所述未标注图像样本的特征的步骤。
4.一种图像识别模型的训练装置,其特征在于,所述装置包括:
样本获取模块,用于获取已标注图像样本和未标注图像样本;
特征识别模块,用于将所述已标注图像样本和所述未标注图像样本输入待训练CNN模型的特征提取层中,分别提取所述已标注图像样本的特征和所述未标注图像样本的特征;
损失值计算模块,用于通过将每个类别的所述已标注图像样本的特征、该已标注图像样本所属类别的权重、多个类别的权重和所述未标注图像样本的特征,输入至所述待训练CNN模型的损失层,获得所述待训练CNN模型中损失函数的损失值;
参数调整模块,用于基于所述损失函数的损失值,对所述待训练CNN模型中的参数进行调整,得到训练后的CNN模型;
所述损失值计算模块,具体用于:
将第i个已标注图像样本的特征fi、所述第i个已标注图像样本的特征fi所属类别li的权重wli、第j个类别的权重wj以及所述未标注图像样本中第u个未标注图像样本的特征fu,输入至所述待训练CNN模型的损失层,以使得所述损失层通过以下公式:
计算所述待训练CNN模型中损失函数的损失值L,其中,所述n为所述已标注图像样本的总数,所述K为所述已标注图像样本的类别的总数,所述U为所述未标注图像样本的总数,所述wli和所述wj分别为预设权重向量W中的第li列向量和第j列向量,1≤li≤K;
或者,
所述损失值计算模块,具体用于:
将第i个已标注图像样本的特征fi、所述第i个已标注图像样本的特征fi所属类别li的权重wli、第j个类别的权重wj以及所述未标注图像样本中第u个未标注图像样本的特征fu,输入至所述待训练CNN模型的损失层,以使得所述损失层通过以下公式:
计算所述待训练CNN模型中损失函数的损失值L,其中,所述θyi=arccos(fi·wi),所述s,m分别为该损失函数中的预先设置的超参数,所述yi表示第i个已标注图像样本所属的类别,1≤yi≤K,θj=arccos(fi·wj),θu=arccos(fi·fu)。
5.根据权利要求4所述的装置,其特征在于,所述已标注图像样本为标注了类别的图像样本,所述已标注图像样本中的标注对象与所述未标注图像样本不同;
所述装置还包括:权重确定模块,用于:
基于每个类别的所述已标注图像样本的类别,在所述待训练CNN模型对应的权重向量中,确定该已标注图像样本所述类别的权重,其中,所述待训练CNN模型对应的权重向量包括每个类别对应的权重,所述待训练CNN模型对应的权重向量,至少为预先设置的初始权重向量。
6.根据权利要求4所述的装置,其特征在于,所述装置还包括:
判断模块,用于基于所述损失函数的损失值判断所述待训练CNN模型是否收敛;如果是,触发模型确定模块,如果否,触发所述参数调整模块;
所述触发模型确定模块,用于将所述待训练CNN模型作为训练完成的CNN 模型;
所述参数调整模块,还用于将所述训练后的CNN模型作为所述待训练CNN模型,并触发所述特征识别模块。
7.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-3任一所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911122421.0A CN110909784B (zh) | 2019-11-15 | 2019-11-15 | 一种图像识别模型的训练方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911122421.0A CN110909784B (zh) | 2019-11-15 | 2019-11-15 | 一种图像识别模型的训练方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110909784A CN110909784A (zh) | 2020-03-24 |
CN110909784B true CN110909784B (zh) | 2022-09-02 |
Family
ID=69817521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911122421.0A Active CN110909784B (zh) | 2019-11-15 | 2019-11-15 | 一种图像识别模型的训练方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110909784B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626098B (zh) * | 2020-04-09 | 2023-04-18 | 北京迈格威科技有限公司 | 模型的参数值更新方法、装置、设备及介质 |
CN111783844B (zh) * | 2020-06-10 | 2024-05-28 | 广东正扬传感科技股份有限公司 | 基于深度学习的目标检测模型训练方法、设备及存储介质 |
CN112200218B (zh) * | 2020-09-10 | 2023-06-20 | 浙江大华技术股份有限公司 | 一种模型训练方法、装置及电子设备 |
CN111931865B (zh) * | 2020-09-17 | 2021-01-26 | 平安科技(深圳)有限公司 | 图像分类模型的训练方法、装置、计算机设备及存储介质 |
CN112668675B (zh) * | 2021-03-22 | 2021-06-22 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置、计算机设备及存储介质 |
CN114330592B (zh) * | 2022-01-06 | 2023-06-02 | 北京百度网讯科技有限公司 | 模型生成方法、装置、电子设备及计算机存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2017101803A4 (en) * | 2017-12-24 | 2018-02-15 | Chen, Mufei MS | Deep learning based image classification of dangerous goods of gun type |
CN108288051A (zh) * | 2018-02-14 | 2018-07-17 | 北京市商汤科技开发有限公司 | 行人再识别模型训练方法及装置、电子设备和存储介质 |
CN108896857A (zh) * | 2018-07-06 | 2018-11-27 | 北京四方继保自动化股份有限公司 | 一种基于深度学习的变压器复杂工况识别方法 |
CN109034205A (zh) * | 2018-06-29 | 2018-12-18 | 西安交通大学 | 基于直推式半监督深度学习的图像分类方法 |
-
2019
- 2019-11-15 CN CN201911122421.0A patent/CN110909784B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2017101803A4 (en) * | 2017-12-24 | 2018-02-15 | Chen, Mufei MS | Deep learning based image classification of dangerous goods of gun type |
CN108288051A (zh) * | 2018-02-14 | 2018-07-17 | 北京市商汤科技开发有限公司 | 行人再识别模型训练方法及装置、电子设备和存储介质 |
CN109034205A (zh) * | 2018-06-29 | 2018-12-18 | 西安交通大学 | 基于直推式半监督深度学习的图像分类方法 |
CN108896857A (zh) * | 2018-07-06 | 2018-11-27 | 北京四方继保自动化股份有限公司 | 一种基于深度学习的变压器复杂工况识别方法 |
Non-Patent Citations (2)
Title |
---|
ArcFace: Additive Angular Margin Loss for Deep Face Recognition;Jiankang Deng等;《aXiv》;20190209;参见第1-11页 * |
Unknown Identity Rejection Loss: Utilizing Unlabeled Data for Face Recognition;Haiming Yu等;《arXiv》;20191024;参见第3节、图2 * |
Also Published As
Publication number | Publication date |
---|---|
CN110909784A (zh) | 2020-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110909784B (zh) | 一种图像识别模型的训练方法、装置及电子设备 | |
CN112990432B (zh) | 目标识别模型训练方法、装置及电子设备 | |
CN110163300B (zh) | 一种图像分类方法、装置、电子设备及存储介质 | |
WO2020077895A1 (zh) | 签约意向判断方法、装置、计算机设备和存储介质 | |
CN110069709B (zh) | 意图识别方法、装置、计算机可读介质及电子设备 | |
CN113657425B (zh) | 基于多尺度与跨模态注意力机制的多标签图像分类方法 | |
TWI712980B (zh) | 理賠資訊提取方法和裝置、電子設備 | |
CN110956615B (zh) | 图像质量评估模型训练方法、装置、电子设备及存储介质 | |
CN110135505B (zh) | 图像分类方法、装置、计算机设备及计算机可读存储介质 | |
CN113221918B (zh) | 目标检测方法、目标检测模型的训练方法及装置 | |
CN111079186B (zh) | 数据分析的方法、装置、设备和存储介质 | |
US20170213074A1 (en) | Decoy-based matching system for facial recognition | |
CN116129224A (zh) | 检测模型的训练方法、分类方法、装置及电子设备 | |
CN110717407A (zh) | 基于唇语密码的人脸识别方法、装置及存储介质 | |
CN111401343B (zh) | 识别图像中人的属性的方法、识别模型的训练方法和装置 | |
CN109101984B (zh) | 一种基于卷积神经网络的图像识别方法及装置 | |
CN111915595A (zh) | 图像质量评价方法、图像质量评价模型的训练方法和装置 | |
CN111460206B (zh) | 图像处理方法、装置、电子设备和计算机可读存储介质 | |
CN112241470A (zh) | 一种视频分类方法及系统 | |
WO2022237065A1 (zh) | 分类模型的训练方法、视频分类方法及相关设备 | |
CN116310474A (zh) | 端到端关系识别方法、模型训练方法、装置、设备及介质 | |
CN111368792B (zh) | 特征点标注模型训练方法、装置、电子设备及存储介质 | |
CN113139379B (zh) | 信息识别方法和系统 | |
CN112183283A (zh) | 一种基于图像的年龄估计方法、装置、设备及存储介质 | |
CN111428679B (zh) | 影像识别方法、装置和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |