CN116805157B - 无人集群自主动态评估方法及装置 - Google Patents
无人集群自主动态评估方法及装置 Download PDFInfo
- Publication number
- CN116805157B CN116805157B CN202311079776.2A CN202311079776A CN116805157B CN 116805157 B CN116805157 B CN 116805157B CN 202311079776 A CN202311079776 A CN 202311079776A CN 116805157 B CN116805157 B CN 116805157B
- Authority
- CN
- China
- Prior art keywords
- data
- neural network
- data set
- absolute error
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000012549 training Methods 0.000 claims abstract description 123
- 238000012360 testing method Methods 0.000 claims abstract description 99
- 238000003062 neural network model Methods 0.000 claims abstract description 88
- 230000003044 adaptive effect Effects 0.000 claims abstract description 79
- 238000013101 initial test Methods 0.000 claims abstract description 33
- 238000010276 construction Methods 0.000 claims abstract description 13
- 230000002159 abnormal effect Effects 0.000 claims description 30
- 238000011176 pooling Methods 0.000 claims description 25
- 238000013527 convolutional neural network Methods 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 238000011156 evaluation Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 125000004122 cyclic group Chemical group 0.000 claims description 2
- 238000012795 verification Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 17
- 230000008569 process Effects 0.000 description 14
- 230000001364 causal effect Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 11
- 230000004913 activation Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了一种无人集群自主动态评估方法及装置,方法包括:采集无人集群的基础数据,获取初始测试数据集和测试集,所述基础数据包括无人集群的指标数据和与各指标数据对应的实际协同搜索能力;基于所述初始测试数据集应用数据增强方法获取增强训练数据集,并基于所述增强训练数据集以及所述测试集分别自适应神经网络模型进行模型训练和测试,完成所述自适应神经网络模型的构建;应用训练后的所述自适应神经网络模型根据输入的无人集群系统的指标数据预测无人集群系统的协同搜索能力。通过以上方式,本发明能够提高无人集群自主动态评估的性能,更加适用于协同工作的复杂环境。
Description
技术领域
本发明属于无人集群技术领域,具体是涉及到一种无人集群自主动态评估方法及装置。
背景技术
随着信息化网络体系和人工智能技术的不断发展,无人化作业需求在各领域均急剧上升,传统单一平台的无人自主系统模式由于抗风险能力低、任务类型单一的缺点逐步限制其在更多场景发挥应有作用,寻求新的技术突破口是保持无人化优势的必由之路。利用已有的无人单元构建无人集群,由能力有限的不同单元合力完成复杂任务,实现低开支、低风险、高效率的任务目标,可代表未来无人系统领域的发展趋势。要构建无人化的信息网络和协作体系,无人装备的开发、无人集群协作理论的研究以及无人集群协作体系性能的评估是关键。所谓无人集群,是指由一定规模的简单无人平台和必要的辅助单元共同组成的协作体系,能够通过各个平台间的信息通讯、协同工作、集群控制,使得各个协作单位围绕任务目标,在协作层面表现出能力涌现、功能分布以及行为可控可测等特点的复杂无人系统。
目前无人集群大致可以分为无人机集群、地面无人车集群、水面无人艇集群、水下无人潜航器集群,涵盖了海陆空三个协作空间,使得协作方式更加立体。而且相较于传统意义上的单体无人系统,具备自主协作能力的无人集群系统,不仅能够独立地完成预先设定的任务,还能够交互协同地完成群体任务。这使得无人集群相较于个体单兵具有分布式协作、鲁棒性好、灵活性高、可拓展性强等优势。近些年来,对无人集群开展了大量的研究,但是大部分的研究还是停留在无人装备的开发,自主协作体系的构建,相关演示模型的建立。在整体上无人集群的研究仍处于技术探索的阶段,能否满足实际的协作需要仍然需要大量的实验评估工作。因此,建立合理有效的无人集群自主动态评估模型与方法具有重要意义。
发明内容
本发明提供一种无人集群自主动态评估方法及装置,解决现有的无人集群研究仍处于技术探索的阶段,未进行能否满足实际的协作需要的动态评估的问题。
基于上述目的,本发明提出一种无人集群自主动态评估方法,包括:采集无人集群的基础数据,获取初始测试数据集和测试集,所述基础数据包括无人集群的指标数据和与各指标数据对应的实际协同搜索能力;基于所述初始测试数据集应用数据增强方法获取增强训练数据集,并基于所述增强训练数据集以及所述测试集分别自适应神经网络模型进行模型训练和测试,完成所述自适应神经网络模型的构建;应用训练后的所述自适应神经网络模型根据输入的无人集群系统的指标数据预测无人集群系统的协同搜索能力。
可选的,所述基于所述初始测试数据集应用数据增强方法获取增强训练数据集,包括:对所述初始测试数据集中的原始数据进行线性插值,得到新的样本数据,组成扩展数据集;将所述初始测试数据集与所述扩展数据集组合,形成增强训练数据集。
可选的,所述基于所述增强训练数据集以及所述测试集分别自适应神经网络模型进行模型训练和测试,包括:采用卷积神经网络建立自适应神经网络模型,从所述增强训练数据集随机分成N个训练子集,应用N个训练子集对所述自适应神经网络模型进行训练;根据所述测试集对所述自适应神经网络模型进行验证,获取预测输出;根据所述预测输出与所述测试集中的绝对输出的绝对误差;根据所述测试集循环更新所述增强训练数据集,根据更新的所述增强训练数据集循环训练更新所述自适应神经网络模型,直至所述绝对误差满足循环停止条件。
可选的,所述应用N个训练子集对所述自适应神经网络模型进行训练,包括:应用N个训练子集对所述自适应神经网络模型训练获取N个子模型,获取对应的预测协同搜索能力;根据所述预测协同搜索能力与对应的绝对协同搜索能力的绝对误差将N个训练子集分为异常数据、关键数据、正常数据,并赋予不同的权重;采用后向传播神经网络根据所述权重对N个子模型进行融合,获取统一的自适应神经网络模型。
可选的,所述根据所述测试集循环更新所述增强训练数据集,包括:如果所述绝对误差不满足循环停止条件,则根据所述预测输出与所述测试集中的绝对输出的绝对误差将所述测试集分为异常数据集、关键测试数据集以及正常测试数据集;将所述异常数据集、所述关键测试数据集以及所述正常测试数据集分别替换所述扩展数据集中的异常数据集、关键测试数据集以及正常测试数据集。
可选的,所述根据所述测试集循环更新所述增强训练数据集,包括:计算所述测试集中所述预测输出与所述测试集中的绝对输出的绝对误差,并计算所述测试集中的最大绝对误差与最小绝对误差的差值,得到差异程度;将所述绝对误差大于所述最大绝对误差与所述差异程度的90%之差,且小于所述最大绝对误差的测试数据作为正常数据,得到正常数据集;将所述绝对误差大于所述最小绝对误差与所述差异程度的80%之和,且小于所述最大绝对误差与所述差异程度的90%之和的测试数据作为关键数据,得到关键数据集;将所述绝对误差大于所述最小绝对误差,且小于所述最小绝对误差与所述差异程度的80%之和的测试数据作为异常数据,得到异常数据集。
可选的,所述采用卷积神经网络建立自适应神经网络模型,包括:根据卷积神经网络确定自适应神经网络模型的网络层数,所述自适应神经网络模型包括输入层、一卷积层、一池化层、一全连接层以及输出层;确定所述自适应神经网络模型的各网络层的初始参数。
基于同一发明构思,本发明还提出了一种无人集群自主动态评估装置,包括:数据获取单元,用于采集无人集群的基础数据,获取初始测试数据集和测试集,所述基础数据包括无人集群的指标数据和与各指标数据对应的实际协同搜索能力;模型构建单元,用于基于所述初始测试数据集应用数据增强方法获取增强训练数据集,并基于所述增强训练数据集以及所述测试集分别自适应神经网络模型进行模型训练和测试,完成所述自适应神经网络模型的构建;动态评估单元,用于应用训练后的所述自适应神经网络模型根据输入的无人集群的指标数据预测无人集群的协同搜索能力。
基于同一发明构思,本发明还提出了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上所述的无人集群自主动态评估方法。
基于同一发明构思,本发明还提出了一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如上所述的无人集群自主动态评估方法。
从上面所述可以看出,本发明提供的技术方案的有益效果是:本发明提供的一种无人集群自主动态评估方法及装置,方法包括:采集无人集群的基础数据,获取初始测试数据集和测试集,所述基础数据包括无人集群的指标数据和与各指标数据对应的实际协同搜索能力;基于所述初始测试数据集应用数据增强方法获取增强训练数据集,并基于所述增强训练数据集以及所述测试集分别自适应神经网络模型进行模型训练和测试,完成所述自适应神经网络模型的构建;应用训练后的所述自适应神经网络模型根据输入的无人集群系统的指标数据预测无人集群系统的协同搜索能力,能够提高无人集群自主动态评估的性能,更加适用于协同工作的复杂环境。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例的无人集群自主动态评估方法的流程示意图;
图2为本发明实施例的无人集群的基础数据示意图;
图3为本发明实施例的无人集群的基础数据的因果逻辑关系示意图;
图4为图1中的步骤S12的方法示意图;
图5为本发明实施例的根据平均绝对误差对数据的类型进行判定后的数据类型分布示意图;
图6为本发明实施例的自适应神经网络模型的构建示意图;
图7为本发明实施例的无人集群自主动态评估装置的结构示意图;
图8为本发明实施例的电子设备的硬件结构示意图。
具体实施方式
为使本公开的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本公开进一步详细说明。
需要说明的是,除非另外定义,本发明实施例使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。本发明实施例中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
本发明实施例实施了一种无人集群自主动态评估方法,如图1所示,无人集群自主动态评估方法包括:
步骤S11:采集无人集群的基础数据,获取初始测试数据集和测试集,所述基础数据包括无人集群的指标数据和与各指标数据对应的实际协同搜索能力。
在本发明实施例中,通过调阅演戏、训练和邀请专家修正获得无人集群的基础数据,形成小型的专家经验数据库,将其分为初始测试数据集和测试集。如图2所示,无人集群的基础数据包括无人集群的指标数据和与各指标数据对应的实际协同搜索能力。指标数据包括目标发现能力和目标识别能力。其中目标发现能力包括:搜索范围x1、搜索高度x2、总航时x3;目标识别能力包括:识别正确率x4、识别时间x5。例如,通过调阅演戏、训练和邀请专家修正获得100条无人集群系统的基础数据,其中各个指标如表1所示。
表1 部分初始测试数据集
指标数据作为后续的自适应神经网络模型的输入,无人集群的协同搜索能力作为后续的自适应神经网络模型的输出。
步骤S12:基于所述初始测试数据集应用数据增强方法获取增强训练数据集,并基于所述增强训练数据集以及所述测试集分别自适应神经网络模型进行模型训练和测试,完成所述自适应神经网络模型的构建。
在本发明实施例中,对所述初始测试数据集中的原始数据进行线性插值,得到新的样本数据,组成扩展数据集;将所述初始测试数据集与所述扩展数据集组合,形成增强训练数据集。初始测试数据集记为,增强训练数据集记为/>,扩展数据集记为/>。
MAXUP是基于领域风险最小化原则提出来的数据增强方法,它使用线性插值得到新的样本数据,不仅可以改善深度学习模型在数据集中的泛化误差,降低模型对已损坏标签的记忆,增强模型对对抗样本的鲁棒性和训练生成对抗网络的稳定性。本发明实施例采用MAXUP方法对无人集群初始测试数据集进行增强,将原始的数据量增加到增强训练数据量/>,具体过程如下:
其中,是范围介于0到1的随机数,/>和/>代表从/>随机挑选的两个数据,/>是增强后的数据,重复上述过程直至/>等于设定值。
具体的数据增强过程如表2所示:
表2 部分初始测试数据库
以此类推,执行以上MAXUP数据增强算法,将原始数据增强至800组,部分数据如下表3所示:
表3 部分增强后数据
将原始的100条数据和数据增强后的700条数据进行组合,形成含有800条数据的增强训练数据集。
然后根据输入与输出的因果逻辑关系对增强训练数据集进行数据类型的识别。如图3所示,设定数据的因果逻辑关系为:输入输出的数据类型应保持一致,即正常的输入能够产生正常的输出,异常的输出能够产生异常的输出。根据各个训练数据集的数据类型是否符合因果逻辑关系对训练数据集数据进行识别。具体来说,如果数据的输入输出符合因果逻辑关系,就将其识别为正常数据;如果数据不符合因果逻辑关系,就将其识别为异常数据;如果数据的因果逻辑关系由于基学习方法的不足不能够被有效识别,就将其识别为关键数据。
得到增强训练数据集之后,基于所述增强训练数据集以及所述测试集分别自适应神经网络模型进行模型训练和测试,具体如图4所示,包括:
步骤S121:采用卷积神经网络建立自适应神经网络模型,从所述增强训练数据集随机分成N个训练子集,应用N个训练子集对所述自适应神经网络模型进行训练。
首先采用卷积神经网络建立自适应神经网络模型。可选的,根据卷积神经网络确定自适应神经网络模型的网络层数,所述自适应神经网络模型包括输入层、一卷积层、一池化层、一全连接层以及输出层;确定所述自适应神经网络模型的各网络层的初始参数。模型通过卷积层进行特征提取,使用池化层进行特征的聚类统计并实现降维操作,全连接层将特征表示映射到样本标记空间,通过输出层输出预测值。
通常来说,卷积神经网络(CNN)表现为多层多类别的网络结构,主要由输入层、卷积层、池化层、全连接层、输出层组成,加卷积的层数可以提高卷积神经网络的深度,使得卷积神经网络能够提取出样本隐含的特征,但层数过多时,会导致结构复杂很多,卷积神经网络的训练难度提高。本发明实施例中的卷积层、池化层和全连接层的层数都设置为1。
卷积层通常由一组卷积核组成,其中起到核的作用的是各个神经元。在卷积层的训练过程中,需要根据现实需要,将图像进行划分,使之成为若干小块,并且把它与一组特定的权重相融合,使之通过卷积来进行各项工作,卷积运算可以通过如下公式表示:
其中代表的是输入图像,而x,y指的是位置;/>是指第k层第l个卷积核。确定卷积层的超参数包括卷积核尺寸、数量及卷积的步长等:根据输入数据的维数大小,设置卷积核数量(num_output)为3,确定卷积核的大小(kernel_size)。如果卷积核的长和宽不等,需要用kernel_h和kernel_w分别设定。本发明实施例选择5*5的卷积核,步长stride一般设置为1。
通过模仿人是视觉处理系统的池化层可以实现对输入特征的空间降维和语义抽象,基于汇合操作的下采样方式可以将输入特征的一个子区域映射为输出特征中的一个对应元素。卷积网络引入池化层不仅可以降低空间维度,缩小数据规模,而且可以提高网络运行速度以及避免过拟合。应用以下公式表示池化操作:
其中代表的是第l个输出特征图,/>代表的是第l个输入特征图,/>代表的是池化操作,在整个CNN中,一般情况下会用到多种类型的池化公式,比如金字塔合并、最大值以及平均值。本发明实施例选择平均池化的方式作为池化层方法。确定池化层的超参数主要是池化核尺寸、池化步长及池化方式:池化的核大小(kernel_size)。也可以用kernel_h和kernel_w分别设定。在本发明实施例中选择3*3的池化核。一般来说池化核移动的步长strid默认为1。一般来说池化方式:可以选择最大池化(Mx Poling)、平均池化(Avamge Pooling)、K-iMax Poling。
激活函数在神经网络的训练过程中起到决策作用,对复杂模式的学习有重要的辅助作用,因此在神经网络的训练过程中,激活函数的选择具有重要意义。与 ReLU 函数相比,Sigmoid 函数和 Tanh 函数相对复杂, 在网络模型训练时容易导致梯度消失和梯度爆炸的现象。因此, 本发明实施例中选择了ReLU 函数。即activation = ‘relu’。应用以下公式对激活函数进行定义:
其中表示卷积运算的输出,通常情况下会向激活函数进行分配。对于/>来说,通常情况下,除了可以进行非线性的添加之外,还可以根据现实需要,返回到转换输出(第k层)。一般卷积采用的激活函数为RELU、sigmoid函数。卷积神经网络训练可视为最小化损失函数的过程,训练网络需要初始化参数,设置合适的学习率,选择合适的批量归一化方法,再根据优化算法和策略不断迭代、更新参数,涉及的超参数有:Epoch(回合)、Batch(批)、Batch_size(一批的大小)、iteration(迭代)、activation Function(激活函数)、学习率 lr 等。
将全部的训练集数据投入神经网络模型完成一次完整的训练,这个过程称为一个Epoch。简单理解epoch的值就是整个训练集数据被输入神经网络训练了几次。随着 Epoch数量增加,神经网络中的权重的更新次数也增加,网络训练的结果会有欠拟合或者过拟合。优选的,将Epoch(回合)设定为100。
使用训练集中的一小部分数据样本对模型权重进行一次反向传播的参数更新,这一小部分样本数据被称为:“一批数据”,因为算力或者其他原因,不能将数据一次性通过神经网络的时候,就需要将数据集分成几个 batch,也就有了Batch_Size(一次投入网络模型中的图片数)。优选的,将Batch设置为20。
batch_size主要用于批量梯度下降算法(Batch Gradient Descent)中,批量梯度下降算法是每次迭代都遍历批中的所有样本,由批中的样本共同决定最优的方向,Batch_Size 正是批中的样本数量。优选的,将Batch_Size设置为10。
学习速率直接影响评价结果,如果其过小会导致训练过程太长,如果取值过大会导致模型剧烈震荡从而增加了模型的不稳定性。所以,训练应当从相对较大的学习率开始。这是因为在开始时,初始的随机权重远离最优值。在训练过程中,学习率应当下降,以允许细粒度的权重更新。比如一开始可以lr设置为0.1,然后运行到loss不怎么降的时候,学习速率除以10,设置为0.01,再接着训练。
批次归一化一般情况下可以解决一些特殊的问题,比如内部协方差平移有密切关联的问题,变换后最终获得的批次归一化(特征图)如以下公式:
其中代表的是归一化特征图,/>在公式中所表示的是输入特征图,/>是具有小批次特征图经过计算得到的均值,/>表示的是方差。在实际应用中,针对批次归一化来说,在设定特征图值时,一般会设为0,通过这样的操作,达到对其分布实施统一化调整的目的。
设定在本发明实施例的自适应神经网络模型采用的优化器容忍误差为1e-4,即tol = 1e-4。
随机失活层(Dropout)将正则化网络引入其中,并且凭借一定的概率,将某些单元或者连接以随机的方式进行跳过,以此促进卷积神经网络泛化性能的提高,防止造成过拟合现象。一般将Dropout环节设置在全连接层。
全连接层通常主要用于卷积神经网络末端的分类任务,其相比与卷积、池化的处理存在较大的差异,其中最大的差异就是它是全局操作,其能够实现一层获取输入,并且对前一层的输入进行全局化的分析,借助所选定的特征,实现非线性组合,对数据进行分类。一般全连接层是卷积神经网络的最后一层,与输出层相连。
本发明实施例采用卷积神经网络作为基础的建模方法,能够有效的提高模型的准确性和适用于大数据的特性,从而提高了无人集群自主动态评估的性能,更加适用于协同工作的复杂环境。
在本发明实施例中,从所述增强训练数据集随机分成N个训练子集,应用N个训练子集对所述自适应神经网络模型进行训练。具体从训练集中采用bootstrap方法随机抽取P%(0<P<100)组数据作为训练子集,共进行N次抽取,每次均在完整的训练集/>中进行,得到N个训练集子集/>。其中,/>表示第m次循环时的第n个子数据集。
然后应用N个训练子集对所述自适应神经网络模型训练获取N个子模型,获取对应的预测协同搜索能力;根据所述预测协同搜索能力与训练子集中对应的绝对协同搜索能力的绝对误差将N个训练子集分为异常数据、关键数据、正常数据,并赋予不同的权重;采用后向传播神经网络根据所述权重对N个子模型进行融合,获取统一的自适应神经网络模型。具体地,应用N个训练子集对所述自适应神经网络模型进行训练,获取N个预测输出,并计算预测输出与训练子集中对应的协同搜索能力的绝对误差。例如,本发明实施例选择90%的抽取比例,从增强后的数据集中抽取90%的数据组成训练子数据集。循环30次,生成了30组子数据集。选择卷积神经网络作为建模方法建立模型,每个子数据集都各自建立子模型,从而生成了30个子模型。测试集将分别通过30子模型,计算30个子模型的预测输出与真实输出之间的绝对误差。进而获得30个绝对误差。其中/>代表第p组数据的真实输出,/>代表预测的输出。30个子模型的绝对误差计算平均绝对误差如下公式所示:
根据各个数据的平均误差大小将数据集进行降序排列,规定误差最大的10%组数据为异常数据,误差次高的10%组数据为关键数据,剩余的80%组数据为正常数据。从而达到判断输入数据类型的目的。具体的数据分布如图5所示,其中100组原始数据中分别有9组和11组数据被识别为异常数据和关键数据。在分析了异常数据,关键数据和正常数据后,通过给不同类型的数据添加的不同的权重,能够建立一个综合的模型。在本发明实施例中,异常数据、关键数据、正常数据的权重分别设置为0.01、10和1。根据权重采用后向传播神经网络(Back Propagation Neural Network,BPNN)作为学习方法将各个子模型进行融合,建立统一的更加综合的自适应神经网络模型。本发明实施例利用数据增强和数据类型识别,通过构建待测数据和待测数据类型标签的子模型进行多模型融合,提高了融合后自适应神经网络模型的准确性,使得融合辨识结果更具有全面性和可靠性。
步骤S122:根据所述测试集对所述自适应神经网络模型进行验证,获取预测输出。
基于增强训练数据集完成自适应神经网络模型的训练后,还需要对自适应神经网络模型进行验证。使用测试集对已经建立(或更新)的自适应神经网络模型进行验证,其中第q组数据产生的预测输出为/>,其中n为测试集/>中的数据量。
步骤S123:根据所述预测输出与所述测试集中的绝对输出的绝对误差。
计算第q组测试集的预测输出与绝对输出/>的绝对误差/>,其中。
步骤S124:根据所述测试集循环更新所述增强训练数据集,根据更新的所述增强训练数据集循环训练更新所述自适应神经网络模型,直至所述绝对误差满足循环停止条件。
根据所述测试集循环更新所述增强训练数据集时,根据比较绝对误差与预设的门槛,将测试集的数据分为不同的数据类型。优选的,计算所述测试集中所述预测输出与所述测试集中的绝对输出的绝对误差,并计算所述测试集中的最大绝对误差与最小绝对误差的差值,得到差异程度;将所述绝对误差大于所述最大绝对误差与所述差异程度的90%之差,且小于所述最大绝对误差的测试数据作为正常数据,得到正常数据集;将所述绝对误差大于所述最小绝对误差与所述差异程度的80%之和,且小于所述最大绝对误差与所述差异程度的90%之和的测试数据作为关键数据,得到关键数据集;将所述绝对误差大于所述最小绝对误差,且小于所述最小绝对误差与所述差异程度的80%之和的测试数据作为异常数据,得到异常数据集。具体的分类标准如下式:
其中,。测试集数据/>被分为3个子数据集,分别记作异常测试数据集/>,关键测试数据集/>以及正常测试数据集/>,并且正常测试数据、关键测试数据、异常测试数据分别占据测试集的80%、10%、10%。
如果未达到循环停止的条件,本发明实施例将测试集数据类型作为反馈输入回步骤121的输入端。所以为了与步骤121中训练集中各个数据类型占比保持一致,需要将测试集的数据按照数据集10%,10%,80%的比例,将测试集也分为异常数据,关键数据,正常数据。增强训练数据集中将会按照测试集/>中数据的类型,使用测试集/>中的数据替代、更新/>的数据,具体地,根据测试集中每个数据的数据类型,使用测试集/>分别替代/>中相应的扩展数据集/>,即向初始测试数据集中/>添加测试数据中的数据,将与/>结合,将/>与/>结合,将/>与/>结合。然后将从扩展数据集/>中随机删除一部分训练集/>,值得注意的是,/>的数据规模需要和/>保持一致。也即/>。
根据更新的所述增强训练数据集循环训练更新所述自适应神经网络模型,直至所述绝对误差满足循环停止条件。过程如图6所示,首先基于初始的增强训练数据集对自适应神经网络模型进行训练,获取初始的自适应神经网络模型;然后应用测试集对自适应神经网络模型进行测试反馈,更新增强训练数据集,基于更新的增强训练数据集对自适应神经网络模型进行循环训练更新,直至不满足循环停止条件。其中循环停止条件为绝对误差小于初始最大误差的一半。
至此完成自适应神经网络模型的构建。在训练完成神经网络后,将五个三级指标的指标数据作为输入,通过以上构建的自适应神经网络模型,用于计算无人集群的协同搜索能力。具体的数据分布范围和形式如下表4所示。
表4 指标数据
指标数据经过自适应神经网络模型处理之后,输出无人集群协同搜索能力为75.8621。通过对比可知,这与基于置信规则库的评估方法所得到的结果(72.0530)是高度一致的。
本发明实施例通过构建多输入和单输出复杂系统模型,可以将多输入和单输出的因果逻辑关系进行对应,从而提高了无人集群系统自主动态评估的预警能力,增加了模型对于风险反应的及时性。
步骤S13:应用训练后的所述自适应神经网络模型根据输入的无人集群的指标数据预测无人集群的协同搜索能力。
在本发明实施例中,指标数据包括目标发现能力和目标识别能力。其中目标发现能力包括:搜索范围x1、搜索高度x2、总航时x3;目标识别能力包括:识别正确率x4、识别时间x5,作为自适应神经网络模型的输入,输出为无人集群协同搜索能力。
本发明实施例的无人集群自主动态评估方法是基于自适应数据增强和数据类型识别的单输出复杂系统(AdaSOCS-A-T)的无人集群自主动态评估方法,与一般的机器学习方法不同,其可以不必等待输出异常被检测到,而是通过建立的单输出模型判断输入与输出的对应因果关系,提前对异常的数据发出预警,使得无人集群能够提前对异常状况进行反映,降低异常状况对无人集群造成的影响,从而有效提升无人集群的鲁棒性、稳定性和快速性。本发明实施例的无人集群自主动态评估方法先构建小型的专家经验数据库,通过数据增强对小规模数据进行处理的同时,还对生成的数据类型进行识别,将输入与输出之间的因果关系分为正常、异常、关键三种逻辑关系,从而建立多输入单输出的自适应模型。根据模型的输入输出是否符合一般的因果逻辑关系,对集群协作体系进行智能评估,从而使得对于信息的估计更加合理和有效。
综上所述,本发明实施例的无人集群自主动态评估方法通过采集无人集群的基础数据,获取初始测试数据集和测试集,所述基础数据包括无人集群的指标数据和与各指标数据对应的实际协同搜索能力;基于所述初始测试数据集应用数据增强方法获取增强训练数据集,并基于所述增强训练数据集以及所述测试集分别自适应神经网络模型进行模型训练和测试,完成所述自适应神经网络模型的构建;应用训练后的所述自适应神经网络模型根据输入的无人集群系统的指标数据预测无人集群系统的协同搜索能力,能够提高无人集群自主动态评估的性能,更加适用于协同工作的复杂环境。
上述对本发明特定实施例进行了描述。在一些情况下,在本发明实施例中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本发明实施例还提供了一种无人集群自主动态评估装置,如图7所示,无人集群自主动态评估装置包括:数据获取单元、模型构建单元和动态评估单元。其中,
数据获取单元,用于采集无人集群的基础数据,获取初始测试数据集和测试集,所述基础数据包括无人集群的指标数据和与各指标数据对应的实际协同搜索能力;
模型构建单元,用于基于所述初始测试数据集应用数据增强方法获取增强训练数据集,并基于所述增强训练数据集以及所述测试集分别自适应神经网络模型进行模型训练和测试,完成所述自适应神经网络模型的构建;
动态评估单元,用于应用训练后的所述自适应神经网络模型根据输入的无人集群的指标数据预测无人集群的协同搜索能力。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本发明实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
上述实施例的装置应用于前述实施例中相应的方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一发明构思,本发明实施例还提供了一种电子设备,该电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上任意一实施例所述的方法。
本发明实施例提供了一种非易失性计算机存储介质,所述计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行如上任意一实施例中所述的方法。
图8示出了本实施例所提供的一种更为具体的电子设备硬件结构示意图,该设备可以包括:处理器901、存储器902、输入/输出接口903、通信接口909和总线905。其中处理器901、存储器902、输入/输出接口903和通信接口909通过总线905实现彼此之间在设备内部的通信连接。
处理器901可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本发明方法实施例所提供的技术方案。
存储器902可以采用ROM(Read Only Memory,只读存储器)、RAM(RandomAccessMemory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器902可以存储操作系统和其他应用程序,在通过软件或者固件来实现本发明方法实施例所提供的技术方案时,相关的程序代码保存在存储器902中,并由处理器901来调用执行。
输入/输出接口903用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
通信接口909用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线905包括一通路,在设备的各个组件(例如处理器901、存储器902、输入/输出接口903和通信接口909)之间传输信息。
需要说明的是,尽管上述设备仅示出了处理器901、存储器902、输入/输出接口903、通信接口909以及总线905,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本发明实施例方案所必需的组件,而不必包含图中所示的全部组件。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子;在本公开的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。
本发明实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本公开的保护范围之内。
Claims (5)
1.一种无人集群自主动态评估方法,其特征是,所述动态评估方法包括:
采集无人集群的基础数据,获取初始测试数据集和测试集,所述基础数据包括无人集群的指标数据和与各指标数据对应的实际协同搜索能力;
基于所述初始测试数据集应用数据增强方法获取增强训练数据集,对所述初始测试数据集中的原始数据进行线性插值,得到新的样本数据,组成扩展数据集;将所述初始测试数据集与所述扩展数据集组合,形成增强训练数据集;并基于所述增强训练数据集以及所述测试集分别对自适应神经网络模型进行模型训练和测试,完成所述自适应神经网络模型的构建;其中,采用卷积神经网络建立自适应神经网络模型,从所述增强训练数据集随机分成N个训练子集,应用N个训练子集对所述自适应神经网络模型进行训练,其中应用N个训练子集对所述自适应神经网络模型训练获取N个子模型,获取对应的预测协同搜索能力;根据所述预测协同搜索能力与对应的实际协同搜索能力的绝对误差将N个训练子集分为异常数据、关键数据、正常数据,并赋予不同的权重;采用后向传播神经网络根据所述权重对N个子模型进行融合,获取统一的自适应神经网络模型;根据所述测试集对所述自适应神经网络模型进行验证,获取预测输出;根据所述预测输出与所述测试集中的实际协同搜索能力获取绝对误差;根据所述测试集循环更新所述增强训练数据集,根据更新的所述增强训练数据集循环训练更新所述自适应神经网络模型,直至所述绝对误差满足循环停止条件;其中,计算所述测试集中所述预测输出与所述测试集中的实际协同搜索能力的绝对误差,并计算所述测试集中的最大绝对误差与最小绝对误差的差值,得到差异程度;将所述绝对误差大于所述最大绝对误差与所述差异程度的90%之差,且小于所述最大绝对误差的测试数据作为正常数据,得到正常数据集;将所述绝对误差大于所述最小绝对误差与所述差异程度的80%之和,且小于所述最大绝对误差与所述差异程度的90%之和的测试数据作为关键数据,得到关键数据集;将所述绝对误差大于所述最小绝对误差,且小于所述最小绝对误差与所述差异程度的80%之和的测试数据作为异常数据,得到异常数据集;应用所述正常数据集、所述关键数据集及所述异常数据集替换所述扩展数据集中相同类型数据,得到更新的所述增强训练数据集;
应用训练后的所述自适应神经网络模型根据输入的无人集群的指标数据预测无人集群的协同搜索能力。
2.如权利要求1所述的无人集群自主动态评估方法,其特征是,所述采用卷积神经网络建立自适应神经网络模型,包括:
根据卷积神经网络确定自适应神经网络模型的网络层数,所述自适应神经网络模型包括输入层、一卷积层、一池化层、一全连接层以及输出层;
确定所述自适应神经网络模型的各网络层的初始参数。
3.一种无人集群自主动态评估装置,其特征是,所述无人集群自主动态评估装置包括:
数据获取单元,用于采集无人集群的基础数据,获取初始测试数据集和测试集,所述基础数据包括无人集群的指标数据和与各指标数据对应的实际协同搜索能力;
模型构建单元,用于基于所述初始测试数据集应用数据增强方法获取增强训练数据集,对所述初始测试数据集中的原始数据进行线性插值,得到新的样本数据,组成扩展数据集;将所述初始测试数据集与所述扩展数据集组合,形成增强训练数据集;并基于所述增强训练数据集以及所述测试集分别对自适应神经网络模型进行模型训练和测试,完成所述自适应神经网络模型的构建;其中,采用卷积神经网络建立自适应神经网络模型,从所述增强训练数据集随机分成N个训练子集,应用N个训练子集对所述自适应神经网络模型进行训练,其中应用N个训练子集对所述自适应神经网络模型训练获取N个子模型,获取对应的预测协同搜索能力;根据所述预测协同搜索能力与对应的实际协同搜索能力的绝对误差将N个训练子集分为异常数据、关键数据、正常数据,并赋予不同的权重;采用后向传播神经网络根据所述权重对N个子模型进行融合,获取统一的自适应神经网络模型;根据所述测试集对所述自适应神经网络模型进行验证,获取预测输出;根据所述预测输出与所述测试集中的实际协同搜索能力获取绝对误差;根据所述测试集循环更新所述增强训练数据集,根据更新的所述增强训练数据集循环训练更新所述自适应神经网络模型,直至所述绝对误差满足循环停止条件;其中,计算所述测试集中所述预测输出与所述测试集中的实际协同搜索能力的绝对误差,并计算所述测试集中的最大绝对误差与最小绝对误差的差值,得到差异程度;将所述绝对误差大于所述最大绝对误差与所述差异程度的90%之差,且小于所述最大绝对误差的测试数据作为正常数据,得到正常数据集;将所述绝对误差大于所述最小绝对误差与所述差异程度的80%之和,且小于所述最大绝对误差与所述差异程度的90%之和的测试数据作为关键数据,得到关键数据集;将所述绝对误差大于所述最小绝对误差,且小于所述最小绝对误差与所述差异程度的80%之和的测试数据作为异常数据,得到异常数据集;应用所述正常数据集、所述关键数据集及所述异常数据集替换所述扩展数据集中相同类型数据,得到更新的所述增强训练数据集;
动态评估单元,用于应用训练后的所述自适应神经网络模型根据输入的无人集群的指标数据预测无人集群的协同搜索能力。
4.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至2中任一项所述的无人集群自主动态评估方法。
5.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至2中任一项所述的无人集群自主动态评估方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311079776.2A CN116805157B (zh) | 2023-08-25 | 2023-08-25 | 无人集群自主动态评估方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311079776.2A CN116805157B (zh) | 2023-08-25 | 2023-08-25 | 无人集群自主动态评估方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116805157A CN116805157A (zh) | 2023-09-26 |
CN116805157B true CN116805157B (zh) | 2023-11-17 |
Family
ID=88079783
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311079776.2A Active CN116805157B (zh) | 2023-08-25 | 2023-08-25 | 无人集群自主动态评估方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116805157B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117389155B (zh) * | 2023-12-07 | 2024-04-09 | 西北工业大学 | 一种无人机集群的自适应故障检测方法及系统 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107144430A (zh) * | 2017-06-27 | 2017-09-08 | 电子科技大学 | 一种基于增量学习的轴承故障诊断方法 |
US10339468B1 (en) * | 2014-10-28 | 2019-07-02 | Groupon, Inc. | Curating training data for incremental re-training of a predictive model |
CN110110792A (zh) * | 2019-05-09 | 2019-08-09 | 南京大学 | 一种基于增量学习的多标签数据流分类方法 |
CN110263907A (zh) * | 2019-07-01 | 2019-09-20 | 上海海事大学 | 基于改进ga-pso-bp的船舶短路故障诊断方法 |
CN111080477A (zh) * | 2019-12-06 | 2020-04-28 | 北京国电通网络技术有限公司 | 一种家庭电力负荷预测方法及系统 |
CN111399778A (zh) * | 2020-03-17 | 2020-07-10 | 西安石油大学 | 一种图片文件的清理方法及其装置 |
CN111563878A (zh) * | 2020-03-27 | 2020-08-21 | 中国科学院西安光学精密机械研究所 | 一种空间目标定位方法 |
JP2020191080A (ja) * | 2019-05-21 | 2020-11-26 | 富士通株式会社 | 増分学習のためのデータ認識方法 |
CN112766814A (zh) * | 2021-02-05 | 2021-05-07 | 中国工商银行股份有限公司 | 一种信用风险压力测试模型的训练方法、装置及设备 |
WO2022077587A1 (zh) * | 2020-10-14 | 2022-04-21 | 深圳大学 | 一种数据预测方法、装置及终端设备 |
CN115099133A (zh) * | 2022-06-16 | 2022-09-23 | 南京航空航天大学 | 一种基于tlmpa-bp的集群系统可靠性评估方法 |
US11562556B1 (en) * | 2022-02-16 | 2023-01-24 | Motional Ad Llc | Prediction error scenario mining for machine learning models |
CN115687910A (zh) * | 2021-07-31 | 2023-02-03 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置、计算机设备以及可读存储介质 |
WO2023019456A1 (en) * | 2021-08-18 | 2023-02-23 | Robert Bosch Gmbh | Method and apparatus for evaluation of adversarial robustness |
CN116401555A (zh) * | 2023-06-07 | 2023-07-07 | 广州华银医学检验中心有限公司 | 双胞识别模型的构建方法、系统及存储介质 |
-
2023
- 2023-08-25 CN CN202311079776.2A patent/CN116805157B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10339468B1 (en) * | 2014-10-28 | 2019-07-02 | Groupon, Inc. | Curating training data for incremental re-training of a predictive model |
CN107144430A (zh) * | 2017-06-27 | 2017-09-08 | 电子科技大学 | 一种基于增量学习的轴承故障诊断方法 |
CN110110792A (zh) * | 2019-05-09 | 2019-08-09 | 南京大学 | 一种基于增量学习的多标签数据流分类方法 |
JP2020191080A (ja) * | 2019-05-21 | 2020-11-26 | 富士通株式会社 | 増分学習のためのデータ認識方法 |
CN110263907A (zh) * | 2019-07-01 | 2019-09-20 | 上海海事大学 | 基于改进ga-pso-bp的船舶短路故障诊断方法 |
CN111080477A (zh) * | 2019-12-06 | 2020-04-28 | 北京国电通网络技术有限公司 | 一种家庭电力负荷预测方法及系统 |
CN111399778A (zh) * | 2020-03-17 | 2020-07-10 | 西安石油大学 | 一种图片文件的清理方法及其装置 |
CN111563878A (zh) * | 2020-03-27 | 2020-08-21 | 中国科学院西安光学精密机械研究所 | 一种空间目标定位方法 |
WO2022077587A1 (zh) * | 2020-10-14 | 2022-04-21 | 深圳大学 | 一种数据预测方法、装置及终端设备 |
CN112766814A (zh) * | 2021-02-05 | 2021-05-07 | 中国工商银行股份有限公司 | 一种信用风险压力测试模型的训练方法、装置及设备 |
CN115687910A (zh) * | 2021-07-31 | 2023-02-03 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置、计算机设备以及可读存储介质 |
WO2023019456A1 (en) * | 2021-08-18 | 2023-02-23 | Robert Bosch Gmbh | Method and apparatus for evaluation of adversarial robustness |
US11562556B1 (en) * | 2022-02-16 | 2023-01-24 | Motional Ad Llc | Prediction error scenario mining for machine learning models |
CN115099133A (zh) * | 2022-06-16 | 2022-09-23 | 南京航空航天大学 | 一种基于tlmpa-bp的集群系统可靠性评估方法 |
CN116401555A (zh) * | 2023-06-07 | 2023-07-07 | 广州华银医学检验中心有限公司 | 双胞识别模型的构建方法、系统及存储介质 |
Non-Patent Citations (6)
Title |
---|
"模型融合方法总结";尘嚣看客;《简书》;第1-11页 * |
prediction of students performance based on incremental learning;pallavi kulkarni 等;《international journal of computer applications》;第99卷;第10-16页 * |
无人集群试验评估现状及技术方法综述;赵蕊蕊 等;《系统工程与电子技术》;第1-24页第2.1-3节 * |
标准化全连接残差网络空战目标威胁评估;翟翔宇;杨风暴;吉琳娜;李书强;吕红亮;;火力与指挥控制(第06期);第41-46页 * |
武梅丽文 ; 王蒙一 ; 王晓东 ; 宋勋 ; .面向集群攻防作战的等效验证与训练评估.指挥与控制学报.2020,(第03期),第12-17页. * |
面向集群攻防作战的等效验证与训练评估;武梅丽文;王蒙一;王晓东;宋勋;;指挥与控制学报(第03期);第12-17页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116805157A (zh) | 2023-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102492318B1 (ko) | 모델 학습 방법 및 장치, 및 데이터 인식 방법 | |
US10885439B1 (en) | Automated neural network generation using fitness estimation | |
Song et al. | New chaotic PSO-based neural network predictive control for nonlinear process | |
KR102483639B1 (ko) | 뉴럴 네트워크 구조 확장 방법, 디멘션 리덕션 방법, 및 그 방법을 이용한 장치 | |
CN110782015A (zh) | 神经网络的网络结构优化器的训练方法、装置及存储介质 | |
WO2019091020A1 (zh) | 权重数据存储方法和基于该方法的神经网络处理器 | |
Yang et al. | Recomputation of the dense layers for performance improvement of dcnn | |
CN110046710A (zh) | 一种神经网络的非线性函数极值优化方法及系统 | |
Zeng et al. | CNN model design of gesture recognition based on tensorflow framework | |
CN112052948B (zh) | 一种网络模型压缩方法、装置、存储介质和电子设备 | |
CN111352965A (zh) | 序列挖掘模型的训练方法、序列数据的处理方法及设备 | |
US11507802B2 (en) | Recursive learning for artificial intelligent agents | |
CN107203809A (zh) | 一种基于Keras的深度学习自动化调参方法及系统 | |
CN108764450A (zh) | 一种基于广义粒子群算法的参数优化及估计方法 | |
CN113255873A (zh) | 一种聚类天牛群优化方法、系统、计算机设备和存储介质 | |
CN116805157B (zh) | 无人集群自主动态评估方法及装置 | |
CN113469891A (zh) | 一种神经网络架构搜索方法、训练方法、图像补全方法 | |
WO2020195940A1 (ja) | ニューラルネットワークのモデル縮約装置 | |
CN116090536A (zh) | 神经网络的优化方法、装置、计算机设备及存储介质 | |
WO2022197615A1 (en) | Techniques for adaptive generation and visualization of quantized neural networks | |
CN114861671A (zh) | 模型训练方法、装置、计算机设备及存储介质 | |
CN117150326B (zh) | 新能源节点出力功率的预测方法、装置、设备及存储介质 | |
CN105426962A (zh) | 一种不完全递归支集动态神经网络构建及训练方法 | |
CN114332550A (zh) | 一种模型训练方法、系统及存储介质和终端设备 | |
Zhang et al. | Tuning extreme learning machine by an improved electromagnetism-like mechanism algorithm for classification problem |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |