CN112766462A - 数据处理方法、装置及计算机可读存储介质 - Google Patents
数据处理方法、装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN112766462A CN112766462A CN202110062458.XA CN202110062458A CN112766462A CN 112766462 A CN112766462 A CN 112766462A CN 202110062458 A CN202110062458 A CN 202110062458A CN 112766462 A CN112766462 A CN 112766462A
- Authority
- CN
- China
- Prior art keywords
- data
- neural network
- convolutional neural
- incremental
- original
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 30
- 238000012545 processing Methods 0.000 claims abstract description 212
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 168
- 230000008859 change Effects 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000013528 artificial neural network Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 6
- 238000013526 transfer learning Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 abstract description 36
- 238000004364 calculation method Methods 0.000 description 19
- 238000013138 pruning Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 238000011176 pooling Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种数据处理方法、装置及计算机可读存储介质。其中,方法包括预先训练数据处理模型,数据处理模型包括输入层、原始卷积神经网络、增量卷积神经网络和输出层,增量卷积神经网络基于原始卷积神经网络生成但比其规模小;若待处理计算机数据为目标历史数据的变化数据,利用增量卷积神经网络处理待处理计算机数据,并根据原始卷积神经网络对目标历史数据的原始处理结果和增量卷积神经网络输出结果共同确定待处理计算机数据的最终数据处理结果;若待处理计算机数据不为目标历史数据的变化数据,利用原始卷积神经网络处理待处理计算机数据,得到数据处理结果。本申请可提高数据处理效率,有效提升硬件运算设备的计算性能。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种数据处理方法、装置及计算机可读存储介质。
背景技术
CNN(Convolutional Neural Network,卷积神经网络)是神经网络的一种,通过仿造大脑视觉原理,能够通过大量数据输入,学习输入与输出的关系,广泛应用于深度学习,人工智能,大数据处理等领域。目前,CNN已经在CPU(Central Processing Unit,中央处理器),GPU(Graphics Processing Unit,图形处理器),FPGA(Field-Programmable GateArray,现场可编程门阵列)等各种运算部件上广泛部署,其中FPGA由于其具有较好的实时性,更低的能耗以及更好的可移植性而广泛运用于各种嵌入式系统,终端以及服务器加速卡等。
卷积神经网络通常包含有若干卷积层conv,池化层pool和全连接层FC,图1为一种典型的卷积神经网络VGG-16的结构示意图,其中卷积原理如图2所示,卷积即为两个向量的点乘,其中一个向量为输入的图像3x3的区域,另一个向量为3x3的固定系数,该固定系数或者权重也被称为卷积核。池化原理如图3所示,池化为下采样,下采样中采样了2x2区域中最大的数据。全连接层可以看成是一种特殊的卷积层,其卷积核大小为1X1,此外,与卷积层不同的是,全连接的权重系数在一幅图内也是变化的。SOFTMAX为卷积神经网络输出的概率分类函数;假设有一个数组A,Ai表示A中的第i个元素,那么这个元素的SOFTMAX值为:eAi/(sum(eAi)),e为指数函数,sum为对整个数组求和。
可以理解的是,卷积神经网络计算量越大,依赖卷积神经网络执行任务的效率也就越低,硬件运算设备性能也就越低。为了减少卷积神经网络的计算量,现有的方法包括计算加速,SVD矩阵分解;网络剪枝;模型压缩;网络优化等,近年来还出现了BNN以及AdderNet等方法。以剪枝方法为例,如图4为现有技术中的一种卷积神经网络模型的剪枝方法,剪枝过程包括构建待剪枝的卷积神经网络模型,增加剪枝策略稀疏化训练模型来获取稀疏的参数,根据参数定义剪枝策略和剪枝标准,利用剪枝标准对模型裁剪,删除参数值过小的网络通道重新整合网络参数后构建新模型,再次稀疏化训练新模型并生成新稀疏的参数,进行新一轮剪枝操作;重复上述稀疏化训练和剪枝,不断更新网络参数,直至生成的最新模型的训练精度明显下降,停止剪枝操作;获得高效的剪枝模型用于硬件运算设备。
但是,相关技术通过数学上进行裁剪或者量化,尽管可减少部分计算量,但在裁剪较少或者保留较多量化比特bit时计算量减少不多,而裁剪较多或者保留较少量化bit时性能下降较大,需要重新训练。
发明内容
本申请提供了一种数据处理方法、装置及计算机可读存储介质,提高数据处理效率,有效提升硬件运算设备的计算性能。
为解决上述技术问题,本发明实施例提供以下技术方案:
本发明实施例一方面提供了一种数据处理方法,包括:
预先训练数据处理模型,所述数据处理模型包括输入层、原始卷积神经网络、增量卷积神经网络和输出层,所述增量卷积神经网络基于所述原始卷积神经网络生成但比其规模小;
若待处理计算机数据为目标历史数据的变化数据,利用所述增量卷积神经网络处理所述待处理计算机数据,并根据所述原始卷积神经网络对所述目标历史数据的原始处理结果和所述增量卷积神经网络输出结果确定数据处理结果;
若待处理计算机数据不为目标历史数据的变化数据,利用所述原始卷积神经网络处理所述待处理计算机数据,得到数据处理结果。
可选的,所述利用所述增量卷积神经网络处理所述待处理计算机数据,并根据所述原始卷积神经网络对所述目标历史数据的原始处理结果和所述增量卷积神经网络输出结果确定数据处理结果包括:
获取所述原始卷积神经网络对所述目标历史数据的原始处理结果;
将所述待处理计算机数据和所述目标历史数据的增量数据通过所述输入层输入至所述增量卷积神经网络,得到增量数据结果;
将所述原始处理结果和所述增量数据结果进行叠加并输入所述输出层以得到所述数据处理结果。
可选的,所述将所述原始处理结果和所述增量数据结果进行叠加并输入所述输出层以得到所述数据处理结果之后,还包括:
判断所述原始处理结果和所述数据处理结果的差值是否在预设误差范围内;
若所述原始处理结果和所述数据处理结果的差值不在预设误差范围内;
利用所述原始卷积神经网络对所述待处理计算机数据的处理结果更新所述原始处理结果,并将所述原始处理结果作为所述待处理计算机数据的数据处理结果。
可选的,所述利用所述增量卷积神经网络处理所述待处理计算机数据,并根据所述原始卷积神经网络对所述目标历史数据的原始处理结果和所述增量卷积神经网络输出结果确定数据处理结果包括:
将所述待处理计算机数据输入至所述增量卷积神经网络,得到新数据处理结果;
若所述新数据处理结果和所述原始处理结果的差值在预设误差范围内,将所述新数据处理结果作为所述数据处理结果进行输出。
可选的,所述增量卷积神经网络基于所述原始卷积神经网络生成但比其规模小包括:
所述增量卷积神经网络的模型规模为所述原始卷积神经网络的模型规模的1/10-1/5;
基于训练好的原始卷积神经网络,利用迁移学习训练增量卷积神经网络框架,得到所述增量卷积神经网络的网络模型参数。
可选的,所述数据处理结果为蒙特卡洛搜索树的多个选择的策略概率。
本发明实施例另一方面提供了一种数据处理装置,包括:
模型预训练模块,用于预先训练数据处理模型,所述数据处理模型包括输入层、原始卷积神经网络、增量卷积神经网络和输出层,所述增量卷积神经网络基于所述原始卷积神经网络生成但比其规模小;
数据类型判断模块,用于判断待处理计算机数据是否为目标历史数据的变化数据;
数据处理模块,用于若待处理计算机数据为目标历史数据的变化数据,利用所述增量卷积神经网络处理所述待处理计算机数据,并根据所述原始卷积神经网络对所述目标历史数据的原始处理结果和所述增量卷积神经网络输出结果确定数据处理结果;若待处理计算机数据不为目标历史数据的变化数据,利用所述原始卷积神经网络处理所述待处理计算机数据,得到数据处理结果。
可选的,所述数据处理模块进一步用于:
获取所述原始卷积神经网络对所述目标历史数据的原始处理结果;将所述待处理计算机数据和所述目标历史数据的增量数据通过所述输入层输入至所述增量卷积神经网络,得到增量数据结果;将所述原始处理结果和所述增量数据结果进行叠加并输入所述输出层以得到所述数据处理结果。
本发明实施例还提供了一种数据处理装置,包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现如前任一项所述数据处理方法的步骤。
本发明实施例最后还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有数据处理程序,所述数据处理程序被处理器执行时实现如前任一项所述数据处理方法的步骤。
本申请提供的技术方案的优点在于,基于原始卷积神经网络得到小规模的增量卷积神经网络,原始卷积神经网络只对原始数据进行一次数据处理,只要当前待处理数据为之前处理过数据也即原始数据的变化数据,利用增量卷积神经网络处理结果和基础卷积结果确定最终数据处理结果。由于增量卷积神经网络的规模小于原始卷积神经网络,增量卷积神经网络的计算量较小,可通过大幅降低了卷积神经网络的计算量提高对待处理数据的数据处理效率;从整体来说,原始卷积神经网络的计算数量可以远低于增量卷积神经网络的计算数量,从而可有效减少了网络计算量,提高数据计算效率,有效提升硬件运算设备的计算性能。
此外,本发明实施例还针对数据处理方法提供了相应的实现装置及计算机可读存储介质,进一步使得所述方法更具有实用性,所述装置及计算机可读存储介质具有相应的优点。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本公开。
附图说明
为了更清楚的说明本发明实施例或相关技术的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一个示例性应用场景的VGG-16卷积神经网络结构框架示意图;
图2为本发明实施例提供的VGG-16卷积神经网络的卷积原理示意图;
图3为本发明实施例提供的VGG-16卷积神经网络的池化原理示意图;
图4为本发明实施例提供的现有技术中的卷积神经网络的剪枝原理示意图;
图5为本发明实施例提供的一种数据处理方法的流程示意图;
图6为本发明实施例提供的另一种数据处理方法的流程示意图;
图7为本发明实施例提供的再一种数据处理方法的流程示意图;
图8为本发明实施例提供的示意性例子中的数据处理方法的流程示意图;
图9为本发明实施例提供的数据处理装置的一种具体实施方式结构图;
图10为本发明实施例提供的数据处理装置的另一种具体实施方式结构图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等是用于区别不同的对象,而不是用于描述特定的顺序。此外术语“包括”和“具有”以及他们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可包括没有列出的步骤或单元。
在介绍了本发明实施例的技术方案后,下面详细的说明本申请的各种非限制性实施方式。
首先参见图5,图5为本发明实施例提供的一种数据处理方法的流程示意图,本发明实施例可包括以下内容:
S501:预先训练数据处理模型。
本申请的数据处理模型为预先训练好、用于对接收到的计算机数据进行处理。该数据处理模块可包括输入层、原始卷积神经网络、增量卷积神经网络和输出层,待处理计算机数据通过输入层输入至原始卷积神经网络或增量卷积神经网络,原始卷积神经网络和增量卷积神经网络处理结果直接输入至输出层,数据处理模型的输出结果通过输出层处理后输出。原始卷积神经网络为标准的卷积神经网络,其可为任何一种卷积神经网络模型,增量卷积神经网络为基于原始卷积神经网络生成但比其规模小。也就是说,增量卷积神经网络与原始卷积神经网络除了每个神经元连接数目不同,其他结构如卷积核等均一样。作为一种可选的实施方式,增量卷积神经网络的模型规模可预先设置为原始卷积神经网络的模型规模的1/10-1/5,例如可为原始卷积神经网络的模型规模的1/8,通过小规模增量卷积神经网络,极大地减少了卷积神经网络的计算量,相比现有设计计算能力有望提升至10倍以上。可基于训练好的原始卷积神经网络,利用迁移学习训练增量卷积神经网络框架得到增量卷积神经网络的网络模型参数,在确定了网络模型参数之后,增量卷积神经网络的结构便确定了。
S502:判断待处理计算机数据是否为目标历史数据的变化数据,若是,则执行S503,若否,则执行S504。
在本实施例中,待处理计算机处理包括但并不限制于图像数据、文字数据、网页数据或数据结构,所谓待处理计算机数据为目标历史数据的变化数据,可以是指在目标历史数据基础上新增一部分数据成为待处理计算机数据,也可为将目标历史数据的一部分数据修改后成为待处理计算机数据,还可为将目标历史数据的一部分数据删除后成为待处理计算机数据。也就是说,只要待处理计算机数据是在目标历史数据基础上进行调整的,调整包括但并不限制于增加、删除和修改,则待处理计算机数据就是目标历史数据的变化数据,反之,则待处理计算机数据不为目标历史数据的变化数据。
S503:利用增量卷积神经网络处理待处理计算机数据,并根据原始卷积神经网络对目标历史数据的原始处理结果和增量卷积神经网络输出结果确定数据处理结果。
其中,目标历史数据会通过输入层直接输入至原始卷积神经网络,经过原始卷积神经网络处理后得到原始处理结果,在本步骤中之所以基于原始处理结果来决定最终数据处理结果,是由于输入增量卷积神经网络的数据可为发送变化的数据也可为整个待处理计算机数据,若为发生变化的数据,则需要根据增量卷积神经网络的输出结果和原始处理结果共同确定待处理计算机数据的最终处理结果,而若为待处理计算机数据整体,则待处理计算机数据的处理结果为增量卷积神经网络的输出结果,原始处理结果可作为衡量输出结果是否准确的参照。
需要说明的是,为了保证数据处理结果的处理精度,待处理计算机数据相比目标历史数据的增量数据,所谓增量数据也即发生变化的数据不应该太大,例如可适用于强化学习类神经网络计算,该类计算通常包含有大量微小改变的神经网络计算分支,并对小的计算误差不敏感。
S504:利用原始卷积神经网络处理待处理计算机数据,得到数据处理结果。
本步骤中,可将待处理计算机数据直接通过输入层输入至原始卷积神经网络中,原始卷积神经网络的输出结果即为待处理计算机数据的最终结果,并可将该数据结果存储至系统中,以作为后续该待处理计算机数据的变化数据的原始处理结果。
在本发明实施例提供的技术方案中,基于原始卷积神经网络得到小规模的增量卷积神经网络,原始卷积神经网络只对原始数据进行一次数据处理,只要当前待处理数据为之前处理过数据也即原始数据的变化数据,利用增量卷积神经网络处理结果和基础卷积结果确定最终数据处理结果。由于增量卷积神经网络的规模小于原始卷积神经网络,增量卷积神经网络的计算量较小,可通过大幅降低了卷积神经网络的计算量提高对待处理数据的数据处理效率;从整体来说,原始卷积神经网络的计算数量可以远低于增量卷积神经网络的计算数量,从而可有效减少了网络计算量,提高数据计算效率,有效提升硬件运算设备的计算性能。
在上述实施例中,对于如何执行步骤S504并不做限定,本实施例中给出一种实施方式,可首先将微小增量送入增量卷积神经网络,得到增量结果;再将该结果与基础卷积结果相加就得到了卷积结果,如图6和图7所示,可包括如下步骤:
获取原始卷积神经网络对目标历史数据的原始处理结果;
将待处理计算机数据和目标历史数据的增量数据通过输入层输入至增量卷积神经网络,得到增量数据结果;
将原始处理结果和增量数据结果进行叠加并输入输出层以得到数据处理结果。
作为进一步保证数据处理准确度,还可对卷积神经网络误差进行跟踪,可周期性地如每隔10次便可将原始卷积神经网络结果与新的数据处理结果相比较,如果误差较大,则重新调整原始卷积神经网络结果的输出结果,也即重新调整原始处理结果,可包括下述内容:
判断原始处理结果和数据处理结果的差值是否在预设误差范围内;
若原始处理结果和数据处理结果的差值不在预设误差范围内;
利用原始卷积神经网络对待处理计算机数据的处理结果更新原始处理结果,并将原始处理结果作为待处理计算机数据的数据处理结果。
本申请还提供了另一种数据处理结果的输出方式,与上述方式并列,因此,可作为另一种可选的实施方式,可包括:
将待处理计算机数据输入至增量卷积神经网络,得到新数据处理结果;
若新数据处理结果和原始处理结果的差值在预设误差范围内,将新数据处理结果作为数据处理结果进行输出。
其中,预设误差范围可根据实际应用场景进行确定,本申请对此不作任何限定。
本实施例通过周期性跟踪卷积神经网络结果,在误差增大之前及时用新的卷积神经网络基准结果替换旧的结果,保障数据处理精度。
作为一种可选的实施方式,请参阅图8,在强化学习的应用中,卷积神经网络通常用于构建蒙特卡洛搜索树,数据处理结果可为蒙特卡洛搜索树的多个选择的策略概率。在该实施方式中,快速卷积计算即为利用增量卷积神经网络进行处理的过程,标准卷积计算为利用原始卷积神经网络进行处理的过程,可以利用该概率构造一个误差函数,误差函数例如可为均方误差计算所得,当增量卷积神经网络的输出结果与原始处理结果的误差大于给定门限时,重新执行原始处理结果的生成操作,将复杂的计算过程通过增量式计算方法减少计算量,提高设备计算效率。
需要说明的是,本申请中各步骤之间没有严格的先后执行顺序,只要符合逻辑上的顺序,则这些步骤可以同时执行,也可按照某种预设顺序执行,图5-图8只是一种示意方式,并不代表只能是这样的执行顺序。
本发明实施例还针对数据处理方法提供了相应的装置,进一步使得所述方法更具有实用性。其中,装置可从功能模块的角度和硬件的角度分别说明。下面对本发明实施例提供的数据处理装置进行介绍,下文描述的数据处理装置与上文描述的数据处理方法可相互对应参照。
基于功能模块的角度,参见图9,图9为本发明实施例提供的数据处理装置在一种具体实施方式下的结构图,该装置可包括:
模型预训练模块901,用于预先训练数据处理模型,数据处理模型包括输入层、原始卷积神经网络、增量卷积神经网络和输出层,增量卷积神经网络基于原始卷积神经网络生成但比其规模小;
数据类型判断模块902,用于判断待处理计算机数据是否为目标历史数据的变化数据;
数据处理模块903,用于若待处理计算机数据为目标历史数据的变化数据,利用增量卷积神经网络处理待处理计算机数据,并根据原始卷积神经网络对目标历史数据的原始处理结果和增量卷积神经网络输出结果确定数据处理结果;若待处理计算机数据不为目标历史数据的变化数据,利用原始卷积神经网络处理待处理计算机数据,得到数据处理结果。
可选的,在本实施例的一些实施方式中,上述数据处理模块903可进一步用于:获取原始卷积神经网络对目标历史数据的原始处理结果;将待处理计算机数据和目标历史数据的增量数据通过输入层输入至增量卷积神经网络,得到增量数据结果;将原始处理结果和增量数据结果进行叠加并输入输出层以得到数据处理结果。
作为本实施例的一种可选的实施方式,上述数据处理模块903例如还可包括结果追踪子模块,该结果追踪子模块用于判断原始处理结果和数据处理结果的差值是否在预设误差范围内;若原始处理结果和数据处理结果的差值不在预设误差范围内;利用原始卷积神经网络对待处理计算机数据的处理结果更新原始处理结果,并将原始处理结果作为待处理计算机数据的数据处理结果。
作为与上述实施例的一种并列的实施方式,上述数据处理模块903例如还可以用于:将待处理计算机数据输入至增量卷积神经网络,得到新数据处理结果;若新数据处理结果和原始处理结果的差值在预设误差范围内,将新数据处理结果作为数据处理结果进行输出。
可选的,在本实施例的另一些实施方式中,上述模型预训练模块901可进一步用于:增量卷积神经网络的模型规模为原始卷积神经网络的模型规模的1/10-1/5;基于训练好的原始卷积神经网络,利用迁移学习训练增量卷积神经网络框架,得到增量卷积神经网络的网络模型参数。
本发明实施例所述数据处理装置的各功能模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
由上可知,本发明实施例可提高数据处理效率,有效提升硬件运算设备的计算性能。
上文中提到的数据处理装置是从功能模块的角度描述,进一步的,本申请还提供一种数据处理装置,是从硬件角度描述。图10为本申请实施例提供的另一种数据处理装置的结构图。如图10所示,该装置包括存储器100,用于存储计算机程序;
处理器101,用于执行计算机程序时实现如上述任一实施例提到的数据处理方法的步骤。
其中,处理器101可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器101可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器101也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器101可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器101还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器100可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器100还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。本实施例中,存储器100至少用于存储以下计算机程序1001,其中,该计算机程序被处理器101加载并执行之后,能够实现前述任一实施例公开的数据处理方法的相关步骤。另外,存储器100所存储的资源还可以包括操作系统1002和数据1003等,存储方式可以是短暂存储或者永久存储。其中,操作系统1002可以包括Windows、Unix、Linux等。数据1003可以包括但不限于数据处理结果对应的数据等。
在一些实施例中,数据处理装置还可包括有显示屏102、输入输出接口103、通信接口104、电源105以及通信总线106。
本领域技术人员可以理解,图10中示出的结构并不构成对数据处理装置的限定,可以包括比图示更多或更少的组件,例如还可包括传感器107。
本发明实施例所述数据处理装置的各功能模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
由上可知,本发明实施例可提高数据处理效率,有效提升硬件运算设备的计算性能。
可以理解的是,如果上述实施例中的数据处理方法以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、磁碟或者光盘等各种可以存储程序代码的介质。
基于此,本发明实施例还提供了一种计算机可读存储介质,存储有数据处理程序,所述数据处理程序被处理器执行时如上任意一实施例所述数据处理方法的步骤。
本发明实施例所述计算机可读存储介质的各功能模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
由上可知,本发明实施例可提高数据处理效率,有效提升硬件运算设备的计算性能。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
以上对本申请所提供的一种数据处理方法、装置及计算机可读存储介质进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。
Claims (10)
1.一种数据处理方法,其特征在于,包括:
预先训练数据处理模型,所述数据处理模型包括输入层、原始卷积神经网络、增量卷积神经网络和输出层,所述增量卷积神经网络基于所述原始卷积神经网络生成但比其规模小;
若待处理计算机数据为目标历史数据的变化数据,利用所述增量卷积神经网络处理所述待处理计算机数据,并根据所述原始卷积神经网络对所述目标历史数据的原始处理结果和所述增量卷积神经网络输出结果确定数据处理结果;
若待处理计算机数据不为目标历史数据的变化数据,利用所述原始卷积神经网络处理所述待处理计算机数据,得到数据处理结果。
2.根据权利要求1所述的数据处理方法,其特征在于,所述利用所述增量卷积神经网络处理所述待处理计算机数据,并根据所述原始卷积神经网络对所述目标历史数据的原始处理结果和所述增量卷积神经网络输出结果确定数据处理结果包括:
获取所述原始卷积神经网络对所述目标历史数据的原始处理结果;
将所述待处理计算机数据和所述目标历史数据的增量数据通过所述输入层输入至所述增量卷积神经网络,得到增量数据结果;
将所述原始处理结果和所述增量数据结果进行叠加并输入所述输出层以得到所述数据处理结果。
3.根据权利要求2所述的数据处理方法,其特征在于,所述将所述原始处理结果和所述增量数据结果进行叠加并输入所述输出层以得到所述数据处理结果之后,还包括:
判断所述原始处理结果和所述数据处理结果的差值是否在预设误差范围内;
若所述原始处理结果和所述数据处理结果的差值不在预设误差范围内;
利用所述原始卷积神经网络对所述待处理计算机数据的处理结果更新所述原始处理结果,并将所述原始处理结果作为所述待处理计算机数据的数据处理结果。
4.根据权利要求1所述的数据处理方法,其特征在于,所述利用所述增量卷积神经网络处理所述待处理计算机数据,并根据所述原始卷积神经网络对所述目标历史数据的原始处理结果和所述增量卷积神经网络输出结果确定数据处理结果包括:
将所述待处理计算机数据输入至所述增量卷积神经网络,得到新数据处理结果;
若所述新数据处理结果和所述原始处理结果的差值在预设误差范围内,将所述新数据处理结果作为所述数据处理结果进行输出。
5.根据权利要求1-4任意一项所述的数据处理方法,其特征在于,所述增量卷积神经网络基于所述原始卷积神经网络生成但比其规模小包括:
所述增量卷积神经网络的模型规模为所述原始卷积神经网络的模型规模的1/10-1/5;
基于训练好的原始卷积神经网络,利用迁移学习训练增量卷积神经网络框架,得到所述增量卷积神经网络的网络模型参数。
6.根据权利要求5所述的数据处理方法,其特征在于,所述数据处理结果为蒙特卡洛搜索树的多个选择的策略概率。
7.一种数据处理装置,其特征在于,包括:
模型预训练模块,用于预先训练数据处理模型,所述数据处理模型包括输入层、原始卷积神经网络、增量卷积神经网络和输出层,所述增量卷积神经网络基于所述原始卷积神经网络生成但比其规模小;
数据类型判断模块,用于判断待处理计算机数据是否为目标历史数据的变化数据;
数据处理模块,用于若待处理计算机数据为目标历史数据的变化数据,利用所述增量卷积神经网络处理所述待处理计算机数据,并根据所述原始卷积神经网络对所述目标历史数据的原始处理结果和所述增量卷积神经网络输出结果确定数据处理结果;若待处理计算机数据不为目标历史数据的变化数据,利用所述原始卷积神经网络处理所述待处理计算机数据,得到数据处理结果。
8.根据权利要求7所述的数据处理装置,其特征在于,所述数据处理模块进一步用于:
获取所述原始卷积神经网络对所述目标历史数据的原始处理结果;将所述待处理计算机数据和所述目标历史数据的增量数据通过所述输入层输入至所述增量卷积神经网络,得到增量数据结果;将所述原始处理结果和所述增量数据结果进行叠加并输入所述输出层以得到所述数据处理结果。
9.一种数据处理装置,其特征在于,包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现如权利要求1至6任一项所述数据处理方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有数据处理程序,所述数据处理程序被处理器执行时实现如权利要求1至6任一项所述数据处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110062458.XA CN112766462A (zh) | 2021-01-18 | 2021-01-18 | 数据处理方法、装置及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110062458.XA CN112766462A (zh) | 2021-01-18 | 2021-01-18 | 数据处理方法、装置及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112766462A true CN112766462A (zh) | 2021-05-07 |
Family
ID=75702744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110062458.XA Pending CN112766462A (zh) | 2021-01-18 | 2021-01-18 | 数据处理方法、装置及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112766462A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114494661A (zh) * | 2022-03-31 | 2022-05-13 | 清华大学 | 增量式稀疏三维卷积的三维点云数据处理方法及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109146060A (zh) * | 2018-08-09 | 2019-01-04 | 郑州云海信息技术有限公司 | 一种基于卷积神经网络处理数据的方法及装置 |
CN110135510A (zh) * | 2019-05-22 | 2019-08-16 | 电子科技大学中山学院 | 一种动态领域自适应方法、设备及计算机可读存储介质 |
CN110309837A (zh) * | 2019-07-05 | 2019-10-08 | 北京迈格威科技有限公司 | 基于卷积神经网络特征图的数据处理方法及图像处理方法 |
CN110874636A (zh) * | 2018-09-04 | 2020-03-10 | 杭州海康威视数字技术股份有限公司 | 一种神经网络模型压缩方法、装置和计算机设备 |
-
2021
- 2021-01-18 CN CN202110062458.XA patent/CN112766462A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109146060A (zh) * | 2018-08-09 | 2019-01-04 | 郑州云海信息技术有限公司 | 一种基于卷积神经网络处理数据的方法及装置 |
CN110874636A (zh) * | 2018-09-04 | 2020-03-10 | 杭州海康威视数字技术股份有限公司 | 一种神经网络模型压缩方法、装置和计算机设备 |
CN110135510A (zh) * | 2019-05-22 | 2019-08-16 | 电子科技大学中山学院 | 一种动态领域自适应方法、设备及计算机可读存储介质 |
CN110309837A (zh) * | 2019-07-05 | 2019-10-08 | 北京迈格威科技有限公司 | 基于卷积神经网络特征图的数据处理方法及图像处理方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114494661A (zh) * | 2022-03-31 | 2022-05-13 | 清华大学 | 增量式稀疏三维卷积的三维点云数据处理方法及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11875268B2 (en) | Object recognition with reduced neural network weight precision | |
US11593658B2 (en) | Processing method and device | |
EP3583553A1 (en) | Neural architecture search for convolutional neural networks | |
CN112001498A (zh) | 基于量子计算机的数据识别方法、装置及可读存储介质 | |
US11568212B2 (en) | Techniques for understanding how trained neural networks operate | |
Gural et al. | Memory-Optimal Direct Convolutions for Maximizing Classification Accuracy in Embedded Applications. | |
CN113449859A (zh) | 一种数据处理方法及其装置 | |
CN116721420B (zh) | 一种电气设备紫外图像的语义分割模型构建方法及系统 | |
CN111731326B (zh) | 避障策略确定方法、装置及存储介质 | |
CN111105017A (zh) | 神经网络量化方法、装置及电子设备 | |
US20180293486A1 (en) | Conditional graph execution based on prior simplified graph execution | |
US20230092453A1 (en) | Parameter updating method and apparatus and storage medium | |
CN114781650A (zh) | 一种数据处理方法、装置、设备以及存储介质 | |
CN113348472A (zh) | 具有软内核选择的卷积神经网络 | |
CN112766462A (zh) | 数据处理方法、装置及计算机可读存储介质 | |
WO2022018548A1 (en) | Online training of neural networks | |
CN117540807A (zh) | 一种模型权重参数存储方法、装置、设备及存储介质 | |
CN114792097B (zh) | 预训练模型提示向量的确定方法、装置及电子设备 | |
CN112580787B (zh) | 神经网络加速器的数据处理方法、装置、设备及存储介质 | |
CN110852361B (zh) | 基于改进深度神经网络的图像分类方法、装置与电子设备 | |
CN115687764A (zh) | 车辆轨迹评估模型的训练方法、车辆轨迹评估方法和装置 | |
CN114169923A (zh) | 光伏电站功率预测方法、系统、终端及存储介质 | |
CN114267422A (zh) | 地表水质参数预测方法、系统、计算机设备及存储介质 | |
CN115238873B (zh) | 神经网络模型部署方法、装置、计算机设备 | |
CN117762642B (zh) | 一种卷积神经网络模型的加载方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210507 |