CN116484904A - 一种基于人工智能深度学习的监管数据处理实现方法 - Google Patents
一种基于人工智能深度学习的监管数据处理实现方法 Download PDFInfo
- Publication number
- CN116484904A CN116484904A CN202310460632.5A CN202310460632A CN116484904A CN 116484904 A CN116484904 A CN 116484904A CN 202310460632 A CN202310460632 A CN 202310460632A CN 116484904 A CN116484904 A CN 116484904A
- Authority
- CN
- China
- Prior art keywords
- data
- deep learning
- training
- model
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 33
- 238000012545 processing Methods 0.000 title claims abstract description 32
- 238000013135 deep learning Methods 0.000 title claims abstract description 29
- 238000012549 training Methods 0.000 claims abstract description 81
- 238000013136 deep learning model Methods 0.000 claims abstract description 33
- 238000011156 evaluation Methods 0.000 claims abstract description 31
- 238000007781 pre-processing Methods 0.000 claims abstract description 17
- 238000003745 diagnosis Methods 0.000 claims abstract description 15
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 14
- 210000002569 neuron Anatomy 0.000 claims description 45
- 238000003062 neural network model Methods 0.000 claims description 39
- 230000006870 function Effects 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 18
- 230000004913 activation Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 238000003860 storage Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000004140 cleaning Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003924 mental process Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/061—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及人工智能技术领域,公开了一种基于人工智能深度学习的监管数据处理实现方法,包括:获取已使用的多方位的原始监管数据;将原始监管数据与其对应的结果数据组成一一对应关系,建立为训练数据库;构建深度学习模型,并对深度学习模型进行模型训练和模型评估;实时获取多方位的初始监管数据,并对初始监管数据进行数据预处理;输入训练完成的深度学习模型,得到预测数据或诊断数据或评估数据。本发明提供的基于人工智能深度学习的监管数据处理实现方法,在数据预处理的基础上,对监管数据建立了数据库,并建立深度学习网络模型,并通过反向传播算法进行网络模型训练,最终完成对深度学习网络的训练,以实现对监管数据的预期自动处理。
Description
技术领域
本发明涉及人工智能技术领域,特别涉及一种基于人工智能深度学习的监管数据处理实现方法。
背景技术
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,主要包括计算机实现智能的原理、制造类似于人脑智能的计算机,使计算机能实现更高层次的应用。人工智能将涉及到计算机科学、心理学、哲学和语言学等学科。可以说几乎是自然科学和社会科学的所有学科,其范围已远远超出了计算机科学的范畴,人工智能与思维科学的关系是实践和理论的关系,人工智能是处于思维科学的技术应用层次,是它的一个应用分支。从思维观点看,人工智能不仅限于逻辑思维,要考虑形象思维、灵感思维才能促进人工智能的突破性的发展,数学常被认为是多种学科的基础科学,数学也进入语言、思维领域,人工智能学科也必须借用数学工具,数学不仅在标准逻辑、模糊数学等范围发挥作用,数学进入人工智能学科,它们将互相促进而更快地发展。
随着网络科技的不断发展进步,大数据时代也逐渐到来,大数据在获取、存储、管理、分析方面大大超出了传统数据库软件工具能力范围的数据集合,具有海量的数据规模、快速的数据流转、多样的数据类型和价值密度低四大特征。传统的数据处理模式已经难以适应现有的大数据时代下的监管数据处理。由此设计一种结合有人工智能,进行监管数据自动处理的方法。
发明内容
本发明提供了一种基于人工智能深度学习的监管数据处理实现方法,在数据预处理的基础上,对采集的监管数据建立了数据库,并建立深度学习网络模型,并通过反向传播算法进行网络模型训练,最终完成对深度学习网络的训练,以实现对监管数据的预期自动处理。
本发明提供了一种基于人工智能深度学习的监管数据处理实现方法,包括:
获取已使用的多方位的原始监管数据;其中,所述原始监管数据的采集设备包括多个不同的传感器、监控摄像头;
将所述原始监管数据与其对应的结果数据组成一一对应关系,以形成多组训练数据,并建立为训练数据库;其中,所述结果数据包括预测数据、诊断数据、评估数据;
构建深度学习模型,并采用所述训练数据库中的多组训练数据对所述深度学习模型进行模型训练和模型评估;
实时获取多方位的初始监管数据,并对所述初始监管数据进行数据预处理;其中,所述数据预处理包括筛选、清洗、转换、修正;
将所述初始监管数据输入训练完成的所述深度学习模型,得到预测数据或诊断数据或评估数据,以进行初始监管数据的预测或诊断或评估。
进一步地,所述构建深度学习模型,并采用所述训练数据库中的多组训练数据对所述深度学习模型进行模型训练和模型评估的步骤,包括:
构建神经网络模型,并对所述神经网络模型进行反向传播算法训练;
对所述神经网络模型的网络参数进行微调;
对所述神经网络模型进行模型评估,得到训练完成的所述神经网络模型。
进一步地,所述构建神经网络模型,并对所述神经网络模型进行反向传播算法训练的步骤中,
所述神经网络模型包括输入层、隐藏层和输出层,所述隐藏层的数量为多层,所述神经网络模型由多个神经元连接而成;
设输入值集合为{xm},m为集合中数据的个数,神经元的输入为:
其中,Wi为第i个输入值的权值,b为偏置项,f(·)为激活函数,所述激活函数采用Sigmoid函数,其公式为:
第l层的第i个神经元的输入值加权和为:
其中,n为神经元数量,l为层数,为第l-1层第j个神经元到第l层第i个神经元之间的输出权值,/>为第l-1层的第j个神经元的输出值,/>为第l-1的第i个神经元的偏置项。
进一步地,所述深度学习模型的计算过程为:
由于是第l层的第i个神经元的输入值的加权和,/>在前向传播计算中,l+1层的输出值计算方式为:/>
进一步地,所述构建神经网络模型,并对所述神经网络模型进行反向传播算法训练的步骤中,反向传播算法训练包括:
初始化参数,并计算神经网络各层的激活值;
计算出期望误差e,并判断所述期望误差e是否小于δ;
若所述期望误差e小于δ,则输出训练模型;
若所述期望误差e大于等于δ,则更新各层参数,并更新各层激活值,返回所述计算出期望误差e,并判断所述期望误差e是否小于δ的步骤。
进一步地,所述计算出期望误差e,并判断所述期望误差e是否小于δ的步骤中,计算出期望误差e包括:
所述输出层直接计算输出与期望之间的误差e,所述隐藏层根据神经元残差的加权平均值进行计算;
所述神经网络各层输出值具体表示为:
计算各层神经元的残差为:
其中,x为输入集合,y为最后一层输出数据集合。
进一步地,对于神经网络的隐藏层,残差计算公式为:
表示输出层的残差,计算公式为:/>
本发明还提供了一种基于人工智能深度学习的监管数据处理实现装置,包括:
获取模块,用于获取已使用的多方位的原始监管数据;其中,所述原始监管数据的采集设备包括多个不同的传感器、监控摄像头;
形成模块,用于将所述原始监管数据与其对应的结果数据组成一一对应关系,以形成多组训练数据,并建立为训练数据库;其中,所述结果数据包括预测数据、诊断数据、评估数据;
构建模块,用于构建深度学习模型,并采用所述训练数据库中的多组训练数据对所述深度学习模型进行模型训练和模型评估;
处理模块,用于实时获取多方位的初始监管数据,并对所述初始监管数据进行数据预处理;其中,所述数据预处理包括筛选、清洗、转换、修正;
输入模块,用于将所述初始监管数据输入训练完成的所述深度学习模型,得到预测数据或诊断数据或评估数据,以进行初始监管数据的预测或诊断或评估。
本发明还提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述方法的步骤。
本发明的有益效果为:
本发明获取多方位的原始监管数据,与其对应的结果数据形成训练数据库;构建深度学习模型,采用训练数据库中的多组训练数据对进行模型训练和模型评估;实时获取多方位的初始监管数据,并进行数据预处理,输入训练完成的所述深度学习模型,得到预测数据或诊断数据或评估数据,以进行初始监管数据的预测或诊断或评估,实现对监管数据的预期自动处理。
附图说明
图1为本发明一实施例的方法流程示意图。
图2为本发明一实施例的装置结构示意图。
图3为本发明一实施例的计算机设备内部结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明提供了一种基于人工智能深度学习的监管数据处理实现方法,包括:
S1、获取已使用的多方位的原始监管数据;其中,所述原始监管数据的采集设备包括多个不同的传感器、监控摄像头;
S2、将所述原始监管数据与其对应的结果数据组成一一对应关系,以形成多组训练数据,并建立为训练数据库;其中,所述结果数据包括预测数据、诊断数据、评估数据;
S3、构建深度学习模型,并采用所述训练数据库中的多组训练数据对所述深度学习模型进行模型训练和模型评估;
步骤S3具体包括:
S31、构建神经网络模型,并对所述神经网络模型进行反向传播算法训练;
所述神经网络模型包括输入层、隐藏层和输出层,所述隐藏层的数量为多层,所述神经网络模型由多个神经元连接而成;隐藏层可以不值一层,深度学习网络模型的层数即为整个网络的深度。
设输入值集合为{xm},m为集合中数据的个数,神经元的个数与数据特征数量有关,神经元的输入为:
其中,Wi为第i个输入值的权值,b为偏置项,f(·)为激活函数,所述激活函数采用Sigmoid函数,其公式为:
第l层的第i个神经元的输入值加权和为:
其中,n为神经元数量,l为层数,为第l-1层第j个神经元到第l层第i个神经元之间的输出权值,/>为第l-1层的第j个神经元的输出值,/>为第l-1的第i个神经元的偏置项。
所述深度学习模型,即神经网络模型的计算过程为:
由于是第l层的第i个神经元的输入值的加权和,/>在前向传播计算中,l+1层的输出值计算方式为:/>
神经网络模型建立完成后,采用反向传播方法对模型进行训练,反向传播算法训练包括:
T1、初始化参数,并计算神经网络各层的激活值;
T2、计算出期望误差e,并判断所述期望误差e是否小于δ;
T3、若所述期望误差e小于δ,则输出训练模型;
T4、若所述期望误差e大于等于δ,则更新各层参数,并更新各层激活值,返回所述计算出期望误差e,并判断所述期望误差e是否小于δ的步骤。
计算出期望误差e包括:
所述输出层直接计算输出与期望之间的误差e,所述隐藏层根据神经元残差的加权平均值进行计算;
所述神经网络各层输出值具体表示为:
计算各层神经元的残差为:
其中,x为输入集合,y为最后一层输出数据集合。
对于神经网络的隐藏层,残差计算公式为:
表示输出层的残差,计算公式为:/>
深度学习网络的代价函数为:
其中,λ为代价函数矢量的特征值。
对深度学习网络进行训练,使整个网络代价函数最小,采用梯度下降迭代方法计算代价函数的偏导函数,并进行迭代,代价函数的整体偏导函数的向量表示方法为:
其中,与/>分别表示代价函数对于网络权值和偏置项的偏导数,其可定义为:
可根据偏导数进行迭代更新网络权重和偏置项:
其中,α表示调节系数,*表示迭代更新值。
通过多次迭代,更新网络连接权重和偏置项可以实现偏导数最小化,也即实现了训练之与期望值之间的最小化,完成深度学习网络,即神经网络模型的训练。
S32、对所述神经网络模型的网络参数进行微调;
S33、对所述神经网络模型进行模型评估,得到训练完成的所述神经网络模型。
S4、实时获取多方位的初始监管数据,并对所述初始监管数据进行数据预处理;其中,所述数据预处理包括筛选、清洗、转换、修正、归一化;其方式均为现有技术中能够实现的处理方式,在此不在赘述。
S5、将所述初始监管数据输入训练完成的所述深度学习模型,得到预测数据或诊断数据或评估数据,以进行初始监管数据的预测或诊断或评估。
本发明获取多方位的原始监管数据,与其对应的结果数据形成训练数据库;构建深度学习模型,采用训练数据库中的多组训练数据对进行模型训练和模型评估;实时获取多方位的初始监管数据,并进行数据预处理,输入训练完成的所述深度学习模型,得到预测数据或诊断数据或评估数据,以进行初始监管数据的预测或诊断或评估,实现对监管数据的预期自动处理。
如图2所示,本发明还提供了一种基于人工智能深度学习的监管数据处理实现装置,包括:
获取模块1,用于获取已使用的多方位的原始监管数据;其中,所述原始监管数据的采集设备包括多个不同的传感器、监控摄像头;
形成模块2,用于将所述原始监管数据与其对应的结果数据组成一一对应关系,以形成多组训练数据,并建立为训练数据库;其中,所述结果数据包括预测数据、诊断数据、评估数据;
构建模块3,用于构建深度学习模型,并采用所述训练数据库中的多组训练数据对所述深度学习模型进行模型训练和模型评估;
处理模块4,用于实时获取多方位的初始监管数据,并对所述初始监管数据进行数据预处理;其中,所述数据预处理包括筛选、清洗、转换、修正;
输入模块5,用于将所述初始监管数据输入训练完成的所述深度学习模型,得到预测数据或诊断数据或评估数据,以进行初始监管数据的预测或诊断或评估。
在一个实施例中,构建模块3,包括:
训练单元,用于构建神经网络模型,并对所述神经网络模型进行反向传播算法训练;
微调单元,用于对所述神经网络模型的网络参数进行微调;
评估单元,用于对所述神经网络模型进行模型评估,得到训练完成的所述神经网络模型。
在一个实施例中,训练单元中,
所述神经网络模型包括输入层、隐藏层和输出层,所述隐藏层的数量为多层,所述神经网络模型由多个神经元连接而成;
设输入值集合为{xm},m为集合中数据的个数,神经元的输入为:
其中,Wi为第i个输入值的权值,b为偏置项,f(·)为激活函数,所述激活函数采用Sigmoid函数,其公式为:
第l层的第i个神经元的输入值加权和为:
其中,n为神经元数量,l为层数,为第l-1层第j个神经元到第l层第i个神经元之间的输出权值,/>为第l-1层的第j个神经元的输出值,/>为第l-1的第i个神经元的偏置项。
在一个实施例中,训练单元中,所述深度学习模型的计算过程为:
由于是第l层的第i个神经元的输入值的加权和,/>在前向传播计算中,l+1层的输出值计算方式为:/>
在一个实施例中,训练单元中,反向传播算法训练包括:
第一计算子单元,用于初始化参数,并计算神经网络各层的激活值;
第二计算子单元,用于计算出期望误差e,并判断所述期望误差e是否小于δ;
输出子单元,用于在所述期望误差e小于δ时,输出训练模型;
更新子单元,用于在所述期望误差e大于等于δ时,更新各层参数,并更新各层激活值,返回所述计算出期望误差e,并判断所述期望误差e是否小于δ的步骤。
在一个实施例中,第二计算子单元中,计算出期望误差e包括:
所述输出层直接计算输出与期望之间的误差e,所述隐藏层根据神经元残差的加权平均值进行计算;
所述神经网络各层输出值具体表示为:
计算各层神经元的残差为:
其中,x为输入集合,y为最后一层输出数据集合。
在一个实施例中,第二计算子单元中,对于神经网络的隐藏层,残差计算公式为:
表示输出层的残差,计算公式为:/>
上述各模块、单元、子单元均是用于对应执行上述基于人工智能深度学习的监管数据处理实现方法中的各个步骤,其具体实现方式参照上述方法实施例所述,在此不再进行赘述。
如图3所示,本发明还提供了一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图3所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储基于人工智能深度学习的监管数据处理实现方法的过程需要的所有数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现基于人工智能深度学习的监管数据处理实现方法。
本领域技术人员可以理解,图3中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定。
本申请一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述任意一个基于人工智能深度学习的监管数据处理实现方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储与一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM通过多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其它变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其它要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种基于人工智能深度学习的监管数据处理实现方法,其特征在于,包括:
获取已使用的多方位的原始监管数据;其中,所述原始监管数据的采集设备包括多个不同的传感器、监控摄像头;
将所述原始监管数据与其对应的结果数据组成一一对应关系,以形成多组训练数据,并建立为训练数据库;其中,所述结果数据包括预测数据、诊断数据、评估数据;
构建深度学习模型,并采用所述训练数据库中的多组训练数据对所述深度学习模型进行模型训练和模型评估;
实时获取多方位的初始监管数据,并对所述初始监管数据进行数据预处理;其中,所述数据预处理包括筛选、清洗、转换、修正;
将所述初始监管数据输入训练完成的所述深度学习模型,得到预测数据或诊断数据或评估数据,以进行初始监管数据的预测或诊断或评估。
2.根据权利要求1所述的基于人工智能深度学习的监管数据处理实现方法,其特征在于,所述构建深度学习模型,并采用所述训练数据库中的多组训练数据对所述深度学习模型进行模型训练和模型评估的步骤,包括:
构建神经网络模型,并对所述神经网络模型进行反向传播算法训练;
对所述神经网络模型的网络参数进行微调;
对所述神经网络模型进行模型评估,得到训练完成的所述神经网络模型。
3.根据权利要求2所述的基于人工智能深度学习的监管数据处理实现方法,其特征在于,所述构建神经网络模型,并对所述神经网络模型进行反向传播算法训练的步骤中,
所述神经网络模型包括输入层、隐藏层和输出层,所述隐藏层的数量为多层,所述神经网络模型由多个神经元连接而成;
设输入值集合为{xm},m为集合中数据的个数,神经元的输入为:
其中,Wi为第i个输入值的权值,b为偏置项,f(·)为激活函数,所述激活函数采用Sigmoid函数,其公式为:
第l层的第i个神经元的输入值加权和为:
其中,n为神经元数量,l为层数,为第l-1层第j个神经元到第l层第i个神经元之间的输出权值,/>为第l-1层的第j个神经元的输出值,/>为第l-1的第i个神经元的偏置项。
4.根据权利要求3所述的基于人工智能深度学习的监管数据处理实现方法,其特征在于,所述深度学习模型的计算过程为:
由于是第l层的第i个神经元的输入值的加权和,/>在前向传播计算中,l+1层的输出值计算方式为:/>
5.根据权利要求4所述的基于人工智能深度学习的监管数据处理实现方法,其特征在于,所述构建神经网络模型,并对所述神经网络模型进行反向传播算法训练的步骤中,反向传播算法训练包括:
初始化参数,并计算神经网络各层的激活值;
计算出期望误差e,并判断所述期望误差e是否小于δ;
若所述期望误差e小于δ,则输出训练模型;
若所述期望误差e大于等于δ,则更新各层参数,并更新各层激活值,返回所述计算出期望误差e,并判断所述期望误差e是否小于δ的步骤。
6.根据权利要求5所述的基于人工智能深度学习的监管数据处理实现方法,其特征在于,所述计算出期望误差e,并判断所述期望误差e是否小于δ的步骤中,计算出期望误差e包括:
所述输出层直接计算输出与期望之间的误差e,所述隐藏层根据神经元残差的加权平均值进行计算;
所述神经网络各层输出值具体表示为:
计算各层神经元的残差为:
其中,x为输入集合,y为最后一层输出数据集合。
7.根据权利要求6所述的基于人工智能深度学习的监管数据处理实现方法,其特征在于,对于神经网络的隐藏层,残差计算公式为:
表示输出层的残差,计算公式为:/>
8.一种基于人工智能深度学习的监管数据处理实现装置,其特征在于,包括:
获取模块,用于获取已使用的多方位的原始监管数据;其中,所述原始监管数据的采集设备包括多个不同的传感器、监控摄像头;
形成模块,用于将所述原始监管数据与其对应的结果数据组成一一对应关系,以形成多组训练数据,并建立为训练数据库;其中,所述结果数据包括预测数据、诊断数据、评估数据;
构建模块,用于构建深度学习模型,并采用所述训练数据库中的多组训练数据对所述深度学习模型进行模型训练和模型评估;
处理模块,用于实时获取多方位的初始监管数据,并对所述初始监管数据进行数据预处理;其中,所述数据预处理包括筛选、清洗、转换、修正;
输入模块,用于将所述初始监管数据输入训练完成的所述深度学习模型,得到预测数据或诊断数据或评估数据,以进行初始监管数据的预测或诊断或评估。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310460632.5A CN116484904A (zh) | 2023-04-26 | 2023-04-26 | 一种基于人工智能深度学习的监管数据处理实现方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310460632.5A CN116484904A (zh) | 2023-04-26 | 2023-04-26 | 一种基于人工智能深度学习的监管数据处理实现方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116484904A true CN116484904A (zh) | 2023-07-25 |
Family
ID=87221068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310460632.5A Withdrawn CN116484904A (zh) | 2023-04-26 | 2023-04-26 | 一种基于人工智能深度学习的监管数据处理实现方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116484904A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117688309A (zh) * | 2024-01-29 | 2024-03-12 | 江苏上达半导体有限公司 | 基于人工智能的半导体制作监管方法及系统 |
-
2023
- 2023-04-26 CN CN202310460632.5A patent/CN116484904A/zh not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117688309A (zh) * | 2024-01-29 | 2024-03-12 | 江苏上达半导体有限公司 | 基于人工智能的半导体制作监管方法及系统 |
CN117688309B (zh) * | 2024-01-29 | 2024-05-17 | 江苏上达半导体有限公司 | 基于人工智能的半导体制作监管方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Malekian et al. | Concepts, procedures, and applications of artificial neural network models in streamflow forecasting | |
Zeng et al. | Adaptive deep neural networks methods for high-dimensional partial differential equations | |
Suliman et al. | A review on back-propagation neural networks in the application of remote sensing image classification | |
CN107688871B (zh) | 一种水质预测方法和装置 | |
Do Koo et al. | Nuclear reactor vessel water level prediction during severe accidents using deep neural networks | |
Kamarthi et al. | Neuroform—neural network system for vertical formwork selection | |
CN110622182A (zh) | 基于多时序属性元素深度特征的小麦重度病害预测方法 | |
CN109977098A (zh) | 非平稳时序数据预测方法、系统、存储介质及计算机设备 | |
KR102577188B1 (ko) | 목표 시스템에 대한 제어 시스템 생성 | |
CN112182384A (zh) | 基于对抗学习的内容推荐方法、装置和计算机设备 | |
CN113673698A (zh) | 适用于bert模型的蒸馏方法、装置、设备及存储介质 | |
CN109064460B (zh) | 基于多时序属性元素深度特征的小麦重度病害预测方法 | |
WO2020171904A1 (en) | Human body part segmentation with real and synthetic images | |
CN117172355A (zh) | 融合时空粒度上下文神经网络的海表温度预测方法 | |
CN113592144A (zh) | 一种中长期径流概率预报方法及系统 | |
CN112926052B (zh) | 基于遗传算法的深度学习模型安全漏洞测试和修复方法、装置和系统 | |
CN114139783A (zh) | 基于非线性加权组合的风电短期功率预测方法及装置 | |
CN116484904A (zh) | 一种基于人工智能深度学习的监管数据处理实现方法 | |
WO2024021368A1 (zh) | 基于惩罚正则项的受限玻尔兹曼机的预测药物副作用方法 | |
Liu et al. | Solving differential equation with constrained multilayer feedforward network | |
Kulikova et al. | Data-driven parameter estimation in stochastic dynamic neural fields by state-space approach and continuous-discrete extended Kalman filtering | |
US11003909B2 (en) | Neural network trained by homographic augmentation | |
CN118918986A (zh) | 氨氮浓度预测模型的构建方法及系统、氨氮浓度预测方法及系统 | |
Bellamine et al. | Modeling of complex dynamic systems using differential neural networks with the incorporation of a priori knowledge | |
CN112651168B (zh) | 基于改进神经网络算法的建设用地面积预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20230725 |