CN111401138B - 生成对抗神经网络训练过程的对抗优化方法 - Google Patents
生成对抗神经网络训练过程的对抗优化方法 Download PDFInfo
- Publication number
- CN111401138B CN111401138B CN202010113638.1A CN202010113638A CN111401138B CN 111401138 B CN111401138 B CN 111401138B CN 202010113638 A CN202010113638 A CN 202010113638A CN 111401138 B CN111401138 B CN 111401138B
- Authority
- CN
- China
- Prior art keywords
- network
- generator
- data
- training
- defending
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 44
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 26
- 230000008569 process Effects 0.000 title claims abstract description 14
- 238000005457 optimization Methods 0.000 title claims abstract description 10
- 238000013507 mapping Methods 0.000 claims abstract description 20
- 230000005540 biological transmission Effects 0.000 claims abstract description 15
- 230000003042 antagnostic effect Effects 0.000 claims description 10
- 230000008485 antagonism Effects 0.000 claims description 8
- 238000007476 Maximum Likelihood Methods 0.000 claims description 4
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 abstract description 11
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 abstract description 11
- MQHWFIOJQSCFNM-UHFFFAOYSA-L Magnesium salicylate Chemical compound [Mg+2].OC1=CC=CC=C1C([O-])=O.OC1=CC=CC=C1C([O-])=O MQHWFIOJQSCFNM-UHFFFAOYSA-L 0.000 abstract description 8
- 230000006870 function Effects 0.000 description 27
- 238000013135 deep learning Methods 0.000 description 5
- 230000007123 defense Effects 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 229920000433 Lyocell Polymers 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000005381 potential energy Methods 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
- G06F17/13—Differential equations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Operations Research (AREA)
- Algebra (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
Abstract
本发明涉及一种生成对抗神经网络训练过程的对抗优化方法,生成对抗神经网络训练过程的对抗优化方法,在生成器G中,将最优传输问题转换为求解椭圆型Monge‑Ampere偏微分方程(MAPDE),为了求解n(n>3)维的MAPDE,改进了Neumann边界条件并扩展了MAPDE的离散化以获得生成器和鉴别器之间的最优映射,构成对抗网络MAGAN。在训练防御网络的过程中,通过克服最优映射的损失函数,防御网络能获得两个测度之间的最大距离,得到过滤后的安全样本。成功建立GANs的有效攻击方法,精度提高了5.3%。此外,MAGAN能够稳定训练而无需调整超参数,就很好提高无人驾驶目标分类与识别系统准确率。
Description
技术领域
本发明涉及一种图像处理技术,特别涉及一种生成对抗神经网络训练过程的对抗优化方法。
背景技术
近几年,作为人工智能的核心技术,深度学习在图像、语音、自然语言处理等领域取得了大量关键性突破,已经提出了多种不同的生成对抗性示例的方法来进行攻击深度神经网络。这些方法涉及直接计算渐变图像像素,或者直接求解图像像素的优化。
随着深度学习的不断发展,越来越多的领域都采用深度学习来代替传统的智能算法。但是部分领域如金融、无人驾驶等等,都需要高精准度、低风险,必须具体很高的安全性,尤其是自动驾驶。因此不能忽略对抗样本对于网络模型的影响。在深度学习网络中,对抗样本会通过细微的噪声对最终的学习模型造成影响。并且攻击者采用的对抗样本是人类无法用感官进行判断的,因此只能通过神经网络自身进行判断和防御。一个典型的场景就是图像分类模型的对抗样本,通过在图片上叠加精心构造的变化量,在肉眼难以察觉的情况下,让分类模型产生误判。
从原理上,对抗样本针对指定的样本计算出一个变化量。深度学习模型通过在样本上训练,学习出高维空间中的分割平面,在分割平面的不同测就是作为不同的分类判别结果,如图1所示。
经过一次或者多次的微小量偏移人类的感觉无法辨识,但是却可以让该样本跨越深度学习结果空间中的分割平面,导致机器学习模型的判定结果改变,如图2所示。
到目前为止,这些优化问题已经使用三种广泛的方法解决:
(1)通过直接使用L-BFGS或Adam(Kingma&Ba,2015)等优化器,如Szegedy(2013年)和Carlini&Wagner(2016年),这种基于优化器的方法往往比其他方法更慢,更强大。
(2)通过基于单步梯度的技术近似,如快速梯度符号(Goodfellow等,2014b)或最不可能的类(Kurakin等,2016a)。这些方法很快,仅需要单个前向和后向通过目标分类器来计算扰动。
(3)通过基于梯度技术的迭代变体的近似(Kurakin等,2016a;MoosaviDezfooli等,2016a;b)。这些方法使用多个前向和后向通过目标网络来更仔细地将输入移向对抗分类。
目前对抗样本主要通过梯度攻击和编码器攻击。其中,通过神经网络的编码器生成出的攻击样本要优于梯度攻击的方式。尤其在2017年以后,随着GAN对抗神经网络的发展,GAN逐渐成为主要的生成网络工具。因此,2018至2019年逐渐出现基于GAN的攻击样本模型,然而因为GAN的不稳定性导致他们的模型鲁棒性太差。所以本文基于最优传输理论,通过在两个测度的最优映射来解决GAN的收敛问题。
GAN是生成模型包含两个网络(生成器网络和鉴别器网络)。在给定噪声源,生成器网络生成合成数据,而鉴别器网络则将生成数据与真实数据区分开。但是GAN会受到训练不稳定的影响,有关GAN训练的最新工作大多致力于寻找稳定训练的方法,现在常用方法依赖于对修改极其敏感的启发式方法,很少从网络内部根源去解释此新的对抗神经网络训练的不稳定行为。这样极大地限制了GAN在图像处理运用的适用性。
发明内容
本发明是针对攻击和防御所用对抗神经网络(GANs)训练的收敛很不稳定的问题,提出了一种生成对抗神经网络训练过程的对抗优化方法,在生成器G中,将最优传输问题转换为求解椭圆型Monge-Ampere偏微分方程(MAPDE),为了求解n(n>3)维的MAPDE,改进了Neumann边界条件并扩展了MAPDE的离散化以获得生成器和鉴别器之间的最优映射,构成对抗网络MAGAN。在训练防御网络的过程中,通过克服最优映射的损失函数,防御网络能获得两个测度之间的最大距离,得到过滤后的安全样本。MAPDE的解可以构成新的判别分布函数,从而代替WGAN的Wasserstein距离。
本发明的技术方案为:一种生成对抗神经网络训练过程的对抗优化方法,具体包括如下步骤:
1)将图像数据训练集和随机噪声送入对抗神经网络中生成器,生成器输出的生成数据作为攻击样本和图像数据的真实数据成为两个数据集X和Y,两个数据集输入到生成器中的判别器D中,计算X的概率密度ρX和Y的概率密度ρY,求解真实数据和生成数据概率密度的最大似然估计最大值,计算真实数据和生成数据的测度,从而求解椭圆型Monge-Ampere偏微分方程的数值解,得到真实数据分布和生成数据分布之间的最佳映射,通过计算生成器的损失函数,对生成器进行训练,在生成器中构成攻击网络,最终得到攻击样本与真实数据的最优映射U,完成攻击网络训练;
2)将步骤1)训练后的判别器D加入对抗神经网络中防御网络,将图像数据训练集和随机噪声送入对抗神经网络中生成器,生成器输出数据作为防御网络的输入数据,通过蒙日安培方程的解和最优传输理论得到的防御网络损失函数来训练防御网路,在训练防御网络的过程中,通过克服最优映射的损失函数,防御网络能获得两个测度之间的最大距离,最终通过迭代训练可以得到防御网络的输出值,即得到过滤后的安全样本。
所述生成器的损失函数为:
其中x,y对应集合X和Y内的点;Ex~Px为真实数据概率分布的期望;Ey~Py为攻击样本数据概率分布的期望;/>为Licpschiz连续数据的期望;Dw为带有权重的判别器网络;D为判别器网络;G为生成器网络;λ为惩罚系数,是训练网络设置的超参数,E为期望;
防御网络的损失函数为:
m为网络每个维度内离散点数。
本发明的有益效果在于:本发明生成对抗神经网络训练过程的对抗优化方法,成功建立GANs的有效攻击方法,并且提供了几个计算算子,以证明精度提高了5.3%。此外,MAGAN能够稳定训练而无需调整超参数,并且在LSUN Bedrooms数据库中,MAGAN的收敛速度比WGAN-GP快317.2%。MAGAN在CIFAR-10数据集上的IS值也达到8.7,提高了无人驾驶目标分类与识别系统的准确率。
附图说明
图1为神经网络分类分割平面示意图
图2为攻击样本跨域分割平面示意图;
图3为MAPDE的数值初始解的分布示意图;
图4为MAPDE的Neumann边界条件下,单位向内法向量示意图;
图5为本发明改进后对抗神经网络的框架结构图;
图6为本发明生成对抗样本和防御网络的结构图;
图7为本发明无人驾驶目标分类与识别系统的神经网络进行攻击和防御流程图。
具体实施方式
为了辅助和实现无人驾驶,神经网络对于图像识别和分类实现了无人驾驶目标分类与识别系统的算法识别部分。主流的图像处理和目标识别主要采用卷积神经网络(CNN),在真实数据和生成数据的空间中存在欠拟合的情况。因此,有研究提出攻击和防御的算法增强神经网络的鲁棒性,然而对于黑盒攻击和防御的效果不佳。
为了解决这个问题,寻找一个区域到自身的同胚映射,满足两个条件:保持测度和极小化传输代价。保持测度对于一切波莱尔集(Ω为有限开集合),映射T将概率分布μ映射成概率分布v,记作T*μ=v。最优传输映射T:Ω→Ω的传输代价定义为:
I[s]=∫Xc(x,s(x))dx (1)
其中I为映射代价函数;c(x,y)为x映射到y的距离;x,y属于集合内的点。
在这种情形下,Brenier证明存在一个凸函数u:Ω→R(R为全部实数集合),其梯度映射就是唯一的最优传输映射。这个凸函数被称为是Brenier势能函数(Brenier potential)。由Jacobian方程得到Brenier势满足蒙日-安培方程式(2),梯度映射的雅克比矩阵是Brenier势能函数的海森矩阵(HessianMatrix),
其中D是偏导;det是行列式;ρ为测度;X、Y分别为x、y的全集。
根据Kantorovich定理,WGAN将原始函数转换为对偶问题。然而,对偶问题的约束条件很难实现,因此有时WGAN仍然会产生不好的样本或者甚至不能收敛。因此,Kantorovich的方法不是一个很好的选择。这促使需要更复杂的方法,以便有效地计算最优映射。选择Brenier的方法来获得实际数据分布和生成分布之间的最佳映射。在传输代价为差平方的情况下,问题可以转化为求解蒙日-安培方程。蒙日-安培方程可以完全避免Lipschitz约束的问题。对于最优传输问题,蒙日-安培方程的解决方案比Kantorovich的方法(WGAN-GP)具有更高的准确性。
在凸集之间的最优传输问题中,传输条件(BC)也称为第二边界值问题为第二类边界条件。该边界条件可以通过边界节点映射到集合X中,和边界节点映射到集合Y中,鉴于运输边界条件中出现的梯度,希望找到Neumann边界条件:
根据式(5),定义了边界法向量n,边界法向量n中有n个维度对应的法向量分量为n1、n2、...、nn,其中向量n垂直于点x(x属于X集合中的点,因为X集合有边界,边界上的未指定的点x也是在X集合中。所以公式5就是符合条件的边界条件,定义域还是X,x只是符合条件内的点。),是X集合的边界,δx是关于x求偏导数。φ是法向量计算函数,通过式(7)计算。公式7中的每一个维度对应的法向量分量n将乘以对应维度下u的偏导数,即函数u的每一维度向前移动一个单位步长和中心数值的差值。
x是n维的,所以下标有n个,即i1、i2、i3、…、in共n个,代表不同维度。因为数值解需要离散化,在每个维度内,又有m个离散点,即i={1,2,3,…,m}。五步法计算差分需要用到前后点,即i+1和i。假设在维度1上,那么前后点下标就是i1,(i+1)1,即/>和规律:第一项u内的x下标,依次按维度往后取下一个单位步长i+1。
用这个更新的边界条件再次求解蒙日-安培方程,以获得新的数值解。其中uk+1是k+1时间迭代的解。因为它是单调的,该方案仅依赖于正方形内的值。当MAPDE的维数大于2时,边界周围有很多节点直接影响解的值,如图3所示。这将花费更多的计算时间,因此应该更加注意边界,并将这些单调法的上限用于所有可接受的范围,以确保获得高度准确的数值解。保留了该方法的单调性。首先,在方形区域的另一边设定边界。然后,在拐角处,采用倾斜约束的形式限制其他维度的求导方向。并且将允许的方向限制到单个象限,这确保了所需信息将继续保留在正方形区域内。接下来,按照向内的方向来获得新的近似值。最后如图4所示,重复上述步骤,直到得到一个合适的边界,这相当于在这些点上考虑所有支撑超平面。
本发明定义了几个有限差分算子,采用这些算子逼近使用中心差值的第一阶和第二阶偏导数。通过中心差异对该等式进行标准离散化:
MA为离散的解蒙日-安培方程(Monge-Ampere PDE);D为偏导;f,g是测度。u为解蒙日-安培方程的离散数值解。
其中有限差分算子为:
还将沿着这些方向进一步计算有限差分算子:
离散化的结果是MA计算算子的变分形式,将在此表达式中添加一个附加项,以进一步惩罚非凸性:
基于牛顿迭代,需要计算所有节点的偏导数。但是,当维度大于3时,很难获得高维度的所有偏导。虽然可以通过设置步骤h来离散MAPDE的解,但是高维也会导致网格中的节点难以定义节点的前后关系。可以发现每个维度中相关节点大部分都是它的前向节点和后向节点。并且不同维度中的中心差分的节点是同一个节点。因此,建议采用周围的梯度来代替整体梯度,以加速高维收敛。
可以得到MAPDE在Neumann边界条件下的迭代表达式和在求解方程开始时的初始化表达式:
可以求解MAPDE以获得实际数据分布和生成分布之间的最佳映射u(x)。然后按照下式,可以得到OT问题的成本函数,它可以训练生成器如何有效地生成真实数据。公式14是求解真实数据和生成数据的最大似然估计,通过MLE求解公式15的最大值,从而确定真实数据和生成数据的分布。
通过求解蒙日安培获得最佳映射u(x)如图5虚线矩形所示。
将图像数据训练集和随机噪声送入生成器,生成器输出数据作为攻击样本和真实图像数据,对应得到两个数据集X和Y进入虚线矩形构成的全新的判别器D。全新的判别器D将真实数据的测度与生成数据的测度进行区分,在训练的过程中,生成器G不断地对抗判别器D,从而进行有效的攻击。通过求解蒙日安培方程获得最佳映射u(x),通过图5中训练后的生成器G来实现生成攻击对抗样本。也就是生成器内部构成攻击网络。在训练图5所示判别器D的过程中,会求解式16生成器的损失函数的上界;反之,在训练图5所示生成器G的过程中,会求式16生成器的损失函数的下界,最终得到良好的对抗效果。Monge-Kantorovich传输问题的损失函数作为新的散度来代替WGAN的Wasserstein距离。
在训练开始时,只使用图像数据的真实数据来获得X的概率密度PX。攻击样本Y的概率密度ρY,令生成分布Pg=真实数据分布Pr生成数据,因为MAPDE的解导致Pg趋向于Pr。然后可以根据Neumann边界条件使用Pr和Pg,通过公式(13)计算合适的边界。接下来,使用有限差分法(FDM)获得方程组F[u]=0,并通过牛顿迭代法求解该方程组。
实现步骤如下:
步骤一、计算X的概率密度ρX和Y的概率密度ρY
步骤二、求解真实数据和生成数据的最大似然估计最大值;
步骤三、计算真实数据和生成数据的测度;
步骤四、计算MAPDE的第一类型边界;
步骤五、计算真实数据分布Pr和生成分布Pg之间的最佳u(x);
步骤六、迭代梯度值;
步骤七、计算损失函数;
循环上述步骤直到代价函数收敛。
通过MAGAN采用此网络应用于对抗样本生成网络中。如图5所示,通过MAGAN良好的鲁棒性从而更加高效实现黑盒攻击和白盒攻击,组成攻击网络。为了能更好的防御对抗样本的攻击,将生成器G产生的攻击样本来训练防御网络,并且通过蒙日-安培方程的解来进行强化鲁棒性如图6所示。图6中的判别器D对应图5中的虚线框内的结构,其包含了偏微分方程的数值解。当判别器训练后应用到图6的下方判别器网络中,将过滤后的样本进行训练防御网络。将生成器G的样本作为防御网络的输入数据,由于输入的训练数据具备黑盒和白盒攻击的强鲁棒性,所以通过防御网络的损失函数,对输入数据进行逻辑回归计算交叉熵,将真实数据和人造假数据区分开,实现隔离效果,起到良好的防御效果。
其中对于生成器的损失函数为:
其中x,y对应集合X和Y内的点;Ex~Px为真实数据概率分布的期望;Ey~Py为攻击样本数据概率分布的期望;为Licpschiz连续数据的期望;Dw为带有权重的判别器网络;D为判别器网络;G为生成器网络;λ为惩罚系数,是训练网络设置的超参数,E为期望;
防御网络的损失函数为:
当训练好图5中的攻击网络后,通过添加目标攻击网络来实现图6中的防御网络,如图7所示。在图7右框中,通过设定生成器的损失函数,生成器G可以学习到攻击样本的测度从而计算出最优映射U。随后生成器可以根据输入数据和随机噪声得到目标网络的攻击样本,从而进行有效的攻击。目标网络是指需要攻击的网络,即别人训练好的已知网络。在图7左框中,将生成器G的输出数据作为防御网络的输入数据,通过右框根据蒙日安培方程的解和最优传输理论得到的损失函数,公式17来训练防御网络。公式16是生成器网络,当防御网络训练时,生成器的损失函数并不参与训练。在训练防御网络的过程中,通过克服最优映射的损失函数,防御网络能获得两个测度之间的最大距离。最终通过迭代训练可以得到防御网络的输出值,可以很好的帮助无人驾驶目标分类与识别系统判断攻击样本。
Claims (2)
1.一种生成对抗神经网络训练过程的对抗优化方法,其特征在于,具体包括如下步骤:
1)将图像数据训练集和随机噪声送入对抗神经网络中生成器,生成器输出的生成数据作为攻击样本和图像数据的真实数据成为两个数据集X和Y,两个数据集输入到生成器中的判别器D中,计算X的概率密度ρX和Y的概率密度ρY,求解真实数据和生成数据概率密度的最大似然估计最大值,计算真实数据和生成数据的测度,从而求解椭圆型Monge-Ampere偏微分方程的数值解,得到真实数据分布和生成数据分布之间的最佳映射,通过计算生成器的损失函数,对生成器进行训练,在生成器中构成攻击网络,最终得到攻击样本与真实数据的最优映射U,完成攻击网络训练;
2)将步骤1)训练后的判别器D加入对抗神经网络中防御网络,将图像数据训练集和随机噪声送入对抗神经网络中生成器,生成器输出数据作为防御网络的输入数据,通过蒙日安培方程的解和最优传输理论得到的防御网络损失函数来训练防御网路,在训练防御网络的过程中,通过克服最优映射的损失函数,防御网络能获得两个测度之间的最大距离,最终通过迭代训练可以得到防御网络的输出值,即得到过滤后的安全样本。
2.根据权利要求1所述生成对抗神经网络训练过程的对抗优化方法,其特征在于,所述生成器的损失函数为:
其中x,y对应集合X和Y内的点;Ex~Px为真实数据概率分布的期望;Ey~Py为攻击样本数据概率分布的期望;为Licpschiz连续数据的期望;Dw为带有权重的判别器网络;D为判别器网络;G为生成器网络;λ为惩罚系数,是训练网络设置的超参数,E为期望;
防御网络的损失函数为:
m为网络每个维度内离散点数。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010113638.1A CN111401138B (zh) | 2020-02-24 | 2020-02-24 | 生成对抗神经网络训练过程的对抗优化方法 |
US17/288,566 US11315343B1 (en) | 2020-02-24 | 2020-09-29 | Adversarial optimization method for training process of generative adversarial network |
PCT/CN2020/118698 WO2021169292A1 (zh) | 2020-02-24 | 2020-09-29 | 生成对抗神经网络训练过程的对抗优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010113638.1A CN111401138B (zh) | 2020-02-24 | 2020-02-24 | 生成对抗神经网络训练过程的对抗优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111401138A CN111401138A (zh) | 2020-07-10 |
CN111401138B true CN111401138B (zh) | 2023-11-07 |
Family
ID=71430417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010113638.1A Active CN111401138B (zh) | 2020-02-24 | 2020-02-24 | 生成对抗神经网络训练过程的对抗优化方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11315343B1 (zh) |
CN (1) | CN111401138B (zh) |
WO (1) | WO2021169292A1 (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401138B (zh) * | 2020-02-24 | 2023-11-07 | 上海理工大学 | 生成对抗神经网络训练过程的对抗优化方法 |
CN112801297B (zh) * | 2021-01-20 | 2021-11-16 | 哈尔滨工业大学 | 一种基于条件变分自编码器的机器学习模型对抗性样本生成方法 |
US11763135B2 (en) * | 2021-03-01 | 2023-09-19 | Robert Bosch Gmbh | Concept-based adversarial generation method with steerable and diverse semantics |
CN112989359B (zh) * | 2021-03-17 | 2022-06-14 | 华南理工大学 | 针对基于三元组损失的行人重识别模型的后门攻击方法 |
CN113395653A (zh) * | 2021-06-08 | 2021-09-14 | 南京工业大学 | 基于DC-CGAN的指纹定位Radio Map扩充方法 |
CN113947704A (zh) * | 2021-10-09 | 2022-01-18 | 北京建筑大学 | 基于注意力排序的对抗样本防御系统及方法 |
CN114219778B (zh) * | 2021-12-07 | 2024-04-02 | 北京工业大学 | 一种基于wgan-gp数据生成与泊松融合的数据深度增强方法 |
CN114154250B (zh) * | 2021-12-20 | 2024-06-14 | 北京航空航天大学 | 一种基于dccgan的高超声速飞行器流热固耦合物理场求解方法 |
CN114117333B (zh) * | 2022-01-20 | 2022-05-17 | 南湖实验室 | 用于异常检测的对抗重构网络设计、训练方法及检测方法 |
CN114969785B (zh) * | 2022-05-27 | 2024-06-18 | 哈尔滨工业大学(深圳) | 一种基于可逆神经网络的无载体图像隐写方法 |
CN115047721B (zh) * | 2022-05-31 | 2024-07-23 | 广东工业大学 | 一种使用循环一致对抗网络快速计算掩模近场的方法 |
CN114708974A (zh) * | 2022-06-06 | 2022-07-05 | 首都医科大学附属北京友谊医院 | 对新冠肺炎患者的住院时长进行预测的方法和相关产品 |
CN115276766B (zh) * | 2022-07-19 | 2024-05-31 | 西安电子科技大学 | 协作无人机(uav)辅助干扰功率与轨迹联合的优化方法 |
CN115984792B (zh) * | 2022-09-30 | 2024-04-30 | 北京瑞莱智慧科技有限公司 | 一种对抗测试方法、系统及存储介质 |
US11895344B1 (en) | 2022-12-09 | 2024-02-06 | International Business Machines Corporation | Distribution of media content enhancement with generative adversarial network migration |
CN116071797B (zh) * | 2022-12-29 | 2023-09-26 | 北华航天工业学院 | 一种基于自编码器的稀疏人脸比对对抗样本生成方法 |
CN116545767B (zh) * | 2023-06-27 | 2024-01-09 | 北京天云海数技术有限公司 | 一种基于生成对抗网络的xss攻击载荷自动生成方法及系统 |
CN117012204B (zh) * | 2023-07-25 | 2024-04-09 | 贵州师范大学 | 一种针对说话人识别系统对抗样本的防御方法 |
CN117669651B (zh) * | 2024-01-31 | 2024-05-14 | 山东省计算中心(国家超级计算济南中心) | 基于arma模型的对抗样本黑盒攻击防御方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108711138A (zh) * | 2018-06-06 | 2018-10-26 | 北京印刷学院 | 一种基于生成对抗网络的灰度图片彩色化方法 |
CN109389166A (zh) * | 2018-09-29 | 2019-02-26 | 聚时科技(上海)有限公司 | 基于局部结构保存的深度迁移嵌入聚类机器学习方法 |
CN110222628A (zh) * | 2019-06-03 | 2019-09-10 | 电子科技大学 | 一种基于生成式对抗网络的人脸修复方法 |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110059793B (zh) * | 2017-10-26 | 2024-01-26 | 辉达公司 | 生成式对抗神经网络的逐步修改 |
US20190147343A1 (en) | 2017-11-15 | 2019-05-16 | International Business Machines Corporation | Unsupervised anomaly detection using generative adversarial networks |
US11137761B2 (en) * | 2017-11-20 | 2021-10-05 | At&T Intellectual Property I, L.P. | Object modeling with adversarial learning |
US10592779B2 (en) * | 2017-12-21 | 2020-03-17 | International Business Machines Corporation | Generative adversarial network medical image generation for training of a classifier |
US10832092B2 (en) * | 2018-02-07 | 2020-11-10 | Applied Materials Israel Ltd. | Method of generating a training set usable for examination of a semiconductor specimen and system thereof |
US10970765B2 (en) * | 2018-02-15 | 2021-04-06 | Adobe Inc. | Generating user-customized items using a visually-aware image generation network |
US11069030B2 (en) * | 2018-03-22 | 2021-07-20 | Adobe, Inc. | Aesthetics-guided image enhancement |
US10810754B2 (en) * | 2018-04-24 | 2020-10-20 | Ford Global Technologies, Llc | Simultaneous localization and mapping constraints in generative adversarial networks for monocular depth estimation |
GB201809604D0 (en) * | 2018-06-12 | 2018-07-25 | Tom Tom Global Content B V | Generative adversarial networks for image segmentation |
CN109584178A (zh) * | 2018-11-29 | 2019-04-05 | 腾讯科技(深圳)有限公司 | 图像修复方法、装置和存储介质 |
US11087170B2 (en) * | 2018-12-03 | 2021-08-10 | Advanced Micro Devices, Inc. | Deliberate conditional poison training for generative models |
KR20200075344A (ko) * | 2018-12-18 | 2020-06-26 | 삼성전자주식회사 | 검출기, 객체 검출 방법, 학습기 및 도메인 변환을 위한 학습 방법 |
KR20200093910A (ko) * | 2019-01-29 | 2020-08-06 | 삼성전자주식회사 | 원본 데이터와 연관된 데이터를 제공하기 위한 방법, 이를 위한 전자 장치 및 저장 매체 |
JP7268367B2 (ja) * | 2019-01-30 | 2023-05-08 | 富士通株式会社 | 学習装置、学習方法および学習プログラム |
US11024013B2 (en) * | 2019-03-08 | 2021-06-01 | International Business Machines Corporation | Neural network based enhancement of intensity images |
CN109919251B (zh) * | 2019-03-21 | 2024-08-09 | 腾讯科技(深圳)有限公司 | 一种基于图像的目标检测方法、模型训练的方法及装置 |
US11120526B1 (en) * | 2019-04-05 | 2021-09-14 | Snap Inc. | Deep feature generative adversarial neural networks |
KR20200132665A (ko) * | 2019-05-17 | 2020-11-25 | 삼성전자주식회사 | 집중 레이어를 포함하는 생성기를 기반으로 예측 이미지를 생성하는 장치 및 그 제어 방법 |
JP7016835B2 (ja) * | 2019-06-06 | 2022-02-07 | キヤノン株式会社 | 画像処理方法、画像処理装置、画像処理システム、学習済みウエイトの製造方法、および、プログラム |
KR20200142374A (ko) * | 2019-06-12 | 2020-12-22 | 삼성전자주식회사 | 입력 데이터에 근거한 ai 모델 선택 방법 및 그에 따른 방법을 수행하는 디스플레이 장치 |
US11068753B2 (en) * | 2019-06-13 | 2021-07-20 | Visa International Service Association | Method, system, and computer program product for generating new items compatible with given items |
US11373093B2 (en) * | 2019-06-26 | 2022-06-28 | International Business Machines Corporation | Detecting and purifying adversarial inputs in deep learning computing systems |
US10496809B1 (en) * | 2019-07-09 | 2019-12-03 | Capital One Services, Llc | Generating a challenge-response for authentication using relations among objects |
US20210287128A1 (en) * | 2019-08-08 | 2021-09-16 | Lg Electronics Inc. | Artificial intelligence server |
US20210049452A1 (en) * | 2019-08-15 | 2021-02-18 | Intuit Inc. | Convolutional recurrent generative adversarial network for anomaly detection |
KR20190119548A (ko) * | 2019-10-02 | 2019-10-22 | 엘지전자 주식회사 | 이미지 노이즈 처리방법 및 처리장치 |
US11232328B2 (en) * | 2020-01-31 | 2022-01-25 | Element Ai Inc. | Method of and system for joint data augmentation and classification learning |
CN111401138B (zh) * | 2020-02-24 | 2023-11-07 | 上海理工大学 | 生成对抗神经网络训练过程的对抗优化方法 |
US11961219B2 (en) * | 2020-02-27 | 2024-04-16 | KLA Corp. | Generative adversarial networks (GANs) for simulating specimen images |
KR20210136706A (ko) * | 2020-05-08 | 2021-11-17 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
US11651292B2 (en) * | 2020-06-03 | 2023-05-16 | Huawei Technologies Co., Ltd. | Methods and apparatuses for defense against adversarial attacks on federated learning systems |
US20210383241A1 (en) * | 2020-06-05 | 2021-12-09 | Nvidia Corporation | Training neural networks with limited data using invertible augmentation operators |
US20210397198A1 (en) * | 2020-06-18 | 2021-12-23 | Ford Global Technologies, Llc | Enhanced vehicle operation |
JP7419178B2 (ja) * | 2020-07-01 | 2024-01-22 | 株式会社東芝 | 学習装置、方法およびプログラム |
US20220027490A1 (en) * | 2020-07-24 | 2022-01-27 | Siemens Aktiengesellschaft | Gan-based data obfuscation decider |
US12056880B2 (en) * | 2020-08-03 | 2024-08-06 | Korea Advanced Institute Of Science And Technology | Method of classifying lesion of chest x-ray radiograph based on data normalization and local patch and apparatus thereof |
US11328410B2 (en) * | 2020-08-03 | 2022-05-10 | KLA Corp. | Deep generative models for optical or other mode selection |
-
2020
- 2020-02-24 CN CN202010113638.1A patent/CN111401138B/zh active Active
- 2020-09-29 WO PCT/CN2020/118698 patent/WO2021169292A1/zh active Application Filing
- 2020-09-29 US US17/288,566 patent/US11315343B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108711138A (zh) * | 2018-06-06 | 2018-10-26 | 北京印刷学院 | 一种基于生成对抗网络的灰度图片彩色化方法 |
CN109389166A (zh) * | 2018-09-29 | 2019-02-26 | 聚时科技(上海)有限公司 | 基于局部结构保存的深度迁移嵌入聚类机器学习方法 |
CN110222628A (zh) * | 2019-06-03 | 2019-09-10 | 电子科技大学 | 一种基于生成式对抗网络的人脸修复方法 |
Non-Patent Citations (2)
Title |
---|
Weakly-Supervised Image Semantic Segmentation Based on Superpixel Region Merging;Quanchun Jiang等;《Big Data Cogn. Comput》;1-20 * |
最优传输理论及其在图像处理中的应用;马丽涛等;运筹学学报;109-125 * |
Also Published As
Publication number | Publication date |
---|---|
CN111401138A (zh) | 2020-07-10 |
US11315343B1 (en) | 2022-04-26 |
WO2021169292A1 (zh) | 2021-09-02 |
US20220122348A1 (en) | 2022-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111401138B (zh) | 生成对抗神经网络训练过程的对抗优化方法 | |
CN111881935B (zh) | 一种基于内容感知gan的对抗样本生成方法 | |
CN109639710B (zh) | 一种基于对抗训练的网络攻击防御方法 | |
CN113496247B (zh) | 估计生成对抗网络的隐含似然 | |
CN113656596B (zh) | 一种基于三元组筛选融合的多模态实体对齐方法 | |
Suzuki et al. | Adversarial example generation using evolutionary multi-objective optimization | |
CN109005398A (zh) | 一种基于卷积神经网络的立体图像视差匹配方法 | |
CN113033822A (zh) | 基于预测校正和随机步长优化的对抗性攻击与防御方法及系统 | |
CN111047054A (zh) | 一种基于两阶段对抗知识迁移的对抗样例防御方法 | |
CN112580728B (zh) | 一种基于强化学习的动态链路预测模型鲁棒性增强方法 | |
CN112085050A (zh) | 基于pid控制器的对抗性攻击与防御方法及系统 | |
CN113111349A (zh) | 基于热力图、逆向工程和模型剪枝的后门攻击防御方法 | |
Mohammadi et al. | Random search for learning the linear quadratic regulator | |
CN113987203A (zh) | 一种基于仿射变换与偏置建模的知识图谱推理方法与系统 | |
CN111291810B (zh) | 基于目标属性解耦的信息处理模型生成方法及相关设备 | |
CN113806559B (zh) | 一种基于关系路径与双层注意力的知识图谱嵌入方法 | |
CN113935496A (zh) | 一种面向集成模型的鲁棒性提升防御方法 | |
CN111950635B (zh) | 一种基于分层特征对齐的鲁棒特征学习方法 | |
Ming et al. | Growing Neural Gas Network-based surrogate-assisted Pareto set learning for multimodal multi-objective optimization | |
CN112686249A (zh) | 一种基于对抗补丁的Grad-CAM攻击方法 | |
CN111353525A (zh) | 一种不均衡不完整数据集的建模及缺失值填补方法 | |
Chai et al. | Semi-global stereo matching algorithm based on minimum spanning tree | |
WO2022236647A1 (en) | Methods, devices, and computer readable media for training a keypoint estimation network using cgan-based data augmentation | |
CN115510986A (zh) | 一种基于AdvGAN的对抗样本生成方法 | |
CN113627404B (zh) | 基于因果推断的高泛化人脸替换方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |