CN114758272A - 基于频域自注意力的伪造视频检测方法 - Google Patents
基于频域自注意力的伪造视频检测方法 Download PDFInfo
- Publication number
- CN114758272A CN114758272A CN202210334683.9A CN202210334683A CN114758272A CN 114758272 A CN114758272 A CN 114758272A CN 202210334683 A CN202210334683 A CN 202210334683A CN 114758272 A CN114758272 A CN 114758272A
- Authority
- CN
- China
- Prior art keywords
- video
- face image
- video frame
- image
- forged
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 14
- 239000013598 vector Substances 0.000 claims abstract description 20
- 238000001228 spectrum Methods 0.000 claims abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 16
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 claims description 4
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005242 forging Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于频域自注意力的伪造视频检测方法。该方法包括:将待检测视频分为若干个视频帧;判断每个视频帧是否伪造视频帧,具体包括:提取当前视频帧中的人脸图像,记作原始人脸图像;提取所述原始人脸图像的相位谱,并基于相位谱对原始人脸图像进行重构,将重构得到的人脸图像记作重构人脸图像;将所述重构人脸图像拆分成若干个相同大小的图像块,并将若干个所述图像块转换成序列数据;将所述序列数据输入至训练好的Transformer模型中提取得到特征向量,将所述特征向量输入至多层感知机,判断所述特征向量对应的视频帧是否为伪造视频帧;统计伪造视频帧的数量与真实视频帧的数量,若前者大于后者,则认为待检测视频为伪造视频,反之为真实视频。
Description
技术领域
本发明涉及视频处理、网络空间安全技术领域,尤其涉及一种基于频域自注意力的伪造视频检测方法。
背景技术
传统的伪造视频人脸检测方法主要是基于CNN(卷积神经网络)做的,这两年的研究发现基于Transformer的注意力模型在伪造视频检测中能得到更佳的性能,但是现有的基于Transformer的伪造视频检测模型只从原始的图像像素和基于CNN的特征图中进行伪造特征学习,没有考虑基于频域变换的相位谱特征,检测精度有进一步提升的空间。
发明内容
针对现有伪造视频检测方法存在检测精度不高的问题,本发明提供一种基于频域自注意力的伪造视频检测方法,根据伪造视频的视频帧相位谱可能包含伪造伪影信息的线索,利用Transformer模型对特征的自学习能力,采用Transformer模型从伪造视频视频帧的相位谱中自动学习伪造的伪影特征,实现对视频中每个视频帧的真伪检测,进而实现对整个伪造视频的检测。
本发明提供一种基于频域自注意力的伪造视频检测方法,包括:
步骤1:将待检测视频分为若干个视频帧;
步骤2:判断每个视频帧是否伪造视频帧,具体包括:
步骤2.1:提取当前视频帧中的人脸图像,记作原始人脸图像;提取所述原始人脸图像的相位谱,并基于相位谱对原始人脸图像进行重构,将重构得到的人脸图像记作重构人脸图像;
步骤2.2:将所述重构人脸图像拆分成若干个相同大小的图像块,并将若干个所述图像块转换成序列数据;
步骤2.3:将所述序列数据输入至训练好的Transformer模型中提取得到特征向量,将所述特征向量输入至多层感知机,判断所述特征向量对应的视频帧是否为伪造视频帧;
步骤3:统计伪造视频帧的数量与真实视频帧的数量,若前者大于后者,则认为待检测视频为伪造视频,反之为真实视频。
进一步地,步骤2.1具体包括:
将所述原始人脸图像I(x,y)转换成灰度图像Ig(x,y),对所述灰度图像Ig(x,y)按照公式(1)进行快速傅里叶变换,得到图像F(x,y);然后按照公式(2)计算得到相位谱S(x,y);最后按照公式(3)得到重构人脸图像P(x,y);
F(x,y)=FFT(Ig(x,y)) (1)
S(x,y)=p(F(x,y)) (2)
P(x,y)=IFFT([ei·S(x,y)]) (3)
其中,FFT(·)和IFFT(·)分别表示快速傅里叶变换和快速傅里叶反变换,p(·)是求相角的函数。
进一步地,步骤2.2具体包括:
设定重构人脸图像的大小为H×W,图像块的大小为P×P,则得到N个图像块,其中,N=(H×W)/P2;
按照公式(4)将N个所述图像块转换为序列数据z0:
进一步地,步骤2.3具体包括:
采用公式(5)至(6)表示Transformer模型的特征提取过程,采用公式(7)表示多层感知机的判决过程:
z'l=MHA(LN(zl-1))+(zl-1), l=1...L (5)
zl=MLP(LN(z'l))+(z'l), l=1...L (6)
其中,MHA(·)表示多头注意力机制;LN(·)表示层归一化;MLP(·)表示多层感知机;将所述公式(6)中对应的多层感知机记作第一多层感知机,将所述公式(7)中对应的多层感知机记作第二多层感知机;L表示Transformer的总层数,l表示是第l层,zl代表第l层MLP的输出,z'l代表第l层MHA的输出,表示zl第1维的数据。
进一步地,所述第一多层感知机由两个隐藏层组成;第一个隐藏层具有H1个节点,第二个隐藏层具有H2个节点;其中,H1=D,H2的取值等于所述多层感知机的输出维度;
所述第一个隐藏层的计算公式如公式(10)所示,所述第二个隐藏层的计算公式如公式(11)所示:
其中,分别表示第一个隐藏层和第二个隐藏层可学习的权重,g(·)表示激活函数,表示MLP的第一个隐藏层的第i个隐藏节点的中间临时值,表示MLP的第二个隐藏层的第i个隐藏节点的中间临时值,表示MLP的第一个隐藏层的第i个隐藏节点的输出;表示MLP的第二个隐藏层的第i个隐藏节点的输出;xj是第j维的输入。
进一步地,所述第二多层感知机具有一个隐藏层,所述隐藏层具有两个节点,将第一个节点的值作为视频帧是真实视频帧的概率,将第二个节点的值作为视频帧是伪造视频帧的概率。
本发明的有益效果:
本发明通过将Transformer模型与频域的相位谱特征进行结合,相比于传统基于CNN的特征提取网络,Transformer模型具有更好的伪造视频特征提取性能,相比于传统的基于Transformer模型的伪造视频检测方法,本发明考虑到相位谱特征对伪造视频的影响,可以进一步提高伪造视频的检测精度。
附图说明
图1为本发明实施例提供的基于频域自注意力的伪造视频检测方法的流程示意图;
图2为本发明实施例提供的基于相位谱重构人脸图像的效果图;
图3为本发明实施例提供的判断当前视频帧是否为伪造视频帧的流程示意图;
图4为现有技术提供的Transformer模型的结构图;
图5为本发明实施例提供的待学习的类别嵌入、位置嵌入到输入嵌入的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供一种基于频域自注意力的伪造视频检测方法,包括以下步骤:
S101:将待检测视频分为若干个视频帧;
S102:判断每个视频帧是否伪造视频帧,具体包括:
S1021:如图2所示,提取当前视频帧中的人脸图像,记作原始人脸图像;提取所述原始人脸图像的相位谱,并基于相位谱对原始人脸图像进行重构,将重构得到的人脸图像记作重构人脸图像;
具体地,可以采用经典的RetinaFace模型从视频帧中提取出人脸图像。因为相位信息不需要关注图像的颜色,将所述原始人脸图像I(x,y)转换成灰度图像Ig(x,y),对所述灰度图像Ig(x,y)按照公式(1)进行快速傅里叶变换,得到图像F(x,y);然后按照公式(2)计算得到相位谱S(x,y);最后按照公式(3)得到重构人脸图像P(x,y);
F(x,y)=FFT(Ig(x,y)) (1)
S(x,y)=p(F(x,y)) (2)
P(x,y)=IFFT([ei·S(x,y)]) (3)
其中,FFT(·)和IFFT(·)分别表示快速傅里叶变换和快速傅里叶反变换,p(·)是求相角的函数;
S1022:如图3所示,将所述重构人脸图像拆分成若干个相同大小的图像块,并将若干个所述图像块转换成序列数据;
具体地,设定重构人脸图像的大小为H×W,图像块的大小为P×P,则得到N个图像块,其中,N=(H×W)/P2;
按照公式(4)将N个所述图像块转换为序列数据z0:
S1023:如图3所示,将所述序列数据输入至训练好的Transformer模型中提取得到特征向量,将所述特征向量输入至多层感知机,判断所述特征向量对应的视频帧是否为伪造视频帧;
具体地,采用公式(5)至(6)表示特征提取过程,采用公式(7)表示多层感知机的判决过程:
z'l=MHA(LN(zl-1))+(zl-1), l=1...L (5)
zl=MLP(LN(z'l))+(z'l), l=1...L (6)
其中,MHA(·)表示多头注意力机制;LN(·)表示层归一化;MLP(·)表示多层感知机;为便于区分和描述,将所述公式(6)中对应的多层感知机记作第一多层感知机,将所述公式(7)中对应的多层感知机记作第二多层感知机;L表示Transformer的总层数,每一层l表示是第l层,zl代表第l层MLP的输出,z'l代表第l层MHA的输出,表示zl第1维的数据。
需要说明的是,LN(·)用于对输入中的某一维或某几维做归一化,例如对输入X的某一维数据x={x1,x2,…xn}进行归一化,则LN(·)的计算公式为:
MHA(·)的计算过程如下:
其中,WQ、WK、WV是可学习的参数矩阵,d是KT·Q的维数,假定K表示神经网络的输出类别数,v为输出向量,vj为v中第j个输出类别的值,i表示当前需要计算的类别,计算结果在0到1之间,且所有类别的softmax值求和为1。softmax(·)的计算公式为:
本实施例中,所述第一多层感知机由两个隐藏层组成;所述第一多层感知机的第一个隐藏层具有H1个节点,第二个隐藏层具有H2个节点;其中,H1=D,H2的取值等于所述多层感知机的输出维度;
所述第一个隐藏层的计算公式如公式(10)所示,所述第二个隐藏层的计算公式如公式(11)所示:
其中,分别表示第一个隐藏层和第二个隐藏层可学习的权重,g(·)表示激活函数,表示MLP的第一个隐藏层的第i个隐藏节点的中间临时值,表示MLP的第二个隐藏层的第i个隐藏节点的中间临时值,表示MLP的第一个隐藏层的第i个隐藏节点的输出,由公式(10)可以看出,其是经由送入激活函数得到;表示MLP的第二个隐藏层的第i个隐藏节点的输出,由公式(11)可以看出,其是经由送入激活函数得到;xj是第j维的输入。
本实施例中,采用ReLU函数作为激活函数,其计算公式为:
本实施例中,所述第二多层感知机具有一个隐藏层,所述隐藏层具有两个节点,将第一个节点的值作为视频帧是真实视频帧的概率,将第二个节点的值作为视频帧是伪造视频帧的概率。若第一个节点的值大于第二个节点的值,则认为当前视频帧为真实视频帧,反之认为当前视频帧为伪造视频帧。
作为一种可实施方式,Transformer模型的训练过程如下:
首先,收集M个真实人脸图像和M个基于深度伪造生成的伪造人脸图像;然后,采用RetinaFace模型分别对M个真实人脸图像和M个伪造人脸图像中的人脸区域进行定位并将该人脸区域进行裁剪提取出来;接着,分别基于相位谱对裁剪提取出来的真实人脸图像和伪造人脸图像进行重构,重构得到的M个真实人脸图像组成正向样本集p={p1,p2,…,pM},重构得到的M个伪造人脸图像组成负向n={n1,n2,…,nM};将正向样本集中每个样本的标签设置为1,负向样本集中每个样本的标签设置为0;最后,将p和n输入到图4所示的网络中进行训练。优选地,M=100。
S103:统计伪造视频帧的数量与真实视频帧的数量,若前者大于后者,则认为待检测视频为伪造视频,反之为真实视频。
实施例2
下面以对一个视频帧的检测为例来对处理流程进行说明。首先从视频帧中采用RetinaFace模型提取人脸区域,然后采用公式(1)-(3),得到相位谱重构后的人脸图像。
对于每个相位谱重构后的灰度人脸图像,首先调整到256×256的大小,然后切分成32×32大小的图像块,得到64个图像块,每个图像块通过线性映射,映射到32×32=1024维。这64个图像块的嵌入和1×1024维的可学习分类嵌入(图3中最左侧的带*所示的向量)组成一个65×1024维的嵌入。考虑到图像块之间的位置关系对理解图像的内容有意义,所以在上述嵌入的基础上再加上65×1024维的可学习位置嵌入,得到最终的65×1024维的嵌入作为Transformer模型的输入。
上述65×1024维的嵌入I1送入Transformer模型中提取特征,Transformer模型由6个(即L=6)图4所示的网络结构组成,其中多头注意力机制的注意力头数是16,多层感知机的第1个隐藏层的节点数H1是2048,第2个隐藏层的节点数H2是1024。经过Transformer编码后,输出新的65×1024维的图像表征I2。
从I2中提取第1行1024维向量,作为学习到的类别向量,输入到图3最上层的多层感知机中,这个感知机只有1个隐藏层,2个节点,用于把1024维的输入向量转换成2维的类别向量,为{0.03,0.4},因为0.03<0.4,所以判定该视频帧为伪造视频帧。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (6)
1.基于频域自注意力的伪造视频检测方法,其特征在于,包括:
步骤1:将待检测视频分为若干个视频帧;
步骤2:判断每个视频帧是否伪造视频帧,具体包括:
步骤2.1:提取当前视频帧中的人脸图像,记作原始人脸图像;提取所述原始人脸图像的相位谱,并基于相位谱对原始人脸图像进行重构,将重构得到的人脸图像记作重构人脸图像;
步骤2.2:将所述重构人脸图像拆分成若干个相同大小的图像块,并将若干个所述图像块转换成序列数据;
步骤2.3:将所述序列数据输入至训练好的Transformer模型中提取得到特征向量,将所述特征向量输入至多层感知机,判断所述特征向量对应的视频帧是否为伪造视频帧;
步骤3:统计伪造视频帧的数量与真实视频帧的数量,若前者大于后者,则认为待检测视频为伪造视频,反之为真实视频。
2.根据权利要求1所述的基于频域自注意力的伪造视频检测方法,其特征在于,步骤2.1具体包括:
将所述原始人脸图像I(x,y)转换成灰度图像Ig(x,y),对所述灰度图像Ig(x,y)按照公式(1)进行快速傅里叶变换,得到图像F(x,y);然后按照公式(2)计算得到相位谱S(x,y);最后按照公式(3)得到重构人脸图像P(x,y);
F(x,y)=FFT(Ig(x,y)) (1)
S(x,y)=p(F(x,y)) (2)
P(x,y)=IFFT([ei·S(x,y)]) (3)
其中,FFT(·)和IFFT(·)分别表示快速傅里叶变换和快速傅里叶反变换,p(·)是求相角的函数。
4.根据权利要求3所述的基于频域自注意力的伪造视频检测方法,其特征在于,步骤2.3具体包括:
采用公式(5)至(6)表示Transformer模型的特征提取过程,采用公式(7)表示多层感知机的判决过程:
z'l=MHA(LN(zl-1))+(zl-1),l=1...L (5)
zl=MLP(LN(z'l))+(z'l),l=1...L (6)
5.根据权利要求4所述的基于频域自注意力的伪造视频检测方法,其特征在于,所述第一多层感知机由两个隐藏层组成;第一个隐藏层具有H1个节点,第二个隐藏层具有H2个节点;其中,H1=D,H2的取值等于所述多层感知机的输出维度;
所述第一个隐藏层的计算公式如公式(10)所示,所述第二个隐藏层的计算公式如公式(11)所示:
6.根据权利要求4所述的基于频域自注意力的伪造视频检测方法,其特征在于,所述第二多层感知机具有一个隐藏层,所述隐藏层具有两个节点,将第一个节点的值作为视频帧是真实视频帧的概率,将第二个节点的值作为视频帧是伪造视频帧的概率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210334683.9A CN114758272A (zh) | 2022-03-31 | 2022-03-31 | 基于频域自注意力的伪造视频检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210334683.9A CN114758272A (zh) | 2022-03-31 | 2022-03-31 | 基于频域自注意力的伪造视频检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114758272A true CN114758272A (zh) | 2022-07-15 |
Family
ID=82329306
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210334683.9A Pending CN114758272A (zh) | 2022-03-31 | 2022-03-31 | 基于频域自注意力的伪造视频检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114758272A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115311720A (zh) * | 2022-08-11 | 2022-11-08 | 山东省人工智能研究院 | 一种基于Transformer的deepfake生成方法 |
CN116563957A (zh) * | 2023-07-10 | 2023-08-08 | 齐鲁工业大学(山东省科学院) | 一种基于傅里叶域适应的人脸伪造视频检测方法 |
-
2022
- 2022-03-31 CN CN202210334683.9A patent/CN114758272A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115311720A (zh) * | 2022-08-11 | 2022-11-08 | 山东省人工智能研究院 | 一种基于Transformer的deepfake生成方法 |
CN116563957A (zh) * | 2023-07-10 | 2023-08-08 | 齐鲁工业大学(山东省科学院) | 一种基于傅里叶域适应的人脸伪造视频检测方法 |
CN116563957B (zh) * | 2023-07-10 | 2023-09-29 | 齐鲁工业大学(山东省科学院) | 一种基于傅里叶域适应的人脸伪造视频检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11288546B2 (en) | Apparatus and method for training facial locality super resolution deep neural network | |
CN111950649B (zh) | 基于注意力机制与胶囊网络的低照度图像分类方法 | |
CN109949317B (zh) | 基于逐步对抗学习的半监督图像实例分割方法 | |
WO2021042828A1 (zh) | 神经网络模型压缩的方法、装置、存储介质和芯片 | |
CN111353373B (zh) | 一种相关对齐域适应故障诊断方法 | |
CN111126453A (zh) | 基于注意力机制和切割填充的细粒度图像分类方法及系统 | |
CN114758272A (zh) | 基于频域自注意力的伪造视频检测方法 | |
CN113255837A (zh) | 工业环境下基于改进的CenterNet网络目标检测方法 | |
CN112766376A (zh) | 一种基于gacnn的多标签眼底图像识别方法 | |
CN113903073A (zh) | 一种基于局部增强transformer的假视频检测方法 | |
CN112883941A (zh) | 一种基于并行神经网络的人脸表情识别方法 | |
CN113378949A (zh) | 一种基于胶囊网络和混合注意力的双重生成对抗学习方法 | |
CN112801107B (zh) | 一种图像分割方法和电子设备 | |
CN115147601A (zh) | 基于自注意力全局特征增强的城市街道点云语义分割方法 | |
CN111639697B (zh) | 基于非重复采样与原型网络的高光谱图像分类方法 | |
Chen et al. | Learning traces by yourself: Blind image forgery localization via anomaly detection with ViT-VAE | |
Yawalkar et al. | Automatic handwritten character recognition of Devanagari language: a hybrid training algorithm for neural network | |
CN112990340B (zh) | 一种基于特征共享的自学习迁移方法 | |
CN112016592B (zh) | 基于交叉领域类别感知的领域适应语义分割方法及装置 | |
CN114821706A (zh) | 一种基于区域感知的伪造图像检测与定位方法及系统 | |
CN114494786A (zh) | 一种基于多层协调卷积神经网络的细粒度图像分类方法 | |
CN113192085A (zh) | 三维器官图像分割方法、装置及计算机设备 | |
CN112613341A (zh) | 训练方法及装置、指纹识别方法及装置、电子设备 | |
CN117093924A (zh) | 基于域适应特征的旋转机械变工况故障诊断方法 | |
CN112990336B (zh) | 基于竞争注意力融合的深度三维点云分类网络构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Country or region after: China Address after: 450000 Science Avenue 62, Zhengzhou High-tech Zone, Henan Province Applicant after: Information Engineering University of the Chinese People's Liberation Army Cyberspace Force Address before: No. 62 Science Avenue, High tech Zone, Zhengzhou City, Henan Province Applicant before: Information Engineering University of Strategic Support Force,PLA Country or region before: China |