CN116416161A - 一种改进生成对抗网络的图像修复方法 - Google Patents
一种改进生成对抗网络的图像修复方法 Download PDFInfo
- Publication number
- CN116416161A CN116416161A CN202310391460.0A CN202310391460A CN116416161A CN 116416161 A CN116416161 A CN 116416161A CN 202310391460 A CN202310391460 A CN 202310391460A CN 116416161 A CN116416161 A CN 116416161A
- Authority
- CN
- China
- Prior art keywords
- image
- loss
- follows
- images
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000000694 effects Effects 0.000 claims abstract description 14
- 230000007246 mechanism Effects 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 33
- 238000004364 calculation method Methods 0.000 claims description 26
- 230000008439 repair process Effects 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 19
- 230000007547 defect Effects 0.000 claims description 12
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 238000009826 distribution Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims 2
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000012795 verification Methods 0.000 abstract 1
- 238000005457 optimization Methods 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000009792 diffusion process Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明所提供的一种基于生成对抗网络的图像修复的方法,以U‑Net与注意力机制为基础,利用改进U‑Net提取大范围、多尺度的特征信息,使用注意力机制网络获取全局特征信息,通过验证,本发明的修复算法具有更优秀的修复效果,具有广泛的应用价值。
Description
技术领域
本发明属于计算机图像处理技术领域,具体涉及一种基于生成对抗网络的图像修复的方法。
背景技术
图像修复是一项依据残缺图像预测得到完整图像的技术,是极具竞争力的先进技术,其应用领域遍及各行各业。的随着计算机图像处理技术的发展,研究图像修复的方法越来越多。数字图像修复方法主要分为传统修复算法和基于深度学习的修复方法两个方向。传统修复方法主要以基于扩散和基于样本的两类方法为主。Bertalmio等(Proceedings ofthe 27th annual conference on Computer graphics and interactive techniques)模拟人工修复图像的方法,首次提出了一种基于扩散的图像修复方法,得到了一定的修复效果。基于扩散的方法将背景信息扩散传播到缺失区域,但是算法计算量大,需要大量的运行时间。针对上述问题,Chan等(Mathematical models for local nontextureinpaintings)提出了总变分(TV)模型,该模型显著的提高了修复速率,但是修复结果的连续性不足。何凯等在TV算法中加入了阈值参数,使得模型训练速度加快,降低了运行时间。基于样本的方法通过对背景区域搜索,获取与缺失区域相识度较高的样本块,用于填充缺失区域。例如,Barnes等(Arandomized correspondence algorithm for structuralimage editing)利用快速近邻的方式,采用样本匹配算法,降低了模型的复杂度,提高了计算速度。Criminisi等(Toyama K.Region filling and object removal by exemplar-based image inpainting)利用置信度和嵌入边界信息确定填充顺序的优先级,搜索待填充图像的完整区域块相似度最高的像素块,更新待填充块的边界和置信度,完成图像的补全。传统图像修复方法修复小面积缺失的古画时取得了一定的效果,然而大面积缺失时修复效果较差。
近年来,以卷积神经网络(CNN)、循环神经网络(RNN)等为代表的深度学习被广泛用于自然语音处理、计算机视觉、医疗以及交通等领域。广大专家学者采用深度学习的基本模块,将其应用于数据、图像等补全的研究中。Wang等(New inpainting algorithm basedon simplified context encoders and multi-scale adversarial network)以自动编码结构结合多尺度卷积为基础,提出了生成对抗网络(GAN)为模型框架的图像修复模型提升了模型局部特征提取能力,取得了一定的修复效果。由于该模型缺乏提取全局特征信息的能力,导致部分的修复结果中,轮廓紊乱。Edger等(Au-net based discriminator forgenerative adversarial networks)提出了基于U形网络(U-Net)改进判别器的GAN模型。该模型通过判别器每次迭代结果的反馈,提高了生成数据的全局一致性。然而模型没有考虑生成器的优化,导致模型学习能力差。
发明内容
本发明主要是克服现有技术中的不足之处,本发明的目的是提供一种基于基于生成对抗网络的图像修复的方法。
为达到以上技术目的,本发明采用以下技术方案:
步骤1:采集原始图像,对图像进行预处理,具体处理方式为:
(1)对原始图像进行预处理,统一设置为n×n大小并进行裁剪、旋转以及镜像翻转操作,扩充数据;
(2)人工生成出不同尺寸、形状的缺陷二值图,并与原始图像合成出缺陷图像;
(3)将预处理后的图像数据集划分为训练集和测试集,以预处理后得到的图像作为训练目标;
步骤2:构建空洞卷积门控残差块,整个空洞卷积门控残差块全部采用3×3卷积,激活函数采用Relu激活函数,模块的计算结构如下:
x1=r(Dcon2(xin))
x2=r(Dcon4(x1))
x3=r(Dcon8(x2))
x4=r(Dcon16(x3))
xout=g(x1)·x1+g(x2)·x2+g(x3)·x3+g(x4)·x4
式中,xin和xout分别代表模型的输入图像和输出图像,r()表示进行Relu线性变换,Dcon()代表3×3的空洞卷积操作,其下标为扩张率,g(x)代表对输入数据做门控计算操作后得到的权重系数,门控过程使用Sigmoid函数来计算,Sigmoid函数的计算公式如下:
步骤3:整体的图像修复模型基于生成对抗网络的框架,采用两阶段的方式修复图像,具体处理方式为:
(1)生成器的第一阶段网络生成粗修复图像,整体结构为U-Net网络,其编码部分包含n个步骤2提出的空洞卷积门控残差块,n为U-Net网络中编码部分层数;n为正整数;
(2)生成器的第二阶段网络采用空间注意力机制生成最终修复图像,以第一阶段生成的缺陷区域图像为前景,以已知区域图像为背景,逐像素点计算前景与背景的余弦相似度,选取余弦相似度大的背景来生成前景,余弦相似度的计算公式如下:
(3)使用最小绝对误差损失和推土机距离损失的加权损失作为损失函数,并且使用惩罚函数对其进行正则化;
最小绝对误差损失的计算公式为:
联合损失函数的计算公式为:
(4)使用步骤1中得到的训练集数据输入到步骤4和本步骤构建的网络模型中,使用损失函数进行训练优化,当损失函数不再下降时,停止模型训练,保存训练参数;
步骤4:峰值信噪比反映生成图像与真实图像之间的失真程度的评价指标,单位是dB,其计算公式为:
其中,MSE是均方根误差,MAXI是图像像素点的最大值,PSNR是图像峰值信噪比;
结构相识度用来衡量两张图像的结构相似度,值越大,生成图像的质量也越好,结构相识度使用均值估计亮度,标准差估计对比度,协方差估计结构相似度,其计算公式为:
SSIM(A,B)=L(A,B)×C(A,B)×S(A,B)
式中,μA和μB是图像A和B的像素平均值,σA和σB是图像A和B的像素标准差,σAB是图像A和B的协方差,C1、C2、C3为常数,SSIM为图像结构相似度;
将步骤1中得到的测试集数据输入到已经训练好的网络模型中,得到修复后的图像,最后使用客观评价指标对修复效果进行评估。
有益效果:
与现有技术相比,本发明具有以下有益效果:
以U-Net与注意力机制为基础,通过改进U-Net提取大范围、多尺度的特征信息,使用注意力机制网络获取全局特征信息,本发明的修复算法具有更优秀的修复效果,具有广泛的应用价值。
附图说明
图1为基于生成对抗网络的图像修复流程图;
图2空洞卷积门控残差块;
图3改进的U-Net结构图;
图4注意力机制网络结构图;
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图,对本发明进行进一步详细说明。
一种基于生成对抗网络的图像修复的方法,具体的计算方法包括以下步骤:
步骤1:采集原始图像,对图像进行预处理,具体处理方式为:
(4)对原始图像进行预处理,统一设置为256×256大小并进行裁剪、旋转以及镜像翻转操作,扩充数据;
(5)人工生成出不同尺寸、形状的缺陷二值图,并与原始图像合成出缺陷图像;
(6)将预处理后的图像数据集划分为训练集和测试集,以预处理后得到的图像作为训练目标;
步骤2:构建空洞卷积门控残差块,整个空洞卷积门控残差块全部采用3×3卷积,激活函数采用Relu激活函数,模块的计算结构如下:
x1=r(Dcon2(xin))
x2=r(Dcon4(x1))
x3=r(Dcon8(x2))
x4=r(Dcon16(x3))
xout=g(x1)·x1+g(x2)·x2+g(x3)·x3+g(x4)·x4
式中,xin和xout分别代表模型的输入图像和输出图像,r()表示进行Relu线性变换,Dcon()代表3×3的空洞卷积操作,其下标为扩张率,g(x)代表对输入数据做门控计算操作后得到的权重系数,门控过程使用Sigmoid函数来计算,Sigmoid函数的计算公式如下:
步骤3:整体的图像修复模型基于生成对抗网络的框架,采用两阶段的方式修复图像,具体处理方式为:
(1)生成器的第一阶段网络生成粗修复图像,整体结构为U-Net网络,其编码部分包含4个步骤2提出的空洞卷积门控残差块;
(2)生成器的第二阶段网络采用空间注意力机制生成最终修复图像,以第一阶段生成的缺陷区域图像为前景,以已知区域图像为背景,逐像素点计算前景与背景的余弦相似度,选取余弦相似度大的背景来生成前景,余弦相似度的计算公式如下:
(3)使用最小绝对误差损失和推土机距离损失的加权损失作为损失函数,并且使用惩罚函数对其进行正则化;
最小绝对误差损失的计算公式为:
联合损失函数的计算公式为:
(4)使用步骤1中得到的训练集数据输入到步骤4和本步骤构建的网络模型中,使用损失函数进行训练优化,当损失函数不再下降时,停止模型训练,保存训练参数;
步骤4:峰值信噪比反映生成图像与真实图像之间的失真程度的评价指标,单位是dB,其计算公式为:
其中,MSE是均方根误差,MAXI是图像像素点的最大值,PSNR是图像峰值信噪比;
结构相识度用来衡量两张图像的结构相似度,值越大,生成图像的质量也越好,结构相识度使用均值估计亮度,标准差估计对比度,协方差估计结构相似度,其计算公式为:
SSIM(A,B)=L(A,B)×C(A,B)×S(A,B)
式中,μA和μB是图像A和B的像素平均值,σA和σB是图像A和B的像素标准差,σAB是图像A和B的协方差,C1、C2、C3为常数,SSIM为图像结构相似度;
将步骤1中得到的测试集数据输入到已经训练好的网络模型中,得到修复后的图像,最后使用客观评价指标对修复效果进行评估;
步骤5:本发发明的实施效果如下,本发明实施方法的效果展示,下面的表格呈现了本发明对缺陷修复效果的优化效果,如表1所示:
表1不同算法在不同整体缺失率下的修复结果
Tab.1Evaluation index values of repair results of differentalgorithms under different overall center missing rates
由上表可以看出,使用本方法后对在不同大小的缺陷下都要比对比后算法拥有更好的修复效果。
本发明所提供的一种基于生成对抗网络的图像修复的方法,以U-Net与注意力机制为基础,利用改进U-Net提取大范围、多尺度的特征信息,使用注意力机制网络获取全局特征信息,本发明的修复算法具有更优秀的修复效果。本发明能较完整地修复缺陷图像,具有广泛的应用价值。
以上所述,并非对本发明作任何形式上的限制,虽然本发明已通过上述实施例揭示,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容作出些变动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (1)
1.一种改进生成对抗网络的图像修复方法,其特征包括以下步骤:
步骤1:采集原始图像,对图像进行预处理,具体处理方式为:
(1)对原始图像进行预处理,统一设置为n×n大小并进行裁剪、旋转以及镜像翻转操作,扩充数据;
(2)人工生成出不同尺寸、形状的缺陷二值图,并与原始图像合成出缺陷图像;
(3)将预处理后的图像数据集划分为训练集和测试集,以预处理后得到的图像作为训练目标;
步骤2:构建空洞卷积门控残差块,整个空洞卷积门控残差块全部采用3×3卷积,激活函数采用Relu激活函数,模块的计算结构如下:
x1=r(Dcon2(xin))
x2=r(Dcon4(x1))
x3=r(Dcon8(x2))
x4=r(Dcon16(x3))
xout=g(x1)·x1+g(x2)·x2+g(x3)·x3+g(x4)·x4
式中,xin和xout分别代表模型的输入图像和输出图像,r()表示进行Relu线性变换,Dcon()代表3×3的空洞卷积操作,其下标为扩张率,g(x)代表对输入数据做门控计算操作后得到的权重系数,门控过程使用Sigmoid函数来计算,Sigmoid函数的计算公式如下:
步骤3:整体的图像修复模型基于生成对抗网络的框架,采用两阶段的方式修复图像,具体处理方式为:
(1)生成器的第一阶段网络生成粗修复图像,整体结构为U-Net网络,其编码部分包含n个步骤2提出的空洞卷积门控残差块,n为U-Net网络中编码部分层数;n为正整数;
(2)生成器的第二阶段网络采用空间注意力机制生成最终修复图像,以第一阶段生成的缺陷区域图像为前景,以已知区域图像为背景,逐像素点计算前景与背景的余弦相似度,选取余弦相似度大的背景来生成前景,余弦相似度的计算公式如下:
(3)使用最小绝对误差损失和推土机距离损失的加权损失作为损失函数,并且使用惩罚函数对其进行正则化;
最小绝对误差损失的计算公式为:
式中,Lwgan代表推土机距离损失,Π(Pγ,Pg)表示所有的(x,y)的联合分布的集合;
联合损失函数的计算公式为:
(4)使用步骤1中得到的训练集数据输入到步骤4和本步骤构建的网络模型中,使用损失函数进行训练优化,当损失函数不再下降时,停止模型训练,保存训练参数;
步骤4:峰值信噪比反映生成图像与真实图像之间的失真程度的评价指标,单位是dB,其计算公式为:
其中,MSE是均方根误差,MAXI是图像像素点的最大值,PSNR是图像峰值信噪比;
结构相识度用来衡量两张图像的结构相似度,值越大,生成图像的质量也越好,结构相识度使用均值估计亮度,标准差估计对比度,协方差估计结构相似度,其计算公式为:
SSIM(A,B)=L(A,B)×C(A,B)×S(A,B)
式中,μA和μB是图像A和B的像素平均值,σA和σB是图像A和B的像素标准差,σAB是图像A和B的协方差,C1、C2、C3为常数,SSIM为图像结构相似度;
将步骤1中得到的测试集数据输入到已经训练好的网络模型中,得到修复后的图像,最后使用客观评价指标对修复效果进行评估。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310391460.0A CN116416161A (zh) | 2023-04-13 | 2023-04-13 | 一种改进生成对抗网络的图像修复方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310391460.0A CN116416161A (zh) | 2023-04-13 | 2023-04-13 | 一种改进生成对抗网络的图像修复方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116416161A true CN116416161A (zh) | 2023-07-11 |
Family
ID=87059288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310391460.0A Pending CN116416161A (zh) | 2023-04-13 | 2023-04-13 | 一种改进生成对抗网络的图像修复方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116416161A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116823678A (zh) * | 2023-08-29 | 2023-09-29 | 国网江西省电力有限公司超高压分公司 | 图像缺陷点智能修复系统 |
-
2023
- 2023-04-13 CN CN202310391460.0A patent/CN116416161A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116823678A (zh) * | 2023-08-29 | 2023-09-29 | 国网江西省电力有限公司超高压分公司 | 图像缺陷点智能修复系统 |
CN116823678B (zh) * | 2023-08-29 | 2023-11-17 | 国网江西省电力有限公司超高压分公司 | 图像缺陷点智能修复系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113240613B (zh) | 一种基于边缘信息重建的图像修复方法 | |
CN111784602B (zh) | 一种生成对抗网络用于图像修复的方法 | |
CN110827213B (zh) | 一种基于生成式对抗网络的超分辨率图像修复方法 | |
CN108520503B (zh) | 一种基于自编码器和生成对抗网络修复人脸缺损图像的方法 | |
CN110009576B (zh) | 一种壁画图像修复模型建立及修复方法 | |
CN110097528A (zh) | 一种基于联合卷积自编码网络的图像融合方法 | |
CN109801230A (zh) | 一种基于新编码器结构的图像修复方法 | |
CN102999887B (zh) | 一种基于样本的图像修复方法 | |
CN115018727B (zh) | 一种多尺度图像修复方法、存储介质及终端 | |
CN111680706A (zh) | 一种基于编码和解码结构的双通道输出轮廓检测方法 | |
WO2023207104A1 (zh) | 基于自监督学习的探地雷达隧道衬砌质量检测方法 | |
CN111612718A (zh) | 一种引入注意力机制的人脸图像修复方法 | |
CN114627006B (zh) | 一种基于深度解耦网络的渐进式图像修复方法 | |
CN112435198A (zh) | 一种焊缝射线检测底片图像增强方法、存储介质及设备 | |
CN112949553A (zh) | 基于自注意力级联生成对抗网络的人脸图像修复方法 | |
CN110895795A (zh) | 改进的语义图像修补模型方法 | |
CN108681689B (zh) | 基于生成对抗网络的帧率增强步态识别方法及装置 | |
CN113256543A (zh) | 一种基于图卷积神经网络模型的点云补全方法 | |
CN116703747A (zh) | 一种基于扩散条件生成算法的虚拟试衣图像修复方法 | |
CN116934780B (zh) | 一种基于深度学习的电成像测井图像裂缝分割方法及系统 | |
CN112819951A (zh) | 一种基于深度图修复的带遮挡三维人体重建方法 | |
CN112488935A (zh) | 基于纹理约束和泊松融合的生成对抗指静脉图像修复方法 | |
CN117252782A (zh) | 基于条件去噪扩散和掩膜优化的图像修复方法 | |
Luo et al. | Bi-GANs-ST for perceptual image super-resolution | |
CN116416161A (zh) | 一种改进生成对抗网络的图像修复方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |