CN111914611B - 城市绿地高分遥感监测方法与系统 - Google Patents
城市绿地高分遥感监测方法与系统 Download PDFInfo
- Publication number
- CN111914611B CN111914611B CN202010386282.9A CN202010386282A CN111914611B CN 111914611 B CN111914611 B CN 111914611B CN 202010386282 A CN202010386282 A CN 202010386282A CN 111914611 B CN111914611 B CN 111914611B
- Authority
- CN
- China
- Prior art keywords
- image
- remote sensing
- net
- model
- urban green
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 96
- 238000012544 monitoring process Methods 0.000 title claims abstract description 55
- 238000012549 training Methods 0.000 claims abstract description 118
- 238000013136 deep learning model Methods 0.000 claims abstract description 53
- 238000010276 construction Methods 0.000 claims abstract description 52
- 238000012805 post-processing Methods 0.000 claims abstract description 43
- 238000012545 processing Methods 0.000 claims description 49
- 230000006872 improvement Effects 0.000 claims description 41
- 238000010606 normalization Methods 0.000 claims description 27
- 238000004364 calculation method Methods 0.000 claims description 22
- 238000010586 diagram Methods 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 19
- 230000000007 visual effect Effects 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 14
- 230000003595 spectral effect Effects 0.000 claims description 14
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 9
- 210000002569 neuron Anatomy 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 description 9
- 238000005381 potential energy Methods 0.000 description 7
- 230000011218 segmentation Effects 0.000 description 6
- 238000011176 pooling Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013499 data model Methods 0.000 description 3
- 230000008034 disappearance Effects 0.000 description 3
- 238000004880 explosion Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008635 plant growth Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000011425 standardization method Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A30/00—Adapting or protecting infrastructure or their operation
- Y02A30/60—Planning or developing urban green infrastructure
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种城市绿地高分遥感监测方法和系统,该方法包括训练样本集构建步骤、多维特征空间构建步骤、U‑Net+模型构建步骤以及影像后处理步骤,通过构建多维特征空间、增强特征丰富度,同时构建U‑Net+深度学习模型,再结合影像后处理方法,提高监测方法的泛化性和鲁棒性,解决训练样本有限而易出现的过拟合问题,从而达到提高城市绿地高分辨率遥感监测的精度和时效性。
Description
技术领域
本发明涉及遥感监测技术领域,特别是一种城市绿地高分遥感监测方法和系统。
背景技术
城市绿地在城市生态系统中起着非常重要的作用,与人类健康、居民生活质量、生物多样性、社会安全息息相关。城市绿地的分布具有异质性和高度分散性,如何实现城市绿地的时空格局精确量化是当前研究的热点问题,对城市绿地规划和管理至关重要。
目前已有大量的关于城市绿地分类提取的研究,随着遥感技术的发展,越来越多高分辨的遥感影像应用于城市绿地测绘和变化分析,例如SPOT,IKONOS,Quick-Bird,Worldview,高分系列等等。高分辨率遥感影像包含着丰富的地物信息,光谱特征明显,几何特征更加清晰,纹理细节也更丰富,能够在亚米级尺度识别城市街道树木,住宅区花园,提供更精细的城市绿地特征。
利用遥感进行分类的方法很多,传统遥感影像分类方法主要是基于像素分类和面向对象分类。基于像素的分类主要是参考像元的光谱信息,而高分辨率遥感影像因其空间分辨率较高,光谱信息相对匮乏,而形状、纹理等特征相对较多,这些信息应该在高分辨率遥感影像分类中发挥重要作用。面向对象的分类方法综合了地物的光谱特征、几何特征和纹理特征,其实验步骤是“分割-特征选取-分类”。面向对象方法没有固定的分割参数,若分割尺度过大,则会出现大量混合像元,若分割尺度过小,则形状信息缺失,其参数在分割阶段需要通过反复实验确定,这无疑在分类过程中增加了大量工作量。传统机器学习方法如支持向量机、决策树等方法不能从复杂的特征中充分学习,也无法适应数据量较大的高分辨率影像样本,得到的分类结果不能满足分类的需求。虽然传统的城市绿地遥感信息分类提取方法已经比较成熟,但由于其方法本身的局限性,需要人工进行最优分割参数选择和对象特征选取,精度相对较低。
目前深度学习方法在高分辨率遥感影像分类方面有很强的应用潜力,尤其是U-Net模型在遥感影像分类应用中也崭露头角。深度学习目前已被广泛应用于图像识别、目标检测和图像分类等多种不同的任务中,并且都取得了不错的效果。目前较常见的遥感图像分类的深度学习神经网络模型包括深度置信网络(DBN)、栈式自编码网络(SAE)和卷积神经网络(CNN)大量的实验和研究表明,卷积神经网络在图像分类和分割等领域表现出众,是应用最广泛的深度学习模型之一。但目前的研究中存在以下问题:
(1)现有的深度学习模型还存在很多缺陷。譬如模型的结构、模型的泛化性与鲁棒性、损失函数的计算模式等等;尤其是小尺度影像数据集会引起深度学习模型的过拟合、模型鲁棒性以及模型泛化能力变差等问题。(2)特征学习丰富度不足。高分二号遥感影像的波段数有限,光谱信息相对欠缺,特征的丰富度较少,在一定程度上限制了深度学习在特征学习上的丰富度。(3)模型错分问题。分类后的影像通常存在细小的错分区域,且地物的边界略平滑,因此有必要加入影像后处理方法来优化分类结果,得到更接近真实地物情况的分类结果。
发明内容
本发明针对现有技术存在的问题,提出一种城市绿地高分遥感监测方法,通过构建多维特征空间、增强特征丰富度,同时构建U-Net+深度学习模型,再结合影像后处理方法,提高监测方法的泛化性和鲁棒性,解决训练样本有限而易出现的过拟合问题,从而达到提高城市绿地高分辨率遥感监测的精度和时效性。本发明还涉及一种城市绿地高分遥感监测系统。
本发明的技术方案如下:
一种城市绿地高分遥感监测方法,其特征在于,包括下述步骤:
训练样本集构建步骤,针对高分辨遥感影像特征,选择样本区域,构建训练样本数据集;
多维特征空间构建步骤,将训练样本数据集进行数据增强、随机裁剪和特征计算处理,构建包括植被特征、空间特征、对比度特征、纹理特征和物候特征的多维特征空间;通过构建归一化植被指数将其作为城市绿地的植被特征,构建nDSM数字表面模型将其作为城市绿地的空间特征,通过AC算法计算局部对比度特征图将其作为城市绿地的对比度特征,通过灰度共生矩阵获取图像纹理特征图将其作为城市绿地的纹理特征,并加入同期冬季影像将其作为城市绿地的物候特征;
U-Net+模型构建步骤,基于构建的所述多维特征空间,面向城市绿地特征,依次利用图像边缘补零改进方式、批归一化处理改进方式以及正则化改进方式改进U-net模型,建立面向城市绿地并基于多维特征的U-Net+深度学习模型;再将训练样本的多维特征数据加入 U-net+深度学习模型中进行训练,并在训练完成后进行城市绿地空间分布的预测,获取U-Net+ 模型预测结果;
影像后处理步骤,对U-Net+模型预测结果进行后处理,得到城市绿地高分辨率遥感监测成果。
优选地,所述训练样本集构建步骤,针对高分辨遥感影像特征,将部分典型区域作为样本区域,利用目视解译方法进行高分遥感影像的样本提取,将目视解译得到的矢量文件进行要素转栅格获得标签图像,记录遥感影像中不同类型植被位置的地表真实图像,构建训练样本数据集;所述多维特征空间构建步骤先利用数据增强的方法进行影像处理以突出有效光谱信息,然后利用随机裁剪的方法将标签图像以及数据增强后的遥感影像裁剪,并基于裁剪后的标签图像和遥感影像进行特征计算处理从而构建多维特征空间。
优选地,所述U-Net+模型构建步骤中的批归一化处理改进方式是在模型卷积层后面加入批归一化处理,再把归一化处理后的数据输入所述模型卷积层的下一层;所述正则化改进方式是在模型每一次反卷积后都加入具有特定丢弃神经元概率的dropout层。
优选地,所述U-Net+模型构建步骤中将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,是将训练样本的遥感影像、多维特征数据和相应标签图像输入U-net+深度学习模型中,U-net+深度学习模型在编码部分提取出输入影像的特征,在解码部分恢复其空间位置与分辨率,在像素分类层对每一像素进行分类获得类别信息;将预测的分类图与输入的标签图在交叉熵函数中计算损失值,将损失值传递至U-net+深度学习模型中进行反向传播,逐层优化模型中的参数,当损失值达到一定阈值后,训练停止。
优选地,所述影像后处理步骤,利用全连接CRFs影像后处理方法对U-Net+模型预测结果进行后处理,结合原始高分辨遥感影像中所有像素之间的关系对分类结果进行处理,从而对预测结果优化,得到城市绿地高分辨率遥感监测成果。
一种城市绿地高分遥感监测系统,其特征在于,包括依次连接的训练样本集构建模块、多维特征空间构建模块、U-Net+模型构建模块和影像后处理模块,所述训练样本集构建模块和U-Net+模型构建模块相连接,
所述训练样本集构建模块,针对高分辨遥感影像特征,选择样本区域,构建训练样本数据集;
所述多维特征空间构建模块,将训练样本集构建模块的训练样本数据集进行数据增强、随机裁剪和特征计算处理,构建包括植被特征、空间特征、对比度特征、纹理特征和物候特征的多维特征空间;通过构建归一化植被指数将其作为城市绿地的植被特征,构建nDSM数字表面模型将其作为城市绿地的空间特征,通过AC算法计算局部对比度特征图将其作为城市绿地的对比度特征,通过灰度共生矩阵获取图像纹理特征图将其作为城市绿地的纹理特征,并加入同期冬季影像将其作为城市绿地的物候特征;
所述U-Net+模型构建模块,基于多维特征空间构建模块构建的所述多维特征空间,面向城市绿地特征,依次利用图像边缘补零改进方式、批归一化处理改进方式以及正则化改进方式改进U-net模型,建立面向城市绿地并基于多维特征的U-Net+深度学习模型;再将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,并在训练完成后进行城市绿地空间分布的预测,获取U-Net+模型预测结果;
所述影像后处理模块,对U-Net+模型预测结果进行后处理,得到城市绿地高分辨率遥感监测成果。
优选地,所述训练样本集构建模块,针对高分辨遥感影像特征,将部分典型区域作为样本区域,利用目视解译方法进行高分遥感影像的样本提取,将目视解译得到的矢量文件进行要素转栅格获得标签图像,记录遥感影像中不同类型植被位置的地表真实图像,构建训练样本数据集;所述多维特征空间构建模块先利用数据增强的方法进行影像处理以突出有效光谱信息,然后利用随机裁剪的方法将标签图像以及数据增强后的遥感影像裁剪,并基于裁剪后的标签图像和遥感影像进行特征计算处理从而构建多维特征空间。
优选地,所述U-Net+模型构建模块中的批归一化处理改进方式是在模型卷积层后面加入批归一化处理,再把归一化处理后的数据输入所述模型卷积层的下一层;所述正则化改进方式是在模型的每一次反卷积后都加入具有特定丢弃神经元概率的dropout层。
优选地,所述U-Net+模型构建模块中将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,是将训练样本的遥感影像、多维特征数据和相应标签图像输入U-net+深度学习模型中,U-net+深度学习模型在编码部分提取出输入影像的特征,在解码部分恢复其空间位置与分辨率,在像素分类层对每一像素进行分类获得类别信息;将预测的分类图与输入的标签图在交叉熵函数中计算损失值,将损失值传递至U-net+深度学习模型中进行反向传播,逐层优化模型中的参数,当损失值达到一定阈值后,训练停止。
优选地,所述影像后处理模块,利用全连接CRFs影像后处理方法对U-Net+模型预测结果进行后处理,结合原始高分辨遥感影像中所有像素之间的关系对分类结果进行处理,从而对预测结果优化,得到城市绿地高分辨率遥感监测成果。
本发明的技术效果如下:
本发明涉及一种城市绿地高分遥感监测方法,在样本区域内获取充足的训练样本数据集,再采用数据增强、随机裁剪和特征计算相结合的方法对训练样本数据集进行处理后构建特定的多维特征空间,在泛化网络模型的同时避免过拟合问题;通过构建包括植被特征、空间特征、对比度特征、纹理特征和物候特征的五类遥感影像特征的多维特征空间、增强特征丰富度,尤其是在前四个特征的基础上再结合物候特征,冬季落叶树凋零,采用高分遥感影像多时相遥感影像,结合植被的物候学理论将冬季影像加入深度学习模型中,用以区分常绿树和落叶树,对单夏季影像进行分类结果优化,为后续城市绿地高分遥感监测的准确性提供基础。基于构建的所述多维特征空间,面向城市绿地特征,依次利用图像边缘补零改进方式、批归一化处理改进方式以及正则化改进方式改进U-net模型,建立面向城市绿地并基于多维特征的U-Net+深度学习模型,提出基于多维特征的U-Net+深度学习模型的概念,实现对U-Net 模型的优化,并采用了一系列特定的改进方式,该U-Net+深度学习模型具有极高的稳定性和安全性,再将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,实现样本的训练和模型的训练,在训练完成后进行城市绿地空间分布的预测,获取U-Net+模型预测结果,再结合影像后处理方法得到城市绿地高分辨率遥感监测成果,提高了监测方法的泛化性和鲁棒性,解决训练样本有限而易出现的过拟合问题,从而达到提高城市绿地高分辨率遥感监测的精度和时效性。
本发明还涉及一种城市绿地高分遥感监测系统,该系统与上述的城市绿地高分遥感监测方法相对应,可理解为是实现上述城市绿地高分遥感监测方法的系统,设置相应的训练样本集构建模块、多维特征空间构建模块、U-Net+模型构建模块和影像后处理模块,各模块相互协同工作,在构建充足的训练样本数据集后,通过构建多维特征空间、增强特征丰富度,同时建立面向城市绿地并基于多维特征的U-Net+深度学习模型,结合影像后处理方式,提高监测方法的泛化性和鲁棒性,进而提高城市绿地高分辨率遥感监测的精度。
附图说明
图1为本发明城市绿地高分遥感监测方法的流程图。
图2为本发明城市绿地高分遥感监测方法的优选流程图。
图3为训练样本集构建步骤中的数据集部分影像及对应标签图像。
图4a和图4b为U-Net+模型构建步骤中的图像边缘补零改进方式对比图。
图5a和图5b为U-Net+模型构建步骤中的正则化改进方式的对比图。
图6为本发明基于多维特征的U-Net+深度学习模型的结构图。
图7为对多维特征的U-Net+深度学习模型进行训练的流程图。
图8为本发明U-Net+模型预测结果与真实地表对比图。
图9为本发明城市绿地高分遥感监测系统的结构图。
具体实施方式
下面结合附图对本发明进行说明。
本发明涉及一种城市绿地高分遥感监测方法,其流程如图1所示,包括:训练样本集构建步骤,针对高分辨遥感影像特征,选择样本区域并在样本区域内构建训练样本数据集;多维特征空间构建步骤,将训练样本数据集进行数据增强、随机裁剪和特征计算处理,也就是说,对数据增强和随机裁剪处理后的训练样本数据集进行特征计算处理,构建包括植被特征、空间特征、对比度特征、纹理特征和物候特征的五类特征的多维特征空间;通过构建归一化植被指数将其作为城市绿地的植被特征,构建nDSM数字表面模型将其作为城市绿地的空间特征,通过AC算法计算局部对比度特征图将其作为城市绿地的对比度特征,通过灰度共生矩阵获取图像纹理特征图将其作为城市绿地的纹理特征,并加入同期冬季影像将其作为城市绿地的物候特征;U-Net+模型构建步骤,基于构建的所述多维特征空间,面向城市绿地特征,依次利用图像边缘补零改进方式、批归一化处理改进方式以及正则化改进方式改进U-net模型,建立面向城市绿地并基于多维特征的U-Net+深度学习模型;再将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,并在训练完成后进行城市绿地空间分布的预测,获取U-Net+模型预测结果;影像后处理步骤,对U-Net+模型预测结果进行后处理,得到城市绿地高分辨率遥感监测成果。该方法通过构建多维特征空间、增强特征丰富度,同时构建U-Net+ 深度学习模型并进行样本训练和模型训练,再结合影像后处理方法,对预测结果优化,提高监测方法的泛化性和鲁棒性,解决训练样本有限而易出现的过拟合问题,从而达到提高城市绿地高分辨率遥感监测的精度和时效性。
图2为本发明城市绿地高分遥感监测方法的优选流程图。优选地,
一、训练样本集构建步骤:
针对高分辨遥感影像特征,将部分典型区域作为样本区域,利用目视解译方法进行高分遥感影像的样本提取,将目视解译得到的矢量文件进行要素转栅格获得标签图像,记录遥感影像中不同类型植被位置的地表真实图像,获取充足的训练样本数据集。
如图2所示,高分辨率遥感数据输入后,进行样本区选择和目标解释。首先,根据城市绿地的空间形态、组织方式和植被类型,选择部分典型区域作为样本区域,也可称为是典型样本区域,如公园区选择几处典型区域、高尔夫球场选择几处典型区域、居民区选择几处典型区域等等。再利用目视解译方法进行高分遥感影像的样本提取,将目视解译得到的矢量文件进行要素转栅格获得标签图像,即记录遥感影像中不同类型植被位置的地表真实图像。如图3所示的数据集部分影像及对应标签图像,显示了标签为落叶树、常绿树、草地和非植被区的标签图像。
二、多维特征空间构建步骤:
先利用数据增强的方法进行影像处理以突出有效光谱信息,然后利用随机裁剪的方法将标签图像以及数据增强后的遥感影像裁剪,并基于裁剪后的标签图像和遥感影像进行特征计算处理,构建多维特征空间。对训练样本数据集进行数据增强和随机裁剪,能够充足数据集,提高训练样本集构建的效率,在泛化网络模型的同时避免过拟合问题,并且是构建多维特征空间数据的基础前提。
首先,利用数据增强的方法进行影像处理,突出有效光谱信息,提升深度学习过程中的收敛效率。本发明采用min-max标准化法,也成离差标准化,将每个通道的像元值数据范围从区间[0,255]缩小至[0,1]。
其中,xmin表示样本数据的最小值,xmax表示样本数据的最大值。
其次,利用随机裁剪的方法,提高训练样本数量,保证深度学习的样本数量需求。设定裁剪尺寸的大小(如256×256),同时,根据设定数量,结合随机函数,设定裁剪起始位置点。根据起始位置点和裁剪尺寸,将目视解译后的样本区域和高分遥感影像裁剪出样本数据,从而大幅提升样本数据的数据量。
然后,根据数据增强和随机裁剪处理后的训练样本数据集进行特征计算处理,构建包括植被特征、空间特征、对比度特征、纹理特征和物候特征的五类特征的多维特征空间。针对高分辨率遥感影像数据波段较少,模型特征学习丰富度有限的现状,本发明从五个不同的维度分别构建了五类遥感影像特征,即植被特征、空间特征、对比度特征、纹理特征和物候特征。即从光谱、空间、对比度、纹理和物候等五个方面,构建多维特征空间,从而丰富深度学习的信息。
第一,通过构建归一化植被指数将其作为城市绿地的植被特征;第二,构建了nDSM数字表面模型将其作为城市绿地的空间特征;第三,通过AC算法计算局部对比度特征图,将其作为城市绿地的对比度特征;第四,通过灰度共生矩阵获取图像纹理特征图,将其作为城市绿地的纹理特征;第五,加入同期冬季影像将其作为城市绿地的物候特征。
(1)植被特征
植被特征我们选取归一化植被指数,它是衡量植被覆盖程度、检测植物生长状况等的重要指标,它可以综合相关的光谱信息,突出影像中的植被,而减少其中的非植被信息。
式中,NIR表示近红外波段的值,R表示红波段的值。当NDVI<0,该区域可能存在水、雪或者云等地物;当NDVI>0时,表明该区域可能覆盖有植被;当NDVI=0时,该区域极有可能覆盖有岩石或裸地等地物。
(2)空间特征
本发明选择nDSM作为城市绿地的空间特征。nDSM是指消除了地形的影响,记录了所有地面物体相对于地面的高度信息的数据模型。数字表面模型(DSM,Digital SurfaceModel) 是指包含了地表建筑物、桥梁和树木等高度的地面高程模型。数字高程模型(DEM,Digital Elevation Model)是描述地表起伏形态特征的空间数据模型。将包含地物高度及地形起伏高度的DSM与DEM相减,即可得到只含地物高度的数据模型nDSM。计算公式如下:
nDSM(i,j)=DSM(i,j)-DEM(i,j) (3)
其中:nDSM(i,j)表示nDSM在第i行第j列的高程值;DSM(i,j)表示DSM在第i行第j列的高程值;DEM(i,j)表示DEM在第i行第j列的高程值。
(3)对比度特征
AC算法是一种基于局部对比度的特征提取算法,它的基本思路是将图像从RGB颜色空间转换到LAB颜色空间中,然后对于图像中的每一个感知单元在不同尺寸大小的窗口上分别计算局部对比度值,再将得到的不同窗口尺寸大小下的多个局部对比度值相加,以此方式遍历整张图像得到最终的影像特征图。
举例来讲,假设内部区域R1,外部区域R2,计算内部区域R1和外部区域R2的局部对比度时,通过改变R2的大小实现多尺度显著性计算。感知单元R1可以是一个像素或一个像素块,其邻域为R2,(R1)R2所包含的所有像素的特征值的平均值作为(R1)R2的特征值。设像素p为R1和R2的中心,p所在位置局部对比度为:
其中N1和N2分别是R1和R2中像素的个数。vk是k这个位置的特征值或特征向量。由于AC方法采用Lab颜色空间,所以采用欧氏距离来计算特征距离。R1默认为一个像素,R2 边长为[L/8,L/2]之间的正方形区域,L为长宽中较小者。多个尺度的特征显著图通过直接相加得到完整的显著图。
(4)纹理特征
图像的纹理特征能够更好地兼顾图像宏观性质与细微结构两个方面,是地物分类提取的重要特征。提取纹理特征的方法很多,如基于局部统计特性的特征、基于随机场模型的特征、基于空间频率的特征、分形特征等,应用最广泛的是基于灰值共生矩阵的特征。
1973年提出的灰度共生矩阵方法,是目前公认的一种重要纹理分析方法。共生矩阵是距离和方向的函数,其描述在θ方向上,相隔d像元距离的一对像元,分别具有灰度值i和j 的出现概率,其元素可记为P(i,j|d,θ)。灰度共生矩阵的各元素计算公式如下:
假定待分析的图像在水平和垂直方向上各有Nx和Ny个像素。设Zx={1,2,…,Nx}为水平空间域,Zy={1,2,…,Ny}为垂直空间域。当距离为1,θ分别为0度、45度、90度、135度时的公式分别为:
其中,k、m和l、n分别表示在所选计算窗口中的变动,#表示使大括号成立的像素对数。
进行特征值的计算,根据上述公式(6-9)构造四个方向的共生矩阵,然后分别计算这四个共生矩阵的能量、熵、惯性矩、相关这4个纹理参数,得到图像的纹理特征。
(5)物候特征
冬季落叶树凋零,本发明采用高分遥感影像多时相遥感影像,结合植被的物候学理论将冬季影像加入深度学习模型中,用以区分常绿树和落叶树,对单夏季影像进行分类结果优化。
三、U-Net+模型构建步骤:
基于构建的所述多维特征空间,面向城市绿地特征,依次利用图像边缘补零改进方式、批归一化处理改进方式以及正则化改进方式改进U-net模型,建立面向城市绿地并基于多维特征的U-Net+深度学习模型。
采用图像边缘填充策略,保证输入网络和输出网络的影像大小一致;为提高模型的泛化性和鲁棒性,添加Dropout正则化以及BN层,改进对U-Net模型,可以保证模型在避免过拟合的同时加快训练速度;为剔除图像边缘预测精度较低对损失函数计算结果的影响,改进交叉熵函数提高预测精度。
同时,针对前四类特征,将高分辨遥感影像(真彩色/假彩色)与先前构建的植被、空间、对比度、纹理特征进行波段组合,得到4通道的多特征高分辨率影像。针对物候特征,冬季落叶植被进入休眠期,与夏季植被的光谱差异显著,结合植被物候学理论在模型中加入高分二号冬季影像,可以把冬季落叶树进行剔除,对夏季影像分类结果进行校正。将制作好的训练集输入至U-Net+深度学习模型中进行训练,得到最佳参数组合,在模型预测时采用膨胀预测获得分类结果。将获取的植被特征、空间特征、对比度特征、纹理特征和物候特征分类图进行投票法融合,进一步优选出最佳的比如北京主城区城市绿地预测结果。
U-Net模型是一种改进的FCN结构,是目前扩展性最好的全连接神经网络。其结构清晰呈现字母U形,由左半边的压缩通道(Contracting Path)和右半边扩展通道(Expansive Path) 组成。U-Net巧妙的融合了编码-解码结构和跳跃网络的特点,压缩通道是一个编码器,用于逐层提取影像的特征。它采用2个卷积层和1个最大池化层的结构,每进行一次池化操作后特征图的维数就增加1倍。扩展通道是一个解码器,用于还原影像的位置信息,在扩展通道,先进行1次反卷积操作,使特征图的维数减半,然后拼接对应压缩通道裁剪得到的特征图,重新组成一个2倍大小的特征图,再采用2个卷积层进行特征提取,并重复这一结构。在最后的输出层,用2个卷积层将64维的特征图映射成2维的输出图。但是现有的U-Net模型还存在一些不足,本发明对原始的网络结构进行特定的改进,建立面向城市绿地并基于多维特征的U-Net+深度学习模型。
(1)图像边缘补零改进
为保证输入图像与输出图像大小一致,采用图像边缘补零策略,如图4a和图4b所示对比图,图4a为valid方式,即没有补零的情况;图4b为same方式,即补零的情况。
(2)批归一化处理方法改进
深度学习在训练的过程中不断更新参数,因此除了输入层以外,训练参数更新将导致其后层输入数据分布的变化,这极易导致梯度弥散的发生,训练的速度也会降低。由于网络训练参数繁多,为了防止梯度消失和梯度爆炸,本发明采用批归一化(BatchNormalization, BN)处理方法,在卷积层后面加入批归一化处理,然后再把归一化后的数据输入上述的卷积层的下一层,从而防止梯度消失和梯度爆炸,提高网络训练速度。这样做可以更好的将上层网络的输出连接到最后一层上采样的结果中。这里的归一化层是一个可学习、有参数的网络层,如式1所示。
(3)Dropout层改进
Dropout是深度学习中正则化的一种方法,是指在网络训练时,以一定的概率暂时丢弃神经元,防止模型对少量样本过度学习出现过拟合现象。如果在模型的每一次反卷积后都加入 dropout层,在一定程度上防止过拟合情况的发生,如图5a和图5b所示对比图,图5a为不添加Dropout层的原网络,图5b为添加Dropout层后的网络。
改进后的面向城市绿地并基于多维特征的U-Net+深度学习模型的结构如图6所示, U-Net+模型结构的输入图像尺寸为256×256×c(c表示加入了多源数据后的影像总波段数),首先进行了一次3×3卷积和BN操作(水平黑色剪头),将输入数据转换为32维的特征图,然后再重复采用1个最大池化层和2个卷积层的结构。扩展通道是一个解码器,它能够逐渐还原影像的细节信息和位置信息。在扩展通道,先进行了1次反卷积操作(竖向空心箭头),使特征图的维数减半,然后拼接对应压缩通道的特征图(斜线填充框),重新组成一个2倍维数的特征图,再采用2个卷积层,并重复这一结构,拼接操作能够使网络学习多尺度和不同层级的特征,增加网络健壮性,有利于提高分类精度;在最后的输出层,采用一个卷积核为 1×1大小的6维卷积层将上一层得到的特征图映射成6维输出特征图。图中所标的字母“D”代表在该位置的卷积层后添加丢弃神经元概率为0.5的Dropout层。线性激活函数使用了 Relu,池化都选择了max-pooling,优化器使用了Adam。
将训练样本的多维特征数据加入U-net+模型中进行训练。如图7所述的训练流程图,在模型训练中,共有350个256×256的遥感影像、多维特征数据和对应标签输入U-net+模型中,模型在编码部分提取出输入影像的特征,在解码部分恢复其空间位置与分辨率,在像素分类层对每一像素进行分类获得类别信息。将预测的分类图与输入的标签图在交叉熵函数中计算损失值(loss),将损失值传递至模型中的进行反向传播,逐层优化模型中的参数。
卷积层的激活函数采用RELU函数,卷积层的计算公式可表示为:
深度学习模型一般用损失函数计算地面真实数据与预测概率之间的loss值来量化两者之间的差距,当loss值越小,说明分类越准确。本发明使用分类交叉熵函数(Categorical Crossentropy)计算loss值,公式为:
模型训练的过程即优化loss函数、缩小loss值的过程,即后向传播。本发明优选采用 Adam优化算法进行模型训练,逐层更新模型中的参数,Adam算法容易实现,计算效率高且内存需求低。当loss值达到一定阈值后,训练停止。
U-net+模型训练完成后,每层的参数都取得了最优值,此时再次使用测试集图像进行前向传播即为模型预测的过程。如图8所示的模型预测结果与真实地表对比。
四、影像后处理步骤:
对U-Net+模型预测结果进行后处理,优选利用全连接CRFs影像后处理方法对U-Net+模型预测结果进行后处理,结合原始高分辨遥感影像中所有像素之间的关系对分类结果进行处理,从而对预测结果优化,得到城市绿地高分辨率遥感监测成果。
全连接CRFs将图像中所有的像素两两连接,描述了每个像素与其他所有像素之间的关系,并用像素间的颜色和实际相对距离来衡量像素间的差距,同时鼓励差距大的像素分配不同标签,使全连接CRFs能够尽量在边界处分割,不容易造成边界的过度平滑。
在全连接CRFs中,预测的标签值x的能量定义为:
其中,i,j∈{1,2,...N,N为图像像素总个数},ψu(xi)为一元势能,ψp(xi,xj)为二元势能。一元势能ψu(xi)表示网络模型对图像中每一个像素i独立预测得到的类别概率分布图,它包含很多噪音和不连续性。二元势能ψp(xi,xj)表示一个全连接图,连接了图像中所有像素对,在实际应用过程中将原始影像提供的信息作为二元势能,它的模型表达示式为:
其中,Ii,Ij为颜色向量,pi,pj为位置向量。特征函数以特征的形式表示了不同像素之前的“亲密度”,第一项被称作表面核,第二项被称作平滑核。在全连接CRFs进行影像后处理的实际过程中,一元势能是概率分布图,是每一个像素的类别分配概率,由网络模型输出的特征图经过softmax函数运算后得到的结果;二元势能中的位置信息和颜色信息是由原始影像提供。
使用全连接CRFs方法对U-Net+模型预测结果进行后处理。全连接CRFs能够结合原始影像中所有像素之间的关系对分类结果进行处理,改善错分现象,细化地物边缘,优化预测结果,从而形成高精度的城市绿地高分遥感监测成果。
本发明还涉及一种城市绿地高分遥感监测系统,该系统与上述的城市绿地高分遥感监测方法相对应,可理解为是实现上述城市绿地高分遥感监测方法的系统,该系统结构如图9所示,包括依次连接的训练样本集构建模块、多维特征空间构建模块、U-Net+模型构建模块和影像后处理模块,训练样本集构建模块和U-Net+模型构建模块相连接,各模块相互协同工作,在构建充足的训练样本数据集后,通过构建多维特征空间、增强特征丰富度,同时建立面向城市绿地并基于多维特征的U-Net+深度学习模型,结合影像后处理方式,提高监测方法的泛化性和鲁棒性,进而提高城市绿地高分辨率遥感监测的精度。
其中,训练样本集构建模块,针对高分辨遥感影像特征,选择样本区域并在样本区域内构建训练样本数据集;多维特征空间构建模块,将训练样本集构建模块的训练样本数据集进行数据增强、随机裁剪和特征计算处理,构建包括植被特征、空间特征、对比度特征、纹理特征和物候特征的多维特征空间;通过构建归一化植被指数将其作为城市绿地的植被特征,构建nDSM数字表面模型将其作为城市绿地的空间特征,通过AC算法计算局部对比度特征图将其作为城市绿地的对比度特征,通过灰度共生矩阵获取图像纹理特征图将其作为城市绿地的纹理特征,并加入同期冬季影像将其作为城市绿地的物候特征;U-Net+模型构建模块,基于多维特征空间构建模块构建的所述多维特征空间,面向城市绿地特征,依次利用图像边缘补零改进方式、批归一化处理改进方式以及正则化改进方式改进U-net模型,建立面向城市绿地并基于多维特征的U-Net+深度学习模型;再将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,并在训练完成后进行城市绿地空间分布的预测,获取U-Net+模型预测结果;影像后处理模块,对U-Net+模型预测结果进行后处理,得到城市绿地高分辨率遥感监测成果。
优选地,所述训练样本集构建模块,针对高分辨遥感影像特征,将部分典型区域作为样本区域,利用目视解译方法进行高分遥感影像的样本提取,将目视解译得到的矢量文件进行要素转栅格获得标签图像,记录遥感影像中不同类型植被位置的地表真实图像,构建训练样本数据集,如图3所示的数据集部分影像及对应标签图像。多维特征空间构建模块先利用数据增强的方法进行影像处理以突出有效光谱信息,然后利用随机裁剪的方法将标签图像以及数据增强后的遥感影像裁剪,并基于裁剪后的标签图像和遥感影像进行特征计算处理,构建多维特征空间。
优选地,所述U-Net+模型构建模块中图像边缘补零改进方式如图4b所示;批归一化处理(BN)改进方式是在模型卷积层后面加入批归一化处理,再把归一化处理后的数据输入所述模型卷积层的下一层,从而将上层网络的输出连接到最后一层上采样的结果中,防止梯度消失和梯度爆炸,提高网络训练速度;正则化改进方式(dropout)如图5b所示,是在模型的每一次反卷积后都加入具有特定丢弃神经元概率的dropout层。
优选地,基于多维特征的U-Net+深度学习模型的结构如图6所示,训练流程如图7所示,所述U-Net+模型构建模块中将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,是将训练样本的多维特征数据中的遥感影像、多维特征数据和相应标签图像输入U-net+ 深度学习模型中,U-net+深度学习模型在编码部分提取出输入影像的特征,在解码部分恢复其空间位置与分辨率,在像素分类层对每一像素进行分类获得类别信息;将预测的分类图与输入的标签图在交叉熵函数中计算损失值,将损失值传递至U-net+深度学习模型中进行反向传播,逐层优化模型中的参数,当损失值达到一定阈值后,训练停止。
优选地,所述影像后处理模块,利用全连接CRFs影像后处理方法对U-Net+模型预测结果进行后处理,结合原始高分辨遥感影像中所有像素之间的关系对分类结果进行处理,从而对预测结果优化,得到城市绿地高分辨率遥感监测成果。
应当指出,以上所述具体实施方式可以使本领域的技术人员更全面地理解本发明创造,但不以任何方式限制本发明创造。因此,尽管本说明书参照附图和实施例对本发明创造已进行了详细的说明,但是,本领域技术人员应当理解,仍然可以对本发明创造进行修改或者等同替换,总之,一切不脱离本发明创造的精神和范围的技术方案及其改进,其均应涵盖在本发明创造专利的保护范围当中。
Claims (8)
1.一种城市绿地高分遥感监测方法,其特征在于,包括下述步骤:
训练样本集构建步骤,针对高分辨遥感影像特征,选择样本区域,构建训练样本数据集;
多维特征空间构建步骤,将训练样本数据集进行数据增强、随机裁剪和特征计算处理,构建包括植被特征、空间特征、对比度特征、纹理特征和物候特征的多维特征空间;通过构建归一化植被指数将其作为城市绿地的植被特征,构建nDSM数字表面模型将其作为城市绿地的空间特征,通过AC算法计算局部对比度特征图将其作为城市绿地的对比度特征,通过灰度共生矩阵获取图像纹理特征图将其作为城市绿地的纹理特征,并加入同期冬季影像将其作为城市绿地的物候特征;
U-Net+模型构建步骤,基于构建的所述多维特征空间,面向城市绿地特征,依次利用图像边缘补零改进方式、批归一化处理改进方式以及正则化改进方式改进U-net模型,建立面向城市绿地并基于多维特征的U-Net+深度学习模型;再将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,并在训练完成后进行城市绿地空间分布的预测,获取U-Net+模型预测结果;所述批归一化处理改进方式是在模型卷积层后面加入批归一化处理,再把归一化处理后的数据输入所述模型卷积层的下一层;所述正则化改进方式是在模型每一次反卷积后都加入具有特定丢弃神经元概率的dropout层;
影像后处理步骤,对U-Net+模型预测结果进行后处理,得到城市绿地高分辨率遥感监测成果。
2.根据权利要求1所述的城市绿地高分遥感监测方法,其特征在于,所述训练样本集构建步骤,针对高分辨遥感影像特征,将部分典型区域作为样本区域,利用目视解译方法进行高分遥感影像的样本提取,将目视解译得到的矢量文件进行要素转栅格获得标签图像,记录遥感影像中不同类型植被位置的地表真实图像,构建训练样本数据集;所述多维特征空间构建步骤先利用数据增强的方法进行影像处理以突出有效光谱信息,然后利用随机裁剪的方法将标签图像以及数据增强后的遥感影像裁剪,并基于裁剪后的标签图像和遥感影像进行特征计算处理从而构建多维特征空间。
3.根据权利要求1所述的城市绿地高分遥感监测方法,其特征在于,所述U-Net+模型构建步骤中将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,是将训练样本的遥感影像、多维特征数据和相应标签图像输入U-net+深度学习模型中,U-net+深度学习模型在编码部分提取出输入影像的特征,在解码部分恢复其空间位置与分辨率,在像素分类层对每一像素进行分类获得类别信息;将预测的分类图与输入的标签图在交叉熵函数中计算损失值,将损失值传递至U-net+深度学习模型中进行反向传播,逐层优化模型中的参数,当损失值达到一定阈值后,训练停止。
4.根据权利要求1或2所述的城市绿地高分遥感监测方法,其特征在于,所述影像后处理步骤,利用全连接CRFs影像后处理方法对U-Net+模型预测结果进行后处理,结合原始高分辨遥感影像中所有像素之间的关系对分类结果进行处理,从而对预测结果优化,得到城市绿地高分辨率遥感监测成果。
5.一种城市绿地高分遥感监测系统,其特征在于,包括依次连接的训练样本集构建模块、多维特征空间构建模块、U-Net+模型构建模块和影像后处理模块,所述训练样本集构建模块和U-Net+模型构建模块相连接,
所述训练样本集构建模块,针对高分辨遥感影像特征,选择样本区域,构建训练样本数据集;
所述多维特征空间构建模块,将训练样本集构建模块的训练样本数据集进行数据增强、随机裁剪和特征计算处理,构建包括植被特征、空间特征、对比度特征、纹理特征和物候特征的多维特征空间;通过构建归一化植被指数将其作为城市绿地的植被特征,构建nDSM数字表面模型将其作为城市绿地的空间特征,通过AC算法计算局部对比度特征图将其作为城市绿地的对比度特征,通过灰度共生矩阵获取图像纹理特征图将其作为城市绿地的纹理特征,并加入同期冬季影像将其作为城市绿地的物候特征;
所述U-Net+模型构建模块,基于多维特征空间构建模块构建的所述多维特征空间,面向城市绿地特征,依次利用图像边缘补零改进方式、批归一化处理改进方式以及正则化改进方式改进U-net模型,建立面向城市绿地并基于多维特征的U-Net+深度学习模型;再将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,并在训练完成后进行城市绿地空间分布的预测,获取U-Net+模型预测结果;所述批归一化处理改进方式是在模型卷积层后面加入批归一化处理,再把归一化处理后的数据输入所述模型卷积层的下一层;所述正则化改进方式是在模型的每一次反卷积后都加入具有特定丢弃神经元概率的dropout层;
所述影像后处理模块,对U-Net+模型预测结果进行后处理,得到城市绿地高分辨率遥感监测成果。
6.根据权利要求5所述的城市绿地高分遥感监测系统,其特征在于,所述训练样本集构建模块,针对高分辨遥感影像特征,将部分典型区域作为样本区域,利用目视解译方法进行高分遥感影像的样本提取,将目视解译得到的矢量文件进行要素转栅格获得标签图像,记录遥感影像中不同类型植被位置的地表真实图像,构建训练样本数据集;所述多维特征空间构建模块先利用数据增强的方法进行影像处理以突出有效光谱信息,然后利用随机裁剪的方法将标签图像以及数据增强后的遥感影像裁剪,并基于裁剪后的标签图像和遥感影像进行特征计算处理从而构建多维特征空间。
7.根据权利要求5所述的城市绿地高分遥感监测系统,其特征在于,所述U-Net+模型构建模块中将训练样本的多维特征数据加入U-net+深度学习模型中进行训练,是将训练样本的遥感影像、多维特征数据和相应标签图像输入U-net+深度学习模型中,U-net+深度学习模型在编码部分提取出输入影像的特征,在解码部分恢复其空间位置与分辨率,在像素分类层对每一像素进行分类获得类别信息;将预测的分类图与输入的标签图在交叉熵函数中计算损失值,将损失值传递至U-net+深度学习模型中进行反向传播,逐层优化模型中的参数,当损失值达到一定阈值后,训练停止。
8.根据权利要求5或6所述的城市绿地高分遥感监测系统,其特征在于,所述影像后处理模块,利用全连接CRFs影像后处理方法对U-Net+模型预测结果进行后处理,结合原始高分辨遥感影像中所有像素之间的关系对分类结果进行处理,从而对预测结果优化,得到城市绿地高分辨率遥感监测成果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010386282.9A CN111914611B (zh) | 2020-05-09 | 2020-05-09 | 城市绿地高分遥感监测方法与系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010386282.9A CN111914611B (zh) | 2020-05-09 | 2020-05-09 | 城市绿地高分遥感监测方法与系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111914611A CN111914611A (zh) | 2020-11-10 |
CN111914611B true CN111914611B (zh) | 2022-11-15 |
Family
ID=73237554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010386282.9A Active CN111914611B (zh) | 2020-05-09 | 2020-05-09 | 城市绿地高分遥感监测方法与系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111914611B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112580484B (zh) * | 2020-12-14 | 2024-03-29 | 中国农业大学 | 基于深度学习的遥感影像玉米秸秆覆盖识别方法及装置 |
CN112651145B (zh) * | 2021-02-05 | 2021-09-10 | 河南省航空物探遥感中心 | 基于遥感数据反演的城市多样性指数分析与可视化建模 |
CN113011294B (zh) * | 2021-03-08 | 2023-11-07 | 中国科学院空天信息创新研究院 | 基于遥感影像识别圆形喷灌地的方法、计算机设备和介质 |
CN112990024B (zh) * | 2021-03-18 | 2024-03-26 | 深圳博沃智慧科技有限公司 | 一种城市扬尘的监测方法 |
CN112990365B (zh) * | 2021-04-22 | 2021-08-17 | 宝略科技(浙江)有限公司 | 一种面向遥感图像语义分割的深度学习模型的训练方法 |
CN113705326B (zh) * | 2021-07-02 | 2023-12-15 | 重庆交通大学 | 一种基于全卷积神经网络的城市建设用地识别方法 |
CN113822220B (zh) * | 2021-10-09 | 2024-08-20 | 海南长光卫星信息技术有限公司 | 一种建筑物检测方法及系统 |
CN114283286A (zh) * | 2021-12-30 | 2022-04-05 | 北京航天泰坦科技股份有限公司 | 遥感图像分割方法、装置和电子设备 |
CN114529721B (zh) * | 2022-02-08 | 2024-05-10 | 山东浪潮科学研究院有限公司 | 一种基于深度学习的城市遥感影像植被覆盖识别方法 |
CN115761518B (zh) * | 2023-01-10 | 2023-04-11 | 云南瀚哲科技有限公司 | 一种基于遥感图像数据的作物分类方法 |
CN118627750A (zh) * | 2024-07-04 | 2024-09-10 | 苏州市中遥数字科技有限公司 | 一种基于高分遥感数据的多维度图像处理系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7284502B2 (ja) * | 2018-06-15 | 2023-05-31 | 大学共同利用機関法人情報・システム研究機構 | 画像処理装置及び方法 |
CN109446992B (zh) * | 2018-10-30 | 2022-06-17 | 苏州中科天启遥感科技有限公司 | 基于深度学习的遥感影像建筑物提取方法及系统、存储介质、电子设备 |
CN109919206B (zh) * | 2019-02-25 | 2021-03-16 | 武汉大学 | 一种基于全空洞卷积神经网络的遥感影像地表覆盖分类方法 |
-
2020
- 2020-05-09 CN CN202010386282.9A patent/CN111914611B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111914611A (zh) | 2020-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111914611B (zh) | 城市绿地高分遥感监测方法与系统 | |
CN108961235B (zh) | 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法 | |
CN113421269B (zh) | 一种基于双分支深度卷积神经网络的实时语义分割方法 | |
CN109871798B (zh) | 一种基于卷积神经网络的遥感影像建筑物提取方法 | |
CN109086773B (zh) | 基于全卷积神经网络的断层面识别方法 | |
CN110969088B (zh) | 一种基于显著性检测与深度孪生神经网络的遥感影像变化检测方法 | |
CN111915592B (zh) | 基于深度学习的遥感图像云检测方法 | |
CN109800629A (zh) | 一种基于卷积神经网络的遥感图像目标检测方法 | |
CN104462494B (zh) | 一种基于无监督特征学习的遥感图像检索方法及系统 | |
CN114444791A (zh) | 一种基于机器学习的洪涝灾害遥感监测评估方法 | |
CN111639587B (zh) | 基于多尺度谱空卷积神经网络的高光谱图像分类方法 | |
CN110309780A (zh) | 基于bfd-iga-svm模型的高分辨率影像房屋信息快速监督识别 | |
CN108052966A (zh) | 基于卷积神经网络的遥感图像场景自动提取和分类方法 | |
CN111582194A (zh) | 基于多特征lstm网络的多时相高分辨率遥感影像的建筑物提取方法 | |
KR101941043B1 (ko) | 고화질 항공 이미지에서의 물체 검출 방법 | |
CN113312993B (zh) | 一种基于PSPNet的遥感数据土地覆盖分类方法 | |
CN113486886A (zh) | 一种自然场景下的车牌识别方法和装置 | |
CN112950780A (zh) | 一种基于遥感影像的网络地图智能生成方法及系统 | |
CN116524189A (zh) | 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法 | |
CN116091937A (zh) | 基于深度学习的高分辨率遥感影像地物识别模型计算方法 | |
CN113673534B (zh) | 一种基于Faster RCNN的RGB-D图像果实检测方法 | |
CN118314353B (zh) | 一种基于双分支多尺度特征融合的遥感图像分割方法 | |
CN115019163A (zh) | 基于多源大数据的城市要素识别方法 | |
CN112861802A (zh) | 基于时空深度学习融合技术的农作物全自动化分类方法 | |
CN118397260A (zh) | 多源协同的耕地地块分割方法、装置、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |