Nothing Special   »   [go: up one dir, main page]

CN110135267A - 一种大场景sar图像细微目标检测方法 - Google Patents

一种大场景sar图像细微目标检测方法 Download PDF

Info

Publication number
CN110135267A
CN110135267A CN201910307904.1A CN201910307904A CN110135267A CN 110135267 A CN110135267 A CN 110135267A CN 201910307904 A CN201910307904 A CN 201910307904A CN 110135267 A CN110135267 A CN 110135267A
Authority
CN
China
Prior art keywords
network
denoted
loss
image
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910307904.1A
Other languages
English (en)
Other versions
CN110135267B (zh
Inventor
韦顺军
苏浩
闫敏
周泽南
王琛
张晓玲
师君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201910307904.1A priority Critical patent/CN110135267B/zh
Publication of CN110135267A publication Critical patent/CN110135267A/zh
Application granted granted Critical
Publication of CN110135267B publication Critical patent/CN110135267B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种大场景SAR图像细微目标检测方法,它是基于卷积神经网络和YOLO算法目标检测原理,将SAR图像目标检测变换成回归问题,引入残差网络结构和构建特征金字塔,利用1×1卷积核实现SAR图像目标不同特征层交互及跨尺度预测,使得神经网络更加有利于大场景SAR目标特征提取及小目标实时检测;同时使用K‑means聚类确定边界框,使得神经网络训练所需的锚点框数量更少、模型表示能力更强、任务更容易学习。本发明具有实现简单、检测效率高、检测精度高、检测速度快、适用性好,能够实现对大场景SAR图像细微目标的精确端到端检测。

Description

一种大场景SAR图像细微目标检测方法
技术领域
本发明属于雷达技术领域,它特别涉及合成孔径雷达(SAR)目标检测技术领域。
背景技术
合成孔径雷达(SAR)作为一种具有全天时、全天候、信息量丰富的遥感成像技术,已成为当今对地观测的重要手段,在地形图像生成、目标探测与侦察、目标精确打击、国土资源勘查和自然灾害监测等国民经济与军事领域得到越来越广泛的应用,详见文献“刘国祥,丁晓利,陈永奇,等.极具潜力的空间对地观测新技术--合成孔径雷达干涉[J].地球科学进展,2000,15(6):734-740”。随着SAR技术不断成熟,成像分辨率不断提高,使得通过SAR图像的目标检测技术受到越来越广泛的关注。
基于深度学习的目标检测技术近年来发展十分迅速。卷积神经网络作为深度学习中的一种,成为当前语音分析和图像识别领域的研究热点,详见参考文献“Krizhevsky A,Sutskever I,Hinton G E.ImageNet classification with deep convolutional neuralnetworks[C].International Conference on Neural Information ProcessingSystems.2012.”。它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权重的数量。该优点在网络输入是多维图像时表现更为明显,图像可直接作为网络输入,避免了传统识别算法的复杂特征提取和数据重建过程。卷积神经网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对于平移、比例缩放、倾斜或者其他形式的变形具有高度不变性,详见参考文献“Lecun Y,Bengio Y,Hinton G.Deeplearning.[J].Nature,2015,521(7553):436.”。
目前基于深度学习模型的主流目标检测算法,可以分成两大类:(1)两步检测算法,其将检测问题划分为两个阶段,首先产生候选区域,然后对候选区域分类(一般还需要对位置精修),这类算法的典型代表是基于候选区域的R-CNN系算法,如R-CNN,Fast R-CNN,Faster R-CNN等,详见参考文献“Girshick,Ross B,et al."Rich Feature Hierarchiesfor Accurate Object Detection and Semantic Segmentation."computer vision andpattern recognition(2014):580-87.Print.”;(2)一步检测算法,其不需要候选区域阶段,直接产生物体的类别概率和位置坐标值,比较典型的算法如YOLO和SSD,详见参考文献“Liu L,Ouyang W,Wang X,et al.Deep Learning for Generic Object Detection:ASurvey[J].2018.”。目标检测模型的主要性能指标是检测准确度和速度,对于准确度,目标检测要考虑物体的定位准确性,而不单单是分类准确度。一般情况下,两步算法在准确度上有优势,而一步算法在速度上有优势。不过,随着研究的发展,两类算法都在两个方面做改进。
Google公司在2017年开源了TensorFlow目标检测API,详见参考网址“https://github.com/tensorflow/models/tree/master/research/object_detection”,并对主流的Faster R-CNN,R-FCN及SSD算法在MS-COCO数据集上的性能做了细致对比,详见参考文献“https://arxiv.org/pdf/1611.10012.pdf”。Facebook公司的FAIR 2018年也开源了基于Caffe2的目标检测平台详见参考资料“https://github.com/facebookresearch/Detectron”,其实现了最新的Mask R-CNN,RetinaNet等检测算法,并且给出了这些算法比较结果。显然易见,准确度和速度是一对矛盾体,如何更好地平衡它们一直是目标检测算法研究的一个重要方向。
目前,已经发展出诸SAR图像目标检测算法。其中,经典的恒虚警CFAR检测算法以其简单、快速、实时性强的特点而被广泛应用于SAR图像目标检测,详见参考文献“戴尔燕,金亚秋.多尺度自适应恒虚警率(CFAR)自动检测与重构多方位SAR图像中不同尺度目标物[J].遥感技术与应用,2009,24(6):722-730.”。根据不同类型目标在SAR图像的表征形式,相关学者也提出了多种SAR图像目标检测方法,如,详见参考文献“张嘉峰,朱博,张鹏,等.Wishart分布情形下极化SAR图像目标CFAR检测解析方法[J].电子学报,2018(2).”。但这些现有SAR图像检测方法通常仅利用SAR图像的局部区域统计特性,一般仅能做到像素级别的检测,而且要求目标与背景有较高的对比度,在简单小场景下SAR目标检测性能较好,但在复杂大场景下SAR细微目标检测性能急剧下降。因此,可以结合深度学习的卷积神经网络模型优势,将卷积神经网络深度学习应用于复杂大场景SAR图像细微目标检测,进一步提升大场景SAR图像目标检测能力。
发明内容
本发明提出了一种大场景SAR图像细微目标检测方法。该方法基于卷积神经网络和YOLO算法目标检测原理,将SAR图像目标检测变换成回归问题,引入残差网络结构和构建特征金字塔,利用1×1卷积核实现SAR图像目标不同特征层交互及跨尺度预测,使得神经网络更加有利于大场景SAR目标特征提取及小目标实时检测;同时使用K-means聚类确定边界框,使得神经网络训练所需的锚点框数量更少、模型表示能力更强、任务更容易学习。本发明克服了现有技术中大场景SAR图像目标检测速度慢、准确率低、对小目标检测不敏感的问题,可以实现对大场景SAR图像细微目标的精确端到端检测。
为了方便描述本发明的内容,首先作以下术语定义:
定义1:图像金字塔
图像金字塔是一种以多分辨率来解释图像的有效但概念简单的结构。应用于图像分割,机器视觉和图像压缩。一幅图像的金字塔是一系列以金字塔形状排列的分辨率逐步降低,且来源于同一张原始图的图像集合。其通过梯次向下采样获得,直到达到某个终止条件才停止采样。金字塔的底部是待处理图像的高分辨率表示,而顶部是低分辨率的近似。我们将一层一层的图像比喻成金字塔,层级越高,则图像越小,分辨率越低,详见文献“冈萨雷斯,数字图像处理第三版,电子工业出版社,2011”。
定义2:标准数据增强技术
标准数据增强技术通过对数据集图像进行翻转、旋转、缩放、平移、增加高斯噪声、对比度变换、颜色变换等操作来扩充数据集。数据增强主要是为了减少网络的过拟合现象,通过对训练图片进行变换可以得到泛化能力更强的网络,更好的适应应用场景,详见网站“https://medium.com/nanonets/how-to-use-deep-learning-when-you-have-limited-data-part-2-data-augmentation-c26971dc8ced”。
定义3:标准Darknet-53网络模型
标准Darknet-53网络模型是用来提取图片特征的,作为全卷积网络,Darknet-53主要由卷积层、批量归一化层及跃层连接组成,激活函数采用LeakyRelu,详见参考文献“Redmon J,Farhadi A.Yolov3:An incremental improvement[J].arXiv preprintarXiv:1804.02767,2018.”。
定义4:标准卷积神经分类网络Darknet训练方法
在Darknet框架上训练标准卷积神经分类网络,设置训练周期和学习率初始为0.01,以4级多项式衰减;权重衰减率和动量分别为0.0005,0.9,使用标准的数据增强方法:随机裁剪、旋转、曝光度、色调、饱和度、平移、翻转,详见文献“Redmon J,FarhadiA.Yolov3:An incremental improvement[J].arXiv preprint arXiv:1804.02767,2018.”。
定义5:标准YOLOv3网络模型
YOLO网络将目标检测问题转化为回归问题,合并分类和定位任务到一个步骤,直接预测物体的位置及类别,检测速度可以满足实时分析的要求。YOLOv3包含了新的特征提取网络Darknet-53,以及三种尺度的YOLO层,也就是预测层。通过在三种尺度上进行预测的方法,有效的增强了对不同大小物体及被遮挡物体的检测效果,并引入跃层连接以强化收敛效果,同时采用随机多尺度训练的方式增强了鲁棒性,详见文献“Redmon J,FarhadiA.Yolov3:An incremental improvement[J].arXiv preprint arXiv:1804.02767,2018.”。
定义6:特征金字塔
特征金字塔是多尺度目标检测系统中的一个基本组成部分,利用深度卷积神经网络固有的多尺度、多层级的金字塔结构去构建特征金字塔网络。使用一种自上而下的侧边连接,在所有尺度构建了高级语义特征图,有利于利用低级特征,提高小目标的检测率,详见文献“Lin T Y,Dollár P,Girshick R,et al.Feature pyramid networks for objectdetection[C]//Proceedings of the IEEE Conference on Computer Vision andPattern Recognition.2017:2117-2125.”。
定义7:损失函数(TSE)
将标准的yolov3网络的平方和损失(Sum Squared Error,SSE)函数用一种新的损失函数Tan-Squared Error(TSE)替换,TSE能更好地计算连续变量的损失;TSE能有效减低Sigmoid函数梯度消失的影响,使模型收敛更加快速。在VOC数据集上的实验结果表明,与原网络模型的表现相比,利用TSE有效提高了检测精度,且收敛更加快速,详见文献“Lyu S,Cai X,Feng R.YOLOv3Network Based on Improved Loss Function.Computer Systemsand Applications,2019,28(2):1-7(in Chinese).http://www.c-s-a.org.cn/1003-3254/6772.html”。
定义8:标准k-means聚类
使用聚类进行选择的优势是达到相同的交并比(IoU)结果时所需的锚点框数量更少,使得模型的表示能力更强,任务更容易学习。于是对于Faster R-CNN的手选先验框方法做了改进,采用k-means在训练集边界框上进行聚类产生合适的先验框。由于使用欧氏距离会使较大的边界框比小的边界框产生更大的误差,而IoU与边界框尺寸无关,因此使用IoU参与距离计算,使得通过这些锚点框获得好的IoU值。
算法过程:将每个边界框的宽和高相对整张图片的比例(wr,hr)进行聚类,得到k个锚点框,由于区域层的锚点参数是绝对值大小,因此需要将这个比例值乘上卷积层的输出特征的大小。
定义9:标准非极大值抑制方法(NMS)
目标检测可能会出现的一个问题是,模型会对同一目标做出多次预测,得到多个包围盒。NMS旨在保留最接近真实包围盒的那一个预测结果,而抑制其他的预测结果。NMS的做法是:首先,对每个类别,NMS先统计每个预测结果输出的属于该类别概率,并将预测结果按该概率由高至低排序;其次,NMS认为对应概率很小的预测结果并没有找到目标,所以将其抑制;然后,NMS在剩余的预测结果中,找到对应概率最大的预测结果,将其输出,并抑制和该包围盒有很大重叠(如IoU大于0.3)的其他包围盒;重复上一步,直到所有的预测结果均被处理。
定义10:标准的小批量梯度下降法
小批量梯度下降法综合了批量梯度下降法和随机梯度下降法,在每次更新速度和更新次数中间取得一个平衡,相对于随机梯度下降,小批量梯度下降降低了收敛波动性,即降低了参数更新的方差,使得更新更加稳定。相对于批量梯度下降,其提高了每次学习的速度。并且其不用担心内存瓶颈从而可以利用矩阵运算进行高效计算,详见文献“Ruder S.Anoverview of gradient descent optimization algorithms[J].arXiv preprint arXiv:1609.04747,2016.”。
定义11:标准通道数加倍方法
标准通道数加倍就是将特征图通过当前卷积核数量的两倍计算后得到的结果,详见文献“K.He,X.Zhang,S.Ren,and J.Sun.Deep residual learning for imagerecognition.In Proceedings of the IEEE conference on computer vision andpattern recognition,pages 770–778,2016.”。
定义12:标准GoogLeNet网络
GoogLeNet网络中1╳1卷积在相同尺寸的感受野中叠加更多的卷积,能提取到更丰富的特征;使用1╳1卷积可以进行卷积核通道数的降维和升维,实现跨通道的交互和信息整合,可以降低计算复杂度,详见文献“C.Szegedy,W.Liu,Y.Jia,P.Sermanet,S.Reed,D.Anguelov,D.Erhan,V.Vanhoucke,and A.Rabinovich.Going deeper withconvolutions.In CVPR,2015.”。
定义13:标准批量归一化方法
标准批量归一化方法(BN,Batch Normalization)具有快速训练收敛的特性和具有提高网络泛化能力的特性,详见文献“Ioffe S,Szegedy C.Batch normalization:accelerating deep network training by reducing internal covariate shift[C]International Conference on International Conference on MachineLearning.JMLR.org,2015.”。
定义14:传统的顺序合并图像方法
传统的顺序合并图像方法就是将多尺度裁剪的图像按照图像编号顺序合并为原来的大图,详见文献“Xia G S,Bai X,Ding J,et al.DOTA:A Large-scale Dataset forObject Detection in Aerial Images[J].2017.”。
本发明提供的一种大场景SAR图像细微目标检测方法,它包括以下几个步骤:
步骤1、待检测大场景SAR图像进行初始化和预处理:
大场景SAR图像预处理,包括:初始化待检测的SAR图像记为X,X的维数记为N0×N0;初始化N种滑窗切片,滑窗切片维数大小分别记为将N种滑窗切片按照维数大小从小到大排序,得到一个N层图像金字塔;将待检测SAR图像中飞机、船、车、建筑、道路等待检测人造目标进行人工位置和类别标注,得到目标类别的总数记为K,目标类别的位置记为Pk=(xk,yk,wk,hk),k=1,2,…,K,其中(xk,yk)分别记为第k类目标的中心坐标,(wk,hk)分别记为第k类目标的宽和高;
采用传统的标准数据增强技术对待检测SAR图像X进行数据增强,得到数据增强后的SAR图像检测数据集,记为Ω,Ω集合中图像总数量记为NΩ;初始化数据集Ω中训练集和测试集图像数量的比例,记为K1:K2;对数据集Ω中的图像按照比例K1:K2随机划分训练集和测试集,得到的训练集记为ΩK1,得到的测试集记为ΩK2
步骤2、构建和初始化卷积神经分类网络模型:
采用传统的标准Darknet-53网络模型构造方法,构建和初始化标准的卷积神经分类网络模型,记为W0 c,初始化网络W0 c的卷积层数,记为Nc,其中卷积核大小为ci×ci,i=1,3,…,n;初始化网络W0 c的残差块层数,记为其中表示第次下采样后的残差块层数;
采用传统的标准通道数加倍方法,将网络W0 c中池化层后卷积层的通道数加倍,记为
采用传统的标准GoogLeNet网络构造方法,将网络中卷积核大小为ci×ci,i=3,…,n之间添加大小为c1×c1的卷积核,记为
采用传统的标准批量归一化方法,对网络中每一个卷积层后添加批量归一化层,记为
采用传统的标准Darknet-53网络构造方法,对网络添加K个类别的全连接层,记为
采用标准的归一化指数函数(softmax)计算类别置信度,记为Pc
步骤3、训练卷积神经分类网络:
初始化步骤2得到网络的图像批量处理大小,记为BS;初始化网络训练参数的学习率,记为LR;初始化网络训练参数的权重衰减率和动量,分别记为WDR和MO;对步骤2得到的网络模型进行随机初始化,得到初始化后网络参数,记为Wold c
采用传统的标准卷积神经分类网络Darknet训练方法,将步骤1中训练集ΩK1的图片顺序随机打乱后小批量依次通入步骤2得到的卷积神经分类网络模型
采用传统标准的小批量梯度下降法,对网络中网络参数Wold c进行计算,得到计算后的网络参数,记为Wnew c
采用传统标准交叉熵损失函数计算网络的损失函数值,记为Lossold c
采用传统的标准卷积神经分类网络Darknet方法,利用步骤1中测试集ΩK2对网络参数Wnew c进行测试,得到测试集ΩK2在Wnew c上的损失函数值,记为Lossnew c;若Lossnew c≤Lossold c,则继续按照传统标准卷积神经分类网络Darknet训练方法继续训练网络并计算网络参数Wnew c和损失值Lossnew c;若Lossnew c≥Lossold c,则停止训练网络输出当前模型的网络参数Wnew c,该次网络参数Wnew c即为训练得到的卷积神经分类网络的最终网络参数,记为WF c
步骤4、初始化和构建卷积神经检测网络:
按照标准YOLOv3网络模型构造方法,对步骤2得到的卷积神经分类网络添加检测层,得到卷积神经检测网络,记为W0
采用步骤4.1至步骤4.4中的方法对卷积神经检测网络W0进行构建,步骤4.1至步骤4.4具体如下:
步骤4.1、跨尺度预测
采用标准深度学习特征金字塔构造方法对检测网络W0添加特征交互层,得到网络W0的NF层特征金字塔,特征金字塔记为Fii×Fii,ii=1,2,…,NF,其中Fii×Fii为特征金字塔第ii层的特征图;
对步骤2得到的网络中特征图从下到上依次取出NF层特征图,记为Fii c×Fii c,ii=1,2,…,NF,其中Fii c×Fii c为第ii层特征图;
网络W0中上采样倍数记为nF ii,ii=1,2,…,nF
按照标准的特征金字塔方法,将网络W0中的Fii×Fii,ii=1,2,…,NF与Fii c×Fii c,ii=1,2,…,NF特征图和大小为(ci×ci,i=1,3,…,n)的卷积核进行特征融合,得到的检测网络记为
步骤4.2、边界框的预测
使用标准k-means聚类方法对步骤1得到的训练集ΩK1进行聚类,得到M个聚类中心作为网络的先验锚点框,其中聚类中心记为其中分别为第i0个聚类中心的坐标;每个边界框预测四个坐标值,坐标值记为(tx,ty,tw,th),对于预测的网格cellj,j=1,2,…,S×S,其中S×S为待检测图划分的网格数;
根据图像左上角的偏移(cx,cy)和边界框的宽和高(pω,ph),采用公式bx=σ(tx)+cx,by=σ(ty)+cy计算边界框(bx,bybω,bh),其中σ(tx),σ(ty)为中心点坐标,(bx,by)为偏移后边界框的中心坐标,(bω,bh)为偏移后边界框的宽和高;
每个小格cellj会对应B个边界框,记为边界框的宽高范围为步骤1中得到的Mn×Mn;对第i1个边界框通过逻辑回归预测一个物体的得分,记为其中代表该处是否有物体及定位准确度;
采用传统的YOLOv3网络模型中标准IOU计算方法,计算预测的边界框与真实的边框值的IoU,如果IoU≥α,那么否则预测的边界框
步骤4.3、计算损失函数
将步骤1中训练集ΩK1的图像编号随机打乱后排列成一个图像编号向量,记为Limg;按照Limg中图像编号顺序,依次取出一个批量的图像编号,记为Limg B;按照Limg B中图像编号读取训练集ΩK1的图像作为网络的输入,记为S1,其中向量S1的维度大小为(S×S×(B×(5+C)));
采用传统的YOLOv3网络模型方法,将向量S1通过检测网络W0计算输出的一组结果向量记为S2,其中向量S2的维度大小为(S×S×(B×(5+C)));其中,S为划分网格数,B为每个网格负责目标个数,C为类别个数;
采用损失函数(TSE)公式Los=lossloc+losscon+lossclass,计算S1和S2的损失函数值,记为Loss,其中lossloc为定位损失,losscon为置信度损失,lossclass为分类损失;
步骤5、训练和调整卷积神经检测网络:
初始化训练卷积神经检测网络的图像批量处理大小,记为BS1;初始化学习率,记为LR1;初始化权重衰减率和动量,分别记为WDR1和MO1;将步骤3得到的卷积神经分类网络模型的参数WF c作为检测网络的初始化参数,得到初始化后的卷积神经检测网络Wold
采用传统标准的卷积神经检测网络Darknet训练技术,将步骤1中训练集ΩK1的图片顺序随机打乱后小批量依次通入步骤4得到的卷积神经检测网络模型
采用传统标准的小批量梯度下降法,对卷积神经检测网络Wold的网络参数进行计算,得到新的网络参数,记为Wnew
采用步骤4.3中的损失函数Loss,计算的损失函数值,记为Lossold
采用传统的检测网络Darknet训练技术方法,利用步骤1中测试集ΩK2对Wnew进行测试,得到测试集ΩK2在Wnew上的总损失值,记为Lossnew;若Lossnew≤Lossold,则按照传统的检测网络Darknet训练方法继续训练模型并计算网络参数Wnew和损失值Lossnew;若Lossnew≥Lossold,则停止训练模型输出当前模型的网络参数Wnew,该次网络参数Wnew即为训练得到的卷积神经检测网络的最终网络参数;采用传统检测网络Darknet训练技术中的多尺度训练策略,将网络每经过p个批量训练后,随机选择图像变化尺度因子α=[α12345],将步骤1中图像尺度与α相乘,得到网络的输入图像尺度;将训练网络得到的最终检测网络模型和参数记为Wresult
步骤6、对待检测大场景SAR图像进行检测:
初始化待检测大场景SAR图像,记为ΩI;采用步骤1中SAR图像预处理方法对待检图像ΩI进行预处理,得到切片图像,记为ΩT
把切片图像ΩT按照切片图像编号顺序送入步骤5得到的卷积神经检测网络Wresult进行检测,输出切片图像ΩT的检测结果,记为ΩO
采用传统的顺序合并图像方法,将切片图像结果ΩO按照切片图像编号顺序进行合并;
采用标准非极大值抑制方法,消除检测网络Wresult中同一目标多次预测及重复框,得到的检测图像结果,记为ΩR;图像ΩR即为最终的大场景SAR图像细微目标检测结果。
本发明的创新点在于把目标检测问题看作回归问题,引入残差网络结构和构建特征金字塔,利用1×1卷积核实现不同特征层的交互,来对图像目标进行跨尺度的预测,使得骨干网络更加有利于特征提取,更加有利于小目标的检测,并且能够实现实时的目标检测;同时使用K-means聚类来确定边界框的先验,达到相同的交并比(IoU)结果时所需的锚点框数量更少,使得模型的表示能力更强,任务更容易学习;实现端到端训练及推断;
本发明的优点在于实现简单、检测效率高、检测精度高、检测速度快、适用性好,能有效解决大场景SAR图像细微目标的检测问题。
附图说明
图1为本发明所采用检测网络结构图;
图2为本发明所设计提供方法的处理流程示意框图;
具体实施方式
本发明主要采用仿真实验的方法进行验证,所有步骤、结论都在tensorflow1.12.0上验证正确。具体实施步骤如下:
步骤1、待检测大场景SAR图像进行初始化和预处理:
大场景SAR图像预处理,包括:初始化待检测的SAR图像记为X,X的维数为N0×N0=5000×5000;初始化N=3种滑窗切片,滑窗切片维数大小分别为M1×M1=600×600,M2×M2=800×800,M3×M3=1000×1000;将N=3种滑窗切片按照维数大小从小到大排序,得到一个N=3层图像金字塔;将待检测SAR图像中飞机、船、车、建筑、道路等待检测人造目标进行人工位置和类别标注,得到目标类别的总数为K=5,目标类别的位置记为Pk=(xk,yk,wk,hk),k=1,2,…,5,其中(xk,yk)分别记为第k类目标的中心坐标,(wk,hk)分别记为第k类目标的宽和高;
采用传统的标准数据增强技术对待检测SAR图像X进行数据增强得到数据增强后的SAR图像检测数据集,记为Ω,Ω集合中图像总数量记为NΩ;初始化数据集Ω中训练集和测试集图像数量的比例,其中K1:K2=8:2;对数据集Ω中的图像按照比例8:2随机划分训练集和测试集,得到的训练集记为Ω8,得到的测试集记为Ω2
步骤2、构建和初始化卷积神经分类网络模型:
采用传统的标准Darknet-53网络模型构造方法,构建和初始化标准的卷积神经分类网络模型,记为W0 c,初始化网络W0 c的卷积层数,记为Nc=53,其中卷积核大小分别为c1×c1=1×1和c3×c3=3×3;初始化网络W0 c的残差块层数,分别为Rc 1=1,Rc 2=2,Rc 3=8,Rc 4=8,Rc 5=4,其中表示第次下采样后的残差块层数;
采用传统的标准通道数加倍方法,将网络W0 c中池化层后卷积层的通道数加倍,记为
采用传统的标准GoogLeNet网络构造方法,将网络中卷积核大小为c3×c3=3×3之间添加大小为c1×c1=1×1的卷积核,记为
采用传统的标准批量归一化方法,对网络中每一个卷积层后添加批量归一化层,记为
采用传统的标准Darknet-53网络构造方法,对网络添加K=5个类别的全连接层,记为
采用标准的归一化指数函数(softmax)计算类别置信度,记为Pc
步骤3、训练卷积神经分类网络:
初始化步骤2得到网络的图像批量处理大小,记为BS=128;初始化网络训练参数的学习率,记为LR=0.01;初始化网络训练参数的权重衰减率和动量,分别记为WDR=0.0005和MO=0.9;对步骤2得到的网络中网络权重系数参数进行随机初始化,得到初始化后网络参数,记为Wold c
采用传统的标准卷积神经分类网络Darknet训练方法,将步骤1中训练集Ω8的图片顺序随机打乱后小批量依次通入步骤2得到的卷积神经分类网络模型
采用传统标准的小批量梯度下降法,对网络中网络参数Wold c进行计算,得到计算后的网络参数,记为Wnew c
采用传统标准交叉熵损失函数计算网络的损失函数值,记为Lossold c
采用传统的标准卷积神经分类网络Darknet方法,利用步骤1中测试集Ω2对网络参数Wnew c进行测试,得到测试集Ω2在Wnew c上的损失函数值,记为Lossnew c;若Lossnew c≤Lossold c,则继续按照传统标准卷积神经分类网络Darknet训练方法继续训练网络并计算网络参数Wnew c和损失值Lossnew c;若Lossnew c≥Lossold c,则停止训练网络输出当前模型的网络参数Wnew c,该次网络参数Wnew c即为训练得到的卷积神经分类网络的最终网络参数,记为WF c
步骤4、初始化和构建卷积神经检测网络:
按照标准YOLOv3网络模型构造方法,对步骤2得到的卷积神经分类网络添加检测层,得到卷积神经检测网络,记为W0
采用步骤4.1至步骤4.4中的方法对卷积神经检测网络W0进行构建,步骤4.1至步骤4.4具体如下:
步骤4.1、跨尺度预测
采用标准深度学习特征金字塔构造方法对检测网络W0添加特征交互层,得到网络W0的NF=3层特征金字塔,特征金字塔记为Fii×Fii,ii=1,2,3,其中Fii×Fii为特征金字塔第ii层的特征图;
对步骤2得到的网络中特征图从下到上依次取出NF=3层特征图,记为Fii c×Fii c,ii=1,2,3,其中Fii c×Fii c为第ii层特征图;
网络W0中上采样倍数分别记为nF 1=2,nF 2=4;
按照标准的特征金字塔方法将网络W0中的Fii×Fii,ii=1,2,3与Fii c×Fii c,ii=1,2,3特征图通过大小为(c1×c1=1×1,c3×c3=3×3)的卷积核进行特征融合,得到的检测网络记为
步骤4.2、边界框的预测
使用标准k-means聚类方法对步骤1得到的训练集Ω8进行聚类,得到M=9个聚类中心作为网络的先验锚点框,其中聚类中心记为其中分别为第i0个聚类中心的坐标;每个边界框预测四个坐标值,坐标值记为(tx,ty,tw,th),对于预测的网格cellj,j=1,2,…,19×19,其中19×19为待检测图划分的网格数;
根据图像左上角的偏移(cx,cy)和边界框的宽和高(pω,ph)利用公式bx=σ(tx)+cx,by=σ(ty)+cy计算边界框(bx,bybω,bh),其中σ(tx),σ(ty)为中心点坐标,(bx,by)为偏移后边界框的中心坐标,(bω,bh)为偏移后边界框的宽和高;
每个小格cellj会对应B个边界框,记为边界框的宽高范围为步骤1中得到的Mn×Mn;对第i1个边界框通过逻辑回归预测一个物体的得分,记为其中代表该处是否有物体及定位准确度;
采用传统的YOLOv3网络模型中标准IOU计算方法,计算预测的边界框与真实的边框值的IoU,如果IoU≥α=0.5,那么否则预测的边界框
步骤4.3、计算损失函数
将步骤1中训练集Ω8的图像编号随机打乱后排列成一个图像编号向量,记为Limg;按照Limg中图像编号顺序,依次取出一个批量的图像编号,记为Limg B;按照Limg B中图像编号读取训练集Ω8的图像作为网络的输入,记为S1,其中向量S1的维度大小为(S×S×(B×(5+C)));
采用传统的YOLOv3网络模型方法,将向量S1通过检测网络W0计算输出的一组结果向量记为S2,其中向量S2的维度大小为(S×S×(B×(5+C)));其中,S为划分网格数,B为每个网格负责目标个数,C为类别个数;
采用损失函数(TSE)公式Loss=lossloc+losscon+lossclass,计算S1和S2的损失函数值,记为Loss,其中lossloc为定位损失,losscon为置信度损失,lossclass为分类损失;
步骤5、训练和调整卷积神经检测网络:
初始化训练卷积神经检测网络的图像批量处理大小,记为BS1=64;初始化学习率,记为LR1=0.01,初始化权重衰减率和动量,分别记为WDR1=0.0005,MO1=0.9;将步骤3得到的卷积神经分类网络模型的参数WF c作为检测网络的初始化参数,得到初始化后的卷积神经检测网络Wold
采用传统标准的卷积神经检测网络Darknet训练技术,将步骤1中训练集Ω8的图片顺序随机打乱后小批量依次通入步骤4得到的卷积神经检测网络模型
采用传统标准的小批量梯度下降法,对卷积神经检测网络Wold的网络参数进行计算,得到新的网络参数,记为Wnew
采用步骤4.3中的损失函数Loss,计算的损失函数值,记为Lossold
采用传统的检测网络Darknet训练技术方法,利用步骤1中测试集Ω2对Wnew进行测试,得到测试集Ω2在Wnew上的总损失值,记为Lossnew;若Lossnew≤Lossold,则按照传统的检测网络Darknet训练方法继续训练模型并计算网络参数Wnew和损失值Lossnew;若Lossnew≥Lossold,则停止训练模型输出当前模型的网络参数Wnew,该次网络参数Wnew即为训练得到的卷积神经检测网络的最终网络参数;采用传统检测网络Darknet训练技术中的多尺度训练策略,将网络每经过p=10个批量训练后,随机选择图像变化尺度因子α=[α12345],将步骤1中图像尺度与α相乘,得到网络的输入图像尺度;将训练网络得到的最终检测网络模型和参数记为Wresult
步骤6、对待检测大场景SAR图像进行检测:
初始化待检测大场景SAR图像,记为ΩI;采用步骤1中SAR图像预处理方法对待检图像ΩI进行预处理,得到切片图像,记为ΩT
把切片图像ΩT按照切片图像编号顺序送入步骤5得到的卷积神经检测网络Wresult进行检测,输出切片图像ΩT的检测结果,记为ΩO
采用传统的顺序合并图像方法,将切片图像结果ΩO按照切片图像编号顺序进行合并;
采用标准非极大值抑制方法,消除检测网络Wresult中同一目标多次预测及重复框,得到的检测图像结果,记为ΩR;图像ΩR即为最终的大场景SAR图像细微目标检测结果。

Claims (1)

1.一种大场景SAR图像细微目标检测方法,其特征是它包括以下步骤:
步骤1、待检测大场景SAR图像进行初始化和预处理:
大场景SAR图像预处理,包括:初始化待检测的SAR图像记为X,X的维数记为N0×N0;初始化N种滑窗切片,滑窗切片维数大小分别记为将N种滑窗切片按照维数大小从小到大排序,得到一个N层图像金字塔;将待检测SAR图像中飞机、船、车、建筑、道路等待检测人造目标进行人工位置和类别标注,得到目标类别的总数记为K,目标类别的位置记为Pk=(xk,yk,wk,hk),k=1,2,…,K,其中(xk,yk)分别记为第k类目标的中心坐标,(wk,hk)分别记为第k类目标的宽和高;
采用传统的标准数据增强技术对待检测SAR图像X进行数据增强,得到数据增强后的SAR图像检测数据集,记为Ω,Ω集合中图像总数量记为NΩ;初始化数据集Ω中训练集和测试集图像数量的比例,记为K1:K2;对数据集Ω中的图像按照比例K1:K2随机划分训练集和测试集,得到的训练集记为ΩK1,得到的测试集记为ΩK2
步骤2、构建和初始化卷积神经分类网络模型:
采用传统的标准Darknet-53网络模型构造方法,构建和初始化标准的卷积神经分类网络模型,记为W0 c,初始化网络W0 c的卷积层数,记为Nc,其中卷积核大小为ci×ci,i=1,3,…,n;初始化网络W0 c的残差块层数,记为其中表示第次下采样后的残差块层数;
采用传统的标准通道数加倍方法,将网络W0 c中池化层后卷积层的通道数加倍,记为
采用传统的标准GoogLeNet网络构造方法,将网络中卷积核大小为ci×ci,i=3,…,n之间添加大小为c1×c1的卷积核,记为
采用传统的标准批量归一化方法,对网络中每一个卷积层后添加批量归一化层,记为
采用传统的标准Darknet-53网络构造方法,对网络添加K个类别的全连接层,记为
采用标准的归一化指数函数(softmax)计算类别置信度,记为Pc
步骤3、训练卷积神经分类网络:
初始化步骤2得到网络的图像批量处理大小,记为BS;初始化网络训练参数的学习率,记为LR;初始化网络训练参数的权重衰减率和动量,分别记为WDR和MO;对步骤2得到的网络模型进行随机初始化,得到初始化后网络参数,记为Wold c
采用传统的标准卷积神经分类网络Darknet训练方法,将步骤1中训练集ΩK1的图片顺序随机打乱后小批量依次通入步骤2得到的卷积神经分类网络模型
采用传统标准的小批量梯度下降法,对网络中网络参数Wold c进行计算,得到计算后的网络参数,记为Wnew c
采用传统标准交叉熵损失函数计算网络的损失函数值,记为Lossold c
采用传统的标准卷积神经分类网络Darknet方法,利用步骤1中测试集ΩK2对网络参数Wnew c进行测试,得到测试集ΩK2在Wnew c上的损失函数值,记为Lossnew c;若Lossnew c≤Lossold c,则继续按照传统标准卷积神经分类网络Darknet训练方法继续训练网络并计算网络参数Wnew c和损失值Lossnew c;若Lossnew c≥Lossold c,则停止训练网络输出当前模型的网络参数Wnew c,该次网络参数Wnew c即为训练得到的卷积神经分类网络的最终网络参数,记为WF c
步骤4、初始化和构建卷积神经检测网络:
按照标准YOLOv3网络模型构造方法,对步骤2得到的卷积神经分类网络添加检测层,得到卷积神经检测网络,记为W0
采用步骤4.1至步骤4.4中的方法对卷积神经检测网络W0进行构建,步骤4.1至步骤4.4具体如下:
步骤4.1、跨尺度预测
采用标准深度学习特征金字塔构造方法对检测网络W0添加特征交互层,得到网络W0的NF层特征金字塔,特征金字塔记为Fii×Fii,ii=1,2,…,NF,其中Fii×Fii为特征金字塔第ii层的特征图;
对步骤2得到的网络中特征图从下到上依次取出NF层特征图,记为Fii c×Fii c,ii=1,2,…,NF,其中Fii c×Fii c为第ii层特征图;
网络W0中上采样倍数记为nF ii,ii=1,2,…,nF
按照标准的特征金字塔方法,将网络W0中的Fii×Fii,ii=1,2,…,NF与Fii c×Fii c,ii=1,2,…,NF特征图和大小为(ci×ci,i=1,3,…,n)的卷积核进行特征融合,得到的检测网络记为
步骤4.2、边界框的预测
使用标准k-means聚类方法对步骤1得到的训练集ΩK1进行聚类,得到M个聚类中心作为网络的先验锚点框,其中聚类中心记为其中分别为第i0个聚类中心的坐标;每个边界框预测四个坐标值,坐标值记为(tx,ty,tw,th),对于预测的网格cellj,j=1,2,…,S×S,其中S×S为待检测图划分的网格数;
根据图像左上角的偏移(cx,cy)和边界框的宽和高(pω,ph),采用公式bx=σ(tx)+cx,by=σ(ty)+cy计算边界框(bx,bybω,bh),其中σ(tx),σ(ty)为中心点坐标,(bx,by)为偏移后边界框的中心坐标,(bω,bh)为偏移后边界框的宽和高;
每个小格cellj会对应B个边界框,记为边界框的宽高范围为步骤1中得到的Mn×Mn;对第i1个边界框通过逻辑回归预测一个物体的得分,记为其中代表该处是否有物体及定位准确度;
采用传统的YOLOv3网络模型中标准IOU计算方法,计算预测的边界框与真实的边框值的IoU,如果IoU≥α,那么否则预测的边界框
步骤4.3、计算损失函数
将步骤1中训练集ΩK1的图像编号随机打乱后排列成一个图像编号向量,记为Limg;按照Limg中图像编号顺序,依次取出一个批量的图像编号,记为Limg B;按照Limg B中图像编号读取训练集ΩK1的图像作为网络的输入,记为S1,其中向量S1的维度大小为(S×S×(B×(5+C)));
采用传统的YOLOv3网络模型方法,将向量S1通过检测网络W0计算输出的一组结果向量记为S2,其中向量S2的维度大小为(S×S×(B×(5+C)));其中,S为划分网格数,B为每个网格负责目标个数,C为类别个数;
采用损失函数(TSE)公式Loss=lossloc+losscon+lossclass,计算S1和S2的损失函数值,记为Loss,其中lossloc为定位损失,losscon为置信度损失,lossclass为分类损失;
步骤5、训练和调整卷积神经检测网络:
初始化训练卷积神经检测网络的图像批量处理大小,记为BS1;初始化学习率,记为LR1;初始化权重衰减率和动量,分别记为WDR1和MO1;将步骤3得到的卷积神经分类网络模型的参数WF c作为检测网络的初始化参数,得到初始化后的卷积神经检测网络Wold
采用传统标准的卷积神经检测网络Darknet训练技术,将步骤1中训练集ΩK1的图片顺序随机打乱后小批量依次通入步骤4得到的卷积神经检测网络模型
采用传统标准的小批量梯度下降法,对卷积神经检测网络Wold的网络参数进行计算,得到新的网络参数,记为Wnew
采用步骤4.3中的损失函数Loss,计算的损失函数值,记为Lossold
采用传统的检测网络Darknet训练技术方法,利用步骤1中测试集ΩK2对Wnew进行测试,得到测试集ΩK2在Wnew上的总损失值,记为Lossnew;若Lossnew≤Lossold,则按照传统的检测网络Darknet训练方法继续训练模型并计算网络参数Wnew和损失值Lossnew;若Lossnew≥Lossold,则停止训练模型输出当前模型的网络参数Wnew,该次网络参数Wnew即为训练得到的卷积神经检测网络的最终网络参数;采用传统检测网络Darknet训练技术中的多尺度训练策略,将网络每经过p个批量训练后,随机选择图像变化尺度因子α=[α12345],将步骤1中图像尺度与α相乘,得到网络的输入图像尺度;将训练网络得到的最终检测网络模型和参数记为Wresult
步骤6、对待检测大场景SAR图像进行检测:
初始化待检测大场景SAR图像,记为ΩI;采用步骤1中SAR图像预处理方法对待检图像ΩI进行预处理,得到切片图像,记为ΩT
把切片图像ΩT按照切片图像编号顺序送入步骤5得到的卷积神经检测网络Wresult进行检测,输出切片图像ΩT的检测结果,记为ΩO
采用传统的顺序合并图像方法,将切片图像结果ΩO按照切片图像编号顺序进行合并;采用标准非极大值抑制方法,消除检测网络Wresult中同一目标多次预测及重复框,得到的检测图像结果,记为ΩR;图像ΩR即为最终的大场景SAR图像细微目标检测结果。
CN201910307904.1A 2019-04-17 2019-04-17 一种大场景sar图像细微目标检测方法 Expired - Fee Related CN110135267B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910307904.1A CN110135267B (zh) 2019-04-17 2019-04-17 一种大场景sar图像细微目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910307904.1A CN110135267B (zh) 2019-04-17 2019-04-17 一种大场景sar图像细微目标检测方法

Publications (2)

Publication Number Publication Date
CN110135267A true CN110135267A (zh) 2019-08-16
CN110135267B CN110135267B (zh) 2020-09-25

Family

ID=67570281

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910307904.1A Expired - Fee Related CN110135267B (zh) 2019-04-17 2019-04-17 一种大场景sar图像细微目标检测方法

Country Status (1)

Country Link
CN (1) CN110135267B (zh)

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110503070A (zh) * 2019-08-29 2019-11-26 电子科技大学 基于航拍图像目标检测处理技术的交通自动化监测方法
CN110569747A (zh) * 2019-08-20 2019-12-13 南京农业大学 一种利用图像金字塔与Faster-RCNN快速统计大田水稻稻穗数的方法
CN110738113A (zh) * 2019-09-12 2020-01-31 天津大学 一种基于邻近尺度特征滤除与转移的物体检测方法
CN110781839A (zh) * 2019-10-29 2020-02-11 北京环境特性研究所 一种基于滑窗的大尺寸图像中小目标识别方法
CN110796141A (zh) * 2019-10-21 2020-02-14 腾讯科技(深圳)有限公司 目标检测方法及相关设备
CN110826428A (zh) * 2019-10-22 2020-02-21 电子科技大学 一种高速的sar图像中船只检测方法
CN110852243A (zh) * 2019-11-06 2020-02-28 中国人民解放军战略支援部队信息工程大学 一种基于改进YOLOv3的道路交叉口检测方法及装置
CN110852222A (zh) * 2019-10-31 2020-02-28 上海交通大学 一种基于目标检测的校园走廊场景智能监控方法
CN110889324A (zh) * 2019-10-12 2020-03-17 南京航空航天大学 一种基于yolo v3面向末端制导的热红外图像目标识别方法
CN111062321A (zh) * 2019-12-17 2020-04-24 佛山科学技术学院 一种基于深度卷积网络的sar检测方法及系统
CN111222474A (zh) * 2020-01-09 2020-06-02 电子科技大学 一种任意尺度的高分辨率图像小目标检测方法
CN111241970A (zh) * 2020-01-06 2020-06-05 电子科技大学 基于yolov3算法与滑动窗口策略的SAR影像海面舰船检测方法
CN111274894A (zh) * 2020-01-15 2020-06-12 太原科技大学 一种基于改进YOLOv3的人员在岗状态检测方法
CN111353544A (zh) * 2020-03-05 2020-06-30 天津城建大学 一种基于改进的Mixed Pooling-YOLOV3目标检测方法
CN111368769A (zh) * 2020-03-10 2020-07-03 大连东软信息学院 基于改进锚点框生成模型的船舶多目标检测方法
CN111582345A (zh) * 2020-04-29 2020-08-25 中国科学院重庆绿色智能技术研究院 一种小样本下复杂环境的目标识别方法
CN111597899A (zh) * 2020-04-16 2020-08-28 浙江工业大学 景区地面塑料瓶探测方法
CN111666854A (zh) * 2020-05-29 2020-09-15 武汉大学 融合统计显著性的高分辨率sar影像车辆目标检测方法
CN111667461A (zh) * 2020-05-06 2020-09-15 青岛科技大学 一种输电线路异常目标检测方法
CN111798490A (zh) * 2020-07-08 2020-10-20 电子科技大学 一种视频sar车辆目标检测方法
CN111967292A (zh) * 2020-05-25 2020-11-20 电子科技大学 一种轻量级的sar图像船只检测方法
CN111986252A (zh) * 2020-07-16 2020-11-24 浙江工业大学 一种用于目标分割网络中候选边界框精准定位的方法
CN112085010A (zh) * 2020-10-28 2020-12-15 成都信息工程大学 一种基于图像识别的口罩检测和部署系统及方法
CN112115911A (zh) * 2020-09-28 2020-12-22 安徽大学 一种基于深度学习的轻量型sar图像目标检测方法
CN112183667A (zh) * 2020-10-31 2021-01-05 哈尔滨理工大学 一种协同深度学习的绝缘子故障检测方法
CN112184756A (zh) * 2020-09-30 2021-01-05 北京理工大学 一种基于深度学习的单目标快速检测方法
CN112215188A (zh) * 2020-10-21 2021-01-12 平安国际智慧城市科技股份有限公司 交警姿态识别方法、装置、设备及存储介质
CN112285712A (zh) * 2020-10-15 2021-01-29 电子科技大学 一种提高sar图像中靠岸船只检测精度的方法
CN112364925A (zh) * 2020-11-16 2021-02-12 哈尔滨市科佳通用机电股份有限公司 一种基于深度学习的滚动轴承甩油故障识别方法
CN112434586A (zh) * 2020-11-16 2021-03-02 中山大学 一种基于域自适应学习的多复杂场景目标检测方法
CN112541481A (zh) * 2020-12-25 2021-03-23 南京航空航天大学 一种基于深度学习的对海探测雷达目标检测方法
CN113393457A (zh) * 2021-07-14 2021-09-14 长沙理工大学 一种结合残差密集块与位置注意力的无锚框目标检测方法
CN113484862A (zh) * 2021-08-04 2021-10-08 电子科技大学 一种自适应的高分宽幅sar清晰重构成像方法
CN113627310A (zh) * 2021-08-04 2021-11-09 中国电子科技集团公司第十四研究所 一种背景与尺度感知的sar舰船目标检测方法
CN113780113A (zh) * 2021-08-25 2021-12-10 廊坊中油朗威工程项目管理有限公司 管道违章行为识别方法
CN114758217A (zh) * 2022-04-15 2022-07-15 中国人民解放军空军工程大学 一种基于轻量化网络的sar图像实时检测方法
CN114998929A (zh) * 2022-05-27 2022-09-02 江苏慧眼数据科技股份有限公司 鱼眼相机边界框识别方法、系统、设备及应用
CN115631344A (zh) * 2022-10-06 2023-01-20 中国人民解放军国防科技大学 一种基于特征自适应聚合的目标检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101975940A (zh) * 2010-09-27 2011-02-16 北京理工大学 基于分割组合的sar图像自适应恒虚警率目标检测方法
CN104408482A (zh) * 2014-12-08 2015-03-11 电子科技大学 一种高分辨率sar图像目标检测方法
CN106228124A (zh) * 2016-07-17 2016-12-14 西安电子科技大学 基于卷积神经网络的sar图像目标检测方法
US20170069062A1 (en) * 2015-09-08 2017-03-09 The Johns Hopkins University Small maritime target detector
CN107169421A (zh) * 2017-04-20 2017-09-15 华南理工大学 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法
CN107742113A (zh) * 2017-11-08 2018-02-27 电子科技大学 一种基于目标数量后验的sar图像集群目标检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101975940A (zh) * 2010-09-27 2011-02-16 北京理工大学 基于分割组合的sar图像自适应恒虚警率目标检测方法
CN104408482A (zh) * 2014-12-08 2015-03-11 电子科技大学 一种高分辨率sar图像目标检测方法
US20170069062A1 (en) * 2015-09-08 2017-03-09 The Johns Hopkins University Small maritime target detector
CN106228124A (zh) * 2016-07-17 2016-12-14 西安电子科技大学 基于卷积神经网络的sar图像目标检测方法
CN107169421A (zh) * 2017-04-20 2017-09-15 华南理工大学 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法
CN107742113A (zh) * 2017-11-08 2018-02-27 电子科技大学 一种基于目标数量后验的sar图像集群目标检测方法

Cited By (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110569747A (zh) * 2019-08-20 2019-12-13 南京农业大学 一种利用图像金字塔与Faster-RCNN快速统计大田水稻稻穗数的方法
CN110503070A (zh) * 2019-08-29 2019-11-26 电子科技大学 基于航拍图像目标检测处理技术的交通自动化监测方法
CN110738113A (zh) * 2019-09-12 2020-01-31 天津大学 一种基于邻近尺度特征滤除与转移的物体检测方法
CN110889324A (zh) * 2019-10-12 2020-03-17 南京航空航天大学 一种基于yolo v3面向末端制导的热红外图像目标识别方法
CN110796141A (zh) * 2019-10-21 2020-02-14 腾讯科技(深圳)有限公司 目标检测方法及相关设备
CN110796141B (zh) * 2019-10-21 2024-12-17 腾讯科技(深圳)有限公司 目标检测方法及相关设备
CN110826428A (zh) * 2019-10-22 2020-02-21 电子科技大学 一种高速的sar图像中船只检测方法
CN110781839A (zh) * 2019-10-29 2020-02-11 北京环境特性研究所 一种基于滑窗的大尺寸图像中小目标识别方法
CN110852222A (zh) * 2019-10-31 2020-02-28 上海交通大学 一种基于目标检测的校园走廊场景智能监控方法
CN110852243A (zh) * 2019-11-06 2020-02-28 中国人民解放军战略支援部队信息工程大学 一种基于改进YOLOv3的道路交叉口检测方法及装置
CN111062321A (zh) * 2019-12-17 2020-04-24 佛山科学技术学院 一种基于深度卷积网络的sar检测方法及系统
CN111062321B (zh) * 2019-12-17 2023-05-30 佛山科学技术学院 一种基于深度卷积网络的sar检测方法及系统
CN111241970A (zh) * 2020-01-06 2020-06-05 电子科技大学 基于yolov3算法与滑动窗口策略的SAR影像海面舰船检测方法
CN111222474A (zh) * 2020-01-09 2020-06-02 电子科技大学 一种任意尺度的高分辨率图像小目标检测方法
CN111222474B (zh) * 2020-01-09 2022-11-04 电子科技大学 一种任意尺度的高分辨率图像小目标检测方法
CN111274894A (zh) * 2020-01-15 2020-06-12 太原科技大学 一种基于改进YOLOv3的人员在岗状态检测方法
CN111353544B (zh) * 2020-03-05 2023-07-25 天津城建大学 一种基于改进的Mixed Pooling-YOLOV3目标检测方法
CN111353544A (zh) * 2020-03-05 2020-06-30 天津城建大学 一种基于改进的Mixed Pooling-YOLOV3目标检测方法
CN111368769B (zh) * 2020-03-10 2024-03-12 大连东软信息学院 基于改进锚点框生成模型的船舶多目标检测方法
CN111368769A (zh) * 2020-03-10 2020-07-03 大连东软信息学院 基于改进锚点框生成模型的船舶多目标检测方法
CN111597899A (zh) * 2020-04-16 2020-08-28 浙江工业大学 景区地面塑料瓶探测方法
CN111597899B (zh) * 2020-04-16 2023-08-11 浙江工业大学 景区地面塑料瓶探测方法
CN111582345A (zh) * 2020-04-29 2020-08-25 中国科学院重庆绿色智能技术研究院 一种小样本下复杂环境的目标识别方法
CN111667461A (zh) * 2020-05-06 2020-09-15 青岛科技大学 一种输电线路异常目标检测方法
CN111667461B (zh) * 2020-05-06 2023-08-29 青岛科技大学 一种输电线路异常目标检测方法
CN111967292A (zh) * 2020-05-25 2020-11-20 电子科技大学 一种轻量级的sar图像船只检测方法
CN111967292B (zh) * 2020-05-25 2022-05-17 电子科技大学 一种轻量级的sar图像船只检测方法
CN111666854B (zh) * 2020-05-29 2022-08-30 武汉大学 融合统计显著性的高分辨率sar影像车辆目标检测方法
CN111666854A (zh) * 2020-05-29 2020-09-15 武汉大学 融合统计显著性的高分辨率sar影像车辆目标检测方法
CN111798490A (zh) * 2020-07-08 2020-10-20 电子科技大学 一种视频sar车辆目标检测方法
CN111798490B (zh) * 2020-07-08 2022-07-01 电子科技大学 一种视频sar车辆目标检测方法
CN111986252A (zh) * 2020-07-16 2020-11-24 浙江工业大学 一种用于目标分割网络中候选边界框精准定位的方法
CN111986252B (zh) * 2020-07-16 2024-03-29 浙江工业大学 一种用于目标分割网络中候选边界框精准定位的方法
CN112115911A (zh) * 2020-09-28 2020-12-22 安徽大学 一种基于深度学习的轻量型sar图像目标检测方法
CN112184756A (zh) * 2020-09-30 2021-01-05 北京理工大学 一种基于深度学习的单目标快速检测方法
CN112285712B (zh) * 2020-10-15 2023-09-15 电子科技大学 一种提高sar图像中靠岸船只检测精度的方法
CN112285712A (zh) * 2020-10-15 2021-01-29 电子科技大学 一种提高sar图像中靠岸船只检测精度的方法
CN112215188A (zh) * 2020-10-21 2021-01-12 平安国际智慧城市科技股份有限公司 交警姿态识别方法、装置、设备及存储介质
CN112085010A (zh) * 2020-10-28 2020-12-15 成都信息工程大学 一种基于图像识别的口罩检测和部署系统及方法
CN112085010B (zh) * 2020-10-28 2022-07-12 成都信息工程大学 一种基于图像识别的口罩检测和部署系统及方法
CN112183667A (zh) * 2020-10-31 2021-01-05 哈尔滨理工大学 一种协同深度学习的绝缘子故障检测方法
CN112183667B (zh) * 2020-10-31 2022-06-14 哈尔滨理工大学 一种协同深度学习的绝缘子故障检测方法
CN112364925A (zh) * 2020-11-16 2021-02-12 哈尔滨市科佳通用机电股份有限公司 一种基于深度学习的滚动轴承甩油故障识别方法
CN112364925B (zh) * 2020-11-16 2021-06-04 哈尔滨市科佳通用机电股份有限公司 一种基于深度学习的滚动轴承甩油故障识别方法
CN112434586A (zh) * 2020-11-16 2021-03-02 中山大学 一种基于域自适应学习的多复杂场景目标检测方法
CN112434586B (zh) * 2020-11-16 2023-11-14 中山大学 一种基于域自适应学习的多复杂场景目标检测方法
CN112541481A (zh) * 2020-12-25 2021-03-23 南京航空航天大学 一种基于深度学习的对海探测雷达目标检测方法
CN113393457B (zh) * 2021-07-14 2023-02-28 长沙理工大学 一种结合残差密集块与位置注意力的无锚框目标检测方法
CN113393457A (zh) * 2021-07-14 2021-09-14 长沙理工大学 一种结合残差密集块与位置注意力的无锚框目标检测方法
CN113627310A (zh) * 2021-08-04 2021-11-09 中国电子科技集团公司第十四研究所 一种背景与尺度感知的sar舰船目标检测方法
CN113484862A (zh) * 2021-08-04 2021-10-08 电子科技大学 一种自适应的高分宽幅sar清晰重构成像方法
CN113627310B (zh) * 2021-08-04 2023-11-24 中国电子科技集团公司第十四研究所 一种背景与尺度感知的sar舰船目标检测方法
CN113484862B (zh) * 2021-08-04 2023-10-17 电子科技大学 一种自适应的高分宽幅sar清晰重构成像方法
CN113780113A (zh) * 2021-08-25 2021-12-10 廊坊中油朗威工程项目管理有限公司 管道违章行为识别方法
CN114758217A (zh) * 2022-04-15 2022-07-15 中国人民解放军空军工程大学 一种基于轻量化网络的sar图像实时检测方法
CN114998929A (zh) * 2022-05-27 2022-09-02 江苏慧眼数据科技股份有限公司 鱼眼相机边界框识别方法、系统、设备及应用
CN114998929B (zh) * 2022-05-27 2024-06-25 江苏慧眼数据科技股份有限公司 鱼眼相机边界框识别方法、系统、设备及应用
CN115631344A (zh) * 2022-10-06 2023-01-20 中国人民解放军国防科技大学 一种基于特征自适应聚合的目标检测方法

Also Published As

Publication number Publication date
CN110135267B (zh) 2020-09-25

Similar Documents

Publication Publication Date Title
CN110135267A (zh) 一种大场景sar图像细微目标检测方法
Lu et al. 3-D channel and spatial attention based multiscale spatial–spectral residual network for hyperspectral image classification
CN108038445B (zh) 一种基于多视角深度学习框架的sar自动目标识别方法
Al Bashish et al. A framework for detection and classification of plant leaf and stem diseases
Chen et al. Research on recognition of fly species based on improved RetinaNet and CBAM
CN111368769B (zh) 基于改进锚点框生成模型的船舶多目标检测方法
CN111368896A (zh) 基于密集残差三维卷积神经网络的高光谱遥感图像分类方法
CN109522966A (zh) 一种基于密集连接卷积神经网络的目标检测方法
CN107909109B (zh) 基于显著性和多尺度深度网络模型的sar图像分类方法
CN111310666A (zh) 一种基于纹理特征的高分辨率影像地物识别与分割方法
CN105718942B (zh) 基于均值漂移和过采样的高光谱图像不平衡分类方法
CN113344045B (zh) 一种结合hog特征提高sar船只分类精度的方法
CN108932455B (zh) 遥感图像场景识别方法及装置
CN112270285B (zh) 一种基于稀疏表示和胶囊网络的sar图像变化检测方法
CN115147731A (zh) 一种基于全空间编码注意力模块的sar图像目标检测方法
He et al. Object-oriented mangrove species classification using hyperspectral data and 3-D Siamese residual network
CN113870157A (zh) 一种基于CycleGAN的SAR图像合成方法
CN113743505A (zh) 基于自注意力和特征融合的改进ssd目标检测方法
CN113344046A (zh) 一种提高sar图像船只分类精度的方法
CN110060273A (zh) 基于深度神经网络的遥感影像滑坡测图方法
CN112950780A (zh) 一种基于遥感影像的网络地图智能生成方法及系统
CN117079098A (zh) 一种基于位置编码的空间小目标检测方法
CN109191418A (zh) 一种基于收缩自编码器特征学习的遥感图像变化检测方法
CN116524255A (zh) 基于Yolov5-ECA-ASFF的小麦赤霉病孢子识别方法
Li et al. Enhanced bird detection from low-resolution aerial image using deep neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200925

CF01 Termination of patent right due to non-payment of annual fee