CN110929560A - 融合目标检测与跟踪的视频半自动目标标注方法 - Google Patents
融合目标检测与跟踪的视频半自动目标标注方法 Download PDFInfo
- Publication number
- CN110929560A CN110929560A CN201910963482.3A CN201910963482A CN110929560A CN 110929560 A CN110929560 A CN 110929560A CN 201910963482 A CN201910963482 A CN 201910963482A CN 110929560 A CN110929560 A CN 110929560A
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- value
- tracking
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 92
- 238000002372 labelling Methods 0.000 title claims description 44
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 48
- 238000000034 method Methods 0.000 claims abstract description 22
- 238000004364 calculation method Methods 0.000 claims description 30
- 230000004927 fusion Effects 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 20
- 230000008859 change Effects 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 18
- 238000012549 training Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000010586 diagram Methods 0.000 claims 1
- 230000009466 transformation Effects 0.000 claims 1
- 238000012360 testing method Methods 0.000 abstract description 3
- 239000000284 extract Substances 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000008034 disappearance Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开融合目标检测与跟踪的视频半自动目标标注方法,首先在视频图像中选定某一帧为初始帧,手动标记目标的初始位置,确定目标的类别标签。在后续帧中,融合基于图像的目标检测算法和基于图像序列的视频目标跟踪算法估计目标在图像中的位置;本发明根据目标跟踪算法判断目标标注是否结束。若结束,根据每一帧目标的显著值大小,提取视频关键帧,得到目标标注结果,否则继续估计目标在视频图像中的位置;本发明基于目标显著性提取视频关键帧的方法,使关键帧能反映目标变化的多样性。本发明采用多镜头多舰船的视频进行实验测试,验证了本发明提出方法的有效性。
Description
技术领域
本发明属于视频数据标记领域,涉及一种融合目标检测与目标跟踪,并根据目标显著性进行视频关键帧提取的视频目标标注方法。
背景技术
近年来,深度学习技术发展迅速,推动目标检测与目标跟踪领域不断实现新突破。由于深度学习技术需要大数据的支撑,获取大量具有样本多样性的带准确标签训练数据是深度学习技术取得优异性能的关键。
目前获取训练数据主要有手工标注和自动标注两种方法。手工标注采用手动方式对单一图像中的目标位置和标签进行标注,而视频中有大量连续的图像帧,手工标注的效率低,鉴于视频中目标具有时空连续性的特点,使得自动标注成为可能。目前现有技术中仅使用基于相关滤波的目标跟踪算法进行视频目标标注,标注结果的准确度达不到作为训练数据的要求。而仅使用目标检测算法进行视频目标标注,检测器会根据初始帧目标的类型,在后续帧中把符合目标类型的目标全部标出,不能判断是否和初始帧是同一个目标,或者检测器会因为目标的抖动模糊等因素,出现漏检导致视频目标标注不连贯。本发明融合检测和跟踪算法,结合两种算法优势,可以提高自动标注的准确度,利用跟踪算法的时空连续性可以确定同一个目标,并解决检测器漏检问题,还可以自动判断目标消失,提高标注效率。
本发明提出一种视频半自动标注方法,首先在初始帧中手动标注目标位置,然后在后续帧中自动标注出该目标的位置,最后自动提取若干个关键帧得到标注结果。其中需要解决的主要问题包括:(1)如何提高视频目标标注的准确度和连贯性,是需要解决的第一个问题。(2)为了减少人工参与,提高标注效率,需要自动判断目标消失和标注结束。(3)提取的若干关键帧要能够反映出目标尺度大小、角度、光照等变化的多样性。
本发明针对目前单独的目标检测算法或者目标跟踪算法不能满足视频目标自动标注要求的情况,通过合理的规则融合目标检测和目标跟踪,极大提高视频目标标注的效率和准确度;另外提出一种基于目标显著性提取视频关键帧的方法,从而使提取的关键帧能准确反映目标变化的多样性。
发明内容
本发明针对所要解决的技术问题是现有自动标记手段精准度与连贯性不高或手动标记速度慢,提出一种融合目标检测与跟踪的视频半自动目标标注方法。
首先在视频图像中选定某一帧为初始帧,手动标记目标的初始位置,确定目标的类别标签。在后续帧中,融合基于图像的目标检测算法和基于图像序列的视频目标跟踪算法估计目标在图像中的位置,并根据目标跟踪算法判断目标标注是否结束。若结束,根据每一帧目标的显著值大小,提取视频关键帧,得到目标标注结果,否则继续估计目标在视频图像中的位置。本发明融合目标检测算法和目标跟踪算法对视频目标准确标注,自动判断目标标注结束,并根据目标显著性提取视频关键帧,得到目标标注结果。
本发明采用的技术方案包括以下步骤:
1、融合目标检测与跟踪的视频半自动目标标注方法,其特征在于该方法包括以下步骤:
步骤(1)、在视频的某个镜头中选定某一帧为初始帧,手动标记目标的初始位置和大小,确定目标的类别标签;
步骤(2)、初始帧之后的其他后续帧采用自动标注,具体是融合基于图像的目标检测算法和基于图像序列的视频目标跟踪算法估计目标在图像中的位置;具体是:
2.1采用YOLO V3对每一帧图像中目标进行检测并标识出检测框;
上述YOLO V3是将带有标签目标图像调整到固定尺度大小作为训练样本,对yolo-v3进行训练;其中YOLO层增加到4层,经过多尺度特征融合得到13×13,26×26,52×52,104×104四种不同尺度的不同感受野特征图;使用(116x90),(156x198),(373x326)三种先验框对13×13的特征图进行预测,检测较大的对象;使用(30x61),(62x45),(59x119)三种先验框对26×26的特征图进行预测,检测中等大小的对象;使用(10x13),(16x30),(33x23)三种先验框对52×52的特征图进行预测,检测较小的对象;使用新增加的(5x6),(8x15),(16x10)三种先验框,对104×104特征图进行预测,检测更小的目标;
2.2采用KCF相关滤波跟踪算法获取目标的跟踪框;
首先根据前一帧的目标位置和大小提取HOG特征,再通过傅立叶变换转到频域,把得到的频域特征通过高斯核函数映射到高维,并根据(1)式得到滤波模版α:
其中x表示样本的HOG特征,^表示傅立叶变换,g是中心为峰值的二维高斯函数,λ是正则化参数,用来控制训练的过拟合;kxx表示x在高维空间里的核自相关矩阵,其计算方式由(2)式给出:
为了能适应目标外观变化,滤波器需要进行在线更新;在第t帧图像上进行目标跟踪时,相关滤波器α的更新由下式给出:
其中η为更新参数;
为了能适应目标的尺度变化,当前帧的滤波器αt需进行尺度缩放,从而预测下一帧目标的尺寸;其中缩放的比例分别为[1.1,1.05,1,0.95,0.9];
在第t+1帧图像上的第t帧目标位置处,提取候选样本HOG特征z;结合上述每个尺寸缩放后的滤波器,对应的每个相关滤波输出响应图f见式(4):
其中m=(1,2,3,4,5),分别对应缩放的比例[1.1,1.05,1,0.95,0.9];x表示第t帧目标的HOG特征;
从上述5个响应图f最大值max(f)中筛选出最大值fmax,fmax对应的位置即为目标中心的位置,fmax对应的缩放比例即为目标大小,得到第t+1帧的跟踪框;
2.3融合目标检测和目标跟踪的结果来确定标注的目标框;
首先判断每一帧图像上是否含有检测框,若没有则目标框为跟踪框;若有则继续判断检测框是否只有一个,若是则计算跟踪框和检测框的IOU值,若该IOU值大于阈值,则目标框为检测框,并用该检测框初始化KCF跟踪算法,若否则为跟踪框;若检测框有多个则需要计算跟踪框和每一个检测框的IOU值,进而筛选出最大IOU值,若该最大IOU值大于阈值,则目标框为对应最大IOU值的检测框,并用该检测框初始化KCF跟踪算法,若否则为跟踪框;
IOU值是用来评价当前帧下跟踪框与每个检测框的重合度,其公式如下:
其中SI表示同一帧下跟踪框与每个检测框的重叠部分面积,SU表示同一帧下跟踪框与每个检测框的集合部分面积,所述的集合部分面积为跟踪框与检测框的总面积减去重叠面积;
步骤(3)、根据目标跟踪算法判断目标标注是否结束;
根据KCF相关滤波跟踪器的响应图f,判断max(f)是否小于设定的阈值θ并且峰值旁瓣比(PSR)小于设定的阈值θPSR时,即:
max(f)<θandPSR<θPSR (7)
若是则判断目标标注结束,转到步骤(4)进行关键帧的选择;反之则转到步骤(2),继续估计目标在下一帧图像中的位置;
峰值旁瓣比(PSR)的计算公式如下:
其中max(f)为相关滤波响应图f的峰值,Φ=0.5,μΦ(f)和σΦ(f)分别是以f峰值为中心的50%响应区域的均值和标准差;
步骤(4)、计算当前镜头中每一帧目标的显著值;根据每一帧目标的显著值大小,提取设定数量的视频关键帧,得到目标标注结果;具体是:
4.1LBP(局部二值模式)提取图像的纹理特征,基本思想是定义在像素3*3的邻域内,以邻域中心像素为阈值,相邻的8个像素的灰度值与其进行比较,若周围像素大于中心像素值,则该像素点的位置被标记为1,否则为0;3*3邻域内的8个点经比较可产生8位二进制数,转化为十进制数即可得到中心像素的LBP值,并用这个值来反映该区域的LBP信息;具体计算公式如(8)式所示:
其中(x0,y0)为中心像素的坐标,p为邻域的第p个像素,jp为邻域像素的灰度值,j0为中心像素的灰度值;s(x)为符号函数:
4.2颜色显著性特征图的计算公式如下:
其中patch为目标框区域原图,patchgaussian为patch经过高斯核为5×5,标准差为0的高斯滤波处理之后的图像,||表示取绝对值,i表示通道数,(x,y)为像素坐标;
4.3针对每一帧图像目标框中目标边缘区域的像素点获取边缘显著性特征图
目标框中的目标边缘区域,像素值会发生“跳跃”,对这些像素值求导,在其一阶导数在边缘位置为极值,这就是Sobel算子使用的原理——极值处就是边缘;如果对像素值求二阶导数,边缘处的导数值为0;Laplace函数实现的方法是先用Sobel算子计算二阶x和y导数,再求和得到边缘显著性特征图,计算公式如下:
其中I表示目标框中图像,(x,y)表示目标框中目标边缘区域的像素坐标;
4.4将LBP纹理特征,颜色显著性特征,边缘显著性特征等特征进行平均加权融合,得到融合值mean,融合计算公式如下:
4.5颜色直方图变化值Dist通过计算初始帧选定目标区域和第t帧目标区域颜色直方图的巴氏距离得到,计算公式如下:
其中k=0或t;
4.6尺度变化值通过计算初始帧目标框和第t帧目标框的宽高变化得到的,计算公式如下:
4.7根据图像目标框区域的融合值、颜色直方图变化值、尺度变化值,第t帧的目标显著值的计算公式如下:
其中T表示视频的总帧数;
4.8将视频中每一帧目标的显著值St构建显著值折线图,求得所有峰值以及所对应的帧;
假设该视频有T帧,设定提取关键帧的数量为n个;上述显著值峰值的个数为k个,若n<k,则先对峰值大小进行降序排序,提取前n个峰值对应的帧为关键帧,若k<n<T,则提取所有峰值对应的帧,余下n-k个关键帧采用随机且不重复提取方式;若n>T,则所有视频帧作为关键帧;
步骤(5)、返回步骤(1),进行下一个视频镜头的目标标注。
本发明与现有技术相比,其显著优点为:(1)本发明创造性地将目标检测算法与目标跟踪算法融合,提高了视频图像中目标定位的准确性和目标状态估计的连续性;(2)仅需在初始帧手动标出目标初始位置,标注过程中自动判断标注结束,减少了人为参与的次数;(3)采用目标区域的LBP纹理特征、颜色显著性特征、边缘显著性特征进行融合,结合颜色直方图变化和尺度变化计算目标显著性,使提取的关键帧能反映目标变化的多样性。
附图说明
图1为本发明方法的流程图;
图2为融合目标检测和目标跟踪的流程图;
图3为目标显著值计算流程图;
图4为实例视频中第2帧图像的检测结果;
图5为实例视频中第2帧图像的跟踪结果;
图6为实例视频中第2帧图像的融合检测和跟踪结果;
图7为实例视频第2个镜头的KCF响应图峰值变化曲线;
图8为实例视频第2个镜头的KCF响应图峰值旁瓣比变化曲线;
图9为实例视频第2个镜头的第243帧图像;
图10为实例视频第3个镜头的第1帧图像;
图11为实例视频第6个镜头的目标显著性曲线;
图12为实例视频第6个镜头提取的关键帧。
具体实施方式
以下结合附图对本发明作进一步说明。
由图1所示,本发明具体实施步骤如下:
步骤(1).在视频图像中选定某一帧为初始帧,手动标记目标的初始位置,确定目标的类别标签。
步骤(2).在后续帧中,融合基于图像的目标检测算法和基于图像序列的视频目标跟踪算法估计目标在图像中的位置。本发明采用YOLO V3检测算法和KCF相关滤波跟踪算法,融合方法如图2所示,具体如下:
2.1本发明的检测器采用当下主流检测网络中速度较快的YOLO V3检测算法,满足了视频标注技术中实时性和准确性的需求,包括特征提取网络Darknet-53和预测网络,darknet53网络采用了ResNet shortcut连接,避免了梯度消失,在预测阶段,此算法借鉴了RPN网络中基于anchor进行感兴趣区域提取的方法,以及FPN(Feature Pyramid Network)中使用3个尺度的特征map,小的特征map提供语义信息,大的特征map体更细粒度信息,小的特征map通过上采样和大尺度做融合,实现了更好的检测效果,此外相比于v1和v2,YOLO V3不再使用soft max损失函数,而是使用sigmod+交叉熵函数,从而可以支持多标签的预测。
本发明在原模型的基础上进行了如下改进和优化:
首先在特征提取部分,采用darknet53.conv.74预训练模型初始化训练参数,然后将原模型的YOLO层增加到4层,经过多尺度特征融合得到13×13,26×26,52×52,104×104四种不同尺度的不同感受野特征图,然后使用(116x90),(156x198),(373x326)三种先验框对13×13的特征图进行预测,检测较大的对象;使用(30x61),(62x45),(59x119)对26×26的特征图进行预测,检测中等大小的对象;使用(10x13),(16x30),(33x23)对52×52的特征图进行预测,检测较小的对象,使用新增加的(5x6),(8x15),(16x10)三种先验框,对104×104特征图进行预测,检测更小的目标。与原来的模型相比,经过改进后的检测网络融合了更加低层的特征,从而提高了小目标的检测率。
在每一次的检测操作中,输入第t+1帧图像,首先resize到固定尺度大小,经过特征提取网络和预测网络,最终得到含有对象类别以及得分值的检测框,作为第t+1帧的检测结果。
2.2KCF相关滤波跟踪算法首先根据第t帧的目标位置和大小提取HOG特征,再通过傅立叶变换转到频域,把得到的频域特征通过高斯核函数映射到高维,并根据(1)式得到滤波模版α:
其中x表示样本的HOG特征,^表示傅立叶变换,g是中心为峰值的二维高斯函数,λ是正则化参数,用来控制训练的过拟合。kxx表示x在高维空间里的核自相关矩阵,其计算方式由(2)式给出:
为了能适应目标外观变化,滤波器需要进行在线更新。在第t帧图像上进行目标跟踪时,相关滤波器α的更新由下式给出:
其中m=(1,2,3,4,5),分别对应缩放的比例[1.1,1.05,1,0.95,0.9];x表示第t帧目标的HOG特征;
从上述5个响应图f最大值max(f)中筛选出最大值fmax,fmax对应的位置即为目标中心的位置,fmax对应的缩放比例即为目标大小,得到第t+1帧的跟踪框;
2.3融合目标检测和目标跟踪的结果来确定标注的目标框。
首先判断每一帧图像上是否含有检测框,若没有则目标框为跟踪框;若有则继续判断检测框是否只有一个,若是则计算跟踪框和检测框的IOU值,若该IOU值大于阈值,则目标框为检测框,并用该检测框初始化KCF跟踪算法,若否则为跟踪框;若检测框有多个则需要计算跟踪框和每一个检测框的IOU值,进而筛选出最大IOU值,若该最大IOU值大于阈值,则目标框为对应最大IOU值的检测框,并用该检测框初始化KCF跟踪算法,若否则为跟踪框;
IOU值是用来评价当前帧下跟踪框与每个检测框的重合度,其公式如下:
其中SI表示同一帧下跟踪框与每个检测框的重叠部分面积,SU表示同一帧下跟踪框与每个检测框的集合部分面积。所述的集合部分面积为跟踪框与检测框的总面积减去重叠面积;
步骤(3).KCF相关滤波跟踪器的响应图f的峰值代表了对应位置是目标的置信度,峰值越高,则该位置是目标的概率越高。峰值旁瓣比(PSR)衡量了相关滤波输出的峰值强度,PSR值越高,表明跟踪结果的可信度越高。若峰值和PSR低于设定的阀值,则表明目标可能消失,从而判断视频目标标注结束。峰值旁瓣比(PSR)的计算公式如下:
其中max(f)为相关滤波响应图f的峰值,Φ=0.5,μΦ(f)和σΦ(f)分别是以f峰值为中心的50%响应区域的均值和标准差。若max(f)小于设定的阈值θ并且PSR小于设定的阈值θPSR时,即:
max(f)<θandPSR<θPSR (7)
则判断目标标注结束,转到步骤(4)进行关键帧的选择。否则转到步骤(2),继续估计目标在下一帧图像中的位置。
步骤(4)计算每一帧目标的显著值,如图3所示,在标注过程中,利用步骤(2)得到的目标框获取目标区域,然后针对目标区域进行LBP纹理特征,颜色显著性特征,边缘显著性特征融合,结合颜色直方图变化和尺度变化计算目标的显著值。具体如下:
4.1LBP(局部二值模式)提取目标区域的纹理特征,基本思想是定义在像素3*3的邻域内,以邻域中心像素为阈值,相邻的8个像素的灰度值与其进行比较,若周围像素大于中心像素值,则该像素点的位置被标记为1,否则为0。3*3邻域内的8个点经比较可产生8位二进制数,转化为十进制数即可得到中心像素的LBP值,并用这个值来反映该区域的LBP信息。具体计算公式如(8)式所示:
其中(x0,y0)为中心像素的坐标,p为邻域的第p个像素,jp为邻域像素的灰度值,j0为邻域像素的灰度值。s(x)为符号函数:
4.2颜色显著性特征图的计算公式如下:
其中patch为目标区域图像,patchgaussian为patch经过高斯核为5×5,标准差为0的高斯滤波处理之后的图像,||表示取绝对值,i表示图片的通道数,(x,y)为横纵坐标。
4.3目标区域图像中的边缘区域,像素值会发生“跳跃”,对这些像素值求导,在其一阶导数在边缘位置为极值,这就是Sobel算子使用的原理——极值处就是边缘。如果对像素值求二阶导数,边缘处的导数值为0。Laplace函数实现的方法是先用Sobel算子计算二阶x和y导数,再求和得到边缘显著性特征图,计算公式如下:
其中I表示图像,(x,y)表示目标框中目标边缘区域的像素坐标;
4.4将LBP纹理特征,颜色显著性特征,边缘显著性特征等特征进行平均加权融合,得到融合值mean,融合计算公式如下:
4.5目标区域图像的颜色直方图表示图像中颜色组成的分布,它显示了不同类型的颜色和每种颜色中的像素数。颜色直方图变化值Dist通过计算初始帧选定目标区域和第t帧目标区域颜色直方图的巴氏距离得到,Dist值越大,相似度越低,目标变化越明显,计算公式如下:
其中k=0或t。
4.6尺度变化值通过计算初始帧目标框和第t帧目标框的宽高变化得到的,计算公式如下:
4.7通过以上计算,第t帧的目标显著值的计算公式如下:
其中T表示某镜头视频帧总数。
4.8根据场景镜头中每一帧目标的显著值,画出显著值折线图,求得所有峰值以及所对应的帧。假设该镜头有T个视频帧,要提取关键帧的数量为n个,峰值的个数为k个,若n<k,则先对峰值大小进行降序排序,提取前n个峰值对应的帧为关键帧,若k<n<T,则提取所有峰值对应的帧,余下n-k个关键帧采用随机且不重复提取方式;若n>T,则所有视频帧作为关键帧。
步骤(5).返回步骤(1),进行下一个镜头的目标标注。
为验证本发明提出方法的有效性,采用一段多镜头多舰船的视频进行实验测试。该视频共有9个多船舶的场景镜头,每个场景镜头的帧数如表1所示,为加速计算,本实验每5帧标注一次。
表1视频分镜头及帧数
在进行目标检测阶段,单阶段目标检测算法YOLO V3首先在大量带有舰船标签信息和位置信息的标记样本上进行训练,得到检测模型,然后将此模型作为检测器。考虑到原始算法对小目标检测的能力不高,因此在原来基础之上增加了小尺度的anchor,对检测精度不高的缺点进行改进,在保证检测速度的前提下提高了各种尺度目标的检测能力,实现准确实时检测。在进行目标跟踪阶段,KCF跟踪算法的参数设置λ=1×10-4,σ=0.5,η=0.02。考虑到原始算法不能适应目标尺度的变化,因此对KCF跟踪算法增加尺度判断,将改进后的KCF跟踪算法作为跟踪器。
在融合检测结果和跟踪结果阶段,设定IOU阈值threshold为0.5。若跟踪框和每一个检测框的IOU值都小于0.5,表示检测器没有检测到要标注的目标,则该目标的目标框为跟踪框。若跟踪框和一个或多个检测框的IOU值大于0.5,表示检测器检测到了要标注的目标,则该目标的目标框为最大IOU值对应的检测框。例如,在视频镜头1的第1帧手动标注目标后,第2帧的检测结果和跟踪结果如图4和图5所示。从图中可以看出,检测器的检测结果中有多个目标,跟踪器的跟踪结果只有一个目标。通过计算跟踪框和每一个检测框的IOU值,只有一个检测框和跟踪框的IOU值大于阈值0.5,融合输出目标框结果如图6所示,融合结果输出的是检测框。
在判断目标标注是否结束时,设定KCF跟踪器峰值阈值θ为0.3,峰值旁瓣比阈值θPSR为3.5,当峰值和峰值旁瓣比小于阈值,则标注结束。例如,在视频第2个镜头目标标注的过程中,目标消失时,KCF跟踪算法响应图的峰值和峰值旁瓣比会变小,如图7和图8所示。场景镜头下的0~47帧里,KCF跟踪算法响应图的峰值和峰值旁瓣比数值较大,在第48帧峰值和峰值旁瓣比较小,说明该帧目标消失,实际上正对应了该镜头共243帧,每5帧标注一次,243帧的下一帧场景镜头切换。其中镜头2的第243帧图像和镜头3的第1帧图像如图9和图10所示。图中可以看出视频由镜头2切换成镜头3导致目标消失,说明该方法判断标注结束准确无误。
当跟踪器判断视频镜头目标标注结束后,根据每一帧的目标显著值得到该视频镜头目标显著值曲线,在曲线的局部最大值处提取关键帧,本实验设定每个镜头抽出10帧作为关键帧。例如镜头6的目标显著性曲线如图11所示。首先将局部最大值按从大到小排列,然后取前10个局部最大值对应的帧作为关键帧,提取的关键帧如图12(a-j)所示。从图中可以看出,根据提取的关键帧具有较强的代表性,可以准确的反映出目标尺寸大小,角度等变化的多样性。
本实验结果如表2所示,
表2每个分镜头的关键帧
镜头 | 关键帧 |
1 | 5,10,25,30,40,50,55,65,75,80 |
2 | 90,110,125,135,145,160,180,195,205,215 |
3 | 325,340,365,380,400,420,430,445,460,480 |
4 | 1099,1109,1119,1139,1149,1159,1169,1179,1329,1369 |
5 | 1424,1519,1559,1594,1604,1624,1634,1674,1754,1764 |
6 | 1779,1854,1869,1994,2054,2064,2089,2114,2144,2154 |
7 | 2194,2199,2214,2229,2249,2269,2279,2289,2294,2314 |
8 | 2349,2359,2379,2399,2414,2424,2444,2459,2474,2539 |
9 | 2974,3094,3164,3179,3189,3199,3214,3229,3259,3274 |
从表中可以看出关键帧的提取范围都在对应的镜头内,进一步证明该方法能够区分不同的镜头,自动判断目标标注结束。本发明采用目标显著值的局部最大值作为关键帧的提取依据,使得提取到的关键帧具有代表性。根据实验的结果来看,基于融合目标检测算法和目标跟踪算法的视频目标标注方法,取得了较高的准确度。
Claims (1)
1.融合目标检测与跟踪的视频半自动目标标注方法,其特征在于该方法包括以下步骤:
步骤(1)、在视频的某个镜头中选定某一帧为初始帧,手动标记目标的初始位置和大小,确定目标的类别标签;
步骤(2)、初始帧之后的其他后续帧采用自动标注,具体是融合基于图像的目标检测算法和基于图像序列的视频目标跟踪算法估计目标在图像中的位置;具体是:
2.1 采用YOLO V3对每一帧图像中目标进行检测并标识出检测框;
上述YOLO V3是将带有标签目标图像调整到固定尺度大小作为训练样本,对yolo-v3进行训练;其中YOLO层增加到4层,经过多尺度特征融合得到13×13,26×26,52×52,104×104四种不同尺度的不同感受野特征图;使用(116x90),(156x198),(373x326)三种先验框对13×13的特征图进行预测,检测较大的对象;使用(30x61),(62x45),(59x119)三种先验框对26×26的特征图进行预测,检测中等大小的对象;使用(10x13),(16x30),(33x23)三种先验框对52×52的特征图进行预测,检测较小的对象;使用新增加的(5x6),(8x15),(16x10)三种先验框,对104×104特征图进行预测,检测更小的目标;
2.2 采用KCF相关滤波跟踪算法获取目标的跟踪框;
首先根据前一帧的目标位置和大小提取HOG特征,再通过傅立叶变换转到频域,把得到的频域特征通过高斯核函数映射到高维,并根据(1)式得到滤波模版α:
其中x表示样本的HOG特征,^表示傅立叶变换,g是中心为峰值的二维高斯函数,λ是正则化参数,用来控制训练的过拟合;kxx表示x在高维空间里的核自相关矩阵,其计算方式由(2)式给出:
为了能适应目标外观变化,滤波器需要进行在线更新;在第t帧图像上进行目标跟踪时,相关滤波器α的更新由下式给出:
其中η为更新参数;
为了能适应目标的尺度变化,当前帧的滤波器αt需进行尺度缩放,从而预测下一帧目标的尺寸;其中缩放的比例分别为[1.1,1.05,1,0.95,0.9];
在第t+1帧图像上的第t帧目标位置处,提取候选样本HOG特征z;结合上述每个尺寸缩放后的滤波器,对应的每个相关滤波输出响应图f见式(4):
其中m=(1,2,3,4,5),分别对应缩放的比例[1.1,1.05,1,0.95,0.9];x表示第t帧目标的HOG特征;
从上述5个响应图f最大值max(f)中筛选出最大值fmax,fmax对应的位置即为目标中心的位置,fmax对应的缩放比例即为目标大小,得到第t+1帧的跟踪框;
2.3 融合目标检测和目标跟踪的结果来确定标注的目标框;
首先判断每一帧图像上是否含有检测框,若没有则目标框为跟踪框;若有则继续判断检测框是否只有一个,若是则计算跟踪框和检测框的IOU值,若该IOU值大于阈值,则目标框为检测框,并用该检测框初始化KCF跟踪算法,若否则为跟踪框;若检测框有多个则需要计算跟踪框和每一个检测框的IOU值,进而筛选出最大IOU值,若该最大IOU值大于阈值,则目标框为对应最大IOU值的检测框,并用该检测框初始化KCF跟踪算法,若否则为跟踪框;
IOU值是用来评价当前帧下跟踪框与每个检测框的重合度,其公式如下:
其中SI表示同一帧下跟踪框与每个检测框的重叠部分面积,SU表示同一帧下跟踪框与每个检测框的集合部分面积,所述的集合部分面积为跟踪框与检测框的总面积减去重叠面积;
步骤(3)、根据目标跟踪算法判断目标标注是否结束;
根据KCF相关滤波跟踪器的响应图f,判断max(f)是否小于设定的阈值θ并且峰值旁瓣比(PSR)小于设定的阈值θPSR时,即:
max(f)<θandPSR<θPSR (7)
若是则判断目标标注结束,转到步骤(4)进行关键帧的选择;反之则转到步骤(2),继续估计目标在下一帧图像中的位置;
峰值旁瓣比(PSR)的计算公式如下:
其中max(f)为相关滤波响应图f的峰值,Φ=0.5,μΦ(f)和σΦ(f)分别是以f峰值为中心的50%响应区域的均值和标准差;
步骤(4)、计算当前镜头中每一帧目标的显著值;根据每一帧目标的显著值大小,提取设定数量的视频关键帧,得到目标标注结果;具体是:
4.1 LBP(局部二值模式)提取图像的纹理特征,基本思想是定义在像素3*3的邻域内,以邻域中心像素为阈值,相邻的8个像素的灰度值与其进行比较,若周围像素大于中心像素值,则该像素点的位置被标记为1,否则为0;3*3邻域内的8个点经比较可产生8位二进制数,转化为十进制数即可得到中心像素的LBP值,并用这个值来反映该区域的LBP信息;具体计算公式如(8)式所示:
其中(x0,y0)为中心像素的坐标,p为邻域的第p个像素,jp为邻域像素的灰度值,j0为中心像素的灰度值;s(x)为符号函数:
4.2 颜色显著性特征图的计算公式如下:
其中patch为目标框区域原图,patchgaussian为patch经过高斯核为5×5,标准差为0的高斯滤波处理之后的图像,||表示取绝对值,i表示通道数,(x,y)为像素坐标;
4.3 针对每一帧图像目标框中目标边缘区域的像素点获取边缘显著性特征图
目标框中的目标边缘区域,像素值会发生“跳跃”,对这些像素值求导,在其一阶导数在边缘位置为极值,这就是Sobel算子使用的原理——极值处就是边缘;如果对像素值求二阶导数,边缘处的导数值为0;Laplace函数实现的方法是先用Sobel算子计算二阶x和y导数,再求和得到边缘显著性特征图,计算公式如下:
其中I表示目标框中图像,(x,y)表示目标框中目标边缘区域的像素坐标;
4.4 将LBP纹理特征,颜色显著性特征,边缘显著性特征等特征进行平均加权融合,得到融合值mean,融合计算公式如下:
4.5 颜色直方图变化值Dist通过计算初始帧选定目标区域和第t帧目标区域颜色直方图的巴氏距离得到,计算公式如下:
其中k=0或t;
4.6 尺度变化值通过计算初始帧目标框和第t帧目标框的宽高变化得到的,计算公式如下:
4.7 根据图像目标框区域的融合值、颜色直方图变化值、尺度变化值,第t帧的目标显著值的计算公式如下:
其中T表示视频的总帧数;
4.8 将视频中每一帧目标的显著值St构建显著值折线图,求得所有峰值以及所对应的帧;
假设该视频有T帧,设定提取关键帧的数量为n个;上述显著值峰值的个数为k个,若n<k,则先对峰值大小进行降序排序,提取前n个峰值对应的帧为关键帧,若k<n<T,则提取所有峰值对应的帧,余下n-k个关键帧采用随机且不重复提取方式;若n>T,则所有视频帧作为关键帧;
步骤(5)、返回步骤(1),进行下一个视频镜头的目标标注。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910963482.3A CN110929560B (zh) | 2019-10-11 | 2019-10-11 | 融合目标检测与跟踪的视频半自动目标标注方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910963482.3A CN110929560B (zh) | 2019-10-11 | 2019-10-11 | 融合目标检测与跟踪的视频半自动目标标注方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110929560A true CN110929560A (zh) | 2020-03-27 |
CN110929560B CN110929560B (zh) | 2022-10-14 |
Family
ID=69848801
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910963482.3A Active CN110929560B (zh) | 2019-10-11 | 2019-10-11 | 融合目标检测与跟踪的视频半自动目标标注方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110929560B (zh) |
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111415370A (zh) * | 2020-04-13 | 2020-07-14 | 中山大学 | 一种基于嵌入式的红外复杂场景目标实时跟踪方法及系统 |
CN111626990A (zh) * | 2020-05-06 | 2020-09-04 | 北京字节跳动网络技术有限公司 | 目标检测框处理方法、装置及电子设备 |
CN111652080A (zh) * | 2020-05-12 | 2020-09-11 | 合肥的卢深视科技有限公司 | 基于rgb-d图像的目标跟踪方法和装置 |
CN111681260A (zh) * | 2020-06-15 | 2020-09-18 | 深延科技(北京)有限公司 | 一种面向无人机航拍影像的多目标跟踪方法及跟踪系统 |
CN111709971A (zh) * | 2020-05-29 | 2020-09-25 | 西安理工大学 | 一种基于多目标跟踪的半自动化视频标注方法 |
CN111754545A (zh) * | 2020-06-16 | 2020-10-09 | 江南大学 | 一种基于iou匹配的双滤波器视频多目标跟踪方法 |
CN111768668A (zh) * | 2020-03-31 | 2020-10-13 | 杭州海康威视数字技术股份有限公司 | 一种实验操作评分方法、装置、设备及存储介质 |
CN111882582A (zh) * | 2020-07-24 | 2020-11-03 | 广州云从博衍智能科技有限公司 | 一种图像跟踪关联方法、系统、设备及介质 |
CN112070071A (zh) * | 2020-11-11 | 2020-12-11 | 腾讯科技(深圳)有限公司 | 视频中的对象标注方法、装置、计算机设备及存储介质 |
CN112132855A (zh) * | 2020-09-22 | 2020-12-25 | 山东工商学院 | 基于前景分割引导的自适应高斯函数的目标跟踪方法 |
CN112164097A (zh) * | 2020-10-20 | 2021-01-01 | 南京莱斯网信技术研究院有限公司 | 一种船舶视频检测样本采集方法 |
CN112257612A (zh) * | 2020-10-23 | 2021-01-22 | 华侨大学 | 一种基于边缘智能的无人机视频帧过滤方法及装置 |
CN112308082A (zh) * | 2020-11-05 | 2021-02-02 | 湖南科技大学 | 基于双通道卷积核与多帧特征融合动态视频图像分割方法 |
CN112395957A (zh) * | 2020-10-28 | 2021-02-23 | 连云港杰瑞电子有限公司 | 一种针对视频目标检测的在线学习方法 |
CN112489089A (zh) * | 2020-12-15 | 2021-03-12 | 中国人民解放军国防科技大学 | 一种微型固定翼无人机机载地面运动目标识别与跟踪方法 |
CN113034551A (zh) * | 2021-05-31 | 2021-06-25 | 南昌虚拟现实研究院股份有限公司 | 目标跟踪和标注方法、装置、可读存储介质及计算机设备 |
CN113096064A (zh) * | 2021-02-24 | 2021-07-09 | 深圳供电局有限公司 | 视频关键帧提取方法、装置、计算机设备和存储介质 |
CN113095239A (zh) * | 2021-04-15 | 2021-07-09 | 深圳市英威诺科技有限公司 | 一种关键帧提取方法、终端及计算机可读存储介质 |
CN113112519A (zh) * | 2021-04-23 | 2021-07-13 | 电子科技大学 | 基于感兴趣目标分布的关键帧筛选方法 |
CN113705643A (zh) * | 2021-08-17 | 2021-11-26 | 荣耀终端有限公司 | 一种目标物检测方法、装置以及电子设备 |
WO2021237678A1 (zh) * | 2020-05-29 | 2021-12-02 | 深圳市大疆创新科技有限公司 | 目标跟踪方法及装置 |
CN113761981A (zh) * | 2020-06-05 | 2021-12-07 | 北京四维图新科技股份有限公司 | 一种自动驾驶视觉感知方法、装置及存储介质 |
CN113920168A (zh) * | 2021-11-02 | 2022-01-11 | 中音讯谷科技有限公司 | 一种音视频控制设备中图像跟踪方法 |
CN113947619A (zh) * | 2021-11-10 | 2022-01-18 | 上海鹰觉科技有限公司 | 结合目标检测的半人工式初始跟踪框确定及跟踪方法及系统 |
CN114219938A (zh) * | 2021-11-30 | 2022-03-22 | 阿里巴巴(中国)有限公司 | 感兴趣区域获取方法 |
CN114419493A (zh) * | 2021-12-29 | 2022-04-29 | 北京百度网讯科技有限公司 | 图像的标注方法、装置、电子设备和存储介质 |
CN114463370A (zh) * | 2020-11-09 | 2022-05-10 | 北京理工大学 | 二维影像目标跟踪优化方法及装置 |
WO2022116545A1 (zh) * | 2020-12-04 | 2022-06-09 | 全球能源互联网研究院有限公司 | 一种基于多特征识别的交互方法、装置及计算机设备 |
CN114697702A (zh) * | 2022-03-23 | 2022-07-01 | 咪咕文化科技有限公司 | 音视频标记方法、装置、设备及存储介质 |
CN114706084A (zh) * | 2021-12-30 | 2022-07-05 | 杭州电子科技大学 | 一种基于yolo算法的水声被动跟踪多目标的方法 |
CN114882211A (zh) * | 2022-03-01 | 2022-08-09 | 广州文远知行科技有限公司 | 时序数据自动标注方法、装置、电子设备、介质及产品 |
CN114972418A (zh) * | 2022-03-30 | 2022-08-30 | 北京航空航天大学 | 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法 |
CN115018885A (zh) * | 2022-08-05 | 2022-09-06 | 四川迪晟新达类脑智能技术有限公司 | 一种适用于边缘设备的多尺度目标跟踪算法 |
CN115082862A (zh) * | 2022-07-07 | 2022-09-20 | 南京杰迈视讯科技有限公司 | 一种基于单目摄像机的高精度行人流量统计方法 |
CN115424207A (zh) * | 2022-09-05 | 2022-12-02 | 南京星云软件科技有限公司 | 自适应监控系统及方法 |
CN116109975A (zh) * | 2023-02-08 | 2023-05-12 | 广州宝立科技有限公司 | 电网安全作业监控图像处理方法及智能视频监控系统 |
CN116912289A (zh) * | 2023-08-09 | 2023-10-20 | 北京航空航天大学 | 一种面向边缘智能的弱小目标层次化视觉跟踪方法 |
CN117635637A (zh) * | 2023-11-28 | 2024-03-01 | 北京航空航天大学 | 一种自主构想的智能目标动态探测系统 |
CN117671801A (zh) * | 2024-02-02 | 2024-03-08 | 中科方寸知微(南京)科技有限公司 | 基于二分缩减的实时目标检测方法及系统 |
CN118247812A (zh) * | 2024-04-15 | 2024-06-25 | 中国科学院半导体研究所 | 视频目标识别方法及装置 |
CN118445521A (zh) * | 2024-07-08 | 2024-08-06 | 南京信息工程大学 | 一种抗遮挡的无人机目标跟踪方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107403175A (zh) * | 2017-09-21 | 2017-11-28 | 昆明理工大学 | 一种运动背景下的视觉跟踪方法及视觉跟踪系统 |
CN107767405A (zh) * | 2017-09-29 | 2018-03-06 | 华中科技大学 | 一种融合卷积神经网络的核相关滤波目标跟踪方法 |
-
2019
- 2019-10-11 CN CN201910963482.3A patent/CN110929560B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107403175A (zh) * | 2017-09-21 | 2017-11-28 | 昆明理工大学 | 一种运动背景下的视觉跟踪方法及视觉跟踪系统 |
CN107767405A (zh) * | 2017-09-29 | 2018-03-06 | 华中科技大学 | 一种融合卷积神经网络的核相关滤波目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
TIMO OJALA等: "A COMPARATIVE STUDY OF TEXTURE MEASURES WITH CLASSIFICATION BASED ON FEATURE DISTRIBUTIONS", 《PATTERNRECOONITION》 * |
Cited By (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111768668B (zh) * | 2020-03-31 | 2022-09-02 | 杭州海康威视数字技术股份有限公司 | 一种实验操作评分方法、装置、设备及存储介质 |
CN111768668A (zh) * | 2020-03-31 | 2020-10-13 | 杭州海康威视数字技术股份有限公司 | 一种实验操作评分方法、装置、设备及存储介质 |
CN111415370A (zh) * | 2020-04-13 | 2020-07-14 | 中山大学 | 一种基于嵌入式的红外复杂场景目标实时跟踪方法及系统 |
CN111626990A (zh) * | 2020-05-06 | 2020-09-04 | 北京字节跳动网络技术有限公司 | 目标检测框处理方法、装置及电子设备 |
CN111652080A (zh) * | 2020-05-12 | 2020-09-11 | 合肥的卢深视科技有限公司 | 基于rgb-d图像的目标跟踪方法和装置 |
CN111652080B (zh) * | 2020-05-12 | 2023-10-17 | 合肥的卢深视科技有限公司 | 基于rgb-d图像的目标跟踪方法和装置 |
CN111709971A (zh) * | 2020-05-29 | 2020-09-25 | 西安理工大学 | 一种基于多目标跟踪的半自动化视频标注方法 |
WO2021237678A1 (zh) * | 2020-05-29 | 2021-12-02 | 深圳市大疆创新科技有限公司 | 目标跟踪方法及装置 |
CN113761981B (zh) * | 2020-06-05 | 2023-07-11 | 北京四维图新科技股份有限公司 | 一种自动驾驶视觉感知方法、装置及存储介质 |
CN113761981A (zh) * | 2020-06-05 | 2021-12-07 | 北京四维图新科技股份有限公司 | 一种自动驾驶视觉感知方法、装置及存储介质 |
CN111681260A (zh) * | 2020-06-15 | 2020-09-18 | 深延科技(北京)有限公司 | 一种面向无人机航拍影像的多目标跟踪方法及跟踪系统 |
CN111754545A (zh) * | 2020-06-16 | 2020-10-09 | 江南大学 | 一种基于iou匹配的双滤波器视频多目标跟踪方法 |
CN111754545B (zh) * | 2020-06-16 | 2024-05-03 | 江南大学 | 一种基于iou匹配的双滤波器视频多目标跟踪方法 |
CN111882582A (zh) * | 2020-07-24 | 2020-11-03 | 广州云从博衍智能科技有限公司 | 一种图像跟踪关联方法、系统、设备及介质 |
CN111882582B (zh) * | 2020-07-24 | 2021-10-08 | 广州云从博衍智能科技有限公司 | 一种图像跟踪关联方法、系统、设备及介质 |
CN112132855A (zh) * | 2020-09-22 | 2020-12-25 | 山东工商学院 | 基于前景分割引导的自适应高斯函数的目标跟踪方法 |
CN112132855B (zh) * | 2020-09-22 | 2022-05-20 | 山东工商学院 | 基于前景分割引导的自适应高斯函数的目标跟踪方法 |
CN112164097A (zh) * | 2020-10-20 | 2021-01-01 | 南京莱斯网信技术研究院有限公司 | 一种船舶视频检测样本采集方法 |
CN112164097B (zh) * | 2020-10-20 | 2024-03-29 | 南京莱斯网信技术研究院有限公司 | 一种船舶视频检测样本采集方法 |
CN112257612B (zh) * | 2020-10-23 | 2023-06-02 | 华侨大学 | 一种基于边缘智能的无人机视频帧过滤方法及装置 |
CN112257612A (zh) * | 2020-10-23 | 2021-01-22 | 华侨大学 | 一种基于边缘智能的无人机视频帧过滤方法及装置 |
CN112395957B (zh) * | 2020-10-28 | 2024-06-04 | 连云港杰瑞电子有限公司 | 一种针对视频目标检测的在线学习方法 |
CN112395957A (zh) * | 2020-10-28 | 2021-02-23 | 连云港杰瑞电子有限公司 | 一种针对视频目标检测的在线学习方法 |
CN112308082A (zh) * | 2020-11-05 | 2021-02-02 | 湖南科技大学 | 基于双通道卷积核与多帧特征融合动态视频图像分割方法 |
CN112308082B (zh) * | 2020-11-05 | 2023-04-07 | 湖南科技大学 | 基于双通道卷积核与多帧特征融合动态视频图像分割方法 |
CN114463370A (zh) * | 2020-11-09 | 2022-05-10 | 北京理工大学 | 二维影像目标跟踪优化方法及装置 |
CN112070071B (zh) * | 2020-11-11 | 2021-03-26 | 腾讯科技(深圳)有限公司 | 视频中的对象标注方法、装置、计算机设备及存储介质 |
CN112070071A (zh) * | 2020-11-11 | 2020-12-11 | 腾讯科技(深圳)有限公司 | 视频中的对象标注方法、装置、计算机设备及存储介质 |
WO2022116545A1 (zh) * | 2020-12-04 | 2022-06-09 | 全球能源互联网研究院有限公司 | 一种基于多特征识别的交互方法、装置及计算机设备 |
CN112489089A (zh) * | 2020-12-15 | 2021-03-12 | 中国人民解放军国防科技大学 | 一种微型固定翼无人机机载地面运动目标识别与跟踪方法 |
CN112489089B (zh) * | 2020-12-15 | 2022-06-07 | 中国人民解放军国防科技大学 | 一种微型固定翼无人机机载地面运动目标识别与跟踪方法 |
CN113096064A (zh) * | 2021-02-24 | 2021-07-09 | 深圳供电局有限公司 | 视频关键帧提取方法、装置、计算机设备和存储介质 |
CN113096064B (zh) * | 2021-02-24 | 2024-10-11 | 深圳供电局有限公司 | 视频关键帧提取方法、装置、计算机设备和存储介质 |
CN113095239A (zh) * | 2021-04-15 | 2021-07-09 | 深圳市英威诺科技有限公司 | 一种关键帧提取方法、终端及计算机可读存储介质 |
CN113112519A (zh) * | 2021-04-23 | 2021-07-13 | 电子科技大学 | 基于感兴趣目标分布的关键帧筛选方法 |
CN113034551A (zh) * | 2021-05-31 | 2021-06-25 | 南昌虚拟现实研究院股份有限公司 | 目标跟踪和标注方法、装置、可读存储介质及计算机设备 |
CN113705643A (zh) * | 2021-08-17 | 2021-11-26 | 荣耀终端有限公司 | 一种目标物检测方法、装置以及电子设备 |
CN113920168A (zh) * | 2021-11-02 | 2022-01-11 | 中音讯谷科技有限公司 | 一种音视频控制设备中图像跟踪方法 |
CN113947619A (zh) * | 2021-11-10 | 2022-01-18 | 上海鹰觉科技有限公司 | 结合目标检测的半人工式初始跟踪框确定及跟踪方法及系统 |
CN114219938A (zh) * | 2021-11-30 | 2022-03-22 | 阿里巴巴(中国)有限公司 | 感兴趣区域获取方法 |
CN114419493A (zh) * | 2021-12-29 | 2022-04-29 | 北京百度网讯科技有限公司 | 图像的标注方法、装置、电子设备和存储介质 |
CN114706084A (zh) * | 2021-12-30 | 2022-07-05 | 杭州电子科技大学 | 一种基于yolo算法的水声被动跟踪多目标的方法 |
CN114882211A (zh) * | 2022-03-01 | 2022-08-09 | 广州文远知行科技有限公司 | 时序数据自动标注方法、装置、电子设备、介质及产品 |
CN114697702B (zh) * | 2022-03-23 | 2024-01-30 | 咪咕文化科技有限公司 | 音视频标记方法、装置、设备及存储介质 |
CN114697702A (zh) * | 2022-03-23 | 2022-07-01 | 咪咕文化科技有限公司 | 音视频标记方法、装置、设备及存储介质 |
CN114972418A (zh) * | 2022-03-30 | 2022-08-30 | 北京航空航天大学 | 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法 |
CN114972418B (zh) * | 2022-03-30 | 2023-11-21 | 北京航空航天大学 | 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法 |
CN115082862A (zh) * | 2022-07-07 | 2022-09-20 | 南京杰迈视讯科技有限公司 | 一种基于单目摄像机的高精度行人流量统计方法 |
CN115018885A (zh) * | 2022-08-05 | 2022-09-06 | 四川迪晟新达类脑智能技术有限公司 | 一种适用于边缘设备的多尺度目标跟踪算法 |
CN115424207A (zh) * | 2022-09-05 | 2022-12-02 | 南京星云软件科技有限公司 | 自适应监控系统及方法 |
CN116109975B (zh) * | 2023-02-08 | 2023-10-20 | 广州宝立科技有限公司 | 电网安全作业监控图像处理方法及智能视频监控系统 |
CN116109975A (zh) * | 2023-02-08 | 2023-05-12 | 广州宝立科技有限公司 | 电网安全作业监控图像处理方法及智能视频监控系统 |
CN116912289B (zh) * | 2023-08-09 | 2024-01-30 | 北京航空航天大学 | 一种面向边缘智能的弱小目标层次化视觉跟踪方法 |
CN116912289A (zh) * | 2023-08-09 | 2023-10-20 | 北京航空航天大学 | 一种面向边缘智能的弱小目标层次化视觉跟踪方法 |
CN117635637A (zh) * | 2023-11-28 | 2024-03-01 | 北京航空航天大学 | 一种自主构想的智能目标动态探测系统 |
CN117635637B (zh) * | 2023-11-28 | 2024-06-11 | 北京航空航天大学 | 一种自主构想的智能目标动态探测系统 |
CN117671801A (zh) * | 2024-02-02 | 2024-03-08 | 中科方寸知微(南京)科技有限公司 | 基于二分缩减的实时目标检测方法及系统 |
CN117671801B (zh) * | 2024-02-02 | 2024-04-23 | 中科方寸知微(南京)科技有限公司 | 基于二分缩减的实时目标检测方法及系统 |
CN118247812A (zh) * | 2024-04-15 | 2024-06-25 | 中国科学院半导体研究所 | 视频目标识别方法及装置 |
CN118445521A (zh) * | 2024-07-08 | 2024-08-06 | 南京信息工程大学 | 一种抗遮挡的无人机目标跟踪方法 |
CN118445521B (zh) * | 2024-07-08 | 2024-09-17 | 南京信息工程大学 | 一种抗遮挡的无人机目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110929560B (zh) | 2022-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110929560B (zh) | 融合目标检测与跟踪的视频半自动目标标注方法 | |
CN111062973A (zh) | 基于目标特征敏感性和深度学习的车辆跟踪方法 | |
CN103778435A (zh) | 一种基于视频的行人快速检测方法 | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN108182388A (zh) | 一种基于图像的运动目标跟踪方法 | |
CN107169985A (zh) | 一种基于对称帧间差分和背景更新的运动目标检测方法 | |
CA2780595A1 (en) | Method and multi-scale attention system for spatiotemporal change determination and object detection | |
CN111915583B (zh) | 复杂场景中基于车载红外热像仪的车辆和行人检测方法 | |
CN101986348A (zh) | 一种视觉目标识别与跟踪方法 | |
CN104700415B (zh) | 一种图像匹配跟踪中匹配模板的选取方法 | |
CN108596951A (zh) | 一种融合特征的目标跟踪方法 | |
CN103198493A (zh) | 一种基于多特征自适应融合和在线学习的目标跟踪方法 | |
CN101916446A (zh) | 基于边缘信息和均值移位的灰度目标跟踪算法 | |
CN103413303A (zh) | 基于联合显著性的红外目标分割方法 | |
CN108960047A (zh) | 基于深度二次树的视频监控中人脸去重方法 | |
CN103955949A (zh) | 基于Mean-shift算法的运动目标检测方法 | |
CN106780727B (zh) | 一种车头检测模型重建方法及装置 | |
CN111353371A (zh) | 基于星载sar影像的海岸线提取方法 | |
CN100382600C (zh) | 动态场景下的运动物体检测方法 | |
CN108133489A (zh) | 一种增强的多层卷积视觉跟踪方法 | |
CN111369570A (zh) | 一种视频图像的多目标检测跟踪方法 | |
CN113822352A (zh) | 基于多特征融合的红外弱小目标检测方法 | |
CN108319961B (zh) | 一种基于局部特征点的图像roi快速检测方法 | |
CN106600613A (zh) | 基于嵌入式gpu的改进lbp红外目标检测方法 | |
CN104050674B (zh) | 一种显著性区域检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |