Nothing Special   »   [go: up one dir, main page]

CN109919981B - 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法 - Google Patents

一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法 Download PDF

Info

Publication number
CN109919981B
CN109919981B CN201910179594.XA CN201910179594A CN109919981B CN 109919981 B CN109919981 B CN 109919981B CN 201910179594 A CN201910179594 A CN 201910179594A CN 109919981 B CN109919981 B CN 109919981B
Authority
CN
China
Prior art keywords
target
frame
matrix
similarity
apparent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910179594.XA
Other languages
English (en)
Other versions
CN109919981A (zh
Inventor
韩光
高燕
杜花
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN201910179594.XA priority Critical patent/CN109919981B/zh
Publication of CN109919981A publication Critical patent/CN109919981A/zh
Application granted granted Critical
Publication of CN109919981B publication Critical patent/CN109919981B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法,首先读取视频帧中的任意两帧图像,将预处理过的图像输入到多目标检测器中,得到视频中各帧的检测结果。引入了目标遮挡机制,该判断机制根据目标中心点的坐标和目标的大小来判断,若被遮挡部分较小或无遮挡时,检测器将检测框的质心坐标和预处理视频帧输入到预训练的卷积神经网络中,提取目标的浅层和深层的语义信息,并级联起来构成特征矩阵,再将两帧的特征矩阵进行相似性估计,得到最优轨迹。如果检测到的目标遮挡情况严重,则将检测框的质心坐标输入到卡尔曼滤波器中,根据目标之前的运动状态来估计该目标在下一帧中的位置信息,用估计的坐标信息和实际检测结果相比对,得出最佳的轨迹。

Description

一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法
技术领域
本发明属于智能视频多目标追踪技术领域,具体涉及一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法。
背景技术
如何构建一个安全和谐的社会治安环境,从而有效保护国家与人民的生命与财产安全,是摆在各国政府面前的一个艰难而又亟待解决的重要课题。视频监控系统是安防系统的重要组成部分,其先通过前端视频采集设备(如摄像头)获取实时的视频帧,然后通过人工浏览或智能视频分析等技术对监控场景进行实时监控,是一种防范能力较强的综合系统。多目标检测与跟踪系统,作为视频分析技术的核心部分,是通过计算机视觉、机器学习、图像处理等技术对视频中的多个运动目标进行可靠稳定检测与跟踪的。目前主要使用的目标检测算法可分为两类,一类是基于背景差分法和帧间差分法等传统的目标检测方法,这类方法运算速度快,对单一不变的背景情况下检测效果较好,但同时易受天气、光线强度的影响,特别是对光线较暗或者有阴影的目标的检测效果较差。另一类是基于深度神经网络的目标检测,主要是基于RegionProposal的目标检测方法,如Fast-RCNN、Faster-RCNN等。
与此同时目前的目标跟踪技术主要存在以下不足:(一)大多是面向半自动的单目标跟踪系统,还需要人工的参与,效率较低且无法满足多个目标的跟踪要求;(二)即使目前已有小部分多目标跟踪系统,但这些系统运算复杂度过高,较难满足视频监控的实时性要求且难以保证跟踪结果的准确性。
发明内容
本发明的目的之一在于提出一种卡尔曼滤波与多特征融合的多目标跟踪方法,提高在视频监控中,在视角、姿态、遮挡等多种干扰因素下,如何较为快速准确的检测到目标并对目标进行跟踪的问题。
一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法,所述方法包括以下步骤:
步骤1,将长视频序列中,最大间隔为δb的任意两帧图像进行预处理;
步骤2,将预处理后的图像输入到Faster R-CNN多目标检测器中;
步骤3,首先判断Faster R-CNN多目标检测器输出的检测结果的遮挡情况,如果遮挡不严重,将预处理后的两帧图像和检测器所输出的检测框的质心坐标输入到预训练好的卷积神经网络中;如果遮挡严重,将检测器所输出的检测框的质心坐标输入到卡尔曼滤波器中,根据目标之前的运动状态来估计该目标在下一帧中的位置信息,得到估计的坐标信息即质心坐标预测值;
所述卷积神经网络是以ResNet为基础网络,ResNet层之后,通过使用更深层次的卷积层,将超过56×56的feature map的空间维度进行缩减;后使用扩展网络逐渐将feature map缩减到3×3的尺寸,再将提取的feature map进行级联,得到表观特征矩阵;
步骤4,在目标遮挡不严重或未发生遮挡的情况下,利用深度卷积神经网络提取的表观特征矩阵进行相似度估计,得到表观相似度矩阵;在遮挡严重的情况下,利用获取的运动目标的质心坐标检测值和步骤3获取的质心坐标预测值进行指派,得到运动相似度矩阵;
步骤5,利用匈牙利算法,分别将表观相似度矩阵和运动相似度矩阵作为代价矩阵进行数据关联;
步骤6,根据目标遮挡机制,分别利用数据关联矩阵进行轨迹段匹配;
步骤7,利用当前帧完成匹配的检测框更新卡尔曼滤波器,并将当前帧的表观特征矩阵加入到表观特征矩阵集合中,更新表观特征矩阵集合;将未与轨迹段相匹配的检测框初始化一条新的轨迹,设为暂时轨迹段;若连续10帧都能检测到,则将此轨迹段设置为永久轨迹段;将未与检测框相匹配的轨迹段设为暂时状态,继续进行预测,并与下一帧检测结果进行数据关联,并将此轨迹段保留δw帧,若该目标连续δw帧未被关联,则将该未被关联的预测结果对应的目标的轨迹删除。
进一步地,步骤1中前期数据准备和预处理方法包括:先对图像帧中的每一个像素值进行成比例缩放,转换成HSV格式,并对图片的饱和度进行缩放,转换成RGB格式,再对图片的尺寸进行放大,裁剪;之后将帧的大小统一固定,最后将帧图像对进行水平翻转。
进一步地,步骤2中将预处理后的图像输入到FasterR-CNN多目标检测器中,得到帧图像中的所有目标;并假设每帧图片中最多有 Nm个目标,非真实的目标的特征向量为0向量。
进一步地,步骤3中首先采用遮挡判断机制判断目标遮挡情况,再根据目标遮挡的严重程度分别将检测到的目标输入到不同的网络中;如果目标遮挡不严重或未发生遮挡,则提取物体表观特征,并对提取到的物体的特征进行建模;如果目标发生严重遮挡,初始化卡尔曼滤波器参数,利用卡尔曼滤波器进行多目标跟踪,预测出运动目标在下一帧的质心坐标。
进一步地,步骤4中,利用深度卷积神经网络提取的表观特征矩阵进行相似度估计的具体步骤如下:
步骤4-1,依次计算当前帧图像中的每个目标的表观特征矩阵与前n帧图像中的每个目标之间的表观特征的相似性,利用求到的相似性值建立相似性矩阵;
步骤4-2,分别以当前帧图像中的每个目标和前n帧图像中的每个目标为行和列建立代价矩阵,代价矩阵中每个元素初始值均设置为 0;
步骤4-3,假设每帧最多有Nm个目标,若当前帧t检测到的目标数为m1,且m1<Nm,则增加Nm-m1列,称为虚构列;若与当前帧相关联的t-n帧有m2个目标,且m2<Nm,则增加Nm-m2行,称为虚构行;最后可得n个相似度矩阵,并将求到的相似度矩阵保存在一个数组中。其中0≤n≤δb
步骤4-4,确定相似性阈值,根据代价矩阵中每个元素对应的相似性值对所述代价矩阵中的每个元素进行赋值;大于预定阈值的代价矩阵所在的位置处设置为1,小于设定阈值的位置处设置为0;
步骤4-5,用累加器矩阵将当前帧中的目标与前n帧之间的目标进行关联度求和;如累加器矩阵索引(i,j)处的系数是前n帧的轨迹段集合的Tτ-1中的第i个目标与当前帧的第j个目标的关联度之和;
步骤4-6,设在第t帧深度表观特征提取器提取的表观特征矩阵为 Ft,Ft分别与数组F中的特征矩阵集合F0:t-1求表观相似度矩阵,且t≤δb,得到t个表观相似度矩阵A0:t-1,t
步骤4-7,将第t帧深度表观特征矩阵Ft保存在数组F中。用计算出的表观相似度矩阵将当前帧的检测到的目标与前t帧的轨迹段利用匈牙利算法关联起来,从而更新当前帧的轨迹段集合。
进一步地,步骤5中在目标遮挡不严重或未发生遮挡的情况下,利用匈牙利算法对表观相似度矩阵进行数据关联的具体步骤为:
步骤5-1,当目标未发生遮挡或遮挡不严重时,利用匈牙利算法对表观相似度矩阵进行数据关联的具体步骤为:
步骤5-1-1,设在第0帧图片I0检测到n个目标,则初始化一个包含n条轨迹段的轨迹集合λ0,每条轨迹段是一个最多包含δb个列表,每个列表是一个2元数组,数组中包含目标所在的帧号和唯一的ID 号;
步骤5-1-2,更新当前帧的轨迹段集合的具体步骤如下:初始化一个新的累加器矩阵Λt,更新当前帧的轨迹段集合是将累加器矩阵作为代价矩阵,利用匈牙利算法求最佳匹配。如上面所述当前帧中的目标分别与前δb帧的目标求关联度,可得δb个关联度,累加器矩阵的作用是在对应位置处对关联度求和。如累加器矩阵索引(i,j)处的系数是前n帧的轨迹段集合的Tτ-1中的第i个目标与当前帧的第j个目标的关联度之和;
步骤5-1-3,在使用匈牙利算法时为了表征t-δb与当前帧这个时间间隔内多个物体离开画面的情景,可以将多条轨迹段分配给累加器矩阵的最后一列(累加器最后一列都是非识别的物体),确保了所有未识别的轨迹都能映射到未识别的物体上;
步骤5-2中,当目标发生严重遮挡时,利用匈牙利算法对步骤2 获取的运动目标的质心坐标的检测值和步骤3获取的质心坐标预测值进行指派,得到最优匹配。
进一步地,步骤6去除利用卡尔曼滤波器以及表观相似度矩阵进行多目标跟踪中不满足要求的部分,同时为未指派的检测建立跟踪单元。
本发明所提出的一种基于深度神经网络的多目标检测与跟踪方法,在目标检测上使用最近在准确度上一直领先的深度学习方法,综合利用了多种特征,不仅能够准确的检测、识别出目标,而且在视角变化、遮挡等多种干扰下仍能稳定的跟踪,可以应用于视频监控、异常行为分析等现实场景。
附图说明
图1为本发明基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法流程图。
具体实施方式
下面结合说明书附图对本发明的技术方案做进一步的详细说明。
一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法,所述方法包括以下步骤:
步骤1,将长视频序列中,最大间隔为δb的任意两帧图像进行预处理。
所述的预处理的方法包括以下步骤:
步骤1-1,对图像帧中的每一个像素值进行成比例缩放。
步骤1-2,将处理过的图片转换成HSV格式,并对图片的饱和度进行缩放,缩放因子均为[0.7,1.5]的任意值。
步骤1-3,再将图片转换成RGB格式,最后再以相同的方法进行缩放,并对图片的尺寸进行放大,裁剪。
步骤1-4,上述的数据预处理都是以概率0.3顺序应用在帧图像对上。然后把帧的大小统一固定为H×W×3,最后以0.5的概率进行水平翻转。
步骤2,将预处理后的图像输入到FasterR-CNN多目标检测器中,得到帧图像中的所有目标;并假设每帧图片中最多有Nm个目标,非真实的目标的特征向量为0向量。
步骤3,首先判断FasterR-CNN多目标检测器输出的检测结果的遮挡情况,如果遮挡不严重,将预处理后的两帧图像和检测器所输出的检测框的质心坐标输入到预训练好的卷积神经网络中;如果遮挡严重,将检测器所输出的检测框的质心坐标输入到卡尔曼滤波器中,根据目标之前的运动状态来估计该目标在下一帧中的位置信息,得到估计的坐标信息即质心坐标预测值。
所述卷积神经网络是以ResNet为基础网络,ResNet层之后,通过使用更深层次的卷积层,将超过56×56的featuremap的空间维度进行缩减;后使用扩展网络逐渐将featuremap缩减到3×3的尺寸,再将提取的featuremap进行级联,得到表观特征矩阵。
所述表观特征矩阵建模包括以下步骤:
步骤3-1,特征的抽取是通过以视频中的帧图像对和物体的质心坐标信息作为输入,两条卷积层流分别将第t帧和第(t-n)帧的检测结果和预处理视频做为输入信号流。
步骤3-2,两个卷积层流共享模型参数,而其模型架构来自于 ResNet网络,ResNet网络层之后,通过使用更深层次的卷积层,将超过56×56的featuremap的空间维度进行缩减。
步骤3-3,对于当前帧即第t帧和与第t帧最大间隔为δb的先前帧分别通过1×1卷积内核以及池化的作用来降低维数。凭经验从网络中选择了9个层的featuremap,通过提取目标的浅层和深层的语义信息,并将这些语义信息级联起来而形成520维的综合特征向量。如前面所述第t帧最多允许有Nm个检测对象,因此得到特征矩阵为520×Nm,相应的第(t-n)帧的特征矩阵也为520×Nm,其中0≤n≤δb
步骤3-4,再将两个综合特征相量的列沿着张量的深度方向,以 Nm×Nm种可能进行排列连接,最后形成1040×Nm×Nm的张量。
步骤3-5,通过使用带有1×1卷积核的5层卷积压缩网络将上述张量映射到Nm×Nm的矩阵M中。
步骤3-6,如果目标发生严重遮挡,初始化卡尔曼滤波器参数,利用卡尔曼滤波器进行多目标跟踪,预测出运动目标在下一帧的质心坐标。
步骤4,在目标遮挡不严重或未发生遮挡的情况下,利用深度卷积神经网络提取的表观特征矩阵进行相似度估计,得到表观相似度矩阵;在遮挡严重的情况下,利用获取的运动目标的质心坐标检测值和步骤3获取的质心坐标预测值进行指派,得到运动相似度矩阵。
步骤4中,利用深度卷积神经网络提取的表观特征矩阵进行相似度估计的具体步骤如下:
步骤4-1,依次计算当前帧图像中的每个目标的表观特征矩阵与前n帧图像中的每个目标之间的表观特征的相似性,利用求到的相似性值建立相似性矩阵。
步骤4-2,分别以当前帧图像中的每个目标和前n帧图像中的每个目标为行和列建立代价矩阵,代价矩阵中每个元素初始值均设置为 0。
步骤4-3,如步骤2所述,假设每帧最多有Nm个目标,若当前帧 t检测到的目标数为m1,且m1<Nm,则增加Nm-m1列,称为虚构列。若与当前帧相关联的t-n帧有m2个目标,且m2<Nm,则增加Nm-m2行,称为虚构行。最后可得n个相似度矩阵,其中0≤n≤δb
步骤4-4,确定相似性阈值,根据代价矩阵中每个元素对应的相似性值对所述代价矩阵中的每个元素进行赋值;大于预定阈值的代价矩阵所在的位置处设置为1,小于设定阈值的位置处设置为0。
步骤4-5,初始化一个新的数组F,用来存储每帧图像的特征矩阵。表观特征矩阵是用深度表观特征提取器提取的。每一帧提取的表观特征矩阵保存在数组F中,此数组最多能保存δb个特征矩阵。如果在第t帧时数组F的长度超过了δb,则删除第(t-δb)的帧特征矩阵。
步骤4-6,设在第t帧深度表观特征提取器提取的表观特征矩阵为 Ft,Ft分别与数组F中的特征矩阵集合F0:t-1求表观相似度矩阵,且t≤δb,得到t个表观相似度矩阵A0:t-1,t
步骤4-7,将第t帧深度表观特征矩阵Ft保存在数组F中。用计算出的表观相似度矩阵将当前帧的检测到的目标与前t帧的轨迹段利用匈牙利算法关联起来,从而更新当前帧的轨迹段集合。
步骤5,利用匈牙利算法,分别将表观相似度矩阵和运动相似度矩阵作为代价矩阵进行数据关联。
步骤5中在目标遮挡不严重或未发生遮挡的情况下,利用匈牙利算法对表观相似度矩阵进行数据关联的具体步骤为:
步骤5-1,当目标未发生遮挡或遮挡不严重时,利用匈牙利算法对表观相似度矩阵进行数据关联的具体步骤为:
步骤5-1-1,设在第0帧图片I0检测到n个目标,则初始化一个包含n条轨迹段的轨迹集合λ0,每条轨迹段是一个最多包含δb个列表,每个列表是一个2元数组,数组中包含目标所在的帧号和唯一的ID 号。
步骤5-1-2,更新当前帧的轨迹段集合的具体步骤如下:初始化一个新的累加器矩阵Λt,更新当前帧的轨迹段集合是将累加器矩阵作为代价矩阵,利用匈牙利算法求最佳匹配。如上面所述当前帧中的目标分别与前δb帧的目标求关联度,可得δb个关联度,累加器矩阵的作用是在对应位置处对关联度求和。如累加器矩阵索引(i,j)处的系数是前n帧的轨迹段集合的Tτ-1中的第i个目标与当前帧的第j个目标的关联度之和。
步骤5-1-3,在使用匈牙利算法时为了表征t-δb与当前帧这个时间间隔内多个物体离开画面的情景,可以将多条轨迹段分配给累加器矩阵的最后一列(累加器最后一列都是非识别的物体),确保了所有未识别的轨迹都能映射到未识别的物体上。
步骤5-2中,当目标发生严重遮挡时,利用匈牙利算法对步骤2 获取的运动目标的质心坐标的检测值和步骤3获取的质心坐标预测值进行指派,得到最优匹配。计算最优匹配的具体步骤为:
设o为k时刻检测到的运动目标总数,r为k+1时刻检测到的运动目标总数。检测集合是Yk={y1,y2,y3...,yo},利用卡尔曼滤波器对Yk中的每个运动目标的质心坐标yi进行预测得到下一刻质心坐标pi,即得到质心坐标预测集合Pk={p1,p2,p3...,po},k+1时刻运动目标的质心检测集合是Yk+1={y1,y2,y3...,yr},此时将质心预测坐标和下一时刻检测坐标的欧式距离作为代价矩阵,利用匈牙利算法求得最佳匹配。
步骤6,根据目标遮挡机制,分别利用数据关联矩阵进行轨迹段匹配。
步骤6去除利用卡尔曼滤波器以及表观相似度矩阵进行多目标跟踪中不满足要求的部分,同时为未指派的检测建立跟踪单元。
步骤7,利用当前帧完成匹配的检测框更新卡尔曼滤波器,并将当前帧的表观特征矩阵加入到表观特征矩阵集合中,更新表观特征矩阵集合;将未与轨迹段相匹配的检测框初始化一条新的轨迹,设为暂时轨迹段;若连续10帧都能检测到,则将此轨迹段设置为永久轨迹段;将未与检测框相匹配的轨迹段设为暂时状态,继续进行预测,并与下一帧检测结果进行数据关联,并将此轨迹段保留δw帧,若该目标连续δw帧未被关联,则将该未被关联的预测结果对应的目标的轨迹删除。
以上所述仅为本发明的较佳实施方式,本发明的保护范围并不以上述实施方式为限,但凡本领域普通技术人员根据本发明所揭示内容所作的等效修饰或变化,皆应纳入权利要求书中记载的保护范围内。

Claims (7)

1.一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法,其特征在于:所述方法包括以下步骤:
步骤1,将长视频序列中,最大间隔为δb的任意两帧图像进行预处理;
步骤2,将预处理后的图像输入到Faster R-CNN多目标检测器中;
步骤3,首先判断Faster R-CNN多目标检测器输出的检测结果的遮挡情况,如果遮挡不严重,将预处理后的两帧图像和检测器所输出的检测框的质心坐标输入到预训练好的卷积神经网络中;如果遮挡严重,将检测器所输出的检测框的质心坐标输入到卡尔曼滤波器中,根据目标之前的运动状态来估计该目标在下一帧中的位置信息,得到估计的坐标信息即质心坐标预测值;
所述卷积神经网络是以ResNet为基础网络,ResNet层之后,通过使用更深层次的卷积层,将超过56×56的feature map的空间维度进行缩减;后使用扩展网络逐渐将featuremap缩减到3×3的尺寸,再将提取的feature map进行级联,得到表观特征矩阵;
步骤4,在目标遮挡不严重或未发生遮挡的情况下,利用深度卷积神经网络提取的表观特征矩阵进行相似度估计,得到表观相似度矩阵;在遮挡严重的情况下,利用获取的运动目标的质心坐标检测值和步骤3获取的质心坐标预测值进行指派,得到运动相似度矩阵;
步骤5,利用匈牙利算法,分别将表观相似度矩阵和运动相似度矩阵作为代价矩阵进行数据关联;
步骤6,根据目标遮挡机制,分别利用数据关联矩阵进行轨迹段匹配;
步骤7,利用当前帧完成匹配的检测框更新卡尔曼滤波器,并将当前帧的表观特征矩阵加入到表观特征矩阵集合中,更新表观特征矩阵集合;将未与轨迹段相匹配的检测框初始化一条新的轨迹,设为暂时轨迹段;若连续10帧都能检测到,则将此轨迹段设置为永久轨迹段;将未与检测框相匹配的轨迹段设为暂时状态,继续进行预测,并与下一帧检测结果进行数据关联,并将此轨迹段保留δw帧,若该目标连续δw帧未被关联,则将该未被关联的预测结果对应的目标的轨迹删除。
2.根据权利要求1所述的基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法,其特征在于:步骤1中前期数据准备和预处理方法包括:先对图像帧中的每一个像素值进行成比例缩放,转换成HSV格式,并对图片的饱和度进行缩放,转换成RGB格式,再对图片的尺寸进行放大,裁剪;之后将帧的大小统一固定,最后将帧图像对进行水平翻转。
3.根据权利要求1所述的基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法,其特征在于:步骤2中将预处理后的图像输入到FasterR-CNN多目标检测器中,得到帧图像中的所有目标;并假设每帧图片中最多有Nm个目标,非真实的目标的特征向量为0向量。
4.根据权利要求1所述的基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法,其特征在于:步骤3中首先采用遮挡判断机制判断目标遮挡情况,再根据目标遮挡的严重程度分别将检测到的目标输入到不同的网络中;如果目标遮挡不严重或未发生遮挡,则提取物体表观特征,并对提取到的物体的特征进行建模;如果目标发生严重遮挡,初始化卡尔曼滤波器参数,利用卡尔曼滤波器进行多目标跟踪,预测出运动目标在下一帧的质心坐标。
5.根据权利要求1所述的基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法,其特征在于:步骤4中,利用深度卷积神经网络提取的表观特征矩阵进行相似度估计的具体步骤如下:
步骤4-1,依次计算当前帧图像中的每个目标的表观特征矩阵与前n帧图像中的每个目标之间的表观特征的相似性,利用求到的相似性值建立相似性矩阵;
步骤4-2,分别以当前帧图像中的每个目标和前n帧图像中的每个目标为行和列建立代价矩阵,代价矩阵中每个元素初始值均设置为0;
步骤4-3,假设每帧最多有Nm个目标,若当前帧t检测到的目标数为m1,且m1<Nm,则增加Nm-m1列,称为虚构列;若与当前帧相关联的t-n帧有m2个目标,且m2<Nm,则增加Nm-m2行,称为虚构行;最后可得n个相似度矩阵,并将求到的相似度矩阵保存在一个数组中;其中0≤n≤δb
步骤4-4,确定相似性阈值,根据代价矩阵中每个元素对应的相似性值对所述代价矩阵中的每个元素进行赋值;大于预定阈值的代价矩阵所在的位置处设置为1,小于设定阈值的位置处设置为0;
步骤4-5,用累加器矩阵将当前帧中的目标与前n帧之间的目标进行关联度求和;如累加器矩阵索引(i,j)处的系数是前n帧的轨迹段集合的Tτ-1中的第i个目标与当前帧的第j个目标的关联度之和;
步骤4-6,设在第t帧深度表观特征提取器提取的表观特征矩阵为Ft,Ft分别与数组F中的特征矩阵集合F0:t-1求表观相似度矩阵,且t≤δb,得到t个表观相似度矩阵A0:t-1,t
步骤4-7,将第t帧深度表观特征矩阵Ft保存在数组F中;用计算出的表观相似度矩阵将当前帧的检测到的目标与前t帧的轨迹段利用匈牙利算法关联起来,从而更新当前帧的轨迹段集合。
6.根据权利要求1所述的基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法,其特征在于:步骤5中在目标遮挡不严重或未发生遮挡的情况下,利用匈牙利算法对表观相似度矩阵进行数据关联的具体步骤为:
步骤5-1,当目标未发生遮挡或遮挡不严重时,利用匈牙利算法对表观相似度矩阵进行数据关联的具体步骤为:
步骤5-1-1,设在第0帧图片I0检测到n个目标,则初始化一个包含n条轨迹段的轨迹集合λ0,每条轨迹段是一个最多包含δb个列表,每个列表是一个2元数组,数组中包含目标所在的帧号和唯一的ID号;
步骤5-1-2,更新当前帧的轨迹段集合的具体步骤如下:初始化一个新的累加器矩阵Λt,更新当前帧的轨迹段集合是将累加器矩阵作为代价矩阵,利用匈牙利算法求最佳匹配;如上面所述当前帧中的目标分别与前δb帧的目标求关联度,可得δb个关联度,累加器矩阵的作用是在对应位置处对关联度求和;如累加器矩阵索引(i,j)处的系数是前n帧的轨迹段集合的Tτ-1中的第i个目标与当前帧的第j个目标的关联度之和;
步骤5-1-3,在使用匈牙利算法时为了表征t-δb与当前帧这个时间间隔内多个物体离开画面的情景,可以将多条轨迹段分配给累加器矩阵的最后一列,累加器最后一列都是非识别的物体,确保了所有未识别的轨迹都能映射到未识别的物体上;
步骤5-2中,当目标发生严重遮挡时,利用匈牙利算法对步骤2获取的运动目标的质心坐标的检测值和步骤3获取的质心坐标预测值进行指派,得到最优匹配。
7.根据权利要求1所述的基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法,其特征在于:步骤6去除利用卡尔曼滤波器以及表观相似度矩阵进行多目标跟踪中不满足要求的部分,同时为未指派的检测建立跟踪单元。
CN201910179594.XA 2019-03-11 2019-03-11 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法 Active CN109919981B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910179594.XA CN109919981B (zh) 2019-03-11 2019-03-11 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910179594.XA CN109919981B (zh) 2019-03-11 2019-03-11 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法

Publications (2)

Publication Number Publication Date
CN109919981A CN109919981A (zh) 2019-06-21
CN109919981B true CN109919981B (zh) 2022-08-02

Family

ID=66964067

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910179594.XA Active CN109919981B (zh) 2019-03-11 2019-03-11 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法

Country Status (1)

Country Link
CN (1) CN109919981B (zh)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110490901A (zh) * 2019-07-15 2019-11-22 武汉大学 抗姿态变化的行人检测跟踪方法
CN110555377B (zh) * 2019-07-27 2023-06-23 华南理工大学 一种基于鱼眼相机俯视拍摄的行人检测与跟踪方法
CN110619657B (zh) * 2019-08-15 2023-10-24 青岛文达通科技股份有限公司 一种面向智慧社区的多摄像机联动多目标追踪方法及系统
CN110610512B (zh) * 2019-09-09 2021-07-27 西安交通大学 基于bp神经网络融合卡尔曼滤波算法的无人机目标跟踪方法
CN110782483B (zh) * 2019-10-23 2022-03-15 山东大学 基于分布式相机网络的多视图多目标跟踪方法及系统
CN110853078B (zh) * 2019-10-30 2023-07-04 同济大学 一种基于遮挡对的在线多目标跟踪方法
CN110796687B (zh) * 2019-10-30 2022-04-01 电子科技大学 天空背景红外成像多目标跟踪方法
CN110929597A (zh) * 2019-11-06 2020-03-27 普联技术有限公司 一种基于图像的树叶过滤方法、装置及存储介质
CN110934565B (zh) * 2019-11-11 2021-11-26 中国科学院深圳先进技术研究院 一种瞳孔直径的测量方法、装置及计算机可读存储介质
CN110956649A (zh) * 2019-11-22 2020-04-03 北京影谱科技股份有限公司 多目标三维物体跟踪的方法和装置
CN111080673B (zh) * 2019-12-10 2023-04-18 清华大学深圳国际研究生院 一种抗遮挡目标跟踪方法
CN111062359B (zh) * 2019-12-27 2023-03-31 广东海洋大学深圳研究院 基于噪声顺序解相关的两阶段Kalman滤波融合方法
CN111832400B (zh) * 2020-06-04 2022-12-06 北京航空航天大学 一种基于概率神经网络的口罩佩戴情况的监测系统及方法
CN112116634B (zh) * 2020-07-30 2024-05-07 西安交通大学 一种半在线机置的多目标跟踪方法
CN112288775B (zh) * 2020-10-23 2022-04-15 武汉大学 一种基于长短期预测模型的多目标遮挡跟踪方法
CN112308883A (zh) * 2020-11-26 2021-02-02 哈尔滨工程大学 一种基于可见光和红外图像的多船舶融合跟踪方法
CN112560641A (zh) * 2020-12-11 2021-03-26 北京交通大学 基于视频的双向客流通道中的单向客流信息检测方法
CN112581504A (zh) * 2020-12-25 2021-03-30 南京通盛弘数据有限公司 基于神经网络的圈养家畜多目标追踪方法及装置
CN112784725B (zh) * 2021-01-15 2024-06-07 北京航天自动控制研究所 行人防撞预警方法、设备、存储介质及堆高机
CN112785630A (zh) * 2021-02-02 2021-05-11 宁波智能装备研究院有限公司 一种显微操作中多目标轨迹异常处理方法及系统
CN112949538B (zh) * 2021-03-16 2023-08-04 杭州海康威视数字技术股份有限公司 一种目标关联方法、装置、电子设备及机器可读存储介质
CN113052877A (zh) * 2021-03-22 2021-06-29 中国石油大学(华东) 一种基于多摄像头融合的多目标追踪方法
CN113487653B (zh) * 2021-06-24 2024-03-26 之江实验室 一种基于轨迹预测的自适应图跟踪方法
CN113762231B (zh) * 2021-11-10 2022-03-22 中电科新型智慧城市研究院有限公司 端对端的多行人姿态跟踪方法、装置及电子设备
CN113791140B (zh) * 2021-11-18 2022-02-25 湖南大学 基于局部振动响应的桥梁梁底内部无损检测方法和系统
CN114612506B (zh) * 2022-02-19 2024-03-15 西北工业大学 一种简易高效抗干扰的高空抛物轨迹识别与定位方法
CN114897937A (zh) * 2022-05-23 2022-08-12 广州大学 一种基于视觉的场外施工深度学习实例分割跟踪方法
CN115841650B (zh) * 2022-12-05 2023-08-01 北京数原数字化城市研究中心 视觉定位方法、视觉定位装置、电子设备及可读存储介质
CN115994929A (zh) * 2023-03-24 2023-04-21 中国兵器科学研究院 一种融合空间运动和表观特征学习的多目标跟踪方法
CN117495919B (zh) * 2023-11-22 2024-11-29 中国科学院上海微系统与信息技术研究所 一种基于遮挡物体检测及运动连续性的光流估计方法
CN118762283A (zh) * 2024-07-08 2024-10-11 中国热带农业科学院热带作物品种资源研究所 一种芒果树枝干韧皮部受损评估方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107292911A (zh) * 2017-05-23 2017-10-24 南京邮电大学 一种基于多模型融合和数据关联的多目标跟踪方法
US20190050994A1 (en) * 2017-08-10 2019-02-14 Fujitsu Limited Control method, non-transitory computer-readable storage medium, and control apparatus
CN109377517A (zh) * 2018-10-18 2019-02-22 哈尔滨工程大学 一种基于视频追踪技术的动物个体识别系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107292911A (zh) * 2017-05-23 2017-10-24 南京邮电大学 一种基于多模型融合和数据关联的多目标跟踪方法
US20190050994A1 (en) * 2017-08-10 2019-02-14 Fujitsu Limited Control method, non-transitory computer-readable storage medium, and control apparatus
CN109377517A (zh) * 2018-10-18 2019-02-22 哈尔滨工程大学 一种基于视频追踪技术的动物个体识别系统

Also Published As

Publication number Publication date
CN109919981A (zh) 2019-06-21

Similar Documents

Publication Publication Date Title
CN109919981B (zh) 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法
CN113065558B (zh) 一种结合注意力机制的轻量级小目标检测方法
CN103077539B (zh) 一种复杂背景及遮挡条件下的运动目标跟踪方法
CN114972418B (zh) 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法
CN108960211B (zh) 一种多目标人体姿态检测方法以及系统
CN106886216B (zh) 基于rgbd人脸检测的机器人自动跟踪方法和系统
CN109472191B (zh) 一种基于时空上下文的行人重识别与追踪方法
CN112597941A (zh) 一种人脸识别方法、装置及电子设备
CN110766676B (zh) 基于多源传感器融合的目标检测方法
Patil et al. MsEDNet: Multi-scale deep saliency learning for moving object detection
CN111881749A (zh) 基于rgb-d多模态数据的双向人流量统计方法
Wang et al. Removing background interference for crowd counting via de-background detail convolutional network
Patil et al. Motion saliency based generative adversarial network for underwater moving object segmentation
CN113763427B (zh) 一种基于从粗到精遮挡处理的多目标跟踪方法
Han et al. A method based on multi-convolution layers joint and generative adversarial networks for vehicle detection
CN113822352A (zh) 基于多特征融合的红外弱小目标检测方法
CN106780567A (zh) 一种融合颜色和梯度直方图的免疫粒子滤波扩展目标跟踪方法
CN116630850A (zh) 基于多注意力任务融合与边界框编码的孪生目标跟踪方法
Cheng et al. Matching of objects moving across disjoint cameras
CN116523959A (zh) 一种基于人工智能的运动目标检测方法及系统
Giveki et al. Atanassov's intuitionistic fuzzy histon for robust moving object detection
US20220207261A1 (en) Method and apparatus for detecting associated objects
CN106778822B (zh) 基于漏斗变换的图像直线检测方法
CN108038872B (zh) 一种基于动静态目标检测与实时压缩感知追踪研究方法
CN110502968A (zh) 基于轨迹点时空一致性的红外弱小运动目标的检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant