CN106815562A - 一种基于压缩特征的行人检测跟踪方法 - Google Patents
一种基于压缩特征的行人检测跟踪方法 Download PDFInfo
- Publication number
- CN106815562A CN106815562A CN201611203542.4A CN201611203542A CN106815562A CN 106815562 A CN106815562 A CN 106815562A CN 201611203542 A CN201611203542 A CN 201611203542A CN 106815562 A CN106815562 A CN 106815562A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- positive
- target
- sample
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 45
- 239000011159 matrix material Substances 0.000 claims abstract description 21
- 238000012549 training Methods 0.000 claims abstract description 21
- 230000007246 mechanism Effects 0.000 claims abstract description 10
- 230000009467 reduction Effects 0.000 claims abstract description 6
- 238000000034 method Methods 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 27
- 239000013598 vector Substances 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 16
- 238000007906 compression Methods 0.000 claims description 16
- 230000006835 compression Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 5
- 230000035945 sensitivity Effects 0.000 claims description 5
- 238000009825 accumulation Methods 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 4
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 230000002159 abnormal effect Effects 0.000 abstract description 3
- 230000006872 improvement Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000007547 defect Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000009977 dual effect Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 125000004432 carbon atom Chemical group C* 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了基于压缩特征的行人检测跟踪方法,其通过引入误分类代价敏感机制的Gentle Adaboost算法对训练样本集中的正/负样本进行训练,并采用m×n维随机间距稀疏Toeplitz矩阵ΦToep作为投影矩阵对所述跟踪目标的正/负样本进行压缩跟踪并降维处理,并将压缩降维后的正/负样本特征与正/负样本的位置权重共同输入贝叶斯分类器中进行训练,以生成用于区分行人目标和背景的判别函数,在下一帧输入图像中,选择使判别函数取最大值的样本作为新的跟踪目标,以实现对行人目标的检测跟踪。通过本发明,提高了在存在复杂干扰因素的在公共区域中对行人检测的准确性,增强了算法的鲁棒性,尤其适合用行人头部具有遮挡或者其他异常干扰情况对行人进行检测与跟踪。
Description
技术领域
本发明属于计算机图像处理领域,特别涉及一种基于压缩特征的行人检测跟踪方法。
背景技术
目标位置的准确跟踪是计算机视觉领域的核心问题。在人机交互、视频监控、增强现实中有广泛的应用。在更高级的任务如场景理解、动作识别中,目标跟踪也扮演着重要的角色。
在现有技术中,对公共区域的行人检测通常需要正样本集中的正样本及负样本集中的负样本进行训练以得到行人分类器,并通过该行人分类器对实时采集到的图像中行人区域判断是否为行人区域并进行人数计数,从而实现对行人的检测。
目前大多数跟踪算法都可以看成每一帧的目标检测问题,即基于tracking-by-detection框架下的问题,该框架下的跟踪算法对外观模型的准确描述很敏感,一旦出现跟踪漂移,错误的跟踪位置必定导致不准确的外观模型,基于不准确的外观模型很难再找回跟踪目标。在外观模型不准确导致目标跟踪错误时,若能及时矫正跟踪位置,则跟踪的准确度会大大提升,跟踪漂移对跟踪算法的影响也会相应下降。
基于外观检测和基于预测的跟踪算法都能在一定程度上从不同角度来预测目标位置,基于这一思路可以考虑提出一种结合检测和预测的新颖目标跟踪方法。
传统的Gentle Adaboost算法通过调整每轮训练中被错分的样本权值来实现最优行人分类器的选择,对于错分的正/负样本,其调整比例是相同的,因此,现有技术中无法解决正/负样本数量间的非均衡问题。有鉴于此,有必 要对现有技术中对公共区域的行人检测跟踪方法予以改进,以解决上述技术瑕疵。同时,现有技术中的行人检测方法在行人刻意将头部或者肩部设置呈非正常形状时,则在提取行人模型并进行检测跟踪时会发生漏检,因此也存在一定的缺陷。这种缺陷在对统计行人人数或者安检检查有较高的场合中就存在较大的安全隐患。
发明内容
本发明的目的在于公开一种基于压缩特征的行人检测跟踪方法,
为实现上述目的,本发明提供了一种基于压缩特征的行人检测跟踪方法,包括以下步骤:
S1、计算训练样本集中的正/负样本的HOG特征向量,通过引入误分类代价敏感机制的Gentle Adaboost算法对训练样本集中的正/负样本进行训练,得到行人分类器;
S2、获取监控区域的视频流图像作为输入图像,并利用行人分类器对输入图像作行人检测,以获得行人区域;
S3、以检测到的行人区域作为当前帧输入图像的跟踪目标,在目标领域内采样跟踪目标的正/负样本,并提取跟踪目标的正/负样本的多尺度高维Haar-like特征向量,并采用m×n维随机间距稀疏Toeplitz矩阵ΦToep作为投影矩阵对所述跟踪目标的正/负样本进行压缩跟踪并降维处理;
S4、将压缩降维后的正/负样本特征与正/负样本的位置权重共同输入贝叶斯分类器中进行训练,以生成用于区分行人目标和背景的判别函数,并采用双S形曲线自适应学习更新贝叶斯分类器的参数;
S5、在下一帧输入图像中,选择使判别函数取最大值的样本作为新的跟踪目标,以实现对行人目标的检测跟踪。
作为本发明的进一步改进,所述步骤S1中,训练样本集中的正/负样本为32×64~64×128像素的256阶灰度图像。
作为本发明的进一步改进,所述步骤S1中正样本集中的正样本的个数为4000,负样本集中负样本的个数为6000。
作为本发明的进一步改进,所述步骤S1中的误分类代价敏感机制具体为:
计算非均衡代价损失函数值;
计算初始化行人分类器的分类错误率,并计算正/负样本在初始化行人分类器中被错误分类的上限值;
选取当前最优弱分类器f(x)对初始化行人分类器修正,从而得到行人分类器。
作为本发明的进一步改进,所述步骤S1中,计算非均衡代价损失函数值的计算公式为:
其中,C1为正样本被错分代价损失函数值,C2为负样本被错分代价损失函数值,yi=1表示样本xi实际为正样本,yi=-1表示样本xi实际为负样本,H(xi)=sign(∑fj(x))为强分类器的分类结果,H(xi)=-1表示初始化行人分类器将样本判xi别为负样本,H(xi)=1表示初始化行人分类器将样本判xi别为正样本,C1,C2∈[0,1],且C1>C2;
所述步骤S1中,计算初始化行人分类器的分类错误率的计算公式为:
其中,NFN为正样本被错误分类的数量,NFP为负样本被错误分类的数量;
所述步骤S1中,计算正/负样本在初始化行人分类器中被错误分类的上限值的计算公式为:
其中,F(x)为累加模型,其表达式为:
所述步骤S1中,当前最优弱分类器f(x)的计算公式为:
其中,Pw(y=1|x)和Pw(y=-1|x)分别表示正/负样本的权重累计分布。
作为本发明的进一步改进,所述步骤S2中的“利用行人分类器对输入图像进行行人检测”具体为:利用窗口对输入图像进行扫描,计算落在窗口内待检测图像的HOG特征向量,并将所述待检测图像HOG特征向量的检测结果输入至行人分类器中,检测出最可能的行人区域;所述窗口的规格为32×64~64×128像素。
作为本发明的进一步改进,所述步骤S3中的m×n维随机间距稀疏Toeplitz矩阵ΦToep表示为:
φi+1,j+1=φi,j,并对m×n维随机间距稀疏Toeplitz矩阵ΦToep的第1行和第1列元素所构成的向量V={φ1,φ2,…φN φN+1,…φN+M-1}作随机间距稀疏变化,使元素φi的值服从独立同分布的随机高斯分布,其他元素全部赋值为0,
其中i∈κ,所述κ是从1~N+M-1的索引序列中随机选取的个索引,所述Δ为元素的间距。
作为本发明的进一步改进,所述步骤S3中“对所述跟踪目标的正/负样本进行压缩跟踪并降维处理”具体为:
首先,以检测到的行人区域作为当前帧输入图像的跟踪目标,在跟踪目标的邻域内采样跟踪目标的正/负样本;
然后,提取跟踪目标的正/负样本的多尺度高维Haar-like特征向量Bk∈Rn×1;
然后,采用所述m×n维随机间距稀疏Toeplitz矩阵ΦToep的每一行与第k个正/负样本的原始特征Bk相乘,得到第k个正/负样本压缩后的第i个特征fi;
最后,将m个特征组合成m维向量得到第k个正/负样本的低维特征Fk,且Fk∈Rm×1。
作为本发明的进一步改进,所述步骤S4还包括:采用Mean shift算法预测行人区域中的行人目标在下一帧输入图像中的位置,并测量行人目标的正/负样本在当前帧输入图像的位置与预测行人目标在下一帧输入图像之间的位置距离,以计算行人目标在下一帧输入图像中的行人目标的预测位置与行人目标的正/负样本位置之间的位置权重。
与现有技术相比,本发明的有益效果是:通过本发明,提高了在存在复杂干扰因素的在公共区域中对行人检测的准确性,增强了算法的鲁棒性,尤其适合用行人头部具有遮挡或者其他异常干扰情况对行人进行检测与跟踪,并解决了传统的Gentle Adaboost算法无法解决正/负样本数量间的非均衡问题,使最终获得的行人分类器具有更好的分类性能。
附图说明
图1为本发明一种基于压缩特征的行人检测跟踪方法的流程示意图;
图2为图1所示的获取监控区域的视频流图像的工作原理示意图;
图3为本发明所示双S形函数更新叶贝斯分类器的学习速率图。
具体实施方式
下面结合附图所示的各实施方式对本发明进行详细说明,但应当说明的是,这些实施方式并非对本发明的限制,本领域普通技术人员根据这些 实施方式所作的功能、方法、或者结构上的等效变换或替代,均属于本发明的保护范围之内。
在本说明书中,行人检测跟踪与行人检测或者行人区域的获取在视频检测中具有等同技术含义。请参图1至图3所示出的本发明基于压缩特征的行人检测跟踪方法的一种具体实施方式。
在本实施方式中,该基于压缩特征的行人检测跟踪方法,具体包括以下步骤。
步骤S1、计算训练样本集中的正/负样本HOG特征向量,通过引入误分类代价敏感机制的Gentle Adaboost算法训练样本集中的正/负样本,得到行人分类器。
HOG(Histogram of Oriented Gradient)特征向量通过统计图像局部区域的梯度方向信息来表征该图像局部区域外形。由于HOG特征向量能够保持几何和光学转化不变性,尤其适合负载环境中对行人的检测,所以本发明采用HOG特征向量表征每个训练样本集。
在本实施方式中,训练样本集由包含若干正样本的正样本集与包含若干负样本的负样本集所组成。由于行人在行走时头部与肩部的变化较小,基于易于检测方面可靠性与准确性的考虑,可将训练样本集定义为:只包含行头部和/或肩部的正样本集,以及不包含行人头部和/或肩部的负样本。
具体的,该正/负样本集中正/负样本为32×64~64×128像素的256阶灰度图像。基于计算机对图像进行处理速度和效率的综合考虑,在本实施方式中,可将正/负样本集中的正/负样本优选为32×64像素的256阶灰度图像。具体的,在初始化行人分类器中的正样本集中的正样本的个数为4000,负样本集中的负样本的个数为6000。
传统的Gentle Adaboost算法通过调整每轮训练中被错分的正/负样本权值来实现最优分类器的选择。对于错分的正/负样本,其调整比例是相同的,因此,无法解决正/负样本数量间的非均衡问题。
在本实施方式中,通过引入正/负样本的误分类代价敏感机制,解决了传统GentleAdaboost算法无法解决正/负样本数量间的非均衡问题。该步骤S1中“通过引入误分类代价敏感机制的Gentle Adaboost算法训练样本集中的正/负样本,得到初始化行人分类器。”具体实现过程如下所示。
首先,计算非均衡的代价损失函数值,该非均衡代价损失函数值的计算公式为:
其中,C1为正样本被错分代价损失函数值,C2为负样本被错分代价损失函数值,yi=1表示样本xi实际为正样本,yi=-1表示样本xi实际为负样本,H(xi)=sign(∑fj(x))为强分类器的分类结果,H(xi)=-1表示初始化行人分类器将样本判xi别为负样本,H(xi)=1表示初始化行人分类器将样本判xi别为正样本,C1,C2∈[0,1],且C1>C2。
然后,计算初始化行人分类器的分类错误率,并计算正/负样本在初始化行人分类器中被错误分类的上限值。
具体的,该初始化行人分类器的分类错误率的计算公式为:
其中,NFN为正样本被错误分类的数量,NFP为负样本被错误分类的数量。
在本实施方式中,采用指数形式表示正/负样本在初始化行人分类器错误分类的上限值,其计算公式为:
其中,F(x)为累加模型,其表达式为
即,每一轮最优的弱分类器累加之和。则引入误分类代价敏感机制的GentleAdaboost算法模型中一轮损失函数最小值的计算公式为:
其中,I(·)为指标函数。
新一轮的损失函数计算时,累加模型F(x)的值需要在上一轮的基础上累加一个当前最优弱分类器f(x),计算公式如下:
其中,Ew[·]为加权期望,加权期望的计算公式为:Ew[g(x,y)]=E[w(x,y)g(x,y)]/E[w(x,y)]。
最后,选取当前最优弱分类器f(x)对初始化行人分类器进行修正,从而得到行人分类器。
具体的,在本实施方式中,当前最优弱分类器f(x)具体计算公式如下:
其中,Pw(y=1|x)和Pw(y=-1|x)分别表示正/负样本的权重累计分布,每轮迭代的权重变换公式为:
至此,本实施例中所述引入误分类代价敏感机制的Gentle Adaboost算法修正完毕,并最终获得用于后续对输入图像进行行人检测的行人分类器。
步骤S2、获取监控区域的视频流图像作为输入图像,并利用行人分类器对输入图像作行人检测,以获得行人区域。
具体的,参图2所示,本发明一种基于压缩特征的行人检测跟踪方法是基于摄像机垂直拍摄并适用于室外情况和室内情况。在本实施方式中,该步骤S2具体为:通过摄像机10获取监控区域30的视频流图像作为输入图像,所述监控区域30位于摄像机10的正下方。
具体的,摄像机10设置在出入口20附近的正上方,行人可沿着箭头201的方向上在出入口20中来回走动。摄像机10所获取的监控区域30可完全覆盖出入口20的全部区域。
在本实施方式中,该监控区域30为矩形,当然也可以为正方形或圆形或者其他形状。摄像机10位于监控区域30的中心点301的正上方,由此我们可以推导出,该监控区域30位于摄像机10的正下方。
使用规格为32×64~64×128的窗口(单位:像素)对获取的输入图像进行扫描,计算落在窗口内待检测图像的HOG特征向量,并将所述待检测图像HOG特征向量的检测结果输入至行人分类器中,以检测出最可能的行人区域。该用于对输入图像进行扫描的窗口可为矩形,也可为椭圆形或者正方形。由于摄像机设置在监控区域30的上方或者斜上方,因此该行人区域通常呈矩形或者椭圆形。
步骤S3、以检测到的行人区域作为当前帧输入图像的跟踪目标,在目标领域内采样跟踪目标的正/负样本,并提取跟踪目标的正/负样本的多尺度高维Haar-like特征向量,并采用m×n维的随机间距稀疏Toeplitz矩阵ΦToep作为投影矩阵对对所述跟踪目标的正/负样本进行压缩跟踪并降维处理。
压缩跟踪(Compressive Tracking,CT)算法是基于压缩感知理论提出的快速鲁棒跟踪算法。该算法利用一个满足有限等距(RIP,restricted isometry property)性质的随机投影矩阵E采用矩阵乘积运算F=EX,E∈Rm×n(m<<n),将原始高维信号X∈Rn×1压缩成低维信号F∈Rm×1。
其中,参数m,n分别代表随机投影矩阵E的行数及列数。
对于压缩特征的提取,随机投影矩阵E的选择非常重要,不同的随机投影矩阵E导致不同的Haar-like特征向量,所产生的外观模型也不一样。在本实施方式中,采用m×n维随机间距稀疏Toeplitz矩阵ΦToep用于信号重建,该矩阵在信号重建中获得较好的重建效果,且在物理上容易实现、存储成本 低。本发明将其用于跟踪目标特征的压缩表示,以期获得更好的跟踪效果和效率。该随机间距稀疏Toeplitz矩阵ΦToep的数学表达式为:
矩阵中φi+1,j+1=φi,j,对其第1行和第1列元素所构成的向量V={φ1,φ2,…φNφN+1,…φN+M-1}做随机间距稀疏变化,使元素φi(i∈κ,κ是从1~N+M-1的索引序列中随机选取的个索引,Δ为间距的大小)的值服从独立同分布的随机高斯分布,其他元素全部赋值为0。
Haar-like特征向量的计算简单,且对结构相对固定的目标有很好的识别效果。结合积分图的Haar-like特征向量的计算更是高效,这对于实时目标跟踪来说非常重要。
本发明以检测到的行人矩形区域作为当前帧的跟踪目标,在目标邻域内采样跟踪目标的正/负样本,提取正/负样本的多尺度高维Haar-like特征向量Bk∈Rn×1,再采用m×n维的随机间距稀疏Toeplitz矩阵ΦToep的每一行与第k个正/负样本的原始特征Bk相乘,得到第k个正/负样本压缩后的第i个特征fi,最后将m个特征组合成m维向量得到第k个正/负样本的低维特征Fk,Fk∈Rm×1。
步骤S4、将压缩降维后的正/负样本特征与正/负样本的位置权重共同输入贝叶斯分类器中进行训练,以生成用于区分行人目标和背景的判别函数,并采用双S形曲线自适应学习更新贝叶斯分类器的参数。
当背景特征与目标特征类似时,这不利于分类函数的分类实现。根据越靠近目标真实位置,检测算法检测为目标的概率越大这一思想,在分类函数中加入目标真实位置与样本距离权重的影响,可以增大目标与样本之间的区分度,从而提高分类的可信度。目标真实位置事先是不知道的,如果能够很好的预测目标真实位置,就可用预测的位置替代真实位置。
本发明提出一个简单而直观的想法,采用Mean shift算法预测目标位置,逐一测量样本位置与预测目标位置距离,计算预测位置与样本位置距离权重(样本位置权重),然后将样本位置权重输入贝叶斯分类器进行分类。
假设lp为Mean Shift算法预测的目标位置,定义 为正/负样本k到目标的距离,其中,和分别表示第k个正/负样本位置的x坐标和y坐标。
为了减小距离噪声对权重的较大影响,将1/dk进行tanh归一化,于是归一化后正/负样本k的位置权重ωk的计算公式为:
上式中,选取1/dk的原因是:正/负样本离预测位置越远,正/负样本被检测为目标的概率越小,正/负样本位置权重ωk也应越小,反之亦然。μGH和σGH分别是1/dk的均值和标准差。
结合目标预测位置的判别函数的计算公式如下:
上式中,其中和分别表示正样本的第i个特征的均值和标准差,和分别表示负样本的第i个特征的均值和标准差。
y∈{0,1}是二元变量,其值分别代表负样本标签和正样本标签。
假设先验概率相等,即p(y=1)=p(y=0)。当前区域越靠近目标,ωk的值越大。又因为越靠近目标,检测算法检测为目标的概率越大,因此p(fi|y=1)的值也相应变大,而(1-ωk)和p(fi|y=0)则变小,因此判别函数M(f)能将背景和目标的差异进一步扩大。通过tanh归一化的权重ωk=0.5时,权重对p(fi|y=1)和p(fi|y=0)影响一致,权重ωk大于0.5则对p(fi|y=1)有利,反之对p(fi|y=0)有利,且权重ωk越大影响越明显,因此能很好的区分目标和背景。
发明提出的判别函数M(f)能够结合样本位置权重,较好的放大背景和目标的差异,增强分类可信度。本发明选取M(f)值最大的正样本位置作为新一帧的目标位置,并对相关参数进行更新以适应目标和背景的更新。本发明提出的参数更新模型如下所式所示:
其中:
上式中,变量x反映了当前目标均值μ(或方差σ2)与已有目标均值μi(或方差σi 2)的偏差程度,其值越大表明当前目标与已有目标偏离程度越大,也即结果越不可信(因为在视频序列中两帧之间变化不可能太大),因此对已有目标的μi(或)学习速率应越大。因此,只需适当的设置参数t、r1和r2即可获得不错的自适应学习效果。
优选的,在本实施例中,设置参数t=0.3、r1=0.3和r2=0.2。
本发明的参数更新模型能根据当前目标的参数与已有目标参数之间的差异,自动调节学习速率的大小,从而更具有自适应性,增强了算法的鲁棒性。
请参图3所示出的双S形函数学习速率图。
由图3可见,在当前目标的均值或方差与已有目标的均值或方差相差程度(已经过归一化处理),值x=0.3时,α=0.5,这表明学习已有目标和学习 当前目标的速率相等。当x的值小于0.3时,此时当前目标的均值或方差与已有目标的均值或方差相差程度(归一化)小于0.3,学习已有目标的速率应小于0.5(见x=0.3左边部分);相反,当x的值大于0.3时,学习速率应大于0.5;且由于r2<r1后半部分的曲线比前半部分更陡峭,也即在x>0.3时学习速率α的变化更迅速,这有利于防止噪声或分类错误对参数的影响。
步骤S5、在下一帧输入图像中,选择使判别函数取最大值的样本作为新的跟踪目标,以实现对行人目标的检测跟踪。
本步骤S5是对步骤S4的循环执行过程,具体实现过程参上文关于步骤S4的具体阐述,在此不再赘述。
上文所列出的一系列的详细说明仅仅是针对本发明的可行性实施方式的具体说明,它们并非用以限制本发明的保护范围,凡未脱离本发明技艺精神所作的等效实施方式或变更均应包含在本发明的保护范围之内。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
Claims (9)
1.一种基于压缩特征的行人检测跟踪方法,其特征在于,包括以下步骤:
S1、计算训练样本集中的正/负样本的HOG特征向量,通过引入误分类代价敏感机制的Gentle Adaboost算法对训练样本集中的正/负样本进行训练,得到行人分类器;
S2、获取监控区域的视频流图像作为输入图像,并利用行人分类器对输入图像作行人检测,以获得行人区域;
S3、以检测到的行人区域作为当前帧输入图像的跟踪目标,在目标领域内采样跟踪目标的正/负样本,并提取跟踪目标的正/负样本的多尺度高维Haar-like特征向量,并采用m×n维随机间距稀疏Toeplitz矩阵ΦToep作为投影矩阵对所述跟踪目标的正/负样本进行压缩跟踪并降维处理;
S4、将压缩降维后的正/负样本特征与正/负样本的位置权重共同输入贝叶斯分类器中进行训练,以生成用于区分行人目标和背景的判别函数,并采用双S形曲线自适应学习更新贝叶斯分类器的参数;
S5、在下一帧输入图像中,选择使判别函数取最大值的样本作为新的跟踪目标,以实现对行人目标的检测跟踪。
2.根据权利要求1所述的行人检测跟踪方法,其特征在于,所述步骤S1中,训练样本集中的正/负样本为32×64~64×128像素的256阶灰度图像。
3.根据权利要求2所述的行人检测跟踪方法,其特征在于,所述步骤S1中正样本集中的正样本的个数为4000,负样本集中负样本的个数为6000。
4.根据权利要求1所述的行人检测跟踪方法,其特征在于,所述步骤S1中的误分类代价敏感机制具体为:
计算非均衡代价损失函数值;
计算初始化行人分类器的分类错误率,并计算正/负样本在初始化行人分类器中被错误分类的上限值;
选取当前最优弱分类器f(x)对初始化行人分类器进行修正,从而得到行人分类器。
5.根据权利要求4所述的行人检测跟踪方法,其特征在于,所述步骤S1中,计算非均衡代价损失函数值的计算公式为:
其中,C1为正样本被错分代价损失函数值,C2为负样本被错分代价损失函数值,yi=1表示样本xi实际为正样本,yi=-1表示样本xi实际为负样本,H(xi)=sign(Σfj(x))为强分类器的分类结果,H(xi)=-1表示初始化行人分类器将样本判xi别为负样本,H(xi)=1表示初始化行人分类器将样本判xi别为正样本,C1,C2∈[0,1],且C1>C2;
所述步骤S1中,计算初始化行人分类器的分类错误率的计算公式为:
其中,NFN为正样本被错误分类的数量,NFP为负样本被错误分类的数量;
所述步骤S1中,计算正/负样本在初始化行人分类器中被错误分类的上限值的计算公式为:
其中,F(x)为累加模型,其表达式为:
所述步骤S1中,当前最优弱分类器f(x)的计算公式为:
其中,Pw(y=1|x)和Pw(y=-1|x)分别表示正/负样本的权重累计分布。
6.根据权利要求1所述的行人检测跟踪方法,其特征在于,所述步骤S2中的“利用行人分类器对输入图像进行行人检测”具体为:利用窗口对输入图像进行扫描,计算落在窗口内待检测图像的HOG特征向量,并将所述待检测图像HOG特征向量的检测结果输入至行人分类器中,检测出最可能的行人区域;所述窗口的规格为32×64~64×128像素。
7.根据权利要求1所述的行人检测跟踪方法,其特征在于,所述步骤S3中的m×n维随机间距稀疏Toeplitz矩阵ΦToep表示为:
φi+1,j+1=φi,j,并对m×n维随机间距稀疏Toeplitz矩阵ΦToep的第1行和第1列元素所构成的向量V={φ1,φ2,…φN φN+1,…φN+M-1}作随机间距稀疏变化,使元素φi的值服从独立同分布的随机高斯分布,其他元素全部赋值为0,
其中i∈κ,所述κ是从1~N+M-1的索引序列中随机选取的个索引,所述Δ为元素的间距。
8.根据权利要求7所述的行人检测跟踪方法,其特征在于,所述步骤S3中“对所述跟踪目标的正/负样本进行压缩跟踪并降维处理”具体为:
首先,以检测到的行人区域作为当前帧输入图像的跟踪目标,在跟踪目标的邻域内采样跟踪目标的正/负样本;
然后,提取跟踪目标的正/负样本的多尺度高维Haar-like特征向量Bk∈Rn×1;
然后,采用所述m×n维随机间距稀疏Toeplitz矩阵ΦToep的每一行与第k个正/负样本的原始特征Bk相乘,得到第k个正/负样本压缩后的第i个特征fi;
最后,将m个特征组合成m维向量得到第k个正/负样本的低维特征Fk,且Fk∈Rm×1。
9.根据权利要求1所述的行人检测跟踪方法,其特征在于,所述步骤S4还包括:采用Mean shift算法预测行人区域中的行人目标在下一帧输入图像中的位置,并测量行人目标的正/负样本在当前帧输入图像的位置与预测行人目标在下一帧输入图像之间的位置距离,以计算行人目标在下一帧输入图像中的行人目标的预测位置与行人目标的正/负样本位置之间的位置权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611203542.4A CN106815562A (zh) | 2016-12-19 | 2016-12-19 | 一种基于压缩特征的行人检测跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611203542.4A CN106815562A (zh) | 2016-12-19 | 2016-12-19 | 一种基于压缩特征的行人检测跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106815562A true CN106815562A (zh) | 2017-06-09 |
Family
ID=59109652
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611203542.4A Pending CN106815562A (zh) | 2016-12-19 | 2016-12-19 | 一种基于压缩特征的行人检测跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106815562A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109102519A (zh) * | 2018-08-24 | 2018-12-28 | 周忠和 | 动目标及特征模板变化条件下的快速人物跟踪方法 |
CN109859242A (zh) * | 2019-01-16 | 2019-06-07 | 重庆邮电大学 | 一种预测自适应学习的目标跟踪方法 |
CN110287957A (zh) * | 2019-06-24 | 2019-09-27 | 北京中电慧视科技有限公司 | 一种低慢小目标的定位方法及定位装置 |
CN112434884A (zh) * | 2020-12-12 | 2021-03-02 | 广东电力信息科技有限公司 | 一种供应商分类画像的建立方法及装置 |
CN118657784A (zh) * | 2024-08-21 | 2024-09-17 | 辽宁高比科技有限公司 | 一种基于无人机采集光伏组件图像的脱焊检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103632382A (zh) * | 2013-12-19 | 2014-03-12 | 中国矿业大学(北京) | 一种基于压缩感知的实时多尺度目标跟踪方法 |
CN105426928A (zh) * | 2014-09-19 | 2016-03-23 | 无锡慧眼电子科技有限公司 | 一种基于Haar特征和EOH特征的行人检测方法 |
-
2016
- 2016-12-19 CN CN201611203542.4A patent/CN106815562A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103632382A (zh) * | 2013-12-19 | 2014-03-12 | 中国矿业大学(北京) | 一种基于压缩感知的实时多尺度目标跟踪方法 |
CN105426928A (zh) * | 2014-09-19 | 2016-03-23 | 无锡慧眼电子科技有限公司 | 一种基于Haar特征和EOH特征的行人检测方法 |
Non-Patent Citations (1)
Title |
---|
钟宝康: "基于压缩感知的预测目标跟踪算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109102519A (zh) * | 2018-08-24 | 2018-12-28 | 周忠和 | 动目标及特征模板变化条件下的快速人物跟踪方法 |
CN109102519B (zh) * | 2018-08-24 | 2021-12-14 | 周忠和 | 动目标及特征模板变化条件下的快速人物跟踪方法 |
CN109859242A (zh) * | 2019-01-16 | 2019-06-07 | 重庆邮电大学 | 一种预测自适应学习的目标跟踪方法 |
CN109859242B (zh) * | 2019-01-16 | 2022-09-09 | 重庆邮电大学 | 一种预测自适应学习的目标跟踪方法 |
CN110287957A (zh) * | 2019-06-24 | 2019-09-27 | 北京中电慧视科技有限公司 | 一种低慢小目标的定位方法及定位装置 |
CN110287957B (zh) * | 2019-06-24 | 2021-09-07 | 北京中电慧视科技有限公司 | 一种低慢小目标的定位方法及定位装置 |
CN112434884A (zh) * | 2020-12-12 | 2021-03-02 | 广东电力信息科技有限公司 | 一种供应商分类画像的建立方法及装置 |
CN118657784A (zh) * | 2024-08-21 | 2024-09-17 | 辽宁高比科技有限公司 | 一种基于无人机采集光伏组件图像的脱焊检测方法 |
CN118657784B (zh) * | 2024-08-21 | 2024-10-18 | 辽宁高比科技有限公司 | 一种基于无人机采集光伏组件图像的脱焊检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106874894B (zh) | 一种基于区域全卷积神经网络的人体目标检测方法 | |
US8805018B2 (en) | Method of detecting facial attributes | |
He et al. | Maximum correntropy criterion for robust face recognition | |
US8649594B1 (en) | Active and adaptive intelligent video surveillance system | |
US8774499B2 (en) | Embedded optical flow features | |
CN102799873B (zh) | 一种人体异常行为识别方法 | |
CN111814584A (zh) | 基于多中心度量损失的多视角环境下车辆重识别方法 | |
CN107194317B (zh) | 一种基于网格聚类分析的暴力行为检测方法 | |
Dutta et al. | Online detection of abnormal events using incremental coding length | |
CN106815562A (zh) | 一种基于压缩特征的行人检测跟踪方法 | |
US20210232846A1 (en) | Image processing method and apparatus for object detection | |
WO2015196281A1 (en) | System and method for visual event description and event analysis | |
CN105447532A (zh) | 身份认证方法和装置 | |
CN102915435B (zh) | 一种基于人脸能量图的多姿态人脸识别方法 | |
WO2011119117A1 (en) | Facial gender recognition | |
CN105022982A (zh) | 手部运动识别方法和装置 | |
CN105117720A (zh) | 基于时空模型的目标尺度自适应跟踪方法 | |
US12131485B2 (en) | Object tracking device and object tracking method | |
CN103679186A (zh) | 检测和跟踪目标的方法和装置 | |
US8094971B2 (en) | Method and system for automatically determining the orientation of a digital image | |
Song et al. | Feature extraction and target recognition of moving image sequences | |
CN103295213B (zh) | 基于对象追踪的图像增稳方法 | |
US11138417B2 (en) | Automatic gender recognition utilizing gait energy image (GEI) images | |
CN104517300A (zh) | 基于颜色统计特征的视觉判别跟踪方法 | |
Siva et al. | Scene invariant crowd segmentation and counting using scale-normalized histogram of moving gradients (homg) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170609 |