CN107330922A - 基于运动信息和区域特征的航拍视频运动目标检测方法 - Google Patents
基于运动信息和区域特征的航拍视频运动目标检测方法 Download PDFInfo
- Publication number
- CN107330922A CN107330922A CN201710535578.0A CN201710535578A CN107330922A CN 107330922 A CN107330922 A CN 107330922A CN 201710535578 A CN201710535578 A CN 201710535578A CN 107330922 A CN107330922 A CN 107330922A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msubsup
- image
- mover
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 claims abstract description 16
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 101150114630 mtcA2 gene Proteins 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 3
- 230000000877 morphologic effect Effects 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims 3
- AYFVYJQAPQTCCC-GBXIJSLDSA-N L-threonine Chemical compound C[C@@H](O)[C@H](N)C(O)=O AYFVYJQAPQTCCC-GBXIJSLDSA-N 0.000 claims 1
- 230000003068 static effect Effects 0.000 abstract description 3
- 238000011410 subtraction method Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20152—Watershed segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于运动信息和区域特征的航拍视频运动目标检测方法,用于解决现有运动目标检测方法目标检测完整性差的技术问题。技术方案是首先使用背景差分方法进行运动像素检测,得到图像中的候选运动区域。接着,采用基于局部极值的分水岭算法对图像进行斑点检测,得到所有的静态候选目标。最后,通过结合运动信息及区域特征进行运动目标提取,得到了完整的运动目标检测框且降低了虚警率。
Description
技术领域
本发明涉及一种运动目标检测方法,特别是涉及一种基于运动信息和区域特征的航拍视频运动目标检测方法。
背景技术
文献“Detection of moving objects with non-stationary cameras in5.8ms:Bringing motion detection to your mobile device,Proceedings of the IEEEConference on Computer Vision and Pattern Recognition Workshops.2013:27-34.”提出了一种基于双模态高斯背景建模的移动平台运动目标检测方法。该方法在对图像进行分块的基础上,对每个图像块中的多个像素使用同一双模态高斯背景模型进行建模。为了减小运动补偿的误差,通过加权融合前一帧多个图像块的背景模型,对当前图像进行运动补偿。最后,采用背景差分法对当前图像进行运动目标检测。由于对图像块进行背景建模,降低了运算量,较好地解决了移动平台运动目标检测的实时性问题。文献方法通过背景差分仅分割了图像中的运动像素,无法得到完整的运动目标检测框,且存在较多虚警,对后续的运动目标跟踪等工作造成了很大的困难。
发明内容
为了克服现有运动目标检测方法目标检测完整性差的不足,本发明提供一种基于运动信息和区域特征的航拍视频运动目标检测方法。该方法首先使用背景差分方法进行运动像素检测,得到图像中的候选运动区域。接着,采用基于局部极值的分水岭算法对图像进行斑点检测,得到所有的静态候选目标。最后,通过结合运动信息及区域特征进行运动目标提取,得到了完整的运动目标检测框且降低了虚警率。
本发明解决其技术问题所采用的技术方案是:一种基于运动信息和区域特征的航拍视频运动目标检测方法,其特点是包括以下步骤:
步骤一、将输入的图像划分N×N的图像块,对每个图像块中的所有像素使用两个单高斯模型进行背景建模,分别作为现用背景模型和候选背景模型。当满足式(1)时更新现用模型;满足式(2)时更新备用模型。若两公式都不满足,则使用当前观测值初始化备用模型。
式中,分别表示图像块i在t时刻的现用模型的均值,方差和生存期。令表示图像块i在t时刻的候选模型的对应参数。
θs为规定的阈值,取值为2。使用如下公式计算。
经过上述判断后,对满足更新条件的模型进行更新。模型的均值方差及生存周期的更新方法如下:
其中,表示图像块i时刻t的背景模型向t-1时刻模型补偿后的均值、方差和生存期。式(5)中的Vi (t)的含义为,
若候选模型在某时刻的生存周期超过了现用模型,则将两模型的功能交换,激活候选模型作为有效模型。
将输入图像分成H*W大小的块,取分块的角点作为特征点,在每一个图像分块上通过KLT算法对特征点进行匹配,使用RANSAC算法求解出符合大部分特征点匹配情况的变换矩阵。将图像块Gi根据变换矩阵变换后,其位置与相邻图像块发生重叠。此时,根据重叠面积大小对相邻图像块前一帧的模型参数加权求和得到图像块Gi前一帧的背景模型,实现当前帧图像的运动补偿。
得到当前图像的背景建模结果后,与传统的背景差分方法不同,通过比较图像像素值和背景模型均值差值的平方与背景模型方差之间的差异,确定前景像素。具体使用式(8)计算,
式中,θd为人为设置的阈值,取值为4。通过形态学滤波去除前景中的虚警,检测连通域提取候选运动目标的检测框。
步骤二、将输入的三通道彩色图像转化为灰度图像,在灰度图像上进行斑点检测。阈值步长t设置为10,阈值范围设置为T1=50,T2=220。使用阈值集合[T1,T1+t,T1+2t,...,T2]对灰度图进行二值化,得到对应于每个阈值的二值图像。检测二值图像集合中每幅图像的边界,提取该二值图像的连通区域。由边界围成的不同的连通区域即为该二值图像的斑点。然后,对二值图像斑点进行分类,斑点中心坐标间的距离小于阈值Tb=2的二值图像斑点的集合即为灰度图像的斑点。
求得第t帧灰度图像的斑点后,根据每个斑点的面积和圆度对斑点进行筛选。当斑点的面积在阈值范围内时,将其加入候选斑点集合B(t)中,即:
式中,a_l和a_h分别为面积阈值下限和上限,取值分别为200和1000。使用圆度对面积筛选过后的斑点集合进一步进行筛选。当斑点的圆度满足下述条件时,将该斑点加入该图像最终的候选斑点集合。
式中,c_l和c_h分别为圆度阈值下限和上限,取值分别为0.3和10.0。
对斑点进行筛选后,需要确定每个最终候选斑点的位置和尺寸。斑点位置的计算为构成该斑点的所有二值图像斑点的位置加权和,权值为该二值图像斑点的惯性率的平方。斑点尺寸为组成该灰度图斑点的所有二值图像斑点中,面积大小居中的斑点的半径长度。
步骤三、经过上述步骤,得到了当前图像的两组独立的候选目标集合canO(t)和canB(t)。循环遍历候选运动目标集合canO(t)中的所有的候选目标,计算每个候选目标的置信度对运动检测集合中的候选目标计算其与候选斑点集合中的每个斑点的重叠率
式中,表示两个区域的重叠面积,表示候选目标的面积。对于候选目标选择重叠率中的最大值作为该目标的重叠率若重叠率大于阈值th_r,取值为0.8,则将重叠率作为该候选目标的置信度。若重叠率小于阈值th_r,则将目标加入候选漏检目标集合中。同时,将canB(t)集合中未与canO(t)集合的任一元素匹配的元素加入候选漏检目标集合canl(t)中。计算该集合中目标与前一帧图像每个有效运动目标的重叠率及的置信度
设置置信度阈值下限thre_c,取值为0.8。根据置信度大小选择最终的有效运动目标。若候选目标的置信度为与的重叠率,达到了置信度下限。则运动目标的尺寸(w,h)和位置(x,y)计算如下:
式中,为的矩形框宽度,为的矩形框宽度。目标检测框的最终高度h,横坐标x和纵坐标y的计算方式与宽度w的计算方式相同,为相应属性的加权求和。至此,得到当前图像所有运动目标的完整检测框。
本发明的有益效果是:该方法首先使用背景差分方法进行运动像素检测,得到图像中的候选运动区域。接着,采用基于局部极值的分水岭算法对图像进行斑点检测,得到所有的静态候选目标。最后,通过结合运动信息及区域特征进行运动目标提取,得到了完整的运动目标检测框且降低了虚警率。
下面结合具体实施方式对本发明作详细说明。
具体实施方式
本发明基于运动信息和区域特征的航拍视频运动目标检测方法具体步骤如下:
步骤一、基于背景建模的运动信息检测。
将输入的图像划分为4×4大小的图像块,对每个图像块中的所有像素使用两个单高斯模型进行背景建模,分别作为现用背景模型和候选背景模型。若当前图像满足下述式(1)或式(2)时,选取对应的背景模型进行更新,即:当满足式(1)时更新现用模型;满足式(2)时更新备用模型。若两公式都不满足,则使用当前观测值初始化备用模型。
式中,分别表示图像块i在t时刻的现用模型的均值,方差和生存期。令表示图像块i在t时刻的候选模型的对应参数。
θs为规定的阈值,本实施例取值为2。使用如下公式计算。
经过上述判断后,对满足更新条件的模型进行更新。模型的均值方差及生存周期的更新策略如下:
其中,表示图像块i时刻t的背景模型向t-1时刻模型补偿后的均值、方差和生存期。上式中的的含义为,
若候选模型在某时刻的生存周期超过了现用模型,则将两模型的功能交换,激活候选模型作为有效模型。
为了减小运动补偿的误差,对前一帧图像中多个图像块的模型参数加权来实现当前帧模型的运动补偿。将输入图像分成32*24大小的块,取分块的角点作为特征点,在每一个图像分块上通过KLT算法对特征点进行匹配,使用RANSAC算法求解出符合大部分特征点匹配情况的变换矩阵。将图像块Gi根据变换矩阵变换后,其位置与相邻图像块发生重叠。此时,根据重叠面积大小对相邻图像块前一帧的模型参数加权求和得到图像块Gi前一帧的背景模型,从而实现当前帧图像的运动补偿。
得到当前图像的背景建模结果后,与传统的背景差分方法不同,通过比较图像像素值和背景模型均值差值的平方与背景模型方差之间的差异,确定前景像素。具体使用如下公式计算,
式中,θd为人为设置的阈值,本实施例取值为4。最后,通过形态学滤波去除前景中的虚警,检测连通域提取候选运动目标的检测框。
步骤二、图像斑点检测。
将输入的三通道彩色图像转化为灰度图像,在灰度图像上进行斑点检测。阈值步长t设置为10,阈值范围设置为T1=50,T2=220。使用阈值集合[T1,T1+t,T1+2t,...,T2]对灰度图进行二值化,得到对应于每个阈值的二值图像。检测二值图像集合中每幅图像的边界,提取该二值图像的连通区域。由边界围成的不同的连通区域即为该二值图像的斑点。然后,对二值图像斑点进行分类,斑点中心坐标间的距离小于阈值Tb=2的二值图像斑点的集合即为灰度图像的斑点。
求得第t帧灰度图像的斑点后,根据每个斑点的面积和圆度对斑点进行筛选。当斑点的面积在阈值范围内时,将其加入候选斑点集合B(t)中,即:
式中,a_l和a_h分别为面积阈值下限和上限,本实施例取值分别为200和1000。使用圆度对面积筛选过后的斑点集合进一步进行筛选。当斑点的圆度满足下述条件时,将该斑点加入该图像最终的候选斑点集合。
式中,c_l和c_h分别为圆度阈值下限和上限,取值分别为0.3和10.0。
对斑点进行筛选后,需要确定每个最终候选斑点的位置和尺寸。斑点位置的计算为构成该斑点的所有二值图像斑点的位置加权和,权值为该二值图像斑点的惯性率的平方。斑点尺寸为组成该灰度图斑点的所有二值图像斑点中,面积大小居中的斑点的半径长度。
步骤三、有效运动目标提取。
经过上述步骤,得到了当前图像的两组独立的候选目标集合canO(t)和canB(t)。循环遍历候选运动目标集合canO(t)中的所有的候选目标,计算每个候选目标的置信度对运动检测集合中的候选目标计算其与候选斑点集合中的每个斑点的重叠率
式中,表示两个区域的重叠面积,表示候选目标的面积。对于候选目标选择重叠率中的最大值作为该目标的重叠率若重叠率大于阈值th_r,本实施例取值为0.8,则将重叠率作为该候选目标的置信度。若重叠率小于阈值th_r,则将目标加入候选漏检目标集合中。同时,将canB(t)集合中未与canO(t)集合的任一元素匹配的元素加入候选漏检目标集合canl(t)中。计算该集合中目标与前一帧图像每个有效运动目标的重叠率及的置信度计算方法及步骤与上文所述相同。
设置置信度阈值下限thre_c,取值为0.8。根据置信度大小选择最终的有效运动目标。若候选目标的置信度为与的重叠率,达到了置信度下限。则运动目标的尺寸(w,h)和位置(x,y)计算如下:
式中,为的矩形框宽度,为的矩形框宽度。目标检测框的最终高度h,横坐标x和纵坐标y的计算方式与宽度w的计算方式相同,为相应属性的加权求和。至此,得到了当前图像所有运动目标的完整检测框。
Claims (1)
1.一种基于运动信息和区域特征的航拍视频运动目标检测方法,其特征在于包括以下步骤:
步骤一、将输入的图像划分N×N的图像块,对每个图像块中的所有像素使用两个单高斯模型进行背景建模,分别作为现用背景模型和候选背景模型;当满足式(1)时更新现用模型;满足式(2)时更新备用模型;若两公式都不满足,则使用当前观测值初始化备用模型;
<mrow>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>M</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>&mu;</mi>
<mrow>
<mi>A</mi>
<mo>,</mo>
<mi>i</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo><</mo>
<msub>
<mi>&theta;</mi>
<mi>s</mi>
</msub>
<msubsup>
<mi>&sigma;</mi>
<mrow>
<mi>A</mi>
<mo>,</mo>
<mi>i</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>M</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>&mu;</mi>
<mrow>
<mi>C</mi>
<mo>,</mo>
<mi>i</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo><</mo>
<msub>
<mi>&theta;</mi>
<mi>s</mi>
</msub>
<msubsup>
<mi>&sigma;</mi>
<mrow>
<mi>C</mi>
<mo>,</mo>
<mi>i</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
式中,和分别表示图像块i在t时刻的现用模型的均值,方差和生存期;令和表示图像块i在t时刻的候选模型的对应参数;
θs为规定的阈值,取值为2;使用如下公式计算;
<mrow>
<msubsup>
<mi>M</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mo>|</mo>
<msub>
<mi>G</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
</mrow>
</mfrac>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>&Element;</mo>
<msub>
<mi>G</mi>
<mi>i</mi>
</msub>
</mrow>
</munder>
<msubsup>
<mi>I</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
经过上述判断后,对满足更新条件的模型进行更新;模型的均值方差及生存周期的更新方法如下:
<mrow>
<msubsup>
<mi>&mu;</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>=</mo>
<mfrac>
<msubsup>
<mover>
<mi>&alpha;</mi>
<mo>~</mo>
</mover>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msubsup>
<mrow>
<msubsup>
<mover>
<mi>&alpha;</mi>
<mo>~</mo>
</mover>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msubsup>
<mo>+</mo>
<mn>1</mn>
</mrow>
</mfrac>
<msubsup>
<mover>
<mi>&mu;</mi>
<mo>~</mo>
</mover>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msubsup>
<mo>+</mo>
<mfrac>
<msubsup>
<mover>
<mi>&alpha;</mi>
<mo>~</mo>
</mover>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msubsup>
<mrow>
<msubsup>
<mover>
<mi>&alpha;</mi>
<mo>~</mo>
</mover>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msubsup>
<mo>+</mo>
<mn>1</mn>
</mrow>
</mfrac>
<msubsup>
<mi>M</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mover>
<mi>&sigma;</mi>
<mo>~</mo>
</mover>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>=</mo>
<mfrac>
<msubsup>
<mover>
<mi>&alpha;</mi>
<mo>~</mo>
</mover>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msubsup>
<mrow>
<msubsup>
<mover>
<mi>&alpha;</mi>
<mo>~</mo>
</mover>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msubsup>
<mo>+</mo>
<mn>1</mn>
</mrow>
</mfrac>
<msubsup>
<mover>
<mi>&sigma;</mi>
<mo>~</mo>
</mover>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msubsup>
<mo>+</mo>
<mfrac>
<msubsup>
<mover>
<mi>&alpha;</mi>
<mo>~</mo>
</mover>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msubsup>
<mrow>
<msubsup>
<mover>
<mi>&alpha;</mi>
<mo>~</mo>
</mover>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msubsup>
<mo>+</mo>
<mn>1</mn>
</mrow>
</mfrac>
<msubsup>
<mi>V</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mover>
<mi>&alpha;</mi>
<mo>~</mo>
</mover>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>=</mo>
<msubsup>
<mover>
<mi>&alpha;</mi>
<mo>~</mo>
</mover>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</msubsup>
<mo>+</mo>
<mn>1</mn>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,和表示图像块i时刻t的背景模型向t-1时刻模型补偿后的均值、方差和生存期;式(5)中的Vi (t)的含义为,
<mrow>
<msubsup>
<mi>V</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>=</mo>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>&mu;</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>I</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>7</mn>
<mo>)</mo>
</mrow>
</mrow>
若候选模型在某时刻的生存周期超过了现用模型,则将两模型的功能交换,激活候选模型作为有效模型;
将输入图像分成H*W大小的块,取分块的角点作为特征点,在每一个图像分块上通过KLT算法对特征点进行匹配,使用RANSAC算法求解出符合大部分特征点匹配情况的变换矩阵;将图像块Gi根据变换矩阵变换后,其位置与相邻图像块发生重叠;此时,根据重叠面积大小对相邻图像块前一帧的模型参数加权求和得到图像块Gi前一帧的背景模型,实现当前帧图像的运动补偿;
得到当前图像的背景建模结果后,与传统的背景差分方法不同,通过比较图像像素值和背景模型均值差值的平方与背景模型方差之间的差异,确定前景像素;具体使用式(8)计算,
<mrow>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>I</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>&mu;</mi>
<mrow>
<mi>A</mi>
<mo>,</mo>
<mi>i</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>></mo>
<msub>
<mi>&theta;</mi>
<mi>d</mi>
</msub>
<msubsup>
<mi>&sigma;</mi>
<mrow>
<mi>A</mi>
<mo>,</mo>
<mi>i</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>8</mn>
<mo>)</mo>
</mrow>
</mrow>
式中,θd为人为设置的阈值,取值为4;通过形态学滤波去除前景中的虚警,检测连通域提取候选运动目标的检测框;
步骤二、将输入的三通道彩色图像转化为灰度图像,在灰度图像上进行斑点检测;阈值步长t设置为10,阈值范围设置为T1=50,T2=220;使用阈值集合[T1,T1+t,T1+2t,...,T2]对灰度图进行二值化,得到对应于每个阈值的二值图像;检测二值图像集合中每幅图像的边界,提取该二值图像的连通区域;由边界围成的不同的连通区域即为该二值图像的斑点;然后,对二值图像斑点进行分类,斑点中心坐标间的距离小于阈值Tb=2的二值图像斑点的集合即为灰度图像的斑点;
求得第t帧灰度图像的斑点后,根据每个斑点的面积和圆度对斑点进行筛选;当斑点的面积在阈值范围内时,将其加入候选斑点集合B(t)中,即:
<mrow>
<msup>
<mi>B</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>=</mo>
<mo>{</mo>
<msubsup>
<mi>b</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>|</mo>
<mi>a</mi>
<mo>_</mo>
<mi>l</mi>
<mo><</mo>
<mi>a</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>b</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mo><</mo>
<mi>a</mi>
<mo>_</mo>
<mi>h</mi>
<mo>}</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>9</mn>
<mo>)</mo>
</mrow>
</mrow>
式中,a_l和a_h分别为面积阈值下限和上限,取值分别为200和1000;使用圆度对面积筛选过后的斑点集合进一步进行筛选;当斑点的圆度满足下述条件时,将该斑点加入该图像最终的候选斑点集合;
<mrow>
<msup>
<mi>canB</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>=</mo>
<mo>{</mo>
<msubsup>
<mi>b</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>|</mo>
<mi>c</mi>
<mo>_</mo>
<mi>l</mi>
<mo><</mo>
<mi>c</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>B</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mo><</mo>
<mi>c</mi>
<mo>_</mo>
<mi>h</mi>
<mo>}</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>10</mn>
<mo>)</mo>
</mrow>
</mrow>
式中,c_l和c_h分别为圆度阈值下限和上限,取值分别为0.3和10.0;
对斑点进行筛选后,需要确定每个最终候选斑点的位置和尺寸;斑点位置的计算为构成该斑点的所有二值图像斑点的位置加权和,权值为该二值图像斑点的惯性率的平方;斑点尺寸为组成该灰度图斑点的所有二值图像斑点中,面积大小居中的斑点的半径长度;
步骤三、经过上述步骤,得到了当前图像的两组独立的候选目标集合canO(t)和canB(t);循环遍历候选运动目标集合canO(t)中的所有的候选目标,计算每个候选目标的置信度对运动检测集合中的候选目标计算其与候选斑点集合中的每个斑点的重叠率
<mrow>
<msubsup>
<mi>r</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>=</mo>
<mfrac>
<mrow>
<mi>a</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>canO</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>&cap;</mo>
<msubsup>
<mi>canB</mi>
<mi>j</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>a</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>canO</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>11</mn>
<mo>)</mo>
</mrow>
</mrow>
式中,表示两个区域的重叠面积,表示候选目标的面积;对于候选目标选择重叠率中的最大值作为该目标的重叠率ri (t);若重叠率ri (t)大于阈值th_r,取值为0.8,则将重叠率ri (t)作为该候选目标的置信度;若重叠率ri (t)小于阈值th_r,则将目标加入候选漏检目标集合中;同时,将canB(t)集合中未与canO(t)集合的任一元素匹配的元素加入候选漏检目标集合canl(t)中;计算该集合中目标与前一帧图像每个有效运动目标的重叠率及的置信度
设置置信度阈值下限thre_c,取值为0.8;根据置信度大小选择最终的有效运动目标;若候选目标的置信度为与的重叠率,达到了置信度下限;则运动目标的尺寸(w,h)和位置(x,y)计算如下:
<mrow>
<mi>w</mi>
<mo>=</mo>
<mi>w</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>canO</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mo>*</mo>
<msubsup>
<mi>r</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>+</mo>
<mi>w</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>canB</mi>
<mi>r</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mo>*</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<msubsup>
<mi>r</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>12</mn>
<mo>)</mo>
</mrow>
</mrow>
式中,为的矩形框宽度,为的矩形框宽度;目标检测框的最终高度h,横坐标x和纵坐标y的计算方式与宽度w的计算方式相同,为和相应属性的加权求和;至此,得到当前图像所有运动目标的完整检测框。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710535578.0A CN107330922A (zh) | 2017-07-04 | 2017-07-04 | 基于运动信息和区域特征的航拍视频运动目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710535578.0A CN107330922A (zh) | 2017-07-04 | 2017-07-04 | 基于运动信息和区域特征的航拍视频运动目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107330922A true CN107330922A (zh) | 2017-11-07 |
Family
ID=60197780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710535578.0A Pending CN107330922A (zh) | 2017-07-04 | 2017-07-04 | 基于运动信息和区域特征的航拍视频运动目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107330922A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108008727A (zh) * | 2017-12-11 | 2018-05-08 | 梁金凤 | 一种能够高速行驶的无人驾驶汽车 |
CN108460724A (zh) * | 2018-02-05 | 2018-08-28 | 湖北工业大学 | 基于马氏距离判别的自适应图像融合方法和系统 |
CN108596946A (zh) * | 2018-03-21 | 2018-09-28 | 中国航空工业集团公司洛阳电光设备研究所 | 一种运动目标实时检测方法及系统 |
CN110111363A (zh) * | 2019-04-28 | 2019-08-09 | 深兰科技(上海)有限公司 | 一种基于目标检测的跟踪方法及设备 |
CN110728229A (zh) * | 2019-10-09 | 2020-01-24 | 百度在线网络技术(北京)有限公司 | 图像处理方法、装置、设备和存储介质 |
CN110929597A (zh) * | 2019-11-06 | 2020-03-27 | 普联技术有限公司 | 一种基于图像的树叶过滤方法、装置及存储介质 |
CN111553928A (zh) * | 2020-04-10 | 2020-08-18 | 中国资源卫星应用中心 | 一种辅以Openstreetmap信息的城市道路高分遥感自适应提取方法 |
CN112711017A (zh) * | 2020-12-30 | 2021-04-27 | 上海微波技术研究所(中国电子科技集团公司第五十研究所) | 基于背景消除和改进连通域算法的fod自动识别方法及系统 |
CN112926676A (zh) * | 2021-03-24 | 2021-06-08 | 成都新潮传媒集团有限公司 | 一种虚假目标识别方法、装置及计算机设备 |
CN115457447A (zh) * | 2022-11-07 | 2022-12-09 | 浙江莲荷科技有限公司 | 运动物体识别的方法、装置、系统及电子设备、存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103455797A (zh) * | 2013-09-07 | 2013-12-18 | 西安电子科技大学 | 航拍视频中运动小目标的检测与跟踪方法 |
CN104217442A (zh) * | 2014-08-28 | 2014-12-17 | 西北工业大学 | 基于多模型估计的航拍视频运动目标检测方法 |
-
2017
- 2017-07-04 CN CN201710535578.0A patent/CN107330922A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103455797A (zh) * | 2013-09-07 | 2013-12-18 | 西安电子科技大学 | 航拍视频中运动小目标的检测与跟踪方法 |
CN104217442A (zh) * | 2014-08-28 | 2014-12-17 | 西北工业大学 | 基于多模型估计的航拍视频运动目标检测方法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108008727A (zh) * | 2017-12-11 | 2018-05-08 | 梁金凤 | 一种能够高速行驶的无人驾驶汽车 |
CN108460724A (zh) * | 2018-02-05 | 2018-08-28 | 湖北工业大学 | 基于马氏距离判别的自适应图像融合方法和系统 |
CN108596946A (zh) * | 2018-03-21 | 2018-09-28 | 中国航空工业集团公司洛阳电光设备研究所 | 一种运动目标实时检测方法及系统 |
CN110111363A (zh) * | 2019-04-28 | 2019-08-09 | 深兰科技(上海)有限公司 | 一种基于目标检测的跟踪方法及设备 |
CN110728229B (zh) * | 2019-10-09 | 2023-07-18 | 百度在线网络技术(北京)有限公司 | 图像处理方法、装置、设备和存储介质 |
CN110728229A (zh) * | 2019-10-09 | 2020-01-24 | 百度在线网络技术(北京)有限公司 | 图像处理方法、装置、设备和存储介质 |
CN110929597A (zh) * | 2019-11-06 | 2020-03-27 | 普联技术有限公司 | 一种基于图像的树叶过滤方法、装置及存储介质 |
CN111553928A (zh) * | 2020-04-10 | 2020-08-18 | 中国资源卫星应用中心 | 一种辅以Openstreetmap信息的城市道路高分遥感自适应提取方法 |
CN111553928B (zh) * | 2020-04-10 | 2023-10-31 | 中国资源卫星应用中心 | 一种辅以Openstreetmap信息的城市道路高分遥感自适应提取方法 |
CN112711017B (zh) * | 2020-12-30 | 2022-08-16 | 上海微波技术研究所(中国电子科技集团公司第五十研究所) | 基于背景消除和改进连通域算法的fod自动识别方法及系统 |
CN112711017A (zh) * | 2020-12-30 | 2021-04-27 | 上海微波技术研究所(中国电子科技集团公司第五十研究所) | 基于背景消除和改进连通域算法的fod自动识别方法及系统 |
CN112926676A (zh) * | 2021-03-24 | 2021-06-08 | 成都新潮传媒集团有限公司 | 一种虚假目标识别方法、装置及计算机设备 |
CN115457447A (zh) * | 2022-11-07 | 2022-12-09 | 浙江莲荷科技有限公司 | 运动物体识别的方法、装置、系统及电子设备、存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107330922A (zh) | 基于运动信息和区域特征的航拍视频运动目标检测方法 | |
Kumar et al. | Review of lane detection and tracking algorithms in advanced driver assistance system | |
CN111027511B (zh) | 基于感兴趣区块提取的遥感图像舰船检测方法 | |
CN104318258B (zh) | 一种基于时域模糊和卡尔曼滤波器的车道线检测方法 | |
CN103927526B (zh) | 一种基于高斯差分多尺度边缘融合的车辆检测方法 | |
CN104660994B (zh) | 海事专用摄像机及海事智能监控方法 | |
CN107767400B (zh) | 基于层次化显著性分析的遥感图像序列动目标检测方法 | |
CN104660993B (zh) | 基于ais和cctv的海事智能监控方法及系统 | |
CN114724117B (zh) | 车道线关键点数据生成方法、装置、电子设备及存储介质 | |
CN106295542A (zh) | 一种夜视红外图像中的基于显著性的道路目标提取方法 | |
CN106203433A (zh) | 一种车辆监控图像中车牌位置自动提取并透视校正的方法 | |
CN103206957B (zh) | 车辆自主导航的车道线检测与跟踪方法 | |
CN107092871B (zh) | 基于多尺度多特征融合的遥感影像建筑物检测方法 | |
CN109767454B (zh) | 基于时-空-频显著性的无人机航拍视频运动目标检测方法 | |
CN104794435A (zh) | 一种基于视觉的无人机对地运动目标检测方法 | |
CN103902985B (zh) | 一种基于roi的强鲁棒性实时车道侦测算法 | |
CN103927758B (zh) | 一种基于对比度与角点最小凸包的显著性检测方法 | |
CN110415268A (zh) | 一种基于背景差值法和帧间差值法相结合的运动区域前景图像算法 | |
CN116279592A (zh) | 一种用于无人物流车的可行驶区域划分方法 | |
CN108038486A (zh) | 一种文字检测方法 | |
CN103679196A (zh) | 视频监控中的人车自动分类方法 | |
CN104778699B (zh) | 一种自适应对象特征的跟踪方法 | |
Shao et al. | An efficient model for small object detection in the maritime environment | |
CN103077533B (zh) | 一种基于蛙眼视觉特性定位运动目标的方法 | |
Dimitrievski et al. | Semantically aware multilateral filter for depth upsampling in automotive lidar point clouds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20171107 |