CN104134217A - 一种基于超体素图割的视频显著物体分割方法 - Google Patents
一种基于超体素图割的视频显著物体分割方法 Download PDFInfo
- Publication number
- CN104134217A CN104134217A CN201410366737.5A CN201410366737A CN104134217A CN 104134217 A CN104134217 A CN 104134217A CN 201410366737 A CN201410366737 A CN 201410366737A CN 104134217 A CN104134217 A CN 104134217A
- Authority
- CN
- China
- Prior art keywords
- frame
- segmentation
- video
- static
- significantly
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000011218 segmentation Effects 0.000 title claims abstract description 10
- 230000003068 static effect Effects 0.000 claims abstract description 49
- 230000004927 fusion Effects 0.000 claims description 10
- 238000012216 screening Methods 0.000 claims description 7
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 230000001902 propagating effect Effects 0.000 claims description 2
- 238000005457 optimization Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 19
- 238000004422 calculation algorithm Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005381 potential energy Methods 0.000 description 3
- 230000001154 acute effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种视频中显著物体的分割方法,包括:步骤1,利用超像素计算视频序列中每一帧的静态显著性得到静态显著图;步骤2,利用超像素计算视频序列中每前后两帧的光流计算每一帧的动态显著性得到动态显著图;步骤3,对静态显著图和动态显著性进行融合处理得到动静态显著图;步骤4,计算视频序列中每一帧的“类物体性”图;步骤5,计算视频序列的时空“过分割”,并将静态显著值、动态显著值和“类物体性”值分别映射到视频的时空“过分割”上;步骤6,建立关于显著性、“类物体性”以及持续性的分割能量函数,在时空“过分割”即超体素级别对每一视频帧采用迭代的“图割”来优化该能量函数对每一帧进行二元分割,得到显著的前景物体。
Description
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种基于超体素图割的视频显著物体分割方法,该方法是基于动静态显著、类物体性以及持续性的视频显著物体分割方法。
背景技术
视频序列中显著物体的分割作为视频处理的基础,在计算机视觉的多个领域有着广泛的应用,如视频摘要,人体行为识别,视频检索,视频中物体识别,视频活动分析等。对视频序列中物体的分割的普遍性难题包括摄像机的运动,背景的运动和变化,以及前景显著物体自身的运动和形变。视频序列中显著物体的分割主要可分为非自动分割和自动分割两大类。
非自动分割:该方法需要用户的参与,用户被要求手动标注出视频首帧或是一些关键帧中的显著物体作为初始化数据,后用使用区域跟踪或是传播的方式得到视频序列每一帧的显著物体分割。该方法的缺点是手动标注繁琐而耗时,故不适于数据量较大的实际应用。
自动分割:该方法有多种实现方式:1)基于背景减除的方法:主要是对背景建模及更新,将帧与背景图像举行差分得到中差异较大的像素区域。这种方法比较不适合背景运动剧烈变化强的情况。2)基于背景减除的方法:主要是对背景建模及更新,将帧与背景图像举行差分得到中差异较大的像素区域。这种方法比较不适合背景运动剧烈变化强的情况。3)基于聚类的方法:如采用运动聚类,轨迹聚类,时空信息聚类等,但此方法不太适合物体自身运动复杂的情况,如有物体自身内部会发生运动的情况。4)基于物体提案的方法,该方法一般先把视频帧分为很多可能包含有物体的聚类,再在这些可能包含物体的聚类上处理分割,此方法的复杂度会比较高。
虽然分割已经是一个研究多年的课题,但由于视频数据的急剧增加,对视频物体自动分割的需求也随之增大。而且视频物体分割不可避免会面对背景运动和变化以及前景物体自身复杂运动和形变的不确定性及困难。因此有必要提供一种适用于普通用户使用的成本低而且便捷并具有准确性和实用性的分割视频显著物体的方法。
发明内容
为了解决现有技术的问题,本发明的目的是提供一种基于“图割(Graph cut)”的视频显著物体分割方法。
为了达成所述目的,本发明利用了物体的外观,运动,类物体性以及持续性信息的信息构造能量方程,减少了运动背景的干扰,并利用图像过分割——超像素和视频时空过分割——超体素来降低算法的复杂度。
根据本发明提出的超体素图割的视频显著物体分割方法,包括步骤:
步骤1,对视频序列中第一帧中的显著物体进行分割,该步骤进一步包括:步骤101,对该帧进行过分割得到超像素;步骤102,通过颜色特征的对比和分布来计算静态显著性图;步骤1033,通过光流的量级的对比和连续来计算动态显著性图;步骤104:融合静态显著图和动态显著图,得到动静态显著图;步骤105:计算第一帧的类物体性,计算出潜在的各个物体的ROI候选区域;步骤106,将动静态显著图和物体ROI进行融合,滤过不必要的ROI区域;步骤107,以ROI区域以及动静态显著性为弱约束,构造能量方程,用迭代的“图割”进行分割得到显著物体的估计;步骤2,对视频序列除第一帧之外的每一帧的显著物体进行分割,该步骤进一步包括:步骤201:将前一帧的估计区域作为先验传播到下一帧;步骤202:对该帧使用步骤101,102,103,105计算得到各种所需的中层特征值;步骤203:计算视频的时空过分割,构造关于外观,运动,类物体性以及持续性的能量方程,用“图割”最小化该能量方程得到显著物体分割。
本发明的有益效果:本发明用基于图像过分割——超像素利用颜色和光流的对比以及连贯性分别得到静态和动态显著图,超像素的使用降低了算法的复杂度,而不仅考虑特征对比也考虑分布的方法也降低了背景中一些与前景颜色相近的物体的干扰。类物体性的计算又进一步增加了分割的依据,提升了准确性。并且基于视频时空过分割——超体素为单位来使用“图割”方法也进一步降低了时空复杂度,加之“图割”本身是线性的复杂度,这样的运用使得算法的计算成本降低,比较实用无需专业的昂贵的设备。与传统的非自动的视频物体分割方法的不同点在于,本发明无需专业人员的手动标注,同时能实现较高质量的视频序列中显著物体分割。
附图说明
图1为本发明基于超体素图割的视频显著物体分割方法的流程图;
图2A为视频帧单帧的原始图像;
图2B为视频帧单帧的过分割,即超像素的示意图;
图3为视频帧的静态显著性的示意图;
图4为视频帧的动态显著性的示意图;
图5为视频帧的类物体性的示意图;
图6为视频帧的像素级类物体性的示意图;
图7为视频帧的融合的动静态显著性的示意图;
图8为视频显著超体素结果示意图;
图9为视频显著物体分割的结果示意图;
图10为动、静态显著图融合的结果示意图,从左到右依次为视频帧原图、动态显著性图、静态显著性图、融合得到的动静态显著图:
图11为分割结果图,最左边线条圈出的是分割区域,然后从左向右分别是动静态显著性融合图,动态显著图,静态显著图,类物体性图。
具体实施方式
下面将对本发明加以详细说明,应指出的是,所描述的实施例仅旨在便于对本发明的理解,而对其不起任何限定作用。
本发明是基于动静态显著性、类物体性以及持续性利用“图割”对视频序列中显著物体进行分割的方法。该方法分为两个阶段,对首帧的处理阶段和对每一帧的分割处理。第一阶段是对视频首帧的预处理得到首帧的显著物体区域估计,因为由于首帧时序上的局限性以及其在传播上的重要性,故对首帧进行了预处理以期望达到更为准确的结果;第二阶段是对视频帧逐一处理得到每一帧的显著物体分割,这一步骤是核心步骤,其中能量方程的设计围绕物体的外观,运动,类物体性和持续性旨在降低背景变化和物体自身形变及运动等干扰的影响。
根据本发明的方法,首先通过预处理得到首帧的显著物体区域估计,然后利用超像素计算视频序列中每一帧的静态显著性,得到静态显著图;利用超像素计算视频序列中每前后两帧的光流,计算每一帧的动态显著性,得到动态显著图;对静态显著图和动态显著性进行融合处理得到动静态显著图;计算视频序列中每一帧的类物体性图;计算视频序列的时空过分割——超体素,并将像素级别的静态显著值、动态显著值和类物体性值分别映射到视频的时空过分割上;建立关于显著性,类物体性以及持续性的分割能量函数,在时空过分割级别对每一视频帧采用“图割”来优化该能量函数对每一帧进行二元分割,得到显著的前景物体。
图1为本发明的基于超体素图割的视频显著物体分割方法。
根据本发明的视频显著物体分割方法,包含以下步骤:
步骤1,首先,对视频序列中的每一帧图像使用K-MEANS算法进行过分割得到超像素。超像素示意图如图2所示。
在该步骤,基于每一帧图像的lab颜色和位置坐标x,y的5维信息,对具有相似颜色的且较为邻近的像素进行聚类,得到单帧图像的过分割,其中lab值指lab颜色空间的3个维度,x,y为像素的横纵坐标;得到的颜色相似和空间近似的过分割。图2是过分割的示意图。由于过分割区域大多保留了进一步进行图像分割的有效信息,且一般不会破坏图像中物体的边界信息,可以直接在超像素上来对图像进行处理降低了计算成本。
步骤2,计算视频帧的静态显著图和动态显著图。
在该步骤,所述静态显著图和动态显著图都需要先计算中心周围对比的显著性图以及分布紧凑的显著性图。静态显著图首先计算的是颜色对比的显著性图和颜色一致性分布的显著性图,而最终静态显著图是两者的融合;动态显著性图也同理是由计算光流量值的对比显著性图和光流量值的运动连贯性的显著图融合得到的。
静态的颜色对比是按以下公式计算得到的:
其中,N为视频帧过分割的总数目;Csj为第j个超像素的静态颜色对比,j的取值范围为1到N;cj为第j个超像素的Lab颜色平均值,ck为第k个超像素的Lab颜色平均值,k从1取到N;pj为第j个超像素中的所有像素的位置平均值,j的取值范围为1到N,pk为第k个超像素的的所有像素的位置平均值,k从1取到N;w(pj,pk)为关于位置关系的系数,既可以设置为常数1也可以设置为随超像素之间位置关系(距离)而变化的权重,此处设置该系数为高斯权重||cj-ck||为cj与ck的差值,其差值越大Csj静态颜色对比就越大,对比越大就意味该超像素在颜色方面越独特。
动态的运动量级的对比公式如下:
其中,Cmj为第j个超像素的动态运动对比;pj同样为第j个超像素中的所有像素的位置平均值,j的取值范围为1到N,N为视频帧过分割的总数目,pk为第k个超像素的的所有像素的位置平均值,k从1取到N;w(pj,pk)为系数既可以设置为常数1也可以设置为随分割位置关系(距离)而变化的权重,此处该系数同样被设置为高斯权重;Hfj为第j个超像素的光流量级直方图,j的取值范围为1到N,Hfk为第k个超像素的光流量级直方图,k从1取到N,本文算法所涉及的光流量级直方图深度均为2,即第一层是横坐标方向的光流量级直方图,第二层是纵坐标方向的光流量级直方图,这样的直方图设置不仅考虑了光流量级即运动大小的分布,同时也在一定程度上考虑了运动方向;D(Hfj,Hfk)为光流量级直方图Hfj与Hfk的卡方距离,由于卡方距离的取值范围为0到正无穷,在此故利用了负指数函数将0到正无穷的卡方距离映射0到1,以便于计算,这样就,光流量级直方图Hfj与Hfk的卡方距离越大,Cmj动态运动对比也越大,对比越大就意味着该超像素在运动强度方面越独特。
静态的分布紧凑变化度的计算公式如下:
其中,Dsj为第j个超像素的静态分布紧凑变化度,第j个超像素在空间上的变化越低,Dsj值则越低即该超像素在空间上更紧凑;w(cj,ck)为关于超像素间颜色相似性的系数,既可以设置其为常数1,也可以设置其为随超像素颜色相似性变化的权重,此处设置该系数为高斯权重pk为第k个超像素的所有像素位置的平均值;N为视频帧过分割的总数目;而μcj表示与第j个超像素具有相似颜色的超像素的位置平均值。
动态的运动连续变化度的计算公式如下:
其中,Dmj为第j个超像素的动态运动连续变化度;w(Hfj,Hfk)为关于超像素间运动量级直方图相似性的系数, Hfj为第j个超像素的光流量级直方图,Hfk为第k个超像素的光流量级直方图,D(Hfj,Hfk)为光流量级直方图Hfj与Hfk之间的卡方距离,光流量级直方图Hfj与Hfk越不相似,w(Hfj,Hfk)的值就越大;而 μmj表示具有与Hfj相似光流量级直方图的过分割的位置的平均值,其中pk为第k个超像素的所有像素位置的平均值。
静态显著图Ss由静态的颜色对比Cs和静态的分布紧凑度Ds融合,融合公式为:
其中,Ssj为第j个超像素的静态显著性,Csj为第j个超像素的静态颜色对比,Dsj为第j个超像素的静态分布紧凑变化度;Csj越大且Dsj越小,则Ssj值越大。
动态显著图Sm由动态的运动对比Cm和动态的运动连续度Dm融合,融合公式为:
其中,Smj为第j个超像素的动态显著性,Cmj为第j个超像素的动态运动对比,Dmj为第j个超像素的动态运动连续变化度;Cmj越大且Dmj越小,则Smj值越大。
视频帧的静态显著性的示意图如图3所示,而是视频帧的动态显著性的示意图如图4所示。
步骤3,执行静态显著图与动态显著图的融合。
在该步骤采取的策略是,静态显著性图Ss与动态显著性图Sm互为补充,由于人类注意力更容易被运动所吸引,故具有很高的运动显著性的区域保留,而没有很高的运动显著性的区域很可能是光流算法或是背景运动带来的噪音,它们需要与静态显著图结合来考量,融合公式如下:
其中,Salj为第j个超像素的动、静态显著性融合所得到的动静态显著值,Ssj为第j个超像素的静态显著性值,Smj为第j个超像素的动态显著性值。而Ts为设置得很高的阈值,之所以本文对Ts进行了很高的阈值的设置,此处Ts设置为0.8,首先是考虑了运动优先的原则,保留那些具有极高运动显著性的区域;其次,是为了使那些具有模棱两可的运动显著性值的区域能够得到静态显著性的修正,减少光流噪声和摄像机镜头运动所带来的影响;最后,在运动显著性很小的情况下增加运动显著性的影响使得其抑制背景中的显著物体的对前景显著物体的干扰。
图7为视频帧的动态显著图的静态显著性融合得到的动静态示意图。
步骤4,计算视频帧的类物体性。
在该步骤,首帧类物体性的计算结果会略有不同,除了每一帧都要计算的得到的像素级的类物体性图,视频序列还希望的到类似物体候选的ROI区域,在这里的输入除了包括此前得到颜色对比和超像素还输入使用Canny算子检测得到的边界信息。这三个输入都与物体息息相关,其中颜色对比代表着前景物体颜色与背景的对比;而超像素的每一个过分割都代表着保留着边界信息的色彩同治区域,因此一个过分割属于同一物体的可能性极大;另外,边界也同样是物体的重要属性。而后使用基于贝叶斯模型的类物体检测器来得到最终的可能包括物体的候选ROI区域Ro及其类物体值O,而中间结果得到的概率则输出像素级的类物体性图。
图5为视频帧的类物体性的ROI示意图,而图6为视频帧的像素级别的类物体性的示意图。
步骤5,类物体性候选ROI区域的筛选。
在该步骤,首先,要对动静态显著图进行处理,以0.5为阈值,大于等于0.5的区域保留,其它的舍弃,得到显著性大于0.5的显著图Rh,为了方便之后的操作,需要将得到的阈值显著图二值化。本发明采用的是利用漫水填充算法来将图像连接域填充为1,后将余下区域设置为0。得到二值化的阈值显著图后,在对其进行形态学的开操作,即先腐蚀、后膨胀处理,以去除面积较小的明亮区域,减少噪音的干扰。
其后,对于联通区域RS,拟合覆盖它们的ROI区域:通过横向和纵向的扫描,找到连通区域RS的最左点,最右点,最高点以及最低点,((xl,yl),(xr,yr),(xu,yu),(xd,yd)),其中xl,yl为最左端点的横纵坐标,xr,yr为最右端点的横纵坐标,xu,yu为最上端的点的横纵坐标,xd,yd为最下端的点的横纵坐标。而拟合的覆盖其的ROI区域RS的4个顶点坐标(逆时针方向)为((xl-0.05(xr-xl),yu),(xl-0.05(xr-xl),yd),(xr+0.05(xr-xl),yd),(xr+0.05(xr-xl),yu)),在这里在左右都拓宽了5%,上下也增长了5%,其中xl-0.05(xr-xl),yu为拟合的ROI矩形区域左上端点的横纵坐标,xl-0.05(xr-xl),yd为矩形左下端点的横纵坐标,xr+0.05(xr-xl),yd为矩形右下端点的横纵坐标,xr+0.05(xr-xl),yd为右上端点的横纵坐标,。
之后做得就是对包括物体的候选ROI区域Ro的初步筛选,首先对计算每一个可能包括物体的候选ROI区域Ro与Rs相交的区域面积,并计算其与自身面积的对比,该比例应大于阈值To;除了考虑Roj对显著值的候选区域和显著区域交集,还有一个筛选标准就是,希望其能尽可能包围显著区域,而这里要求计算候选Roj与Rs相交的区域面积与Rs的面积比大于阈值Ts,如下式所示:
R={Roj|area(Roj∩Rs)÷area(Roj)>To∧area(Roj∩Rs)÷area(Rs)>Ts} (8)
其中,R为上式所筛选出的Roi区域的集合,Roi表示第i个候选ROI区域area(Roi∩Rs)表示候选ROI区域Roi与显著区域Rs相交的区域的面积大小,area(Roi)表示候选ROI区域Roi的面积大小,area(Rs)表示候选显著区域Rs的面积大小,To和Ta皆为阈值;这一步的筛选主要是为了排除一些明显不符合标准的候选区,以减少下一步更加精细的筛选的计算量。
最后,对筛选后的R中每一个候选ROI区域,计算完成在其区域内的超像素集合In的显著值分布直方图Hin,并计算围绕着In的在其区域外或一部分在其区域外的超像素集合Su的显著值Sal分布直方图Hsu,并计算与Su集合相邻的处于In集合的最外圈的超像素集合Bu的显著值Sal分布直方图Hbu;后计算Hin和Hsu的对比,以及Hsu与Hbu的对比,由于ROI内超像素与围绕超像素的显著性值分布差别越大说明物体在其区域内的可能性越大,而内圈与围绕超像素的显著值性分布差别越大说明其区域与物体边界契合得越好。最后,本算法将选择具有最大差别值Diff所对应的ROI区域为最终的候选ROI区域,Diff值的计算公式如下式所示:
Diffj=(1-e-D(Hsu,Hin))+α(1-e-D(Hsu,Hbu))2 (9)
其中,Diffi表示第i个候选ROI区域的差别值;Hini表示第i个候选ROI区域内的超像素集合In的显著性值分布直方图;Hsui表示围绕着第i个候选ROI区域内的超像素集合In的超像素集合Su的显著性值分布直方图,这些超像素在第i个候选ROI区域外或一部分在区域外;Hbui表示第i个候选ROI区域内与Su集合直接相邻的,即处于In集合的“最外圈”的超像素集合Bu的显著性值分布直方图。由于卡方距离的范围为0到正无穷,而1-e-D(Hsu,Hin)和1-e-D(Hsu,Hbu)的范围都在0到1,由于物体形状并非规则的矩形,因此边界契合的重要性比较低,所以对第二项对比进行了平方处理并且乘以小于1的系数α。选取R中具有最大的Diff值的ROI候选区域为最终估计的ROI区域。
步骤6,首帧的显著物体分割工作。
为了分割得到首帧的显著物体,下面要做的是构建能量方程:
E(X)=A(X)+O(X)+AC(X)+OC(X) (10)其中,E(X)为以超像素为单位的能量方程,X为超像素集合,A(X)为物体外观(appearance)一元项,O(X)为类物体性(objectness)一元项,AC(X)为颜色二元项,OC(X)为类物体性二元项。
A(X)是关于物体外观(appearance)的一元项,首先对首帧要聚类两个RGB颜色高斯混合模型(GMM),其中一个GMM是上一步得到的融合的动静态显著性大于0.5的区域Rh求其高斯混合模型FG,一个GMM是针对余下区域的背景模型BG。由于GMM可根据数据来推算概率密度,即可以做密度估计(density estimation),因此这里GMM的作用是推算出给定超像素成为一个前景或背景的概率的大小。若一个过分割和前景很匹配,却被标记为背景(标记背景为0,前景为1)即0的话,其惩罚值就会很大:
其中,A(X)为物体外观一元项,为对超像素xi的标注(标注0为背景,1为前景),为势能函数(potential functions),p(xi∈FG),p(xi∈BG)分别为超像素xi属于前景FG的概率,及其属于背景BG的概率。
而O(X)是关于类物体性(objectness)的一元项,视上一步最终得到的ROI外的视为背景,而ROI内为可能的物体,同理,为其计算objectness的GMM模型,该类物体性(objectness)一元项设计与外观(appearance)一元项类似:
其中,O(X)为物体外观一元项,为对超像素xi的标注(标注0为背景,1为前景),为势能函数(potential functions),p(xi∈OBJ),p(xi∈OBG)分别为超像素xi属于可能的物体OBJ的概率,及其属于物体外的背景OBG的概率。
而二元项的设置则是关注过分割与过分割的关系,是对邻域过分割之间互相不连续的代价和惩罚,如果两邻域过分割差别很小,那么它属于同一个目标或者同一背景的可能性就很大,如果他们的差别很大,那说明这两个过分割很有可能处于目标和背景的边缘部分,则被分割开的可能性比较大,所以当两邻域过分割差别越大,能量越小。
首先是关注外观颜色不连续惩罚的二元项AC(X),且其距离越大这种不连续差异带来的影响会削弱,其公式如下:
其中,AC(X)为颜色二元项,为Kij的系数,为1,为0,dist为两个超像素中点之间的欧几里德距离,dcor为过分割的颜色平均值的差值,γ和β为系数。
同理,关注类物体性的不连续惩罚的二元项OC(X)与颜色二元项类似,这里首先需要用到第4步所计算的像素级类物体性图,而后将像素级的类物体性值按照位置一一映射到过分割上;二元项OC(X)公式如下:
其中,OC(X)为类物体性二元项,为Kij的系数,为1,为0,dist为两个超像素中点之间的欧几里德距离,dobj为过分割的类物体值的差值,γ和β为系数。
在建立了该能量方程之后,t-link(结点与终端节点的连接)和n-link(结点之间的连接)都确立了,便有了“图割”所需的图,可以使用“图割”最小化能量方程来进行分割了。在这里使用类似于Grab cut的迭代的思想,每次迭代过程都使得对目标和背景建模的GMM的参数更优,使得图像分割更优。从而,最终可得到首帧的显著物体分割。
步骤7,将每一帧的静态显著性、动态显著性和类物体性映射到视频的时空过分割:
这一步首先采用supervoxel方法对视频进行视频的时空过分割,得到supervoxel,即超体素;而后将经第1步和第2步得到静态显著性,动态显著性,以以及像素级的类物体性按照位置一一映射到supervoxel过分割,并分别计算每个supervoxel的所包括的所有像素的静态显著性,动态显著性和类物体性的平均值作为这个supervoxel的静态显著性值,动态显著性和类物体性值。
图8为视频的显著超体素过分割结果示意图。
步骤8,每一帧的显著物体分割。
为了分割得到首帧后的每一帧的显著的物体,下面我们要做的依然是构建能量方程,不过这里的能量方程和首帧的能量方程略有不同,其方程如下:
EF(V)=AF(V)+ACF(V)+OCF(V)+PCF(V) (21)其中,EF(V)为以supervoxel为单位的能量方程,V为supervoxel集合(即超体素集合),AF(V)为物体外观(appearance)一元项,ACF(V)为颜色二元项,OCF(V)为类物体性二元项,PCF(V)为持续性二元项。
其中AF(V)依然是关于物体外观(appearance)的一元项,其定义与式(10)中A(X)定义相似。首先假设两帧之间的显著物体的运动是流畅而平缓的,这里利用在计算动态显著性时得到的光流,将前一帧分割的得到的显著物体利用光流的方向和速度来计算显著物体区域内每一个像素的位移,并计算其在下一帧的位置。为了加快算法的速度,图的节点的单位是视频的时空聚类——超体素(supervoxel)而非在像素级操作,这里就把所有包括了上一帧所传播的像素的时空过分割——超体素的集合作为可能的前景显著物体,余下区域为背景。对这两个区域分别聚类两个RGB颜色高斯混合模型(GMM),建立前景模型FG和背景模型BG。其公式如下:
其中,AF(X)为物体外观一元项,为对时空过分割——超体素vi的标注(标注0为背景,1为前景),为势能函数,p(vi∈FG),p(vi∈BG)分别为vi属于前景FG的概率及其属于背景BG的概率。
而二元项ACF(V)的设置与式(10)中AC(X)设置几乎一致,不同是只是图的节点不再是超像素(superpixel)而是超体素(supervoxel),其中dcor表示时空过分割——超体素的所有像素的颜色平均值的差值,其公式如下:
其中,ACF(V)外观颜色二元项,为Kij的系数,为1,为0,dist为时空过分割即超体素中点之间的欧几里德距离,dcor为两个时空过分割超体素的颜色平均值的差值,γ和β为系数。
同理,二元项OCF(V)的设置与式(10)中OC(X)设置几乎一致,这里首先需要用到第4步所计算的像素级类物体性图,而后将像素级的类物体性值按照位置一一映射到过分割上,其中dobj为领域超体素的平均类物体值的差值,其公式如下:
其中,OCF(V)为类物体性二元项,为Kij的系数,为1,为0,dist为时空过分割中点之间的欧几里德距离,dobj为超体素的类物体值的差值,γ和β为系数。
由于假设视频中的显著物体在帧间的运动流畅而平缓,即其具有持续性(Persistence),故设计了关于持续性的二元项PCF(V),关注于时序的帧间的过分割的连续性。若把将与上一帧连续性很高且外观很相似的超体素与其对应上一帧的过分割标注不同,其受到的惩罚较大;反之,若前后两帧间连续性很高且外观很相似的超体素得到了相同的标注,则其受到的惩罚较小。两个超体素的连续程度由前帧某超体素中像素按光流计算位移到下一帧某超体素中的像素数目的总数除以该超体素(前者)的像素总数得到的比例表示,该比列由pers表示。其公式如下:
其中,PCF(V)为持续性二元项,且下式中v表示当前帧的超体素,v’表示当前帧的前一帧中的超体素,为Kij的系数,为1,为0,dcor为两个超体素的颜色平均值的差值,γ和β为系数,pers(vi,v′j)计算前后帧的两个超体素的连续程度,由前帧的时空过分割v′j中像素按光流计算位移到下一帧过分割vi中的像素总数除以v′j中的像素总数得到的比例表示。
在建立了该能量方程之后,t-link(结点与终端节点的连接)和n-link(结点之间的连接)都确立了,便有了“图割”所需的图,可以使用“图割”最小化能量方程来进行分割了。在这里使用类似于Grab cut的迭代的思想,每次迭代过程都使得对目标和背景建模的GMM的参数更优,使得图像分割更优。从而,可得到每一帧的显著物体分割。图9为视频帧中的显著物体的图割结果示意图。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种超体素图割的视频显著物体分割方法,该方法包括以下步骤:
步骤1,对视频序列中第一帧中的显著物体进行分割,该步骤进一步包括:
步骤101,对该帧进行过分割得到超像素;步骤102,通过颜色特征的对比和分布来计算静态显著性图;步骤103,通过光流的量级的对比和连续来计算动态显著性图;步骤104,融合静态显著图和动态显著图,得到动静态显著图;步骤105,计算第一帧的类物体性,计算出潜在的各个物体的ROI候选区域;步骤106,将动静态显著图和物体ROI进行融合,滤过不必要的ROI区域;步骤107,以ROI区域以及动静态显著性为弱约束,构造能量方程,用迭代的“图割”进行分割得到显著物体的估计;
步骤2,对视频序列除第一帧之外的每一帧的显著物体进行分割,该步骤进一步包括:
步骤201,将前一帧的估计区域作为先验传播到下一帧;步骤202:对该帧使用步骤101,102,103,104,105计算得到各种所需的中层特征值;步骤203,计算视频的时空过分割,构造关于外观、运动、类物体性以及持续性的能量方程,用“图割”最小化该能量方程得到显著物体分割。
2.如权利要求1所述的方法,其特征在于,所述步骤101进一步包括:基于每一帧图像的lab颜色和位置x,y的信息对具有相似颜色的且较为邻近的像素进行聚类,得到单帧图像的过分割,即超像素,其中lab值指lab颜色空间的3个维度,x,y为像素的横纵坐标。
3.如权利要求1所述的方法,其特征在于,步骤102,103进一步包括:所述静态显著图和动态显著图都需先计算中心周围对比的显著性图以及分布紧凑的显著性图,静态显著图首先计算的是颜色对比的显著性图和颜色一致性分布的显著性图,而最终静态显著图是两者的融合;动态显著性图也是由计算光流量值的对比显著性图和光流量值的运动连贯性的显著图融合得到的。
4.如权利要求1所述的方法,其特征在于,步骤104进一步包括:分析动态显著图和静态显著图各自的优点和不足,采用阈值控制以分段函数来融合静态显著图和动态显著图,得到动静态显著图。
5.如权利要求1所述的方法,其特征在于,步骤105进一步包括:使用类物体性检测器检测该帧是否是物体的ROI区域。
6.如权利要求1所述的方法,其特征在于,步骤106进一步包括:利用ROI区域对动静态显著区域的覆盖程度来过滤掉一些类物体ROI候选,筛选可能包含显著物体的ROI区域。
7.如权利要求1所述的方法,其特征在于,步骤107中,建立关于ROI区域以及动静态显著图的能量方程,使用迭代的“图割”优化使该能量方程最小,最小化分割代价。
8.如权利要求1所述的方法,其特征在于,步骤201中,前一帧得到的显著物体分割区域将以光流的运动方向和量级为基础估计位移,传播到下一帧。
9.如权利要求1所述的方法,其特征在于,步骤202中,基于显著性,颜色对比,边缘检测信息,计算像素级别的类物体性图。
10.如权利要求1所述的方法,其特征在于,步骤203中,构造能量方程进一步包括基于步骤202传播的前一帧的先验估计构造持续性二元项,基于动静态显著性图构造物体外观一元项,基于外观颜色构造关于颜色连续性的二元项,基于类物体性构造关于物体的二元项;最后依然使用迭代的“图割”优化使该能量方程最小,最小化分割惩罚,从而得到二元分割。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410366737.5A CN104134217B (zh) | 2014-07-29 | 2014-07-29 | 一种基于超体素图割的视频显著物体分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410366737.5A CN104134217B (zh) | 2014-07-29 | 2014-07-29 | 一种基于超体素图割的视频显著物体分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104134217A true CN104134217A (zh) | 2014-11-05 |
CN104134217B CN104134217B (zh) | 2017-02-15 |
Family
ID=51806886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410366737.5A Active CN104134217B (zh) | 2014-07-29 | 2014-07-29 | 一种基于超体素图割的视频显著物体分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104134217B (zh) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105069774A (zh) * | 2015-06-30 | 2015-11-18 | 长安大学 | 基于多示例学习与图割优化的目标分割方法 |
CN105590100A (zh) * | 2015-12-23 | 2016-05-18 | 北京工业大学 | 基于判别性超体素的人体动作识别方法 |
CN105809651A (zh) * | 2014-12-16 | 2016-07-27 | 吉林大学 | 基于边缘非相似性对比的图像显著性检测方法 |
CN105913456A (zh) * | 2016-04-12 | 2016-08-31 | 西安电子科技大学 | 基于区域分割的视频显著性检测方法 |
CN105931244A (zh) * | 2016-04-29 | 2016-09-07 | 中科院成都信息技术股份有限公司 | 一种无监督抠图方法及装置 |
CN106372636A (zh) * | 2016-08-25 | 2017-02-01 | 上海交通大学 | 基于hop_top的视频显著性检测方法 |
CN106611427A (zh) * | 2015-10-21 | 2017-05-03 | 中国人民解放军理工大学 | 基于候选区域融合的视频显著性检测方法 |
CN106778634A (zh) * | 2016-12-19 | 2017-05-31 | 江苏慧眼数据科技股份有限公司 | 一种基于区域融合的显著性人体区域检测方法 |
CN107016675A (zh) * | 2017-03-07 | 2017-08-04 | 南京信息工程大学 | 一种基于非局部时空特征学习的无监督视频分割方法 |
CN107038704A (zh) * | 2017-05-04 | 2017-08-11 | 季鑫 | 视网膜图像渗出区域分割方法、装置和计算设备 |
CN107133558A (zh) * | 2017-03-13 | 2017-09-05 | 北京航空航天大学 | 一种基于概率传播的红外行人显著性检测方法 |
CN107154052A (zh) * | 2016-03-03 | 2017-09-12 | 株式会社理光 | 对象状态估计的方法及装置 |
CN107194948A (zh) * | 2017-04-17 | 2017-09-22 | 上海大学 | 基于集成式预测与时空域传播的视频显著性检测方法 |
CN107564022A (zh) * | 2017-07-13 | 2018-01-09 | 西安电子科技大学 | 基于贝叶斯融合的视频显著性检测方法 |
CN109035293A (zh) * | 2018-05-22 | 2018-12-18 | 安徽大学 | 适用于视频图像中显著人体实例分割的方法 |
CN109191485A (zh) * | 2018-08-29 | 2019-01-11 | 西安交通大学 | 一种基于多层超图模型的多视频目标协同分割方法 |
WO2019020062A1 (zh) * | 2017-07-26 | 2019-01-31 | 北京市商汤科技开发有限公司 | 视频物体分割方法和装置、电子设备、存储介质和程序 |
CN109509194A (zh) * | 2018-11-23 | 2019-03-22 | 上海师范大学 | 一种复杂背景下正面人体图像分割方法及装置 |
CN109785327A (zh) * | 2019-01-18 | 2019-05-21 | 中山大学 | 融合物体表观信息和运动信息的视频运动物体分割方法 |
CN110347870A (zh) * | 2019-06-19 | 2019-10-18 | 西安理工大学 | 基于视觉显著性检测与层次聚类法的视频摘要化生成方法 |
CN110390293A (zh) * | 2019-07-18 | 2019-10-29 | 南京信息工程大学 | 一种基于高阶能量约束的视频对象分割算法 |
CN111182307A (zh) * | 2019-12-27 | 2020-05-19 | 广东德融汇科技有限公司 | 一种用于k12教育阶段基于视频影像超低码流无损压缩方法 |
CN112884302A (zh) * | 2021-02-01 | 2021-06-01 | 杭州市电力设计院有限公司 | 一种电力物资管理方法 |
CN116309902A (zh) * | 2023-01-04 | 2023-06-23 | 北京柏惠维康科技股份有限公司 | 血管影像重建方法、装置、电子设备和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102637253A (zh) * | 2011-12-30 | 2012-08-15 | 清华大学 | 基于视觉显著性和超像素分割的视频前景目标提取方法 |
US20120288189A1 (en) * | 2011-05-13 | 2012-11-15 | Tsinghua University | Image processing method and image processing device |
US20120294476A1 (en) * | 2011-05-16 | 2012-11-22 | Microsoft Corporation | Salient Object Detection by Composition |
CN103632153A (zh) * | 2013-12-05 | 2014-03-12 | 宁波大学 | 一种基于区域的图像显著图提取方法 |
CN103745468A (zh) * | 2014-01-07 | 2014-04-23 | 上海交通大学 | 一种基于图结构和边界先验的显著性物体检测方法 |
-
2014
- 2014-07-29 CN CN201410366737.5A patent/CN104134217B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120288189A1 (en) * | 2011-05-13 | 2012-11-15 | Tsinghua University | Image processing method and image processing device |
US20120294476A1 (en) * | 2011-05-16 | 2012-11-22 | Microsoft Corporation | Salient Object Detection by Composition |
CN102637253A (zh) * | 2011-12-30 | 2012-08-15 | 清华大学 | 基于视觉显著性和超像素分割的视频前景目标提取方法 |
CN103632153A (zh) * | 2013-12-05 | 2014-03-12 | 宁波大学 | 一种基于区域的图像显著图提取方法 |
CN103745468A (zh) * | 2014-01-07 | 2014-04-23 | 上海交通大学 | 一种基于图结构和边界先验的显著性物体检测方法 |
Non-Patent Citations (1)
Title |
---|
罗雷等: "融合颜色与运动信息的视频显著性滤波器", 《华中科技大学学报(自然科学版)》 * |
Cited By (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105809651A (zh) * | 2014-12-16 | 2016-07-27 | 吉林大学 | 基于边缘非相似性对比的图像显著性检测方法 |
CN105809651B (zh) * | 2014-12-16 | 2019-02-22 | 吉林大学 | 基于边缘非相似性对比的图像显著性检测方法 |
CN105069774B (zh) * | 2015-06-30 | 2017-11-10 | 长安大学 | 基于多示例学习与图割优化的目标分割方法 |
CN105069774A (zh) * | 2015-06-30 | 2015-11-18 | 长安大学 | 基于多示例学习与图割优化的目标分割方法 |
CN106611427B (zh) * | 2015-10-21 | 2019-11-15 | 中国人民解放军理工大学 | 基于候选区域融合的视频显著性检测方法 |
CN106611427A (zh) * | 2015-10-21 | 2017-05-03 | 中国人民解放军理工大学 | 基于候选区域融合的视频显著性检测方法 |
CN105590100A (zh) * | 2015-12-23 | 2016-05-18 | 北京工业大学 | 基于判别性超体素的人体动作识别方法 |
CN105590100B (zh) * | 2015-12-23 | 2018-11-13 | 北京工业大学 | 基于判别性超体素的人体动作识别方法 |
CN107154052B (zh) * | 2016-03-03 | 2020-08-04 | 株式会社理光 | 对象状态估计的方法及装置 |
CN107154052A (zh) * | 2016-03-03 | 2017-09-12 | 株式会社理光 | 对象状态估计的方法及装置 |
CN105913456A (zh) * | 2016-04-12 | 2016-08-31 | 西安电子科技大学 | 基于区域分割的视频显著性检测方法 |
CN105913456B (zh) * | 2016-04-12 | 2019-03-26 | 西安电子科技大学 | 基于区域分割的视频显著性检测方法 |
CN105931244B (zh) * | 2016-04-29 | 2019-01-22 | 中科院成都信息技术股份有限公司 | 一种无监督抠图方法及装置 |
CN105931244A (zh) * | 2016-04-29 | 2016-09-07 | 中科院成都信息技术股份有限公司 | 一种无监督抠图方法及装置 |
CN106372636A (zh) * | 2016-08-25 | 2017-02-01 | 上海交通大学 | 基于hop_top的视频显著性检测方法 |
CN106778634A (zh) * | 2016-12-19 | 2017-05-31 | 江苏慧眼数据科技股份有限公司 | 一种基于区域融合的显著性人体区域检测方法 |
CN106778634B (zh) * | 2016-12-19 | 2020-07-14 | 江苏慧眼数据科技股份有限公司 | 一种基于区域融合的显著性人体区域检测方法 |
CN107016675A (zh) * | 2017-03-07 | 2017-08-04 | 南京信息工程大学 | 一种基于非局部时空特征学习的无监督视频分割方法 |
CN107133558A (zh) * | 2017-03-13 | 2017-09-05 | 北京航空航天大学 | 一种基于概率传播的红外行人显著性检测方法 |
CN107133558B (zh) * | 2017-03-13 | 2020-10-20 | 北京航空航天大学 | 一种基于概率传播的红外行人显著性检测方法 |
CN107194948A (zh) * | 2017-04-17 | 2017-09-22 | 上海大学 | 基于集成式预测与时空域传播的视频显著性检测方法 |
CN107038704B (zh) * | 2017-05-04 | 2020-11-06 | 季鑫 | 视网膜图像渗出区域分割方法、装置和计算设备 |
CN107038704A (zh) * | 2017-05-04 | 2017-08-11 | 季鑫 | 视网膜图像渗出区域分割方法、装置和计算设备 |
CN107564022A (zh) * | 2017-07-13 | 2018-01-09 | 西安电子科技大学 | 基于贝叶斯融合的视频显著性检测方法 |
CN107564022B (zh) * | 2017-07-13 | 2019-08-13 | 西安电子科技大学 | 基于贝叶斯融合的视频显著性检测方法 |
WO2019020062A1 (zh) * | 2017-07-26 | 2019-01-31 | 北京市商汤科技开发有限公司 | 视频物体分割方法和装置、电子设备、存储介质和程序 |
US11222211B2 (en) | 2017-07-26 | 2022-01-11 | Beijing Sensetime Technology Development Co., Ltd | Method and apparatus for segmenting video object, electronic device, and storage medium |
CN109035293A (zh) * | 2018-05-22 | 2018-12-18 | 安徽大学 | 适用于视频图像中显著人体实例分割的方法 |
CN109191485A (zh) * | 2018-08-29 | 2019-01-11 | 西安交通大学 | 一种基于多层超图模型的多视频目标协同分割方法 |
CN109509194B (zh) * | 2018-11-23 | 2023-04-28 | 上海师范大学 | 一种复杂背景下正面人体图像分割方法及装置 |
CN109509194A (zh) * | 2018-11-23 | 2019-03-22 | 上海师范大学 | 一种复杂背景下正面人体图像分割方法及装置 |
CN109785327A (zh) * | 2019-01-18 | 2019-05-21 | 中山大学 | 融合物体表观信息和运动信息的视频运动物体分割方法 |
CN110347870A (zh) * | 2019-06-19 | 2019-10-18 | 西安理工大学 | 基于视觉显著性检测与层次聚类法的视频摘要化生成方法 |
CN110390293A (zh) * | 2019-07-18 | 2019-10-29 | 南京信息工程大学 | 一种基于高阶能量约束的视频对象分割算法 |
CN111182307A (zh) * | 2019-12-27 | 2020-05-19 | 广东德融汇科技有限公司 | 一种用于k12教育阶段基于视频影像超低码流无损压缩方法 |
CN112884302A (zh) * | 2021-02-01 | 2021-06-01 | 杭州市电力设计院有限公司 | 一种电力物资管理方法 |
CN112884302B (zh) * | 2021-02-01 | 2024-01-30 | 杭州市电力设计院有限公司 | 一种电力物资管理方法 |
CN116309902A (zh) * | 2023-01-04 | 2023-06-23 | 北京柏惠维康科技股份有限公司 | 血管影像重建方法、装置、电子设备和存储介质 |
CN116309902B (zh) * | 2023-01-04 | 2024-09-10 | 北京柏惠维康科技股份有限公司 | 血管影像重建方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN104134217B (zh) | 2017-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104134217A (zh) | 一种基于超体素图割的视频显著物体分割方法 | |
Yang et al. | Recovering 3d planes from a single image via convolutional neural networks | |
Wang et al. | Semantic line framework-based indoor building modeling using backpacked laser scanning point cloud | |
CN105930868B (zh) | 一种基于层次化增强学习的低分辨率机场目标检测方法 | |
Yamaguchi et al. | Efficient joint segmentation, occlusion labeling, stereo and flow estimation | |
Zhou et al. | Efficient road detection and tracking for unmanned aerial vehicle | |
US8798965B2 (en) | Generating three-dimensional models from images | |
Audebert et al. | Distance transform regression for spatially-aware deep semantic segmentation | |
WO2015010451A1 (zh) | 一种从单幅图像检测道路的方法 | |
CN110651310A (zh) | 估计对象密度和/或流量的深度学习方法及相关方法和软件 | |
AU2012244275A1 (en) | Method, apparatus and system for determining a boundary of an obstacle which occludes an object in an image | |
CN103020993A (zh) | 一种双通道颜色对比度融合的视觉显著性检测方法 | |
Li et al. | Seamline network generation based on foreground segmentation for orthoimage mosaicking | |
Liu et al. | Layered interpretation of street view images | |
CN113378756A (zh) | 一种三维人体语义分割方法、终端设备及存储介质 | |
US20150371113A1 (en) | Method and apparatus for generating temporally consistent superpixels | |
Brandt et al. | Efficient binocular stereo correspondence matching with 1-D max-trees | |
Stathopoulou et al. | Multiple View Stereo with quadtree-guided priors | |
Pfeiffer | The stixel world | |
Tian et al. | HPM-TDP: An efficient hierarchical PatchMatch depth estimation approach using tree dynamic programming | |
Zohourian et al. | Efficient fine-grained road segmentation using superpixel-based CNN and CRF models | |
Song et al. | Robust visual tracking using structural region hierarchy and graph matching | |
Zhong et al. | Vertical corner line detection on buildings in quasi-Manhattan world | |
US20190019298A1 (en) | Real-time image processing system and method | |
Zhao et al. | Superpixels extracted via region fusion with boundary constraint |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |