CN112541930A - 基于级联式的图像超像素目标行人分割方法 - Google Patents
基于级联式的图像超像素目标行人分割方法 Download PDFInfo
- Publication number
- CN112541930A CN112541930A CN201910900391.5A CN201910900391A CN112541930A CN 112541930 A CN112541930 A CN 112541930A CN 201910900391 A CN201910900391 A CN 201910900391A CN 112541930 A CN112541930 A CN 112541930A
- Authority
- CN
- China
- Prior art keywords
- image
- segmentation
- target
- super
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 153
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000004927 fusion Effects 0.000 claims abstract description 47
- 238000001914 filtration Methods 0.000 claims abstract description 12
- 238000004364 calculation method Methods 0.000 claims description 21
- 238000001514 detection method Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 7
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000004040 coloring Methods 0.000 claims description 3
- 238000007689 inspection Methods 0.000 claims description 3
- 238000005192 partition Methods 0.000 claims description 3
- 230000008707 rearrangement Effects 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000003709 image segmentation Methods 0.000 abstract description 15
- 230000004931 aggregating effect Effects 0.000 abstract 2
- 238000007781 pre-processing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000009977 dual effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000004072 lung Anatomy 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 210000000115 thoracic cavity Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 210000000038 chest Anatomy 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明属于图像分割技术领域,具体的说是一种基于级联式的图像超像素目标行人分割方法,其步骤包括:S1、以Mask R‑CNN作为粗粒度一阶段分割,结合能量滤波准则提取目标区域及分割结果;S2、将单目标区域送至超像素分割通道,输出带标签的超像素结果;S3、计算超像素分割图像中相邻超像素块的特征相似差异值,将超像素块聚集为一个超系数像素块,聚集出更精准的目标对象轮廓;S4、利用能量高低频融合规则将一阶段粗粒度分割提取的目标结果和二阶段细粒度分割提取的目标对象轮廓进行融合操作,重构出最终的融合图像。
Description
技术领域
本发明属于图像分割技术领域,具体的说是一种基于级联式超像素目标行人分割方法。
背景技术
目标行人分割技术是机器视觉领域中一个重要的研究课题,而随着自主汽车和辅助驾驶系统的发展,如何对行人及车辆安全进行保护也成为了当今的研究热点。图像分割技术是图像识别和计算机视觉系统中的预处理部分,对图像进行有效的分割能够为识别及跟踪提供目标特征,从而避免了冗余信息对后期图像处理的干扰。
目前,基于颜色特征的目标分割可以分为基于彩色图像与灰度图像两类,而基于生成方式的图像分割技术可以分为基于区域和特征两类。针对不同的领域,采用适合的图像分割方法可有效提高分割精度。目前较为主流的分割方法主要可以分为区域法、阈值法、边缘法及交互分割法。专利申请号为CN201910020730,名称为“一种图像分割方法及装置”,其公开了通过获取第一待分割图像和第二待分割图像并将其分割图像输入至预先训练好的图像分割模型中,通过提取分割图像的特征向量,来计算其相关性参数,从而预测分割图像,通过这种方法,可以提高图像分割的准确率和效率,但是此分割方法需要依赖于装置,受其硬件设备影响较大,使用便捷性大大受限。专利申请号为CN201811472018,名称为“胸片分割及处理方法、系统及电子设备”,其公开了先利用深度学习算法对图像数据集进行训练,得到基于深度学习的图像分割模型,再通过图像分割模型对待分割图像进行处理得到分割后的肺部区域和胸廓区域,最后根据肺部区域和胸廓区域计算肺胸比。该方法的侧重点在于计算肺胸比,但就其分割结果来看,其精度依然不够精确,若能对此精度进行提高,其计算的肺胸比结果显然可以更加准确。专利申请号为CN201810860392,名称为“融合图像分割特征的目标检测网络设计方法”,其公开了结合通用目标检测框架Mask-RCNN与图像分割特征,从而实现小目标图像分割。该方法应用于小目标时分割精度相对较高,但是对于大目标的分割精度依然不够精确。专利申请号为CN201810860454,名称为“基于Mask-RCNN的行人检测方法”,其针对将车内目标误检为行人的情况,该方法结合Mask-RCNN可以同时进行目标检测和目标分割的特性,提出一种结合目标分割结果的优化算法,由于单独使用Mask-RCNN可能导致结果会出现小目标错检、漏检、重合部分分割结果不精确等问题,若对其结果进行超像素分割,则精度会有很大的提升。
发明内容
为了解决提高目标行人图像分割的准确性,本发明提出了一种基于级联式的图像超像素目标行人分割方法,通过建立一种目标行人分割模型,对计算机视觉系统后续工作提供更精确的预处理信息。
本发明通过以下技术方案实现上述目标:一种基于级联式的图像超像素目标行人分割方法,包括如下步骤:
第1步,将源图像送至实例分割通道,输出实例分割图像,对实例分割图像拆分并提取单目标区域和分割结果:
(M,R,S0)=MASKRCNN(I0) (1)
其中,MASKRCNN为实例分割函数,I0为输入源图像,R为实例分割图像中拆分提取的单目标区域,S0为实例分割图像中拆分并提取的分割结果,M为实例分割图像;
其中:
实例分割图像M为源图像经过实例分割之后不进行任何处理的图像;
单目标区域R为实例分割图像M进行拆分并提取后得到的单目标区域图,其范围大于目标检测框范围;式(2)为单目标区域R个数的计算公式:
B=A±X(A∈(0,N+),B∈(0,N+),X∈(0,N+)) (2)
源图像含有A个目标对象,经过实例分割之后含有B个单目标区域R,式中X表示实例分割目标检测误差人数;
分割结果S0为实例分割图像M经过拆分并提取得到的轮廓图像,式(3)为分割结果S0个数的计算公式:
N=J±X(N∈(0,N+),J∈(0,N+),X∈(0,N+)) (3)
实例分割图像M含有J个目标对象,经过拆分并提取之后含有N个分割结果S0,式中X表示实例分割目标检测误差人数;
第2步,将单目标区域R送至超像素分割通道,输出带标签的超像素分割图像;
QGK=SLIC(R) (4)
其中,SLIC为超像素分割函数,R为实例分割图像中的提取的单目标区域,QGK为含有K个带标签的超像素分割图像;
第3步,将超像素分割图像QGK中相邻超像素块中特征相似的超像素块进行合并,用N块超像素着色信息块代替超像素分割图像中的K个超像素块,最后重构出更精准的目标对象轮廓;
PN=Cslic(QGK) (5)
其中,Cslic为SLIC合并函数,QGK为含有K个带标签的超像素分割图像,PN为重构的目标对象轮廓;
第4步,将分割结果S0和目标对象轮廓PN融合,重构出级联式分割融合图像Ei。
Ei=NSST(PN,S0) (6)
其中,NSST为非下剪切波变换多尺度分析函数,PN为目标对象轮廓,S0为实例分割图像中拆分并提取的分割结果,Ei为重构的最终融合图像;
图像融合中使用能量滤波高低频融合规则:对经过配准的分割结果S0和目标对象轮廓P采用能量滤波高低频融合规则进行预融合,低频信息融合采用基于图像引导滤波器的融合规则对低频系数进行融合,得到低频融合系数。高频信息融合对于超像素QGK中的所有像素点,利用其空间坐标找出与其对应的高频系数,并赋予其对应的标签超像素块,然后将具有相同标签的系数聚集为一个超系数块并求取每个超系数块的空间频率得到高频融合系数。最后对高频融合系数和低频融合系数进行NSST逆变换,重构出最终的融合图像Ei。
进一步的,超像素块特征合并步骤如下:
1)将超像素块设定排序,对图中相邻超像素块进行颜色与空间距离的特征差异计算,计算公式如下:
式(9)中,LAB向量采用的是CIELAB的色度空间模型,DLAB(Ri)为超像素块间颜色空间距离,R′表示非目标区域,li与lj为像素亮度的分量,ai、aj、bi、bj为颜色的分量,DXY(Ri)为位置空间距离,xi、xj、yi、yj向量获取的是像素的空间坐标值,D(Ri)为超像素距离,δ是距离权值系数,且δ∈(0,1);
2)将计算结果与预先设定的阈值进行比较,若特征结果小于阈值则将目标超像素块与相邻超像素块合并,若大于阈值则忽略该目标像素块,继续为下一超像素块进行特征检验;
根据超像素距离确定超像素区域相关度,计算公式如下:
C(Ri)=1-exp(-D(Ri)) (10)
式(10)中,C(Ri)表示超像素区域相关度,D(Ri)为超像素距离,超像素距离与区域相关度成负相关。根据相关度,确定超像素块是否符合同一目标的特征信息;
根据计算所有超像素的区域相关度,利用最大类间差法求出区域相关度阈值,提取所有符合相关度阈值的超像素块作为目标超像素,计算公式如下:
式(11)中,R*表示最终获取的目标超像素的集合,Ri为i处的目标超像素,C(Ri)表示超像素区域相关度,为区域相关度阈值,ε为相关度阈值系数,取ε=0.5,当ε为0.5时,特征信息能更好地划分为不同的像素集合,得到的每个子集形成一个与现实景物相对应的区域,各个区域内部具有一致的属性,而相邻区域不具有所述一致的属性;
3)迭代上述步骤,直到图像中所有超像素块都完成一次特征比较,此时生成首次合并结果图;
4)第二次合并前,刷新超像素块的特征信息及重新编排顺序,之后将首次合并结果作为本次合并操作的对象进行合并,直至第一次合并结果中的超像素块都完成特征比较,生成第二次合并结果图。
通过上述技术方案,本发明的有益效果是:现有的图像分割方法基本都是对源图像进行分割,提取的目标特征结果不够精确,尤其是分割的目标特征边缘轮廓效果不理想。本发明采用基于级联式超像素分割方法,对源图像进行级联式分割,最后使用能量滤波高低频融合规则在各个方向和各个尺度上对图像实现稀疏表示,克服伪吉布斯效应,最终实现提高图像预处理的分割精度,为后续的识别和跟踪提供了有益的分割基础
附图说明
图1是级联式超像素分割逻辑框图;
图2是车载摄像机成像简化模型图;
图3是车载视角单行人源图像;
图4是车载视角单行人实例分割图像
图5是车载视角单行人超像素分割图像;
图6是车载视角单目标行人融合标记示意图;
图7是车载视角双目标行人源图像;
图8是车载视角双目标行人实例分割图像;
图9是车载视角双目标行人融合标记示意图;
图10是昏暗双目标行人源图像;
图11是昏暗双目标行人实例分割图像;
图12是昏暗双目标行人融合标记示意图。
具体实施方式
接下来结合附图和具体分类过程对本发明做进一步的描述:
一种基于级联式的图像超像素目标行人分割方法,其逻辑框图如图1所示,该方法的具体实施步骤如下:
第1步:将源图像送至实例分割通道,输出实例分割图像,并在其基础上拆分提取单目标区域R和分割结果S0;
第2步:将单目标区域R送至超像素分割通道,输出带标签的超像素分割图像QGK;
第3步:将超像素分割图像QGK中相邻超像素块中特征相似的超像素块进行合并重构出更精准的目标对象轮廓QGK;
第4步,将分割结果S0和目标对象轮廓PN融合,重构出最终的级联式分割融合图像Ei。
具体方案是:
本发明区别于现有的对目标行人分割算法,提出一种基于级联式超像素目标行人分割方法,通过建立一种目标行人分割模型,对计算机视觉系统后续工作提供更精确的预处理信息。
本发明通过以下技术方案实现上述目标:
第1步,将源图像送至实例分割通道,输出实例分割图像,并在其基础上拆分提取单目标区域和分割结果。
(M,R,S0)=MASKRCNN(I0) (1)
其中,MASKRCNN为实例分割函数,I0为输入源图像(长宽为26倍数的源图像),R为实例分割图像中的提取的单目标区域,S0为实例分割中拆分提取的分割结果,M为实例分割图像。
定义1:实例分割图像M为源图像经过实例分割之后不进行任何处理的图像。
定义2:单目标区域R为实例分割图像M进行拆分提取后得到的图像,其范围一定大于目标检测框范围。式(2)为单目标区域R个数的计算公式:
B=A±X(A∈(0,N+),B∈(0,N+),X∈(0,N+)) (2)
这里,源图像含有A个目标对象,经过实例分割之后含有B个单目标区域R,式中X表示实例分割目标检测误差人数。
定义3:分割结果S0为实例分割图像M经过拆分提取得到的轮廓图像,式(3)为分割结果S0个数的计算公式:
N=J±X(N∈(0,N+),J∈(0,N+),X∈(0,N+)) (3)
这里,实例分割图像M含有J个目标对象,经过拆分提取之后含有N个分割结果S0,式中X表示实例分割目标检测误差人数。
第2步,将单目标区域R送至超像素分割通道,输出带标签的超像素分割图像。
QGK=SLIC(R) (4)
其中,SLIC为超像素分割函数,R为实例分割图像中的提取的单目标区域,QGK为含有K个带标签的超像素分割图像。
第3步,将超像素分割图像QGK中相邻超像素块中特征相似的超像素块进行合并,实现用N块超像素着色信息块代替超像素分割图像中的K个超像素块,最后重构出更精准的目标对象轮廓。
PN=Cslic(QGK) (5)
其中,Cslic为SLIC合并函数,QGK为含有K个带标签的超像素分割图像,PN为重构的目标对象轮廓。
第4步,将分割结果S0和目标对象轮廓PN融合,重构出最终的级联式分割融合图像Ei。
Ei=NSST(PN,S0) (6)
其中,NSST为非下剪切波变换多尺度分析函数,PN为目标对象轮廓,S0为实例分割中拆分提取的分割结果,Ei为重构的最终融合图像。
能量滤波高低频融合规则:对经过配准的分割结果S0和目标对象轮廓P采用能量滤波高低频融合规则进行预融合,低频信息融合采用基于图像引导滤波器的融合规则对低频系数进行融合,得到低频融合系数。高频信息融合对于超像素QGK中的所有像素点,利用其空间坐标找出与其对应的高频系数,并赋予其对应的标签超像素块,然后将具有相同标签的系数聚集为一个超系数块并求取每个超系数块的空间频率得到高频融合系数。最后对高频融合系数和低频融合系数进行NSST逆变换,重构出最终的融合图像Ei。
超像素块特征合并步骤如下:
1)将超像素块设定排序,对图中相邻超像素块进行颜色与空间距离的特征差异计算,计算公式如下:
式(9)中,LAB向量采用的是CIELAB的色度空间模型,DLAB(Ri)为超像素块间颜色空间距离,R′表示非目标区域,li与lj为像素亮度的分量,ai、aj、bi、bj为颜色的分量,DXY(Ri)为位置空间距离,xi、xj、yi、yj向量获取的是像素的空间坐标值,D(Ri)为超像素距离,δ是距离权值系数,且δ∈(0,1);
2)将计算结果与预先设定的阈值进行比较,若特征结果小于阈值则将目标超像素块与相邻超像素块合并,若大于阈值则忽略该目标像素块,继续为下一超像素块进行特征检验;
根据超像素距离确定超像素区域相关度,计算公式如下:
C(Ri)=1-exp(-D(Ri)) (10)
式(10)中,C(Ri)表示超像素区域相关度,D(Ri)为超像素距离,超像素距离与区域相关度成负相关。根据相关度,确定超像素块是否符合同一目标的特征信息;
根据计算所有超像素的区域相关度,利用最大类间差法求出区域相关度阈值,提取所有符合相关度阈值的超像素块作为目标超像素,计算公式如下:
式(11)中,R*表示最终获取的目标超像素的集合,Ri为i处的目标超像素,C(Ri)表示超像素区域相关度,为区域相关度阈值,ε为相关度阈值系数,取ε=0.5,当ε为0.5时,特征信息能更好地划分为不同的像素集合,得到的每个子集形成一个与现实景物相对应的区域,各个区域内部具有一致的属性,而相邻区域不具有所述一致的属性;
3)迭代上述步骤,直到图像中所有超像素块都完成一次特征比较,此时生成首次合并结果图;
4)第二次合并前,刷新超像素块的特征信息及重新编排顺序,之后将首次合并结果作为本次合并操作的对象进行合并,直至第一次合并结果中的超像素块都完成特征比较,生成第二次合并结果图。
现有的图像分割方法基本都是对源图像进行分割,提取的目标特征结果不够精确,尤其是分割的目标特征边缘轮廓效果不理想。本发明采用基于级联式超像素分割方法,对源图像进行级联式分割,最后使用能量滤波高低频融合规则在各个方向和各个尺度上对图像实现稀疏表示,克服伪吉布斯效应,最终实现提高图像预处理的分割精度,为后续的识别和跟踪提供了有益的分割基础。也就是说,由于单独使用Mask-RCNN存在小目标错检、漏检、重合部分分割结果不精确等问题,本发明通过建立级联式超像素分割系统对图像进行分割。首先通过Mask-RCNN进行实例分割,分割之后拆分提取单目标区域R、分割结果S0,然后对此单目标区域R进行超像素分割得到超像素分割图像QGK,最后制定相应的融合规则将超像素分割图像QGK和分割结果S0进行融合,重构出最终的融合图像Ei。本发明通过在Mask-RCNN实例分割的结果上进行超像素单目标分割,可以提高分割精度,从而为计算机视觉系统后续工作提供更精确的预处理信息。
实施例1:
车载视角单目标行人分割情况
利用几何关系建立车载摄像机模型,其中,将目标在图像平面的高度设为h,现实世界中目标的高度为168cm,摄像机的焦距设定为12.25cm,目标与摄像机的实际距离为145cm,在视频中行人目标以1.5m/s左右的速度移动,且都保持直线移动、不改变移动速度。经过实例分割,可观察到图4中目标人物轮廓分割的不够精准。在其基础上对其精度进行提高,将其送至超像素输入通道,设置空间距离权重值为65,分割块数为225,初始步长为5,进行超像素分割。分割完成之后,使用能量滤波高低频融合规则对经过配准的单目标区域R和分割结果S0进行融合,重构出最终的融合图像Ei,可观察到级联分割融合的图像轮廓精准度明显得到提高。
实施例2:
车载视角双目标行人分割情况
利用几何关系建立车载摄像机模型,其中,将目标在图像平面的高度设为h,现实世界中目标A的高度为168cm、目标B的高度为165cm,摄像机的焦距设定为11.25cm,目标A与摄像机的实际距离为120cm、目标B与摄像机的实际距离为195cm。在视频中含有双行人目标,以1.4m/s左右的速度对向移动,且都保持直线移动、不改变移动速度。经过实例分割,可观察到图8中目标人物轮廓分割的不够精准。在其基础上对其精度进行提高,将其送至超像素输入通道,设置空间距离权重值为75,分割块数为150,初始步长为5,进行超像素分割。分割完成之后,使用能量滤波高低频融合规则对经过配准的单目标区域R和分割结果S0进行融合,重构出最终的融合图像Ei,可以观察到级联式分割融合的图像轮廓精准度明显得到提高。
实施例3:
昏暗环境双目标行人分割情况
利用几何关系建立摄像机模型,其中,将目标在图像平面的高度设为h,现实世界中目标A的高度为175cm、目标B的高度为165cm,摄像机的焦距设定为12.45cm,目标A与摄像机的实际距离为115cm、目标B与摄像机的实际距离为105cm。双行人目标A、B以0.5m/s左右的速度对向移动,且都保持直线移动、不改变移动速度。经过实例分割,可观察到图11中目标人物轮廓分割的不够精准。在其基础上对其精度进行提高,将其送至超像素输入通道,设置空间距离权重值为80,分割块数为200,初始步长为6,进行超像素分割。分割完成之后,使用能量滤波高低频融合规则对经过配准的单目标区域R和分割结果S0进行融合,重构出最终的融合图像Ei,可以观察到级联式分割融合的图像轮廓精准度明显得到提高。
Claims (2)
1.一种基于级联式的图像超像素目标行人分割方法,其特征在于,包括如下步骤:
第1步,将源图像送至实例分割通道,输出实例分割图像,对实例分割图像拆分并提取单目标区域和分割结果:
(M,R,S0)=MASKRCNN(I0) (1)
其中,MASKRCNN为实例分割函数,I0为输入源图像,R为实例分割图像中拆分提取的单目标区域,S0为实例分割图像中拆分并提取的分割结果,M为实例分割图像;
其中:
实例分割图像M为源图像经过实例分割之后不进行任何处理的图像;
单目标区域R为实例分割图像M进行拆分并提取后得到的单目标区域图,其范围大于目标检测框范围;式(2)为单目标区域R个数的计算公式:
B=A±X(A∈(0,N+),B∈(0,N+),X∈(0,N+)) (2)
源图像含有A个目标对象,经过实例分割之后含有B个单目标区域R,式中X表示实例分割目标检测误差人数;
分割结果S0为实例分割图像M经过拆分并提取得到的轮廓图像,式(3)为分割结果S0个数的计算公式:
N=J±X(N∈(0,N+),J∈(0,N+),X∈(0,N+)) (3)
实例分割图像M含有J个目标对象,经过拆分并提取之后含有N个分割结果S0,式中X表示实例分割目标检测误差人数;
第2步,将单目标区域R送至超像素分割通道,输出带标签的超像素分割图像;
QGK=SLIC(R) (4)
其中,SLIC为超像素分割函数,R为实例分割图像中的提取的单目标区域,QGK为含有K个带标签的超像素分割图像;
第3步,将超像素分割图像QGK中相邻超像素块中特征相似的超像素块进行合并,用N块超像素着色信息块代替超像素分割图像中的K个超像素块,最后重构出更精准的目标对象轮廓;
PN=Cslic(QGK) (5)
其中,Cslic为SLIC合并函数,QGK为含有K个带标签的超像素分割图像,PN为重构的目标对象轮廓;
第4步,将分割结果S0和目标对象轮廓PN融合,重构出级联式分割融合图像Ei。
Ei=NSST(PN,S0) (6)
其中,NSST为非下剪切波变换多尺度分析函数,PN为目标对象轮廓,S0为实例分割图像中拆分并提取的分割结果,Ei为重构的最终融合图像;
图像融合中使用能量滤波高低频融合规则:对经过配准的分割结果S0和目标对象轮廓P采用能量滤波高低频融合规则进行预融合,低频信息融合采用基于图像引导滤波器的融合规则对低频系数进行融合,得到低频融合系数。高频信息融合对于超像素QGK中的所有像素点,利用其空间坐标找出与其对应的高频系数,并赋予其对应的标签超像素块,然后将具有相同标签的系数聚集为一个超系数块并求取每个超系数块的空间频率得到高频融合系数。最后对高频融合系数和低频融合系数进行NSST逆变换,重构出最终的融合图像Ei。
2.如权利要求1所述的基于级联式的图像超像素目标行人分割方法,其特征在于,超像素块特征合并步骤如下:
1)将超像素块设定排序,对图中相邻超像素块进行颜色与空间距离的特征差异计算,计算公式如下:
式(9)中,LAB向量采用的是CIELAB的色度空间模型,DLAB(Ri)为超像素块间颜色空间距离,R′表示非目标区域,li与lj为像素亮度的分量,ai、aj、bi、bj为颜色的分量,DXY(Ri)为位置空间距离,xi、xj、yi、yj向量获取的是像素的空间坐标值,D(Ri)为超像素距离,δ是距离权值系数,且δ∈(0,1);
2)将计算结果与预先设定的阈值进行比较,若特征结果小于阈值则将目标超像素块与相邻超像素块合并,若大于阈值则忽略该目标像素块,继续为下一超像素块进行特征检验;
根据超像素距离确定超像素区域相关度,计算公式如下:
C(Ri)=1-exp(-D(Ri)) (10)
式(10)中,C(Ri)表示超像素区域相关度,D(Ri)为超像素距离,超像素距离与区域相关度成负相关。根据相关度,确定超像素块是否符合同一目标的特征信息;
根据计算所有超像素的区域相关度,利用最大类间差法求出区域相关度阈值,提取所有符合相关度阈值的超像素块作为目标超像素,计算公式如下:
式(11)中,R*表示最终获取的目标超像素的集合,Ri为i处的目标超像素,C(Ri)表示超像素区域相关度,为区域相关度阈值,ε为相关度阈值系数,取ε=0.5,当ε为0.5时,特征信息能更好地划分为不同的像素集合,得到的每个子集形成一个与现实景物相对应的区域,各个区域内部具有一致的属性,而相邻区域不具有所述一致的属性;
3)迭代上述步骤,直到图像中所有超像素块都完成一次特征比较,此时生成首次合并结果图;
4)第二次合并前,刷新超像素块的特征信息及重新编排顺序,之后将首次合并结果作为本次合并操作的对象进行合并,直至第一次合并结果中的超像素块都完成特征比较,生成第二次合并结果图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910900391.5A CN112541930A (zh) | 2019-09-23 | 2019-09-23 | 基于级联式的图像超像素目标行人分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910900391.5A CN112541930A (zh) | 2019-09-23 | 2019-09-23 | 基于级联式的图像超像素目标行人分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112541930A true CN112541930A (zh) | 2021-03-23 |
Family
ID=75012996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910900391.5A Pending CN112541930A (zh) | 2019-09-23 | 2019-09-23 | 基于级联式的图像超像素目标行人分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112541930A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113298809A (zh) * | 2021-06-25 | 2021-08-24 | 成都飞机工业(集团)有限责任公司 | 基于深度学习和超像素分割的复材超声图像缺陷检测方法 |
CN113807349A (zh) * | 2021-09-06 | 2021-12-17 | 海南大学 | 基于物联网的多视角目标识别方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150234863A1 (en) * | 2014-02-18 | 2015-08-20 | Environmental Systems Research Institute (ESRI) | Automated feature extraction from imagery |
CN106780505A (zh) * | 2016-06-20 | 2017-05-31 | 大连民族大学 | 基于区域能量的超像素显著目标检测算法 |
US20180247126A1 (en) * | 2017-02-24 | 2018-08-30 | Beihang University | Method and system for detecting and segmenting primary video objects with neighborhood reversibility |
CN109360163A (zh) * | 2018-09-26 | 2019-02-19 | 深圳积木易搭科技技术有限公司 | 一种高动态范围图像的融合方法及融合系统 |
-
2019
- 2019-09-23 CN CN201910900391.5A patent/CN112541930A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150234863A1 (en) * | 2014-02-18 | 2015-08-20 | Environmental Systems Research Institute (ESRI) | Automated feature extraction from imagery |
CN106780505A (zh) * | 2016-06-20 | 2017-05-31 | 大连民族大学 | 基于区域能量的超像素显著目标检测算法 |
US20180247126A1 (en) * | 2017-02-24 | 2018-08-30 | Beihang University | Method and system for detecting and segmenting primary video objects with neighborhood reversibility |
CN109360163A (zh) * | 2018-09-26 | 2019-02-19 | 深圳积木易搭科技技术有限公司 | 一种高动态范围图像的融合方法及融合系统 |
Non-Patent Citations (2)
Title |
---|
DAWEI YANG等: "A Superpixel Segmentation Algorithm with Region Correlation Saliency Analysis for Video Pedestrian Detection", PROCEEDINGS OF THE 36TH CHINESE CONTROL CONFERENCE * |
马雪 等: "粗细粒度超像素行人目标分割算法", 大连民族大学学报 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113298809A (zh) * | 2021-06-25 | 2021-08-24 | 成都飞机工业(集团)有限责任公司 | 基于深度学习和超像素分割的复材超声图像缺陷检测方法 |
CN113298809B (zh) * | 2021-06-25 | 2022-04-08 | 成都飞机工业(集团)有限责任公司 | 基于深度学习和超像素分割的复材超声图像缺陷检测方法 |
CN113807349A (zh) * | 2021-09-06 | 2021-12-17 | 海南大学 | 基于物联网的多视角目标识别方法及系统 |
CN113807349B (zh) * | 2021-09-06 | 2023-06-20 | 海南大学 | 基于物联网的多视角目标识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Petrovai et al. | Exploiting pseudo labels in a self-supervised learning framework for improved monocular depth estimation | |
Bruls et al. | The right (angled) perspective: Improving the understanding of road scenes using boosted inverse perspective mapping | |
CN111079685A (zh) | 一种3d目标检测方法 | |
CN109145798B (zh) | 一种驾驶场景目标识别与可行驶区域分割集成方法 | |
Salih et al. | Comparison of stochastic filtering methods for 3D tracking | |
CN110826389B (zh) | 基于注意力3d频率卷积神经网络的步态识别方法 | |
CN104966054B (zh) | 无人机可见光图像中的弱小目标检测方法 | |
CN112215074A (zh) | 基于无人机视觉的实时目标识别与检测追踪系统及方法 | |
CN103268482B (zh) | 一种低复杂度的手势提取和手势深度获取方法 | |
Liu et al. | Vision-based environmental perception for autonomous driving | |
Tarchoun et al. | Hand-Crafted Features vs Deep Learning for Pedestrian Detection in Moving Camera. | |
CN115063717A (zh) | 一种基于重点区域实景建模的视频目标检测与跟踪方法 | |
CN114973199A (zh) | 一种基于卷积神经网络的轨道交通列车障碍物检测方法 | |
Burlacu et al. | Obstacle detection in stereo sequences using multiple representations of the disparity map | |
CN118097150A (zh) | 一种小样本伪装目标分割方法 | |
CN112541930A (zh) | 基于级联式的图像超像素目标行人分割方法 | |
Harianto et al. | Data augmentation and faster rcnn improve vehicle detection and recognition | |
Tu et al. | A biologically inspired vision-based approach for detecting multiple moving objects in complex outdoor scenes | |
Teutsch | Moving object detection and segmentation for remote aerial video surveillance | |
CN115880662A (zh) | 利用异类传感器的协同作用进行自主驾驶的3d目标检测方法 | |
Yu et al. | VIFNet: An end-to-end visible-infrared fusion network for image dehazing | |
Dike et al. | Unmanned aerial vehicle (UAV) based running person detection from a real-time moving camera | |
CN114494594A (zh) | 基于深度学习的航天员操作设备状态识别方法 | |
Rahaman et al. | Lane detection for autonomous vehicle management: PHT approach | |
CN112396637A (zh) | 一种基于3d神经网络的动态行为识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210323 |
|
RJ01 | Rejection of invention patent application after publication |