Nothing Special   »   [go: up one dir, main page]

CN105005989B - 一种弱对比度下的车辆目标分割方法 - Google Patents

一种弱对比度下的车辆目标分割方法 Download PDF

Info

Publication number
CN105005989B
CN105005989B CN201510374899.8A CN201510374899A CN105005989B CN 105005989 B CN105005989 B CN 105005989B CN 201510374899 A CN201510374899 A CN 201510374899A CN 105005989 B CN105005989 B CN 105005989B
Authority
CN
China
Prior art keywords
mrow
msub
gradient
filter
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510374899.8A
Other languages
English (en)
Other versions
CN105005989A (zh
Inventor
刘占文
赵祥模
沈超
段宗涛
高涛
樊星
王润民
徐江
周经美
陈婷
林杉
郝茹茹
周洲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changan University
Original Assignee
Changan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changan University filed Critical Changan University
Priority to CN201510374899.8A priority Critical patent/CN105005989B/zh
Publication of CN105005989A publication Critical patent/CN105005989A/zh
Application granted granted Critical
Publication of CN105005989B publication Critical patent/CN105005989B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种弱对比度下的车辆目标分割方法,步骤1:对训练图像采用多示例学习的方法进行显著模型建模;然后利用显著模型对测试图像中的包和示例进行预测,得到测试图像的显著度图;步骤2:将测试图像的显著度引入图割框架,依据示例特征矢量与示例包的标记对图割框架进行优化,求解图割优化的次优解,得到目标的精确分割。本发明的借鉴人类的视觉注意机制,结合基于图论的图像分割方法,建立一种基于视觉显著性特征的车辆目标分割模型,不仅能在良好环境条件下准确分割完整车辆,并且具有一定的适应性和鲁棒性,能在夜间环境、阴影遮挡情况下较为准确地分割出交通场景中的弱对比度车辆目标。

Description

一种弱对比度下的车辆目标分割方法
技术领域
本发明属于图像处理领域,涉及一种图像分割方法,具体是一种弱对比度下的车辆目标分割方法。
背景技术
随着科学技术的进步,智能交通系统(ITS)已成为人类提高交通智能化程度和交通管理水平的重要手段。特别是随着计算机技术和传感器技术的快速发展,基于机器视觉的车辆检测与监控成为了ITS中一个重要组成部分,对于完善ITS中的交通管理、交通信息采集、紧急事件管理及救援等都具有重要的作用。从交通监控图像中对感兴趣的车辆目标进行分割提取是基于机器视觉的车辆检测与车辆监控系统中的关键技术,其分割结果的精度直接影响车辆检测的准确性,以及为后续车型分类、车辆识别与跟踪等处理。目前许多关于图像分割的传统方法用于车辆目标的分割,如基于区域信息的图像分割方法、基于边缘信息的图像分割方法、基于特征空间的图像分割方法、基于阈值的图像分割方法等,这些方法都存在不同的阈值设置会导致分割结果与分割质量差异很大,鲁棒性差的缺点;近年来基于图论的图像分割技术在近30年引起了学者们的广泛关注,成为图像分割领域的一个较新的研究热点。基于图论的图像分割技术成功的将图像元素映射到图中进行图像分割以获取感兴趣区域,例如基于多尺度图分解的谱分割方法、直接采用亮度和色彩特征的图割方法(即申请号为201210257591.1的专利中方法)等,这些方法用于车辆目标分割,在白天有日光阴影的情况下能够较好地对车辆目标进行分割,但仍存在环境适应性较差等缺点,尤其是对于复杂交通场景、夜间场景或恶劣天气(如大雾、雨雪等)下的弱对比度目标分割难以获得令人满意的分割效果。
发明内容
针对上述现有技术存在的不足,本发明的目的在于,借鉴人类的视觉注意机制,结合基于图论的图像分割方法,建立一种基于视觉显著性特征的车辆目标分割模型,不仅能在良好环境条件下准确分割完整车辆,并且具有一定的适应性和鲁棒性,能在夜间环境、阴影遮挡情况下较为准确地分割出交通场景中的弱对比度车辆目标。
一种弱对比度下的车辆目标分割方法,具体包括如下步骤:
步骤1:对训练图像采用多示例学习的方法进行显著模型建模;然后利用显著模型对测试图像中的包和示例进行预测,得到测试图像的显著度图;具体包括:
步骤11,对训练图像进行预处理,并提取图像亮度梯度特征、色彩梯度特征与纹理梯度特征;
步骤12,将多示例学习引入到图像显著性检测中,得到测试图像的显著性检测结果;
步骤2:将测试图像的显著度引入图割框架,依据示例特征矢量与示例包的标记对图割框架进行优化,求解图割优化的次优解,得到目标的精确分割。
进一步的,所述步骤11中对训练图像进行预处理,并提取亮度梯度特征、色彩梯度特征与纹理梯度特征,具体包括步骤111~步骤113:
步骤111,对训练图像进行色彩空间的转换及其各分量的量化预处理,得到归一化后的亮度分量L和色彩分量a、b;
步骤112,计算亮度分量L的矩阵对应的每一个像素点的亮度梯度;
步骤113,分别计算色彩分量a和色彩分量b的矩阵中每一个像素点的色彩梯度;
步骤114,计算每一个像素点的纹理梯度。
进一步的,所述步骤111具体如下:
首先,将训练图像进行伽马校正,以实现对图像色彩分量的非线性调整,将训练图像由RGB色彩空间转换至Lab色彩空间;再对训练图像在Lab色彩空间下的亮度分量L和两个色彩分量a、b进行归一化处理,得到归一化后的亮度分量L和色彩分量a、b。
进一步的,所述步骤113具体包括步骤A-D:
A、构建3个尺度的权值矩阵Wights<>;
B、构建3个尺度的索引地图矩阵Slice_map<>;每个尺度的索引地图矩阵Slice_map<>对应尺度的权值矩阵Wights<>具有相同的维度,即每个索引地图Slice_map<>矩阵也是行数和列数都为2r+1的方阵;选取8个方向(0°、22.5°、45°、67.5°、90°、112.5°、135°、157.5°)将矩阵分为16个区域,每个区域中元素的取值与该区域的编号0~15相同;
C、将每个索引地图矩阵Slice_map<>与其对应尺度的权值矩阵Wights<>中的元素一一对应相乘得到对应尺度的矩阵,即邻域梯度算子;
D、利用邻域梯度算子,计算亮度分量L的矩阵中一个待求像素点的亮度梯度。
进一步的,所述步骤A具体如下:
分别构建3个尺度的权值矩阵Wights<>;所述的权值矩阵Wights<>是行数和列数均等于2r+1的方阵;权值矩阵Wights<>中的元素非0即1,等于1的元素分布在以方阵中心元素(r+1,r+1)为圆心、以r为半径的圆盘范围内,形成方阵的内切圆,方阵中其余元素均为0;3个尺度分别为r=3、r=5和r=10。
进一步的,所述步骤D具体如下:
①对于某一个尺度,以步骤111得到的亮度分量L的矩阵中一待求像素点为中心,通过某一尺度的邻域梯度算子与待求像素点邻域范围内的每个亮度分量进行点乘,得到待求像素点邻域范围内的矩阵Neibor<>;选取竖直方向(90°)的直线作为分界线,将邻域梯度算子中的圆盘划分成左半圆和右半圆,左半圆包括第0扇区到第7扇区,右半圆包括第8扇区到第15扇区;每个半圆对应的矩阵Neibor<>的元素构成一个直方图并对其进行归一化,分别记为Slice_hist1<>和Slice_hist2<>;H1代表左边半圆区域所对应的直方图,H2代表右边半圆区域所对应的直方图,i为直方图的bin的取值,定义为[0,24],即亮度范围。
②通过式(1)所示的卡方距离计算两个归一化直方图之间的差异,即得到某一尺度下一个待求像素点的竖直方向上的亮度梯度;
在计算完某一尺度竖直方向上的亮度梯度之后,分别选取其他方向所在直线作为分界线,得到该待求像素点某一尺度所有其他方向上的亮度梯度;再根据步骤D同样的方式计算得到该待求像素点其他尺度上的所有方向的亮度梯度。当完成该待求像素点所有尺度所有方向上的亮度梯度计算后,由公式(2)计算该待求像素点的最终亮度梯度:
f(x,y,r,n_ori;r=3,5,10;n_ori=1,2,......8)->Brightness Gradient(x,y) (2)
式中,f为一映射函数,(x,y)为任一待求像素点,r表示选取的尺度,n_ori表示选取的方向;Brightness Gradient(x,y)为像素点(x,y)的最终亮度梯度;f的对应法则为选择每个方向在3个尺度中的最大亮度梯度值作为该方向上的亮度梯度值,将8个方向上的亮度梯度求和得到像素点(x,y)的最终亮度梯度。
进一步的,所述步骤114具体如下:
A、构建多尺度纹理滤波器组集合Filters(x,y)(nf,filter,r,θ),nf表示滤波器的个数,filter表示滤波器种类的集合,r表示尺度,θ表示选取的方向;
B、计算训练图像中每一个像素点相应的纹理滤波响应向量,即Tex(x,y)=(fil1,fil2,fil3...,filnf),具体如下:
将灰度图像Igray(x,y)与构建的多尺度纹理滤波器集合Filters(x,y)[nf,filter,r,θ]在像素点(x,y)为中心的相应尺度邻域内进行卷积,得到像素点(x,y)的纹理滤波响应向量。如尺度r=5时,在以某一像素为中心的11*11邻域内进行卷积,即Igray(x,y)*Filters(nf,filter,r,θ),其中nf=17,filter=(filcs,fil1,fil2),r=5,θ=0°、22.5°、45°、67.5°、90°、112.5°、135°、157.5°;得到像素点(x,y)的纹理滤波响应向量Tex(x,y)=(fil1,fil2,fil3...,fil17)。
以上述方法分别计算r=5、r=10、r=20时以某一像素点(x,y)为中心的相应尺度邻域的纹理特征向量,得到某一像素点(x,y)相应的纹理滤波响应向量Tex(x,y)=(fil1,fil2,fil3...,fil51)。
C、构建纹理基元直方图;具体如下:
采用K-means方法对训练图像中所有像素点(x,y)的纹理滤波响应向量进行聚类,聚类过程中,取K=32作为初始值,共得到32个聚类中心,将得到的32个聚类中心对应的纹理滤波响应向量取出作为纹理基元,当作纹理特征统计直方图中的32个bin标记以构建纹理基元直方图;
D、计算每一个像素点的纹理梯度;具体如下:
首先采用步骤112中的步骤A-C,得到3个尺度下的邻域梯度算子,对于某一尺度,以某一待求像素点(x,y)为中心,通过该尺度的邻域梯度算子中的每一个元素与其对应的纹理滤波响应向量进行相乘运算,得到该像素点的邻域矩阵组Neibor[<>],选取竖直方向(90°)的直线作为分界线,将尺度邻域范围内的圆盘划分成左半圆和右半圆,左半圆包括第0扇区到第7扇区,右半圆包括第8扇区到第15扇区;每个半圆对应的邻域矩阵组Neibor[<>]的元素构成一个纹理基元直方图;H1代表左边半圆区域所对应的直方图,H2代表右边半圆区域所对应的直方图,由步骤C给出直方图的bin标记;与步骤112的步骤D中的②步骤相同,求得训练图像中每个待求像素点的最终纹理梯度,记为TextureGradient(x,y)。
进一步的,所述步骤A具体如下:
将训练图像转换成灰度图像,记为Igray(x,y),并对灰度图像Igray(x,y)的每一个像素点(x,y)的灰度分量进行归一化;选取三种滤波器,分别为高斯二阶偏导滤波器及其希尔伯特变换后的滤波器与中心环绕滤波器;从8个方向以及3个尺度构建多尺度纹理滤波器集合,记为Filters(x,y)[nf,filter,r,θ],其中,nf表示滤波器的个数,filter表示滤波器种类的集合,r表示尺度,θ表示选取的方向;nf=51,filter=(filcs,fil1,fil2),r=5、10、20,θ=0°、22.5°、45°、67.5°、90°、112.5°、135°、157.5°;多尺度纹理滤波器集合Filters(x,y)[nf,filter,r,θ];如式5、6、7所示:
8个方向3个尺度的高斯二阶偏导滤波器:
8个方向3个尺度的高斯二阶偏导希尔伯特变换后的滤波器:
f2(x,y)=Hilbert(f1(x,y)) (6)
3个尺度的中心环绕滤波器:
Gaussian_cs<>=m_surround<>-m_center<> (7)
环绕滤波器、中心滤波器、高斯二阶偏导滤波器及其希尔伯特变换滤波器对应的标准差σ值分别为2及
进一步的,所述步骤12中将多示例学习引入至图像显著性检测得到测试图像的显著性检测结果,具体包括步骤121和步骤122:
步骤121,利用步骤11中所述方法得到的亮度、色彩和纹理梯度特征,结合多示例学习EMDD算法实现对训练集的学习,得到学习好的显著性检测模型;
步骤122,将测试图像代入学习好的显著性检测模型得到测试图像的显著性检测结果。
进一步的,所述步骤2具体包括如下步骤:
步骤21,将步骤1得到的图像的显著性检测结果作为图割算法的输入,依据包的显著性标记与示例特征矢量构建如式(3)所示的权函数;并得到如式(4)所示的优化后的图割代价函数;
式(3)中,wij表示i示例包与j示例包对应区域的视觉特征相似性,Salien(i)与Salien(j)分别表示区域i与区域j归一化后的显著度值,σ为调节视觉特征差异的敏感参数,取值为10~20;区域i与其自身的相似权值为0;相似度矩阵W={wij}是对角线为0的对称矩阵,且wij∈[0,1];fi,fj分别表示i与j示例包中分别对应的示例特征矢量,即图像的亮度梯度特征、色彩梯度特征与纹理梯度特征向量合成4维的组合向量Mixvectori={BrightnessGradienti,ColorGradienti,TextureGradienti},则Sim(fi,fj)=||Mixvectori-Mixvectorj||2;式(4)所表示的图割框架中,D为N维对角矩阵,其对角线上元素为分割状态向量,每一个向量分量Ui表示区域i的分割状态;式(4)的分子表示区域i与区域j之间的视觉相似性,分母表示区域i内的视觉相似性;
步骤22,采用凝聚层次聚类算法,求解R(U)的最小值特征值所对应的分割状态向量,即得到图像的最优分割结果。
附图说明
图1是本发明方法的流程图。
图2是申请号为201210257591.1的专利中方法、基于多尺度图分解的谱分割方法与本发明的基于多示例学习与图割优化的目标分割方法的分割结果的对比示意图。
图3是圆盘左右分区示意图。
图4是亮度H1,H2直方图示意图。
图5是改变圆盘分界线方向示意图。
图6是纹理基元直方图形成示意图。
图7是纹理H1,H2直方图示意图。
以下结合附图与具体实施方式对本发明进一步解释说明。
具体实施方式
如图1所示,本发明给出的弱对比度下的车辆目标分割方法,具体包括如下步骤:
步骤1:选取夜间高速公路道路图像作为训练图像,对训练图像采用多示例学习的方法进行显著模型建模;然后利用显著模型对测试图像中的包和示例进行预测,得到测试图像的显著度图;
步骤2:将测试图像的显著度引入图割框架,依据示例特征矢量与示例包的标记对图割框架进行优化,采用凝聚层次聚类算法求解图割优化的次优解,得到目标的精确分割。
进一步的,所述的步骤1具体包括步骤11和步骤12:
步骤11,对训练图像进行预处理,并提取图像亮度梯度特征、色彩梯度特征与纹理梯度特征;
步骤12,将多示例学习引入到图像显著性检测中,得到测试图像的显著性检测结果。
进一步的,所述步骤11中对训练图像进行预处理,并提取亮度梯度特征、色彩梯度特征与纹理梯度特征,具体包括步骤111~步骤113:
步骤111,对训练图像进行色彩空间的转换及其各分量的量化预处理,得到归一化后的亮度分量L和色彩分量a、b;具体如下:
首先,将训练图像进行伽马校正,以实现对图像色彩分量的非线性调整,将训练图像由RGB色彩空间转换至Lab色彩空间;再对训练图像在Lab色彩空间下的亮度分量L和两个色彩分量a、b进行归一化处理,得到归一化后的亮度分量L和色彩分量a、b;
完成训练图像的预处理之后,本发明对训练图像中车辆阴影特征进行分析,为接下来的梯度特征选取提供理论依据。训练图像都是具有夜间典型特征的道路图像,由于夜间行车,每幅训练图像中的车辆目标都存在阴影干扰的情况,车辆阴影的存在会导致车体区域的扩大变形,甚至造成多车相连,严重影响车体的准确分割及车体信息的提取,而且夜间车灯的光照范围和强度也会在一定程度上影响目标分割,要得到好的分割效果就要消除由光照而形成的阴影。
阴影是由于光源发出的光受到场景内物体的遮挡而产生的一种物理现象,包括自阴影和投射阴影。自阴影是由于物体本身阻挡光源造成光照不均而显得较暗的部分;投射阴影是指物体在其他物体表面(如道路)上的影子。由大量包含夜间高速公路行驶的车辆及其阴影的训练图像,可以得出阴影区别于车辆目标的特征主要为:
(1)阴影所覆盖的路面的颜色和纹理不会发生显著性的改变。
(2)一般情况下投射阴影亮度低于背景亮度,且相对于背景区域的亮度增益是一小于1的数值;但在有车辆远光大灯的干扰下则相反。
(3)阴影内部区域的灰度值变化不剧烈,在梯度上表现为平坦的,或是局部平坦的。
综上分析,本发明采用训练图像的亮度梯度特征、色彩梯度特征与纹理梯度特征进行显著性模型的学习。
步骤112,计算亮度分量L的矩阵对应的每一个像素点的亮度梯度。具体包括步骤A-D:
A、构建3个尺度的权值矩阵Wights<>。具体如下:
分别构建3个尺度的权值矩阵Wights<>;所述的权值矩阵Wights<>是行数和列数均等于2r+1的方阵;权值矩阵Wights<>中的元素非0即1,等于1的元素分布在以方阵中心元素(r+1,r+1)为圆心、以r为半径的圆盘范围内,形成方阵的内切圆,方阵中其余元素均为0;本发明中,3个尺度分别为r=3、r=5和r=10时,分别对应的权值矩阵Wights<>如下:
B、构建3个尺度的索引地图矩阵Slice_map<>;每个尺度的索引地图矩阵Slice_map<>对应尺度的权值矩阵Wights<>具有相同的维度,即每个索引地图Slice_map<>矩阵也是行数和列数都为2r+1的方阵;选取8个方向(0°、22.5°、45°、67.5°、90°、112.5°、135°、157.5°)将矩阵分为16个区域,每个区域中元素的取值与该区域的编号0~15相同;建立索引地图矩阵Slice_map<>的目的是为了实现对分区的快速定位。本发明中,3个索引地图矩阵Slice_map<>分别如下:
C、将每个索引地图矩阵Slice_map<>与其对应尺度的权值矩阵Wights<>中的元素一一对应相乘得到对应尺度的矩阵,即邻域梯度算子。3个尺度下的邻域梯度算子如下:
D、利用邻域梯度算子,计算亮度分量L的矩阵中一个待求像素点的亮度梯度。具体如下:
①对于某一个尺度,以步骤111得到的亮度分量L的矩阵中一待求像素点为中心,通过某一尺度的邻域梯度算子与待求像素点邻域范围内的每个亮度分量进行点乘,得到待求像素点邻域范围内的矩阵Neibor<>;选取竖直方向(90°)的直线作为分界线,将邻域梯度算子中的圆盘划分成左半圆和右半圆,左半圆包括第0扇区到第7扇区,右半圆包括第8扇区到第15扇区;每个半圆对应的矩阵Neibor<>的元素构成一个直方图并对其进行归一化,分别记为Slice_hist1<>和Slice_hist2<>;如图4所示。H1代表左边半圆区域所对应的直方图,H2代表右边半圆区域所对应的直方图,i为直方图的bin的取值,定义为[0,24],即亮度范围。
②通过式(1)所示的卡方距离计算两个归一化直方图之间的差异,即得到某一尺度下一个待求像素点的竖直方向上的亮度梯度;
在计算完某一尺度竖直方向上的亮度梯度之后,如图5所示,分别选取其他方向所在直线作为分界线,得到该待求像素点某一尺度所有其他方向上的亮度梯度;再根据步骤D同样的方式计算得到该待求像素点其他尺度上的所有方向的亮度梯度。当完成该待求像素点所有尺度所有方向上的亮度梯度计算后,由公式(2)计算得到该待求像素点的最终亮度梯度:
f(x,y,r,n_ori;r=3,5,10;n_ori=1,2,......8)->Brightness Gradient(x,y) (2)
式中,f为一映射函数,(x,y)为任一待求像素点,r表示选取的尺度,n_ori表示选取的方向;Brightness Gradient(x,y)为像素点(x,y)的最终亮度梯度;f的对应法则为选择每个方向在3个尺度中的最大亮度梯度值作为该方向上的亮度梯度值,将8个方向上的亮度梯度求和得到像素点(x,y)的最终亮度梯度;
步骤113,分别计算色彩分量a和色彩分量b的矩阵中每一个像素点的色彩梯度。具体如下:
色彩梯度的计算与亮度梯度的计算类似,不同的是色彩梯度特征是针对两个色彩分量的色彩梯度,即Lab色彩空间下的色彩分量a和b;与亮度梯度的计算不同之处在于,选取的3个尺度分别为r=5、r=10和r=20;因此,相应的权值矩阵和地图索引矩阵的大小分别为11*11、21*21和41*41;两个色彩分量的色彩梯度的计算和亮度梯度采用相同的计算方法,得到色彩分量a和b矩阵中每个待求像素点的最终色彩梯度。
步骤114,计算每一个像素点的纹理梯度。具体如下:
A、构建多尺度纹理滤波器组集合Filters(x,y)(nf,filter,r,θ),nf表示滤波器的个数,filter表示滤波器种类的集合,r表示尺度,θ表示选取的方向。具体如下:
将训练图像转换成灰度图像,记为Igray(x,y),并对灰度图像Igray(x,y)的每一个像素点(x,y)的灰度分量进行归一化;选取三种滤波器,分别为高斯二阶偏导滤波器(记为fil1<>)及其希尔伯特变换后的滤波器(记为fil2<>)与中心环绕滤波器(记为Gaussian_cs<>);从8个方向以及3个尺度构建多尺度纹理滤波器集合,记为Filters(x,y)[nf,filter,r,θ],其中,nf表示滤波器的个数,filter表示滤波器种类的集合,r表示尺度,θ表示选取的方向;nf=51,filter=(filcs,fil1,fil2),r=5、10、20,θ=0°、22.5°、45°、67.5°、90°、112.5°、135°、157.5°;多尺度纹理滤波器集合Filters(x,y)[nf,filter,r,θ]。如式5、6、7所示:
8个方向3个尺度的高斯二阶偏导滤波器:
8个方向3个尺度的高斯二阶偏导希尔伯特变换后的滤波器:
f2(x,y)=Hilbert(f1(x,y)) (6)
3个尺度的中心环绕滤波器:
Gaussian_cs<>=m_surround<>-m_center<> (7)
滤波器组集合Filters(x,y)[nf,filter,r,θ]中的中心环绕滤波器没有方向性,是环绕滤波器和中心滤波器之差。环绕滤波器和中心滤波器都是高斯二阶偏导滤波器。环绕滤波器、中心滤波器、高斯二阶偏导滤波器及其希尔伯特变换滤波器对应的标准差σ值分别为 2及
B、计算训练图像中每一个像素点相应的纹理滤波响应向量,即Tex(x,y)=(fil1,fil2,fil3...,filnf),具体如下:
将灰度图像Igray(x,y)与构建的多尺度纹理滤波器集合Filters(x,y)[nf,filter,r,θ]在像素点(x,y)为中心的相应尺度邻域内进行卷积,得到像素点(x,y)的纹理滤波响应向量。如尺度r=5时,在以某一像素为中心的11*11邻域内进行卷积,即Igray(x,y)*Filters(nf,filter,r,θ),其中nf=17,filter=(filcs,fil1,fil2),r=5,θ=0°、22.5°、45°、67.5°、90°、112.5°、135°、157.5°;得到像素点(x,y)的纹理滤波响应向量Tex(x,y)=(fil1,fil2,fil3...,fil17)。
以上述方法分别计算r=5、r=10、r=20时以某一像素点(x,y)为中心的相应尺度邻域的纹理特征向量,得到某一像素点(x,y)相应的纹理滤波响应向量Tex(x,y)=(fil1,fil2,fil3...,fil51)。
C、构建纹理基元直方图。具体如下:
采用K-means方法对训练图像中所有像素点(x,y)的纹理滤波响应向量进行聚类,聚类过程中,取K=32作为初始值,共得到32个聚类中心,将得到的32个聚类中心对应的纹理滤波响应向量取出作为纹理基元,当作纹理特征统计直方图中的32个bin标记以构建纹理基元直方图;如图6所示。
D、计算每一个像素点的纹理梯度。具体如下:
首先采用步骤112中的步骤A-C,得到3个尺度下的邻域梯度算子,对于某一尺度,以某一待求像素点(x,y)为中心,通过该尺度的邻域梯度算子中的每一个元素与其对应的纹理滤波响应向量进行相乘运算,得到该像素点的邻域矩阵组Neibor[<>],选取竖直方向(90°)的直线作为分界线,将尺度邻域范围内的圆盘划分成左半圆和右半圆,左半圆包括第0扇区到第7扇区,右半圆包括第8扇区到第15扇区;每个半圆对应的邻域矩阵组Neibor[<>]的元素构成一个纹理基元直方图;如图7所示。H1代表左边半圆区域所对应的直方图,H2代表右边半圆区域所对应的直方图,由步骤C给出直方图的bin标记。与步骤112的步骤D中的②步骤相同,求得训练图像中每个待求像素点的最终纹理梯度,记为TextureGradient(x,y)。
进一步的,步骤12中将多示例学习引入至图像显著性检测得到测试图像的显著性检测结果,具体包括步骤121和步骤122:
步骤121,利用步骤11中所述方法得到的亮度、色彩和纹理梯度特征,结合多示例学习EMDD算法实现对训练集的学习,得到学习好的显著性检测模型。具体步骤如下:
首先采用超分割方法对训练图像进行区域分割,使每个区域包含的最小像素数目为200;每个区域被当作一个包,对每个区域进行随机采样,被采样的区域中的像素被当作示例,提取相应的亮度梯度特征与色彩梯度特征矢量作为采样示例特征矢量;根据采样示例特征矢量,采用多示例学习方法EMDD算法进行分类器的训练,得到学习好的显著性检测模型;
步骤122,将测试图像代入学习好的显著性检测模型,得到测试图像的显著性检测结果。
对每一幅测试图像,利用与步骤11相同的过程对测试图像进行预处理,得到亮度梯度特征和色彩梯度特征;然后采用超分割方法对测试图像进行区域分割,使每个区域包含的最小像素数目为200;将每个区域当作一个包并对每个区域进行随机采样,被采样的区域中像素被当作示例,提取相应的亮度梯度特征与色彩梯度特征矢量作为采样示例特征矢量,利用步骤121得到的学习好的显著性检测模型,得到显著的示例特征矢量和每个包的显著性,从而得到测试图像的显著性检测结果。
进一步的,所述的步骤2具体包括如下步骤:
步骤21,将步骤1得到的图像的显著性检测结果作为图割算法的输入,依据包的显著性标记与示例特征矢量构建如式(3)所示的权函数;并得到如式(4)所示的优化后的图割代价函数;
式(3)中,wij表示i示例包与j示例包对应区域的视觉特征相似性,Salien(i)与Salien(j)分别表示区域i与区域j归一化后的显著度值,σ为调节视觉特征差异的敏感参数,取值为10~20;区域i与其自身的相似权值为0;相似度矩阵W={wij}是对角线为0的对称矩阵,且wij∈[0,1];fi,fj分别表示i与j示例包中分别对应的示例特征矢量,即图像的亮度梯度特征、色彩梯度特征与纹理梯度特征向量合成4维的组合向量Mixvectori={BrightnessGradienti,ColorGradienti,TextureGradienti},则Sim(fi,fj)=||Mixvectori-Mixvectorj||2。式(4)所表示的图割框架中,D为N维对角矩阵,其对角线上元素为分割状态向量,每一个向量分量Ui表示区域i的分割状态;式(4)的分子表示区域i与区域j之间的视觉相似性,分母表示区域i内的视觉相似性;
步骤22,采用凝聚层次聚类算法,求解R(U)的最小值特征值所对应的分割状态向量,即得到图像的最优分割结果。
其中,所属凝聚层次聚类算法是指专利申请号为201210257591.1的方法的步骤2和步骤3的方法。
试验验证
为验证本发明方法的有效性,采用通用的道路交通信息采集与检测系统中线阵CCD摄像机采集的夜间高速公路道路图像数据作为研究对象,选取其中200张包含车辆目标且具有夜间典型特征的道路图像,将100张图像作为训练图像,学习高速公路夜间行驶车辆目标的底层视觉特征,采用本发明方法对剩余的100张图像进行车辆目标的分割。列举部分实验结果如图2所示,图2分别给出了基于多尺度图分解的谱分割算法对测试图像的分割结果与采用本发明方法的分割结果。说明如下:
图2中子图(a‐1)至(a‐5)为原始图像,子图(b‐1)至(b‐5)为基于多尺度图分解的谱分割算法的分割结果,子图(c‐1)至(c‐5)为本发明方法。通过实验结果对比,可以看出,基于多尺度图分解的谱分割算法对于相对路面对比度较高的车辆目标能够得到较为完整的车辆目标,如图(a‐1)中间的白色车辆目标与图(a‐4)中间的白色车辆目标,但对于弱对比度车辆目标基本是分割失败的,而论文算法能够将夜间高速公路道路图像中大部分的车辆目标分割出来,尤其是弱对比度车辆目标的分割效果要明显优于基于多尺度图分解的谱分割算法。因为本发明方法结合多示例学习方法可以很快得到图像中的显著区域标记,且每个示例包中的示例特征矢量包含了反映目标信息的底层视觉特征和目标轮廓的中高层特征,在粗化伊始,就考虑了图像的全面特征为后续处理提供了较为准确的分割依据,因此当目标与背景边界过渡缓慢且差异极小,对比度弱的情况,依然能够得到较好的分割结果。

Claims (9)

1.一种弱对比度下的车辆目标分割方法,其特征在于,具体包括如下步骤:
步骤1:对训练图像采用多示例学习的方法进行显著模型建模;然后利用显著模型对测试图像中的包和示例进行预测,得到测试图像的显著度图;具体包括:
步骤11,对训练图像进行预处理,并提取图像亮度梯度特征、色彩梯度特征与纹理梯度特征;
步骤12,将多示例学习引入到图像显著性检测中,得到测试图像的显著性检测结果;
步骤2:将测试图像的显著度引入图割框架,依据示例特征矢量与示例包的标记对图割框架进行优化,求解图割优化的次优解,得到目标的精确分割;
所述步骤2具体包括如下步骤:
步骤21,将步骤1得到的图像的显著性检测结果作为图割算法的输入,依据包的显著性标记与示例特征矢量构建如式(3)所示的权函数;并得到如式(4)所示的优化后的图割代价函数;
<mrow> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mo>&amp;lsqb;</mo> <mi>S</mi> <mi>a</mi> <mi>l</mi> <mi>i</mi> <mi>e</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>+</mo> <mi>S</mi> <mi>a</mi> <mi>l</mi> <mi>i</mi> <mi>e</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mi>S</mi> <mi>i</mi> <mi>m</mi> <mo>(</mo> <mrow> <msub> <mi>f</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>f</mi> <mi>j</mi> </msub> </mrow> <mo>)</mo> <mo>/</mo> <msup> <mi>&amp;delta;</mi> <mn>2</mn> </msup> <mo>)</mo> </mrow> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mo>&amp;NotEqual;</mo> <mi>j</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mi>i</mi> <mo>=</mo> <mi>j</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <mi>R</mi> <mrow> <mo>(</mo> <mi>U</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <munder> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>&gt;</mo> <mi>j</mi> </mrow> </munder> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <msup> <mrow> <mo>(</mo> <mrow> <msub> <mi>U</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>U</mi> <mi>j</mi> </msub> </mrow> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> <mrow> <munder> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>&gt;</mo> <mi>j</mi> </mrow> </munder> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <msub> <mi>U</mi> <mi>i</mi> </msub> <msub> <mi>U</mi> <mi>j</mi> </msub> </mrow> </mfrac> <mo>=</mo> <mfrac> <mrow> <msup> <mi>U</mi> <mi>T</mi> </msup> <mrow> <mo>(</mo> <mrow> <mi>D</mi> <mo>-</mo> <mi>W</mi> </mrow> <mo>)</mo> </mrow> <mi>U</mi> </mrow> <mrow> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <msup> <mi>U</mi> <mi>T</mi> </msup> <mi>W</mi> <mi>U</mi> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
式(3)中,wij表示i示例包与j示例包对应区域的视觉特征相似性,Salien(i)与Salien(j)分别表示区域i与区域j归一化后的显著度值,δ为调节视觉特征差异的敏感参数,取值为10~20;区域i与其自身的相似权值为0;相似度矩阵W={wij}是对角线为0的对称矩阵,且wij∈[0,1];fi,fj分别表示i与j示例包中分别对应的示例特征矢量,即图像的亮度梯度特征、色彩梯度特征与纹理梯度特征向量合成3维的组合向量Mixvectori={BrightnessGradienti,ColorGradienti,TextureGradienti},则Sim(fi,fj)=||Mixvectori-Mixvectorj||2;式(4)所表示的图割框架中,D为N维对角矩阵,其对角线上元素U={U1,U2,...,Ui,...,Uj,...UN}为分割状态向量,每一个向量分量Ui表示区域i的分割状态;式(4)的分子表示区域i与区域j之间的视觉相似性,分母表示区域i内的视觉相似性;
步骤22,采用凝聚层次聚类算法,求解R(U)的最小值特征值所对应的分割状态向量,即得到图像的最优分割结果。
2.如权利要求1所述的弱对比度下的车辆目标分割方法,其特征在于,所述步骤11中对训练图像进行预处理,并提取亮度梯度特征、色彩梯度特征与纹理梯度特征,具体包括步骤111~步骤113:
步骤111,对训练图像进行色彩空间的转换及其各分量的量化预处理,得到归一化后的亮度分量L和色彩分量a、b;
步骤112,计算亮度分量L的矩阵对应的每一个像素点的亮度梯度;
步骤113,分别计算色彩分量a和色彩分量b的矩阵中每一个像素点的色彩梯度;
步骤114,计算每一个像素点的纹理梯度。
3.如权利要求2所述的弱对比度下的车辆目标分割方法,其特征在于,所述步骤111具体如下:
首先,将训练图像进行伽马校正,以实现对图像色彩分量的非线性调整,将训练图像由RGB色彩空间转换至Lab色彩空间;再对训练图像在Lab色彩空间下的亮度分量L和两个色彩分量a、b进行归一化处理,得到归一化后的亮度分量L和色彩分量a、b。
4.如权利要求2所述的弱对比度下的车辆目标分割方法,其特征在于,所述步骤113具体包括步骤A-D:
A、构建3个尺度的权值矩阵Wights<>;
B、构建3个尺度的索引地图矩阵Slice_map<>;每个尺度的索引地图矩阵Slice_map<>对应尺度的权值矩阵Wights<>具有相同的维度,即每个索引地图Slice_map<>矩阵也是行数和列数都为2r+1的方阵;选取8个方向(0°、22.5°、45°、67.5°、90°、112.5°、135°、157.5°)将矩阵分为16个区域,每个区域中元素的取值与该区域的编号0~15相同;
C、将每个索引地图矩阵Slice_map<>与其对应尺度的权值矩阵Wights<>中的元素一一对应相乘得到对应尺度的矩阵,即邻域梯度算子;
D、利用邻域梯度算子,计算色彩分量a和色彩分量b的矩阵中每一个待求像素点的色彩梯度。
5.如权利要求4所述的弱对比度下的车辆目标分割方法,其特征在于,所述步骤A具体如下:
分别构建3个尺度的权值矩阵Wights<>;所述的权值矩阵Wights<>是行数和列数均等于2r+1的方阵;权值矩阵Wights<>中的元素非0即1,等于1的元素分布在以方阵中心元素(r+1,r+1)为圆心、以r为半径的圆盘范围内,形成方阵的内切圆,方阵中其余元素均为0;3个尺度分别为r=3、r=5和r=10。
6.如权利要求4所述的弱对比度下的车辆目标分割方法,其特征在于,所述步骤D具体如下:
①对于某一个尺度,以步骤111得到的亮度分量L的矩阵中一待求像素点为中心,通过某一尺度的邻域梯度算子与待求像素点邻域范围内的每个亮度分量进行点乘,得到待求像素点邻域范围内的矩阵Neibor<>;选取竖直方向(90°)的直线作为分界线,将邻域梯度算子中的圆盘划分成左半圆和右半圆,左半圆包括第0扇区到第7扇区,右半圆包括第8扇区到第15扇区;每个半圆对应的矩阵Neibor<>的元素构成一个直方图并对其进行归一化,分别记为Slice_hist1<>和Slice_hist2<>;H1代表左边半圆区域所对应的直方图,H2代表右边半圆区域所对应的直方图,i为直方图的bin的取值,定义为[0,24],即亮度范围;
②通过式(1)所示的卡方距离计算两个归一化直方图之间的差异,即得到某一尺度下一个待求像素点的竖直方向上的亮度梯度;
<mrow> <msub> <mi>d</mi> <mrow> <mi>C</mi> <mi>h</mi> <mi>i</mi> <mo>_</mo> <mi>s</mi> <mi>q</mi> <mi>u</mi> <mi>a</mi> <mi>r</mi> <mi>e</mi> <mi>d</mi> </mrow> </msub> <mrow> <mo>(</mo> <msub> <mi>H</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>H</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <munder> <mo>&amp;Sigma;</mo> <mi>i</mi> </munder> <mfrac> <msup> <mrow> <mo>(</mo> <msub> <mi>H</mi> <mn>1</mn> </msub> <mo>(</mo> <mi>i</mi> <mo>)</mo> <mo>-</mo> <msub> <mi>H</mi> <mn>2</mn> </msub> <mo>(</mo> <mi>i</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mrow> <msub> <mi>H</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>H</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
在计算完某一尺度竖直方向上的亮度梯度之后,分别选取其他方向所在直线作为分界线,得到该待求像素点某一尺度所有其他方向上的亮度梯度;再根据步骤D同样的方式计算得到该待求像素点其他尺度上的所有方向的亮度梯度;当完成该待求像素点所有尺度所有方向上的亮度梯度计算后,由公式(2)计算该待求像素点的最终亮度梯度:
f(x,y,r,n_ori;r=3,5,10;n_ori=1,2,......8)->Brightness Gradient(x,y) (2)
式中,f为一映射函数,(x,y)为任一待求像素点,r表示选取的尺度,n_ori表示选取的方向;Brightness Gradient(x,y)为像素点(x,y)的最终亮度梯度;f的对应法则为选择每个方向在3个尺度中的最大亮度梯度值作为该方向上的亮度梯度值,将8个方向上的亮度梯度求和得到像素点(x,y)的最终亮度梯度。
7.如权利要求2所述的弱对比度下的车辆目标分割方法,其特征在于,所述步骤114具体如下:
A、构建多尺度纹理滤波器组集合Filters(x,y)(nf,filter,r,θ),nf表示滤波器的个数,filter表示滤波器种类的集合,r表示尺度,θ表示选取的方向;
B、计算训练图像中每一个像素点相应的纹理滤波响应向量,即
具体如下:
将灰度图像Igray(x,y)与构建的多尺度纹理滤波器集合Filters(x,y)[nf,filter,r,θ]在像素点(x,y)为中心的相应尺度邻域内进行卷积,得到像素点(x,y)的纹理滤波响应向量;如尺度r=5时,在以某一像素为中心的11*11邻域内进行卷积,即Igray(x,y)*Filters(nf,filter,r,θ),其中nf=1,filter=(filcs,fil1,fil2),r=5,θ=0°、22.5°、45°、67.5°、90°、112.5°、135°、157.5°;得到像素点(x,y)的纹理滤波响应向量Tex(x,y)=(fil1,fil2,fil3...,fil17);
以上述方法分别计算r=5、r=10、r=20时以某一像素点(x,y)为中心的相应尺度邻域的纹理特征向量,得到某一像素点(x,y)相应的纹理滤波响应向量Tex(x,y)=(fil1,fil2,fil3...,fil51);
C、构建纹理基元直方图;具体如下:
采用K-means方法对训练图像中所有像素点(x,y)的纹理滤波响应向量进行聚类,聚类过程中,取K=32作为初始值,共得到32个聚类中心,将得到的32个聚类中心对应的纹理滤波响应向量取出作为纹理基元,当作纹理特征统计直方图中的32个bin标记以构建纹理基元直方图;
D、计算每一个像素点的纹理梯度;具体如下:
首先采用步骤112中的步骤A-C,得到3个尺度下的邻域梯度算子,对于某一尺度,以某一待求像素点(x,y)为中心,通过该尺度的邻域梯度算子中的每一个元素与其对应的纹理滤波响应向量进行相乘运算,得到该像素点的邻域矩阵组Neibor[<>],选取竖直方向(90°)的直线作为分界线,将尺度邻域范围内的圆盘划分成左半圆和右半圆,左半圆包括第0扇区到第7扇区,右半圆包括第8扇区到第15扇区;每个半圆对应的邻域矩阵组Neibor[<>]的元素构成一个纹理基元直方图;H1代表左边半圆区域所对应的直方图,H2代表右边半圆区域所对应的直方图,由步骤C给出直方图的bin标记;与步骤112的步骤D中的②步骤相同,求得训练图像中每个待求像素点的最终纹理梯度,记为TextureGradient(x,y)。
8.如权利要求7所述的弱对比度下的车辆目标分割方法,其特征在于,所述步骤A具体如下:
将训练图像转换成灰度图像,记为Igray(x,y),并对灰度图像Igray(x,y)的每一个像素点(x,y)的灰度分量进行归一化;选取三种滤波器,分别为高斯二阶偏导滤波器及其希尔伯特变换后的滤波器与中心环绕滤波器;从8个方向以及3个尺度构建多尺度纹理滤波器集合,记为Filters(x,y)[nf,filter,r,θ],其中,nf表示滤波器的个数,filter表示滤波器种类的集合,r表示尺度,θ表示选取的方向;nf=51,filter=(filcs,fil1,fil2),r=5、10、20,θ=0°、22.5°、45°、67.5°、90°、112.5°、135°、157.5°;多尺度纹理滤波器集合Filters(x,y)[nf,filter,r,θ];如式5、6、7所示:
8个方向3个尺度的高斯二阶偏导滤波器:
<mrow> <msub> <mi>f</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <msup> <mi>d</mi> <mn>2</mn> </msup> <mrow> <msup> <mi>dy</mi> <mn>2</mn> </msup> </mrow> </mfrac> <mrow> <mo>(</mo> <mfrac> <mn>1</mn> <mi>C</mi> </mfrac> <mi>exp</mi> <mo>(</mo> <mfrac> <msup> <mi>y</mi> <mn>2</mn> </msup> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> </mfrac> <mo>)</mo> <mi>exp</mi> <mo>(</mo> <mfrac> <msup> <mi>x</mi> <mn>2</mn> </msup> <mrow> <msup> <mi>l</mi> <mn>2</mn> </msup> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> <mo>)</mo> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
8个方向3个尺度的高斯二阶偏导希尔伯特变换后的滤波器:
f2(x,y)=Hilbert(f1(x,y)) (6)
3个尺度的中心环绕滤波器:
Gaussian_cs<>=m_surround<>-m_center<> (7)
环绕滤波器、中心滤波器、高斯二阶偏导滤波器及其希尔伯特变换滤波器对应的标准差σ值分别为2及
9.如权利要求1所述的弱对比度下的车辆目标分割方法,其特征在于,所述步骤12中将多示例学习引入至图像显著性检测得到测试图像的显著性检测结果,具体包括步骤121和步骤122:
步骤121,利用步骤11中所述方法得到的亮度、色彩和纹理梯度特征,结合多示例学习EMDD算法实现对训练集的学习,得到学习好的显著性检测模型;
步骤122,将测试图像代入学习好的显著性检测模型得到测试图像的显著性检测结果。
CN201510374899.8A 2015-06-30 2015-06-30 一种弱对比度下的车辆目标分割方法 Active CN105005989B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510374899.8A CN105005989B (zh) 2015-06-30 2015-06-30 一种弱对比度下的车辆目标分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510374899.8A CN105005989B (zh) 2015-06-30 2015-06-30 一种弱对比度下的车辆目标分割方法

Publications (2)

Publication Number Publication Date
CN105005989A CN105005989A (zh) 2015-10-28
CN105005989B true CN105005989B (zh) 2018-02-13

Family

ID=54378646

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510374899.8A Active CN105005989B (zh) 2015-06-30 2015-06-30 一种弱对比度下的车辆目标分割方法

Country Status (1)

Country Link
CN (1) CN105005989B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107871321B (zh) * 2016-09-23 2021-08-27 南开大学 图像分割方法及装置
CN106600550B (zh) * 2016-11-29 2020-08-11 深圳开立生物医疗科技股份有限公司 超声图像处理方法及系统
CN108625844B (zh) * 2017-03-17 2024-06-25 中国石油化工集团有限公司 一种伽马标定和测试装置
CN108090511B (zh) * 2017-12-15 2020-09-01 泰康保险集团股份有限公司 图像分类方法、装置、电子设备及可读存储介质
CN109961637A (zh) * 2017-12-25 2019-07-02 大连楼兰科技股份有限公司 基于多子图融合与显著性分析的车辆检测装置及系统
CN109960984A (zh) * 2017-12-25 2019-07-02 大连楼兰科技股份有限公司 基于对比度与显著性分析的车辆检测方法
CN109241865B (zh) * 2018-08-14 2022-05-31 长安大学 一种弱对比度交通场景下的车辆检测分割算法
CN110866460B (zh) * 2019-10-28 2020-11-27 衢州学院 一种复杂场景视频中特定目标区域的侦测方法和装置
CN112284287B (zh) * 2020-09-24 2022-02-11 哈尔滨工业大学 一种基于结构表面灰度特征的立体视觉三维位移测量方法
CN113239964B (zh) * 2021-04-13 2024-03-01 联合汽车电子有限公司 车辆数据的处理方法、装置、设备和存储介质
CN113688670A (zh) * 2021-07-14 2021-11-23 南京四维向量科技有限公司 一种基于图像识别技术监控路灯亮度的方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509084A (zh) * 2011-11-18 2012-06-20 中国科学院自动化研究所 一种基于多示例学习的恐怖视频场景识别方法
CN102831600A (zh) * 2012-07-24 2012-12-19 长安大学 一种基于加权割合并的图像层次分割方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7986827B2 (en) * 2006-02-07 2011-07-26 Siemens Medical Solutions Usa, Inc. System and method for multiple instance learning for computer aided detection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509084A (zh) * 2011-11-18 2012-06-20 中国科学院自动化研究所 一种基于多示例学习的恐怖视频场景识别方法
CN102831600A (zh) * 2012-07-24 2012-12-19 长安大学 一种基于加权割合并的图像层次分割方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于多特征的图像轮廓检测算法研究;许可;《中国优秀硕士学位论文全文数据库信息科技辑》;20150115;第3节 *
基于多示例学习的图像显著性分析;谢延涛;《中国优秀硕士学位论文全文数据库信息科技辑》;20150215;第3.2节 *
基于视觉显著模型和图割的图像分割方法研究;刘红才;《中国优秀硕士学位论文全文数据库信息科技辑》;20140615;第3.1节,图3.1 *

Also Published As

Publication number Publication date
CN105005989A (zh) 2015-10-28

Similar Documents

Publication Publication Date Title
CN105005989B (zh) 一种弱对比度下的车辆目标分割方法
Zhang et al. CDNet: A real-time and robust crosswalk detection network on Jetson nano based on YOLOv5
CN105373794B (zh) 一种车牌识别方法
Soilán et al. Traffic sign detection in MLS acquired point clouds for geometric and image-based semantic inventory
CN102509098B (zh) 一种鱼眼图像车辆识别方法
Zhang et al. Study on traffic sign recognition by optimized Lenet-5 algorithm
CN103034863B (zh) 一种结合核Fisher与多尺度提取的遥感影像道路获取方法
CN110210362A (zh) 一种基于卷积神经网络的交通标志检测方法
CN104809461B (zh) 结合序列图像超分辨率重建的车牌识别方法及系统
CN108009518A (zh) 一种基于快速二分卷积神经网络的层次化交通标识识别方法
CN103942560B (zh) 一种智能交通监控系统中的高分辨率视频车辆检测方法
Chen et al. Contrast limited adaptive histogram equalization for recognizing road marking at night based on YOLO models
CN105354568A (zh) 基于卷积神经网络的车标识别方法
CN111860509B (zh) 一种由粗到精的两阶段非约束车牌区域精准提取方法
CN111582339B (zh) 一种基于深度学习的车辆检测与识别的方法
CN104050481B (zh) 多模板轮廓特征和灰度相结合的红外图像实时行人检测
CN105825203A (zh) 基于点对匹配和几何结构匹配的地面箭头标志检测与识别方法
CN111695514A (zh) 一种基于深度学习的雾天下车辆检测方法
CN105989334B (zh) 基于单目视觉的道路检测方法
CN107315998B (zh) 基于车道线的车辆种类划分方法和系统
CN109886086B (zh) 基于hog特征和线性svm级联分类器的行人检测方法
CN113723377A (zh) 一种基于ld-ssd网络的交通标志检测方法
CN110032935A (zh) 一种基于深度学习级联网络的交通信号标识检测识别方法
CN111160328A (zh) 一种基于语义分割技术的交通标线自动提取的方法
CN109977862A (zh) 一种车位限位器的识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Liu Zhanwen

Inventor after: Chen Ting

Inventor after: Lin Shan

Inventor after: Hao Ruru

Inventor after: Zhou Zhou

Inventor after: Zhao Xiangmo

Inventor after: Shen Chao

Inventor after: Duan Zongtao

Inventor after: Gao Tao

Inventor after: Fan Xing

Inventor after: Wang Runmin

Inventor after: Xu Jiang

Inventor after: Zhou Jingmei

Inventor before: Liu Zhanwen

Inventor before: Lin Shan

Inventor before: Kang Junmin

Inventor before: Wang Jiaojiao

Inventor before: Xu Jiang

Inventor before: Zhao Xiangmo

Inventor before: Fang Jianwu

Inventor before: Duan Zongtao

Inventor before: Wang Runmin

Inventor before: Hao Ruru

Inventor before: Qi Xiuzhen

Inventor before: Zhou Zhou

Inventor before: Zhou Jingmei

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant