CN105825203B - 基于点对匹配和几何结构匹配的地面箭头标志检测与识别方法 - Google Patents
基于点对匹配和几何结构匹配的地面箭头标志检测与识别方法 Download PDFInfo
- Publication number
- CN105825203B CN105825203B CN201610200615.8A CN201610200615A CN105825203B CN 105825203 B CN105825203 B CN 105825203B CN 201610200615 A CN201610200615 A CN 201610200615A CN 105825203 B CN105825203 B CN 105825203B
- Authority
- CN
- China
- Prior art keywords
- image
- edge
- point
- matching
- template
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000001514 detection method Methods 0.000 title claims abstract description 18
- 238000003064 k means clustering Methods 0.000 claims abstract description 10
- 238000013507 mapping Methods 0.000 claims abstract description 9
- 238000000605 extraction Methods 0.000 claims abstract description 7
- 238000012545 processing Methods 0.000 claims abstract description 4
- 239000013598 vector Substances 0.000 claims description 57
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000010586 diagram Methods 0.000 claims description 8
- 238000003708 edge detection Methods 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 4
- 230000002159 abnormal effect Effects 0.000 claims description 3
- 238000003709 image segmentation Methods 0.000 claims description 3
- 230000001174 ascending effect Effects 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000001914 filtration Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 5
- 230000011218 segmentation Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 241000283070 Equus zebra Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/09—Recognition of logos
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉领域,涉及到图像处理相关知识,特别涉及形状匹配方法。其特征是从待测视频中提取出地面箭头标志进行识别。首先,利用逆投影映射来获得每一帧图像的俯视图;其次,使用K均值聚类方法在HSV空间进行图像分割,分离出亮度及颜色符合条件的连通区域,并对这些连通区域进行几何尺寸筛选;再次,对候选区域进行边缘提取,对每个边缘点提取局部多尺度HOG特征;最后利用该特征在模板和候选区域之间进行点对匹配,对匹配结果再进行几何结构匹配,识别出该区域的类别。本发明的效果和益处是克服了地面箭头标志检测中出现的遮挡、磨损、形变、旋转,以及其他标志干扰的情况。在以上不理想条件下,本发明仍有较好的识别率。
Description
技术领域
本发明属于计算机视觉领域,涉及图像处理中的相关知识,特别涉及一种基于点对匹配和几何结构匹配的地面箭头标志检测与识别方法。
背景技术
在过去的二十多年里,地面交通标志识别作为无人驾驶和智能交通的重要组成部分,吸引了许多计算机视觉领域的研究者。因此,出现了很多高效且实用的技术及方法。在这些标志中,地面箭头标志包含了重要的道路交通信息,所以对这类标志的检测与识别显得尤为重要。下面将从2004年开始陆续发表的具有代表性的文章描述如下。
Rebut,J.等人在“Image segmentation and pattern recognition for roadmarking analysis.In International Symposium on Industrial Electronics,2004”文中通过傅里叶算子来描述提取出的候选区域,并结合KNN分类器来对候选区域进行识别。但是,傅里叶算子对候选区域的轮廓完整性要求很高,所以该方法不适用于有遮挡和候选区域损坏严重的情况。Suchitra,S.等人在文章“A practical system for road markingdetection and recognition.In TIP,2009”首先将候选区域分解成几块,利用在x和y方向上的梯度值大小以及正负将边缘分段。然后对每段边缘分别进行霍夫变换,并对得到的霍夫空间进行峰值分析,得到边缘的角度信息,判断出每段边缘是向左倾斜还是向右倾斜。接下来又将模板分块,对每一块的左边缘和右边缘的倾斜方向进行了总结,并根据总结出的结果对候选区域进行检测,找出满足条件的图像块,并对这些图像块进行组合,判断是否是箭头标志并分类。但是该方法主要依赖于箭头标志边缘的完整性,所以对于出现磨损的箭头标志识别效果不好。
Yuhang He等人在文章“Using edit distance and junction feature todetect and recognize arrow road marking.in Intelligent Transportation Systems(ITSC),2014”中提出了一个节点特征,将每个候选区域表示为一个节点串,并根据每个节点的位置和夹角进行编码。然后利用编码结果计算候选区域与模板图像的相似性。该方法将箭头标志的局部结构与整体结构结合在一起,对磨损和遮挡的鲁棒性较高,但是对于出现整体形变的箭头标志识别率较低。
发明内容
针对现有技术的不足,本发明提供一种基于点对匹配和几何结构匹配的地面箭头标志检测与识别方法,该方法在车载摄像头拍摄的视频有其他车辆对地面箭头标志部分遮挡的情况、地面箭头标志距离汽车过远而发生形变的情况和汽车行驶方向的改变使得提取出的箭头标志发生倾斜的情况下,视频中含有其他地面交通标志时(车道线,斑马线等),能够正确检测出地面箭头标志,并且对其准确而快速的分类。
为了达到上述目的,本发明的技术方案是:
一种基于点对匹配和几何结构匹配的地面箭头标志检测与识别方法,该方法利用逆投影变换方法对车载视频的每一帧进行处理,来获取道路场景的俯视图。依据地面交通标志与地面的亮度差异,利用K均值聚类方法在俯视图的HSV空间进行聚类来提取亮度及饱和度符合条件的连通区域。利用箭头标志的常规尺寸对连通区域进行筛选,获得箭头标志候选区域,完成箭头标志检测。在识别阶段,本发明提出了一种点对匹配和几何结构匹配相结合的识别方法,充分利用了箭头标志的局部和整体的形状信息。在实际道路上,直行左右转标志和直行左转标志很少存在,而且左转标志和右转标志是对称的,只需对其中之一进行检测与识别,因此本发明只对直行标志(S),左转标志(L)和直行右转标志(SR)进行检测与识别。图1为本发明的系统框图。具体实现步骤包括:
第一步,逆投影映射
由于车载摄像机拍摄视频的视角问题,获取的地面交通标志存在严重的透视变形,这会影响对箭头标志的识别效果。为了消除这种影响,在本发明中首先对每一帧道路图像进行逆投影映射处理,获取道路场景的俯视图,避免地面交通标志发生严重形变。我们采用三线法实现逆投影映射,首先建立车体坐标系和摄像机坐标系。在世界坐标系中,Xv指向汽车纵轴的前方,Yv指向垂直于汽车纵轴的右方,Zv指向垂直于汽车纵轴的上方。设地面平坦,摄像机坐标系原点在摄像机的光心,依次绕Xv、Yv、Zv轴的旋转角为ψ、和θ。光心在车体坐标系中的坐标为t=(l,d,h)。若车体坐标系中有一点为pv(xv,yv,zv),它在摄像机坐标系中的坐标为pc(xc,yc,zc),二者之间的关系为:
其中,可以看出,如果要实现逆投影映射,需要计算出ψ、θ以及
t=(l,d,h)六个外参数。
对于平坦地面上任意一条平行于Xv轴,且到其距离为a直线L,其在车体坐标系中的参数方程为xv=s,yv=a,zv=0,其中s为任意实数。根据针孔成像模型,结合公式(1),直线L在图像平面坐标系上的参数方程为:
其中,dx,dy分别为横向和纵向的比例系数(摄像机内参数);u和v为图像平面坐标系的坐标;i和j为像素坐标系的坐标;fi和fj分别为i和j方向的焦距(摄像机内参数)。直线在图像坐标系上存在消失点(uh,vh)
若地面上有三条平行于L的直线,那么这三条直线有相同的消失点。我们利用这种等量关系,,在已知摄像机内参数的情况下,就可以得到外参数ψ、θ以及t=(l,d,h)。将外参数ψ、θ以及t=(l,d,h)代入公式(3),找到车体坐标平面上的点在图像坐标上的对应点,实现图像坐标平面向车体坐标平面的转换,完成逆投影映射,获取道路场景的俯视图。
第二步,图像分割
理想情况下,地面箭头标志为白色连通区域且与地面有明显的亮度差。但是,由于遮挡和其他区域的干扰,很难采用设定阈值的二值化方法将这些区域提取出来。为了避免地面箭头标志亮度信息的丢失,本发明采用了在特定颜色空间进行K均值聚类的方法来对图像进行分割。聚类是一种将目标分组的方法。K均值聚类认为每一个目标都有自己的空间位置,对这些目标分区的原则是:离所在聚类中的目标空间位置尽可能近,离其他聚类中的目标空间位置尽可能远。K均值聚类需要提前指定聚类数量和衡量两个目标空间位置远近的距离测度。
由于HSV颜色空间是近似的均匀颜色空间,相对于RGB空间,它更符合人类视觉系统,HSV颜色空间两点的欧氏距离与人的感知程度近似成正比。在HSV颜色空间中,饱和度分量S与亮度分量V能够分别描述图像颜色特征和形状特征,且两个分量是独立的,亮度分量V与图像的色彩信息无关。因此,在本发明中将RGB彩色图像转换到HSV颜色空间,将饱和度分量S和亮度分量V重组,再对重组图像进行K均值聚类对图像进行分割,利用欧式距离测度将图像分割为三层,满足要求的像素点最多的那一层为最终分割结果,并将其中包含的连通区域作为候选区域,其中一层包含了所有颜色饱和度及亮度满足条件的连通区域。
第三步,候选区域筛选
在我国,地面交通标志的尺寸大小需要满足国家统一标准。在本发明中,我们利用几何尺寸参数对候选区域进行筛选。由于箭头长度会受距离影响而产生畸变,我们只选取了箭头宽度,宽高比以及面积来排除非箭头区域。但在实际路况中,箭头标志会由于遮挡等因素而不完整,因而我们没有严格按照国家标准尺寸进行筛选,而是选取标准尺寸附近的一定区间作为筛选准则。
第四步,边缘检测
连通区域的边缘包含了它大部分几何信息,因此我们用边缘来表示上一步筛选出的候选连通区域。由于连通区域的边缘会出现毛刺以及图像中不可避免的噪声会对后续的匹配结果造成影响,所以我们对候选区域进行了膨胀操作,减少边缘毛刺,并选取可以有效抑制噪声且边缘定位精确的Canny边缘检测算法,对候选区域进行Canny边缘检测,获取较为平滑的边缘。该算法对信噪比与定位乘积进行测度,可以得到最优化逼近结果。因此,该边缘检测方法可以很好的解决提取出的候选区域边缘存在毛刺的问题。
第五步,特征提取及构建特征集
边缘点包含的局部形状信息可以通过特征来描述。采用了一个局部多尺度HOG特征来对连通区域边缘进行描述。矩形HOG块的划分:一个图像块(Block)由若干单元(Cell)组成,一个单元由若干个像素点组成。在每个单元中独立地做梯度方向统计,所得的直方图以梯度方向为横轴,梯度方向可取0~180度或0~360度,对于本发明中地面箭头标志检测选取0~180度能够取得更好的结果。再将这个梯度范围平均分成几个方向子区间(orientation bin),每个方向区间都会对应一个直方柱。本发明中,我们使用9个子区间。
局部多尺度HOG特征是指以上一步提取的边缘点为中心,选取几个尺度的矩形块进行梯度方向统计,得到局部的不同尺度的HOG特征向量,并将这些特征向量组合在一起,这个组合的特征向量包含了边缘点处丰富的局部特征。特征提取及构建特征集具体步骤为:
5.1)在边缘点处进行局部的HOG特征提取,对所有边缘点计算梯度方向,选取任一边缘点A,截取以边缘点A为中心,大小为a×a的图像块,将该图像块平均分成4个单元;将梯度方向取值范围平均分成k个子区间,得到4×k=4k维局部HOG特征向量;
5.2)取以边缘点A为中心,大小为2a×2a的图像块,将图像块平均分为4个a×a的子块,分别对每个子块按照5.1所述方法计算出4k维特征向量,将四个4k维特征向量串接起来得到4k×4=16k维局部HOG特征向量;
5.3)截取以边缘点A为中心,大小为4a×4a的图像块,将图像块平均分为16个a×a的子块,分别对每个子块按照5.2所述方法计算出16k维特征向量,将四个16k维特征向量串接起来得到16k×4=64k维局部HOG特征向量;
5.4)将上述三个尺度下的局部HOG特征向量串接起来,形成边缘点A的4k+16k+64k=84k维特征向量,并用这个84k维特征向量表示该连通区域;
5.5)构造模板库包含直行标志S,左转标志L和直行右转标志SR;对于模板库中的箭头图像和测试图像中的候选区域,均按照上述步骤得到边缘点及每一个边缘点对应的84k维特征向量;候选区域所有边缘点对应的特征向量构成该候选区域的特征向量集;模板图像的所有边缘点对应的特征向量构成该模板的特征向量集。
为了实现箭头标志匹配,我们构造了一个模板库。这个模板库包含了六种地面箭头标志,包括左转、右转、直行、直行左转、直行右转和直行左右转。对于模板库中的所有箭头标志都需要进行上述边缘检测和特征提取两个步骤,且提取出的特征向量组成特征集,用于后续的匹配过程。
第六步,点对匹配
对于每一个测试图像,都进行了上述步骤来获取候选区域及其边缘,并且对每一个候选区域边缘进行特征提取,得到对应的特征向量。一幅测试图像中的每一个候选区域需要与模板库中所有的模板进行匹配。在本发明中,我们首先利用边缘点的特征向量进行点对匹配,筛选出具有相同局部结构的边缘点,排除异常点,提高进一步匹配的效率。
首先,假设候选区域和某一模板分别提取出了M和N个边缘点,每一个边缘点都对应一个特征向量,我们构造了一个M×N矩阵D存储两组特征向量之间的欧氏距离,欧式距离代表了两个特征向量之间的差异。其中,D矩阵的元素di,j保存着候选区域的第i个边缘点对应的特征向量和模板图像的第j个边缘点对应的特征向量之间的欧氏距离。接下来,利用欧式距离矩阵D来进行点对匹配。假设Di是矩阵D的第i行,Di中的元素按照升序排列得到向量D’i中相邻两个元素之比构成向量R=[r1,…,rj,…,rN-1],即如果在R中rk是第一个大于预设阈值α的值,那么D'i中前k个值对应的模板图像边缘点即为与候选区域第i个边缘点匹配的点。以此类推,对D的每一行都进行该操作,就可以在测试图像上找到与每一个候选区域边缘点匹配的点,形成从候选区域到模板图像方向的匹配点对。这种匹配方法是双向的,因此我们对D每一列也进行同样处理,得到从模板图像到候选区域方向的匹配点对,这两组匹配点对的交集形成了匹配点对集,这就是点对匹配的最终结果。这个匹配点对集将用于几何结构匹配。
第七步,几何结构匹配
上一步的点对匹配提高了进一步匹配的有效性,但是候选区域可能和模板库中多个模板都具有相同的局部结构,所以点对匹配不能准确的给出识别结果。在本发明中,我们将在点对匹配的基础上进行几何结构匹配,对这些点对构成的整体几何结构进行分析,准确的识别出候选区域的类别。
上一步得到的匹配点对集包含了候选区域和所有模板图像之间的匹配点对,匹配点对中的点一半存在于候选区域,一半存在于模板图像。这两组点分别在测试图像和模板图像中形成了两个散点图。散点图的几何中心为c,由点坐标的均值计算得来。假设pi和pj为一个散点图上的任意两点,d(pi,c)和d(pj,c)分别代表向量和的长度,θij是两个向量的夹角(θij∈[0,π])。我们利用两个K0×K0下三角矩阵来代表包含K0个点的散点图,这两个矩阵定义为:
G={gij|i∈[1,K0-1];j∈[0,i-1]} (6)
Θ={θij|i∈[1,K0-1];j∈[0,i-1]} (7)
其中,gij=min(d(pi,c)/d(pj,c),d(pj,c)/d(pi,c))。显然,两个矩阵对于旋转和尺度具有不变性,只受散点图的几何结构影响。
Gc和Gt分别为候选区域和模板图像的G矩阵,Θc和Θt分别为候选区域和模板图像的Θ矩阵。我们利用Θc和Θt中元素的差值来对Gc和Gt进行滤波,使得一些异常的匹配点对可以被排除。滤波原则如下:
其中,γ为通过实验设定的阈值。在本发明中采用了欧式距离来衡量和的差异:
其中,s为矩阵非零元素的个数。假设在模板库中有K个模板图像,任一候选区域都与这K个模板图像计算得到一个e值,这些值中的最小值如果小于预设的阈值,则这个最小值对应的模板图像就认为和候选区域是相同类别。阈值的设定对不同模板是不同的,均是通过实验得到的。
本发明的有益效果为:克服了在地面箭头标志检测与识别过程中经常出现的遮挡,形变和旋转等情况,且识别率较高。
附图说明
图1是系统框图;
图2(a)是初始图像;图2(b)是逆投影变换后的俯视图;图2(c)K均值聚类后的二值图像;
图3(a)多个箭头同时出现时检测与识别结果图;图3(b)箭头磨损时检测与识别结果图;图3(c)箭头严重形变时检测与识别结果图;图3(d)箭头倾斜时检测与识别结果图;图3(e)其他地面标志干扰时检测与识别结果图。
具体实施方式
步骤一:在实际道路上,直行左右转标志和直行左转标志很少存在,而且左转标志和右转标志是对称的,只需对其中之一进行检测与识别,因此本发明只对直行标志(S),左转标志(L)和直行右转标志(SR)进行检测与识别。
步骤二:假设摄像机前方的道路是平坦的,I={(u,v)}∈E2代表获取的初始图像,V={(xv,yv,zv)}∈E3代表逆投影变换后的图像。我们想要得到的场景俯视图为W={(x,y,0)}∈V。逆投影映射的过程可以看做从图像坐标平面向车体坐标平面的转换,即不同的坐标位置表示同一场景。在本发明中,我们设置了一个感兴趣区域(车体坐标系近车1/2区域),由公式(1)和(2)可以得到变换后的图像W。W中像素点的像素值等于I中相关像素点的像素值,如果W中像素点在I中对应位置超出了获取的图像范围,那么W中该像素点将设置为黑色。如图2(b)所示,逆投影变换后可以获得原图像的俯视图。
步骤三:HSV颜色空间两点的欧氏距离与人的感知程度近似成正比,并且其有个重要的特征:亮度分量V与图像的色彩信息无关,即HSV颜色空间的图像的饱和度和亮度之间具有相对独立的特征,因此在本发明中首先将RGB彩色图像转换到HSV颜色空间上,取出其中的V层和S层重组成一个两通道图像,对这个重组图像进行K均值聚类。本发明中,我们将分割层数设置为3,采用欧式距离测度进行3次聚类得到了最优的聚类效果。最后选取了像素值大于200的像素点最多的那一层为最终分割结果,并将其中包含的连通区域作为候选区域。该方法充分利用了地面箭头标志与地面的亮度差异以及颜色信息来检测视频每一帧图像中的候选区域。
步骤三:分割后的图像里包含了许多连通区域,为了对这些连通区域进行筛选,我们求取了每个连通区域的宽度,宽高比以及面积,然后按表1的步骤对这三个量进行初步的筛选。如图2(c)所示,经过K均值聚类及几何尺寸参数筛选后,得到了包含所有候选区域的二值图像。
表1候选区域筛选
步骤四:为了使提取出的边缘更加平滑,我们对候选区域进行了膨胀操作,减少了毛刺等干扰。然后对候选区域进行了Canny边缘检测,获取了较为平滑的边缘。
步骤五:对上一步检测出的所有边缘点计算梯度方向,选取任一边缘点A,首先截取以边缘点A为中心,大小为16×16的图像块,将该图像块平均分成4个单元,将梯度方向平均划分为9个子区间,这样就会得到4×9=36维HOG特征向量。然后再截取以边缘点A为中心,大小为32×32的图像块,再将图像块平均分为4个16×16的子块,每个子块再分为4个单元,计算每个单元的4×9=36维局部特征向量,将四个特征向量串接起来,这样可以得到36×4=144维特征向量。以边缘点A为中心选取64×64的图像块,将图像块平均分为4个32×32的子块,分别对每个子块按照上述方法计算出36×4=144维特征向量,将四个144维特征向量串接起来得到36×4×4=576。最后将这三个尺度下的局部HOG特征串接起来,形成该边缘点的756维特征向量。
步骤六:对于模板库中的箭头图像和测试图像中的候选区域,均需要按照上述步骤得到边缘点及每一个边缘点对应的756维特征向量。候选区域所有边缘点对应的特征向量构成了该候选区域的特征向量集,同样地,一个模板图像的所有边缘点对应的特征向量构成了该模板的特征向量集。接下来,每一个候选区域都需要与模板库中的所有模板进行点对匹配,来选取模板集中与候选区域具有相同局部结构的边缘点。我们按照表2的步骤进行点对匹配。
表2点对匹配
步骤七:上一步得到的匹配点有一半属于候选区域,并在候选区域处形成散点图,同样地,另一半边缘点在模板图像上形成了散点图。接下来,我们将对候选区域处的散点图和每个模板的散点图进行几何结构匹配。计算散点图上任意两点的夹角θij和到中心的距离比gij,并根据公式(6)和(7)构造矩阵G和Θ。这样我们可以分别得到候选区域的两个矩阵Gc和Θc,以及模板图像的Gt和Θt。然后,我们利用Θc和Θt中元素的差值按照公式(8)和(9)对Gc和Gt中的元素进行筛选,若夹角之差大于90度,就认为这两组匹配点对异常。最后对经过筛选的Gc和Gt矩阵求取欧式距离,这一步操作在候选区域和每一个模板图像之间进行,欧氏距离最小值若小于阈值,该距离对应的模板认为与候选区域类别相同,否则候选区域为非箭头标志。
图3为本发明中在不同情况下对地面箭头标志检测和识别的结果,我们的方法可以处理多箭头同时出现的情况、箭头标志磨损、箭头标志整体形变、箭头标志旋转,以及其他地面标志干扰的情况。同时,在以上不理想条件下,本发明仍有较好的识别率。
Claims (1)
1.一种基于点对匹配和几何结构匹配的地面箭头标志检测与识别方法,其特征在于,该地面箭头标志检测与识别方法只对直行标志S,左转标志L和直行右转标志SR进行检测与识别,包括如下步骤:
第一步,逆投影映射
1.1)在世界坐标系中,Xv指向汽车纵轴的前方,Yv指向垂直于汽车纵轴的右方,Zv指向垂直于汽车纵轴的上方;设地面平坦,摄像机坐标系原点在摄像机的光心,依次绕Xv、Yv、Zv轴的旋转角为ψ、和θ;光心在车体坐标系中的坐标为t=(l,d,h);若车体坐标系中有一点为pv(xv,yv,zv),它在摄像机坐标系中的坐标为pc(xc,yc,zc),二者之间的关系为:
其中,
1.2)对于平坦地面上任意一条平行于Xv轴,且到Xv轴距离为a的直线L,其在车体坐标系中的参数方程为xv=s,yv=a,zv=0,其中s为任意实数;在已知摄像机内参数的情况下,直线L在图像平面坐标系上的参数方程为:
其中,dx、dy、fi和fj为摄像机内参数,dx为横向比例系数,dy纵向比例系数,fi为i方向焦距,fj为j方向焦距;u和v为图像平面坐标系的坐标;i和j为像素坐标系的坐标;
1.3)在路面上再选取两条直线,使其平行于直线L,分别根据公式(4)(5)计算直线L和这两条直线在图像坐标系上的消失点(uh,vh):
这三条直线有相同的消失点,利用等量关系,计算外参数ψ、θ以及t=(l,d,h);
1.4)将外参数ψ、θ以及t=(l,d,h)代入公式(3),得到车体坐标平面上的点在图像坐标上的对应点,实现图像坐标平面向车体坐标平面的转换,完成逆投影映射,获取道路场景的俯视图;
第二步,图像分割
将RGB彩色图像转换到HSV颜色空间,将饱和度分量S和亮度分量V重组进行K均值聚类,利用欧式距离测度将图像分割为三层,满足要求的像素点最多的那一层为最终分割结果,并将其中包含的连通区域作为候选区域;
第三步,筛选候选区域
采用箭头标志标准尺寸对候选区域进行筛选,采用箭头宽度,宽高比以及面积排除非箭头区域;
第四步,边缘检测
对候选区域进行膨胀操作,减少边缘毛刺;对候选区域进行Canny边缘检测,获取较为平滑的边缘;
第五步,特征提取及构建特征集
5.1)在边缘点处进行局部的HOG特征提取,对所有边缘点计算梯度方向,选取任一边缘点A,截取以边缘点A为中心,大小为a×a的图像块,将该图像块平均分成4个单元;将梯度方向取值范围平均分成k个子区间,得到4×k=4k维局部HOG特征向量;
5.2)取以边缘点A为中心,大小为2a×2a的图像块,将图像块平均分为4个a×a的子块,分别对每个子块按照5.1所述方法计算4k维特征向量,将四个4k维特征向量串接起来得到4k×4=16k维局部HOG特征向量;
5.3)截取以边缘点A为中心,大小为4a×4a的图像块,将图像块平均分为16个a×a的子块,分别对每个子块按照5.2所述方法计算出16k维特征向量,将四个16k维特征向量串接起来得到16k×4=64k维局部HOG特征向量;
5.4)将上述三个尺度下的局部HOG特征向量串接起来,形成边缘点A的4k+16k+64k=84k维特征向量,并用这个84k维特征向量表示该连通区域;
5.5)构造模板库包含直行标志S,左转标志L和直行右转标志SR;对于模板库中的箭头图像和测试图像中的候选区域,均依次按照上述步骤5.1)、5.2)、5.3)、5.4)得到边缘点及每一个边缘点对应的84k维特征向量;候选区域所有边缘点对应的特征向量构成该候选区域的特征向量集;模板图像的所有边缘点对应的特征向量构成该模板的特征向量集;
第六步,点对匹配
6.1)候选区域和某一模板分别提取出了M和N个边缘点,构造一个M×N矩阵D,存储候选区域和模板图像特征向量之间的欧氏距离;Di是矩阵D的第i行;Di中的元素按照升序排列得到D'i中相邻元素之比构成R=[r1,…,rj,…,rN-1],即如果在R中rk是第一个大于预设阈值α的值,那么D'i中前k个值对应的模板图像边缘点即为与候选区域第i个边缘点匹配的点;
6.2)对矩阵D的每一行都按照步骤6.1)进行处理,得到模板图像上与每一个候选区域边缘点匹配的点,形成从候选区域到模板图像方向的匹配点对;
6.3)对矩阵D的每一列都按照步骤6.1)进行处理,得到从模板图像到候选区域方向的匹配点对;对行和列的匹配结果取交集,完成模板图像与候选区域的点对匹配;
第七步,几何结构匹配
点对匹配结果分别在模板图像和测试图像上形成散点图,计算散点图上任意两点的夹角θij和到中心的距离比gij,构造两个K0×K0下三角矩阵来代表包含K0个点的散点图:
G={gij|i∈[1,K0-1];j∈[0,i-1]} (6)
Θ={θij|i∈[1,K0-1];j∈[0,i-1]} (7)
Gc和Gt分别为候选区域和模板图像的G矩阵,Θc和Θt分别为候选区域和模板图像的Θ矩阵;我们利用Θc和Θt中元素的差值来对Gc和Gt进行滤波,排除异常点,得到和
采用欧式距离来衡量候选区域的矩阵与所有模板图像的矩阵的差异性,其中若欧式距离最小值小于预设的阈值γ,则对应的模板图像就认为和候选区域是相同类别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610200615.8A CN105825203B (zh) | 2016-03-30 | 2016-03-30 | 基于点对匹配和几何结构匹配的地面箭头标志检测与识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610200615.8A CN105825203B (zh) | 2016-03-30 | 2016-03-30 | 基于点对匹配和几何结构匹配的地面箭头标志检测与识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105825203A CN105825203A (zh) | 2016-08-03 |
CN105825203B true CN105825203B (zh) | 2018-12-18 |
Family
ID=56526615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610200615.8A Expired - Fee Related CN105825203B (zh) | 2016-03-30 | 2016-03-30 | 基于点对匹配和几何结构匹配的地面箭头标志检测与识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105825203B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10481609B2 (en) * | 2016-12-09 | 2019-11-19 | Ford Global Technologies, Llc | Parking-lot-navigation system and method |
CN106651963B (zh) * | 2016-12-29 | 2019-04-26 | 清华大学苏州汽车研究院(吴江) | 一种用于驾驶辅助系统的车载摄像头的安装参数标定方法 |
CN108437986B (zh) * | 2017-02-16 | 2020-07-03 | 上海汽车集团股份有限公司 | 车辆驾驶辅助系统及辅助方法 |
GB2569803B (en) * | 2017-12-22 | 2021-11-24 | Novarum Dx Ltd | Analysis of a captured image to determine a test outcome |
CN108898078A (zh) * | 2018-06-15 | 2018-11-27 | 上海理工大学 | 一种多尺度反卷积神经网络的交通标志实时检测识别方法 |
CN111161140B (zh) * | 2018-11-08 | 2023-09-19 | 银河水滴科技(北京)有限公司 | 一种畸变图像的矫正方法及装置 |
CN109902718B (zh) * | 2019-01-24 | 2023-04-07 | 西北大学 | 一种二维形状匹配方法 |
CN109934169A (zh) * | 2019-03-13 | 2019-06-25 | 东软睿驰汽车技术(沈阳)有限公司 | 一种车道线识别方法及装置 |
JP7289723B2 (ja) * | 2019-05-23 | 2023-06-12 | 日立Astemo株式会社 | 物体認識装置 |
CN111210456B (zh) * | 2019-12-31 | 2023-03-10 | 武汉中海庭数据技术有限公司 | 一种基于点云的高精度方向箭头提取方法及系统 |
CN111476157B (zh) * | 2020-04-07 | 2020-11-03 | 南京慧视领航信息技术有限公司 | 一种路口监控环境下的车道导向箭头识别方法 |
CN111932621B (zh) * | 2020-08-07 | 2022-06-17 | 武汉中海庭数据技术有限公司 | 一种用于箭头提取置信度评估的方法及装置 |
CN112464737B (zh) * | 2020-11-04 | 2022-02-22 | 浙江预策科技有限公司 | 道路标线的检测与识别方法、电子装置和存储介质 |
CN113158976B (zh) * | 2021-05-13 | 2024-04-02 | 北京纵目安驰智能科技有限公司 | 地面箭头的识别方法、系统、终端及计算机可读存储介质 |
CN114359134B (zh) * | 2021-11-22 | 2024-12-31 | 南京莱斯信息技术股份有限公司 | 适用于指挥态势图的箭头定位方法及系统 |
CN114440834B (zh) * | 2022-01-27 | 2023-05-02 | 中国人民解放军战略支援部队信息工程大学 | 一种非编码标志的物方与像方匹配方法 |
CN114549649A (zh) * | 2022-04-27 | 2022-05-27 | 江苏智绘空天技术研究院有限公司 | 一种基于特征匹配的扫描地图点符号的快速识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104361350A (zh) * | 2014-10-28 | 2015-02-18 | 奇瑞汽车股份有限公司 | 一种交通标识识别系统 |
CN104463105A (zh) * | 2014-11-19 | 2015-03-25 | 深圳市腾讯计算机系统有限公司 | 路牌识别方法及装置 |
CN105069419A (zh) * | 2015-07-27 | 2015-11-18 | 上海应用技术学院 | 基于边缘颜色对和特征筛选器的交通标志检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060098877A1 (en) * | 2004-11-09 | 2006-05-11 | Nick Barnes | Detecting shapes in image data |
US7831098B2 (en) * | 2006-11-07 | 2010-11-09 | Recognition Robotics | System and method for visual searching of objects using lines |
-
2016
- 2016-03-30 CN CN201610200615.8A patent/CN105825203B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104361350A (zh) * | 2014-10-28 | 2015-02-18 | 奇瑞汽车股份有限公司 | 一种交通标识识别系统 |
CN104463105A (zh) * | 2014-11-19 | 2015-03-25 | 深圳市腾讯计算机系统有限公司 | 路牌识别方法及装置 |
CN105069419A (zh) * | 2015-07-27 | 2015-11-18 | 上海应用技术学院 | 基于边缘颜色对和特征筛选器的交通标志检测方法 |
Non-Patent Citations (2)
Title |
---|
基于多尺度-多形状HOG特征的行人检测方法;牛杰 等;《计算机技术与发展》;20110930;第21卷(第9期);99-102,106 * |
面条目标Voronoi图生成的动态距离变换策略;李成名 等;《遥感信息》;20000131(第1期);6-11 * |
Also Published As
Publication number | Publication date |
---|---|
CN105825203A (zh) | 2016-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105825203B (zh) | 基于点对匹配和几何结构匹配的地面箭头标志检测与识别方法 | |
CN109886896B (zh) | 一种蓝色车牌分割与矫正方法 | |
CN104850850B (zh) | 一种结合形状和颜色的双目立体视觉图像特征提取方法 | |
CN106709436B (zh) | 面向轨道交通全景监控的跨摄像头可疑行人目标跟踪系统 | |
Hu et al. | Fast detection of multiple objects in traffic scenes with a common detection framework | |
WO2019169816A1 (zh) | 一种用于精细化识别车辆属性的深度神经网络及训练方法 | |
CN103984953B (zh) | 基于多特征融合与Boosting决策森林的街景图像的语义分割方法 | |
CN102509098B (zh) | 一种鱼眼图像车辆识别方法 | |
CN104778701B (zh) | 一种基于rgb-d传感器的局部图像描述方法 | |
CN112766291B (zh) | 一种场景图像中特定目标对象的匹配方法 | |
CN103714181B (zh) | 一种层级化的特定人物检索方法 | |
CN111145228A (zh) | 基于局部轮廓点与形状特征融合的异源图像配准方法 | |
Tsai et al. | Road sign detection using eigen colour | |
CN107729812B (zh) | 一种适用于监控场景中的车辆颜色识别的方法 | |
CN107909081A (zh) | 一种深度学习中图像数据集的快速获取和快速标定方法 | |
CN103310194A (zh) | 视频中基于头顶像素点梯度方向的行人头肩部检测方法 | |
CN106682641A (zh) | 基于fhog‑lbph特征的图像行人识别方法 | |
CN102799859A (zh) | 一种交通标志识别方法 | |
CN106295528A (zh) | 一种基于多部件空间位置关系gmm建模的车辆检测方法 | |
CN104657717A (zh) | 一种基于分层核稀疏表示的行人检测方法 | |
CN106446925A (zh) | 一种基于图像处理的海豚身份识别的方法 | |
CN108182705A (zh) | 一种基于机器视觉的三维坐标定位方法 | |
Deng et al. | Detection and recognition of traffic planar objects using colorized laser scan and perspective distortion rectification | |
CN105139011A (zh) | 一种基于标识物图像的车辆识别方法及装置 | |
KR101742115B1 (ko) | 건물 인식을 위한 멀티뷰 영상에서의 인라이어 선택 및 잉여 제거 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20181218 |