Nothing Special   »   [go: up one dir, main page]

CN112037159A - 一种跨相机道路空间融合及车辆目标检测跟踪方法及系统 - Google Patents

一种跨相机道路空间融合及车辆目标检测跟踪方法及系统 Download PDF

Info

Publication number
CN112037159A
CN112037159A CN202010742528.1A CN202010742528A CN112037159A CN 112037159 A CN112037159 A CN 112037159A CN 202010742528 A CN202010742528 A CN 202010742528A CN 112037159 A CN112037159 A CN 112037159A
Authority
CN
China
Prior art keywords
scene
image
camera
coordinates
cross
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010742528.1A
Other languages
English (en)
Other versions
CN112037159B (zh
Inventor
王伟
唐心瑶
宋焕生
穆勃辰
李聪亮
梁浩翔
张文涛
雷琪
刘莅辰
戴喆
云旭
侯景严
贾金明
赵锋
余宵雨
靳静玺
王滢暄
崔子晨
赵春辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhongtian Zhikong Technology Holding Co ltd
Original Assignee
Changan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changan University filed Critical Changan University
Priority to CN202010742528.1A priority Critical patent/CN112037159B/zh
Publication of CN112037159A publication Critical patent/CN112037159A/zh
Application granted granted Critical
Publication of CN112037159B publication Critical patent/CN112037159B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种跨相机道路空间融合及车辆目标检测跟踪方法及系统,该方法进行两个交通场景的背景图像提取及场景标定,获得标定参数;分别划分场景拼接区域,设置长度、宽度方向像素距离比参数组,生成空白空间融合图像;将分场景中像素取出放入空白空间融合图像中,获得带有空间信息的融合图像;利用针对车辆数据集训练的深度神经网络Yolov3,在连续的图像序列中,对车辆目标进行检测获得二维包络模型参数,结合空间融合信息,完成跨相机车辆目标检测跟踪。本发明可适应包含公共区域的连续道路交通场景,利用摄像机标定完成跨相机道路空间融合,并结合深度神经网络提取场景中大量车辆目标完成跨相机车辆目标检测跟踪,实现简单且具有较高的通用性。

Description

一种跨相机道路空间融合及车辆目标检测跟踪方法及系统
技术领域
本发明属于智能交通技术领域,具体涉及一种跨相机道路空间融合及车辆目标检测跟踪方法及系统。
背景技术
跨相机道路空间融合目前在虚拟现实和计算机视觉等领域得到了广泛应用,常见融合方法主要有专业设备采集和图像处理。前者能够得到较好的融合效果,但是设备昂贵,操作复杂,不利于推广;后者通过相机采集多幅包含公共区域的图像,运用图像融合等技术完成空间融合,这种方法成本低,融合效果较好,具有较好的应用型,是目前空间融合的主要方法。
图像融合技术通常需要依赖图像灰度、频域和特征信息。灰度信息实现简单,但是计算量较大,算法效率较低;频域信息对于场景之间仅存在平移的情况适应性较好,如果场景之间有旋转,会大大降低算法的效率;特征信息需要通过对场景之间寻找特征点对获得,算法效率与精度与提取的特征点对数量和准确定有很大关系。
发明内容
针对现有技术中的缺陷和不足,本发明提供了一种跨相机道路空间融合及车辆目标检测跟踪方法及系统,克服现有摄像头传感器监控范围有限等缺陷。
为达到上述目的,本发明采取如下的技术方案:
一种跨相机道路空间融合及车辆目标检测跟踪方法,该方法使用相机标定技术对跨相机场景进行标定,利用跨相机场景中的公共区域完成道路空间融合,同时采用深度学习的方法对车辆目标进行检测,完成对跨相机车辆追踪;
具体包括如下步骤:
步骤1,输入场景1和场景2交通场景背景图像p1和p2,视频帧图像序列组s1和s2
步骤2,构建坐标系和模型,完成相机标定:从步骤1得到的背景图像p1和p2中提取消失点,建立相机模型和坐标系,世界坐标系包含x,y,z轴,图像坐标系包含u,v轴、车辆目标在图像坐标系下的二维包络框模型,并结合消失点进行相机标定,得到相机标定参数H1和H2,H表示二维图像与三维真实世界空间的映射关系矩阵;
步骤3,设置控制点标识道路区域范围:在p1和p2中分别设定2个控制点标识道路区域范围,控制点位于道路中线位置,设场景1控制点世界坐标为
Figure BDA0002607224830000021
Figure BDA0002607224830000022
图像坐标为
Figure BDA0002607224830000023
Figure BDA0002607224830000024
设场景2控制点世界坐标为
Figure BDA0002607224830000025
Figure BDA0002607224830000026
图像坐标为
Figure BDA0002607224830000027
Figure BDA0002607224830000028
其中
Figure BDA0002607224830000029
为场景1和2对应控制点在世界坐标系中x轴上的值,Y1 1,Y2 1,Y1 2,Y2 2为场景1和2对应控制点在世界坐标系中y轴上的值;
Figure BDA00026072248300000210
为场景1和2对应控制点在图像坐标系中u轴上的值,
Figure BDA00026072248300000211
为场景1和2对应控制点在图像坐标系中v轴上的值;
步骤4,生成带空间信息的道路空间融合图像Mp
步骤4.1,设置控制参数组,划定Mp中对应场景1和场景2部分像素范围;已知道路宽度为w(mm),宽度方向像素距离比为rw(像素/mm),长度方向距离像素比为rl(像素/mm),生成的空间融合图像Mp的像素宽度为wrw,像素长度为
Figure BDA00026072248300000212
场景1部分对应像素长度为
Figure BDA00026072248300000213
场景2部分对应像素长度为
Figure BDA00026072248300000214
步骤4.2,生成空间融合图像Mp:分别遍历空间融合图像Mp中场景1部分像素
Figure BDA00026072248300000215
和场景2部分像素
Figure BDA00026072248300000216
对应场景1世界坐标
Figure BDA00026072248300000217
中取对应像素值至空间融合图场景1部分,对应场景2世界坐标
Figure BDA00026072248300000218
中取对应像素值至空间融合图场景2部分,如果分场景图中有像素则取出,没有则跳过,直到像素全部取完,即完成道路空间融合图像Mp的生成;其中取像素的方括号内为先u轴后v轴坐标,世界坐标的方括号内为先x轴后y轴坐标;
步骤4.3,解析空间信息:
(1)由融合图Mp上任一像素坐标(u,v)解析其在统一世界坐标系、场景1世界坐标系、场景2世界坐标系的世界坐标:
统一世界坐标:(v/rw,u/rl+Y1 1,0)
场景1世界坐标:
Figure BDA0002607224830000031
场景2世界坐标:
Figure BDA0002607224830000032
(2)由地面任意点世界坐标(X,Y,0)解析其在融合图Mp中图像坐标:
世界坐标在场景1中:
Figure BDA0002607224830000033
世界坐标在场景2中:
Figure BDA0002607224830000034
步骤5,跨相机目标检测:
使用道路车辆数据集训练的目标检测网络Yolov3,对步骤1的视频帧图像序列组s1和s2分别进行目标检测,获得目标检测结果在图像坐标下的二维包络框模型:
Figure BDA0002607224830000035
上式中,
Figure BDA0002607224830000036
为第t个场景的第i帧图像,S为场景数,F为每个场景下的视频帧数,xtp,ytp分别为二维包围框左上角点在图像坐标u,v轴的值,w为二维包围框在图像中的像素宽度,h为二维包围框在图像中的像素高度,由二维包络框模型可以计算出车辆下底边中点在分场景中的图像坐标(xtp+w/2,ytp+h),先利用步骤2中的H矩阵将其转换为分场景中的世界坐标,再由步骤4转换至Mp中图像坐标,完成跨相机目标检测;
步骤6,跨相机目标跟踪:
在目标检测的基础上,对每个目标提取3个特征点进行跟踪,获得其图像坐标
Figure BDA0002607224830000037
其中,
Figure BDA0002607224830000038
为第i个特征点的图像坐标,xf,yf分别为特征点在图像坐标u,v轴的值;在跨相机的重叠区域中,通过特征点关联匹配确定同一车辆,完成跨相机目标跟踪。
一种跨相机道路空间融合及车辆目标检测跟踪系统,该系统包括:
数据输入模块,用于输入需要拼接的多个交通场景背景图像和与场景对应的包含车辆的视频帧图像序列组;
相机标定模块,用于建立相机模型和坐标系、车辆目标在图像坐标系下的二维包络框模型,进行相机标定,获取相机标定参数和最终的场景二维-三维变换矩阵;
控制点标识道路区域设置模块,用于在p1和p2中分别设定2个控制点标识道路区域范围,控制点位于道路中线位置,设场景1控制点世界坐标和图像坐标;设场景2控制点世界坐标和图像坐标;
道路空间融合模块:用于在相机标定的基础上,设置场景控制点参数组,生成带有道路空间信息的融合图像;
跨相机车辆目标检测跟踪模块,用于使用深度学习目标检测Yolov3对视频帧图像中的车辆目标进行检测,检测结果包括车辆目标在二维包络框模型下的二维坐标信息以及车辆目标的车辆类别;在车辆目标检测的基础上,对目标提取特征点完成跟踪;将单场景目标检测跟踪结果映射至道路空间融合图像,完成跨相机车辆目标检测跟踪;
结果输出模块,将生成带有空间信息的融合图像、车辆目标检测跟踪结果输出,得到跨相机车辆目标检测跟踪结果。
本发明与现有技术相比,有益的技术效果是:
本发明的方法实现简单,可以应用于包含公共区域的跨相机道路空间融合及车辆目标检测跟踪,保证道路监控环境下的通用性,满足智能交通监控系统中准确获取交通参数的需求。使用深度学习的方法对车辆目标进行检测的方法,因为其稳定性和精度都很高,具有较为广泛的应用。
附图说明
图1为本发明提供的跨相机道路空间融合及车辆目标检测跟踪的算法流程;
图2为本发明中摄像机模型的坐标系的示意图;其中,(a)为摄像机模型的世界坐标系的侧视图,(b)为摄像机模型的相机坐标系的俯视图;
图3为本发明中标定条件在坐标系下的表示示意图;其中,(a)为标定条件在世界坐标系下的表示示意图,(b)为标定条件在图像坐标系下的表示示意图;
图4为本发明实施例所采用的跨相机交通图像;
图5为本发明实施例中跨相机道路空间融合图像;
图6为本发明车辆目标二维包络框模型图;
图7为本发明实施例中跨相机车辆目标检测跟踪结果;
具体实施方式
以下对本发明的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明,并不用于限制本发明。
本发明使用相机标定技术对跨相机场景进行标定,利用跨相机场景中的公共区域完成道路空间融合,同时采用深度学习的方法对车辆目标进行检测,对跨相机车辆完成追踪;这些参数在道路环境中很容易获取,这充分保证了此方法在此场景下的通用性。
实施例1:
如图1至图7所示,本发明公开了一种跨相机道路空间融合及车辆目标检测跟踪方法及系统,详细步骤如下:
步骤1,输入场景1和场景2交通场景背景图像p1和p2,视频帧图像序列组s1和s2;其中,背景图像是指图像上不包含车辆目标的图像,视频帧图像是指相机采集的原始视频中提取出来的图像;
步骤2,构建坐标系、模型,完成摄像机标定。从步骤1得到的背景图像p1和p2中提取消失点,建立摄像机模型和坐标系(世界坐标系、图像坐标系)、车辆目标在图像坐标系下的二维包络框模型,并结合消失点进行相机标定,得到相机标定参数H1和H2
参考论文《A Taxonomy and Analysis of Camera Calibration Methods forTraffic Monitoring Applications》的方法,如图2所示,建立摄像机模型、世界坐标系O-XYZ、相机坐标系O-XCYCZC、图像坐标系O-UV,摄像机模型简化为针孔模型,所建坐标系均为右手系,世界坐标系包含x,y,z轴,原点位于相机在路面的投影点,z轴垂直于地面方向向上,图2的(a)侧视图中可以看出,x轴指向纸内,用
Figure BDA0002607224830000051
表示,y轴垂直于xoz平面,图2的(b)俯视图中可以看出,z轴指向纸外,用⊙表示;相机坐标系包含xc,yc,zc,原点位于相机所处位置,xc轴与世界坐标系下的x轴平行,zc轴正向沿着相机的光轴指向地面,yc轴垂直于xcozc平面指向地面。图中的主点为r点,为zc轴延伸至与地面的交点,根据图2中的角度关系,r点在世界坐标系下的坐标为(0,hcotφ,0);图像坐标系为图像平面坐标系,以r点为原点,水平向右为u轴,垂直向下为v轴。
相机标定参数为:设相机焦距为f,相机原点距离地面高度为h,相机俯仰角为φ,相机偏转角(相机光轴在路平面投影与道路延伸方向的夹角)为θ,由于相机自旋角可以通过简单的图像旋转进行表示,并且对于标定结果无影响,因此不予考虑。
由论文中的推导可知:
如图3所示,采用单个消失点标定的方法,设沿道路方向消失点坐标为(u0,v0),垂直道路方向消失点坐标为(u1,v1),l为道路中的一段物理距离,w为道路的物理宽度,有关于未知参量f的四次方程:
Figure BDA0002607224830000061
其中,为计算方便引入中间变量kV=δτl/wv0,δ为道路物理宽度w在图像上对应的像素距离,τ=(vf-v0)(vb-v0)/(vf-vb),其中,vb和vf分别表示l的两个端点在图像坐标系中v轴对应的坐标值;
Figure BDA0002607224830000062
Figure BDA0002607224830000063
通过上述公式(1)至(3)计算得到相机标定参数。
设图像上任意一点的世界坐标为(x,y,z),世界坐标系的点与图像坐标系的点的投影关系为:
Figure BDA0002607224830000064
Figure BDA0002607224830000065
Figure BDA0002607224830000066
Figure BDA0002607224830000067
其中,α为比例因子。
最终得到二维图像坐标与三维世界坐标之间的转换关系为:
Figure BDA0002607224830000068
步骤3,设置控制点标识道路区域范围。在p1和p2中分别设定2个控制点标识道路区域范围,控制点通常位于道路中线位置,设场景1控制点世界坐标为
Figure BDA0002607224830000069
Figure BDA00026072248300000610
图像坐标为
Figure BDA00026072248300000611
Figure BDA00026072248300000612
设场景2控制点世界坐标为
Figure BDA00026072248300000613
Figure BDA00026072248300000614
图像坐标为
Figure BDA00026072248300000615
Figure BDA00026072248300000616
步骤4,生成带空间信息的道路空间融合图像Mp
步骤4.1,设置控制参数组,划定Mp中对应场景1和场景2部分像素范围。已知道路宽度为w(mm),宽度方向像素距离比为rw(像素/mm),长度方向距离像素比为rl(像素/mm),生成的空间融合图像Mp的像素宽度为wrw,像素长度为
Figure BDA0002607224830000071
场景1部分对应像素长度为
Figure BDA0002607224830000072
场景2部分对应像素长度为
Figure BDA0002607224830000073
步骤4.2,生成空间融合图像Mp。分别遍历空间融合图像Mp中场景1部分像素
Figure BDA0002607224830000074
和场景2部分像素
Figure BDA0002607224830000075
对应场景1世界坐标
Figure BDA0002607224830000076
中取对应像素值至空间融合图场景1部分,对应场景2世界坐标
Figure BDA0002607224830000077
中取对应像素值至空间融合图场景2部分,如果分场景图中有像素则取出,没有则跳过,直到像素全部取完,即完成道路空间融合图像Mp的生成;
步骤4.3,解析空间信息。
(1)由融合图Mp上任一像素(u,v)解析其在统一世界坐标系、场景1世界坐标系、场景2世界坐标系的世界坐标:
统一世界坐标:(v/rw,u/rl+Y1 1)
场景1世界坐标:
Figure BDA0002607224830000078
场景2世界坐标:
Figure BDA0002607224830000079
(2)由地面任意点世界坐标(X,Y,0)解析其在融合图Mp中图像坐标:
世界坐标在场景1中:
Figure BDA00026072248300000710
世界坐标在场景2中:
Figure BDA00026072248300000711
步骤5,跨相机目标检测。
使用道路车辆数据集训练的目标检测网络,对步骤1的视频帧图像序列组s1和s2分别进行目标检测,获得目标检测结果在图像坐标下的二维包络框模型
Figure BDA00026072248300000712
Figure BDA00026072248300000713
表示第t个场景的第i帧图像,S表示场景数,F表示帧数,由二维包络框模型可以计算出车辆下底边中点在分场景中的图像坐标(xtp+w/2,ytp+h),先将其转换为分场景中的世界坐标,再由步骤4转换至Mp中图像坐标,即可完成跨相机目标检测。
步骤6,跨相机目标跟踪。
在目标检测的基础上,对每个目标提取3个特征点进行跟踪,3个特征点使用的是光流法进行特征点跟踪,获得其图像坐标
Figure BDA0002607224830000081
在跨相机的重叠区域中,通过特征点关联匹配确定同一车辆,完成跨相机目标跟踪。
实施例2:
本实施例提供一种跨相机道路空间融合及车辆目标检测跟踪系统,该系统包括:
数据输入模块,用于输入需要拼接的多个交通场景背景图像和与场景对应的包含车辆的视频帧图像序列组;
相机标定模块,用于建立相机模型和坐标系、车辆目标在图像坐标系下的二维包络框模型,进行相机标定,获取相机标定参数和最终的场景二维-三维变换矩阵;
控制点标识道路区域设置模块,用于在p1和p2中分别设定2个控制点标识道路区域范围,控制点位于道路中线位置,设场景1控制点世界坐标和图像坐标;设场景2控制点世界坐标和图像坐标;
道路空间融合模块:用于在相机标定的基础上,设置场景控制点参数组,生成带有道路空间信息的融合图像;
跨相机车辆目标检测跟踪模块,用于使用深度学习目标检测Yolov3对视频帧图像中的车辆目标进行检测,检测结果包括车辆目标在二维包络框模型下的二维坐标信息以及车辆目标的车辆类别;在车辆目标检测的基础上,对目标提取特征点完成跟踪;将单场景目标检测跟踪结果映射至道路空间融合图像,完成跨相机车辆目标检测跟踪;
结果输出模块,将生成带有空间信息的融合图像、车辆目标检测跟踪结果输出,得到跨相机车辆目标检测跟踪结果。
实施例3:
为了验证本发明所提出方法的有效性,本发明的一个实施例采用了以图4所示的一组实际道路交通场景图像,在此实际交通场景中识别出沿道路方向的单个消失点,并且对摄像机进行了标定。如图5所示,为采用本发明所提方法完成道路空间融合的结果图。在此基础上,通过深度网络的方法对视频帧序列组中的车辆目标进行检测,结合道路空间融合结果,完成跨相机车辆目标检测与跟踪,结果如图7所示。
实验结果表明,通过本方法完成的道路空间融合,具有较高的精度,能够较好的完成跨相机车辆目标检测与跟踪,实验结果如表1所示,实验结果说明本方法完全能够满足跨相机道路交通场景下车辆目标检测与跟踪的任务,该实验在一定程度上证明了本发明所提出方法的有效性。
表1跨相机车辆目标检测与跟踪结果
Figure BDA0002607224830000091

Claims (2)

1.一种跨相机道路空间融合及车辆目标检测跟踪方法,其特征在于,该方法使用相机标定技术对跨相机场景进行标定,利用跨相机场景中的公共区域完成道路空间融合,同时采用深度学习的方法对车辆目标进行检测,完成对跨相机车辆追踪;
具体包括如下步骤:
步骤1,输入场景1和场景2交通场景背景图像p1和p2,视频帧图像序列组s1和s2
步骤2,构建坐标系和模型,完成相机标定:从步骤1得到的背景图像p1和p2中提取消失点,建立相机模型和坐标系,世界坐标系包含x,y,z轴,图像坐标系包含u,v轴、车辆目标在图像坐标系下的二维包络框模型,并结合消失点进行相机标定,得到相机标定参数H1和H2,H表示二维图像与三维真实世界空间的映射关系矩阵;
步骤3,设置控制点标识道路区域范围:在p1和p2中分别设定2个控制点标识道路区域范围,控制点位于道路中线位置,设场景1控制点世界坐标为
Figure FDA0002607224820000011
Figure FDA0002607224820000012
图像坐标为
Figure FDA0002607224820000013
Figure FDA0002607224820000014
设场景2控制点世界坐标为
Figure FDA0002607224820000015
Figure FDA0002607224820000016
图像坐标为
Figure FDA0002607224820000017
Figure FDA0002607224820000018
其中
Figure FDA0002607224820000019
为场景1和2对应控制点在世界坐标系中x轴上的值,Y1 1,
Figure FDA00026072248200000110
Y1 2,
Figure FDA00026072248200000111
为场景1和2对应控制点在世界坐标系中y轴上的值;
Figure FDA00026072248200000112
为场景1和2对应控制点在图像坐标系中u轴上的值,
Figure FDA00026072248200000113
为场景1和2对应控制点在图像坐标系中v轴上的值;
步骤4,生成带空间信息的道路空间融合图像Mp
步骤4.1,设置控制参数组,划定Mp中对应场景1和场景2部分像素范围;已知道路宽度为w(mm),宽度方向像素距离比为rw(像素/mm),长度方向距离像素比为rl(像素/mm),生成的空间融合图像Mp的像素宽度为wrw,像素长度为
Figure FDA00026072248200000114
场景1部分对应像素长度为
Figure FDA00026072248200000115
场景2部分对应像素长度为
Figure FDA00026072248200000116
步骤4.2,生成空间融合图像Mp:分别遍历空间融合图像Mp中场景1部分像素
Figure FDA0002607224820000021
和场景2部分像素
Figure FDA0002607224820000022
对应场景1世界坐标
Figure FDA0002607224820000023
中取对应像素值至空间融合图场景1部分,对应场景2世界坐标
Figure FDA0002607224820000024
中取对应像素值至空间融合图场景2部分,如果分场景图中有像素则取出,没有则跳过,直到像素全部取完,即完成道路空间融合图像Mp的生成;其中取像素的方括号内为先u轴后v轴坐标,世界坐标的方括号内为先x轴后y轴坐标;
步骤4.3,解析空间信息:
(1)由融合图Mp上任一像素坐标(u,v)解析其在统一世界坐标系、场景1世界坐标系、场景2世界坐标系的世界坐标:
统一世界坐标:(v/rw,u/rl+Y1 1,0)
场景1世界坐标:
Figure FDA0002607224820000025
场景2世界坐标:
Figure FDA0002607224820000026
(2)由地面任意点世界坐标(X,Y,0)解析其在融合图Mp中图像坐标:
世界坐标在场景1中:
Figure FDA0002607224820000027
世界坐标在场景2中:
Figure FDA0002607224820000028
步骤5,跨相机目标检测:
使用道路车辆数据集训练的目标检测网络Yolov3,对步骤1的视频帧图像序列组s1和s2分别进行目标检测,获得目标检测结果在图像坐标下的二维包络框模型:
Figure FDA0002607224820000029
上式中,
Figure FDA00026072248200000210
为第t个场景的第i帧图像,S为场景数,F为每个场景下的视频帧数,xtp,ytp分别为二维包围框左上角点在图像坐标u,v轴的值,w为二维包围框在图像中的像素宽度,h为二维包围框在图像中的像素高度,由二维包络框模型可以计算出车辆下底边中点在分场景中的图像坐标(xtp+w/2,ytp+h),先利用步骤2中的H矩阵将其转换为分场景中的世界坐标,再由步骤4转换至Mp中图像坐标,完成跨相机目标检测;
步骤6,跨相机目标跟踪:
在目标检测的基础上,对每个目标提取3个特征点进行跟踪,获得其图像坐标
Figure FDA0002607224820000031
其中,
Figure FDA0002607224820000032
为第i个特征点的图像坐标,xf,yf分别为特征点在图像坐标u,v轴的值;在跨相机的重叠区域中,通过特征点关联匹配确定同一车辆,完成跨相机目标跟踪。
2.一种跨相机道路空间融合及车辆目标检测跟踪系统,其特征在于,该系统包括:
数据输入模块,用于输入需要拼接的多个交通场景背景图像和与场景对应的包含车辆的视频帧图像序列组;
相机标定模块,用于建立相机模型和坐标系、车辆目标在图像坐标系下的二维包络框模型,进行相机标定,获取相机标定参数和最终的场景二维—三维变换矩阵;
控制点标识道路区域设置模块,用于在p1和p2中分别设定2个控制点标识道路区域范围,控制点位于道路中线位置,设场景1控制点世界坐标和图像坐标;设场景2控制点世界坐标和图像坐标;
道路空间融合模块:用于在相机标定的基础上,设置场景控制点参数组,生成带有道路空间信息的融合图像;
跨相机车辆目标检测跟踪模块,用于使用深度学习目标检测Yolov3对视频帧图像中的车辆目标进行检测,检测结果包括车辆目标在二维包络框模型下的二维坐标信息以及车辆目标的车辆类别;在车辆目标检测的基础上,对目标提取特征点完成跟踪;将单场景目标检测跟踪结果映射至道路空间融合图像,完成跨相机车辆目标检测跟踪;
结果输出模块,将生成带有空间信息的融合图像、车辆目标检测跟踪结果输出,得到跨相机车辆目标检测跟踪结果。
CN202010742528.1A 2020-07-29 2020-07-29 一种跨相机道路空间融合及车辆目标检测跟踪方法及系统 Active CN112037159B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010742528.1A CN112037159B (zh) 2020-07-29 2020-07-29 一种跨相机道路空间融合及车辆目标检测跟踪方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010742528.1A CN112037159B (zh) 2020-07-29 2020-07-29 一种跨相机道路空间融合及车辆目标检测跟踪方法及系统

Publications (2)

Publication Number Publication Date
CN112037159A true CN112037159A (zh) 2020-12-04
CN112037159B CN112037159B (zh) 2023-06-23

Family

ID=73583445

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010742528.1A Active CN112037159B (zh) 2020-07-29 2020-07-29 一种跨相机道路空间融合及车辆目标检测跟踪方法及系统

Country Status (1)

Country Link
CN (1) CN112037159B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112837384A (zh) * 2021-03-01 2021-05-25 东软睿驰汽车技术(沈阳)有限公司 车辆标记方法、装置和电子设备
CN113409601A (zh) * 2021-07-14 2021-09-17 深圳市广联智通科技有限公司 基于信息智能分析的信号灯控制方法、装置、设备及介质
CN113450389A (zh) * 2021-09-01 2021-09-28 智道网联科技(北京)有限公司 一种目标跟踪方法、装置及电子设备
CN114419547A (zh) * 2021-12-30 2022-04-29 山东奥邦交通设施工程有限公司 基于单目视觉和深度学习的车辆检测方法及系统
CN114543680A (zh) * 2022-02-18 2022-05-27 国网湖北省电力有限公司电力科学研究院 一种架空输电线路通道施工车辆现场监测及测距方法
CN114758511A (zh) * 2022-06-14 2022-07-15 深圳市城市交通规划设计研究中心股份有限公司 一种跑车超速检测系统、方法、电子设备及存储介质
CN114822036A (zh) * 2022-05-16 2022-07-29 山东衡昊信息技术有限公司 一种多路况防追尾的车辆智能化调控方法
CN115100290A (zh) * 2022-06-20 2022-09-23 苏州天准软件有限公司 交通场景下的单目视觉定位方法及装置、设备、存储介质
CN116402857A (zh) * 2023-04-14 2023-07-07 北京天睿空间科技股份有限公司 一种基于三维标定的运动目标跨镜头跟踪方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101344965A (zh) * 2008-09-04 2009-01-14 上海交通大学 基于双目摄像的跟踪系统
CN101950426A (zh) * 2010-09-29 2011-01-19 北京航空航天大学 一种多摄像机场景下车辆接力跟踪方法
WO2016131300A1 (zh) * 2015-07-22 2016-08-25 中兴通讯股份有限公司 一种自适应跨摄像机多目标跟踪方法及系统
CN106204656A (zh) * 2016-07-21 2016-12-07 中国科学院遥感与数字地球研究所 基于视频和三维空间信息的目标定位和跟踪系统及方法
CN109190508A (zh) * 2018-08-13 2019-01-11 南京财经大学 一种基于空间坐标系的多摄像头数据融合方法
EP3566903A1 (en) * 2018-05-09 2019-11-13 Neusoft Corporation Method and apparatus for vehicle position detection
CN110930365A (zh) * 2019-10-30 2020-03-27 长安大学 一种交通场景下的正交消失点检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101344965A (zh) * 2008-09-04 2009-01-14 上海交通大学 基于双目摄像的跟踪系统
CN101950426A (zh) * 2010-09-29 2011-01-19 北京航空航天大学 一种多摄像机场景下车辆接力跟踪方法
WO2016131300A1 (zh) * 2015-07-22 2016-08-25 中兴通讯股份有限公司 一种自适应跨摄像机多目标跟踪方法及系统
CN106204656A (zh) * 2016-07-21 2016-12-07 中国科学院遥感与数字地球研究所 基于视频和三维空间信息的目标定位和跟踪系统及方法
EP3566903A1 (en) * 2018-05-09 2019-11-13 Neusoft Corporation Method and apparatus for vehicle position detection
CN109190508A (zh) * 2018-08-13 2019-01-11 南京财经大学 一种基于空间坐标系的多摄像头数据融合方法
CN110930365A (zh) * 2019-10-30 2020-03-27 长安大学 一种交通场景下的正交消失点检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MOONSUB BYEON ET AL: "Real-time scheme for 3-dimensional localizing and tracking of people in multiple camera settings", 《2017 17TH INTERNATIONAL CONFERENCE ON CONTROL, AUTOMATION AND SYSTEMS (ICCAS)》 *
武非凡等: "基于相机标定的跨相机场景拼接方法", 《计算机系统应用》 *
邓颖娜等: "基于场景模型的多摄像机目标跟踪算法", 《计算机工程与应用》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112837384A (zh) * 2021-03-01 2021-05-25 东软睿驰汽车技术(沈阳)有限公司 车辆标记方法、装置和电子设备
CN113409601A (zh) * 2021-07-14 2021-09-17 深圳市广联智通科技有限公司 基于信息智能分析的信号灯控制方法、装置、设备及介质
CN113409601B (zh) * 2021-07-14 2021-12-31 深圳市广联智通科技有限公司 基于信息智能分析的信号灯控制方法、装置、设备及介质
CN113450389A (zh) * 2021-09-01 2021-09-28 智道网联科技(北京)有限公司 一种目标跟踪方法、装置及电子设备
CN114419547A (zh) * 2021-12-30 2022-04-29 山东奥邦交通设施工程有限公司 基于单目视觉和深度学习的车辆检测方法及系统
CN114543680B (zh) * 2022-02-18 2022-12-02 国网湖北省电力有限公司电力科学研究院 一种架空输电线路通道施工车辆现场监测及测距方法
CN114543680A (zh) * 2022-02-18 2022-05-27 国网湖北省电力有限公司电力科学研究院 一种架空输电线路通道施工车辆现场监测及测距方法
CN114822036A (zh) * 2022-05-16 2022-07-29 山东衡昊信息技术有限公司 一种多路况防追尾的车辆智能化调控方法
CN114758511A (zh) * 2022-06-14 2022-07-15 深圳市城市交通规划设计研究中心股份有限公司 一种跑车超速检测系统、方法、电子设备及存储介质
CN114758511B (zh) * 2022-06-14 2022-11-25 深圳市城市交通规划设计研究中心股份有限公司 一种跑车超速检测系统、方法、电子设备及存储介质
CN115100290A (zh) * 2022-06-20 2022-09-23 苏州天准软件有限公司 交通场景下的单目视觉定位方法及装置、设备、存储介质
CN116402857A (zh) * 2023-04-14 2023-07-07 北京天睿空间科技股份有限公司 一种基于三维标定的运动目标跨镜头跟踪方法
CN116402857B (zh) * 2023-04-14 2023-11-07 北京天睿空间科技股份有限公司 一种基于三维标定的运动目标跨镜头跟踪方法

Also Published As

Publication number Publication date
CN112037159B (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
CN112037159A (zh) 一种跨相机道路空间融合及车辆目标检测跟踪方法及系统
CN110148169B (zh) 一种基于ptz云台相机的车辆目标三维信息获取方法
CN113111887B (zh) 一种基于相机和激光雷达信息融合的语义分割方法及系统
CN113362247B (zh) 一种激光融合多目相机的语义实景三维重建方法及系统
CN103868460B (zh) 基于视差优化算法的双目立体视觉自动测量方法
CN103411553B (zh) 多线结构光视觉传感器的快速标定方法
CN103424112B (zh) 一种基于激光平面辅助的运动载体视觉导航方法
Ma et al. CRLF: Automatic calibration and refinement based on line feature for LiDAR and camera in road scenes
CN107481315A (zh) 一种基于Harris‑SIFT‑BRIEF算法的单目视觉三维环境重建方法
CN113327296B (zh) 基于深度加权的激光雷达与相机在线联合标定方法
CN110766024B (zh) 基于深度学习的视觉里程计特征点提取方法及视觉里程计
CN111443704B (zh) 用于自动驾驶系统的障碍物定位方法及装置
CN110930365B (zh) 一种交通场景下的正交消失点检测方法
CN110334678A (zh) 一种基于视觉融合的行人检测方法
CN113050074B (zh) 无人驾驶环境感知中相机与激光雷达标定系统及标定方法
CN107154014A (zh) 一种实时彩色及深度全景图像拼接方法
WO2024131200A1 (zh) 基于单目视觉的车辆3d定位方法、装置及汽车
CN106218409A (zh) 一种可人眼跟踪的裸眼3d汽车仪表显示方法及装置
CN111862210B (zh) 一种基于环视相机的目标物检测定位方法及装置
CN111178150A (zh) 车道线检测方法、系统及存储介质
Gao et al. ESGN: Efficient stereo geometry network for fast 3D object detection
CN107796373A (zh) 一种基于车道平面几何模型驱动的前方车辆单目视觉的测距方法
CN114413958A (zh) 无人物流车的单目视觉测距测速方法
CN112017248A (zh) 一种基于点线特征的2d激光雷达相机多帧单步标定方法
CN114298151A (zh) 一种基于点云数据与图像数据融合的3d目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20230529

Address after: Floors 2-14, Building 2, Development Building, No. 66 Lingrong Street, Lingkun Street, Oujiangkou Industrial Cluster Zone, Wenzhou City, Zhejiang Province, 325000

Applicant after: Zhongtian Zhikong Technology Holding Co.,Ltd.

Address before: 710064 No. 126 central section of South Ring Road, Yanta District, Xi'an, Shaanxi

Applicant before: CHANG'AN University

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant