CN111712855A - 地面信息处理方法、装置和无人驾驶车辆 - Google Patents
地面信息处理方法、装置和无人驾驶车辆 Download PDFInfo
- Publication number
- CN111712855A CN111712855A CN201980011875.2A CN201980011875A CN111712855A CN 111712855 A CN111712855 A CN 111712855A CN 201980011875 A CN201980011875 A CN 201980011875A CN 111712855 A CN111712855 A CN 111712855A
- Authority
- CN
- China
- Prior art keywords
- height
- map
- frame
- ground
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 33
- 238000003672 processing method Methods 0.000 title claims abstract description 16
- 230000004927 fusion Effects 0.000 claims abstract description 109
- 238000000034 method Methods 0.000 claims abstract description 35
- 230000011218 segmentation Effects 0.000 claims abstract description 15
- 230000008569 process Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 6
- 230000008447 perception Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Processing Or Creating Images (AREA)
Abstract
一种地面信息处理方法、装置和无人驾驶车辆,该方法包括:获取深度传感器采集的N帧深度图(S301);对每帧深度图进行地面分割,获得每帧深度图中的地面区域(S302);根据每帧深度图中的地面区域,获得每帧深度图中地面区域的高度图(S303);根据各帧深度图中地面区域的高度图,获得N帧高度图融合后的融合高度图,所述融合高度图用于地面区域的地面估计(S304)。由于该融合高度图融合了N帧高度图中地面区域的高度信息,所以降低了单帧高度图中的噪声对地面区域的高度值的影响,使得融合高度图的高度值更加接近地面区域的实际高度值。通过该融合高度图获得的地面区域的地面估计更加准确。
Description
技术领域
本申请实施例涉及无人驾驶技术领域,尤其涉及一种地面信息处理方法、装置和无人驾驶车辆。
背景技术
近年无人驾驶技术发展迅速,其中,地面模型估计技术为无人驾驶技术中的基础技术,在地面估计之后,估计后的地面模型可以用于将车道线从相机视角转换为俯视视角,以便后续对车道线的处理,也可以用于为无人驾驶车辆可通行区域进行检测,也可以用于为基于地图的在线定位系统检测无人驾驶车辆的当前姿态。
目前的地面模型估计流程为:获取车辆在移动过程中相机视角下的多帧深度图,然后对该每帧深度图进行地面分割,获取地面区域,然后根据每帧的深度图的地面区域进行地面估计,获得地面模型。但是这种方式会造成地面信息丢失严重,使得获取的地面模型的准确率低。
发明内容
本申请实施例提供一种地面信息处理方法、装置和无人驾驶车辆,以获得融合高度图,以便通过该融合高度图获得的地面区域的地面估计更加准确。
第一方面,本申请实施例提供一种地面信息处理方法,包括:
获取深度传感器采集的N帧深度图,N为大于等于2的整数;
对每帧深度图进行地面分割,获得每帧深度图中的地面区域;
根据每帧深度图中的地面区域,获得每帧深度图中地面区域的高度图;
根据各帧深度图中地面区域的高度图,获得N帧高度图融合后的融合高度图,所述融合高度图用于地面区域的地面估计。
第二方面,本申请实施例提供一种地面信息处理装置,包括:深度传感器和处理器;
所述深度传感器,用于采集深度图;
所述处理器,用于获取所述深度传感器采集的N帧深度图,N为大于等于2的整数;对每帧深度图进行地面分割,获得每帧深度图中的地面区域;根据每帧深度图中的地面区域,获得每帧深度图中地面区域的高度图;根据各帧深度图中地面区域的高度图,获得N帧高度图融合后的融合高度图,所述融合高度图用于地面区域的地面估计。
第三方面,本申请实施例提供一种无人驾驶车辆,包括:深度传感器和处理器;
所述深度传感器,用于采集深度图;
所述处理器,用于获取所述深度传感器采集的N帧深度图,N为大于等于2的整数;对每帧深度图进行地面分割,获得每帧深度图中的地面区域;根据每帧深度图中的地面区域,获得每帧深度图中地面区域的高度图;根据各帧深度图中地面区域的高度图,获得N帧高度图融合后的融合高度图,所述融合高度图用于地面区域的地面估计。
第四方面,本申请实施例提供一种无人驾驶车辆,包括:车辆本体以及如第二方面本申请实施例所述的地面信息处理装置,其中,所述地面信息处理装置安装于所述车辆本体上。
第五方面,本申请实施例提供一种可读存储介质,所述可读存储介质上存储有计算机程序;所述计算机程序在被执行时,实现如第一方面本申请实施例所述的地面信息处理方法。
第六方面,本申请实施例提供一种程序产品,所述程序产品包括计算机程序,所述计算机程序存储在可读存储介质中,地面信息处理装置或无人驾驶车辆的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得地面信息处理装置或无人驾驶车辆实施如第一方面本申请实施例所述的地面信息处理方法。
本申请实施例提供的地面信息处理方法、装置和无人驾驶车辆,通过获取深度传感器采集的N帧深度图;对每帧深度图进行地面分割,获得每帧深度图中的地面区域;根据每帧深度图中的地面区域,获得每帧深度图中地面区域的高度图;根据各帧深度图中地面区域的高度图,获得N帧高度图融合后的融合高度图,所述融合高度图用于地面区域的地面估计。由于该融合高度图融合了N帧高度图中地面区域的高度信息,所以降低了单帧高度图中的噪声对地面区域的高度值的影响,使得融合高度图的高度值更加接近地面区域的实际高度值。通过该融合高度图获得的地面区域的地面估计更加准确。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本申请的实施例的无人驾驶车辆100的示意性架构图;
图2为本申请一实施例提供的应用场景示意图;
图3为本申请一实施例提供的地面信息处理方法的流程图;
图4为本申请一实施例提供的高度图的示意图;
图5为本申请一实施例提供的地面信息处理装置的结构示意图;
图6为本申请一实施例提供的无人驾驶车辆的结构示意图;
图7为本申请另一实施例提供的无人驾驶车辆的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,当组件被称为“固定于”另一个组件,它可以直接在另一个组件上或者也可以存在居中的组件。当一个组件被认为是“连接”另一个组件,它可以是直接连接到另一个组件或者可能同时存在居中组件。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
本申请的实施例提供了地面信息处理方法、装置和无人驾驶车辆。图1是根据本申请的实施例的无人驾驶车辆100的示意性架构图。
无人驾驶车辆100可以包括感知系统110、控制系统120和机械系统130。
其中,感知系统110用于测量无人驾驶车辆的状态信息,即无人驾驶车辆100的感知数据,感知数据可以表示无人驾驶车辆100的位置信息和/或状态信息,例如,位置、角度、速度、加速度和角速度等。感知系统110例如可以包括视觉传感器(例如包括多个单目或双目视觉装置)、激光雷达、毫米波雷达、惯性测量单元(Inertial Measurement Unit,IMU)、全球导航卫星系统、陀螺仪、超声传感器、电子罗盘、和气压计等传感器中的至少一种。例如,全球导航卫星系统可以是全球定位系统(Global Positioning System,GPS)。
感知系统110获取到感知数据后,可以将感知数据传输给控制系统120。其中,控制系统120用于根据感知数据做出用于控制无人驾驶车辆100如何行驶的决策,例如:以多少的速度行驶,或者,以多少的刹车加速度刹车,或者,是否变道行驶,或者,左/右转行驶等。控制系统120例如可以包括:计算平台,例如车载超算平台,或者中央处理器、分布式处理单元等具有处理功能器件的至少一种。控制系统120还可以包括车辆上各种数据传输的通信链路。
控制系统120可以根据确定的决策向机械系统130输出一个或多个控制指令。其中,机械系统130用于响应来自控制系统120的一个或多个控制指令对无人驾驶车辆100进行控制,以完成上述决策,例如:机械系统130可以驱动无人驾驶车辆100的车轮转动,从而为无人驾驶车辆100的行驶提供动力,其中,车轮的转动速度可以影响到无人驾驶车辆的速度。其中,机械系统130例如可以包括:机械的车身发动机/电动机、控制的线控系统等等中的至少一种。
应理解,上述对于无人驾驶车辆各组成部分的命名仅是出于标识的目的,并不应理解为对本申请的实施例的限制。
其中,图2为本申请一实施例提供的应用场景示意图,如图2所示,无人驾驶车辆可以地面上行驶,并且无人驾驶车辆在地面行驶的过程中,可以(例如通过上述的感知系统110)采集环境信息,该环境信息可以包括地面信息,然后对该地面信息进行处理,具体如何处理可以参见本申请下述各实施例所述。
图3为本申请一实施例提供的地面信息处理方法的流程图,如图3所示,本实施例的方法可以包括:
S301、获取深度传感器采集的N帧深度图。
本实施例中,深度传感器可以根据其采集频率依次采集深度图,例如共采集到N帧深度图,N为大于等于2的整数,本实施例可以获取深度传感器采集的N帧深度图。
其中,本实施例的方法可以应用于无人驾驶车辆中,但本实施例并不限于此,也可以应用于其它可移动平台中,例如:机器人等。本实施例以应用于无人驾驶车辆为例,该无人驾驶车辆可以搭载有深度传感器,深度传感器可以用于采集该无人驾驶车辆在地面移动过程中所处理环境的深度图,相应地,可以获取无人驾驶车辆在地面移动过程中深度传感器采集的N帧深度图。
可选地,深度传感器包括:包括双目相机、飞行时间(Time of flight,TOF)传感器或激光雷达,本实施例对此不做限定。
S302、对每帧深度图进行地面分割,获得每帧深度图中的地面区域。
本实施例中,可以对深度传感器采集的每帧深度图进行地面分割,获得每帧深度图中的地面区域。其中,进行地图分割的处理过程可以参见基于u-disparity的方案,本实施例对此不再赘述,需要说明的是,本实施例也不限于上述基于u-disparity的方案。
S303、根据每帧深度图中的地面区域,获得每帧深度图中地面区域的高度图。
本实施例中,在获得每帧深度图的地面区域之后,根据该每帧深度图的地面区域,获得该帧深度图中地面区域的高度图。
可选地,上述S303的一种可能的实现方式为:先根据每帧深度图中的地面区域,获得地面区域对应的点云数据;再根据每帧深度图中地面区域对应的点云数据,获得每帧深度图中地面区域的高度图。本实施例中,根据每帧深度图中的地面区域,获得每帧深度图中地面区域对应的点云数据,可以包括将每帧深度图中地面区域中每个深度像素点确定为点云,从而获得地面区域对应的点云数据。然后根据每帧深度图中地面区域对应的点云数据,获得每帧深度图中地面区域的高度图,例如将每帧深度图中地面区域对应的点云数据正交投影到俯视图视角下,得到俯视图视角下的高度图,该俯视图视角下的高度图即为该帧深度图中地面区域的高度图。其中,获得的高度图中每一个高度像素点的高度值具有与该高度像素点对应的点云中点的高度。
可选地,所述俯视图视角为世界系坐标向下的方向。
可选地,若多个点云数据投影到高度图的同一高度像素点上,则所述高度图中该高度像素点的高度值为该多个点云数据对应的高度值的最小值。例如:若多个点云数据具有相同的x坐标值和y坐标值,这相当于在同一个地面点的竖直柱体上有多个点云,比如地面上具有红绿灯的场景中,该地面区域的同一x坐标和y坐标对应多个不同z坐标的点云数据;此时可以取这些点云中的最小高度值为该地面点对应在高度图的高度像素点的高度值。
可选地,可以是多个点云或深度图中的多个深度像素点对应一个高度像素点,例如可以将x方向与y方向上的具有多个深度像素点(例如2*2)的深度像素区域对应一个高度像素点,先可以获取该多个深度像素点中每个深度像素点对应的最小高度值,然后将这些深度像素点对应的最小高度值的平均值或最大值或最小值确定为该高度像素点的高度值。
需要说明的是,本实施例在实现上,可以在获取深度传感器采集的N帧深度图之后,执行S302和S303。也可以是获取深度传感器采集的每帧深度图之后即执行S302和S303,例如:获取深度传感器采集的第一帧深度图,对该第一帧深度图执行上述S302和S303的操作,然后再获取深度传感器采集的第二帧深度图,对第二帧深度图执行上述S302和S303的操作,以此类推,从而共获得N帧深度图中每帧深度图中地面区域的高度图。
S304、根据各帧深度图中地面区域的高度图,获得N帧高度图融合后的融合高度图,所述融合高度图用于地面区域的地面估计。
本实施例中,根据N帧深度图中每帧深度图中地面区域的高度图,获得一帧高度图,该一帧高度图为N帧高度图融合后的融合高度图,所述融合高度图可用于地面区域的地面估计。由于该融合高度图融合了N帧高度图中地面区域的高度信息,所以降低了单帧高度图中的噪声对地面区域的高度值的影响,使得融合高度图的高度值更加接近地面区域的实际高度值。
可选地,所述融合高度图中的每个高度像素点的高度值为该高度像素点在N帧高度图中高度值的平均值。
本实施例提供的地面信息处理方法,通过获取深度传感器采集的N帧深度图;对每帧深度图进行地面分割,获得每帧深度图中的地面区域;根据每帧深度图中的地面区域,获得每帧深度图中地面区域的高度图;根据各帧深度图中地面区域的高度图,获得N帧高度图融合后的融合高度图,所述融合高度图用于地面区域的地面估计。由于该融合高度图融合了N帧高度图中地面区域的高度信息,所以降低了单帧高度图中的噪声对地面区域的高度值的影响,使得融合高度图的高度值更加接近地面区域的实际高度值。通过该融合高度图获得的地面区域的地面估计更加准确。
在一些实施例中,上述S304的一种可能的实现方式中可以包括:S3041和S3042:
S3041、根据N帧高度图中前N-1帧高度图,获得前N-1帧高度图融合后的融合高度图。
S3042、根据前N-1帧高度图融合后的融合高度图以及第N帧高度图,获得前N帧高度图融合后的融合高度图。
本实施例中,N帧高度图即为N帧深度图中地面区域的高度图,N帧高度图为第1帧高度图、第2帧高度图、....、第N-1帧高度图、第N帧高度图,可以先根据第1帧高度图、第2帧高度图、....、第N-1帧高度图,获得N帧高度图中前N-1帧高度图融合后的融合高度图。然后再根据前N-1帧高度图融合后的融合高度图以及第N帧高度图(即第N帧深度图中地面区域的高度图),获得前N帧高度图融合后的融合高度图。可选地,获得前N帧高度图融合后的融合高度图中的每个高度像素点的高度值可以是该高度像素点在前N帧高度图中的高度值的平均值。
可选地,上述S3041的一种可能的实现方式为:获取前N-1帧高度图中前i-1帧高度图融合后的融合高度图,i为大于等于2且小于等于N-1的整数;再根据前i-1帧高度图融合后的融合高度以及第i帧高度图,获得前i帧高度图的融合高度图;然后更新i等于i+1,直至i等于N-1,从而获得前N-1帧高度图的融合高度图。
本实施例中,以i等于2开始,N-1帧高度图中的前1帧高度图,即为第1帧高度图,而且第1帧高度图融合后的融合高度图即为第1帧高度图,根据第1帧高度图以及第2帧高度图,获得前2帧高度图的融合高度图;在获得第3帧高度图后,根据前2帧高度图的融合高度图与第3帧高度图,获得前3帧高度图的融合高度图;以此类推,可以获得前N-2帧高度图的融合高度图;在获得第N-1帧高度图后,根据前N-2帧高度图的融合高度图与第N-1帧高度图,获得前N-1帧高度图融合后的融合高度图。可选地,获得前2帧高度图的融合高度图后,可以删除第1帧高度图以及第2帧高度图,获得前3帧高度图的融合高度图后,可以删除前2帧高度图的融合高度图与第3帧高度图,以此类推,获得前N-1帧高度图的融合高度图后,可以删除前N-2帧高度图的融合高度图与第N-1帧高度图,以减少存储空间压力,提高处理性能。
其中,以根据第1帧高度图以及第2帧高度图,获得前2帧高度图的融合高度图为例,前2帧高度图的融合高度图的高度像素点与第2帧高度图中的高度像素点相同,不同的是高度像素点对应的高度值,若第2帧高度图中的高度像素点在第1帧高度图中也存在,则该高度像素点在前2帧高度图的融合高度图中的高度值为该高度像素点在第2帧高度图中的高度值与该高度像素点在第1帧高度图中的高度值的平均值,若第2帧高度图中的高度像素点在第1帧高度图中不存在,则该高度像素点在前2帧高度图的融合高度图中的高度值为该高度像素点在第2帧高度图中的高度值。
相应地,上述S3042的一种可能的实现方式为,将前N-1帧高度图融合后的融合高度图以及第N帧高度图中同一高度像素点的高度值的平均值,确定为前N帧高度图融合后的融合高度图中该同一高度像素点的高度值。
其中,前N帧高度图的融合高度图的高度像素点与第N帧高度图中的高度像素点相同,不同的是高度像素点对应的高度值,若第N帧高度图中的高度像素点在前N-1帧高度图中也存在,则该高度像素点在前N-1帧高度图的融合高度图中的高度值为该高度像素点在第N帧高度图中的高度值与该高度像素点在前N-1帧高度图的融合高度图中的高度值的平均值,若第N帧高度图中的高度像素点在前N-1帧高度图的融合高度图中不存在,则该高度像素点在前N帧高度图的融合高度图中的高度值为该高度像素点在第N帧高度图中的高度值。
因此,上述S3042用公式来表示可以为:根据前N-1帧高度图融合后的融合高度图、第N帧高度图、公式一和公式二,获得前N帧高度图的融合高度图;
公式二:wN,j=wN-1,j+1;
其中,hN,j表示前N帧高度图融合后的融合高度图中高度像素点j的高度值,ZN,j表示第N帧高度图中所述高度像素点j的高度值,hN-1,j表示前N-1帧高度图融合后的融合高度图中所述高度像素点j的高度值,wN,j表示所述高度像素点j在N帧高度图中出现的次数,wN-1,j表示所述高度像素点j在N-1帧高度图中出现的次数。
参见图4,图4为本申请一实施例提供的高度图的示意图,以N等于3为例,左上角的实线框例如为第1帧高度图,中间的实线框例如为第2帧高度图,右下角的实线框例如为第3帧高度图。每帧高度图相对于世界系沿着高度图平面的平移操作,而没有旋转,且平移量保证为整数个高度像素点。第2帧高度图相对于第1帧高度图在水平方向和竖直方向分别平移了一个高度像素点,第3帧高度图相对于第2帧高度图在水平方向和竖直方向分别平移了一个高度像素点。
在将第1帧高度图与第2帧高度图做融合处理时,前2帧高度图的融合高度图的高度像素点与第2帧高度图的高度像素点相同,其中,第2帧高度图中倒数第一列以及倒数第一行的高度像素点未在第1帧高度图出现,因此,第2帧高度图中倒数第一列以及倒数第一行的高度像素点在前2帧高度图出现的次数为1,前2帧高度图的融合高度图中倒数第一列以及倒数第一行的高度像素点的高度值等于第2帧高度图的高度像素点中倒数第一列以及倒数第一行的高度像素点的高度值,第2帧高度图中除倒数第一列以及倒数第一行之外的高度像素点均在第1帧高度图中出现,因此,第2帧高度图中除倒数第一列以及倒数第一行之外的高度像素点出现的次数2,前2帧高度图的融合高度图中除倒数第一列以及倒数第一行之外的高度像素点的高度值等于该高度像素点在第2帧高度图的高度值与在第1帧高度图的高度值的平均值。
在将前2帧高度图的融合高度图与第3帧高度图做融合处理时(即将第1帧高度图、第2帧高度图和第3帧高度图做融合处理),前3帧高度图的融合高度图的高度像素点与第3帧高度图的高度像素点相同,其中,第3帧高度图中倒数第一列以及倒数第一行的高度像素点未在前2帧高度图的融合高度图(即第1帧高度图和第2帧高度图)中出现,因此,第3帧高度图中倒数第一列以及倒数第一行的高度像素点在前3帧高度图出现的次数为1,前3帧高度图的融合高度图中倒数第一列以及倒数第一行的高度像素点的高度值等于第3帧高度图的高度像素点中倒数第一列以及倒数第一行的高度像素点的高度值,第3帧高度图中倒数第二列以及倒数第二行的高度像素点均在第2帧高度图但未在第1帧高度图中出现,因此,第3帧高度图中倒数第二列以及倒数第二行的高度像素点出现的次数2,前3帧高度图的融合高度图中倒数第二列以及倒数第二行的高度像素点的高度值等于该高度像素点在第2帧高度图的高度值与在第3帧高度图的高度值的平均值。第3帧高度图中除倒数第一列、倒数第二列、倒数第一行以及倒数第二行之外的高度像素点均在第1帧高度图、第2帧高度图、第3帧高度图中出现,因此,这些高度像素点出现的次数3,前3帧高度图的融合高度图中这些高度像素点的高度值等于该高度像素点在前2帧高度图的融合高度图中的高度值与在第3帧高度图中的高度值的平均值(即该高度像素点在第1帧高度图、第2帧高度图、第3帧高度图中的高度值的平均值)。
在一些实施例中,无人驾驶车辆在执行上述S304之后,还根据所述N帧高度图融合后的融合高度图,对所述地面区域的地面进行估计。由于由于该融合高度图融合了N帧高度图中地面区域的高度信息,因此根据多帧高度图融合后获得的一帧融合高度图对地面区域的地面进行估计,获得的地面估计结果更准确。
可选地,上述的根据所述N帧高度图融合后的融合高度图,对所述地面区域的地面进行估计的一种可能的实现方式可以为:根据地面区域的所述N帧高度图融合后的融合高度图以及地面区域的地理位置信息,拟合获得地面区域的地面模型;所述地面模型为地面区域的高度关于地面区域的地理位置信息的函数。
其中,上述的地理位置信息可以包括经度和纬度,或者,上述的地理位置信息可以包括无人驾驶车辆的即时构建地图位置信息,本实施例并不限于此。
可选地,在拟合获得地面区域的地面模型之后,还可以根据地面区域的地面模型获得地面区域的地面模型图,并通过显示界面向用户显示该地面模型图,以便用户直观地获得地面估计结果。
可选地,所述地面模型包括:B样条曲面模型,或者,多项式曲面模型。
以B样条曲面模型为例,B样条曲面模型的地面模型可以表示为:
其中,Ba,n(x)以及Bb,m(y)表示地面区域的地理位置信息,f(x,y)表示地面区域的高度,Wa,b表示权重系数,n为x维度的阶次,m为y维度的阶次。
对于B样条而言,阶次越高,可以表达的曲线越复杂,然而过拟合的风险越高,而阶次越低,可以表达的曲线相对越简单,然而不容易过拟合。同时B样条的控制点的数量也会影响曲线的复杂度与过拟合的风险。因此合理选择控制点的分布与阶次(n、m)非常关键。在地面拟合的例子中,此处的x方向为无人驾驶车辆的前后方向,y方向为无人驾驶车辆的左右方向。在实际场景中,由于通常x方向(前后方向)观察距离较远,且地面可能存在上下坡的情况;而y方向(即左右方向),由于通常地面的道路宽度有限,且深度传感器的fov也有限;因此,控制点与阶次可配置为:x维度的阶次n为2,每20米左右设置一个控制点,前向的控制点的区间为0到100米,y维度的阶次m为1,分别在左右20米处设置控制点,一共2个控制点。
需要说明的是,本实施例的无人驾驶车辆在执行上述S304之后,也可以是其它设备根据所述融合高度图,对所述地面区域的地面进行估计。
本申请实施例中还提供了一种计算机存储介质,该计算机存储介质中存储有程序指令,所述程序执行时可包括如图3及其对应实施例中的地面信息处理方法的部分或全部步骤。
图5为本申请一实施例提供的地面信息处理装置的结构示意图,如图5所示,本实施例的地面信息处理装置500可以包括:深度传感器501和处理器502。上述深度传感器501和处理器502可以通过总线连接。
所述深度传感器501,用于采集深度图。
所述处理器502,用于获取所述深度传感器501采集的N帧深度图,N为大于等于2的整数;对每帧深度图进行地面分割,获得每帧深度图中的地面区域;根据每帧深度图中的地面区域,获得每帧深度图中地面区域的高度图;根据各帧深度图中地面区域的高度图,获得N帧高度图融合后的融合高度图,所述融合高度图用于地面区域的地面估计。
在一些实施例中,所述处理器502,具体用于:
根据N帧高度图中前N-1帧高度图,获得前N-1帧高度图融合后的融合高度图;
根据前N-1帧高度图融合后的融合高度图以及第N帧高度图,获得前N帧高度图融合后的融合高度图。
在一些实施例中,所述处理器502,具体用于:
获取前N-1帧高度图中前i-1帧高度图融合后的融合高度图,i为大于等于2且小于等于N-1的整数;
根据前i-1帧高度图融合后的融合高度图以及第i帧高度图,获得前i帧高度图的融合高度图;
更新i等于i+1,直至i等于N-1,从而获得前N-1帧高度图的融合高度图。
在一些实施例中,所述融合高度图中的每个高度像素点的高度值为该高度像素点在N帧高度图中高度值的平均值。
在一些实施例中,所述处理器502,还用于根据各帧深度图对应的高度图,获得N帧高度图融合后的融合高度图之后,根据所述融合高度图,对所述地面区域的地面进行估计。
在一些实施例中,所述处理器502,具体用于:
根据地面区域的所述融合高度图以及地面区域的地理位置信息,拟合获得地面区域的地面模型;
所述地面模型为地面区域的高度关于地面区域的地理位置信息的函数。
在一些实施例中,所述地理位置信息包括经度和纬度。
在一些实施例中,所述地面模型包括:B样条曲面模型,或者,多项式曲面模型。
在一些实施例中,所述处理器502,具体用于:
根据每帧深度图中的地面区域,获得地面区域对应的点云数据;
根据每帧深度图中地面区域对应的点云数据,获得每帧深度图中地面区域的高度图。
在一些实施例中,所述处理器502,具体用于:
将每帧深度图中地面区域对应的点云数据正交投影到俯视图视角下,得到俯视图视角下的所述高度图。
在一些实施例中,若多个点云数据投影到高度图的同一高度像素点上,则所述高度图中该高度像素点的高度值为该多个点云数据对应的高度值的最小值。
在一些实施例中,所述俯视图视角为世界系坐标向下的方向。
在一些实施例中,所述地面信息处理装置500应用于无人驾驶车辆中,所述深度传感器501机载在所述无人驾驶车辆上。
所述处理器502具体用于:获取所述无人驾驶车辆在移动过程中,所述深度传感器采集的N帧深度图。
在一些实施例中,所述深度传感器501包括双目相机、TOF传感器或激光雷达。
可选地,本实施例的地面信息处理装置500还可以包括:存储器(图中未示出),存储器用于存储程序代码,当程序代码被执行时,所述地面信息处理装置500可以实现上述的技术方案。
本实施例的装置,可以用于执行图3及其对应方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图6为本申请一实施例提供的无人驾驶车辆的结构示意图,如图6所示,本实施例的无人驾驶车辆600可以包括:深度传感器601和处理器602。上述深度传感器601和处理器602可以通过总线连接。
所述深度传感器601,用于采集深度图。
所述处理器602,用于获取所述深度传感器601采集的N帧深度图,N为大于等于2的整数;对每帧深度图进行地面分割,获得每帧深度图中的地面区域;根据每帧深度图中的地面区域,获得每帧深度图中地面区域的高度图;根据各帧深度图中地面区域的高度图,获得N帧高度图融合后的融合高度图,所述融合高度图用于地面区域的地面估计。
在一些实施例中,所述处理器602,具体用于:
根据N帧高度图中前N-1帧高度图,获得前N-1帧高度图融合后的融合高度图;
根据前N-1帧高度图融合后的融合高度图以及第N帧高度图,获得前N帧高度图融合后的融合高度图。
在一些实施例中,所述处理器602,具体用于:
获取前N-1帧高度图中前i-1帧高度图融合后的融合高度图,i为大于等于2且小于等于N-1的整数;
根据前i-1帧高度图融合后的融合高度图以及第i帧高度图,获得前i帧高度图的融合高度图;
更新i等于i+1,直至i等于N-1,从而获得前N-1帧高度图的融合高度图。
在一些实施例中,所述融合高度图中的每个高度像素点的高度值为该高度像素点在N帧高度图中高度值的平均值。
在一些实施例中,所述处理器602,还用于根据各帧深度图对应的高度图,获得N帧高度图融合后的融合高度图之后,根据所述融合高度图,对所述地面区域的地面进行估计。
在一些实施例中,所述处理器602,具体用于:
根据地面区域的所述融合高度图以及地面区域的地理位置信息,拟合获得地面区域的地面模型;
所述地面模型为地面区域的高度关于地面区域的地理位置信息的函数。
在一些实施例中,所述地理位置信息包括经度和纬度。
在一些实施例中,所述地面模型包括:B样条曲面模型,或者,多项式曲面模型。
在一些实施例中,所述处理器602,具体用于:
根据每帧深度图中的地面区域,获得地面区域对应的点云数据;
根据每帧深度图中地面区域对应的点云数据,获得每帧深度图中地面区域的高度图。
在一些实施例中,所述处理器602,具体用于:
将每帧深度图中地面区域对应的点云数据正交投影到俯视图视角下,得到俯视图视角下的所述高度图。
在一些实施例中,若多个点云数据投影到高度图的同一高度像素点上,则所述高度图中该高度像素点的高度值为该多个点云数据对应的高度值的最小值。
在一些实施例中,所述俯视图视角为世界系坐标向下的方向。
在一些实施例中,所述处理器602具体用于:获取所述无人驾驶车辆在移动过程中,所述深度传感器601采集的N帧深度图。
在一些实施例中,所述深度传感器601包括双目相机、TOF传感器或激光雷达。
可选地,本实施例的无人驾驶车辆600还可以包括:存储器(图中未示出),存储器用于存储程序代码,当程序代码被执行时,所述无人驾驶车辆600可以实现上述的技术方案。
本实施例的无人驾驶车辆,可以用于执行图3及其对应方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图7为本申请另一实施例提供的无人驾驶车辆的结构示意图,如图7所示,本实施例的无人驾驶车辆700可以包括:车辆本体701以及地面信息处理装置702。
其中,所述地面信息处理装置702安装于所述车辆本体701上。地面信息处理装置702可以是独立于车辆本体701的装置。
其中,地面信息处理装置702可以采用图5所示装置实施例的结构,其对应地,可以执行图3及其对应方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:只读内存(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
Claims (44)
1.一种地面信息处理方法,其特征在于,包括:
获取深度传感器采集的N帧深度图,N为大于等于2的整数;
对每帧深度图进行地面分割,获得每帧深度图中的地面区域;
根据每帧深度图中的地面区域,获得每帧深度图中地面区域的高度图;
根据各帧深度图中地面区域的高度图,获得N帧高度图融合后的融合高度图,所述融合高度图用于地面区域的地面估计。
2.根据权利要求1所述的方法,其特征在于,所述根据各帧深度图中地面区域对应的高度图,获得N帧高度图融合后的融合高度图,包括:
根据N帧高度图中前N-1帧高度图,获得前N-1帧高度图融合后的融合高度图;
根据前N-1帧高度图融合后的融合高度图以及第N帧高度图,获得前N帧高度图融合后的融合高度图。
3.根据权利要求2所述的方法,其特征在于,所述根据N帧高度图中前N-1帧高度图,获得前N-1帧高度图融合后的融合高度图,包括:
获取前N-1帧高度图中前i-1帧高度图融合后的融合高度图,i为大于等于2且小于等于N-1的整数;
根据前i-1帧高度图融合后的融合高度图以及第i帧高度图,获得前i帧高度图的融合高度图;
更新i等于i+1,直至i等于N-1,从而获得前N-1帧高度图的融合高度图。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述融合高度图中的每个高度像素点的高度值为该高度像素点在N帧高度图中高度值的平均值。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述根据各帧深度图中地面区域对应的高度图,获得N帧高度图融合后的融合高度图之后,还包括:
根据所述融合高度图,对所述地面区域的地面进行估计。
6.根据权利要求5所述的方法,其特征在于,所述根据所述融合高度图,对所述地面区域的地面进行估计,包括:
根据地面区域的所述融合高度图以及地面区域的地理位置信息,拟合获得地面区域的地面模型;
所述地面模型为地面区域的高度关于地面区域的地理位置信息的函数。
7.根据权利要求6所述的方法,其特征在于,所述地理位置信息包括经度和纬度。
8.根据权利要求6或7所述的方法,其特征在于,所述地面模型包括:B样条曲面模型,或者,多项式曲面模型。
9.根据权利要求1-8任一项所述的方法,其特征在于,所述根据每帧深度图中的地面区域,获得每帧深度图中地面区域的高度图,包括:
根据每帧深度图中的地面区域,获得地面区域对应的点云数据;
根据每帧深度图中地面区域对应的点云数据,获得每帧深度图中地面区域的高度图。
10.根据权利要求9所述的方法,其特征在于,所述根据每帧深度图中地面区域对应的点云数据,获得每帧深度图中地面区域的高度图,包括:
将每帧深度图中地面区域对应的点云数据正交投影到俯视图视角下,得到俯视图视角下的所述高度图。
11.根据权利要求10所述的方法,其特征在于,若多个点云数据投影到高度图的同一高度像素点上,则所述高度图中该高度像素点的高度值为该多个点云数据对应的高度值的最小值。
12.根据权利要求10或11所述的方法,其特征在于,所述俯视图视角为世界系坐标向下的方向。
13.根据权利要求1-12任一项所述的方法,其特征在于,所述方法应用于无人驾驶车辆中,所述深度传感器机载在所述无人驾驶车辆上;
所述获取深度传感器采集的N帧深度图,包括:
获取所述无人驾驶车辆在移动过程中,所述深度传感器采集的N帧深度图。
14.根据权利要求1-13任一项所述的方法,其特征在于,所述深度传感器包括双目相机、飞行时间TOF传感器或激光雷达。
15.一种地面信息处理装置,其特征在于,包括:深度传感器和处理器;
所述深度传感器,用于采集深度图;
所述处理器,用于获取所述深度传感器采集的N帧深度图,N为大于等于2的整数;对每帧深度图进行地面分割,获得每帧深度图中的地面区域;根据每帧深度图中的地面区域,获得每帧深度图中地面区域的高度图;根据各帧深度图中地面区域的高度图,获得N帧高度图融合后的融合高度图,所述融合高度图用于地面区域的地面估计。
16.根据权利要求15所述的装置,其特征在于,所述处理器,具体用于:
根据N帧高度图中前N-1帧高度图,获得前N-1帧高度图融合后的融合高度图;
根据前N-1帧高度图融合后的融合高度图以及第N帧高度图,获得前N帧高度图融合后的融合高度图。
17.根据权利要求16所述的装置,其特征在于,所述处理器,具体用于:
获取前N-1帧高度图中前i-1帧高度图融合后的融合高度图,i为大于等于2且小于等于N-1的整数;
根据前i-1帧高度图融合后的融合高度图以及第i帧高度图,获得前i帧高度图的融合高度图;
更新i等于i+1,直至i等于N-1,从而获得前N-1帧高度图的融合高度图。
18.根据权利要求15-17任一项所述的装置,其特征在于,所述融合高度图中的每个高度像素点的高度值为该高度像素点在N帧高度图中高度值的平均值。
19.根据权利要求15-18任一项所述的装置,其特征在于,所述处理器,还用于根据各帧深度图对应的高度图,获得N帧高度图融合后的融合高度图之后,根据所述融合高度图,对所述地面区域的地面进行估计。
20.根据权利要求19所述的装置,其特征在于,所述处理器,具体用于:
根据地面区域的所述融合高度图以及地面区域的地理位置信息,拟合获得地面区域的地面模型;
所述地面模型为地面区域的高度关于地面区域的地理位置信息的函数。
21.根据权利要求20所述的装置,其特征在于,所述地理位置信息包括经度和纬度。
22.根据权利要求20或21所述的装置,其特征在于,所述地面模型包括:B样条曲面模型,或者,多项式曲面模型。
23.根据权利要求15-22任一项所述的装置,其特征在于,所述处理器,具体用于:
根据每帧深度图中的地面区域,获得地面区域对应的点云数据;
根据每帧深度图中地面区域对应的点云数据,获得每帧深度图中地面区域的高度图。
24.根据权利要求23所述的装置,其特征在于,所述处理器,具体用于:
将每帧深度图中地面区域对应的点云数据正交投影到俯视图视角下,得到俯视图视角下的所述高度图。
25.根据权利要求24所述的装置,其特征在于,若多个点云数据投影到高度图的同一高度像素点上,则所述高度图中该高度像素点的高度值为该多个点云数据对应的高度值的最小值。
26.根据权利要求24或25所述的装置,其特征在于,所述俯视图视角为世界系坐标向下的方向。
27.根据权利要求15-26任一项所述的装置,其特征在于,所述装置应用于无人驾驶车辆中,所述深度传感器机载在所述无人驾驶车辆上;
所述处理器具体用于:获取所述无人驾驶车辆在移动过程中,所述深度传感器采集的N帧深度图。
28.根据权利要求15-27任一项所述的装置,其特征在于,所述深度传感器包括双目相机、飞行时间TOF传感器或激光雷达。
29.一种无人驾驶车辆,其特征在于,包括:深度传感器和处理器;
所述深度传感器,用于采集深度图;
所述处理器,用于获取所述深度传感器采集的N帧深度图,N为大于等于2的整数;对每帧深度图进行地面分割,获得每帧深度图中的地面区域;根据每帧深度图中的地面区域,获得每帧深度图中地面区域的高度图;根据各帧深度图中地面区域的高度图,获得N帧高度图融合后的融合高度图,所述融合高度图用于地面区域的地面估计。
30.根据权利要求29所述的无人驾驶车辆,其特征在于,所述处理器,具体用于:
根据N帧高度图中前N-1帧高度图,获得前N-1帧高度图融合后的融合高度图;
根据前N-1帧高度图融合后的融合高度图以及第N帧高度图,获得前N帧高度图融合后的融合高度图。
31.根据权利要求30所述的无人驾驶车辆,其特征在于,所述处理器,具体用于:
获取前N-1帧高度图中前i-1帧高度图融合后的融合高度图,i为大于等于2且小于等于N-1的整数;
根据前i-1帧高度图融合后的融合高度图以及第i帧高度图,获得前i帧高度图的融合高度图;
更新i等于i+1,直至i等于N-1,从而获得前N-1帧高度图的融合高度图。
32.根据权利要求29-31任一项所述的无人驾驶车辆,其特征在于,所述融合高度图中的每个高度像素点的高度值为该高度像素点在N帧高度图中高度值的平均值。
33.根据权利要求29-32任一项所述的无人驾驶车辆,其特征在于,所述处理器,还用于根据各帧深度图对应的高度图,获得N帧高度图融合后的融合高度图之后,根据所述融合高度图,对所述地面区域的地面进行估计。
34.根据权利要求33所述的无人驾驶车辆,其特征在于,所述处理器,具体用于:
根据地面区域的所述融合高度图以及地面区域的地理位置信息,拟合获得地面区域的地面模型;
所述地面模型为地面区域的高度关于地面区域的地理位置信息的函数。
35.根据权利要求34所述的无人驾驶车辆,其特征在于,所述地理位置信息包括经度和纬度。
36.根据权利要求34或35所述的无人驾驶车辆,其特征在于,所述地面模型包括:B样条曲面模型,或者,多项式曲面模型。
37.根据权利要求29-36任一项所述的无人驾驶车辆,其特征在于,所述处理器,具体用于:
根据每帧深度图中的地面区域,获得地面区域对应的点云数据;
根据每帧深度图中地面区域对应的点云数据,获得每帧深度图中地面区域的高度图。
38.根据权利要求37所述的无人驾驶车辆,其特征在于,所述处理器,具体用于:
将每帧深度图中地面区域对应的点云数据正交投影到俯视图视角下,得到俯视图视角下的所述高度图。
39.根据权利要求38所述的无人驾驶车辆,其特征在于,若多个点云数据投影到高度图的同一高度像素点上,则所述高度图中该高度像素点的高度值为该多个点云数据对应的高度值的最小值。
40.根据权利要求38或39所述的无人驾驶车辆,其特征在于,所述俯视图视角为世界系坐标向下的方向。
41.根据权利要求29-40任一项所述的无人驾驶车辆,其特征在于,所述处理器具体用于:获取所述无人驾驶车辆在移动过程中,所述深度传感器采集的N帧深度图。
42.根据权利要求29-41任一项所述的无人驾驶车辆,其特征在于,所述深度传感器包括双目相机、飞行时间TOF传感器或激光雷达。
43.一种无人驾驶车辆,其特征在于,包括:车辆本体以及如权利要求15-28任一项所述的地面信息处理装置,其中,所述地面信息处理装置安装于所述车辆本体上。
44.一种可读存储介质,其特征在于,所述可读存储介质上存储有计算机程序;所述计算机程序在被执行时,实现如权利要求1-14任一项所述的地面信息处理方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2019/085655 WO2020223868A1 (zh) | 2019-05-06 | 2019-05-06 | 地面信息处理方法、装置和无人驾驶车辆 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111712855A true CN111712855A (zh) | 2020-09-25 |
Family
ID=72536769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980011875.2A Pending CN111712855A (zh) | 2019-05-06 | 2019-05-06 | 地面信息处理方法、装置和无人驾驶车辆 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111712855A (zh) |
WO (1) | WO2020223868A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112365575A (zh) * | 2020-11-10 | 2021-02-12 | 广州极飞科技有限公司 | 地平面数据测量方法、装置、可移动设备和可读存储介质 |
CN113945940A (zh) * | 2021-09-16 | 2022-01-18 | 阿里巴巴达摩院(杭州)科技有限公司 | 地面高度估计方法、装置及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070005306A1 (en) * | 2005-06-22 | 2007-01-04 | Deere & Company, A Delaware Corporation | Method and system for sensor signal fusion |
CN107016697A (zh) * | 2017-04-11 | 2017-08-04 | 杭州光珀智能科技有限公司 | 一种高度测量方法及装置 |
CN107330925A (zh) * | 2017-05-11 | 2017-11-07 | 北京交通大学 | 一种基于激光雷达深度图像的多障碍物检测和跟踪方法 |
CN107507160A (zh) * | 2017-08-22 | 2017-12-22 | 努比亚技术有限公司 | 一种图像融合方法、终端及计算机可读存储介质 |
CN108229366A (zh) * | 2017-12-28 | 2018-06-29 | 北京航空航天大学 | 基于雷达和图像数据融合的深度学习车载障碍物检测方法 |
CN108629231A (zh) * | 2017-03-16 | 2018-10-09 | 百度在线网络技术(北京)有限公司 | 障碍物检测方法、装置、设备及存储介质 |
CN109145677A (zh) * | 2017-06-15 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | 障碍物检测方法、装置、设备及存储介质 |
CN109270545A (zh) * | 2018-10-23 | 2019-01-25 | 百度在线网络技术(北京)有限公司 | 一种定位真值校验方法、装置、设备及存储介质 |
-
2019
- 2019-05-06 WO PCT/CN2019/085655 patent/WO2020223868A1/zh active Application Filing
- 2019-05-06 CN CN201980011875.2A patent/CN111712855A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070005306A1 (en) * | 2005-06-22 | 2007-01-04 | Deere & Company, A Delaware Corporation | Method and system for sensor signal fusion |
CN108629231A (zh) * | 2017-03-16 | 2018-10-09 | 百度在线网络技术(北京)有限公司 | 障碍物检测方法、装置、设备及存储介质 |
CN107016697A (zh) * | 2017-04-11 | 2017-08-04 | 杭州光珀智能科技有限公司 | 一种高度测量方法及装置 |
CN107330925A (zh) * | 2017-05-11 | 2017-11-07 | 北京交通大学 | 一种基于激光雷达深度图像的多障碍物检测和跟踪方法 |
CN109145677A (zh) * | 2017-06-15 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | 障碍物检测方法、装置、设备及存储介质 |
CN107507160A (zh) * | 2017-08-22 | 2017-12-22 | 努比亚技术有限公司 | 一种图像融合方法、终端及计算机可读存储介质 |
CN108229366A (zh) * | 2017-12-28 | 2018-06-29 | 北京航空航天大学 | 基于雷达和图像数据融合的深度学习车载障碍物检测方法 |
CN109270545A (zh) * | 2018-10-23 | 2019-01-25 | 百度在线网络技术(北京)有限公司 | 一种定位真值校验方法、装置、设备及存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112365575A (zh) * | 2020-11-10 | 2021-02-12 | 广州极飞科技有限公司 | 地平面数据测量方法、装置、可移动设备和可读存储介质 |
CN112365575B (zh) * | 2020-11-10 | 2022-06-21 | 广州极飞科技股份有限公司 | 地平面数据测量方法、装置、可移动设备和可读存储介质 |
CN113945940A (zh) * | 2021-09-16 | 2022-01-18 | 阿里巴巴达摩院(杭州)科技有限公司 | 地面高度估计方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2020223868A1 (zh) | 2020-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12165354B2 (en) | Pose estimation method and device, related equipment and storage medium | |
US11651553B2 (en) | Methods and systems for constructing map data using poisson surface reconstruction | |
CN113916243B (zh) | 目标场景区域的车辆定位方法、装置、设备和存储介质 | |
JP2022019642A (ja) | マルチセンサ融合に基づく測位方法及び装置 | |
JP2021508814A (ja) | LiDARを用いた車両測位システム | |
CN110032180A (zh) | 激光雷达定位 | |
EP4124829B1 (en) | Map construction method, apparatus, device and storage medium | |
CN110146909A (zh) | 一种定位数据处理方法 | |
CN111936821A (zh) | 用于定位的系统和方法 | |
JP7245084B2 (ja) | 自動運転システム | |
KR101909953B1 (ko) | 라이다 센서를 이용한 차량의 자세 추정 방법 | |
CN113515128B (zh) | 一种无人车实时路径规划方法及存储介质 | |
CN111308415B (zh) | 一种基于时间延迟的在线估计位姿的方法和设备 | |
CN113984044A (zh) | 一种基于车载多感知融合的车辆位姿获取方法及装置 | |
CN110989619B (zh) | 用于定位对象的方法、装置、设备和存储介质 | |
CN114279454A (zh) | 用于在环境中导航移动平台的方法和系统 | |
CN111712855A (zh) | 地面信息处理方法、装置和无人驾驶车辆 | |
JP7337617B2 (ja) | 推定装置、推定方法及びプログラム | |
CN118489238A (zh) | 数据采集方法、装置、以及智能驾驶设备 | |
JP2018194417A (ja) | 位置推定装置、移動装置 | |
US20240367643A1 (en) | Associating measurement points to spline points in determinations of a free space boundary in a vehicle assistance system | |
CN112204344A (zh) | 位姿获取方法、系统和可移动平台 | |
EP4181089A1 (en) | Systems and methods for estimating cuboid headings based on heading estimations generated using different cuboid defining techniques | |
EP4134625A1 (en) | Drive device, vehicle, and method for automated driving and/or assisted driving | |
EP4459324A1 (en) | Method for resolving local minima problems in determinations of a free space boundary in a vehicle assistance system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200925 |
|
WD01 | Invention patent application deemed withdrawn after publication |