CN109029417B - 基于混合视觉里程计和多尺度地图的无人机slam方法 - Google Patents
基于混合视觉里程计和多尺度地图的无人机slam方法 Download PDFInfo
- Publication number
- CN109029417B CN109029417B CN201810489486.8A CN201810489486A CN109029417B CN 109029417 B CN109029417 B CN 109029417B CN 201810489486 A CN201810489486 A CN 201810489486A CN 109029417 B CN109029417 B CN 109029417B
- Authority
- CN
- China
- Prior art keywords
- aerial vehicle
- unmanned aerial
- transformation matrix
- odometer
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 230000000007 visual effect Effects 0.000 title claims abstract description 74
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims abstract description 20
- 230000004927 fusion Effects 0.000 claims abstract description 4
- 230000009466 transformation Effects 0.000 claims description 73
- 239000011159 matrix material Substances 0.000 claims description 72
- 230000008569 process Effects 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 230000008447 perception Effects 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Navigation (AREA)
Abstract
本发明公开了一种基于混合视觉里程计和多尺度地图的无人机SLAM方法,属于无人机自主导航技术领域。本方法无人机平台上搭载有俯视单目相机和前视双目相机以及机载计算机。单目相机用于基于直接法的视觉里程计,双目相机用于基于特征点法的视觉里程计。混合视觉里程计将这两种视觉里程计的输出进行信息融合,构造用于定位的局部地图,得到无人机实时位姿。再将位姿反馈给飞行控制系统,控制无人机的位置。机载计算机将实时位姿以及采集的图像传输给地面站,地面站依据构建的全局地图实时规划飞行路径,将航点信息发送给无人机,实现无人机自主飞行。本发明实现了无人机在非GPS环境下的实时位姿估计及环境感知,极大地提高无人机的智能化水平。
Description
技术领域
本发明涉及一种基于混合视觉里程计和多尺度地图的无人机SLAM方法,属于无人机自主导航技术领域。
背景技术
随着无人机(Unmanned Aerial Vehicle,UAV)技术的发展,各种类型的无人机被广泛应用,无人机也开始在工业领域发挥着越来越重要的作用,无人机也不再是简单的航模飞行器。如何感知环境以及自身状态信息成为了无人机的关键技术之一,也就是机器人领域研究的同步定位与构图(Simultaneous Localization and Mapping,SLAM)问题。
相对于地面移动机器人,无人机的载荷有限,对实时性要求高。传统的激光雷达传感器由于重量比较重,容易受到光照影响等因素不适合于无人机平台,因而视觉传感器更适合于无人机的定位和环境感知。同时,视觉传感器可以用于估计无人机的自身位置,从而无人机可以在没有GPS信号或者GPS信号受到干扰时飞行。视觉传感器中主要包含单目、双目和RGB-D相机,单目相机拥有尺度不确定性,RGB-D相机有效测量范围有限并且不适合于室外环境,双目相机虽然可以确定尺度但是计算耗时,所以结合单目相机和双目相机可以更好更快地用于状态估计。视觉SLAM的主要包括视觉里程计和建图,视觉里程计就是通过视觉传感器采集到的图像感知自身位姿变化,建图则是用于感知环境。当前视觉里程计分为两种方法:直接法和特征点法,其中直接法的优点是速度快,但是容易跟踪丢失,特征点法的鲁棒性更好,但是实时性不够好。建图的作用是建立环境模型,从而实现更高级的任务,例如自主导航、避障飞行等。
考虑到无人机对稳定性、实时性、准确性的要求比较高,传统的特征点法和直接法都不能很好地适应无人机定位要求,需要设计一种稳定并且准确的视觉里程计方法。同时,建图是对计算能力要求比较高,不适合直接在无人机上处理,需要依靠拥有强大计算能力的地面站。通过建立环境地图,无人机可以自主规划航线,实现完全自主飞行。
发明内容
为了满足无人机状态估计对稳定性、实时性、准确性的要求,本发明提出了一种基于混合视觉里程计和多尺度地图的无人机SLAM方法,实现在没有GPS信号的情况下,仅仅依靠相机采集到的图像来估计无人机的位置,同时建立环境地图,规划航线,实现自主飞行。
该方法无人机平台上除了基本飞行控制系统,还搭载有俯视单目相机和前视双目相机以及用于运算处理的机载计算机。单目相机采集到的图像作为基于直接法的视觉里程计的输入,双目采集到的图像作为基于特征点法的视觉里程计的输入,这两个视觉里程计同时还构造用于定位的局部地图。混合视觉里程计将这两种里程计的输出信息进行信息融合和位姿矫正,得到无人机实时精确的位姿信息,然后反馈给飞行控制系统,用于控制无人机的位置。机载计算机将实时位姿以及相机的图像发送给地面站,地面站负责建立环境全局地图,同时依据环境信息实时规划飞行路径,将航点信息发送给无人机,可以实现无人机的自主飞行。
本发明为解决其技术问题采用如下技术方案:
一种基于混合视觉里程计和多尺度地图的无人机SLAM方法,包括以下步骤:
步骤1:无人机平台搭载有俯视单目相机和前视双目相机,单目相机每秒采集30帧图像,双目相机每秒采集10帧图像;机载计算机同时开启两个线程,主线程以30Hz的频率运行基于直接法的视觉里程计,另一个线程以10Hz的频率运行基于特征点法的视觉里程计;假如k时刻获取同步的单目相机图像和双目相机的左右相机对应的图像 将作为基于直接法的视觉里程计的输入,将作为基于特征点法的视觉里程计的输入;特征点法视觉里程计输出当前双目图像中的左边相机图像相对于地图中的参考帧的左边相机图像的位姿变换矩阵直接法视觉里程计输出当前帧图像相对于前一帧图像的位姿变换矩阵同时还构建用于定位的局部点云地图;
步骤4:机载计算机将得到的实时位姿以及采集的图像通过WIFI传输给地面站,地面站通过恢复三维环境特征,构建全局地图,然后依据构建的全局地图实时规划飞行轨迹,得到中间航点,再将航点信息发送给无人机。
步骤1中基于特征点法的双目视觉里程计的具体过程如下:
(1)首先进行运动估计,依据无人机的运动速度不变模型,估计左边相机当前帧图像相对于左边相机第一帧图像的位姿变换矩阵,假如上一帧图像和上上帧图像相对于第一帧图像的位姿变换矩阵分别为和那么前一个时间间隔内的速度为:
(3)在当前帧的左边图像上进行特征提取,得到特征点然后将当前帧特征点和参考帧的左边相机图像中的特征点进行特征匹配,得到匹配的特征点对后,首先获取参考帧特征点的深度信息,然后依照3D-2D运动求解方法求解当前帧相对于参考帧的位姿变换矩阵
(5)假如当前帧被加入局部地图,在当前帧的右边图像上进行特征提取,得到特征点然后将特征点和特征点进行特征匹配,计算出匹配特征点对的视差,依据视差计算出该特征点对应的深度信息,获取点云图,同时深度信息用于后面的3D-2D运动求解。
步骤1中基于直接法的单目视觉里程计的具体过程如下:
步骤2的具体过程如下:
步骤2.1:在得到了双目视觉里程计当前帧相对于参考帧的位姿变换矩阵和单目视觉里程计当前帧相对于前一帧的位姿变换矩阵后,分别叠加参考帧和前一帧图像相对于第一帧图像的位姿变换矩阵和得到当前帧相对于第一帧图像的位姿变换矩阵和
步骤2.2:假如此时单目视觉里程计的位姿变换矩阵的尺度还未确定,则需要确定利用双目视觉里程计的位姿变换矩阵矩阵来确定单目视觉里程计中的尺度因子scaler;假若双目相机的左边相机第一帧图像对应相机坐标系相对于机体坐标系的位姿变换矩阵为单目相机第一帧图像对应相机坐标系相对于机体坐标系的位姿变换矩阵为那么理论上满足:
另外当双目视觉里程计未更新时,混合视觉里程计仅仅通过单目视觉里程计计算无人机位姿并且这时候单目视觉里程计的尺度因子应该初始化完成,其中为单目相机当前帧相对于世界坐标系的位姿变换矩阵,为单目视觉里程计当前帧相对于第一帧的位姿变换矩阵,为单目相机第一帧图像对应相机坐标系相对于世界坐标系的位姿变换矩阵。
步骤4的具体过程如下:
步骤4.1:机载计算机将无人机的实时位姿以及采集的图像通过WIFI发送给地面站,然后地面站完成环境地图的构建;所述采集的图像为前视双目相机和俯视单目相机的图像,所述环境地图的构建为无人机前方和下方的环境地图;
步骤4.2:地面站在完成了全局环境地图的构建后,依据当前无人机的实时位姿信息和环境中障碍物信息,实时规划出一条无碰撞到达目的点的飞行路径,也就是生成一系列的中间航点;地面站再将这些中间航点位置信息通过WIFI发送给机载计算机,机载计算机再将这些中间航点以位置参考输入的方式通过串口发送给飞行控制系统中的飞行控制单元,控制无人机的位置。
本发明的有益效果如下:
1、机载计算机运行的混合视觉里程计包括以30Hz频率运行的基于直接法的视觉里程计主线程和以10Hz运行的基于特征点法的视觉里程计线程,该方法结合了直接法的快速性以及特征点法的可靠性,同时还利用直接法的估计结果来矫正特征点法的估计结果,可以实现无人机的实时准确可靠定位。
2、基于特征点法的视觉里程计中,并不需要对每一帧图像的特征点计算深度信息。只有当前帧被加入局部地图时,才对右边相机图像进行特征提取和特征匹配,然后计算当前帧的特征点深度,这样可以有效减少运算时间,提高速度性能。同时是以局部地图中的关键帧作为参考帧,而不是常用的以上一帧图像作为参考帧,这样可以有效减小漂移误差。
3、使用了前视双目相机和俯视单目相机,可以同时构建无人机前方和下方的环境地图,视野更大,极大提高了无人机的安全性能。
4、机载计算机只负责建立用于定位的局部地图,地面站建立用于导航的全局环境地图,这种多尺度地图减轻了机载计算机的运算压力,实现了无人机的实时位姿估计以及环境感知,可以极大提高无人机的智能化水平。
5、通过视觉SLAM系统和无人机飞行控制系统相结合,正是由于视觉SLAM系统提供给飞行控制系统的位置控制环的参考输入值和测量值,无人机可以实时感知飞行环境并自主飞行。
附图说明
图1是本发明混合视觉里程计的系统框图。
图2是本发明基于特征点法的双目视觉里程计的流程图。
图3是本发明基于直接法的单目视觉里程计的流程图。
图4是本发明基于多尺度地图的环境感知和自主导航系统框图。
具体实施方式
下面结合附图对本发明作出详细说明。
图1为本发明混合视觉里程计的系统框图,混合视觉里程计包含了基于直接法的单目视觉里程计和基于特征点法的双目视觉里程计两个线程。无人机平台搭载有着俯视单目相机和前视双目相机。单目相机每秒采集30帧图像,双目相机每秒采集10帧图像。机载计算机同时开启两个线程,主线程以30Hz的频率运行基于直接法的视觉里程计,另一个线程以10Hz的频率运行基于特征点法的视觉里程计。假如k时刻获取同步的单目相机图像和双目相机的左右相机对应的图像将作为基于直接法的视觉里程计的输入,将 作为基于特征点法的视觉里程计的输入。特征点法视觉里程计输出当前双目图像中的左边相机图像相对于地图中的参考帧的左边相机图像的位姿变换矩阵直接法视觉里程计输出当前帧图像相对于前一帧图像的位姿变换矩阵同时还构建用于定位的局部点云地图。
混合视觉里程计在得到了双目视觉里程计当前帧相对于参考帧的位姿变换矩阵和单目视觉里程计当前帧相对于前一帧的位姿变换矩阵后,进行位姿叠加,分别叠加参考帧和前一帧图像相对于第一帧图像的位姿变换矩阵和得到当前帧相对于第一帧图像的位姿变换矩阵和
假如此时单目视觉里程计的位姿变换矩阵的尺度还未确定,则需要确定利用双目视觉里程计的位姿变换矩阵矩阵来确定单目视觉里程计中的尺度因子scaler。假若双目相机的左边相机第一帧图像对应相机坐标系相对于机体坐标系的位姿变换矩阵为单目相机第一帧图像对应相机坐标系相对于机体坐标系的位姿变换矩阵为那么理论上满足:
另外,考虑到基于直接法的视觉里程计的运行速率更快,所以当双目视觉里程计未更新时,混合视觉里程计仅仅通过单目视觉里程计计算无人机位姿并且这时候单目视觉里程计的尺度因子应该初始化完成,其中:为单目相机当前帧相对于世界坐标系的位姿变换矩阵,为单目视觉里程计当前帧相对于第一帧的位姿变换矩阵,为单目相机第一帧图像对应相机坐标系相对于世界坐标系的位姿变换矩阵。
图2是本发明基于特征点法的双目视觉里程计的流程图,首先进行运动估计,依据无人机的运动速度不变模型,估计当前帧图像相对于第一帧图像的位姿变换矩阵(对于双目相机,第一帧图像是指左边相机的图像)。假如上一帧图像和上上帧图像相对于第一帧图像的位姿变换矩阵分别为和那么前一个时间间隔内的速度为:
其中:为李代数元素,其中ρ为三维平移分量,φ为三维旋转分量,指数映射其中φ1,φ2,φ3为φ的三个分量,然后依据当前帧的预测位姿将局部地图中的所有关键帧对应的特征点投影至当前帧,选择投影的特征点数目最多的关键帧作为参考帧。当有多个参考帧存在时,选择距离当前帧时间戳最近的关键帧作为参考帧。
接下来在当前帧的左边图像上进行特征提取,得到特征点然后将当前帧特征点和参考帧的左边相机图像中的特征点进行特征匹配,得到匹配的特征点对后,首先获取参考帧特征点的深度信息,然后依照3D-2D运动求解方法求解当前帧相对于参考帧的位姿变换矩阵
假如当前帧被加入局部地图,在当前帧的右边图像上进行特征提取,得到特征点然后将特征点和特征点进行特征匹配,计算出匹配特征点对的视差,依据视差计算出该特征点对应的深度信息,获取点云图,同时深度信息用于后面的3D-2D运动求解。
图4是本发明基于多尺度地图的环境感知和自主导航系统框图。其中机载计算机和地面站构成了视觉SLAM系统,飞行控制单元指的是飞行控制系统,通过将视觉SLAM系统和飞行控制系统相结合,实现了无人机的实时位姿估计以及环境感知,可以极大提高无人机的智能化水平。
机载计算机的混合视觉里程计通过处理前视双目相机图像和俯视单目相机图像,得到无人机实时精确的位姿信息然后将对应的位置信息通过串口发送给飞行控制系统中的飞行控制单元,作为位置控制环的测量值,用于控制无人机的位置。
机载计算机的主要负责实时定位和构建用于定位的局部地图,还没有完成环境感知功能,也就是没有建图。
为了保证定位的实时性,建图无法通过机载计算机完成,机载计算机将无人机的实时位姿以及相机的图像通过WIFI发送给地面站,然后地面站完成环境地图的构建。在这里同时发送前视双目相机和俯视单目相机的图像给地面站,可以构建无人机前方和下方的环境地图,这样视野更大,提高了无人机的安全性。
地面站在完成了全局环境地图的构建后,依据当前无人机的实时位姿信息和环境中障碍物信息,可以实时规划出一条无碰撞到达目的点的飞行路径,也就是生成一系列的中间航点。在计算出这些中间航点后,地面站将这些中间航点位置信息通过WIFI发送给机载计算机,机载计算机再将这些中间航点以位置参考输入的方式通过串口发送给飞行控制系统中的飞行控制单元,通过改变位置控制环的参考输入,从而控制无人机的位置,从而最终实现无人机的自主飞行。
Claims (5)
1.一种基于混合视觉里程计和多尺度地图的无人机SLAM方法,其特征在于,包括以下步骤:
步骤1:无人机平台搭载有俯视单目相机和前视双目相机,单目相机每秒采集30帧图像,双目相机每秒采集10帧图像;机载计算机同时开启两个线程,主线程以30Hz的频率运行基于直接法的视觉里程计,另一个线程以10Hz的频率运行基于特征点法的视觉里程计;假如k时刻获取同步的单目相机图像和双目相机的左右相机对应的图像 将作为基于直接法的视觉里程计的输入,将作为基于特征点法的视觉里程计的输入;特征点法视觉里程计输出当前双目图像中的左边相机图像相对于地图中的参考帧的左边相机图像的位姿变换矩阵Ts k,r,直接法视觉里程计输出当前帧图像相对于前一帧图像的位姿变换矩阵同时还构建用于定位的局部点云地图;
步骤4:机载计算机将得到的实时位姿以及采集的图像通过WIFI传输给地面站,地面站通过恢复三维环境特征,构建全局地图,然后依据构建的全局地图实时规划飞行轨迹,得到中间航点,再将航点信息发送给无人机。
2.根据权利要求1所述的基于混合视觉里程计和多尺度地图的无人机SLAM方法,其特征在于,步骤1中基于特征点法的双目视觉里程计的具体过程如下:
(1)首先进行运动估计,依据无人机的运动速度不变模型,估计左边相机当前帧图像相对于左边相机第一帧图像的位姿变换矩阵,假如上一帧图像和上上帧图像相对于第一帧图像的位姿变换矩阵分别为Ts k-1,w和Ts k-2,w,那么前一个时间间隔内的速度为:
(3)在当前帧的左边图像上进行特征提取,得到特征点然后将当前帧特征点和参考帧的左边相机图像中的特征点进行特征匹配,得到匹配的特征点对后,首先获取参考帧特征点的深度信息,然后依照3D-2D运动求解方法求解当前帧相对于参考帧的位姿变换矩阵Ts k,r;
4.根据权利要求1所述的基于混合视觉里程计和多尺度地图的无人机SLAM方法,其特征在于,步骤2的具体过程如下:
步骤2.1:在得到了双目视觉里程计当前帧相对于参考帧的位姿变换矩阵Ts k,r和单目视觉里程计当前帧相对于前一帧的位姿变换矩阵后,分别叠加参考帧和前一帧图像相对于第一帧图像的位姿变换矩阵Ts r,w和得到当前帧相对于第一帧图像的位姿变换矩阵Ts k,w和
Ts k,w=Ts k,r·Ts r,w
步骤2.2:假如此时单目视觉里程计的位姿变换矩阵的尺度还未确定,则需要确定利用双目视觉里程计的位姿变换矩阵Ts k,w来确定单目视觉里程计中的尺度因子scaler;假若双目相机的左边相机第一帧图像对应相机坐标系相对于机体坐标系的位姿变换矩阵为Ts w,UAV,单目相机第一帧图像对应相机坐标系相对于机体坐标系的位姿变换矩阵为那么理论上满足:
Ts k,w←Toffset·Ts k,w
其中:Ts k,UAV为双目相机当前帧相对于世界坐标系的位姿变换矩阵,Ts k,w为双目视觉里程计当前帧相对于第一帧的位姿变换矩阵,Ts w,UAV为双目相机第一帧图像对应相机坐标系相对于世界坐标系的位姿变换矩阵;
5.根据权利要求1所述的基于混合视觉里程计和多尺度地图的无人机SLAM方法,其特征在于,步骤4的具体过程如下:
步骤4.1:机载计算机将无人机的实时位姿以及采集的图像通过WIFI发送给地面站,然后地面站完成环境地图的构建;所述采集的图像为前视双目相机和俯视单目相机的图像,所述环境地图的构建为无人机前方和下方的环境地图;
步骤4.2:地面站在完成了全局环境地图的构建后,依据当前无人机的实时位姿信息和环境中障碍物信息,实时规划出一条无碰撞到达目的点的飞行路径,也就是生成一系列的中间航点;地面站再将这些中间航点位置信息通过WIFI发送给机载计算机,机载计算机再将这些中间航点以位置参考输入的方式通过串口发送给飞行控制系统中的飞行控制单元,控制无人机的位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810489486.8A CN109029417B (zh) | 2018-05-21 | 2018-05-21 | 基于混合视觉里程计和多尺度地图的无人机slam方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810489486.8A CN109029417B (zh) | 2018-05-21 | 2018-05-21 | 基于混合视觉里程计和多尺度地图的无人机slam方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109029417A CN109029417A (zh) | 2018-12-18 |
CN109029417B true CN109029417B (zh) | 2021-08-10 |
Family
ID=64611847
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810489486.8A Active CN109029417B (zh) | 2018-05-21 | 2018-05-21 | 基于混合视觉里程计和多尺度地图的无人机slam方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109029417B (zh) |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10948297B2 (en) * | 2018-07-09 | 2021-03-16 | Samsung Electronics Co., Ltd. | Simultaneous location and mapping (SLAM) using dual event cameras |
CN109443320A (zh) * | 2019-01-10 | 2019-03-08 | 轻客小觅智能科技(北京)有限公司 | 基于直接法和线特征的双目视觉里程计及测量方法 |
CN111457923B (zh) * | 2019-01-22 | 2022-08-12 | 北京京东乾石科技有限公司 | 路径规划方法、装置及存储介质 |
CN111670339B (zh) * | 2019-03-08 | 2024-01-26 | 深圳市大疆创新科技有限公司 | 用于无人飞行器和地面载运工具之间的协作地图构建的技术 |
CN109976379A (zh) * | 2019-03-15 | 2019-07-05 | 上海工程技术大学 | 一种激光雷达和深度相机融合的自主导航及避障无人机 |
CN109976344B (zh) * | 2019-03-30 | 2022-05-27 | 南京理工大学 | 巡检机器人姿态矫正方法 |
CN110163963B (zh) * | 2019-04-12 | 2023-06-20 | 南京华捷艾米软件科技有限公司 | 一种基于slam的建图装置和建图方法 |
CN110191311A (zh) * | 2019-04-15 | 2019-08-30 | 贵州电网有限责任公司 | 一种基于多无人机的实时视频拼接方法 |
CN111829489B (zh) * | 2019-04-16 | 2022-05-13 | 杭州海康机器人技术有限公司 | 一种视觉定位的方法及装置 |
CN110148167B (zh) * | 2019-04-17 | 2021-06-04 | 维沃移动通信有限公司 | 一种距离测量方法及终端设备 |
CN110018691B (zh) * | 2019-04-19 | 2022-04-15 | 天津大学 | 小型多旋翼无人机飞行状态估计系统和方法 |
CN110084851B (zh) * | 2019-04-19 | 2020-12-04 | 湖北亿咖通科技有限公司 | 一种双目点云生成方法及系统 |
CN110216674B (zh) * | 2019-06-20 | 2021-10-01 | 北京科技大学 | 一种冗余自由度机械臂视觉伺服避障系统 |
CN112132745B (zh) * | 2019-06-25 | 2022-01-04 | 南京航空航天大学 | 一种基于地理信息的多子地图拼接特征融合方法 |
CN112129281B (zh) * | 2019-06-25 | 2022-02-22 | 南京航空航天大学 | 一种基于局部邻域地图的高精度图像导航定位方法 |
CN110555801B (zh) * | 2019-07-26 | 2024-08-16 | 纵目科技(上海)股份有限公司 | 一种航迹推演的校正方法、终端和存储介质 |
WO2021025707A1 (en) * | 2019-08-06 | 2021-02-11 | Boston Dynamics, Inc. | Intermediate waypoint generator |
CN110442242B (zh) * | 2019-08-13 | 2020-05-22 | 哈尔滨拓博科技有限公司 | 一种基于双目空间手势交互的智能镜系统及控制方法 |
CN110570449B (zh) * | 2019-09-16 | 2021-03-16 | 电子科技大学 | 一种基于毫米波雷达与视觉slam的定位与建图方法 |
CN110738143B (zh) * | 2019-09-27 | 2023-06-02 | Oppo广东移动通信有限公司 | 定位方法及装置、设备、存储介质 |
CN110775288B (zh) * | 2019-11-26 | 2021-05-25 | 哈尔滨工业大学(深圳) | 一种基于仿生的飞行机械颈眼系统及控制方法 |
CN110989664A (zh) * | 2019-11-29 | 2020-04-10 | 北京特种机械研究所 | 一种基于多目视觉的无人机夜间植保方法 |
CN113383283B (zh) * | 2019-12-30 | 2024-06-18 | 深圳元戎启行科技有限公司 | 感知信息处理方法、装置、计算机设备和存储介质 |
CN111275764B (zh) * | 2020-02-12 | 2023-05-16 | 南开大学 | 基于线段阴影的深度相机视觉里程测量方法 |
CN111462072B (zh) * | 2020-03-30 | 2023-08-29 | 北京百度网讯科技有限公司 | 点云图质量检测方法、装置以及电子设备 |
CN111694012A (zh) * | 2020-05-29 | 2020-09-22 | 北京航空航天大学合肥创新研究院 | 一种基于机载激光雷达的三维地形在线生成方法及系统 |
CN111578947B (zh) * | 2020-05-29 | 2023-12-22 | 国网浙江省电力有限公司台州市椒江区供电公司 | 具有深度恢复能力的无人机单目slam可扩展框架 |
CN112102376B (zh) * | 2020-08-04 | 2023-06-06 | 广东工业大学 | 混合稀疏icp的多视点云配准方法、装置及存储介质 |
CN112050814A (zh) * | 2020-08-28 | 2020-12-08 | 国网智能科技股份有限公司 | 一种室内变电站无人机视觉导航系统及方法 |
CN112052788B (zh) * | 2020-09-03 | 2024-04-02 | 深圳市道通智能航空技术股份有限公司 | 基于双目视觉的环境感知方法、装置及无人飞行器 |
CN112179357B (zh) * | 2020-09-25 | 2022-04-01 | 中国人民解放军国防科技大学 | 基于单目相机的平面运动目标视觉导航方法及系统 |
CN112381935B (zh) * | 2020-09-29 | 2024-07-30 | 西安应用光学研究所 | 一种合成视觉生成及多元融合装置 |
CN112614171B (zh) * | 2020-11-26 | 2023-12-19 | 厦门大学 | 面向工程机械集群作业的空-地一体化动态环境感知系统 |
CN112598010B (zh) * | 2020-11-26 | 2023-08-01 | 厦门大学 | 一种双目视觉的非结构化地形实时感知与重构方法 |
CN112859896B (zh) * | 2021-01-14 | 2023-03-28 | 中国人民解放军陆军装甲兵学院 | 基于机器视觉多旋翼无人机悬停飞行与循迹规划方法 |
CN113239936B (zh) * | 2021-04-26 | 2024-05-28 | 大连理工大学 | 一种基于深度学习与特征点提取的无人机视觉导航方法 |
CN113218385B (zh) * | 2021-05-24 | 2022-05-27 | 周口师范学院 | 基于slam的高精度车辆定位方法 |
CN113223007A (zh) * | 2021-06-28 | 2021-08-06 | 浙江华睿科技股份有限公司 | 视觉里程计的实现方法、装置及电子设备 |
CN113781573B (zh) * | 2021-07-19 | 2024-04-23 | 长春理工大学 | 一种基于双目折反射全景相机的视觉里程计方法 |
CN113436264B (zh) * | 2021-08-25 | 2021-11-19 | 深圳市大道智创科技有限公司 | 基于单目多目混合定位的位姿计算方法及系统 |
CN113779012B (zh) * | 2021-09-16 | 2023-03-07 | 中国电子科技集团公司第五十四研究所 | 一种用于无人机的单目视觉slam尺度恢复方法 |
CN113705734B (zh) * | 2021-09-30 | 2022-12-09 | 中国电子科技集团公司第五十四研究所 | 一种基于多传感器和地心的遥感图像特征点高程获取方法 |
CN113920186B (zh) * | 2021-10-13 | 2022-12-27 | 中国电子科技集团公司第五十四研究所 | 一种低空无人机多源融合定位方法 |
CN114494428B (zh) * | 2021-12-23 | 2022-11-11 | 禾多科技(北京)有限公司 | 车辆位姿矫正方法、装置、电子设备和计算机可读介质 |
CN114459467B (zh) * | 2021-12-30 | 2024-05-03 | 北京理工大学 | 一种未知救援环境中基于vi-slam的目标定位方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101252680B1 (ko) * | 2012-11-28 | 2013-04-08 | 네이버시스템(주) | 디지털 항공이미지를 이용한 영상도화시스템 |
CN103325108A (zh) * | 2013-05-27 | 2013-09-25 | 浙江大学 | 一种融合光流与特征点匹配的单目视觉里程计的设计方法 |
CN106595659A (zh) * | 2016-11-03 | 2017-04-26 | 南京航空航天大学 | 城市复杂环境下多无人机视觉slam的地图融合方法 |
CN106767785A (zh) * | 2016-12-23 | 2017-05-31 | 成都通甲优博科技有限责任公司 | 一种双回路无人机的导航方法及装置 |
CN106803271A (zh) * | 2016-12-23 | 2017-06-06 | 成都通甲优博科技有限责任公司 | 一种视觉导航无人机的摄像机标定方法及装置 |
CN107341814A (zh) * | 2017-06-14 | 2017-11-10 | 宁波大学 | 基于稀疏直接法的四旋翼无人机单目视觉测程方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016029970A1 (en) * | 2014-08-29 | 2016-03-03 | Toyota Motor Europe Nv/Sa | Method and system for scanning an object using an rgb-d sensor |
-
2018
- 2018-05-21 CN CN201810489486.8A patent/CN109029417B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101252680B1 (ko) * | 2012-11-28 | 2013-04-08 | 네이버시스템(주) | 디지털 항공이미지를 이용한 영상도화시스템 |
CN103325108A (zh) * | 2013-05-27 | 2013-09-25 | 浙江大学 | 一种融合光流与特征点匹配的单目视觉里程计的设计方法 |
CN106595659A (zh) * | 2016-11-03 | 2017-04-26 | 南京航空航天大学 | 城市复杂环境下多无人机视觉slam的地图融合方法 |
CN106767785A (zh) * | 2016-12-23 | 2017-05-31 | 成都通甲优博科技有限责任公司 | 一种双回路无人机的导航方法及装置 |
CN106803271A (zh) * | 2016-12-23 | 2017-06-06 | 成都通甲优博科技有限责任公司 | 一种视觉导航无人机的摄像机标定方法及装置 |
CN107341814A (zh) * | 2017-06-14 | 2017-11-10 | 宁波大学 | 基于稀疏直接法的四旋翼无人机单目视觉测程方法 |
Non-Patent Citations (2)
Title |
---|
Multi-camera visual SLAM for autonomous navigation of micro aerial vehicles;Shaowu Yang .et al;《Robotics and Autonomous Systems》;20170412;第116-134页 * |
SVO: fast semi-direct monocular visual;Foster .et al;《IEEE International Conference on Robotics and Automation (ICRA)》;20140607;第15-22页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109029417A (zh) | 2018-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109029417B (zh) | 基于混合视觉里程计和多尺度地图的无人机slam方法 | |
Hening et al. | 3D LiDAR SLAM integration with GPS/INS for UAVs in urban GPS-degraded environments | |
CN110068335B (zh) | 一种gps拒止环境下无人机集群实时定位方法及系统 | |
CN111156998B (zh) | 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 | |
Balamurugan et al. | Survey on UAV navigation in GPS denied environments | |
CN109885080B (zh) | 自主控制系统及自主控制方法 | |
Schmid et al. | Stereo vision based indoor/outdoor navigation for flying robots | |
CN104729506B (zh) | 一种视觉信息辅助的无人机自主导航定位方法 | |
EP3158293B1 (en) | Sensor fusion using inertial and image sensors | |
EP3158412B1 (en) | Sensor fusion using inertial and image sensors | |
Strydom et al. | Visual odometry: autonomous uav navigation using optic flow and stereo | |
US10921825B2 (en) | System and method for perceptive navigation of automated vehicles | |
WO2016187759A1 (en) | Sensor fusion using inertial and image sensors | |
WO2016187758A1 (en) | Sensor fusion using inertial and image sensors | |
RU195749U1 (ru) | Интеллектуальная система технического зрения беспилотного летательного аппарата для решения задач навигации, построения трехмерной карты окружающего пространства и препятствий и автономного патрулирования | |
Holz et al. | Towards multimodal omnidirectional obstacle detection for autonomous unmanned aerial vehicles | |
CN108733064A (zh) | 一种无人机的视觉定位避障系统及其方法 | |
Cutler et al. | Lightweight infrared sensing for relative navigation of quadrotors | |
CN114923477A (zh) | 基于视觉与激光slam技术的多维度空地协同建图系统和方法 | |
Andert et al. | On the safe navigation problem for unmanned aircraft: Visual odometry and alignment optimizations for UAV positioning | |
US9476987B2 (en) | Method estimating absolute orientation of a vehicle | |
Wang et al. | Micro aerial vehicle navigation with visual-inertial integration aided by structured light | |
Gao et al. | Altitude information acquisition of uav based on monocular vision and mems | |
Ready et al. | Inertially aided visual odometry for miniature air vehicles in gps-denied environments | |
CN114003041A (zh) | 一种多无人车协同探测系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |