CN114964276B - 一种融合惯导的动态视觉slam方法 - Google Patents
一种融合惯导的动态视觉slam方法 Download PDFInfo
- Publication number
- CN114964276B CN114964276B CN202210588384.8A CN202210588384A CN114964276B CN 114964276 B CN114964276 B CN 114964276B CN 202210588384 A CN202210588384 A CN 202210588384A CN 114964276 B CN114964276 B CN 114964276B
- Authority
- CN
- China
- Prior art keywords
- imu
- camera
- coordinate system
- pose
- dynamic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000000007 visual effect Effects 0.000 claims abstract description 24
- 238000005457 optimization Methods 0.000 claims abstract description 20
- 230000004927 fusion Effects 0.000 claims abstract description 13
- 230000008878 coupling Effects 0.000 claims abstract description 8
- 238000010168 coupling process Methods 0.000 claims abstract description 8
- 238000005859 coupling reaction Methods 0.000 claims abstract description 8
- 230000010354 integration Effects 0.000 claims abstract description 8
- 230000000295 complement effect Effects 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 32
- 238000005259 measurement Methods 0.000 claims description 18
- 230000009466 transformation Effects 0.000 claims description 13
- 230000033001 locomotion Effects 0.000 claims description 12
- 230000003068 static effect Effects 0.000 claims description 9
- 239000013598 vector Substances 0.000 claims description 9
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 238000005295 random walk Methods 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 230000001133 acceleration Effects 0.000 claims description 3
- 239000000654 additive Substances 0.000 claims description 3
- 230000000996 additive effect Effects 0.000 claims description 3
- 230000005484 gravity Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 abstract description 9
- 238000013507 mapping Methods 0.000 abstract description 6
- 230000004807 localization Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及动态视觉定位与建图方案领域,更具体的说是一种融合惯导的动态视觉SLAM方法,利用惯导IMU与相机互补的提升SLAM方法的精度和鲁棒性,该方法包括以下步骤:S1:计算IMU位姿;S2:鲁棒性的相机位姿估计;S3:融合IMU的紧耦合优化;首先,根据IMU积分获得IMU坐标系下的位姿、速度;其次,在相机视觉条件不足,即车辆快速运动、物体遮挡、光线变化等,可使用IMU位姿数据提供车辆定位结果,增强动态视觉SLAM系统的鲁棒性;采用基于贝叶斯网络的因子图搭建融合优化算法,引入IMU预积分因子进行全局约束;通过在KITTI数据集上的实验结果对比,可知,本方法在精度上优于纯视觉动态SLAM。
Description
技术领域
本发明涉及动态视觉定位与建图方案领域,更具体地说是一种融合惯导的动态视觉SLAM方法。
背景技术
实时精准的定位技术是无人驾驶汽车的关键技术之一,其提供了车辆在世界坐标系中的位置以及自身的朝向等关键信息。实时定位通常使用以下三种方法:1)使用卫星信号与惯性测量单元(IMU)的高精度组合导航设备;2)高精度地图对齐技术;3)同时定位与建图(SLAM,Simultaneous Localization And Mapping)技术。高精度组合导航设备虽定位结果稳定,但存在一些严重缺陷,例如卫星信号遮挡、硬件成本过高、算法黑盒子等问题。高精度地图对齐依赖于提前绘制的高精度地图,对环境变化的鲁棒性较差。因此,SLAM方法成为了满足实时精准定位需求的研究热点。SLAM研究方向已经出现了一些很不错的成果,包括基于视觉SLAM定位方案和基于激光SLAM定位方案。
常规的SLAM方法假设环境中所有物体均处于静止的状态,而一些能够在动态环境中运行的SLAM系统,只是将环境的动态物体视为异常值并将它们从环境中剔除,再使用常规的SLAM方法进行处理。这严重影响了SLAM技术在无人驾驶场景中的应用。常规的SLAM方法跟踪帧间的视觉几何特征,即点、线、面,然后通过束调整(BA,Bundle Adjustment)最小化重投影或光度误差。但是,除了环境中的这些低级要素之外,物体也是SLAM系统中未被很好探索的重要组成部分。物体对象的引入可以为BA调整阶段提供更多的约束条件。由此,近两年出现了对象级别的动态视觉SLAM的研究,然而它们仅仅使用相机作为传感器,车辆定位结果在运动速度过快,转弯或光线变化等场景依旧存在鲁棒性问题。
发明内容
本发明的目的是提供一种融合惯导的动态视觉SLAM方法,可以利用惯导与相机互补的优势提升SLAM方法的精度和鲁棒性;其定位精度和鲁棒性在KITTI数据集上均优于纯动态视觉SLAM方法。
本发明的目的通过以下技术方案来实现:
一种融合惯导的动态视觉SLAM方法,利用惯导IMU与相机互补的提升SLAM方法的精度和鲁棒性,该方法包括以下步骤:
S1:计算IMU位姿;
S2:鲁棒性的相机位姿估计;
S3:融合IMU的紧耦合优化;
所述计算IMU位姿为根据IMU积分获得IMU坐标系下的位姿、速度。
所述计算IMU位姿的步骤如下:
IMU的测量值为陀螺仪读数和加速度计读数测量时的加性噪声为高斯白噪声,且偏置建模为随机游走,即导数服从高斯分布,则有:
其中,变量的角标a:IMU中的加速计;g:IMU中的陀螺仪;b:IMU坐标系;w:世界坐标系;qbw表示从世界坐标系到IMU坐标系的旋转四元数;gw为重力加速度;
k帧到k+1帧,IMU的位移变化速度变化姿态变化为:
那么k+1时刻,IMU的位姿估计:
所述鲁棒性的相机位姿估计的步骤如下:
从当前输入的图像中获取当前帧,并从图片中提取点特征,将相邻帧的特征点进行匹配,根据针孔相机模型和相邻帧匹配结果最小化视觉重投影误差来估计相机位姿;由此看出,良好的视觉条件是位姿估计成功的重要条件,在车辆运动过快或者光线变化的场景,无法获得足够的特征点;
进一步的,为了增强相机位姿估计的鲁棒性,在无法获得在足够视觉信息时,这时使用IMU积分获得的IMU位姿通过相机和IMU外参矩阵的转换来获得较好的相机位姿估计。通常以相机位姿估计结果为车辆的定位结果。
即:Tcw=TcbTbw;
其中,Tcw:世界坐标系到相机坐标系的变换矩阵,即相机世界坐标系位姿;Tcb:IMU坐标系到相机坐标系的变换矩阵,也称为IMU到相机的外参;Tbw:世界坐标系到IMU坐标系下的变换矩阵,即IMU世界坐标系位姿;
变换矩阵T由旋转矩阵R和平移向量t构成,旋转四元数q是一种更紧凑的旋转运动表达方式,与旋转矩阵R可相互转换;
所述融合IMU的紧耦合优化的步骤如下:
设pi,k(i=1,2,...,s;k=1,2,...,n)为第i个静态特征点在第k帧图像中的2d关联,则重投影误差:
其中f表示相机模型,为第k-1帧观察到的第i个特征点在世界坐标系下的三维坐标值;Tk为第k帧图片捕获时相机的世界坐标位姿;
设对象运动k-1Hk为第k-1帧到k帧动态对象的相对运动,动态对象上的动态特征点在第k帧图像中的2d关联为pj,k(j=1,2,...,d;k=1,2,...,n),则重投影误差为:
进一步的为了获得相对实时的位姿,位姿优化采用一种基于滑动窗的紧耦合VIO进行高精度和鲁棒的状态估计;
设滑动窗口内有N帧,完整状态向量定义如下:
χ=[y0,y1,…,yN,Tcb,m1,m2,…,ml]
Tcb=[pcb,qcb]
yk为第k帧图像被捕获时的IMU状态,包括世界坐标系下的位移、速度、姿态、加速度计偏置和陀螺仪偏置;l为窗口中的视觉静动态特征总数;
对滑动窗口内的状态向量进行非线性优化:
其中p(s)为核函数;具体取值为:
Σs为静态三维点测量噪声协方差矩阵;Σb为IMU噪声协方差矩阵;Σd为动态三维点测量噪声协方差矩阵;nb是当前窗口中所有IMU测量值的集合;ns和nd是在当前窗口中至少被观察到两次的三维点的集合;{rp,Hp}是边缘化的先验信息;
在完成所有相机和IMU数据的相关状态量估计后,统一进行视觉和IMU的全局优化来提升定位和建图的精度。
本发明的优点及有益效果如下:
首先,根据IMU积分获得IMU坐标系下的位姿、速度;其次,在相机视觉条件不足,即车辆快速运动、物体遮挡、光线变化等,可使用IMU位姿数据提供车辆定位结果,增强动态视觉SLAM系统的鲁棒性;采用基于贝叶斯网络的因子图搭建融合优化算法,引入IMU预积分因子进行全局约束;通过在KITTI数据集上的实验结果对比,可知,本方法在精度上优于纯视觉动态SLAM。
附图说明
下面结合附图和具体实施方法对本发明做进一步详细的说明。
图1是本发明的全局优化因子图示意图;
图2是本发明的定位精度示意图;
图3是纯视觉动态SLAM的定位精度示意图;
图4是本发明的轨迹示意图;
图5是纯视觉动态SLAM的轨迹示意图。
具体实施方式
下面结合附图对本发明做进一步详细说明。
如图2和3所示,通过图2和图3的定位精度对比,可知本方法在精度上优于纯视觉动态SLAM;如图4和5所示,通过图4和图5的轨迹对比,可知本方法在鲁棒性上优于纯视觉动态SLAM;
如图1至5所示,为了解决“如何提升SLAM方法的精度和鲁棒性”这一技术问题,下面对一种融合IMU的视觉动态SLAM方法的步骤和功能进行详细的说明;
本发明所述的一种融合IMU的视觉动态SLAM方法,使用的动态视觉SLAM框架为VDO-SLAM,并将其实例分割算法替换成更先进的BlendMask算法,其次引入IMU数据的积分计算,估计IMU的平移、速度、姿态。再其次,当视觉条件不好时,用IMU位姿弥补相机定位。同时,当滑动窗口数达到20时,引入IMU状态变量结合动态视觉紧耦合优化,得到相对实时和准确的定位结果,最后,增加IMU的因子进行全局约束。
具体实施步骤如下:
S1:计算IMU位姿;
IMU的测量值为陀螺仪读数和加速度计读数假设测量时的加性噪声为高斯白噪声,且偏置建模为随机游走,即导数服从高斯分布。则有:
其中,变量的角标a:IMU中的加速计,g:IMU中的陀螺仪,b:IMU坐标系,w:世界坐标系,选择第一帧图片的坐标系作为世界坐标系原点。gw为重力加速度,取值9.8m/s2。
IMU的噪声和随机游走数据由IMU标定给出,本文的IMU测量值分别来自KITTI数据集对齐相机后的矫正数据,频率为10Hz。
设k表示捕获到第k帧图片的时刻,则k帧到k+1帧,IMU的位移变化速度变化姿态变化为:
式中的ω和a使用欧拉法,选择k时刻的测量值来计算k到k+1时刻的 则k+1帧时,IMU的位姿估计:
S2:鲁棒性的相机位姿估计;
从当前输入的图像中获取当前帧,并从图片中提取ORB点特征,将相邻帧的特征点进行匹配,根据相机模型和相邻帧匹配结果最小化视觉重投影误差来估计相机位姿。本文使用针孔相机模型,即:
其中K为相机内参矩阵,Tcw为世界坐标系到相机坐标系的变换矩阵,即相机的外参。Pw为世界点,[u,v]是世界点在图片中对应的像素值,Zc为世界点到相机光心的深度值。
在车辆运动过快或者光线变化的场景,无法获得足够的特征点,为了相机位姿估计的鲁棒性,这时使用IMU积分获得的IMU位姿通过相机和IMU外参矩阵的转换来获得较好的相机位姿估计。以相机位姿估计结果为车辆的定位结果。
即
Tcw=TcbTbw
Tcw:世界坐标系到相机坐标系的变换矩阵,即相机世界坐标系位姿;Tcb:IMU坐标系到相机坐标系的变换矩阵,也称为IMU到相机的外参;Tbw:世界坐标系到IMU坐标系下的变换矩阵,即IMU世界坐标系位姿。变换矩阵T由旋转矩阵R和平移向量t构成,旋转四元数q是一种更紧凑的旋转运动表达方式,与旋转矩阵R可相互转换;
S3:融合IMU的紧耦合优化;
假设pi,k(i=1,2,...,s;k=1,2,...,n)为第i个静态特征点在第k帧图像中的2d关联,则重投影误差:
f表示针孔相机模型,为第k-1帧观察到的第i个特征点在世界坐标系下的三维坐标值。Tk为第k帧图片捕获时相机的世界坐标位姿。
假设对象运动k-1Hk为第k-1帧到k帧动态对象的相对运动,动态对象上的动态特征点在第k帧图像中的2d关联为pj,k(j=1,2,...,d;k=1,2,...,n),则重投影误差为:
进一步的为了获得相对实时的位姿,位姿优化采用一种基于滑动窗的紧耦合VIO进行高精度和鲁棒的状态估计。假设滑动窗口内有N帧,选定N=20。完整状态向量定义如下:
χ=[y0,y1,…,yN,Tcb,m1,m2,…,ml]
yk为第k帧图像被捕获时的IMU状态,包括世界坐标系下的位移、速度、姿态、加速度计偏置和陀螺仪偏置。l为窗口中的视觉静动态特征总数。由此可构建出最大后验估计问题,即列文伯格-马夸尔特法最小化所有误差函数,从而对滑动窗口内的状态向量进行非线性优化:
其中p(s)为核函数。具体取值为:
Σs为静态三维点测量噪声协方差矩阵,Σb为IMU噪声协方差矩阵,Σd为动态三维点测量噪声协方差矩阵。nb是当前窗口中所有IMU测量值的集合,ns和nd是在当前窗口中至少被观察到两次的三维点的集合。{rp,Hp}是边缘化先验信息。
在完成所有相机和IMU数据的相关状态量估计后,统一进行视觉和IMU的全局优化来提升定位和建图的精度,全局优化因子图如图1所示。
下面根据数据集实验对本发明的技术方案的定位精度对比验证。利用KITTI跟踪数据集评估算法在驾驶平稳和光线良好的室外驾驶场景中位姿估计结果,评估策略为通过比较数据集真值与算法输出位姿结果,求相机和跟踪对象位姿估计的相对误差均方根,如表1所示。同时,相机位姿估计对比结果如图2和3所示,图中rmse表示位姿误差均方根,mean表示位姿误差均值,median表示位姿误差中位数。轨迹误差对比如图4和5所示,reference表示真值的轨迹,彩色为相机位姿轨迹。KITTI跟踪数据集有21个序列,VDO-SLAM仅适用于刚性动态物体跟踪,因此以上数据序列排除了存在非刚性对象的序列。
数据集测试结果如下表所示:
表1融合IMU的动态视觉SLAM和动态视觉SLAM方法的定位误差:
由上表可知,在KITTI数据集实验中,得益于融合IMU的相机位姿估计和VIO紧耦合优化算法的双重作用,本算法较纯动态视觉SLAM方法较优,在视觉良好的条件下得到较为精准的定位结果。
需要说明的是,以上内容仅仅说明了本发明的技术思想,不能以此限定本发明的保护范围,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进和润饰,这些改进和润饰均落入本发明权力要求书的保护范围。
Claims (2)
1.一种融合惯导的动态视觉SLAM方法,利用惯导IMU与相机互补的提升SLAM方法的精度和鲁棒性,其特征在于:该方法包括以下步骤:
S1:计算IMU位姿;
S2:鲁棒性的相机位姿估计;
S3:融合IMU的紧耦合优化;
所述计算IMU位姿为根据IMU积分获得IMU坐标系下的位姿、速度;
所述计算IMU位姿的步骤如下:
IMU的测量值为陀螺仪读数和加速度计读数测量时的加性噪声为高斯白噪声,且偏置建模为随机游走,即导数服从高斯分布,则有:
其中,变量的角标a:IMU中的加速计;g:IMU中的陀螺仪;b:IMU坐标系;w:世界坐标系;qbw表示从世界坐标系到IMU坐标系的旋转四元数;gw为重力加速度;
k帧到k+1帧,IMU的位移变化速度变化姿态变化为:
那么k+1时刻,IMU的位姿估计:
从当前输入的图像中获取当前帧,并从图片中提取点特征,将相邻帧的特征点进行匹配,根据针孔相机模型和相邻帧匹配结果最小化视觉重投影误差来估计相机位姿;
使用IMU积分获得的IMU位姿通过相机和IMU外参矩阵的转换来获得相机位姿估计;
以相机位姿估计结果为定位结果,即:Tcw=TcbTbw;
其中,Tcw:世界坐标系到相机坐标系的变换矩阵,即相机世界坐标系位姿;Tcb:IMU坐标系到相机坐标系的变换矩阵,即IMU到相机的外参;Tbw:世界坐标系到IMU坐标系下的变换矩阵,即IMU世界坐标系位姿;
所述融合IMU的紧耦合优化的步骤如下:
设pi,k(i=1,2,...,s;k=1,2,…,n)为第i个静态特征点在第k帧图像中的2d关联,则重投影误差:
其中f表示相机模型,为第k-1帧观察到的第i个特征点在世界坐标系下的三维坐标值;Tk为第k帧图片捕获时相机的世界坐标位姿;
设对象运动k-1Hk为第k-1帧到k帧动态对象的相对运动,动态对象上的动态特征点在第k帧图像中的2d关联为pj,k(j=1,2,…,d;k=1,2,…,n),则重投影误差为:
位姿优化采用一种基于滑动窗的紧耦合VIO进行高精度和鲁棒的状态估计;
设滑动窗口内有N帧,完整状态向量定义如下:
χ=[y0,y1,…,yN,Tcb,m1,m2,…,ml]
Tcb=[pcb,qcb]
yk为第k帧图像被捕获时的IMU状态,包括世界坐标系下的位移、速度、姿态、加速度计偏置和陀螺仪偏置;l为窗口中的视觉静动态特征总数;
对滑动窗口内的状态向量进行非线性优化:
其中p(s)为核函数;具体取值为:
Σs为静态三维点测量噪声协方差矩阵;Σb为IMU噪声协方差矩阵;Σd为动态三维点测量噪声协方差矩阵;nb是当前窗口中所有IMU测量值的集合;ns和nd是在当前窗口中至少被观察到两次的三维点的集合;{rp,Hp}是边缘化的先验信息。
2.根据权利要求1所述的一种融合惯导的动态视觉SLAM方法,其特征在于:变换矩阵T由旋转矩阵R和平移向量t构成,旋转四元数q是一种更紧凑的旋转运动表达方式,与旋转矩阵R可相互转换。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210588384.8A CN114964276B (zh) | 2022-05-26 | 2022-05-26 | 一种融合惯导的动态视觉slam方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210588384.8A CN114964276B (zh) | 2022-05-26 | 2022-05-26 | 一种融合惯导的动态视觉slam方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114964276A CN114964276A (zh) | 2022-08-30 |
CN114964276B true CN114964276B (zh) | 2024-09-13 |
Family
ID=82956213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210588384.8A Active CN114964276B (zh) | 2022-05-26 | 2022-05-26 | 一种融合惯导的动态视觉slam方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114964276B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115235454B (zh) * | 2022-09-15 | 2022-12-30 | 中国人民解放军国防科技大学 | 行人运动约束的视觉惯性融合定位与建图方法和装置 |
CN116205947B (zh) * | 2023-01-03 | 2024-06-07 | 哈尔滨工业大学 | 基于相机运动状态的双目-惯性融合的位姿估计方法、电子设备及存储介质 |
CN117451030B (zh) * | 2023-10-25 | 2024-06-14 | 哈尔滨工业大学 | 一种基于场景自适应的多模态融合slam方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109631894A (zh) * | 2018-12-11 | 2019-04-16 | 智灵飞(北京)科技有限公司 | 一种基于滑动窗口的单目视觉惯性紧耦合方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110345944A (zh) * | 2019-05-27 | 2019-10-18 | 浙江工业大学 | 融合视觉特征和imu信息的机器人定位方法 |
CN111156984B (zh) * | 2019-12-18 | 2022-12-09 | 东南大学 | 一种面向动态场景的单目视觉惯性slam方法 |
CN112240768A (zh) * | 2020-09-10 | 2021-01-19 | 西安电子科技大学 | 基于Runge-Kutta4改进预积分的视觉惯导融合SLAM方法 |
CN113124906A (zh) * | 2021-05-06 | 2021-07-16 | 苏州挚途科技有限公司 | 基于在线标定的测距方法、装置及电子设备 |
CN114202579B (zh) * | 2021-11-01 | 2024-07-16 | 东北大学 | 一种面向动态场景的实时多体slam系统 |
-
2022
- 2022-05-26 CN CN202210588384.8A patent/CN114964276B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109631894A (zh) * | 2018-12-11 | 2019-04-16 | 智灵飞(北京)科技有限公司 | 一种基于滑动窗口的单目视觉惯性紧耦合方法 |
Non-Patent Citations (1)
Title |
---|
面向动态环境的视觉SLAM技术研究;韩波;《中国优秀硕士学位论文全文数据库 信息科技辑》;20210815;第33-53页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114964276A (zh) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109993113B (zh) | 一种基于rgb-d和imu信息融合的位姿估计方法 | |
CN114964276B (zh) | 一种融合惯导的动态视觉slam方法 | |
CN111595333A (zh) | 视觉惯性激光数据融合的模块化无人车定位方法及系统 | |
CN112556719B (zh) | 一种基于cnn-ekf的视觉惯性里程计实现方法 | |
Panahandeh et al. | Vision-aided inertial navigation based on ground plane feature detection | |
CN111258313A (zh) | 多传感器融合slam系统及机器人 | |
CN111932674B (zh) | 一种线激光视觉惯性系统的优化方法 | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
CN116205947B (zh) | 基于相机运动状态的双目-惯性融合的位姿估计方法、电子设备及存储介质 | |
CN109029433A (zh) | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 | |
CN109815847B (zh) | 一种基于语义约束的视觉slam方法 | |
CN113108771B (zh) | 一种基于闭环直接稀疏视觉里程计的移动位姿估计方法 | |
CN114001733B (zh) | 一种基于地图的一致性高效视觉惯性定位算法 | |
CN114693754B (zh) | 一种基于单目视觉惯导融合的无人机自主定位方法与系统 | |
Tang et al. | LE-VINS: A robust solid-state-LiDAR-enhanced visual-inertial navigation system for low-speed robots | |
CN114234967A (zh) | 一种基于多传感器融合的六足机器人定位方法 | |
CN113551665A (zh) | 一种用于运动载体的高动态运动状态感知系统及感知方法 | |
CN118135526B (zh) | 基于双目相机的四旋翼无人机视觉目标识别与定位方法 | |
CN117367427A (zh) | 一种适用于室内环境中的视觉辅助激光融合IMU的多模态slam方法 | |
Zhu et al. | PairCon-SLAM: Distributed, online, and real-time RGBD-SLAM in large scenarios | |
CN117073720A (zh) | 弱环境与弱动作控制下快速视觉惯性标定与初始化方法及设备 | |
CN112179373A (zh) | 一种视觉里程计的测量方法及视觉里程计 | |
CN113345032B (zh) | 一种基于广角相机大畸变图的初始化建图方法及系统 | |
CN115355904A (zh) | 一种针对地面移动机器人的Lidar-IMU融合的slam方法 | |
CN112945233B (zh) | 一种全局无漂移的自主机器人同时定位与地图构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |