Nothing Special   »   [go: up one dir, main page]

CN111179344A - 一种修复语义信息的高效移动机器人slam系统 - Google Patents

一种修复语义信息的高效移动机器人slam系统 Download PDF

Info

Publication number
CN111179344A
CN111179344A CN201911367700.3A CN201911367700A CN111179344A CN 111179344 A CN111179344 A CN 111179344A CN 201911367700 A CN201911367700 A CN 201911367700A CN 111179344 A CN111179344 A CN 111179344A
Authority
CN
China
Prior art keywords
robot
semantic
point
module
optimization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911367700.3A
Other languages
English (en)
Other versions
CN111179344B (zh
Inventor
徐伟锋
蔡述庭
陈文峰
李丰
张海钰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN201911367700.3A priority Critical patent/CN111179344B/zh
Publication of CN111179344A publication Critical patent/CN111179344A/zh
Application granted granted Critical
Publication of CN111179344B publication Critical patent/CN111179344B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

为了解决现有技术中移动机器人视觉系统中的SLAM系统在物体移动时容易造成系统失效的问题,本发明提供一种修复语义信息的高效移动机器人SLAM系统,包括机器人视觉感知装置、语义分割模块、优化模块以及建图模块;其中,将机器人视觉感知装置采集的RGB彩色图像进行ORB特征提取,并对深度图像进行降噪,然后采集机器人位姿数据,再通过时间戳将上述三个数据进行数据融合,每一组数据称之为一帧;选出关键帧传到语义分割模块;该语义分割模块对关键帧进行修复,并把修复结果传到优化模块;该优化模块根据语义标签对关键桢中的动态物体进行剔除,进行局部BA优化,优化机器人位姿;并将优化结果送到建图模块合成语义八叉树地图。

Description

一种修复语义信息的高效移动机器人SLAM系统
技术领域
本发明涉及移动机器人技术领域,特别涉及一种修复语义信息的高效移动机器人SLAM系统。
背景技术
移动机器人视觉系统是指移动机器人的视觉系统,包括通过传感器获得图像,和通过计算机处理器对图像进行处理这两个部分。
现有的,如一种基于图像语义分割的动态场景视觉定位方法、一种基于SLAM和图像信息的机器人构图及导航方法、一种基于Kinect的视觉SLAM方法等。以上算法都对经典的SLAM系统进行了改进,然而仍有不足。例如:在动态场景下,由于物体不断移动,导致特征点匹配失效,得到一个错误的匹配结果,最终致使SLAM系统失效;另外一些利用了语义分割网络的系统在动态场景下获得了不错的结果,但前提是需要得到完整的语义信息,因此在光照不强,运动剧烈的场景,效果往往大打折扣。
发明内容
为了解决现有技术中移动机器人视觉系统中的SLAM系统在物体移动时容易造成系统失效的问题,本发明提供一种修复语义信息的高效移动机器人SLAM系统,旨在深入研究移动机器人视觉感知技术,利用SLAM技术实现机器人在未知环境、语义缺失场景中构建语义地图并实时定位,同时准确估算自己的位姿。
本发明为了解决上述技术体所采用的技术方案是:一种修复语义信息的高效移动机器人SLAM系统,其技术方案在于:包括机器人视觉感知装置、语义分割模块、优化模块以及建图模块;其中,将机器人视觉感知装置采集的RGB彩色图像进行ORB特征提取,并对深度图像进行降噪,然后采集用于检测机器人移动数据的编码器的数据得到机器人位姿数据,再通过时间戳将上述三个数据进行数据融合,每一组数据称之为一帧;根据机器人转角或走过的路程从上述帧中筛选出关键帧传到语义分割模块;该语义分割模块对关键帧进行修复,并把修复结果传到优化模块;该优化模块根据语义标签对关键桢中的动态物体进行剔除,剔除后根据不同关键帧观测到相同的特征点,形成约束关系,进行局部BA优化,优化机器人位姿;并将优化结果送到建图模块简历局部地图,局部地图在建图模块融合成语义八叉树地图。
本发明的有益效果是:本发明融合了ORB特征、深度图像以及编码器数据,直接通过编码器来计算出机器人的位姿,避免了特征点误匹配带来的位姿错误的缺点。同时,本方案利用四近邻算法对语义标签进行补全,从而使得SLAM系统在语义缺失场景下仍具备鲁棒性,保证了系统的稳定性和可靠性。
附图说明
图1为本发明的系统框图。
图2为语义标签修复算法流程图。
具体实施方式
下面结合附图对本申请进行进一步的说明。
如图1,本发明所述的一种修复语义信息的高效移动机器人SLAM系统,其技术方案在于:包括机器人视觉感知装置、语义分割模块、优化模块以及建图模块;其中,将机器人视觉感知装置采集的RGB彩色图像进行ORB特征提取,并对深度图像进行降噪,然后采集用于检测机器人移动数据的编码器的数据得到机器人位姿数据,再通过时间戳将上述三个数据进行数据融合,每一组数据称之为一帧;根据机器人转角或走过的路程从上述帧中筛选出关键帧传到语义分割模块;该语义分割模块对关键帧进行修复,并把修复结果传到优化模块;该优化模块根据语义标签对关键桢中的动态物体进行剔除,剔除后根据不同关键帧观测到相同的特征点,形成约束关系,进行局部BA优化,优化机器人位姿;并将优化结果送到建图模块简历局部地图,局部地图在建图模块融合成语义八叉树地图。
本发明的具体步骤如下:
1.对每一帧彩色图像数据进行ORB特征提取,其过程为:利用FAST角点提取算法找到图像中的角点,作为关键点,分别以每一个关键点为中心,在半径为15的圆内根据高斯概率分布选取128对点对建立关键点对应的描述子,每一组关键点和描述子构成了一个ORB特征,至此完成了ORB特征提取。
2.编码器数据处理,是对从两个驱动轮提取的编码器数据进行分析计算,左轮编码器记为l,右轮编码器记为r,两轮轴距记为b,以机器人两轮中点为原点,在机器人所在水平面建立直角坐标系,机器人初始正向朝向为x轴,垂直x轴为y轴,Δs是机器人中心移动的距离,Δθ是机器人中心移动前后相对于原点的夹角,
Figure BDA0002338876650000021
代表着机器人左/右轮子的位移增量,在k时刻,机器人的位姿为ζk=[xk,yk,θk]T,则根据轮式机器人的运动模型,从几何关系可以计算出k+1时刻机器人的位姿为:
Figure BDA0002338876650000031
其中:
Figure BDA0002338876650000032
假设t时刻的协方差矩阵为∑t,对运动增量(Δsr;Δsl)的协方差矩阵ΣΔ为:
Figure BDA0002338876650000033
由误差传播定律得出t+1时刻的位姿协方差矩阵Σt+1为:
t+1=Gtt(Gt)T+GΔΔ(GΔ)T#(3)
其中,Gt为公式(1)服从机器人位姿变换的雅克比矩阵,GΔ为公式(1)服从(Δsr;Δsl)T变换的雅克比矩阵。
假设机器人当前帧坐标为{rc},关键帧坐标为{rk},则机器人从当前帧到上一帧关键帧的位姿变换
Figure BDA0002338876650000034
可由编码器数据计算得出且服从高斯分布:
Figure BDA0002338876650000035
其中,
Figure BDA0002338876650000036
为由编码器观测的位姿变化的期望,
Figure BDA0002338876650000037
为编码器观测的位姿变化协方差矩阵,由公式(3)得出。
3.数据融合并优化,是通过最小化编码器和重投影误差来估计机器人当前位姿的过程。如图2,首先需要定义不同的坐标系来表述机器人移动位姿变换,其中,{w}为世界坐标系,{r}为机器人坐标系,{c}为相机坐标系。则机器人在世界坐标系下的位姿可表示为
Figure BDA0002338876650000038
其中[x,y]T∈R2为机器人在世界坐标系下的位置,θ为机器人的偏航角,基于此机器人位姿表示方法,机器人坐标到世界坐标的变换矩阵
Figure BDA0002338876650000039
可表示为:
Figure BDA0002338876650000041
初始化的机器人位姿
Figure BDA0002338876650000042
为:
Figure BDA0002338876650000043
其中,
Figure BDA0002338876650000044
即公式(5)中的变换矩阵,其中下标k表示第k个关键帧,
Figure BDA0002338876650000045
为公式(4)中得到。
根据相机投影模型,一个局部地图点wp投影到当前帧,是将一个3D点投影到2D平面点的过程,其投影在图像中的位置:
Figure BDA0002338876650000046
其中,π(·)为相机针孔模型,
Figure BDA0002338876650000047
为相机坐标到机器人坐标的转换,由标定可以得出。假设局部地图点服从高斯分布,即
Figure BDA0002338876650000048
Figure BDA0002338876650000049
为局部地图点wp的期望,∑p为局部地图点的协方差矩阵,同理,其投影也服从高斯分布,即
Figure BDA00023388766500000410
则u的协方差矩阵为:
Figure BDA00023388766500000411
其中,Ge为公式(7)服从编码器观测变化
Figure BDA00023388766500000412
的雅克比矩阵,Gp为公式(7)服从局部地图点位置变化wp的雅克比矩阵。
有了上述投影模型的计算,再利用深度值将2D点转换到3D点,从而实现重投影过程,设2D点坐标u′,深度值为z′,则有:
Figure BDA00023388766500000413
上述重投影过程中,理论上正确匹配的局部地图点wp和重投影后的局部地图点wp′不会有太大偏差,对于差距较大的点,如wp-wp′>0.1m,则认为其是误匹配,进行删除。
由以上步骤的计算,当前帧位姿
Figure BDA0002338876650000051
的最优值求解转化为最小化编码器误差和重投影
误差:
Figure BDA0002338876650000052
其中,Eenc表示编码器最小二乘误差,Ei,proj表示重投影最小二乘误差,ee为编码器
误差,
Figure BDA0002338876650000053
为第i个特征点的重投影误差,分别由以下两组公式计算:
Figure BDA0002338876650000054
Figure BDA0002338876650000055
其中,ρ(·)为Huber鲁棒性损失函数,F(·)是将4x4的矩阵转化为3x1向量的算子,
Figure BDA0002338876650000056
是与ORB特征大小有关的特征协方差矩阵。
通过最小化上述两个最小二乘误差,可以得到一个比较准确的机器人位姿,与RGB图形、深度图像共同组合成为一帧。
4.关键帧选取,为了确保两帧关键帧之间需要保留足够的时间进行下一步计算,同时不能间隔太大,否则导致两帧关键帧之间无法匹配,所以设定最长时间间隔1S,机器人移动0.1m或机器人旋转0.5rad,满足条件的当前帧即为关键帧。
5.语义分割网络,首先对上一步得到的关键帧中的图像进行降采样操作,将图像从960x540降采样为224x224,以降低运算量,提高SLAM系统的效率,然后将降采样后的图像送到语义分割网络进行语义分割,本专利使用的语义分割网络为SegNet网络,能够识别图中的物体,如:人、猫、狗、桌子、椅子、自行车等。最终得到每一个像素的语义信息。
6.语义修复算法,由于现实场景中会有光照不均匀、物体剧烈运动的场景,导致语义分割网络得到残缺,甚至是错误的语义标签。本发明利用深度信息,对语义标签图进行四近邻算法修复残缺的语义标签。具体的流程如下图所示(以修复人的语义标签为例),首先,遍历语义标签图中每一个像素点,当遍历到人的语义标签时,根据深度图像的信息,判断四邻近像素(在当前像素点上下左右的四个像素点)与中心点像素的深度差是否小于阈值,本专利设置为0.02m,若满足,则将像素点压到栈中,当栈不为空时,不断取出栈中的元素,继续判断四近邻像素是否满足条件,如此循环,当栈为空时,跳出循环,继续遍历像素点。为了防止重复修复标签,本专利还设置了一个掩膜图像,初始值全为0,当像素的标签修改过后,其对应位置的像素点设为1,修复标签前先判断掩膜图像对应的位置是否为1,若是则不进行操作。至此,得到了一个修复后的语义标签图。
7.动态物体的剔除,根据上一步得到的修复好的语义标签修复信息,将标记为人的像素对应的深度值设置为0。
8.局部地图BA优化,首先将观测方程z记为:
z=h(x,y)#(15)
x表示此时相机的位姿,即相机外参R,t,对应的李代数为ξ,y表示特征点,其对应的3D点为
Figure BDA0002338876650000061
其中u为2D点坐标,d为改点对应的深度值。观测数据是像素坐标
Figure BDA0002338876650000062
[us,vs]T是观测点投影到平面图上的横纵坐标。由此,得
出观测误差e:
e=z-h(ξ,p)#(16)
考虑不同时刻的观测量,对误差添加下标,设zij为在位姿ξi处观察路标pj产生的数据,则整体的代价函数为:
Figure BDA0002338876650000063
将上式记为Eij,BA优化问题转化为利用最小二乘法求解Eij的问题。
9.回环检测,使用DBow2词袋模型对关键帧进行回环的检测,每一个关键帧中的RGB图会计算一个词袋值,相当于描述了图像的信息,当计算到当前帧图像的词袋值与之前出现过的词袋值十分接近,则表示检测到回环,调用Ceres Solver对位姿和地图点进行回环优化。
10.语义地图构建,采用八叉树建图的方法存储3D点,将每个像素点用一个概率值来表示该像素是否被占用:
Figure BDA0002338876650000064
其中P(o)是先验概率;将上式左右两侧同时取对数,得
Figure BDA0002338876650000071
其中,L(o|z1:t)=max(min(L(o|z1:t),lmax),lmin),lmax和lmin分别是奇对数的上下界;其中,局部子地图Si
Figure BDA0002338876650000072
表示子地图坐标转换为世界坐标的转换矩阵。用
Figure BDA0002338876650000073
表示子地图的集合,则地图
Figure BDA0002338876650000074
的像素点
Figure BDA0002338876650000075
在世界坐标下的坐标可以表示为
Figure BDA0002338876650000076
其中psi为像素块
Figure BDA0002338876650000077
的中心点坐标。假设像素点pw处于八叉树中的
Figure BDA0002338876650000078
像素块,则像素块
Figure BDA0002338876650000079
的奇对数更新为:
Figure BDA00023388766500000710
同时,对语义标签进行颜色映射,最终建立起了语义八叉树地图。
以上所述仅为发明的较佳实施例而己,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种修复语义信息的高效移动机器人SLAM系统,其特征在于:包括机器人视觉感知装置、语义分割模块、优化模块以及建图模块;
其中,将机器人视觉感知装置采集的RGB彩色图像进行ORB特征提取,并对深度图像进行降噪,然后采集用于检测机器人移动数据的编码器的数据得到机器人位姿数据,再通过时间戳将上述三个数据进行数据融合,每一组数据称之为一帧;根据机器人转角或走过的路程从上述帧中筛选出关键帧传到语义分割模块;该语义分割模块对关键帧进行修复,并把修复结果传到优化模块;该优化模块根据语义标签对关键桢中的动态物体进行剔除,剔除后根据不同关键帧观测到相同的特征点,形成约束关系,进行局部RA优化,优化机器人位姿;并将优化结果送到建图模块简历局部地图,局部地图在建图模块融合成语义八叉树地图。
2.根据权利要求1所述的一种修复语义信息的高效移动机器人SLAM系统,其特征在于:优化模块还设置有回环检测,检测机器人路径,当机器人路径出现重复时,则在建图模块优化语义八叉树地图。
3.根据权利要求1所述的一种修复语义信息的高效移动机器人SLAM系统,其特征在于:所述的语义分割模块对关键桢的修复过程是:语义分割模块首先对关键帧中的RGB图像数据进行语义分割,得到每一个像素的语义标签信息,并利用关键桢中的深度图像数据的深度信息利用四近邻算法对该语义标签进行修复,得到修复后的关键桢。
4.根据权利要求1所述的一种修复语义信息的高效移动机器人SLAM系统,其特征在于:RGB彩色图像进行ORB特征提取的过程是:利用FAST角点提取算法找到图像中的角点,作为关键点,分别以每一个关键点为中心,在半径为15的圆内根据高斯概率分布选取128对点对建立关键点对应的描述子,每一组关键点和描述子构成了一个ORB特征,至此完成了ORB特征提取。
5.根据权利要求1所述的一种修复语义信息的高效移动机器人SLAM系统,其特征在于:数据融合的步骤是:
首先需要定义不同的坐标系来表述机器人移动位姿变换,其中,{w}为世界坐标系,{r}为机器人坐标系,{c}为相机坐标系。则机器人在世界坐标系下的位姿可表示为
Figure FDA0002338876640000011
其中[x,y]T∈R2为机器人在世界坐标系下的位置,θ为机器人的偏航角,基于此机器人位姿表示方法,机器人坐标到世界坐标的变换矩阵
Figure FDA0002338876640000012
可表示为:
Figure FDA0002338876640000013
初始化的机器人位姿
Figure FDA0002338876640000021
为:
Figure FDA0002338876640000022
其中,k表示第k个关键帧,
Figure FDA0002338876640000023
其中,
Figure FDA0002338876640000024
为由编码器观测的位姿变化的期望,
Figure FDA0002338876640000025
为编码器观测的位姿变化协方差矩阵;
根据相机投影模型,一个局部地图点wp投影到当前帧,是将一个3D点投影到2D平面点的过程,其投影在图像中的位置:
Figure FDA0002338876640000026
其中,π(·)为相机针孔模型,
Figure FDA0002338876640000027
为相机坐标到机器人坐标的转换;
假设局部地图点服从高斯分布,即
Figure FDA0002338876640000028
Figure FDA0002338876640000029
为局部地图点wp的期望,∑p为局部地图点的协方差矩阵,同理,其投影也服从高斯分布,即
Figure FDA00023388766400000210
则u的协方差矩阵为:
Figure FDA00023388766400000211
其中,Ge为服从编码器观测变化
Figure FDA00023388766400000212
的雅克比矩阵,Gp为服从局部地图点位置变化wp的雅克比矩阵;
再利用深度值将2D点转换到3D点,设2D点坐标u′,深度值为z′,则有:
Figure FDA00023388766400000213
将当前帧位姿
Figure FDA00023388766400000214
的最优值求解转化为最小化编码器误差和重投影误差:
Figure FDA00023388766400000215
其中,Eenc表示编码器最小二乘误差,Ei,proj表示重投影最小二乘误差,ee为编码器误差,
Figure FDA00023388766400000216
为第i个特征点的重投影误差,分别由以下两组公式计算:
Figure FDA00023388766400000217
Figure FDA00023388766400000218
其中,p(·)为Huber鲁棒性损失函数,F(·)是将4x4的矩阵转化为3x1向量的算子;
Figure FDA0002338876640000031
是与ORB特征大小有关的特征协方差矩阵。
6.根据权利要求1所述的一种修复语义信息的高效移动机器人SLAM系统,其特征在于:关键帧的获取方法:设定最长时间间隔1S,机器人移动0.1m或机器人旋转0.5rad,满足条件的当前帧即为关键帧。
7.根据权利要求1所述的一种修复语义信息的高效移动机器人SLAM系统,其特征在于:语义分割模块对关键帧进行修复:首先,通过语义分割模块获得关键桢中RGB图像的ORB特征的语义标签;然后,遍历语义标签图中每一个像素点,当遍历到需要的语义标签时,根据深度图像的信息,判断四邻近像素与中心点像素的深度差是否小于阈值,若满足,则将像素点压到栈中,当栈不为空时,不断取出栈中的元素,继续判断四近邻像素是否满足条件,如此循环,当栈为空时,跳出循环,继续遍历像素点;设置掩膜图像,初始值全为0,当像素的标签修改过后,其对应位置的像素点设为1,修复标签前先判断掩膜图像对应的位置是否为1,若是则不进行操作。
8.根据权利要求1所述的一种修复语义信息的高效移动机器人SLAM系统,其特征在于:局部BA优化的过程是:首先将观测方程z记为:z=h(x,y);其中,x表示此时相机的位姿,即相机外参R,t,对应的李代数为ξ,y表示特征点,其对应的3D点为
Figure FDA0002338876640000032
其中u为2D点坐标,d为改点对应的深度值;观测数据是像素坐标
Figure FDA0002338876640000033
[us,vs]T是观测点投影到平面图上的横纵坐标;
由此,得出观测误差e:e=z-h(ξ,p);设zij为在位姿ξi处观察路标pj产生的数据,则整体的代价函数为:
Figure FDA0002338876640000034
将该式记为Eij,BA优化问题转化为利用最小二乘法求解Eij的问题。
9.根据权利要求1所述的一种修复语义信息的高效移动机器人SLAM系统,其特征在于:建图模块融合成语义八叉树地图的过程是:将局部RA优化后的关键桢中的每个像素点用一个概率值来表示该像素是否被占用:
Figure FDA0002338876640000035
其中P(o)是先验概率;用
Figure FDA0002338876640000036
表示子地图的集合,则地图
Figure FDA0002338876640000037
的像素点
Figure FDA0002338876640000038
在世界坐标下的坐标可以表示为
Figure FDA0002338876640000041
其中psi为像素块
Figure FDA0002338876640000042
的中心点坐标;假设像素点pw处于八叉树中的
Figure FDA0002338876640000043
像素块,则像素块
Figure FDA0002338876640000044
的奇对数更新为:
Figure FDA0002338876640000045
同时,对语义标签进行颜色映射,最终建立语义八叉树地图。
10.根据权利要求1所述的一种修复语义信息的高效移动机器人SLAM系统,其特征在于:回环检测的过程是:使用DBow2词袋模型对关键帧进行回环的检测,每一个关键帧中的RGB彩色图像构建一个词袋值,描述该RGB彩色图像的信息,当计算到当前帧图像的词袋值与之前出现过的词袋值一致,则表示检测到回环,调用Ceres Solver对位姿和地图点进行回环优化。
CN201911367700.3A 2019-12-26 2019-12-26 一种修复语义信息的高效移动机器人slam系统 Active CN111179344B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911367700.3A CN111179344B (zh) 2019-12-26 2019-12-26 一种修复语义信息的高效移动机器人slam系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911367700.3A CN111179344B (zh) 2019-12-26 2019-12-26 一种修复语义信息的高效移动机器人slam系统

Publications (2)

Publication Number Publication Date
CN111179344A true CN111179344A (zh) 2020-05-19
CN111179344B CN111179344B (zh) 2023-05-23

Family

ID=70657493

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911367700.3A Active CN111179344B (zh) 2019-12-26 2019-12-26 一种修复语义信息的高效移动机器人slam系统

Country Status (1)

Country Link
CN (1) CN111179344B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116657A (zh) * 2020-08-07 2020-12-22 中国科学院深圳先进技术研究院 基于表检索的同时定位与建图方法和装置
CN112529903A (zh) * 2021-02-03 2021-03-19 德鲁动力科技(成都)有限公司 一种楼梯高度宽度视觉检测方法、装置及机器狗
CN112857314A (zh) * 2020-12-30 2021-05-28 惠州学院 双模态地形识别方法及硬件系统,及其传感器安装方法
CN113487485A (zh) * 2021-07-09 2021-10-08 之江实验室 一种基于类灰度图像的八叉树地图空洞补全方法
CN113537208A (zh) * 2021-05-18 2021-10-22 杭州电子科技大学 一种基于语义orb-slam技术的视觉定位方法及系统
CN114913235A (zh) * 2022-07-18 2022-08-16 合肥工业大学 一种位姿估计方法、装置及智能机器人
US11875534B2 (en) * 2022-03-02 2024-01-16 Guangdong University Of Technology Pose estimation method for unmanned aerial vehicle based on point line and plane feature fusion

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110243370A (zh) * 2019-05-16 2019-09-17 西安理工大学 一种基于深度学习的室内环境三维语义地图构建方法
CN110458863A (zh) * 2019-06-25 2019-11-15 广东工业大学 一种基于rgbd与编码器融合的动态slam系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110243370A (zh) * 2019-05-16 2019-09-17 西安理工大学 一种基于深度学习的室内环境三维语义地图构建方法
CN110458863A (zh) * 2019-06-25 2019-11-15 广东工业大学 一种基于rgbd与编码器融合的动态slam系统

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116657A (zh) * 2020-08-07 2020-12-22 中国科学院深圳先进技术研究院 基于表检索的同时定位与建图方法和装置
CN112116657B (zh) * 2020-08-07 2023-12-19 中国科学院深圳先进技术研究院 基于表检索的同时定位与建图方法和装置
CN112857314A (zh) * 2020-12-30 2021-05-28 惠州学院 双模态地形识别方法及硬件系统,及其传感器安装方法
CN112529903A (zh) * 2021-02-03 2021-03-19 德鲁动力科技(成都)有限公司 一种楼梯高度宽度视觉检测方法、装置及机器狗
CN113537208A (zh) * 2021-05-18 2021-10-22 杭州电子科技大学 一种基于语义orb-slam技术的视觉定位方法及系统
CN113537208B (zh) * 2021-05-18 2024-06-11 杭州电子科技大学 一种基于语义orb-slam技术的视觉定位方法及系统
CN113487485A (zh) * 2021-07-09 2021-10-08 之江实验室 一种基于类灰度图像的八叉树地图空洞补全方法
CN113487485B (zh) * 2021-07-09 2024-09-17 之江实验室 一种基于类灰度图像的八叉树地图空洞补全方法
US11875534B2 (en) * 2022-03-02 2024-01-16 Guangdong University Of Technology Pose estimation method for unmanned aerial vehicle based on point line and plane feature fusion
CN114913235A (zh) * 2022-07-18 2022-08-16 合肥工业大学 一种位姿估计方法、装置及智能机器人

Also Published As

Publication number Publication date
CN111179344B (zh) 2023-05-23

Similar Documents

Publication Publication Date Title
CN111179344B (zh) 一种修复语义信息的高效移动机器人slam系统
CN110827395B (zh) 一种适用于动态环境的即时定位与地图构建方法
CN111462135B (zh) 基于视觉slam与二维语义分割的语义建图方法
CN110349250B (zh) 一种基于rgbd相机的室内动态场景的三维重建方法
CN110706248A (zh) 一种基于slam的视觉感知建图算法及移动机器人
CN109523589B (zh) 一种更鲁棒的视觉里程计的设计方法
CN110084243B (zh) 一种基于二维码和单目相机的档案识别与定位方法
CN111046776A (zh) 基于深度相机的移动机器人行进路径障碍物检测的方法
CN111797688A (zh) 一种基于光流和语义分割的视觉slam方法
CN110992422B (zh) 一种基于3d视觉的药盒姿态估计方法
CN112991534B (zh) 一种基于多粒度物体模型的室内语义地图构建方法及系统
Wagner et al. Graph SLAM with signed distance function maps on a humanoid robot
CN112541423A (zh) 一种同步定位与地图构建方法和系统
CN116309817A (zh) 一种基于rgb-d相机的托盘检测与定位方法
CN114549629A (zh) 水下单目视觉估计目标三维位姿的方法
CN113920191B (zh) 一种基于深度相机的6d数据集构建方法
CN115147344A (zh) 一种增强现实辅助汽车维修中的零件三维检测与跟踪方法
Sheng et al. Mobile robot localization and map building based on laser ranging and PTAM
CN112767481B (zh) 一种基于视觉边缘特征的高精度定位及建图方法
US20240051146A1 (en) Autonomous solar installation using artificial intelligence
CN113034584A (zh) 一种基于物体语义路标的移动机器人视觉定位方法
Geiger Monocular road mosaicing for urban environments
CN110807799A (zh) 一种结合深度图推断的线特征视觉里程计方法
CN117011660A (zh) 一种低纹理场景下融合深度信息的点线特征slam方法
CN116804553A (zh) 基于事件相机/imu/自然路标的里程计系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant