CN117152249A - 基于语义一致性的多无人机协同建图与感知方法及系统 - Google Patents
基于语义一致性的多无人机协同建图与感知方法及系统 Download PDFInfo
- Publication number
- CN117152249A CN117152249A CN202311080500.6A CN202311080500A CN117152249A CN 117152249 A CN117152249 A CN 117152249A CN 202311080500 A CN202311080500 A CN 202311080500A CN 117152249 A CN117152249 A CN 117152249A
- Authority
- CN
- China
- Prior art keywords
- semantic
- unmanned aerial
- aerial vehicle
- map
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 230000008447 perception Effects 0.000 title claims abstract description 27
- 238000013507 mapping Methods 0.000 title claims abstract description 21
- 238000005457 optimization Methods 0.000 claims abstract description 30
- 230000004927 fusion Effects 0.000 claims abstract description 18
- 238000010276 construction Methods 0.000 claims description 17
- 230000009466 transformation Effects 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000005516 engineering process Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 9
- 239000013598 vector Substances 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 5
- 238000000354 decomposition reaction Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 2
- 239000002699 waste material Substances 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 4
- 238000007500 overflow downdraw method Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/23—Updating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Remote Sensing (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
Abstract
本发明公开基于语义一致性的多无人机协同建图与感知方法及系统。本发明对多模态数据预处理,转化为统一相机坐标系下的多模态数据;对预处理后的多模态数据进行融合,获得三维感知数据;估计单机位姿估计,构建子地图,提取单机语义信息,以及构建单机语义子地图和拓扑图;利用语义信息的全局一致性特点,通过寻找语义信息间的匹配关系将各个无人机的语义子地图和拓扑图关联,融合成为全局语义地图和拓扑图;通过增加无人机位姿节点,构建全局因子图,再使用图优化方法实现联合优化。本发明能够实现有限重叠区域内语义子地图的匹配和融合,避免多架无人机在相同区域重复建图所带来的资源浪费问题,提升多无人机在陌生环境协同建图与感知的效率。
Description
技术领域
本发明属于无人机技术领域,涉及一种基于语义一致性的多无人机协同建图与感知方法及系统。
背景技术
建图与感知是无人机技术领域和人工智能领域中的一项重要技术。其通常以即时定位与地图构建(SLAM)技术作为基础,是无人机理解其所在环境的主要技术手段,更是无人机执行包括自主路径规划、飞行控制、行为决策等后续任务的必要前提条件。近年来,随着无人机应用领域的扩展、任务复杂度的增加、及使用场景的扩大,以SVO[1]为代表的单一无人机建图和以基于运动模型检测[2]为代表的单一无人机感知在场景覆盖范围、语义物体检测精度等方面逐渐显露出局限性。因此,通过将多架无人机组织成密切协作的无人机群,共同完成大场景下的建图与感知任务成为了无人机技术发展的重要方向。
多无人机协同建图与感知技术的核心思想是通过无人机群之间的合作与信息共享,实现对目标环境的全面感知和理解。其建图与感知流程如图1所示,每架无人机将搭载诸如激光雷达(LiDAR)、摄像头、深度相机、惯性测量单元(IMU)等各式传感器[3],为无人机在复杂环境中提供多角度、相互补充的多模态环境数据,并通过协同SLAM[4]算法,将单一无人机上计算出的无人机轨迹与场景子地图进行整合,获得无人机群所在环境更为完整、准确的地图。与此同时,利用近年来发展迅速的深度学习技术,无人机可以实现对感知数据的语义分割[5]、目标检测和识别[6]等任务,从而实现对环境中物体的智能理解和分类。这使得无人机能够不仅获得环境中的几何信息,还能获取更为丰富的语义信息,例如识别道路、建筑物、车辆、行人等,为建图与感知任务提供更全面的视角。
多无人机协同建图与感知技术的应用领域十分广泛,适用于一切需要对陌生环境进行探索的任务。以灾害救援[7]为例,无人机群能够最大程度上无视地理条件的限制,快速飞赴受灾地区,并通过机载传感器完成灾区场景的全要素重建,将灾情直观的呈现在指挥员的面前,为救援决策提供强有力的支持。
协同SLAM算法在进行整合各无人机所构建的子地图时,需要识别出各个子地图之间重叠的区域,并通过计算重叠区域之间的匹配关系将各个子地图对齐。然而,现有的方法在识别重叠区域时效率十分有限:
文献[8]聚焦在陆地自主机器人协同SLAM。该方法在机器人上装备了二维码以及读取器,当机器人在物理空间相遇时,由二维码读取器检测到了相应二维码作为识别出子地图间重叠区域的信号,并通过机器人相遇时的纹理信息计算子地图之间的相对位姿变换关系。此方法的局限十分明显,得益于陆地机器人场景,其能够保证在大多数情况下两机器人相遇时二维码能够被成功检测出来。然而当无人机群在三维空间中飞行时,由于其运动的自由度相较陆地自主机器人多了一个纬度,故而无法保证每次两无人机相遇时,两机之间的相对位姿关系都处于可以让机身上二维码能够被成功检测到的状态。这样的问题极大的限制了多无人机协同建图与感知的效率。
文献[9]着眼于地空协同感知系统。该方法在三维空间中给不同的位置预先标记具场景识别与位姿估计能力的AprilTag二维码,并给空地无人器上预装相应的识别算法。接着通过无人器检测相同的AprilTag二维码作为识别出子地图间重叠区域的信号,再由该区域的纹理信息计算子地图间的相对位姿变换关系。此方法由于需要预先在三维空间中放置AprilTag二维码,且受限于二维码数量,其能够实际应用的空间十分有限。
文献[10]采用云边协同的方法进行多无人机协同建图与感知。该方法采用ORB-SLAM中二维图像特征点与词袋模型结合的方式对三维空间中的不同位置进行标记,构建三维场景数据库。随后通过将各无人机当前采集的数据与数据库进行对比,判断当前场景与各子地图是否存在重叠,最后通过区域内纹理信息计算相对位姿变换关系,将重叠的子地图进行对齐。该方法虽然摒弃了二维码,但是存在着视角敏感的特性。即,当从不同的角度观测同一个场景时,该方法无法顺利完成检测。因此,该方法在运行时,往往需要多个无人机在相同的一块区域内运行较长的一段距离之后,才能够识别出其对应子地图之间的重叠区域。继而导致大场景中协同感知的效率降低,亦造成计算资源的不必要浪费。
参考文献:
[1]C.Forster,M.Pizzoli and D.Scaramuzza,"SVO:Fast semi-directmonocular visual odometry,"2014IEEE InternationalConference onRoboticsandAutomation(ICRA),HongKong,China,2014,pp.15-22.
[2]M.Sanfourche,B.Le Saux,A.Plyer and G.Le Besnerais,"Environmentmapping&interpretation by drone,"2015 Joint Urban Remote Sensing Event(JURSE),Lausanne,Switzerland,2015,pp.1-4.
[3]J.N./>and V./>"Sensors and Sensor Fusion inAutonomous Vehicles,"201826th Telecommunications Forum(TELFOR),Belgrade,Serbia,2018,pp.420-425.
[4]P.Schmuck and M.Chli,"Multi-UAV collaborative monocular SLAM,"2017IEEE International Conference on Robotics andAutomation(ICRA),Singapore,2017,pp.3863-3870.
[5]J.Long,E.Shelhamer and T.Darrell,"Fully convolutional networks forsemantic segmentation,"2015IEEE Conference on Computer Vision and PatternRecognition(CVPR),Boston,MA,USA,2015,pp.3431-3440.
[6]K.He,G.Gkioxari,P.Dollár and R.Girshick,"Mask R-CNN,"2017IEEEInternational Conference on ComputerVision(ICCV),Venice,Italy,2017,pp.2980-2988.
[7]S.Lee,D.Har and D.Kum,"Drone-Assisted Disaster Management:FindingVictims via Infrared Camera and Lidar Sensor Fusion,"20163rd Asia-PacificWorld Congress on Computer Science and Engineering(APWC on CSE),Nadi,Fiji,2016,pp.84-89.
[8]M.J.Schuster,C.Brand,H.Hirschmüller,M.Suppa and M.Beetz,"Multi-robot 6Dgraph SLAM connecting decoupled local reference filters,"2015IEEE/RSJInternational Conference on IntelligentRobots and Systems(IROS),Hamburg,Germany,2015,pp.5093-5100.
[9]杨毅,朱敏昭.地空协同感知系统[C]//中国惯性技术学会.2018惯性技术发展动态发展方向研讨会文集.[出版者不详],2018:6.
[10]J.Xu,H.Cao,Z.Yang,L.Shangguan,J.Zhang,X.He andY.Liu,"SwarmMap:Scaling Up Real-time Collaborative Visual SLAM at the Edge,"19th USENIXSymposium on Networked Systems Design and Implementation(NSDI 22),Renton,WA,USA,2022,pp.977-993.
发明内容
本发明的目的是针对现有技术的不足,提出一种基于语义一致性的多无人机协同建图与感知方法及系统,旨在使用环境中的语义物体,利用其所具备的视角一致性提高子地图间重叠区域的检出效率,继而提升协同建图与感知的效率。
本发明为了解决多无人机协同建图与感知技术中,各无人机所构建的子地图在融合时重叠区域检测效率低、检测正确率低的问题,提出了一种基于语义信息一致性的多无人机子地图高效融合方法。
第一方面,本发明提供一种基于语义一致性的多无人机协同建图与感知方法,所述方法包括:
步骤(1)、多模态数据预处理
对无人机机载传感器所采集到的多模态数据进行预处理,转化为统一相机坐标系下的多模态数据;对预处理后的多模态数据进行融合,获得三维感知数据,即彩色三维点云与RGB-D图像;其中所述多模态数据包括三维点云、彩色图像和深度图像;
步骤(2)、单机位姿估计与子地图构建
采用点到面迭代最邻近点的方法实现各无人机的实时位姿估计,并使用该位姿将无人机各个时刻所采集的彩色三维点云放置到统一无人机坐标系下,以彩色三维点云的形式构建子地图;
步骤(3)、单机语义信息提取与语义子地图构建
S3-1采用预训练的深度卷积网络从RGB-D图像中彩色图像提取语义物体信息;
S3-2根据步骤(1)的激光雷达、摄像头与深度相机之间的外参M以及摄像头和深度相机的内参K,从彩色三维点云中标记出与彩色图像检测结果对应的语义物体信息,以给每个三维点添加语义标签的形式构建语义子地图,并根据语义子地图中各语义物体的三维空间位置构建语义拓扑图;
步骤(4)、多机子地图匹配与融合;具体是:利用语义信息的全局一致性特点,通过寻找语义信息间的匹配关系将各个无人机所构建的语义子地图关联起来,融合成为全局语义地图。
步骤(5)、全局语义拓扑图与多机轨迹联合优化,通过全局语义拓扑图上增加无人机位姿节点,构建全局因子图,再使用图优化方法实现联合优化。
作为优选,步骤(1)中,所述预处理采用张正友标定法。所述无人机机载传感器包括激光雷达、摄像头和深度相机。
作为优选,步骤(2)具体是:
S2-1假设无人机i在当前时刻所观测到的彩色三维点云pc∈Pc,pc表示当前观测的单一彩色三维点,pc表示当前观测的所有彩色三维点;子地图中已经构建好的部分所对应的参考点云为pm∈Pm,pm表示参考点云中的单一地图三维点,Pm表示参考点云中的所有地图三维点;每个地图点的法向量为nm∈Nm,nm表示单一地图点法向量,Nm表示所有地图点法向量的集合;估计当前观测到的点云到子地图的相对位姿变换,即无人机当前位姿,根据点到面迭代最邻近点算法构建如下优化目标函数:
其中T表示待优化的无人机位姿,Tcur表示优化后的无人机位姿,(nm)T表示nm的转置;
在优化时,以无人机i上一时刻估计的位姿Tlast作为当前优化的起点,使用高斯牛顿优化方法对无人机位姿进行N次优化迭代,由此获得无人机i的当前位姿Tcur;
S2-2使用无人机i的当前位姿Tcur将其观测到的彩色三维点云pc∈Pc置于子地图无人机坐标系下,即再经由体素网格下采样法,获得更新后的子地图;最后,计算更新后子地图中各三维点的法向量,用于下一时刻的无人机位姿估计。
作为优选,步骤S3-2具体是:
使用预训练好的深度卷积网络从无人机i的当前观测彩色图像中提取语义物体的掩码并识别语义物体的类别,即实例分割;
使用步骤(1)摄像头和深度相机的内参K,通过反向投影技术三维点云与激光雷达的点云融合,获得带有语义标签的分割三维点云;
将各个语义物体视为一个整体,构建语义拓扑图;
作为优选,步骤S3-2中语义拓扑图的构建具体是:
计算各个语义物体实例中的所有点的平均值,并将其作为语义拓扑图的节点;最后,以坐标平均值代表整个语义物体,并计算两两间的欧氏距离作为语义拓扑图的边;
作为优选,步骤(4)具体是:以从语义拓扑图提取到的成对几何位置关系作为依据,搜索当前无人机所观测到的多模态数据与所有无人机的语义子地图之间的匹配关系;当无人机i的当前观测数据与无人机j所构建的子地图之前存在匹配关系时,采用由粗略到精确的配准方法,计算无人机i与j所构建的子地图之间的相对位姿变换,继而将无人机i和j的运行轨迹以及其构建的子地图置于统一坐标系下;最后通过语义物体标签融合,实现两个语义子地图的融合,构建全局语义地图以及全局语义拓扑图;具体是:
S4-1根据语义标签信息,寻找无人机i所构建的语义拓扑图与其他无人机构建的所有语义拓扑图之间的潜在匹配关系,即所有具有相同语义标签的物体均为潜在匹配;
S4-2利用语义拓扑图中的边,计算两个无人机的语义拓扑图中所有成对的语义物体之间的几何位置一致性,继而构建邻接矩阵A:
其中Arc表示邻接矩阵A内的第r行第c列元素;与/>分别表示第t对潜在匹配与第c对潜在匹配在无人机i所构建的语义拓扑图与无人机j所构建的语义拓扑图中的欧式距离,si与sj分别表示语义物体在无人机i所构建的语义拓扑图与无人机j所构建的语义拓扑图中的物体大小,r=c表示同一语义物体;
S4-3确定匹配关系
通过对邻接矩阵A进行特征值分解,然后对特征值进行判断:当邻接矩阵A主特征值的模小于预设阈值τ时,则认为当前两张语义拓扑图间不存在匹配;反之,则认为当前两张语义拓扑图间存在匹配,并将主特征值所对应的主特征向量作为两张语义拓扑图之间的匹配关系;
S4-4根据语义子地图之间的位姿变换关系构建全局地图
两张语义拓扑图对应的语义子地图之间的位姿变换关系通过绝对定向方法算出;使用位姿变换关系/>将无人机i与j构建的语义子地图的三维点云置于统一世界坐标系下,再经由体素网格下采样法获得融合后的全局语义地图;
S4-5根据匹配关系构建全局语义拓扑图
将无人机i与j构建的语义拓扑图中具有匹配关系的节点以对语义物体大小加权平均的方式融合为全局语义拓扑图的单一节点,无人机i构建的语义拓扑图中两个节点间的边与无人机j构建的语义拓扑图中两个节点间的边以对语义物体质心间欧式距离加权平均的方式融合为全局语义拓扑图的单一边,最终得到所需的全局语义拓扑图;
作为优选,步骤(5)具体是:
S5-1通过在全局语义拓扑图上增加各无人机位姿节点;
S5-2构建无人机各时刻的约束关系,包括无人机与语义物体之间的观测约束关系和无人机各时刻之间的位姿约束关系,所述无人机与语义物体之间的观测约束即为无人机i与语义物体l之间的欧式距离;
S5-3将步骤S5-1处理后的所有节点、步骤S5-2构建的无人机各时刻的约束关系、步骤(4)构建的全局语义拓扑图结合,构建完整的因子图;
S5-4使用列文伯格-马夸尔特法对因子图进行全局联合优化。
第二方面,本发明提供实现上述方法的多无人机协同建图与感知,包括:
多模态数据预处理模块,对无人机机载传感器所采集到的多模态数据进行预处理,转化为统一相机坐标系下的多模态数据;对预处理后的多模态数据进行融合,获得三维感知数据,即彩色三维点云与RGB-D图像;其中所述多模态数据包括三维点云、彩色图像和深度图像;
单机位姿估计与子地图构建模块,采用点到面迭代最邻近点的方法实现各无人机的实时位姿估计,并使用该位姿将无人机各个时刻所采集的彩色三维点云放置到统一无人机坐标系下,以彩色三维点云的形式构建子地图;
单机语义信息提取与语义子地图构建模块,采用深度卷积网络从RGB-D图像中彩色图像提取语义物体信息;从彩色三维点云中标记出与彩色图像检测结果对应的语义物体信息,以给每个三维点添加语义标签的形式构建语义子地图,并根据语义子地图中各语义物体的三维空间位置构建语义拓扑图;
多机子地图匹配与融合模块,利用语义信息的全局一致性特点,通过寻找语义信息间的匹配关系将各个无人机所构建的语义子地图关联起来,融合成为全局语义地图;
全局语义拓扑图与多机轨迹联合优化模块,通过全局语义拓扑图上增加无人机位姿节点,构建全局因子图,再使用图优化方法实现联合优化。
第三方面,本发明提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行所述的方法。
第四方面,本发明提供一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现所述的方法。
相比于现有技术,本发明提出基于语义物体成对几何关系的匹配技术技术,充分利用语义物体跨视角一致性特点,能够实现在有限的观测帧范围内,提升无人机识别出机群内其他无人机已经构建过的地图区域的成功率,避免多架无人机在相同区域重复建图所带来的资源浪费问题,极大的提升了多无人机在陌生环境协同建图与感知的效率。
附图说明
图1.多无人机感知信息处理概图;
图2.基于语义信息一致性的多无人机子地图高效融合方法流程图;
图3.无人机机载传感器标定;
图4.单机SLAM-位姿地图交替更新策略;
图5.单机语义拓扑图构建方法概图;
图6.基于语义物体一致性的多机子地图融合方法;
图7.语义物体级别的语义地图与多机轨迹联合优化方法。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行详细描述。当然,此处描述的实施例仅为本发明使用的众多实施方式的其中之一。
本发明一种基于语义一致性的多无人机协同建图与感知方法总共分为5个步骤,如图2所示。其中步骤1、2、3为各无人机独立运行模块;步骤4、5为多无人机间交互运行模块。
1.无人机多模态数据融合
本发明适用于任何配备有激光雷达(LiDAR)、摄像头和深度相机的多旋翼无人机。如图3所示,使用张正友标定法,能够实现激光雷达、摄像头与深度相机之间的外参M校正以及摄像头和深度相机的内参K校正,将多模态数据转化为统一相机坐标系下。继而经由多模态数据融合获得任一时刻无人机载传感器所测量到的三维感知数据,即彩色三维点云与RGB-D图像。
2.单机位姿估计与子地图构建
本发明采用点到面迭代最邻近点(Point-to-Plane ICP)的方法实现各无人机的实时位姿估计,并使用该位姿将无人机各个时刻所采集的三维点云放置到统一无人机坐标系下,以三维点云的形式构建子地图,整体流程如图4所示。
3.单机语义信息提取与语义子地图构建
本发明如图5所示,采用预训练的深度卷积网络(如YOLOv8,Mask R-CNN等)从RGB-D图像的彩色图像中提取语义物体信息,再根据标定好的内参与外参信息从彩色三维点云中标记出与彩色图像检测结果对应的语义物体信息,以给每个三维点添加语义标签的形式构建语义子地图,并根据各语义物体的三维空间位置构建语义拓扑图。
4.多机子地图匹配与融合
如图6所示,本发明以语义物体间的成对几何位置关系作为依据,搜索当前无人机所观测到的数据与所有子地图之间的匹配关系。当无人机i的当前观测数据与无人机j所构建的子地图之前存在匹配关系时,本发明采用由粗略到精确的配准方法,计算无人机i与j所构建的子地图之间的相对位姿变换,继而将无人机i和j的运行轨迹以及其构建的子地图置于统一坐标系下。最后通过语义物体标签融合,实现两个语义子地图的融合,构建全局语义地图以及全局语义拓扑图。
5.全局语义地图与多机轨迹联合优化
如图7所示,本发明在全局语义拓扑图上,将各个被检测出的语义物体是为一个整体,通过语义物体与无人机之间的观测关系、以及无人机各时刻之间的位姿约束关系进行多无人机位姿与语义物体空间位置的联合优化。
结合图3到图7对以下实施例进行说明,一种基于语义一致性的多无人机协同建图与感知技术,具体包括了以下五大模块:1.多模态数据融合、2.单机位姿估计与子地图构建、3.单机语义信息提取与语义子地图构建、4.多机子地图匹配与融合、5.全局语义地图与多机轨迹联合优化。
1.多模态数据融合主要用于对无人机机载传感器所采集到的多模态数据进行预处理,通过如图3所示标定方法将各模态数据置于统一的相机坐标系下,并转化为统一的模态,作为后续模块的输入。首先,针对深度相机,本发明采用张正友标定法,即利用黑白棋盘格标定板,将世界坐标系固定在棋盘格上。由于棋盘格上的每个格子物理尺寸均为已知,可以计算出棋盘格上每个格子的物理尺寸与成像中像素尺寸的关系,继而完成对深度相机内参的标定工作。
此外,通过标准黑白棋盘格上十分明显的角点特征,本发明从激光雷达所观测的三维点云Plidar与深度相机反向投影所得到的三维点云Pdepth之间的匹配关系C,从而构建如下优化目标函数。
其中pl表示匹配关系C中激光雷达所观测到的一个三维点,pd表示匹配关系C中深度相机反向投影所得到的一个三维点,M表示激光雷达、摄像头与深度相机之间的外参;
最后使用绝对定向(absolute orientation)方法,对式(2)优化目标函数通过奇异值分解一步求解计算出激光雷达、摄像头与深度相机之间的外参M。
2.单机位姿估计与子地图构建主要通过SLAM技术,通过如图4交替更新的策略完成单一无人机位姿估计与对齐周围环境进行建图的任务。具体来说,以无人机i为例,假设其在当前时刻所观测到的三维点云是pc∈Pc,子地图中已经构建好的部分所对应的参考点云为pm∈Pm,每个地图点的法向量为nm∈Nm。以估计当前观测到的点云到子地图的相对位姿变换Tcur,即无人机当前位姿,本发明根据点到面迭代最邻近点算法构建如下优化目标函数
在优化时,本发明以无人机i上一时刻估计的位姿Tlast作为当前优化的起点,使用高斯牛顿优化方法对无人机位姿进行N次优化迭代,由此获得无人机i的当前位姿Tcur。
随后,本发明使用无人机i的当前位姿Tcur将其观测到的三维点云pc∈Pc置于子地图坐标系下,即再经由体素网格下采样法,获得更新后的子地图。最后,本发明计算更新后子地图中个点的法向量,用于下一时刻的无人机位姿估计。
3.单机语义信息提取与语义地图构建模块是语义感知的核心模块,它使用深度卷积网络来提取语义信息。此将语义信息不仅可以添加到地图中,由此获得高级别语义地图;还可以为子地图匹配提供信号。如图5所示,本发明首先使用预训练好的深度卷积网络(如YOLOv8,Mask R-CNN等)从无人机i的当前观测彩色图像中提取语义物体的掩码并识别语义物体的类别,即实例分割。随后,使用多模态数据融合模块中计算的摄像头和深度相机的内参K,本发明通过反向投影技术三维点云,通过与激光雷达的点云融合,获得带有语义标签的分割三维点云。最后,将各个语义物体视为一个整体,构建语义拓扑图。具体来说,本发明计算各个语义物体实例中的所有点的平均值,并将其作为语义拓扑图的节点。最后,本发明以坐标平均值代表整个语义物体,并计算两两间的欧氏距离作为语义拓扑图的边。
4.多机子地图匹配与融合模块利用语义信息的全局一致性特点,通过寻找语义信息间的匹配关系将各个无人机所构建的子地图关联起来,融合成为全局语义地图。如图6所示,本发明首先根据语义标签信息,寻找无人机i所构建的语义拓扑图与其他所有无人机构建的语义拓扑图之间的潜在匹配关系(图中仅以无人机j为例),即所有具有相同语义标签的物体均为潜在匹配。
接着,利用语义拓扑图中的边,本发明计算两张语义拓扑图,所有成对的语义物体之间的几何位置一致性,继而构建邻接矩阵A:
其中,邻接矩阵为方阵,它的行数对应了无人机i所构建的语义拓扑图与无人机j所构建的语义拓扑图中中所有的潜在匹配。r,c分别表示邻接矩阵中的行号和列号,同时对应了第r对潜在匹配与第c对潜在匹配。与/>分别表示第r对潜在匹配与第c对潜在匹配在无人机i所构建的语义拓扑图与无人机j所构建的语义拓扑图中的欧式距离。si与sj分别表示了语义物体在无人机i所构建的语义拓扑图与无人机j所构建的语义拓扑图中的大小。
随后,通过对邻接矩阵A进行特征值分解,本发明首先对特征值进行判断,当邻接矩阵主特征值的模小于预设阈值τ时,则认为当前两张语义拓扑图间不存在匹配;反之则认为当前两张语义拓扑图间存在匹配,并将主特征值所对应的主特征向量作为两张语义拓扑图之间的匹配关系。
最后,两张语义拓扑图对应的子地图之间的位姿变换关系将通过绝对定向方法算出。使用该位姿变换关系/>本发明将无人机i与j构建的语义子地图的三维点云置于统一世界坐标系下,经由体素网格下采样法获得融合之后的全局语义地图。
将无人机i与j构建的语义拓扑图中具有匹配关系的节点融合为全局语义拓扑图的单一节点,无人机i构建的语义拓扑图中两个节点间的边与无人机j构建的语义拓扑图中两个节点间的边融合为全局语义拓扑图的单一边,最终得到所需的全局语义拓扑图;
5.全局语义地图与多机轨迹联合优化主要通过全局语义拓扑图上增加无人机位姿节点,构建全局因子图,再使用图优化方法实现联合优化。如图7所示,通过在全局语义拓扑图的基础上,增加各无人机位姿节点;无人机与语义物体之间的观测约束关系,即无人机i与语义物体l之间的欧式距离;无人机各时刻之间的位姿约束关系;观测约束关系、位姿约束关系结合增加节点后的全局语义拓扑图所有节点,以及全局语义拓扑地图,构建完整的因子图。最后使用列文伯格-马夸尔特法对因子图进行全局联合优化。
Claims (10)
1.一种基于语义一致性的多无人机协同建图与感知方法,其特征在于所述方法包括:
步骤(1)、多模态数据预处理;具体是:
对无人机机载传感器所采集到的多模态数据进行预处理,转化为统一相机坐标系下的多模态数据;对预处理后的多模态数据进行融合,获得三维感知数据,即彩色三维点云与RGB-D图像;其中所述多模态数据包括三维点云、彩色图像和深度图像;
步骤(2)、单机位姿估计与子地图构建;具体是:
采用点到面迭代最邻近点的方法实现各无人机的实时位姿估计,并使用该位姿将无人机各个时刻所采集的彩色三维点云放置到统一无人机坐标系下,以彩色三维点云的形式构建子地图;
步骤(3)、单机语义信息提取与语义子地图构建;具体是:
S3-1采用预训练的深度卷积网络从RGB-D图像中彩色图像提取语义物体信息;
S3-2根据激光雷达、摄像头与深度相机之间的外参M以及摄像头和深度相机的内参K,从彩色三维点云中标记出与彩色图像检测结果对应的语义物体信息,以给每个三维点添加语义标签的形式构建语义子地图,并根据语义子地图中各语义物体的三维空间位置构建语义拓扑图;
步骤(4)、多机子地图匹配与融合;具体是:
利用语义信息的全局一致性特点,通过寻找语义信息间的匹配关系将各个无人机所构建的语义子地图关联起来,融合成为全局语义地图;
步骤(5)、全局语义拓扑图与多机轨迹联合优化,通过全局语义拓扑图上增加无人机位姿节点,构建全局因子图,再使用图优化方法实现联合优化。
2.根据权利要求1所述方法,其特征在于步骤(1)中,所述预处理采用张正友标定法。
3.根据权利要求1所述方法,其特征在于步骤(1)中,所述无人机机载传感器包括激光雷达、摄像头和深度相机。
4.根据权利要求1所述方法,其特征在于步骤S3-2具体是:
使用预训练好的深度卷积网络从无人机i的当前观测彩色图像中提取语义物体的掩码并识别语义物体的类别,即语义分割;
使用步骤(1)摄像头和深度相机的内参K,通过反向投影技术得到三维点云,并与激光雷达的点云融合,获得带有语义标签的分割三维点云;
将各个语义物体视为一个整体,以各语义物体的大小为节点、质心坐标间的欧式距离为边构建语义拓扑图。
5.根据权利要求1所述方法,其特征在于步骤(4)具体是:以从语义拓扑图提取到的成对几何位置关系作为依据,搜索当前无人机所观测到的多模态数据与所有无人机的语义子地图之间的匹配关系;当无人机i的当前观测数据与无人机j所构建的子地图之间存在匹配关系时,采用由粗略到精确的配准方法,计算无人机i与j所构建的子地图之间的相对位姿变换,继而将无人机i和j的运行轨迹以及其构建的子地图置于统一的世界坐标系下;最后通过语义物体标签融合,实现两个语义子地图的融合,形成全局语义地图并构建全局语义拓扑图。
6.根据权利要求5所述方法,其特征在于步骤(4)具体是:
S4-1根据语义标签信息,寻找无人机i所构建的语义拓扑图与其他无人机构建的所有语义拓扑图之间的潜在匹配关系,即所有具有相同语义标签的物体均为潜在匹配;
S4-2利用语义拓扑图中的边,计算两个无人机的语义拓扑图中所有成对的语义物体之间的几何位置一致性,继而构建邻接矩阵A:
其中Arc表示邻接矩阵A内的第r行第c列元素;与/>分别表示第r对潜在匹配与第c对潜在匹配在无人机i所构建的语义拓扑图与无人机j所构建的语义拓扑图中的欧式距离,si与sj分别表示语义物体在无人机i所构建的语义拓扑图与无人机j所构建的语义拓扑图中的物体大小,r=c表示同一语义物体;
S4-3确定匹配关系
通过对邻接矩阵A进行特征值分解,然后对特征值进行判断:当邻接矩阵A主特征值小于预设阈值τ时,则认为当前两张语义拓扑图间不存在匹配;反之,则认为当前两张语义拓扑图间存在匹配,并将主特征值所对应的主特征向量作为两张语义拓扑图之间的匹配关系;
S4-4根据语义子地图之间的位姿变换关系构建全局语义地图
根据已经确定的匹配关系,两张语义拓扑图对应的语义子地图之间的位姿变换关系通过绝对定向方法算出;使用位姿变换关系/>将无人机i与j构建的语义子地图的三维点云置于统一世界坐标系下,再经由体素网格下采样法获得融合后的全局语义地图;
S4-5根据匹配关系构建全局语义拓扑图
将无人机i与j构建的语义拓扑图中具有匹配关系的节点以对语义物体大小加权平均的方式融合为全局语义拓扑图的单一节点,无人机i构建的语义拓扑图中两个节点间的边与无人机j构建的语义拓扑图中两个节点间的边以对语义物体质心间欧式距离加权平均的方式融合为全局语义拓扑图的单一边,最终得到所需的全局语义拓扑图。
7.根据权利要求1所述方法,其特征在于步骤(5)具体是:
S5-1通过在全局语义拓扑图上增加各无人机位姿节点;
S5-2构建无人机各时刻的约束关系,包括无人机与语义物体之间的观测约束关系和无人机各时刻之间的位姿约束关系,所述无人机与语义物体之间的观测约束即为无人机i与语义物体l之间的欧式距离;
S5-3将步骤S5-1处理后的所有节点、步骤S5-2构建的无人机各时刻的约束关系、步骤(4)构建的全局语义拓扑图结合,构建完整的因子图;
S5-4使用列文伯格-马夸尔特法对因子图进行全局联合优化。
8.实现权利要求1-7任一项所述方法的多无人机协同建图与感知系统,其特征在于包括:多模态数据预处理模块,单机位姿估计与子地图构建模块,单机语义信息提取与语义子地图构建模块,多机子地图匹配与融合模块,全局语义拓扑图与多机轨迹联合优化模块。
9.一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行权利要求1-7中任一项所述的方法。
10.一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311080500.6A CN117152249A (zh) | 2023-08-25 | 2023-08-25 | 基于语义一致性的多无人机协同建图与感知方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311080500.6A CN117152249A (zh) | 2023-08-25 | 2023-08-25 | 基于语义一致性的多无人机协同建图与感知方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117152249A true CN117152249A (zh) | 2023-12-01 |
Family
ID=88903735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311080500.6A Pending CN117152249A (zh) | 2023-08-25 | 2023-08-25 | 基于语义一致性的多无人机协同建图与感知方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117152249A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117437290A (zh) * | 2023-12-20 | 2024-01-23 | 深圳市森歌数据技术有限公司 | 一种多传感器融合的自然保护区无人机三维空间定位方法 |
CN117611762A (zh) * | 2024-01-23 | 2024-02-27 | 常熟理工学院 | 一种多层级地图构建方法、系统及电子设备 |
CN118314587A (zh) * | 2024-06-11 | 2024-07-09 | 江苏魔视智能科技有限公司 | 语义地图融合方法、装置、设备、存储介质及程序产品 |
-
2023
- 2023-08-25 CN CN202311080500.6A patent/CN117152249A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117437290A (zh) * | 2023-12-20 | 2024-01-23 | 深圳市森歌数据技术有限公司 | 一种多传感器融合的自然保护区无人机三维空间定位方法 |
CN117437290B (zh) * | 2023-12-20 | 2024-02-23 | 深圳市森歌数据技术有限公司 | 一种多传感器融合的自然保护区无人机三维空间定位方法 |
CN117611762A (zh) * | 2024-01-23 | 2024-02-27 | 常熟理工学院 | 一种多层级地图构建方法、系统及电子设备 |
CN117611762B (zh) * | 2024-01-23 | 2024-04-30 | 常熟理工学院 | 一种多层级地图构建方法、系统及电子设备 |
CN118314587A (zh) * | 2024-06-11 | 2024-07-09 | 江苏魔视智能科技有限公司 | 语义地图融合方法、装置、设备、存储介质及程序产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107808407B (zh) | 基于双目相机的无人机视觉slam方法、无人机及存储介质 | |
CN109579843B (zh) | 一种空地多视角下的多机器人协同定位及融合建图方法 | |
CN112734765B (zh) | 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质 | |
CN109186606B (zh) | 一种基于slam和图像信息的机器人构图及导航方法 | |
CN117152249A (zh) | 基于语义一致性的多无人机协同建图与感知方法及系统 | |
CN113568435B (zh) | 一种基于无人机自主飞行态势感知趋势的分析方法与系统 | |
CN106272423A (zh) | 一种针对大尺度环境的多机器人协同制图与定位的方法 | |
CN106595659A (zh) | 城市复杂环境下多无人机视觉slam的地图融合方法 | |
Senlet et al. | Satellite image based precise robot localization on sidewalks | |
Daftry et al. | Robust monocular flight in cluttered outdoor environments | |
CN112379681A (zh) | 无人机避障飞行方法、装置及无人机 | |
CN111161334B (zh) | 一种基于深度学习的语义地图构建方法 | |
Tang et al. | Onboard detection-tracking-localization | |
Sun et al. | A review of visual SLAM based on unmanned systems | |
CN112380933A (zh) | 无人机识别目标的方法、装置及无人机 | |
CN112907625B (zh) | 应用于四足仿生机器人的目标跟随方法及系统 | |
Aryal | Object detection, classification, and tracking for autonomous vehicle | |
Razali et al. | Visual simultaneous localization and mapping: a review | |
CN116380079A (zh) | 一种融合前视声呐与orb-slam3的水下slam方法 | |
Jian et al. | Lvcp: Lidar-vision tightly coupled collaborative real-time relative positioning | |
Kostavelis et al. | Learning the terrain and planning a collision-free trajectory for indoor post-disaster environments | |
CN113971697A (zh) | 一种空地协同车辆定位定向方法 | |
CN117470259A (zh) | 一种子母式空地协同多传感器融合三维建图系统 | |
Aggarwal | Machine vision based SelfPosition estimation of mobile robots | |
Hroob et al. | Learned long-term stability scan filtering for robust robot localisation in continuously changing environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |