CN113219452B - 未知视域下的分布式多雷达联合配准与多目标跟踪方法 - Google Patents
未知视域下的分布式多雷达联合配准与多目标跟踪方法 Download PDFInfo
- Publication number
- CN113219452B CN113219452B CN202110493847.8A CN202110493847A CN113219452B CN 113219452 B CN113219452 B CN 113219452B CN 202110493847 A CN202110493847 A CN 202110493847A CN 113219452 B CN113219452 B CN 113219452B
- Authority
- CN
- China
- Prior art keywords
- radar
- density
- sub
- node
- cluster
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000004927 fusion Effects 0.000 claims abstract description 40
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 21
- 238000005259 measurement Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000007500 overflow downdraw method Methods 0.000 claims description 3
- 238000005192 partition Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 239000006185 dispersion Substances 0.000 claims 1
- 238000004364 calculation method Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
- G01S13/723—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
- G01S13/726—Multiple target tracking
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/87—Combinations of radar systems, e.g. primary radar and secondary radar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种未知视域下的分布式多雷达联合配准与多目标跟踪方法,克服了现有多雷达配准中未考虑雷达视域影响的问题。它的特点是:针对雷达视域未知时,雷达间的目标状态空间无法匹配的问题,首先利用基于空间分解与匹配的聚类算法将各个雷达节点本地后验概率假设密度分解为多个子密度,每两雷达节点进行子密度间的匹配,实现对雷达公共与非公共视域的区分;分别在聚类内构建可衡量后验子密度间差异的损失函数,估计雷达位置;在配准后,在聚类内分别进行融合,最终合并得到的融合子密度。本发明解决了在未知多雷达视域与多站雷达未准确定位下,进行联合多雷达位置估计与多目标跟踪的问题,具有适用于工程实际问题,计算复杂度低等特点。
Description
技术领域
本发明属于雷达探测技术领域,特别涉及一种未知视域下的分布式多雷达联合配准与多目标跟踪方法。
背景技术
随着现代信息技术的发展,多雷达探测系统已经广泛的应用于军事和民用领域,在雷达目标跟踪方面受到了极大的关注。相比于单部雷达,多雷达目标跟踪具备增强信息获取能力,扩大雷达探测视域范围,提升系统跟踪性能和鲁棒性等特点。其中分布式融合由于其具有较高灵活性,较低的计算负担和较高的鲁棒性,受到广泛关注。在进行多雷达信息融合时,由于雷达装载平台存在定位误差或者定位系统突发故障等问题,导致无法获得雷达的准确位置,进一步的在进行融合时雷达无法准确配准,对融合跟踪产生显著影响。此外,由于雷达探测能力受限,雷达可覆盖的视域范围是有限的,并且雷达处在运动平台或者存在未知遮挡物导致雷达视域未知。未知的雷达视域会导致雷达配准难以求解。因此,在未知雷达视域情况下,进行联合分布式多雷达配准与多目标跟踪方法研究是至关重要的。
针对分布式多雷达配准与多目标跟踪问题,已有部分学者提出了相应的研究成果。在文献“Distributed Joint Mapping and Registration with Limited Fields-of-View,2019International Conference on Control,Automation and InformationSciences(ICCAIS),2019,pp.1–6.”中仅针对传感器有限视域下的分布式传感器配准,以加权CS散度来衡量传感器后验密度间的差异,并将其作为代价函数,估计传感器的配准参数。但是此方法无法处理传感器视域未知情况下的传感器配准问题。当传感器雷达节点视域未知时,传感器间重叠视域范围无法获得,而传感器的配准主要取决于公共区域内的目标,此方法无法有效的进行传感器配准。在专利申请“一种分布式传感器网络协同配准方法及系统”中提出了一种分布式传感器配准方法,此方法利用前向卡尔曼滤波与后向卡尔曼滤波对目标参数进行平滑,利用平滑后的目标估计结果来进行传感器配准参数的估计。但是此方法仅能针对单目标进行传感器配准,无法处理多目标跟踪及传感器配准,并且完全未考虑传感器视域不同或未知对配准的影响。在文献“基于期望最大化与容积卡尔曼平滑器的机载多平台多传感器系统误差配准算法,控制理论与应用,2020,37(6):1232-1240”中,提出了基于期望最大化的机载多传感器配准算法,但此方法需要收集雷达节点的所有测量值。因此,此方法在雷达节点之间会造成较大的通信负担。
发明内容
本发明的目的在于克服现有技术的不足,提供一种利用空间分解与匹配方法将每两个雷达间的后验密度分解以及将配对的子密度分配至各个聚类,然后分别在能体现出雷达节点公共目标状态信息的聚类内进行雷达配准与融合,最终将得到的融合子密度合并;解决了在雷达视域未知和雷达存在配准误差时的雷达间的位置对准与多目标跟踪的问题的未知视域下的分布式多雷达联合配准与多目标跟踪方法。
本发明的目的是通过以下技术方案来实现的:未知视域下的分布式多雷达联合配准与多目标跟踪方法,包括以下步骤:
S1、根据雷达得到的目标量测信息,各个雷达节点利用概率假设密度滤波器对目标量测信息进行本地滤波跟踪,得到本地后验概率密度;
S2、利用空间分解方法将本地后验概率密度分解为多个子密度;
S3、利用空间匹配方法进行两两雷达节点间的子密度间的匹配,得到雷达节点子密度聚类;
S4、在步骤S3得到的雷达节点子密度聚类内,利用加权算数求和融合算法计算其后验子密度间的最小化加权求和的柯西许瓦兹散度,构建每两个雷达节点间的损失函数,求解配准参数,得到雷达位置参数估计值;
S5、利用步骤S4得到的得到雷达位置参数估计值,将雷达节点配准至全局坐标系中,分别使用优化后的加权算数求和算法融合各个聚类内的本地后验子密度;
S6、利用步骤S5得到的融合子密度合并成最终的融合后验密度。
进一步地,所述步骤S1具体实现方法为:各个雷达节点利用概率假设密度滤波器进行本地滤波跟踪,在i雷达节点坐标系中j雷达节点的本地后验概率密度Di,j表示为:
表示在i雷达节点的目标状态,其中角标表示矩阵的转置,ξi,表示x方向与y方向的目标位置,表示x方向与y方向的目标速度,表示由j雷达节点向i雷达节点转移的雷达节点间配准参数,ξi,j,表示j雷达节点与i雷达节点间的x方向与y方向的相对位置。
然后,根据上述划分重新对各个雷达节点的本地密度进行分解:
进一步地,所述步骤S4具体实现方法为:采用最小化加权柯西许瓦兹散度和的方法得到加权算数求和的本地后验密度融合方法:
然后采用与之对应的最小加权柯西许瓦兹散度和作为以位置参数为变量的损失函数,用以衡量本地后验密度间的差异程度:
基于此分别计算在步骤S3得到的各个子密度聚类集合内雷达节点i与j间的损失函数:
利用上述损失函数,对各个聚类内的雷达位置参数进行估计:
综合各个聚类的位置参数估计,得到最终的位置参数估计:
进一步地,所述步骤S5具体实现方法为:根据得到的雷达位置参数估计值,将本地概率密度统一至同一坐标系内;然后,针对步骤S2在得到的子密度聚类,在各个聚类利用优化后的加权算数求和方法进行本地子密度融合:
进一步地,所述步骤S6具体实现方法为:综合融合子密度得到最终的融合结果:
本发明的有益效果是:本发明利用空间分解与匹配方法,在雷达视域未知的情况下,将每两个雷达间的后验密度分解以及将配对的子密度分配至各个聚类,得到雷达后验子密度的聚类,将雷达的状态空间进行划分,实现对雷达公共与非公共视域的区分。然后分别在能体现出雷达节点公共目标状态信息的聚类内进行雷达配准与融合,最终将得到的融合子密度合并。从而解决了在雷达视域未知和雷达存在配准误差时的雷达间的位置对准与多目标跟踪的问题。适用于在未知雷达视域情况下的多雷达联合配准与多目标跟踪问题。具备适用于工程实际问题,计算复杂度低等特点。
附图说明
图1为本发明的分布式多雷达联合配准与多目标跟踪方法的流程图;
图2为雷达实际视域分布与多目标运动轨迹图;
图3为未知视域下的分布式多雷达配准误差示意图;
图4为未知视域下的分布式多雷达配准中单帧聚类示意图;
图5为未知视域下的分布式多雷达配准后的多目标跟踪结果示意图。
具体实施方式
本发明的解决方案是首先根据雷达得到的目标量测信息,各个雷达节点利用概率假设密度滤波器进行本地滤波跟踪,分别得到本地后验概率密度,然后利用基于空间分解与匹配的聚类算法将各个雷达节点本地滤波后验密度分解为多个子密度,每两个雷达节点进行子密度间的匹配。再计算后验子密度间的最小化加权求和的柯西许瓦兹散度衡量后验间的差异,构建损失函数,估计雷达位置,将雷达节点配准至全局坐标系中,分别使用优化的加权算数求和方法融合本地后验子密度。最后合并融合子密度得到最终的融合后验密度,得到跟踪结果。下面结合附图进一步说明本发明的技术方案。
下面结合附图进一步说明本发明的技术方案。
如图1所示,本发明的一种未知视域下的分布式多雷达联合配准与多目标跟踪方法,包括以下步骤:
S1、根据雷达得到的目标量测信息,各个雷达节点利用概率假设密度滤波器(PHD)对目标量测信息进行本地滤波跟踪,得到本地后验概率密度;
具体实现方法为:各个雷达节点利用概率假设密度滤波器进行本地滤波跟踪,在i雷达节点坐标系中j雷达节点的本地后验概率密度Di,j表示为:
表示在i雷达节点的目标状态,其中角标表示矩阵的转置,ξi,表示x方向与y方向的目标位置,表示x方向与y方向的目标速度,表示由j雷达节点向i雷达节点转移的雷达节点间配准参数,ξi,j,表示j雷达节点与i雷达节点间的x方向与y方向的相对位置。
S2、利用空间分解方法将本地后验概率密度分解为多个子密度;
然后,根据上述划分重新对各个雷达节点的本地密度进行分解:
S4、在步骤S3得到的雷达节点子密度聚类内,利用加权算数求和融合算法计算其后验子密度间的最小化加权求和的柯西许瓦兹散度,构建每两个雷达节点间的损失函数,求解配准参数,得到雷达位置参数估计值;
具体实现方法为:采用最小化加权柯西许瓦兹散度(CSD)和的方法得到加权算数求和的本地后验密度融合方法:
然后采用与之对应的最小加权柯西许瓦兹散度和作为以位置参数为变量的损失函数,用以衡量本地后验密度间的差异程度:
基于此分别计算在步骤S3得到的各个子密度聚类集合内雷达节点i与j间的损失函数:
利用上述损失函数,对各个聚类内的雷达位置参数进行估计:
在求解雷达位置参数时,若采用高斯混合(GM)实现PHD滤波,在进行空间分解时可以将本地PHD依据高斯分量来分解得到的各个子密度由一个高斯项组成。因此在两两雷达节点间进行聚类后,子密度聚类内包含多个高斯项,可以直接求解得到雷达位置参数估计值。
综合各个聚类的位置参数估计,得到最终的位置参数估计:
S5、利用步骤S4得到的得到雷达位置参数估计值,将雷达节点配准至全局坐标系中,分别使用优化后的加权算数求和算法融合各个聚类内的本地后验子密度;
具体实现方法为:根据得到的雷达位置参数估计值,将本地概率密度统一至同一坐标系内;然后,针对步骤S2在得到的子密度聚类,在各个聚类利用优化后的加权算数求和方法进行本地子密度融合:
S6、利用步骤S5得到的融合子密度合并成最终的融合后验密度;具体实现方法为:综合融合子密度得到最终的融合结果,即为目标跟踪结果:
图2为雷达实际视域分布与多目标运动轨迹图;图3为在未知雷达视域下利用本发明方法的雷达间位置参数配准误差示意图。从图中可以看出配准误差逐渐减小并趋于收敛。能够有效对雷达位置进行估计。图4为本方法中基于空间分解与匹配的聚类示意图。可以看出在公共视域内可以将得到两个雷达对同一个目标的聚类结果,能够有效进行雷达间的状态匹配。图5(a)和图5(b)为未知视域下的分布式多雷达配准后的多目标跟踪结果示意图。可以看出与单一雷达和未进行雷达配准的融合相比,可以获得更高的跟踪精度。由于视域的限制,本地雷达存在势估计偏低的问题。然而,本发明方法的势估计接近已知雷达位置的融合结果。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
Claims (5)
1.未知视域下的分布式多雷达联合配准与多目标跟踪方法,其特征在于,包括以下步骤:
S1、根据雷达得到的目标量测信息,各个雷达节点利用概率假设密度滤波器对目标量测信息进行本地滤波跟踪,得到本地后验概率密度;
然后,根据上述划分重新对各个雷达节点的本地密度进行分解:
S4、在步骤S3得到的雷达节点子密度聚类内,利用加权算数求和融合算法计算其后验子密度间的最小化加权求和的柯西许瓦兹散度,构建每两个雷达节点间的损失函数,求解配准参数,得到雷达位置参数估计值;
S5、利用步骤S4得到的得到雷达位置参数估计值,将雷达节点配准至全局坐标系中,分别使用优化后的加权算数求和算法融合各个聚类内的本地后验子密度;
S6、利用步骤S5得到的融合子密度合并成最终的融合后验密度。
3.根据权利要求1所述的未知视域下的分布式多雷达联合配准与多目标跟踪方法,其特征在于,所述步骤S4具体实现方法为:采用最小化加权柯西许瓦兹散度和的方法得到加权算数求和的本地后验密度融合方法:
然后采用与之对应的最小加权柯西许瓦兹散度和作为以位置参数为变量的损失函数,用以衡量本地后验密度间的差异程度:
基于此分别计算在步骤S3得到的各个子密度聚类集合内雷达节点i与j间的损失函数:
利用上述损失函数,对各个聚类内的雷达位置参数进行估计:
综合各个聚类的位置参数估计,得到最终的位置参数估计:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110493847.8A CN113219452B (zh) | 2021-05-07 | 2021-05-07 | 未知视域下的分布式多雷达联合配准与多目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110493847.8A CN113219452B (zh) | 2021-05-07 | 2021-05-07 | 未知视域下的分布式多雷达联合配准与多目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113219452A CN113219452A (zh) | 2021-08-06 |
CN113219452B true CN113219452B (zh) | 2022-05-31 |
Family
ID=77091280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110493847.8A Active CN113219452B (zh) | 2021-05-07 | 2021-05-07 | 未知视域下的分布式多雷达联合配准与多目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113219452B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117872354B (zh) * | 2024-03-11 | 2024-05-31 | 陕西欧卡电子智能科技有限公司 | 一种多毫米波雷达点云的融合方法、装置、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107831490A (zh) * | 2017-12-01 | 2018-03-23 | 南京理工大学 | 一种改进的多扩展目标跟踪方法 |
CN109188423A (zh) * | 2018-08-29 | 2019-01-11 | 电子科技大学 | 一种基于多源聚类的分布式多目标跟踪方法 |
CN109214432A (zh) * | 2018-08-16 | 2019-01-15 | 上海交通大学 | 一种多传感器多目标联合检测、跟踪与分类方法 |
CN111722214A (zh) * | 2020-06-03 | 2020-09-29 | 昆明理工大学 | 雷达多目标跟踪phd实现方法 |
CN112113572A (zh) * | 2020-09-18 | 2020-12-22 | 桂林电子科技大学 | 一种解决分布式标签融合的多目标跟踪方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10721384B2 (en) * | 2014-03-27 | 2020-07-21 | Sony Corporation | Camera with radar system |
DE102014207523A1 (de) * | 2014-04-22 | 2015-10-22 | Robert Bosch Gmbh | Verfahren zum kalibrieren eines radarsensors und radarsystem |
CN106154259B (zh) * | 2016-06-30 | 2018-12-18 | 电子科技大学 | 一种随机集理论下的多传感器自适应管控方法 |
CN106896352B (zh) * | 2017-04-17 | 2020-01-10 | 电子科技大学 | 一种基于随机集理论的多雷达异步数据分布式融合方法 |
CN110913344B (zh) * | 2018-08-27 | 2023-09-01 | 香港科技大学 | 协同目标跟踪系统和方法 |
CN110146850B (zh) * | 2019-06-20 | 2021-03-30 | 电子科技大学 | 用于多基地雷达失序量测融合的粒子滤波集中式跟踪方法 |
CN110187336B (zh) * | 2019-06-28 | 2021-01-12 | 电子科技大学 | 一种基于分布式phd的多站雷达站址定位和联合跟踪方法 |
CN111325776A (zh) * | 2020-02-19 | 2020-06-23 | 江苏理工学院 | 一种基于变分贝叶斯t分布卡尔曼滤波的phd多目标跟踪方法 |
CN111736145B (zh) * | 2020-06-28 | 2022-04-19 | 电子科技大学 | 一种基于高斯混合概率假设密度滤波的多机动目标多普勒雷达跟踪方法 |
-
2021
- 2021-05-07 CN CN202110493847.8A patent/CN113219452B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107831490A (zh) * | 2017-12-01 | 2018-03-23 | 南京理工大学 | 一种改进的多扩展目标跟踪方法 |
CN109214432A (zh) * | 2018-08-16 | 2019-01-15 | 上海交通大学 | 一种多传感器多目标联合检测、跟踪与分类方法 |
CN109188423A (zh) * | 2018-08-29 | 2019-01-11 | 电子科技大学 | 一种基于多源聚类的分布式多目标跟踪方法 |
CN111722214A (zh) * | 2020-06-03 | 2020-09-29 | 昆明理工大学 | 雷达多目标跟踪phd实现方法 |
CN112113572A (zh) * | 2020-09-18 | 2020-12-22 | 桂林电子科技大学 | 一种解决分布式标签融合的多目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113219452A (zh) | 2021-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ullah et al. | Extended Kalman filter-based localization algorithm by edge computing in wireless sensor networks | |
Olson et al. | Robust range-only beacon localization | |
CN106443622B (zh) | 一种基于改进联合概率数据关联的分布式目标跟踪方法 | |
CN108896047B (zh) | 分布式传感器网络协同融合与传感器位置修正方法 | |
CN107255795B (zh) | 基于ekf/efir混合滤波的室内移动机器人定位方法和装置 | |
CN107315171B (zh) | 一种雷达组网目标状态与系统误差联合估计算法 | |
US11231480B2 (en) | System and global method for geolocation using imprecise distance and anchor position measurements | |
CN109975798B (zh) | 一种基于毫米波雷达与摄像头的目标检测方法 | |
CN101655561A (zh) | 基于联合卡尔曼滤波的多点定位数据与雷达数据融合方法 | |
Bosse | ATLAS: a framework for large scale automated mapping and localization | |
CN110501006B (zh) | 一种异类传感器联合航迹关联与跟踪方法 | |
CN115451948B (zh) | 一种基于多传感器融合的农业无人车定位里程计方法及系统 | |
CN114549738A (zh) | 无人车室内实时稠密点云重建方法、系统、设备及介质 | |
CN108650706A (zh) | 基于二阶泰勒近似的传感器节点定位方法 | |
Kwon et al. | A robust mobile target localization method for cooperative unmanned aerial vehicles using sensor fusion quality | |
Xu et al. | Dynamic vehicle pose estimation and tracking based on motion feedback for LiDARs | |
Tang et al. | Vehicle heterogeneous multi-source information fusion positioning method | |
Wang et al. | Communication efficient, distributed relative state estimation in UAV networks | |
CN113219452B (zh) | 未知视域下的分布式多雷达联合配准与多目标跟踪方法 | |
CN114137562B (zh) | 一种基于改进全局最邻近的多目标跟踪方法 | |
CN116793366B (zh) | 一种动态拓扑下基于因子图的多auv协同定位方法及系统 | |
CN114973036B (zh) | 基于gnss/惯导/无线基站融合的无人机三维定位方法 | |
CN116256781B (zh) | 一种组合特征多源卫星信息航迹关联方法及系统 | |
CN112130137A (zh) | 确定车道级轨迹的方法、装置及存储介质 | |
CN117192507A (zh) | 量测标定模型与代价矩阵自适应耦合的雷视目标关联方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |