CN108759826B - 一种基于手机和无人机多传感参数融合的无人机运动跟踪方法 - Google Patents
一种基于手机和无人机多传感参数融合的无人机运动跟踪方法 Download PDFInfo
- Publication number
- CN108759826B CN108759826B CN201810323707.4A CN201810323707A CN108759826B CN 108759826 B CN108759826 B CN 108759826B CN 201810323707 A CN201810323707 A CN 201810323707A CN 108759826 B CN108759826 B CN 108759826B
- Authority
- CN
- China
- Prior art keywords
- imu
- aerial vehicle
- unmanned aerial
- error
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000004927 fusion Effects 0.000 title claims abstract description 14
- 238000001914 filtration Methods 0.000 claims abstract description 7
- 238000005259 measurement Methods 0.000 claims description 28
- 239000011159 matrix material Substances 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 21
- 239000013598 vector Substances 0.000 claims description 21
- 230000001133 acceleration Effects 0.000 claims description 18
- 238000004422 calculation algorithm Methods 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 7
- 238000012546 transfer Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 238000011161 development Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 claims description 4
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 150000001875 compounds Chemical class 0.000 claims description 3
- 230000005484 gravity Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000005295 random walk Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 230000001960 triggered effect Effects 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/18—Stabilised platforms, e.g. by gyroscope
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
Abstract
一种基于手机和无人机多传感参数融合的无人机运动跟踪方法包括以下步骤:1)设计Android应用程序,获取手机的加速度计和陀螺仪参数,并将IMU参数制成ROS信息格式,最后通过Wi‑Fi发送至无人机端;2)获取手机和无人机的IMU参数,建立IMU状态模型,误差状态模型;3)根据获取到的图像提取运动目标;4)使用多速率扩展卡尔曼滤波对相对位姿进行滤波。本发明提出一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,大大提高了跟踪的精度和鲁棒性。
Description
技术领域
本发明涉及无人飞行器航拍领域,尤其是针对旋翼飞行器的多传感参数融合来实现的一种运动跟踪方法。
背景技术
近年来,随着计算机技术,自动控制理论,嵌入式开发,芯片设计以及传感器技术的迅速发展,让无人飞行器能够在更加小型化的同时,拥有更强的处理能力,无人机上的相关技术也受到越来越多的关注;小型无人机拥有操控灵活,续航能力强等优势,从而能够在狭小环境中处理复杂任务,在军事上能够执行军事打击,恶劣环境下搜索,情报收集,等高风险环境下替代士兵的工作;在民用上,为各行各业从业人员提供航拍,远程设备巡检,环境监测,抢险救灾等等功能;
四旋翼为常见旋翼无人飞行器,通过调节电机转速实现飞行器的俯仰,横滚以及偏航动作;相对于固定翼无人机,旋翼无人机拥有明显的优势:首先,机身结构简单、体积小,单位体积可产生更大升力;其次,动力系统简单,只需调整各旋翼驱动电机转速即可完成空中姿态的控制,可实现垂直起降、空中悬停等多种特有的飞行模式,且系统智能度高,飞行器空中姿态保持能力强;
在无人机上搭载高清摄像头,实时运行机器视觉算法已经成为近年来热点研究领域,无人机拥有灵活的视角,能帮助人们捕获一些地面移动摄像机难以捕捉到的图像,如果将轻量级摄像头嵌入到小型四旋翼无人机上,还能提供丰富并廉价的信息;目标跟踪是指在低空飞行的无人机,通过计算相机获得的视觉信息来得到目标与无人机间的相对位移,进而自动调整无人机的姿态和位置,使被跟踪的地面移动目标保持在相机视野中心附近,实现无人机跟随目标运动完成跟踪任务,但是由于单目摄像机的技术限制,想要得到移动物体的三维坐标信息是非常困难的,因此,想要实现运动目标的跟踪需要有一种融合手机和无人机多传感参数的相对位姿估计方法。
发明内容
为了解决基于单目相机的无人机运动跟踪方法存在因图像退化带来的错检和漏检问题,可以通过APP将手机的IMU参数发送至无人机,无人机可以跟踪手机的IMU参数和自身的IMU参数计算两者之间的相对位姿,因为IMU会产生误差,可以通过图像信息对IMU误差进行校正,基于这样的思路,本发明提出一种基于手机和无人机多传感参数融合的无人机运动跟踪方法。
本发明解决其技术问题所采用的技术方案是:
一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,所述方法包括以下步骤:
1)设计Android应用程序,获取手机的加速度计和陀螺仪参数,并将IMU参数制成ROS信息格式,最后通过Wi-Fi发送至无人机端;
2)获取手机和无人机的IMU参数,建立IMU状态模型,误差状态模型,过程如下:首先需要对无人机和运动目标的运动分别进行建模,通过加速度计和陀螺仪的数据建立位置、速度、角度的状态空间模型,然后根据IMU的误差特性建立误差状态模型,最后将两者的状态模型联立,获取整个系统的状态方程;
3)根据获取到的图像提取运动目标;
4)使用多速率扩展卡尔曼滤波对相对位姿进行滤波。
进一步,所述步骤2)的步骤如下:
(2.1)建立IMU状态模型
IMU由三轴陀螺仪和三轴加速度计组成,陀螺仪获取到IMU自身的旋转角速度,加速度计获取到自身的线性加速度,由于测量误差的存在,给出IMU的测量模型:
ωm=Iω+bg+ng (1)
其中,ωm,am分别代表陀螺仪和加速度计的测量值,Iω为IMU坐标系下的实际角速度值,Ga为世界坐标系下的线加速度值,na,ng为测量高斯白噪声,ba,bg为测量零偏,定义为随机游走噪声,为世界坐标系到IMU坐标系的旋转矩阵,Gg则为当地的重力加速度在世界坐标系下的表示;
已知IMU的测量模型,得到IMU的状态向量:
其中Ga(t)=I GR(t)(am(t)-ba(t)-na(t))+Gg,nba,nbg是均值分别为σba和σbg的高斯白噪声,Ω(Iω(t))由式(9)所得:
在无人机运动跟踪过程中,需要时刻估计无人机与运动目标的相对位姿,由式(1)、(2)得到角速度和线加速度的估计,分别由式(7)、(8)给出:
再根据式(7)、(8)进行离散化得到[k,k+1]时刻的状态估计值:
其中,Δt=tk+1-tk代表相邻IMU采样时间间隔,值得注意的是,在计算式(9)时,假定在[k,k+1]时刻内角速度和加速度是线性变化的;四元数状态估计公式中代表四元数乘法,同时可以通过将离散化得到;
(2.2)建立IMU误差状态模型
在确定系统误差状态向量后,根据IMU运动连续时间状态公式(4)和IMU状态估计公式(9)得出IMU误差状态连续时间转移矩阵:
将误差转移方程离散化,可以得到Fd和Gd,用于求IMU估计过程中的协方差,设协方差P的初始值为零,P的更新方程如式(15)所示:
Pk+1=Fd·Pk·Fd T+Gd·Q·Gd T (19)
式(15)中,Q为噪声矩阵,如式(16)所示:
再进一步,所述步骤1)的步骤为:
Android传感器数据获取时首先需要获取传感器管理对象(SensorManager),然后通过SensorManager定义传感器类型,然后注册监听器监听加速度传感器的数据变化,注册好监听器后,每次数据改变都会触发回调函数,可在回调函数中获取传感器数据,然后将数据制作成ROS信息格式,并通过Wi-Fi将消息发布,无人机端可订阅节点消息。
所述步骤3)中,根据获取到的图像提取运动目标的步骤如下:
(3.1)采集图像
基于四旋翼飞行器平台的Linux开发环境,使用机器人操作系统ROS订阅图像主题的方式获取图像的,相机驱动由ROS和OpenCV实现;
(3.2)图像预处理
采集到的彩色图像首先要进行灰度化,去除无用的图像彩色信息,这里使用的方法是求出每个像素点的R、G、B三个分量的加权平均值即为这个像素点的灰度值,这里不同通道的权值根据运行效率进行优化,这里避免浮点运算计算公式为:
Gray=(R×30+G×59+B×11+50)/100 (20)
其中Gray为像素点的灰度值,R、G、B分别为红、绿、蓝色通道的数值;
(3.3)ORB提取特征点
ORB也称为rBRIEF,提取出局部不变的特征,是对BRIEF算法的改进,BRIEF运算速度快,然而没有旋转不变性,并且对噪声比较敏感,ORB解决了BRIEF的这两个缺点;为了让算法能有旋转不变性,ORB首先利用Harris角点检测方法检测角点,之后利用亮度中心来测量旋转方向;假设一个角点的亮度从其中心偏移而来,则合成周围点的方向强度,计算角点的方向,定义如下强度矩阵:
mpq=∑x,yxpyqI(x,y) (21)
其中x,y为图像块的中心坐标,I(x,y)表示中心的灰度,xp,yq代表点到中心的偏移,则角点的方向表示为:
从角点中心构建这个向量,则这个图像块的方向角θ表示为:
θ=tan-1(m01,m10) (23)
由于ORB提取的关键点具有方向,因此利用ORB提取的特征点具有旋转不变性;
(3.4)特征描述符的匹配
通过RANSAC算法来去除误匹配点对,RANSAC反复对数据中的子集进行随机选取,并且将选取的子集假设为局内点,然后进行验证是否符合选取要求,RANSAC在特征点匹配中的过程如下所示:
3.4.1)从样本集中随机抽选RANSAC样本,即匹配点对;
3.4.2)根据匹配点对计算变换矩阵;
3.4.3)由样本集、误差度量函数以及矩阵,寻找所有满足当前模型的其他匹配点对,并标定为内点,返回该内点元素个数;
3.4.4)根据局内点个数判定该集合是否属于最优集合;
3.4.5)更新当前错误匹配率,如果大于设置的错误率阈值则重复RANSAC迭代过程。
所述步骤4)中,当无人机的相机没有进行量测输出时,系统认为图像缺失或者中断,滤波器只进行时间更新;但当相机有量测输出时,滤波器同时进行时间更新和量测更新。
本发明的技术构思为:随着四旋翼飞行器技术的成熟与稳定并且大量地在民用市场上推广,越来越多的人着眼于使用四旋翼飞行器更准确的跟踪目标,本发明就是在四旋翼飞行器实现运动目标跟踪的研究背景下提出的。
基于手机和无人机多传感参数融合的无人机运动跟踪方法主要包括:设计Android应用程序将手机IMU参数发送至无人机,根据手机和无人机的IMU参数构造状态模型和误差状态模型,进一步通过图像信息提取运动目标的坐标,最终通过图像测量信息校正IMU的误差,获取准确的相对位姿。
本方法的有益效果主要表现在:针对基于相机的无人机运动跟踪方法存在因图像退化带来的错检和漏检问题,提出一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,大大提高了跟踪的精度和鲁棒性。
附图说明
图1为一种基于手机和无人机多传感器参数融合的无人机运动跟踪方法概括图;
图2为Android应用程序获取IMU数据并发送的流程图。
具体实施方式
下面结合附图对本发明进一步描述:
参照图1和图2,一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,包括以下步骤:
1)设计Android应用程序,获取手机的加速度计和陀螺仪参数,并将IMU参数制成ROS信息格式,最后通过Wi-Fi发送至无人机端;
Android传感器数据获取时首先需要获取传感器管理对象(SensorManager),然后通过SensorManager定义传感器类型(以加速度传感器为例),然后注册监听器监听加速度传感器的数据变化,注册好监听器后,每次数据改变都会触发回调函数,可在回调函数中获取传感器数据,然后将数据制作成ROS信息格式,并通过Wi-Fi将消息发布,无人机端可订阅节点消息。
2)获取手机和无人机的IMU参数,建立IMU状态模型,误差状态模型,过程如下:
(2.1)建立IMU状态模型
IMU由三轴陀螺仪和三轴加速度计组成,陀螺仪可以获取到IMU自身的旋转角速度,加速度计则可以获取到自身的线性加速度,由于测量误差的存在,给出IMU的测量模型:
ωm=Iω+bg+ng (1)
其中,ωm,am分别代表陀螺仪和加速度计的测量值,Iω为IMU坐标系下的实际角速度值,Ga为世界坐标系下的线加速度值,na,ng为测量高斯白噪声,ba,bg为测量零偏,定义为随机游走噪声,为世界坐标系到IMU坐标系的旋转矩阵,Gg则为当地的重力加速度在世界坐标系下的表示;
已知IMU的测量模型,可以得到IMU的状态向量:
在无人机运动跟踪过程中,需要时刻估计无人机与运动目标的相对位姿,由式(1)、(2)到角速度和线加速度的估计,不考虑测量高斯白噪声n,分别由式(7)、(8)给出:
再根据式(7)、(8)进行离散化(雅各比矩阵)得到[k,k+1]时刻的状态估计值:
其中,Δt=tk+1-tk代表相邻IMU采样时间间隔,值得注意的是,在计算式(9)时,假定在[k,k+1]时刻内角速度和加速度是线性变化的。四元数状态估计公式中代表四元数乘法,同时可以通过将离散化得到;
(2.2)建立IMU误差状态模型
在确定系统误差状态向量后,根据IMU运动连续时间状态公式(4)和IMU状态估计公式(9)得出IMU误差状态连续时间转移矩阵:
将误差转移方程离散化,得到Fd和Gd,用于求IMU估计过程中的协方差,设协方差P的初始值为零,P的更新方程如式(15)所示:
Pk+1=Fd·Pk·Fd T+Gd·Q·Gd T (15)式(15)中,Q为噪声矩阵,如式(16)所示:
3)根据获取到的图像提取运动目标,过程如下:
(3.1)采集图像
一般而言,采集图像的方法有非常多中,本发明是基于四旋翼飞行器平台的Linux开发环境,使用机器人操作系统ROS订阅图像主题的方式获取图像的,相机驱动由ROS和openCV实现;
(3.2)图像预处理
由于本发明所使用的特征提取方法基于的是图像的纹理光强以及梯度信息,因此采集到的彩色图像首先要进行灰度化,去除无用的图像彩色信息,这里使用的方法是求出每个像素点的R、G、B三个分量的加权平均值即为这个像素点的灰度值,这里不同通道的权值可以根据运行效率进行优化,这里避免浮点运算计算公式为:
Gray=(R×30+G×59+B×11+50)/100 (20)
其中Gray为像素点的灰度值,R、G、B分别为红、绿、蓝色通道的数值。
(3.3)ORB提取特征点
ORB也称为rBRIEF,提取出局部不变的特征,是对BRIEF算法的改进,BRIEF运算速度快,然而没有旋转不变性,并且对噪声比较敏感,ORB解决了BRIEF的这两个缺点;为了让算法能有旋转不变性,ORB首先利用Harris角点检测方法检测角点,之后利用亮度中心(Intensity Centroid)来测量旋转方向;假设一个角点的亮度从其中心偏移而来,则合成周围点的方向强度,可以计算角点的方向,定义如下强度矩阵:
mpq=∑x,yxpyqI(x,y) (21)
其中x,y为图像块的中心坐标,I(x,y)表示中心的灰度,xp,yq代表点到中心的偏移,则角点的方向可以表示为:
从角点中心构建这个向量,则这个图像块的方向角θ可以表示为:
θ=tan-1(m01,m10) (23)
由于ORB提取的关键点具有方向,因此利用ORB提取的特征点具有旋转不变性;
(3.4)特征描述符的匹配
ORB算法的特征提取很快,但在实际情况下进行特征匹配时,匹配的效果并不会特别好,尤其当视角发生比较大的变化或者出现之前图像中没有出现的区域,就很容易产生误匹配,如何能够解决这个问题,这就需要通过RANSAC算法来去除误匹配点对。
RANSAC是一种不确定算法,它有一定概率获得合理的模型,而提高迭代次数可以提高这个概率。RANSAC有观测数据、参数化模型和初始参数构成,其观测数据分为满足预设模型的局内点(inlier)以及模型误差超过阈值的局外点(outlier)两类。
RANSAC反复对数据中的子集进行随机选取,并且将选取的子集假设为局内点,然后进行验证是否符合选取要求。RANSAC在特征点匹配中的过程如下所示:
3.4.1)从样本集中随机抽选RANSAC样本(匹配点对);
3.4.2)根据匹配点对计算变换矩阵;
3.4.3)由样本集、误差度量函数以及矩阵,寻找所有满足当前模型的其他匹配点对,并标定为内点(inlier),返回该内点元素个数;
3.4.4)根据局内点个数判定该集合是否属于最优集合;
3.4.5)更新当前错误匹配率,如果大于设置的错误率阈值则重复RANSAC迭代过程。
4)使用多速率扩展卡尔曼滤波对相对位姿进行滤波
常规的扩展卡尔曼滤波包括时间更新和量测更新两个更新过程,并且在一个滤波周期内是一一对应的关系,但多速率扩展卡尔曼滤波器的更新方式不同于常规的方法。以一个量测周期内的更新过程为例,当无人机的相机没有进行量测输出时,系统认为图像缺失或者中断,滤波器只进行时间更新;但当相机有量测输出时,滤波器同时进行时间更新和量测更新。这样的处理方式能够提高数据的更新率,减少了IMU信息的浪费,同时相比于基于图像的运动跟踪方法丢失目标的情况,系统更具有鲁棒性。
Claims (4)
1.一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,其特征在于,所述方法包括以下步骤:
1)设计Android应用程序,获取手机的加速度计和陀螺仪参数,并将IMU参数制成ROS信息格式,最后通过Wi-Fi发送至无人机端;
2)获取手机和无人机的IMU参数,建立IMU状态模型,误差状态模型,过程如下:首先需要对无人机和运动目标的运动分别进行建模,通过加速度计和陀螺仪的数据建立位置、速度、角度的状态模型,然后根据IMU的误差特性建立误差状态模型,最后将两者的状态模型联立,获取整个系统的状态方程;
3)根据获取到的图像提取运动目标;
4)使用多速率扩展卡尔曼滤波对相对位姿进行滤波;
所述步骤2)的步骤如下:
(2.1)建立IMU状态模型
IMU由三轴陀螺仪和三轴加速度计组成,陀螺仪获取到IMU自身的旋转角速度,加速度计获取到自身的线性加速度,由于测量误差的存在,给出IMU的测量模型:
ωm=Iω+bg+ng (1)
其中,ωm,am分别代表陀螺仪和加速度计的测量值,Iω为IMU坐标系下的实际角速度值,Ga为世界坐标系下的线加速度值,na,ng为测量高斯白噪声,ba,bg为测量零偏,定义为随机游走噪声,为世界坐标系到IMU坐标系的旋转矩阵,Gg则为当地的重力加速度在世界坐标系下的表示;
已知IMU的测量模型,得到IMU的状态向量:
在无人机运动跟踪过程中,需要时刻估计无人机与运动目标的相对位姿,由式(1)、(2)得到角速度和线加速度的估计,分别由式(7)、(8)给出:
再根据式(7)、(8)进行离散化得到[k,k+1]时刻的状态估计值:
(2.2)建立IMU误差状态模型
在确定系统误差状态向量后,根据IMU运动连续时间状态公式(4)和IMU状态估计公式(9)得出IMU误差状态连续时间转移矩阵:
将误差转移方程离散化,得到Fd和Gd,用于求IMU估计过程中的协方差,协方差P的初始值为零,P的更新方程如式(15)所示:
Pk+1=Fd·Pk·Fd T+Gd·Q·Gd T (15)
式(15)中,Q为噪声矩阵,如式(16)所示:
2.如权利要求1所述的一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,其特征在于:所述步骤1)的步骤为:
Android传感器数据获取时首先需要获取传感器管理对象SensorManager,然后通过SensorManager定义传感器类型,然后注册监听器监听传感器的数据变化,注册好监听器后,每次数据改变都会触发回调函数,在回调函数中获取传感器数据,然后将数据制作成ROS信息格式,并通过Wi-Fi将消息发布,无人机端订阅节点消息。
3.如权利要求1所述的一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,其特征在于:所述步骤3)中,根据获取到的图像提取运动目标的步骤如下:
(3.1)采集图像
基于四旋翼飞行器平台的Linux开发环境,使用机器人操作系统ROS订阅图像主题的方式获取图像的,相机驱动由ROS和OpenCV实现;
(3.2)图像预处理
采集到的彩色图像首先要进行灰度化,去除无用的图像彩色信息,这里使用的方法是求出每个像素点的Rc、Gc、B三个分量的加权平均值即为这个像素点的灰度值,不同通道的权值根据运行效率进行优化,避免浮点运算计算公式为:
Gray=(Rc×30+Gc×59+B×11+50)/100 (20)
其中Gray为像素点的灰度值,Rc、Gc、B分别为红、绿、蓝色通道的数值;
(3.3)ORB提取特征点
为了让算法能有旋转不变性,ORB首先利用Harris角点检测方法检测角点,之后利用亮度中心来测量旋转方向;一个角点的亮度从其中心偏移而来,则合成周围点的方向强度,计算角点的方向,定义如下强度矩阵:
mpq=∑x,yxpyqI(x,y) (21)
其中x,y为图像块的中心坐标,I(x,y)表示中心的灰度,xp,yq代表点到中心的偏移,则角点的方向表示为:
从角点中心构建这个向量,则这个图像块的方向角θ表示为:
θ=tan-1(m01,m10) (23)
由于ORB提取的关键点具有方向,因此利用ORB提取的特征点具有旋转不变性;
(3.4)特征描述符的匹配
通过RANSAC算法来去除误匹配点对,RANSAC反复对数据中的子集进行随机选取,并且将选取的子集作为局内点,然后进行验证是否符合选取要求,RANSAC在特征点匹配中的过程如下所示:
3.4.1)从样本集中随机抽选RANSAC样本,即匹配点对;
3.4.2)根据匹配点对计算变换矩阵;
3.4.3)由样本集、误差度量函数以及矩阵,寻找所有满足当前模型的其他匹配点对,并标定为内点,返回该内点元素个数;
3.4.4)根据局内点个数判定该子集是否属于最优集合;
3.4.5)更新当前错误匹配率,如果大于设置的错误率阈值则重复RANSAC迭代过程。
4.如权利要求1所述的一种基于手机和无人机多传感参数融合的无人机运动跟踪方法,其特征在于:所述步骤4)中,当无人机的相机没有进行量测输出时,系统认为图像缺失或者中断,滤波器只进行时间更新;但当相机有量测输出时,滤波器同时进行时间更新和量测更新。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810323707.4A CN108759826B (zh) | 2018-04-12 | 2018-04-12 | 一种基于手机和无人机多传感参数融合的无人机运动跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810323707.4A CN108759826B (zh) | 2018-04-12 | 2018-04-12 | 一种基于手机和无人机多传感参数融合的无人机运动跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108759826A CN108759826A (zh) | 2018-11-06 |
CN108759826B true CN108759826B (zh) | 2020-10-27 |
Family
ID=63981569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810323707.4A Active CN108759826B (zh) | 2018-04-12 | 2018-04-12 | 一种基于手机和无人机多传感参数融合的无人机运动跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108759826B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110106755B (zh) * | 2019-04-04 | 2020-11-03 | 武汉大学 | 利用姿态重构铁轨几何形态的高铁轨道不平顺性检测方法 |
CN110887463A (zh) * | 2019-10-14 | 2020-03-17 | 交通运输部水运科学研究所 | 一种基于惯性传感器的海浪起伏幅度检测方法及系统 |
CN110887506A (zh) * | 2019-10-14 | 2020-03-17 | 交通运输部水运科学研究所 | 一种受海浪影响的惯性传感器的运动幅度检测方法及系统 |
CN111197984A (zh) * | 2020-01-15 | 2020-05-26 | 重庆邮电大学 | 一种基于环境约束下的视觉-惯性运动估计方法 |
CN111949123B (zh) | 2020-07-01 | 2023-08-08 | 青岛小鸟看看科技有限公司 | 多传感器手柄控制器混合追踪方法及装置 |
CN113349931B (zh) * | 2021-06-18 | 2024-06-04 | 云南微乐数字医疗科技有限公司 | 一种高精度手术导航系统的病灶配准方法 |
CN115077517A (zh) * | 2022-05-27 | 2022-09-20 | 浙江工业大学 | 一种基于立体相机与imu融合的低速无人车定位方法及系统 |
CN116192571B (zh) * | 2023-02-06 | 2024-03-08 | 中国人民解放军火箭军工程大学 | 一种波束抖动效应下无人机isac信道估计方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101109640A (zh) * | 2006-07-19 | 2008-01-23 | 北京航空航天大学 | 基于视觉的无人驾驶飞机自主着陆导航系统 |
CN102854887A (zh) * | 2012-09-06 | 2013-01-02 | 北京工业大学 | 一种无人机航迹规划和远程同步操控方法 |
CN103838244A (zh) * | 2014-03-20 | 2014-06-04 | 湖南大学 | 基于四轴飞行器的便携式目标跟踪方法及系统 |
CN105447459A (zh) * | 2015-11-18 | 2016-03-30 | 上海海事大学 | 一种无人机自动检测目标和跟踪方法 |
CN105953796A (zh) * | 2016-05-23 | 2016-09-21 | 北京暴风魔镜科技有限公司 | 智能手机单目和imu融合的稳定运动跟踪方法和装置 |
CN106094865A (zh) * | 2016-07-15 | 2016-11-09 | 陈昊 | 无人飞行器拍摄系统及其拍摄方法 |
CN106339006A (zh) * | 2016-09-09 | 2017-01-18 | 腾讯科技(深圳)有限公司 | 一种飞行器的目标跟踪方法和装置 |
CN106570820A (zh) * | 2016-10-18 | 2017-04-19 | 浙江工业大学 | 一种基于四旋翼无人机的单目视觉三维特征提取方法 |
EP3268278A4 (en) * | 2015-03-12 | 2019-07-31 | Nightingale Intelligent Systems | AUTOMATED DRONE SYSTEMS |
-
2018
- 2018-04-12 CN CN201810323707.4A patent/CN108759826B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101109640A (zh) * | 2006-07-19 | 2008-01-23 | 北京航空航天大学 | 基于视觉的无人驾驶飞机自主着陆导航系统 |
CN102854887A (zh) * | 2012-09-06 | 2013-01-02 | 北京工业大学 | 一种无人机航迹规划和远程同步操控方法 |
CN103838244A (zh) * | 2014-03-20 | 2014-06-04 | 湖南大学 | 基于四轴飞行器的便携式目标跟踪方法及系统 |
EP3268278A4 (en) * | 2015-03-12 | 2019-07-31 | Nightingale Intelligent Systems | AUTOMATED DRONE SYSTEMS |
CN105447459A (zh) * | 2015-11-18 | 2016-03-30 | 上海海事大学 | 一种无人机自动检测目标和跟踪方法 |
CN105953796A (zh) * | 2016-05-23 | 2016-09-21 | 北京暴风魔镜科技有限公司 | 智能手机单目和imu融合的稳定运动跟踪方法和装置 |
CN106094865A (zh) * | 2016-07-15 | 2016-11-09 | 陈昊 | 无人飞行器拍摄系统及其拍摄方法 |
CN106339006A (zh) * | 2016-09-09 | 2017-01-18 | 腾讯科技(深圳)有限公司 | 一种飞行器的目标跟踪方法和装置 |
CN106570820A (zh) * | 2016-10-18 | 2017-04-19 | 浙江工业大学 | 一种基于四旋翼无人机的单目视觉三维特征提取方法 |
Non-Patent Citations (2)
Title |
---|
基于智能手机运动感知的小型无人飞行器姿态控制;张腾;《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》;20160315(第03期);第C031-260页 * |
用手机控制的四旋翼飞行;程思源 等;《第五届全国大学生创新创业年会论文集》;20121130;第7-9页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108759826A (zh) | 2018-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108759826B (zh) | 一种基于手机和无人机多传感参数融合的无人机运动跟踪方法 | |
CN108711166B (zh) | 一种基于四旋翼无人机的单目相机尺度估计方法 | |
CN106570820B (zh) | 一种基于四旋翼无人机的单目视觉三维特征提取方法 | |
Barry et al. | Pushbroom stereo for high-speed navigation in cluttered environments | |
EP3158412B1 (en) | Sensor fusion using inertial and image sensors | |
JP6262865B2 (ja) | 慣性および画像センサを用いたセンサ融合 | |
JP6325116B2 (ja) | 慣性および画像センサを用いたセンサ融合 | |
JP6371397B2 (ja) | 無人航空機に関する状態情報を決定する方法、システム、及びプログラム | |
Eynard et al. | UAV altitude estimation by mixed stereoscopic vision | |
Grabe et al. | Robust optical-flow based self-motion estimation for a quadrotor UAV | |
WO2020113423A1 (zh) | 目标场景三维重建方法、系统及无人机 | |
CN111288989B (zh) | 一种小型无人机视觉定位方法 | |
US20110301925A1 (en) | Optical State Estimation And Simulation Environment For Unmanned Aerial Vehicles | |
Hwangbo et al. | Visual-inertial UAV attitude estimation using urban scene regularities | |
CN113359782B (zh) | 一种融合lidar点云与图像数据的无人机自主选址降落方法 | |
WO2021081774A1 (zh) | 一种参数优化方法、装置及控制设备、飞行器 | |
CN112556719A (zh) | 一种基于cnn-ekf的视觉惯性里程计实现方法 | |
Natraj et al. | Vision based attitude and altitude estimation for UAVs in dark environments | |
Andersen et al. | Improving MAV pose estimation using visual information | |
Jian et al. | Lvcp: Lidar-vision tightly coupled collaborative real-time relative positioning | |
Daftry et al. | Semi-dense visual odometry for monocular navigation in cluttered environment | |
JP2019023865A (ja) | エラー回復を実行するための方法、システム、及びプログラム | |
CN113465596A (zh) | 一种基于多传感器融合的四旋翼无人机定位方法 | |
CN112945233A (zh) | 一种全局无漂移的自主机器人同时定位与地图构建方法 | |
Ellingson et al. | Deep visual gravity vector detection for unmanned aircraft attitude estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |