CN115686062A - 基于单目深度估计和反应式策略的飞行器自主导航方法 - Google Patents
基于单目深度估计和反应式策略的飞行器自主导航方法 Download PDFInfo
- Publication number
- CN115686062A CN115686062A CN202211329504.9A CN202211329504A CN115686062A CN 115686062 A CN115686062 A CN 115686062A CN 202211329504 A CN202211329504 A CN 202211329504A CN 115686062 A CN115686062 A CN 115686062A
- Authority
- CN
- China
- Prior art keywords
- network
- aerial vehicle
- unmanned aerial
- depth estimation
- angular velocity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000012549 training Methods 0.000 claims abstract description 35
- 238000004364 calculation method Methods 0.000 claims abstract description 30
- 238000013138 pruning Methods 0.000 claims description 13
- 238000013139 quantization Methods 0.000 claims description 7
- 238000013459 approach Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 claims description 2
- 238000000638 solvent extraction Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000012360 testing method Methods 0.000 description 5
- 230000004888 barrier function Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006757 chemical reactions by type Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了基于单目深度估计和反应式策略的飞行器自主导航方法,该方法包括获取无人飞行器图像的训练数据集,并利用训练数据集对深度估计网络进行训练得到训练好的深度估计网络;利用训练数据集中的多张图片对训练好的深度估计网络的网络参数进行量化操作得到卷积张量,利用最优的张量划分方式对卷积张量进行划分生成网络代码数据;利用实时无人飞行器图像和网络代码数据,通过训练好的深度估计网络的网络计算得到实时无人飞行器图像估计的深度图;利用预设的策略公式对深度图进行反应式计算,生成无人飞行器的期望飞行角速度,并基于期望飞行角速度和有限状态机的控制方式完成无人飞行器的自主导航。本发明可以有效地完成无人飞行器自主避障。
Description
技术领域
本发明涉无人飞行器导航技术领域,特别是涉及基于单目深度估计和反应式策略的飞行器自主导航方法。
背景技术
自主导航能力是无人机最重要和基本的能力之一。无人机自主导航的传统方法是采用“感知-定位-建图-规划-避障-控制”的框架。它包括使用机外传感器(例如GPS)或机载传感器(例如视觉惯性传感器)来估计无人机的运动,构建环境的局部3D地图,并依据无人机位姿及环境地图规划出可通过的安全轨迹。然而,这样基于“感知-定位-建图-规划-避障-控制”框架的方法对于计算受限的平台来说太过于复杂,非常难以实现,在纳型无人飞行器部署这样的算法尚不可能。另一方面,随着人工智能技术的兴起,近期发表的文献表明:突破现有的“感知-定位-建图-规划-避障-控制”的范式,基于卷积神经网络(CNN)设计轻量级“端到端”算法有望实现纳型无人机的自主导航,并且能以极低的功耗在机载资源受限的计算平台实时运行。这些工作对纳型无人机的研究提供了新的思路,即不使用远程基站作为计算平台,仅依赖无人机自带的资源受限平台,通过神经网络算法来实现纳型无人飞行器的自主导航。
当前对于单目深度估计的研究主要集中在提高准确性上,而这些单目深度估计算法的计算复杂度和内存占用率很大,导致其难以在机器人系统,特别是计算资源和功耗有限的平台上进行部署。因此,一个关键的挑战是如何平衡算法的准确性与对计算资源的要求。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明提出一种基于单目深度估计和反应式策略的飞行器自主导航方法,该方法利用卷积神经网络提取图片深度特征进行编码并解码,以估计得到图片不同像素点处的深度值,并根据得到的深度图进行反应式计算得到当前无人飞行器的期望角速度以完成自主避障。整体算法被成功部署在超低功耗边缘计算芯片上,需要将训练好的网络参数进行量化、将每一层卷积运算进行分解以部署在超低功耗边缘计算芯片上。
本发明地另一个目的在于提出一种基于单目深度估计和反应式策略的飞行器自主导航系统。
为达上述目的,本发明一方面提出一种基于单目深度估计和反应式策略的飞行器自主导航方法,包括:
获取无人飞行器图像的训练数据集,并利用所述训练数据集对深度估计网络进行训练得到训练好的深度估计网络;
利用所述训练数据集中的多张图片对所述训练好的深度估计网络的网络参数进行量化操作得到卷积张量,利用最优的张量划分方式对所述卷积张量进行划分生成网络代码数据;
利用实时无人飞行器图像和所述网络代码数据,通过所述训练好的深度估计网络的网络计算得到实时无人飞行器图像估计的深度图;
利用预设的策略公式对所述深度图进行反应式计算,生成无人飞行器的期望飞行角速度,并基于所述期望飞行角速度和有限状态机的控制方式完成无人飞行器的自主导航。
另外,根据本发明上述实施例的基于单目深度估计和反应式策略的飞行器自主导航方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,在所述得到训练好的深度估计网络之后,所述方法,还包括:利用NetAdapt剪枝算法对训练好的深度估计网络进行剪枝处理,以滤除网络中预设数量的卷积核。
进一步地,在本发明的一个实施例中,所述利用预设的策略公式对所述深度图进行反应式计算,生成无人飞行器的期望飞行角速度,包括:
其中,Ψi为像素点对应的角度,di为该像素的深度值,φ为当前无人机朝向方向,Ψgoal为目标方向对应的角度,λgoto、λavoid、c、σ、wb均为可调节的的参数;
进一步地,在本发明的一个实施例中,所述基于期望飞行角速度和有限状态机的控制方式完成无人飞行器的自主导航,包括:获取无人飞行器的前、左、右三个方向的传感器的测距数据;根据所述测距数据和所述期望飞行角速度,基于反应式算法和跟墙走策略完成无人飞行器的自主导航。
进一步地,在本发明的一个实施例中所述利用最优的张量划分方式对所述卷积张量进行划分生成网络代码数据,包括:利用AutoTiler网络工具选择最优的张量划分方式进行所述卷积张量的划分,以将训练好的深度估计网络在超低功耗边缘计算芯片上的计算过程封装成C语言表示的代码数据。
为达上述目的,本发明另一方面提出一种基于单目深度估计和反应式策略的飞行器自主导航系统,包括:
网络训练模块,用于获取无人飞行器图像的训练数据集,并利用所述训练数据集对深度估计网络进行训练得到训练好的深度估计网络;
张量划分模块,用于利用所述训练数据集中的多张图片对所述训练好的深度估计网络的网络参数进行量化操作得到卷积张量,利用最优的张量划分方式对所述卷积张量进行划分生成网络代码数据;
深度估计模块,用于利用实时无人飞行器图像和所述网络代码数据,通过所述训练好的深度估计网络的网络计算得到实时无人飞行器图像估计的深度图;
策略控制模块,用于利用预设的策略公式对所述深度图进行反应式计算,生成无人飞行器的期望飞行角速度,并基于所述期望飞行角速度和有限状态机的控制方式完成无人飞行器的自主导航。
本发明实施例的基于单目深度估计和反应式策略的飞行器自主导航方法及系统,以纳型无人飞行器为平台,针对其小体积、轻重量、低功耗等特点,只依靠单目相机作为传感输入,设计可以实现机载计算的低功耗神经网络,实现纳型无人机的自主导航功能。本发明的提出的导航新范式是基于单目深度估计网络+反应式策略的,即直接根据单目相机传感器的输入计算出导航的预期角速度,实现无人飞行器的自主飞行与避障的功能。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的基于单目深度估计和反应式策略的飞行器自主导航方法的流程图;
图2为根据本发明实施例的单目深度估计神经网络结构参考的FastDepth网络结构示意图;
图3为根据本发明实施例的反应式算法示意图;
图4(a)、图4(b)、图(4c)和图4(d)分别为根据本发明实施例的测试的四个飞行实验场景及轨迹示意图;
图5为根据本发明实施例的反应式算法+跟墙走策略状态机示意图;
图6为根据本发明实施例的基于单目深度估计和反应式策略的飞行器自主导航系统结构示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
下面参照附图描述根据本发明实施例提出的基于单目深度估计和反应式策略的飞行器自主导航方法及系统。
可以理解的是,本发明实施例部署在Crazyflie 2.0纳型无人机平台上,飞行平台配备了光流板用于飞机的定位以及TOF板用于感知前后左右的距离,并以AIdeck平台为计算平台,AIdeck主要由GreenWaves Technologies的GAP8芯片和Himax摄像头构成,扩展了计算能力,将使基于人工智能的复杂工作负载能够在纳型无人平台上运行。其中GAP8芯片是一种源自PULP开源项目的商业嵌入式RISC-V多核处理器,其核心由一个先进的RISC-VMCU和一个可编程八核处理器组成。本发明中代码部分的实现基于Python语言,并使用Pytorch作为深度学习框架。
图1是本发明实施例的基于单目深度估计和反应式策略的飞行器自主导航方法的流程图。
如图1所示,该方法包括但不限于以下步骤:
S1,获取无人飞行器图像的训练数据集,并利用训练数据集对深度估计网络进行训练得到训练好的深度估计网络。
具体地,本发明选择合适的深度数据集,用于训练深度估计网络的参数使得网络的估计精度满足要求,以得到训练好的深度估计网络,本实施例使用的是NYU Depth v2数据集。并采用NetAdapt剪枝方法对网络进行了进一步的轻量化。
S2,利用训练数据集中的多张图片对训练好的深度估计网络的网络参数进行量化操作得到卷积张量,利用最优的张量划分方式对卷积张量进行划分生成网络代码数据。
具体地,对网络参数进行量化和部署。量化需要首先选取几张图片作为输入,以获得每一层卷积的张量t的参考范围[αt,βt),然后将其映射到8位纯整数张量量化采用的是GWT(GreenWaves Technologies)开发的NNTOOL工具。而部署工作使用的是AutoTiler工具,用于求解如何在GAP8芯片最大化所有可用内核的并行执行,同时最小化数据传输的开销,并包装生成C代码以共后续的调用。
S3,利用实时无人飞行器图像和网络代码数据,通过训练好的深度估计网络的网络计算得到实时无人飞行器图像估计的深度图。
具体地,经过步骤S2后,网络在超低功耗边缘计算芯片上的计算过程被封装成C语言表示的代码。实时无人飞行器图像通过调用gap_sdk中的接口获取并存成一个数组,然后将图像数据输入,经过网络的计算可以得到估计的深度信息。循环该过程就可以得到实时的相机图像估计出的深度图。
S4,利用预设的策略公式对深度图进行反应式计算,生成无人飞行器的期望飞行角速度,并基于期望飞行角速度和有限状态机的控制方式完成无人飞行器的自主导航。
具体地,对得到的深度图进行反应式计算,生成无人飞行器的期望角速度,主要目的是使得无人飞行器尽可能远离深度较小的方向而朝向深度较大的方向飞行。具体策略如下式(1),(2),(3)所示:
其中,Ψi为像素点对应的角度,di为该像素的深度值,φ为当前无人机朝向方向,亦可以理解为相机图像的水平中心对应的角度,Ψgoal为目标方向对应的角度(可以提前设定),λgoto、λavoid、c、σ、wb均为可调节的的参数。通过计算得到避障的期望角速度和朝向目标方向的期望角速度将二者加权得到最终的期望飞行角速度
进一步地,由于深度估计网络给出的信息具有一定的不可靠性,尤其在飞机朝向纹理稀少的方向,如一面白墙时,很难给出可靠的深度信息。针对该问题,启发于文献[9]给出的探索策略,我们引入有限状态机的控制方式,当无人机前方距离障碍物或墙体很近时,触发一种跟墙走(follow the wall)的飞行模式,避免了无人机的碰撞或者卡在墙角或障碍面前不知道如何飞行的问题。
具体来说,利用了无人机的前、左、右三个方向的TOF传感器的测距数据完成了反应式算法+跟墙走策略的结合,具体的策略如图5所示,以确保当反应式算法给出的结果不可靠时能够指导无人机的飞行。
根据本发明实施例的基于单目深度估计和反应式策略的飞行器自主导航方法,利用卷积神经网络提取图片深度特征进行编码并解码,以估计得到图片不同像素点处的深度值,并根据得到的深度图进行反应式计算得到当前无人飞行器的期望角速度以完成自主避障。
进一步地,本发明实施例部署在Crazyflie 2.0纳型无人机平台上,飞行平台配备了光流板用于飞机的定位以及TOF板用于感知前后左右的距离,并以AIdeck平台为计算平台,AIdeck主要由GreenWaves Technologies的GAP8芯片和Himax摄像头构成,扩展了计算能力,将使基于人工智能的复杂工作负载能够在纳型无人平台上运行。其中GAP8芯片是一种源自PULP开源项目的商业嵌入式RISC-V多核处理器,其核心由一个先进的RISC-V MCU和一个可编程八核处理器组成。本发明中代码部分的实现基于Python语言,并使用Pytorch作为深度学习框架。
本实施例选用了NYU Depth v2数据集来训练、裁剪网络并验证最终部署的结果。网络的结构参考FastDepth的网络结构,FastDepth网络结构如图2所示,将前端Encoder部分的MobileNetv1替换成更加轻量化的MobileNetv2网络,同样加入了后端的多层上采样层和跨层连接,并采用NetAdapt剪枝方法对网络进行了最多23轮的迭代剪枝。
优选地,采用NNTOOL工具对网络的参数进行了8bit量化以便于芯片能够更快的进行网络的运算。使用Autotiler完成量化模型在GAP8上的部署,并封装成C代码以便于直接调用。在本实例中参数设定为,设置芯片CL频率为175MHz,FC频率为250MHz,L1分配内存为46736Bytes,L2分配内存为250000Bytes。
优选地,反应式算法的具体策略如式(1),(2),(3),图3为算法的示意图,本发明使用深度图中心水平方向上的一系列深度值作为避障的依据。在本项目中,由于所使用的纳型无人飞行器缺乏可靠的自主定位能力,因此不设定一个固定的目标方向ψgoal,而是令目标方向等于当前无人机朝向即ψgoal=φ,因此由于深度估计网络给出的信息具有一定的不可靠性,尤其在飞机朝向纹理稀少的方向,如一面白墙时,很难给出可靠的深度信息。针对该问题,引入有限状态机的控制方式,当无人机前方距离障碍物或墙体很近时,触发一种跟墙走(follow the wall)的飞行模式,避免了无人机的碰撞或者卡在墙角或障碍面前不知道下一步该如何飞行的问题。本发明在深度估计+反应式算法的基础上融入了了无人机的前、左、右三个方向的TOF传感器的测距数据完成了反应式算法+跟墙走策略的结合,具体的策略如图5所示。其中角速度是由反应式算法计算出的无人机的转向角速度,当时表示无人机向左旋转,当时表示无人机向右旋转。rfront,rleft,rright分别代表无人机前、左、右侧与障碍物的距离,Th是设定的距离的阈值,当距离小于该阈值时判断无人机已经接近障碍物。在未检测到墙面或障碍物时,无人机以角速度正常前进,一旦检测到前方有墙面时,飞机进入跟墙走的状态,无人机停止前进,旋转直到机头朝向平行于墙面,此时无人机沿着墙面的方向前进,并与墙面始终保持一定的距离。当无人机前方又一次发现墙体时,停止前进,旋转直到机头平行于墙面,再继续沿着墙前进。在跟墙走状态的任意一个状态的任意时刻,只要满足:角速度转向的方向对应的无人机一侧的距离以及无人机前方的距离均大于设定的阈值Th,则跳出跟墙走的状态,按照反应式算法给出的结果向前飞行。
进一步地,为了测试本发明的有效性,实施例进行了四个飞行实验场景的飞行试验,图4(a)空的走廊环境;图4(b)办公室环境;图4(c)有椅子作为障碍物的走廊环境;图4(d)包含三个拐角的走廊环境。在实验中,纳型无人机能以最高0.5m/s的速度向前飞行。为了评估实验的效果,以无人机在场景中最大飞行距离作为标准,baseline选择简单的直飞策略,实验结果如表1所示,可以看出本发明的导航方法对纳型无人飞行器导航有着显著的效果。
表1
综上所示,本发明着眼于设计低计算复杂度、轻量化的自主导航方法,并将训练好的深度估计网络及其权重经过8bit量化部署到GAP8芯片上,一款超低功耗边缘计算芯片上。本发明在超低功耗计算芯片上实现了单目深度估计网络的部署与运行,对于只能使用单目相机作为感知单元的纳型无人飞行器有重要的意义,基于深度估计的反应式导航算法不需要花费很多的计算资源,对于低功耗、轻量化的纳型无人飞行器十分友好。经过测试,本发明所提出的算法成功部署在一款重27g,尺寸10cm的纳型无人飞行器Crazyflie 2.0上,实现了全在线的自主导航功能并进行了实际飞行实验,实验结果表明:该自主纳型无人机飞行器可以(i)以0.5m/s的最高速度快速飞行;(ii)在复杂的室内环境中自主避障;(iii)用于自主导航功能的计算功耗仅393mW,不到无人飞行器总共功率的7.2%。
根据本发明实施例地基于单目深度估计和反应式策略的飞行器自主导航方法,相较于传统的规划算法的一个优势在于只需要考虑当前帧飞行器所做出的反应,使得无人飞行器尽可能远离当前深度较小的方向而朝向深度较大的方向,计算量大大减少,适合本发明所使用的纳型无人飞行器超低功耗计算平台。直接根据单目相机传感器的输入计算出导航的预期角速度,实现无人飞行器的自主飞行与避障的功能。
为了实现上述实施例,如图6所示,本实施例中还提供了基于单目深度估计和反应式策略的飞行器自主导航系统10,该系统10包括,网络训练模块100、张量划分模块200、深度估计模块300和策略控制模块400。
网络训练模块100,用于获取无人飞行器图像的训练数据集,并利用训练数据集对深度估计网络进行训练得到训练好的深度估计网络;
张量划分模块200,用于利用训练数据集中的多张图片对训练好的深度估计网络的网络参数进行量化操作得到卷积张量,利用最优的张量划分方式对卷积张量进行划分生成网络代码数据;
深度估计模块300,用于利用实时无人飞行器图像和网络代码数据,通过训练好的深度估计网络的网络计算得到实时无人飞行器图像估计的深度图;
策略控制模块400,用于利用预设的策略公式对深度图进行反应式计算,生成无人飞行器的期望飞行角速度,并基于期望飞行角速度和有限状态机的控制方式完成无人飞行器的自主导航。
进一步地,在上述网络训练模块100之后,系统10,还包括:
网络剪枝模块,用于利用NetAdapt剪枝算法对训练好的深度估计网络进行剪枝处理,以滤除网络中预设数量的卷积核。
进一步地,上述策略控制模块400,还用于:
其中,Ψi为像素点对应的角度,di为该像素的深度值,φ为当前无人机朝向方向,Ψgoal为目标方向对应的角度,λgoto、λavoid、c、σ、wb均为可调节的的参数;通过将计算得到的期望角速度和朝向目标方向的期望角速度进行加权得到最终的期望飞行角速度
进一步地,上述策略控制模块400,还用于:
获取无人飞行器的前、左、右三个方向的传感器的测距数据;
根据测距数据和期望飞行角速度,基于反应式算法和跟墙走策略完成无人飞行器的自主导航。
进一步地,上述张量划分模块200,还用于:
利用AutoTiler网络工具选择最优的张量划分方式进行卷积张量的划分,以将训练好的深度估计网络在超低功耗边缘计算芯片上的计算过程封装成C语言表示的代码数据。
根据本发明实施例的基于单目深度估计和反应式策略的飞行器自主导航系统,相较于传统的规划算法的一个优势在于只需要考虑当前帧飞行器所做出的反应,使得无人飞行器尽可能远离当前深度较小的方向而朝向深度较大的方向,计算量大大减少,适合本发明所使用的纳型无人飞行器超低功耗计算平台。直接根据单目相机传感器的输入计算出导航的预期角速度,实现无人飞行器的自主飞行与避障的功能。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
Claims (10)
1.一种基于单目深度估计和反应式策略的飞行器自主导航方法,其特征在于,包括以下步骤:
获取无人飞行器图像的训练数据集,并利用所述训练数据集对深度估计网络进行训练得到训练好的深度估计网络;
利用所述训练数据集中的多张图片对所述训练好的深度估计网络的网络参数进行量化操作得到卷积张量,利用最优的张量划分方式对所述卷积张量进行划分生成网络代码数据;
利用实时无人飞行器图像和所述网络代码数据,通过所述训练好的深度估计网络的网络计算得到实时无人飞行器图像估计的深度图;
利用预设的策略公式对所述深度图进行反应式计算,生成无人飞行器的期望飞行角速度,并基于所述期望飞行角速度和有限状态机的控制方式完成无人飞行器的自主导航。
2.根据权利要求1所述的方法,其特征在于,在所述得到训练好的深度估计网络之后,所述方法,还包括:
利用NetAdapt剪枝算法对训练好的深度估计网络进行剪枝处理,以滤除网络中预设数量的卷积核。
4.根据权利要求3所述的方法,其特征在于,所述基于期望飞行角速度和有限状态机的控制方式完成无人飞行器的自主导航,包括:
获取无人飞行器的前、左、右三个方向的传感器的测距数据;
根据所述测距数据和所述期望飞行角速度,基于反应式算法和跟墙走策略完成无人飞行器的自主导航。
5.根据权利要求1所述的方法,其特征在于,所述利用最优的张量划分方式对所述卷积张量进行划分生成网络代码数据,包括:
利用AutoTiler网络工具选择最优的张量划分方式进行所述卷积张量的划分,以将训练好的深度估计网络在超低功耗边缘计算芯片上的计算过程封装成C语言表示的代码数据。
6.一种基于单目深度估计和反应式策略的飞行器自主导航系统,其特征在于,包括:
网络训练模块,用于获取无人飞行器图像的训练数据集,并利用所述训练数据集对深度估计网络进行训练得到训练好的深度估计网络;
张量划分模块,用于利用所述训练数据集中的多张图片对所述训练好的深度估计网络的网络参数进行量化操作得到卷积张量,利用最优的张量划分方式对所述卷积张量进行划分生成网络代码数据;
深度估计模块,用于利用实时无人飞行器图像和所述网络代码数据,通过所述训练好的深度估计网络的网络计算得到实时无人飞行器图像估计的深度图;
策略控制模块,用于利用预设的策略公式对所述深度图进行反应式计算,生成无人飞行器的期望飞行角速度,并基于所述期望飞行角速度和有限状态机的控制方式完成无人飞行器的自主导航。
7.根据权利要求6所述的系统,其特征在于,在所述网络训练模块之后,所述系统,还包括:
网络剪枝模块,用于利用NetAdapt剪枝算法对训练好的深度估计网络进行剪枝处理,以滤除网络中预设数量的卷积核。
9.根据权利要求8所述的系统,其特征在于,所述策略控制模块,还用于:
获取无人飞行器的前、左、右三个方向的传感器的测距数据;
根据所述测距数据和所述期望飞行角速度,基于反应式算法和跟墙走策略完成无人飞行器的自主导航。
10.根据权利要求6所述的系统,其特征在于,所述张量划分模块,还用于:
利用AutoTiler网络工具选择最优的张量划分方式进行所述卷积张量的划分,以将训练好的深度估计网络在超低功耗边缘计算芯片上的计算过程封装成C语言表示的代码数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211329504.9A CN115686062B (zh) | 2022-10-27 | 2022-10-27 | 基于单目深度估计和反应式策略的飞行器自主导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211329504.9A CN115686062B (zh) | 2022-10-27 | 2022-10-27 | 基于单目深度估计和反应式策略的飞行器自主导航方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115686062A true CN115686062A (zh) | 2023-02-03 |
CN115686062B CN115686062B (zh) | 2024-11-08 |
Family
ID=85099160
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211329504.9A Active CN115686062B (zh) | 2022-10-27 | 2022-10-27 | 基于单目深度估计和反应式策略的飞行器自主导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115686062B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117707204A (zh) * | 2024-01-30 | 2024-03-15 | 清华大学 | 基于光电端到端网络的无人机高速避障系统及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105346706A (zh) * | 2015-11-13 | 2016-02-24 | 深圳市道通智能航空技术有限公司 | 飞行装置、飞行控制系统及方法 |
CN111638727A (zh) * | 2020-05-29 | 2020-09-08 | 西北工业大学 | 一种基于深度图像的多旋翼飞行器安全导航控制方法 |
CN112506210A (zh) * | 2020-12-04 | 2021-03-16 | 东南大学 | 一种用于自主目标跟踪的无人机控制方法 |
CN114061589A (zh) * | 2021-11-16 | 2022-02-18 | 中山大学 | 端边协同的多无人机自主导航方法 |
CN114326821A (zh) * | 2022-03-02 | 2022-04-12 | 中国人民解放军陆军指挥学院 | 基于深度强化学习的无人机自主避障系统及方法 |
WO2022160430A1 (en) * | 2021-01-27 | 2022-08-04 | Dalian University Of Technology | Method for obstacle avoidance of robot in the complex indoor scene based on monocular camera |
-
2022
- 2022-10-27 CN CN202211329504.9A patent/CN115686062B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105346706A (zh) * | 2015-11-13 | 2016-02-24 | 深圳市道通智能航空技术有限公司 | 飞行装置、飞行控制系统及方法 |
CN111638727A (zh) * | 2020-05-29 | 2020-09-08 | 西北工业大学 | 一种基于深度图像的多旋翼飞行器安全导航控制方法 |
CN112506210A (zh) * | 2020-12-04 | 2021-03-16 | 东南大学 | 一种用于自主目标跟踪的无人机控制方法 |
WO2022160430A1 (en) * | 2021-01-27 | 2022-08-04 | Dalian University Of Technology | Method for obstacle avoidance of robot in the complex indoor scene based on monocular camera |
CN114061589A (zh) * | 2021-11-16 | 2022-02-18 | 中山大学 | 端边协同的多无人机自主导航方法 |
CN114326821A (zh) * | 2022-03-02 | 2022-04-12 | 中国人民解放军陆军指挥学院 | 基于深度强化学习的无人机自主避障系统及方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117707204A (zh) * | 2024-01-30 | 2024-03-15 | 清华大学 | 基于光电端到端网络的无人机高速避障系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115686062B (zh) | 2024-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11237572B2 (en) | Collision avoidance system, depth imaging system, vehicle, map generator and methods thereof | |
EP3690482B1 (en) | Learning method and learning device for integrating an image acquired by a camera and a point-cloud map acquired by radar or lidar in a neural network and testing method and testing device using the same | |
US11442464B2 (en) | Bird's eye view map based recognition and motion prediction for autonomous systems | |
CN108230361B (zh) | 用无人机探测器和追踪器融合来增强目标追踪方法及系统 | |
CN112379681B (zh) | 无人机避障飞行方法、装置及无人机 | |
CN112596071B (zh) | 无人机自主定位方法、装置及无人机 | |
KR102313115B1 (ko) | 인공지능 신경망을 이용한 자율비행 드론 | |
CN112378397B (zh) | 无人机跟踪目标的方法、装置及无人机 | |
US20190301871A1 (en) | Direct Sparse Visual-Inertial Odometry Using Dynamic Marginalization | |
US20230267615A1 (en) | Systems and methods for generating a road surface semantic segmentation map from a sequence of point clouds | |
CN112380933B (zh) | 无人机识别目标的方法、装置及无人机 | |
CN114943757A (zh) | 基于单目景深预测和深度增强学习的无人机森林探索系统 | |
CN113228103A (zh) | 目标跟踪方法、装置、无人机、系统及可读存储介质 | |
Bareiss et al. | On-board model-based automatic collision avoidance: application in remotely-piloted unmanned aerial vehicles | |
CN115494879A (zh) | 基于强化学习sac的旋翼无人机避障方法、装置及设备 | |
CN113566825A (zh) | 基于视觉的无人机导航方法、系统及存储介质 | |
CN111831010A (zh) | 一种基于数字空间切片的无人机避障飞行方法 | |
Karapetyan et al. | Human diver-inspired visual navigation: Towards coverage path planning of shipwrecks | |
CN115686062B (zh) | 基于单目深度估计和反应式策略的飞行器自主导航方法 | |
Zhu et al. | Autonomous reinforcement control of visual underwater vehicles: Real-time experiments using computer vision | |
CN116678424A (zh) | 高精度车辆定位、矢量化地图构建及定位模型训练方法 | |
Mughal et al. | UAVs path planning by particle swarm optimization based on visual-SLAM algorithm | |
CN118107822A (zh) | 一种基于无人机的复杂环境搜救方法 | |
CN116009583A (zh) | 基于纯粹视觉的分布式无人机协同运动控制方法和装置 | |
US20240118706A1 (en) | Method and device for automatically guiding an autonomous aircraft |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |