CN110136481B - 一种基于深度强化学习的停车策略 - Google Patents
一种基于深度强化学习的停车策略 Download PDFInfo
- Publication number
- CN110136481B CN110136481B CN201811097576.9A CN201811097576A CN110136481B CN 110136481 B CN110136481 B CN 110136481B CN 201811097576 A CN201811097576 A CN 201811097576A CN 110136481 B CN110136481 B CN 110136481B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- target
- parking
- reinforcement learning
- planning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/168—Driving aids for parking, e.g. acoustic or visual feedback on parking space
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
本发明涉及智能驾驶领域,特别涉及一种基于深度强化学习的停车策略。现有技术中,传统的自动泊车系统基于传统的路径规划算法,效果较差;本发明提供了一种基于深度强化学习的停车方法以及系统,所述方法及系统可由深度强化学习算法获得停车规划路线;以车辆观测状态、车辆预测动作和奖励函数构成元组,基于该元组的泊车规划方法,具有基于产品特点提取特征,使得需要的参数少的特点。此外,基于目标函数:(距离+转向+碰撞),系数不需要调整;本发明采用深度强化学习的方式来提取特征,具有整体规划时间快,对外界的反应快等有益的技术效果。
Description
技术领域
本发明涉及交通工具技术领域,特别涉及一种基于深度强化学习的停车策略。
背景技术
目前对于自动泊车技术主要的技术路线是基于传统的路径规划算法,如RRT、PRM、A*等。其基本思想是在预先制作好的场景地图内,随机产生路径,之后对随机生成的路径进行碰撞检测,即检测路径是否会穿过障碍物,或路径是否在车辆可行驶区域内。再在所有可行的路径中,利用迪杰斯特拉算法等方法选择其中最优的停车路径。
但是,上述现有技术存在以下缺陷:由于现有技术需要先产生随机路径,当场景较为复杂时(障碍物较多、车位狭小),难以产生可行的路径,使得最终得到的规划路径质量较差;现有技术针对不同的场景(不同车库、甚至同一车库的不同车位)都需要重新进行计算其最优路径,使得其泛化能力较差;传统算法对于地图精度有较高的要求,因而在应用有较大噪声的传感器输入(如:相机、Lidar等)时,规划效果较差。对规划路径的选择较少,缺少选择最优解的可选规划路径数量。
发明内容
为解决了现有技术中的技术问题。本发明提供了一种基于深度强化学习的停车方法,其特征在于:所述方法可由深度强化学习算法获得停车规划路线;
在深度强化学习算法的训练过程中,由车辆观测状态、车辆预测动作和奖励函数构成元组,所述元组每隔规定时间更新一次;
根据当前车辆观测状态,输出预测动作和奖励函数进行路线规划,当元组更新一次后,根据更新后的车辆观测状态,输出预测动作和奖励函数进行再一次的路线规划,直至车辆到达目标车位;由此可以得到奖励函数值最高的停车规划路线。
优选的,所述车辆观测状态包括车辆坐标(x,y,yaw),其中,x,y分别表示车辆转向中心在可行区域的坐标系下的x坐标与y坐标,yaw为车辆当前姿态与x轴的角度。
优选的,传感器信息为车辆四个角点处安装的传感器测量得到的各角点到最近障碍物的距离。
优选的,所述车辆预测动作包括车辆线速度和车辆转向角度。
优选的,所述奖励函数表示车辆的终止状态与目标车位的距离,车辆的终止状态越接近目标车位,获得的奖励值r越高。
优选的,在采用深度强化学习算法来训练停车策略的过程中,建立第一神经网络和第二神经网络,其中,所述第一神经网络采用车辆观测状态作为输入,输出奖励函数的函数值用于量化当前状态的好坏;第二神经网络采用车辆观测状态作为输入,输出车辆预测动作。
优选的,所述停车规划路线的优越程度可通过以下公式进行评价:
Y=a*distance(car position,target position)+b*abs(car yaw-target yaw)+c*target reached
其中,Y表示停车路径的优越程度;a,b表示控制任务完成度;c表示任务完成的额外奖励;假设规划任务的空间(即上述可行区域)大小为L米*L米,则a=1/L;b=1/2π;c=1,distance()函数返回车辆转向中心距离目标车位点的距离,abs()函数为取括号内数的绝对值,target reached表明车辆是否到达目标车位,如果车辆到达目标车位,则targetreach=1,否则,target reach=0。
本发明实施例还提供了一种基于深度强化学习的停车路线获取系统,其特征在于:所述系统可由深度强化学习算法系统获得停车规划路线;
在深度强化学习算法系统的训练过程中,由车辆观测状态、车辆预测动作和奖励函数构成元组,所述元组每隔规定时间更新一次;
根据当前车辆观测状态,输出预测动作和奖励函数进行路线规划,当元组更新一次后,根据更新后的车辆观测状态,输出预测动作和奖励函数进行再一次的路线规划,直至车辆到达目标车位;由此可以得到奖励函数值最高的停车规划路线。
优选的,所述车辆观测状态包括车辆坐标(x,y,yaw),其中,x,y分别表示车辆转向中心在可行区域的坐标系下的x坐标与y坐标,yaw为车辆当前姿态与x轴的角度。
优选的,传感器信息为车辆四个角点处安装的传感器测量得到的各角点到最近障碍物的距离。
优选的,所述车辆预测动作包括车辆线速度和车辆转向角度。
优选的,所述奖励函数表示车辆的终止状态与目标车位的距离,车辆的终止状态越接近目标车位,获得的奖励值r越高。
优选的,在采用深度强化学习算法来训练停车策略的过程中,建立第一神经网络和第二神经网络,其中,所述第一神经网络采用车辆观测状态作为输入,输出奖励函数的函数值用于量化当前状态的好坏;第二神经网络采用车辆观测状态作为输入,输出车辆预测动作。
优选的,所述停车规划路线的优越程度可通过以下公式进行评价:
Y=a*distance(car position,target position)+b*abs(car yaw-target yaw)+c*target reached。
其中,Y表示停车路径的优越程度;a,b表示控制任务完成度;c表示任务完成的额外奖励;假设规划任务的空间(即上述可行区域)大小为L米*L米,则a=1/L;b=1/2π;c=1,distance()函数返回车辆转向中心距离目标车位点的距离,abs()函数为取括号内数的绝对值,target reached表明车辆是否到达目标车位,如果车辆到达目标车位,则targetreach=1,否则,target reach=0。
本发明的发明点包括如下几个方面,但不仅限于这几个方面:
(1)提出了以车辆观测状态、车辆预测动作和奖励函数构成元组,基于该元组的泊车规划方法,具有基于产品特点提取特征,使得需要的参数少;基于目标函数:(距离+转向+碰撞),系数不需要调整。这是本发明的发明点之一。举例来说,只需要提取车辆的观测状态o,基于观测状态o即可输出预测动作a,车辆执行预测动作a后,再基于执行预测动作a后的观测状态o输出预测动作a,车辆再执行预测动作a,以此类推循环,经过多次输出预测动作a,即可得到由车辆初始位置行驶至目标车位的停车策略,由于该过程中只需要提取车辆的观测状态o,使得获取停车策略所需要的参数相对较少。在获取停车策略的过程中是需要实时提取车辆的观测状态o,主要是获取坐标、与障碍物的距离等参数,使得对地图精度的要求相对较低;在获取停车策略的过程中,由于是基于实时提取的车辆的观测状态o输出预测动作a,经过多次基于观测状态o预测动作a的重复过程,即使目标车位发生变化,也无需重新进行规划,继续基于当前的观测状态o输出预测动作a即可,有利于提高其泛化能力;这是本发明的发明点之一。
(2)本申请采用深度强化学习的方式来提取特征,采用深度强化学习的方法相比于传统的特征提取方法,具有整体规划时间更快,对外界的反应更快等突出的技术效果。这是本发明的发明点之一。
(3)通过建立合适的公式算法Y来衡量停车规划路线的优越程度,使得最终的停车规划路线更加科学。在这一公式中创造性的使用了表示控制任务完成度的两个参数;以及表示任务完成的额外奖励的参数,对优越程度的衡量更加全面,这是本发明的发明点之一。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,并不构成对本发明的限定。在附图中:
图1是本发明实施例提供的一种环境设计的示意图;
图2是本发明实施例提供的一种的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施方式和附图,对本发明做进一步详细说明。在此,本发明的示意性实施方式及其说明用于解释本发明,但并不作为对本发明的限定。
在实车运行时,在仿真环境中,使用停车策略获得可以安全入库的规划路线,其中,停车策略是指输入当前车辆的定位位姿和目标车位的定位位姿,输出控制车辆到达目标车位的车辆线速度和车辆转向角度,停车策略输出的车辆线速度和车辆转向角度约束车辆只能在可行区域内行驶并最终驶入目标车位中。
具体的,在用户开启获取停车策略的仿真软件程序时,仿真软件程序首先获取车辆当前所处环境的地图,根据地图、用户输入的目标车位信息以及车辆当前在地图中的坐标信息,获取车辆由当前位置驶入目标车位时可行驶的区域,即可行区域,获取侧面距离,侧面距离即车辆驶入该可行区域环境时,车辆相对靠近目标车位的车身侧面距离车位线的距离,而后进入训练停车策略的过程。
例如,仿真环境可以如图1所示,矩形区域A为可行区域,可行区域的长度可以为8-10m,可行区域的宽可以为5-6m;矩形区域B为目标车位,目标车位的宽可以为2.6-3m;目标车位中箭头的指向为停车时车头的朝向,即车辆必须按该朝向停到目标车位才视为任务成功;侧面距离的取值可以在0.5-2m之间,不同侧面距离对应不同停车任务下的最优停车策略,具体而言,侧面距离过小或过大都会加大寻找最优停车策略的难度,例如,侧面距离为0.5时就很难泊车,侧面距离为2米时就相对容易一些。
本申请通过深度强化学习来训练停车策略,只有在探索到目标车位或者发生碰撞才会停止规划,并根据奖励函数获得相应奖励。具体的,在深度强化学习过程中,本申请从探索序列中学习停车策略,探索序列[o0,a0,r0,o1,a1,r1,o2,a2,r2,...]中的每个元组(oi,ai,ri)由三个元素组成:车辆观测状态o,车辆在该观测状态下执行的预测动作a,任务反馈奖励值r,探索目标argmax(a0,a1,a2,...)(r0+r1+r2+...),i=0,1,2,....等自然数,i表示元组更新的序数。
在深度强化学习过程中,元组(即观测状态o、预测动作a和奖励值r)每0.1s更新一次。也就是说,实时根据当前观测状态o,输出预测动作a和奖励值r进行路线规划,例如,基于初始的当前观测状态o0输出预测动作a0,车辆执行预测动作a0后得到更新的当前观测状态o1,奖励函数基于更新的当前观测状态o1和目标车位输出奖励值r0,得到原始元组(当前观测状态o0、预测动作a0、奖励值r0);将更新后的当前观测状态o1视为当前观测状态,再基于当前观测状态o1输出预测动作a1,车辆再执行预测动作a1得到更新的当前观测状态o2,奖励函数再基于更新的当前观测状态o2和目标车位得到奖励值r1,得到更新一次的元组(当前观测状态o1、预测动作a1、奖励值r1);以此类推,直至车辆到达目标车位,由各次输出的预测动作a组成一条由初始位置到目标车位的完成路线。
在仿真环境中,车辆观测状态(observation)包括当前车辆坐标和传感器信息。根据可行区域的地图信息获得车辆在可行区域中的当前车辆坐标为(x,y,yaw),其中,x,y分别表示车辆转向中心在可行区域的坐标系下的x坐标与y坐标,yaw为车辆当前姿态与x轴的角度。传感器信息(s1,s2,s3,s4)为车辆四个角点(例如,车辆最前端的两个角点和车辆最后端的两个角点,具体如图1中1、2、3、4所示的四个角点)处安装的声呐传感器测量得到的各角点到最近障碍物的距离。因此,车辆观测状态为七维向量o=(x,y,yaw,s1,s2,s3,s4)。
车辆的动作空间(action)为能够控制车辆运动的输出,即上述预测动作a。在该仿真环境中预测动作a包括车辆线速度linear_v和车辆转向角度angular_z,即a=(linear_v,angular_z)。
奖励函数(reward)用于返回奖励值r。奖励值r除了终止状态之外都为零,其中,终止状态包括步数超过最大步长(步长即从起始状态到终止状态元组更新的次数)、车辆撞到障碍物以及车辆到达目标车位。目标车位为(target_x,target_y,target_yaw),其中,target_x表示x坐标、target_y表示y坐标及target_yaw表示车位姿态的偏移角度(在目标车位停车时车头的朝向与x轴的夹角)。当车辆到达终止状态但未到达目标车位时,环境中的奖励函数返回一个r=-sqrt((x-target_x)2+(y-target_y)2)/10-abs(yaw-target_yaw)/π,该r表示奖励值,车辆的终止状态越接近目标车位,获得的奖励值r越高。当车辆的终止状态到达目标车位时,环境中的奖励函数返回的奖励值r会在上述r的基础上加一,即r=r+1。
基于合理且简单的奖励函数设计,深度强化学习算法可以探索出奖励最高的规划线路,使用神经网络来拟合深度强化学习中状态评价和停车策略输出。
在采用深度强化学习算法来训练停车策略的过程中,具体而言,建立两个神经网络actor和critic,其中,神经网络critic采用上述车辆观测状态o作为输入,输出奖励值r(valuefunction)用于量化当前状态的好坏(是否容易从该状态驶到目标车位),使用神经网络critic拟合车辆观测状态o与奖励值r的关系,该关系的表达式即上述奖励函数;神经网络actor同样采用车辆观测状态o作为输入,输出预测动作a,即在该车辆观测状态下神经网络actor预测出车辆应该采用该预测动作a以驶入目标车位,使用神经网络actor拟合车辆观测状态o与预测动作a选择的分布。具体来说,actor和critic网络是为了将actor网络在观测状态o下输出的预测动作a获得更高的奖励值r,其中,更新之后的预测动作的分布和原动作分布的Kullback-Leibler divergence(KL散度,用于度量两个概率分布之间的距离)小于某个阈值。神经网络critic和actor的隐含层采用相同的结构,即包含三层64节点全连接的隐含层,且都使用ReLu函数作为激活函数,但神经网络critic在最后一层隐含层后添加一层全连接的线性层来输出函数值r,而神经网络actor则添加了一层全连接层并使用Tanh作为激活函数,以输出预测的车辆线速度和车辆转向角度。
采用神经网络来实现状态评价和动作预测可以很好拟合上述复杂环境中不同状态对应的函数值及驶入目标车位的最佳策略。主要原因包括非线性的激活函数以及多层隐含层,使得神经网络可以对环境中隐含的障碍信息进行提取,且actor-critic的双网络结构在保证智能体对于环境探索的前提下,使得训练过程更加稳定和平滑,也提升了样本的效率。
在训练停车策略得到多条停车路径之后,本申请还可以通过以下强化学习奖励公式来评价每一条可能的停车路径的优越程度(结果数值越大表示停车路径越优):
Y=a*distance(car position,target position)+b*abs(car yaw-target yaw)+c*target reached。
其中,Y表示停车路径的优越程度;a,b表示控制任务完成度;c表示任务完成的额外奖励;假设规划任务的空间(即上述可行区域)大小为L米*L米,则a=1/L;b=1/2π;c=1,distance()函数返回车辆转向中心距离目标车位点的距离,abs()函数为取括号内数的绝对值,target reached表明车辆是否到达目标车位,如果车辆到达目标车位,则targetreach=1,否则,target reach=0。
以下结合图2所示的流程图来描述训练停车策略的过程,该训练停车策略的过程在模拟器中完成,当用户开启获取停车策略的仿真软件程序时,仿真软件程序由车辆的当前位置开始训练停车策略,进入自动泊车的场景。在训练停车策略的过程中,首先,仿真软件程序中的算法模块(Explorer)将车辆当前的观测状态o0输入神经网络actor和critic中,神经网络actor基于观测状态o0输出对车辆的预测动作a0(也称控制量Velocity yawrate);之后控制车辆执行预测动作a0,得到下一个观测状态o1,仿真软件中的神经网络critic通过奖励函数(Reward function)基于下一个观测状态o1和目标车位得到预测动作a0对应的函数值r0(State reward);神经网络actor并进入下一个观测状态o1的预测,基于下一个观测状态o1输出对应的预测动作a1,控制车辆执行预测动作a1,神经网络critic通过奖励函数基于车辆执行预测动作a1后的观测状态o2和目标车位得到预测动作a1对应的函数值r1,依次类推,直至车辆到达终止状态(到达目标车位或撞到障碍物)。这样经过多次基于观测状态o输出预测动作a以及控制车辆执行预测动作a的过程,就得到一个完成的由车辆初始位置行驶至目标车位的车辆轨迹(trajectory),随着训练的进行,车辆不断探索不同的路径,最终获得一个足够好的泊车策略。
显然,本领域的技术人员应该明白,上述的本发明实施例的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明实施例不限制于任何特定的硬件和软件结合。以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明实施例可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (12)
1.一种基于深度强化学习的停车方法,其特征在于:所述方法可由深度强化学习算法获得停车规划路线;
在深度强化学习算法的训练过程中,由车辆观测状态、车辆预测动作和奖励函数构成元组,所述元组每隔规定时间更新一次;
根据当前车辆观测状态,输出预测动作和奖励函数进行路线规划,当元组更新一次后,根据更新后的车辆观测状态,输出预测动作和奖励函数进行再一次的路线规划,直至车辆到达目标车位;由此可以得到奖励函数值最高的停车规划路线;所述停车规划路线由各次输出的预测动作组成;
所述停车规划路线的优越程度可通过以下公式进行评价:
Y=a*distance(car position,target position)+b*abs(car yaw-t arget yaw)+c*target reached;
其中,Y表示停车路径的优越程度;a,b表示控制任务完成度;c表示任务完成的额外奖励;假设规划任务的空间大小为L米*L米,则a=1/L;b=1/2π;c=1,distance()函数返回车辆转向中心距离目标车位点的距离,abs()函数为取括号内数的绝对值,targetreached表明车辆是否到达目标车位,如果车辆到达目标车位,则target reach=1,否则,target reach=0。
2.根据权利要求1所述的方法,其特征在于:所述车辆观测状态包括车辆坐标(x,y,yaw),其中,x,y分别表示车辆转向中心在可行区域的坐标系下的x坐标与y坐标,yaw为车辆当前姿态与x轴的角度。
3.根据权利要求2所述的方法,其特征在于:传感器信息为车辆四个角点处安装的传感器测量得到的各角点到最近障碍物的距离。
4.根据权利要求1-3任一项所述的方法,其特征在于:所述车辆预测动作包括车辆线速度和车辆转向角度。
5.根据权利要求1-3任一项所述的方法,其特征在于:所述奖励函数表示车辆的终止状态与目标车位的距离,车辆的终止状态越接近目标车位,获得的奖励值r越高。
6.根据权利要求1-3任一项所述的方法,其特征在于:在采用深度强化学习算法来训练停车策略的过程中,建立第一神经网络和第二神经网络,其中,所述第一神经网络采用车辆观测状态作为输入,输出奖励函数的函数值用于量化当前状态的好坏;第二神经网络采用车辆观测状态作为输入,输出车辆预测动作。
7.一种基于深度强化学习的停车路线获取系统,其特征在于:所述系统可由深度强化学习算法系统获得停车规划路线;
在深度强化学习算法系统的训练过程中,由车辆观测状态、车辆预测动作和奖励函数构成元组,所述元组每隔规定时间更新一次;
根据当前车辆观测状态,输出预测动作和奖励函数进行路线规划,当元组更新一次后,根据更新后的车辆观测状态,输出预测动作和奖励函数进行再一次的路线规划,直至车辆到达目标车位;由此可以得到奖励函数值最高的停车规划路线;所述停车规划路线由各次输出的预测动作组成;
所述停车规划路线的优越程度可通过以下公式进行评价:
Y=a*distance(car position,target position)+b*abs(car yaw-target yaw)+c*target reached;
其中,Y表示停车路径的优越程度;a,b表示控制任务完成度;c表示任务完成的额外奖励;假设规划任务的空间大小为L米*L米,则a=1/L;b=1/2π;c=1,distance()函数返回车辆转向中心距离目标车位点的距离,abs()函数为取括号内数的绝对值,targetreached表明车辆是否到达目标车位,如果车辆到达目标车位,则target reach=1,否则,target reach=0。
8.根据权利要求7所述的系统,其特征在于:所述车辆观测状态包括车辆坐标(x,y,yaw),其中,x,y分别表示车辆转向中心在可行区域的坐标系下的x坐标与y坐标,yaw为车辆当前姿态与x轴的角度。
9.根据权利要求7或8所述的系统,其特征在于:传感器信息为车辆四个角点处安装的传感器测量得到的各角点到最近障碍物的距离。
10.根据权利要求7或8所述的系统,其特征在于:所述车辆预测动作包括车辆线速度和车辆转向角度。
11.根据权利要求7或8所述的系统,其特征在于:所述奖励函数表示车辆的终止状态与目标车位的距离,车辆的终止状态越接近目标车位,获得的奖励值r越高。
12.根据权利要求7或8所述的系统,其特征在于:在采用深度强化学习算法来训练停车策略的过程中,建立第一神经网络和第二神经网络,其中,所述第一神经网络采用车辆观测状态作为输入,输出奖励函数的函数值用于量化当前状态的好坏;第二神经网络采用车辆观测状态作为输入,输出车辆预测动作。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811097576.9A CN110136481B (zh) | 2018-09-20 | 2018-09-20 | 一种基于深度强化学习的停车策略 |
PCT/CN2018/113660 WO2020056875A1 (zh) | 2018-09-20 | 2018-11-02 | 一种基于深度强化学习的停车策略 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811097576.9A CN110136481B (zh) | 2018-09-20 | 2018-09-20 | 一种基于深度强化学习的停车策略 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110136481A CN110136481A (zh) | 2019-08-16 |
CN110136481B true CN110136481B (zh) | 2021-02-02 |
Family
ID=67568416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811097576.9A Active CN110136481B (zh) | 2018-09-20 | 2018-09-20 | 一种基于深度强化学习的停车策略 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110136481B (zh) |
WO (1) | WO2020056875A1 (zh) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110619442A (zh) * | 2019-09-26 | 2019-12-27 | 浙江科技学院 | 一种基于强化学习的车辆泊位预测方法 |
CN110716550B (zh) * | 2019-11-06 | 2022-07-22 | 南京理工大学 | 一种基于深度强化学习的换挡策略动态优化方法 |
CN110843746B (zh) * | 2019-11-28 | 2022-06-14 | 的卢技术有限公司 | 一种基于强化学习的防抱死刹车控制方法及系统 |
CN111098852B (zh) * | 2019-12-02 | 2021-03-12 | 北京交通大学 | 一种基于强化学习的泊车路径规划方法 |
CN111026272B (zh) * | 2019-12-09 | 2023-10-31 | 网易(杭州)网络有限公司 | 虚拟对象行为策略的训练方法及装置、电子设备、存储介质 |
CN111026157B (zh) * | 2019-12-18 | 2020-07-28 | 四川大学 | 一种基于奖励重塑强化学习的飞行器智能引导方法 |
CN111638646B (zh) * | 2020-05-29 | 2024-05-28 | 平安科技(深圳)有限公司 | 四足机器人行走控制器训练方法、装置、终端及存储介质 |
CN111645673B (zh) * | 2020-06-17 | 2021-05-11 | 西南科技大学 | 一种基于深度强化学习的自动泊车方法 |
CN112061116B (zh) * | 2020-08-21 | 2021-10-29 | 浙江大学 | 一种基于势能场函数逼近的强化学习方法的泊车策略 |
CN112528552B (zh) * | 2020-10-23 | 2024-09-06 | 洛阳银杏科技有限公司 | 一种基于深度强化学习的机械臂控制模型构建方法 |
DE102020213615A1 (de) * | 2020-10-29 | 2022-05-05 | Zf Friedrichshafen Ag | Verfahren und Vorrichtung zum Steuern eines Fahrzeugs entlang einer Fahrttrajektorie |
CN112862885B (zh) * | 2021-01-22 | 2023-07-21 | 江苏丰华联合科技有限公司 | 一种基于深度强化学习的柔性物体展开方法 |
CN112967516B (zh) * | 2021-02-03 | 2022-07-26 | 芜湖泊啦图信息科技有限公司 | 快速停车场端关键参数与整车匹配全局动态路径规划方法 |
CN115083199B (zh) * | 2021-03-12 | 2024-02-27 | 上海汽车集团股份有限公司 | 一种车位信息确定方法及其相关设备 |
CN113119957B (zh) * | 2021-05-26 | 2022-10-25 | 苏州挚途科技有限公司 | 泊车轨迹规划方法、装置及电子设备 |
CN113868113B (zh) * | 2021-06-22 | 2024-09-06 | 中国矿业大学 | 一种基于Actor-Critic算法的类集成测试序列生成方法 |
CN113554300A (zh) * | 2021-07-19 | 2021-10-26 | 河海大学 | 一种基于深度强化学习的共享车位实时分配方法 |
CN113553934B (zh) * | 2021-07-19 | 2024-02-20 | 吉林大学 | 基于深度强化学习的地面无人车智能决策方法及系统 |
CN113777918A (zh) * | 2021-07-28 | 2021-12-10 | 张金宁 | 一种数字孪生架构的汽车智能线控底盘控制方法 |
CN113867332B (zh) * | 2021-08-18 | 2024-05-14 | 中国科学院自动化研究所 | 一种无人车自学习控制方法、装置、设备及可读存储介质 |
CN113867334B (zh) * | 2021-09-07 | 2023-05-05 | 华侨大学 | 一种移动机械无人驾驶的路径规划方法和系统 |
CN113985870B (zh) * | 2021-10-19 | 2023-10-03 | 复旦大学 | 一种基于元强化学习的路径规划方法 |
CN114020013B (zh) * | 2021-10-26 | 2024-03-15 | 北航(四川)西部国际创新港科技有限公司 | 一种基于深度强化学习的无人机编队避撞方法 |
CN114154231A (zh) * | 2021-10-28 | 2022-03-08 | 中国北方车辆研究所 | 一种基于深度强化学习的车辆行驶状态估计系统及方法 |
CN114003059B (zh) * | 2021-11-01 | 2024-04-16 | 河海大学常州校区 | 运动学约束条件下基于深度强化学习的uav路径规划方法 |
CN114373324B (zh) * | 2021-12-01 | 2023-05-09 | 江铃汽车股份有限公司 | 一种车位信息共享方法及系统 |
CN114518751B (zh) * | 2021-12-31 | 2024-09-24 | 中国人民解放军国防科技大学 | 基于最小二乘截断时域差分学习的路径规划决策优化方法 |
CN114489059B (zh) * | 2022-01-13 | 2024-02-02 | 沈阳建筑大学 | 基于d3qn-per移动机器人路径规划方法 |
CN114815813B (zh) * | 2022-03-29 | 2024-05-07 | 山东交通学院 | 一种基于改进ddpg算法的高效路径规划方法、装置及介质 |
CN114783178B (zh) * | 2022-03-30 | 2023-08-08 | 同济大学 | 一种自适应停车场出口道闸控制方法、装置和存储介质 |
CN115223387B (zh) * | 2022-06-08 | 2024-01-30 | 东风柳州汽车有限公司 | 泊车控制系统及方法 |
CN115542733A (zh) * | 2022-09-23 | 2022-12-30 | 福州大学 | 基于深度强化学习的自适应动态窗口法 |
CN115472038B (zh) * | 2022-11-01 | 2023-02-03 | 南京杰智易科技有限公司 | 一种基于深度强化学习的自动泊车方法和系统 |
CN115862367B (zh) * | 2022-11-28 | 2023-11-24 | 合肥工业大学 | 一种代客泊车机器人平台的运行路径的控制方法 |
CN116540731B (zh) * | 2023-06-02 | 2024-03-26 | 东莞理工学院 | 融合堆叠lstm与sac算法的路径规划方法及系统 |
CN116533992B (zh) * | 2023-07-05 | 2023-09-22 | 南昌工程学院 | 基于深度强化学习算法的自动泊车路径规划方法及其系统 |
CN117953718B (zh) * | 2023-12-30 | 2024-06-18 | 佛山市佛盈盘古信息科技有限公司 | 一种医院车辆停车调度方法、系统及设备 |
CN117873118B (zh) * | 2024-03-11 | 2024-05-28 | 中国科学技术大学 | 一种基于sac算法与控制器的仓储物流机器人导航方法 |
CN118505208A (zh) * | 2024-07-18 | 2024-08-16 | 东方电子股份有限公司 | 基于多智能体元强化学习的空天地一体化立体巡检方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2824790A1 (fr) * | 2001-05-21 | 2002-11-22 | Luk Lamellen & Kupplungsbau | Procede de commande pour des vehicules automobiles a dispositif d'embrayage automatise |
CN105128856A (zh) * | 2015-08-24 | 2015-12-09 | 奇瑞汽车股份有限公司 | 停车入库方法及装置 |
CN106970615A (zh) * | 2017-03-21 | 2017-07-21 | 西北工业大学 | 一种深度强化学习的实时在线路径规划方法 |
CN108407805A (zh) * | 2018-03-30 | 2018-08-17 | 中南大学 | 一种基于dqn的车辆自动泊车方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120233102A1 (en) * | 2011-03-11 | 2012-09-13 | Toyota Motor Engin. & Manufact. N.A.(TEMA) | Apparatus and algorithmic process for an adaptive navigation policy in partially observable environments |
US8897913B2 (en) * | 2012-10-19 | 2014-11-25 | Chunsong Luo | Automatic stacked storage system for parking or storage |
CN103077615B (zh) * | 2012-12-20 | 2015-03-25 | 长沙理工大学 | 一种优化信号交叉口排队长度的在线学习方法 |
CN107792062B (zh) * | 2017-10-16 | 2019-11-05 | 北方工业大学 | 一种自动泊车控制系统 |
-
2018
- 2018-09-20 CN CN201811097576.9A patent/CN110136481B/zh active Active
- 2018-11-02 WO PCT/CN2018/113660 patent/WO2020056875A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2824790A1 (fr) * | 2001-05-21 | 2002-11-22 | Luk Lamellen & Kupplungsbau | Procede de commande pour des vehicules automobiles a dispositif d'embrayage automatise |
CN105128856A (zh) * | 2015-08-24 | 2015-12-09 | 奇瑞汽车股份有限公司 | 停车入库方法及装置 |
CN106970615A (zh) * | 2017-03-21 | 2017-07-21 | 西北工业大学 | 一种深度强化学习的实时在线路径规划方法 |
CN108407805A (zh) * | 2018-03-30 | 2018-08-17 | 中南大学 | 一种基于dqn的车辆自动泊车方法 |
Non-Patent Citations (1)
Title |
---|
基于视频跟踪轨迹的全过程路侧停车行为检测与识别技术;于青青等;《计算机与现代化》;20170930;第67-73页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110136481A (zh) | 2019-08-16 |
WO2020056875A1 (zh) | 2020-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110136481B (zh) | 一种基于深度强化学习的停车策略 | |
CN110745136B (zh) | 一种驾驶自适应控制方法 | |
CN110989576B (zh) | 速差滑移转向车辆的目标跟随及动态障碍物避障控制方法 | |
Min et al. | Deep Q learning based high level driving policy determination | |
Zhang et al. | Reinforcement learning-based motion planning for automatic parking system | |
CN112356830A (zh) | 一种基于模型强化学习的智能泊车方法 | |
CN112888612A (zh) | 自动驾驶车辆规划 | |
CN113805572A (zh) | 运动规划的方法与装置 | |
CN107063280A (zh) | 一种基于控制采样的智能车辆路径规划系统及方法 | |
CN114312830B (zh) | 一种考虑危险驾驶工况的智能车耦合决策模型及方法 | |
Du et al. | Trajectory planning for automated parking systems using deep reinforcement learning | |
CN112034887A (zh) | 无人机躲避柱状障碍物到达目标点的最优路径训练方法 | |
CN116540731B (zh) | 融合堆叠lstm与sac算法的路径规划方法及系统 | |
CN116679719A (zh) | 基于动态窗口法与近端策略的无人车自适应路径规划方法 | |
CN115469663B (zh) | 面向自动驾驶的基于深度强化学习的端到端导航避障方法 | |
CN112327888B (zh) | 路径规划方法、装置、电子设备和存储介质 | |
CN113391633A (zh) | 一种面向城市环境的移动机器人融合路径规划方法 | |
CN115542733A (zh) | 基于深度强化学习的自适应动态窗口法 | |
Chen et al. | Automatic overtaking on two-way roads with vehicle interactions based on proximal policy optimization | |
CN113959446B (zh) | 一种基于神经网络的机器人自主物流运输导航方法 | |
Yang et al. | Prediction Based Trajectory Planning for Safe Interactions Between Autonomous Vehicles and Moving Pedestrians in Shared Spaces | |
CN113837211B (zh) | 一种驾驶决策方法及装置 | |
Gutiérrez-Moreno et al. | Hybrid decision making for autonomous driving in complex urban scenarios | |
CN111413974B (zh) | 一种基于学习采样式的汽车自动驾驶运动规划方法及系统 | |
CN117371895A (zh) | 未知环境下多地面无人车路径规划方法、系统及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20211123 Address after: 215100 floor 23, Tiancheng Times Business Plaza, No. 58, qinglonggang Road, high speed rail new town, Xiangcheng District, Suzhou, Jiangsu Province Patentee after: MOMENTA (SUZHOU) TECHNOLOGY Co.,Ltd. Address before: Room 601-a32, Tiancheng information building, No. 88, South Tiancheng Road, high speed rail new town, Xiangcheng District, Suzhou City, Jiangsu Province Patentee before: MOMENTA (SUZHOU) TECHNOLOGY Co.,Ltd. |
|
TR01 | Transfer of patent right |