基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
在传统的路径规划方法中,行星车的所有行为都是地面人员事先定义好的.但行星车的作业环境不是完全已知的,这就需要行星车具备一定的对环境变化自适应和自学习能力.为了进一步实现行星车的自主决策,并解决传统人为规划框架中过于依赖地图信息的问题,基于深度强化学习理论提出了端到端的路径规划方法,直接从传感器信息映射出动作指令再发布给行星车.首先使用CNN和LSTM处理雷达和相机的信息,通过比较DQ、Double DQN、Dueling DQN和PER算法的优点,采用D3QN PER算法,训练行星车自动路径规划,最后在静态障碍环境中进行了仿真验证实验,试验表明D3QN PER算法对火星车在不同环境均具有适应性.
推荐文章
基于强化学习的爬壁机器人路径规划方法
爬壁机器人
路径规划
强化学习
收敛性
基于强化学习的电动车路径优化研究
车辆路径问题
电动车
多约束
强化学习
策略梯度法
组合优化
基于RPkNN-Sarsa(λ)强化学习的机器人路径规划方法
路径规划
强化学习
随机扰动
传感器探测信息不确定性
基于多智能体强化学习的多AGV路径规划方法
多智能体强化学习
AGV路径规划
独立强化学习
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于深度强化学习的行星车路径规划方法研究
来源期刊 无人系统技术 学科 航空航天
关键词 行星车 深度强化学习 深度Q学习 路径规划
年,卷(期) 2019,(4) 所属期刊栏目 技术研究
研究方向 页码范围 38-45
页数 8页 分类号 V19
字数 4721字 语种 中文
DOI
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 白成超 哈尔滨工业大学航天学院 5 5 1.0 2.0
2 周思雨 哈尔滨工业大学航天学院 1 0 0.0 0.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (42)
共引文献  (9)
参考文献  (4)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1995(1)
  • 参考文献(0)
  • 二级参考文献(1)
2001(1)
  • 参考文献(0)
  • 二级参考文献(1)
2005(1)
  • 参考文献(0)
  • 二级参考文献(1)
2006(2)
  • 参考文献(1)
  • 二级参考文献(1)
2007(2)
  • 参考文献(0)
  • 二级参考文献(2)
2008(1)
  • 参考文献(0)
  • 二级参考文献(1)
2009(2)
  • 参考文献(0)
  • 二级参考文献(2)
2010(1)
  • 参考文献(0)
  • 二级参考文献(1)
2011(1)
  • 参考文献(0)
  • 二级参考文献(1)
2012(2)
  • 参考文献(0)
  • 二级参考文献(2)
2013(2)
  • 参考文献(0)
  • 二级参考文献(2)
2014(4)
  • 参考文献(0)
  • 二级参考文献(4)
2015(2)
  • 参考文献(0)
  • 二级参考文献(2)
2016(5)
  • 参考文献(0)
  • 二级参考文献(5)
2017(13)
  • 参考文献(2)
  • 二级参考文献(11)
2018(6)
  • 参考文献(1)
  • 二级参考文献(5)
2019(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
行星车
深度强化学习
深度Q学习
路径规划
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
无人系统技术
双月刊
2096-5915
10-1565/TJ
大16开
北京7254信箱4分箱
2018
chi
出版文献量(篇)
188
总下载数(次)
3
总被引数(次)
118
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
论文1v1指导