原文服务方: 自动化与仪表       
摘要:
Q-learning是一种经典的增强学习算法,简单易用且不需要环境模型;广泛应用于移动机器人路径规划.但在状态空间和动作空间较大时,经典的Q-learning算-法存在学习效率低、收敛速度慢,容易陷入局部最优解等问题.通过引入神经网络模型,利用地图信息计算状态势值,从而优化了设计奖励函数.合理奖励函数为Q(λ)-learning算法提供了先验知识,避免训练中的盲目搜索,同时奖励函数激励避免了陷入局部最优解.仿真试验表明,改进的路径规划方法在收敛速度方面有很大的提升,训练得到的路径为全局最优.
推荐文章
基于神经网络Q-learning算法的智能车路径规划
路径规划
智能小车
Q-learning
神经网络
仿真
改进的Q-Learning算法及其在路径规划中的应用
路径规划
人工智能
强化学习
Q-Learning
基于神经网络和遗传算法的移动机器人路径规划
路径规划
神经网络
遗传算法
移动机器人
神经网络在移动机器人路径规划中的应用研究
移动机器人
神经网络
路径规划
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 结合神经网络和Q(λ)-learning的路径规划方法
来源期刊 自动化与仪表 学科
关键词 路径规划 神经网络 强化学习 移动机器人 奖励函数
年,卷(期) 2019,(9) 所属期刊栏目 专题研究与综述
研究方向 页码范围 1-4
页数 4页 分类号 TP24|TP18
字数 语种 中文
DOI 10.19557/j.cnki.1001-9944.2019.09.001
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 张平陆 沈阳科技学院机械与交通工程系 2 1 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (10)
共引文献  (26)
参考文献  (9)
节点文献
引证文献  (1)
同被引文献  (1)
二级引证文献  (0)
1952(1)
  • 参考文献(1)
  • 二级参考文献(0)
1973(1)
  • 参考文献(1)
  • 二级参考文献(0)
1986(2)
  • 参考文献(0)
  • 二级参考文献(2)
1992(2)
  • 参考文献(0)
  • 二级参考文献(2)
2000(1)
  • 参考文献(0)
  • 二级参考文献(1)
2001(2)
  • 参考文献(1)
  • 二级参考文献(1)
2004(2)
  • 参考文献(0)
  • 二级参考文献(2)
2005(1)
  • 参考文献(0)
  • 二级参考文献(1)
2006(1)
  • 参考文献(0)
  • 二级参考文献(1)
2008(3)
  • 参考文献(3)
  • 二级参考文献(0)
2013(2)
  • 参考文献(2)
  • 二级参考文献(0)
2016(1)
  • 参考文献(1)
  • 二级参考文献(0)
2019(1)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(1)
  • 二级引证文献(0)
2019(1)
  • 引证文献(1)
  • 二级引证文献(0)
研究主题发展历程
节点文献
路径规划
神经网络
强化学习
移动机器人
奖励函数
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
自动化与仪表
月刊
1001-9944
12-1148/TP
大16开
1981-01-01
chi
出版文献量(篇)
3994
总下载数(次)
0
总被引数(次)
18195
论文1v1指导