原文服务方: 自动化与仪表       
摘要:
强化学习算法广泛的应用于路径规划,使移动机器人能够与环境交互并实现自主避障、获取最优路径.传统Q(λ)-leaming算法所采用的探索策略存在探索利用平衡问题,由于收敛过早,往往得不到最优解.本文提出一种动态调整探索因子的探索方法,以探索成功率判断机器人对环境的熟悉程度,指导探索过程,从而找到最优路径;采用栅格法建立地图.通过仿真和对比试验证明了该方法可以得到全局最优策略.
推荐文章
煤矿井下基于Q-learning算法的移动机器人路径规划
移动机器人
不确定环境
强化学习
路径规划
移动机器人路径规划方法研究
移动机器人
路径规划
动态环境
基于自适应状态聚集Q学习的移动机器人动态规划方法
移动机器人
路径规划
状态聚集
Q学习
移动机器人改进人工势场的路径规划方法研究
移动机器人
路径规划
改进人工势场算法
斥力函数
局部极小值
虚拟目标点
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于Q(λ)-learning的移动机器人路径规划改进探索方法
来源期刊 自动化与仪表 学科
关键词 路径规划 强化学习 Q(λ)学习算法 移动机器人 搜索策略
年,卷(期) 2019,(11) 所属期刊栏目 人工智能与机器人
研究方向 页码范围 39-41,67
页数 4页 分类号 TP24|TP18
字数 语种 中文
DOI 10.19557/j.cnki.1001-9944.2019.11.010
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 张平陆 沈阳科技学院机械与交通工程系 2 1 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (13)
共引文献  (24)
参考文献  (7)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1952(1)
  • 参考文献(0)
  • 二级参考文献(1)
1973(1)
  • 参考文献(0)
  • 二级参考文献(1)
1986(1)
  • 参考文献(0)
  • 二级参考文献(1)
1992(3)
  • 参考文献(1)
  • 二级参考文献(2)
2001(2)
  • 参考文献(0)
  • 二级参考文献(2)
2006(1)
  • 参考文献(1)
  • 二级参考文献(0)
2008(4)
  • 参考文献(1)
  • 二级参考文献(3)
2010(1)
  • 参考文献(1)
  • 二级参考文献(0)
2013(2)
  • 参考文献(0)
  • 二级参考文献(2)
2015(1)
  • 参考文献(1)
  • 二级参考文献(0)
2016(2)
  • 参考文献(1)
  • 二级参考文献(1)
2019(1)
  • 参考文献(1)
  • 二级参考文献(0)
2019(1)
  • 参考文献(1)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
路径规划
强化学习
Q(λ)学习算法
移动机器人
搜索策略
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
自动化与仪表
月刊
1001-9944
12-1148/TP
大16开
1981-01-01
chi
出版文献量(篇)
3994
总下载数(次)
0
总被引数(次)
18195
论文1v1指导