作者:
基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
研究强化学习在机器人路径规划问题,作为基于行为的移动机器人路径规划,应具有实时、高效、快速的优点,但面对连续环境变量,如机器人通过传感器检测到的与障碍物的距离,存在状态表达和泛化问题,不恰当的状态泛化会影响系统的学习效率和收敛性.为了提高机器人对外界快速响应能力,在分析强化学习基本原理和连续状态泛化方法的基础上,提出利用Kohonen网络对机器人连续外部环境进行聚类的内部状态表示方法,给出了Kohonen网络的Q-Learning强化学习算法.根据机器人工作环境和路径规划目标,设计了机器人路径规划中的奖惩策略和动作选择规则,并通过仿真与传统的状态离散方法进行了比较.结果显示,提出的方法不仅降低了计算机的存储需求,而且加快了系统学习的收敛速度,表明了改进方法的有效性.
推荐文章
基于强化学习的爬壁机器人路径规划方法
爬壁机器人
路径规划
强化学习
收敛性
强化学习在足球机器人基本动作学习中的应用
强化学习
机器人足球比赛
行为学习
T-S模糊神经网络
仿真机器人足球中的强化学习
仿真机器人足球
强化学习
多主体系统
未知动态环境中基于分层强化学习的移动机器人路径规划
移动机器人
未知动态环境
路径规划
分层强化学习
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 强化学习在机器人路径规划中的应用研究
来源期刊 计算机仿真 学科 工学
关键词 强化学习 自组织神经网络 机器人路径规划
年,卷(期) 2013,(12) 所属期刊栏目 仿真智能化
研究方向 页码范围 351-355,364
页数 6页 分类号 TP242
字数 5043字 语种 中文
DOI
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 童亮 北京信息科技大学机电工程学院 60 198 9.0 12.0
2 王准 北京信息科技大学机电工程学院 13 50 5.0 7.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (26)
共引文献  (34)
参考文献  (5)
节点文献
引证文献  (15)
同被引文献  (56)
二级引证文献  (54)
1983(1)
  • 参考文献(1)
  • 二级参考文献(0)
1986(1)
  • 参考文献(0)
  • 二级参考文献(1)
1996(3)
  • 参考文献(0)
  • 二级参考文献(3)
1998(4)
  • 参考文献(0)
  • 二级参考文献(4)
1999(2)
  • 参考文献(0)
  • 二级参考文献(2)
2000(2)
  • 参考文献(0)
  • 二级参考文献(2)
2001(2)
  • 参考文献(0)
  • 二级参考文献(2)
2002(6)
  • 参考文献(1)
  • 二级参考文献(5)
2003(6)
  • 参考文献(0)
  • 二级参考文献(6)
2004(2)
  • 参考文献(1)
  • 二级参考文献(1)
2005(1)
  • 参考文献(1)
  • 二级参考文献(0)
2006(1)
  • 参考文献(1)
  • 二级参考文献(0)
2013(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2015(4)
  • 引证文献(3)
  • 二级引证文献(1)
2016(1)
  • 引证文献(0)
  • 二级引证文献(1)
2017(3)
  • 引证文献(2)
  • 二级引证文献(1)
2018(10)
  • 引证文献(4)
  • 二级引证文献(6)
2019(34)
  • 引证文献(5)
  • 二级引证文献(29)
2020(17)
  • 引证文献(1)
  • 二级引证文献(16)
研究主题发展历程
节点文献
强化学习
自组织神经网络
机器人路径规划
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机仿真
月刊
1006-9348
11-3724/TP
大16开
北京海淀阜成路14号
82-773
1984
chi
出版文献量(篇)
20896
总下载数(次)
43
论文1v1指导