基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
传统Q算法对于机器人回报函数的定义较为宽泛,导致机器人的学习效率不高.为解决该问题,给出一种回报详细分类Q(RDC-Q)学习算法.综合机器人各个传感器的返回值,依据机器人距离障碍物的远近把机器人的状态划分为20个奖励状态和15个惩罚状态,对机器人每个时刻所获得的回报值按其状态的安全等级分类,使机器人趋向于安全等级更高的状态,从而帮助机器人更快更好地学习.通过在一个障碍物密集的环境中进行仿真实验,证明该算法收敛速度相对传统回报Q算法有明显提高.
推荐文章
基于仿生学内在动机的Q学习算法移动机器人路径规划研究
移动机器人
路径规划
内在动机
Q学习算法
引力势场
智能发育
煤矿井下基于Q-learning算法的移动机器人路径规划
移动机器人
不确定环境
强化学习
路径规划
基于自适应状态聚集Q学习的移动机器人动态规划方法
移动机器人
路径规划
状态聚集
Q学习
基于遗传算法的移动机器人路径规划
移动机器人
路径规划
遗传算法
插入算子
删除算子
最优保存策略
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于RDC-Q学习算法的移动机器人路径规划
来源期刊 计算机工程 学科 工学
关键词 路径规划 移动机器人 强化学习 Q学习算法 回报函数 学习效率
年,卷(期) 2014,(6) 所属期刊栏目 人工智能及识别技术
研究方向 页码范围 211-214
页数 4页 分类号 TP301.6
字数 2602字 语种 中文
DOI 10.3969/j.issn.1000-3428.2014.06.045
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 王子强 天津工业大学计算机科学与软件学院 2 80 2.0 2.0
2 武继刚 天津工业大学计算机科学与软件学院 24 102 6.0 8.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (22)
共引文献  (163)
参考文献  (4)
节点文献
引证文献  (6)
同被引文献  (14)
二级引证文献  (16)
1959(1)
  • 参考文献(0)
  • 二级参考文献(1)
1991(1)
  • 参考文献(0)
  • 二级参考文献(1)
1992(5)
  • 参考文献(1)
  • 二级参考文献(4)
1994(1)
  • 参考文献(0)
  • 二级参考文献(1)
1995(1)
  • 参考文献(0)
  • 二级参考文献(1)
1998(2)
  • 参考文献(0)
  • 二级参考文献(2)
1999(1)
  • 参考文献(0)
  • 二级参考文献(1)
2001(2)
  • 参考文献(0)
  • 二级参考文献(2)
2003(1)
  • 参考文献(0)
  • 二级参考文献(1)
2004(3)
  • 参考文献(1)
  • 二级参考文献(2)
2006(1)
  • 参考文献(0)
  • 二级参考文献(1)
2007(1)
  • 参考文献(0)
  • 二级参考文献(1)
2008(1)
  • 参考文献(0)
  • 二级参考文献(1)
2009(2)
  • 参考文献(0)
  • 二级参考文献(2)
2010(1)
  • 参考文献(0)
  • 二级参考文献(1)
2012(2)
  • 参考文献(2)
  • 二级参考文献(0)
2014(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2017(1)
  • 引证文献(1)
  • 二级引证文献(0)
2018(6)
  • 引证文献(4)
  • 二级引证文献(2)
2019(7)
  • 引证文献(1)
  • 二级引证文献(6)
2020(8)
  • 引证文献(0)
  • 二级引证文献(8)
研究主题发展历程
节点文献
路径规划
移动机器人
强化学习
Q学习算法
回报函数
学习效率
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机工程
月刊
1000-3428
31-1289/TP
大16开
上海市桂林路418号
4-310
1975
chi
出版文献量(篇)
31987
总下载数(次)
53
总被引数(次)
317027
论文1v1指导