基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
提出了一种固定长度经验回放的思想,并将该思想与一步Q和Peng Q(λ)学习算法相结合,得到了相应的改进算法.该文采用不同的回放长度L将改进的算法应用在网格环境和汽车爬坡问题中进行了仿真.结果表明,改进的一步Q学习算法在两个例子中都比原算法具有更好的学习效率.改进的Peng Q(λ)学习在马尔可夫环境中对选择探索动作非常敏感,增大L几乎不能提高学习的效率,甚至会使学习效率变差;但是在具有非马尔可夫属性的环境中对选择探索动作比较不敏感,增大L能够显著提高算法的学习速度.实验结果对如何选择适当的L有着指导作用.
推荐文章
基于排序优先经验回放的竞争深度Q网络学习
强化学习
深度Q网络
竞争网络
排序优先经验回放
随机状态下基于期望经验回放的Q学习算法
人工智能
机器学习
强化学习
经验回放
Q学习算法
随机环境
收敛
过估计
基于排序优先经验回放的竞争深度Q网络学习
强化学习
深度Q网络
竞争网络
排序优先经验回放
平均排队长度差最小的单交叉口在线Q学习模型
交通控制
配时优化
排队长度
在线Q学习
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 固定长度经验回放对Q学习效率的影响
来源期刊 计算机工程 学科 工学
关键词 经验回放 再励学习 Q学习
年,卷(期) 2006,(6) 所属期刊栏目 博士论文
研究方向 页码范围 7-10
页数 4页 分类号 TP181
字数 4006字 语种 中文
DOI 10.3969/j.issn.1000-3428.2006.06.003
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 孙增圻 清华大学计算机系智能技术与系统国家重点实验室 94 2764 28.0 51.0
2 朱纪洪 清华大学计算机系智能技术与系统国家重点实验室 109 1166 18.0 30.0
3 林明 清华大学计算机系智能技术与系统国家重点实验室 5 7 2.0 2.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (1)
节点文献
引证文献  (4)
同被引文献  (1)
二级引证文献  (6)
1996(1)
  • 参考文献(1)
  • 二级参考文献(0)
2006(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2007(2)
  • 引证文献(2)
  • 二级引证文献(0)
2009(4)
  • 引证文献(0)
  • 二级引证文献(4)
2010(1)
  • 引证文献(1)
  • 二级引证文献(0)
2011(2)
  • 引证文献(1)
  • 二级引证文献(1)
2012(1)
  • 引证文献(0)
  • 二级引证文献(1)
研究主题发展历程
节点文献
经验回放
再励学习
Q学习
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机工程
月刊
1000-3428
31-1289/TP
大16开
上海市桂林路418号
4-310
1975
chi
出版文献量(篇)
31987
总下载数(次)
53
总被引数(次)
317027
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导