原文服务方: 控制理论与应用       
摘要:
讨论模型未知的平均报酬强化学习算法.通过结合即时差分学习与R学习算法,将折扣问题中的一些方法推广到了平均准则问题中,提出了两类算法:R(λ)学习与截断即时差分TTD(λ)学习.现有的R学习可视为R(λ)学习和TTD(λ)学习当λ=0时的一个特例.仿真结果表明,λ取中间值的R(λ)和TTD(λ)学习比现有的方法在可靠性与收敛速度上均有提高.
推荐文章
平均报酬模型强化学习理论、算法及应用
平均报酬强化学习
R学习
H学习
可重入生产系统的平均报酬型强化学习调度
平均报酬型强化学习
可重入系统
调度
暂态差分
多步截断优先扫描强化学习算法
强化学习
优先扫描
多步截断
Markov过程
可重入生产系统的平均报酬型强化学习调度
平均报酬型强化学习
可重入系统
调度
暂态差分
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 平均报酬模型的多步强化学习算法
来源期刊 控制理论与应用 学科
关键词 强化学习 即时差分学习 马氏决策过程 R学习
年,卷(期) 2000,(5) 所属期刊栏目 论文与报告
研究方向 页码范围 660-664
页数 5页 分类号 O231
字数 语种 中文
DOI 10.3969/j.issn.1000-8152.2000.05.007
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 吴沧浦 北京理工大学自动控制系 23 428 8.0 20.0
2 胡光华 北京理工大学自动控制系 3 22 1.0 3.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (5)
节点文献
引证文献  (21)
同被引文献  (9)
二级引证文献  (22)
1988(1)
  • 参考文献(1)
  • 二级参考文献(0)
1996(3)
  • 参考文献(3)
  • 二级参考文献(0)
1998(1)
  • 参考文献(1)
  • 二级参考文献(0)
2000(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2001(1)
  • 引证文献(1)
  • 二级引证文献(0)
2002(4)
  • 引证文献(4)
  • 二级引证文献(0)
2003(4)
  • 引证文献(3)
  • 二级引证文献(1)
2004(2)
  • 引证文献(1)
  • 二级引证文献(1)
2005(2)
  • 引证文献(2)
  • 二级引证文献(0)
2006(5)
  • 引证文献(5)
  • 二级引证文献(0)
2007(3)
  • 引证文献(0)
  • 二级引证文献(3)
2008(1)
  • 引证文献(1)
  • 二级引证文献(0)
2009(2)
  • 引证文献(0)
  • 二级引证文献(2)
2010(3)
  • 引证文献(1)
  • 二级引证文献(2)
2012(1)
  • 引证文献(0)
  • 二级引证文献(1)
2013(2)
  • 引证文献(0)
  • 二级引证文献(2)
2014(2)
  • 引证文献(1)
  • 二级引证文献(1)
2016(3)
  • 引证文献(1)
  • 二级引证文献(2)
2017(2)
  • 引证文献(1)
  • 二级引证文献(1)
2018(2)
  • 引证文献(0)
  • 二级引证文献(2)
2019(4)
  • 引证文献(0)
  • 二级引证文献(4)
研究主题发展历程
节点文献
强化学习
即时差分学习
马氏决策过程
R学习
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
控制理论与应用
月刊
1000-8152
44-1240/TP
大16开
1984-01-01
chi
出版文献量(篇)
4979
总下载数(次)
0
总被引数(次)
72515
论文1v1指导