作者:
基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
对智能体Q强化学习方法进行了扩展,讨论效用驱动的Markov强化学习问题.与单吸收状态相比,学习过程不再是状态驱动,而是效用驱动的.智能体的学习将不再与特定的目标状态相联系,而是最大化每步的平均期望收益,即最大化一定步数内的收益总和,因此学习结果是一个平均收益最大的最优循环.证明了多吸收状态下强化学习的收敛性,将栅格图像看作具有多个吸收状态的格子世界,测试了确定性环境下多吸收状态Q学习的有效性.
推荐文章
强化学习研究综述
强化学习
多智能体
马尔可夫决策过程
基于数据驱动和深度强化学习的孤岛多风柴电压控制研究
孤岛多风柴系统
双馈感应发电机(DFIG)
深度强化学习
附加智能电压控制器
动态稳定性
分层强化学习研究进展
分层强化学习
半马尔可夫决策过程
抽象
基于Markov对策的强化学习及其在RoboCup中的应用
Markov
对策
多主体系统
强化学习
RoboCup
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 效用驱动的Markov强化学习
来源期刊 计算机工程与应用 学科 工学
关键词 强化学习 智能体 Markov决策过程
年,卷(期) 2009,(4) 所属期刊栏目 研究、探讨
研究方向 页码范围 42-44
页数 3页 分类号 TP181
字数 3011字 语种 中文
DOI 10.3778/j.issn.1002-8331.2009.04.012
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 韩伟 南京财经大学信息工程学院 27 143 7.0 10.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (17)
共引文献  (10)
参考文献  (4)
节点文献
引证文献  (1)
同被引文献  (0)
二级引证文献  (0)
1953(1)
  • 参考文献(0)
  • 二级参考文献(1)
1996(1)
  • 参考文献(0)
  • 二级参考文献(1)
1998(2)
  • 参考文献(0)
  • 二级参考文献(2)
2000(2)
  • 参考文献(0)
  • 二级参考文献(2)
2001(1)
  • 参考文献(0)
  • 二级参考文献(1)
2002(3)
  • 参考文献(0)
  • 二级参考文献(3)
2003(3)
  • 参考文献(0)
  • 二级参考文献(3)
2004(1)
  • 参考文献(0)
  • 二级参考文献(1)
2005(1)
  • 参考文献(0)
  • 二级参考文献(1)
2006(4)
  • 参考文献(2)
  • 二级参考文献(2)
2007(2)
  • 参考文献(2)
  • 二级参考文献(0)
2009(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2010(1)
  • 引证文献(1)
  • 二级引证文献(0)
研究主题发展历程
节点文献
强化学习
智能体
Markov决策过程
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机工程与应用
半月刊
1002-8331
11-2127/TP
大16开
北京619信箱26分箱
82-605
1964
chi
出版文献量(篇)
39068
总下载数(次)
102
总被引数(次)
390217
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
国家高技术研究发展计划(863计划)
英文译名:The National High Technology Research and Development Program of China
官方网址:http://www.863.org.cn
项目类型:重点项目
学科类型:信息技术
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导