基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
一个激励学习Agent通过学习一个从状态到动作映射的最优策略来解决策问题.激励学习方法是Agent利用试验与环境交互以改进自身的行为.Markov决策过程(MDP)模型是解决激励学习问题的通用方法.文章提出了一种新的算法,这个算法通过牺牲最优性来获取鲁棒性,重点给出了一组逼近算法和它们的收敛结果.利用广义平均算子来替代最优算子max(或min),对激励学习中的两类最重要的算法-动态规划算法和Q-学习算法一进行了研究,并讨论了它们的收敛性.其目的就是为了提高激励学习算法的鲁棒性.
推荐文章
遗传算法的收敛性研究
遗传算法
全局收敛性
自适应遗传算法
并行遗传算法
小生境遗传算法
蝙蝠算法的全局收敛性分析
蝙蝠算法
随机优化算法
全局收敛性
全局最优解
混合粒子群优化算法及其收敛性分析
混合粒子群优化算法
云模型
混沌映射
布谷鸟搜索
收敛性分析
PSO-MEA混合优化算法及其收敛性分析
混合优化算法
思维进化算法
粒子群优化算法
收敛性分析
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 激励学习的广义平均算法及其收敛性
来源期刊 计算机工程与应用 学科 工学
关键词 激励学习 广义平均 Markov 决策过程 Q-学习
年,卷(期) 2002,(20) 所属期刊栏目 学术探讨
研究方向 页码范围 72-74,88
页数 4页 分类号 TP182
字数 4819字 语种 中文
DOI 10.3321/j.issn:1002-8331.2002.20.024
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 陈焕文 长沙电力学院数学与计算机系 18 95 6.0 9.0
2 谢丽娟 长沙电力学院数学与计算机系 7 56 4.0 7.0
3 殷苌茗 长沙电力学院数学与计算机系 13 52 5.0 6.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (16)
共引文献  (11)
参考文献  (6)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1983(1)
  • 参考文献(0)
  • 二级参考文献(1)
1988(3)
  • 参考文献(1)
  • 二级参考文献(2)
1992(5)
  • 参考文献(1)
  • 二级参考文献(4)
1996(5)
  • 参考文献(1)
  • 二级参考文献(4)
1998(2)
  • 参考文献(0)
  • 二级参考文献(2)
1999(2)
  • 参考文献(0)
  • 二级参考文献(2)
2000(1)
  • 参考文献(0)
  • 二级参考文献(1)
2001(3)
  • 参考文献(3)
  • 二级参考文献(0)
2002(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
激励学习
广义平均
Markov
决策过程
Q-学习
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机工程与应用
半月刊
1002-8331
11-2127/TP
大16开
北京619信箱26分箱
82-605
1964
chi
出版文献量(篇)
39068
总下载数(次)
102
总被引数(次)
390217
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导