基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
一个激励学习Agent通过学习一个从状态到动作映射的最优策略来求解决策问题.求解最优决策一般有两种途径,一种是求最大奖赏方法,另一种是求最优费用方法.该文利用求解最优费用函数的方法给出了一种新的Q学习算法.Q学习算法是求解信息不完全Markov决策问题的一种有效激励学习方法.文章从求解最优费用函数的方法出发,给出了Q学习的关联值递归算法,这种方法的建立,可以使得动态规划(DP)算法中的许多结论直接应用到Q学习的研究中来.
推荐文章
基于预测状态表示的Q学习算法
不确定环境规划
预测状态表示
Q学习算法
奶酪迷宫
基于特征选择的统计最优样本大小算法
统计最优样本大小算法
高维数据集
特征选择
聚类
基于最优初始值Q学习的电力信息网络防御策略学习算法
电力信息网络
最优初始值
Q学习
网络防御
基于改进Q-学习的导航知识获取算法研究
强化学习
Q-学习
探索区域扩张
模拟退火
神经网络
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于有限样本的最优费用关联值递归Q学习算法
来源期刊 计算机工程与应用 学科 工学
关键词 激励学习 Q学习 最优费用函数 关联值递归 Markov决策过程
年,卷(期) 2002,(11) 所属期刊栏目 学术探讨
研究方向 页码范围 65-67
页数 3页 分类号 TP18
字数 3800字 语种 中文
DOI 10.3321/j.issn:1002-8331.2002.11.024
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 陈焕文 长沙电力学院数学与计算机系 18 95 6.0 9.0
2 谢丽娟 长沙电力学院数学与计算机系 7 56 4.0 7.0
3 殷苌茗 长沙电力学院数学与计算机系 13 52 5.0 6.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (16)
共引文献  (11)
参考文献  (6)
节点文献
引证文献  (6)
同被引文献  (4)
二级引证文献  (4)
1983(1)
  • 参考文献(0)
  • 二级参考文献(1)
1988(3)
  • 参考文献(1)
  • 二级参考文献(2)
1992(5)
  • 参考文献(1)
  • 二级参考文献(4)
1996(5)
  • 参考文献(1)
  • 二级参考文献(4)
1998(2)
  • 参考文献(0)
  • 二级参考文献(2)
1999(2)
  • 参考文献(0)
  • 二级参考文献(2)
2000(1)
  • 参考文献(0)
  • 二级参考文献(1)
2001(3)
  • 参考文献(3)
  • 二级参考文献(0)
2002(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2003(1)
  • 引证文献(1)
  • 二级引证文献(0)
2004(2)
  • 引证文献(2)
  • 二级引证文献(0)
2005(1)
  • 引证文献(0)
  • 二级引证文献(1)
2006(1)
  • 引证文献(1)
  • 二级引证文献(0)
2007(3)
  • 引证文献(2)
  • 二级引证文献(1)
2016(1)
  • 引证文献(0)
  • 二级引证文献(1)
2017(1)
  • 引证文献(0)
  • 二级引证文献(1)
研究主题发展历程
节点文献
激励学习
Q学习
最优费用函数
关联值递归
Markov决策过程
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机工程与应用
半月刊
1002-8331
11-2127/TP
大16开
北京619信箱26分箱
82-605
1964
chi
出版文献量(篇)
39068
总下载数(次)
102
总被引数(次)
390217
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导