基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
一个激励学习Agent通过学习一个从状态到动作映射的最优策略来解决策问题.激励学习方法是Agent利用试验与环境交互以改进自身的行为.Markov决策过程(MDP)模型是解决激励学习问题的通用方法,而动态规划方法是Agent在具有Markov环境下与策略相关的值函数学习算法.但由于Agent在学习的过程中,需要记忆全部的值函数,这个记忆容量随着状态空间的增加会变得非常巨大.文章提出了一种基于动态规划方法的激励学习遗忘算法,这个算法是通过将记忆心理学中有关遗忘的基本原理引入到值函数的激励学习中,导出了一类用动态规划方法解决激励学习问题的比较好的方法,即Forget-DP算法.
推荐文章
一种激励学习遗忘算法
动态规划值
函数
记忆
遗忘
算法
非线性系统迭代跟踪控制的批次遗忘学习算法
迭代学习控制
非线性系统
遗忘因子
跟踪控制
收敛性分析
动态环境下基于蚁群算法的实时路径规划方法
移动机器人
路径规划
蚁群算法
环境模糊模型
动态环境
基于改进的生物激励神经网络机器人路径规划算法
移动机器人控制
生物激励神经网络
全局路径规划
路径优化
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于动态规划方法的激励学习遗忘算法
来源期刊 计算机工程与应用 学科 工学
关键词 激励学习 Markov决策过程 动态规划 值函数 记忆 遗忘算法
年,卷(期) 2004,(16) 所属期刊栏目 学术探讨
研究方向 页码范围 75-78,81
页数 5页 分类号 TP181
字数 5112字 语种 中文
DOI 10.3321/j.issn:1002-8331.2004.16.025
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 王汉兴 上海大学理学院 31 396 9.0 19.0
2 陈焕文 长沙电力学院数学与计算机系 18 95 6.0 9.0
3 殷苌茗 上海大学理学院 13 52 5.0 6.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (37)
共引文献  (11)
参考文献  (9)
节点文献
引证文献  (1)
同被引文献  (0)
二级引证文献  (0)
1983(1)
  • 参考文献(0)
  • 二级参考文献(1)
1988(6)
  • 参考文献(1)
  • 二级参考文献(5)
1992(7)
  • 参考文献(1)
  • 二级参考文献(6)
1996(8)
  • 参考文献(1)
  • 二级参考文献(7)
1998(3)
  • 参考文献(0)
  • 二级参考文献(3)
1999(3)
  • 参考文献(0)
  • 二级参考文献(3)
2000(3)
  • 参考文献(0)
  • 二级参考文献(3)
2001(12)
  • 参考文献(3)
  • 二级参考文献(9)
2002(3)
  • 参考文献(3)
  • 二级参考文献(0)
2004(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2016(1)
  • 引证文献(1)
  • 二级引证文献(0)
研究主题发展历程
节点文献
激励学习
Markov决策过程
动态规划
值函数
记忆
遗忘算法
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机工程与应用
半月刊
1002-8331
11-2127/TP
大16开
北京619信箱26分箱
82-605
1964
chi
出版文献量(篇)
39068
总下载数(次)
102
总被引数(次)
390217
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导