基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
把POMDP作为激励学习(Reinforcement Learning)问题的模型,对于具有大状态空间问题的求解有比较好的适应性和有效性.但由于其求解的难度远远地超过了一般的Markov决策过程(MDP)的求解,因此还有许多问题有待解决.该文基于这样的背景,在给定一些特殊的约束条件下提出的一种求解POMDP的方法,即求解POMDP的动态合并激励学习算法.该方法利用区域的概念,在环境状态空间上建立一个区域系统,Agent在区域系统的每个区域上独自并行地实现其最优目标,加快了运算速度.然后把各组成部分的最优值函数按一定的方式整合,最后得出POMDP的最优解.
推荐文章
基于观测的POMDP优化算法及其仿真
部分可观测马尔可夫决策过程(POMDP)
灵敏度分析
优化
仿真
基于动态规划方法的激励学习遗忘算法
激励学习
Markov决策过程
动态规划
值函数
记忆
遗忘算法
基于实例的POMDP问题的近似求解
基于实例的方法
部分可观察马尔可夫决策过程(POMDP)
启发式求解
增强学习
最近邻
局部加权回归
一种求解过程动态优化问题的生物地理学习粒子群算法
全局优化
动态学
算法
控制向量参数化
生物地理学习粒子群算法
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 求解POMDP的动态合并激励学习算法
来源期刊 计算机工程 学科 工学
关键词 部分可观测Markov决策过程 激励学习 动态合并 信度状态
年,卷(期) 2005,(22) 所属期刊栏目 博士论文
研究方向 页码范围 4-6,148
页数 4页 分类号 TP182
字数 5718字 语种 中文
DOI 10.3969/j.issn.1000-3428.2005.22.002
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 殷苌茗 上海大学理学院 17 95 6.0 9.0
3 陈焕文 长沙理工大学计算机与通信工程学院 14 56 5.0 6.0
4 王汉兴 上海大学理学院 31 396 9.0 19.0
5 谢丽娟 长沙理工大学计算机与通信工程学院 18 50 4.0 6.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (3)
同被引文献  (0)
二级引证文献  (0)
2005(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2008(1)
  • 引证文献(1)
  • 二级引证文献(0)
2009(1)
  • 引证文献(1)
  • 二级引证文献(0)
2017(1)
  • 引证文献(1)
  • 二级引证文献(0)
研究主题发展历程
节点文献
部分可观测Markov决策过程
激励学习
动态合并
信度状态
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机工程
月刊
1000-3428
31-1289/TP
大16开
上海市桂林路418号
4-310
1975
chi
出版文献量(篇)
31987
总下载数(次)
53
总被引数(次)
317027
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导