基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
给出了一种新的激励学习(RL)方法,它能够有效地解决一个状态与动作空间为连续的非线性控制问题.在实际的应用中,离散的RL方法能把许多非线性控制问题分解成几个局部线性控制作业.提供了一种由简单的线性控制器和Q-学习构成的层次性RL算法.连续状态-动作空间被形象地分成为一些格子,并且每个格子都有它自己的局部线性控制器.状态空间的隔离是处理维数问题的一种相当简单的方法,但是经常会引起非Markov效果,而局部线性控制器能弥补这个缺陷.
推荐文章
基于Q-学习算法的异常检测模型
网络安全
异常检测
模型
Q-学习算法
一个非线性二阶q-差分方程的边值问题的研究
存在性
q-差分方程
q-微分
q-积分
三点边值问题
基于改进Q-学习的导航知识获取算法研究
强化学习
Q-学习
探索区域扩张
模拟退火
神经网络
基于Q-学习算法的SAS与EPS协调控制仿真研究
Q-学习
半主动悬架
电动助力转向
协调控制
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于Q-学习的非线性控制
来源期刊 长沙电力学院学报(自然科学版) 学科 工学
关键词 激励学习(RL) 马尔科夫决策过程(MDP):Q-学习 非线性控制 局部线性控制器
年,卷(期) 2003,(1) 所属期刊栏目 电力·动力工程
研究方向 页码范围 35-38
页数 4页 分类号 TP181
字数 3217字 语种 中文
DOI 10.3969/j.issn.1673-9140.2003.01.012
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 陈焕文 长沙电力学院数学与计算机系 18 95 6.0 9.0
2 殷苌茗 长沙电力学院数学与计算机系 13 52 5.0 6.0
3 杨东 长沙电力学院数学与计算机系 3 2 1.0 1.0
4 吴柏森 长沙电力学院数学与计算机系 5 3 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (37)
共引文献  (11)
参考文献  (10)
节点文献
引证文献  (2)
同被引文献  (0)
二级引证文献  (0)
1983(1)
  • 参考文献(0)
  • 二级参考文献(1)
1988(6)
  • 参考文献(1)
  • 二级参考文献(5)
1992(7)
  • 参考文献(1)
  • 二级参考文献(6)
1995(1)
  • 参考文献(1)
  • 二级参考文献(0)
1996(8)
  • 参考文献(1)
  • 二级参考文献(7)
1998(3)
  • 参考文献(0)
  • 二级参考文献(3)
1999(3)
  • 参考文献(0)
  • 二级参考文献(3)
2000(3)
  • 参考文献(0)
  • 二级参考文献(3)
2001(12)
  • 参考文献(3)
  • 二级参考文献(9)
2002(3)
  • 参考文献(3)
  • 二级参考文献(0)
2003(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2005(1)
  • 引证文献(1)
  • 二级引证文献(0)
2007(1)
  • 引证文献(1)
  • 二级引证文献(0)
研究主题发展历程
节点文献
激励学习(RL)
马尔科夫决策过程(MDP):Q-学习
非线性控制
局部线性控制器
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
电力科学与技术学报
双月刊
1673-9140
43-1475/TM
大16开
长沙市雨花区万家丽南路960号
42-140
1986
chi
出版文献量(篇)
2073
总下载数(次)
3
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
论文1v1指导