基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
利用Q-学习算法,针对模型未知只有数据可用的非线性被控对象,解决最优镇定控制问题.由于状态空间和控制空间的连续性,Q-学习只能以近似的方式实现.因此,文中提出的近似Q-学习算法只能获得一个次优控制器.尽管求得的控制器只是次优,但是仿真研究表明,对于强非线性被控对象,相比线性二次型调节器和深度确定性梯度下降方法,文中方法的闭环吸引域更宽广,实际指标函数也更小.
推荐文章
基于数据驱动和深度强化学习的孤岛多风柴电压控制研究
孤岛多风柴系统
双馈感应发电机(DFIG)
深度强化学习
附加智能电压控制器
动态稳定性
基于增强学习控制器的仿生水下机器人姿态镇定研究
增强学习控制器
仿生水下机器人
姿态镇定
仿真机器人足球中的强化学习
仿真机器人足球
强化学习
多主体系统
基于改进强化学习的PID参数整定原理及应用
PID
参数整定
强化学习
控制系统
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于强化学习的数据驱动最优镇定控制及仿真
来源期刊 模式识别与人工智能 学科 工学
关键词 Q-学习 数据驱动 最优控制 吸引域
年,卷(期) 2019,(4) 所属期刊栏目 研究与应用
研究方向 页码范围 345-352
页数 8页 分类号 TP273+.1
字数 7661字 语种 中文
DOI 10.16451/j.cnki.issn1003-6059.201904007
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 冯远静 浙江工业大学信息工程学院 34 344 11.0 18.0
2 李永强 浙江工业大学信息工程学院 12 27 4.0 4.0
3 陆超伦 浙江工业大学信息工程学院 1 0 0.0 0.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (10)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2009(2)
  • 参考文献(2)
  • 二级参考文献(0)
2012(1)
  • 参考文献(1)
  • 二级参考文献(0)
2014(1)
  • 参考文献(1)
  • 二级参考文献(0)
2015(3)
  • 参考文献(3)
  • 二级参考文献(0)
2016(1)
  • 参考文献(1)
  • 二级参考文献(0)
2017(1)
  • 参考文献(1)
  • 二级参考文献(0)
2018(1)
  • 参考文献(1)
  • 二级参考文献(0)
2019(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
Q-学习
数据驱动
最优控制
吸引域
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
模式识别与人工智能
月刊
1003-6059
34-1089/TP
16开
中国科学院合肥智能机械研究所安徽合肥董铺岛合肥1130信箱
26-69
1989
chi
出版文献量(篇)
2928
总下载数(次)
8
总被引数(次)
30919
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导