原文服务方: 科技与创新       
摘要:
强化方法是一种通过行为学习,得到最佳控制策略的方法.本文研究利用这种方法实现项目中超导悬浮车运动过程最佳停车问题.通过模型的建立,转化为求导系统的最优化问题;超导磁悬浮车的控制由于会受到电磁干扰、悬浮高度等的影响,用传统的方法求解控制方法将需要求得精确的控制模型;而利用Q-Learning 方法,通过多次样本的学习.寻求最佳的控制策略,则可求得在不同速度下的最佳控制策略.最后,使用Q-Learning方法的控制策略在仿真中得到了很好的效果,该控制方法将进一步应用于超导模型悬浮车的控制.
推荐文章
一种基于案例推理的多agent强化学习方法研究
多agent强化学习
Q学习
策略再用
基于案例的推理
追捕问题
利用聚类分析法改进的多Agent协作强化学习方法
多agent协作
强化学习
聚类分析
Friend-or-Foe
Q-学习
基于强化学习的电动车路径优化研究
车辆路径问题
电动车
多约束
强化学习
策略梯度法
组合优化
基于强化学习的移动边缘计算任务卸载方法
强化学习方法
Q-Learning算法
移动边缘
计算任务卸载
卸载模型
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于强化学习方法的悬浮车停车混合控制设计
来源期刊 科技与创新 学科
关键词 强化学习 混合控制系统 建模 最优化 高斯噪声
年,卷(期) 2008,(22) 所属期刊栏目 软件天地
研究方向 页码范围 287-288,106
页数 3页 分类号 TP332.1
字数 语种 中文
DOI 10.3969/j.issn.1008-0570.2008.22.118
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 裴海龙 7 75 4.0 7.0
2 LI Jian-qiang 1 1 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (9)
共引文献  (19)
参考文献  (4)
节点文献
引证文献  (1)
同被引文献  (0)
二级引证文献  (0)
1983(2)
  • 参考文献(0)
  • 二级参考文献(2)
1989(1)
  • 参考文献(0)
  • 二级参考文献(1)
1992(1)
  • 参考文献(0)
  • 二级参考文献(1)
1996(1)
  • 参考文献(0)
  • 二级参考文献(1)
1998(1)
  • 参考文献(0)
  • 二级参考文献(1)
1999(1)
  • 参考文献(1)
  • 二级参考文献(0)
2000(1)
  • 参考文献(0)
  • 二级参考文献(1)
2004(2)
  • 参考文献(1)
  • 二级参考文献(1)
2005(1)
  • 参考文献(0)
  • 二级参考文献(1)
2006(2)
  • 参考文献(2)
  • 二级参考文献(0)
2008(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2014(1)
  • 引证文献(1)
  • 二级引证文献(0)
研究主题发展历程
节点文献
强化学习
混合控制系统
建模
最优化
高斯噪声
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
科技与创新
半月刊
2095-6835
14-1369/N
大16开
2014-01-01
chi
出版文献量(篇)
41653
总下载数(次)
0
总被引数(次)
202805
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
广东省自然科学基金
英文译名:Guangdong Natural Science Foundation
官方网址:http://gdsf.gdstc.gov.cn/
项目类型:研究团队
学科类型:
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导