基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
针对动态环境下强化学习对未知动作的探索和已知最优动作的利用之间难以平衡的问题,提出了一种数据驱动Q-学习算法.该算法首先构建智能体的行为信息系统,通过行为信息系统知识的不确定性建立环境触发机制;依据跟踪环境变化的动态信息,触发机制自适应控制对新环境的探索,使算法对未知动作的探索和已知最优动作的利用达到平衡.用于动态环境下迷宫导航问题的仿真结果表明,该算法达到目标的平均步长比Q-学习算法、模拟退火Q-学习算法和基于探测刷新Q-学习算法缩短了7.79%~84.7%.
推荐文章
基于Q-学习算法的异常检测模型
网络安全
异常检测
模型
Q-学习算法
基于改进Q-学习的导航知识获取算法研究
强化学习
Q-学习
探索区域扩张
模拟退火
神经网络
基于人工情感的Q-学习算法在机器人行为决策中的应用
强化学习
Q-学习算法
人工情感
机器人
最优控制策略
基于Q-学习算法的SAS与EPS协调控制仿真研究
Q-学习
半主动悬架
电动助力转向
协调控制
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 动态环境下数据驱动Q-学习算法
来源期刊 西南交通大学学报 学科 工学
关键词 强化学习 数据驱动 Q-学习 不确定性
年,卷(期) 2009,(6) 所属期刊栏目
研究方向 页码范围 877-881
页数 5页 分类号 TP393
字数 4190字 语种 中文
DOI 10.3969/j.issn.0258-2724.2009.06.014
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 王国胤 西南交通大学信息科学与技术学院 212 6947 36.0 79.0
5 申元霞 西南交通大学信息科学与技术学院 8 125 6.0 8.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (11)
共引文献  (151)
参考文献  (3)
节点文献
引证文献  (1)
同被引文献  (0)
二级引证文献  (0)
1959(1)
  • 参考文献(0)
  • 二级参考文献(1)
1991(1)
  • 参考文献(0)
  • 二级参考文献(1)
1992(3)
  • 参考文献(0)
  • 二级参考文献(3)
1994(1)
  • 参考文献(0)
  • 二级参考文献(1)
1998(2)
  • 参考文献(0)
  • 二级参考文献(2)
1999(1)
  • 参考文献(0)
  • 二级参考文献(1)
2001(1)
  • 参考文献(0)
  • 二级参考文献(1)
2003(1)
  • 参考文献(0)
  • 二级参考文献(1)
2004(2)
  • 参考文献(2)
  • 二级参考文献(0)
2007(1)
  • 参考文献(1)
  • 二级参考文献(0)
2009(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2016(1)
  • 引证文献(1)
  • 二级引证文献(0)
研究主题发展历程
节点文献
强化学习
数据驱动
Q-学习
不确定性
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
西南交通大学学报
双月刊
0258-2724
51-1277/U
大16开
四川省成都市二环路北一段
62-104
1954
chi
出版文献量(篇)
3811
总下载数(次)
4
总被引数(次)
51589
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
重庆市自然科学基金
英文译名:
官方网址:http://law.ddvip.com/law/2006-09/11584979384040.html
项目类型:重点项目
学科类型:
论文1v1指导