基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
针对强化学习算法收敛速度慢、奖赏函数的设计需要改进的问题,提出一种新的强化学习算法.新算法使用行动分值作为智能行为者选择动作的依据.行动分值比传统的状态值具有更高的灵活性,因此更容易针对行动分值设计更加优化的奖赏函数,提高学习的性能.以行动分值为基础,使用了指数函数和对数函数,动态确定奖赏值与折扣系数,加快行为者选择最优动作.从走迷宫的计算机仿真程序可以看出,新算法显著减少了行为者在收敛前尝试中执行的动作次数,提高了收敛速度.
推荐文章
基于平均奖赏强化学习算法的零阶分类元系统
平均奖赏
强化学习
R-学习算法
学习分类元系统(LCS)
零阶分类元系统(ZCS)
多步学习问题
基于生成对抗网络的最大熵逆强化学习
生成对抗网络(GAN)
逆强化学习
最大熵
基于强化学习的模型选择和超参数优化
深度强化学习
超参数优化
LSTM网络
机器学习
模型选择
最小状态变元平均奖赏的强化学习方法
强化学习
平均奖赏
俄罗斯方块
最小状态
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于行动分值的强化学习与奖赏优化
来源期刊 同济大学学报(自然科学版) 学科 工学
关键词 强化学习 行动分值 Q算法 奖赏函数
年,卷(期) 2007,(4) 所属期刊栏目 电子电气与控制工程
研究方向 页码范围 531-536
页数 6页 分类号 TP181
字数 5498字 语种 中文
DOI 10.3321/j.issn:0253-374X.2007.04.021
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 陈启军 同济大学控制科学与工程系 116 1012 17.0 26.0
2 肖云伟 同济大学控制科学与工程系 2 6 2.0 2.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (7)
共引文献  (16)
参考文献  (5)
节点文献
引证文献  (4)
同被引文献  (4)
二级引证文献  (0)
1978(1)
  • 参考文献(0)
  • 二级参考文献(1)
1991(1)
  • 参考文献(0)
  • 二级参考文献(1)
1992(1)
  • 参考文献(1)
  • 二级参考文献(0)
1996(1)
  • 参考文献(0)
  • 二级参考文献(1)
1999(3)
  • 参考文献(1)
  • 二级参考文献(2)
2001(2)
  • 参考文献(1)
  • 二级参考文献(1)
2002(1)
  • 参考文献(0)
  • 二级参考文献(1)
2004(1)
  • 参考文献(1)
  • 二级参考文献(0)
2005(1)
  • 参考文献(1)
  • 二级参考文献(0)
2007(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2008(1)
  • 引证文献(1)
  • 二级引证文献(0)
2009(1)
  • 引证文献(1)
  • 二级引证文献(0)
2019(2)
  • 引证文献(2)
  • 二级引证文献(0)
研究主题发展历程
节点文献
强化学习
行动分值
Q算法
奖赏函数
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
同济大学学报(自然科学版)
月刊
0253-374X
31-1267/N
大16开
上海四平路1239号
4-260
1956
chi
出版文献量(篇)
6707
总下载数(次)
15
总被引数(次)
105464
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导