基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
近年来,强化学习在游戏、机器人控制等序列决策领域都获得了巨大的成功,但是大量实际问题中奖励信号十分稀疏,导致智能体难以从与环境的交互中学习到最优的策略,这一问题被称为稀疏奖励问题.稀疏奖励问题的研究能够促进强化学习实际应用与落地,在强化学习理论研究中具有重要意义.本文调研了稀疏奖励问题的研究现状,以外部引导信息为线索,分别介绍了奖励塑造、模仿学习、课程学习、事后经验回放、好奇心驱动、分层强化学习等方法.本文在稀疏奖励环境Fetch Reach上实现了以上6类方法的代表性算法进行实验验证和比较分析.使用外部引导信息的算法平均表现好于无外部引导信息的算法,但是后者对数据的依赖性更低,两类方法均具有重要的研究意义.最后,本文对稀疏奖励算法研究进行了总结与展望.
推荐文章
深度强化学习复原多目标航迹的TOC奖励函数
深度强化学习
序贯决策
Q函数
轨迹密切圆
基于标签的强化学习推荐算法研究与应用
强化学习
推荐
标签
协同过滤
强化学习研究综述
强化学习
多智能体
马尔可夫决策过程
强化学习理论、算法及应用
强化学习
瞬时差分法
Q-学习
自适应启发评价
智能控制系统
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 强化学习稀疏奖励算法研究——理论与实验
来源期刊 智能系统学报 学科 工学
关键词 强化学习 深度强化学习 机器学习 稀疏奖励 神经网络 人工智能 深度学习
年,卷(期) 2020,(5) 所属期刊栏目 机器学习
研究方向 页码范围 888-899
页数 12页 分类号 TP181
字数 语种 中文
DOI 10.11992/tis.202003031
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 李秀 33 483 9.0 21.0
2 杨瑞 10 167 6.0 10.0
3 严江鹏 1 0 0.0 0.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (34)
共引文献  (12)
参考文献  (12)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1952(1)
  • 参考文献(0)
  • 二级参考文献(1)
1957(1)
  • 参考文献(0)
  • 二级参考文献(1)
1992(2)
  • 参考文献(1)
  • 二级参考文献(1)
1993(1)
  • 参考文献(1)
  • 二级参考文献(0)
1997(1)
  • 参考文献(0)
  • 二级参考文献(1)
1999(3)
  • 参考文献(1)
  • 二级参考文献(2)
2000(1)
  • 参考文献(0)
  • 二级参考文献(1)
2002(1)
  • 参考文献(0)
  • 二级参考文献(1)
2003(3)
  • 参考文献(0)
  • 二级参考文献(3)
2004(1)
  • 参考文献(0)
  • 二级参考文献(1)
2008(2)
  • 参考文献(1)
  • 二级参考文献(1)
2009(1)
  • 参考文献(0)
  • 二级参考文献(1)
2012(1)
  • 参考文献(0)
  • 二级参考文献(1)
2013(2)
  • 参考文献(0)
  • 二级参考文献(2)
2015(5)
  • 参考文献(1)
  • 二级参考文献(4)
2016(3)
  • 参考文献(1)
  • 二级参考文献(2)
2017(7)
  • 参考文献(3)
  • 二级参考文献(4)
2018(5)
  • 参考文献(0)
  • 二级参考文献(5)
2019(4)
  • 参考文献(2)
  • 二级参考文献(2)
2020(1)
  • 参考文献(1)
  • 二级参考文献(0)
2020(1)
  • 参考文献(1)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
强化学习
深度强化学习
机器学习
稀疏奖励
神经网络
人工智能
深度学习
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
智能系统学报
双月刊
1673-4785
23-1538/TP
大16开
哈尔滨市南岗区南通大街145-1号楼
2006
chi
出版文献量(篇)
2770
总下载数(次)
11
总被引数(次)
12401
论文1v1指导