基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
在深度强化学习领域,如何有效地探索环境是一个难题.深度Q网络(Deep Q-Network,DQN)使用ε-贪婪策略来探索环境,ε的大小和衰减需要人工进行调节,而调节不当会导致性能变差.这种探索策略不够高效,不能有效解决深度探索问题.针对DQN的ε-贪婪策略探索效率不够高的问题,提出一种基于平均神经网络参数的DQN算法(Averaged Parameters DQN,AP-DQN).该算法在回合开始时,将智能体之前学习到的多个在线值网络参数进行平均,得到一个扰动神经网络参数,然后通过扰动神经网络进行动作选择,从而提高智能体的探索效率.实验结果表明,AP-DQN算法在面对深度探索问题时的探索效率优于DQN,在5个Atari游戏环境中相比DQN获得了更高的平均每回合奖励,归一化后的得分相比DQN最多提升了112.50%,最少提升了19.07%.
推荐文章
蚁群算法选择神经网络参数的网络入侵检测
网络安全
神经网络
参数优化
蚁群算法
入侵检测分类器
蚁群算法选择神经网络参数的网络入侵检测
网络安全
非法用户
入侵检测
蚁群算法
蚁群算法选择神经网络参数的网络入侵检测
网络入侵检测
蚁群算法
神经网络
参数选择
数据采集
入侵检测模型
结果分析
基于神经网络的 EDM工艺参数选择研究
EDM
工艺参数选择
神经网络
数据预处理
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于平均神经网络参数的DQN算法
来源期刊 计算机科学 学科
关键词 深度强化学习 深度Q网络 神经网络参数 深度探索
年,卷(期) 2021,(4) 所属期刊栏目 人工智能|Artificial Intelligence
研究方向 页码范围 223-228
页数 6页 分类号 TP181
字数 语种 中文
DOI 10.11896/jsjkx.200600177
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (58)
共引文献  (37)
参考文献  (7)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1992(1)
  • 参考文献(1)
  • 二级参考文献(0)
1994(2)
  • 参考文献(0)
  • 二级参考文献(2)
1997(4)
  • 参考文献(0)
  • 二级参考文献(4)
1998(3)
  • 参考文献(0)
  • 二级参考文献(3)
1999(1)
  • 参考文献(0)
  • 二级参考文献(1)
2002(1)
  • 参考文献(0)
  • 二级参考文献(1)
2003(2)
  • 参考文献(0)
  • 二级参考文献(2)
2004(3)
  • 参考文献(0)
  • 二级参考文献(3)
2005(2)
  • 参考文献(0)
  • 二级参考文献(2)
2006(1)
  • 参考文献(0)
  • 二级参考文献(1)
2007(2)
  • 参考文献(1)
  • 二级参考文献(1)
2008(1)
  • 参考文献(0)
  • 二级参考文献(1)
2009(2)
  • 参考文献(0)
  • 二级参考文献(2)
2010(6)
  • 参考文献(0)
  • 二级参考文献(6)
2011(3)
  • 参考文献(0)
  • 二级参考文献(3)
2013(8)
  • 参考文献(1)
  • 二级参考文献(7)
2014(9)
  • 参考文献(0)
  • 二级参考文献(9)
2015(8)
  • 参考文献(1)
  • 二级参考文献(7)
2016(1)
  • 参考文献(0)
  • 二级参考文献(1)
2017(2)
  • 参考文献(1)
  • 二级参考文献(1)
2018(2)
  • 参考文献(1)
  • 二级参考文献(1)
2019(1)
  • 参考文献(1)
  • 二级参考文献(0)
2021(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
深度强化学习
深度Q网络
神经网络参数
深度探索
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机科学
月刊
1002-137X
50-1075/TP
大16开
重庆市渝北区洪湖西路18号
78-68
1974
chi
出版文献量(篇)
18527
总下载数(次)
68
论文1v1指导