基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
在强化学习中,当处于奖励分布稀疏的环境时,由于无法获得有效经验,智能体收敛速度和效率都会大幅下降.针对此类稀疏奖励,文中提出基于情感的异构多智能体强化学习方法.首先,建立基于个性的智能体情感模型,为异构多智能体提供激励机制,作为外部奖励的有效补充.然后,基于上述激励机制,融合深度确定性策略,提出稀疏奖励下基于内在情感激励机制的深度确定性策略梯度强化学习算法,加快智能体的收敛速度.最后,在多机器人追捕仿真实验平台上,构建不同难度等级的稀疏奖励情景,验证文中方法在追捕成功率和收敛速度上的有效性和优越性.
推荐文章
基于GAED-MADDPG多智能体强化学习的协作策略研究
强化学习
群体协作
深度学习
群体智慧
基于多智能体强化学习的多AGV路径规划方法
多智能体强化学习
AGV路径规划
独立强化学习
基于强化学习的多智能体协作方法研究
多智能体
协作系统
强化学习
多智能体强化学习在城市交通网络信号控制方法中的应用综述
智能交通
交通控制
多智能体强化学习
闭环反馈
联动协调
数据驱动
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 稀疏奖励下基于情感的异构多智能体强化学习
来源期刊 模式识别与人工智能 学科
关键词 强化学习 稀疏奖励 奖励机制 情感模型
年,卷(期) 2021,(3) 所属期刊栏目 “强化学习研究”|Research on Reinforcement Learning
研究方向 页码范围 223-231
页数 9页 分类号 TP391
字数 语种 中文
DOI 10.16451/j.cnki.issn1003-6059.202103004
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (61)
共引文献  (12)
参考文献  (6)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1935(1)
  • 参考文献(0)
  • 二级参考文献(1)
1985(1)
  • 参考文献(0)
  • 二级参考文献(1)
1990(1)
  • 参考文献(0)
  • 二级参考文献(1)
1993(2)
  • 参考文献(0)
  • 二级参考文献(2)
1996(1)
  • 参考文献(0)
  • 二级参考文献(1)
1998(1)
  • 参考文献(0)
  • 二级参考文献(1)
2003(1)
  • 参考文献(0)
  • 二级参考文献(1)
2004(2)
  • 参考文献(0)
  • 二级参考文献(2)
2005(2)
  • 参考文献(0)
  • 二级参考文献(2)
2006(3)
  • 参考文献(0)
  • 二级参考文献(3)
2007(1)
  • 参考文献(0)
  • 二级参考文献(1)
2008(1)
  • 参考文献(0)
  • 二级参考文献(1)
2009(5)
  • 参考文献(0)
  • 二级参考文献(5)
2010(5)
  • 参考文献(1)
  • 二级参考文献(4)
2011(4)
  • 参考文献(2)
  • 二级参考文献(2)
2012(3)
  • 参考文献(0)
  • 二级参考文献(3)
2013(6)
  • 参考文献(0)
  • 二级参考文献(6)
2014(7)
  • 参考文献(0)
  • 二级参考文献(7)
2015(9)
  • 参考文献(1)
  • 二级参考文献(8)
2016(3)
  • 参考文献(0)
  • 二级参考文献(3)
2017(4)
  • 参考文献(0)
  • 二级参考文献(4)
2018(2)
  • 参考文献(0)
  • 二级参考文献(2)
2019(2)
  • 参考文献(2)
  • 二级参考文献(0)
2021(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
强化学习
稀疏奖励
奖励机制
情感模型
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
模式识别与人工智能
月刊
1003-6059
34-1089/TP
16开
中国科学院合肥智能机械研究所安徽合肥董铺岛合肥1130信箱
26-69
1989
chi
出版文献量(篇)
2928
总下载数(次)
8
总被引数(次)
30919
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导