作者:
基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
多Agent强化学习(MARL)是强化学习(RL)在多Agent环境中的推广.其中,NashQ学习算法是一个里程碑式的贡献.然而NashQ存在着3点不足:①Nash平衡的"混合策略"思想在MARL中的意义不明确;②一个博弈的Nash平衡可能不是Pareto最优的;③Nash平衡的计算比较复杂.这3点不足都来源于"Agent是Nash理性的"这一假设.一个称为"MetaQ"的多Agent Q学习算法以元博弈理论为基础,通过改变Agent的理性来避免所有的这些不足.研究证明,MetaQ算法具有很好的理论解释和实验性能.
推荐文章
基于博弈强化学习的多智能体协作行为寻优
多Agent博弈
动态协作寻优
改进Pareto-Q
收益分配
利用聚类分析法改进的多Agent协作强化学习方法
多agent协作
强化学习
聚类分析
Friend-or-Foe
Q-学习
基于强化学习的多移动Agent学习算法
强化学习
移动Agent
学习
学习算法
基于随机博弈的Agent协同强化学习方法
强化学习
多agent系统
随机博弈
协作
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 元博弈平衡和多Agent强化学习的MetaQ算法
来源期刊 计算机研究与发展 学科 工学
关键词 强化学习 多Agent系统 元博弈 MetaQ
年,卷(期) 2006,(z1) 所属期刊栏目 Agent学习与规划
研究方向 页码范围 137-141
页数 5页 分类号 TP18
字数 3694字 语种 中文
DOI
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 高阳 南京大学软件新技术国家重点实验室 77 1645 20.0 39.0
2 王皓 南京大学软件新技术国家重点实验室 21 164 6.0 12.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (2)
同被引文献  (19)
二级引证文献  (71)
2006(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2011(2)
  • 引证文献(2)
  • 二级引证文献(0)
2012(4)
  • 引证文献(0)
  • 二级引证文献(4)
2013(6)
  • 引证文献(0)
  • 二级引证文献(6)
2014(8)
  • 引证文献(0)
  • 二级引证文献(8)
2015(11)
  • 引证文献(0)
  • 二级引证文献(11)
2016(11)
  • 引证文献(0)
  • 二级引证文献(11)
2017(11)
  • 引证文献(0)
  • 二级引证文献(11)
2018(13)
  • 引证文献(0)
  • 二级引证文献(13)
2019(4)
  • 引证文献(0)
  • 二级引证文献(4)
2020(3)
  • 引证文献(0)
  • 二级引证文献(3)
研究主题发展历程
节点文献
强化学习
多Agent系统
元博弈
MetaQ
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机研究与发展
月刊
1000-1239
11-1777/TP
大16开
北京中关村科学院南路6号
2-654
1958
chi
出版文献量(篇)
7553
总下载数(次)
35
总被引数(次)
164870
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导