基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
对于冲突博弈,研究了一种理性保守的行为选择方法,即最小化最坏情况下Agent的后悔值.在该方法下,Agent当前的行为策略在未来可能造成的损失最小,并且在没有任何其他Agent 信息的条件下,能够得到Nash均衡混合策略.基于后悔值提出了多Agent复杂环境下冲突博弈的强化学习模型以及算法实现.该模型中通过引入交叉熵距离建立信念更新过程,进一步优化了冲突博弈时的行为选择策略.基于Markov重复博弈模型验证了算法的收敛性,分析了信念与最优策略的关系.此外,与MMDP(multi-agent markov decision process)下Q学习扩展算法相比,该算法在很大程度上减少了冲突发生的次数,增强了Agent行为的协调性,并且提高了系统的性能,有利于维持系统的稳定.
推荐文章
基于博弈强化学习的多智能体协作行为寻优
多Agent博弈
动态协作寻优
改进Pareto-Q
收益分配
基于随机博弈的Agent协同强化学习方法
强化学习
多agent系统
随机博弈
协作
一种基于案例推理的多agent强化学习方法研究
多agent强化学习
Q学习
策略再用
基于案例的推理
追捕问题
利用聚类分析法改进的多Agent协作强化学习方法
多agent协作
强化学习
聚类分析
Friend-or-Foe
Q-学习
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于后悔值的多Agent冲突博弈强化学习模型
来源期刊 软件学报 学科 工学
关键词 Markov对策 强化学习 冲突博弈 冲突消解
年,卷(期) 2008,(11) 所属期刊栏目 模式识别与人工智能
研究方向 页码范围 2957-2967
页数 11页 分类号 TP18
字数 9121字 语种 中文
DOI
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 张世永 复旦大学计算机与信息技术系 130 2402 24.0 46.0
2 肖正 复旦大学计算机与信息技术系 6 81 4.0 6.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (4)
共引文献  (25)
参考文献  (4)
节点文献
引证文献  (9)
同被引文献  (10)
二级引证文献  (29)
1992(1)
  • 参考文献(0)
  • 二级参考文献(1)
1998(1)
  • 参考文献(0)
  • 二级参考文献(1)
2000(2)
  • 参考文献(1)
  • 二级参考文献(1)
2002(1)
  • 参考文献(1)
  • 二级参考文献(0)
2003(1)
  • 参考文献(0)
  • 二级参考文献(1)
2005(2)
  • 参考文献(2)
  • 二级参考文献(0)
2008(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2010(1)
  • 引证文献(1)
  • 二级引证文献(0)
2011(2)
  • 引证文献(2)
  • 二级引证文献(0)
2012(2)
  • 引证文献(2)
  • 二级引证文献(0)
2013(1)
  • 引证文献(0)
  • 二级引证文献(1)
2014(2)
  • 引证文献(2)
  • 二级引证文献(0)
2015(8)
  • 引证文献(2)
  • 二级引证文献(6)
2016(4)
  • 引证文献(0)
  • 二级引证文献(4)
2017(4)
  • 引证文献(0)
  • 二级引证文献(4)
2018(7)
  • 引证文献(0)
  • 二级引证文献(7)
2019(6)
  • 引证文献(0)
  • 二级引证文献(6)
2020(1)
  • 引证文献(0)
  • 二级引证文献(1)
研究主题发展历程
节点文献
Markov对策
强化学习
冲突博弈
冲突消解
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
软件学报
月刊
1000-9825
11-2560/TP
16开
北京8718信箱
82-367
1990
chi
出版文献量(篇)
5820
总下载数(次)
36
总被引数(次)
226394
论文1v1指导