基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
在 RoboCup Keepaway 任务训练中,传统手工抢球策略的主观性强,对训练情形变化的适应性差,导致抢球球员任务完成时间长、抢断成功率低。针对这一问题,将强化学习应用于 Keepaway 中抢球球员的高层动作决策。通过对抢球任务特点的分析,合理设计了抢球球员强化学习模型的状态空间、动作空间及回报值,并给出了抢球球员的强化学习算法。实验结果表明经强化学习后,抢球球员能够根据比赛情形做出更客观的决策,决策效果显著优于手工策略。对于4v3和5v4规模的典型 Keepaway 任务,抢球球员采用学习后的策略决策时,抢球任务完成时间至少缩短了7.1%,抢断成功率至少提升了15.0%。
推荐文章
分布式强化学习在RoboCup中的应用
强化学习
分布式强化学习
Agent
RoboCup
基于联合强化学习的RoboCup-2D传球策略
多智能体系统
联合Q学习算法
RoboCup-2D
球场状态分解法
基于个性的群体强化学习算法
个性
Agent
群体强化学习
RoboCup
分布式强化学习在RoboCup中的应用
强化学习
分布式强化学习
Agent
RoboCup
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于强化学习的 RoboCup Keepaway 高层抢球策略
来源期刊 计算机应用与软件 学科 工学
关键词 机器人足球 Keepaway 强化学习 抢球策略
年,卷(期) 2015,(10) 所属期刊栏目 应用技术与研究
研究方向 页码范围 101-104
页数 4页 分类号 TP3
字数 5945字 语种 中文
DOI 10.3969/j.issn.1000-386x.2015.10.022
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 李龙澍 安徽大学计算机科学与技术学院 199 1780 21.0 29.0
2 李学俊 安徽大学计算机科学与技术学院 58 392 12.0 17.0
3 张以文 安徽大学计算机科学与技术学院 45 260 9.0 14.0
4 陈士洋 安徽大学计算机科学与技术学院 3 6 2.0 2.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (19)
共引文献  (14)
参考文献  (8)
节点文献
引证文献  (2)
同被引文献  (0)
二级引证文献  (0)
1992(2)
  • 参考文献(0)
  • 二级参考文献(2)
1995(1)
  • 参考文献(0)
  • 二级参考文献(1)
1996(1)
  • 参考文献(0)
  • 二级参考文献(1)
1998(1)
  • 参考文献(0)
  • 二级参考文献(1)
1999(1)
  • 参考文献(0)
  • 二级参考文献(1)
2000(1)
  • 参考文献(0)
  • 二级参考文献(1)
2001(1)
  • 参考文献(0)
  • 二级参考文献(1)
2002(1)
  • 参考文献(0)
  • 二级参考文献(1)
2004(1)
  • 参考文献(0)
  • 二级参考文献(1)
2005(3)
  • 参考文献(2)
  • 二级参考文献(1)
2006(3)
  • 参考文献(0)
  • 二级参考文献(3)
2007(2)
  • 参考文献(0)
  • 二级参考文献(2)
2008(2)
  • 参考文献(0)
  • 二级参考文献(2)
2009(3)
  • 参考文献(2)
  • 二级参考文献(1)
2010(2)
  • 参考文献(2)
  • 二级参考文献(0)
2011(1)
  • 参考文献(1)
  • 二级参考文献(0)
2012(1)
  • 参考文献(1)
  • 二级参考文献(0)
2015(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2016(1)
  • 引证文献(1)
  • 二级引证文献(0)
2017(1)
  • 引证文献(1)
  • 二级引证文献(0)
研究主题发展历程
节点文献
机器人足球
Keepaway
强化学习
抢球策略
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机应用与软件
月刊
1000-386X
31-1260/TP
大16开
上海市愚园路546号
4-379
1984
chi
出版文献量(篇)
16532
总下载数(次)
47
总被引数(次)
101489
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导