基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
DDPG算法是一种端到端的深度强化学习算法,主要用于解决仿真任务.DDPG能够在具有高维度动作空间的任务中取得接近人类的水平,然而当任务的复杂性提高时,DDPG存在收敛时间长和最终效果差的问题.为了提高在复杂任务环境中算法的收敛速度和最终效果,提出一种基于间歇控制框架的层级深度确定性策略梯度算法(HDDPG)用于完成仿真任务.首先在间歇控制原则下对复杂的任务进行策略上的分解,分解后的子任务间具有层级的架构和较为单一的优化目标,然后在最小转换原则下使用DDPG算法针对多个层级任务寻找最优解.使用DDPG和HDDPG算法分别在轨迹追踪仿真任务中进行对比实验,实验结果证明在复杂连续运动控制任务上HDDPG相对DDPG算法具有更快的收敛速度和更好的实验结果.
推荐文章
基于深度强化学习的图像修复算法设计
图像修复
机器学习
深度强化学习
大数据
自相似
关联性
基于深度强化学习的服务功能链映射算法
网络功能虚拟化
服务功能链
深度强化学习
网络时延
网络运维开销
基于策略记忆的深度强化学习序列推荐算法研究
推荐系统
强化学习
策略网络
注意力机制
磁导航AGV深度强化学习路径跟踪控制方法
自动导引车
路径跟踪
强化学习
深度强化学习
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于层级深度强化学习的间歇控制算法
来源期刊 现代计算机 学科
关键词 DDPG HDDPG 运动控制 确定性策略梯度 强化学习 间歇控制
年,卷(期) 2018,(35) 所属期刊栏目 研究与开发
研究方向 页码范围 3-7
页数 5页 分类号
字数 3959字 语种 中文
DOI 10.3969/j.issn.1007-1423.2018.35.002
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 孙杳如 同济大学电子与信息工程学院计算机科学与技术系 7 6 2.0 2.0
2 李广源 同济大学电子与信息工程学院计算机科学与技术系 2 0 0.0 0.0
3 史海波 同济大学电子与信息工程学院计算机科学与技术系 2 0 0.0 0.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (3)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1994(1)
  • 参考文献(1)
  • 二级参考文献(0)
2004(1)
  • 参考文献(1)
  • 二级参考文献(0)
2008(1)
  • 参考文献(1)
  • 二级参考文献(0)
2018(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
DDPG
HDDPG
运动控制
确定性策略梯度
强化学习
间歇控制
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
现代计算机
旬刊
1007-1423
44-1415/TP
16开
广东省广州市
46-121
1984
chi
出版文献量(篇)
11312
总下载数(次)
39
总被引数(次)
33178
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导