基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
随着深度学习的快速发展,其规模越来越大,需要的计算越来越复杂.分布式扩展技术可以有效提高大规模数据的处理能力.基于神威太湖之光超算平台对深度学习框架Caffe进行分布式扩展研究,对比同步方式下参数服务器分布式扩展方法和去中心化的分布式扩展方法.实验表明,同步方式下,去中心化的分布式扩展方法相比参数服务器分布式扩展方法在通信效率方面具有明显的优势,对特定的模型通信性能提高可达98倍.
推荐文章
基于神威太湖之光的NAMD软件的移植与优化
分子动力学模拟
神威超级计算机
异构多核处理器
基于神威·太湖之光的非结构网格众核优化技术
离散访存
非结构网格
通量计算
异构众核优化
并行排序
LQCD Dslash在神威·太湖之光上的研究分析与MPI实现
格点量子色动力学(LQCD)
Dslash
消息传递接口(MPI)
神威·太湖之光
众核芯片
一种面向神威·太湖之光的通用并行卷积算法
神威·太湖之光
卷积神经网络
数据重用
软件流水
批量受限
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于"神威太湖之光"的Caffe分布式扩展研究
来源期刊 计算机应用与软件 学科 工学
关键词 深度学习 分布式优化 Caffe 神威太湖之光
年,卷(期) 2020,(1) 所属期刊栏目 软件技术与研究
研究方向 页码范围 15-20
页数 6页 分类号 TP311.52
字数 4908字 语种 中文
DOI 10.3969/j.issn.1000-386x.2020.01.003
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 刘鑫 19 73 5.0 8.0
2 朱传家 1 1 1.0 1.0
3 方佳瑞 清华大学计算机科学与技术系 1 1 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (5)
参考文献  (3)
节点文献
引证文献  (1)
同被引文献  (1)
二级引证文献  (0)
1986(1)
  • 参考文献(1)
  • 二级参考文献(0)
2015(1)
  • 参考文献(1)
  • 二级参考文献(0)
2017(1)
  • 参考文献(1)
  • 二级参考文献(0)
2020(1)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(1)
  • 二级引证文献(0)
2020(1)
  • 引证文献(1)
  • 二级引证文献(0)
研究主题发展历程
节点文献
深度学习
分布式优化
Caffe
神威太湖之光
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机应用与软件
月刊
1000-386X
31-1260/TP
大16开
上海市愚园路546号
4-379
1984
chi
出版文献量(篇)
16532
总下载数(次)
47
总被引数(次)
101489
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导