基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
在深度学习领域中,模型的训练往往非常耗时,尤其是当模型较复杂时,分布式训练则是解决这个问题的一个主要方式.以往的案例中,用分布式训练神经网络能够得到非常好的加速效果,是因为采用了异步梯度下降法,但是这样会导致准确率下降.也有用同步梯度下降法来提升训练的准确率,但由于实际分布式的异构集群中各个计算节点的算力差距,会出现计算节点空闲等待的现象,使得模型的训练耗时十分不理想.采取改进同步梯度下降方法,通过设计新的样本分配机制,充分利用各个工作节点来加速模型训练.实验结果证明:所采取的方法在不降低准确率的情况下能够加快模型的训练速度.
推荐文章
一种等级化分布式时间同步算法
无线自组网
时分多址
分布式时间同步
时间参考节
分布式目标方位估计的一种改进算法
分布式目标
方位估计
谱峰搜索
一种基于密度的分布式聚类改进算法
聚类
分布式
数据挖掘
代表点
一种分布式查询优化算法
分布式查询
半连接
PERF连接
网络
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 一种改进的分布式同步梯度下降法
来源期刊 重庆理工大学学报(自然科学版) 学科
关键词 深度学习 模型训练 分布式 梯度下降
年,卷(期) 2021,(7) 所属期刊栏目 智能技术
研究方向 页码范围 139-145
页数 7页 分类号 TP18
字数 语种 中文
DOI 10.3969/j.issn.1674-8425(z).2021.07.017
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (1)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2020(1)
  • 参考文献(1)
  • 二级参考文献(0)
2021(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
深度学习
模型训练
分布式
梯度下降
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
重庆理工大学学报(自然科学版)
月刊
1674-8425
50-1205/T
重庆市九龙坡区杨家坪
chi
出版文献量(篇)
7998
总下载数(次)
17
总被引数(次)
41083
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导