基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
随机梯度下降算法(SGD)随机使用一个样本估计梯度,造成较大的方差,使机器学习模型收敛减慢且训练不稳定。该文提出一种基于方差缩减的分布式SGD,命名为DisSAGD。该方法采用历史梯度平均方差缩减来更新机器学习模型中的参数,不需要完全梯度计算或额外存储,而是通过使用异步通信协议来共享跨节点的参数。为了解决全局参数分发存在的“更新滞后”问题,该文采用具有加速因子的学习速率和自适应采样策略:一方面当参数偏离最优值时,增大加速因子,加快收敛速度;另一方面,当一个工作节点比其他工作节点快时,为下一次迭代采样更多样本,使工作节点有更多时间来计算局部梯度。实验表明:DisSAGD显著减少了循环迭代的等待时间,加速了算法的收敛,其收敛速度比对照方法更快,在分布式集群中可以获得近似线性的加速。
推荐文章
击键认证模板的双更新方法
击键动态
击键认证
模板更新
容忍半径
一种基于GPRS无线信道的程序在线更新方法
遥测系统
补包机制
GPRS无线信道
程序在线更新
一种基于扩展XQuery的XML文档更新方法
XML查询语言
XML更新操作
XQuery
XML Schema
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于历史梯度平均方差缩减的协同参数更新方法
来源期刊 电子与信息学报 学科
关键词 梯度下降 机器学习 分布式集群 自适应采样 方差缩减
年,卷(期) 2021,(4) 所属期刊栏目
研究方向 页码范围 956-964
页数 9页 分类号 TN911.7; TP391
字数 语种 中文
DOI 10.11999/JEIT200061
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2021(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
梯度下降
机器学习
分布式集群
自适应采样
方差缩减
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
电子与信息学报
月刊
1009-5896
11-4494/TN
大16开
北京市北四环西路19号
2-179
1979
chi
出版文献量(篇)
9870
总下载数(次)
11
总被引数(次)
95911
论文1v1指导