基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
机器学习问题通常会转换成一个目标函数进行求解,优化算法是求解目标函数中参数的重要工具.随机梯度下降(stochastic gradient descent,SGD)是目前应用最广的算法,因其易受噪声干扰只能达到次线性收敛率,而改进后的随机方差消减梯度法(stochastic variance reduction gradient,SVRG)则可以达到线性的收敛率.SVRG是一种串行单机版算法,为了应对大规模数据集分布式训练问题,设计一种以SVRG算法思想为基础的分布式SVRG的实现算法topkSVRG.改进在于:主节点维护一个全局模型,从节点基于本地数据进行局部模型更新.每轮迭代时,选择与当前全局模型距离最小的k个局部模型进行平均来更新全局模型,参数k调大可以提高收敛速度,调小k可以保证收敛.理论分析了算法的线性收敛性,基于Spark进行算法实现,通过与Mini-Batch SGD、CoCoA、Splash及相关算法的实验比较,topkSVRG可以在高精度要求下更快地收敛.
推荐文章
一种带随机偏差的分布式信息融合滤波算法
随机偏差
分布式
信息融合
滤波
噪声
加权
基于无偏最小方差估计算法的分布式CFAR检测
检测
分布式恒虚警
无偏最小方差估计
基于随机加速对偶下降算法的分布式网络流量优化
加速对偶下降算法
随机加速对偶下降(ADD)算法
网络优化
收敛速率
基于随机梯度下降算法的公安视频侦查图像修复
视频侦查
图像情报
随机梯度下降
修复算法
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 分布式随机方差消减梯度下降算法topkSVRG
来源期刊 计算机科学与探索 学科 工学
关键词 机器学习 优化 随机梯度下降(SGD) 随机方差消减梯度法(SVRG) 分布式计算
年,卷(期) 2018,(7) 所属期刊栏目 学术研究
研究方向 页码范围 1047-1054
页数 8页 分类号 TP181
字数 5013字 语种 中文
DOI 10.3778/j.issn.1673-9418.1705044
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 刘杰 中国科学院软件研究所软件工程技术研发中心 218 1905 24.0 36.0
2 叶丹 中国科学院软件研究所软件工程技术研发中心 26 397 10.0 19.0
3 王建飞 中国科学院软件研究所软件工程技术研发中心 9 197 6.0 9.0
7 亢良伊 中国科学院软件研究所软件工程技术研发中心 2 24 2.0 2.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (2)
节点文献
引证文献  (4)
同被引文献  (7)
二级引证文献  (6)
1999(1)
  • 参考文献(1)
  • 二级参考文献(0)
2011(1)
  • 参考文献(1)
  • 二级参考文献(0)
2018(1)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(1)
  • 二级引证文献(0)
2018(1)
  • 引证文献(1)
  • 二级引证文献(0)
2019(4)
  • 引证文献(2)
  • 二级引证文献(2)
2020(5)
  • 引证文献(1)
  • 二级引证文献(4)
研究主题发展历程
节点文献
机器学习
优化
随机梯度下降(SGD)
随机方差消减梯度法(SVRG)
分布式计算
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机科学与探索
月刊
1673-9418
11-5602/TP
大16开
北京市海淀区北四环中路211号北京619信箱26分箱
82-560
2007
chi
出版文献量(篇)
2215
总下载数(次)
4
总被引数(次)
10748
论文1v1指导