基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
机器学习问题通常会转换成求解一个目标函数问题.继随机梯度下降(Stochastic Gradient Descent,SGD)之后,随机方差缩减梯度法(Stochastic Variance Reduction Gradient,SVRG)成为如今优化目标函数参数的主流算法,它由于不受方差影响达到线性收敛而被人们广泛研究.它的提出导致陆续出现如SAGA(Stochastic Average Gradient Average)和SCSG(Stochastically Controlled Stochastic Gradient)等新型方差缩减算法,它们有着过量消耗内存、迭代缓慢等问题.为了实现小成本存储以及快速迭代的目的,设计了一种以SVRG为基础的新型变异方差缩减算法BSUG(Batch Subtraction Update Gradient).改进在于:使用小批量样本代替全部样本进行平均梯度计算,同时对平均梯度进行减数更新.每轮迭代中,随机抽取一批小样本进行平均梯度计算,同时在内部迭代时通过对过去模型梯度的舍去来达到更新平均梯度的目的.通过合适地降低批大小B,可以减少内存存储以及迭代次数.理论分析算法的收敛性,并基于Python进行算法实现,通过与Mini-Batch SGD、AdaGrad、RMSProp、SVRG和SCSG等算法进行比较证明了BSUG算法的有效性,并且通过对超参数进行探究证明了算法的稳定性.
推荐文章
分布式随机方差消减梯度下降算法topkSVRG
机器学习
优化
随机梯度下降(SGD)
随机方差消减梯度法(SVRG)
分布式计算
逻辑回归中的批量梯度下降算法并行化研究
逻辑回归
参数训练
MapReduce
并行化
基于区域协方差矩阵的模板更新方法分析与比较
目标跟踪
区域协方差矩阵
粒子滤波器
模板更新
自适应梯度下降观测矩阵优化算法
压缩感知
观测矩阵
自适应梯度下降
互相关性
等角紧框架
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 批量减数更新方差缩减梯度下降算法BSUG
来源期刊 计算机工程与应用 学科 工学
关键词 机器学习 优化 小批量 减数更新 随机方差缩减梯度法(SVRG)
年,卷(期) 2020,(22) 所属期刊栏目 模式识别与人工智能
研究方向 页码范围 117-123
页数 7页 分类号 TP301.6
字数 语种 中文
DOI 10.3778/j.issn.1002-8331.2003-0261
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 宋杰 66 596 10.0 23.0
2 朱勇 12 54 5.0 7.0
3 许冰 2 1 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (2)
共引文献  (2)
参考文献  (5)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1999(1)
  • 参考文献(0)
  • 二级参考文献(1)
2011(2)
  • 参考文献(1)
  • 二级参考文献(1)
2013(1)
  • 参考文献(1)
  • 二级参考文献(0)
2016(1)
  • 参考文献(1)
  • 二级参考文献(0)
2017(1)
  • 参考文献(1)
  • 二级参考文献(0)
2018(1)
  • 参考文献(1)
  • 二级参考文献(0)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
机器学习
优化
小批量
减数更新
随机方差缩减梯度法(SVRG)
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机工程与应用
半月刊
1002-8331
11-2127/TP
大16开
北京619信箱26分箱
82-605
1964
chi
出版文献量(篇)
39068
总下载数(次)
102
总被引数(次)
390217
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导