基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
深度学习作为现今机器学习领域中的重要的技术手段,在图像识别、机器翻译、自然语言处理等领域都已经很成熟,并获得了很好的成果。文中针对深度学习模型优化器的发展进行了梳理,介绍了常用的梯度下降、动量的梯度下降、Adagrad、RMSProp、Adadelta、Adam、Nadam、ANGD等优化方法,也对学习率的衰减方式有分段常数衰减、多项式衰减、指数衰减、自然指数衰减、余弦衰减、线性余弦衰减、噪声线性余弦衰减等方法进行了总结,对深度学习现阶段存在的问题以及对未来的发展趋势进行了阐述,为入门深度学习的研究者提供了较为完整的最优化学习材料以及文献支持。
推荐文章
深度学习相关研究综述
深度学习
神经网络
算法模型
软件工具
硬件加速
深度学习研究综述
深度学习
分布式表示
深信度网络
卷积神经网络
深凸网络
多模态深度学习综述
多模态
深度学习
多神经网络
多模态表示
多模态传译
多模态融合
多模态对齐
图像场景识别中深度学习方法综述
场景识别
场景分类
深度学习
图像特征
计算机视觉
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 深度学习优化器方法及学习率衰减方式综述
来源期刊 数据挖掘 学科 工学
关键词 深度学习 优化器 梯度下降 Adagrad RMSProp Adadelta ADAM 学习率衰减
年,卷(期) 2018,(4) 所属期刊栏目
研究方向 页码范围 186-200
页数 15页 分类号 TP39
字数 语种
DOI
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 李裕梅 北京工商大学理学院 14 58 3.0 7.0
2 冯宇旭 北京工商大学理学院 4 7 2.0 2.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2018(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
深度学习
优化器
梯度下降
Adagrad
RMSProp
Adadelta
ADAM
学习率衰减
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
数据挖掘
季刊
2163-145X
武汉市江夏区汤逊湖北路38号光谷总部空间
出版文献量(篇)
140
总下载数(次)
1
总被引数(次)
0
论文1v1指导