基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
深度神经网络近年在计算机视觉以及自然语言处理等任务上不断刷新已有最好性能,已经成为最受关注的研究方向.深度网络模型虽然性能显著,但由于参数量巨大、存储成本与计算成本过高,仍然难以部署到硬件受限的嵌入式或移动设备上.相关研究发现,基于卷积神经网络的深度模型本身存在参数冗余,模型中存在对最终结果无用的参数,这为深度网络模型压缩提供了理论支持.因此,如何在保证模型精度条件下降低模型大小已经成为热点问题.本文对国内外学者近几年在模型压缩方面所取得的成果与进展进行了分类归纳并对其优缺点进行评价,并探讨了模型压缩目前存在的问题以及未来的发展方向.
推荐文章
神经网络模型压缩方法综述
神经网络
模型压缩
矩阵分解
参数共享
深度神经网络的压缩研究
神经网络
压缩
网络删减
参数共享
深度神经网络模型压缩综述
深度学习
模型压缩
神经网络
面向嵌入式应用的深度神经网络压缩方法研究
深度神经网络
压缩
奇异值分解(SVD)
网络剪枝
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 深度神经网络模型压缩综述
来源期刊 工程科学学报 学科 工学
关键词 深度神经网络 模型压缩 深度学习 网络剪枝 网络蒸馏
年,卷(期) 2019,(10) 所属期刊栏目
研究方向 页码范围 1229-1239
页数 11页 分类号 TP183
字数 语种 中文
DOI 10.13374/j.issn2095-9389.2019.03.27.002
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 李擎 北京科技大学自动化学院 115 1522 21.0 36.0
3 李江昀 北京科技大学自动化学院 21 169 8.0 12.0
7 赵义凯 北京科技大学自动化学院 1 5 1.0 1.0
11 薛卓尔 北京科技大学自动化学院 1 5 1.0 1.0
12 蔡铮 北京科技大学自动化学院 6 5 1.0 2.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (2)
共引文献  (3)
参考文献  (4)
节点文献
引证文献  (5)
同被引文献  (26)
二级引证文献  (0)
1997(1)
  • 参考文献(1)
  • 二级参考文献(0)
1998(1)
  • 参考文献(0)
  • 二级参考文献(1)
2011(1)
  • 参考文献(0)
  • 二级参考文献(1)
2015(1)
  • 参考文献(1)
  • 二级参考文献(0)
2017(1)
  • 参考文献(1)
  • 二级参考文献(0)
2018(1)
  • 参考文献(1)
  • 二级参考文献(0)
2019(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2020(5)
  • 引证文献(5)
  • 二级引证文献(0)
研究主题发展历程
节点文献
深度神经网络
模型压缩
深度学习
网络剪枝
网络蒸馏
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
工程科学学报
月刊
2095-9389
10-1297/TF
大16开
北京海淀区学院路30号
1955
chi
出版文献量(篇)
4988
总下载数(次)
18
总被引数(次)
47371
论文1v1指导