基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
近年来,随着深度学习的飞速发展,深度神经网络受到了越来越多的关注,在许多应用领域取得了显著效果.通常,在较高的计算量下,深度神经网络的学习能力随着网络层深度的增加而不断提高,因此深度神经网络在大型数据集上的表现非常卓越.然而,由于其计算量大、存储成本高、模型复杂等特性,使得深度学习无法有效地应用于轻量级移动便携设备.因此,压缩、优化深度学习模型成为目前研究的热点.当前主要的模型压缩方法有模型裁剪、轻量级网络设计、知识蒸馏、量化、体系结构搜索等.对以上方法的性能、优缺点和最新研究成果进行了分析总结,并对未来研究方向进行了展望.
推荐文章
神经网络模型压缩方法综述
神经网络
模型压缩
矩阵分解
参数共享
深度神经网络的压缩研究
神经网络
压缩
网络删减
参数共享
面向嵌入式应用的深度神经网络压缩方法研究
深度神经网络
压缩
奇异值分解(SVD)
网络剪枝
基于深度神经网络的少样本学习综述
少样本学习
数据增强
迁移学习
度量学习
元学习
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 深度神经网络模型压缩综述
来源期刊 计算机科学与探索 学科 工学
关键词 深度学习 模型压缩 神经网络
年,卷(期) 2020,(9) 所属期刊栏目 综述·探索
研究方向 页码范围 1441-1455
页数 15页 分类号 TP391.4
字数 12863字 语种 中文
DOI 10.3778/j.issn.1673-9418.2003056
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 牛保宁 太原理工大学信息与计算机学院 37 146 5.0 11.0
2 耿丽丽 太原理工大学信息与计算机学院 12 55 4.0 7.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (8)
共引文献  (9)
参考文献  (17)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1998(2)
  • 参考文献(0)
  • 二级参考文献(2)
2007(1)
  • 参考文献(0)
  • 二级参考文献(1)
2014(1)
  • 参考文献(0)
  • 二级参考文献(1)
2015(1)
  • 参考文献(0)
  • 二级参考文献(1)
2016(1)
  • 参考文献(0)
  • 二级参考文献(1)
2017(2)
  • 参考文献(2)
  • 二级参考文献(0)
2018(9)
  • 参考文献(7)
  • 二级参考文献(2)
2019(8)
  • 参考文献(8)
  • 二级参考文献(0)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
深度学习
模型压缩
神经网络
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机科学与探索
月刊
1673-9418
11-5602/TP
大16开
北京市海淀区北四环中路211号北京619信箱26分箱
82-560
2007
chi
出版文献量(篇)
2215
总下载数(次)
4
总被引数(次)
10748
论文1v1指导