原文服务方: 计算机应用研究       
摘要:
深度神经网络中过多的参数使得自身成为高度计算密集型和内存密集型的模型,这使得深度神经网络的应用不能轻易地移植到嵌入或移动设备上以解决特殊环境下的实际需求.为了解决该问题,提出了基于网络删减、参数共享两者结合的神经网络压缩方案.首先通过删减掉权重小于阈值的网络连接,保留其重要的连接;然后使用K-means聚类算法将删减后每层的参数进行聚类,每簇内的各个参数共享该簇的中心值作为其权重.实验在MNIST数据集上完成手写数字识别功能的LeNet-300-100网络和修改得到的LeNet-300-240-180-100网络分别压缩了9.5×和12.1×.基于网络删减、参数共享两者结合的神经网络压缩方案为未来在特殊环境下更丰富的基于深度神经网络的智能应用提供了可行方案.
推荐文章
面向嵌入式应用的深度神经网络压缩方法研究
深度神经网络
压缩
奇异值分解(SVD)
网络剪枝
神经网络模型压缩方法综述
神经网络
模型压缩
矩阵分解
参数共享
基于深度卷积神经网络的图像检索算法研究
图像检索
卷积神经网络
特征提取
深度学习
基于深度卷积神经网络的车标分类
深度学习
神经网络
车标分类
图像识别
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 深度神经网络的压缩研究
来源期刊 计算机应用研究 学科
关键词 神经网络 压缩 网络删减 参数共享
年,卷(期) 2018,(10) 所属期刊栏目 算法研究探讨
研究方向 页码范围 2894-2897,2903
页数 5页 分类号 TP183
字数 语种 中文
DOI 10.3969/j.issn.1001-3695.2018.10.003
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (2)
节点文献
引证文献  (15)
同被引文献  (2)
二级引证文献  (15)
1998(1)
  • 参考文献(1)
  • 二级参考文献(0)
2011(1)
  • 参考文献(1)
  • 二级参考文献(0)
2018(4)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(4)
  • 二级引证文献(0)
2018(4)
  • 引证文献(4)
  • 二级引证文献(0)
2019(14)
  • 引证文献(9)
  • 二级引证文献(5)
2020(12)
  • 引证文献(2)
  • 二级引证文献(10)
研究主题发展历程
节点文献
神经网络
压缩
网络删减
参数共享
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机应用研究
月刊
1001-3695
51-1196/TP
大16开
1984-01-01
chi
出版文献量(篇)
21004
总下载数(次)
0
总被引数(次)
238385
论文1v1指导