基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
随着深度学习的发展,卷积神经网络作为其重要算法之一,被广泛应用到计算机视觉、自然语言处理及语音处理等各个领域,并取得了比传统算法更为优秀的成绩.但是,卷积神经网络结构复杂,参数量和计算量巨大,使得很多算法必须在GPU上实现,导致卷积神经网络难以应用在资源不足且实时性要求很高的移动端.为了解决上述问题,文中提出通过同时优化卷积神经网络的结构和参数来对卷积神经网络进行压缩,以使网络模型尺寸变小.首先,根据权重对网络模型结果的影响程度来对权重进行剪枝,保证在去除网络结构冗余信息的同时保留模型的重要连接;然后通过量化感知(quantization-aware-trai-ning)对卷积神经网络的浮点型权重和激活值进行完全量化,将浮点运算转换成定点运算,在降低网络模型计算量的同时减少网络模型的尺寸.文中选用tensorflow深度学习框架,在Ubuntu16.04操作系统中使用Spyder编译器对所提算法进行验证.实验结果表明,该算法使结构简单的LeNet模型从1.64M压缩至0.36M,压缩比达到78%,准确率只下降了了0.016;使轻量级网络Mobilenet模型从16.9M压缩至3.1M,压缩比达到81%,准确率下降0.03.实验数据说明,在对卷积神经网络权重剪枝与参数量化之后,该算法可以做到在准确率损失较小的情况下,对模型进行有效压缩,解决了卷积神经网络模型难以部署到移动端的问题.
推荐文章
神经网络模型压缩方法综述
神经网络
模型压缩
矩阵分解
参数共享
面向轻量化神经网络的模型压缩与结构搜索
轻量化神经网络
模型压缩
遗传算法
权重共享
基于卷积神经网络的辐射图像降噪方法研究
辐射图像
图像降噪
卷积神经网络
基于卷积神经网络的缺失数据填充方法
缺失数据
填充
卷积神经网络
时空相关性
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于剪枝与量化的卷积神经网络压缩方法
来源期刊 计算机科学 学科 工学
关键词 卷积神经网络 权重剪枝 量化感知 参数量化 网络压缩
年,卷(期) 2020,(8) 所属期刊栏目 人工智能
研究方向 页码范围 261-266
页数 6页 分类号 TP183
字数 5508字 语种 中文
DOI 10.11896/jsjkx.190700062
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 孙彦丽 华东理工大学信息科学与工程学院 1 0 0.0 0.0
2 叶炯耀 华东理工大学信息科学与工程学院 4 2 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (2)
共引文献  (6)
参考文献  (1)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1998(1)
  • 参考文献(0)
  • 二级参考文献(1)
2014(1)
  • 参考文献(0)
  • 二级参考文献(1)
2018(1)
  • 参考文献(1)
  • 二级参考文献(0)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
卷积神经网络
权重剪枝
量化感知
参数量化
网络压缩
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机科学
月刊
1002-137X
50-1075/TP
大16开
重庆市渝北区洪湖西路18号
78-68
1974
chi
出版文献量(篇)
18527
总下载数(次)
68
论文1v1指导