基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
深度卷积神经网络因规模庞大、计算复杂而限制了其在实时要求高和资源受限环境下的应用,因此有必要对卷积神经网络现有的结构进行优化压缩和加速.为了解决这一问题,提出了一种结合剪枝、流合并的混合压缩方法.该方法通过不同角度去压缩模型,进一步降低了参数冗余和结构冗余所带来的内存消耗和时间消耗.首先,从模型的内部将每层中冗余的参数剪去;然后,从模型的结构上将非必要的层与重要的层进行流合并;最后,通过重新训练来恢复模型的精度.在MNIST数据集上的实验结果表明,提出的混合压缩方法在不降低模型精度前提下,将LeNet-5压缩到原来的1/20,运行速度提升了8倍.
推荐文章
稀疏卷积神经网络加速器设计
稀疏卷积神经网络
阵列运算
加速器
高能效比
一种双向脉动数据流的全卷积神经网络加速器
全卷积
反卷积层
加速优化
双向脉动数据流
基于FPGA的卷积神经网络加速器设计与实现
卷积神经网络
现场可编程门阵列
加速器
有限资源
神经网络模型压缩方法综述
神经网络
模型压缩
矩阵分解
参数共享
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 结合剪枝与流合并的卷积神经网络加速压缩方法
来源期刊 计算机应用 学科 工学
关键词 卷积神经网络 模型压缩 网络剪枝 流合并 冗余
年,卷(期) 2020,(3) 所属期刊栏目 人工智能
研究方向 页码范围 621-625
页数 5页 分类号 TP183
字数 4938字 语种 中文
DOI 10.11772/j.issn.1001-9081.2019081363
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 潘理虎 太原科技大学计算机科学与技术学院 95 287 10.0 12.0
3 张英俊 太原科技大学计算机科学与技术学院 63 275 9.0 13.0
4 谢斌红 太原科技大学计算机科学与技术学院 36 175 9.0 10.0
7 钟日新 太原科技大学计算机科学与技术学院 1 0 0.0 0.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (3)
共引文献  (5)
参考文献  (2)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1998(2)
  • 参考文献(1)
  • 二级参考文献(1)
2018(3)
  • 参考文献(1)
  • 二级参考文献(2)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
卷积神经网络
模型压缩
网络剪枝
流合并
冗余
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机应用
月刊
1001-9081
51-1307/TP
大16开
成都237信箱
62-110
1981
chi
出版文献量(篇)
20189
总下载数(次)
40
论文1v1指导