基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
针对卷积神经网络模型参数规模越来越大导致难以在计算与存储资源有限的嵌入式设备上大规模部署的问题,提出一种降低参数规模的卷积神经网络模型压缩方法.通过分析发现,卷积层参数量与输入输出特征图数量以及卷积核大小有关,而全连接层参数数量众多且难以大幅减少.通过分组卷积减少输入输出特征图数量,通过卷积拆分减小卷积核大小,同时采用全局平均池化层代替全连接层的方法来解决全连接层参数数量众多的问题.将上述方法应用于LeNet5和AlexNet进行实验,实验结果表明通过使用组合压缩方法对LeNet5模型进行最大压缩后,参数规模可减少97%,识别准确率降低了不到2个百分点,而压缩后的AlexNet模型参数规模可减少95%,识别准确率提高了6.72个百分点,在保证卷积神经网络精度的前提下,可大幅减少模型的参数量.
推荐文章
神经网络模型压缩方法综述
神经网络
模型压缩
矩阵分解
参数共享
并行尺度裁切的深度卷积神经网络模型
并行卷积神经网络
识别
尺度裁切
特征提取
AlexNet
基于卷积神经网络的缺失数据填充方法
缺失数据
填充
卷积神经网络
时空相关性
面向轻量化神经网络的模型压缩与结构搜索
轻量化神经网络
模型压缩
遗传算法
权重共享
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 降低参数规模的卷积神经网络模型压缩方法
来源期刊 计算机与现代化 学科
关键词 卷积神经网络 参数规模 分组卷积 卷积拆分 全局平均池化
年,卷(期) 2021,(9) 所属期刊栏目 人工智能|ARTIFICIAL INTELLIGENCE
研究方向 页码范围 83-89
页数 7页 分类号 TP183
字数 语种 中文
DOI 10.3969/j.issn.1006-2475.2021.09.013
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (14)
共引文献  (106)
参考文献  (10)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1962(1)
  • 参考文献(0)
  • 二级参考文献(1)
1998(1)
  • 参考文献(0)
  • 二级参考文献(1)
2005(1)
  • 参考文献(0)
  • 二级参考文献(1)
2006(1)
  • 参考文献(0)
  • 二级参考文献(1)
2008(1)
  • 参考文献(0)
  • 二级参考文献(1)
2009(1)
  • 参考文献(0)
  • 二级参考文献(1)
2010(1)
  • 参考文献(0)
  • 二级参考文献(1)
2012(1)
  • 参考文献(1)
  • 二级参考文献(0)
2014(1)
  • 参考文献(0)
  • 二级参考文献(1)
2015(2)
  • 参考文献(0)
  • 二级参考文献(2)
2016(2)
  • 参考文献(0)
  • 二级参考文献(2)
2017(4)
  • 参考文献(3)
  • 二级参考文献(1)
2018(5)
  • 参考文献(4)
  • 二级参考文献(1)
2019(1)
  • 参考文献(1)
  • 二级参考文献(0)
2020(1)
  • 参考文献(1)
  • 二级参考文献(0)
2021(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
卷积神经网络
参数规模
分组卷积
卷积拆分
全局平均池化
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机与现代化
月刊
1006-2475
36-1137/TP
大16开
南昌市井冈山大道1416号
44-121
1985
chi
出版文献量(篇)
9036
总下载数(次)
25
总被引数(次)
56782
论文1v1指导