基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
虽然批归一化算法能有效加速深度卷积网络模型的收敛速度,但其数据依赖性复杂,训练时会导致严重的"存储墙"瓶颈.故对使用批归一化算法的卷积神经网络,提出多层融合且重构批归一化层的训练方法,减少模型训练过程中的访存量.首先,通过分析训练时批归一化层的数据依赖、访存特征及模型训练时的访存特征,分析访存瓶颈的关键因素;其次,使用"计算换访存"思想,提出融合"卷积层+批归一化层+激活层"结构的方法,并基于批归一化层的计算访存特征,将其重构为两个子层,分别与相邻层融合,进一步减少训练时对主存的读写,并构建了训练时的访存量模型与计算量模型.实验结果表明,使用NVIDIA TESLA V100 GPU训练ResNet-50、Inception V3及DenseNet模型时,同原始训练方法相比,其访存数据量分别降低了33%,22%及31%,V100的实际计算效率分别提升了20.5%,18.5%以及18.1%.这种优化方法利用了网络结构与模型训练时的访存特点,可与其他访存优化方法协同使用,进一步降低模型训练时的访存量.
推荐文章
基于卷积神经网络的细胞识别
细胞识别
卷积神经网络
深度学习
池化层
基于卷积神经网络的目标检测研究综述
卷积神经网络
目标检测
深度学习
基于卷积神经网络的肺炎检测系统
卷积神经网络
胸部X光影像
肺炎诊断
图像预处理
VGG
特征提取
卷积神经网络并行训练的优化研究
卷积神经网络
数据并行
通讯优化
数据加载优化
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 卷积神经网络训练访存优化
来源期刊 西安电子科技大学学报(自然科学版) 学科 工学
关键词 深度卷积神经网络 模型训练 多层融合 批归一化重构 访存优化
年,卷(期) 2020,(2) 所属期刊栏目
研究方向 页码范围 98-107
页数 10页 分类号 TP391
字数 6816字 语种 中文
DOI 10.19665/j.issn1001-2400.2020.02.014
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 李宏亮 38 153 5.0 12.0
2 郝子宇 12 8 1.0 2.0
3 王吉军 5 2 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (8)
共引文献  (1)
参考文献  (2)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2015(2)
  • 参考文献(1)
  • 二级参考文献(1)
2017(3)
  • 参考文献(0)
  • 二级参考文献(3)
2018(4)
  • 参考文献(0)
  • 二级参考文献(4)
2019(1)
  • 参考文献(1)
  • 二级参考文献(0)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
深度卷积神经网络
模型训练
多层融合
批归一化重构
访存优化
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
西安电子科技大学学报(自然科学版)
双月刊
1001-2400
61-1076/TN
西安市太白南路2号349信箱
chi
出版文献量(篇)
4652
总下载数(次)
5
总被引数(次)
38780
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导