基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
为了使深层神经网络具有更好的泛化能力、少量训练时间的性能.文中汲取压缩神经网络的思想,通过将深层神经网络的输入层与隐藏层按照不同的比例将隐藏层的维度进行压缩,并在传统压缩深层神经网络的基础上,在其顶层添加一个分类层,使深层神经网络拥有分类的能力.实验将构建的深层神经网络应用于MNIST手写数据集的分类测试,结果表明,经过适当压缩的深层神经网络比未被压缩的深层神经网络具有更好的分类效果,而且节省了大量的训练时间.
推荐文章
基于子块分类的BP神经网络图像压缩
神经网络
图像压缩
子块分类
视觉特征
基于叠层循环神经网络的语义关系分类模型
叠层循环神经网络
多句法结构
Bi-Tree-LSTM
注意力机制
关系分类
深度神经网络的压缩研究
神经网络
压缩
网络删减
参数共享
目标函数对神经网络性能影响的研究
目标函数
神经网络
收敛性
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 压缩深层神经网络隐藏层维度对其分类性能的影响
来源期刊 电子科技 学科 工学
关键词 深层神经网络 分类 压缩比例 泛化能力 训练时间 深度学习
年,卷(期) 2019,(1) 所属期刊栏目
研究方向 页码范围 72-75
页数 4页 分类号 TP183
字数 2686字 语种 中文
DOI 10.16180/j.cnki.issn1007-7820.2019.01.015
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 张培玲 河南理工大学物理与电子信息学院 24 57 5.0 6.0
2 成凌飞 河南理工大学物理与电子信息学院 37 217 7.0 13.0
3 李艳 河南理工大学电气工程与自动化学院 33 213 8.0 13.0
4 贺扬 河南理工大学电气工程与自动化学院 3 4 1.0 2.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (7)
共引文献  (6)
参考文献  (8)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1986(1)
  • 参考文献(1)
  • 二级参考文献(0)
1990(1)
  • 参考文献(1)
  • 二级参考文献(0)
1992(1)
  • 参考文献(1)
  • 二级参考文献(0)
1993(1)
  • 参考文献(1)
  • 二级参考文献(0)
1996(1)
  • 参考文献(1)
  • 二级参考文献(0)
2006(3)
  • 参考文献(2)
  • 二级参考文献(1)
2009(1)
  • 参考文献(0)
  • 二级参考文献(1)
2012(2)
  • 参考文献(0)
  • 二级参考文献(2)
2013(1)
  • 参考文献(0)
  • 二级参考文献(1)
2014(2)
  • 参考文献(0)
  • 二级参考文献(2)
2015(1)
  • 参考文献(1)
  • 二级参考文献(0)
2019(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
深层神经网络
分类
压缩比例
泛化能力
训练时间
深度学习
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
电子科技
月刊
1007-7820
61-1291/TN
大16开
西安电子科技大学
1987
chi
出版文献量(篇)
9344
总下载数(次)
32
总被引数(次)
31437
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
论文1v1指导