基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
修正线性单元做为深层神经网络的激活函数,常被用来处理复杂的函数来提高深层神经网络的建模能力.针对传统修正线性单元提出一种新的激活函数——Tanh ReLU,Tanh ReLU在修正线性单元的基础上为其添加一个负值和边界值,同时保证Tanh ReLU函数在原点处相切,以此克服由于修正线性单元激活函数非零均值激活、极大输出值和原点处不连续的缺点而损害网络的生成.将此新的激活函数应用于MNIST手写数据分类实验以验证其建立的深层神经网络的性能;同时针对网络中不同的超参数的选择,来进一步验证Tanh ReLU对于提高深层神经网络模型性能的影响.实验结果表明:与修正线性单元相比,Tanh ReLU建立的深层神经网络得到了更好的分类结果,实现了提高深层神经网络分类性能的目的.
推荐文章
一种提高神经网络集成系统泛化能力的方法
噪声添加
神经网络集成
泛化能力
基于激活函数四参可调的BP神经网络改进算法
神经网络
BP算法
激活函数
可调参数
神经网络激活函数及其导数的FPGA实现
神经网络
sigmoid函数
分段线性逼近
FPGA
一种新的神经网络逼近函数算法
BP神经网络
主成分分析
数据预处理
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 一种新型激活函数:提高深层神经网络建模能力
来源期刊 测控技术 学科 工学
关键词 深层神经网络 激活函数 修正线性单元 分类性能
年,卷(期) 2019,(4) 所属期刊栏目 先进算法与人工智能
研究方向 页码范围 50-53,58
页数 5页 分类号 TP183
字数 3114字 语种 中文
DOI 10.19708/j.ckjs.2019.04.011
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 张培玲 河南理工大学物理与电子信息学院 24 57 5.0 6.0
2 成凌飞 河南理工大学物理与电子信息学院 37 217 7.0 13.0
3 李艳 河南理工大学电气工程与自动化学院 33 213 8.0 13.0
4 贺扬 河南理工大学电气工程与自动化学院 3 4 1.0 2.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (24)
共引文献  (9)
参考文献  (4)
节点文献
引证文献  (3)
同被引文献  (10)
二级引证文献  (0)
1995(1)
  • 参考文献(0)
  • 二级参考文献(1)
1998(1)
  • 参考文献(0)
  • 二级参考文献(1)
2000(1)
  • 参考文献(0)
  • 二级参考文献(1)
2003(1)
  • 参考文献(0)
  • 二级参考文献(1)
2006(1)
  • 参考文献(0)
  • 二级参考文献(1)
2007(1)
  • 参考文献(0)
  • 二级参考文献(1)
2008(3)
  • 参考文献(0)
  • 二级参考文献(3)
2009(4)
  • 参考文献(0)
  • 二级参考文献(4)
2010(3)
  • 参考文献(0)
  • 二级参考文献(3)
2011(1)
  • 参考文献(0)
  • 二级参考文献(1)
2012(1)
  • 参考文献(0)
  • 二级参考文献(1)
2013(4)
  • 参考文献(0)
  • 二级参考文献(4)
2014(2)
  • 参考文献(0)
  • 二级参考文献(2)
2016(4)
  • 参考文献(4)
  • 二级参考文献(0)
2019(1)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(1)
  • 二级引证文献(0)
2019(1)
  • 引证文献(1)
  • 二级引证文献(0)
2020(2)
  • 引证文献(2)
  • 二级引证文献(0)
研究主题发展历程
节点文献
深层神经网络
激活函数
修正线性单元
分类性能
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
测控技术
月刊
1000-8829
11-1764/TB
大16开
北京2351信箱《测控技术》杂志社
82-533
1980
chi
出版文献量(篇)
8430
总下载数(次)
24
总被引数(次)
55628
论文1v1指导