基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
近年来深度学习在各个研究领域取得越来越多的成果,这些都离不开激活函数的发展.但现有的激活函数Tanh、ReLU和PReLU在随着研究的深入暴露出越来越多的问题,比如存在"神经元死亡"和偏移现象,对噪声不具有鲁棒性.针对这些问题,结合Tanh和PReLU的优点,提出了TReLU激活函数,通过参数α控制负半轴非饱和区间获得激活值,输出近似0均值,软饱和性对噪声鲁棒.实验结果表明,TReLU在四种不同的数据集上都取得了最好的效果,对不同优化方法具有鲁棒性,具有一定的实用价值.
推荐文章
基于改进激活函数的卷积神经网络研究
卷积神经网络
深度学习
人工智能
激活函数
基于ArcReLU函数的神经网络激活函数优化研究
神经网络
激活函数
反正切函数
ArcReLU
一种改进激活函数的Hopfield盲检测算法
盲检测
Hopfield神经网络
抗干扰
一种改进的基于幂线性单元的激活函数
幂线性单元
参数化激活函数
卷积神经网络
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 关于改进的激活函数TReLU的研究
来源期刊 小型微型计算机系统 学科 工学
关键词 深度学习 激活函数 软饱和性 鲁棒性
年,卷(期) 2019,(1) 所属期刊栏目 人工智能与算法研究
研究方向 页码范围 58-63
页数 6页 分类号 TP391
字数 4532字 语种 中文
DOI 10.3969/j.issn.1000-1220.2019.01.012
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 张涛 中北大学软件学院 38 150 8.0 9.0
2 宋文爱 中北大学软件学院 107 470 11.0 16.0
3 杨剑 中北大学软件学院 32 228 10.0 13.0
4 宋超峰 中北大学软件学院 7 31 3.0 5.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (4)
节点文献
引证文献  (10)
同被引文献  (8)
二级引证文献  (0)
1989(1)
  • 参考文献(1)
  • 二级参考文献(0)
1999(1)
  • 参考文献(1)
  • 二级参考文献(0)
2015(1)
  • 参考文献(1)
  • 二级参考文献(0)
2017(1)
  • 参考文献(1)
  • 二级参考文献(0)
2019(8)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(8)
  • 二级引证文献(0)
2019(8)
  • 引证文献(8)
  • 二级引证文献(0)
2020(2)
  • 引证文献(2)
  • 二级引证文献(0)
研究主题发展历程
节点文献
深度学习
激活函数
软饱和性
鲁棒性
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
小型微型计算机系统
月刊
1000-1220
21-1106/TP
大16开
辽宁省沈阳市东陵区南屏东路16号
8-108
1980
chi
出版文献量(篇)
11026
总下载数(次)
17
总被引数(次)
83133
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导