基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
近年来深度学习发展迅猛.由于深度学习的概念源于神经网络,而激活函数更是神经网络模型在学习理解非线性函数时不可或缺的部分,因此本文对常用的激活函数进行了研究比较.针对常用的激活函数在反向传播神经网络中具有收敛速度较慢、存在局部极小或梯度消失的问题,将Sigmoid系和ReLU系激活函数进行了对比,分别讨论了其性能,详细分析了几类常用激活函数的优点及不足,并通过研究Arctan函数在神经网络中应用的可能性,结合ReLU函数,提出了一种新型的激活函数ArcReLU.实验证明,该函数既能显著加快反向传播神经网络的训练速度,又能有效降低训练误差并避免梯度消失的问题.
推荐文章
基于改进sigmoid激活函数的深度神经网络训练算法研究
深度神经网络
残差衰减
sigmoid激活函数
神经网络激活函数及其导数的FPGA实现
神经网络
sigmoid函数
分段线性逼近
FPGA
基于激活函数四参可调的BP神经网络改进算法
神经网络
BP算法
激活函数
可调参数
基于分组模糊神经网络的函数逼近研究
模糊系统
神经网络
模糊逼近
函数逼近
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于ArcReLU函数的神经网络激活函数优化研究
来源期刊 数据采集与处理 学科 工学
关键词 神经网络 激活函数 反正切函数 ArcReLU
年,卷(期) 2019,(3) 所属期刊栏目
研究方向 页码范围 517-529
页数 13页 分类号 TP18
字数 5989字 语种 中文
DOI 10.16337/j.1004-9037.2019.03.015
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 徐菲菲 上海电力学院计算机科学与技术学院 15 157 6.0 12.0
2 许赟杰 上海电力学院计算机科学与技术学院 2 2 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (2)
节点文献
引证文献  (2)
同被引文献  (6)
二级引证文献  (0)
1998(1)
  • 参考文献(1)
  • 二级参考文献(0)
2009(1)
  • 参考文献(1)
  • 二级参考文献(0)
2019(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2020(2)
  • 引证文献(2)
  • 二级引证文献(0)
研究主题发展历程
节点文献
神经网络
激活函数
反正切函数
ArcReLU
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
数据采集与处理
双月刊
1004-9037
32-1367/TN
大16开
南京市御道街29号1016信箱
28-235
1986
chi
出版文献量(篇)
3235
总下载数(次)
7
总被引数(次)
25271
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
论文1v1指导