原文服务方: 计算机应用研究       
摘要:
针对修正线性单元(ReLU)完全丢弃网络中包含有用信息的负激活值问题,基于参数化修正线性单元(PReLU)和指数线性单元(ELU)的研究,提出一种新颖的参数化激活函数幂线性单元(PoLU).PoLU对输入的负激活部分实施有符号的幂非线性变化,幂函数的参数是可以在CNN训练过程中自适应学习的,同时像ReLU那样保持正激活部分不变.PoLU可以高效地实现并且灵活地运用到不同的卷积神经网络架构中.在广泛使用的CIFAR-10/100数据库上的实验结果表明,PoLU要优于ReLU和它相对应的激活函数.
推荐文章
一种使用log函数的新型修正激活单元LogReLU
人工智能
卷积神经网络
激活函数
ReLU
基于改进激活函数的卷积神经网络研究
卷积神经网络
深度学习
人工智能
激活函数
神经网络激活函数及其导数的FPGA实现
神经网络
sigmoid函数
分段线性逼近
FPGA
幂指函数的求导方法
幂函数
指数函数
幂指函数
导数
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 一种改进的基于幂线性单元的激活函数
来源期刊 计算机应用研究 学科
关键词 幂线性单元 参数化激活函数 卷积神经网络
年,卷(期) 2019,(10) 所属期刊栏目 图形图像技术
研究方向 页码范围 3145-3147,3178
页数 4页 分类号 TP183
字数 语种 中文
DOI 10.19734/j.issn.1001-3695.2018.04.0331
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 骆训浩 大连理工大学电子信息与电气工程学部 1 0 0.0 0.0
2 李培华 大连理工大学电子信息与电气工程学部 4 3 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (2)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1998(1)
  • 参考文献(1)
  • 二级参考文献(0)
2017(1)
  • 参考文献(1)
  • 二级参考文献(0)
2019(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
幂线性单元
参数化激活函数
卷积神经网络
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机应用研究
月刊
1001-3695
51-1196/TP
大16开
1984-01-01
chi
出版文献量(篇)
21004
总下载数(次)
0
总被引数(次)
238385
论文1v1指导