基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
针对极限学习机(ELM)异常值敏感的问题,提出了一种基于p阶Welsch损失的鲁棒极限学习机.使用p阶Welsch损失代替常规ELM的均方误差损失,提高算法的鲁棒性;在目标函数中引入l1范数正则项,降低ELM网络模型的复杂度,增强模型的稳定性;采用快速迭代阈值收缩算法(FISTA)极小化目标函数,提升计算效率.对人工合成数据集和部分UCI回归数据集进行仿真,实验结果表明本文方法在鲁棒性、稳定性和训练时间上都具有很好的性能.
推荐文章
基于混合分解技术的鲁棒极限学习机的风速预测
风速预测
混合分解技术
改进鲸鱼算法
鲁棒极限学习机
多步预测
基于极限学习机的非线性内模控制
极限学习机
内模控制
L1范数罚函数
L2范数罚函数
弹性网络核极限学习机的多标记学习算法
多标记学习
核极限学习机
正则化
弹性网络
径向基函数
坐标下降法
基于截断1-范数损失函数的鲁棒超限学习机
神经网络
超限学习机
鲁棒
截断损失函数
异常值
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于p阶Welsch损失的鲁棒极限学习机
来源期刊 华东理工大学学报(自然科学版) 学科 工学
关键词 p阶Welsch损失 极限学习机 鲁棒性 FISTA
年,卷(期) 2020,(2) 所属期刊栏目 信息科学与工程
研究方向 页码范围 243-249
页数 7页 分类号 TP18
字数 4439字 语种 中文
DOI 10.14135/j.cnki.1006-3080.20181209001
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 叶贞成 华东理工大学化工过程先进控制和优化技术教育部重点实验室 34 115 6.0 9.0
2 程辉 华东理工大学化工过程先进控制和优化技术教育部重点实验室 18 81 5.0 8.0
3 陈剑挺 华东理工大学化工过程先进控制和优化技术教育部重点实验室 2 0 0.0 0.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (53)
共引文献  (11)
参考文献  (15)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1974(1)
  • 参考文献(0)
  • 二级参考文献(1)
1988(1)
  • 参考文献(0)
  • 二级参考文献(1)
1994(3)
  • 参考文献(1)
  • 二级参考文献(2)
1997(2)
  • 参考文献(0)
  • 二级参考文献(2)
1999(2)
  • 参考文献(0)
  • 二级参考文献(2)
2000(1)
  • 参考文献(0)
  • 二级参考文献(1)
2003(1)
  • 参考文献(0)
  • 二级参考文献(1)
2004(1)
  • 参考文献(0)
  • 二级参考文献(1)
2005(1)
  • 参考文献(0)
  • 二级参考文献(1)
2006(6)
  • 参考文献(1)
  • 二级参考文献(5)
2008(1)
  • 参考文献(0)
  • 二级参考文献(1)
2009(3)
  • 参考文献(1)
  • 二级参考文献(2)
2010(5)
  • 参考文献(0)
  • 二级参考文献(5)
2011(5)
  • 参考文献(0)
  • 二级参考文献(5)
2012(5)
  • 参考文献(1)
  • 二级参考文献(4)
2013(6)
  • 参考文献(2)
  • 二级参考文献(4)
2014(3)
  • 参考文献(1)
  • 二级参考文献(2)
2015(10)
  • 参考文献(4)
  • 二级参考文献(6)
2016(7)
  • 参考文献(1)
  • 二级参考文献(6)
2017(2)
  • 参考文献(1)
  • 二级参考文献(1)
2018(2)
  • 参考文献(2)
  • 二级参考文献(0)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
p阶Welsch损失
极限学习机
鲁棒性
FISTA
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
华东理工大学学报(自然科学版)
双月刊
1006-3080
31-1691/TQ
16开
上海市梅陇路130号
4-382
1957
chi
出版文献量(篇)
3399
总下载数(次)
2
总被引数(次)
27146
相关基金
上海市自然科学基金
英文译名:
官方网址:http://www.lawyee.net/Act/Act_Display.asp?RID=46696
项目类型:面上项目
学科类型:
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导