基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
实际问题的数据集通常受到各种噪声的影响,超限学习机(extreme learning machine,ELM)对这类数据集进行学习时,表现出预测精度低、预测结果波动大.为了克服该缺陷,采用了能够削弱噪声影响的指数Laplace损失函数.该损失函数是建立在Gauss核函数基础上,具有可微、非凸、有界且能够趋近于Laplace函数的特点.将其引入到超限学习机中,提出了鲁棒超限学习机回归估计(exponential Laplace loss function based robust ELM for regression,ELRELM)模型.利用迭代重赋权算法求解模型的优化问题.在每次迭代中,噪声样本点被赋予较小的权值,能够有效地提高预测精度.真实数据集实验验证了所提出的模型相比较于对比算法具有更优的学习性能和鲁棒性.
推荐文章
一种基于鲁棒估计的极限学习机方法
极限学习机
稳健估计
鲁棒极限学习机
M估计
神经网络
基于微分同胚的鲁棒激活函数的极端学习机
极端学习机
角度优化
微分同胚
鲁棒激活函数
基于截断1-范数损失函数的鲁棒超限学习机
神经网络
超限学习机
鲁棒
截断损失函数
异常值
基于角度优化的鲁棒极端学习机算法
极端学习机
鲁棒激活函数
角度优化
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于指数Laplace损失函数的回归估计鲁棒超限学习机
来源期刊 应用数学和力学 学科 工学
关键词 神经网络 超限学习机 鲁棒 指数Laplace损失函数 迭代重赋权算法
年,卷(期) 2019,(11) 所属期刊栏目
研究方向 页码范围 1169-1178
页数 10页 分类号 TP181
字数 语种 中文
DOI 10.21656/1000-0887.400240
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 刘庆山 东南大学数学学院 5 0 0.0 0.0
2 曹进德 东南大学数学学院 38 327 7.0 18.0
3 王快妮 西安石油大学理学院 3 0 0.0 0.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (20)
共引文献  (2)
参考文献  (16)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2006(2)
  • 参考文献(1)
  • 二级参考文献(1)
2007(1)
  • 参考文献(1)
  • 二级参考文献(0)
2008(1)
  • 参考文献(1)
  • 二级参考文献(0)
2010(1)
  • 参考文献(0)
  • 二级参考文献(1)
2011(2)
  • 参考文献(0)
  • 二级参考文献(2)
2012(2)
  • 参考文献(2)
  • 二级参考文献(0)
2013(4)
  • 参考文献(2)
  • 二级参考文献(2)
2014(4)
  • 参考文献(2)
  • 二级参考文献(2)
2015(13)
  • 参考文献(1)
  • 二级参考文献(12)
2016(1)
  • 参考文献(1)
  • 二级参考文献(0)
2017(4)
  • 参考文献(4)
  • 二级参考文献(0)
2019(1)
  • 参考文献(1)
  • 二级参考文献(0)
2019(1)
  • 参考文献(1)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
神经网络
超限学习机
鲁棒
指数Laplace损失函数
迭代重赋权算法
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
应用数学和力学
月刊
1000-0887
50-1060/O3
16开
重庆交通大学90号信箱
78-21
1980
chi
出版文献量(篇)
3740
总下载数(次)
2
总被引数(次)
22232
相关基金
中国博士后科学基金
英文译名:China Postdoctoral Science Foundation
官方网址:http://www.chinapostdoctor.org.cn/index.asp
项目类型:
学科类型:
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
论文1v1指导