基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
在剔除影响单隐层前馈神经网络性能的“脏数据”后,传统的极限学习机算法需要重新训练整个网络,这会增加很多额外的训练时间。针对这一问题,在传统的极限学习机算法的基础上,提出一种在线负增量学习算法:剔除“脏训练样本”后,不需要再重新训练整个网络,而只需在原有的基础上,通过更新外权矩阵来完成网络更新。算法复杂性分析和仿真实验的结果表明所提出的算法具有更高的执行速度。
推荐文章
在线增量极限学习机及其性能研究
极限学习机
增量学习
在线学习
广义逆
在线增量极限学习机
一种基于鲁棒估计的极限学习机方法
极限学习机
稳健估计
鲁棒极限学习机
M估计
神经网络
凸增量极限学习机的逼近阶
凸增量极限学习机
单隐层前向神经网络
逼近阶
Cauchy-Schwarz不等式
基于在线序列-极限学习机的干旱预测
极限学习机
在线序列
干旱
预测因子
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 一种基于极限学习机的在线负增量算法
来源期刊 计算机应用与软件 学科 工学
关键词 极限学习机 负增量算法 算法复杂性 仿真实验
年,卷(期) 2016,(9) 所属期刊栏目 算 法
研究方向 页码范围 269-272
页数 4页 分类号 TP3
字数 3933字 语种 中文
DOI 10.3969/j.issn.1000-386x.2016.09.063
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 谢林森 丽水学院工程与设计学院 16 64 5.0 7.0
2 卢诚波 丽水学院工程与设计学院 25 78 4.0 7.0
3 任婷婷 浙江师范大学数理与信息工程学院 2 1 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (7)
节点文献
引证文献  (1)
同被引文献  (11)
二级引证文献  (2)
1989(1)
  • 参考文献(1)
  • 二级参考文献(0)
1995(1)
  • 参考文献(1)
  • 二级参考文献(0)
2006(2)
  • 参考文献(2)
  • 二级参考文献(0)
2009(1)
  • 参考文献(1)
  • 二级参考文献(0)
2012(1)
  • 参考文献(1)
  • 二级参考文献(0)
2014(1)
  • 参考文献(1)
  • 二级参考文献(0)
2016(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2019(1)
  • 引证文献(1)
  • 二级引证文献(0)
2020(2)
  • 引证文献(0)
  • 二级引证文献(2)
研究主题发展历程
节点文献
极限学习机
负增量算法
算法复杂性
仿真实验
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机应用与软件
月刊
1000-386X
31-1260/TP
大16开
上海市愚园路546号
4-379
1984
chi
出版文献量(篇)
16532
总下载数(次)
47
总被引数(次)
101489
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导