基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
针对极限学习机在处理高维数据时存在内存能耗大、分类准确率低、泛化性差等问题,提出了一种批量分层编码极限学习机算法.首先通过对数据集分批处理,以减小数据维度,降低输入复杂性;然后采用多层自动编码器结构对各批次数据进行无监督编码,以实现深层特征提取;最后利用流形正则化思想构建含有继承因子的流形分类器,以保持数据的完整性,提高算法的泛化性能.实验结果表明,该方法实现简单,在NORB,MNIST和USPS数据集上的分类准确率分别可以达到92.16%、99.35%和98.86%,与其它极限学习机算法对比,在降低计算复杂度和减少CPU内存消耗上具有较明显的优势.
推荐文章
基于并行学习的多层极限学习机
神经网络
稀疏编码
极限学习机
并行学习
基于流形正则化极限学习机的文本分类算法研究
文本分类
监督学习
正则化极限学习机
流形正则化
特征映射
基于极限学习机的自动化图书信息分类技术
图书分类
机器学习
极限学习机
文本表示
TF-IDF
特征选择
图书语料测试
基于粒子群优化算法的最优极限学习机
粒子群算法
极限学习机
隐层节点
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于流形正则化的批量分层编码极限学习机
来源期刊 计量学报 学科
关键词 计量学 极限学习机 高维数据 批次学习 无监督编码 流形正则化
年,卷(期) 2021,(7) 所属期刊栏目
研究方向 页码范围 937-943
页数 7页 分类号 TB973
字数 语种 中文
DOI 10.3969/j.issn.1000-1158.2021.07.16
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (197)
共引文献  (20)
参考文献  (15)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1958(1)
  • 参考文献(0)
  • 二级参考文献(1)
1992(1)
  • 参考文献(0)
  • 二级参考文献(1)
1994(2)
  • 参考文献(0)
  • 二级参考文献(2)
1995(1)
  • 参考文献(0)
  • 二级参考文献(1)
1998(1)
  • 参考文献(0)
  • 二级参考文献(1)
2004(1)
  • 参考文献(0)
  • 二级参考文献(1)
2005(1)
  • 参考文献(0)
  • 二级参考文献(1)
2006(8)
  • 参考文献(1)
  • 二级参考文献(7)
2007(1)
  • 参考文献(0)
  • 二级参考文献(1)
2008(5)
  • 参考文献(0)
  • 二级参考文献(5)
2009(6)
  • 参考文献(1)
  • 二级参考文献(5)
2010(8)
  • 参考文献(0)
  • 二级参考文献(8)
2011(13)
  • 参考文献(0)
  • 二级参考文献(13)
2012(14)
  • 参考文献(1)
  • 二级参考文献(13)
2013(12)
  • 参考文献(0)
  • 二级参考文献(12)
2014(16)
  • 参考文献(1)
  • 二级参考文献(15)
2015(27)
  • 参考文献(2)
  • 二级参考文献(25)
2016(33)
  • 参考文献(2)
  • 二级参考文献(31)
2017(37)
  • 参考文献(1)
  • 二级参考文献(36)
2018(17)
  • 参考文献(2)
  • 二级参考文献(15)
2019(6)
  • 参考文献(3)
  • 二级参考文献(3)
2020(1)
  • 参考文献(1)
  • 二级参考文献(0)
2021(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
计量学
极限学习机
高维数据
批次学习
无监督编码
流形正则化
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计量学报
月刊
1000-1158
11-1864/TB
大16开
北京1413信箱
2-798
1980
chi
出版文献量(篇)
3549
总下载数(次)
8
总被引数(次)
20173
论文1v1指导