基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
正则化极限学习机RELM是一种单隐层前馈神经网络,不同于传统神经网络算法,RELM通过随机设置输入层权重和偏置值,可以快速求得输出层权重,并且引入正则化因子,能够提高模型的泛化能力.针对文本信息高维度、多类别的问题,提出一种基于快速自编码的正则化极限学习机FARELM.将由RELM改进后的快速自编码神经网络对样本进行无监督特征学习,并对特征提取后的数据使用RELM进行分类.实验表明,FA-RELM的学习速度和分类精度较优.
推荐文章
深层自动编码机的文本分类算法改进
自动编码机
无监督学习
深层原型自动编码机
原型分类器
基于语义依存分析的图网络文本分类模型
语义依存分析
词嵌入
语义图网络块
文本分类
基于新的关键词提取方法的快速文本分类系统
计算机应用
中文信息处理
关键词提取
Web文档分类
基于大数据挖掘技术的文本分类研究
大规模文本数据
高维特征
大数据挖掘技术
文本分类器
分类精度
分类时间
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于快速自编码的RELM的文本分类
来源期刊 计算机工程与科学 学科 工学
关键词 文本分类 特征提取 自动编码器 正则化极限学习机
年,卷(期) 2016,(5) 所属期刊栏目 高性能计算
研究方向 页码范围 871-876
页数 6页 分类号 TP391
字数 4942字 语种 中文
DOI 10.3969/j.issn.1007-130X.2016.05.005
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 周杭霞 中国计量大学信息工程学院 44 314 11.0 15.0
2 叶佳骏 中国计量大学信息工程学院 4 18 2.0 4.0
3 任欢 中国计量大学信息工程学院 3 7 2.0 2.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (9)
节点文献
引证文献  (2)
同被引文献  (9)
二级引证文献  (1)
1970(1)
  • 参考文献(1)
  • 二级参考文献(0)
1975(1)
  • 参考文献(1)
  • 二级参考文献(0)
1986(1)
  • 参考文献(1)
  • 二级参考文献(0)
1987(1)
  • 参考文献(1)
  • 二级参考文献(0)
2003(1)
  • 参考文献(1)
  • 二级参考文献(0)
2006(1)
  • 参考文献(1)
  • 二级参考文献(0)
2008(1)
  • 参考文献(1)
  • 二级参考文献(0)
2012(1)
  • 参考文献(1)
  • 二级参考文献(0)
2013(1)
  • 参考文献(1)
  • 二级参考文献(0)
2016(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2017(1)
  • 引证文献(1)
  • 二级引证文献(0)
2018(2)
  • 引证文献(1)
  • 二级引证文献(1)
研究主题发展历程
节点文献
文本分类
特征提取
自动编码器
正则化极限学习机
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机工程与科学
月刊
1007-130X
43-1258/TP
大16开
湖南省长沙市开福区德雅路109号国防科技大学计算机学院
42-153
1973
chi
出版文献量(篇)
8622
总下载数(次)
11
总被引数(次)
59030
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导