基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
集成学习已经成为机器学习的研究方向之一,它可以显著地提高分类器的泛化性能.本文分析了Bagging及AdaBoost集成方法,指出了这两种方法的缺陷;然后提出了一种新的基于神经网络的分类器集成方法DBNNE,该方法通过生成差异数据增加集成的差异性;另外,当生成一个分类器后,采用了测试方法确保分类器集成的正确率;最后针对十个标准数据集进行了实验研究,结果表明集成算法DBNNE在小规模数据集上优于Bagging及AdaBoost集成方法,而在较大数据集上也不逊色于这两种集成方法.
推荐文章
基于目标数据修正的差异性神经网络集成方法
目标数据修正
差异性神经网络
神经网络集成方法
基于k-means聚类的神经网络分类器集成方法研究
差异性
集成学习
分类器
聚类
集成学习算法的差异性及性能比较
差异性
集成学习
特征集
取样
性能
基于粒子群优化算法的并行学习神经网络集成构造方法
神经网络集成
粒子群优化算法
并行学习
泛化误差
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 一种提高神经网络集成差异性的学习方法
来源期刊 电子学报 学科 工学
关键词 神经网络 集成 小规模数据集 差异性 泛化
年,卷(期) 2005,(8) 所属期刊栏目 学术论文
研究方向 页码范围 1387-1390
页数 4页 分类号 TP18
字数 3369字 语种 中文
DOI 10.3321/j.issn:0372-2112.2005.08.010
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 黄厚宽 北京交通大学计算机与信息技术学院 139 2476 26.0 44.0
2 李凯 河北大学数学与计算机学院 52 435 12.0 19.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (8)
节点文献
引证文献  (17)
同被引文献  (9)
二级引证文献  (89)
1990(1)
  • 参考文献(1)
  • 二级参考文献(0)
1996(3)
  • 参考文献(3)
  • 二级参考文献(0)
1997(1)
  • 参考文献(1)
  • 二级参考文献(0)
2002(1)
  • 参考文献(1)
  • 二级参考文献(0)
2003(2)
  • 参考文献(2)
  • 二级参考文献(0)
2005(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2007(3)
  • 引证文献(3)
  • 二级引证文献(0)
2008(4)
  • 引证文献(4)
  • 二级引证文献(0)
2009(5)
  • 引证文献(2)
  • 二级引证文献(3)
2010(3)
  • 引证文献(0)
  • 二级引证文献(3)
2011(7)
  • 引证文献(3)
  • 二级引证文献(4)
2012(17)
  • 引证文献(4)
  • 二级引证文献(13)
2013(13)
  • 引证文献(0)
  • 二级引证文献(13)
2014(15)
  • 引证文献(0)
  • 二级引证文献(15)
2015(9)
  • 引证文献(1)
  • 二级引证文献(8)
2016(8)
  • 引证文献(0)
  • 二级引证文献(8)
2017(7)
  • 引证文献(0)
  • 二级引证文献(7)
2018(7)
  • 引证文献(0)
  • 二级引证文献(7)
2019(7)
  • 引证文献(0)
  • 二级引证文献(7)
2020(1)
  • 引证文献(0)
  • 二级引证文献(1)
研究主题发展历程
节点文献
神经网络
集成
小规模数据集
差异性
泛化
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
电子学报
月刊
0372-2112
11-2087/TN
大16开
北京165信箱
2-891
1962
chi
出版文献量(篇)
11181
总下载数(次)
11
总被引数(次)
206555
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
论文1v1指导