基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
推导了使用指数损失函数和0-1损失函数的Boosting 算法的严格在线形式,证明这两种在线Boosting 算法最大化样本间隔期望、最小化样本间隔方差。通过增量估计样本间隔的期望和方差, Boosting 算法可应用于在线学习问题而不损失分类准确性。 UCI数据集上的实验表明,指数损失在线Boosting算法的分类准确性与批量自适应Boosting (AdaBoost)算法接近,远优于传统的在线Boosting;0-1损失在线Boosting 算法分别最小化正负样本误差,适用于不平衡数据问题,并且在噪声数据上分类性能更为稳定。
推荐文章
基于不同损失和距离函数的乘更新分类算法
乘权更新
在线学习
非近似更新
分类算法
求解0-1背包问题的混合蝙蝠算法
0-1背包问题
蝙蝠算法
遗传算法
反置算子
贪心策略
基于可变损失和流形正则化的生成对抗网络
生成对抗网络
局部扰动
可变损失
流形正则化
半监督
多目标0-1规划的混沌优化算法
多目标
混沌
优化
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于指数损失和0-1损失的在线Boosting算法
来源期刊 自动化学报 学科
关键词 AdaBoost 在线学习 特征选择 不平衡数据
年,卷(期) 2014,(4) 所属期刊栏目 论文与报告
研究方向 页码范围 635-642
页数 8页 分类号
字数 6604字 语种 中文
DOI 10.3724/SP.J.1004.2014.00635
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 茅耀斌 南京理工大学自动化学院 37 772 17.0 27.0
2 孙金生 南京理工大学自动化学院 62 829 15.0 26.0
3 侯杰 南京理工大学自动化学院 2 8 1.0 2.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (55)
共引文献  (164)
参考文献  (12)
节点文献
引证文献  (1)
同被引文献  (4)
二级引证文献  (0)
1984(1)
  • 参考文献(0)
  • 二级参考文献(1)
1990(1)
  • 参考文献(0)
  • 二级参考文献(1)
1994(2)
  • 参考文献(0)
  • 二级参考文献(2)
1996(1)
  • 参考文献(0)
  • 二级参考文献(1)
1997(3)
  • 参考文献(1)
  • 二级参考文献(2)
1998(2)
  • 参考文献(1)
  • 二级参考文献(1)
1999(3)
  • 参考文献(0)
  • 二级参考文献(3)
2000(4)
  • 参考文献(0)
  • 二级参考文献(4)
2002(5)
  • 参考文献(0)
  • 二级参考文献(5)
2004(3)
  • 参考文献(1)
  • 二级参考文献(2)
2005(3)
  • 参考文献(0)
  • 二级参考文献(3)
2007(4)
  • 参考文献(1)
  • 二级参考文献(3)
2008(5)
  • 参考文献(1)
  • 二级参考文献(4)
2009(4)
  • 参考文献(2)
  • 二级参考文献(2)
2010(3)
  • 参考文献(1)
  • 二级参考文献(2)
2011(6)
  • 参考文献(2)
  • 二级参考文献(4)
2012(13)
  • 参考文献(0)
  • 二级参考文献(13)
2013(4)
  • 参考文献(2)
  • 二级参考文献(2)
2014(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2015(1)
  • 引证文献(1)
  • 二级引证文献(0)
研究主题发展历程
节点文献
AdaBoost
在线学习
特征选择
不平衡数据
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
自动化学报
月刊
0254-4156
11-2109/TP
大16开
北京市海淀区中关村东路95号(北京2728信箱)
2-180
1963
chi
出版文献量(篇)
4124
总下载数(次)
26
总被引数(次)
120705
论文1v1指导