Boosting和Bagging综述

被引:66
作者
沈学华
周志华
吴建鑫
陈兆乾
机构
[1] 南京大学计算机软件新技术国家重点实验室!南京
关键词
机器学习; 泛化误差; 分类; 回归;
D O I
暂无
中图分类号
学科分类号
摘要
Boosting 和 Bagging 是两种用来提高学习算法准确度的方法,这两种方法通过构造一个预测函数系列,然后以一定的方式将它们组合成一个预测函数.文章将介绍这两种方法以及对他们进行的一些理论分析和实验,并对它们的应用以及将来可能的研究进行讨论.
引用
收藏
页码:31 / 32+40 +40
页数:3
相关论文
共 5 条
[1]  
Boosting the Margin: A New Explanation for the Effectiveness of Voting Methods[J] . Robert E. Schapire,Yoav Freund,Peter Bartlett,Wee Sun Lee.The Annals of Statistics . 1998 (5)
[2]   A decision-theoretic generalization of on-line learning and an application to boosting [J].
Freund, Y ;
Schapire, RE .
JOURNAL OF COMPUTER AND SYSTEM SCIENCES, 1997, 55 (01) :119-139
[3]   Bagging predictors [J].
Breiman, L .
MACHINE LEARNING, 1996, 24 (02) :123-140
[4]   THE STRENGTH OF WEAK LEARNABILITY [J].
SCHAPIRE, RE .
MACHINE LEARNING, 1990, 5 (02) :197-227
[5]   A THEORY OF THE LEARNABLE [J].
VALIANT, LG .
COMMUNICATIONS OF THE ACM, 1984, 27 (11) :1134-1142