一种提高神经网络集成差异性的学习方法

被引:9
作者
李凯
黄厚宽
机构
[1] 河北大学数学与计算机学院
[2] 北京交通大学计算机与信息技术学院 河北保定
[3] 北京交通大学计算机与信息技术学院
[4] 北京
关键词
神经网络; 集成; 小规模数据集; 差异性; 泛化;
D O I
暂无
中图分类号
TP183 [人工神经网络与计算];
学科分类号
081104 ; 0812 ; 0835 ; 1405 ;
摘要
集成学习已经成为机器学习的研究方向之一,它可以显著地提高分类器的泛化性能.本文分析了Bag-ging及AdaBoost集成方法,指出了这两种方法的缺陷;然后提出了一种新的基于神经网络的分类器集成方法DBNNE,该方法通过生成差异数据增加集成的差异性;另外,当生成一个分类器后,采用了测试方法确保分类器集成的正确率;最后针对十个标准数据集进行了实验研究,结果表明集成算法DBNNE在小规模数据集上优于Bagging及AdaBoost集成方法,而在较大数据集上也不逊色于这两种集成方法.
引用
收藏
页码:1387 / 1390
页数:4
相关论文
共 3 条
[1]   Measures of diversity in classifier ensembles and their relationship with the ensemble accuracy [J].
Kuncheva, LI ;
Whitaker, CJ .
MACHINE LEARNING, 2003, 51 (02) :181-207
[2]   Behavioral diversity and a probabilistically optimal GP ensemble [J].
Kosuke Imamura ;
Terence Soule ;
Robert B. Heckendorn ;
James A. Foster .
Genetic Programming and Evolvable Machines, 2003, 4 (3) :235-253
[3]   Bagging predictors [J].
Breiman, L .
MACHINE LEARNING, 1996, 24 (02) :123-140