高维数据的特征选择及基于特征选择的集成学习研究

被引:0
作者
张丽新
机构
[1] 清华大学
关键词
特征选择; 高维; 集成学习; Relief; 遗传算法;
D O I
暂无
年度学位
2004
学位类型
博士
导师
摘要
图像处理、信息检索以及生物信息学等大规模机器学习问题的不断涌现,对已有的特征选择算法和机器学习算法提出了严峻的挑战,迫切需要适应大规模数据集的准确性和运行效率等综合性能较好的特征选择算法以及机器学习算法。本文在高维数据的特征选择以及基于特征选择的集成学习上开展了研究。主要工作包括以下方面: 一、设计了两种串联型组合式特征选择算法。针对Relief评估不能去除冗余特征的缺点,设计了两种串联型组合式特征选择算法:一种为Filter-Filter模式,另一种为Filter-Wrapper模式。在人工数据集上的实验表明,Filter-Filter模式的组合式算法可以有效的克服Relief不能去除冗余特征的缺点,去掉全部或者近似全部的冗余特征,且运行效率高于Filter-Wrapper模式的组合算法;在人工数据集和实际数据集上的实验表明,Filter-Wrapper模式的组合式算法取得了明显高于Filter-Filter模式的测试准确率。 二、基于Relief和遗传算法各自的优缺点,提出了Relief和遗传算法耦合的组合式特征选择算法。算法采用 Relief 指导遗传算法种群初始化,目的是提高遗传算法搜索近似最优解的速度,以便在较短时间内寻找到近似最优解。在17个维数较高的数据集上的实验结果表明,从分类准确率,特征子集大小以及运行时间等多角度考察,该算法具有良好的综合性能。 三、从个体分类器准确率和个体分类器间差异度两方面出发,提出了一种适于高维数据的基于两步式特征选择的集成学习算法ReFeatEn。实验表明,在特征维数较高,特征间关系较复杂的数据集上,ReFeatEn算法的测试准确率始终优于或相当于Bagging、Boosting和基于随机特征选择的集成学习算法RandFeatEn,并且ReFeatEn的运行速度远高于Bagging和Boosting算法,而且适于并行运行,是一种适用于高维数据的基于特征选择的集成学习算法。 四、提出了将特征选择嵌入到Boosting算法中的思路,并设计了总体算法框架,据此分别针对朴素贝叶斯分类器和最近邻中心分类器设计了相应的集成学习算法,解决了Boosting算法对噪声特征较敏感的缺陷,得到的测试准确率显著高于对应的Boosting算法,是一种鲁棒性很强且具有推广性的集成学习算法。
引用
收藏
页数:141
共 15 条
[1]
Using rough sets with heuristics for feature selection [J].
Zhong, N ;
Dong, J ;
Ohsuga, S .
JOURNAL OF INTELLIGENT INFORMATION SYSTEMS, 2001, 16 (03) :199-214
[2]
An experimental comparison of three methods for constructing ensembles of decision trees: Bagging, boosting, and randomization [J].
Dietterich, TG .
MACHINE LEARNING, 2000, 40 (02) :139-157
[3]
An empirical comparison of voting classification algorithms: Bagging, boosting, and variants [J].
Bauer, E ;
Kohavi, R .
MACHINE LEARNING, 1999, 36 (1-2) :105-139
[4]
An efficient method to estimate bagging's generalization error [J].
Wolpert, DH ;
Macready, WG .
MACHINE LEARNING, 1999, 35 (01) :41-55
[5]
The role of occam's razor in knowledge discovery [J].
Domingos, P .
DATA MINING AND KNOWLEDGE DISCOVERY, 1999, 3 (04) :409-425
[6]
Locally Weighted Learning..[J].Christopher G. Atkeson;Andrew W. Moore;Stefan Schaal.Artificial Intelligence Review.1997, 1-5
[8]
Bagging predictors [J].
Breiman, L .
MACHINE LEARNING, 1996, 24 (02) :123-140
[9]
LEARNING BOOLEAN FUNCTIONS IN AN INFINITE ATTRIBUTE SPACE [J].
BLUM, A .
MACHINE LEARNING, 1992, 9 (04) :373-386
[10]
THE STRENGTH OF WEAK LEARNABILITY [J].
SCHAPIRE, RE .
MACHINE LEARNING, 1990, 5 (02) :197-227