最大相关最小冗余的无监督特征选择算法的研究及其应用

被引:0
作者
刘荣烨
机构
[1] 中国海洋大学
关键词
无监督特征选择; 相关和冗余; 拉普拉斯算法; Pearson相关系数; 集成聚类;
D O I
暂无
年度学位
2010
学位类型
硕士
导师
摘要
随着现实世界很多无标签和高维度数据集的广泛出现,如文本、图像和基因数据等,无监督特征选择方法的研究和应用成为了当前的一个研究热点,在对无标签数据集的处理上体现了它难以替代的重要地位。 本文对无监督特征选择展开初步的研究和探讨,并对过滤式无监督特征选择进行深入的研究。过滤式特征选择的挑战在于如何定义不相关和冗余特征[1],从过滤式无监督特征选择的这两个挑战和研究现状来看,其存在的不足之处是:(1)对冗余特征的定义,从特征归约和特征聚类角度考虑。而特征归约的方法(PCA、ICA)得到的是特征的转换,无法得到原始的特征子集,可解读性不强;对特征用k均值进行相似性聚类,k值的不确定性和聚类算法的不稳定性给冗余特征的删除带来困难。(2)只从去除不相关或冗余特征的角度进行过滤式特征选择,使得到的特征子集不满足最大相关和最小冗余的要求,而不相关和冗余特征往往会降低聚类的性能。 因此,本文针对过滤式无监督特征选择的以上不足,借鉴有监督学习中删除冗余特征的思想和集成聚类思想,从统计学和集成聚类两个角度,研究无监督特征选择中删除冗余特征的方法。并将这两个删除冗余特征的方法与只考虑相关特征重要性排序的拉普拉斯算法相结合,设计出两个同时考虑不相关和冗余特征删除的最大相关和最小冗余的无监督特征选择算法LS-CORR (Laplasian Score and Correlation)和LS-EC(Laplasican Score and Ensemble Clustering)。在标准UCI数据集和人工数据集上,本文对LS-CORR和LS-EC算法分别进行了实验。实验结果表明这两个算法都能较好地处理无关和冗余特征较多的数据,得到维度较小的特征子集,且提高了数据集的聚类准确性。LS-CORR算法与LS-EC算法相比,LS-CORR算法删除冗余特征过程较简单,根据特征间的相关程度能快速地删除冗余特征;LS-EC算法通过聚类结果从簇与特征和特征与特征间的相关和冗余来综合考虑噪声特征的删除,得到了更小更优的特征子集。但LS-EC算法在集成聚类上降低了算法的效率,适合样本规模较少的数据。 而后,本文将拉普拉斯和LS-CORR无监督特征选择算法应用于烟叶致香成分分析中,从烟叶致香成分数据的本质属性和分布分析其关键致香成分。并通过实验,与现有方法对比,说明这两种无监督特征选择算法应用于烤烟烟叶致香成分研究中的有效性、实用性和现实指导意义。 本文最后对研究工作进行了总结,并指出了今后进一步的研究方向。
引用
收藏
页数:73
共 39 条
[1]
数据归约的统计方法研究及应用 [D]. 
刘云霞 .
厦门大学,
2007
[2]
Constraint Score: A new filter method for feature selection with pairwise constraints.[J].Daoqiang Zhang;Songcan Chen;Zhi-Hua Zhou.Pattern Recognition.2007, 5
[3]
Sensory evaluation in quality control:: an overview, new developments and future opportunities [J].
Muñoz, AM .
FOOD QUALITY AND PREFERENCE, 2002, 13 (06) :329-339
[4]
Proteomic approaches to biomarker discovery in prostate and bladder cancers [J].
Adam, BL ;
Vlahou, A ;
Semmes, OJ ;
Wright, GL .
PROTEOMICS, 2001, 1 (10) :1264-1270
[5]
SMEM algorithm for mixture models [J].
Ueda, N ;
Nakano, R ;
Ghahramani, Z ;
Hinton, GE .
NEURAL COMPUTATION, 2000, 12 (09) :2109-2128
[6]
Feature Subset Selection by Bayesian network-based optimization.[J]..Artificial Intelligence.2000, 1
[7]
Concept learning and feature selection based on square-error clustering [J].
Mirkin, B .
MACHINE LEARNING, 1999, 35 (01) :25-39
[8]
Mixtures of probabilistic principal component analyzers [J].
Tipping, ME ;
Bishop, CM .
NEURAL COMPUTATION, 1999, 11 (02) :443-482
[9]
Dimension reduction by local principal component analysis [J].
Kambhatla, N ;
Leen, TK .
NEURAL COMPUTATION, 1997, 9 (07) :1493-1516
[10]
Feature selection for classification.[J].M. Dash;H. Liu.Intelligent Data Analysis.1997, 1