支持向量机分类方法及其在文本分类中的应用研究

被引:0
作者
赵晖
机构
[1] 大连理工大学
关键词
支持向量机; 文本分类; 多类分类; 半模糊核聚类; 支持向量回归; 虚样本; 特征提取; 单词聚类;
D O I
暂无
年度学位
2006
学位类型
博士
导师
摘要
支持向量机作为一种基于统计学习理论的新型机器学习方法,较好地解决了非线性、高维数、局部极小点等实际问题,是机器学习领域新的研究热点。文本分类是基于内容的自动信息管理的核心技术。文本向量稀疏性大、维数高、特征之间具有较大的相关性,支持向量机对于特征相关性和稀疏性不敏感,处理高维数问题具有较大的优势,因此,支持向量机非常适用于文本分类问题,在文本分类中具有很大的应用潜力。但是,同时,文本分类也给支持向量机提出了许多富有挑战性的课题。例如,文本分类具有类别和样本数目多、噪音多等特点,支持向量机用于文本分类时存在训练和分类速度较慢等缺点。本文主要针对支持向量机在文本分类等实际应用中存在的问题进行深入研究,主要工作如下: 1、支持向量机是针对两类分类问题提出的,如何将其有效地推广到多类分类仍是一个尚未完全解决的问题。分析了现有支持向量机多类分类方法的特点,并给出了一种半模糊核聚类算法,在此基础上,根据树型支持向量机的特性,提出了一种基于半模糊核聚类的树型支持向量机多类分类方法。该方法基于半模糊核聚类算法挖掘不同类别之间的衔接和离散信息,设计树型支持向量机的树型结构,克服其差错积累问题。实验表明,与其它支持向量机多类分类方法相比,该方法具有较高的分类精度和训练速度,提高了支持向量机在多类分类问题中的应用效果。 2、针对标准支持向量机对噪音敏感,分类时倾向于样本数目较多的类别的问题,给出一种模糊支持向量机的推广模型,并在此基础上,结合近似支持向量机的优势,提出了一种支持向量机组合分类方法。该方法首先采用近似支持向量机快速地去除非支持向量、减少训练样本数目、确定样本权值和模型参数,然后在样本数目较少的训练集上,依据选择好的模型参数和样本权值训练模糊支持向量机的推广模型。实验表明,该方法能有效确定样本权值,减少训练时间,并克服野值点和类别训练样本数目不均衡对分类器的不利影响。 3、通常情况下,支持向量的数目越多,支持向量机的分类速度越慢,如何缩减支持向量集合、提高支持向量机的分类速度是支持向量机的重要研究内容之一。在分析了现有支持向量集合缩减方法的基础上,提出了一种基于虚样本与支持向量回归的支持向量集合缩减方法。该方法是根据支持向量集合和支持向量回归方法的特性,对
引用
收藏
页数:135
共 35 条
[1]
Efficient SVM regression training with SMO [J].
Flake, GW ;
Lawrence, S .
MACHINE LEARNING, 2002, 46 (1-3) :271-290
[2]
Convergence of a generalized SMO algorithm for SVM classifier design [J].
Keerthi, SS ;
Gilbert, EG .
MACHINE LEARNING, 2002, 46 (1-3) :351-360
[3]
Latent semantic kernels [J].
Cristianini, N ;
Shawe-Taylor, J ;
Lodhi, H .
JOURNAL OF INTELLIGENT INFORMATION SYSTEMS, 2002, 18 (2-3) :127-152
[4]
A simple decomposition method for support vector machines [J].
Hsu, CW ;
Lin, CJ .
MACHINE LEARNING, 2002, 46 (1-3) :291-314
[5]
SSVM: A smooth support vector machine for classification [J].
Lee, YJ ;
Mangasarian, OL .
COMPUTATIONAL OPTIMIZATION AND APPLICATIONS, 2001, 20 (01) :5-22
[6]
Least squares support vector machine classifiers [J].
Suykens, JAK ;
Vandewalle, J .
NEURAL PROCESSING LETTERS, 1999, 9 (03) :293-300
[7]
An Evaluation of Statistical Approaches to Text Categorization [J].
Yiming Yang .
Information Retrieval, 1999, 1 (1-2) :69-90
[8]
A tutorial on Support Vector Machines for pattern recognition [J].
Burges, CJC .
DATA MINING AND KNOWLEDGE DISCOVERY, 1998, 2 (02) :121-167
[9]
On the optimality of the simple Bayesian classifier under zero-one loss [J].
Domingos, P ;
Pazzani, M .
MACHINE LEARNING, 1997, 29 (2-3) :103-130
[10]
SUPPORT-VECTOR NETWORKS [J].
CORTES, C ;
VAPNIK, V .
MACHINE LEARNING, 1995, 20 (03) :273-297