支持向量机是在统计学习理论基础上发展出的一种性能优良的学习机器,其基本的思想是,在线性情况下,在原空间寻找两类样本的最优分类超平面,而在非线性情况下,首先将原始模式空间映射到高维的特征空间,并在该特征空间中寻找最优分类超平面。支持向量机利用一些具有特殊性质的核函数,将低维空间中的非线性运算实现为特征空间中的内积运算,从而巧妙地避免了计算高维特征空间。SVM根据有限的样本信息在模型的复杂性和学习能力之间寻求最佳折衷,以期获得最好的推广能力(Generalization Ability)。SVM将机器学习中的最大间隔超平面、Mercer核、凸二次优化、稀疏解和松弛变量等技术集成在一起,在许多挑战性的问题中获得目前为止最好的性能。
支持向量机始终存在的一个问题是它的执行效果很依赖于核函数,但却没有一个合适的理论来找到适应于具体的数据的核函数。为了更好地理解数据是怎样映射到高维空间,本文从黎曼几何的角度分析了从原始空间到特征空间的几何关系,并在此基础上得出可以通过修正黎曼张量矩阵来调整映射后空间关系,从而得到自适应核函数的方法。本文通过利用前一次训练获得的支持向量信息得到数据依赖的修正核函数,并在此基础上针对非标准面支持向量和错分支持向量提出相应的自适应核函数,并且在随后提出了针对支持向量周边样本密集程度的自适应核函数。最后通过对人为的和现实数据的仿真结果比较几种核的优劣。