支持向量机方法是建立在统计学习理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性和学习能力之间寻求最佳折衷,以期获得最好的推广能力(Generalizatin Abjlity)。支持向量机的方法主要有以下几个优点。(1)它是专门针对有限样本情况的,其目标是得到现有信息下的最优解而不仅仅是样本数趋干无穷大时的最优值。(2)算法最终将转化成为一个二次犁寻优|l口】题,从理论上说。得到的将是全局最优点,解决了在神经网络方法中无法避免的局部极值问题。(3)算法将实际问题通过非线性变换转换到高维的特征空间(Feature Space),在高维窄间中构造线性判别函数来实现原空间中的非线性判别函数,特殊性质能保证机器有较好的推广能力,同时它巧妙地解决了维数问题,其算法复杂度与样本维数无关。在支持向量机方法中,只要定义不同的内积函数,就可以实现多项式逼近、贝叶斯分类器、径向基函数方法、多层感知器网络等许多现自学爿算法。1 SVM的训练算法传统的利用标准二次型优化技术解决对偶问题的方法