3.3 支持向量回归机SVM本身是针对经典的二分类问题提出的,支持向量回归机(Support Vector Regression,SVR)是支持向量在函数回归领域的应用。SVR与SVM分类有以下不同:SVM回归的样本点只有一类,所寻求的最优超平面不是使两类样本点分得“最开”,而是使所有样本点离超平面的“总偏差”最小。这时样本点都在两条边界线之间,求最优回归超平面同样等价于求最大间隔。3.3.1 SVR基本模型对于线性情况,支持向量机函数拟合首先考虑用线性回归函数拟合,为输入量,为输出量,即需要确定和。图3-3a SVR结构图 图3-3b不灵敏度函数惩罚函数是学习模型在学习过程中对误差的一种度量,一般在模型学习前己经选定,不同的学习问题对应的损失函数一般也不同,同一学习问题选取不同的损失函数得到的模型也不一样。常用的惩罚函数形式及密度函数如表3-1。表3-1 常用的损失函数和相应的密度函数损失函数名称损失函数表达式噪声密度-不敏感拉普拉斯高斯鲁棒损失多项式