数据挖掘导论--第5章-分类-5.5-SVM-2017.ppt

上传人:99****p 文档编号:1420379 上传时间:2019-02-25 格式:PPT 页数:41 大小:585KB
下载 相关 举报
数据挖掘导论--第5章-分类-5.5-SVM-2017.ppt_第1页
第1页 / 共41页
数据挖掘导论--第5章-分类-5.5-SVM-2017.ppt_第2页
第2页 / 共41页
数据挖掘导论--第5章-分类-5.5-SVM-2017.ppt_第3页
第3页 / 共41页
数据挖掘导论--第5章-分类-5.5-SVM-2017.ppt_第4页
第4页 / 共41页
数据挖掘导论--第5章-分类-5.5-SVM-2017.ppt_第5页
第5页 / 共41页
点击查看更多>>
资源描述

1、5.5 支持向量机 支持向量机n 支持向量机 (Support Vector Machines, SVM) n 源于 Vapnik和 Chervonenkis的统计学习理论的早期工作n 第一篇论文是 Boser, Guyon和 Vapnik BGV92的文章 n 优点n 对复杂的非线性边界的建模能力n 与其它模型相比 , 它们不太容易过分拟合n 支持向量机还提供了学习模型的紧凑表示 n 广泛的使用范围n SVM可以用来预测和分类n 它们已经用在许多领域 , 包括手写数字识别、对象识别、演说人识别 , 以及基准时间序列预测检验 支持向量机n 两个线性可分的类n 找到这样一个超平面,使得所有的方块

2、位于这个超平面的一侧,而所有的圆圈位于它的另一侧 n 可能存在无穷多个那样的超平面 n “最大边缘 ”原理 :即追求分类器的泛化能力最大化。即希望所找到的决策边界,在满足将两类数据点正确的分开的前提下 ,对应的分类器边缘最大。这样可以使得新的测试数据被错分的几率尽可能小。 如下图所示的情况 (b)就比情况 (a)与 (c)的泛化能力强 ,其原因在于其分界面与两类样本中的最近邻的样本的距离最大 .(a) (b) (c)决策边界的边缘denotes +1denotes -1直观而言,如何分类这些样本?即给出一个决策超平面n 更多的例子:要考虑以下因素: 经验风险最小 (已知的样本错分最少) 泛化能

3、力最大(可能出现的新样本错分最少 )决策边界的边缘denotes +1denotes -1n 更多的例子:决策边界的边缘denotes +1denotes -1n 更多的例子:决策边界的边缘denotes +1denotes -1n 更多的例子:决策边界的边缘denotes +1denotes -1所有的决策超平面都是可行的。但是应该选择哪一个为最优决策超平面呢?n 更多的例子:决策边界的边缘Classifier Margindenotes +1denotes -1 Define the margin of a linear classifier as the width that the boundary could be increased by before hitting a datapoint.n 更多的例子:决策边界的边缘

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育教学资料库 > 课件讲义

Copyright © 2018-2021 Wenke99.com All rights reserved

工信部备案号浙ICP备20026746号-2  

公安局备案号:浙公网安备33038302330469号

本站为C2C交文档易平台,即用户上传的文档直接卖给下载用户,本站只是网络服务中间平台,所有原创文档下载所得归上传人所有,若您发现上传作品侵犯了您的权利,请立刻联系网站客服并提供证据,平台将在3个工作日内予以改正。