支持向量机SVM——百度百科

简介:

支持向量机(英语:Support Vector Machine, 简称SVM),是一种有监督学习方法,可被广泛应用于统计分类以及线性回归。

Vapnik等人在多年研究统计学习理论基础上对线性分类器提出了另一种设计最佳准则。其原理也从线性可分说起,然后扩展到线性不可分的情况。甚至扩展到使用非线性函数中去,这种分类器被称为支持向量机。

主要思想

 它是针对线性可分情况进行分析,对于线性不可分的情况,通过使用非线性映射算法将低维输入空间线性不可分的样本转化为高维特征 空间使其线性可分,从而使得高维特征空间采用线性算法对样本的非线性特征进行线性分析成为可能;

举例:如下图:将1维的“线性不可分”上升到2维后就成为线性可分了。

         

              

 

 它基于结构风险最小化理论之上在特征空间中建构最优分割超平面,使得学习器得到全局最优化,并且在整个样本空间的期望风险以某个概率满足一定上界。

一般特征

 SVM学习问题可以表示为凸优化问题,因此可以利用已知的有效算法发现目标函数的全局最小值。而其他分类方法(如基于规则的分类器和人工神经网络)都采用一种基于贪心学习的策略来搜索假设空间,这种方法一般只能获得局部最优解。

 SVM通过最大化决策边界的边缘来控制模型的能力。尽管如此,用户必须提供其他参数,如使用核函数类型和引入松弛变量等。

 通过对数据中每个分类属性引入一个哑变量,SVM可以应用于分类数据。

 SVM一般只能用在二类问题,对于多类问题效果不好。

原理简介

SVM方法是通过一个非线性映射p,把样本空间映射到一个高维乃至无穷维的特征空间中(Hilbert空间),使得在原来的样本空间中非线性可分的问题转化为在特征空间中的线性可分的问题。简单地说,就是升维和线性化。升维,就是把样本向高维空间做映射,一般情况下这会增加计算的复杂性,甚至会引起“维数灾难”,因而人们很少问津。但是作为分类、回归等问题来说,很可能在低维样本空间无法线性处理的样本集,在高维特征空间中却可以通过一个线性超平面实现线性划分(或回归)。一般的升维都会带来计算的复杂SVM方法巧妙地解决了这个难题:应用核函数的展开定理,就不需要知道非线性映射的显式表达式;由于是在高维特征空间中建立线性学习机,所以与线性模型相比,不但几乎不增加计算的复杂性,而且在某种程度上避免了“维数灾难”.这一切要归功于核函数的展开和计算理论。

常用核函数

⑴ 线性核函数K(x,y)=x·y;

⑵ 多项式核函数K(x,y)=[(x·y)+1]d;

⑶ 径向基函数K(x,y)=exp(-|x-y|^2/d^2)

⑷ 二层神经网络核函数K(x,y)=tanh(a(x·y)+b).




本文转自jihite博客园博客,原文链接:http://www.cnblogs.com/kaituorensheng/archive/2013/05/28/3104345.html,如需转载请自行联系原作者

相关文章
百度百科创建个人词条的流程是怎样的?
百度百科创建个人词条的流程是怎样的?
159 0
|
搜索推荐
百度百科创建人物词条多少钱?百科创建的费用解析
百度百科创建人物词条多少钱?百科创建的费用解析
165 0
百度之星之F:百科蝌蚪团
百度百科有一支神奇的队伍,他们叫自己“百科蝌蚪团”。为了更好的让蝌蚪团的成员们安排工作,百度百科的运营团队定出了一个24小时制的时间表。
290 0
|
监控 定位技术
OA系统里的知识管理,企业内部的“百度百科”
当企业意识到人才的重要性,很多企业开始思考择人、用人、育人、留人之道,而知识管理作为一项重要内容开始上升到企业的战略层面。
1568 0
百度又摊上大事!百科外链指向色情网站
百度回复已经第一时间进行了处理排查。
348 0
|
安全 数据安全/隐私保护 Windows
百度动作不断推出,百科TA说
百度百科是百度的重要产品,也是做互联网营销中很重要的一环,因为百度百科的高流量、权威,实际效果很好。
878 0
百度百科中关于fwrite的用法说明
size_t fwrite(const void* buffer, size_t size, size_t count, FILE* stream); 注意:这个函数以二进制形式对文件进行操作,不局限于文本文件 返回值:返回实际写入的数据块数目 (1)buffer:是一个指针,对fwrite来说,是要获取数据的地址; (2)size:要写入内容的单字节数; (3)count:要进
1431 0