非线性支持向量机

非线性支持向量
建立非线性支持向量机分为两步:首先将非线性数据转变到一个维数比原空间高的新的特征空间中,然后再新的特征空间中使用线性支持向量机。
我们通常将描述数据的量成为特征,而把选择随合适表达式将非线性数据转变到特征空间的任务成为特征选择。
在解决一个特征空间中的最优分类面问题时,我们只需要考虑这个空间中的内积运算。根据虽有分类面的性质,当非非线性支持向量机映射到特征空间时,在这个变幻空间中我们只需要进行内积运算即可。如果有一种方法可以在变换空间中直接计算内积,使其与原空间中的内积计算直接对应,那么久省去了通过特征选择将一个非线性支持向量机映射到特征空间的不会步骤。这样即使变换空间的维数增加许多,计算的复杂度也没增加多少。核函数方法就是这样一种方法。
核函数的定义:
定义:核是一个函数K,对所有x i,x jϵX,满足:K x i,x j=<∅(x i)∙∅(x j)>,∅为从X到特征空间F的映射。注意:核函数为对称函数。
因为K x i,x j=<∅(x i)∙∅(x j)>,所以在SVM算法中只需用到K,而无需考虑如何得到∅。如果在算法中每处
的x i∙x j都由K x i,x j替代,算法就能在特征空间F中使用SVM,并且训练样本所花时间与训练原始样本所花时间相同。因此,在完成核变换后,所有操作和线性SVM一样,只不过操作进行的空间不一样。
在支持向量机中,最常用的核函数是:
多项式:
非手术
K x i,x j=(x i T x j+1)q,q>0
贝克曼梁
径向基函数:
K x i,x j=exp⁡(−x i−x j2σ2
)
伯克纳双曲正切:
K x i,x j=tanh⁡(βx i T x j+γ)
下面,我们将用一个例子来说明该如何选择核函数。
傅泽星假设训练数据都是R2中的向量,我们选择核函数K x i,x j=(x i∙x j)2。这样我们很容易到一个新的空间H,以及从R2→ 的特征映射∅,比如说:(x i∙x j)2=∅x∙∅(y)如果选择H=R3,则
∅ x  = x 1
2 2x 1x 2x 2
2
如果H =R 4,则
∅ x  = x 12x 1x 2x 1x 2x 2
2  Mercer 条件
在统计学习理论中,只有当运算符合mercer 条件时,才可以进行内积运算。
令x ∈X ,∅是从X 到特征空间F 的映射,那么对于任意的对称函数K (x ,z ),mercer 在特征空间F 中内积运算的充分必要条件是:
对任意的g (x )≠0,有
g (x )2dx <∞
K  x ,z  g  x  g (z )dxdz ≥0
铬酸盐钝化
一旦引入适当的核函数,就相当于把原特征空间变化到某一个新的特征空间,此时,优化函数就成为了:
maxQ  β = βi −12m
笔下文书
i =1 βi βj y i y j K (x i ∙x j )m i ,j =1 对应的最优分类函数也就变为:
f  x  =sgn (
βi y i K  x i ,x  +b m i =1) 这就是非线性情况下的支持向量机。

本文发布于:2024-09-23 03:21:26,感谢您对本站的认可!

本文链接:https://www.17tex.com/xueshu/570022.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:空间   特征   函数   向量   支持   内积   映射   数据
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议