浅谈SVM支持向量积
浅谈SVM支持向量积
Nuyoah以下是我自己的一些认知,如果有理解不到位的地方还请指正!!谢谢
支持向量机
我们下面主要是围绕这几个问题来展开叙述
- 我们在使用分类问题的时候,什么样的决策边界才是最好的
- 如果特征数据本身很难区分,怎么办才好
- 计算复杂度怎么样?能够实际应用吗
好,下面我们来进行第一个问题的解释:
最优决策边界:
就像上面这张图片,如果我们想要将其分开,我么有以上两种分开的方法,都可以比较好的分开图片,但是支持向量机寻找的就是最优的决策边界,如图所示,比较好的分割这一份数据的边界时LargeMargin 这条线, 由此我们选择决策边界的时候 我们的宗旨是:选择离我们最近的点的最大距离。
数据点到决策边界的距离
我们既然想要求出离我们最近的点的最大距离,第一步我们当然是要求出离我们最近的点,
如图所示,我们想要求出点X到我们决策边界面的最短距离,目的就是求出X到决策面的距离
我们假设这个决策面的方程为 Ax + By + Cz = D,其中(A, B, C)为法向量
m1为平面外一点,m0为平面内一点,则:d = |M0M1|cosα,
cosa = (M0M1 * n)/ (|M0M1|*|n|)
M0M1 * n = |A(x1-x0)+B(y1-y0) + C(z1-z0)| = |Ax1 + By1 + Cz1 + D|
最后结果为:
d = (1/|n|)(n*M1 + D) n 为法向量
- 这时候我们就求出点到面之间的距离了:(1/法向量的长度)*(法向量与该点的乘积+D)
数据标签的定义:
支持向量机,是一个有监督的学习算法,需要我们人为的给出X 和 y,我们的数据集定义为(X1,y1)(x2, y2)….(xn, yn),y为样本类别,这里我们定义: 当X为正例的时候y = +1, 当x为负例的时候 y = -1,这里这样定义是为了方便以后进行运算
决策方程为: y(x) = W*x + b(这里就是决策面的方程(Ax + By + Cz = D))
y(x) > 0 yi = +1
=> yi*y(x) > 0
y(x) < 0 yi = -1
这里是确保 yi*y(x) 始终是大于零的
优化的目标
我们上面提到我们在寻找最优边界的时候,是要寻找距离决策边界最近的点的最远距离,
点到直线的距离为: (1/|n|)|n*M1 + D|
化简可得: yi * (nM1 + D) / |n| , 这里面的yi就是 目标属于的类别, 属于正例 yi = 1, 属于负例 yi = -1, 这样确保 yiy(x) > 0 能够去掉绝对值
这时候就出现了我们需要优化的目标函数:
这个函数的意义就是,寻找离我们最近的点i 然后找出w和b让这个点距离我们最远
- 但是现在问题又来了,我们在优化这个式子的时候,未免不觉得这个式子有点长,所以我们可以进行放缩一下,上面提到我们 确保 yi * y(x) ≥ 0 这时候我们可以通过某一种特定的变化来让yi*y(x) 和大于1
- 这时候我们可以把下面的式子最小值看作为1
- 这时候我们优化的目标就变成了
- 我们再进行机器学习的时候通常会把求最大值的问题转换成最小值的问题,既然我们要求1/|w| 的最大值, 相反我们就需要求 w的最小值, 这时候我们就要求w的最小值约束条件为
- 我们还可以进行转换,就是为了方便以后进行运算,转换完之后的的式子为:
拉格朗日乘子法
从上面可以知道我们想要求1/2 * W^2 的最大值,在 它的约束条件下,这时候就不得不提我们的拉格朗日乘子法了。
拉格朗日乘子法解决的问题是:在约束条件下求解最优值的问题。
含义:这种方法可以将一个有 n 个变量 的与k 个约束条件 的最优化问题转换成一个有n+k个变量的方程组的极值的问题, 这种方法引入了一个新的标量未知数,让这几个变量都用这个未知量来替代,最后转换成求一个未知量极值的问题
例子: 我们在给定一个二元函数z = f(x, y) 和附加条件**β(x, y) = 0 ,寻找z = f(x,y)**在附加条件下的极值点:
先做拉格朗日函数F(x, y, α) = f(x, y) + αβ(x, y) 其中α为引进的参数
然后分别对x,y,α的一阶偏导数等于零 ,最后得出x和y
开始求解函数
当我们使用拉格朗日乘子法得出的公式为:
这里引入一个公式KKT 条件:
这里前面的式子为: 我们需要求一个中间变量α让这个式子为极值, 然后在使用之前的的方法求最小值
后面的式子就是先求最小值 在求最大值
我们先求最小值:
- 分别给w和b求偏导并且等于零最后的结果是:
- 我们把结果带入原式子得出:
然后我们在求极大值:
-
我们需要求该式子的极大值
-
和往常一样我们需要求出这个式子的最小值,就是在这前面加一个负号即可
不要忘了这个式子的约束条件为 ,其中 αiyi == 0 是之前b求偏导得出的结果,αi≥0是拉个朗日乘子法中必须要求的
求解实例:
现在我们要求解这个分类函数的最优决策边界其中 x1(3,3),x2(4,3)为一类, x3(1,1)为另一类
我们的求解方程为:
约束条件为:
这时候我们把式子带进去后得到的结果是
通过a1 + a2 = a3 这个条件可得:
我们在分别给a1 和 a2求偏导得到的结果为 a1 = 1.5, a2 = -1 , 这时候不满足上面的约束条件 ,可知最后的结果在边界上 我们让a1 = 0 得出 a2 = -2/13, 不满足, a2 = 0, a1 = 0.25 满足, 于是最后结果为a1 = 0.25,a2 =0 ,a3 = 0.25
最后得出的结果是:
w = 0.25 * 1 * (3,3) + 0.25*-1*(1,1)
= (0.5,0.5)
最后决策边界为:0.5x1+0.5x2±2
总结
我们的决策边界求解,单纯依靠 离决策边界最近的点的影响(支持向量),剩下的点的a值都为零。就是这两个点 把这个 面支撑起来的,所以称为支持向量积
软间隔(soft-margin)
我们在处理数据的时候,数据不可能分布完全合理,可能存在一些”不规则”的点,例如我所标记的点, 如果我们还用我们之前的哪一种方法 yiy(x) > 0 放缩过后, 为 yiy(x) > 1 这样是确保能够完美分割,但是像右边这张图所示,如果我们把, 所有点都考虑在内的话 这样反而得不偿失,这时候我们要引入 “软间隔”,让我们的约束条件没有那么苛刻, 例如yi*y(x) > 1-σ,这里面的σ就是松弛因子
所以我们新的目标函数为:
我们加入C目的是为了 能够控制松弛因子的大小 我们的目的是让最终的结果整体偏小
当我们给定C比较大的时候 :意味着 分类严格不能够有错误
但我们给定C比较小的时候: 意味着 分类任务可以有更大的错误容忍
C是我们指定的
核函数
当我们遇到低维不可分的问题的时候 ,我们可以把它映射到较高的维度中来方便我们进行分类
如果我们出现右边这种情况的话,如果在二维空间中分类的话,可能出现过拟合的情况,这时候如果我们把它映射到高纬度中,也许可能会变得比较好区分一些
核变换:低纬度不好区分的时候我们可以通过非线性变化,将数据映射到高纬度中来方便我们进行区分
作用:可以是我们在低维空间中能够完成在高纬度中样本内积的运算
例子:
假设我们有俩个数据,x=(x1,X2,x3); y =(y1, y2,y3),此时在3D空间已经不能对其经行线性划分了,那么我们通过一个函数将数据映射到更高维的空间,比如9维的话,那么f(x)=)(x1x1,X1X2,X1x3,X2X1,X2X2,X2x3, x3x1,x3x2,x3x3),
由于需要计算内积,所以在新的数据在9维空间,需要计算<f(x),f(y)>的内积,需要花费O (n^2) 。
在具体点,令x =(1, 2,3);y =(4,5,6),那么f(x)=(1,2,3,2, 4,6,3,6,9),
f(y) =(16,2o,24,20,25,36, 24,30,36),
此时 <f(x), f(y)> = 16+ 40+72+40 + 10O+ 180 + 72+ 180 +324=1024
似乎还能计算,但是如果将维数扩大到一个非常大数时候,计算起来可就不是一丁点问题了。
但是发现,K(x, y )= (<x, y>)^2K(x,y)=(4 + 10+ 18 ) ^2 =32^2 = 1024
俩者相等,K(x, y ) = (<x, y>)^2=<f(x), f(y)>,但是K(x, y )计算起来却比<f(x), f(y)>简单的多,
也就是说只要用K(x, y )来计算,,效果和<f(x), f(y)>是一样的,
但是计算效率却大幅度提高: 如: K(x,y)是o (n),而<f(x),f(y)>是0(n^2)
所以使用核函数的好处是:在低维度中去完成高纬度中样本内积的计算
高斯核函数
我们在应用的时候直接照着这个公式往里面套即可。
我们在遇到上面这个图像的时候不能够在低维空间中较好的分割这两部分,于是我们可以映射到高维空间中这样就比较好运算
具体代码实现过程
SVM 支持向量机
-
与传统算法相比,SVM的效果如何
-
软间隔的作用,这么复杂的算法肯定会导致过拟合现象的出现,如何解决呢?
-
核函数的作用,如果只是做线性分类,好像轮不到SVM登场了,核函数才是他的强大之处
-
SVM主要解决的是二分类问题
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68import numpy as np
import os
import matplotlib.pyplot as plt
from sklearn.svm import SVC
from sklearn.datasets import load_iris
iris = load_iris()
# 获取数据中的第三列和第四列
X = iris["data"][:,(2,3)]
y = iris["target"]
# 我们暂时把这三类分为两类,去掉y == 3的哪一类
setosa_or_versicolor = (y == 0) | (y == 1)
X = X[setosa_or_versicolor]
y = y[setosa_or_versicolor]
svm_clf = SVC(kernel="linear", C=float("inf"))
svm_clf.fit(X, y)
# 一般的模型 这里是随便定义的 为了对比使用
x0 = np.linspace(0,5.5,200)
pred_1 = 5*x0 - 20
pred_2 = x0 - 1.8
pred_3 = 0.1*x0 + 0.5
def plot_svc_decision_boundary(svm_clf,xmin,xmax,sv=True):
# 获取 权重参数
w = svm_clf.coef_[0]
# 获取偏置参数
b = svm_clf.intercept_[0]
# 我们自己手动定义x
x0 = np.linspace(xmin,xmax,200)
# 我们获取到x1, 因为这给样本是分类,所有w有两个数值
decision_boundary = -w[0]/w[1] * x0 - b/w[1]
# 获取到优化条件
margin = 1/w[1]
# 获取上下两条线
gutter_up = decision_boundary - margin
gutter_down = decision_boundary + margin
# 是否画出支持向量 就是存在的边界点
if sv:
svs = svm_clf.support_vectors_
plt.scatter(svs[:,0], svs[:,1],s=180, facecolors="r")
# 画出三条线
plt.plot(x0,decision_boundary, "k-", linewidth=2)
plt.plot(x0,gutter_up, "k--", linewidth=2)
plt.plot(x0,gutter_down, "k--", linewidth=2)
plt.figure(figsize = (20,8), dpi = 80)
plt.subplot(121)
plt.plot(X[:,0][y == 1], X[:,1][y == 1], 'bs')
plt.plot(X[:,0][y == 0], X[:,1][y == 0], 'ys')
plt.plot(x0, pred_1, "g--")
plt.plot(x0, pred_2, "m--")
plt.plot(x0, pred_3, "r--")
plt.axis([0,5.5,0,2])
plt.subplot(122)
plot_svc_decision_boundary(svm_clf,0,5.5)
plt.plot(X[:,0][y == 1], X[:,1][y == 1], 'bs')
plt.plot(X[:,0][y == 0], X[:,1][y == 0], 'ys')
plt.axis([0,5.5,0,2])
数据标准化的影响
软间隔(防止过拟合)
- 如果不加软间隔会出现那种问题呢?
可以使用超参数C控制软间隔程度
1 | import numpy as np |
由上面可知:
- 在右侧,使用较高的C值的时候,分类器会减少误差分类,但最终会出现较小的间隔
- 在左侧,使用较低的C值的时候,间隔要大的多,但很多实例会出现在间隔之内
创建一份有难度的数据
1 | from sklearn.datasets import make_moons |
非线性支持向量机
1 | from sklearn.datasets import make_moons |
SVM中的核技巧
- 在使用SVM的时候有一个kernel参数有三个变量,linear,poly,rbf
- linear 直接进行拟合,不做任何变化
- poly 可以设置degree函数,用来表示函数的复杂程度
- rbf 径向基函数
1 | from sklearn.svm import SVC |
高斯核函数:
-
利用相似度来变化特征
-
选择一份数据集,并在x1 = -2, x2 = 1处为其添加两个高斯函数
-
接下来让我们使用相似度函数定义为γ=0.3的经向函数(RBF)
-
例如x1 = -1:它位于第一个地标距离为1的地方,距离第二个地标的距离为2.因此其新特征x2=e^(-0.3 * 12)≈0.74,并且x3=e(-0.3 * 2^2)≈0.30
其中x1x2是数据中的每一个点
γ越小,过拟合的风向就越小
SVM中利用核函数的运算技巧,大大降低了计算复杂度
- 增加gamma 是高斯曲线变窄,因此每个实例影响范围变小,决策边界最终变得不规律,在个别实例周围摆动
- 减少gamma 使高斯曲线变宽,因此实例有更大的影响范围,并且决策变得更加平滑
1 | rbf_kernel_svm_clf = Pipeline(( |