监督学习_支持向量机
Last updated
Last updated
[TOC]
以上的数学描述等价于如下的优化问题:
至此,我们弄清楚了核函数是如何和空间变换发生联系的。核函数可以有很多不同的选择,以下列出了几种常用的核函数。
多项式和
高斯核
$$k(x_i,x_j)=exp(-\frac{
拉普拉斯核
$$k(x_i,x_j)=exp(-\frac{
Sigmoid核
事实上,只要一个对称函数所对应的核矩阵满足半正定的条件,它就能作为核函数使用,并总能找到一个与之对应的空间映射。换言之,任何一个核函数都隐式地定义了一个
再生核希尔伯特空间
(Reproducing Kernel Hilbert Space,RKHS)。在这个空间里,两个向量的内积等于对应核函数的值。
核方法
的基本思想是通过一个非线性变换,把输入数据映射到高维的希尔伯特空间中,在这个高维空间里,那些在原始输入空间中线性不可分的问题变得更加容易解决,甚至线性可分。支持向量机(Support Vector Machine,SVM)是一类最典型的核方法,下面将以支持向量机为例,对核方法进行简单的介绍。 支持向量机的基本思想是通过核函数将原始输入空间变换成一个高维(甚至是无穷维)的空间,在这个空间里寻找一个超平面,它可以把训练集里的正例和负例尽最大可能地分开(用更加学术的语言描述,就是正负例之间的间隔最大化)。那么如何才能通过核函数实现空间的非线性映射呢?让我们从头谈起。 假设存在一个非线性映射函数,可以帮我们把原始输入空间变换成高维非线性空间。我们的目的是在变换后的空间里,寻找一个线性超平面,它能够把所有正例和负例分开,并且距离该超平面最近的正例和负例之间的间隔最大。这个诉求可以用数学语言表述如下:
其中是离超平面最近的正例和负例之间的间隔(如图2.6所示)。
上式中的约束条件要求所有的正例和负例分别位于超平面的两侧。某些情况下,这种约束可能过强,因为我们所拥有的训练集有时是不可分的。这时候,就需要引入松弛变量,把上述优化问题改写为:
其实这种新的表述等价于最小化一个加了正则项l的Hinge损失函数。这是因为当小于0的时候,样本被超平面正确地分到相应的类别里,;反之,将大于0,且是的上界:最小化就相应地最小化了。基于以上讨论,其实支持向量机在最小化如下的目标函数:
其中,是正则项,对它的最小化可以限制模型的空间,有效提高模型的泛化能力(也就是使模型在训练集和测试集上的性能更加接近)。 为了求解上述有约束的优化问题,一种常用的技巧是使用拉格朗日乘数法将其转换成对偶问题进行求解。具体来讲,支持向量机对应的对偶问题如下:
在对偶空间里,该优化问题的描述只与和的内积有关,而与映射函数本身的具体形式无关。因此,我们只需定义两个样本和之间的核函数,用以表征其映射到高维空间之后的内积即可: