机器学习中的核函数与核方法(好!)

 原文见:https://blog.csdn.net/qq_34099953/article/details/84316905

我们在学习机器学习的时候,总是会看到一个概念——核,然后看到一堆公式。但是为什么要核呢?核到底是啥玩意?云里雾里。接下来,我们将要把“核”这个东西的神秘面纱一点点揭开。

一、什么是“核函数”

我们都知道,机器学习(神经网络)的一个很重要的目的,就是将数据分类。我们想象下面这个数据(图1),在二维空间(特征表示为x1和x2)中随机分布的两类数据(用圆圈和叉叉表示)。

机器学习中的核函数与核方法(好!)

机器学习中的核函数与核方法(好!)

 机器学习中的核函数与核方法(好!)

机器学习中的核函数与核方法(好!)

二、为什么要用核函数

因为在机器学习中,我们求解的过程要用到内积,而变换后的高维空间的内积我们不好求,所以我们定义了这个核函数,可以把高维空间的内积运算转化成内为空间的某些运算,这样求起来不是很简单吗?

 

句话说,如果我们有了核函数,我们就不再需要知道那个映射到底是个什么鬼,我们就可以直接通过核函数,就可以求导高维空间的内积了,从而可以计算出高维空间中两个数据点之间的距离和角度。

机器学习中的核函数与核方法(好!)

机器学习中的核函数与核方法(好!)

机器学习中的核函数与核方法(好!)