[吴恩达机器学习]10·支持向量机
吴恩达机器学习系列课程:https://www.bilibili.com/video/BV164411b7dx
优化目标
首先回忆逻辑回归的优化目标:
另外,我们习惯于不除以样本大小
对该代价函数的理解:
首先看看
这一项,欲使之最小,最理想的情况就是 ,这对应着 ;而在逻辑回归中,我们只需要对比 和 的大小,这里相当于将条件变得更苛刻。 注意
其实是参数 和 两个向量的点积,可以视作 向 的投影乘上 的长度 ;而 就是 。从这个几何角度看,如果 取值较大,那么我们很关心能否把原数据集完美地线性分开,因为这样,只要 充分大,那么第一项就能取到 ;相反地,如果 取值较小,那么即便有些数据点没有被正确地线性分类(第一项不为 ),由于我们需要的 不必太大,所以总代价依然较小。
核函数
对于非线性可分集,我们引入核函数
- 线性核:
,即不做任何改变; - 高斯核:
,其中 是参数, 被称作 landmark,实践中直接采用输入数据 作为 landmark。
scikit-learn
实现
线性可分分类
首先看一下数据集的样纸:
1 |
|
训练结果如下:
带高斯核的
依旧先看数据集的样子:
1 |
|
训练结果如下:
调整参数
数据集:
1 |
|
训练结果如下:
[吴恩达机器学习]10·支持向量机
https://xyfjason.github.io/blog-main/2021/01/17/吴恩达机器学习-10·支持向量机/