Skip to content

Latest commit

 

History

History
executable file
·
42 lines (29 loc) · 3.15 KB

README.md

File metadata and controls

executable file
·
42 lines (29 loc) · 3.15 KB

机器学习

这部分主要总结各类经典的机器学习算法。

基础概念

分类

SVM

  • 线性SVM:引入"大边界"的概念,尽可能使解具有更强的鲁棒性(可以视为一种正则化策略)
  • 核函数的SVM:主要为了在扩展线性SVM的"非线性"能力时,不增加过大的计算量
  • 柔性SVM:防止由于噪声导致"硬分类"的过拟合,采用对"越界"情况进行惩罚从而达到柔性的概念
  • "通用型"SVM形式:svm的表达形式其实可以看做$min\ 1/2w^Tw+C\sum \hat{err}$的形式(相当于加了正则项的损失函数---只是计算损失可能采用稀疏的数据)--- 正是这个等价形式,赋予了SVM无限的扩展可能:改为其他的损失形式(可能会带来的问题就是破坏了SVM的稀疏计算性---利用SV)
  • SVR:将损失改变回归形式,普通的二次型并不能保证稀疏,因此采用的是tube回归($err=max(0,|y-s|-\epsilon)$, 真正用到时又改了一下)

Aggregation

正则化

  • L1正则:L1正则具有稀疏的功能
  • L2正则:L2正则主要防止模型过拟合(相当于约束输入随着输出变化的程度)
  • L1+L2正则:这部分不太了解