机器学习笔记(三)——正则化最小二乘法

前端之家收集整理的这篇文章主要介绍了机器学习笔记(三)——正则化最小二乘法前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

一. 模型的泛化与过拟合

在上一节中,我们的预测函数为:

f(x;ω)=ωTx

其中,
x=[x1],ω=[ω1ω0]

上述称为线性模型,我们也可以将 x 扩展为:
x=xnx2x1,ω=ωnω2ω1ω0

那么预测函数 f(x;w) 就变为一个非线性函数。预测函数次数越高,越能准确地拟合训练数据。在某些情况下,高次预测函数会拟合大部分或全部训练数据,这时,我们就说这个模型过拟合。因为这种过度拟合训练数据的模型对未知数据的预测就不是那么准确了,它对训练数据外的其它数据是相当敏感的,也就是说它不够泛化。所以我们需要一个最好的模型,也就是说我们需要的模型误差要最小,而且还有一定的泛化能力。

二. 正则化最小二乘法

要避免模型过拟合,我们可以选择部分数据进行模型的训练,也可以利用正则化方法。一般来讲,正则化,有L1正则和L2正则,它们都是基于 Lp 范数的:

Lp=(in|xi@H_301_775@|p)1p

这里我们选择模型的复杂度为L2正则: niω2i ,写为向量形式为: ωTω 关于正则化的详细内容,可以参考:
http://www.jb51.cc/article/p-ewwyltlp-ue.html

那么我们新的损失函数可以写为:

L=L+λωTω=1N(ωTXTXω2ωTXTy+yTy)+λωTω

同样的对上式求偏导数:
Lω=@H_914_1301@1N(2XTXω2XTy)+2λω=0(@H_403_1414@XTX+NλI)ω=XTyω=(@H_633_1502@XTX+NλI)1XTy

选择 λ 的值就是选择多项式拟合函数时,折中过拟合/泛化的过程。值太小,过拟合;值太大,不利于数据的逼近。至于 λ 的选择,可以采用交叉验证获得最好预测性能 λ

猜你在找的正则表达式相关文章