正则化是结构风险最小化策略的实现,是在经验风险上加一个正则化项或罚项。正则化项一般是模型复杂度的单调递增函数,模型越复杂,正则化值就越大。
最小化loss的同时,让w也最小化,L1可能会有部分w为0,L2会让部分w很小但不是为0
L1 regularization(lasso)
在原始的代价函数后面加上一个L1正则化项,即所有权重w的绝对值的和,乘以λ/n
L2 regularization(权重衰减)(ridge)
C0代表原始的代价函数,后面那一项就是L2正则化项,它是这样来的:所有参数w的平方的和,除以训练集的样本大小n。λ就是正则项系数,权衡正则项与C0项的比重。另外还有一个系数1/2,1/2经常会看到,主要是为了后面求导的结果方便,后面那一项求导会产生一个2,与1/2相乘刚好凑整。
总结就是:L1会趋向于产生少量的特征,而其他的特征都是0,而L2会选择更多的特征,这些特征都会接近于0。Lasso在特征选择时候非常有用,而Ridge就只是一种规则化而已。
原文链接:https://www.f2er.com/regex/359302.html