再谈拉普拉斯惩罚~

前端之家收集整理的这篇文章主要介绍了再谈拉普拉斯惩罚~前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

上一篇博客,我介绍了《拉普拉斯平滑及其在正则化方向上的应用》,但是事后读一读,发现拉普拉斯惩罚这部分,自己说的太快了,想说的东西没有全部并有条理的说出来,于是决定再写写这块的东西,有什么错误,希望大家不吝批评指正,感激万分!@H_404_1@

在说之前,我们先把如下几个问题想清楚:@H_404_1@

1. 究竟什么是图像的空间结构信息?
@H_404_1@

2. 为什么在参数向量w(M*N维)上施加平滑约束,就代表着对图像空间结构信息的利用?@H_404_1@

3. 对于参数向量w,什么叫做平滑?怎么度量呢?@H_404_1@

这也是我最初很迷惑的地方,后来通过阅读相关文献,可能是想明白了,下面是我给出的答案。@H_404_1@

1. 我们想想看一副图像,所谓空间信息,我的理解,图像一点的像素和它周围的像素的值之间的“大小关系”,就是空间结构信息,如果在低维空间中这种“大小关系”也能够保持,那么就相当于保持了图像的空间结构信息。@H_404_1@

2. 再说说对参数向量w的平滑约束,说白了,也就是让相邻的分量尽可能的相等罢了。这样的话,w与一个图像(肯定是拉成向量之后的图像)相乘,图像像素与周围像素的大小关系得以保持,也就使得图像的空间结构信息得到保持!当然,也就代表对空间结构信息的利用了。@H_404_1@

3. 关于这个问题,一般采用”最狠的“度量手段,就是相邻分量之差的平方和,如果这个平方和尽量小,那么相邻分量也就越接近,向量也就越平滑。@H_404_1@

OK!回答完了这三个问题,下面就要回归题目了,拉普拉斯惩罚如下所示:@H_404_1@


@H_404_1@

这个模型就是一个加了正则化项的线性回归模型,这个特定的正则化项就被称作拉普拉斯惩罚!@H_404_1@

其具体形式如下:@H_404_1@


@H_404_1@

其中,D1和D2均为拉普拉斯算子,而I1,I2就是单位矩阵,乘法是Kronecke积。@H_404_1@

这样的话,假设图像x为M*N矩阵,那么对应的参数向量w就为M*N维的列向量,当算子采用修正的Neuman算子时(如下图所示),公式第一项起到的作用就是保持图像的列方向的空间结构(列方向上,相邻像素的大小关系保持不变),第二项起到的作用就是提取行方向的空间结构(列方向上,相邻像素的大小关系保持不变),两项加在一起,保持的自然就是图像整体的空间结构了。@H_404_1@


@H_404_1@

我们再来看看拉普拉斯惩罚项,其具体可以展开成为如下形式:@H_404_1@

上面的公式,实际上就代表了问题3所说的度量方式:相邻变量之差的平方和。让这个平方和越小,相邻的分量值也就越接近,参数向量w也就越平滑喽!这l时,还得再说说正则化的作用,最小化上述模型,通过正则化因子的”平衡作用“,如果参数因子变大,意味着参数向量w更加平滑,也就使得图像的空间结构信息得以越好的保持。@H_404_1@

难道空间结构信息得以越好的保持,模型就越好吗?我认为答案是否定的,要看你的目的是什么,你觉得呢?@H_404_1@

猜你在找的正则表达式相关文章