西瓜书 习题11.1 编程实现Relief算法 特征选择、正则化总结

前端之家收集整理的这篇文章主要介绍了西瓜书 习题11.1 编程实现Relief算法 特征选择、正则化总结前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

Relief算法的数据以及代码:https://github.com/qdbszsj/Relief

西瓜书第十一章,主要讲了一下特征选择的方法,通常来说,有很多冗余特征,如果能把这些特征从我们的数据集中筛选出去,那么可以极大地提高我们的程序运行效率,当然有的时候我们还需要人为保留或者创造一些冗余特征,当且仅当这些冗余特征恰好对应了完成任务所需要的“中间概念”。比如要求一个立方体的体积时,输入数据只有长宽高,如果能人为创造一个“底面积”或者“侧面积”这样的冗余特征,那么更容易求解,这个冗余特征要分情况来确定。

这里我们不主要探讨冗余特征,而是多说一些如何筛选特征,也就是搜索一个特征子集,让这个子集训练出来的模型最棒,这个问题显然是NP的,一切搜索方法都有局限性,那么目前我们常用的特征选择方法三种:过滤式filter、包裹式wrapper、嵌入式embedding。

过滤式选择:

先对数据集进行特征选择,再训练学习器,特征选择与后续学习无关,我这个Relief算法就是一种经典的过滤式选择,Relief是先把每个个体的最近邻求出来,这里有几个分类结果就要求几个对应的近邻,分为猜中近邻(near-hit)和猜错近邻(near-miss),然后根据式11.3求一下各个属性的值就行,分量值越大,对应属性的能力就越强。

包裹式选择:

直接把最终要使用的学习器的性能作为特征子集的评价准则,量身定做特征子集,这里就是固定好学习器,然后随机的选子集,哪个子集误差小就用哪个,著名的有LAW拉斯维加斯wrapper。

嵌入式选择:

说白了就是用L1正则化来求解目标函数,比较容易得到稀疏解,然后有的分量可能取值就为0了,于是这个分量对应的属性就相当于被筛掉了。

这里重点说一下正则化:

正则化是用来防止过拟合的工具,样本特征多,样本数量少,很容易陷入过拟合,这时候我们加一个正则化项,希望求到一个尽量平滑、权值和较小的解,这里通常有L2、L1、L0正则化,L2范数就是求w的欧式距离,L1对应曼哈顿距离,L0对应切比雪夫距离,这些距离都是类闵可夫斯基距离,就是各个分量差的p次方之和再开p次根,在二维空间里,如果距离为1,欧式距离可以理解为一个半径为1的圆,曼哈顿距离能画出一个旋转了45度的正方形,对角线长度是2,边长根2,切比雪夫就是一个边长为2的正方形,在三维空间里,若距离为1,L2就是半径为1的球,L1就是一个边长根2的正八面体,L0就是一个边长为2的立方体。于是L1和L0更容易在顶点处与误差项相交(L0比L1更容易),从而获得稀疏解,而L2更容易获得各个分量都很均衡的解。这里我们通常不用L0正则,因为L0正则是不连续的,没法求导,无法优化求解。(书P253页的图很棒)

Relief的代码

这里我把西瓜数据集都处理成连续值了,因为要求最近邻,必须要把数据处理一下,离散值要处理成单独的一个属性或者是连续值。

import numpy as np
import pandas as pd
dataset=pd.read_csv('/home/parker/watermelonData/watermelon_3.csv',delimiter=",")
del dataset['编号']
print(dataset)
attributeMap={}
attributeMap['浅白']=0
attributeMap['青绿']=0.5
attributeMap['乌黑']=1
attributeMap['蜷缩']=0
attributeMap['稍蜷']=0.5
attributeMap['硬挺']=1
attributeMap['沉闷']=0
attributeMap['浊响']=0.5
attributeMap['清脆']=1
attributeMap['模糊']=0
attributeMap['稍糊']=0.5
attributeMap['清晰']=1
attributeMap['凹陷']=0
attributeMap['稍凹']=0.5
attributeMap['平坦']=1
attributeMap['硬滑']=0
attributeMap['软粘']=1
attributeMap['否']=0
attributeMap['是']=1
data=dataset.values


m,n=np.shape(data)
for i in range(m):
    for j in range(n):
        if data[i,j] in attributeMap:
            data[i,j]=attributeMap[data[i,j]]
        else: data[i,j]=round(data[i,j],3)

X=data[:,:-1]
y=data[:,-1]
m,n=np.shape(X)
# print(X,y)
near=np.zeros((m,2))#near[i,0] is nearHit,near[i,1] is nearMiss
# print(near)

def distance(x1,x2):
    return sum((x1-x2)**2)

for i in range(m):
    hitDistance=99999 #init as INF
    missDistance=99999
    for j in range(m):
        if j==i:continue
        curDistance=distance(X[i],X[j])
        if y[i]==y[j] and curDistance<hitDistance:
            hitDistance=curDistance
            near[i,0]=j
        if y[i]!=y[j] and curDistance<missDistance:
            missDistance=curDistance
            near[i,1]=j

#P250--(11.3)
relief=np.zeros(n)
for j in range(n):
    for i in range(m):
        relief[j]+=(X[i,j]-X[int(near[i,1]),j])**2-(X[i,0]),j])**2
print(relief)
结果我们发现纹理得分4.25,很关键,这一点跟ID3决策树的结果是一致的,然后脐部、色泽也很重要,GiniIndex决策树也把这两项作为树根了,含糖率重要性也很大,这也符合我们的认知,总之我们发现这个Relief算法还真不错。

猜你在找的正则表达式相关文章