>构建一个由训练文本中提取的unigrams和bigrams组成的字典
>计算每个训练文本中每个unigram / bigram出现的次数,以及unigram / bigram出现的训练文本数量
>使用步骤2中的数据计算每个unigram / bigram的TF-IDF
>对于每个文档,构造一个特征向量,该向量是字典的长度,并在向量的每个元素中存储相应的TF-IDF统计量(例如,文档1的特征向量中的第一个元素将对应于字典中第一个单词的TF-IDF相对于文档一)
>将类标签附加到每个特征向量,以区分哪个文本属于哪个作者
>使用这些特征向量训练SVM
>测试文本的特征向量以与训练文本相同的方式构建,并由SVM分类
解决方法
因此,包括来自语料库的所有单词通常会导致过多的特征.为了减小此功能空间的大小,NLP系统通常使用以下一项或多项:
>删除停用词 – 对于作者分类,这些通常是简短的常用词,如is,the,at,which等.
>词干 – 流行的词干分析器(如Porter词干分析器)使用一组规则来规范化单词的变形.例如,步行,步行和散步都映射到茎行走.
>相关/重要性阈值 – 计算Pearson相关系数或每个要素相对于类别标签的p值.然后设置阈值,并删除所有得分低于该阈值的值的功能.
>覆盖阈值 – 类似于上述阈值,移除至少在t个文档中没有出现的所有特征,其中t相对于整个语料库大小非常小(<0.05%).
>根据词性过滤 – 例如,仅考虑动词或删除名词.
>根据系统类型进行过滤 – 例如,临床文本的NLP系统可能只考虑在医学词典中找到的单词.
对于词干,删除停用词,索引语料库,计算tf_idf或文档相似度,我建议使用Lucene.Google“Lucene in 5分钟”,以获得一些关于使用lucene的快速简便的教程.