@H_301_1@所以,我正在尝试进行文本多类分类.我一直在阅读很多旧的问题和博客文章,但我仍然无法完全理解这个概念.
我也从这篇博客文章中尝试了一些例子. http://www.laurentluce.com/posts/twitter-sentiment-analysis-using-python-and-nltk/
但是当谈到多类分类时,我不太明白.假设我想将文本分为多种语言,法语,英语,意大利语和德语.我想使用NaviesBayes,我认为这是最容易开始的.从我在旧问题中读到的内容来看,最简单的解决方案是使用one vs all.因此,每种语言都有自己的模型.所以,我会有3种法语,英语和意大利语模型.然后我会针对每个模型运行一个文本,并检查哪个模型的概率最高.我对么?
但是当谈到编码时,在上面的例子中他有这样的推文,它将被分类为正面或负面.
pos_tweets = [('I love this car','positive'),('This view is amazing',('I feel great this morning',('I am so excited about tonight\'s concert',('He is my best friend','positive')] neg_tweets = [('I do not like this car','negative'),('This view is horrible',('I feel tired this morning',('I am not looking forward to tonight\'s concert',('He is my enemy','negative')]
这是积极的还是消极的.那么,当谈到为法语训练一个模型时,我应该如何标记文本?会这样吗?那么这将是积极的吗?
[('Bon jour','French'),'je m'appelle','French']
否定的是
[('Hello','English'),('My name','English')]
但这是否意味着我可以添加意大利语和德语,只有4种语言的模型?或者我真的不需要否定?