机器学习 – 支持向量机优于分支树和AdaBoost算法的优点

前端之家收集整理的这篇文章主要介绍了机器学习 – 支持向量机优于分支树和AdaBoost算法的优点前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我正在研究数据的二进制分类,我想知道在决策树和自适应提升算法上使用支持向量机的优缺点.

解决方法

您可能想要做的是使用 weka,这是一个很好的软件包,您可以使用它来插入数据,然后尝试一堆不同的机器学习分类器,以查看每个工作在您的特定集上.对机器学习的人来说,这是一条很好的道路.

不了解您的特定数据,或者您正在尝试解决分类问题,我无法真正超越仅告诉我随机的每个方法知道的事情.也就是说,这是一个大脑转储,并链接到一些有用的机器学习幻灯片.

Adaptive Boosting使用弱碱分类器委员会对抽样点的分类进行投票.基本分类器可以是决策树,决策树,SVM等.它需要一个迭代的方法.在每次迭代中 – 如果委员会对特定样本的班级分配达成一致并且正确,那么它将变得下调(在下一次迭代中不太重要),如果委员会不一致,则变成加权(更重要的是在下一次迭代中进行分类). Adaboost具有很好的泛化(而不是过度拟合).

SVMs是一个有用的第一尝试.此外,您可以使用不同的内核与SVM,并不仅仅是线性决策边界,而是更多的funkily形状的.并且如果您对其进行L1正则化(松弛变量),那么您不仅可以防止过度拟合,还可以对不可分离的数据进行分类.

Decision trees是有用的,因为他们几乎任何人的解释.它们易于使用.使用树也意味着您也可以了解一个特定功能用于制作该树的重要性.你可能想要检查的是加性树(如MART).

原文链接:https://www.f2er.com/c/111479.html

猜你在找的C&C++相关文章