Machine-Learning

除了 SVM,還有哪些算法需要特徵縮放?

  • November 6, 2016

我正在使用許多算法:RandomForest、DecisionTrees、NaiveBayes、SVM(內核=線性和 rbf)、KNN、LDA 和 XGBoost。除了 SVM 之外,它們都非常快。那時我才知道它需要功能擴展才能更快地工作。然後我開始想我是否應該對其他算法做同樣的事情。

通常,利用數據樣本之間的距離相似性(例如以標量積的形式)的算法,例如 k-NN 和 SVM,對特徵轉換很敏感。

基於圖形模型的分類器,例如 Fisher LDA 或樸素貝葉斯,以及決策樹和基於樹的集成方法(RF、XGB)對於特徵縮放是不變的,但重新縮放/標準化您的數據。

引用自:https://stats.stackexchange.com/questions/244507

comments powered by Disqus