機械学習の回帰予測モデル作成にあたり、特徴量の尺度を揃える
ことは重要なですが、決定木やランダムフォレストは特徴量を揃える
必要が無いと参考書にありました。一方、SGD(勾配降下方法)や
サポートベクトル回帰などは、複数の特徴量の尺度が同じ場合に
うまくいくとありました。(参考書では、最適化アルゴリズムの
回帰モデルが徴量の尺度揃えが有効という表現)
ここで、尺度揃えには、正規化と標準化が一般的です。
・正規化:特徴量を[0,1]の範囲に変換
・標準化:平均が0、標準偏差が1に変換
上記の2つについては、どう使い分けされてますでしょうか。
私的には、標準化をStandardScaler(sklearnの標準クラス)で
使用しています。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2020/05/12 06:41 編集