機械学習において、木系のアルゴリズムを使うとき以外は基本的にzスコアを求めることでデータの標準化を行いますが、その意味について質問です。
例えば、ロジスティック回帰で二値分類を行うとします。仮に、モデルfit後の、係数を見てどの変数がより予測に影響を与えているかを見るなら、標準化する意味は分かります。
しかし、ただ単に予測することだけが目的の時、標準化に意味はあるのでしょうか?
調べたところ、値の取りうる範囲が大きい場合、再急降下法の学習率が掛かる項が大きくなり、ほかの変数よりも早く値が更新されてしまうことなどが挙げられていましたが、結局最終的に最適化できれば問題ないのでは?と思ってしまいます。
よろしければご意見お聞かせください。
回答1件
あなたの回答
tips
プレビュー