1.前提
バギングとブースティングによる回帰予測をしています。
説明変数の重要度変数(importances[indices])の評価方法
で、ランダムフォレストやXGBoostは、合計1での説明変数別の評価値が
得ることができます。
しかし、CatBoostでは、合計100での説明変数別の評価値となります。
また、lightGBMでは、合計値は数十~数百と定まった値ではありません。
2.実現したいこと
ランダムフォレストやXGBoostは、条件が同じなので、評価の仕方
も同じでよいと考えます。
4つのアルゴリズムでの説明変数比較をしたいのですが、他の2つ
アルゴリズムについては、以下の疑問があります。
1)catboostは、100で割って、重要度合計1にして各説明変数を評価すべきものなのか?
2)lightGBMは、総計で割って、重要度合計1にして各説明変数を評価すべきものなのか?
詳しい方のご意見をよろしくお願いいたします。
3.参考コード
python
1#(lightGBMのコード) 2# 特徴量重要性を計算 3importances = model_lgb.feature_importance() 4# 特徴量重要度の変数 5importances[indices] 6 7 8#(lightGBM以外のコード) 9# 特徴量重要性を計算 10importances = model.feature_importances_ 11# 特徴量重要度の変数 12importances[indices]
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2021/05/04 11:31