前提・実現したいこと
PythonのXgboostで8クラスの分類を行いたい。
学習データが不均衡で、クラスごとに0.5~2.5くらいのWeight値を反映させたモデルにしたい。
発生している問題・エラーメッセージ
モデルのTrain/Testを、同じデータでRで行って結果を比較したところ、Pythonの結果と大きく乖離したものになった。
該当のソースコード
Python
1# trainデータのみに補正値を付与してxgboost用のデータに変換 2xd_train = xgb.DMatrix( 3 data = mm_train 4 ,label = output_vector_train 5 ,weight = d1_weight_f 6) 7 8gc.collect() 9 10# model parameter 11# https://xgboost.readthedocs.io/en/latest/parameter.html 12param = { 13 'booster' : 'gbtree' 14 ,'objective' : 'multi:softmax' 15 ,'eval_metric' : 'merror' 16 ,'gamma' : 0 17 ,'eta' : 0.2 18 ,'max_depth' : 6 19 ,'min_child_weight' : 1 20 ,'colsample_bytree' : 0.9 21 ,'subsample' : 0.8 22 ,'alpha' : 1 23 ,'num_class' : 8 24 ,'nthread' : multiprocessing.cpu_count() -1 25} 26 27# Xgboost Learning 28bst_fit_down = xgb.train(param, 29 xd_train, 30 num_boost_round=700)
試したこと
PythonのTrainデータをCSV出力したところ、xgb.Dmatrixのweightに投入している数字が整数値に丸められていた。
この丸められた値をxgb.Dmatrixのweightに投入しRで結果を導出したところ、Pythonの結果とほぼ同じものになった。
このことからPythonのXgboostでweightが正しく反映できていないないのではという仮説に至った。
Pythonのxgb.Dmatrixオブジェクトを.get_weight()で確認したところ、以下の通りのfloat64が格納されていた。
array([0.46373186, 1.7608894 , 0.46373186, ..., 1.7608894 , 0.9223924 , 0.46373186], dtype=float32)
補足情報(FW/ツールのバージョンなど)
GoogleColab Python3
あなたの回答
tips
プレビュー