質問編集履歴

1

一部読みやすく修正

2018/02/02 10:18

投稿

A.Kobayashi
A.Kobayashi

スコア13

test CHANGED
File without changes
test CHANGED
@@ -6,6 +6,10 @@
6
6
 
7
7
  ### 発生している問題・エラーメッセージ
8
8
 
9
+ 下記のように精度的にはXGBoostingとLightGBMのBoostingを用いた手法が若干勝り、Boosting両手法における重要度も近しい値となっているのですが、一方でTitanicでは重要な項目とされる性別の重要度が異常に低く、重要度に関してはRandomForestのほうが納得がいく結果になっているのですが、RandomForestとBoostingにおける特徴量の重要度はそこまで異なるものなのでしょうか?
10
+
11
+
12
+
9
13
  RandomForest
10
14
 
11
15
  f1 core:0.833
@@ -78,10 +82,6 @@
78
82
 
79
83
 
80
84
 
81
- 上記のように精度的にはXGBoostingとLightGBMのBoostingを用いた手法が若干勝り、Boosting両手法における重要度も近しい値となっているのですが、一方でTitanicでは重要な項目とされる性別の重要度が異常に低く、重要度に関してはRandomForestのほうが納得がいく結果になっているのですが、RandomForestとBoostingにおける特徴量の重要度はそこまで異なるものなのでしょうか?
82
-
83
-
84
-
85
85
  ```ここに言語を入力
86
86
 
87
87
  ### 該当のソースコード
@@ -108,12 +108,10 @@
108
108
 
109
109
 
110
110
 
111
+ # トレーニングデータ作成
112
+
111
113
  df = pd.read_csv("train.csv")
112
114
 
113
-
114
-
115
- # パラメーターの変動値を取ってくる
116
-
117
115
  X_train = df.drop(["y"],axis=1)
118
116
 
119
117
  y_train = df.y
@@ -202,7 +200,7 @@
202
200
 
203
201
  }
204
202
 
205
-
203
+ # グリッドサーチで学習
206
204
 
207
205
  xgb = GridSearchCV(xgb.XGBClassifier(
208
206
 
@@ -254,7 +252,7 @@
254
252
 
255
253
  }
256
254
 
257
-
255
+ # グリッドサーチで学習
258
256
 
259
257
  gbm = GridSearchCV(lgb.LGBMClassifier(),gbm_param, scoring=f1_scoring, cv=5)
260
258
 
@@ -298,4 +296,6 @@
298
296
 
299
297
  返信は月曜まで遅れるかもしれません、ご容赦お願いします。
300
298
 
301
- コードも修正点などあれば指摘しても
299
+ コードについても修正点などあれば指摘してもらえれば幸いです。
300
+
301
+ よろしくお願いいたします。