質問編集履歴
1
一部読みやすく修正
test
CHANGED
File without changes
|
test
CHANGED
@@ -6,6 +6,10 @@
|
|
6
6
|
|
7
7
|
### 発生している問題・エラーメッセージ
|
8
8
|
|
9
|
+
下記のように精度的にはXGBoostingとLightGBMのBoostingを用いた手法が若干勝り、Boosting両手法における重要度も近しい値となっているのですが、一方でTitanicでは重要な項目とされる性別の重要度が異常に低く、重要度に関してはRandomForestのほうが納得がいく結果になっているのですが、RandomForestとBoostingにおける特徴量の重要度はそこまで異なるものなのでしょうか?
|
10
|
+
|
11
|
+
|
12
|
+
|
9
13
|
RandomForest
|
10
14
|
|
11
15
|
f1 core:0.833
|
@@ -78,10 +82,6 @@
|
|
78
82
|
|
79
83
|
|
80
84
|
|
81
|
-
上記のように精度的にはXGBoostingとLightGBMのBoostingを用いた手法が若干勝り、Boosting両手法における重要度も近しい値となっているのですが、一方でTitanicでは重要な項目とされる性別の重要度が異常に低く、重要度に関してはRandomForestのほうが納得がいく結果になっているのですが、RandomForestとBoostingにおける特徴量の重要度はそこまで異なるものなのでしょうか?
|
82
|
-
|
83
|
-
|
84
|
-
|
85
85
|
```ここに言語を入力
|
86
86
|
|
87
87
|
### 該当のソースコード
|
@@ -108,12 +108,10 @@
|
|
108
108
|
|
109
109
|
|
110
110
|
|
111
|
+
# トレーニングデータ作成
|
112
|
+
|
111
113
|
df = pd.read_csv("train.csv")
|
112
114
|
|
113
|
-
|
114
|
-
|
115
|
-
# パラメーターの変動値を取ってくる
|
116
|
-
|
117
115
|
X_train = df.drop(["y"],axis=1)
|
118
116
|
|
119
117
|
y_train = df.y
|
@@ -202,7 +200,7 @@
|
|
202
200
|
|
203
201
|
}
|
204
202
|
|
205
|
-
|
203
|
+
# グリッドサーチで学習
|
206
204
|
|
207
205
|
xgb = GridSearchCV(xgb.XGBClassifier(
|
208
206
|
|
@@ -254,7 +252,7 @@
|
|
254
252
|
|
255
253
|
}
|
256
254
|
|
257
|
-
|
255
|
+
# グリッドサーチで学習
|
258
256
|
|
259
257
|
gbm = GridSearchCV(lgb.LGBMClassifier(),gbm_param, scoring=f1_scoring, cv=5)
|
260
258
|
|
@@ -298,4 +296,6 @@
|
|
298
296
|
|
299
297
|
返信は月曜まで遅れるかもしれません、ご容赦お願いします。
|
300
298
|
|
301
|
-
コードも修正点などあれば指摘しても
|
299
|
+
コードについても修正点などあれば指摘してもらえれば幸いです。
|
300
|
+
|
301
|
+
よろしくお願いいたします。
|