質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

88.57%

python 決定木の性能評価について

解決済

回答 1

投稿

  • 評価
  • クリップ 1
  • VIEW 1,797

---stax---

score 142

ある回帰問題について以下の3つの決定木のモデルをscikit-learnを用いて作成し、
モデルを作った後に以下の4つのスコアを出力しました

①訓練セットに対するスコア
②テストセットに対するスコア
③グリッドサーチで一番良かったパラメータ
④交差検証セットに対するスコア
ました。

データ数は約5万点
特徴量は26種類あるデータを使いました

以下結果です
1番良い性能を表しているのがGradientBoostingRegressorかなと思ったのですが
3つとも共通して交差検証時のスコアがかなり低いことが気になりました。

交差検証は5分割で3つのモデルは統一し、訓練セット、テストセット共に
train_test_splitメソッドでデータのシャッフルもかけています。

このスコアの低さは5回分割する中で検証セットに対して上手くいかなかったときがあるからと思うのですが、テストセットに対する評価は高く、この3つのモデルはどこまで信用性があるのか疑問に感じています。
訓練セットに対する評価が高く、テストセットに対しては低い場合は過学習している可能性があるなどは分かるのですが、DecisionTreeRegressorのように訓練セットに対しては低くテストセットに対しては高いです。
これは汎化性能が高いと考えてもよい物なのかどうかも疑問に感じます。

この値くらい出てるからOKというように一概に言えないとは思うのですが、モデルの評価基準や目安、このモデルは正しい、などはどのように決めているのでしょうか?
漠然としてしまっているかもしれませんがアドバイスや考え方を教えて頂けたら嬉しいです。

Training Data Score: 0.85
Test Data Score: 0.98
Best parameters: {'max_depth': 3, 'max_features': None, 'random_state': 42}
Best Cross Validation score: 0.37
Training Data Score: 0.85
Test Data Score: 0.69
Best parameters: {'max_depth': 5, 'n_estimators': 500}
Best Cross Validation score: 0.36
Training Data Score: 0.97
Test Data Score: 0.85
Best parameters: {'learning_rate': 0.1, 'max_depth': 5, 'n_estimators': 300, 'random_state': 42}
Best Cross Validation score: 0.66

以下コード

import pandas as pd
from sklearn.tree import DecisionTreeRegressor
from sklearn.ensemble import RandomForestRegressor
from sklearn.ensemble import GradientBoostingRegressor
from sklearn.model_selection import train_test_split
from sklearn.tree import export_graphviz
import graphviz
import matplotlib.pyplot as plt
import numpy as np
from sklearn.model_selection import GridSearchCV
import time 
from sklearn.metrics import roc_curve, auc, accuracy_score
import mglearn
from sklearn.model_selection import cross_val_score


#ファイル読み込み
df = pd.read_csv(r'C:\Users\Desktop\test3.csv', engine='python')
df.describe()

#必要ないカラム除去
drop_columns = [数が多いので割愛します]

#データ作成
X = df.drop(drop_columns, axis=1)
Y = df['結果']

print(X.shape)
print(Y.shape)

X_train1, X_test1, y_train1, y_test1 = train_test_split(X, Y, random_state=42)


#---------------DecisionTreeRegressor

dr = DecisionTreeRegressor()
dr_param_grid = {'max_depth':[3, 4, 5, 6],
                 'max_features':[None, 0.1, 1, 2, 3],
                 'random_state':[42]}


dr_cv = GridSearchCV(dr, dr_param_grid, cv=5)
dr_cv.fit(X_train1, y_train1)

print('Training Data Score: {:.2f}'.format(dr_cv.score(X_train1, y_train1)))
print('Test Data Score: {:.2f}'.format(dr_cv.score(X_test1, y_test1)))

print('Best parameters: {}'.format(dr_cv.best_params_))
print('Best Cross Validation score: {:.2f}'.format(dr_cv.best_score_))


#---------------RandomForestRegressor

param_grid = {'n_estimators':[200, 300, 400, 500, 600],
              'max_depth':[3, 4, 5],
             }


t = time.time()
forest = RandomForestRegressor(random_state=42, n_jobs=-1)
cv = GridSearchCV(forest, param_grid, cv=5)
cv.fit(X_train1, y_train1)

print('Training Data Score: {:.2f}'.format(cv.score(X_train1, y_train1)))
print('Test Data Score: {:.2f}'.format(cv.score(X_test1, y_test1)))

print('Best parameters: {}'.format(cv.best_params_))
print('Best Cross Validation score: {:.2f}'.format(cv.best_score_))

#---------------GradientBoostingRegressor

gb = GradientBoostingRegressor()
gb_param_grid = {'max_depth':[3, 4, 5],
                 'learning_rate':[0.01, 0.05, 0.07, 0.1],
                 'n_estimators':[100, 150, 200, 250, 300],
                 'random_state':[42]
                }


gb_cv = GridSearchCV(gb, gb_param_grid, cv=5, n_jobs=-1)
gb_cv.fit(X_train1, y_train1)

print('Training Data Score: {:.2f}'.format(gb_cv.score(X_train1, y_train1)))
print('Test Data Score: {:.2f}'.format(gb_cv.score(X_test1, y_test1)))

print('Best parameters: {}'.format(gb_cv.best_params_))
print('Best Cross Validation score: {:.2f}'.format(gb_cv.best_score_))
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

checkベストアンサー

+1

回帰分析でしたら、自分は決定係数を使用することが多いです。
(参考:https://pythondatascience.plavox.info/scikit-learn/%E5%9B%9E%E5%B8%B0%E3%83%A2%E3%83%87%E3%83%AB%E3%81%AE%E8%A9%95%E4%BE%A1)

 from sklearn.metrics import r2_score


とした後に、

y_pred = gb_cv.predict(y_train1)

r2_score(y_test1, y_pred)

とかで評価できるんじゃないかなと思います。
よければ、試してみてください!

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2018/08/21 14:59

    回答ありがとうございます。
    返答遅くなって申し訳ありません。
    お恥ずかしい話なのですが、モデルの評価にはmodel.score()メソッドでいつも評価するのですが、ここでいう「精度」とはいったい何を指しているのでしょうか。
    線形モデルでは.score()で帰ってくる値は決定係数を出しているようなのですが、決定木では公式を見ると平均精度となっており何に対しての平均の精度なのか分からないまま使っています・・・。

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 88.57%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る