質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

87.49%

optuna+lightgbmでprauc最大化をしたい

解決済

回答 1

投稿 編集

  • 評価
  • クリップ 0
  • VIEW 188

score 77

不均衡データの最適化に際し、praucを以下のコードから算出しようとすると、画像のエラーが発生しました。
エラー文を見ると、praucが増えても減ってもいないという不可解なエラーでした。疑問点は次の通りです。

①はじめてpraucを自分で実装したので、precision, recall, thresholds = precision_recall_curve(test_y.values.tolist(), preds)
で算出したprecisionとrecallに対して metrics.auc(precision, recallを適用するという考えが間違っているかどうか。ただし、recall,precisionのシェイプは一致していて、rocaucを出すのと同様にこの場合でも成功するのではないかと考えています。
https://scikit-learn.org/stable/modules/generated/sklearn.metrics.auc.html
の説明と実装例からも、私のやろうとしていることがあっているような印象を受けました。

②praucを算出するときに増減は問題にならないにもかかわらず、このようなエラーが出ている理由と私の認識の誤りは何でしょうか。

以上、よろしくお願いいたします。

エラー部分
    from sklearn.metrics import precision_recall_curve
    from sklearn import metrics
    rocauc = roc_auc_score(test_y.values.tolist(), preds)
    precision, recall, thresholds = precision_recall_curve(test_y.values.tolist(), preds)
    prauc = metrics.auc(precision, recall)
一行うえでエラー発生

イメージ説明

auc_list=[]
def objective(trial):
    logger.info('{} START:'.format(trial.number))
    data = pd.read_pickle(f'{PATH}prd_tr.pkl')
    test = pd.read_pickle(f'{PATH}prd_te.pkl')
    target = pd.read_pickle(f'{PATH}y.pkl')
    # random_state固定しないほうがはんかできてよさげか
    train_x, test_x, train_y, test_y = train_test_split(data, target, test_size=0.25,stratify=target)
    dtrain = lgb.Dataset(train_x, label=train_y)
    dtest = lgb.Dataset(test_x, label=test_y)


    param = {
        'objective': 'binary',
        'metric': 'auc',
        'lambda_l1': trial.suggest_loguniform('lambda_l1', 1e-8, 10.0),
        'lambda_l2': trial.suggest_loguniform('lambda_l2', 1e-8, 10.0),
        'num_leaves': trial.suggest_int('num_leaves', 2, 256),
        'feature_fraction': trial.suggest_uniform('feature_fraction', 0.4, 1.0),
        'bagging_fraction': trial.suggest_uniform('bagging_fraction', 0.4, 1.0),
        'bagging_freq': trial.suggest_int('bagging_freq', 1, 7),
        'min_child_samples': trial.suggest_int('min_child_samples', 5, 100),
    }

    pruning_callback = optuna.integration.LightGBMPruningCallback(trial, 'auc')
    gbm = lgb.train(param, dtrain,valid_sets=dtest, callbacks=[pruning_callback])

    preds = gbm.predict(test_x)
    pred_labels = np.rint(preds)
    accuracy = sklearn.metrics.accuracy_score(test_y, pred_labels)

    # 今回はpraucのほうが適切とみて、praucを算出しよう
    from sklearn.metrics import precision_recall_curve
    from sklearn import metrics
    rocauc = roc_auc_score(test_y.values.tolist(), preds)
    precision, recall, thresholds = precision_recall_curve(test_y.values.tolist(), preds)
    prauc = metrics.auc(precision, recall)

    auc_list.append(rocauc)

    logger.info('  CURRENT MAX AUC: {}'.format(rocauc))

    logger.info('   accuracy:{}'.format(accuracy))
    return rocauc


if __name__ == "__main__":

    study = optuna.create_study(direction="maximize")
    study.optimize(objective, n_trials=2000,timeout=3600) # 目的関数を10回呼び出し、その中で得られた最も良い評価値(ここでは最小化問題を考えます)とそのパラメーターを出力します。
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

checkベストアンサー

+1

正しくは、metrics.auc(recall, precision) です。引数の順番が逆になっています。recallがx軸です。

metrics.auc関数はx軸が単調増加か単調減少である必要があります。

参考: sklearn.metrics.auc公式ドキュメント
xndarray of shape (n,)
x coordinates. These must be either monotonic increasing or monotonic decreasing.

この時、x軸となるrecallは単調減少であることが保証されています。

参考: sklearn.metrics.precision_recall_curve公式ドキュメント
recall : ndarray of shape (n_thresholds + 1,)
Decreasing recall values such that element i is the recall of predictions with score >= thresholds[i] and the last element is 0.

一方、PR曲線では、y軸precisionはノコギリ状、すなわち単調増加でも単調減少でも無いものになることがあります。よって、precisionとrecallを逆順にしてしまうと、「x軸が単調増加でも単調減少でも無い」という意味のエラーが発生します。

ノコギリ状のPR曲線の例については、以下の記事が参考になるでしょう。

インバランスデータにおけるPR曲線とROC曲線の振る舞いの違い

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 87.49%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る