質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.37%
深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

XGBoost

XGBoostは、アンサンブル学習と決定木を組み合わせた手法です。弱学習器の構築時に、以前構築された弱学習器の結果を用いて弱学習器を構築。高度な汎化能力を持ち、勾配ブースティングとも呼ばれています。

NumPy

NumPyはPythonのプログラミング言語の科学的と数学的なコンピューティングに関する拡張モジュールです。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

5724閲覧

PythonでのlightGBMの実装の際にevals_resultのエラー,XGBoost

afawnelfksaugj

総合スコア2

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

XGBoost

XGBoostは、アンサンブル学習と決定木を組み合わせた手法です。弱学習器の構築時に、以前構築された弱学習器の結果を用いて弱学習器を構築。高度な汎化能力を持ち、勾配ブースティングとも呼ばれています。

NumPy

NumPyはPythonのプログラミング言語の科学的と数学的なコンピューティングに関する拡張モジュールです。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2020/10/22 07:44

編集2020/10/23 04:16

以下サイトを参考にlightGBMの実装を検討しています。
https://watlab-blog.com/2020/04/12/light-gbm/

ですが,LightGBMのハイパーパラメータの設定の際にevals_resultで文法エラーとなります。

python

1#インポート 2import lightgbm as lgb 3from sklearn import datasets 4from sklearn.model_selection import train_test_split 5import pandas as pd 6import numpy as np 7from matplotlib import pyplot as plt 8from sklearn.metrics import mean_squared_error 9from sklearn.model_selection import GridSearchCV 10 11############################################################################################# 12 13# ファイルの読み込みおよびN/Aの削除 14df9 = pd.read_csv(path1, header = 0, index_col = 0, encoding='shift-JIS') 15df8 = df9.dropna() 16 17# 分類するクラスの種類と数を確認 18df8['evaluation'].value_counts() 19 20# 訓練用とテスト用に7:3で分割 21train_x = df8.drop(['evaluation'], axis=1) 22train_y = df8['evaluation'] 23(train_x, test_x ,train_y, test_y) = train_test_split(train_x, train_y, test_size = 0.3) 24 25 26# LightGBMにデータセットを登録 27lgb_train = lgb.Dataset(train_x, train_y) 28lgb_test = lgb.Dataset(test_x, test_y, reference=lgb_train) 29 30 31# LightGBMのハイパーパラメータを設定 32params = {'task': 'train', # タスクを訓練に設定 33 'boosting_type': 'gbdt', # GBDTを指定 34 'objective': 'multiclass', # 多クラス分類を指定 35 'metric': {'multi_logloss'}, # 多クラス分類の損失(誤差) 36 'num_class': 4, # クラスの数(irisデータセットが3個のクラスなので) 37 'learning_rate': 0.1, # 学習率 38 'num_leaves': 21, # ノードの数 39 'min_data_in_leaf': 3, # 決定木ノードの最小データ数 40 'num_iteration': 100} # 予測器(決定木)の数:イタレーション 41 42 43# LightGBMで訓練する 44lgb_results = {} # 学習の履歴を入れる入物 45model = lgb.train(params=params, # ハイパーパラメータをセット 46 train_set=lgb_train, # 訓練データを訓練用にセット 47 valid_sets=[lgb_train, lgb_test], # 訓練データとテストデータをセット 48 valid_names=['Train', 'Test'], # データセットの名前をそれぞれ設定 49 num_boost_round=100, # 計算回数 50 early_stopping_rounds=10) # アーリーストッピング設定 51 evals_result=lgb_results) # 履歴を保存する 52 53# 結果を抽出する 54loss_train = lgb_results['Train']['multi_logloss'] # 訓練誤差 55loss_test = lgb_results['Test']['multi_logloss'] # 汎化誤差 56best_iteration = model.best_iteration # 最良の予測器が得られたイタレーション数 57print(best_iteration) 58 59############################################################################################ 60 61# グラフ描画 62import lightgbm as lgb 63from sklearn import datasets 64from sklearn.model_selection import train_test_split 65import pandas as pd 66from matplotlib import pyplot as plt

解決策をご存じの方いましたらご教示いただけますと幸いです。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

ベストアンサー

lgb.trainメソッドにおいてearly_stopping_roundsの指定のあとにカッコで閉じているのが原因かと思います。
カンマ(,)に修正すればおそらく動くと思います。

python

1model = lgb.train(params=params, 2 train_set=lgb_train, 3 valid_sets=[lgb_train, lgb_test], 4 valid_names=['Train', 'Test'], 5 num_boost_round=100, 6 early_stopping_rounds=10) # ←←←←←ココ 7 evals_result=lgb_results)

質問の趣旨と異なりますが他に気になった点として以下があります。
0. paramsを指定しているコードで{'multi_logloss'}の波括弧は不要。warningが出ます
0. num_iterationとnum_boost_roundは同様に木の数の指定なので重複している気がします

2に関しては公式ドキュメント確認しました。
https://lightgbm.readthedocs.io/en/latest/Parameters.html

投稿2020/10/23 22:41

EM1206

総合スコア30

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

afawnelfksaugj

2020/10/26 01:37

ご回答ありがとうございます。 当方初心者で,見逃している点もあったようで,他の至らない点までご指摘いただき感謝申し上げます。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.37%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問