質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

0回答

2442閲覧

#初心者です!!PythonでのLightgbmのエラー

Pythonzakozako

総合スコア0

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2022/01/06 07:29

ヘディングのテキスト### Pythonでlightgbmを実装しております。

卒研です。
Pythonでlightgbmを実装しております。以前はできていたのですが、新たに説明変数を加えたところこのようなエラーが起きてしまいました。

発生している問題・エラーメッセージ

[LightGBM] [Warning] No further splits with positive gain, best gain: -inf ValueError Traceback (most recent call last) C:\ANACON~1\bin/ipykernel_7516/1347277234.py in <module> 21 22 y_pred = model_lgb.predict(X_valid, num_iteration=model_lgb.best_iteration) ---> 23 tmp_rmse = np.sqrt(mean_squared_error(np.log(y_valid),np.log(y_pred))) 24 25 print(tmp_rmse) C:\anaconda3\lib\site-packages\sklearn\utils\validation.py in inner_f(*args, **kwargs) 61 extra_args = len(args) - len(all_args) 62 if extra_args <= 0: ---> 63 return f(*args, **kwargs) 64 65 # extra_args > 0 C:\anaconda3\lib\site-packages\sklearn\metrics\_regression.py in mean_squared_error(y_true, y_pred, sample_weight, multioutput, squared) 333 0.825... 334 """ --> 335 y_type, y_true, y_pred, multioutput = _check_reg_targets( 336 y_true, y_pred, multioutput) 337 check_consistent_length(y_true, y_pred, sample_weight) C:\anaconda3\lib\site-packages\sklearn\metrics\_regression.py in _check_reg_targets(y_true, y_pred, multioutput, dtype) 87 """ 88 check_consistent_length(y_true, y_pred) ---> 89 y_true = check_array(y_true, ensure_2d=False, dtype=dtype) 90 y_pred = check_array(y_pred, ensure_2d=False, dtype=dtype) 91 C:\anaconda3\lib\site-packages\sklearn\utils\validation.py in inner_f(*args, **kwargs) 61 extra_args = len(args) - len(all_args) 62 if extra_args <= 0: ---> 63 return f(*args, **kwargs) 64 65 # extra_args > 0 C:\anaconda3\lib\site-packages\sklearn\utils\validation.py in check_array(array, accept_sparse, accept_large_sparse, dtype, order, copy, force_all_finite, ensure_2d, allow_nd, ensure_min_samples, ensure_min_features, estimator) 718 719 if force_all_finite: --> 720 _assert_all_finite(array, 721 allow_nan=force_all_finite == 'allow-nan') 722 C:\anaconda3\lib\site-packages\sklearn\utils\validation.py in _assert_all_finite(X, allow_nan, msg_dtype) 101 not allow_nan and not np.isfinite(X).all()): 102 type_err = 'infinity' if allow_nan else 'NaN, infinity' --> 103 raise ValueError( 104 msg_err.format 105 (type_err, ValueError: Input contains NaN, infinity or a value too large for dtype('float64').

該当のソースコード

Python

1 2all_df = pd.concat([train_df,test_df],sort=False).reset_index(drop=True) 3train_df_le = all_df[~all_df["rank"].isnull()] 4test_df_le = all_df[all_df["rank"].isnull()] 5 6import lightgbm as lgb 7from sklearn.model_selection import KFold 8folds = 3 9kf = KFold(n_splits=folds) 10 11lgbm_params = {"objective":"regression","random_seed":1234,'min_child_samples':10} 12 13train_X = train_df_le.drop(["rank","駅名"],axis=1) 14train_Y = train_df_le["rank"] 15 16from sklearn.metrics import mean_squared_error 17 18models = [] 19rmses = [] 20oof = np.zeros(len(train_X)) 21 22for train_index, val_index in kf.split(train_X): 23 X_train = train_X.iloc[train_index] 24 X_valid = train_X.iloc[val_index] 25 y_train = train_Y.iloc[train_index] 26 y_valid = train_Y.iloc[val_index] 27 28 lgb_train = lgb.Dataset(X_train, y_train) 29 lgb_eval = lgb.Dataset(X_valid, y_valid, reference=lgb_train) 30 31 model_lgb = lgb.train(lgbm_params, 32 lgb_train, 33 valid_sets=lgb_eval, 34 num_boost_round=100, 35 early_stopping_rounds=100, 36 verbose_eval=10, 37 ) 38 39 y_pred = model_lgb.predict(X_valid, num_iteration=model_lgb.best_iteration) 40 tmp_rmse = np.sqrt(mean_squared_error(np.log(y_valid),np.log(y_pred))) 41 42 print(tmp_rmse) 43 44 models.append(model_lgb) 45 rmses.append(tmp_rmse) 46 oof[val_index] = y_pred

試したこと

元データでは欠損値や全角入力はないことは確認致しました。

初学者です、、、どうかよろしくお願いします。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

aokikenichi

2022/01/06 10:13

追加した説明変数に異常値があるとしか思えないのですが、それを見ないとなんとも。 Excel等で眺めてみる describeでようやく統計量を見てみる ヒストグラム等を描いてみる データの型を見てみる ソートして冒頭と末尾を確認してみる でしょうか。
Pythonzakozako

2022/01/06 12:19

新しく足した説明変数aは欠損値が多く欠損値の部分を平均の値で補いました。 仮にその説明変数が問題の場合どのような値をが異常値になり得るのでしょうか、、、
aokikenichi

2022/01/07 13:08

データを見ないと何とも言えません。自分が正常と思っても見落としはあるものです。私は何度もあります。 どんな値が異常値かはPythonがエラーを出しているから異常値ですつまり ValueError: Input contains NaN, infinity or a value too large for dtype('float64'). が異常値です。
Pythonzakozako

2022/01/11 08:11 編集

print(train_df.isnull()) print(test_df.isnull()) これで見てもfalseになっています、、、 値は大きすぎたり小さすぎたりしてもこのようなエラーはでないのですよね、、? ちなみにxgboostでは実行可能です。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだ回答がついていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問