質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
87.20%
機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

受付中

#初心者です!!PythonでのLightgbmのエラー

Pythonzakozako
Pythonzakozako

総合スコア0

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0回答

0評価

0クリップ

362閲覧

投稿2022/01/06 07:29

ヘディングのテキスト### Pythonでlightgbmを実装しております。

卒研です。
Pythonでlightgbmを実装しております。以前はできていたのですが、新たに説明変数を加えたところこのようなエラーが起きてしまいました。

発生している問題・エラーメッセージ

[LightGBM] [Warning] No further splits with positive gain, best gain: -inf ValueError Traceback (most recent call last) C:\ANACON~1\bin/ipykernel_7516/1347277234.py in <module> 21 22 y_pred = model_lgb.predict(X_valid, num_iteration=model_lgb.best_iteration) ---> 23 tmp_rmse = np.sqrt(mean_squared_error(np.log(y_valid),np.log(y_pred))) 24 25 print(tmp_rmse) C:\anaconda3\lib\site-packages\sklearn\utils\validation.py in inner_f(*args, **kwargs) 61 extra_args = len(args) - len(all_args) 62 if extra_args <= 0: ---> 63 return f(*args, **kwargs) 64 65 # extra_args > 0 C:\anaconda3\lib\site-packages\sklearn\metrics\_regression.py in mean_squared_error(y_true, y_pred, sample_weight, multioutput, squared) 333 0.825... 334 """ --> 335 y_type, y_true, y_pred, multioutput = _check_reg_targets( 336 y_true, y_pred, multioutput) 337 check_consistent_length(y_true, y_pred, sample_weight) C:\anaconda3\lib\site-packages\sklearn\metrics\_regression.py in _check_reg_targets(y_true, y_pred, multioutput, dtype) 87 """ 88 check_consistent_length(y_true, y_pred) ---> 89 y_true = check_array(y_true, ensure_2d=False, dtype=dtype) 90 y_pred = check_array(y_pred, ensure_2d=False, dtype=dtype) 91 C:\anaconda3\lib\site-packages\sklearn\utils\validation.py in inner_f(*args, **kwargs) 61 extra_args = len(args) - len(all_args) 62 if extra_args <= 0: ---> 63 return f(*args, **kwargs) 64 65 # extra_args > 0 C:\anaconda3\lib\site-packages\sklearn\utils\validation.py in check_array(array, accept_sparse, accept_large_sparse, dtype, order, copy, force_all_finite, ensure_2d, allow_nd, ensure_min_samples, ensure_min_features, estimator) 718 719 if force_all_finite: --> 720 _assert_all_finite(array, 721 allow_nan=force_all_finite == 'allow-nan') 722 C:\anaconda3\lib\site-packages\sklearn\utils\validation.py in _assert_all_finite(X, allow_nan, msg_dtype) 101 not allow_nan and not np.isfinite(X).all()): 102 type_err = 'infinity' if allow_nan else 'NaN, infinity' --> 103 raise ValueError( 104 msg_err.format 105 (type_err, ValueError: Input contains NaN, infinity or a value too large for dtype('float64').

該当のソースコード

Python

all_df = pd.concat([train_df,test_df],sort=False).reset_index(drop=True) train_df_le = all_df[~all_df["rank"].isnull()] test_df_le = all_df[all_df["rank"].isnull()] import lightgbm as lgb from sklearn.model_selection import KFold folds = 3 kf = KFold(n_splits=folds) lgbm_params = {"objective":"regression","random_seed":1234,'min_child_samples':10} train_X = train_df_le.drop(["rank","駅名"],axis=1) train_Y = train_df_le["rank"] from sklearn.metrics import mean_squared_error models = [] rmses = [] oof = np.zeros(len(train_X)) for train_index, val_index in kf.split(train_X): X_train = train_X.iloc[train_index] X_valid = train_X.iloc[val_index] y_train = train_Y.iloc[train_index] y_valid = train_Y.iloc[val_index] lgb_train = lgb.Dataset(X_train, y_train) lgb_eval = lgb.Dataset(X_valid, y_valid, reference=lgb_train) model_lgb = lgb.train(lgbm_params, lgb_train, valid_sets=lgb_eval, num_boost_round=100, early_stopping_rounds=100, verbose_eval=10, ) y_pred = model_lgb.predict(X_valid, num_iteration=model_lgb.best_iteration) tmp_rmse = np.sqrt(mean_squared_error(np.log(y_valid),np.log(y_pred))) print(tmp_rmse) models.append(model_lgb) rmses.append(tmp_rmse) oof[val_index] = y_pred

試したこと

元データでは欠損値や全角入力はないことは確認致しました。

初学者です、、、どうかよろしくお願いします。

良い質問の評価を上げる

以下のような質問は評価を上げましょう

  • 質問内容が明確
  • 自分も答えを知りたい
  • 質問者以外のユーザにも役立つ

評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

気になる質問をクリップする

クリップした質問は、後からいつでもマイページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

  • プログラミングに関係のない質問
  • やってほしいことだけを記載した丸投げの質問
  • 問題・課題が含まれていない質問
  • 意図的に内容が抹消された質問
  • 過去に投稿した質問と同じ内容の質問
  • 広告と受け取られるような投稿

評価を下げると、トップページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

aokikenichi

2022/01/06 10:13

追加した説明変数に異常値があるとしか思えないのですが、それを見ないとなんとも。 Excel等で眺めてみる describeでようやく統計量を見てみる ヒストグラム等を描いてみる データの型を見てみる ソートして冒頭と末尾を確認してみる でしょうか。
Pythonzakozako

2022/01/06 12:19

新しく足した説明変数aは欠損値が多く欠損値の部分を平均の値で補いました。 仮にその説明変数が問題の場合どのような値をが異常値になり得るのでしょうか、、、
aokikenichi

2022/01/07 13:08

データを見ないと何とも言えません。自分が正常と思っても見落としはあるものです。私は何度もあります。 どんな値が異常値かはPythonがエラーを出しているから異常値ですつまり ValueError: Input contains NaN, infinity or a value too large for dtype('float64'). が異常値です。
Pythonzakozako

2022/01/11 08:11 編集

print(train_df.isnull()) print(test_df.isnull()) これで見てもfalseになっています、、、 値は大きすぎたり小さすぎたりしてもこのようなエラーはでないのですよね、、? ちなみにxgboostでは実行可能です。

まだ回答がついていません

会員登録して回答してみよう

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
87.20%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問

同じタグがついた質問を見る

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。