Optunaを利用したパラメータチューニングを試しています。
訓練データとテストデータ、またmodelのrandom_stateを固定しているのですが、
best_paramsとbest_valueが実行するたびに違う結果が出てしまいます。
from sklearn.model_selection import train_test_split from sklearn.datasets import load_iris iris = load_iris() X = iris.data y = iris.target X_train, X_test, y_train, y_test = train_test_split(X, y, stratify=y, test_size=0.3) import optuna def objective(trial): criterion = trial.suggest_categorical('criterion', ['gini', 'entropy']) n_estimators = trial.suggest_int('n_estimators', 50, 1000) max_depth = trial.suggest_int('max_depth', 1, 10) model = RandomForestClassifier(criterion=criterion, n_estimators=n_estimators, max_depth=max_depth, random_state=0) model.fit(X_train, y_train) score = model.score(X_test, y_test) return score study = optuna.create_study() study.optimize(objective, n_trials=10) print("Best Params : ",study.best_params) print("Best Score : ",study.best_value)
トライアルの回数が少ないから、実行結果が変わってしまうのでしょうか?
機械学習の初学者のため大変稚拙な質問かとは存じますが、ご教示いただけましたら幸甚です。
何卒よろしくお願い申し上げます。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。