uniformの下限が上限より大きいのはおかしいのでしょうか?
import scipy from sklearn.linear_model import LogisticRegression from sklearn.ensemble import GradientBoostingClassifier pipe_logistic = Pipeline([('scl',StandardScaler()),('est',LogisticRegression(random_state=1))]) pipe_gbc = Pipeline([('scl',StandardScaler()),('est',GradientBoostingClassifier(random_state=1))]) param_dist_logistic = {'est__C':scipy.stats.uniform(0.1, 100), 'est__penalty':['l1','l2']} param_dist_gbc = {'est__n_estimators':[50,100],'est__subsample':scipy.stats.uniform(0.8,0.2)}
というサンプルコードがあって、
scipy.stats.uniform(0.8,0.2)
とuniform(0.8,0.2)の下限が上限より大きいのが納得できません。これはどのように一様分布しているのでしょうか...?
でもこのサンプルコードを動かしてもエラーが出ないのでさらに謎です。uniformの下限が上限より大きくてもおかしくはないのでしょうか?
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。