質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.35%
scikit-learn

scikit-learnは、Pythonで使用できるオープンソースプロジェクトの機械学習用ライブラリです。多くの機械学習アルゴリズムが実装されていますが、どのアルゴリズムも同じような書き方で利用できます。

NumPy

NumPyはPythonのプログラミング言語の科学的と数学的なコンピューティングに関する拡張モジュールです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

pandas

Pandasは、PythonでRにおけるデータフレームに似た型を持たせることができるライブラリです。 行列計算の負担が大幅に軽減されるため、Rで行っていた集計作業をPythonでも比較的簡単に行えます。 データ構造を変更したりデータ分析したりするときにも便利です。

Q&A

解決済

1回答

1676閲覧

複数のデータフレームからランダム(データフレーム間のNoは同じ)にデータを抽出

yyy-

総合スコア4

scikit-learn

scikit-learnは、Pythonで使用できるオープンソースプロジェクトの機械学習用ライブラリです。多くの機械学習アルゴリズムが実装されていますが、どのアルゴリズムも同じような書き方で利用できます。

NumPy

NumPyはPythonのプログラミング言語の科学的と数学的なコンピューティングに関する拡張モジュールです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

pandas

Pandasは、PythonでRにおけるデータフレームに似た型を持たせることができるライブラリです。 行列計算の負担が大幅に軽減されるため、Rで行っていた集計作業をPythonでも比較的簡単に行えます。 データ構造を変更したりデータ分析したりするときにも便利です。

0グッド

0クリップ

投稿2020/11/13 02:37

編集2020/11/13 05:10

x、x2、yのデータセットがあり
X、y回帰の問題で、ハイパーパラメータを決めるためのクロスバリデーションを行う際、
xはオートスケーリング、x2は処理なしでX=x+x2として最終的にyと回帰したいのですが、
以下のように試したところ、X=x+x2の段階でエラーがでてしまいます。

おそらく、xとx2をランダムに抜きだすときのデータナンバーがあっていないのだと思いますが、二つのデータフレームからランダムかつデータフレーム間は同じサンプルナンバーを抜き出すにはどうしたらよいでしょうか。

x:

No.ab
13.11.2
210.02.2
31.11.2
43.53.2

x2:

No.cd
101
200
301
410

ランダムに抜き出す際に、x,x2両データのデータNo.だけは統一したいです。

def double_cross_validation(gs_cv, x, x2, y, outer_fold_number, do_autoscaling=True, random_state=0): """ Double Cross-Validation (DCV) Estimate y-values in DCV Parameters ---------- gs_cv : object of GridSearchCV (sklearn.model_selection.GridSearchCV) for more details, please go to https://scikit-learn.org/stable/modules/generated/sklearn.model_selection.GridSearchCV.html x : numpy.array or pandas.DataFrame m x n matrix of X-variables of training data, m is the number of training sammples and n is the number of X-variables y : numpy.array or pandas.DataFrame m x 1 vector of a Y-variable of training data outer_fold_number : int Fold number in outer CV (fold number in inner CV is included in gs_cv) do_autoscaling : bool flag of autoscaling, if True, do autoscaling random_state : int random seed, if None, random seed is not set Returns ------- estimated_y : numpy.array estimated y-values in DCV """ x = np.array(x) x2 = np.array(x2) y = np.array(y) # how to divide datase in outer CV min_number = math.floor(x.shape[0] / outer_fold_number) mod_number = x.shape[0] - min_number * outer_fold_number index = np.matlib.repmat(np.arange(1, outer_fold_number + 1, 1), 1, min_number).ravel() if mod_number != 0: index = np.r_[index, np.arange(1, mod_number + 1, 1)] if random_state != None: np.random.seed(random_state) fold_index_in_outer_cv = np.random.permutation(index) np.random.seed(0) estimated_y = np.zeros(len(y)) for fold_number_in_outer_cv in np.arange(1, outer_fold_number + 1, 1): print(fold_number_in_outer_cv, '/', outer_fold_number) # divide training data and test data x_train = x[fold_index_in_outer_cv != fold_number_in_outer_cv, :].copy() x2_train = x2[fold_index_in_outer_cv != fold_number_in_outer_cv, :].copy() y_train = y[fold_index_in_outer_cv != fold_number_in_outer_cv].copy() x_test = x[fold_index_in_outer_cv == fold_number_in_outer_cv, :].copy() x2_test = x2[fold_index_in_outer_cv == fold_number_in_outer_cv, :].copy() # shuffle samples if random_state != -999: np.random.seed(0) random_numbers = np.random.permutation(np.arange(x_train.shape[0])) x_train = x_train[random_numbers, :] x2_train = x2_train[random_numbers, :] y_train = y_train[random_numbers] np.random.seed(0) # autoscaling if do_autoscaling: autoscaled_x_train_pre = (x_train - x_train.mean(axis=0)) / x_train.std(axis=0, ddof=1) autoscaled_x_train =np.concatenate([autoscaled_x_train_pre, x2_train],axis=1) autoscaled_y_train = (y_train - y_train.mean()) / y_train.std(ddof=1) autoscaled_x_test_pre = (x_test - x_train.mean(axis=0)) / x_train.std(axis=0, ddof=1) autoscaled_x_train =np.concatenate([[autoscaled_x_test_pre], [x2_test]], axis=1) else: autoscaled_x_train = x_train.copy() autoscaled_y_train = y_train.copy() autoscaled_x_test = x_test.copy() # inner CV gs_cv.fit(autoscaled_x_train, autoscaled_y_train) # modeling model = getattr(gs_cv, 'estimator') hyperparameters = list(gs_cv.best_params_.keys()) for hyperparameter in hyperparameters: setattr(model, hyperparameter, gs_cv.best_params_[hyperparameter]) model.fit(autoscaled_x_train, autoscaled_y_train) # prediction estimated_y_test = np.ndarray.flatten(model.predict(autoscaled_x_test)) if do_autoscaling: estimated_y_test = estimated_y_test * y_train.std(ddof=1) + y_train.mean() estimated_y[fold_index_in_outer_cv == fold_number_in_outer_cv] = estimated_y_test # 格納 return estimated_y # Settings inner_fold_number = 10 # "fold_number"-fold cross-validation (CV) for inter CV outer_fold_number = 54 # "fold_number"-fold CV for outer CV parameters = { "C": [2**n for n in range(-5, 11)], # Candidates of C "epsilon": [2**n for n in range(-10, 1)], # Candidates of epsilon "gamma": [2**n for n in range(-20, 11)], # Candidates of gamma } # DCV inner_cv = GridSearchCV(svm.SVR(), parameters, scoring = 'max_error', n_jobs = -1, cv = inner_fold_number) y_pred = double_cross_validation(gs_cv=inner_cv, x=x, x2 =x2, y=y, outer_fold_number=outer_fold_number, do_autoscaling=True, random_state=0) # 汎化性能 from DCV using SVR from sklearn.metrics import r2_score from sklearn.metrics import mean_absolute_error print(r2_score(y, y_pred)) print(mean_absolute_error(y, y_pred))

エラー:
ValueError Traceback (most recent call last)
<ipython-input-40-de7659de5d58> in <module>
99 # DCV
100 inner_cv = GridSearchCV(svm.SVR(), parameters, scoring = 'max_error', n_jobs = -1, cv = inner_fold_number)
--> 101 y_pred = double_cross_validation(gs_cv=inner_cv, x=x, x2 =x2, y=y, outer_fold_number=outer_fold_number, do_autoscaling=True, random_state=0)
102
103 # 汎化性能 from DCV using SVR

<ipython-input-40-de7659de5d58> in double_cross_validation(gs_cv, x, x2, y, outer_fold_number, do_autoscaling, random_state)
66 autoscaled_y_train = (y_train - y_train.mean()) / y_train.std(ddof=1)
67 autoscaled_x_test_pre = (x_test - x_train.mean(axis=0)) / x_train.std(axis=0, ddof=1)
---> 68 autoscaled_x_train =np.concatenate([[autoscaled_x_test_pre], [x2_test]], axis=1)
69 else:
70 autoscaled_x_train = x_train.copy()

ValueError: all the input array dimensions except for the concatenation axis must match exactly
よろしくお願いします。

イメージ説明
イメージ説明

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

can110

2020/11/13 02:53

提示エラーは単純に引数(values)が足りないという意味でありデータナンバーとは無関係です。 質問本文とエラーは合っている(正しい)でしょうか?
kirara0048

2020/11/13 02:54

np.insert()の使い方が間違っているというエラーです。この関数は【配列,位置,値(の配列)】の3つを引数にとります。
yyy-

2020/11/13 02:55

np.appendもダメでした。 x+x2をしたいときどうしたらよいですか?
guest

回答1

0

ベストアンサー

autoscaled_x_train =np.insert(autoscaled_x_train_pre, x2_train)
エラー箇所をみると、np.insertの引数が2つしかありません。
arr, obj, valuesが引数として必要なのに2つしかないので
TypeError: insert() missing 1 required positional argument: 'values'
と言われています。
必要な引数を指定してあげてください。

numpy.insert(arr, obj, values, axis=None)

numpy.insert

追記

python3

1import numpy as np 2autoscaled_x_train_pre = np.array([[1.1,1.4],[5.8,6.2]]) 3# array([[1.1, 1.4], 4# [5.8, 6.2]]) 5 6x2_train = np.array([[0,1],[0,1]]) 7# array([[0, 1], 8# [0, 1]]) 9 10autoscaled_x_train =np.concatenate([autoscaled_x_train_pre, x2_train],axis=1) 11# array([[1.1, 1.4, 0. , 1. ], 12# [5.8, 6.2, 0. , 1. ]])

投稿2020/11/13 02:55

編集2020/11/13 05:03
jeanbiego

総合スコア3966

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

yyy-

2020/11/13 03:08

例えば、ランダムにNo.2と3が抜き出されたとして、 autoscaled_x_train=[a,b,c,d],[10.0(オートスケール後),2.2(〃), 0, 0],[1.1(〃),1.2(〃),0,1] というデータにしたいのですが、どう書いたらよいでしょうか。。。
jeanbiego

2020/11/13 04:00

No.2と3というのがよく分かりませんが…(コードはコピペで動作しなかったので、全体の動作は把握していません) autoscaled_x_train =np.insert(autoscaled_x_train_pre, x2_train) ここで実装したかった配列操作を、autoscaled_x_train_pre, x2_trainの具体例とともに質問欄に書いてみてください。手書きでも良いです。
yyy-

2020/11/13 04:48

すみません。わかりにくかったらまた仰ってください。よろしくお願いします
jeanbiego

2020/11/13 04:57

まだちょっと良く分かりません。 autoscaled_x_train =np.insert(autoscaled_x_train_pre, x2_train) ここに絞って話をすると、どうなるのでしょうか。 たとえば、No.1と2が選ばれたときに下のような操作をしたいということであってますか? X : autoscaled_x_train x : autoscaled_x_train_pre x2 : x2_train x x2 X [1.1 1.4] [0 1] [1.1 1.4 0 1] [5.8 6.2] + [0 1] = [5.8 6.2 0 1]
yyy-

2020/11/13 05:03

仰る通りです
jeanbiego

2020/11/13 05:04

コメント欄ではズレてしまってわかりづらいですね。 回答欄に追記しましたので、ご確認ください。
yyy-

2020/11/13 05:08

やりたいことは仰る通りでした。 concatenateで all the input array dimensions except for the concatenation axis must match exactly と出てしまいました。。。 質問部分のコード編集します
jeanbiego

2020/11/13 05:15

x : autoscaled_x_train_pre x2 : x2_train この2つがどんな格好になっているか、printなりデバックなりで確認してみてください。 たぶん、行数が異なっているのだろうと思います。
yyy-

2020/11/13 05:51

わかりました。頑張ってみます。 大変ご丁寧にありがとうございます。出来たら報告します。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.35%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問