質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.35%
NumPy

NumPyはPythonのプログラミング言語の科学的と数学的なコンピューティングに関する拡張モジュールです。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

0回答

1516閲覧

ロジスティック回帰実装について

padms0206

総合スコア2

NumPy

NumPyはPythonのプログラミング言語の科学的と数学的なコンピューティングに関する拡張モジュールです。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

1グッド

0クリップ

投稿2020/07/27 00:32

編集2020/07/29 04:22

前提・実現したいこと

多クラス分類をロジスティック回帰(確率的勾配降下法)で実装したいです。その際に、以下のようにエラーが出たので修正案を教えて欲しいです。

発生している問題・エラーメッセージ

多クラス分類で実装したいソフトマックス関数はかけましたが、確率的勾配降下法を用いて学習を進めたいのですが、データを1個取り出してソフトマックス関数に適応できません。

(3,) [0.33140883 0.3342123 0.33437887] Traceback (most recent call last): File "step02_4.py", line 26, in <module> z = softmax(w.T[n]@X[n] + b) IndexError: index 386 is out of bounds for axis 0 with size 3

(3,) [0.33140883 0.3342123 0.33437887]

 は、途中まで実行できた結果です。
なお、入力データ全体に対してはソフトマックス関数での計算ができました。

このエラーが理由はわかるのですが、修正方法がわかりません。実際の仕組みでは、データ一つ(例えばX[0])を指定して以下の数式に適応した場合に(3,)の配列が出てくるようにしたいです。
ソフトマックス関数

該当のソースコード

makeGaussianData.py(学習データの作成)

python

1import numpy as np 2 3 4def getData(nclass, seed = None): 5 6 assert nclass == 2 or nclass == 3 7 8 if seed != None: 9 np.random.seed(seed) 10 11 # 2次元の spherical な正規分布3つからデータを生成 12 X0 = 0.10 * np.random.randn(200, 2) + [ 0.3, 0.3 ] 13 X1 = 0.10 * np.random.randn(200, 2) + [ 0.7, 0.6 ] 14 X2 = 0.05 * np.random.randn(200, 2) + [ 0.3, 0.7 ] 15 16 # それらのラベル用のarray 17 lab0 = np.zeros(X0.shape[0], dtype = int) 18 lab1 = np.zeros(X1.shape[0], dtype = int) + 1 19 lab2 = np.zeros(X2.shape[0], dtype = int) + 2 20 21 # X (入力データ), label (クラスラベル), t(教師信号) をつくる 22 if nclass == 2: 23 X = np.vstack((X0, X1)) 24 label = np.hstack((lab0, lab1)) 25 t = np.zeros(X.shape[0]) 26 t[label == 1] = 1.0 27 else: 28 X = np.vstack((X0, X1, X2)) 29 label = np.hstack((lab0, lab1, lab2)) 30 t = np.zeros((X.shape[0], nclass)) 31 for ik in range(nclass): 32 t[label == ik, ik] = 1.0 33 34 return X, label, t 35 36 37if __name__ == '__main__': 38 39 import matplotlib 40 import matplotlib.pyplot as plt 41 42 K = 3 43 44 X, lab, t = getData(K) 45 46 fig = plt.figure() 47 plt.xlim(-0.2, 1.2) 48 plt.ylim(-0.2, 1.2) 49 ax = fig.add_subplot(1, 1, 1) 50 ax.set_aspect(1) 51 ax.scatter(X[lab == 0, 0], X[lab == 0, 1], color = 'red') 52 ax.scatter(X[lab == 1, 0], X[lab == 1, 1], color = 'green') 53 if K == 3: 54 ax.scatter(X[lab == 2, 0], X[lab == 2, 1], color = 'blue') 55 plt.show()

ロジスティック回帰実装プログラム

python

1import numpy as np 2import makeGaussianData 3import matplotlib.pyplot as plt 4 5K = 3 6X, lab, t = makeGaussianData.getData(K) 7 8w = 0.02*np.random.rand(K,X.shape[0])-0.01 #1.パラメータの初期化 9z = np.empty((X.shape[0],K)) 10b=0.02*np.random.rand(K)-0.01 11h = np.empty(X.shape[0],) 12eta=0.01 13cnt = 0 14 15def softmax(a): 16 exp_a = np.exp(a) 17 sum_exp_a = np.sum(exp_a) 18 y = exp_a / sum_exp_a 19 return y 20y = b + np.sum((w @ X)) #y[k]の計算 21z=softmax(y) 22print(z.shape,z) 23 24for i in range(10000): #2.適当な回数の繰り返し(学習データは600個) 25 n = np.random.randint(0,600) #i.600個のデータからランダムで1つ選択 26 for k in range(K): 27 y[k] = w[k]@X[n] + b[k] #エラー発生箇所 28 z= softmax(y) 29 print(z) 30''' #以下は2クラスの時の確率的勾配降下法の適応部分 31 h[n]= (-t[n]*np.log(z[n]))-((1-t[n])*np.log(1-z[n])) #ii.モデルの出力を求める 32 w = w-(eta*((z[n]-t[n])*X)) 33 b = b-(eta*(z[n]-t[n])) #iii.パラメータの更新 34 if i % 1000 == 0: #2.iv. 1000の倍数になったときの処理 35 z=s(w @ X.T + b) 36 h= (-1*t)*np.log(z)-(1-t)*np.log(1-z) 37 cnt = np.sum((z > 0.5) == t) 38 H = np.mean(h) 39 print("#{0}, H:{1} , {2}/{3}={4}".format(i,H,cnt,X.shape[0],cnt/X.shape[0])) 40 cnt=0 41''' 42fig = plt.figure() 43plt.xlim(-0.2, 1.2) 44plt.ylim(-0.2, 1.2) 45ax = fig.add_subplot(1, 1, 1) 46ax.set_aspect(1) 47ax.scatter(X[lab == 0, 0], X[lab == 0, 1], color = 'red') 48ax.scatter(X[lab == 1, 0], X[lab == 1, 1], color = 'green') 49if K == 3: 50 ax.scatter(X[lab == 2, 0], X[lab == 2, 1], color = 'blue') 51 52fig.show() 53plt.show()
anozon👍を押しています

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

segavvy

2020/07/29 00:45

エラーメッセージを記載してください。今記載されているのは発生箇所の情報だけで、エラー内容がわかりません。(試してはいませんが、おそらく形状が一致しないエラーなのではないかと思います。)
padms0206

2020/07/29 04:23

修正しました。わかりにくい説明で申し訳ありませんでした
segavvy

2020/07/29 16:46

入力層は2次元で、出力層は3次元(=K)ですよね。その場合、wの形状がおかしくないでしょうか? w = 0.02*np.random.rand(K,X.shape[0])-0.01 #1.パラメータの初期化 と初期化していますが、これだとwの形状が(3,600)になってしまいます。 w = 0.02*np.random.rand(K,X.shape[1])-0.01 #1.パラメータの初期化 の間違いだったりしないでしょうか?
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

まだ回答がついていません

会員登録して回答してみよう

アカウントをお持ちの方は

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.35%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問