前提・実現したいこと
多クラス分類をロジスティック回帰(確率的勾配降下法)で実装したいです。その際に、以下のようにエラーが出たので修正案を教えて欲しいです。
発生している問題・エラーメッセージ
多クラス分類で実装したいソフトマックス関数はかけましたが、確率的勾配降下法を用いて学習を進めたいのですが、データを1個取り出してソフトマックス関数に適応できません。
(3,) [0.33140883 0.3342123 0.33437887] Traceback (most recent call last): File "step02_4.py", line 26, in <module> z = softmax(w.T[n]@X[n] + b) IndexError: index 386 is out of bounds for axis 0 with size 3
(3,) [0.33140883 0.3342123 0.33437887]
は、途中まで実行できた結果です。
なお、入力データ全体に対してはソフトマックス関数での計算ができました。
このエラーが理由はわかるのですが、修正方法がわかりません。実際の仕組みでは、データ一つ(例えばX[0])を指定して以下の数式に適応した場合に(3,)の配列が出てくるようにしたいです。
該当のソースコード
makeGaussianData.py(学習データの作成)
python
1import numpy as np 2 3 4def getData(nclass, seed = None): 5 6 assert nclass == 2 or nclass == 3 7 8 if seed != None: 9 np.random.seed(seed) 10 11 # 2次元の spherical な正規分布3つからデータを生成 12 X0 = 0.10 * np.random.randn(200, 2) + [ 0.3, 0.3 ] 13 X1 = 0.10 * np.random.randn(200, 2) + [ 0.7, 0.6 ] 14 X2 = 0.05 * np.random.randn(200, 2) + [ 0.3, 0.7 ] 15 16 # それらのラベル用のarray 17 lab0 = np.zeros(X0.shape[0], dtype = int) 18 lab1 = np.zeros(X1.shape[0], dtype = int) + 1 19 lab2 = np.zeros(X2.shape[0], dtype = int) + 2 20 21 # X (入力データ), label (クラスラベル), t(教師信号) をつくる 22 if nclass == 2: 23 X = np.vstack((X0, X1)) 24 label = np.hstack((lab0, lab1)) 25 t = np.zeros(X.shape[0]) 26 t[label == 1] = 1.0 27 else: 28 X = np.vstack((X0, X1, X2)) 29 label = np.hstack((lab0, lab1, lab2)) 30 t = np.zeros((X.shape[0], nclass)) 31 for ik in range(nclass): 32 t[label == ik, ik] = 1.0 33 34 return X, label, t 35 36 37if __name__ == '__main__': 38 39 import matplotlib 40 import matplotlib.pyplot as plt 41 42 K = 3 43 44 X, lab, t = getData(K) 45 46 fig = plt.figure() 47 plt.xlim(-0.2, 1.2) 48 plt.ylim(-0.2, 1.2) 49 ax = fig.add_subplot(1, 1, 1) 50 ax.set_aspect(1) 51 ax.scatter(X[lab == 0, 0], X[lab == 0, 1], color = 'red') 52 ax.scatter(X[lab == 1, 0], X[lab == 1, 1], color = 'green') 53 if K == 3: 54 ax.scatter(X[lab == 2, 0], X[lab == 2, 1], color = 'blue') 55 plt.show()
ロジスティック回帰実装プログラム
python
1import numpy as np 2import makeGaussianData 3import matplotlib.pyplot as plt 4 5K = 3 6X, lab, t = makeGaussianData.getData(K) 7 8w = 0.02*np.random.rand(K,X.shape[0])-0.01 #1.パラメータの初期化 9z = np.empty((X.shape[0],K)) 10b=0.02*np.random.rand(K)-0.01 11h = np.empty(X.shape[0],) 12eta=0.01 13cnt = 0 14 15def softmax(a): 16 exp_a = np.exp(a) 17 sum_exp_a = np.sum(exp_a) 18 y = exp_a / sum_exp_a 19 return y 20y = b + np.sum((w @ X)) #y[k]の計算 21z=softmax(y) 22print(z.shape,z) 23 24for i in range(10000): #2.適当な回数の繰り返し(学習データは600個) 25 n = np.random.randint(0,600) #i.600個のデータからランダムで1つ選択 26 for k in range(K): 27 y[k] = w[k]@X[n] + b[k] #エラー発生箇所 28 z= softmax(y) 29 print(z) 30''' #以下は2クラスの時の確率的勾配降下法の適応部分 31 h[n]= (-t[n]*np.log(z[n]))-((1-t[n])*np.log(1-z[n])) #ii.モデルの出力を求める 32 w = w-(eta*((z[n]-t[n])*X)) 33 b = b-(eta*(z[n]-t[n])) #iii.パラメータの更新 34 if i % 1000 == 0: #2.iv. 1000の倍数になったときの処理 35 z=s(w @ X.T + b) 36 h= (-1*t)*np.log(z)-(1-t)*np.log(1-z) 37 cnt = np.sum((z > 0.5) == t) 38 H = np.mean(h) 39 print("#{0}, H:{1} , {2}/{3}={4}".format(i,H,cnt,X.shape[0],cnt/X.shape[0])) 40 cnt=0 41''' 42fig = plt.figure() 43plt.xlim(-0.2, 1.2) 44plt.ylim(-0.2, 1.2) 45ax = fig.add_subplot(1, 1, 1) 46ax.set_aspect(1) 47ax.scatter(X[lab == 0, 0], X[lab == 0, 1], color = 'red') 48ax.scatter(X[lab == 1, 0], X[lab == 1, 1], color = 'green') 49if K == 3: 50 ax.scatter(X[lab == 2, 0], X[lab == 2, 1], color = 'blue') 51 52fig.show() 53plt.show()
あなたの回答
tips
プレビュー