多クラスパーセプトロンを作りたいです
jupyter notebook で多クラス用のパーセプトロンを作っているのですが
インスタンス化してfitを行うと以下のエラーが出ます。
どのようにデバッグすれば良いのか教えて頂ければ幸いです。
発生している問題・エラーメッセージ
--------------------------------------------------------------------------- ValueError Traceback (most recent call last) <ipython-input-120-a264e9c7b927> in <module> 1 lrn = Logistic_Regression_n(max_iter=100, learning_rate=0.01) ----> 2 lrn.fit(X_train, y_train) 3 lrn.score(X_test, y_test) <ipython-input-118-ea3a409bb553> in fit(self, X, y) 53 k_classified = True 54 for k in range(len(X[0])): ---> 55 delta_w[j][k] = (Y[i][j] - self.f(X[i])[j]) * X[i][k] * self.learning_rate * (1 - epoch / self.max_iter) 56 self.w[j][k] += delta_w[j][k] 57 if not all(delta_w) == 0: <ipython-input-118-ea3a409bb553> in f(self, X) 21 22 def f(self, X): ---> 23 return self.softmax(list(np.array(np.dot(self.w, X)) + np.array(self.b))) 24 25 #クラスを表すyは0以上の整数のリスト ValueError: setting an array element with a sequence.
該当のソースコード
python
1#多クラス分類のロジスティック回帰 2class Logistic_Regression_n(): 3 def __init__(self, max_iter, learning_rate): 4 self.max_iter = max_iter 5 self.learning_rate = learning_rate 6 self.w = [[0]*len(X[0])]*(max(y) + 1) 7 self.b = [0]*(max(y) + 1) 8 9 def softmax(self, X): 10 num = 0 11 for i in range(len(X)): 12 num += np.exp(X[i]) 13 ans = [] 14 for i in range(len(X)): 15 ans.append(np.exp(X[i]) / num) 16 return ans 17 18 def ans(self, X): 19 ls = self.f(X) 20 return ls.index(max(ls)) 21 22 def f(self, X): 23 return self.softmax(list(np.array(np.dot(self.w, X)) + np.array(self.b))) 24 25 #クラスを表すyは0以上の整数のリスト 26 def fit(self, X, y): 27 Y = [[]]*(len(X)) 28 for i in range (len(X)): 29 for j in range (max(y) + 1): 30 Y[i].append(1 * (y[i] == j)) 31 delta_w = [[0]*len(X[0])]*(max(y) + 1) 32 delta_b = [0]*(max(y) + 1) 33 ls = [] 34 X_copy = [] 35 y_copy = [] 36 for i in range (len(X)): 37 ls.append(i) 38 X_copy.append(i) 39 y_copy.append(i) 40 #局所最適解に陥らないように学習率が段々小さくなるように実装した 41 for epoch in range (self.max_iter): 42 #勾配降下法を用いるとΣ(yーans(x))を求めなければならなくなり、計算量が増えるので確率的勾配降下法を用いた 43 shuffle(ls) 44 for i in range (len(X)): 45 X_copy[i] = X[ls[i]] 46 y_copy[i] = y[ls[i]] 47 X = X_copy 48 y = y_copy 49 classified = True 50 for i in range(len(X)): 51 for j in range(max(y) + 1): 52 wk_classified = True 53 k_classified = True 54 for k in range(len(X[0])): 55 delta_w[j][k] = (Y[i][j] - self.f(X[i])[j]) * X[i][k] * self.learning_rate * (1 - epoch / self.max_iter) 56 self.w[j][k] += delta_w[j][k] 57 if not all(delta_w) == 0: 58 wk_classified = False 59 delta_b[j] = (Y[i][k] - self.f(X[i])) * self.learning_rate * (1 - epoch / self.max_iter) 60 self.b[j] += delta_b[j] 61 if not (wk_classified and delta_b[j] == 0): 62 k_classified = False 63 if not k_classified: 64 classified =False 65 if classified: 66 break 67 68 def score(self, X, y): 69 num = 0 70 for i in range(len(X)): 71 if self.ans(X[i]) == y[i]: 72 num += 1 73 return num / len(X) 74 if num == 0: 75 print("the data set might be too small") 76 77 def predict(self, X): 78 ans = [] 79 for i in range(len(X)): 80 ans.append(self.ans(X[i])) 81 return ans
試したこと
wとXの積の形やbの形を調べたのですが(2,)という同じ形になっていました。
またnumpyのdtypeを用いてXが'float64'であることを確認しました。
「np.array(np.dot(self.w, X))」と「np.array(self.b)」のサイズはどうなっていますか?
どちらも(2,)になってます
サイズが同じnp.arrayであれば+でエラーは出ないはずですね。
「return self.softmax(list(np.array(np.dot(self.w, X)) + np.array(self.b)))」でエラーが発生しているようですが、この分を分解していってどの段階でエラーが出るが調べてみてはいかがでしょうか?
ありがとうございます、試してみます!
実際にself.wやdelta_wを表示させてみるとそれぞれ要素が一つずつ数値ではなくarrayになってしまっているのですがその原因が分かりません
self.w、delta_wは2次元のリストかと思われます。コードと実際に欲しいものとが一致していないのではないですか?
色々調べていたところ、Yの定義の仕方が良くなかったことが原因でwやdelta_wに意図しない値が入ってしまっていたことが分かりました。
megさんたくさんのアドバイスをありがとうございました。
お礼を述べている割には質問タイトルを意味不明なものに編集するとは…
回答1件
あなたの回答
tips
プレビュー