コード(式だけをコピペしました)fは準伝番 bは逆伝播 def f(self,x): self.x = x return np.dot(self.x, self.w) + self.by def b(self,dout,eta): dx = np.dot(dout, self.w.T) self.dW = np.dot(self.x.T, dout) self.db = np.sum(dout, axis=0) return dx dw db
ディープラーニングのaffin_backがどれもこのようになってるのですがxとdoutで行列の大きさが違ってしまうのと(それでエラーが出る)
のとたとえそこが同じでも重みWの大きさと違ってしまいます
なぜどこのサイトでもこのような式になってるのですか?
あとself.w = self.w - etaself.dW1
self.by = self.by - etaself.db1
の重み更新式がclassとは別のところに定義されている理由が知りたいです
もしこれが間違ってるのなら正しい式を回答していただけると
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。