現在、深層学習の青本の勉強をしています。
6.7の勾配計算に関する質問です。
問題の部分
質問内容
上記の画像のTrまでは理解できました。
誤差関数を重みで微分して誤差勾配を求め、重みの更新をしていくというのを4章誤差逆伝播で知り、誤差の勾配を出す理由は分かったのですが、今回の重みWの勾配を求めるのはどういう理由からでしょうか。またδについて、hの勾配を求める理由、6.5式についてもご教示願います。よろしくお願いします。
回答1件
あなたの回答
tips
プレビュー
投稿2019/08/07 15:17
現在、深層学習の青本の勉強をしています。
6.7の勾配計算に関する質問です。
上記の画像のTrまでは理解できました。
誤差関数を重みで微分して誤差勾配を求め、重みの更新をしていくというのを4章誤差逆伝播で知り、誤差の勾配を出す理由は分かったのですが、今回の重みWの勾配を求めるのはどういう理由からでしょうか。またδについて、hの勾配を求める理由、6.5式についてもご教示願います。よろしくお願いします。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。