TensorFlow や、PyTorch、Chainerなどのフレームワークで、optimizer を zero_grad() などのメソッドで初期化しますが、初期化しないと、具体的にどうなるのでしょうか。
重み更新のときに使った勾配の変数(deltaW)は、逆伝播での計算結果で上書きされるので、どうして毎回初期化しなければいけないのかわかりません。この意味、よろしくお願いいたします。
回答1件
あなたの回答
tips
プレビュー
投稿2019/08/31 10:43
編集2019/08/31 10:44TensorFlow や、PyTorch、Chainerなどのフレームワークで、optimizer を zero_grad() などのメソッドで初期化しますが、初期化しないと、具体的にどうなるのでしょうか。
重み更新のときに使った勾配の変数(deltaW)は、逆伝播での計算結果で上書きされるので、どうして毎回初期化しなければいけないのかわかりません。この意味、よろしくお願いいたします。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2019/09/01 02:32
2019/09/01 02:57
2019/09/01 05:01
2019/09/01 05:28