PyTorchの.zero_grad()メソッドはどんな場合に使わなければならないのでしょうか
良く見るコードパターンとして:
self.optim.zero_grad()
loss.backward()
self.optim.step()
ところが、 .zero_grad() 抜きで下記の二行だけ実行する実例も見たことがあります。
loss.backward()
self.optim.step()
.zero_grad() 入りと.zero_grad() 抜きとは何が違うのでしょうか。
是非ご教授お願い致します

回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2020/01/23 23:16
2020/01/24 01:08
2020/01/24 03:11