PyTorchの解説記事を見ていると、
Python
1model.zero_grad()
Python
1optimizer.zero_grad()
という使われ方をしていました。
個人的には、モデルの勾配をリセットするのはマズいんじゃないかと思うのですが、どうなのでしょう。
かといって、オプティマイザーの勾配とは?という疑問もあり、どちらの方がより効率的なのか分かりません。
この2種類の違いや使い分けなど教えていただきたいです。
回答1件
あなたの回答
tips
プレビュー
投稿2020/05/12 11:55
PyTorchの解説記事を見ていると、
Python
1model.zero_grad()
Python
1optimizer.zero_grad()
という使われ方をしていました。
個人的には、モデルの勾配をリセットするのはマズいんじゃないかと思うのですが、どうなのでしょう。
かといって、オプティマイザーの勾配とは?という疑問もあり、どちらの方がより効率的なのか分かりません。
この2種類の違いや使い分けなど教えていただきたいです。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。