質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
PyTorch

PyTorchは、オープンソースのPython向けの機械学習ライブラリ。Facebookの人工知能研究グループが開発を主導しています。強力なGPUサポートを備えたテンソル計算、テープベースの自動微分による柔軟なニューラルネットワークの記述が可能です。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

Q&A

解決済

1回答

14180閲覧

PyTorchのzero_grad()について

lefirea

総合スコア17

PyTorch

PyTorchは、オープンソースのPython向けの機械学習ライブラリ。Facebookの人工知能研究グループが開発を主導しています。強力なGPUサポートを備えたテンソル計算、テープベースの自動微分による柔軟なニューラルネットワークの記述が可能です。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

0グッド

1クリップ

投稿2020/05/12 11:55

PyTorchの解説記事を見ていると、

Python

1model.zero_grad()

Python

1optimizer.zero_grad()

という使われ方をしていました。
個人的には、モデルの勾配をリセットするのはマズいんじゃないかと思うのですが、どうなのでしょう。
かといって、オプティマイザーの勾配とは?という疑問もあり、どちらの方がより効率的なのか分かりません。

この2種類の違いや使い分けなど教えていただきたいです。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

ベストアンサー

zero_grad() をする理由

Pytorch では、逆伝搬で勾配を計算した際に、以前に計算した勾配がある場合はそれに加算する形になっています。

今回の勾配 = 前回計算した勾配 + 今回計算した勾配

この仕様は RNN などのモデルでは有用なのですが、そうでない場合は前回計算した勾配を0で初期化する必要があるので、その場合は backward() を呼び出す前に zero_grad() を行う必要があります。

Optimizer.zero_grad() と nn.Module.zero_grad() の違い

torch.nn — PyTorch master documentation

Sets gradients of all model parameters to zero.
モデルのすべてのパラメータの勾配を0にする。

torch.optim — PyTorch master documentation

Clears the gradients of all optimized torch.Tensor s.
最適化対象のすべてのパラメータの勾配を0にする。

Optimizer.zero_grad() は最適化対象のすべてのテンソルの勾配を0で初期化します。
他方、nn.Module.zero_grad() はそのモジュールを構成するすべてのテンソルの勾配を初期化します。

なので、nn.Module オブジェクトのすべてのテンソルが最適化対象とした場合 (例: optimizer = optim.SGD(model.parameters()))、これら2つは同じ処理になります。

結論

backward() の前に Optimizer.zero_grad() を呼び出せばよい。

投稿2020/05/12 12:14

編集2020/05/12 12:18
tiitoi

総合スコア21956

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問