回答編集履歴

2

修正

2020/05/30 09:13

投稿

tiitoi
tiitoi

スコア21956

test CHANGED
@@ -9,3 +9,25 @@
9
9
 
10
10
 
11
11
  [Python 3.x - PyTorchのzero_grad()について|teratail](https://teratail.com/questions/261005#reply-374872)
12
+
13
+
14
+
15
+ > また,このチュートリアルでoptimizerにzero_gradを使用していないのは何故でしょうか?
16
+
17
+
18
+
19
+ 大抵の場合、モデルの全パラメータを Optimizer で最適化する対象に設定しているので、Optimizer.zero_grad() と nn.Module.zero_grad() は同じ結果になります。
20
+
21
+
22
+
23
+ 質問のチュートリアルも全パラメータが最適化対象になっている。
24
+
25
+
26
+
27
+ ```python
28
+
29
+ optimizerD = optim.Adam(netD.parameters(), lr=lr, betas=(beta1, 0.999))
30
+
31
+ optimizerG = optim.Adam(netG.parameters(), lr=lr, betas=(beta1, 0.999))
32
+
33
+ ```

1

修正

2020/05/30 09:13

投稿

tiitoi
tiitoi

スコア21956

test CHANGED
@@ -4,7 +4,7 @@
4
4
 
5
5
 
6
6
 
7
- の違いは以下の質問が参考にならないでしょうか。
7
+ につは以下の質問が参考にならないでしょうか。
8
8
 
9
9
 
10
10