回答編集履歴
2
修正
test
CHANGED
@@ -9,3 +9,25 @@
|
|
9
9
|
|
10
10
|
|
11
11
|
[Python 3.x - PyTorchのzero_grad()について|teratail](https://teratail.com/questions/261005#reply-374872)
|
12
|
+
|
13
|
+
|
14
|
+
|
15
|
+
> また,このチュートリアルでoptimizerにzero_gradを使用していないのは何故でしょうか?
|
16
|
+
|
17
|
+
|
18
|
+
|
19
|
+
大抵の場合、モデルの全パラメータを Optimizer で最適化する対象に設定しているので、Optimizer.zero_grad() と nn.Module.zero_grad() は同じ結果になります。
|
20
|
+
|
21
|
+
|
22
|
+
|
23
|
+
質問のチュートリアルも全パラメータが最適化対象になっている。
|
24
|
+
|
25
|
+
|
26
|
+
|
27
|
+
```python
|
28
|
+
|
29
|
+
optimizerD = optim.Adam(netD.parameters(), lr=lr, betas=(beta1, 0.999))
|
30
|
+
|
31
|
+
optimizerG = optim.Adam(netG.parameters(), lr=lr, betas=(beta1, 0.999))
|
32
|
+
|
33
|
+
```
|
1
修正
test
CHANGED
@@ -4,7 +4,7 @@
|
|
4
4
|
|
5
5
|
|
6
6
|
|
7
|
-
|
7
|
+
については以下の質問が参考にならないでしょうか。
|
8
8
|
|
9
9
|
|
10
10
|
|