回答編集履歴
3
文章の修正
test
CHANGED
@@ -14,12 +14,10 @@
|
|
14
14
|
|
15
15
|
|
16
16
|
|
17
|
-
### 追記:
|
17
|
+
### 追記:解決
|
18
18
|
|
19
19
|
BatchNormが推論モード(移動平均、移動標準偏差)か学習モード(バッチ平均、バッチ標準偏差)を適切に切り替えれていないのが原因です。
|
20
20
|
|
21
21
|
|
22
22
|
|
23
|
-
学習が完了していないgeneratorは灰色や青基調など偏りの大きい画像を出力します。そのため、バッチ平均などは偏った値になりがちです。一方、移動平均は偏りの少ないreal画像からも算出されるので、比較的偏りが少ないです。
|
24
|
-
|
25
|
-
|
23
|
+
generatorは学習時に学習モード、predict時に推論モードを使用していました。そのため、G学習時に入力する生成画像とD学習時に入力する生成画像にギャップが生まれていました。
|
2
修正
test
CHANGED
@@ -23,9 +23,3 @@
|
|
23
23
|
学習が完了していないgeneratorは灰色や青基調など偏りの大きい画像を出力します。そのため、バッチ平均などは偏った値になりがちです。一方、移動平均は偏りの少ないreal画像からも算出されるので、比較的偏りが少ないです。
|
24
24
|
|
25
25
|
その状況下でD_fakeに移動平均を用いると、BatchNormで全く正規化されません。そのため学習モードと推論モードで出力が大きく異なることになります。
|
26
|
-
|
27
|
-
|
28
|
-
|
29
|
-
性能チェックのためグラフ出力するなら、学習モードで出力する(学習はしない)か、d_fake学習時に推論モードを用いるのが適切だと感じました。
|
30
|
-
|
31
|
-
d_fake学習時に推論モードを用いることで学習にどのような影響があるのかは検証していませんが。。。
|
1
解決
test
CHANGED
@@ -14,4 +14,18 @@
|
|
14
14
|
|
15
15
|
|
16
16
|
|
17
|
+
### 追記:完全解決
|
18
|
+
|
19
|
+
BatchNormが推論モード(移動平均、移動標準偏差)か学習モード(バッチ平均、バッチ標準偏差)を適切に切り替えれていないのが原因です。
|
20
|
+
|
21
|
+
|
22
|
+
|
23
|
+
学習が完了していないgeneratorは灰色や青基調など偏りの大きい画像を出力します。そのため、バッチ平均などは偏った値になりがちです。一方、移動平均は偏りの少ないreal画像からも算出されるので、比較的偏りが少ないです。
|
24
|
+
|
25
|
+
その状況下でD_fakeに移動平均を用いると、BatchNormで全く正規化されません。そのため学習モードと推論モードで出力が大きく異なることになります。
|
26
|
+
|
27
|
+
|
28
|
+
|
29
|
+
性能チェックのためグラフ出力するなら、学習モードで出力する(学習はしない)か、d_fake学習時に推論モードを用いるのが適切だと感じました。
|
30
|
+
|
17
|
-
|
31
|
+
d_fake学習時に推論モードを用いることで学習にどのような影響があるのかは検証していませんが。。。
|