回答編集履歴
3
d
test
CHANGED
@@ -17,3 +17,15 @@
|
|
17
17
|
features.2.bn.running_var torch.Size([32])
|
18
18
|
|
19
19
|
```
|
20
|
+
|
21
|
+
|
22
|
+
|
23
|
+
> features.xx.bn.running_varの各要素を各入力チャネルに対応させて推論時に正規化
|
24
|
+
|
25
|
+
(つまり32要素のbn.runnig_meanがあった場合、32チャネルの入力画像に対して、1チャネル目にはbn.runnig_meanの1要素目を、2チャネル目には2要素目を適用...といった形)
|
26
|
+
|
27
|
+
を行っているということなのですが、この理解で正しいでしょうか?
|
28
|
+
|
29
|
+
|
30
|
+
|
31
|
+
その理解であってます。
|
2
d
test
CHANGED
@@ -2,7 +2,7 @@
|
|
2
2
|
|
3
3
|
|
4
4
|
|
5
|
-
機械学習で標準化といった場合、普通チャンネル (特徴量) ごとに行うので、前の出力のチャンネル数が32なら、Batch Normalization 層のパラメータが全部32なのは別におかしくないと思います。
|
5
|
+
機械学習で標準化といった場合、普通チャンネル (特徴量) ごとに行うので、前の出力のチャンネル数が32なら、Batch Normalization 層のパラメータが数が全部32なのは別におかしくないと思います。
|
6
6
|
|
7
7
|
|
8
8
|
|
1
f
test
CHANGED
@@ -2,7 +2,7 @@
|
|
2
2
|
|
3
3
|
|
4
4
|
|
5
|
-
機械学習で標準化といった場合、普通チャンネルごとに行うので、前の出力のチャンネル数が32なら、Batch Normalization 層のパラメータが全部32なのは別におかしくないと思います。
|
5
|
+
機械学習で標準化といった場合、普通チャンネル (特徴量) ごとに行うので、前の出力のチャンネル数が32なら、Batch Normalization 層のパラメータが全部32なのは別におかしくないと思います。
|
6
6
|
|
7
7
|
|
8
8
|
|