質問編集履歴
1
疑問点をより技術的な面に変更
test
CHANGED
@@ -1 +1 @@
|
|
1
|
-
pytorchで
|
1
|
+
pytorchでrequired_grad=Falseにしているのに学習が行われる
|
test
CHANGED
@@ -1,8 +1,4 @@
|
|
1
|
-
|
1
|
+
deepleaening練習でPytorchで以下のようにパラメータを更新しない行列を作成しましたが、学習を行うごとにこの行列の成分が更新されてしまいます
|
2
|
-
|
3
|
-
例えば、2×2行列の(1,2)成分のみパラメータ更新を行い、それ以外は初期値のままという状態にすることです。
|
4
|
-
|
5
|
-
|
6
2
|
|
7
3
|
```python
|
8
4
|
|
@@ -11,5 +7,3 @@
|
|
11
7
|
self.layer = nn.Parameter(x)
|
12
8
|
|
13
9
|
```
|
14
|
-
|
15
|
-
などとして更新されない単位行列を作ろうとしましたが、ほかのウェイトの初期値次第ではこちらも更新されてしまいました。
|