質問編集履歴

2

付か

2020/03/13 21:37

投稿

OOZAWA
OOZAWA

スコア45

test CHANGED
File without changes
test CHANGED
@@ -21,31 +21,3 @@
21
21
 
22
22
 
23
23
  どうぞ宜しくお願いします
24
-
25
-
26
-
27
- *******************************************
28
-
29
- torch.Tensor.detach()的使用
30
-
31
- detach()的官方说明如下:
32
-
33
-
34
-
35
- Returns a new Tensor, detached from the current graph.
36
-
37
- The result will never require gradient.
38
-
39
- 假设有模型A和模型B,我们需要将A的输出作为B的输入,但训练时我们只训练模型B. 那么可以这样做:
40
-
41
-
42
-
43
- input_B = output_A.detach()
44
-
45
-
46
-
47
- 它可以使两个计算图的梯度传递断开,从而实现我们所需的功能。
48
-
49
- ————————————————
50
-
51
- 原文链接:https://blog.csdn.net/jinxin521125/article/details/83621268

1

追加

2020/03/13 21:37

投稿

OOZAWA
OOZAWA

スコア45

test CHANGED
File without changes
test CHANGED
@@ -21,3 +21,31 @@
21
21
 
22
22
 
23
23
  どうぞ宜しくお願いします
24
+
25
+
26
+
27
+ *******************************************
28
+
29
+ torch.Tensor.detach()的使用
30
+
31
+ detach()的官方说明如下:
32
+
33
+
34
+
35
+ Returns a new Tensor, detached from the current graph.
36
+
37
+ The result will never require gradient.
38
+
39
+ 假设有模型A和模型B,我们需要将A的输出作为B的输入,但训练时我们只训练模型B. 那么可以这样做:
40
+
41
+
42
+
43
+ input_B = output_A.detach()
44
+
45
+
46
+
47
+ 它可以使两个计算图的梯度传递断开,从而实现我们所需的功能。
48
+
49
+ ————————————————
50
+
51
+ 原文链接:https://blog.csdn.net/jinxin521125/article/details/83621268