質問編集履歴
1
誤字
test
CHANGED
@@ -1 +1 @@
|
|
1
|
-
|
1
|
+
Kerasでの出力に対する入力の勾配
|
test
CHANGED
@@ -2,18 +2,14 @@
|
|
2
2
|
|
3
3
|
|
4
4
|
|
5
|
-
|
5
|
+
Kerasでは、損失関数と更新方法を指定するだけで簡単に誤差逆伝播による学習ができます。
|
6
6
|
|
7
7
|
しかし、「出力層の値を入力層の値で微分する」ことは、可能なのでしょうか?
|
8
8
|
|
9
9
|
|
10
10
|
|
11
|
-
仕組みとしては誤差逆伝播と同じなので、できるとは思うのですが
|
11
|
+
仕組みとしては誤差逆伝播と同じなので、できるとは思うのですが・・・
|
12
12
|
|
13
13
|
|
14
14
|
|
15
15
|
ある論文で、「関数(生成モデル)をニューラルネットワークを実装し、その逆方向計算をたどれば関数の導関数が得られる」とあったので、それを実装したいと思っているのですが、このように導関数を求める方法はよく行われているのでしょうか?
|
16
|
-
|
17
|
-
|
18
|
-
|
19
|
-
考えているのは、フィードフォワードニューラルネットワークです(木構造のように途中で枝分かれがあります)。
|