質問編集履歴

1

誤字

2020/09/18 09:05

投稿

koro56
koro56

スコア0

test CHANGED
@@ -1 +1 @@
1
- ニューラルネットワークの入力値で微分の実装
1
+ Kerasで出力に対する入力の勾配
test CHANGED
@@ -2,18 +2,14 @@
2
2
 
3
3
 
4
4
 
5
- ニューラルネットワークのライブラリでは、損失関数に対して誤差逆伝播を勝手やってくれ便利なものあります。
5
+ Kerasでは、損失関数と更新方法を指定するだけで簡単に誤差逆伝播に学習できます。
6
6
 
7
7
  しかし、「出力層の値を入力層の値で微分する」ことは、可能なのでしょうか?
8
8
 
9
9
 
10
10
 
11
- 仕組みとしては誤差逆伝播と同じなので、できるとは思うのですが、KerasやTensorflowなどのライブラリを使って実装する方法がわからなかったので、質問しました。
11
+ 仕組みとしては誤差逆伝播と同じなので、できるとは思うのですが・・・
12
12
 
13
13
 
14
14
 
15
15
  ある論文で、「関数(生成モデル)をニューラルネットワークを実装し、その逆方向計算をたどれば関数の導関数が得られる」とあったので、それを実装したいと思っているのですが、このように導関数を求める方法はよく行われているのでしょうか?
16
-
17
-
18
-
19
- 考えているのは、フィードフォワードニューラルネットワークです(木構造のように途中で枝分かれがあります)。