回答編集履歴
2
edit
answer
CHANGED
@@ -10,4 +10,27 @@
|
|
10
10
|
|
11
11
|
---
|
12
12
|
|
13
|
-
ちなみに微分できないと自動微分できません。
|
13
|
+
ちなみに微分できないと自動微分できません。
|
14
|
+
|
15
|
+
---
|
16
|
+
|
17
|
+
define-and-runだとif文を挟んだ際にif文の分岐分だけグラフのパターンが分かれてしまうため、一般に論理構造を含む実装は困難です。
|
18
|
+
TensorflowのEagerモードなど、define-by-runで動的にグラフを形成する場合は実装が少々簡単になります。
|
19
|
+
グラフを計算するときは具体的に入力値が定まっているときなので常にグラフは分岐しない一本道になります。
|
20
|
+
|
21
|
+
以下コメント欄を転記。
|
22
|
+
|
23
|
+
http://tensorflow.classcat.com/2018/07/17/tensorflow-tutorials-automatic-differentiation/
|
24
|
+
https://www.tensorflow.org/guide/eager#computing_gradients
|
25
|
+
|
26
|
+
上の2つのリンクをたどってみてください。
|
27
|
+
|
28
|
+
Eagerの場合逐次実行できるのでGradientTapeというもので計算のフローをたどることができます。
|
29
|
+
遅延評価されるので、入力を実際に与えたときに初めてフローが形成されます。
|
30
|
+
なので、実は途中でif文を大量に挟んでも問題ありません。
|
31
|
+
if文があっても、特別な入力に対しては一つのフローにならなければならないからです。
|
32
|
+
これは動的にグラフ形成を許すEagerモードならではの実装だと思われます。
|
33
|
+
|
34
|
+
結論としては、
|
35
|
+
①シンボリックには計算していません
|
36
|
+
②特定の値に対して計算フローを形成するので、必ず一本道になり、単純な自動微分に帰結します
|
1
edit
answer
CHANGED
@@ -6,4 +6,8 @@
|
|
6
6
|
|
7
7
|
http://ailaby.com/chainer_foward_backward/
|
8
8
|
|
9
|
-
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/cc/gradients/math_grad.cc
|
9
|
+
https://github.com/tensorflow/tensorflow/blob/master/tensorflow/cc/gradients/math_grad.cc
|
10
|
+
|
11
|
+
---
|
12
|
+
|
13
|
+
ちなみに微分できないと自動微分できません。
|