回答編集履歴
3
追記
test
CHANGED
@@ -171,3 +171,51 @@
|
|
171
171
|
|
172
172
|
|
173
173
|
- [計算グラフの微積分:バックプロパゲーションを理解する](https://postd.cc/2015-08-backprop/)
|
174
|
+
|
175
|
+
|
176
|
+
|
177
|
+
## 質問に対する追記3
|
178
|
+
|
179
|
+
|
180
|
+
|
181
|
+
Python では、C++ の演算子オーバーロードと同様のことができます。
|
182
|
+
|
183
|
+
[公式リファレンス](https://docs.python.jp/3/library/operator.html) を見てください。
|
184
|
+
|
185
|
+
もし演算子オーバーロードができないと numpy 配列で普通にやっている演算とかもわざわざ np.add(array1 + array2) などとしなくてはいけなくなりますよね。
|
186
|
+
|
187
|
+
|
188
|
+
|
189
|
+
```python
|
190
|
+
|
191
|
+
class Point:
|
192
|
+
|
193
|
+
def __init__(self, x, y):
|
194
|
+
|
195
|
+
self.x = x
|
196
|
+
|
197
|
+
self.y = y
|
198
|
+
|
199
|
+
|
200
|
+
|
201
|
+
def __add__(self, other):
|
202
|
+
|
203
|
+
return Point(self.x + other.x,
|
204
|
+
|
205
|
+
self.y + other.y)
|
206
|
+
|
207
|
+
|
208
|
+
|
209
|
+
def __repr__(self):
|
210
|
+
|
211
|
+
return "({}, {})".format(self.x, self.y)
|
212
|
+
|
213
|
+
|
214
|
+
|
215
|
+
a = Point(1, 2)
|
216
|
+
|
217
|
+
b = Point(2, 3)
|
218
|
+
|
219
|
+
print(a + b) # (3, 5)
|
220
|
+
|
221
|
+
```
|
2
追記
test
CHANGED
@@ -62,7 +62,7 @@
|
|
62
62
|
|
63
63
|
|
64
64
|
|
65
|
-
## 質問に対する追記
|
65
|
+
## 質問に対する追記1
|
66
66
|
|
67
67
|
|
68
68
|
|
@@ -133,3 +133,41 @@
|
|
133
133
|
|
134
134
|
|
135
135
|
DNNライブラリがどうなってるのか興味がお有りなら、他の回答者さんも進めていますが「ゼロから作る Deep Learning」という本を見てみるとよいですよ。
|
136
|
+
|
137
|
+
|
138
|
+
|
139
|
+
## 質問に対する追記2
|
140
|
+
|
141
|
+
|
142
|
+
|
143
|
+
```
|
144
|
+
|
145
|
+
ユーザ定義の数式にはやはり構造を解析して初めて解析形式の微分結果を得るでしょう。例えば、 y = x*x + z*x*exp(z) + z*sin(x)
|
146
|
+
|
147
|
+
exe(z) と sin(x) に関する導関数を予め用意できても、関数yの導関数が予め用意できないですから、、、?
|
148
|
+
|
149
|
+
```
|
150
|
+
|
151
|
+
|
152
|
+
|
153
|
+
symbolic 操作を行う必要はありません。
|
154
|
+
|
155
|
+
上記の例の場合、構成要素である「multiply(x, y)」「add(x, y)」「exp(x)」「sin(x)」の4つの演算について、微分の計算が定義されていれば、「連鎖律」を用いて、「合成関数 y」の微分の計算値を得ることができます。
|
156
|
+
|
157
|
+
|
158
|
+
|
159
|
+
納得できないようであれば、次の手順で勉強してみてください。
|
160
|
+
|
161
|
+
|
162
|
+
|
163
|
+
* (多変数関数の)連鎖律について理解する。
|
164
|
+
|
165
|
+
* 連鎖律を用いた逆伝播法 (バックプロパゲーション) について理解する。
|
166
|
+
|
167
|
+
|
168
|
+
|
169
|
+
バックプロパゲーションと計算グラフの関係は次の参考リンクを貼っておきます。
|
170
|
+
|
171
|
+
|
172
|
+
|
173
|
+
- [計算グラフの微積分:バックプロパゲーションを理解する](https://postd.cc/2015-08-backprop/)
|
1
追記
test
CHANGED
@@ -55,3 +55,81 @@
|
|
55
55
|
|
56
56
|
|
57
57
|
![イメージ説明](0185b9ac12520016307defb343048417.png)
|
58
|
+
|
59
|
+
|
60
|
+
|
61
|
+
----
|
62
|
+
|
63
|
+
|
64
|
+
|
65
|
+
## 質問に対する追記
|
66
|
+
|
67
|
+
|
68
|
+
|
69
|
+
```
|
70
|
+
|
71
|
+
TensorFlowの場合、四則計算の構成を『データ構造』に表現しておくというのは、四則計算を単に数値計算するのみならず、将来微分計算するために数式構造を保存してsymbolic数式的に解析しようとするのでしょうね?
|
72
|
+
|
73
|
+
```
|
74
|
+
|
75
|
+
|
76
|
+
|
77
|
+
バックプロパゲーションを行うのに、順伝搬時に計算した値が必要なので、保存しておく必要があります。
|
78
|
+
|
79
|
+
演算をノードで表現して、計算した値を保持しておく設計にしておくのは理にかなっていると思います。
|
80
|
+
|
81
|
+
|
82
|
+
|
83
|
+
```
|
84
|
+
|
85
|
+
つまり、数値微分ではなく、Neural network のLIBはsymbolic数式で偏微分を求めていくと考えて大丈夫でしょうか。
|
86
|
+
|
87
|
+
```
|
88
|
+
|
89
|
+
|
90
|
+
|
91
|
+
バックプロパゲーションで計算される値は数値解ではなく、解析解であるのは確かです。
|
92
|
+
|
93
|
+
しかし、微分を mathmatica や sympy でできるようなシンボル操作で行い、解析解を求めているわけではないです。予め、微分の解析解を計算する関数を用意しています。
|
94
|
+
|
95
|
+
例えば、シグモイド関数を例に考えると、f(x) = 1/(1+exp(-x)) なので、微分すると、d/dx f(x) = f(x)*(1-f(x)) になりますよね。
|
96
|
+
|
97
|
+
なので、シグモイドを計算する「ノード」では、f(x) と f'(x) を計算する処理を両方定義してあります。
|
98
|
+
|
99
|
+
|
100
|
+
|
101
|
+
```python
|
102
|
+
|
103
|
+
class Sigmoid:
|
104
|
+
|
105
|
+
def __init__(self):
|
106
|
+
|
107
|
+
self.out = None # 逆伝搬用に出力を保持しておく
|
108
|
+
|
109
|
+
|
110
|
+
|
111
|
+
def forward(self, x):
|
112
|
+
|
113
|
+
out = 1 / (1 + np.exp(-x))
|
114
|
+
|
115
|
+
self.out = out
|
116
|
+
|
117
|
+
|
118
|
+
|
119
|
+
return out
|
120
|
+
|
121
|
+
|
122
|
+
|
123
|
+
def backward(self, dout):
|
124
|
+
|
125
|
+
dx = dout * (1.0 - self.out) * self.out
|
126
|
+
|
127
|
+
|
128
|
+
|
129
|
+
return dx
|
130
|
+
|
131
|
+
```
|
132
|
+
|
133
|
+
|
134
|
+
|
135
|
+
DNNライブラリがどうなってるのか興味がお有りなら、他の回答者さんも進めていますが「ゼロから作る Deep Learning」という本を見てみるとよいですよ。
|