回答編集履歴
2
d
test
CHANGED
@@ -57,3 +57,39 @@
|
|
57
57
|
|
58
58
|
|
59
59
|
[PythonとKerasによるディープラーニング | Francois Chollet, 巣籠 悠輔, 株式会社クイープ |本 | 通販 | Amazon](https://www.amazon.co.jp/dp/4839964262)
|
60
|
+
|
61
|
+
|
62
|
+
|
63
|
+
## 追記
|
64
|
+
|
65
|
+
|
66
|
+
|
67
|
+
> 私が微分の理解が出来ていないので色々あやふやになっているのが改めて実感します
|
68
|
+
|
69
|
+
参考書も進めて頂いてありがとうございます。早速購入しました。
|
70
|
+
|
71
|
+
> 勾配降下法の部分も概要が書かれていたのでそちらも進めてみます。
|
72
|
+
|
73
|
+
|
74
|
+
|
75
|
+
数学的に厳密な定義は置いておいてイメージを書きますが、
|
76
|
+
|
77
|
+
Deep Learning の学習は「損失関数の値が小さくなる点を探す」という作業になります。
|
78
|
+
|
79
|
+
どう探すのかというと、ある点に今いるとき、勾配が急な方向に進みます。
|
80
|
+
|
81
|
+
ちょっと進んだら、またその点でまた勾配が急な方向に進みます。
|
82
|
+
|
83
|
+
これを繰り返していくと、関数の値が小さい点を見つけることができます。
|
84
|
+
|
85
|
+
|
86
|
+
|
87
|
+
ただ最も勾配が急な方向に進んでいくと、以下の例のように、右にもっと深い穴があるのに、それより浅い穴にハマって抜け出せなくなってしまいます。
|
88
|
+
|
89
|
+
|
90
|
+
|
91
|
+
![](c236c37ec4d0964f0c322debff74dd59.png)
|
92
|
+
|
93
|
+
|
94
|
+
|
95
|
+
それを回避するために、最も勾配に急な方向ではなく、だいたい下っていけるような方向に進んでいくことで浅い穴にハマってしまいづらくするのが確率的勾配法です。
|
1
d
test
CHANGED
@@ -45,3 +45,15 @@
|
|
45
45
|
|
46
46
|
|
47
47
|
最急降下法や確率的勾配法の仕組みについては理解されていますでしょうか?
|
48
|
+
|
49
|
+
|
50
|
+
|
51
|
+
## 追記
|
52
|
+
|
53
|
+
|
54
|
+
|
55
|
+
Keras のライブラリの使い方は公式ドキュメントで理解が難しいようであれば、以下の本がおすすめです。
|
56
|
+
|
57
|
+
|
58
|
+
|
59
|
+
[PythonとKerasによるディープラーニング | Francois Chollet, 巣籠 悠輔, 株式会社クイープ |本 | 通販 | Amazon](https://www.amazon.co.jp/dp/4839964262)
|