teratail header banner
teratail header banner
質問するログイン新規登録

回答編集履歴

2

Auto encoderと勾配消失の話も追加

2018/04/07 13:45

投稿

shogiOtakku
shogiOtakku

スコア123

answer CHANGED
@@ -11,4 +11,9 @@
11
11
  ---
12
12
  ちなみにですが、ResNetも重要な概念の一つですので関連するpageを紹介しておきます
13
13
  http://terada-h.hatenablog.com/entry/2016/12/13/192940
14
- こちらも読んでみてください。
14
+ こちらも読んでみてください。
15
+
16
+ ---
17
+ さらに追記するとAuto Encoderも勾配消失問題の対応策として有効だったようですね
18
+ https://deepage.net/deep_learning/2016/10/09/deeplearning_autoencoder.html
19
+ ただ100億という膨大な層につかえるかはよくわかりません。

1

ResNetmojy

2018/04/07 13:45

投稿

shogiOtakku
shogiOtakku

スコア123

answer CHANGED
@@ -6,4 +6,9 @@
6
6
  ③は勾配消失問題の解決に役立っています。NNの誤差逆伝搬法は入力側へ伝搬すればするほど、出力側の勾配が蓄積されます。sigmoid関数を`S(x)`とすれば、誤差逆伝搬では勾配値の計算に`S'(x) = S(x)(1-S(X))`が使われ明らかにこれは1より小さい数値です。これが蓄積されるということは1より小さい数値が何度も掛けられるということなのでこれが勾配消失につながります。
7
7
  Reluであれば`x>0`においてその微分値は`1`なので勾配消失につながりません
8
8
 
9
- ④は本議題とは関係ないですね。NNでは多くの行列計算を行いますが、その計算速度がGPUのほうがCPUより速いというだけです。(だけ、とはいってもそれが重要なのですが)
9
+ ④は本議題とは関係ないですね。NNでは多くの行列計算を行いますが、その計算速度がGPUのほうがCPUより速いというだけです。(だけ、とはいってもそれが重要なのですが)
10
+
11
+ ---
12
+ ちなみにですが、ResNetも重要な概念の一つですので関連するpageを紹介しておきます
13
+ http://terada-h.hatenablog.com/entry/2016/12/13/192940
14
+ こちらも読んでみてください。