『ゼロから作るDeep Learning』という本を本でいるのですが、その中に、下記のような記載があります。
P96
シグモイド関数の微分は値が連続的に変化し、さらに、曲線の傾きも連続的に変化します。つまり、シグモイド関数の微分はどの場所でも0にならないのです。これはニューラルネットワークの「学習」において重要な性質になります。
文書の前半の微分の値が0にならないのはわかりますが、後半の理由がわからないです。細かいのですが、ステップ関数と形が似た関数としてシグモイド関数を設定したのはわかるのですが、「機械学習」をするのに、なぜ微分値(傾き)が0になってはいけないのでしょうか?
-
気になる質問をクリップする
クリップした質問は、後からいつでもマイページで確認できます。
またクリップした質問に回答があった際、通知やメールを受け取ることができます。
クリップを取り消します
-
良い質問の評価を上げる
以下のような質問は評価を上げましょう
- 質問内容が明確
- 自分も答えを知りたい
- 質問者以外のユーザにも役立つ
評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。
質問の評価を上げたことを取り消します
-
評価を下げられる数の上限に達しました
評価を下げることができません
- 1日5回まで評価を下げられます
- 1日に1ユーザに対して2回まで評価を下げられます
質問の評価を下げる
teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。
- プログラミングに関係のない質問
- やってほしいことだけを記載した丸投げの質問
- 問題・課題が含まれていない質問
- 意図的に内容が抹消された質問
- 過去に投稿した質問と同じ内容の質問
- 広告と受け取られるような投稿
評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。
質問の評価を下げたことを取り消します
この機能は開放されていません
評価を下げる条件を満たしてません
質問の評価を下げる機能の利用条件
この機能を利用するためには、以下の事項を行う必要があります。
- 質問回答など一定の行動
-
メールアドレスの認証
メールアドレスの認証
-
質問評価に関するヘルプページの閲覧
質問評価に関するヘルプページの閲覧
+3
重みを修正するとき、誤差を重みで微分して、その値を使って修正量を得る。と単純に考えます。
誤差は当然活性関数から作られているので、
活性関数の微分値が0であるということは
重みを微調整しても誤差が変化しないということに相当します。
つまり、学習が進みづらくなります。
多分そういうことを言っているのではないかなと。
(ReLU関数については突っ込まないでください)
投稿
-
回答の評価を上げる
以下のような回答は評価を上げましょう
- 正しい回答
- わかりやすい回答
- ためになる回答
評価が高い回答ほどページの上位に表示されます。
-
回答の評価を下げる
下記のような回答は推奨されていません。
- 間違っている回答
- 質問の回答になっていない投稿
- スパムや攻撃的な表現を用いた投稿
評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。
+3
BackPropagationさせるときに活性化関数の微分値が0になると重みの更新量も0になり、学習ができなくなるからだと思います。
以下のサイトにおける出力層の重み更新の第2項が活性化関数の微分にあたります。
高卒でもわかる機械学習 (5) 誤差逆伝播法 その1
この項が0になってしまうと重みの更新量(上の式の左辺)が0になるので、誤差が伝搬せず学習がうまくいかないのです。
それに対してシグモイド関数を使えば微分値が0にならないので、常に更新が行われるということを言っているのではないかと思われます。
投稿
-
回答の評価を上げる
以下のような回答は評価を上げましょう
- 正しい回答
- わかりやすい回答
- ためになる回答
評価が高い回答ほどページの上位に表示されます。
-
回答の評価を下げる
下記のような回答は推奨されていません。
- 間違っている回答
- 質問の回答になっていない投稿
- スパムや攻撃的な表現を用いた投稿
評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。
checkベストアンサー
+2
すでに他の方から回答がついていますが、やっと書籍を入手したので、元を取るために回答します。
- 斎藤 康毅『ゼロから作るDeep Learning』オライリー・ジャパン, 2016.
ご質問の引用は、本書の4.2.5節「なぜ損失関数を設定するのか?」(pp.95ff) の最終段落にある文ですね。
本節では、認識精度を指標にするのではなくわざわざ「損失関数」なるものを導入して指標にするのはなぜか、を解説しています。その結論を、次のようにまとめています。
ニューラルネットワークの学習の際に、認識精度を“指標”にしてはいけない。その理由は、認識精度を指標にすると、パラメータの微分がほとんどの場所で0になってしまうからである。
(p.96)
これが理解できないのであれば、本節をもう一度読み直すなり誰かに聞くなりして、理解して下さい。
さらに、次のように述べています。
認識精度はパラメータの微小な変化にはほとんど反応を示さず、もし反応があるにしても、その値は不連続にいきなり変化します。これは、活性化関数の「ステップ関数」にも同じ話があてはまります。〔中略〕ステップ関数の微分は、ほとんどの場所 (0以外の場所) で0になります。つまり、ステップ関数を用いると、パラメータの微小な変化は、ステップ関数によって抹殺されてしまい、損失関数の値は何の変化も示さなくなってしまうのです。
(同)
このあとに、ご質問の文の段落が続きます。
さて、認識精度の変化がこのようになるのはわかりますね。ニューラルネットワークの目的はデータを明確に分離することなので、当然です。それはステップ関数によく似た変化を示します。
一方、損失関数では値がどうやって決まっているかを考えてみて下さい。これは、各ノードの活性化関数が合成された結果の値です。ですから、活性化関数が微分0の点を含む場合、損失関数にもそのような点が現れてしまいます。特にステップ関数を活性化関数に用いた場合、損失関数はパラメータの変化によっても滑らかに変化せず、「微分がほとんどの場所で0」の階段状の変化をしてしまうでしょう。
本章のこの後の節で説明される「勾配法」(pp.106ff) では、損失関数の微分が0にならないこと――つまり、パラメータの微小な変化で損失関数が変化すること――が重要です。またそのためには、上で述べた通り、活性化関数として微分が0にならない関数を選ぶ必要があります[1]。
[1] ReLU関数 (pp.51f) はどうなんだ、と思うかもしれませんが、まだしばらく使わないので、ここでは忘れておいて下さい。
投稿
-
回答の評価を上げる
以下のような回答は評価を上げましょう
- 正しい回答
- わかりやすい回答
- ためになる回答
評価が高い回答ほどページの上位に表示されます。
-
回答の評価を下げる
下記のような回答は推奨されていません。
- 間違っている回答
- 質問の回答になっていない投稿
- スパムや攻撃的な表現を用いた投稿
評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。
15分調べてもわからないことは、teratailで質問しよう!
- ただいまの回答率 88.11%
- 質問をまとめることで、思考を整理して素早く解決
- テンプレート機能で、簡単に質問をまとめられる
質問への追記・修正、ベストアンサー選択の依頼
ikedas
2017/02/14 10:33
書籍の文章を引用するときは、ページ番号を明確に示して下さい。実際に書籍を見て確認する人のためです。
ikedas
2017/02/14 10:35 編集
それと、引用された文章を見ると、このあとに「なぜこれが重要な性質なのか」が説明してありそうに見えます。このあとにはどのようなことが書いてありますか。
1007
2017/02/14 11:37
ご指摘ありがとうございます。ページ数は今後振るようにします。また理由ですが、0にならないことでニューラルネットワークが正しい学習ができると書いてありますが、逆に0になると何が起きるのかが理解できなくて。
ikedas
2017/02/14 11:46
質問は編集できますので、ページ番号を書いておいて下さいますか。それと微分の件ですが、ステップ関数だと一点で無限大になって他では0ですよね。ステップ関数とシグモイド関数をくらべて説明しているような文章はありませんか。
1007
2017/02/14 11:53
すみません。編集しました。微分ですが、その事実は理解していますが、例えば、シグモイド関数に似た関数があり、それがどこかで極値を取るよな形状の場合には採用できないのでしょうか?実際にはこのような関数は使わないと思うのですが、数学的な素朴な疑問です。
ikedas
2017/02/14 12:20
極値ではなく、多層ニューラルネットだと活性関数が微分可能でなければならないのです。書いてないかな。こちらでも本を見てみます (数日かかります)。
1007
2017/02/14 12:41
おそらく書いてなかったような。。。数値計算を専門にしていないので初歩的な質問ですみません。私も読み進めていってもし理解できたらコメントさせていただきます。