質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

90.32%

  • Python

    9244questions

    Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

DeepLeaningのシグモイド関数について

解決済

回答 3

投稿 編集

  • 評価
  • クリップ 1
  • VIEW 1,356

1007

score 9

『ゼロから作るDeep Learning』という本を本でいるのですが、その中に、下記のような記載があります。

P96
シグモイド関数の微分は値が連続的に変化し、さらに、曲線の傾きも連続的に変化します。つまり、シグモイド関数の微分はどの場所でも0にならないのです。これはニューラルネットワークの「学習」において重要な性質になります。

文書の前半の微分の値が0にならないのはわかりますが、後半の理由がわからないです。細かいのですが、ステップ関数と形が似た関数としてシグモイド関数を設定したのはわかるのですが、「機械学習」をするのに、なぜ微分値(傾き)が0になってはいけないのでしょうか?

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

質問への追記・修正、ベストアンサー選択の依頼

  • 1007

    2017/02/14 11:53

    すみません。編集しました。微分ですが、その事実は理解していますが、例えば、シグモイド関数に似た関数があり、それがどこかで極値を取るよな形状の場合には採用できないのでしょうか?実際にはこのような関数は使わないと思うのですが、数学的な素朴な疑問です。

    キャンセル

  • ikedas

    2017/02/14 12:20

    極値ではなく、多層ニューラルネットだと活性関数が微分可能でなければならないのです。書いてないかな。こちらでも本を見てみます (数日かかります)。

    キャンセル

  • 1007

    2017/02/14 12:41

    おそらく書いてなかったような。。。数値計算を専門にしていないので初歩的な質問ですみません。私も読み進めていってもし理解できたらコメントさせていただきます。

    キャンセル

回答 3

+3

重みを修正するとき、誤差を重みで微分して、その値を使って修正量を得る。と単純に考えます。

誤差は当然活性関数から作られているので、
活性関数の微分値が0であるということは
重みを微調整しても誤差が変化しないということに相当します。

つまり、学習が進みづらくなります。

多分そういうことを言っているのではないかなと。

(ReLU関数については突っ込まないでください)

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2017/02/19 14:20

    なるほど。。。
    誤差=損失関数が活性化関数からできている合成関数と理解すれば当然のことでしたね。
    これになかなか気づくことができませんでしたが、クリアになりました。

    大変、ありがとうございます!

    キャンセル

+3

BackPropagationさせるときに活性化関数の微分値が0になると重みの更新量も0になり、学習ができなくなるからだと思います。

以下のサイトにおける出力層の重み更新の第2項が活性化関数の微分にあたります。
高卒でもわかる機械学習 (5) 誤差逆伝播法 その1

以下の数式の右辺第2項が0になると考えてください。
イメージ説明

この項が0になってしまうと重みの更新量(上の式の左辺)が0になるので、誤差が伝搬せず学習がうまくいかないのです。

それに対してシグモイド関数を使えば微分値が0にならないので、常に更新が行われるということを言っているのではないかと思われます。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2017/02/14 13:08

    詳しくありがとうございます。
    もし私の理解が間違っていたら教えていただきたいのですが、添付くださったURLですと上記右辺第二項は出力層における活性化関数、つまり高等関数もしくはソフトマックス関数における微分かと思うのですがあっていますか??
    (教科書P64,図3-20)

    キャンセル

  • 2017/02/14 13:14

    高等関数⇒恒等関数でした。

    キャンセル

  • 2017/02/14 13:39

    本を持っているわけではないので(教科書P64,図3-20)についてはわかりかねますが、上記の右辺第二項は出力層における活性化関数の微分です。

    キャンセル

checkベストアンサー

+2

すでに他の方から回答がついていますが、やっと書籍を入手したので、元を取るために回答します。


ご質問の引用は、本書の4.2.5節「なぜ損失関数を設定するのか?」(pp.95ff) の最終段落にある文ですね。

本節では、認識精度を指標にするのではなくわざわざ「損失関数」なるものを導入して指標にするのはなぜか、を解説しています。その結論を、次のようにまとめています。

ニューラルネットワークの学習の際に、認識精度を“指標”にしてはいけない。その理由は、認識精度を指標にすると、パラメータの微分がほとんどの場所で0になってしまうからである。

(p.96)

これが理解できないのであれば、本節をもう一度読み直すなり誰かに聞くなりして、理解して下さい。

さらに、次のように述べています。

認識精度はパラメータの微小な変化にはほとんど反応を示さず、もし反応があるにしても、その値は不連続にいきなり変化します。これは、活性化関数の「ステップ関数」にも同じ話があてはまります。〔中略〕ステップ関数の微分は、ほとんどの場所 (0以外の場所) で0になります。つまり、ステップ関数を用いると、パラメータの微小な変化は、ステップ関数によって抹殺されてしまい、損失関数の値は何の変化も示さなくなってしまうのです。

(同)

このあとに、ご質問の文の段落が続きます。

さて、認識精度の変化がこのようになるのはわかりますね。ニューラルネットワークの目的はデータを明確に分離することなので、当然です。それはステップ関数によく似た変化を示します。

一方、損失関数では値がどうやって決まっているかを考えてみて下さい。これは、各ノードの活性化関数が合成された結果の値です。ですから、活性化関数が微分0の点を含む場合、損失関数にもそのような点が現れてしまいます。特にステップ関数を活性化関数に用いた場合、損失関数はパラメータの変化によっても滑らかに変化せず、「微分がほとんどの場所で0」の階段状の変化をしてしまうでしょう。

本章のこの後の節で説明される「勾配法」(pp.106ff) では、損失関数の微分が0にならないこと――つまり、パラメータの微小な変化で損失関数が変化すること――が重要です。またそのためには、上で述べた通り、活性化関数として微分が0にならない関数を選ぶ必要があります[1]。


[1] ReLU関数 (pp.51f) はどうなんだ、と思うかもしれませんが、まだしばらく使わないので、ここでは忘れておいて下さい。

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2017/02/19 14:18

    コメントありがとうございます。
    ポイントは、損失関数は活性化関数の合成関数であるということですね。
    そのため、活性化関数の微分が0となってしまうところは損失関数でも0になってしまう。
    だから連続関数である必要がある。ということで理解しました。

    また質問の仕方ですが、確かにおっしゃるとおり、一部抜粋しただけではご回答者にはわかりにくいですね。今後気を付けます。

    ちなみに私は社会人で周りに教えてくれる方がいないため、完全な独学で何とか頑張っています。
    ikedasさんはAIの研究をされている方なのですか?

    キャンセル

  • 2017/02/19 14:36

    > ちなみに私は社会人で
    それは大変失礼いたしました。学生さんがテストの答えを聞きにくることが多いので、つい過剰反応しました。申し訳ありませんでした。

    > AIの研究をされている方なのですか?
    わたしもまったくの素人です。このサイトでいろいろな質問を見ていて、触発されて勉強しているところです。

    社会人になると、なにかインセンティブがないと勉強を続けるのも大変ですね。私の場合、今回は回答をすることで勉強させてもらいました。

    今後もよい質問をいただければ、そしていずれ回答もしていただければと思います。今後ともよろしくお願いいたします。

    キャンセル

  • 2017/02/19 14:45

    とんでもないです。
    逆に学生と思われるような質問をしてしまった私が恥ずかしいです。。。

    なかなかこのような理論から入ってAIを勉強する人がいないため、ikedasさんのようにコメントくださる方はとても助かります。

    よろしくお願いします。

    キャンセル

同じタグがついた質問を見る

  • Python

    9244questions

    Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。