質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

3回答

3069閲覧

DeepLeaningのシグモイド関数について

退会済みユーザー

退会済みユーザー

総合スコア0

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

1グッド

1クリップ

投稿2017/02/14 01:14

編集2017/02/14 02:51

『ゼロから作るDeep Learning』という本を本でいるのですが、その中に、下記のような記載があります。

P96
シグモイド関数の微分は値が連続的に変化し、さらに、曲線の傾きも連続的に変化します。つまり、シグモイド関数の微分はどの場所でも0にならないのです。これはニューラルネットワークの「学習」において重要な性質になります。

文書の前半の微分の値が0にならないのはわかりますが、後半の理由がわからないです。細かいのですが、ステップ関数と形が似た関数としてシグモイド関数を設定したのはわかるのですが、「機械学習」をするのに、なぜ微分値(傾き)が0になってはいけないのでしょうか?

Hironsan👍を押しています

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

ikedas

2017/02/14 01:33

書籍の文章を引用するときは、ページ番号を明確に示して下さい。実際に書籍を見て確認する人のためです。
ikedas

2017/02/14 01:35 編集

それと、引用された文章を見ると、このあとに「なぜこれが重要な性質なのか」が説明してありそうに見えます。このあとにはどのようなことが書いてありますか。
退会済みユーザー

退会済みユーザー

2017/02/14 02:37

ご指摘ありがとうございます。ページ数は今後振るようにします。また理由ですが、0にならないことでニューラルネットワークが正しい学習ができると書いてありますが、逆に0になると何が起きるのかが理解できなくて。
ikedas

2017/02/14 02:46

質問は編集できますので、ページ番号を書いておいて下さいますか。それと微分の件ですが、ステップ関数だと一点で無限大になって他では0ですよね。ステップ関数とシグモイド関数をくらべて説明しているような文章はありませんか。
退会済みユーザー

退会済みユーザー

2017/02/14 02:53

すみません。編集しました。微分ですが、その事実は理解していますが、例えば、シグモイド関数に似た関数があり、それがどこかで極値を取るよな形状の場合には採用できないのでしょうか?実際にはこのような関数は使わないと思うのですが、数学的な素朴な疑問です。
ikedas

2017/02/14 03:20

極値ではなく、多層ニューラルネットだと活性関数が微分可能でなければならないのです。書いてないかな。こちらでも本を見てみます (数日かかります)。
退会済みユーザー

退会済みユーザー

2017/02/14 03:41

おそらく書いてなかったような。。。数値計算を専門にしていないので初歩的な質問ですみません。私も読み進めていってもし理解できたらコメントさせていただきます。
guest

回答3

0

BackPropagationさせるときに活性化関数の微分値が0になると重みの更新量も0になり、学習ができなくなるからだと思います。

以下のサイトにおける出力層の重み更新の第2項が活性化関数の微分にあたります。
高卒でもわかる機械学習 (5) 誤差逆伝播法 その1

以下の数式の右辺第2項が0になると考えてください。
イメージ説明

この項が0になってしまうと重みの更新量(上の式の左辺)が0になるので、誤差が伝搬せず学習がうまくいかないのです。

それに対してシグモイド関数を使えば微分値が0にならないので、常に更新が行われるということを言っているのではないかと思われます。

投稿2017/02/14 03:53

Hironsan

総合スコア24

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

退会済みユーザー

退会済みユーザー

2017/02/14 04:08

詳しくありがとうございます。 もし私の理解が間違っていたら教えていただきたいのですが、添付くださったURLですと上記右辺第二項は出力層における活性化関数、つまり高等関数もしくはソフトマックス関数における微分かと思うのですがあっていますか?? (教科書P64,図3-20)
退会済みユーザー

退会済みユーザー

2017/02/14 04:14

高等関数⇒恒等関数でした。
Hironsan

2017/02/14 04:39

本を持っているわけではないので(教科書P64,図3-20)についてはわかりかねますが、上記の右辺第二項は出力層における活性化関数の微分です。
guest

0

重みを修正するとき、誤差を重みで微分して、その値を使って修正量を得る。と単純に考えます。

誤差は当然活性関数から作られているので、
活性関数の微分値が0であるということは
重みを微調整しても誤差が変化しないということに相当します。

つまり、学習が進みづらくなります。

多分そういうことを言っているのではないかなと。

(ReLU関数については突っ込まないでください)

投稿2017/02/14 03:46

ozwk

総合スコア13521

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

退会済みユーザー

退会済みユーザー

2017/02/19 05:20

なるほど。。。 誤差=損失関数が活性化関数からできている合成関数と理解すれば当然のことでしたね。 これになかなか気づくことができませんでしたが、クリアになりました。 大変、ありがとうございます!
guest

0

ベストアンサー

すでに他の方から回答がついていますが、やっと書籍を入手したので、元を取るために回答します。


ご質問の引用は、本書の4.2.5節「なぜ損失関数を設定するのか?」(pp.95ff) の最終段落にある文ですね。

本節では、認識精度を指標にするのではなくわざわざ「損失関数」なるものを導入して指標にするのはなぜか、を解説しています。その結論を、次のようにまとめています。

ニューラルネットワークの学習の際に、認識精度を“指標”にしてはいけない。その理由は、認識精度を指標にすると、パラメータの微分がほとんどの場所で0になってしまうからである。

(p.96)

これが理解できないのであれば、本節をもう一度読み直すなり誰かに聞くなりして、理解して下さい。

さらに、次のように述べています。

認識精度はパラメータの微小な変化にはほとんど反応を示さず、もし反応があるにしても、その値は不連続にいきなり変化します。これは、活性化関数の「ステップ関数」にも同じ話があてはまります。〔中略〕ステップ関数の微分は、ほとんどの場所 (0以外の場所) で0になります。つまり、ステップ関数を用いると、パラメータの微小な変化は、ステップ関数によって抹殺されてしまい、損失関数の値は何の変化も示さなくなってしまうのです。

(同)

このあとに、ご質問の文の段落が続きます。

さて、認識精度の変化がこのようになるのはわかりますね。ニューラルネットワークの目的はデータを明確に分離することなので、当然です。それはステップ関数によく似た変化を示します。

一方、損失関数では値がどうやって決まっているかを考えてみて下さい。これは、各ノードの活性化関数が合成された結果の値です。ですから、活性化関数が微分0の点を含む場合、損失関数にもそのような点が現れてしまいます。特にステップ関数を活性化関数に用いた場合、損失関数はパラメータの変化によっても滑らかに変化せず、「微分がほとんどの場所で0」の階段状の変化をしてしまうでしょう。

本章のこの後の節で説明される「勾配法」(pp.106ff) では、損失関数の微分が0にならないこと――つまり、パラメータの微小な変化で損失関数が変化すること――が重要です。またそのためには、上で述べた通り、活性化関数として微分が0にならない関数を選ぶ必要があります[1]。


[1] ReLU関数 (pp.51f) はどうなんだ、と思うかもしれませんが、まだしばらく使わないので、ここでは忘れておいて下さい。

投稿2017/02/17 02:34

編集2017/02/19 05:37
ikedas

総合スコア4333

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

退会済みユーザー

退会済みユーザー

2017/02/19 05:18

コメントありがとうございます。 ポイントは、損失関数は活性化関数の合成関数であるということですね。 そのため、活性化関数の微分が0となってしまうところは損失関数でも0になってしまう。 だから連続関数である必要がある。ということで理解しました。 また質問の仕方ですが、確かにおっしゃるとおり、一部抜粋しただけではご回答者にはわかりにくいですね。今後気を付けます。 ちなみに私は社会人で周りに教えてくれる方がいないため、完全な独学で何とか頑張っています。 ikedasさんはAIの研究をされている方なのですか?
ikedas

2017/02/19 05:36

> ちなみに私は社会人で それは大変失礼いたしました。学生さんがテストの答えを聞きにくることが多いので、つい過剰反応しました。申し訳ありませんでした。 > AIの研究をされている方なのですか? わたしもまったくの素人です。このサイトでいろいろな質問を見ていて、触発されて勉強しているところです。 社会人になると、なにかインセンティブがないと勉強を続けるのも大変ですね。私の場合、今回は回答をすることで勉強させてもらいました。 今後もよい質問をいただければ、そしていずれ回答もしていただければと思います。今後ともよろしくお願いいたします。
退会済みユーザー

退会済みユーザー

2017/02/19 05:45

とんでもないです。 逆に学生と思われるような質問をしてしまった私が恥ずかしいです。。。 なかなかこのような理論から入ってAIを勉強する人がいないため、ikedasさんのようにコメントくださる方はとても助かります。 よろしくお願いします。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問