🎄teratailクリスマスプレゼントキャンペーン2024🎄』開催中!

\teratail特別グッズやAmazonギフトカード最大2,000円分が当たる!/

詳細はこちら
深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

データ構造

データ構造とは、データの集まりをコンピュータの中で効果的に扱うために、一定の形式に系統立てて格納する形式を指します。(配列/連想配列/木構造など)

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Q&A

解決済

1回答

842閲覧

多クラス分類におけるドロップアウトの効果について

misaki-singo

総合スコア9

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

データ構造

データ構造とは、データの集まりをコンピュータの中で効果的に扱うために、一定の形式に系統立てて格納する形式を指します。(配列/連想配列/木構造など)

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

0グッド

0クリップ

投稿2019/12/23 08:03

再掲です。

研究でCNNを用いた多クラス分類問題を扱っているのですが、
論文に理論を書く際にドロップアウトについての説明が違うと言われ困っています。

ドロップアウトを行うことで訓練データが提示される度にユニットの出力をランダムで0にするので訓練データ提示のたびにネットワーク構造が変わり、それらのネットワーク出力の平均が最終的な出力になることからアンサンブル学習のような効果が得られるため汎化性能が高まる。

といったように理解していたのですが、実際には1つのネットワークに対して出力の平均を出すことはできないのでドロップアウトにおいてアンサンブル学習を用いた説明はできないとのことで現在は、多クラス分類におけるドロップアウトの効果を説明するように求められ、

・学習時に一部のユニットのみを用いて出力を計算し、重みを更新することで、一部の重みでも正しい出力を出せるように学習が行われることが非常に重要であること。

・分類問題においてはクラスに属する全ての訓練データに共通する部分を学習できること。

以上の2点がドロップアウトにおける重要な効果であり、その理由を説明するように求められ勉強を続けていますが、2つの効果について記述されている本や文献を探しても一向に見つからず、理解が及びません...

情報があればご教授お願いします。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

ベストアンサー

Dropout の論文 Dropout: A Simple Way to Prevent Neural Networks from Overfitting の 「6.5 Comparison with Standard Regularizers」あたりを見ればいいと思います。

ニューロンが他のニューロンと依存関係を持つ co-adaptations が起こると過学習につながるのではないかと仮説を立て、それを防ぐために Dropout を考案したと書かれています。

ニューラルネットワークが過学習する理由について、仮説を述べている部分

In a standard neural network, the derivative received by each parameter tells it how it should change so the final loss function is reduced, given what all other units are doing.
Therefore, units may change in a way that they fix up the mistakes of the other units.

This may lead to complex co-adaptations.

This in turn leads to overfitting because these co-adaptations do not generalize to unseen data.

これに対して、Dropout がどう効果と持つかについて述べた部分

We hypothesize that for each hidden unit,

dropout prevents co-adaptation by making the presence of other hidden units unreliable.

Therefore, a hidden unit cannot rely on other specific units to correct its mistakes.

また副次的な効果として、学習する重みがスパースになる正則化の効果もあるということが確認されています。

We found that as a side-effect of doing dropout, the activations of the hidden units become sparse, even when no sparsity inducing regularizers are present. Thus, dropout automatically leads to sparse representations.


その理由を説明するように求められ勉強を続けていますが、2つの効果について記述されている本や文献を探しても一向に見つからず、理解が及びません

ドロップアウトはあくまで、実験的に性能がよくなると確認された1つのテクニックであり、数学的になぜ性能がよくなるのか証明がなされているわけではないので、理論的な理由付けを探しても見つからないでしょう。

・学習時に一部のユニットのみを用いて出力を計算し、重みを更新することで、一部の重みでも正しい出力を出せるように学習が行われることが非常に重要であること。
・分類問題においてはクラスに属する全ての訓練データに共通する部分を学習できること。

ここで言われていることは、ニューロンがランダムに脱落するので、あるニューロンは他のニューロンに頼らず、それ単体で意味のある特徴に反応するように訓練されるということですね。

投稿2019/12/23 09:15

編集2019/12/23 09:16
tiitoi

総合スコア21956

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.36%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問