質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Q&A

解決済

3回答

1017閲覧

Deep CNNに対する極端な訓練について

leilei

総合スコア39

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

2グッド

1クリップ

投稿2018/03/15 09:11

一つの標準画像しかない場合、これを以ってDeep CNNを訓練したい場合、
ただ一つ学習画像で学習させる場合とこの学習画像を繰り返し学習させる場合、
どっちが効果的な学習になるのでしょうか。

それとも両者は同じ?

どうぞ宜しくお願いします。

oookabe, IS.SEKI👍を押しています

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

mkgrei

2018/03/15 09:15

「どっち」というのは「ただ一つ学習画像で学習させる場合」と「この学習画像を繰り返し学習させる場合」ということでしょうか?この2つの違いは何でしょう?
leilei

2018/03/16 07:53 編集

お返答ありがとうございます。言いたいのは一つの画像に対して、一回だけNNに入力して終わると、あたかも複数異なる画像があるように、この画像を沢山複製して何らかの形でNNに学習させる方法の間に訓練効果的に差はあるかどうかと言う質問ですね。
guest

回答3

0

https://qiita.com/bohemian916/items/9630661cd5292240f8c7

同じ画像を様々な処理をすることによってかさ増しすれば、情報を絞り尽くすことができます。

正当化の理由としては、違う角度での見た目、異なる照明下での見た目、などを擬似的に表現します。

投稿2018/03/16 14:57

mkgrei

総合スコア8560

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

0

ベストアンサー

『データ件数不足のため、今あるデータを完全コピーして水増しすると過学習になりやすい』ということは既に知られていることです。よって、1件のデータだけを使って複数回の学習を行う場合であっても、完全コピーしたもの複数件で学習を行う場合であっても、行き着く先は過学習のように思います。

回避策としては、mkgreiさんが紹介するように『ぼかし』、『ノイズ』などを入れたオリジナルとは異なるものを多数作ることがいいと思います。

投稿2018/03/17 03:28

R.Shigemori

総合スコア3376

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

0

「画像を一枚だけ使う」のと「同じ画像のコピーを複数枚作る」の違いだと思って回答します。

損失関数の計算過程で、バッチ内で平均を取ると、結局、1枚だけでやった場合と同じ値になるので、違いはないと思います。

投稿2018/03/15 09:27

退会済みユーザー

退会済みユーザー

総合スコア0

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

leilei

2018/03/16 08:00

早速お返答ありがとう御座います! 結局、この画像一枚を一つのバッチとして訓練する場合と、同じ画像を沢山複製して、沢山mini-batchを組んで訓練させる場合とは、最終的に同じDNNパラメータを得ることになるでしょうか。
退会済みユーザー

退会済みユーザー

2018/03/16 08:11

画像1枚の損失点をcとすると、これn枚からなるmini-batchの損失点は、(c+c+...+c)/n=cになって、1枚だけ使った場合の損失点と同じになるので、パラメータをどっちに動かしたら損失が小さくなるか、という方向も全く同じになるので、最終的に同じパラメータに落ち着くはずです。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問