質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.35%
CNN (Convolutional Neural Network)

CNN (Convolutional Neural Network)は、全結合層のみではなく畳み込み層とプーリング層で構成されるニューラルネットワークです。画像認識において優れた性能を持ち、畳み込みニューラルネットワークとも呼ばれています。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

4031閲覧

ドロップアウト用いても過学習が起きてしまう

退会済みユーザー

退会済みユーザー

総合スコア0

CNN (Convolutional Neural Network)

CNN (Convolutional Neural Network)は、全結合層のみではなく畳み込み層とプーリング層で構成されるニューラルネットワークです。画像認識において優れた性能を持ち、畳み込みニューラルネットワークとも呼ばれています。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2021/10/08 06:26

CNNを用いて画像認識を行いたいのですが、過学習が起きてしまっています。
自分なりに調べてドロップアウトも実装したのですが原因が分かりません。

イメージ説明

発生している問題・エラーメッセージ

過学習が起きてしまう

該当のソースコード

X = []
Y = []

for picture in list_pictures(r'C:\Users\Blouse'):
img = img_to_array(load_img(picture, target_size=(64,64)))
X.append(img)
Y.append(0)
for picture in list_pictures(r'C:\Users\Top'):
img = img_to_array(load_img(picture, target_size=(64,64)))
X.append(img)
Y.append(1)
for picture in list_pictures(r'C:\Users\Jacket'):
img = img_to_array(load_img(picture, target_size=(64,64)))
X.append(img)
Y.append(2)
for picture in list_pictures(r'C:\Users\Jeans'):
img = img_to_array(load_img(picture, target_size=(64,64)))
X.append(img)
Y.append(3)
for picture in list_pictures(r'C:\Users\Skirt'):
img = img_to_array(load_img(picture, target_size=(64,64)))
X.append(img)
Y.append(4)

X = np.asarray(X)
Y = np.asarray(Y)

X = X.astype('float32')
X = X / 255.0

Y = to_categorical(Y, 5)

X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=0.33, random_state=111)

model = Sequential()

model.add(Conv2D(32, (3, 3), padding='same',
input_shape=X_train.shape[1:]))
model.add(Activation('relu'))
model.add(Conv2D(32, (3, 3)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Conv2D(64, (3, 3), padding='same'))
model.add(Activation('relu'))
model.add(Conv2D(64, (3, 3)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Flatten())
model.add(Dense(512))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(5))
model.add(Activation('softmax'))

model.compile(loss='categorical_crossentropy',
optimizer='SGD',
metrics=['accuracy'])

history = model.fit(X_train, y_train, batch_size=5, epochs=200,
validation_data = (X_test, y_test), verbose = 0)

plt.plot(history.history['accuracy'])
plt.plot(history.history['val_accuracy'])
plt.title('model accuracy')
plt.xlabel('epoch')
plt.ylabel('accuracy')
plt.legend(['accuracy', 'val_accuracy'], loc='lower right')
plt.show()

試したこと

ここに問題に対して試したことを記載してください。

補足情報(FW/ツールのバージョンなど)

ここにより詳細な情報を記載してください。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

meg_

2021/10/08 10:59

> 自分なりに調べてドロップアウトも実装したのですが原因が分かりません。 実装前と後で変化はありましたか?
meg_

2021/10/08 11:02

訓練画像は何枚ですか?
toast-uz

2021/10/09 01:21 編集

Cifar10を使って質問者様のコードを実行すると、lossがnanになりますね。質問者様のlossはどうなっていますでしょうか?もしloosがnanになっているのであれば、モデルが収束しにくく、SGDだと発散しているものと思います。optimizer='Adam'にすることで解決します。 過学習の対処としては、Dropoutは使っても良いですが、まずはBatchNormalizationを使うようにしたほうが、学習効率は高いですし、過学習防止にも有効です。また、純粋にデータ拡張によって学習データ量を増やすのも効果があります。 あと質問とは直接関係はありませんが、データ量がそれなりにあるのでしたら、バッチサイズはデフォルト32でよいと思います。 推測が多い話なので、回答欄には書きませんが、まずは試してみてください。アタリのようでしたら、回答書きます。
toast-uz

2021/10/09 03:02

BatchNormalizationを使うと顕著に改善したことを確認しましたので、回答を書きます。
guest

回答1

0

ベストアンサー

結論としては、BatchNormalizationを適用するとうまくいくと思います。

過学習の対策としては、以下が推奨されます。

  • データを増やす。 *データ拡張を含む(画像解析におけるデータ拡張は常識的な手法)
  • モデルを単純化する(与えられた問題やデータに対して、モデルが複雑すぎる)。
  • データの汎用的な特徴を捉えられるように、特徴量選択を工夫したり、モデルを見直したりする。 *ResNetもその1つ
  • 大量の類似分野のデータで学習済のモデルを元に、転移学習やファインチューニングをする。
  • BatchNormalizationを活用する。 *簡単に効果を得やすい
  • Dropoutを活用する。 *BNに対して効果は低く、補完程度の役割
  • 正則化する。 *古い教科書には記述されているが、ほぼ絶滅した手法

Cifar10のデータセットから5クラスを取り出して、質問者様のモデルを訓練してみました。

  • そのまま実行。loss = nan となって学習が進みません。
  • optimizerをAdamに変更。学習は進みますが、質問者様と同様に、過学習の傾向が出ます。
  • BatchNormalizationをモデルに追加。きれいに学習が進みます。

結果はこちらです。質問者様と異なるデータセットを使っていますので、参考程度にしてください。

イメージ説明

今回は、質問者様のモデルのすべてのActivateionレイヤーの前にBatchNormalizationを追加しました。BatchNormalizationを入れる場合はDropoutを入れないほうが良いと言われていますが、ケースバイケースです。今回はDropoutはそのまま残しています。なお、バッチサイズを変更しましたが、本質的な違いではありません。

最後に試したコードを示します。Colabで実行していますが、TPUを利用しているため、質問者様のコードからだいぶ変わっていると思います。

Python

1import numpy as np 2import tensorflow as tf 3from tensorflow.keras import Sequential 4from tensorflow.keras.layers import Dense, Conv2D, Activation, MaxPooling2D, Flatten, Dropout, BatchNormalization 5from tensorflow.keras.utils import to_categorical 6from tensorflow.keras.datasets import cifar10 7 8(x_train, y_train), (x_test, y_test) = cifar10.load_data() 9 10num = 5 11X_train = x_train[y_train[:,0] < num].astype('float32') / 255.0 12y_train = to_categorical(y_train[y_train[:,0] < num], num).astype('float32') 13X_test = x_test[y_test[:,0] < num].astype('float32') / 255.0 14y_test = to_categorical(y_test[y_test[:,0] < num], num).astype('float32') 15 16def create_model(): 17 model = Sequential() 18 19 model.add(Conv2D(32, (3, 3), padding='same', 20 input_shape=X_train.shape[1:])) 21 model.add(BatchNormalization()) 22 model.add(Activation('relu')) 23 model.add(Conv2D(32, (3, 3))) 24 model.add(BatchNormalization()) 25 model.add(Activation('relu')) 26 model.add(MaxPooling2D(pool_size=(2, 2))) 27 model.add(Dropout(0.25)) 28 29 model.add(Conv2D(64, (3, 3), padding='same')) 30 model.add(BatchNormalization()) 31 model.add(Activation('relu')) 32 model.add(Conv2D(64, (3, 3))) 33 model.add(BatchNormalization()) 34 model.add(Activation('relu')) 35 model.add(MaxPooling2D(pool_size=(2, 2))) 36 model.add(Dropout(0.25)) 37 38 model.add(Flatten()) 39 model.add(Dense(512)) 40 model.add(BatchNormalization()) 41 model.add(Activation('relu')) 42 model.add(Dropout(0.5)) 43 model.add(Dense(5)) 44 model.add(BatchNormalization()) 45 model.add(Activation('softmax')) 46 return model 47 48import os 49tpu_grpc_url = "grpc://" + os.environ["COLAB_TPU_ADDR"] 50tpu_cluster_resolver = tf.distribute.cluster_resolver.TPUClusterResolver(tpu_grpc_url) 51tf.config.experimental_connect_to_cluster(tpu_cluster_resolver) # TF2.0の場合、ここを追加 52tf.tpu.experimental.initialize_tpu_system(tpu_cluster_resolver) # TF2.0の場合、今後experimentialが取れる可能性がある 53strategy = tf.distribute.experimental.TPUStrategy(tpu_cluster_resolver) # ここも同様 54 55with strategy.scope(): 56 model = create_model() 57 loss = tf.keras.losses.CategoricalCrossentropy() 58 acc = tf.keras.metrics.CategoricalAccuracy() 59 optim = tf.keras.optimizers.Adam() 60 61 # train 62 model.compile(optimizer=optim, loss=loss, metrics=[acc]) 63 history = model.fit(X_train, y_train, batch_size=32, epochs=200, validation_data = (X_test, y_test)) 64 65%matplotlib inline 66import matplotlib.pyplot as plt 67 68plt.plot(history.history['categorical_accuracy']) 69plt.plot(history.history['val_categorical_accuracy']) 70plt.title('model accuracy') 71plt.xlabel('epoch') 72plt.ylabel('accuracy') 73plt.legend(['accuracy', 'val_accuracy'], loc='lower right') 74plt.show()

投稿2021/10/09 03:19

編集2021/10/10 00:27
toast-uz

総合スコア3266

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.35%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問