質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

90.45%

  • Python 3.x

    10338questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

  • Keras

    515questions

kerasのCNNモデル構築における過学習の抑制について

解決済

回答 2

投稿

  • 評価
  • クリップ 0
  • VIEW 2,001
退会済みユーザー

退会済みユーザー

 実現したいこと

kerasを用いたCNNモデル(VGG16)での過学習を回避したい

 実行環境

  • model: VGG16(Batch Normalizationを各conv層後に挿入)
  • data: cifar10(VGG16の入力層に合わせるためbilinarで32*32->224*224にリサイズしています)
  • optimizer: SGD(momentum=0.9, learning rate=0.01)

 発生している問題・エラーメッセージ

loss曲線の値が増加し過学習が発生している
イメージ説明
イメージ説明

 質問

過学習が起きている原因は何でしょうか。また対策法をkerasの記法を用いて教えてください。

 該当のソースコード

import keras
from keras.layers import Conv2D, MaxPooling2D, Lambda, Input, Dense, Flatten, BatchNormalization
from keras.models import Model
from keras.layers.core import Dropout
from keras import optimizers
import tensorflow as tf
from keras.callbacks import ReduceLROnPlateau,TensorBoard

from sklearn.metrics import confusion_matrix
from sklearn.metrics import classification_report

from sklearn.preprocessing import OneHotEncoder
from keras.datasets import cifar10
# import gc
import numpy as np

import matplotlib.pyplot as plt

nb_epoch = 30

#グラフ描画のための関数
def plot_graph(history):
    plt.plot(range(1, nb_epoch+1), history.history['acc'], label="training")
    plt.plot(range(1, nb_epoch+1), history.history['val_acc'], label="validation")
    plt.xlabel('Epochs')
    plt.ylabel('Accuracy')
    plt.legend()
    plt.show()

    plt.plot(range(1, nb_epoch+1), history.history['loss'], label="training")
    plt.plot(range(1, nb_epoch+1), history.history['val_loss'], label="validation")
    plt.xlabel('Epochs')
    plt.ylabel('loss')
    plt.legend()
    plt.show()

#VGG16モデルをfunctional APIで構築。
def set_vgg_model():
    # inputs = Input(shape=(224, 224, 3))
    inputs = Input(shape=(32, 32, 3))
    # Due to memory limitation, images will resized on-the-fly.
    x = Lambda(lambda image: tf.image.resize_images(image, (224, 224)))(inputs)
    x = Conv2D(64, (3, 3), activation='relu', padding='same', name='block1_conv1')(inputs)
    x = BatchNormalization()(x)
    x = Conv2D(64, (3, 3), activation='relu', padding='same', name='block1_conv2')(x)
    x = BatchNormalization()(x)
    x = MaxPooling2D((2, 2), strides=(2, 2), padding='same', name='block1_pool')(x)
    x = Conv2D(128, (3, 3), activation='relu', padding='same', name='block2_conv1')(x)
    x = BatchNormalization()(x)
    x = Conv2D(128, (3, 3), activation='relu', padding='same', name='block2_conv2')(x)
    x = BatchNormalization()(x)
    x = MaxPooling2D((2, 2), strides=(2, 2), padding='same', name='block2_pool')(x)
    x = Conv2D(256, (3, 3), activation='relu', padding='same', name='block3_conv1')(x)
    x = BatchNormalization()(x)
    x = Conv2D(256, (3, 3), activation='relu', padding='same', name='block3_conv2')(x)
    x = BatchNormalization()(x)
    x = Conv2D(256, (3, 3), activation='relu', padding='same', name='block3_conv3')(x)
    x = BatchNormalization()(x)
    x = MaxPooling2D((2, 2), strides=(2, 2), padding='same', name='block3_pool')(x)
    x = Conv2D(512, (3, 3), activation='relu', padding='same', name='block4_conv1')(x)
    x = BatchNormalization()(x)
    x = Conv2D(512, (3, 3), activation='relu', padding='same', name='block4_conv2')(x)
    x = BatchNormalization()(x)
    x = Conv2D(512, (3, 3), activation='relu', padding='same', name='block4_conv3')(x)
    x = BatchNormalization()(x)
    x = MaxPooling2D((2, 2), strides=(2, 2), padding='same', name='block4_pool')(x)
    x = Conv2D(512, (3, 3), activation='relu', padding='same', name='block5_conv1')(x)
    x = BatchNormalization()(x)
    x = Conv2D(512, (3, 3), activation='relu', padding='same', name='block5_conv2')(x)
    x = BatchNormalization()(x)
    x = Conv2D(512, (3, 3), activation='relu', padding='same', name='block5_conv3')(x)
    x = BatchNormalization()(x)
    x = MaxPooling2D((2, 2), strides=(2, 2), padding='same', name='block5_pool')(x)
    flattened = Flatten(name='flatten')(x)
    x = Dense(4096, activation='relu', name='fc1')(flattened)
    x = Dropout(0.5, name='dropout1')(x)
    x = Dense(4096, activation='relu', name='fc2')(x)
    x = Dropout(0.5, name='dropout2')(x)
    predictions = Dense(10, activation='softmax', name='predictions')(x)
    model = Model(inputs=inputs, outputs=predictions)
    return model

if __name__ == "__main__":
    print(tf.__version__)
    print(keras.__version__)

    # Prepare data(cifar10)
    (x_train, y_train), (x_test, y_test) = cifar10.load_data()
    enc = OneHotEncoder()
    y_train = enc.fit_transform(y_train).toarray()
    y_test = enc.fit_transform(y_test).toarray()

    model = set_vgg_model()
    BATCH_SIZE = 500
    sgd = optimizers.SGD(lr=0.01,
                         momentum=0.9,
                         decay=5e-4)#, nesterov=False)
    #損失関数はクロスエントロピーです
    model.compile(optimizer=sgd,
                  loss='categorical_crossentropy',
                  metrics=['accuracy'])

    rlop = ReduceLROnPlateau(monitor='val_acc',
                             factor=0.1,
                             patience=5,
                             verbose=1,
                             mode='auto',
                             min_delta=0.0001,
                             cooldown=0,
                             min_lr=0.00001)


    history = model.fit(x_train, y_train, batch_size=BATCH_SIZE, epochs=nb_epoch, verbose=1,
                  callbacks=[rlop], validation_data=(x_test, y_test))
    plot_graph(history)

 補足情報(FW/ツールのバージョンなど)

tensorflow 1.10.0
keras 2.2.2
python 3.6

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 2

checkベストアンサー

+2

ちょっと気になる点をば。

  • BATCH_SIZE = 500
    感覚的には大きい気がします。128とか64くらいでも良いのでは。
    そしてエポック数は最低数倍必要になるはず。

  • 32*32->224*224
    リサイズするくらいなら、何層か外して適当な画像サイズから畳み込みを始めた方が合理的だと思います。

  • 問題の規模とネットワーク規模
    cifar10にここまででかいネットワーク、必要でしょうか。
    一般論では「モデルの規模大=モデルのパラメータ多数=過学習しやすい」です。無駄に大規模なモデルはあんまり良いことはないので、小さくした方が良さそう、とコメントします。
    適当なサンプルのリンクを貼っておきますが、普通にもっと小さいネットワークでも今と同じくらいの性能は出るかと。
    keras/cifar10_cnn.py at master · keras-team/keras · GitHub
    Advanced Convolutional Neural Networks  |  TensorFlow

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2018/09/19 13:55

    ご回答ありがとうございます。バッチサイズの設定でモデルの性能は変化しますか?

    キャンセル

  • 2018/09/19 15:23

    小さくすると学習が不安定になり、そのぶん局所最適解に収束しづらくなります。
    掲載されている正解率や損失を見るとあっさり収束しすぎな気がするので、もう少し不安定にして長く回した方が良い解に収束する可能性は高いと思います。

    キャンセル

  • 2018/09/19 15:55

    なるほど、そういった効果が期待できるのですね。
    ありがとうございます。

    キャンセル

+2

  • data augmentation でデータセットを水増しする。(Keras の ImageDataGenerator でできます。)
  • L2 正則化を入れる。 (引数 kernel_regularizer、bias_regularizer で指定。)

など、試してみてはどうでしょうか。

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2018/09/18 22:34 編集

    ご回答ありがとうございます。
    data augmentationは有効な手段だとは心得ていますがcifar10のようにデータ数が多いものでも水増しによる効力は有意なものなのでしょうか。
    また、L2正則化はconv層に挿入すればよいですか?または損失関数に入れればよいですか?

    キャンセル

  • 2018/09/18 22:41

    Data Argmentation は汎化性能を上げたいのであれば、試してみる価値はありますよ。ImageNet の学習でも Data Argmentation はやるぐらいなので。
    L2正則化は学習で調整されるパラメータを持つ層に入れます。 Conv2D や Dense などはコンストラクタの引数にkernel_regularizer、bias_regularizer で指定できます。(デフォルトは None、つまり正則化なし)

    キャンセル

  • 2018/09/19 00:31

    なるほど、検討させていただきます。

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 90.45%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

同じタグがついた質問を見る

  • Python 3.x

    10338questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

  • Keras

    515questions