質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

89.12%

Kerasでメモリに載らない大量データの学習をするには

受付中

回答 2

投稿

  • 評価
  • クリップ 1
  • VIEW 6,746

aoi1

score 6

 前提・実現したいこと

以下のサイトからそのまま、Kerasで犬猫画像を学習させようとしていますが、学習画像数を増やすと手持ちのGPUではメモリの問題で落ちてしまいます。
https://employment.en-japan.com/engineerhub/entry/2017/04/28/110000

最終的に学習数を100万枚以上まで増やして学習させたいのですが、どんな方法がありえるでしょうか?一応、以下の策を考えていますが、他の提案あれば教えてほしいです。
(1と2はやっていることは同じ?)

  1. hdf5のweightのみを読み込んで画像を何回かに分けてfine tuningする
    以下のように実現できそうですが、犬猫→各々の種類などのfine tuningではなくて、犬猫の新しい画像に対するtuningもこういうやり方で良いのでしょうか?
    model.load_weights("./weight.**.hdf5", by_name=True)

  2. hdf5をモデルごと読み込んで画像を何回かに分けて再学習させる
    以下のようにモデルを読み込んで新しい画像で学習→hdf5保存→読み込みを繰り返す?
    model = load_model(filepath='./model.**.hdf5') 

  3. バッチ数を64から徐々に減らす

  4. BMPではなくJPGなどの圧縮フォーマットに変える
    →内部で持っているメモリは変わらないので意味なし? 

 発生している問題・エラーメッセージ

エラーメッセージ

 該当のソースコード

from keras.applications.inception_v3 import InceptionV3
from keras.applications.inception_v3 import preprocess_input
from keras.models import Sequential, Model
from keras.layers import Dense, Dropout, Activation, Flatten
from keras.layers import Convolution2D, MaxPooling2D, ZeroPadding2D, GlobalAveragePooling2D, AveragePooling2D
from keras.preprocessing.image import ImageDataGenerator
from keras.callbacks import ModelCheckpoint, CSVLogger, LearningRateScheduler, ReduceLROnPlateau
from keras.optimizers import SGD
from keras.regularizers import l2
import matplotlib.image as mpimg
from scipy.misc import imresize
import numpy as np
import keras.backend as K
import math

K.clear_session()
img_size=299
#訓練データ拡張
train_datagen = ImageDataGenerator(
featurewise_center=False,
samplewise_center=False,
featurewise_std_normalization=False,
samplewise_std_normalization=False,
rotation_range=10,
width_shift_range=0.2,
height_shift_range=0.2,
horizontal_flip=True,
vertical_flip=False,
zoom_range=[.8, 1],
channel_shift_range=30,
fill_mode='reflect')

test_datagen = ImageDataGenerator()

#画像の読み込み
def load_images(root,nb_img):
all_imgs = []
all_classes = []

for i in range(nb_img):
img_name = "%s/dog.%d.jpg" % (root, i + 1)
img_arr = mpimg.imread(img_name)
resize_img_ar = imresize(img_arr, (img_size, img_size))
all_imgs.append(resize_img_ar)
all_classes.append(0)
for i in range(nb_img):
img_name = "%s/cat.%d.jpg" % (root, i + 1)
img_arr = mpimg.imread(img_name)
resize_img_ar = imresize(img_arr, (img_size, img_size))
all_imgs.append(resize_img_ar)
all_classes.append(1)
return np.array(all_imgs), np.array(all_classes)

X_train, y_train = load_images('./train', 1000)
X_test, y_test = load_images('./train', 400)
train_generator = train_datagen.flow(X_train, y_train, batch_size=64, seed = 13)
test_generator = test_datagen.flow(X_test, y_test, batch_size=64, seed = 13)

#Inception v3モデルの読み込み。最終層は読み込まない
base_model = InceptionV3(weights='imagenet', include_top=False)
#最終層の設定
x = base_model.output
x = GlobalAveragePooling2D()(x)
predictions = Dense(1, kernel_initializer="glorot_uniform", activation="sigmoid", kernel_regularizer=l2(.0005))(x)

model = Model(inputs=base_model.input, outputs=predictions)

#base_modelはweightsを更新しない
for layer in base_model.layers:
layer.trainable = False

opt = SGD(lr=.01, momentum=.9)
model.compile(optimizer=opt, loss='binary_crossentropy', metrics=['accuracy'])

checkpointer = ModelCheckpoint(filepath='model.{epoch:02d}-{val_loss:.2f}.hdf5', verbose=1, save_best_only=True)
csv_logger = CSVLogger('model.log')

reduce_lr = ReduceLROnPlateau(monitor='val_loss', factor=0.2,
patience=5, min_lr=0.001)

history = model.fit_generator(train_generator,
steps_per_epoch=2000,
epochs=10,
validation_data=test_generator,
validation_steps=800,
verbose=1,
callbacks=[reduce_lr, csv_logger, checkpointer])

 補足情報(FW/ツールのバージョンなど)

Windows 10

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 2

+2

  • バッチサイズを減らす
  • 解像度を下げる

バッチサイズを1/4の16にして、画像を150*150にすればこっちでも1/4でメモリ消費量はざっと1/16くらいで済むはず。それでなんとかなりませんか。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2018/04/10 19:35

    簡便に試せる方法を教えて下さってありがとうございます。1/4にして20万枚くらいまでできることが分かりました。

    キャンセル

+1

ImageDataGeneratorを使っているのであれば画像をすべて一度メモリに載せる必要はないのでは?
そうすれば画像の枚数は問題になりません。

http://www.kumilog.net/entry/keras-generator


他の問題としてGPUに載るかどうかですが、
InceptionV3などではバッチサイズは16か32だった気がします。
1080/1080TiクラスのGPUですが。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2018/04/10 19:39

    ImageDataGeneratorで毎回ファイルから呼び出す方法があったのですね。IOからの読み取りでやや時間はかかるのかもしれませんが、やりたいことに近いので試してからまた書き込みたいと思います。ありがとうございます。

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 89.12%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

同じタグがついた質問を見る