質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

87.50%

chainerのメモリ不足を解消したい.

受付中

回答 1

投稿

  • 評価
  • クリップ 0
  • VIEW 2,814

score 13

GitHub-chainerの/examples/cifar/train_cifar.pyにhyperoptを組み込んで畳み込み層のフィルタ数を最適化しようとしています. 
コードは以下のようになります. 

# coding:utf-8
from __future__ import print_function
import argparse
import random
from hyperopt import hp, tpe, Trials, fmin

import chainer
import chainer.links as L
from chainer import training
from chainer.training import extensions
from chainer import Variable
from chainer import serializers

from chainer.datasets import get_cifar10
from chainer.datasets import get_cifar100
import json
import models.VGG
import optuna
import numpy as np


###目的関数
def objective(params):
    parser = argparse.ArgumentParser(description='Chainer CIFAR example:')
    parser.add_argument('--dataset', '-d', default='cifar10',
                        help='The dataset to use: cifar10 or cifar100')
    parser.add_argument('--batchsize', '-b', type=int, default=32,
                       help='Number of images in each mini-batch')
    parser.add_argument('--learnrate', '-l', type=float, default=0.05,
                        help='Learning rate for SGD')
    parser.add_argument('--epoch', '-e', type=int, default=300,
                        help='Number of sweeps over the dataset to train')
    parser.add_argument('--gpu', '-g', type=int, default=0,
                        help='GPU ID (negative value indicates CPU)')
    parser.add_argument('--out', '-o', default='result',
                        help='Directory to output the result')
    parser.add_argument('--resume', '-r', default='',
                        help='Resume the training from snapshot')
    parser.add_argument('--line', '-line', default='',
                        help='line')
    args = parser.parse_args()

    print('GPU: {}'.format(args.gpu))
    print('# Minibatch-size: {}'.format(args.batchsize))
    print('# epoch: {}'.format(args.epoch))
    print('')

    # Set up a neural network to train.
    # Classifier reports softmax cross entropy loss and accuracy at every
    # iteration, which will be used by the PrintReport extension below.
    if args.dataset == 'cifar10':
        print('Using CIFAR10 dataset.')
        class_labels = 10
        train, test = get_cifar10()
    elif args.dataset == 'cifar100':
        print('Using CIFAR100 dataset.')
        class_labels = 100
        train, test = get_cifar100()
    else:
        raise RuntimeError('Invalid dataset choice.')

    ###最適化するフィルタ数
    gane = [int(params['conv'+str(i+1)]) for i in range(13)]
    print(gane)
    model = L.Classifier(models.VGG.VGG(gane, class_labels))

    if args.gpu >= 0:
        # Make a specified GPU current
        chainer.cuda.get_device_from_id(args.gpu).use()
        model.to_gpu()  # Copy the model to the GPU

    optimizer = chainer.optimizers.MomentumSGD(args.learnrate)
    optimizer.setup(model)
    optimizer.add_hook(chainer.optimizer.WeightDecay(5e-4))

    train_iter = chainer.iterators.SerialIterator(train, args.batchsize)
    test_iter = chainer.iterators.SerialIterator(test, args.batchsize,
                                                 repeat=False, shuffle=False)
    # Set up a trainer
    updater = training.StandardUpdater(train_iter, optimizer, device=args.gpu)
    trainer = training.Trainer(updater, (args.epoch, 'epoch'), out=args.out)

    # Evaluate the model with the test dataset for each epoch
    trainer.extend(extensions.Evaluator(test_iter, model, device=args.gpu))

    # Reduce the learning rate by half every 25 epochs.
    trainer.extend(extensions.ExponentialShift('lr', 0.5),
                   trigger=(25, 'epoch'))

    # Dump a computational graph from 'loss' variable at the first iteration
    # The "main" refers to the target link of the "main" optimizer.
    trainer.extend(extensions.dump_graph('main/loss'))

    # Take a snapshot at each epoch
    trainer.extend(extensions.snapshot(), trigger=(args.epoch, 'epoch'))

    # Write a log of evaluation statistics for each epoch
    trainer.extend(extensions.LogReport())

    # Print selected entries of the log to stdout
    # Here "main" refers to the target link of the "main" optimizer again, and
    # "validation" refers to the default name of the Evaluator extension.
    # Entries other than 'epoch' are reported by the Classifier link, called by
    # either the updater or the evaluator.

    # Print a progress bar to stdout
    trainer.extend(extensions.ProgressBar())

    if args.resume:
        # Resume from a snapshot
        chainer.serializers.load_npz(args.resume, trainer)

    # Run the training
    trainer.run()

    # 最終epochの正答率を格納
    log_file = open("result/log", "r")
    lines = log_file.readlines()
    log_file.close()
    train_acc = '"validation/main/accuracy": '
    count = 0
    for line in lines:
        if train_acc in line:
            count = count + 1
            first = line.find('0.')
            end = line.find(' ')
            slice = line[first:]
            if count == args.epoch:
                # print(slice)
                # print(type(slice))
                fitness = float(slice)

    err = 1.0 - fitness # 誤識別率を返す

    return err

if __name__ == '__main__':

    space = {'conv1': hp.choice('conv1', [32, 64, 128, 256, 512]),
             'conv2': hp.choice('conv2', [32, 64, 128, 256, 512]),
             'conv3': hp.choice('conv3', [32, 64, 128, 256, 512]),
             'conv4': hp.choice('conv4', [32, 64, 128, 256, 512]),
             'conv5': hp.choice('conv5', [32, 64, 128, 256, 512]),
             'conv6': hp.choice('conv6', [32, 64, 128, 256, 512]),
             'conv7': hp.choice('conv7', [32, 64, 128, 256, 512]),
             'conv8': hp.choice('conv8', [32, 64, 128, 256, 512]),
             'conv9': hp.choice('conv9', [32, 64, 128, 256, 512]),
             'conv10': hp.choice('conv10', [32, 64, 128, 256, 512]),
             'conv11': hp.choice('conv11', [32, 64, 128, 256, 512]),
             'conv12': hp.choice('conv12', [32, 64, 128, 256, 512]),
             'conv13': hp.choice('conv13', [32, 64, 128, 256, 512])}

    best = fmin(objective, space, algo=tpe.suggest, max_evals=500)
    print("best parameters", best)

学習エポックを10にして回していると, しばらくしてcupy.cuda.memory.OutOfMemoryError
と表示されます. どこに問題があるのでしょうか. 

python 2.7.12
chainer 5.2.0

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

0

batchsizeを小さい値にしてみてください。デフォルトが32のようなので20や10など。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2019/05/17 13:12

    なるほど、フィルタ数とネットワーク構造についてはこの実験での根幹部分で変えがたいので、バッチサイズを小さくするしかないですね…
    回答ありがとうございます。

    キャンセル

  • 2019/05/17 13:17

    お役に立てず申し訳ありません。
    実行環境などを追記しておくと回答を得られやすくなるかもしれません。

    キャンセル

  • 2019/05/17 13:36

    分かりました。
    丁寧にありがとうございます。

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 87.50%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る