質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.46%
深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

コードレビュー

コードレビューは、ソフトウェア開発の一工程で、 ソースコードの検査を行い、開発工程で見過ごされた誤りを検出する事で、 ソフトウェア品質を高めるためのものです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

2753閲覧

画像分類(Xception)の学習精度が向上しません。。。

Anonymous2020

総合スコア7

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

コードレビュー

コードレビューは、ソフトウェア開発の一工程で、 ソースコードの検査を行い、開発工程で見過ごされた誤りを検出する事で、 ソフトウェア品質を高めるためのものです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2021/08/24 00:27

編集2021/08/24 01:01

前提・実現したいこと

Xceptionモデルの学習を一から行おうと思い、ImageNetのデータから学習を行ったのですが精度が早いうちから頭打ちになりうまくいっておりません。

分類問題の精度を上げるためにどうすればよいかご協力をお願いできますでしょうか。

optimizerやlearning rate等は文献に基づいて設定しておりますがあまり効果が見られません

– Optimizer: SGD

– Momentum: 0.9
– Initial learning rate: 0.045
– Learning rate decay: decay of rate 0.94 every 2 epochs

PC環境の問題(Google ColabのHDD容量不足)でImageNetにある1000 class中の500 classしか使用していないのですが、影響はありますでしょうか

該当のソースコード

Python

1import tensorflow as tf 2import tensorflow.keras as keras 3from tensorflow.keras import layers, losses, models, optimizers, callbacks, applications, preprocessing 4 5# scheduler 6def scheduler(epoch, lr): 7 return 0.045*0.94**(epoch/2.0) 8lr_decay = callbacks.LearningRateScheduler(scheduler) 9 10# early stopping 11EarlyStopping = callbacks.EarlyStopping(monitor='val_loss', min_delta=0, patience=500, verbose=0, mode='auto', restore_best_weights=True) 12 13# build xception 14inputs = tf.keras.Input(shape=(224, 224, 3)) 15x = tf.cast(inputs, tf.float32) 16x = tf.keras.applications.xception.preprocess_input(x) #preprocess image 17x = applications.xception.Xception(weights=None, include_top=False,)(x, training=True) 18x = layers.GlobalAveragePooling2D()(x) 19x = layers.Dense(nb_class)(x) 20outputs = layers.Softmax()(x) 21model = tf.keras.Model(inputs, outputs) 22 23model.compile(optimizer=optimizers.SGD(momentum=0.9, nesterov=True), 24 loss = 'categorical_crossentropy', 25 metrics= ['accuracy']) 26 27# fitting data 28history = model.fit(image_gen(df_train_chunk, 224, 224, ), #feed images with a generator 29 batch_size = 32, 30 steps_per_epoch = 64, 31 epochs=1000000000, 32 validation_data = image_gen(df_valid_chunk, 224, 224, ), #feed images with a generator 33 validation_steps = 64, 34 callbacks = [lr_decay, EarlyStopping], 35 ) 36

発生している問題・エラーメッセージ

本来は精度が0.8程度まで行くはずなのですが、行きません

イメージ説明
イメージ説明

補足情報(FW/ツールのバージョンなど)

Google Colab使用
Stackoverflowで同様の質問

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

退会済みユーザー

退会済みユーザー

2021/08/25 21:43 編集

> Xceptionモデルの学習を一から行おうと思い、 Q.1 転移学習は使わずにゼロから学習させているように見えますが合っていますか? Q.1があっていた場合、膨大なデータを使う前提であれば学習率が高めなのは納得です。落ち着くまで膨大なエポック数が必要なことになると思います。元の論文のぶん回した回数がグラフに乗っていますが、ゼロの桁数が"おかしい"ですよね…。これだけの計算を普通の人は時間とお金の制約でできないかと。 Q.1が間違っていて、もし転移学習をしているのであれば学習率は落とした方が良いような気がします。SGDよりもAdamの方が一般的には収束が早いです。 Q.2 Q.1が間違っていた場合、LRの減衰が早すぎるかもしれませんので、少し減衰率の減衰を遅くできますか?その代わり初期値も勾配爆発が起きない程度に抑えてください。
Anonymous2020

2021/08/25 23:33 編集

お返事ありがとうございます。上記、回答します。 Q.1 転移学習は使わずにゼロから学習させているように見えますが合っていますか? >>あっています。とある理由で、Xceptionベースの特徴抽出器を作り、他に転用しようとしています。その前にまず第一段階としてXceptionで学習ができるか試した次第です。 Q.1があっていた場合、膨大なデータを使う前提であれば学習率が高めなのは納得です。落ち着くまで膨大なエポック数が必要なことになると思います。元の論文のぶん回した回数がグラフに乗っていますが、ゼロの桁数が"おかしい"ですよね…。これだけの計算を普通の人は時間とお金の制約でできないかと。 >>文献中のエポック数が膨大なのは気になっていたのですが、問題は精度も損失もいくらエポックを多くとっても改善しないことなんですよね。。。思い切って大規模なエポック数でどうなるか見てみます
退会済みユーザー

退会済みユーザー

2021/08/26 12:24

> Xceptionで学習ができるか 一から学習すると大変ですので、通常は学習済みの重みの"バランス"を生かしたまま8freezeして)層の末端部分だけを再学習させる転移学習が良く使われています。元のクラスが1000クラスで最適化した重みで、実際に使いたいものが10クラスだったとしても、転移学習は有効な手段です(大幅な時間節約ができます)。
guest

回答1

0

ベストアンサー

論文通りに実装したのであれば、落ち着くまで16万回くらい反復計算しているようです。今は600回のようですので、あと270倍くらいは時間がかかると思います。

バッチサイズが論文には載っていませんが、恐らく大きい数を使っているはずなので、手元で動かすバッチサイズでは相当な処理時間がかかるように思います。

PC環境の問題(Google ColabのHDD容量不足)でImageNetにある1000 class中の500 classしか使用していないのですが、影響はありますでしょうか

いくらか収束が早くなると思いますが、データ量的にあまり意味がない程度の時間削減にしかならないかもしれません。

投稿2021/08/25 21:50

退会済みユーザー

退会済みユーザー

総合スコア0

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

Anonymous2020

2021/08/26 06:57 編集

回答ありがとうございます。思い切って大規模なエポック数でどうなるか見てみます。 「バッチサイズが論文には載っていませんが、恐らく大きい数を使っているはずなので、…」とのことですが、バッチサイズはclass数より多めに取った方がよかったりするのでしょうか。(現状はbatch size: 32, class: 500) 少し調べたとこによると、batch sizeは収束性と計算速度には影響があるようなのですが… https://stackoverflow.com/questions/60142351/optimal-batch-size-for-image-classification-using-deep-learning
退会済みユーザー

退会済みユーザー

2021/08/26 11:44

バッチサイズが大きいと計算が早くなりますが、バッチサイズが大きいとGPUに乗りきらなくてクラッシュしやすくなります。(クラッシュしない範囲で最大が目安です)基本的にクラス数とは関係なかったかと思います。2の倍数が良いそうですが、多少外れても大丈夫なじゃなかろうか、と個人的には思っています。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.46%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問