質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.35%
深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

1341閲覧

<tensorflow>正解率が変わらない

TakaKan

総合スコア10

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2020/02/07 04:04

編集2020/02/08 09:58

前提・実現したいこと

tensorflowを使って画像をdeeplearningさせ、最終的にはももクロのメンバーを判別するアンドロイドアプリにしたいと思っています。

データ数としては、各クラスごとにトレーニングデータが300、テストデータが100枚です。(この比率に関しても調べたところさまざまな意見があるようですが、どのくらいが最適なのでしょうか?)

発生している問題・エラーメッセージ

公式チュートリアル(https://www.tensorflow.org/tutorials/images/classification)を参考にしてコードを少し書き換え、実行したのですが正解率に変動がなく、25%に留まってしまっています。

該当のソースコード

Python

1#!/usr/bin/env python3 2# -*- coding: utf-8 -*- 3""" 4Created on Fri Feb 7 10:59:53 2020 5 6@author: 7""" 8from __future__ import absolute_import, division, print_function, unicode_literals 9import tensorflow as tf 10from tensorflow.keras.models import Sequential 11from tensorflow.keras.layers import Dense, Conv2D, Flatten, Dropout, MaxPooling2D 12from tensorflow.keras.preprocessing.image import ImageDataGenerator 13#import plot as plt 14import os 15import numpy as np 16import matplotlib.pyplot as plt 17""" 18_URL = 'https://storage.googleapis.com/mledu-datasets/cats_and_dogs_filtered.zip' 19 20path_to_zip = tf.keras.utils.get_file('cats_and_dogs.zip', origin=_URL, extract=True) 21 22PATH = os.path.join(os.path.dirname(path_to_zip), 'cats_and_dogs_filtered') 23""" 24 25train_dir = "/users/kanta/desktop/tensorflow_mcz/dataset/train" 26validation_dir = "/users/kanta/desktop/tensorflow_mcz/dataset/validation" 27 28train_arin_dir = os.path.join(train_dir, 'arin') # 学習用のあーりん画像のディレクトリ 29train_kanako_dir = os.path.join(train_dir, 'kanako') # 学習用の夏菜子画像のディレクトリ 30train_reni_dir = os.path.join(train_dir, 'reni') # 学習用のれに画像のディレクトリ 31train_shiori_dir = os.path.join(train_dir, 'shiori') # 学習用の詩織画像のディレクトリ 32 33validation_arin_dir = os.path.join(validation_dir, 'arin') # 検証用のあーりん画像のディレクトリ 34validation_kanako_dir = os.path.join(validation_dir, 'kanako') # 検証用の夏菜子画像のディレクトリ 35validation_reni_dir = os.path.join(validation_dir, 'reni') # 検証用のれに画像のディレクトリ 36validation_shiori_dir = os.path.join(validation_dir, 'shiori') # 検証用の詩織画像のディレクトリ 37num_arin_tr = len(os.listdir(train_arin_dir)) 38num_kanako_tr = len(os.listdir(train_kanako_dir)) 39num_reni_tr = len(os.listdir(train_reni_dir)) 40num_shiori_tr = len(os.listdir(train_shiori_dir)) 41 42num_arin_val = len(os.listdir(validation_arin_dir)) 43num_kanako_val = len(os.listdir(validation_kanako_dir)) 44num_reni_val = len(os.listdir(validation_reni_dir)) 45num_shiori_val = len(os.listdir(validation_shiori_dir)) 46 47total_train = num_arin_tr + num_kanako_tr +num_reni_tr+num_shiori_tr 48total_val = num_arin_val + num_kanako_val +num_reni_val+num_shiori_val 49print('total training arin images:', num_arin_tr) 50print('total training kanako images:', num_kanako_tr) 51print('total training reni images:', num_reni_tr) 52print('total training shiori images:', num_shiori_tr) 53 54print('total validation arin images:', num_arin_val) 55print('total validation kanako images:', num_kanako_val) 56print('total validation reni images:', num_reni_val) 57print('total validation shiori images:', num_shiori_val) 58print("--") 59print("Total training images:", total_train) 60print("Total validation images:", total_val) 61batch_size = 128 62epochs = 15 63IMG_HEIGHT = 150 64IMG_WIDTH = 150 65train_image_generator = ImageDataGenerator(rescale=1./255) # 学習データのジェネレータ 66validation_image_generator = ImageDataGenerator(rescale=1./255) # 検証データのジェネレータ 67image_gen_train = ImageDataGenerator( 68 rescale=1./255, 69 rotation_range=45, 70 width_shift_range=.15, 71 height_shift_range=.15, 72 horizontal_flip=True, 73 zoom_range=0.5 74 ) 75train_data_gen = image_gen_train.flow_from_directory(batch_size=batch_size, 76 directory=train_dir, 77 shuffle=True, 78 target_size=(IMG_HEIGHT, IMG_WIDTH), 79 class_mode='binary') 80augmented_images = [train_data_gen[0][0][0] for i in range(5)] 81#plotImages(augmented_images) 82 83image_gen_val = ImageDataGenerator(rescale=1./255) 84val_data_gen = image_gen_val.flow_from_directory(batch_size=batch_size, 85 directory=validation_dir, 86 target_size=(IMG_HEIGHT, IMG_WIDTH), 87 class_mode='binary') 88 89augmented_images = [train_data_gen[0][0][0] for i in range(5)] 90# 上で学習用画像の可視化のために定義、使用されたおなじカスタムプロット関数を再利用する 91#plotImages(augmented_images) 92 93sample_training_images, _ = next(train_data_gen) 94 95# この関数は、1行5列のグリッド形式で画像をプロットし、画像は各列に配置されます。 96def plotImages(images_arr): 97 fig, axes = plt.subplots(1, 5, figsize=(20,20)) 98 axes = axes.flatten() 99 for img, ax in zip( images_arr, axes): 100 ax.imshow(img) 101 ax.axis('off') 102 plt.tight_layout() 103 plt.show() 104 105plotImages(sample_training_images[:5]) 106model_new = Sequential([ 107 Conv2D(16, 3, padding='same', activation='relu', 108 input_shape=(IMG_HEIGHT, IMG_WIDTH ,3)), 109 MaxPooling2D(), 110 Dropout(0.2), 111 Conv2D(32, 3, padding='same', activation='relu'), 112 MaxPooling2D(), 113 Conv2D(64, 3, padding='same', activation='relu'), 114 MaxPooling2D(), 115 Dropout(0.2), 116 Flatten(), 117 Dense(512, activation='relu'), 118 Dense(1, activation='sigmoid') 119]) 120 121model_new.compile(optimizer='adam', 122 loss='binary_crossentropy', 123 metrics=['accuracy']) 124 125model_new.summary() 126 127history = model_new.fit_generator( 128 train_data_gen, 129 steps_per_epoch=total_train // batch_size, 130 epochs=epochs, 131 validation_data=val_data_gen, 132 validation_steps=total_val // batch_size 133) 134 135acc = history.history['accuracy'] 136val_acc = history.history['val_accuracy'] 137 138loss = history.history['loss'] 139val_loss = history.history['val_loss'] 140 141epochs_range = range(epochs) 142 143plt.figure(figsize=(8, 8)) 144plt.subplot(1, 2, 1) 145plt.plot(epochs_range, acc, label='Training Accuracy') 146plt.plot(epochs_range, val_acc, label='Validation Accuracy') 147plt.legend(loc='lower right') 148plt.title('Training and Validation Accuracy') 149 150plt.subplot(1, 2, 2) 151plt.plot(epochs_range, loss, label='Training Loss') 152plt.plot(epochs_range, val_loss, label='Validation Loss') 153plt.legend(loc='upper right') 154plt.title('Training and Validation Loss') 155plt.show()

試したこと

過去にteratailで質問されている同じような質問の回答に乗っていることを試したりしましたが、良い結果は得られませんでした。

補足情報(FW/ツールのバージョンなど)

macbook air
python3

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

tiitoi

2020/02/07 05:05

訓練誤差は下がっているので、典型的な過学習ではないでしょうか。 画像は十分な枚数 (最低でも各クラス100枚以上) ありますか?
TakaKan

2020/02/07 10:31

ありがとうございます。 データ数に関して修正しました! よろしくお願いいたします。
tiitoi

2020/02/07 11:00

コードを見ましたが、ゼロから学習するのではなく、学習済みモデルを使って fine-tuning という形をとれば、多分精度がかなり上がると思います。 ResNet50 とか有名なモデルは tensorflow.keras.application 以下にあるので、それを使ってみてはどうでしょうか。 https://keras.io/ja/applications/
meg_

2020/02/08 02:55

図を見るとaccuracyは7割くらいに見えるのですが、「正解率に変動がなく、25%」とはどういう意味でしょうか?
TakaKan

2020/02/08 09:58

tiitoi様 finetuningを用いたら、精度を70%ほどまで高めることができました! ありがとうございました。 meg_様 すみません...載せていたグラフはチュートリアルを行った時のグラフでした。 凡ミスです。以後気をつけます。お手間をおかけいたしました。
guest

回答1

0

自己解決

fine-tuningという方法を採用したところ、精度を向上させることができました。

みなさまありがとうございました!

投稿2020/02/08 09:59

TakaKan

総合スコア10

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.35%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問