約3万枚の教師データを用いて2クラス分類を行っています。実際に分類させてみたところ、損失関数の値が0.5ぐらいで止まり、正解率も75%ほどで落ち着いてしまいました。VGG16のモデルを用いた転移学習も行ってみましたが、違いが見られませんでした。精度の低さは何が原因と考えられるのか教えていただきたいです。
精度、損失関数の推移
from google.colab import drive drive.mount('/content/drive') import keras import glob import numpy as np import sklearn.model_selection from keras.preprocessing.image import load_img, img_to_array from keras.models import Sequential from keras.layers import Conv2D, MaxPooling2D from keras.layers import Dense, Dropout, Flatten from keras.utils import plot_model from keras import optimizers import matplotlib.pyplot as plt import time import tensorflow import sys from keras.callbacks import LearningRateScheduler x_test = np.load("/content/drive/My Drive/npy_files/x_test.npy") x_train = np.load("/content/drive/My Drive/npy_files/x_train.npy") y_test = np.load("/content/drive/My Drive/npy_files/y_test.npy") y_train = np.load("/content/drive/My Drive/npy_files/y_train.npy") #2 各種設定 #train_data_path = '/content/drive/My Drive/dataset' # ここを変更。Colaboratoryにアップロードしたzipファイルを解凍後の、データセットのフォルダ名を入力 image_size = 120 # ここを変更。必要に応じて変更してください。「28」を指定した場合、縦28横28ピクセルの画像に変換します。 color_setting = 3 #ここを変更。データセット画像のカラー:「1」はモノクロ・グレースケール。「3」はカラー。 folder = ['Eliptical', 'Spiral'] # ここを変更。データセット画像のフォルダ名(クラス名)を半角英数で入力 class_number = len(folder) print('今回のデータで分類するクラス数は「', str(class_number), '」です。') #4 機械学習(人工知能)モデルの作成 – 畳み込みニューラルネットワーク(CNN)・学習の実行等 model = Sequential() model.add(Conv2D(96, (11, 11), padding='same',input_shape=(image_size, image_size, color_setting), activation='relu')) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Conv2D(256, (5, 5), padding='same', activation='relu')) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Dropout(0.5)) model.add(Conv2D(384, (3, 3), padding='same', activation='relu')) model.add(Conv2D(384, (3, 3), padding='same', activation='relu')) model.add(Conv2D(384, (3, 3), padding='same', activation='relu')) model.add(Dropout(0.5)) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Flatten()) model.add(Dense(64, activation='relu')) model.add(Dense(64, activation='relu')) model.add(Dropout(0.5)) model.add(Dense(class_number, activation='softmax')) #Adagrad = keras.optimizers.Adagrad(lr=0.01, epsilon=None, decay=0.0) #sgd = keras.optimizers.SGD(lr=0.01, momentum=0.0, decay=0.0, nesterov=False) Adam = keras.optimizers.Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=None, decay=0.0, amsgrad=False) #RMS = keras.optimizers.RMSprop(lr=0.001, rho=0.9, epsilon=None, decay=0.0) model.summary() plot_model(model, to_file='/content/drive/My Drive/model.png') model.compile(loss='categorical_crossentropy', optimizer=Adam, metrics=['accuracy']) start_time = time.time() # ここを変更。必要に応じて「batch_size=」「epochs=」の数字を変更。 history = model.fit(x_train,y_train, batch_size=256, epochs=200, verbose=1, validation_data=(x_test, y_test),) plt.plot(history.history['accuracy']) plt.plot(history.history['val_accuracy']) plt.title('Model accuracy') plt.ylabel('Accuracy') plt.xlabel('Epoch') plt.grid() plt.legend(['Train', 'Validation'], loc='upper left') plt.savefig('/content/drive/My Drive/acc.png') plt.show() plt.plot(history.history['loss']) plt.plot(history.history['val_loss']) plt.title('Model loss') plt.ylabel('Loss') plt.xlabel('Epoch') plt.grid() plt.legend(['Train', 'Validation'], loc='upper left') plt.savefig('/home/kawada/results/loss.png') plt.show()### ヘディングのテキスト open('cnn_model.json','w').write(model.to_json()) model.save_weights('/content/drive/My Drive/cnn_weights.h5') score = model.evaluate(x_test, y_test, verbose=0) print('Loss:', score[0], '(損失関数値 - 0に近いほど正解に近い)') print('Accuracy:', score[1] * 100, '%', '(精度 - 100% に近いほど正解に近い)') print('Computation time(計算時間):{0:.3f} sec(秒)'.format(time.time() - start_time))
回答1件
あなたの回答
tips
プレビュー