機械学習を用いて二値分類問題を行なっていますが,画像の通りval_lossとlossが徐々に離れていき,過学習の傾向にあると思われるのですが,精度自体は一番良い状態です.このような場合,loss間の幅を下げる必要性の有無,また,その場合の対処法などありましたら教えてください.
以下はプログラムの一部です.
python
1 2 3 4 model.compile(loss='binary_crossentropy',optimizer=RMSprop(lr=learning_rate),metrics=['accuracy']) #RMSprop 5 6 7 history = model.fit(x, y,batch_size=b_size,epochs=epoch,verbose=1,validation_split=0.2,shuffle=True) 8 9def plot_history(history): 10 11 plt.plot(history.history['loss'],"o-",label="loss",) 12 plt.plot(history.history['val_loss'],"o-",label="val_loss") 13 plt.title('model loss') 14 plt.xlabel('epoch') 15 plt.ylabel('loss') 16 plt.legend(loc='lower right') 17 plt.show() 18 19plot_history(history)