###目標
勉強のため、簡単なLSTMモデルを作成し、数字の連番を予測する。
20000の連番数字を生成し、25区切りで学習データを作成し、次の値を教師データとする。
学習データ[0,1,2,3...23,24][1,2,3...24,25]...
教師データ[25][26]...
###質問
学習が収束しないので、どこを改良することで、lossを減らすことができるのか。
中間層を増やしてみましたが、学習に時間がかかりそうなので、とりあえず保留にしました。
学習データが19975個なので学習する際も19975になると思うのですが、なぜ17977で学習を行うのか。
深層学習をはじめたばかりでよくわかっていないことが多いのでご教授よろしくお願いします。
Python
1from keras.models import Sequential 2from keras.layers.core import Dense, Activation 3from keras.layers.recurrent import LSTM 4from keras.optimizers import Adam 5from keras.callbacks import EarlyStopping 6import numpy as np 7 8def make_dataset(): 9 numbers = [s for s in range(20000)] 10 11 data, target = [], [] 12 maxlen = 25 13 for i in range(len(numbers)-maxlen): 14 data.append(numbers[i:i + maxlen]) 15 target.append(numbers[i + maxlen]) 16 17 re_data = np.array(data).reshape(len(data), maxlen, 1) 18 re_target = np.array(target).reshape(len(data), 1) 19 20 return re_data, re_target 21 22#g -> 学習データ,h -> 学習ラベル 23g, h = make_dataset() 24# モデル構築 25 26# 1つの学習データのStep数(今回は25) 27length_of_sequence = g.shape[1] 28in_out_neurons = 1 29n_hidden = 300 30 31model = Sequential() 32model.add(LSTM(n_hidden, batch_input_shape=(None, length_of_sequence, in_out_neurons), return_sequences=False)) 33model.add(Dense(in_out_neurons)) 34model.add(Activation("linear")) 35optimizer = Adam(lr=0.001) 36model.compile(loss="mean_squared_error", optimizer=optimizer) 37 38early_stopping = EarlyStopping(monitor='val_loss', mode='auto', patience=20) 39model.fit(g, h, 40 batch_size=300, 41 epochs=100, 42 validation_split=0.1, 43 callbacks=[early_stopping] 44 ) 45predicted = model.predict(g) 46print(predicted.shape) 47print(predicted) 48
###結果
(省略) 17700/17977 [============================>.] - ETA: 0s - loss: 86786447.5932 17977/17977 [==============================] - 3s 180us/step - loss: 86707198.0798 - val_loss: 314141389.8378 (19975, 1) [[ 25.048105] [ 26.30668 ] [ 27.27859 ] ... [1285.8531 ] [1285.8531 ] [1285.8531 ]]
参考リンク
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2018/10/14 12:06