質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

3067閲覧

深層学習 LSTMでの学習

fia

総合スコア57

Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2018/10/14 00:57

###目標
勉強のため、簡単なLSTMモデルを作成し、数字の連番を予測する。
20000の連番数字を生成し、25区切りで学習データを作成し、次の値を教師データとする。
学習データ[0,1,2,3...23,24][1,2,3...24,25]...
教師データ[25][26]...

###質問
学習が収束しないので、どこを改良することで、lossを減らすことができるのか。
中間層を増やしてみましたが、学習に時間がかかりそうなので、とりあえず保留にしました。

学習データが19975個なので学習する際も19975になると思うのですが、なぜ17977で学習を行うのか。

深層学習をはじめたばかりでよくわかっていないことが多いのでご教授よろしくお願いします。

Python

1from keras.models import Sequential 2from keras.layers.core import Dense, Activation 3from keras.layers.recurrent import LSTM 4from keras.optimizers import Adam 5from keras.callbacks import EarlyStopping 6import numpy as np 7 8def make_dataset(): 9 numbers = [s for s in range(20000)] 10 11 data, target = [], [] 12 maxlen = 25 13 for i in range(len(numbers)-maxlen): 14 data.append(numbers[i:i + maxlen]) 15 target.append(numbers[i + maxlen]) 16 17 re_data = np.array(data).reshape(len(data), maxlen, 1) 18 re_target = np.array(target).reshape(len(data), 1) 19 20 return re_data, re_target 21 22#g -> 学習データ,h -> 学習ラベル 23g, h = make_dataset() 24# モデル構築 25 26# 1つの学習データのStep数(今回は25) 27length_of_sequence = g.shape[1] 28in_out_neurons = 1 29n_hidden = 300 30 31model = Sequential() 32model.add(LSTM(n_hidden, batch_input_shape=(None, length_of_sequence, in_out_neurons), return_sequences=False)) 33model.add(Dense(in_out_neurons)) 34model.add(Activation("linear")) 35optimizer = Adam(lr=0.001) 36model.compile(loss="mean_squared_error", optimizer=optimizer) 37 38early_stopping = EarlyStopping(monitor='val_loss', mode='auto', patience=20) 39model.fit(g, h, 40 batch_size=300, 41 epochs=100, 42 validation_split=0.1, 43 callbacks=[early_stopping] 44 ) 45predicted = model.predict(g) 46print(predicted.shape) 47print(predicted) 48

###結果

(省略) 17700/17977 [============================>.] - ETA: 0s - loss: 86786447.5932 17977/17977 [==============================] - 3s 180us/step - loss: 86707198.0798 - val_loss: 314141389.8378 (19975, 1) [[ 25.048105] [ 26.30668 ] [ 27.27859 ] ... [1285.8531 ] [1285.8531 ] [1285.8531 ]]

参考リンク

https://qiita.com/sasayabaku/items/b7872a3b8acc7d6261bf

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

ベストアンサー

(あまり詳しくはないので、不備などがあったらすいません)

学習が収束しないので、どこを改良することで、lossを減らすことができるのか。

データの数値があまりにも大きすぎるのが原因だと思います。
参考のURLで学習しているのはsin波なので、-1〜1の間の値を取りますが、あなたの場合はそれよりも遥かに大きいため、うまく学習出来ないのだろうと思います。
この場合、データの値をあらかじめ-1〜1の間に収めておく、あるいは平均を0に分散を1に正規化する、といった方法をとることが考えられます。

学習データが19975個なので学習する際も19975になると思うのですが、なぜ17977で学習を行うのか。

データの一部(fit関数のvalidation_splitで設定した分)は学習に使われず、評価(val_loss)のみに使われるためです。

投稿2018/10/14 12:00

fiveHundred

総合スコア9803

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

fia

2018/10/14 12:06

わかりやすい、説明ありがとうございます。 もっと勉強に励みたいと思います。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問