KerasとTensorflowを用いてデータが多いため分割して学習させたいです。
モデルを定義して以下のようにfitさせています。
Python
1model.fit(X, y_keras, batch_size=batch_size, epochs=1000, validation_split=0., verbose=1)
Xが多次元配列で100万個程度あるのでメモリエラーが発生してしまいます。
そのため、1万単位に分割してfitさせようかと考えています。
以下のように1万単位でXをデータ格納しfitさせていきたいのですが、そもそも考え方として良いのかなどバックリとした
懸念しています。
この場合に注意する点などをアドバイスをお願いします。
batch_size, epochsサイズなどは少し小さめで進めようかと考えていますが、注意点や考え方などご意見、アドバイスなどをお願いします。
Python
1for i in range( 1000000 ) ): 2 # Xにデータ格納処理 3 X = ... 4 if (i%10000==0): 5 model.fit(X, y_keras, batch_size=batch_size, epochs=1000, validation_split=0., verbose=1)
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2019/12/15 02:27