python
1from __future__ import absolute_import, division, print_function, unicode_literals 2import tensorflow as tf 3 4mnist = tf.keras.datasets.mnist 5(x_train, y_train), (x_test, y_test) = mnist.load_data() 6x_train, x_test = x_train / 255.0, x_test / 255.0 7 8model = tf.keras.models.Sequential([ 9 tf.keras.layers.Flatten(input_shape=(28, 28)), 10 tf.keras.layers.Dense(128, activation='relu'), 11 tf.keras.layers.Dropout(0.2), 12 tf.keras.layers.Dense(10, activation='softmax') 13]) 14model.compile( 15 optimizer='adam', 16 loss='sparse_categorical_crossentropy', 17 metrics=['accuracy'] 18) 19 20model.fit(x_train, y_train, epochs=5) 21 22model.evaluate(x_test, y_test, verbose=2)
今までノートPC環境下CPUで計算させており(それしかできないので)、上記のコード実行時
Epoch 1/5
1875/1875 [==============================] - 2s 1ms/step - loss: 0.2959 - accuracy: 0.9140
Epoch 2/5
1875/1875 [==============================] - 2s 991us/step - loss: 0.1458 - accuracy: 0.9569
Epoch 3/5
1875/1875 [==============================] - 2s 906us/step - loss: 0.1095 - accuracy: 0.9665
Epoch 4/5
1875/1875 [==============================] - 2s 928us/step - loss: 0.0897 - accuracy: 0.9729
Epoch 5/5
1875/1875 [==============================] - 2s 985us/step - loss: 0.0764 - accuracy: 0.9758
313/313 - 0s - loss: 0.0773 - accuracy: 0.9768
となり
「60000の画像データのうち1Epochあたり1875の画像を学習しているんだ。全部学習させると過学習になってしまうからかな?」くらいにしか思っていなかったのですが
つい先ほど初めてレンタルGPUサーバのお試しをやってみたところ
Epoch 1/5
60000/60000 [==============================] →略
Epoch 2/5
60000/60000 [==============================]
Epoch 3/5
60000/60000 [==============================]
Epoch 4/5
60000/60000 [==============================]
Epoch 5/5
60000/60000 [==============================]
同じコードにも関わらず上記のように1Epochあたり60000になりました。
これはもしかしてCPUやGPUはたまたメモリ量の違いで自動的に学習量を調整されているということでしょうか?
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2020/12/08 06:03