◎ 以下のようなプログラムを実行させました。
model = keras.models.Sequential()
model.add(Dense(units=64,input_dim=101))
model.add(Activation('relu'))
model.add(Dense(units=64))
model.add(Activation('relu'))
model.add(Dense(units=64))
model.add(Activation('relu'))
model.add(Dense(units=2))
model.add(Activation('softmax'))
model.compile(loss='sparse_categorical_crossentropy',optimizer='sgd',metrics=['accuracy'])
model.fit(x_train,y_train,epochs=10, verbose=0)
score = model.evaluate(x_test, y_test,batch_size = 10)
print('accuracy:', score[1])
◎ すると、以下のようなエラーが出ます。
InvalidArgumentError Traceback (most recent call last)
<ipython-input-103-09cf3e4b67d9> in <module>
----> 2 model.fit(x_train,y_train,epochs=10, verbose=0)
4 score = model.evaluate(x_test, y_test,batch_size = 10)
5 print('accuracy:', score[1])
InvalidArgumentError: Received a label value of 14 which is outside the valid range of [0, 2). Label values: 6 1 1 7 1 3 7 2 7 7 2 2 5 14 11 2 2 1 4 2 2 2 4 5 2 14 1 3 2 8 6 2
[[{{node loss_21/activation_88_loss/SparseSoftmaxCrossEntropyWithLogits/SparseSoftmaxCrossEntropyWithLogits}}]]
◎ このエラーは何を意味しているのでしょうか?
因みに同じプログラムで他のデータ(15列×100行)を処理させた時は正常終了したのですが、なぜか、データを変えるとエラーになります。
処理させたデータは、101列×1万5000行のデータです。
データが大きいことが原因なのでしょうか?
ご指導いただければ、大変助かります。
よろしくお願いいたします。
回答1件
あなたの回答
tips
プレビュー