kerasでloss関数にsparse_softmax_cross_entropy_with_logitsを使いたいです。
これはほかの関数と違ってshapeがlogitsよりも1ランク少ないlabelsを必要とするようです。
この関数に渡される値はlabels用がshape=(?, ?) (これは(None,None)と同じ表記ですか?)
logits用が shape=(?, 5) でした。
labels用のtensorにどのような操作を施せばいいかご存知の方はいらっしゃいませんか。
tf.squeeze で後ろのNoneを削除して実行はできますが、acc: 0.0000e+00 となってしまいます。
loss は少しずつ減っています。
あなたの回答
tips
プレビュー