train_Xとtrain_yをsoftmax関数に渡したいです。
train_Xとtrain_yに対してsoftmax関数を使いたいです。
def xxx(train_X, train_y, test_X): train_X= tf.placeholder(tf.float32,[None,784]) train_y= tf.placeholder(tf.float32,[None,784]) W = tf.Variable(tf.zeros([784,10])) b = tf.Variable(tf.zeros([10])) y = tf.nn.softmax(tf.matmul(train_X,train_y,W)+b) pred_y= tf.placeholder(tf.float32,[None,10]) cross_entropy = -tf.reduce_sum(pred_y*tf.log(y)) train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy) init = tf.initialize_all_variables() correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1)) accuracy = tf.reduce_mean(tf.cast(correct_prediction,"foat")) return pred_y
と書いたら、matmul関数の第3引数はboolean型であることからエラーが出ました。
def xxx(train_X, train_y, test_X): train_X= tf.placeholder(tf.float32,[None,784]) train_y= tf.placeholder(tf.float32,[None,784]) W = tf.Variable(tf.zeros([784,10])) b = tf.Variable(tf.zeros([10])) y = tf.nn.softmax(tf.matmul(train_X,W)+b) pred_y= tf.placeholder(tf.float32,[None,10]) cross_entropy = -tf.reduce_sum(pred_y*tf.log(y)) train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy) init = tf.initialize_all_variables() correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1)) accuracy = tf.reduce_mean(tf.cast(correct_prediction,"foat")) return pred_y
とtrain_Xだけmatmul関数に渡すと動きました。
ですが、train_Xとtrain_yに対してsoftmax関数を使うためにはどう書けば良いのでしょうか?
どう上記のコードを直せば良いのでしょうか?
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。