tf.train.GradientDescentOptimizerメソッドを使わないで同じ内容を実装したいです。
勾配降下法を使いたいのですが、tensorflowを使わない方法を探しています。
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
の内容を書き換えたいです。
どのような方法がありますか?
全体のコードは以下のようです。
def xxx(train_X, train_y, test_X): train_X= tf.placeholder(tf.float32,[None,784]) train_y= tf.placeholder(tf.float32,[None,784]) W = tf.Variable(tf.zeros([784,10])) b = tf.Variable(tf.zeros([10])) y = tf.nn.softmax(tf.matmul(train_X, train_y,W)+b) pred_y= tf.placeholder(tf.float32,[None,10]) cross_entropy = -tf.reduce_sum(pred_y*tf.log(y)) train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy) init = tf.initialize_all_variables() correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1)) accuracy = tf.reduce_mean(tf.cast(correct_prediction,"foat")) return pred_y
あなたの回答
tips
プレビュー