前提・実現したいこと
詳解ディープラーニングという本でただ今プログラミングを勉強しております。
tensorflowを利用したsin波の予測をするコードを組みたいと思っております。
発生している問題・エラーメッセージ
n_in=len(X[0][0]) # 1
n_hidden=20
n_out=len(Y[0]) # 1
x=tf.placeholder(tf.float32,shape=[None,maxlen,n_in])
t=tf.placeholder(tf.float32,shape=[None,n_out])
n_batch=tf.placeholder(tf.int32)
y=inference(x,n_batch,maxlen=maxlen,n_hidden=n_hidden,n_out=n_out)
loss=loss(y,t)
train_step=training(loss)
epochs=500 batch_size=10 init=tf.global_variables_initializer() sess=tf.Session() sess.run(init) n_batches=N_train//batch_size for epoch in range(epochs): X_,Y_=shuffle(X_train,Y_train) for i in range(n_batches): start=i*batch_size end=start+batch_size sess.run(train_step,feed_dict={ x:X_[start:end], t:Y_[start:end], n_batch:batch_size }) #検証データを用いた評価 val_loss=loss.eval(session=sess,feed_dict={ x:X_validation, t:Y_validation, n_batch:N_validation }) history['val_loss'].append(val_loss) print('epoch:',epoch, 'validation loss:',val_loss) #Early Stoppingチェック if early_stopping.validate(val_loss): break エラーメッセージ ```NameError: name 'X' is not defined NameError: name 'tf' is not defined ### 該当のソースコード ```ここに言語名を入力 def inference(x,n_batch,maxlen=None,n_hidden=None,n_out=None): def weight_varidation(shape): initial=tf.avriable(initial) def bias_validation(shape): initial=tf.zeros(shape,dtype=tf.float32) return tf.variable(initial) cell=tf.contrib.rnn.BasicRNNCell(n_hidden) initial_state=cell.zero_state(n_batch,tf.floar32) state=initial_state outputs=[]#隠れ層の出力を保存 with tf.variable_scope('RNN'): for t in range(maxlen): if t>0: tf.get_variable_scope().reuse_variables() (cell_output,state)=cell(x[:,t,:],state) outputs.append(cell_output) output=outputs[-1] v=weight_variable([n_hidden,n_out]) c=bias_variable([n_out]) y=tf.matmul(otput,V)+c #線形活性 return y def loss(y,t): mse=tf.reduce_mean(tf.square(y-t)) return mse def training(loss): optimizer=\ tf.train.Adamoptimizer(learning_rate=0.001,beta1=0.9,beta2=0.999) train_step=optimizer.minimize(loss) return train_step n_in=len(X[0][0]) n_hidden=20 n_out=len(Y[0]) x=tf.placeholder(tf.float32,shape=[None,maxlen,n_in]) t=tf.placeholder(tf.float32,shape=[None,n_out]) n_batch=tf.placeholder(tf.int32) y=inference(x,n_batch,maxlen=maxlen,n_hidden=n_hidden,n_out=n_out) loss=loss(y,t) train_step=training(loss)
試したこと
定義をするためにdefを使うのかと思って調べてみたのですが、プログラミングを始めた自分にとってどの様に定義すればいいのかすらも分からずに困っています
補足情報(FW/ツールのバージョンなど)
python3.6
windows
ここにより詳細な情報を記載してください。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2019/09/13 08:28 編集