質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

89.69%

Tensorflowで異なるセッションでのrestoreして値の復元する際に、uninitializedと初期化しているのに表示される

受付中

回答 2

投稿 編集

  • 評価
  • クリップ 0
  • VIEW 2,842

zakio49

score 27

savar.save()で保存した値を異なるセッションでrestore()する際に初期化しているにも関わらず初期化されていない(uninitialize)とエラーが表示される。

45個のデータを学習して、restoreを行って新しいsessionの中で1個分の実践データを吐き出すプログラムを作っています。

エラーコード

FailedPreconditionError (see above for traceback): Attempting to use uninitialized value hidden1_1/hidden1_bias
         [[Node: hidden1_1/hidden1_bias/read = Identity[T=DT_FLOAT, _class=["loc:@hidden1_1/hidden1_bias"], _device="/job:localhost/replica:0/task:0/cpu:0"](hidden1_1/hidden1_bias)]]

プログラムのフロー

1,session1の中で学習時の重み・バイアスをsavar.save()を使ってckptファイルを作りdiskに保存する。
※model.ckpt.metaファイルを見ても変数名は書かれているものの、重み・バイアスの値は書かれておらず、diskに保存されている→ckpt.metaファイルをもとに後ろで動いているC++で復元しているのか(脱線)
→それで納得する。
tf.train.Saver
2,session2の中で新しく、output2 = inference(score_placeholder)を定義する。
※1新たに定義するのはsession2の入力データが1セットのみのデータなので、正規化する式をif~elseで避けているためです。
※2inference()はデータを入力層―隠れ層―出力層を通して予想値を計算する関数
※3print()関数はpythonで実行されるも、th.l2_nomalize,malmulなどはsession(run)でC++に渡されて実行される。
3,output2に含まれる(output_bias,output_weight,hidden_bias,hidden_weight)の値がuninitializeの状態?
※ここの値はまだrestoreしていないので、形式?だけは入っている状態(これがいけないってこと?)
→ここの理解が不足している、run and designの形式とう学ぶ必要あり。

def inference(score_placeholder):
  with tf.name_scope('hidden1') as scope:
    hidden1_weight = tf.Variable(tf.truncated_normal([SCORE_SIZE, HIDDEN_UNIT_SIZE], stddev=0.01), name="hidden1_weight")
    hidden1_bias = tf.Variable(tf.constant(0.1, shape=[HIDDEN_UNIT_SIZE]), name="hidden1_bias")
    hidden1_output = tf.nn.relu(tf.matmul(score_placeholder, hidden1_weight) + hidden1_bias)
  with tf.name_scope('output') as scope:
    output_weight = tf.Variable(tf.truncated_normal([HIDDEN_UNIT_SIZE, 1], stddev=0.01), name="output_weight")
    output_bias = tf.Variable(tf.constant(0.1, shape=[1]), name="output_bias")
    output = tf.matmul(hidden1_output, output_weight) + output_bias
    if TACK == 1:
        print("saku1")
        return output
    else :
        print("saku2")
        return tf.nn.l2_normalize(output, 0)


4,resotreを用いて重み・バイアスがsession1の状態が復元→variableの値が10000回学習した後の値になる)
5,best_match2 = sess2.run(output3, feed_dict={score_placeholder:[test2]})を実行すれば、復元した重み・バイアスで出力されるはずだとおもうのですが・・・そうならない。

という状態です。

思い当たることは

また別の問題として、
・そもそもinitializeをsessionの最初に書いても、初期化するvariableがないのに何でするのかという疑問があります。
・sessionで関数は実行されているのをみるとsessionの役割はtf.~がつくものの計算が思いから後ろで動いているC++に渡している認識で間違っていないか知りたいです。

何度もお手間を取らせてしまっていますがよろしくお願い致します。

def inference(score_placeholder):
  with tf.name_scope('hidden1') as scope:
    hidden1_weight = tf.Variable(tf.truncated_normal([SCORE_SIZE, HIDDEN_UNIT_SIZE], stddev=0.01), name="hidden1_weight")
    hidden1_bias = tf.Variable(tf.constant(0.1, shape=[HIDDEN_UNIT_SIZE]), name="hidden1_bias")
    hidden1_output = tf.nn.relu(tf.matmul(score_placeholder, hidden1_weight) + hidden1_bias)
  with tf.name_scope('output') as scope:
    output_weight = tf.Variable(tf.truncated_normal([HIDDEN_UNIT_SIZE, 1], stddev=0.01), name="output_weight")
    output_bias = tf.Variable(tf.constant(0.1, shape=[1]), name="output_bias")
    output = tf.matmul(hidden1_output, output_weight) + output_bias
    if TACK == 1:
        print("saku1")
        return output
    else :
        print("saku2")
        return tf.nn.l2_normalize(output, 0)

variable()に保存されている値を異なるセッションで、restoreする際に
output_bias,output_weight,hidden_bias,hidden_weightの値が初期化されていない旨のエラーが発生してしましました。

1、session

入力層ー隠れ層ー出力層で構成されるNN
inference関数の引数になる実践データが予測値を吐き出す認識

def inference(score_placeholder):
  with tf.name_scope('hidden1') as scope:
    hidden1_weight = tf.Variable(tf.truncated_normal([SCORE_SIZE, HIDDEN_UNIT_SIZE], stddev=0.01), name="hidden1_weight")
    hidden1_bias = tf.Variable(tf.constant(0.1, shape=[HIDDEN_UNIT_SIZE]), name="hidden1_bias")
    hidden1_output = tf.nn.relu(tf.matmul(score_placeholder, hidden1_weight) + hidden1_bias)
  with tf.name_scope('output') as scope:
    output_weight = tf.Variable(tf.truncated_normal([HIDDEN_UNIT_SIZE, 1], stddev=0.01), name="output_weight")
    output_bias = tf.Variable(tf.constant(0.1, shape=[1]), name="output_bias")
    output = tf.matmul(hidden1_output, output_weight) + output_bias
    if TACK == 1:
        print("saku1")
        return output
    else :
        print("saku2")
        return tf.nn.l2_normalize(output, 0)
 with tf.Session() as sess2

  saver=tf.train.Saver()
    saver.save(sess,cwd+'/model.ckpt')
 with tf.Session() as sess2
FailedPreconditionError (see above for traceback): Attempting to use uninitialized value output_1/output_bias

one_data.csv

0.71428573,  0.85714287,  0.71428573,  0.5714286 ,  0.5714286 ,0.71428573,  0.5714286 ,  0.71428573,  0.71428573,  0.71428573,0.5714286 ,  0.71428573

ソースコード

import tensorflow as tf
import numpy
import os

cwd = os.getcwd()

SCORE_SIZE = 12
HIDDEN_UNIT_SIZE = 40
TRAIN_DATA_SIZE = 45
TACK = 0
raw_input = numpy.loadtxt(open("test.csv"), delimiter=",")
[tensor, score]  = numpy.hsplit(raw_input, [1])
[tensor_train, tensor_test] = numpy.vsplit(tensor, [TRAIN_DATA_SIZE])
[score_train, score_test] = numpy.vsplit(score, [TRAIN_DATA_SIZE])
#tensorは正解データtrainは学習モデル、scoreは学習データ、testは実データ

def inference(score_placeholder):
  with tf.name_scope('hidden1') as scope:
    hidden1_weight = tf.Variable(tf.truncated_normal([SCORE_SIZE, HIDDEN_UNIT_SIZE], stddev=0.01), name="hidden1_weight")
    hidden1_bias = tf.Variable(tf.constant(0.1, shape=[HIDDEN_UNIT_SIZE]), name="hidden1_bias")
    hidden1_output = tf.nn.relu(tf.matmul(score_placeholder, hidden1_weight) + hidden1_bias)
  with tf.name_scope('output') as scope:
    output_weight = tf.Variable(tf.truncated_normal([HIDDEN_UNIT_SIZE, 1], stddev=0.01), name="output_weight")
    output_bias = tf.Variable(tf.constant(0.1, shape=[1]), name="output_bias")
    output = tf.matmul(hidden1_output, output_weight) + output_bias
    if TACK == 1:
        print("saku1")
        return output
    else :
        print("saku2")
        return tf.nn.l2_normalize(output, 0)

def loss(output, tensor_placeholder, loss_label_placeholder):
  with tf.name_scope('loss') as scope:
    loss = tf.nn.l2_loss(output - tf.nn.l2_normalize(tensor_placeholder, 0))
    tf.summary.scalar('loss_label_placeholder', loss)
  return loss

def training(loss):
  with tf.name_scope('training') as scope:
    train_step = tf.train.GradientDescentOptimizer(0.01).minimize(loss)
  return train_step



with tf.Graph().as_default():
  tensor_placeholder = tf.placeholder(tf.float32, [None, 1], name="tensor_placeholder")
  score_placeholder = tf.placeholder(tf.float32, [None, SCORE_SIZE], name="score_placeholder")
  loss_label_placeholder = tf.placeholder("string", name="loss_label_placeholder")

  feed_dict_train={
    tensor_placeholder: tensor_train,
    score_placeholder: score_train,
    loss_label_placeholder: "loss_train"
  }

  feed_dict_test={
    tensor_placeholder: tensor_test,
    score_placeholder: score_test,
    loss_label_placeholder: "loss_test"
  }

  output = inference(score_placeholder)
  loss = loss(output, tensor_placeholder, loss_label_placeholder)
  training_op = training(loss)
  summary_op =  tf.summary.merge_all()
  init = tf.global_variables_initializer()
  best_loss = float("inf")

  with tf.Session() as sess:
    summary_writer = tf.summary.FileWriter('data', graph_def=sess.graph_def)
    sess.run(init)
    for step in range(3000):
      sess.run(training_op, feed_dict=feed_dict_train)
      loss_test = sess.run(loss, feed_dict=feed_dict_test)
      if loss_test < best_loss:
        best_loss = loss_test
        best_match = sess.run(output, feed_dict=feed_dict_test)
      if step % 100 == 0:
        summary_str = sess.run(summary_op, feed_dict=feed_dict_test)
        summary_str += sess.run(summary_op, feed_dict=feed_dict_train)
        summary_writer.add_summary(summary_str, step)
    saver=tf.train.Saver()
    saver.save(sess,cwd+'/model.ckpt')
    print(cwd)
    print(best_match)
    print('Saved a model.')
    sess.close()

  with tf.Session() as sess2:
    #summary_writer = tf.summary.FileWriter('data2', graph=sess2.graph_def)
    sess2.run(init)

    TACK = 1
    saver = tf.train.Saver()
    saver.restore(sess2,cwd + "/model.ckpt")
    output3 = inference(score_placeholder)
    test2 = numpy.loadtxt(open("one_data.csv"), delimiter=",").astype(numpy.float32)
    best_match2 = sess2.run(output3, feed_dict={score_placeholder:[test2]})
    summary_str = sess2.run(summary_op, feed_dict=feed_dict_test)
    print(best_match2)
    print("fin")
    sess2.close()
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 2

0

使っているtest.csv(一部)です|スレッドを見づらくして申し訳ないです。

0.571428571,0.571428571,0.714285714,0.285714286,0.571428571,0.571428571,0.571428571,0.571428571,0.428571429,0.571428571,0.571428571,0.571428571,0.571428571
0.571428571,0.285714286,0.714285714,0.857142857,0.714285714,0.285714286,0.571428571,0.428571429,0.857142857,0.714285714,0.285714286,0.285714286,1
0.285714286,1,1,1,0.571428571,0.571428571,0.571428571,0.857142857,0.857142857,0.285714286,0.571428571,0.571428571,0.571428571
0.428571429,0.857142857,0.714285714,1,0.571428571,0.428571429,0.714285714,0.571428571,0.714285714,0.571428571,0.571428571,0.857142857,0.571428571
0.571428571,0.857142857,0.714285714,0.857142857,0.714285714,0.428571429,0.714285714,0.714285714,0.571428571,0.571428571,0.714285714,0.857142857,0.857142857
0.571428571,0.714285714,0.857142857,1,0.571428571,0.571428571,0.571428571,0.714285714,0.857142857,0.714285714,0.428571429,0.571428571,0.714285714
0.714285714,0.571428571,0.714285714,0.857142857,0.714285714,0.428571429,0.571428571,0.714285714,0.714285714,0.714285714,0.285714286,0.571428571,0.714285714
0.857142857,0.857142857,0.857142857,1,0.571428571,0.571428571,0.857142857,0.857142857,0.714285714,0.857142857,0.714285714,0.714285714,0.857142857
0.285714286,0.571428571,0.571428571,0.428571429,0.571428571,0.571428571,0.571428571,0.571428571,0.571428571,0.571428571,0.571428571,0.571428571,0.285714286
0.571428571,0.714285714,0.857142857,0.714285714,0.571428571,0.571428571,0.714285714,0.571428571,0.714285714,0.714285714,0.714285714,0.571428571,0.714285714
0.428571429,0.285714286,0.714285714,0.857142857,0.428571429,0.285714286,0.428571429,0.142857143,0.714285714,0.428571429,0.428571429,0.428571429,0.714285714

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

0

import tensorflow as tf
import numpy
import os

cwd = os.getcwd()

SCORE_SIZE = 12
HIDDEN_UNIT_SIZE = 40
TRAIN_DATA_SIZE = 45
TACK = 0
raw_input = numpy.loadtxt(open("test.csv"), delimiter=",")
[tensor, score]  = numpy.hsplit(raw_input, [1])
[tensor_train, tensor_test] = numpy.vsplit(tensor, [TRAIN_DATA_SIZE])
[score_train, score_test] = numpy.vsplit(score, [TRAIN_DATA_SIZE])
#tensorは正解データtrainは学習モデル、scoreは学習データ、testは実データ

def define_variable():
    with tf.name_scope('hidden1') as scope:
        hidden1_weight = tf.Variable(tf.truncated_normal([SCORE_SIZE, HIDDEN_UNIT_SIZE], stddev=0.01), name="hidden1_weight")
        hidden1_bias = tf.Variable(tf.constant(0.1, shape=[HIDDEN_UNIT_SIZE]), name="hidden1_bias")
    with tf.name_scope('output') as scope:
        output_weight = tf.Variable(tf.truncated_normal([HIDDEN_UNIT_SIZE, 1], stddev=0.01), name="output_weight")
        output_bias = tf.Variable(tf.constant(0.1, shape=[1]), name="output_bias")
    return hidden1_weight, hidden1_bias, output_weight, output_bias

def inference(score_placeholder):
  with tf.name_scope('hidden1') as scope:
    hidden1_output = tf.nn.relu(tf.matmul(score_placeholder, hidden1_weight) + hidden1_bias)
  with tf.name_scope('output') as scope:
    output = tf.matmul(hidden1_output, output_weight) + output_bias
    if TACK == 1:
        print("saku1")
        return output
    else :
        print("saku2")
        return tf.nn.l2_normalize(output, 0)

def loss(output, tensor_placeholder, loss_label_placeholder):
  with tf.name_scope('loss') as scope:
    loss = tf.nn.l2_loss(output - tf.nn.l2_normalize(tensor_placeholder, 0))
    tf.summary.scalar('loss_label_placeholder', loss)
  return loss

def training(loss):
  with tf.name_scope('training') as scope:
    train_step = tf.train.GradientDescentOptimizer(0.01).minimize(loss)
  return train_step


with tf.Graph().as_default():
  hidden1_weight, hidden1_bias, output_weight, output_bias = define_variable()
  tensor_placeholder = tf.placeholder(tf.float32, [None, 1], name="tensor_placeholder")
  score_placeholder = tf.placeholder(tf.float32, [None, SCORE_SIZE], name="score_placeholder")
  loss_label_placeholder = tf.placeholder("string", name="loss_label_placeholder")

  feed_dict_train={
    tensor_placeholder: tensor_train,
    score_placeholder: score_train,
    loss_label_placeholder: "loss_train"
  }

  feed_dict_test={
    tensor_placeholder: tensor_test,
    score_placeholder: score_test,
    loss_label_placeholder: "loss_test"
  }

  output = inference(score_placeholder)
  loss = loss(output, tensor_placeholder, loss_label_placeholder)
  training_op = training(loss)
  summary_op =  tf.summary.merge_all()
  init = tf.global_variables_initializer()
  best_loss = float("inf")

  with tf.Session() as sess:
    summary_writer = tf.summary.FileWriter('data', graph_def=sess.graph_def)
    sess.run(init)
    for step in range(3000):
      sess.run(training_op, feed_dict=feed_dict_train)
      loss_test = sess.run(loss, feed_dict=feed_dict_test)
      if loss_test < best_loss:
        best_loss = loss_test
        best_match = sess.run(output, feed_dict=feed_dict_test)
      if step % 100 == 0:
        summary_str = sess.run(summary_op, feed_dict=feed_dict_test)
        summary_str += sess.run(summary_op, feed_dict=feed_dict_train)
        summary_writer.add_summary(summary_str, step)
    saver=tf.train.Saver()
    saver.save(sess,cwd+'/model.ckpt')
    print(cwd)
    print(best_match)
    print('Saved a model.')
    sess.close()

  with tf.Session() as sess2:
    #summary_writer = tf.summary.FileWriter('data2', graph=sess2.graph_def)
    TACK = 1
    output3 = inference(score_placeholder)
    sess2.run(init)

    saver = tf.train.Saver()
    saver.restore(sess2,cwd + "/model.ckpt")
    test2 = numpy.loadtxt(open("one_data.csv"), delimiter=",").astype(numpy.float32)
    best_match2 = sess2.run(output3, feed_dict={score_placeholder:[test2]})
    summary_str = sess2.run(summary_op, feed_dict=feed_dict_test)
    print(best_match2)
    print("fin")
    sess2.close()

inference()の中で hidden_bias と output_biasをprintすると以下のようになります。

<tf.Variable 'hidden1/hidden1_bias:0' shape=(40,) dtype=float32_ref>
<tf.Variable 'output/output_bias:0' shape=(1,) dtype=float32_ref>
saku2

<tf.Variable 'hidden1_1/hidden1_bias:0' shape=(40,) dtype=float32_ref>
<tf.Variable 'output_1/output_bias:0' shape=(1,) dtype=float32_ref>

hidden1, と hidden1_1、outputと output1_1 と違うnamesopeの変数になっています。したがって、
hidden1/hidden_biasは restoreによって初期化されますが、 hidden1_1/hidden_bias は初期化されていません。

variable の宣言は一回にまとめるようにすると良いでしょう。
もともと、このプログラムが学習→保存と、読込→実行が別のスクリプトであれば起きない問題ではあります。

しかし、Tensorflow は Define and Run でテンソルの演算を行います。計算グラフの定義と実行を別々に行うモデルです。このプログラムが、計算グラフの定義と実行をごちゃごちゃにしているので、わかりにくくなっていると思います。

ディープラーニングの計算を普通のプログラムと同じように書きたいのでしたら PyTorch みたいな Define by Runのライブラリが良いかもしれません。あるいは、Kerasのようなライブラリだと Define and Run を強制させられるので、そのあたりのつまづきは少ないです。

私はディープラーニング初心者の方には TensorFlowより Kerasを勧めます。

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 89.69%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる
  • トップ
  • Pythonに関する質問
  • Tensorflowで異なるセッションでのrestoreして値の復元する際に、uninitializedと初期化しているのに表示される