セッションに紐づいている変数をチェックポイントとして保存する必要性がわかりません。
現在本を読んでTensorflowの勉強をしています。
saver = tf.train.Saver(tf.all_variables()) with tf.Session() as sess: less.run(tf.initialize_all_variables()) total_duration = 0 for epoch in range(1,FLAGS.epoch +1): tf.train.SummaryWriter(FLAGS.checkpoint_dir,sess.graph) saver.save(sees,FLAGS.checkpoint_dir,global_step=epoch)
という記述があって、学習してもセッションが終わるとパラメーターが消える、と書かれているのですが、
なぜこの記述を書かなくても今まで学習させ精度を上げることができたのでしょうか?
セッションに紐づいている変数をチェックポイントとして保存する必要性はどういうことろにあるのでしょうか?
どんな本を読んでいるのでしょうか?
TensorFlowはじめましたhttps://www.amazon.co.jp/TensorFlowはじめました-実践!最新Googleマシンラーニング-NextPublishing-有山-圭二-ebook/dp/B01IT509EYです。
回答1件
あなたの回答
tips
プレビュー