sess.runとtrain_step.runの違いについて
解決済
回答 1
投稿
- 評価
- クリップ 0
- VIEW 3,592

退会済みユーザー
sess.runとtrain_step.runの違いがわかりません。
Tensorflowのチュートリアルをやっています。
https://www.tensorflow.org/get_started/mnist/beginners
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)
correct_prediction = tf.equal(tf.argmax(y_conv,1),tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
sess.run(tf.global_variables_initializer())
for i in range(20000):
batch = mnist.train.next_batch(50)
if i%100 == 0:
train_accuracy = accuracy.eval(feed_dict={x:batch[0],y_:batch[1],keep_prob:1.0})
print("step %d, training accuracy %g"%(i,train_accuracy))
train_step.run(feed_dict={x:batch[0],y_:batch[1],keep_prob:0.5})
print("test accuracy %g"%accuracy.eval(feed_dict={x: mnist.test.images, y_:mnist.test.labels, keep_prob: 1.0}))
というコードが最後のほうに出てきました。
その中で、
sess.run(tf.global_variables_initializer())
と
train_step.run(feed_dict={x:batch[0],y_:batch[1],keep_prob:0.5})
と2回runしている理由がわかりません。
なぜ2回もrunしているのでしょうか?
-
気になる質問をクリップする
クリップした質問は、後からいつでもマイページで確認できます。
またクリップした質問に回答があった際、通知やメールを受け取ることができます。
クリップを取り消します
-
良い質問の評価を上げる
以下のような質問は評価を上げましょう
- 質問内容が明確
- 自分も答えを知りたい
- 質問者以外のユーザにも役立つ
評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。
質問の評価を上げたことを取り消します
-
評価を下げられる数の上限に達しました
評価を下げることができません
- 1日5回まで評価を下げられます
- 1日に1ユーザに対して2回まで評価を下げられます
質問の評価を下げる
teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。
- プログラミングに関係のない質問
- やってほしいことだけを記載した丸投げの質問
- 問題・課題が含まれていない質問
- 意図的に内容が抹消された質問
- 過去に投稿した質問と同じ内容の質問
- 広告と受け取られるような投稿
評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。
質問の評価を下げたことを取り消します
この機能は開放されていません
評価を下げる条件を満たしてません
質問の評価を下げる機能の利用条件
この機能を利用するためには、以下の事項を行う必要があります。
- 質問回答など一定の行動
-
メールアドレスの認証
メールアドレスの認証
-
質問評価に関するヘルプページの閲覧
質問評価に関するヘルプページの閲覧
checkベストアンサー
+2
tensorflowでは基本的にrunしないとグラフが実行されません。
この仕様にdefine-and-runという名前が与えられています。
いろいろ定義して書かれているのは、どのような手続きで計算してほしいか、ということになっています。
そして、それらの手続きを実行した結果を知りたい時にそのたびにrunをします。
もっと基礎的なことが書かれた投稿です。
https://qiita.com/rindai87/items/4b6f985c0583772a2e21
ですので、何度runしても不思議ではないということです。
ただ、今回の場合に限っていうと、最初のrunはグラフ内の変数を初期化しています。
これを行わないと、以後初めて定義した変数を使用した際にエラーが出ます。
そして2つ目のrunはループの中に入っており、ループのたびにバックプロパゲーションが実行されてモデルの学習が行われます。
このような仕様はtensorflow特有のものです。
これが少々わかりにくいかもしれないということで、chainerのようなdefine-by-runのフレームワークもございます。
http://s0sem0y.hatenablog.com/entry/2017/01/14/060758
https://www.slideshare.net/unnonouno/chainer-59664785
そしてtensorflowにもdefine-by-runの機能が最新版で追加されました。
http://nonbiri-tereka.hatenablog.com/entry/2017/11/06/081037
変数を宣言して初期化せずにエラーを出すのは普通に考えたら余計なエラーのように感じるのが自然な考えです。
そのため、tensorflowの上位ラッパーであるKerasではそのような不自然なコードを書く必要がありません。
ライブラリの方で、こまごまとしたことを全部やってくれます。
例えば、MNISTの学習のコードは次のようになります。
https://github.com/keras-team/keras/blob/master/examples/mnist_cnn.py
具体的にどのような係数が定義されて、どのように重みが更新されているのかを直に触れるのがtensorflowです。
カスタマイズ性を追求した結果、いろいろと面倒なことが多いです。
投稿
-
回答の評価を上げる
以下のような回答は評価を上げましょう
- 正しい回答
- わかりやすい回答
- ためになる回答
評価が高い回答ほどページの上位に表示されます。
-
回答の評価を下げる
下記のような回答は推奨されていません。
- 間違っている回答
- 質問の回答になっていない投稿
- スパムや攻撃的な表現を用いた投稿
評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。
15分調べてもわからないことは、teratailで質問しよう!
- ただいまの回答率 88.33%
- 質問をまとめることで、思考を整理して素早く解決
- テンプレート機能で、簡単に質問をまとめられる