質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

88.91%

TFの線形問題で、パラメータの挙動について理解したい

解決済

回答 1

投稿 編集

  • 評価
  • クリップ 0
  • VIEW 884
退会済みユーザー

退会済みユーザー

現在、tensorflowの勉強を進めており、一通りのコードの作法(session, runの役割など)等は学んだので、より深くステップごとに関数(及びメソッド)がどういう役割を果たしているかを見ていくことにしました。

今回質問させていただきたいのは以下のような線形問題です。

import tensorflow as tf
import numpy as np


# 乱数を生成。(あとで代入する)
np.random.seed(1337)
xdata = np.linspace(-1, 1, 1000)
ydata = 2 * xdata + 0.3 * np.random.randn(1000)


# グラフを作成
with tf.Graph().as_default() as Linearregression:
    with tf.name_scope('multiplication') as scope:
        w = tf.Variable(0.1, name="w")
        x = tf.placeholder("float", name="x") #実際のデータを入れる変数をtf.placeholderで宣言
        y = tf.placeholder("float", name="y")
        ymodel = tf.multiply(x, w, name="multiplication")

    # プロセスを作成
    with tf.name_scope('objective') as scope:
        objective = tf.reduce_mean(tf.square(y - ymodel), name="objective") #平均
    with tf.name_scope('optimizer') as scope:
        optimizer = tf.train.GradientDescentOptimizer(0.5) #勾配降下法で最適化する。引数は学習率
        training = optimizer.minimize(objective)

    # 実行
    with tf.Session() as sess:
        sess.run(tf.global_variables_initializer())

        for i in range(50):
            sess.run(training, feed_dict={x: xdata, y: ydata})
            obj, w_ = sess.run([objective, w], feed_dict={x: xdata, y: ydata})
            print("objective: %f, Gradient: %f" % (obj, w_))


        # evaluation
        w1 = sess.run(w)
        w2 = sum(ydata * xdata) / sum(xdata**2)  # analytic solution
        print("Fitted value: %f" % w1)
        print("Analytic solution: %f" % w2)
        tf.summary.FileWriter('./Linearregression', sess.graph)

この出力は以下のようになっています。

objective: 0.620617, Gradient: 0.734022
objective: 0.323566, Gradient: 1.156280
objective: 0.191808, Gradient: 1.437504
objective: 0.133365, Gradient: 1.624798
objective: 0.107443, Gradient: 1.749537
objective: 0.095945, Gradient: 1.832612
objective: 0.090845, Gradient: 1.887940
objective: 0.088583, Gradient: 1.924789
objective: 0.087580, Gradient: 1.949330
objective: 0.087135, Gradient: 1.965674
objective: 0.086937, Gradient: 1.976560
objective: 0.086850, Gradient: 1.983809
objective: 0.086811, Gradient: 1.988638
objective: 0.086794, Gradient: 1.991853
objective: 0.086786, Gradient: 1.993995
objective: 0.086783, Gradient: 1.995421
objective: 0.086781, Gradient: 1.996371
objective: 0.086780, Gradient: 1.997004
objective: 0.086780, Gradient: 1.997425
objective: 0.086780, Gradient: 1.997706
objective: 0.086780, Gradient: 1.997893
objective: 0.086780, Gradient: 1.998017
objective: 0.086780, Gradient: 1.998100
objective: 0.086780, Gradient: 1.998155
objective: 0.086780, Gradient: 1.998192
objective: 0.086780, Gradient: 1.998216
objective: 0.086780, Gradient: 1.998233
objective: 0.086780, Gradient: 1.998244
objective: 0.086780, Gradient: 1.998251
objective: 0.086780, Gradient: 1.998256
objective: 0.086780, Gradient: 1.998259
objective: 0.086780, Gradient: 1.998261
objective: 0.086780, Gradient: 1.998262
objective: 0.086780, Gradient: 1.998263
objective: 0.086780, Gradient: 1.998264
objective: 0.086780, Gradient: 1.998264
objective: 0.086780, Gradient: 1.998265
objective: 0.086780, Gradient: 1.998265
objective: 0.086780, Gradient: 1.998265
objective: 0.086780, Gradient: 1.998265
objective: 0.086780, Gradient: 1.998265
objective: 0.086780, Gradient: 1.998265
objective: 0.086780, Gradient: 1.998265
objective: 0.086780, Gradient: 1.998265
objective: 0.086780, Gradient: 1.998265
objective: 0.086780, Gradient: 1.998265
objective: 0.086780, Gradient: 1.998265
objective: 0.086780, Gradient: 1.998265
objective: 0.086780, Gradient: 1.998265
objective: 0.086780, Gradient: 1.998265
Fitted value: 1.998265
Analytic solution: 1.998265


私の理解が正しければ、1ステップでやっていることは、以下のようにまとめられると思います。

  1. すべての変数を初期化: sess.run(tf.global_variables_initializer())
  2. xdataydata の値をすべて xyに入れる.
  3. xwの積を取ってymodel = wxを計算: ymodel = tf.multiply(x, w, name="multiplication")
  4. ymodelyの関係からobjective(損失関数を計算)を計算: objective = tf.reduce_mean(tf.square(y - ymodel), name="objective")
  5. 損失関数が最小となるような(W,b)の組をGradient Decentによって見つける。optimizer.minimize(objective)
  6. objectiveを出力する。(実際はsess.runの実行後に実際の値を計算することで値が出て、それを出力している。)

ただ、2ステップ以降で、wがどのように最適化されて行くのかがわかりません。xとwの積を取ったあと、ymodelとydataを比較して最適化していくのでしょうが、wはここでどのように関わってくるのでしょうか?

以上何卒よろしくお願い申し上げます。

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

check解決した方法

0

正しい手順は以下の通りだとわかりました。

  1. すべての変数を初期化: sess.run(tf.global_variables_initializer())
  2. xdataydata の値をすべて xyに入れる。(xyはテンソルなので、1000個のデータを運べる.)
  3. xwの積を取ってymodelを計算: ymodel = tf.multiply(x, w, name="multiplication")
  4. ymodelyの関係からobjective(損失関数を計算)を計算: objective = tf.reduce_mean(tf.square(y - ymodel), name="objective")
  5. 損失関数が最小となるようなwをGradient Decentによって見つける:optimizer.minimize(objective) このときobjectiveを最小にするような$w$を見つけることになり、最適化後に$w$が一意に決まる。
  6. この後、5.で定まった$w$とobjective(これは4の途中で計算されたもの)を出力する。(実際はsess.runの実行後に実際の値を計算することで値が出て、それを出力している。)

特に上の5.で、「損失関数を最小にすることで、そのようなwを見つける」という手順を見落としておりました。このおかげでwを一意に決め、計算が進みます。これ以降のステップでは、この値を用いてx*wの計算を繰り返し、wを探し・・・を繰り返します。

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 88.91%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る