質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

88.81%

オライリー・ジャパンの「ゼロから作る Deep Learning」という本についての質問です。

受付中

回答 0

投稿 編集

  • 評価
  • クリップ 0
  • VIEW 636

HideyukiEda

score 11

オライリー・ジャパンの「ゼロから作る Deep Learning」という本についての質問です。

疑問は、p.114の以下のコードについてです。

import sys, os
sys.path.append(os.pardir)
from common.functions import *
from common.gradient import numerical_gradient

class TwoLayerNet:

    def __init__(self, input_size, hidden_size, output_size, weight_init_std = 0.01):
        """
            input_size・・入力層の数
            hidden_size・・中間層の数
            output_size・・出力層の数
            weight_init_std
        """

        #重みの初期化
        self.params = {}
        self.params['W1'] = weight_init_std * np.random.randn(input_size, hidden_size)
        self.params['b1'] = np.zeros(hidden_size)
        self.params['W2'] = weight_init_std * np.random.randn(hidden_size, output_size)
        self.params['b2'] = np.zeros(output_size)


    def predict(self, x):
        """
            入力値をもとに予測をする
        """

        W1, W2 = self.params['W1'], self.params['W2']
        b1, b2 = self.params['b1'], self.params['b2']

        a1 = np.dot(x, W1) + b1
        z1 = sigmoid(a1)
        a2 = np.dot(z1, W2) +  b2
        y = softmax(a2)
        return y


    def loss(self, x, t):
        """
            損失関数・・どれぐらい教師データと値が違うかを求める 返り値が大きいほど合っていない
            x・・入力データ
            t・・教師データ
        """
        y = self.predict(x)
        return cross_entropy_error(y, t)


    def accuracy(self, x, t):
        """
            返り値・・0から1の値 大きいほど入力データからの予測値と、教師データの値が一致している
        """
        y = self.predict(x)
        y = np.argmax(y, axis=1)
        t = np.argmax(t, axis=1)

        accuracy = np.sum(y == t) / float(x.shape[0])
        return accuracy


    def numerical_gradient(self, x, t):
        """
            重みパラメータに対する勾配を求める
            x・・入力データ
            t・・教師データ
            grads・・勾配を保持するディクショナリ変数
        """
        loss_W = lambda W: self.loss(x, t)   #loss_Wはloss関数と等しい
        grads = {}
        grads['W1'] = numerical_gradient(loss_W, self.params['W1'])
        grads['b1'] = numerical_gradient(loss_W, self.params['b1'])
        grads['W2'] = numerical_gradient(loss_W, self.params['W2'])
        grads['b2'] = numerical_gradient(loss_W, self.params['b2'])
        return grads


上記のnumerical_gradientの部分で
loss_W = lambda W: self.loss(x, t)
について、引数としてWを設定している意味が理解できておりません。Wはself.loss(x,t)の中のどの部分に使われているのでしょうか。

初心者的質問で恐縮ですが、どうぞ宜しくお願いします。。

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

質問への追記・修正の依頼

  • Q71

    2019/06/11 22:21

    プログラムコードは ``` と ``` の行で囲ってください。Python は、インデントに意味を用います。インデントを崩さないでください。

    キャンセル

  • quickquip

    2019/06/11 22:42

    p111からp112にかけて書いてあると思いますが

    キャンセル

  • HideyukiEda

    2019/06/11 22:59

    Wを引数にすると、loss関数を計算する際のself.Wが更新されて、Wに対する微分が計算されているという理解で良いのでしょうか?

    キャンセル

  • Q71

    2019/06/13 22:45

    下の方のnumerical_gradient は、from import で持ってくるところが呼ばれるようです。そちらの関数で第1引数がどの様に使われているか、の様に思います。

    キャンセル

まだ回答がついていません

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 88.81%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る