質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

88.77%

ゼロから学ぶDeepLearning 4章のコードについての質問

解決済

回答 1

投稿

  • 評価
  • クリップ 1
  • VIEW 461

masmic

score 1

前提・実現したいこと

現在ゼロから学ぶDeepLearningを使用して勉強しています。
その中で、第四章の二層のネットワーク作成で理解できないことがあります。
(過去別の方が質問した際の回答の一部に、さらに質問したいという内容になります。) 

二層のネットワークのコード

import sys, os
sys.path.append(os.pardir)
from common.functions import *
from common.gradient import numerical_gradient

class TwoLayerNet:

    def __init__(self, input_size, hidden_size, output_size, weight_init_std = 0.01):
        """
            input_size・・入力層の数
            hidden_size・・中間層の数
            output_size・・出力層の数
            weight_init_std
        """

        #重みの初期化
        self.params = {}
        self.params['W1'] = weight_init_std * np.random.randn(input_size, hidden_size)
        self.params['b1'] = np.zeros(hidden_size)
        self.params['W2'] = weight_init_std * np.random.randn(hidden_size, output_size)
        self.params['b2'] = np.zeros(output_size)


    def predict(self, x):
        """
            入力値をもとに予測をする
        """

        W1, W2 = self.params['W1'], self.params['W2']
        b1, b2 = self.params['b1'], self.params['b2']

        a1 = np.dot(x, W1) + b1
        z1 = sigmoid(a1)
        a2 = np.dot(z1, W2) +  b2
        y = softmax(a2)
        return y


    def loss(self, x, t):
        """
            損失関数・・どれぐらい教師データと値が違うかを求める 返り値が大きいほど合っていない
            x・・入力データ
            t・・教師データ
        """
        y = self.predict(x)
        return cross_entropy_error(y, t)


    def accuracy(self, x, t):
        """
            返り値・・0から1の値 大きいほど入力データからの予測値と、教師データの値が一致している
        """
        y = self.predict(x)
        y = np.argmax(y, axis=1)
        t = np.argmax(t, axis=1)

        accuracy = np.sum(y == t) / float(x.shape[0])
        return accuracy


    def numerical_gradient(self, x, t):
        """
            重みパラメータに対する勾配を求める
            x・・入力データ
            t・・教師データ
            grads・・勾配を保持するディクショナリ変数
        """
        loss_W = lambda W: self.loss(x, t)   #loss_Wはloss関数と等しい
        grads = {}
        grads['W1'] = numerical_gradient(loss_W, self.params['W1'])
        grads['b1'] = numerical_gradient(loss_W, self.params['b1'])
        grads['W2'] = numerical_gradient(loss_W, self.params['W2'])
        grads['b2'] = numerical_gradient(loss_W, self.params['b2'])
        return grads

上記の二層ネットワーククラス内で使用しているnumerical_gradientのコード(本に付属しているコード)

def numerical_gradient(f, x):
    h = 1e-4 # 0.0001
    grad = np.zeros_like(x)

    it = np.nditer(x, flags=['multi_index'], op_flags=['readwrite'])
    while not it.finished:
        idx = it.multi_index
        tmp_val = x[idx]
        x[idx] = float(tmp_val) + h
        fxh1 = f(x) # f(x+h)

        x[idx] = tmp_val - h 
        fxh2 = f(x) # f(x-h)
        grad[idx] = (fxh1 - fxh2) / (2*h)

        x[idx] = tmp_val # 値を元に戻す
        it.iternext()   

    return grad

理解できない点

以前、別の方からの
「TwoLayerNetクラスのnumerical_gradient関数内で使用されているnumerical_gradient関数は,selfがついていないため、クラスの外側にあるcommon.numerical_gradient関数を使用しているという認識で正しいでしょうか?」
という質問に対し、回答者の方が
「はいそうです。プログラムの先頭部分にfrom common.gradient import numerical_gradient とあるのでcommon以下のgradient.pyに定義されているnumerical_gradientを使用しています。」
と回答されています。

そうすると引数の異なる同名の関数が存在するように思うのですが、一方でpythonはオーバーロードできないという説明を聞きました。
そうすると、上記の「TwoLayerNetクラスのnumerical_gradient関数」と「gradient.pyに定義されているnumerical_gradient関数」はどのような関係のものと思えばいいのでしょうか。

補足情報

以前、別の方がされている質問
https://teratail.com/questions/108865

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

checkベストアンサー

0

引数の異なる同名の関数も存在できます。スコープ(どこに所属するか)が異なれば名前が同じでも全く別物になりますので、「TwoLayerNetクラスのnumerical_gradient関数」と「gradient.pyに定義されているnumerical_gradient関数」も全く別物です。

以下、3種類の「test」がありますが、どれもたまたま同名なだけで全くの別物です。

class ClassA:
  def test(self, a, b, c):
    print(f'ClassAのtestです: {a}, {b}, {c}')

class ClassB:
  def test(self, a, b):
    print(f'ClassBのtestです: {a}, {b}')

def test(a):
  print(f'testです: {a}')


# 3種類の test() を実行
a = ClassA()
a.test('abc', 'def', 'ghi')

b = ClassB()
b.test('あいう', 'かきく')

test('12345')

実行結果:

ClassAのtestです: abc, def, ghi
ClassBのtestです: あいう, かきく
testです: 12345

詳細については、「python スコープ」などでググると解説が見つかると思います。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2020/06/03 23:08

    遅くなりすいません。ありがとうございました。
    全くの別物ということで理解できました。

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 88.77%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る