質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.50%
深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

3376閲覧

Pythonで実装されている勾配降下法の動作がわからない(ゼロから作るディープラーニング 4.5.1)

faker

総合スコア51

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2018/11/25 00:40

編集2018/11/25 00:41

Pythonで実装されている勾配降下法の動作がわからない

再帰関数?を使っているようなのですが、どうやって動作しているのかがわかりません。
関数numerical_gradientの動作がわかりません。

該当のソースコード

Python

1 2import sys, os 3sys.path.append(os.pardir) # 親ディレクトリのファイルをインポートするための設定 4from common.functions import * 5from common.gradient import numerical_gradient 6 7 8class TwoLayerNet: 9 # 引数は、入力層、隠れ層、出力層のニューロン数,学習率 10 def __init__(self, input_size, hidden_size, output_size, weight_init_std=0.01): 11 # 重み,バイアスの初期化 12 self.params = {} # 重み、バイアスのパラメータを保持する辞書型の変数 13 self.params['W1'] = weight_init_std * np.random.randn(input_size, hidden_size) 14 self.params['b1'] = np.zeros(hidden_size) # ゼロで初期化 15 self.params['W2'] = weight_init_std * np.random.randn(hidden_size, output_size) 16 self.params['b2'] = np.zeros(output_size) 17 #{"W1" : (input_size,hidden_size)のnumpy配列 , "b1" : (hidden_size)のnumpy配列 , ... } 18 # 推論をする 19 def predict(self, x): 20 W1, W2 = self.params['W1'], self.params['W2'] 21 b1, b2 = self.params['b1'], self.params['b2'] 22 23 a1 = np.dot(x, W1) + b1 24 z1 = sigmoid(a1) 25 a2 = np.dot(z1, W2) + b2 26 y = softmax(a2) 27 28 return y 29 30 # x:入力データ, t:正解ラベル(教師データ) 31 # 損失関数を求める 32 def loss(self, x, t): 33 y = self.predict(x) 34 35 return cross_entropy_error(y, t) 36 #認識精度を求める 37 def accuracy(self, x, t): 38 y = self.predict(x) 39 y = np.argmax(y, axis=1) 40 t = np.argmax(t, axis=1) 41 42 accuracy = np.sum(y == t) / float(x.shape[0]) 43 return accuracy 44 45 # x:入力データ, t:教師データ 46 # 重みパラメータを対する勾配(各要素を偏微分してベクトルにまとめたもの)を求める 47 def numerical_gradient(self, x, t): 48 # Wはダミーの変数 49 loss_W = lambda W: self.loss(x, t) 50 51 grads = {} 52 # 無限ループにならない? 53 grads['W1'] = numerical_gradient(loss_W, self.params['W1']) 54 grads['b1'] = numerical_gradient(loss_W, self.params['b1']) 55 grads['W2'] = numerical_gradient(loss_W, self.params['W2']) 56 grads['b2'] = numerical_gradient(loss_W, self.params['b2']) 57 58 return grads 59 60 61 62 63

試したこと

numerical_gradient関数の中にprintを書いて、何回printされるか試しました。
1回しかprintされず、よくわからなくなったためここで質問をしました。

補足情報(FW/ツールのバージョンなど)

「ゼロから作るディープラーニング」4.5.2 p.113~114のプログラムです。
Githubにプログラムがアップロードされており、
https://github.com/oreilly-japan/deep-learning-from-scratch/tree/master/ch04
の「two_layer_net.py」です。

初心者のため、質問内容で疑問に思ったことがあれば質問していただけると自分がわかる範囲で答えます。
よろしくお願いします。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

ベストアンサー

grads['W1'] = numerical_gradient(loss_W, self.params['W1'])は自身(メンバ関数)ではなく
from common.gradient import numerical_gradientimportしたnumerical_gradient関数を呼んでいるため
再帰はしていません。

投稿2018/11/25 01:05

can110

総合スコア38233

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

faker

2018/11/25 01:24

たしかにそうですね......!簡潔で分かりやすい回答ありがとうございます。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.50%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問