質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.35%
関数

関数(ファンクション・メソッド・サブルーチンとも呼ばれる)は、はプログラムのコードの一部であり、ある特定のタスクを処理するように設計されたものです。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

875閲覧

損失関数 ラムダ式での処理

退会済みユーザー

退会済みユーザー

総合スコア0

関数

関数(ファンクション・メソッド・サブルーチンとも呼ばれる)は、はプログラムのコードの一部であり、ある特定のタスクを処理するように設計されたものです。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2020/12/20 11:47

質問内容

書籍「ゼロから作るDeepLearning」で勉強しております.
わからない箇所があるので質問させていただきます.
エラーが出ているわけではないのですが,どのような処理がされているのかを教えていただきたいです.
該当のソースコードには単純なニューラルネットワークにおいて損失関数から勾配を求める処理を行うプログラムを書きました.
コードの25コード目でラムダ式により損失関数が渡されています.numerical_gradientの引数とするために関数としたのはわかりますが,net.loss(x,t)はfloat型であることがわかりました.これを微分したら定数であるので0になるのではないですか?
実際,f = lambda w: 1.194949593668443としたところ,零行列が返されました.
多分,関数の場所を参照していると思うのですが,よくわかりません.
ご教授いただけたら幸いです.

該当のソースコード

Python

1import sys, os 2sys.path.append(os.pardir) 3import numpy as np 4from common.functions import softmax, cross_entropy_error 5from common.gradient import numerical_gradient 6 7class simpltNet: 8 def __init__(self): 9 self.W = np.random.randn(2,3) 10 11 def predict(self, x): 12 return np.dot(x, self.W) 13 14 def loss(self, x, t): 15 z = self.predict(x) 16 y = softmax(z) 17 loss = cross_entropy_error(y, t) 18 19 return loss 20 21x = np.array([0.6, 0.9]) 22t = np.array([0, 0, 1]) 23 24net = simpltNet() 25f = lambda w: net.loss(x, t) 26dW = numerical_gradient(f, net.W) 27 28print(dW)

補足情報(FW/ツールのバージョンなど)

「ゼロから作るDeepLearning」のサンプルコードを使用しています.

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

y_waiwai

2020/12/20 11:52

しつもんはなんでしょうか
退会済みユーザー

退会済みユーザー

2020/12/20 12:29

損失関数はWに依存していないのに,Wで偏微分して0にならないのはなぜという点です.
guest

回答1

0

ベストアンサー

インスタンスメソッドを定義するときの第一引数(慣例ではself)が、呼び出す時には書かないことで起こる誤解です。

ゼロから作るDeep Learning:定数関数の微分 をお読み下さい。

投稿2020/12/20 23:27

ppaul

総合スコア24670

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.35%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問