質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
Chainer

Chainerは、国産の深層学習フレームワークです。あらゆるニューラルネットワークをPythonで柔軟に書くことができ、学習させることが可能。GPUをサポートしており、複数のGPUを用いた学習も直感的に記述できます。

Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Q&A

解決済

1回答

1597閲覧

損失関数の値の大きさは、勾配計算に影響を与えますか?

Amanokawa

総合スコア41

Chainer

Chainerは、国産の深層学習フレームワークです。あらゆるニューラルネットワークをPythonで柔軟に書くことができ、学習させることが可能。GPUをサポートしており、複数のGPUを用いた学習も直感的に記述できます。

Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

0グッド

1クリップ

投稿2019/03/15 01:16

オプティマイザーにはSGDやAdamなどがありますが、これらは損失関数の大きさで重みの更新量が変わったりするのでしょうか?
具体的には、オプティマイザーに与えるlossを10倍にしても、larning_rateなどのパラメータが同じであればlossをそのまま与えた計算と同じになるのでしょうか?それともlossを10倍した方が大きく勾配計算を行うのでしょうか?

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

ベストアンサー

基本的には、コスト関数の大きさよりもその地点における勾配の大きさ(つまり微分値)が影響します。「基本的」という言い方をしたのは、使用するオプティマイザによって挙動が異なるためです。初期に考案されたもの(SDG)は学習率が固定なので微分値が異なれば重みの更新量は比例的に異なります。しかしながら、その後に考案されたもののなかには、勾配が小さいということは最小値が近くにあるという仮定のもと、学習率そのものが調整されるものがあります。つまり勾配の大きさだけでは更新量が決定しないということになります。

投稿2019/03/15 13:51

R.Shigemori

総合スコア3376

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問