質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.30%

Q&A

解決済

2回答

375閲覧

Pytorchの様々な最適化手法の具体的な理解(数学がらみ)

phpuser567

総合スコア12

0グッド

0クリップ

投稿2023/08/21 15:54

引用サイト:https://rightcode.co.jp/blog/information-technology/torch-optim-optimizer-compare-and-verify-update-process-and-performance-of-optimization-methods

【前編】Pytorchの様々な最適化手法(torch.optim.Optimizer)の更新過程や性能を比較検証してみた!

に、

例えばSGDであれば、W←W-η∂l/∂wとあるんですが・・・これってつまりはどういう意味なんでしょうか。
グラフは、y=x^2であれば、x←x-η∂x^2/∂xつまりx←x-2x=-xとなり、xが代わりに-xになる、
微小量x進んだら微小量-x戻る、例えば1進んだら1戻るってことなんでしょうか?この場合だと、永久に進みませんよね・・・?
詳しい人説明お願いします、あと偏微分の∂もよくわかっていません(高校の微分ではないんですよね)。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答2

0

ベストアンサー

グラフは、y=x^2であれば、x←x-η∂x^2/∂xつまりx←x-2x=-xとなり、xが代わりに-xになる、

なりません。

微小量x進んだら微小量-x戻る、例えば1進んだら1戻るってことなんでしょうか?この場合だと、永久に進みませんよね・・・?

例えば y = x^2 で η = 0.01 として、 x = 1 のとき x ← 1 - 0.01 * 2 * 1 となり x は 0.98 となります。次の更新は x ← 0.98 - 0.01 * 2 * 0.98 となり、x は 0.9604 となります。これを繰り返していくと限りなく0に近い値になります。(10万回繰り返すと1.2e-322になります。)

η の値を様々に変えて計算してみると勾配降下法への理解が深まるかと思います。Pythonで計算すれば簡単に計算できるので実際にやってみてください。

あと偏微分の∂もよくわかっていません

とりあえず偏微分の意味と計算例・応用が分かれば良いかと思います。手計算しないと中々覚えられないと思いますので色々な練習問題を解きましょう。

投稿2023/08/22 10:57

編集2023/08/22 11:11
meg_

総合スコア10933

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

0

この場合だと、永久に進みませんよね・・・?

だからηがあるのですよ

投稿2023/08/21 17:02

PondVillege

総合スコア1581

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

phpuser567

2023/08/21 17:13

かみ・・・ 考え方はあってますかね???
PondVillege

2023/08/21 17:38 編集

考え方はあっています. ただ,ηの効果がわからないと,過去の質問でのgammaの効果を理解することは不可能です. いちど,過去の質問で紹介された書籍等で体系的に学習されることを推奨します.
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.30%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問