【前編】Pytorchの様々な最適化手法(torch.optim.Optimizer)の更新過程や性能を比較検証してみた!
に、
例えばSGDであれば、W←W-η∂l/∂wとあるんですが・・・これってつまりはどういう意味なんでしょうか。
グラフは、y=x^2であれば、x←x-η∂x^2/∂xつまりx←x-2x=-xとなり、xが代わりに-xになる、
微小量x進んだら微小量-x戻る、例えば1進んだら1戻るってことなんでしょうか?この場合だと、永久に進みませんよね・・・?
詳しい人説明お願いします、あと偏微分の∂もよくわかっていません(高校の微分ではないんですよね)。

回答2件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。