torch.optim.Adam
の学習係数を直接書き換えたいです。
optimizerをAdamのインスタンスとすると、
optimizer.param_groups[0]['lr']
という配列にその時の学習係数が入っていますが、これは単に表示用の値でしょうか。
それとも、この値を変更することで、更新量を調節することができるのでしょうか。
あなたの回答
tips
プレビュー
torch.optim.Adam
の学習係数を直接書き換えたいです。
optimizerをAdamのインスタンスとすると、
optimizer.param_groups[0]['lr']
という配列にその時の学習係数が入っていますが、これは単に表示用の値でしょうか。
それとも、この値を変更することで、更新量を調節することができるのでしょうか。
あなたの回答
tips
プレビュー