KerasのAdam optimizerについて質問です。
keras.optimizers.Adam(lr=0.001)のように、引数で学習率だけ指定し、decayなどは指定しなければ、
epochごとに学習率が変わることはなく学習終了まで常に学習率(この場合は0.001)は保たれるという理解で合っているでしょうか。
Keras公式サイトを確認しましたが、はっきりとした答えを見つけることができなかったため、こちらに質問をさせていただきました。
初歩的な確認で恐れ入りますが、どなたかご存じの方がいらっしゃいましたらご教示いただけますと幸いです。
どうぞよろしくお願いいたします。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。