四つの中で過学習の対策としてあてはまるのはどれですか?
分散表現
再パラメータ化
方策勾配
早期終了
それぞれの言葉の意味は説明できます(理解してます)でしょうか?
分散表現は簡単にですが理解しています。自分は単語埋め込みという名前では知っていたんですが、それと同意であれば単語を実数ベクトルで表現し、近い意味の単語を近いベクトルで表現するものだったような気がするのでこれは違うかなと思います。方策勾配については強化学習に使われるというのはしっているのですが、それが過学習とかかわりがあるのかはわかりません。早期終了はPytorchでearly stoppingとして使ったことはあります。ただ再パラメータ化(reparameterization)は言葉すら初めて聞きました。。
> 早期終了はPytorchでearly stoppingとして使ったことはあります。
それはどのようなシチュエーション、理由で使ったでしょうか?
ほか、分からない単語、特に再パラメータ化については検索してみていろいろ読んでみるとよいかと思います。
返信ありがとうございます。一度広島県で行われた機械学習を学ぶハンズオン講座の際に特殊ではありますが、回帰予測でアンサンブルにつかうアルゴリズムの割合の最適化にDLを使いました。その際に回帰予測のほうにもDLのみでの予測も試しにやったのですが、過学習ぎみになってしまったときに使用しました。再パラメータ化についてなんですが、日本語、英語ともに自分の求める答えは出ませんでした。ですが、reparameterization trickという言葉では何度か見たのですが、再パラメータ化と同じ意味として使われているのですか?
> 過学習ぎみになってしまったときに使用しました。
なるほど。つまり…
はい。早期終了は過学習の対策ですよね。。。。あと残るのは再パラメータ化が過学習の対策手法なのかどうかですね。
https://ai-kenkyujo.com/2020/04/24/kagakushu/
にて過学習の対策として「正則化」があげられています。
機械学習は門外漢なので逆にお尋ねしたいのですが、これはひとつの再パラメータ化(ハイパーパラメータ値の変更)にあたらないでしょうか?
みてみますね!!!
回答1件
あなたの回答
tips
プレビュー