kaggleとかで特徴量エンジニアリングを行うときにアンサンブル学習をするのを目にします。
このサイトの例だと、XGBoostとNeural Network、RGFをアンサンブル学習しているのですが、実際にアンサンブル学習はどうやって複数のモデルを混ぜるのでしょうか?
自分の考えですが、
・使った特徴量をそのまま、まとめて使う
・複数のモデルの保存した重みを使用する
などするのでしょうか?
疑問点として
・複数のモデルの結果の何を使用し、どのように使うか
がよくわかりません。
例えば、XGBoostとNeural Network、RGFなどのアンサンブル学習はどうやるのでしょう?具体例や、方法などをご教授いただけないでしょうか?
よろしくお願いします。
回答1件
あなたの回答
tips
プレビュー
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。
2018/09/30 01:29