LightGBMは使ったことがないので少し的を外しているかもしれませんが,Scikit-Learnを使ったことがあって,その時の経験から書いてみます。(と言っても忘れていたので勉強し直しました)
まず,LightGBMはGradient Boosting Desition Tree(GBDT)
という方式を用いていて,複数の決定木(性能の低い学習器)を組み合わせて一つの学習器を構成しているイメージであるということはご存じでしょうか?
この方法をアンサンブルといいます。
https://www.researchgate.net/figure/Schematic-diagram-of-a-boosted-ensemble-of-decision-trees_fig2_325632132より
そして,この「決定木の数」がn_estimator
に相当します。
ブースティングというのはこのアンサンブルの一手法で,ある決定木を学習させた後,次の決定木を決める時に,一つ前までに学習させた学習器でうまくいかなかったデータのを精度よく推定できるよう試みていくのを順に繰り返していく方式のことをいいます。
https://medium.com/analytics-vidhya/ensemble-models-bagging-boosting-c33706db0b0bより
この図を見ていただくと,ランダムフォレスト法がそれぞれの決定木を学習するのに他の決定木と依存関係がなく,独立しているのに対し,GBDT
では1つ前の決定木に依存関係があることが何となくイメージができるでしょう。
このように,LightGBMの学習は,このそれぞれの決定木を学習させて順に求めていくことでありn_estimator
個揃って一つの大きな学習器となります。
このn_estimator
個揃えて一つの学習器を作るのをnum_boost_round
回繰り返すというのが一連の学習の流れであり,質問者のおっしゃる通りnum_boost_round=epoch数
といえます。
なお,MAX_LEAF_NODES
,MAX_DEPTH
はそれぞれの決定木(弱い学習器)の分岐数,分岐深さの制約条件であり,n_estimator
やnum_boost_round
との意味合いの違いは明らかでしょう。
バッドをするには、ログインかつ
こちらの条件を満たす必要があります。