質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

90.52%

  • Python

    7944questions

    Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

  • Python 3.x

    6352questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

  • 機械学習

    682questions

    機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

python scikit-learnを用いてのランダムフォレストの作成について

解決済

回答 2

投稿

  • 評価
  • クリップ 0
  • VIEW 273

---stax---

score 62

現在こちらの書籍を読みながら機械学習の勉強を進めています
Pythonではじめる機械学習 ―scikit-learnで学ぶ特徴量エンジニアリングと機械学習の基礎

その中でランダムフォレストにおける内容について分からない部分があります。
少しづつ異なった複数の決定木を作成するために、ブートストラップサンプリングを行い少しずつ異なったデータセットを作成する、という部分は何となくわかりました。
その次に重要なパラメータとして「max_features」というものが挙げられていました。

パラメータの説明について以下のように書かれていました

決定木を作るアルゴリズムを少しだけ変更する。
個々のノードで最適なテストを選ぶのではなく、特徴量のサブセットをランダムに選び、
その特徴量を使うものの中から最適なテストを選ぶ。特徴量のサブセットの大きさは、
パラメータmax_featuresで制御できる。
この特徴量のサブセットの選択は個々のノードで独立に繰り返し行われる。
これにより決定木の個々のノードが異なる特徴量のサブセットを使て決定を行うようになる。


この説明を読んでも意味が分からず何が重要なのかが分からず悩んでいます
このパラメータが何を意図しているのかを教えて頂きたいです
初歩的な内容ですが宜しくお願い致します

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 2

checkベストアンサー

+3

弱学習器を作る際に用いる教師データの特徴量の最大数ではないでしょうか?

同じ特徴量をそれぞれの弱学習器が使ったら、同じようなモデルになってしまうかもしれないので。


ある人がどういう人なのかを判断しようとした時に、10人にそれぞれ印象を聞いた方が偏見はなさそうです。
これが弱学習器を集めてくるモチベーションです。

この時、同じ職場で働く10人に聞くのが特徴量を揃えた時のイメージです。
これに対して、職場の人、行きつけの店の店主、ご近所さんなどのようにバラバラの人たちに聞くのか特徴量のサブセットをとるイメージです。

職場の人は責任感を見ているかもしれません。
行きつけの店の店長はお酒が入った時の振る舞いを知っています。
ご近所さんは人当たりの良さを気にするかもしれません。

多様であることが、弱学習器であるにもかかわらず、それを集めることで性能を発揮する秘訣ですので。


弱学習器は強い特徴量に引っ張られます。
なので、一部の特徴量をあえてマスクすることで汎化性能が向上しうるのです。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2018/07/12 11:36

    回答ありがとうございます
    返答遅くなり申し訳ありません
    とても分かりやすい説明ありがとうございます

    元のデータの件数が60件程度なので大幅には変わらなかったのですが
    決定木では以下のようになり
    training set score:0.862745
    test set score:0.647059

    ランダムフォレストでは以下のようになりました
    training set score:0.980392
    test set score:0.705882

    ここでいくつか疑問に思ったことがあります
    (本来の質問の枠からはみ出しているかもしれません・・・)

    ①特徴量のサブセットは特徴量の中の一部(たとえば10個の特徴量のうち3個の特徴量など)
    という認識でよろしいでしょうか?

    ②決定木もランダムフォレストもテストスコアが低いのは訓練データの数(約60件)が少なすぎることから十分に学習できていないことが原因の一つと考えられますか?

    ③訓練データに対するスコアに関して、1.000000のようなスコアが出ていると過剰適合しているという内容は何となくわかるのですが、そもそも訓練に対するスコアが低くなるという部分がよく分かりません。例が良くないのですが正解ラベルが犬や猫というものがあったとして、特徴量に犬や猫を表す情報があったとします。
    この特徴量は犬、この特徴量は猫というように学習しているとイメージしているのですが正解を受け取りながら学習しているのにスコアが低くなるというのはどういうことなのでしょうか?
    テストデータは学習には使わず未知の値としてモデルに渡して、その値を予測できるかという
    内容は分かるのですが、訓練データに対するスコアとはそもそも何に対して評価されているものなのでしょうか

    重ねて質問してしまい申し訳ありません
    宜しくお願い致します

    キャンセル

  • 2018/07/12 19:40 編集

    ①特徴量のサブセットは特徴量の中の一部

    おっしゃる通りです。。
    各弱学習器に対して異なる(ランダムに)特徴量を選んでいます。

    ②決定木もランダムフォレストもテストスコアが低いのは訓練データの数(約60件)が少なすぎることから

    教師データが少ないことに加えて、教師データに過学習しているためです。
    必要なサンプル数は問題に依存します。
    NAND回路であれば4サンプルあれば十分です。

    ③訓練データに対するスコアに関して、1.000000のようなスコアが出ていると過剰適合しているという内容は何となくわかるのですが、そもそも訓練に対するスコアが低くなるという部分がよく分かりません。例が良くないのですが正解ラベルが犬や猫というものがあったとして、特徴量に犬や猫を表す情報があったとします。
    この特徴量は犬、この特徴量は猫というように学習しているとイメージしているのですが正解を受け取りながら学習しているのにスコアが低くなるというのはどういうことなのでしょうか?

    いろいろな側面があると思いますが、手法について正しく認識していると仮定して、一番建設的な答えは、
    ペナルティ項があるからです。
    機械学習というのは、学習と汎化の競合です。
    教師データに矛盾がなく、かつフィッティング可能なパラメータが充分であれば、教師データに対して1対1の写像ができるので、正答率は1になります。
    ただし、機械学習の目的は既存のデータの検索ではありません。
    機械学習は教師データにないパターンに対して、出来るだけそれっぽい推定を出すことが目的です。
    そのためには、既存のデータを滑らかな関数空間上に慣らします。
    これは、推定しようとしているものが急激な変化を持たない、ということを仮定しています。
    ドア出たら-70℃の世界ではないことが、「常識的」だからです。
    ただし、教師データには真の値に加えてサンプル時にノイズが乗るものです。
    この非滑らかさをなだらかにするためにペナルティ項があります。
    このペナルティ項によってモデルは汎化性能を持ち、訓練データに対して精度を高めることができます。

    キャンセル

  • 2018/07/13 10:46 編集

    ちょっとしたコメント。
    決定木で、データを完全に分類できるようになるまでノードを深くしていくと、確かに訓練データに対して100%の正解率になります(ほぼ確実に過学習状態)。
    sklearnのDecisionTreeClassifierはデフォルトでこの挙動だった記憶があるので、0.862745というスコアになったのなら、木の深さを制限する等のチューニングを行っているのでしょう。これも広い意味で過学習のペナルティです(木の浅い層ほど効果的な=データの全体の傾向を捉えた分割になる。深い方では個別のデータを過学習するような分割ばっかりになる)。

    決定木は過学習番長みたいな面があり、かといって木を浅く・小さくしてモデルの表現力を落とすと(元々表現力はそう高くはないので)おいしい結果にならないという、割とどうしようもない性質があります。
    ランダムフォレストは、個々の決定木は「過学習しても別に構わないよ」という方針で学習させます(というかさせても大丈夫)。その代わり、ちょっとずつ異なった木をたくさん作って、集合知の力で分類する訳です。まぜこぜにして過学習を薄めてるだけとも言いますが・・・。

    その上で「この学習データはどう考えても間違ってる」とランダムフォレスト自身で『理解』したら、訓練データに対して100%の正解率にはなりません。
    良い例かどうかわかりませんが、人間がラベルつきの写真の束を見て犬と猫を学習し(それまで犬と猫の概念を知らなかった人とする)、あとで同じ写真をもう一度見せられて分類することを考えます。
    たまに猫の写真なんだけど『犬』ってラベルが書いてあるとか、犬の写真だけど『猫』だとか、なデータを見せられる。「いや、他の写真と比較して考えるに、どう見ても『猫』/『犬』じゃん」と思って「正しい」ラベルとは異なった答えを返すかもしれません。
    訓練データに対する正解率は下がりますが、汎化性能の観点からすれば喜ばしいことです。
    この例でランダムフォレストのアルゴリズムのを考えるのなら、「写真をブートストラップサンプリングして、しかも耳だけとか足だけとか尻尾だけとかで切り出した束を幾つも作り、何人もの人に配って学習させる。その上で全員の多数決で予測する」みたいな感じ? ちょっと強引ですが。

    でもまあ、今回の
    training set score:0.980392
    test set score:0.705882
    だと大した汎化性能はなさそうですが。ちなみにランダムフォレストだと、うまく行った場合でも、訓練データに対してはよっっっっっぽどの外れ値以外は学習した通りに分類します(木の深さを制限しなかった場合の話)。その代わり、テストデータに対するスコアが上がって釣り合いが取れるような挙動になります。
    基本的に過学習するけど、マクロな汎化性能は確保するという性質です。

    キャンセル

  • 2018/07/17 10:50

    返答遅くなり申し訳ありません
    お二方とも丁寧な回答ありがとうございます
    凄く分かりやすいです
    今回実施したチューニングは枝切りと決定木の作成数くらいですが
    test set score:0.705882
    から下がることはあっても上がることはなくていまいちパラメータの効果が分かりにくいのでより大きなサンプルデータを見つけてもう少し勉強してみます

    キャンセル

+2

たとえば、かの有名なirisは4次元の特徴量です。がく片の長さ、がく片の幅、花びらの長さ、花びらの幅ですね。

4つぜんぶ使って決定木を作ればよさそうな気がしますが、そうすると過学習の問題がでてきます。なので、ぜんぶは使わないであえて一部の情報だけで分類してやります。

sklearnのデフォルトはsqrtで、4次元なら木ごとにランダムに2つ選ばれます。がく片の長さ・がく片の幅の組み合わせだったり、がく片の長さ・花びらの幅の組み合わせだったりする訳です。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 90.52%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る

  • Python

    7944questions

    Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

  • Python 3.x

    6352questions

    Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

  • 機械学習

    682questions

    機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。