質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.47%
Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

2回答

532閲覧

python scikit-learnを用いてのランダムフォレストの作成について

---stax---

総合スコア148

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

1クリップ

投稿2018/07/11 04:14

現在こちらの書籍を読みながら機械学習の勉強を進めています
Pythonではじめる機械学習 ―scikit-learnで学ぶ特徴量エンジニアリングと機械学習の基礎

その中でランダムフォレストにおける内容について分からない部分があります。
少しづつ異なった複数の決定木を作成するために、ブートストラップサンプリングを行い少しずつ異なったデータセットを作成する、という部分は何となくわかりました。
その次に重要なパラメータとして「max_features」というものが挙げられていました。

パラメータの説明について以下のように書かれていました

決定木を作るアルゴリズムを少しだけ変更する。 個々のノードで最適なテストを選ぶのではなく、特徴量のサブセットをランダムに選び、 その特徴量を使うものの中から最適なテストを選ぶ。特徴量のサブセットの大きさは、 パラメータmax_featuresで制御できる。 この特徴量のサブセットの選択は個々のノードで独立に繰り返し行われる。 これにより決定木の個々のノードが異なる特徴量のサブセットを使て決定を行うようになる。

この説明を読んでも意味が分からず何が重要なのかが分からず悩んでいます
このパラメータが何を意図しているのかを教えて頂きたいです
初歩的な内容ですが宜しくお願い致します

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答2

0

ベストアンサー

弱学習器を作る際に用いる教師データの特徴量の最大数ではないでしょうか?

同じ特徴量をそれぞれの弱学習器が使ったら、同じようなモデルになってしまうかもしれないので。


ある人がどういう人なのかを判断しようとした時に、10人にそれぞれ印象を聞いた方が偏見はなさそうです。
これが弱学習器を集めてくるモチベーションです。

この時、同じ職場で働く10人に聞くのが特徴量を揃えた時のイメージです。
これに対して、職場の人、行きつけの店の店主、ご近所さんなどのようにバラバラの人たちに聞くのか特徴量のサブセットをとるイメージです。

職場の人は責任感を見ているかもしれません。
行きつけの店の店長はお酒が入った時の振る舞いを知っています。
ご近所さんは人当たりの良さを気にするかもしれません。

多様であることが、弱学習器であるにもかかわらず、それを集めることで性能を発揮する秘訣ですので。


弱学習器は強い特徴量に引っ張られます。
なので、一部の特徴量をあえてマスクすることで汎化性能が向上しうるのです。

投稿2018/07/11 07:13

mkgrei

総合スコア8560

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

---stax---

2018/07/12 02:36

回答ありがとうございます 返答遅くなり申し訳ありません とても分かりやすい説明ありがとうございます 元のデータの件数が60件程度なので大幅には変わらなかったのですが 決定木では以下のようになり training set score:0.862745 test set score:0.647059 ランダムフォレストでは以下のようになりました training set score:0.980392 test set score:0.705882 ここでいくつか疑問に思ったことがあります (本来の質問の枠からはみ出しているかもしれません・・・) ①特徴量のサブセットは特徴量の中の一部(たとえば10個の特徴量のうち3個の特徴量など) という認識でよろしいでしょうか? ②決定木もランダムフォレストもテストスコアが低いのは訓練データの数(約60件)が少なすぎることから十分に学習できていないことが原因の一つと考えられますか? ③訓練データに対するスコアに関して、1.000000のようなスコアが出ていると過剰適合しているという内容は何となくわかるのですが、そもそも訓練に対するスコアが低くなるという部分がよく分かりません。例が良くないのですが正解ラベルが犬や猫というものがあったとして、特徴量に犬や猫を表す情報があったとします。 この特徴量は犬、この特徴量は猫というように学習しているとイメージしているのですが正解を受け取りながら学習しているのにスコアが低くなるというのはどういうことなのでしょうか? テストデータは学習には使わず未知の値としてモデルに渡して、その値を予測できるかという 内容は分かるのですが、訓練データに対するスコアとはそもそも何に対して評価されているものなのでしょうか 重ねて質問してしまい申し訳ありません 宜しくお願い致します
mkgrei

2018/07/12 10:42 編集

①特徴量のサブセットは特徴量の中の一部 おっしゃる通りです。。 各弱学習器に対して異なる(ランダムに)特徴量を選んでいます。 ②決定木もランダムフォレストもテストスコアが低いのは訓練データの数(約60件)が少なすぎることから 教師データが少ないことに加えて、教師データに過学習しているためです。 必要なサンプル数は問題に依存します。 NAND回路であれば4サンプルあれば十分です。 ③訓練データに対するスコアに関して、1.000000のようなスコアが出ていると過剰適合しているという内容は何となくわかるのですが、そもそも訓練に対するスコアが低くなるという部分がよく分かりません。例が良くないのですが正解ラベルが犬や猫というものがあったとして、特徴量に犬や猫を表す情報があったとします。 この特徴量は犬、この特徴量は猫というように学習しているとイメージしているのですが正解を受け取りながら学習しているのにスコアが低くなるというのはどういうことなのでしょうか? いろいろな側面があると思いますが、手法について正しく認識していると仮定して、一番建設的な答えは、 ペナルティ項があるからです。 機械学習というのは、学習と汎化の競合です。 教師データに矛盾がなく、かつフィッティング可能なパラメータが充分であれば、教師データに対して1対1の写像ができるので、正答率は1になります。 ただし、機械学習の目的は既存のデータの検索ではありません。 機械学習は教師データにないパターンに対して、出来るだけそれっぽい推定を出すことが目的です。 そのためには、既存のデータを滑らかな関数空間上に慣らします。 これは、推定しようとしているものが急激な変化を持たない、ということを仮定しています。 ドア出たら-70℃の世界ではないことが、「常識的」だからです。 ただし、教師データには真の値に加えてサンプル時にノイズが乗るものです。 この非滑らかさをなだらかにするためにペナルティ項があります。 このペナルティ項によってモデルは汎化性能を持ち、訓練データに対して精度を高めることができます。
hayataka2049

2018/07/13 01:57 編集

ちょっとしたコメント。 決定木で、データを完全に分類できるようになるまでノードを深くしていくと、確かに訓練データに対して100%の正解率になります(ほぼ確実に過学習状態)。 sklearnのDecisionTreeClassifierはデフォルトでこの挙動だった記憶があるので、0.862745というスコアになったのなら、木の深さを制限する等のチューニングを行っているのでしょう。これも広い意味で過学習のペナルティです(木の浅い層ほど効果的な=データの全体の傾向を捉えた分割になる。深い方では個別のデータを過学習するような分割ばっかりになる)。 決定木は過学習番長みたいな面があり、かといって木を浅く・小さくしてモデルの表現力を落とすと(元々表現力はそう高くはないので)おいしい結果にならないという、割とどうしようもない性質があります。 ランダムフォレストは、個々の決定木は「過学習しても別に構わないよ」という方針で学習させます(というかさせても大丈夫)。その代わり、ちょっとずつ異なった木をたくさん作って、集合知の力で分類する訳です。まぜこぜにして過学習を薄めてるだけとも言いますが・・・。 その上で「この学習データはどう考えても間違ってる」とランダムフォレスト自身で『理解』したら、訓練データに対して100%の正解率にはなりません。 良い例かどうかわかりませんが、人間がラベルつきの写真の束を見て犬と猫を学習し(それまで犬と猫の概念を知らなかった人とする)、あとで同じ写真をもう一度見せられて分類することを考えます。 たまに猫の写真なんだけど『犬』ってラベルが書いてあるとか、犬の写真だけど『猫』だとか、なデータを見せられる。「いや、他の写真と比較して考えるに、どう見ても『猫』/『犬』じゃん」と思って「正しい」ラベルとは異なった答えを返すかもしれません。 訓練データに対する正解率は下がりますが、汎化性能の観点からすれば喜ばしいことです。 この例でランダムフォレストのアルゴリズムのを考えるのなら、「写真をブートストラップサンプリングして、しかも耳だけとか足だけとか尻尾だけとかで切り出した束を幾つも作り、何人もの人に配って学習させる。その上で全員の多数決で予測する」みたいな感じ? ちょっと強引ですが。 でもまあ、今回の training set score:0.980392 test set score:0.705882 だと大した汎化性能はなさそうですが。ちなみにランダムフォレストだと、うまく行った場合でも、訓練データに対してはよっっっっっぽどの外れ値以外は学習した通りに分類します(木の深さを制限しなかった場合の話)。その代わり、テストデータに対するスコアが上がって釣り合いが取れるような挙動になります。 基本的に過学習するけど、マクロな汎化性能は確保するという性質です。
---stax---

2018/07/17 01:50

返答遅くなり申し訳ありません お二方とも丁寧な回答ありがとうございます 凄く分かりやすいです 今回実施したチューニングは枝切りと決定木の作成数くらいですが test set score:0.705882 から下がることはあっても上がることはなくていまいちパラメータの効果が分かりにくいのでより大きなサンプルデータを見つけてもう少し勉強してみます
guest

0

たとえば、かの有名なirisは4次元の特徴量です。がく片の長さ、がく片の幅、花びらの長さ、花びらの幅ですね。

4つぜんぶ使って決定木を作ればよさそうな気がしますが、そうすると過学習の問題がでてきます。なので、ぜんぶは使わないであえて一部の情報だけで分類してやります。

sklearnのデフォルトはsqrtで、4次元なら木ごとにランダムに2つ選ばれます。がく片の長さ・がく片の幅の組み合わせだったり、がく片の長さ・花びらの幅の組み合わせだったりする訳です。

投稿2018/07/11 07:31

hayataka2049

総合スコア30933

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.47%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問