回答編集履歴
2
脱字
test
CHANGED
@@ -20,11 +20,11 @@
|
|
20
20
|
|
21
21
|
|
22
22
|
|
23
|
-
これらの問題に対してはカーネルトリックと呼ばれる次元に対してデータ点が少ない場合でも正確な回帰が出来るような手法があったります。
|
23
|
+
これらの問題に対してはカーネルトリックと呼ばれる次元に対してデータ点が少ない場合でも正確な回帰が出来るような手法があったりします。
|
24
24
|
|
25
25
|
|
26
26
|
|
27
|
-
また、説明変数の相関を調べる手法としてランダムフォレスト、RVM。
|
27
|
+
また、説明変数と目的変数の相関を調べる手法としてランダムフォレスト、RVM。
|
28
28
|
|
29
29
|
|
30
30
|
|
1
補足
test
CHANGED
@@ -39,3 +39,11 @@
|
|
39
39
|
まとめると、重回帰も本質的には線形回帰モデルで、機械学習の手法にも線形回帰モデルを解く手法が多々存在し、どれを使うべきかは問題設定によると言うのが答えです。
|
40
40
|
|
41
41
|
基本的には重回帰で充分精度が出る問題では重回帰を、重回帰では解けない、精度が出ない、データが足りない、などであれば機械学習を使うと言った使い分けが出来ると言えるかもしれません。
|
42
|
+
|
43
|
+
|
44
|
+
|
45
|
+
補足
|
46
|
+
|
47
|
+
|
48
|
+
|
49
|
+
機械学習的な手法であっても相関のある変数を捨てる選択の自動化は難しいです。何故なら入力するデータ、出力して欲しいデータを決めるのは人間だからです。基本的に線形回帰モデルは変数同士が独立であることを仮定しています。独立のないデータをどうやって回帰するかですが、PCAと呼ばれる次元削減手法や混合ガウス分布のMAP推定(chinese restaurant process、変分ベイズEM)、最尤推定(GMMEM)などを使って独立な変数を選択します。機械学習的な回帰手法全てが相関を考慮せずに適応出来るわけではありません。
|