質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

88.93%

RFEにより重要と判定された特徴量を用いて回帰分析を自動で行う方法

受付中

回答 1

投稿

  • 評価
  • クリップ 0
  • VIEW 163

JMS

score 7

少し難しい質問です。もし分かる方がいらっしゃれば教えてください!

特徴量が23個、従属変数が7種類(y0~y6)あるようなデータセットを回帰分析をするとします。
以下ではその回帰分析の結果としての平均二乗誤差がy0~y6までの7通り計算されています。

ここで、コードをよくみていただくとRFEにより特徴量の優先順位付けをy0~y6までのそれぞれの回帰モデルについて実施し、その結果を
ranking_dataとしてリスト表示しています。

さて、ここからが私がどうしてもできないことです。

1.この特徴量の順位付けを、randamforest等の場合のfeature_importances_のように寄与度で表せないか?
2.2つの基準(寄与度何パーセントまでor上位〇位まで)により優先的特徴量を選択し、当該優先的特徴量のみを用いて再度y0~y6までの

回帰を自動的に行い、y0~y6までの平均二乗誤差を再度計算していく・・・という処理をしたいのです。

また、特徴量総当たり戦で23個×23個=276通りの特徴量セットを用いた場合の平均二乗誤差を全て求め、誤差が少ないものから順位付け
を行うということもしてみたいと思っています。なお、この場合の順位付けは以下のコードでいう、mean_squared_error(y_test,y_test_pred)、
つまり、テストデータの回帰により計算される平均二乗誤差を基準に行いたいと思っています。
この2つの処理の方法について、方法をお分かりの方はいらっしゃいますでしょうか?

多分私がPythonのプログラミングのレベルが低く、できないのです。困っています。

%matplotlib inline
import matplotlib.pyplot as plt
import numpy as np
import pandas as pd
from sklearn.linear_model import LinearRegression
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error
from sklearn.preprocessing import PolynomialFeatures
from sklearn.linear_model import Ridge
from sklearn.linear_model import Lasso
from sklearn.linear_model import ElasticNet
from sklearn.linear_model import SGDRegressor
from sklearn.feature_selection import RFE

data=pd.read_excel('元データ.xlsx')
data=data.drop([0,1]).reset_index(drop=True)
data['date']=pd.to_datetime(data['date'],format='%Y年%m月')
data['POSIX']=data['date'].astype('int64').values//10**9
data['year']=data['date'].dt.year
data['month']=data['date'].dt.month

x=data.iloc[0:38:1,[1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,32]]
y0=data.iloc[:38,[23]] #0-43
y1=data.iloc[:38,[24]]#0-42
y2=data.iloc[:38,[25]]#0-41
y3=data.iloc[:38,[26]]#0-40
y4=data.iloc[:38,[27]]#0-39
y5=data.iloc[:38,[28]]#0-38
y6=data.iloc[:38,[29]]#0-37
ranking_data=[]

print(x.shape,y0.shape,y1.shape,y2.shape,y3.shape,y4.shape,y5.shape,y6.shape)

#以下から回帰をしますが、データセットの中で従属変数が7個あり、それぞれについて平均二乗誤差を求めています
for y in [y0, y1, y2, y3, y4, y5, y6]:

    x_pos=data['POSIX'].values
    N=len(x)
    N_train=round(len(x)*0.8)
    N_test=N-N_train

    x_pos_train,x_pos_test=x_pos[:N_train],x_pos[N_train:]
    x_train,y_train=x[:N_train],y[:N_train]
    x_test,y_test=x[N_train:],y[N_train:]

    sc=StandardScaler()#特徴料の標準化を行う
    x_train_std=sc.fit_transform(x_train)
    x_test_std=sc.transform(x_test)

    model0=LinearRegression()
    model0.fit(x_train_std,y_train)

#     print('傾き:',model0.coef_)
#     print('切片:',model0.intercept_)

    y_train_pred=model0.predict(x_train_std)
    y_test_pred=model0.predict(x_test_std)

    print('平均二乗誤差(訓練データ):',mean_squared_error(y_train,y_train_pred))
    print('平均二乗誤差(テストデータ):',mean_squared_error(y_test,y_test_pred))

#     #残差プロット

#     plt.figure(figsize=(8,4))
#     plt.scatter(y_train_pred, y_train_pred-y_train,
#             c='red',marker='o',edgecolor='white',
#            label='Training data')
#     plt.scatter(y_test_pred, y_test_pred-y_test,
#            c='blue',marker='s',edgecolor='white',
#            label='Test data')
#     plt.xlabel('Predicted values')
#     plt.ylabel('Residuals')
#     plt.legend(loc='upper left') #凡例の場所
#     plt.hlines(y=0,xmin=0,xmax=100000000000,color='black',lw=0.5)
#     plt.xlim([10000000,100000000])
#     plt.tight_layout()
#     plt.show()


    #以下より特徴量選択
    rfe=RFE(estimator=model0,n_features_to_select=1,step=1)
    rfe.fit(x_train_std,y_train)
    ranking=rfe.ranking_
    ranking_data.append(ranking)

else:
    print(ranking_data)
#     # Plot pixel ranking
#     plt.matshow(ranking_data, cmap=plt.cm.Blues)
#     plt.colorbar()
#     plt.title("Ranking of pixels with RFE")
#     plt.show()

<以下、実行結果>
(38, 23) (38, 1) (38, 1) (38, 1) (38, 1) (38, 1) (38, 1) (38, 1)
平均二乗誤差(訓練データ): 114011291159.95395
平均二乗誤差(テストデータ): 1267800782959.8984
平均二乗誤差(訓練データ): 16950209332442.383
平均二乗誤差(テストデータ): 98253998300883.72
平均二乗誤差(訓練データ): 5200760524356.056
平均二乗誤差(テストデータ): 151019289642192.44
平均二乗誤差(訓練データ): 11454044835110.838
平均二乗誤差(テストデータ): 106155038718937.3
平均二乗誤差(訓練データ): 3440276199629.5225
平均二乗誤差(テストデータ): 267603651190857.25
平均二乗誤差(訓練データ): 9641806263803.537
平均二乗誤差(テストデータ): 252002096095316.03
平均二乗誤差(訓練データ): 6985170572173.642
平均二乗誤差(テストデータ): 469711288726137.25
[array([15,  6, 21, 23, 13, 12,  9,  3, 10,  8, 16,  5, 11,  4,  7, 22, 18,
       20, 14, 17,  1,  2, 19]), array([23, 16, 12, 10, 22, 17, 21, 13, 15,  1,  7, 20, 18,  6,  3,  5,  4,
       19, 11,  8,  9,  2, 14]), array([22, 21,  4, 20,  7,  6,  1,  2,  3, 10, 19,  5, 16,  9, 17, 15, 13,
       23,  8, 11, 12, 14, 18]), array([22, 23, 12, 19, 16, 17, 10,  5, 11,  6, 20,  2,  3,  4,  7,  9,  8,
       21, 18, 14, 13,  1, 15]), array([ 8, 16, 20, 23, 21, 11,  1,  2,  3, 12,  7,  9, 17,  5,  6,  4, 13,
       14, 15, 19, 22, 10, 18]), array([19, 18, 17, 22,  6,  7,  5, 10, 14, 11,  3, 21,  8,  1,  2, 12, 13,
       20,  9, 15, 16,  4, 23]), array([23, 12, 20, 21, 15, 16, 11,  8, 17,  9,  3, 13,  6,  1,  2,  5, 19,
        4,  7, 22, 14, 10, 18])]
  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

0

1.この特徴量の順位付けを、randamforest等の場合のfeature_importances_のように寄与度で表せないか?

モデル不問のPermutation Importanceを使ってみては?
AutoML系のツールではアルゴリズム間を比較する必要があり、アルゴリズム太いのこういった指標が
今後主流になると思われます。

Permutation Importanceを使ってモデルがどの特徴量から学習したかを定量化する

Permutation Importanceを使って検証データにおける特徴量の有用性を測る

SHAP等もありますね。

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 88.93%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る