質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

88.91%

matplotlibのplotを行う際の行列整理について

解決済

回答 1

投稿

  • 評価
  • クリップ 0
  • VIEW 186

JMS

score 7

いま、以下のコードによりリッジ回帰を行っています。
この場合、コードの終盤にあるplotにより問題なく散布図を出すことができます。

%matplotlib inline
import matplotlib.pyplot as plt
import numpy as np
import pandas as pd
from sklearn.linear_model import LinearRegression
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error
from sklearn.preprocessing import PolynomialFeatures
from sklearn.linear_model import Ridge

data=pd.read_excel('元データ.xlsx')
data=data.drop([0,1]).reset_index(drop=True)
data['date']=pd.to_datetime(data['date'],format='%Y年%m月')
data['POSIX']=data['date'].astype('int64').values//10**9
data['year']=data['date'].dt.year
data['month']=data['date'].dt.month

x=data.iloc[0:38:1,[1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,32]]
y0=data.iloc[:38,[23]]
y1=data.iloc[:38,[24]]
y2=data.iloc[:38,[25]]
y3=data.iloc[:38,[26]]
y4=data.iloc[:38,[27]]
y5=data.iloc[:38,[28]]
y6=data.iloc[:38,[29]]

for y in [y0, y1, y2, y3, y4, y5, y6]:
    x_pos=data['POSIX'].values
    N=len(x)
    N_train=round(len(x)*0.8)
    N_test=N-N_train

    x_pos_train,x_pos_test=x_pos[:N_train],x_pos[N_train:]
    x_train,y_train=x[:N_train],y[:N_train]
    x_test,y_test=x[N_train:],y[N_train:]

    POLY=PolynomialFeatures(degree=6,include_bias=False)

    x_train_pol=POLY.fit_transform(x_train)
    x_test_pol=POLY.transform(x_test)

    sc=StandardScaler()
    x_train_std=sc.fit_transform(x_train_pol)
    x_test_std=sc.transform(x_test_pol)

    model2=Ridge(alpha=0.8)
    model2.fit(x_train_std,y_train)
    y_train_pred=model2.predict(x_train_std)
    y_test_pred=model2.predict(x_test_std)

    print('平均二乗誤差(訓練データ):',mean_squared_error(y_train,y_train_pred))
    print('平均二乗誤差(テストデータ):',mean_squared_error(y_test,y_test_pred))

    #残差プロット
    plt.figure(figsize=(8,4))
    plt.scatter(y_train_pred, y_train_pred-y_train,c='red',marker='o',edgecolor='white',label='Training data')
    plt.scatter(y_test_pred, y_test_pred-y_test,c='blue',marker='s',edgecolor='white',label='Test data')
    plt.xlabel('Predicted values')
    plt.ylabel('Residuals')
    plt.legend(loc='upper left') 
    plt.hlines(y=0,xmin=0,xmax=100000000000,color='black',lw=0.5)
    plt.xlim([10000000,100000000])
    plt.tight_layout()
    plt.show()

一方、以下のロッソ回帰を行うと描画の際にエラーとなります。
エラーメッセージも含めて以下記述します。モデルを変えただけで、あとはほぼすべてコードは同じです。もちろん元データも同じものです。

%matplotlib inline
import matplotlib.pyplot as plt
import numpy as np
import pandas as pd
from sklearn.linear_model import LinearRegression
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error
from sklearn.preprocessing import PolynomialFeatures
from sklearn.linear_model import Ridge
from sklearn.linear_model import Lasso


data=pd.read_excel('元データ.xlsx')
data=data.drop([0,1]).reset_index(drop=True)
data['date']=pd.to_datetime(data['date'],format='%Y年%m月')
data['POSIX']=data['date'].astype('int64').values//10**9
data['year']=data['date'].dt.year
data['month']=data['date'].dt.month

x=data.iloc[0:38:1,[1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,32]]
y0=data.iloc[:38,[23]] 
y1=data.iloc[:38,[24]]
y2=data.iloc[:38,[25]]
y3=data.iloc[:38,[26]]
y4=data.iloc[:38,[27]]
y5=data.iloc[:38,[28]]
y6=data.iloc[:38,[29]]

for y in [y0, y1, y2, y3, y4, y5, y6]:

    x_pos=data['POSIX'].values
    N=len(x)
    N_train=round(len(x)*0.8)
    N_test=N-N_train

    x_pos_train,x_pos_test=x_pos[:N_train],x_pos[N_train:]
    x_train,y_train=x[:N_train],y[:N_train]
    x_test,y_test=x[N_train:],y[N_train:]

    POLY=PolynomialFeatures(degree=6,include_bias=False)
    x_train_pol=POLY.fit_transform(x_train)
    x_test_pol=POLY.transform(x_test)

    sc=StandardScaler()
    x_train_std=sc.fit_transform(x_train_pol)
    x_test_std=sc.transform(x_test_pol)

    model3=Lasso(alpha=0.1)
    model3.fit(x_train_std,y_train)

    y_train_pred=model3.predict(x_train_std)
    y_test_pred=model3.predict(x_test_std)

    print('平均二乗誤差(訓練データ):',mean_squared_error(y_train,y_train_pred))
    print('平均二乗誤差(テストデータ):',mean_squared_error(y_test,y_test_pred))

    #y_train_pred=np.array(y_train_pred).reshape(1,-1).tolist()
    #y_test_pred=np.array(y_test_pred).reshape(1,-1).tolist()
    plt.figure(figsize=(8,4))
    plt.scatter(y_train_pred,y_train_pred-y_train,c='red',marker='o',edgecolor='white',label='Training data')
    plt.scatter(y_test_pred, y_test_pred-y_test,c='blue',marker='s',edgecolor='white',label='Test data')
    plt.xlabel('Predicted values')
    plt.ylabel('Residuals')
    plt.legend(loc='upper left')
    plt.hlines(y=0,xmin=0,xmax=100000000,color='black',lw=0.5)
    plt.xlim([10000000,100000000])
    plt.tight_layout()
    plt.show()

平均二乗誤差(訓練データ): 9334.400142192504
平均二乗誤差(テストデータ): 7933540129871.662
---------------------------------------------------------------------------
ValueError                                Traceback (most recent call last)
<ipython-input-525-38e77eb1362b> in <module>
     68     #y_test_pred=np.array(y_test_pred).reshape(1,-1).tolist()
     69     plt.figure(figsize=(8,4))
---> 70     plt.scatter(y_train_pred,y_train_pred-y_train,c='red',marker='o',edgecolor='white',label='Training data')
     71     plt.scatter(y_test_pred, y_test_pred-y_test,c='blue',marker='s',edgecolor='white',label='Test data')
     72     plt.xlabel('Predicted values')

~\Anaconda3\lib\site-packages\pandas\core\ops\__init__.py in f(self, other, axis, level, fill_value)
   1486     def f(self, other, axis=default_axis, level=None, fill_value=None):
   1487 
-> 1488         other = _align_method_FRAME(self, other, axis)
   1489 
   1490         if isinstance(other, ABCDataFrame):

~\Anaconda3\lib\site-packages\pandas\core\ops\__init__.py in _align_method_FRAME(left, right, axis)
   1425 
   1426         if right.ndim == 1:
-> 1427             right = to_series(right)
   1428 
   1429         elif right.ndim == 2:

~\Anaconda3\lib\site-packages\pandas\core\ops\__init__.py in to_series(right)
   1417             if len(left.columns) != len(right):
   1418                 raise ValueError(
-> 1419                     msg.format(req_len=len(left.columns), given_len=len(right))
   1420                 )
   1421             right = left._constructor_sliced(right, index=left.columns)

ValueError: Unable to coerce to Series, length must be 1: given 30

<Figure size 576x288 with 0 Axes>

ここで、私としては、y_train_predとy_test_predのshapeが、リッジ回帰のときとなぜか異なる形となっていることに気付きました。
リッジ回帰の場合は[[a,b,c,...]]と2次元なっており、ロッソ回帰の場合は[a,b,c,...]と1次元なっていました。

このため、結論としては上記コードでコメントアウトしている2行(#で示しています)を入れて、これらを2次元配列にすると治ることが分かりました。
ここで詳しい方に質問なのですが、

1.なぜロッソ回帰をやると次元が1次元になってしまうのでしょうか?
2.なぜ2次元配列にしないと散布図が書けないのでしょうか?

こちらどなたかお分かりになられる方、ご教示いただけないでしょうか。
丸一日かけても理解ができず・・・。助けてくださいませ!

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

回答 1

checkベストアンサー

0

まず最初にshapeを都度確認することを推奨します。何か変なことが起こっています。

先に簡単な方の2からお答えします。

2.なぜ2次元配列にしないと散布図が書けないのでしょうか?

そんなことはありません。テストコードで確認したところ、1次元配列であっても散布図は描けます。

import matplotlib.pyplot as plt
import numpy as np

x = np.array([1, 2, 3])
y = np.array([4, 5, 6])
xx = np.array([7, 8, 9]).reshape(-1, 1)
yy = np.array([10, 11, 12]).reshape(-1, 1)

print(x.shape, y.shape)
print(xx.shape, yy.shape)

plt.scatter(x, y, label="X:1D Y:1D")
plt.scatter(xx, y, label="X:2D Y:1D")
plt.scatter(x, yy, label="X:1D Y:2D")
plt.scatter(xx, yy, label="X:2D Y:2D")

plt.legend()
plt.show()


実行結果

(3,) (3,)
(3, 1) (3, 1)


scatter plot

1.なぜロッソ回帰をやると次元が1次元になってしまうのでしょうか?

これも次元は維持されます。LassoとRidgeで次元が異なるとしたら、(断言はできませんが)何かおかしなことが起こっているように思います。少なくともテストコードでは、次元は一致しました。

import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import Lasso, Ridge
from sklearn.model_selection import train_test_split


def func(x):
    a = 10.0
    b = 5.0
    y = a * x + b
    noise = np.random.randn(len(y))
    return y + noise


def main():
    x = np.linspace(0, 10, 100)  # x.shape == (100,)
    y = func(x)  # y.shape == (100,)

    # Fittingのために (n_sample, 1) にする
    x = x.reshape(-1, 1)  # x.shape == (100, 1)

    # 訓練データと試験データの分離
    x_train, x_test, y_train, y_test = train_test_split(
        x, y, test_size=0.33, random_state=42
    )
    # x_train.shape == (67, 1)
    # y_train.shape == (67,)
    # x_test.shape == (33, 1)
    # y_test.shape == (33,)

    # Lasso
    # (1 / (2 * n_samples)) * ||y - Xw||^2_2 + alpha * ||w||_1
    clf_lasso = Lasso(alpha=0.1)
    clf_lasso.fit(x_train, y_train)
    y_test_lasso = clf_lasso.predict(x_test)  # y_test_lasso.shape == (33,)

    # Ridge
    # ||y - Xw||^2_2 + alpha * ||w||^2_2
    clf_ridge = Ridge(alpha=0.1)
    clf_ridge.fit(x, y)
    y_test_ridge = clf_ridge.predict(x_test)  # y_test_ridge == (33,)

    # Plot
    plt.scatter(x_test, y_test, marker=".", label="Test data", color="red")
    plt.scatter(x_test, y_test_lasso, marker=".", label="Lasso", color="blue")
    plt.scatter(x_test, y_test_ridge, marker=".", label="Ridge", color="green")
    plt.legend()
    plt.show()


if __name__ == "__main__":
    main()

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

  • 2020/07/04 20:19

    まだ完全に再現できていませんが、方針が明確化しました。ありがとうございます!

    キャンセル

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 88.91%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる

関連した質問

同じタグがついた質問を見る