質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

ただいまの
回答率

89.54%

線形回帰は過学習をしますか?

受付中

回答 3

投稿

  • 評価
  • クリップ 0
  • VIEW 273

機械学習の過学習について質問があります。 

機械学習の本では過学習の説明に多項式回帰を使用します。誤差の乗った非線形のデータをうねうねと過剰適合した例がよく示されます。裏を返すと、線形回帰では過学習が起こらないということでしょうか?
線形回帰では、超平面を学習するのでうねうねしたモデルに適合できません。
線形回帰では過学習が起こらないという理解でよろしいでしょうか? 

  • 気になる質問をクリップする

    クリップした質問は、後からいつでもマイページで確認できます。

    またクリップした質問に回答があった際、通知やメールを受け取ることができます。

    クリップを取り消します

  • 良い質問の評価を上げる

    以下のような質問は評価を上げましょう

    • 質問内容が明確
    • 自分も答えを知りたい
    • 質問者以外のユーザにも役立つ

    評価が高い質問は、TOPページの「注目」タブのフィードに表示されやすくなります。

    質問の評価を上げたことを取り消します

  • 評価を下げられる数の上限に達しました

    評価を下げることができません

    • 1日5回まで評価を下げられます
    • 1日に1ユーザに対して2回まで評価を下げられます

    質問の評価を下げる

    teratailでは下記のような質問を「具体的に困っていることがない質問」、「サイトポリシーに違反する質問」と定義し、推奨していません。

    • プログラミングに関係のない質問
    • やってほしいことだけを記載した丸投げの質問
    • 問題・課題が含まれていない質問
    • 意図的に内容が抹消された質問
    • 過去に投稿した質問と同じ内容の質問
    • 広告と受け取られるような投稿

    評価が下がると、TOPページの「アクティブ」「注目」タブのフィードに表示されにくくなります。

    質問の評価を下げたことを取り消します

    この機能は開放されていません

    評価を下げる条件を満たしてません

    評価を下げる理由を選択してください

    詳細な説明はこちら

    上記に当てはまらず、質問内容が明確になっていない質問には「情報の追加・修正依頼」機能からコメントをしてください。

    質問の評価を下げる機能の利用条件

    この機能を利用するためには、以下の事項を行う必要があります。

質問への追記・修正、ベストアンサー選択の依頼

  • fourteenlength

    2019/10/21 19:19

    二次元平面上のデータを仮定したときに、ここでいう「超平面」は、ax+bに乗っかるモデルのみをさすのでしょうか?ax^2 + bx + cのようなものは超平面のモデルかもしれませんが線形と呼ばない(と思っているだけです。間違っていたらごめんなさい)ためです。
    例えば+y方向に偏った教師データがあれば、結果は偏った線形回帰(過学習?)になりそうですね。

    キャンセル

  • beginner_of_ML

    2019/10/21 20:35

    ごめんなさい。説明が足りませんでした。
    多項式回帰を含まない場合で質問したつもりです。

    キャンセル

回答 3

0

線形回帰でいう線形とは、パラメータに対して線形ということなので、超平面以外のモデルも含まれます。
質問の意図が超平面による回帰を意図していたのであれば、過学習はしないと思いますが、データが線形でない場合はうまく学習することはできません (過少適合)。


イメージ説明

線形回帰 - Wikipedia より引用


以下は全部線形回帰

import matplotlib.pyplot as plt
import numpy as np
from sklearn.linear_model import LinearRegression
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import PolynomialFeatures

# データを生成する。
X = np.array([[2.8], [2.9], [3.0], [3.1], [3.2], [3.3], [3.4], [3.5], [3.6]])
y = np.array([30, 26, 33, 31, 33, 35, 37, 36, 33])

for deg in range(1, 10, 3):
    pf = PolynomialFeatures(degree=deg)
    X_poly = pf.fit_transform(X)

    # 学習する。
    reg = LinearRegression().fit(X_poly, y)

    # 結果を描画する。
    y_pred = reg.predict(X_poly)

    fig, ax = plt.subplots()
    ax.set_title(f"degree = {deg}")
    ax.scatter(X.ravel(), y)
    ax.plot(X.ravel(), y_pred, "r")

    plt.show()

イメージ説明

イメージ説明

イメージ説明

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

0

極端な例でいうと以下のような場合、過学習しているといえます。
一般に学習データの数が不十分である場合、過学習しやすいです。
イメージ説明

投稿

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

0

サンプル数が変数の数に対して不十分な場合、線形のモデルであっても過学習します。

極端な例だと、ただのランダムなデータであっても上の条件に合致すればそこそこの「回帰」ができます。

投稿

編集

  • 回答の評価を上げる

    以下のような回答は評価を上げましょう

    • 正しい回答
    • わかりやすい回答
    • ためになる回答

    評価が高い回答ほどページの上位に表示されます。

  • 回答の評価を下げる

    下記のような回答は推奨されていません。

    • 間違っている回答
    • 質問の回答になっていない投稿
    • スパムや攻撃的な表現を用いた投稿

    評価を下げる際はその理由を明確に伝え、適切な回答に修正してもらいましょう。

15分調べてもわからないことは、teratailで質問しよう!

  • ただいまの回答率 89.54%
  • 質問をまとめることで、思考を整理して素早く解決
  • テンプレート機能で、簡単に質問をまとめられる