質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.48%
機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

2回答

2839閲覧

オライリー社「pythonではじめる機械学習」94~95ページ、3次元空間で線形SVMで見つかった決定境界をもとの2つの特徴量として表示するコードで理解できない部分があります。

searabbit

総合スコア11

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2020/05/23 10:55

プログラミングと機械学習の初心者です。Windous10、anaconda3、JupyterNotebookを使用しています。
オライリー社「pythonではじめる機械学習」2.3.7.1線形モデルと非線形特徴量の94~95ページのコードで大きく2点ほど理解できない部分があります。
コードは、sklearnのmake_blobsデータセットを用いて、拡張された3次元空間で線形SVMで見つかった決定境界を、もとの2つの特徴量の関数として表示するものになります。

  • 以下14行目のコードでXX、YY、ZZをそれぞれ(50,50)から(2500,)に変換しているようなのですが、これはdecision_functionがこの形式しか受け付けないからでしょうか。また、decision_functionは何をしているのでしょうか。fitと同じように決定境界を学習しているのでしょうか。

python

1dec=linear_svm_3d.decision_function(np.c_[XX.ravel(),YY.ravel(),ZZ.ravel()])の部分
  • 以下15行目のコードでXX,YYの右にdec.reshape(XX.shape)が入るのはなぜでしょうか。これは(2500,)のdecを(50,50)にしているようですが、なぜXX,YY,ZZではないのでしょうか。確かにここをZZに置き換えると決定境界線が平行線に作図されてしまってうまくいかないのは確認できたのですが、なぜなのか理解できません。

python

1plt.contourf(XX,YY,dec.reshape(XX.shape),levels=[dec.min(),0,dec.max()],cmap=mglearn.cm2,alpha=0.5)

以上よろしくお願いいたします。
以下、コード全体となります。

python

1import mglearn 2import numpy as np 3import matplotlib.pyplot as plt 4from sklearn.datasets import make_blobs 5X,y=make_blobs(centers=4,random_state=8) 6y=y%2 7X_new=np.hstack([X,X[:,1:]**2]) 8from sklearn.svm import LinearSVC 9linear_svm_3d=LinearSVC().fit(X_new,y) 10xx=np.linspace(X_new[:,0].min()-2,X_new[:,0].max()+2,50) 11yy=np.linspace(X_new[:,1].min()-2,X_new[:,1].max()+2,50) 12XX,YY=np.meshgrid(xx,yy) 13ZZ=YY**2 14dec=linear_svm_3d.decision_function(np.c_[XX.ravel(),YY.ravel(),ZZ.ravel()]) 15plt.contourf(XX,YY,dec.reshape(XX.shape),levels=[dec.min(),0,dec.max()],cmap=mglearn.cm2,alpha=0.5) 16mglearn.discrete_scatter(X[:,0],X[:,1],y) 17plt.xlabel("Feature 0") 18plt.ylabel("Feature 1")

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答2

0

ベストアンサー

以下14行目のコードでXX、YY、ZZをそれぞれ(50,50)から(2500,)に変換しているようなのですが、これはdecision_functionがこの形式しか受け付けないからでしょうか。

np.c_[XX.ravel(),YY.ravel(),ZZ.ravel()] ですが、

  1. XX, YY, ZZ はそれぞれ (50, 50) の2次元配列であり、ndarray.ravel() でそれぞれ (2500,) の1次元配列に変更しています。
  2. numpy.c_[XX.ravel(),YY.ravel(),ZZ.ravel()] で3つの1次元配列を横方向に結合しているので、(2500, 3) の2次元配列になります。

この (2500, 3) の2次元配列を decision_function() に渡しています。

また、decision_functionは何をしているのでしょうか。fitと同じように決定境界を学習しているのでしょうか。

学習自体は fit() で完了しています。
decision_function() は、点を与えると、SVM が学習した分離超平面からの距離を返します。

sklearn.svm.LinearSVC.decision_function

以下15行目のコードでXX,YYの右にdec.reshape(XX.shape)が入るのはなぜでしょうか。これは(2500,)のdecを(50,50)にしているようですが、なぜXX,YY,ZZではないのでしょうか。

dec.reshape(XX.shape) としているのは、contourf() の仕様上、dec の形状 (2500,) を XX, YY に合わせて (50, 50) にしなければいけないためです。

コードの流れ解説

線形分離できない2次元のデータが与えられたとします。

python

1import matplotlib.pyplot as plt 2import numpy as np 3from matplotlib.colors import ListedColormap 4from mpl_toolkits.mplot3d import Axes3D 5from sklearn.datasets import make_blobs 6from sklearn.svm import LinearSVC 7 8# 2次元のデータを作成する。 9X, y = make_blobs(centers=4, random_state=8) 10y = y % 2 11 12fig, ax = plt.subplots() 13class_colors = ListedColormap(["g", "k"]) 14ax.scatter(X[:, 0], X[:, 1], c=y, cmap=class_colors) 15ax.set_xlabel("Feature 0") 16ax.set_ylabel("Feature 1") 17plt.show()

イメージ説明

このままでは線形分離できないので、Φ: (x, y) → (x, y, y^2) という関数で3次元空間に射影します。3次元空間上に射影したことで線形分離可能になったので、線形 SVM で学習できます。

python

1X_new = np.hstack([X, X[:, 1:] ** 2]) 2 3fig = plt.figure(figsize=(7, 7)) 4ax = fig.add_subplot(111, projection="3d") 5ax.scatter(X_new[:, 0], X_new[:, 1], X_new[:, 2], c=y, cmap=class_colors) 6ax.view_init(30, 30) 7ax.set_xlabel("Feature 0") 8ax.set_ylabel("Feature 1") 9plt.show()

イメージ説明

fit() で学習します。

python

1svc = LinearSVC().fit(X_new, y)

射影した空間 {(x, y, y^2)|x, y∈ℝ} 上の各点と分類超平面との距離を decision_function() で計算します。

python

1# 射影した空間上の点を作成する。 2xs = np.linspace(X_new[:, 0].min() - 2, X_new[:, 0].max() + 2, 50) 3ys = np.linspace(X_new[:, 1].min() - 2, X_new[:, 1].max() + 2, 50) 4XX, YY = np.meshgrid(xs, ys) 5ZZ = YY ** 2 6 7# 作成した点と分類超平面との距離を計算する。 8dist = svc.decision_function(np.c_[XX.ravel(), YY.ravel(), ZZ.ravel()]) 9 10# SVM の超平面を計算する。 11def hyper_plane(svc, XX, YY): 12 a1, a2, a3 = svc.coef_[0] 13 b = svc.intercept_[0] 14 return (-b - a1 * XX - a2 * YY) / a3 15 16 17plane = hyper_plane(svc, XX, YY) 18 19 20# 可視化する。 21fig = plt.figure(figsize=(9, 7)) 22ax = fig.add_subplot(111, projection="3d") 23# 学習データの点を可視化する。 24ax.scatter(X_new[:, 0], X_new[:, 1], X_new[:, 2], c=y, cmap=class_colors) 25# 射影した空間上の各点と分類超平面との距離を可視化する。 26sc = ax.scatter(XX, YY, ZZ, c=dist, cmap="bwr", vmin=-15, vmax=15) 27# 分類超平面を可視化する。 28ax.plot_surface(XX, YY, plane, alpha=0.5) 29ax.view_init(30, 30) 30ax.set_xlabel("Feature 0") 31ax.set_ylabel("Feature 1") 32fig.colorbar(sc) 33plt.show()

イメージ説明

{(x, y)|decision_function(x, y, y^2) = 0, x, y∈ℝ} が元の2次元空間において、決定境界となります。
なので、decision_function(x, y, y^2) = 0 である等高線を contourf() で描画します。

python

1fig, ax = plt.subplots() 2class_colors = ListedColormap(["g", "k"]) 3# 決定境界を可視化する。 4ax.contourf( 5 XX, YY, dist.reshape(XX.shape), levels=[dist.min(), 0, dist.max()], cmap="Set2" 6) 7# データを可視化する。 8ax.scatter(X[:, 0], X[:, 1], c=y, cmap=class_colors) 9plt.xlabel("Feature 0") 10plt.ylabel("Feature 1") 11plt.show()

イメージ説明

投稿2020/05/23 12:42

編集2020/05/23 16:32
tiitoi

総合スコア21956

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

meg_

2020/05/23 14:45

質問の例題は「線形モデルと非線形特徴量」の項目のものです。2次元では分離不可なデータの分類を学習するものとなっています。
tiitoi

2020/05/23 16:19

話の流れがいろいろ間違っていたので修正しました。 コメントありがとうございます。
searabbit

2020/05/24 07:07

大変丁寧な解説をいただきありがとうございます。直感的にもとてもわかりやすかったです。 いただきましたコードの細かい内容についてはこれからじっくり咀嚼していきたいと思いますが、なんとか話についていけている感じです。 一点だけ確認させてください。いただきましたコード中のdist(質問のコードではdecに相当する部分)は、結局は各点と分類超平面のz軸方向の距離という理解でいいでしょうか。
tiitoi

2020/05/24 07:19 編集

``` xs = np.linspace(X_new[:, 0].min() - 2, X_new[:, 0].max() + 2, 50) ys = np.linspace(X_new[:, 1].min() - 2, X_new[:, 1].max() + 2, 50) XX, YY = np.meshgrid(xs, ys) ZZ = YY ** 2 ``` これで作ったのが、回答3個目の図のU上の点です。 この各点と分類超平面 (薄い青の平面) との符号付きの距離が dist です。 3つめの図だと分類超平面から上側に離れていくほど負の値 (青色)、下側に離れていくほど正の値 (赤色) になっています。 > 各点と分類超平面のz軸方向の距離という理解でいいでしょうか。 「点と平面との距離」は「点から平面に下ろした垂線の距離」と定義されます。
searabbit

2020/05/24 11:48

なるほど!よくわかりました! ありがとうございました!
guest

0

decision_functionはf=wx+bの計算で識別面からのマージンを計算してます。
(50,50)から(2500,)に変換は、f=wx+bの形ですのでxはベクトルにする必要があります。

余計なお世話かもしれませんが、今の理解で本を先にススメるは難しいかもしれませんよ。
単回帰→重回帰→ロジスティック回帰の分類→SVMの分類の順で理解を深めることをオススメします。

投稿2020/05/23 12:01

s-uchi

総合スコア101

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

searabbit

2020/05/24 07:16

ご指摘いただきました件、確かにSVMの頁に入った途端、突然難易度が上がった感じです。もう少し基礎固めに時間を割くべきなのかとも感じています。もし、比較的初心者向けでおススメできる書籍などがありましたら、ご紹介いただけますと幸いです。よろしくお願いいたします。
s-uchi

2020/05/24 12:48

私は、本を買っては挫折してを繰り返した人間(このループにハマる人結構いると思います。)ですが 今思うと、本は最初に手にしたアマゾン等の評価がいいもんでいいと思います。 足りてないのは、知識ではなく”経験”だと思います。 なので、オススメは参考書の各トピック毎に、xxx 実践とかでググって興味をソソられる記事を見つけてコード書いてみるといいです。 例えば、「SVM、実践」でググッて、その実践コードを模写するのではなく、チラ見しながら書く or 解こうしている問題だけ把握して、あとは参考書ベースにコード書いてみる等の手を動かすことがオススメです。
searabbit

2020/05/26 22:34

貴重な経験談とアドバイスありがとうございます。 確かにキーワード検索してみると色々出てきますね。 自分のレベルにあったものを見つけて試行錯誤してみたいと思います。 ありがとうございました。
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.48%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問