前提
sklearnを勉強中の理系大学生です。
kNNについて質問させてください。
sklearnでmnist_784 ver.1をインポートし、これをkNNによる学習にかけました。
###プログラム
from sklearn.datasets import fetch_openml mnist=fetch_openml("mnist_784",version=1,as_frame=False) mnist.keys() X,y = mnist["data"],mnist["target"] print(X) print(y) %matplotlib inline import matplotlib.pyplot as plt width=10 image_size=10 fig=plt.figure(figsize=(image_size,width*image_size)) for i in range(width): ax=fig.add_subplot(1,width,i+1) ax.imshow(X[i].reshape((28,28)),cmap="binary") ax.axis("off") for i in range(width): print(y[i],end="") from sklearn.preprocessing import StandardScaler split_train=1800 split_test=2000 X_train,X_test=X[:split_train],X[split_train:split_test] print(X_train.shape,X_test.shape) y_train,y_test=y[:split_train],y[split_train:split_test] std_scl=StandardScaler() X_train_scaled=std_scl.fit_transform(X_train) print(f"X_train_scaled:{X_train_scaled}") X_test_scaled=std_scl.transform(X_test) from sklearn.neighbors import KNeighborsClassifier knn_clf= KNeighborsClassifier(n_neighbors=4) %time knn_clf.fit(X_train_scaled,y_train) %time y_knn_pred=knn_clf.predict(X_test_scaled) from sklearn.metrics import accuracy_score accuracy_score(y_test,y_knn_pred)
質問内容
kNNによる学習を行う際、変数Xに格納した各画像の数字配列を標準化したのですが、この標準化にはどのような意味があるのでしょうか。
私は、標準化は「スケールの異なる特徴量の比率をそろえる行為」だという認識を持っています。
しかし、変数Xに格納されているのは前述のとおり各画像の数字配列であり、それぞれのスケールが異なるわけではないように感じられます。
しかし、accuracy_scoreで評価してみると、標準化を行った場合と行わない場合では前者のほうが圧倒的に精度がよくなります。
ここでの標準化がどのようなふるまいをしているのか、また私の標準化に対する認識がもし間違っているとするならば、標準化とはどのようなものであるのか、ご教授いただけると幸いです。
あなたの回答
tips
プレビュー