ゼロから作るDeepLearningという本にて、分からない部分がありました為、質問させて頂きました。
具体的には、以下のコードの内容となります。
# coding: utf-8 import sys, os sys.path.append('/Users/shinya/Desktop/DeepLearning/deep-learning-from-scratch/') # 親ディレクトリのファイルをインポートするための設定 # sys.path.append(os.pardir) # 親ディレクトリのファイルをインポートするための設定 sys.path.append('/Users/shinya/Desktop/DeepLearning/deep-learning-from-scratch/ch03/') import numpy as np import pickle from dataset.mnist import load_mnist from common.functions import sigmoid, softmax def get_data(): (x_train, t_train), (x_test, t_test) = load_mnist(normalize=True, flatten=True, one_hot_label=False) return x_test, t_test def init_network(): #学習済みの重みパラメータ読み込み with open("/Users/shinya/Desktop/DeepLearning/deep-learning-from-scratch/ch03/sample_weight.pkl", 'rb') as f: network = pickle.load(f) return network def predict(network, x): W1, W2, W3 = network['W1'], network['W2'], network['W3'] b1, b2, b3 = network['b1'], network['b2'], network['b3'] a1 = np.dot(x, W1) + b1 z1 = sigmoid(a1) a2 = np.dot(z1, W2) + b2 z2 = sigmoid(a2) a3 = np.dot(z2, W3) + b3 y = softmax(a3) return y x, t = get_data() network = init_network() accuracy_cnt = 0 for i in range(len(x)): y = predict(network, x[i]) p= np.argmax(y) # 最も確率の高い要素のインデックスを取得 # print(p) # ニュートラルネットワークが予測した答えと正解ラベルを比較し、正解した割合を # 認証制度(accuracy)とする if p == t[i]: accuracy_cnt += 1 print("Accuracy:" + str(float(accuracy_cnt) / len(x)))
こちらのコードの内容なのですが、MINIST画像を読み込みニュートラルネットワークにて、予測をする?といった内容らしいのですが、自分自身、処理の内容が把握しきれていない状況でございます...
y = predict(network, x[I])
こちらの部分については、予測した結果の配列が入っているのですが、そもそもなのですが、ある数字のデータをpredict関数にかけてニュートラルネットワークにて処理を行うにしても、何故ニュートラルネットワークの部分では、入ってきたデータが数字であるということが分かり、その数字がどういうものであるかといったことを、導き出す必要があるといったことが分かるのでしょうか...?
機械学習の勉強をしていて、若干混乱してしまいました為、どなたか、ご助言頂けましたら幸いです...
よろしくお願いします。
回答5件
あなたの回答
tips
プレビュー