質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.49%
深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

関数

関数(ファンクション・メソッド・サブルーチンとも呼ばれる)は、はプログラムのコードの一部であり、ある特定のタスクを処理するように設計されたものです。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

Q&A

解決済

1回答

1929閲覧

(おそらく)関数に引数を渡せない

783ma9ru5hi2zi

総合スコア4

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

関数

関数(ファンクション・メソッド・サブルーチンとも呼ばれる)は、はプログラムのコードの一部であり、ある特定のタスクを処理するように設計されたものです。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Python

Pythonは、コードの読みやすさが特徴的なプログラミング言語の1つです。 強い型付け、動的型付けに対応しており、後方互換性がないバージョン2系とバージョン3系が使用されています。 商用製品の開発にも無料で使用でき、OSだけでなく仮想環境にも対応。Unicodeによる文字列操作をサポートしているため、日本語処理も標準で可能です。

0グッド

0クリップ

投稿2020/04/01 05:17

前提・実現したいこと

・3000枚の手書き文字を15クラスに識別するCNNの作成
・2100枚の画像データで学習し、学習済みの重みはpickleに保存済み
・"submit_katakana.ipynd"を実行することで、学習済みの重みとモデル"cnn_test.py"を使って手書きカタカナを識別するようにしたい。

発生している問題・エラーメッセージ

"submit_katakana.ipynd"を実行すると精度を計算する関数に関して以下のようなエラーメッセージが出る。

<ipython-input-1-d848ee4d9506> in func_predict(test_data, test_label) 43 # loss = model.loss(test_data, test_label) 44 model = SimpleConvNet ---> 45 accuracy = model.accuracy(test_data, test_label) 46 loss = model.loss(test_data, test_label) 47 return loss, accuracy # 編集不可 TypeError: accuracy() missing 1 required positional argument: 't'

submit_katakanaのソースコード

python

1def makedataset(): 2 """ 3 データセットをつくる関数 4 """ 5 6 test_data= util.loaddata() # 変更不可 7 8 # 前処理 9 # 正規化 10 test_data = test_data / 255 11 test_data = test_data.astype('float32') 12 # 配列形式変更 13 test_data = test_data.reshape(-1,1,28,28) 14 15 return test_data 16 17 18def func_predict(test_data, test_label): 19 """ 20 予測する関数 21 data : 画像データ 22 return loss, accuracy 23 引数とreturn以外は、編集可 24 """ 25 model = SimpleConvNet 26 accuracy = model.accuracy(test_data, test_label) 27 loss = model.loss(test_data, test_label) 28 return loss, accuracy # 編集不可 29 30 31def main(): 32 """ 33 編集不可 34 """ 35 # テスト用データをつくる 36 test_data = makedataset() 37 # 予測し精度を算出する 38 util.accuracy(func_predict, test_data) 39 40 return 41 42 43if __name__=="__main__": 44 main()

cnn_test.pyのソースコード

class SimpleConvNet: def __init__(     (省略) def predict(self, x): for layer in self.layers.values(): x = layer.forward(x) return x def loss(self, x, t): """ 損失関数 x : 入力データ t : 教師データ """ y = self.predict(x) return self.last_layer.forward(y, t) def accuracy(self, x, t, batch_size=100): if t.ndim != 1 : t = np.argmax(t, axis=1) acc = 0.0 for i in range(int(x.shape[0] / batch_size)): tx = x[i*batch_size:(i+1)*batch_size] tt = t[i*batch_size:(i+1)*batch_size] y = self.predict(tx) y = np.argmax(y, axis=1) acc += np.sum(y == tt) return acc / x.shape[0] def gradient(self, x, t): """勾配を求める(誤差逆伝播法) Parameters ---------- x : 入力データ t : 教師データ Returns ------- 各層の勾配を持ったディクショナリ変数 grads['W1']、grads['W2']、...は各層の重み grads['b1']、grads['b2']、...は各層のバイアス """ # forward self.loss(x, t) # backward dout = 1 dout = self.last_layer.backward(dout) layers = list(self.layers.values()) layers.reverse() for layer in layers: dout = layer.backward(dout) # 設定 grads = {} grads['W1'], grads['b1'] = self.layers['Conv1'].dW, self.layers['Conv1'].db grads['W2'], grads['b2'] = self.layers['Conv2'].dW, self.layers['Conv2'].db grads['W3'], grads['b3'] = self.layers['Affine1'].dW, self.layers['Affine1'].db grads['W4'], grads['b4'] = self.layers['Affine2'].dW, self.layers['Affine2'].db return grads

utilのコード(編集不可)

def loaddata(): """ データを読む関数 """ test_data = np.load("../1_data/train_data.npy") return test_data def accuracy(func_predict, test_data): """ 精度を計算する関数 label_pred : numpy 1D array """ # データ数のチェック data_size = len(test_data) if data_size<3000: error = "label_predのサイズが足りていません" print(data_size, error) print('Test loss:', error) print('Test accuracy:', error) return elif data_size>3000: error = "label_predのサイズが多すぎます" print(data_size, error) print('Test loss:', error) print('Test accuracy:', error) return test_label = np.load("../1_data/train_label.npy") # 予測 # サーバーへの負荷を軽減するため、ミニバッチ処理で行う batch_size = 5000 minibatch_num = np.ceil( data_size / batch_size).astype(int) # ミニバッチの個数 li_loss = [] li_accuracy = [] li_num = [] index = np.arange(data_size) for mn in range(minibatch_num): print(mn) mask = index[batch_size*mn:batch_size*(mn+1)] data = test_data[mask] label = test_label[mask] loss, accuracy = func_predict(data, label) print(loss, accuracy) li_loss.append(loss) li_accuracy.append(accuracy) li_num.append(len(data)) test_loss = np.dot(li_loss, li_num) / np.sum(li_num) test_accuracy = np.dot(li_accuracy, li_num) / np.sum(li_num) print('Test loss:', test_loss) print('Test accuracy:', test_accuracy) return

何卒宜しくお願いします。

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

自己解決

submit_katakanaの関数func_predictにおいて、
model = SimpleConvNet
としていたものを
model = SimpleConvNet()
に変更すると解決

投稿2020/04/01 05:45

783ma9ru5hi2zi

総合スコア4

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.49%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問