質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.49%
Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

Q&A

解決済

1回答

3402閲覧

Kerasで画像分類

TyoNgc

総合スコア14

Keras

Kerasは、TheanoやTensorFlow/CNTK対応のラッパーライブラリです。DeepLearningの数学的部分を短いコードでネットワークとして表現することが可能。DeepLearningの最新手法を迅速に試すことができます。

深層学習

深層学習は、多数のレイヤのニューラルネットワークによる機械学習手法。人工知能研究の一つでディープラーニングとも呼ばれています。コンピューター自体がデータの潜在的な特徴を汲み取り、効率的で的確な判断を実現することができます。

Python 3.x

Python 3はPythonプログラミング言語の最新バージョンであり、2008年12月3日にリリースされました。

機械学習

機械学習は、データからパターンを自動的に発見し、そこから知能的な判断を下すためのコンピューターアルゴリズムを指します。人工知能における課題のひとつです。

0グッド

1クリップ

投稿2017/12/20 14:31

編集2017/12/21 05:33

Kerasこちらのサイトを参考にKerasで画像分類を行っていますが、エラーが出ました。入力層の問題だと思うのですが何が間違っているでしょうか。エラーは、レイヤーを定義した後に発生しました。

追記
上記のサイトの通りにコードを書いたら96%の正解率が出ました。畳み込みやプーリングを使っていないように見えるのですが、どのような構成になっているのでしょうか。また畳み込みやプーリングの層を付け加えてこれ以上の正答率が出るでしょうか。最終的には転移学習で、AlexnetやVGGの中間層の特徴抽出を行いたいと思っています。

python

1#fc2 2from keras.models import Sequential 3from keras.layers import Activation, Dense, Dropout, Convolution2D, MaxPooling2D, Flatten 4from keras.utils.np_utils import to_categorical 5from keras.optimizers import Adagrad 6from keras.optimizers import Adam 7import numpy as np 8from PIL import Image 9import os 10 11image_list = [] 12label_list = [] # 訓練データとバリデーションデータを生成するジェネレータを作成 13 14for dir in os.listdir("data/train"): 15 if dir == ".DS_Store": 16 continue 17 18 dir1 = "data/train/" + dir 19 label = 0 20 21 if dir == "A": 22 label = 0 23 elif dir == "B": 24 label = 1 25 elif dir == "C": 26 label = 2 27 28 for file in os.listdir(dir1): 29 if file != ".DS_Store": 30 # 配列label_listに正解ラベルを追加(りんご:0 オレンジ:1) 31 label_list.append(label) 32 filepath = dir1 + "/" + file 33 # 画像を25x25pixelに変換し、1要素が[R,G,B]3要素を含む配列の25x25の2次元配列として読み込む。 34 # [R,G,B]はそれぞれが0-255の配列。 35 image = np.array(Image.open(filepath).resize((28, 28))) 36 print(filepath) 37 # 配列を変換し、[[Redの配列],[Greenの配列],[Blueの配列]] のような形にする。 38 image = image.transpose(2, 0, 1) 39 # さらにフラットな1次元配列に変換。最初の1/3はRed、次がGreenの、最後がBlueの要素がフラットに並ぶ。 40 image = image.reshape(1, image.shape[0] * image.shape[1] * image.shape[2]).astype("float32")[0] 41 # 出来上がった配列をimage_listに追加。 42 43 image_list.append(image / 255.) 44 45# kerasに渡すためにnumpy配列に変換。 46image_list = np.array(image_list) 47 48# ラベルの配列を1と0からなるラベル配列に変更 49# 0 -> [1,0], 1 -> [0,1] という感じ。 50Y = to_categorical(label_list) 51 52# モデルを生成してニューラルネットを構築 53model = Sequential() 54model.add(Convolution2D(32, 3, 3, input_shape=(1, 28, 28 ,3))) 55model.add(Activation('relu')) 56model.add(MaxPooling2D(pool_size=(2, 2))) 57 58model.add(Convolution2D(32, 3, 3)) 59model.add(Activation('relu')) 60model.add(MaxPooling2D(pool_size=(2, 2))) 61 62model.add(Convolution2D(64, 3, 3)) 63model.add(Activation('relu')) 64model.add(MaxPooling2D(pool_size=(2, 2))) 65 66model.add(Flatten()) 67model.add(Dense(64)) 68model.add(Activation('relu')) 69model.add(Dropout(0.5)) 70model.add(Dense(3)) 71model.add(Activation('softmax')) 72 73# オプティマイザにAdamを使用 74opt = Adam(lr=0.001) 75# モデルをコンパイル 76model.compile(loss="categorical_crossentropy", optimizer=opt, metrics=["accuracy"]) 77# 学習を実行。10%はテストに使用。 78model.fit(image_list, Y, nb_epoch=1500, batch_size=100, validation_split=0.1) 79 80 81__**エラー発生**__ 82 83# テスト用ディレクトリ(./data/train/)の画像でチェック。正解率を表示する。 84total = 0. 85ok_count = 0. 86 87for dir in os.listdir("data/train"): 88 if dir == ".DS_Store": 89 continue 90 91 dir1 = "data/test/" + dir 92 label = 0 93 94 if dir == "A": 95 label = 0 96 elif dir == "B": 97 label = 1 98 elif dir == "C": 99 label = 2 100 101 for file in os.listdir(dir1): 102 if file != ".DS_Store": 103 label_list.append(label) 104 filepath = dir1 + "/" + file 105 image = np.array(Image.open(filepath).resize((28, 28))) 106 print(filepath) 107 image = image.transpose(2, 0, 1) 108 image = image.reshape(1, image.shape[0] * image.shape[1] * image.shape[2]).astype("float32")[0] 109 result = model.predict_classes(np.array([image / 255.])) 110 print("label:", label, "result:", result[0]) 111 112 total += 1. 113 114 if label == result[0]: 115 ok_count += 1. 116 117print("seikai: ", ok_count / total * 100, "%")

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

guest

回答1

0

ベストアンサー

model.add(Convolution2D(32, 3, 3, input_shape=(1, 28, 28 ,3)))

model.add(Convolution2D(32, 3, 3, input_shape=(28, 28 ,3)))

多分参考にした記事はそんなに精度が良くないです。
それでもRandomForestなどでもデータによっては95%は普通に超えます。
ので、りんごとオレンジですし、色だけしか分解能が必要でないかもしれません。
畳み込みによって空間情報の分散にロバストになります。よって、精度が向上します。

画像は視覚的にファンシーですが、その前にニューラルネットワーク以前の機械学習の方法についてある程度の感覚を身につける必要があるかもしれません。
結局畳み込みニューラルネットワークの強みは従来の手法より大幅に精度を向上させたところにあるので、うまくいっているかどうかは比較を行う必要があります。
手法の選択において、精度自体の値にそれほどの意味はないと思われます。


ちなみにですが、FunctionalAPIのほうが書く際にミスが少ないです。
https://keras.io/models/model/

投稿2017/12/20 17:41

編集2017/12/20 17:44
mkgrei

総合スコア8560

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

TyoNgc

2017/12/21 05:31

ありがとうございます。学習の実行の際に以下のようなエラーが出ました。 Error when checking input: expected conv2d_1_input to have 4 dimensions, but got array with shape (1425, 2352) 次元数が違うことを指摘されていると思うのですが、どこでエラーが発生しているのか分かりません。
mkgrei

2017/12/21 05:47

入力を平坦化したあとのものをXに使っているせいです。 Kerasのバージョンにもよりますが、最新のものであれば、以下の2行をコメントアウトしてください。 image = image.transpose(2, 0, 1) image = image.reshape(1, image.shape[0] * image.shape[1] * image.shape[2]).astype("float32")[0]
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.49%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問